0% ont trouvé ce document utile (0 vote)
47 vues9 pages

Introduction aux probabilités et variables aléatoires

pdf du probabilité

Transféré par

haitizineb9
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Thèmes abordés

  • produit de variables aléatoire…,
  • événements incompatibles,
  • permutations,
  • modèles probabilistes,
  • événements élémentaires,
  • probabilités conditionnelles,
  • espérance,
  • prédictions probabilistes,
  • applications en recherche,
  • propriétés des probabilités
0% ont trouvé ce document utile (0 vote)
47 vues9 pages

Introduction aux probabilités et variables aléatoires

pdf du probabilité

Transféré par

haitizineb9
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Thèmes abordés

  • produit de variables aléatoire…,
  • événements incompatibles,
  • permutations,
  • modèles probabilistes,
  • événements élémentaires,
  • probabilités conditionnelles,
  • espérance,
  • prédictions probabilistes,
  • applications en recherche,
  • propriétés des probabilités

1 Probabilités

1.1 Événements et espaces probabilisés

On appelle espace probabilisé la donnée d’un triplet (Ω, A, P ) où :


— L’ensemble Ω est l’ensemble des épreuves , c’est-à-dire l’ensemble de tous les résultats
possibles d’une expérience où intervient le hasard, ce qui empêche d’en prévoir le résultat
avec certitude.
— L’ensemble A est l’ensemble des événements, c’est-à-dire l’ensemble des parties de Ω
qu’on peut observer. L’ensemble Ω s’appellera alors l’événement certain et ∅ s’appellera
l’événement impossible ; pour tous événements A et B, on définit A l’événement
contraire de A, A ∪ B la réunion de A et B, et A ∩ B l’intersection de A et B par

A = {w ∈ Ω; w ∈
/ A},

A ∪ B = {w ∈ Ω, w ∈ A ou w ∈ B},

A ∩ B = {w ∈ Ω, w ∈ A et w ∈ B}.

Si A ∩ B = ∅, on dit que les événements A et B sont incompatibles, et si A ∩ B = Ω (ce


qui se produit si et seulement si A ∩ B = ∅) on dit que A implique B, et on écrit A ⊂ B.
On a les propriétés suivantes :

1. Pour tous événements A, B et C

A = A,

A ∪ (B ∪ C) = (A ∪ B) ∪ C,

A ∩ (B ∩ C) = (A ∩ B) ∩ C,

A ∪ B = A ∩ B,

A ∩ B = A ∪ B.

2. Pour tous événements A et B,

A = A,

(A ∩ B) ∩ (A ∩ B) = ∅,

(A ∩ B) ∪ (A ∩ B) = B.

Lorsque Ω est un ensemble fini, on choisit généralement pour A l’ensemble P(Ω) de toutes
les parties de Ω, mais lorsque Ω est infini, il se peut qu’on ne puisse pas distinguer certaines

1
épruves les unes des autres par l’observation, dans ce cas, on exigera cependant de cet
ensemble A les trois propriétés suivantes :

1. Ω ∈ A.

2. Si A ∈ A, alors A ∈ A.

3. Si An est une suite d’éléments de A, alors ∪n An ∈ A (stabilité par réunion dénombrable).

il résulte alors de ces propriétés que l’ensemble A est aussi stable par intersection dénombrable.
— La fonction P : A → [0, 1] est la probabilité, elle associe à tout événement un nombre
réel compris entre 0 et 1 exprimant si cet événement a plus ou moins de chances de se
produire : si P (A) = 1 on dira que l’événement A est presque certain et si P (A) = 0 on
dira qu’il est presque impossible, tandis que si P (A) = 12 , il s’agira d’un événement qui
a autant de chances de se produire que de ne pas se produire. Nous exigerons que cette
probabilité vérifie les propriétés suivantes :

1. P (Ω) = 1.

2. Pour toute suite An d’événements deux à deux incompatibles,


N
X
P (∪n An ) = lim P (An ),
N →∞
n=1
P
ce que nous noterons aussi n P (An ) (additivité dénombrable).

Citons comme conséquence de ces deux propriétés que si A ⊂ B, alors

P (B) = P (A ∩ B) + P (A ∩ B) = P (A) + P (A ∩ B)

d’où en particulier P (A) ≤ P (B). puisque P (A ∩ B) ≥ 0, d’une façon plus générale, si A


et B sont deux événements quelconques, alors A ∪ B est la réunion disjointe de A ∩ B,
A ∩ B et A ∩ B si bien que

P (A ∪ B) = P (A ∩ B) + P (A ∩ B) + P (A ∩ B) + P (A ∩ B) − P (A ∩ B)
= P (A) + P (B) − P (A ∩ B)

ce qu’on écrit aussi P (A) + P (B) = P (A ∪ B) + P (A ∩ B).

1.2 Équiprobabilité sur un ensemble fini d’épreuves : analyse combina-


toire

Lorsque l’ensemble des épreuves est fini, on prend généralement comme ensemble des événements
l’ensemble P(Ω) de toutes les parties de Ω. Les événements réduits à un élément s’appellent alors

2
événements élémentaires, et tout événement est réunion disjointe des événements élémentaires
qu’il contient, si bien qu’il suffit de définir la probabilité de chaque événement élémentaire pour que
P complètement définie.
Un choi classique consiste à décider que chaque événement élémentaire possédera la même
probabilité, la probabilité ainsi définie s’appelle l’équiprobabilité sur l’ensemble fini Ω, et la
#A
probabilité de chaque événement vaut alors P (Ω) = #Ω
où #A désigne le nombre d’éléments de
A (on dit aussi le cardinal de A). Le calcul des probabilités se traduit alors à des calcul de
dénombrements pour lesquels nous rappelons ci-dessous les résultats les plus fondamentaux.
On appelle permutation de n objets distincts tout rangement de ces objets dans certain
ordre. Le nombre des permutations de n objets distincts est égal à factorielle n, c’est-à-dire au
nombre n! = n × (n − 1) × · · · × 2 × 1 (on convient en outre que 0! = 1).
On appelle permutations de n objets distincts tout ensemble de p objets (distincts) pris
parmi les n donnés sans tenir compte d’aucun ordre. Le nombre des combinaisons de p objets pris
parmi n objets distincts est égal à
 
n n!
Cnp =  = .
p p!(n − p)!
Pn
Ces nombres se trouve aussi dans le développement du binôme (a + b)n = p=0 Cnp ap bn−p (d’où leur
nom de coefficients du binôme) et vérifient les propriétés
n
X
p−1 p
Cnp = Cnn−p , Cnp = Cn−1 + Cn−1 et Cnp = 22 .
p=0

On appelle arrangement de p objets pris parmi n objets distincts tout combinaison de p


objets rangés dans un certain ordre. D’après les dénombrements effectués ci-dessus, le nombre des
arrangements de p objets pris parmi n objets distincts vaut

n!
Apn = Cnp × p! = .
(n − p)!

1.3 Indépendance et probabilités conditionnelles

Soit A un événement de probabilité non nulle. Si l’on veut considérer les probabilités des
différents événements B dans le cas où l’événement A est réalisé, il faudra remplacer la probabilité
de B par λP (A ∩ B) où le coefficient λ est choisi en sorte que Ω reste de probabilité 1. Cette
1 P (A∩B)
dernière condition conduit au choix de λ = P (Ω)
, d’où la définition du nombre P (B|A) = P (A)

appelé probabilité conditionnelle de B sachant A. Comme A ∩ B ⊂ A on a P (A ∩ B) ≤ P (A)

3
d’où 0 ≤ P (B|A) ≤ 1, et on vérifie facilement que l’application B 7→ P (B|A) est une nouvelle
probabilité sur (Ω, A, P ) pour laquelle l’événement A est presque certain.
Si en outre 0 < P (B) < 1, on a P (A ∩ B) = P (A|B)P (B) et P (A ∩ B) = P (A|B)P (B),
comme A est réunion disjointe de A ∩ B et A ∩ B, on a donc

P (A) = P (A ∩ B) + P (A ∩ B) = P (A|B)P (B) + P (A|B)P (B),

d’où la formule
P (A|B)P (B)
P (B|A) = (1)
P (A|B)P (B) + P (A|B)P (B)
appelée formule de Bayes.
Si P (B|A) = P (B), on dira que l’événement B ne dépend de l’événement A, en revenant
à la définition de P (B|A), on voit que cela peut se récrire sous forme plus symétrique P (A ∩
B) = P (A)P (B) où l’on a plus besoin de supposer que P (A) > 0. Étant donnés deux événements
quelconques A et B, on dira donc qu’ils sont indépendants si P (A ∩ B) = P (A)P (B). On établit
facilement les deux propriétés suivantes :

1. Si A et B sont dépendants, alors A et B le sont aussi, ainsi que A et B d’une part, et que
A et B de l’autre part.

2. Si P (A) = 0 ou 1, alors A est indépendant de tout autre événement.

Enfin la définition des événements indépendants peut s’étendre au cas de n événements A1 , A2 , · · · , An


qui seront donc dits indépendants si pour tout choix d’ensemble d’indices I ⊂ {1, · · · , n} on a

P (∪i∈Ai ) = Πi∈I P (Ai ).

2 Variables aléatoires

2.1 Variable aléatoires

Si (Ω, A, P ) est un espace probabilisé, on appelle variable aléatoire toute application


X : Ω → R telle que pour tout intervalle I ⊂ R l’ensemble {X ∈ I} = {ω ∈ Ω; X(ω) ∈ I} soit un
événement, c’est-à-dire appartienne à A. Si X est une variable aléatoire, l’ensemble {X ∈] − ∞, x]}
(aussi noté {X ≤ x}) est un événement dont la probabilité est notée FX (x),
la fonction FX R → [0, 1] est alors une fonction croissante appelée fonction de répartition de
la variable aléatoire X. Elle vérifie lim FX (x) = 0 et lim FX (x) = 1, et elle est continue si et
x→−∞ x→+∞
seulement si P ({X = x}) = 0 pour tout x ∈ R.

4
Dans la suite, nous étudierons deux type de variables aléatoires : les variables aléatoires
discrètes entières qui seront des applications X : Ω → N, et les variables aléatoires à den-
sité continue qui sont des variables aléatoires telles que pour tout intervalle I de R,
Z
P ({X ∈ I}) = fX (t)dt
I
Z +∞
pour une fonction fX positive continue vérifiant fX (t)dt = 1 appelée densité de probabilité
−∞
de X.
Lorsque X est une variable aléatoire discrète entière, chaque ensemble {X = k} est un
événement dont la probabilité sera notée pk , et la suite (pk ) est appelée loi de probabilité de
Xn
la variable aléatoire X. La fonction de répartition vaut FX (x) = pk pour x ∈ [n, n + 1[, cette
k=0
n
X
fonction est discontinue en tout point k où pk > 0, et on a lim pk = 1, ce qu’on notera plus
n→∞
X k=0
simplement pk = 1. On appelle espérance de X et variance de X les deux nombres (s’ils sont
k
finis) E(X) et V (X) définis comme en statistiques par
X
E(X) = kpk ,
k
X
V (X) = E((X − E(X))2 ) = (k − E(X))2 pk
k

Lorsque X est une variable aléatoire à densité continue, la quantité fX (t)dt est aussi appelée
loi de probabilité de la variable aléatoire X. La fonction de répartition vaut
Z x Z x
FX (x) = fX (t)dt = lim fX (t)dt
−∞ a→−∞ a

cette Zfonction est continue en tout point (on a P ({X Z= x}) = 0 pour tout x ∈ R), et on a
b +∞
lim fX (t)dt = 1, ce qu’on notera plus simplement fX (t)dt = 1. Par analogie avec le cas
b→+∞ −∞ −∞
discret, on appelle espérance de X et la variance de X les deux nombres
Z +∞
E(X) = tfX (t)dt,
−∞
Z +∞
2
V (X) = E((X − E(X)) ) = (t − E(X))2 fX (t)dt.
−∞
Z b
Si ces intégrales ont un sens, c’est-à-dire si les limites des lorsque a tend vert −∞ et b tend vers
a
+∞ existent.
Dans ces deux cas, on a comme en statistiques V (X) = E(X 2 ) − (E(X))2 , et si a et λ sont
deux nombres réels quelconques, E(λX + a) = λE(X) + a et V (λX + a) = λ2 V (X), en outre, on
p
appelle écart-type de X le nombre σ(x) = V (X), et on a σ(λX + a) = |λ|σ(X).

5
2.2 Sommes et produits de variables aléatoires

Si X et Y sont deux variable aléatoires, alors on établit facilement que X + Y et XY sont


également des variables aléatoires. Nous allons examiner rapidement dans ce paragraphe comment
on peut évaluer leurs espérances et variances, mais pour cela nous distinguerons d’abord le cas de
ces variables aléatoires discrètes de celui des variables à densité.
Si X et Y sont deux variables aléatoires discrètes entières, la suite à deux indices pj,k =
P ({X = j} ∩ {Y = k}) est appelée loi de conjointe de X et Y , et on a
X
qk = pk,j = P (∪j ({X = k} ∩ {Y = j})) = P ({X = k}),
j

X
rk = pj,k = P (∪j ({X = j} ∩ {Y = k})) = P ({Y = k}),
j
X
sk = pj,k−j = P (∪j ({X = j} ∩ {Y = k − j})) = P ({X + Y = k})
j

si bien que X est de loi (qk ), Y de loi (rk ) et X + Y de loi (sk ). On calcule alors l’espérance de
X + Y en écrivant
k
!
X X X X
E(X + Y ) = ksk = k pj,k−j = (j + l)pj,l
k k j=0 j,l

alors ! !
X X X X X X
E(X + Y ) = j pj,l + l pj,l = jqj + lrl
j l l j j l

d’où le résultat E(X + Y ) = E(X) + E(Y ).


De même, si X et Y sont
Z deux variables aléatoires telles que pour tout intervalles I et J de R,
P ({X ∈ I} ∩ {Y ∈ J}) = fX,Y (s, t)dsdt pour une fonctions fX,Y continue positive sur R × R
I×J
(ici encore, la quantité fX,Y dsdt est appelée loi conjointe de X et Y ), alors les variables aléatoires
X, Y et X + Y sont à densité fX , fY et FX+Y selon les formules
Z +∞
fX (t) = fX,Y (t, s)ds,
−∞
Z +∞
fY (t) = fX,Y (s, t)ds,
−∞
Z +∞
fX+Y (t) = fX,Y (s, t − s)ds.
−∞

Ainsi l’espérance de X + Y se calcul en écrivant


Z +∞ Z +∞ 
E(X + Y ) = t fX,Y (s, t − s)ds dt
−∞ −∞

6
Z Z
E(X + Y ) = tfX,Y (s, t − s)dsdt = t(s + u)fX,Y (s, u)dsdu
R×R R×R
Z +∞ Z +∞  Z +∞ Z +∞ 
E(X + Y ) = s fX,Y (s, u)du ds + u fX,Y (s, u)ds du
−∞ −∞ −∞ −∞
Z +∞ Z +∞
E(X + Y ) = sfX (s)ds + ufY (u)du.
−∞ −∞

d’où le même résultat E(X + Y ) = E(X) + E(Y ) que dans le cas discret.
Nous avons ainsi établi la formule E(X + Y ) = E(X) + E(Y ) d’une façon très générale, en
revanche, il est impossible de calculer d’un façon aussi générale l’espérance XY ou la variance de
X + Y sans faire d’hypothèse supplémentaire car ces quantités sont affectées par la façon dont X
et Y dépendant l’une de l’autre. Dans la suite, nous allons supposer que les variables aléatoires X
et Y sont indépendantes, c’est-à-dire que les événement {X ∈ I} et {Y ∈ J} sont indépendants
pour tous intervalles I et J, ce qui s’écrit aussi

P ({X ∈ I} ∩ {Y ∈ J}) = P ({X ∈ I})P ({Y ∈ J}),

on peut voir plus ou moins facilement que cela signifie aussi que la loi de conjointe de x et Y est
simplement obtenue comme le produit des deux lois de x et Y , ce qui s’écrit suivant le cas

∀j, k ∈ N, pj,k = qj tk et ∀s, t ∈ R, fX,Y (s, t) = fX (s)fY (t).

Un calcul élémentaire montre qu’on a alors E(XY ) = E(X)E(Y ) dans ces deux cas, puis on en
déduit l’expression de la variance de X + Y en écrivant

V (X + Y ) = E((x + Y )2 ) − E(X + Y ))2


= E(X 2 + 2XY + Y 2 ) − (E(X) + E(Y ))2
= E(X 2 ) + 2E(X)E(Y ) + E(Y 2 ) − (E(X) + E(Y ))2
= V (X) + V (Y ).

On peut aussi calculer la variance de XY en remarquant que si X et Y sont indépendantes, alors


il en est de même de X 2 et Y 2 .
En fin, ces résultats s’étendent facilement à un nombre quelconque de variables aléatoires
X1 , · · · , Xn : on a alors toujours E(X1 + · · · + Xn ) = E(X1 ) + · · · + E(Xn ), et si en suppose de
plus que ces variables aléatoires sont indépendantes on a aussi E(X1 · · · Xn ) = E(X1 ) · · · E(Xn ) et
V (X1 · · · Xn ) = V (X1 ) · · · V (Xn ).

7
2.3 Exemples de variables aléatoires discrètes

On appelle loi de Bernoulli de paramètre p ∈ [0, 1] la loi B(1, p) d’une variable aléatoire
X ne prenant que les valeurs 0 et 1 avec

p0 = P ({X = 0}) = 1 − p = q et p1 = P ({X = 1}) = p.

Un calcul élémentaire montre qu’on a alors E(X) = p et V (X) = pq.


Plus généralement, on appelle loi binômiale de paramètre p ∈ [0, 1] et de taille n ≥ 1 la
loi B(n, p) d’une variable aléatoire X prenant les valeur 0, · · · , n avec

pk = P ({X = k}) = Cnk pk q n−k pour k ≤ n.

Là encore, un calcul élémentaire utilisant la formule du binôme montre qu’on a E(X) = np et
V (X) = npq. Une autre façon d’établir ces résultats consiste à remarquer que loi B(n, p) est la loi
de la variable aléatoire X1 + · · · + Xn où les Xj sont n variables aléatoires indépendantes de même
lois B(1, p) (loi de Bernoulli de paramètre p).
On appelle enfin loi de Poisson de paramètre λ > 0 la loi Π(λ) d’une variable aléatoire discrète
entière définie par
λk
pk = P ({X = k}) = e−λ pour k ∈ N.
k!
Des calculs moins élémentaires que dans les exemples précédents permettent d’établir qu’on a ici
E(X) = λ et V (X) = λ.

2.4 Exemples de variables aléatoires à densité

On appelle loi normale (ou loi de Gauss) de paramètre m ∈ R et σ > 0 la loi N (m, σ)
d’une variable aléatoire de densité de probabilité

1 (t−m)2
fX (t) = √ e− 2σ2 .
σ 2π
Z +∞
t2 √
En utilisant que e− 2 dt = 2π, on établit facilement que E(X) = m et V (X) = σ 2 , de plus,
−∞
on voit aussi que pour tous nombres réels a et λ, la variable aléatoire λX + a est de loi normale
X −m
N (λm + a, |λ|σ), en particulier, la variable aléatoire suit une loi normale N (0, 1) appelée
σ
loi normale réduite, et la fonction de répartition de la variable aléatoire X vaut alors
  Z x
x−m 1 t2
FX (x) = F0 , où F0 (x) = √ e− 2 dt
σ 2π −∞

8
est la fonction de répartition de la loi normale réduite pour laquelle on dispose de tables. Comme
la fonction F0 : R →]0, 1[ est une continue strictement monotone, elle est bijective, et on notera
πα la réciproque F0−1 (α) de F0 (α) pour tout α ∈]0, 1[.
Si X et Y sont deux variables aléatoires indépendantes de lois N (m, σ) et N (p, τ ) respective-

ment, alors on peut montrer que X +Y suit aussi une loi normale, qui donc la loi N (m+p, σ 2 + τ 2 ).
Ce résultat s’étend au cas de n variables aléatoires indépendantes de loi N (mj , σj ) dont la somme
suit la loi
 q 
N Σi mj , Σj σj2

On appelle loi du khi-deux à n degré de liberté la loi χ2n d’une variable aléatoire
X = X12 + · · · + Xn2 qui est somme des carrés de n variables aléatoires indépendantes Xj de même
loi N (0, 1). On montre que cette loi possède la densité

 c t n2 −1 e− 2t si t > 0,
n
fX (t) =
 0 si ≤ 0,
Z +∞ −1 Z +∞
n
−1 − 2t
où cn = t 2 e dt en sorte que fX (t)dt = 1. On remarque que E(X) = n et
0 −∞
V (X) = 2n, et on dispose de tables qui donnent pour α ∈]0, 1[ le nombre χ2n,α tel que
P ({X > χ2n,α }) = α qui est unique à cause de la monotonie de la fonction de répartition (en effet,
on a χ2n,α = FX−1 (1 − α)).
Enfin, on appelle loi de Student à n degrés de liberté la loi Tn d’une variable aléatoire
X = √Y où Y et Z sont deux variables aléatoire indépendantes respectivement de lois N (0, 1) et
Z

χ2n . On montre que cette loi possède la densité

cn
fX (t) =  n+1 pour tout t ∈ R,
t2 2
1+ n
Z +∞
n
où cn est ajustée comme d’habitude pour que fX (t)dt = 1. On a ici E(X) = 0 et V (X) =
−∞ n−2
(pour n > 2), et les tables numériques donnent pour α ∈]0, 1[ le nombre tn,α tel que
P ({|X| > tn,α ) = α (ici encore, on a tn,α = FX−1 (1 − α2 )).

Vous aimerez peut-être aussi