0% ont trouvé ce document utile (0 vote)
37 vues24 pages

Cours Probabilité

Transféré par

Elabbassi salah
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
37 vues24 pages

Cours Probabilité

Transféré par

Elabbassi salah
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Master Géométrie Analyse et Applications

∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗∗Cours∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗∗

PROBABILITÉS ET PROCESSUS ALÉATOIRES

∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗

par

Khadija AKDIM

Années universitaires
2020-2021
Table des matières

1 Espaces probabilisés
Variables aléatoires et leurs distributions 2
1.1 Espaces probabilisés . . . . . . . . . . . . . . . . . . . . . 2
1.1.1 Application . . . . . . . . . . . . . . . . . . . . . . 3
1.2 Variables aléatoires . . . . . . . . . . . . . . . . . . . . . . 4
1.2.1 Variable aléatoire, loi d’une variable aléatoire . . . 4
1.2.2 Fonction de répartition d’une variable aléatoire . . 6
1.2.3 Fonction de densité . . . . . . . . . . . . . . . . . . 9
1.3 Lois et variables aléatoires classiques . . . . . . . . . . . . 10
1.3.1 Lois usuelles discrètes . . . . . . . . . . . . . . . . . 10
1.3.2 Lois usuelles continues . . . . . . . . . . . . . . . . 14
1.4 Les grands outils probabilistes . . . . . . . . . . . . . . . . 16
1.4.1 Espérance . . . . . . . . . . . . . . . . . . . . . . . 16
1.4.2 Variance, écart-type . . . . . . . . . . . . . . . . . 17
1.4.3 Exemples . . . . . . . . . . . . . . . . . . . . . . . 18
1.4.4 Corrélation de deux variables aléatoires . . . . . . . 18
1.4.5 Inégalités classiques . . . . . . . . . . . . . . . . . . 19
1.4.6 Fonctions génératrices . . . . . . . . . . . . . . . . 20
1.4.7 Moments . . . . . . . . . . . . . . . . . . . . . . . . 21
1.4.8 Fonctions caractéristiques . . . . . . . . . . . . . . 21

1
Chapitre 1

Espaces probabilisés
Variables aléatoires et leurs
distributions

1.1 Espaces probabilisés

Définition 1. (Mesures de probabilité)


Soit (Ω, F) un espace mesurable. Une (mesure de) probabilité P sur Ω est
une application réelle définie sur F et qui satisfait les troix axiomes sui-
vants :
i) 0 ≤ P(A) ≤ 1, ∀A ∈ F.
ii) P(Ω) = 1.
iii) Si (An )n∈N est une suite de sous-ensembles mesurables de Ω deux à
deux disjoints, alors
∞ ∞
!
[ X
P An = P (An )
n=0 n=0

Propriétés 1. Voici quelques propriétés utiles en pratique, à savoir démontrer


(certaines ne sont que des reformulations de la définition).
1. P(∅) = 0 et P(Ac ) = 1 − P(A) .
2. Si E ⊂ F alors P(E) ≤ P(F ).
3. P(E ∪ F ) = P(E) + P(F ) − P(E ∩ F ); ∀E, F ∈ F.
2
K.AKDIM 3

4. Si (An )n∈N ∈ F N est une suite croissante pour l’inclusion (i.e. An ⊂


An+1 pour tout n ∈ N) ! alors la suite (P(An ))n∈N est croissante et
[
lim P(An ) = P An .
n→+∞
n∈N
5. Si (An )n∈N ∈ F est une suite décroissante pour l’inclusion (i.e.
N

An+1 ⊂ An pour tout n ∈ N)!alors la suite (P(An ))n∈N est décroissante


\
et lim P(An ) = P An .
n→+∞
n∈N

Définition 2. Un espace de probabilité, ou espace probabilisé, (Ω, F, P)


est la donnée d’un ensemble Ω muni d’une tribu F et d’une mesure de
probabilité P.

1.1.1 Application

La théorie des probabilités permet de fournir des modèles mathématiques


pertinents à des phénomènes faisant intervenir du hasard, de l’aléa (lancer
de dé, cours d’une action en bourse, durée de vie d’une ampoule, temps
d’attente d’un bus, fluctuations de certaines quantités : variation de la
température autour de la valeur moyenne saisonnière attendue, etc).
On modélise un ensemble de situations possibles par un espace de pro-
babilité (Ω, F, P). Ω c’est l’ensemble de tous les résultats possibles (aussi
appelé l’ensemble fondamentale). Par exemple, si on lance de dé, on peut
considérer Ω = {1, 2, 3, 4, 5, 6}.
Quand Ω est fini ou dénombrable, on utilise F = P(Ω). Un événement est
un ensemble A ⊂ Ω. Par exemple, si on lance un dé, l’événement  obtenir
un nombre pair  s’écrit encore {2, 4, 6} ⊂ Ω .
On appelle P(A) la probabilité que l’événement A se réalise. Si P(A) = 1
on dit que l’événement A est certain, ou presque sûr (p.s.) et si P(A) = 0
on dit que l’événement A est impossible.

Exemple 1. Un bon modéle mathématique pour le phénoméne aléatoire qui


K.AKDIM 4

consiste à lancer une pièce de monaie quatre fois est l’espace probabilisé
(Ω, F, P), avec

Ω = {F F F F, F F F P, F F P F, F F P P, ..., P P P P }

F = P(Ω)
]A ]A
P(A) = = 4
]Ω 2
Exemple de calcul
Quelle est la probabilité d’obtenir 3 piles et 1 face ?
Dans ce cas
A = {P P P F, P P F P, P F P P, F P P P }
donc
]A 4 1
P(A) = = =
16 16 4
Proposition 3. (Unicité des mesures)
Si C est une classe d’ensembles stable par intersection finie et engendrant
une tribu F sur Ω, alors deux mesures de probabilite sur F qui sont égales
sur C sont égales sur F.

Ce résultat nous sera utile par la suite.

1.2 Variables aléatoires

1.2.1 Variable aléatoire, loi d’une variable aléatoire

Définition 4. Une variable aléatoire est une application mesurable X :


(Ω, F) −→ (E, E). (Souvent, E = N ou E = Rd ).
Lorsque E = R, ou E ⊂ R on parle de variable aléatoire réelle (v.a.r.) ou
v.a continue.
Lorsque E = Rd avec d ≥ 2 on parle de vecteur aléatoire.
Lorsque E est un ensemble discret, fini ou dénombrable, on parle de variable
K.AKDIM 5

aléatoire discrète. Lorsque E ⊂ N ou Z, on parle de variable aléatoire


entière.

Définition 5. La tribu engendrée par une v.a. X : (Ω, F) −→ (E, E) est


la plus petite tribu σ(X) ⊂ F rendant X mesurable. Elle peut encore être
définie comme
σ(X) = {X −1 (B), B ∈ E}.

Définition 6. Soit P une probabilité sur (Ω, F). La loi image ou mesure
image de P par X est la mesure PX sur (E, E) définie par

PX (A) = P(X ∈ A) = P(X −1 (A)) = P({ω ∈ Ω, X(ω) ∈ A}), ∀A ∈ E

La mesure PX est une mesure de probabilité appelée la distribution (où la


loi) de la v.a X.

Remarque 7. Lorsqu’on modélise une situation réelle avec des outils pro-
babilistes, en général, on ne connaı̂t pas (Ω, F, P). Lors d’une expérience
aléatoire ω ∈ Ω on ne fait qu’observer la valeur X(ω) ∈ N ou R. On
est alors intéressé par la probabilité que X(ω) prenne telle ou telle valeur.
Autrement dit, on veut savoir étudier PX sur E et pas du tout P sur Ω.
L’espace de probabilité (Ω, F, P) est important du point de vue théorique,
mais n’est pas explicite en général.

Exemple 2. Ω = [0, 1] muni de sa tribu borélienne et de la mesure de


Lebesgue. Soit X la variable aléatoire définie par
(
1 si ω ∈ [0, 1/2]
X(ω) =
0 sinon

Alors PX vérifie
1
PX (0) = PX (1) =
2
et
PX (R\{0, 1}) = 0.
K.AKDIM 6

Autrement dit,
1
PX = (δ0 + δ1 )
2
où δx désigne la masse de Dirac en x.

Remarque 8. Une mesure de probabilité P sur un espace mesurable (Ω, F)


est toujours la loi d’une variable aléatoire. Considérer X = Id : (Ω, F) −→
(Ω, F). Si au départ (Ω, F) est muni de la loi de probabilité P, alors à
l’arrivée la loi image de P par X, i.e. la loi PX de X est égale à P.

Théorème 9. Soit X : (Ω, F, P) −→ (E, E) une variable aléatoire. Alors


pour toute fonction h : E −→ R mesurable bornée ou mesurable positive,
on a Z Z
h ◦ X(ω)dP(ω) = h(x)dPX (x)
Ω E
Plus généralement, h est PX -intégrable ssi h ◦ X est P-intégrable et la
formule ci-dessus est encore vraie dans ce cas.
Z
Corollaire 10. La v.a.r. X est intégrable ssi |x|dPX (x) < ∞.
R

Preuve. C’est un corollaire du théorème précédent avec h(x) = |x|.

1.2.2 Fonction de répartition d’une variable aléatoire

Dans ce paragraphe, sauf mention du contraire, X : (Ω, F, P) −→ (E, E)


désigne une variable aléatoire à valeurs dans un sous-ensemble de R.

Définition 11. P une mesure de probabilité sur (R, B(R)) ou (N, P(N)).
La fonction de répartition de P est la fonction F : R −→ [0, 1] définie par
F(x) = P(] − ∞, x]).

Définition 12. La fonction de répartition de X, notée FX , est la fonction


de répartition de sa distribution PX . Autrement dit,

FX (x) = PX (] − ∞, x]) = P(X ≤ x) = P({ω ∈ Ω, X(ω) ≤ x})


K.AKDIM 7

Proposition 13. Soit FX la fonction de répartition de X. Alors on a


1. FX est croissante et à valeurs dans [0, 1].
2. FX est continue à droite.
3. FX a des limites à gauche en tout point, et on a

lim FX (x) = FX (a− ) = P(X < a) ≤ P(X ≤ a) = FX (a).


x→a−

4. lim FX (x) = 0 et lim FX (x) = 1


x→−∞ x→+∞
5. FX (b) − FX (a) = P(a < X ≤ b)
6. P(X = a) = FX (a) − lim− FX (x) = FX (a) − FX (a− )
x→a
Preuve.
1. Si x ≤ y, ] − ∞, x] ⊂] − ∞, y] d’où FX (x) = PX (] − ∞, x]) ≤ PX (] −
∞, y]) = FX (y).
2. Soit x ∈ R. On veut montrer que lim+ FX (y) = FX (x). Comme FX
y→x
1
est croissante, il suffit de montrer que lim FX (x + ) = FX (x). (En
n→+∞ n
effet, supposons que FX (x+ n1 ) −→ FX (x) quand n → +∞. Alors pour
tout ε > 0, il existe N > 0 tq pour tout n ∈ N, FX (x) ≤ FX (x + n1 ) ≤
FX (x) + ε. Comme FX est croissante, pour tout x ≤ y ≤ x + n1 ,
FX (x) ≤ FX (y) ≤ FX (x+ n1 ) ≤ FX (x)+ε. Donc lim+ FX (y) = FX (x).)
1
 1
 y→x
Remarquons
 que FX (x+ n ) = PX ( −∞, x + n ). La suite d’intervalles
1
−∞, x + est décroissante, la probabilité PX vérifie donc
n
  \ !
1 1
lim PX −∞, x + = PX −∞, x + = PX (]−∞, x]) = FX (x).
n−→+∞ n n
n∈N
 
1
3. Considérons cette fois la suite d’ensembles −∞, x − . C’est une
n
suite croissante d’intervalles. On a donc
 
1
lim FX x − = PX (] − ∞, x[).
n−→+∞ n
K.AKDIM 8

(Alors que FX (x) = PX (] − ∞, x]).) Comme FX est croissante, on en


déduit que FX admet PX (] − ∞, x[) ≤ FX (x) comme limite à gauche
en x. (Remarquons que l’existence de la limite découle immédiatement
du fait que si y < x l’application y 7−→ FX (y) est croissante et majorée
par FX (x)).
\
4. On a ∅ = ] − ∞, −n]. Le même raisonnement que ci-dessus donne
n∈N
lim FX (−n) = 0. Comme FX est croissante, ceci implique (vérifier !)
n−→+∞
que lim FX (x) = 0. Pour la limite en +∞ considérer les intervalles
x→−∞
] − ∞, n].
5. Exo immédiat.
6. Exo immédiat.
Proposition 14. Soient P1 et P2 deux mesures de probabilité sur (R, B(R)).
Si elles ont même fonction de répartition F1 = F2 = F, alors elles sont
égales.
Preuve. Pour tout intervalle ]a, b], on a
P1 (]a, b]) = F(b) − F(a) = P2 (]a, b])
Donc P1 = P2 sur la classe des intervalles C définie par :
C = {]a, b], a ∈ R, b ∈ R}
Or C est stable par intersection finie et engendre la tribu borélienne. La
Proposition (3) permet de conclure que P1 = P2 .
Proposition 15. Soient X, Y deux variables aléatoires définies respecti-
vement sur (Ω, F, P) et (Ω0 , F 0 , P0 ), à valeurs réelles ou entières. Si X et
Y ont même fonction de répartition, alors X et Y ont même loi.
Preuve. Reformulation immédiate de la proposition précédente.
Proposition 16. Si F est une fonction de R dans [0, 1] qui est croissante,
continue à droite, et admet pour limite 0 en −∞ et 1 en +∞, alors il existe
une mesure de probabilité P sur R dont F est la fonction de répartition.
K.AKDIM 9

1.2.3 Fonction de densité

Définition 17. Soit µ une probabilite definie sur (R, B(R)). Elle est à
densité, ou absomument continue par rapport à la mesure de Lebesgue λ
s’il existe une fonction f : R −→ R+ Lebesgue-intégrable et positive, telle
que pour tout borélien A de R,
Z
µ(A) = f dλ
A
On dit que f est une densité de µ par rapport à λ.
Remarquons qu’une densité f vérifie
Z
f dλ = 1.
R
Proposition 18. Si P est une mesure de probabilité à densité f sur R,
alors sa fonction de répartition F est continue sur R et vérifie pour tous
a ≤ b réels Z
F(b) − F(a) = P(]a, b]) = f dλ
]a,b]

Preuve. Par définition, F(b)−F(a) = P(]−∞, b])−P(]−∞, a]). L’additivité


de P donne Z
F(b) − F(a) = P(]a, b]) = f dλ
]a,b]
la dernière égalité résultant du fait que P est à densité.
Définition 19. (Fonction de densité d’une v.a).
Si la v.a X a une fonction de répartition FX qui est C 1 , la fonction de
densité fX de X est la dérivée de sa fonction de répartition :
Z x
∀x ∈ R, FX (x) = P(X ≤ x) = fX (t)dt
−∞
La probabilité pour X d’être dans un intervalle [a, b] (ouvert ou fermé,
éventuellement infini) se calcule par l’intégrale de fX sur cet intervalle,
c’est-à-dire
Z b
P(a < X ≤ b) = FX (b) − FX (a) = fX (t)dt.
a
K.AKDIM 10

Proposition 20. La variable aléatoire réelle X a pour densité la fonction


mesurable positive f si et seulement si pour toute fonction h : R −→ R
mesurable bornée, on a
Z Z
h(x)dPX (x) = h(x)f (x)dλ(x)
R R
R
Preuve. Si pour toute h : R −→ R mesurable bornée, R h(x)dPX (x) =
R
R h(x)f (x)dλ(x),
Z alors pour h = 1A , A borélien quelconque, on obtient
PX (A) = f (x)dλ(x). Donc PX est une loi à densité f . Réciproquement,
A
si PX a pour densité f , l’égalité cherchée est vraie pour toutes les fonctions
h = 1A indicatrices de boréliens A (par définition d’une loi à densité).
On déduit que ça reste vrai pour les fonctions mesurables en utilisant la
méthode standard.

1.3 Lois et variables aléatoires classiques

En pratique, on modélise souvent les phénomènes aléatoires de la vie


réelle par quelques lois qu’on connaı̂t bien, et que nous allons revoir ici.
Les lois ont été vues au S4, et doivent être connues.

1.3.1 Lois usuelles discrètes


Loi uniforme discrète

Définition 21. On dira que X suit une loi uniforme discrète si

P(X = k) = 1 , ∀k ∈ {1, 2, ..., n}



n
PX correspond à l’équiprobabilité.

Exemple 3. On lance un dé bien équilibré et on note X le point obtenu.


Alors X suit une loi uniforme discrète avec n = 6.
K.AKDIM 11

Loi géométrique

Définition 22. On dit que X suit une loi géométrique de paramètre p (0 <
p < 1), notée géo(p), si

P(X = k) = p(1 − p)k−1 , ∀k ∈ {1, 2, ...}

Ceci est réalisé quand, lors d’une suite d’épreuves :


un événement a la probabilité p de se réaliser, ceci indépendamment d’une
épreuve à l’autre.
X = nombre total d’épreuves pour voir l’événement se réaliser pour la 1ère
fois. On a la fonction de répartition de X est :

FX (k) = P(X ≤ k) = 1 − (1 − p)k

Loi de Bernoulli

Définition 23. Une variable aléatoire X suit une loi de Bernoulli de pa-
ramètre p (0 ≤ p ≤ 1) si X ne prend que les valeurs 0 et 1 avec :

P(X = 1) = p et P(X = 0) = 1 − p

On note X ∼ Ber(p)

Exemple 4. Soit une urne contenant des boules blanches et des boules
rouges, ces dernières en proportion p. On tire, au hasard, une boule dans
l’urne, et on considère X la v.a qui vaut 1 si la boule tirée est rouge et
0 sinon. En supposant que chaque boule a une probabilité identique d’être
attrapée, la v.a. X suit une loi de Bernoulli de paramètre p.

Loi Binômiale

La loi Binômiale découle, elle aussi, de la prise en considération du modèle


d’une urne. Considérant une urne contenant des boules rouges et des boules
blanches, les premières en proportion p, on convient de prélever n boules
K.AKDIM 12

et on s’intéresse à la variable aléatoire X : nombre de boules rouges parmi


les n boules tirées. On se demande alors quelle est la probabilité P(X = k)
pour que X soit égale à un nombre donné k. On suppose en plus que le
tirage est non exhaustif (avec remise) : on prélève une boule, puis une autre
après remise de la première dans l’urne, puis une troisième après remise de
la seconde... et les prélèvements successifs sont donc indépendants puisque
la composition de l’urne est la même avant chaque prélèvement.
A chaque boule rouge correspond la probabilité p d’être prélevée, à chaque
boule blanche la probabilité 1 − p. Soit alors le résultat suivant : B, R, R,
B, ...., R, B, qui correspond à k boules rouges et n − k boules blanches.
Les probabilités liées au tirage de chacune des boules sont respectivement
égales à : (1 − p), p, p, (1 − p), ..., p, (1 − p), du fait de la non-exhaustivité
des tirages successifs, et la probabilité de l’ensemble de l’échantillon, par
application du théorème des probabilités composées, s’écrit : pk (1 − p)(n−k) .
Cela étant posé, il faut noter que le résultat obtenu se réfère arbitrairement
à un certain ordre d’arrivée des boules rouges et blanches ; or, quand on
se propose de calculer la probabilité d’avoir k boules rouges parmi les n
boules extraites, l’ordre d’arrivée est indifférent. Autrement dit, on n’est
pas intéressé par la probabilité d’une combinaison particulière de k boules
rouges parmi les n boules, mais par la probabilité de l’ensemble des Cnk
combinaisons possibles. Cette probabilité, par application du théorème des
probabilités totales, s’écrit :

P(X = k) = Cnk pk (1 − p)(n−k)

Définition 24. On dira que X suit une loi Binômiale de paramètres n et


p, notée X ∼ B(n, p) si :

P(X = k) = Cnk pk (1 − p)(n−k) , ∀k ∈ {1, 2, ..., n}

On a ceci quand X est le nombre de réalisations d’un événement A dans


K.AKDIM 13

une suite de n épreuves indépendantes, où :


P(A) = p et P(A) = 1 − p
L’intérêt pratique de la loi Binômiale est très grand. Au lieu de parler
d’une urne contenant une certaine proportion p de boules rouges, il suffit
en effet de parler d’une population contenant une certaine proportion p
d’individus présentant une certaine qualité ou ayant un certain avis, pour
constater que le modèle théorique décrit permet de définir la probabilité
du nombre d’individus ayant cette qualité ou cet avis, et susceptibles de
figurer dans un échantillon de n individus tirés au hasard dans la population
en question. La loi Binômiale joue ainsi un rôle important dans un grand
nombre de problèmes de jugement sur échantillon : sondages d’opinion ou
contrôle du nombre de pièces défectueuses dans une fabrication.

Loi hypergéomètrique

Au tirage exhaustif correspond la loi hypergéométrique. La composition


de l’urne est, dans ce cas, modifiée après chaque tirage. Il convient donc
de préciser la composition initiale de l’urne de la façon suivante :
— N : nombre total de boules dans l’urne,
— m = N p : nombre total de boules rouges,
— N − m = N (1 − p) : nombre total de boules blanches.
Définition 25. Soit X le nombre d’individus possédant un certain ca-
ractère, lors du tirage sans remise de n individus parmi m = N p, dont
une certaine proportion p a ce caractère, alors on dira que X suit une loi
hypergéomètrique, notée H(N, n, p) et on a
Si n ≤ m, alors E = {0, 1...., n} et
k n−k
Cm CN −m
P(X = k) =
CNn
Si n > m, alors E = {0, 1...., m} et P(X = k) est la même.
K.AKDIM 14

Loi de Poisson

La loi de poisson s’applique souvent aux phénomènes accidentels où la


probabilité p est très faible . Elle peut également, dans certaines conditions,
être définie comme limite d’une loi Binômiale. Lorsque n devient grand le
calcul des probabilités d’une loi binômiale devient très fastidieux. On va
donc, sous certains condition trouver une approximation, de loi binômiale
B(n, p), plus maniable. C’est la dite loi de Poisson.

Définition 26. .
X suit une loi de poisson de paramètre λ > 0 , notée P(λ) ; Si :
λk e−λ
P(X = k) = , ∀k ∈ {0, 1, 2.....}
k!

1.3.2 Lois usuelles continues


Loi uniforme

Définition 27. On dit qu’une v.a X suit une loi uniforme sur [a, b] si sa
fonction de densité est constante sur [a, b] et nulle ailleurs, donc

 1 , si x ∈ [a, b]

f (x) = b − a
0, sinon

et parsuite on obtient la fonction de répartition




 0, si x < a

x − a
F(x) = , si x ∈ [a, b]

 b−a

1, si x > b

K.AKDIM 15

Loi exponentiel

Définition 28. X suit une loi exponentiel de paramètre γ (réel positive)


si sa fonction densité est donnée par
( −γx
γe , si x ≥ 0
f (x) =
0, si x < 0.

Sa fonction de répartition est


(
1 − e−γx , si x ≥ 0
F (x) =
0, si x < 0.

Concrètement la loi exponentiel se rencontre surtout dans l’étude de


phénomènes physique, ou comme durée de vie d’un matériel qui ne vieillit
pas.

Loi normale N (m, σ)

Définition 29. On dit que la v. a X suit une loi normale( ou loi Gaus-
sienne) N (m, σ) si sa fonction de densité est donnée par
 2
1 x−m

1
f (x) = √ e 2 σ
σ 2π
La fonction de répartition F de X, de loi N (m, σ) s’obtient à partir de φ,
fonction de répartition de loi normale centrée réduite N (0, 1) de la façon
suivant  
x−m
F(x) = φ
σ
Proposition 30. — Si X suit N (m, σ) et si Y = aX + b pour a 6= 0 et
b ∈ R alors Y suit N (am + b, |a|σ).
X −m
— Si X suit N (m, σ) et si Z = alors Z suit N (0, 1).
σ
— ∀x ∈ R φ(−x) = 1 − φ(x).
K.AKDIM 16

1.4 Les grands outils probabilistes

1.4.1 Espérance

L’espérance d’une variable aléatoire X est la moyenne de toutes ses va-


leurs possibles pondérées par la probabilité P, i.e. la valeur que l’on peut
espérer obtenir, en moyenne, en réalisant X.

Définition 31. Soit X une v.a, l’espérance mathématique de X ( appelée


aussi parfois par abus de langage moyenne de X), s’il existe, est définie
par Z
E(X) := X(ω)dP(ω)

— Si X est une v.a discrète à valeur dans {x1 , x2 , ..} alors son espèrence
est définie par
Z X
E(X) := X(ω)dP(ω) = xi P(X = xi )
i

— Si X : (Ω, F) −→ (R, B(R)) est une v.a continue (de densité fX ) alors
son espèrence est définie par
Z Z Z
E(X) := X(ω)dP(ω) = xdPX (x) = xf (x)dx
Ω R R

Les propriétés élémentaires de l’espérance sont essentiellement celles de


l’intégrale, en ajoutant le fait qu’on intègre par rapport à une mesure de
masse 1. Soient donc X et Y des v.a définies sur (Ω, F, P).

Propriétés 2. Soit A ∈ F et λ un réel


1. E(X + Y) = E(X) + E(Y)
2. E(λX) = λE(X)
3. E(1A ) = P(A)
4. Si X intégrable et PX (R+ ) = P(X ≥ 0) = 1 alors E(X) ≥ 0
K.AKDIM 17

Proposition 32. La variable aléatoire réelle X a pour densité la fonction


mesurable positive f si et seulement si pour toute fonction h : R −→ R
mesurable bornée, on a
Z
E(h(X)) = h(x)f (x)dλ(x)
R

1.4.2 Variance, écart-type

Définition 33. Soit X une v.a. intégrable. Sa variance est la quantité


positive Z
V (X) = E([X − E(X)] ) = (X − E(X))2 dP
2

Lorsque X est intégrable, la variance de X existe toujours dans R+ ∪{+∞}.
— Si X est une v.a discrète alors
X
V (X) = (xi − E(X))2 P(X = xi )
i

— Si X est une v.a continue (de densité f ) alors


Z
V (X) = (x − E(X))2 f (x)dx
R

Remarque 34. La variance représente la moyenne des carrés des écarts


à la moyenne. On mesure ainsi la dispersion des valeurs de X autour de
la moyenne E(X). On aurait pu s’intéresser à la quantité E(|X − E(X)|) a
priori, mais les carrés sont plus aisés à manipuler dans les calculs que les
|.|. On vérifie que
2
V (X) = E X2 ) − (E(X)

Remarque 35. La variance ne s’exprime pas dans la même unité que la


moyenne E(X), c’est pourquoi il est préférable d’utiliser l’écart type.

Définition 36. L’écart type d’une v.a X est la racine de sa variance et on


le note σ(X), alors
p
σ(X) = V (X)
K.AKDIM 18

Propriétés 3. Soient a, b ∈ R ; alors pour toute v.a X on a


— V (X) = 0 ssi X = E(X) P p.p (on dit aussi presque sûrement p.s.) ssi
X est constante p.s.
— V (aX + b) = a2 V (X)
— σ(aX + b) = |a|σ(X)

1.4.3 Exemples
v.a discrètes

• Si X suit une loi uniforme sur {0, 1}, E(X) = 12 et V (X) = 1


4
• Si X ∼ Ber(p) alors E(X) = p et V (X) = p(1 − p).
• Si X ∼ B(n, p), alors E(X) = np et V (X) = np(1 − p).
• Si X ∼ P(λ) alors E(X) = λ et V (X) = λ.
1 p
• Si X ∼ géo(p) alors E(X) = et V (X) = .
p 1 − p2

v.a. continues
2
(a−b)
• Si X suit une loi uniforme sur [a, b], alors E(X) = a+b
2 et V (X) = 12 .
• Si X suit une loi normale centrée réduite E(X) = 0 et V (X) = 1.
• Si X suit une loi normale N (µ, σ) alors E(X) = µ et V (X) = σ 2 .
• Si X suit une loi exponentielle de paramètre γ alors E(X) = γ1 et
V (X) = γ12 .

1.4.4 Corrélation de deux variables aléatoires

Définition 37. Soient X et Y deux v.a. réelles intégrables. La covariance


de X et Y est définie par

Cov(X, Y ) = E((X − E(X))(Y − E(Y ))) = E(XY ) − E(X)E(Y )

Lorsque Cov(X, Y ) = 0, on dit que X et Y sont non corrélées.

Propriétés 4. 1. Cov(X, X) = V (X)


K.AKDIM 19

2. Cov(X, aY + b) = aCov(X, Y )
3. (Cov(X, Y ))2 ≤ V (X).V (Y )

Définition 38. On appelle coéfficient de corrélation linéaire entre X et Y


le rapport
Cov(X, Y )
ρX,Y =
σ(X)σ(Y )
Il vérifie
−1 ≤ ρX,Y ≤ 1

Corollaire 39. Si X est une v.a telle que E(X 2 ) < ∞ et Y = aX + b alors
ρX,Y = ±1.

1.4.5 Inégalités classiques

Les inégalités de ce paragraphe sont fondamentales et élémentaires.

Lemme 1. (Inégalité de Markov)


Soient X une v.a. réelle et δ > 0 un réel positif. Alors pour tout réel p > 0
on a
E(|X|p )
P(|X| ≥ δ) ≤
δp
Preuve. On a
Z Z Z
E(|X|) = |X|dP = |X|dP + |X|dP
{|X|≥δ} {|X|<δ}

Or Z
|X|dP ≥ δP(|X| ≥ δ).
|X|≥δ
R
Et le dernier terme {|X|<δ} |X|dP est positif. Autrement dit on a

E(|X|) ≥ δP(|X| ≥ δ).

Pour l’inégalité avec p, le raisonnement est identique (exo).


K.AKDIM 20

Lemme 2. (Inégalité de Tchebytchev)


Soit X une v.a.r. de carré intégrable. Alors pour tout δ > 0, on a
V (X)
P(|X − E(X)| ≥ δ) ≤
δ2
Preuve. Appliquer l’inégalité de Markov à Y = X − E(X) avec p = 2.

1.4.6 Fonctions génératrices

Dans cette section, on présente un outil élémentaire très utile dans l’étude
des v.a. à valeurs dans N. On verra une généralisation aux v.a. r. après. Soit
X une variable aléatoire à valeurs dans N. Remarquons que par définition
de l’espérance, on a

X
X
E(s ) = P(X = n)sn , ∀s ≥ 0
n=0

Définition 40. La fonction génératrice de X est la fonction g définie par



X
gX (s) = P(X = n)sn = E(sX ), ∀0 ≤ s ≤ 1
n=0

Proposition 41. La fonction génératrice vérifie


1 (n)
∀n ≥ 0, P(X = n) = g (0)
n! X
En particulier, la fonction génératrice d’une variable aléatoire détermine
la loi de X.
Exemple 5. Donnons des exemples de calculs de fonctions génératrices.
• Loi Binomial B(n, p)
n
X
g(s) = Cnk pk (1 − p)n−k sk = (ps + (1 − p))n
k=0

• Loi de Poisson P(λ)



−λ
X λk sk
g(s) = e = eλ(s−1)
k!
k=0
K.AKDIM 21

• Loi géométrique géo(p) ,



X ps
g(s) = ps (1 − p)k sk = , avec q = 1 − p
1 − qs
k=0

1.4.7 Moments

Définition 42. On dit que X admet un moment d’ordre k ≥ 1, si |X|k


est intégrable, soit encore E(|X|k ) < ∞. Son moment d’ordre k est alors
E(Xk ).
En analyse, on dirait que X est dans Lk (Ω, F, P).

Proposition 43. (Calcul des moments)


Soit X une v.a. à valeurs dans N.
— E(X) < ∞ si et seulement si gX est dérivable à gauche en 1, et dans
0
ce cas, E(X) = gX (1).
— E(X 2 ) < ∞ si et seulement si gX est deux fois dérivable à gauche en
00
1, et dans ce cas, E(X(X − 1)) = gX (1).

1.4.8 Fonctions caractéristiques

Définition 44. Soit µ une mesure finie sur (R, B(R)). Alors la transformée
de Fourier de la mesure µ est la fonction µb : R −→ C définie pour tout
t ∈ R par Z
µ(t) = eitx dµ(x).
R
b est bien definie car x −→ eitx est continue donc mesurable,
La fonction µ
et bornée donc intégrable.

Définition 45. Soit X : (Ω, F, P) −→ (R, B(R)) une v.a. réelle. Sa fonc-
tion caractéristique, notée ϕX , est la transformée de Fourier de la loi PX
de X. Autrement dit pour tout t ∈ R
Z
ϕX (t) = P
bX (t) = eitx dPX (x) = E(eitX ).
R
K.AKDIM 22

Remarque 46. Si X est une v.a. à densité f , alors sa fonction caractéristique


n’est rien d’autre, au signe près, que la transformée de Fourier de f :
ϕX (t) = fe(−t).

Théorème 47. — Soient µ et ν deux mesures de probabilités sur (R, B(R)).


Si µ
b = νb, alors µ = ν.
— Soient X et Y deux v.a. réelles. Alors leurs lois PX et PY sont égales
si et seulement si ϕX = ϕY .

Propriétés 5. Soit X une v.a. réelle.


1. ϕX (0) = 1
2. |ϕX (t)| ≤ 1 pour tout t ∈ R.
3. ϕaX+b (t) = eitb ϕX (at) pout tout a 6= 0 et b ∈ R.
4. ϕX est à valeurs réelles si et seulement si PX = P−X .
5. ϕX est uniformément continue.
(k)
6. Soit p ≥ 1. Si E(|X|p ) < +∞, alors ϕX est de classe C p et ϕX (0) =
ik E(Xk ) pour tout 1 ≤ k ≤ p.

Preuve.
1. ϕX (0) = E(1) = 1
Z
2. |ϕX (t)| ≤ |eitx dPX (x)| = 1 pour tout t ∈ R
R
3. Posons Y = aX + b avec a 6= 0 et b ∈ R, alors

ϕY (t) = E(eitY ) = E(eitaX+itb ) = eitb E(eitaX ) = eitb ϕaX (t) = eitb ϕX (at)

4. On a
ϕX (t) = E(eitX ) = E(e−itX ) = E(eit(−X) ) = ϕ−X (t)
Par conséquent, si ϕX = ϕX , on a ϕ−X = ϕX , d’où PX = P−X .
Réciproquement si PX = P−X alors bien sûr ϕ−X = ϕX = ϕX
K.AKDIM 23

5. On a
Z Z
|ϕX (t) − ϕX (s)| ≤ |eitx − eisx |dPX (x) ≤ |ei(t−s)x − 1|dPX (x)
R R

Quand u → 0, |eiux −1| → 0. Donc |ei(t−s)x −1| −→ 0 quand |s−t| −→


0, uniformément en s et t. En intégrant par rapport à la probabilité
PX , le résultat en découle.
6. Exercice.

Vous aimerez peut-être aussi