0% ont trouvé ce document utile (0 vote)
29 vues20 pages

Probabilistes L3 MA

Ce document est une note de cours sur les probabilités et statistiques pour les ingénieurs, couvrant des concepts tels que les variables aléatoires, les chaînes de Markov et les applications statistiques. Il présente des définitions fondamentales, des exemples, et des propriétés des espaces de probabilités, ainsi que des notions de convergence et de simulation. Le contenu est structuré en chapitres et sections, offrant une base théorique pour les étudiants en ingénierie.

Transféré par

dignaroabdoulaziz
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
29 vues20 pages

Probabilistes L3 MA

Ce document est une note de cours sur les probabilités et statistiques pour les ingénieurs, couvrant des concepts tels que les variables aléatoires, les chaînes de Markov et les applications statistiques. Il présente des définitions fondamentales, des exemples, et des propriétés des espaces de probabilités, ainsi que des notions de convergence et de simulation. Le contenu est structuré en chapitres et sections, offrant une base théorique pour les étudiants en ingénierie.

Transféré par

dignaroabdoulaziz
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Note de cours en Probabilités-Statistiques pour Ingénieur

(Version provisoire ! Merci pour toute remarque.)

David Jaurès FOTSA MBOGNE


Me contacter à david jamesf@[Link]
Aller à ma page web [Link]

13 mars 2020
Table des matières

1 Variables aléatoires et applications 1


1.1 Espaces de probabilités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Variables aléatoires discrètes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.3 Variables aléatoires continues . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.4 n-uplet de variables aléatoires et espérance conditionnelle . . . . . . . . . . . . . . 9
1.5 Echantillonnage et lois fondamentales des statistiques . . . . . . . . . . . . . . . . 10
1.6 Convergence d’une suite de variables aléatoires . . . . . . . . . . . . . . . . . . . . 13
1.7 Simulation de variables aléatoires et méthode de Monte-Carlo . . . . . . . . . . . 16
1.8 Généralités sur les processus aléatoires . . . . . . . . . . . . . . . . . . . . . . . . 16

2 Chaı̂nes de Markov 17
2.1 Définitions et propiétés élémentaires . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.2 Classification d’état et propriétés associées . . . . . . . . . . . . . . . . . . . . . . 17
2.2.1 Cas récurrent et irréductible . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.2.2 Cas apériodique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.2.3 Chaı̂ne reversible . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.3 Vitesse de convergence et statistiques de la chaı̂ne . . . . . . . . . . . . . . . . . . 17

i
Chapitre 1

Variables aléatoires et applications

Dans ce chapitre nous rappelons quelques notions de probabilité jugées utiles pour la suite du
document.

1.1 Espaces de probabilités


Definition 1.1.1 Soient Ω un ensemble et T ⊆ P (Ω) une famille de partie de Ω. On dit que T
est une tribu ou σ-algèbre sur Ω, si elle satisfait les conditions suivantes :
(i) ∅, Ω ∈ T .
(ii) ∀A ∈ T , CΩA ∈ T (T est stable par passage au complémentaire).
S
(iii) ∀I ⊆ N, ∀ {Ai }i∈I ⊆ T , i∈I Ai ∈ T (T est stable par réunion au plus dénombrable).
Lorsque T est une tribu (sur Ω) on appelle la paire (Ω, T ) un espace probabilisable et les
éléments de T sont appelés événements.

Remarque 1.1.1 La condition (iii) dans la définition ci-avant peut être remplacée
T par la condi-
tion stabilité par intersection au plus dénombrable : ∀I ⊆ N, ∀ {Ai }i∈I ⊆ T , i∈I Ai ∈ T .

Exemple 1.1.1
1. Pour tout ensemble Ω, {∅, Ω} et P (Ω) sont des tribus (triviales) sur Ω. En termes d’inclu-
sion ensembliste, {∅, Ω} est la plus petite tribu sur Ω et P (Ω) est la plus grande.
2. Si Ω = {a, b} on a les tribus sur Ω sont : {∅, Ω}, P (Ω) = {∅, Ω, {a} , {b}}
3. Si Ω = {1, 4, 7} on a les tribus sur Ω sont : {∅, Ω}, {∅, {1, 4, 7} , {1} , {4, 7}},
P (Ω) = {∅, {1, 4, 7} , {1} , {4} , {7} , {1, 4} , {1, 7} , {4, 7}}, {∅, {1, 4, 7} , {4} , {1, 7}},
{∅, {1, 4, 7} , {7} , {1, 4}}.

Definition 1.1.2 Soient Ω un ensemble et A ⊆ P (Ω) une famille de partie de Ω. On appelle


tribu engendrée par A, la tribu de plus petite cardinalité contenant A .

Exemple 1.1.2
1. Pour tout ensemble Ω, la tribu engendrée par les singleton {{∅}} et {{Ω}} est {∅, Ω}. La
tribu P (Ω) engendrée par P (Ω) ou même par l’ensemble des singletons de Ω.
2. Si Ω = {1, 4, 7}, les ensembles {{1}}, {{4, 7}} et {{1} , {4, 7}} engendrent touts la tribu
{∅, {1, 4, 7} , {1} , {4, 7}} sur Ω.

1
2 CHAPITRE 1. VARIABLES ALÉATOIRES ET APPLICATIONS
3. Sur R, on définit la tribu borélienne comme la tribu engendrée par intervalles ouverts.

Definition 1.1.3 Soient (Ω, T ) un espace probabilisable et une application P : T → [0, 1]. On dit
que P est une probabilité sur (Ω, T ) si elle satisfait :
(i) P (∅) = 0 (événement impossible) et P (Ω) = 1 (événement certain).
(ii) ∀ {Ai }i∈I⊆N ⊆ T une famille d’éléments deux à deux disjoints (ie. ∀i, j ∈ I si i 6= j alors
S  P
Ai ∩ Aj = ∅), on a nécessairement P i∈I Ai = i∈I P (Ai ).
Lorsque P est une probabilité sur (Ω, T ), on appelle le triplet (Ω, T , P) espace probabilisé.

Definition 1.1.4 Soient (Ω, T , P) un espace probabilisé et A, B ⊂ T .


(i) A dit négligeable si P (A) = 0 ;
(ii) A dit presque sûr si P (A) = 1 ;
1. A et B sont dits incompatibles si P (A ∩ B) = 0 ;
(ii) A et B sont dits indépendants si P (A ∩ B) = P (A) P (B)

Definition 1.1.5 Soient (Ω1 , T1 , P) un espace probabilisé et (Ω2 , T2 ) un espace probabilisable. Une
variable aléatoire à valeurs dans Ω2 est une application mesurable X : (Ω1 , T1 , P) → (Ω2 , T2 ) qui
vérifie ∀A ∈ T2 , X −1 (A) ≡ {ω1 ∈ Ω1 ; X (ω1 ) ∈ A} ∈ T1 . On définit la probabilité image sur
(Ω2 , T2 ) pour tout A ∈ T2 par P (A) ≡ P (X −1 (A)). P est appelée la loi de probabilité de X.

Par souci de simplicité on utilisera l’abus P (A) pour désigner P (X −1 (A)). La variable aléatoire
X est dite réelle si Ω2 ⊆ R. On distingue deux grandes classes de variables aléatoires : les discrètes
et les continues.

Exemple 1.1.3 (Modèle de Bernoulli) On pose Ω1 = {échec, succès}, Ω2 = {0, 1}, T1 =


P (Ω1 ), T2 = P (Ω2 ), 

 0, si A = ∅
1, si A = Ω1

P : A ∈ T1 7→ P (A) = 1 .
, si A = {échec}
 45


5
, si A = {succès}

0, si A = {échec}
Alors l’application Y : (Ω1 , T1 , P) → (Ω2 , T2 ) , ω1 ∈ Ω1 7→ X (ω1 ) = est une
1, si A = {succès}
variable aléatoire de Bernoulli.

1.2 Variables aléatoires discrètes


Une variable aléatoire est dite discrète, si Ω2 est finie ou dénombrable. Nous rappelons qu’un
ensemble est dit dénombrable s’il est en bijection avec l’ensemble des entiers naturels N.

Exemple 1.2.1 L’ensembles Z est dénombrable. En effet l’application



k, si n = 2k
n ∈ N 7→ ∈Z
−k, si n = 2k + 1

est une bijection.

Cameroun, Université de Ngaoundéré David Jaurès FOTSA MBOGNE


3 CHAPITRE 1. VARIABLES ALÉATOIRES ET APPLICATIONS
Definition 1.2.1 (Espérance mathématique ou moyenne)
Soit g une application mesurable à valeur réelle définie sur Ω2 . L’espérance mathématique
d’une variable aléatoire rélle discrète g (X), est donnée si elle existe par
X
E [g (X)] = g (x) × P ({x})
x∈Ω2

Une interprétation géométrique de la moyenne est celle du barycentre. Notons qu’en général
général E [g (X)] 6= g (E [X]).

Definition 1.2.2 (Moment simple, moment centré)


Soient X une variable aléatoire réelle (continue ou discrète) et k ∈ N.
1. On appelle moment simple d’ordre k, l’espérance mathématique de la variable aléatoire X k .
2. On appelle moment centré d’ordre k, l’espérance mathématique de la variable aléatoire
(X − E [X])k .

On peut montrer aisément que l’opérateur E [.] est linéaire aussi bien dans le cas continu
que discontinu ; les propriétés des moments s’en déduisent. Il existe des moments particuliers à
2
l’instar du moment centré d’ordre 2 donnant la variance (V ar [X] ≡ σX ), ou du moment simple
d’ordre 1 qui est l’espérance mathématique. La racine carré de la variance lorsque cette dernière
existe est appelée écart-type (σX ). Grâce à la notion de moment on définit également le coefficient
d’asymétrie
E (X − E [X])3 E (X − µX )3
   
3/2 ≡ 3
σX
E (X − E [X])2


et le coefficient d’aplatissement (ou de curtose)

E (X − E [X])4 E (X − µX )4
   
2 − 3 ≡ 4
− 3.
E (X − E [X])2 σX


Le coefficient d’asymétrie est nul si la distribution est symétrique par rapport à la moyenne ;
c’est le cas pour la loi normale que nous présenterons dans la suite. S’il y a une tendance vers
la gauche de la moyenne, le coefficient d’asymétrie sera negatif ; il sera par contre positif s’il y
a une tendance à droite de la moyenne. Le coefficient d’aplatissement compare quant à lui, le
regroupement autour de la moyenne comparativement à la distribution normale pour laquelle il
vaut 0. Lorsqu’il y a une concentration relativement forte autour de la moyenne et la queue de
distribution est fine, le coefficient de curtose est négatif. Par contre, lorsqu’il y a une concentration
relativement faible autour de la moyenne et la queue de distribution est épaisse, le coefficient de
curtose est positif. La moyenne et le coefficient d’asymétrie sont des paramètres de position tandis
que la variance (de manière équivalente l’écart-type) et le coefficient d’aplatissement sont des
paramètres de dispersion.

Definition 1.2.3 (Fonction génératrice)


Soit X une variable aléatoire réelle (continue
 tX  ou discrète). On appelle fonction génératrice de
X, et on note gX la fonction t ∈ R 7→ E e .

Cameroun, Université de Ngaoundéré David Jaurès FOTSA MBOGNE


4 CHAPITRE 1. VARIABLES ALÉATOIRES ET APPLICATIONS
La fonction génératrice est très importante. Elle permet notamment de calculer les moments
simples d’ordre k en appliquant ses dérivées d’ordre k à 0. En posant s = et on obtient une
seconde version de la fonction génératrice s ∈ R 7→ E sX . Avec cette version on calcule les
moments simples d’ordre k en appliquant les dérivées d’ordre k à 1. Toutefois, dans le cas d’une
variable aléatoire à valeurs finies entières et positives elle ne permettra de caculer qu’un nombre
fini de moments.

Definition 1.2.4 (Fonction caractéristique)


Soit X une variable aléatoire réelle
 continue. On appelle fonction caractéristique de X, et on
note ψX , la fonction t ∈ R 7→ E eitX .

 Lak fonction
−k (k)
caractéristique permet d’exprimer les moments simple d’ordre k via la relation
E X = i ψX (0). L’intérêt   de la fonction caractéristique parrapport
 à la fonction génératrice
est que l’existance de E eitX est plus probable que celle de E etX . Cela est lié aux problèmes
de convergences des sommes ou intégrales.
Listons à présent quelques lois discrètes connues :
— Loi uniforme discrète
Cette loi modélise l’équi-probabilité dans un ensemble fini. Si card (Ω2 ) = N < +∞ et
x ∈ Ω2 , alors P (X = x) = N1 . On a en outre, les caractéristiques suivantes :

1X
E [X] = x
N x∈Ω2

2
= V ar [X] = E X 2 − E2 [X]
 
σX

Remarque 1.2.1 La variance est toujours positive. L’écart-type qui est sa racine carrée est donc
bien définie. On peut l’établir grâce à l’inégalité des Jensen.

— Loi de Bernoulli B (p).


La loi de Bernoulli modélise des phénomènes similaires au lancé unique d’une pièce de
monnaie. p désigne en général la probabilité d’avoir le résultat souhaité (succès). Une
généralisation de cette loi est la loi binomiale, qui elle modélise le fait d’avoir X succès
au bout de n répétition(s) du lancé. On a P (X = k) = Cnk pk (1 − p)n−k 1|{k∈[0,n]} . D’autres
généralisations comme la loi multinomiale existent. On a en outre, les caractéristiques sui-
vantes pour la loi B (p) :
E [X] = p
V ar [X] = p (1 − p)
gX (x) = pex + (1 − p)
Pour la loi binomiale B (n, p),
E [X] = np
V ar [X] = np (1 − p)
gX (x) = [pex + (1 − p)]n

Cameroun, Université de Ngaoundéré David Jaurès FOTSA MBOGNE


5 CHAPITRE 1. VARIABLES ALÉATOIRES ET APPLICATIONS
— Loi géométrique G (p).
Ici il s’agit du nombre d’échecs obtenus avant le premier succès : P (X = k) = p (1 − p)k 1|{k≥0} .
Cette loi se généralise par la loi binomiale négative et elle modélise le nombre d’échecs
k
avant d’avoir le r-ième succès : P (X = k) = Ck+r−1 pr (1 − p)k 1|{k≥0} . On a en outre, les
caractéristiques suivantes pour la loi G (p) :
1−p
E [X] =
p
1−p
V ar [X] =
p2
p
gX (x) =
1 − (1 − p) ex
Pour la loi binomiale négative,
r (1 − p)
E [X] =
p
r (1 − p)
V ar [X] =
p2
 r
p
gX (x) =
1 − (1 − p) ex
— Loi hypergéométrique H (N, M, n). Dans ce cas, il s’agit d’une population de taille
N + M , où N individus vérifient un certain critère (c) et pas les M autres. On fait un
tirage sans remise de n ≤ N + M individus, et on s’intéresse au nombre qui vérifie le critère
C k C n−k
(c). On a P (X = k) = CNn M . On admet que Cba = 0, si a > b.
N +M
— Loi de poisson P (λ) , λ ≥ 0. Il s’agit ici de modéliser la taille d’une file d’attente dans
k
intervalle de temps. On a P (X = k) = λk! e−λ . On a en outre, les caractéristiques suivantes :
E [X] = λ
V ar [X] = λ
x −1)
gX (x) = eλ(e
Definition 1.2.5 (Fonctions de répartition et de survie)
Soit X une variable aléatoire réelle (continue ou discrète). On appelle fonction de répartition,
l’application F : x 7→ P (X ≤ x). On appelle fonction de survie , l’application
S : x 7→ P (X > x) = 1 − P (X ≤ x) = 1 − F (x)
Definition 1.2.6 Soit X une variable aléatoire réelle (continue ou discrète). On appelle quantile
d’ordre q ∈ [0, 1] de X, la valeur xq ∈ Ω2 telle que F (xq ) = q. Les quantiles non-nuls multiples
de 0.25 sont appelés quartiles. La médiane est le deuxième quartile, c’est à dire le quantile d’ordre
0.5.
Exercice 1.2.1 Pour chacune des lois citées dans cette section déterminer en utilisant leurs
définitions, les fonctions génératrice et caractéristique, en précisant leurs domaines de définitions
à chaque fois. Déterminer également le moment simple d’ordre 1, le moment centré d’ordre 2, les
coefficients de asymétrie et de curtose.
Exercice 1.2.2 Pour chacune des lois citées dans cette section déterminer la fonction de répartition,
la médiane et les autres quartiles.

Cameroun, Université de Ngaoundéré David Jaurès FOTSA MBOGNE


6 CHAPITRE 1. VARIABLES ALÉATOIRES ET APPLICATIONS
1.3 Variables aléatoires continues
Une variable aléatoire est dite continue, si Ω2 est infini non dénombrable. Dans le cas où les
tribus T1 et T2 sont boréliennes, la mesure de probabilité est ”proportionnelle” à la mesure de
Borel.

Definition 1.3.1 (Densité de probabilité)


Soit X une variable aléatoire réelle continue. On appelle densité de probabilité de X la fonction
f satisfaisant :
1. Pour tout x ∈ Ω2 , f (x) ≥ 0.
Z
2. f (t) dt = 1.
Ω2

Definition 1.3.2 (Espérance mathématique ou moyenne)


Soit g une application mesurable à valeurs réelles définie sur Ω2 où une variable aléatoire X
de densité f prend ses valeurs. L’espérance mathématique
Z de la variable aléatoire rélle continue
g (X), est donnée si elle existe par E [g (X)] = g (t) f (t) dt.
Ω2

Listons quelques exemples de lois continues.


— Loi uniforme U ([a, b]).
Cette loi modélise l’équi-probabilité et la densité de probabilité est donnée ∀x ∈ [a, b] par
1
f (x) = b−a . On a en outre, les caractéristiques suivantes :

b+a
E [X] =
2
(b − a)2
V ar [X] =
12
bx ax
e −e
gX (x) = , x 6= 0
(b − a) x
— Loi exponentielle E (λ) , λ > 0.
Ici, on s’intéresse au temps d’attente entre deux occurences d’un phénomène. La densité cor-
respondante est donnée ∀x ∈ R par f (x) = λe−λx 1|{x≥0} . On a en outre, les caractéristiques
suivantes :
1
E [X] =
λ
1
V ar [X] = 2
λ
λ
gX (x) =
λ−x
La loi exponentielle est souvent qualifiée d’être sans mémoire du fait que

P (X > t + h|X > t) = P (X > h)

où P (X > t + h|X > t) désigne la probabilité d’avoir X > t + h conditionellement au


(sachant le) fait que X > t.

Cameroun, Université de Ngaoundéré David Jaurès FOTSA MBOGNE


7 CHAPITRE 1. VARIABLES ALÉATOIRES ET APPLICATIONS
— Loi exponentielle double ou de Laplace de paramètre λ > 0 et m.
Elle généralise la loi E (λ) dans le sens où elle tient compte de l’ordre des occurences d’un
phénomène. En effet, le temps peut être négatif ou positif. Sa densité est donnée ∀x ∈ R
par f (x) = λ2 e−λ|x−m| . On a en outre

E [X] = m
1
V ar [X] =
λ2
−λ2 emx
gX (x) = 2
x − λ2
La distribution est symétrique par rapport à la moyenne qui n’est pas liée à l’écart-type. La
fonction de densité f est continûment dérivable sauf en m où elle n’est que continue. Cette
irrégularité peut poser des problèmes lors d’une estimation par la méthode du maximum
de vraisemblance.
— Loi Gamma Γ (r, λ) ou loi d’Erlang lorsque r est un entier naturel non nul. La loi d’Er-
lang modélise le temps écoulé entre la première et la r + 1-ième occurence d’un évènement
régi par une loi de poisson. Lorsque r = 1, on retrouve la loi [Link] densité de
+∞
λr
probabilité est donnée ∀x ∈ R par f (x) = Γ(r)
xr−1 e−λx 1|{x≥0} , où Γ (x) = tx−1 e−t dt
0
est la fonction gamma d’Euler qui généralise la fonction factoriel. En effet, ∀x > −1,
Γ (x + 1) = xΓ (x). En particulier∀n ∈ N, Γ (n + 1) = n!. On a en outre, les caractéristiques
suivantes :
r
E [X] =
λ
r
V ar [X] = 2
λ
 r
λ
gX (x) =
λ−x
— Loi de Weibull W (λ, α) , λ, α > 0.
Cette loi généralise la loi exponentielle en modélisant la survie. Si X suit une loi E (λ) alors
X 1/α suit la loi W (λ, α). La fonction de densité de la loi W (λ, α) est donnée ∀x ∈ R par
α
f (x) = αλxα−1 e−λx 1|{x>0} . On a en outre, les caractéristiques suivantes :

Γ 1 + α1

E [X] =
λ1/α
Γ 1 + α2 − Γ2 1 + α1
 
V ar [X] = .
λ2/α
— Loi de Gauss ou normale N (m, σ 2 ).
La loi de Gauss est l’une des loi les plus utilisées autant en probabilité qu’en statistique.
Elle a entre autres propriétés celle d’être une distribution sur tout l’ensemble R qui est
symétrique par rapport la moyenne. Elle h est en outre infiniment dérivable. Sa densité est
1 1 x−m
2 i
donnée ∀x ∈ R par f (x) = σ√2π exp − 2 σ . On a en outre, les caractéristiques
suivantes :
E [X] = m
V ar [X] = σ 2

Cameroun, Université de Ngaoundéré David Jaurès FOTSA MBOGNE


8 CHAPITRE 1. VARIABLES ALÉATOIRES ET APPLICATIONS
σ2 2
 
gX (x) = exp mx + x
2
En dimension n, la loi de Gauss se généralise pour le vecteur gaussien X = [X1 , X2 , · · · , Xn ]T ,
de moyenne M = [M1 , M2 , · · · , Mn ]T , par la fonction de densité donnée ∀X ∈ Rn par
 
1 1 T −1
f (X) = p n exp − (X − M ) K (X − M )
det (K) (2π) 2 2

où la matrice des covariances K satisfait pour tous i, j ∈ [1, n], Kij = Cov [Xi , Xj ] = Kji .
Grâce à la loi normale N (m, σ 2 ) on définit la loi lognormale LN (m, σ 2 ). Une variable
aléatoire suit la loi lognormale si son logarithme suit la loi normale. On a

σ2
 
E [X] = exp m +
2

2
  σ2 
V ar [X] = exp 2m + 2σ e −1

σ2 2
 
gX (x) = exp mx − x
2
— Loi de Pareto de paramètre a, θ > 0
La loi de Pareto permet d’étudier les événements dits rares ou extrêmes d’une variable
aléatoire à valeurs positives. Il s’agit des réalisations de la variable aléatoire qui sont très
éloignées de la moyenne, mais dont la survenue a une importance capitale. On peut l’utiliser
pour modéliser la probabilité que variable aléatoire dépasse un certain seuil. Sa densité est
donnée ∀x ∈ R par f (x) = θaθ x−θ−1 1|{x>a} . On a

θa
E [X] = (n’existe que si θ > 1)
θ−1
θa2
V ar [X] = (n’existe que si θ > 2)
(θ − 1)2 (θ − 2)
Sa fonction génératrice ne s’exprime pas par des fonctions usuelles.
— Loi de Gumbel de paramètre α, β avec β > 0 et α ∈ R
Cette loi modélise également les événements dits rares ou extrêmes d’une variable aléatoire
à valeurs réelles. Il peut s’agir par exemple de la loi du maximum ou du minimum d’une
très grande série de
 réalisations
 d’un phénomène aléatoire. Sa densité est donnée ∀x ∈ R
1 α−x α−x
par f (x) = β exp β − exp β . On montre que

E [X] = α + γβ

π2β 2
V ar [X] =
6
αx
gX (x) = e Γ (1 − βx)
où γ ' 0.577... est la constante Euler.

Cameroun, Université de Ngaoundéré David Jaurès FOTSA MBOGNE


9 CHAPITRE 1. VARIABLES ALÉATOIRES ET APPLICATIONS
— Loi Beta B (α, β) , α, β > −1
Cette loi modélise les phénomènes aléatoires dont les réalisations sont contenues dans l’in-
tervalle ]0, 1[. Il pourrait s’agir des proportions ou des taux par exemple. Sa densité est
donnée ∀x ∈ R par f (x) = B(α+1,β+1) 1
xα (1 − x)β 1|{x∈]0,1[} . On peut remarquer que si
α = β = 0 on retrouve la loi uniforme U ([0, 1]). Si α, β > 0 on peut vérifier que le mode de
α
cette loi est α+β . On rappelle l’expression de la fonction beta d’Euler donnée ∀α, β > 0 par
Z 1
B (α, β) = xα−1 (1 − x)β−1 dx
0
Γ (α) Γ (β)
=
Γ (α + β)
On a en outre
α+1
E [X] =
α+β+2
(α + 1) (β + 1)
V ar [X] =
(α + β + 2)2 (α + β + 3)
Exercice 1.3.1 Pour chacune des lois citées dans cette section déterminer en utilisant leurs
définitions, les fonctions génératrice et caractéristique, en précisant leurs domaines de définitions
à chaque fois. Déterminer également le moment simple d’ordre 1, le moment centré d’ordre 2, les
coefficients de asymétrie et de curtose.

Exercice 1.3.2 Pour chacune des lois citées dans cette section déterminer la fonction de répartition,
la médiane et les autres quartiles.
1
Exercice 1.3.3 Montrer que la loi de Cauchy de densité donnée ∀x ∈ R par f (x) = π(1+x2 )
n’admet pas d’espérance mathématique.

1.4 n-uplet de variables aléatoires et espérance condition-


nelle
Dans cette section on considère le n-uplet de variables aléatoires réelles (X1 , X2 , · · · , Xn ).

Definition 1.4.1 Soit (X1 , X2 , · · · , Xn ) un n-uplet de variables aléatoires réelles. On appelle


densité marginale fi (ou fXi ) d’une des variables Xi la densité de probabilité de ladite variable
indépendamment des autres variable. La densité conjointe f de du n-uplet (X1 , X2 , · · · , Xn ) est
sa densité de probabilité vu comme une variable aléatoire globale (vectorielle). De la même façon
on définit la fonction de répartition conjointe et les fonctions de répartitions marginales.

Definition 1.4.2 Soit (X1 , X2 , · · · , Xn ) un n-uplet de variables aléatoires réelles. Le système


{X1 , X2 , · · · , Xn } est dit indépendant si

F (x1 , x2 , · · · , xn ) = P ∩i∈[1,n] {Xi ≤ xi }
Y
= P ({Xi ≤ xi })
i∈[1,n]
Y
= Fi (xi )
i∈[1,n]

Cameroun, Université de Ngaoundéré David Jaurès FOTSA MBOGNE


10 CHAPITRE 1. VARIABLES ALÉATOIRES ET APPLICATIONS
ou de manière équivalente Y
f (x1 , x2 , · · · , xn ) = fi (xi ) .
i∈[1,n]

Remarque 1.4.1 Il est également établi que le système {X1 , X2 , · · · , Xn } est indépendant si et
seulement si E [X1 X2 · · · Xn ] = E [X1 ] E [X2 ] · · · E [Xn ].

Proposition 1.4.1 Soit (X1 , X2 , · · · , Xn ) un n−uplet de variables indépendantes. Alors


Yn Yn
gXn = gXk et ψXn = ψXk
Xk k=1 Xk k=1
k=1 k=1

Definition 1.4.3 (Covariance et coefficient de corrélation)


Soit {X, Y } un paire de variables aléatoires réelles (continues ou discrètes). On définit la
covariance de la paire {X, Y } comme

Cov [X, Y ] = E [(X − E [X]) (Y − E [Y ])]


= E [XY ] − E [X] E [Y ] .
Cov[X,Y ]
Le rapport rXY = σX σY
est appelé coefficient de corrélation.

On remarque que Cov [X, X] = V ar [X] et si la paire {X, Y } est indépendante alors Cov [X, Y ] =
0. La covariance peut être vue géométriquement comme un produit scalaire et l’écart-type comme
une norme dans un espace vectoriel des variables aléatoires. S’il y a indépendance (orthogonalité),
la covariance est nulle et par conséquence le coefficient de correlation aussi. La covariance et le
coefficient de corrélation donnent une information sur la dépendance linéaire entre des variables
aléatoires. Pratiquement, si rXY est proche de 0 il n’y a pas de dépendance linéaire et si |rXY |
est proche de 1 il y en a une. Lorsque rXY > 0 on parle de corrélation positive, et si rXY < 0 on
parle de corrélation négative. La corrélation négative s’interprète comme un antagonisme des effets
des variables l’une sur l’autre. On établit grâce à l’inégalité de Cauchy-Schwarz et la linéarité de
l’espérance mathématique que le coefficient de correlation est toujours en valeur absolue inférieure
ou égal à 1.

1.5 Echantillonnage et lois fondamentales des statistiques


Definition 1.5.1 On appelle échantillon aléatoire de taille n ou n-échantillon tout n-uplet de
variables aléatoires indépendantes et identiquement distribuées (iid). La loi suivie par ses variables
aléatoires est appelée loi mère.

Definition 1.5.2 Soit (X1 , X2 , · · · , Xn ) un n-échantillon. On appelle statistique toute variable


aléatoire S fonction de l’échantillon (X1 , X2 , · · · , Xn ).

Proposition 1.5.1 Soit (X1 , X2 , · · · , Xn ) un n-échantillon de loi mère N (0, 1). Alors
Xn
1. La statistique X n = n1 Xk suit la loi N 0, n1 . De façon plus générale, si la loi mère

k=1
est N (m, σ 2 ) alors la statistique
Xn − m
Zn = √
σ/ n
suit la loi N (0, 1).

Cameroun, Université de Ngaoundéré David Jaurès FOTSA MBOGNE


11 CHAPITRE 1. VARIABLES ALÉATOIRES ET APPLICATIONS
Xn
2. La statistique nX 2 n = X 2 suit une loi dite du Khi-deux à n dégrés de liberté, notée
k=1 k
X 2 (n). De façon plus générale, si la loi mère est N (m, σ 2 ) alors la statistique
 
2 n 2 n 1 Xn 2
1 Xn = 2 S1 = 2 (Xk − m)
σ σ n k=1

suit la loi X 2 (n). La densité de probabilité correspondant à une variable aléatoire Z suivant
n −1 − x
la loi du Khi-carré est f (x) = x 2n2 en 2 1|{x>0} . La fonction caractéristique correspondant à
2 Γ( 2 )
1
cette loi est ψZ (z) = n . En outre E [Z] = n et V ar [Z] = 2n.
(1−2z)
2

Proposition 1.5.2 Soit (X1 , X2 , · · · , Xn ) un n-échantillon de loi mère N (m, σ 2 ). Alors la sta-
tistique  
2 n−1 2 n−1 1 Xn 2
2 Xn = S = Xk − X n
σ2 2 σ2 n−1 k=1

suit une loi X 2 (n − 1).

Proposition 1.5.3 Soient X et Y deux variables √


aléatoires suivant respectivement les lois N (0, 1)
2 X n
et X (n). Alors la variable aléatoire Tn = √Y suit la loi de Student t (n), à n degrés de liberté.
Γ( n+1 )
 2
− n+1
2
La fonction de densité correspondant à cette loi est f (t) = √nπΓ2 n 1 + tn .
(2)

Proposition 1.5.4 Soit (X1 , X2 , · · · , Xn ) un n-échantillon de loi mère N (m, σ 2 ). Alors les sta-
tistiques √  √ 
n Xn − m n Xn − m
1 Tn = et 2 Tn =
S1 S2
suivent respectivement une loi t (n) et une loi t (n − 1).

Proposition 1.5.5 Soient X et Y deux variables aléatoires suivant respectivement les lois X 2 (n)
et X 2 (m). Alors la variable aléatoire Fn,m = mX nY
suit la loi de Fisher-Snedecor F (n, m), à n dégrés
de liberté pour le numérateur et m dégrés
n n−2
de liberté pour le dénominateur. La fonction de densité
n+m n 2
Γ( ) ( ) t 2
de cette loi est f (t) = Γ n Γ2 m m n+m 1|{t>0} .
( 2 ) ( 2 ) (1+ n ) 2
m

On remarque de par la définition de la loi de Fisher-Snedecor, que si H F (n, m) alors


1 m
H
F (m, n). Si m ≥ 3, la moyenne d’une loi de Fisher existe et vaut m−2 . Si m ≥ 5, sa variance
2m2 (n+m−2)
existe et est égale à n(m−2)2 (m−4)
.

2
Proposition 1.5.6 Soient (X1 , X2 , · · · , Xn ) un n-échantillon de loi mère N (mX , σX ) et (Y1 , Y2 , · · · , Ym )
2
un m-échantillon de loi mère N (mY , σY ), les deux étant indépendants. On distingue les cas sui-
vants :
(i) La statistique 
X n − Y m − (mX − mY )
Zn,m = q
2 2
σX σY
n
+ m

suit une loi N (0, 1).

Cameroun, Université de Ngaoundéré David Jaurès FOTSA MBOGNE


12 CHAPITRE 1. VARIABLES ALÉATOIRES ET APPLICATIONS
(ii) La statistique  √
X n − Y m − (mX − mY ) m+n
1 Tn,m = q
2 2
q 2 2
σX σY X S1 Y S1
n
+ m
n σ 2 + m σ 2
X Y

suit une loi t (n + m). En particulier, si σX = σY alors la statistique se réduit à l’expression



X n − Y m − (mX − mY )
q
2 2
.
X S1 Y S1
m
+ n

(iii) La statistique
 √
X n − Y m − (mX − mY ) m+n−2
2 Tn,m = q
2 2
q 2 2
σX σY X S2 Y S2
n
+ m
(n − 1) σ 2 + (m − 1) σ 2
X Y

suit une loi t (n + m − 2). En particulier, si σX = σY alors la statistique se réduit à l’ex-


pression r 
nm (n + m − 2) X n − Y m − (mX − mY )
p .
m+n (n − 1)X S22 + (m − 1)Y S22
(iv) La statistique
 √
X n − Y m − (mX − mY ) m+n−1
1,2 Tn,m = q q 2
2
σX σ 2 S S2
n
+ mY n Xσ2 1 + (m − 1) Yσ22
X Y

suit une loi t (n + m − 1). En particulier, si σX = σY alors la statistique se réduit à l’ex-


pression r 
nm (n + m − 1) X n − Y m − (mX − mY )
p .
m+n nX S22 + (m − 1)Y S22
(iii) Si m = n alors les statistiques
 
√ X n − Y n − (mX − mY ) √ X n − Y n − (mX − mY )
1 Tn = n et 2 Tn = n
X−Y S1 X−Y S2

suivent respectivement une loi t (n) et une loi une loi t (n − 1).
(iv) La statistique
σY2 X S12 σY2 X S22 σY2 X S12
1 Fn,m = 2 2 2
, F n,m = 2 2
, 1,2 Fn,m = 2 2
,
σX Y S1 σX Y S2 σX Y S2

suivent respectivement des lois F (n, m), F (n − 1, m − 1) et F (n, m − 1).

Proposition 1.5.7 Soient (X1 , X2 , · · · , Xn ) et (Y1 , Y2 , · · · , Yn ) deux n-échantillons tous de lois


mères normales. On considère les deux estimateurs de la covariance Cov [X, Y ] donnés par
1 Xn
XY S1 = (Xi − mX ) ((Yi − mY ))
n i=1
1
E [XY ] − (E [XY ] + (n − 1) E [XY ])
n

Cameroun, Université de Ngaoundéré David Jaurès FOTSA MBOGNE


13 CHAPITRE 1. VARIABLES ALÉATOIRES ET APPLICATIONS
et
1 Xn  
XY S2 = Xi − X n Yi − Y n
n − 1  i=1 
n 1 X n 
= Xi Yi − X n Y n ,
n−1 n i=1

et les estimateurs respectifs associés du coefficient de corrélation rXY donnés par


XY S1 XY S2 n−1
r1 = et r2 = = r1
X S1 Y S1 X S2 Y S2 n
Alors les statistiques √ √
(n − 1) n − 2r1 n − 2r2
q et p
n2 − (n − 1)2 r12 1 − r22

suivent toutes la loi respectives t (n − 2).

1.6 Convergence d’une suite de variables aléatoires


Dans cette section, on considère une suite (Xn )n∈N de variables aléatoires réelles. L’objectif est
celui de définir des différents types de convergence. Ces notions seront importantes pour évaluer
la qualité des estimateurs dans le chapitre suivant.

Definition 1.6.1 Soient (fn )n∈N et f une famille d’applications toutes définies de A vers B ⊆ R.
On dit que
(i) La suite (fn )n∈N converge simplement vers f et on note fn → f si ∀ε > 0, ∀x ∈ A,
∃N (ε, x) ∈ N tel que ∀n ≥ N, |fn (x) − f (x)| < ε.
(ii) La suite (fn )n∈N converge uniformément vers f et on note fn ⇒ f si ∀ε > 0, ∃N (ε) ∈ N
tel que ∀x ∈ A, ∀n ≥ N, |fn (x) − f (x)| < ε.

Il est facile de remarquer que la convergence uniforme implique la convergence simple. La


réciproque est vraie si l’ensemble A est compact (par exemple un fermé borné de R).

Definition 1.6.2 On dit qu’une suite de variables aléatoires (Xn )n∈N converge en loi vers une
variable aléatoire X, si la suite des fonctions de répartition (Fn )n∈N correspondant à (Xn )n∈N ,
L
converge simplement vers la fonction de répartion F de X. On note Xn → X.

Proposition 1.6.1 Une suite de variables aléatoires (Xn )n∈N converge en loi vers une variable
aléatoire X si et seulement si la suite des fonctions génératrices (resp. caractéristiques) (gXn )n∈N
(resp. (ψXn )n∈N ) converge simplement vers gX (resp. ψX ).

Preuve. (Exercice)

Definition 1.6.3 On dit qu’une suite de variables aléatoires (Xn )n∈N converge en probabilité (ou
faiblement) vers une variable aléatoire X, si pour tout réel ε > 0 donné,
lim P (|Xn − X| < ε) = 1.
n→+∞

En d’autres termes, ∀ε > 0, ∀δ > 0, Il existe N (ε, δ) ∈ N tel que ∀n ≥ N , il existe un mesurable
p
Ωε,δ,n de mesure δ tel que ∀ω ∈
/ Ωε,δ,n , |Xn (ω) − X (ω)| < ε. On note Xn → X.

Cameroun, Université de Ngaoundéré David Jaurès FOTSA MBOGNE


14 CHAPITRE 1. VARIABLES ALÉATOIRES ET APPLICATIONS
Proposition 1.6.2 La convergence en probabilité implique la convergence en loi. Cependant, elle
sont équivalentes si X est une constante.
p
Preuve. Supposons que Xn → X et montrons que la Fn → F . Soient x ∈ R et ε ∈ R∗+ .

Fn (x) = P ({Xn ≤ x})


≤ P ({X ≤ x + ε} ∪ ({X > x + ε} ∩ {Xn ≤ x}))
≤ P ({X ≤ x + ε} ∪ {X − Xn > ε})
≤ P ({X ≤ x + ε}) + P ({X − Xn > ε})
≤ P ({X ≤ x + ε}) + P ({|Xn − X| > ε})
= F (x + ε) + P ({|Xn − X| > ε}) .

De même

F (x − ε) = P ({X ≤ x − ε})
≤ P ({Xn ≤ x} ∪ ({Xn > x} ∩ {X ≤ x − ε}))
≤ P ({Xn ≤ x} ∪ {X − Xn < −ε})
≤ P ({Xn ≤ x}) + P ({X − Xn < −ε})
≤ P ({Xn ≤ x}) + P ({|Xn − X| > ε})
= Fn (x) + +P ({|Xn − X| > ε}) .

Ainsi,

F (x − ε) − P ({|Xn − X| > ε}) ≤ Fn (x) ≤ F (x + ε) + P ({|Xn − X| > ε}) .

En utilisant la continuité de F avec ε aussi petit que nécessaire, la convergence en probabilité avec
aussi grand que nécessaire, on obtient la convergence en loi cherchée.

Definition 1.6.4 On dit qu’une suite de variables aléatoires (Xn )n∈N converge presque sûrement
(ou fortement) vers une variable aléatoire X, si pour tout réel ε > 0 donné,
 
lim P sup {|Xm − X|} < ε = 1
n→+∞ m≥n

En d’autres termes, ∀ε > 0, ∀δ > 0, Il existe N (ε, δ) ∈ N et un mesurable Ωε,δ,N de mesure δ tel
p.s.
que ∀n ≥ N , ∀ω ∈/ Ωε,δ,N , |Xn (ω) − X (ω)| < ε. On note Xn → X. Une autre formulation de la
convergence presque sûre est
 
P lim Xn = X = 1 ou P (∪n∈N ∩m≥n {|Xm − X| < ε}) = 1, ∀ε > 0.
n→+∞

En d’autres termes, il existe un négligeable N tel que ∀δ > 0, Il existe M (δ) tel que ∀m ≥ M ,
∀ω ∈
/ N , |Xm (ω) − X (ω)| < δ. L’expression lim Xn = X est prise ici au sens de la convergence
n→+∞
uniforme des fonctions.

Proposition 1.6.3 Soient (Xn )n∈N , une suite de variables aléatoires, et g une fonction continue.
p.s.
On suppose que Xn → X. Alors

Cameroun, Université de Ngaoundéré David Jaurès FOTSA MBOGNE


15 CHAPITRE 1. VARIABLES ALÉATOIRES ET APPLICATIONS
p
(i) Xn → X.
p.s.
(ii) g (Xn ) → g (X).

Definition 1.6.5 On dit qu’une suite de variables aléatoires (Xn )n∈N converge en moyenne d’ordre
r ∈ N∗ (quadratique si r = 2) vers une variable aléatoire X, si lim E [|Xn − X|r ] = 0. On note
n→+∞
Lr m.q.
Xn → X (Xn → X si r = 2).
Lr Ls
Proposition 1.6.4 Soient r, s ∈ N∗ . Si r ≥ s alors Xn → X ⇒ Xn → X.

Preuve. La preuve se base sur l’inégalité de Jensen.


h i
s rs s rs
(E [|Xn − X| ]) ≤ E (|Xn − X| )
= E [|Xn − X|r ] .

Ainsi,
 h i rs
s s rs
E [|Xn − X| ] ≤ E (|Xn − X| )
s
= (E [|Xn − X|r ]) r .

Grâce à la convergence en moyenne d’ordre r et à la dernière inégalité, on déduit celle de la


convergence en moyenne d’ordre s.

Proposition 1.6.5 La convergence en moyenne implique la convergence en probabilité.


Lr p
Preuve. On suppose que Xn → X pour un r ∈ N∗ fixé. Montrons que Xn → X.
 
P ({|Xn − X| ≥ ε}) = E 1{|Xn −X|>ε}
|Xn − X|r
 
≤E 1{|Xn −X|>ε}
εr
|Xn − X|r
 
≤E
εr
E [|Xn − X|r ]
=
εr
Grâce à la convergence en moyenne et la denière inégalité (dite de Markov) on obtient la conver-
gence en probabilité cherchée.

Théorème 1.6.1 (Loi des grands nombres)


Soit (Xn )n∈N , une suite de variables aléatoires iid, de moyenne m et de variance σ 2 .
(i) (Loi faible des grands nombres)
1 Xn p
Xn = Xk → m
n k=1

(ii) (Loi forte des grands nombres) Si E [|X1 |] < ∞ alors


1 Xn p.s.
Xn = Xk → m
n k=1

Cameroun, Université de Ngaoundéré David Jaurès FOTSA MBOGNE


16 CHAPITRE 1. VARIABLES ALÉATOIRES ET APPLICATIONS
Théorème 1.6.2 (Théorème de la limite centrale)
Soit (Xn )n∈N , une suite de variables aléatoires iid, de moyenne m et de variance σ 2 . Alors

Xn − m L
Zn = → N (0, 1)
√σ
n

Dans la pratique, on suppose que la limite est atteinte pour n > 30.

1.7 Simulation de variables aléatoires et méthode de Monte-


Carlo
1.8 Généralités sur les processus aléatoires
filtration, temps d’arrêt, (sous-, sur-, semi-) martingale

Cameroun, Université de Ngaoundéré David Jaurès FOTSA MBOGNE


Chapitre 2

Chaı̂nes de Markov

2.1 Définitions et propiétés élémentaires


2.2 Classification d’état et propriétés associées
2.2.1 Cas récurrent et irréductible
2.2.2 Cas apériodique
2.2.3 Chaı̂ne reversible

2.3 Vitesse de convergence et statistiques de la chaı̂ne

17
Bibliographie

[1] COHEN C., Introduction aux plans d’expériences, Rev. Statistique Appliquée, XXXVII (2),
pp 17-46, 1989.
[2] DAGNELIE P., Principes d’expérimentation : Planification des expériences et analyse de leurs
résultats, Les Presses Agronomiques de Gembloux, A.S.B.L., 2012.
[3] EASTERLING R.G., Fundamentals of Statistical Experimental Design and Analysis, John
Wiley & Sons, Ltd, 2015.
[4] GOUPY J., CREIGHTON L., Introduction aux plans d’expériences, troisième édition, Dunod,
2006.
[5] Gut A., Probability : A Graduate Course, Springer Science+Business Media Inc., 2005.
[6] LEJEUNE M., Statistique : la Théorie et ses Applications, deuxième édition, Springer-Verlag
France, Paris, 2010.
[7] SAPORTA G., Probabilités ; Analyses de données et Statistique, deuxième édition, TECHNIP,
Paris 2006.
[8] STEPHENS L., Theory and Problems of Beginning Statistics, Schaum’s Outlines, McGraw-
Hill, 1998.

18

Vous aimerez peut-être aussi