0% ont trouvé ce document utile (0 vote)
40 vues9 pages

Variables aléatoires continues et lois

Ok

Transféré par

Adama Ndiaye
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
40 vues9 pages

Variables aléatoires continues et lois

Ok

Transféré par

Adama Ndiaye
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Chapitre 3: Variables aléatoires continues

I Généralités
On appelle variable aléatoire continue une variable aléatoire qui peut prendre toutes les valeurs d’un
(ou plusieurs) intervalle(s), comme par exemple le temps de désintégration d’un atome radioactif.
On peut exprimer les choses de la façon suivante: pour une variable aléatoire continue, la mesure
de probabilité est étale sur un (ou plusieurs) intervalle(s), avec une probabilité paradoxale: il y a
"trop" de points dans un intervalle pour que chacun d’eux puisse avoir une probabilité non nulle,
ce qui n’empêche heureusement pas les intervalles (non réduit en un point) d’avoir une probabilité
non nulle.
La première conséquence est que la loi de probabilité d’une variable aléatoire continue X sera donnée
par les valeurs des probabilités des intervalles P (x1 < X ≤ x2 ) ou par l’expression de la fonction de
répartition FX (x) = P (X ≤ x); ce qui est équivalent, car

P (x1 < X ≤ x2 ) = FX (x2 ) − FX (x1 ).

On admet dans ce chapitre que la notion de probabilité ponctuelle P (X = xi ) utilisable seulement


pour les variables discrètes est remplacée ici par celle de densité de probabilité fX (x) = (FX (x))0 .
Cette densité a une signification intuitive très simple: pour un "petit" intervalle ]x, x + δx], la
probabilité que X appartienne à cet intervalle est (à la limite) proportionnelle à fX (x) et à δx :
Z x+δx
P (x < X ≤ x + δx) = FX (x + δx) − FX (x) = fX (t)dt ' δxfX (x) lorsque δx → 0.
x

Remarque 1
Comme pour tout x, P (X = x) = 0, les valeurs des probabilités frelatives à une variable aléatoire
continue sont les mêmes que l’on utilise l’inégalité ≤ ou l’inégalité stricte <.
On notera enfin que, si la fonction de répartition n’est plus bien sûr une fonction "en escalier"
(puisqu’elle est dérivable donc continue), elle possède les autres propriétés exposées au chapitre
précédent: elle est croissante et vérifie lim FX (x) = 0, lim FX (x) = 1.
x→−∞ x→+∞
Exemple 2
On considère une variable aléatoire réelle continue X dont la loi est la mesure uniforme sur l’intervalle
[0, A]; cela signifie que, pour tout sous ensemble [α, β], la probabilité

P (X ∈ I) = P (α ≤ X ≤ β)

est proportionnelle à la longueur β − α de I. On vérifie aisément que la densité de probabilité fX


est donnée par 

 0 si x < 0



1

fX (x) = si x ∈ [0, A]


 A



0 si x > A

1
et que la fonction de répartition FX est donnée par


 0 si x < 0



1

FX (x) = x si x ∈ [0, A]


 A



1 si x > A.
Z x
On pourra contrôler que FX (x) = fX (t)dt (intégrale qui dans ce cas particulier porte en réalité
Z +∞ −∞
sur un intervalle fini) et que fX (t)dt = 1, ce qui exprime tout simplement que P (X ∈ R) = 1
−∞
(⇔ l’axiome P (Ω) = 1).
On définit l’espérance mathématique, la variance et l’écart type d’une variable aléatoire réelle con-
tinue X comme pour une variable discrète, mais en remplaçant les sommes par des intégrations:
Z +∞ X
E(X) = tfX (t)dt équivalent de x i pi
−∞
Z +∞ X
Var(X) = (t − E(X))2 fX (t)dt équivalent de (xi − E(X))2 pi .
−∞

Mais il y a ici une difficulté supplémentaire: on effectue des intégrales "généralisées" (de −∞ à +∞)
et il est nécessaire que ces intégrales soient convergentes: il existe des variables aléatoires continues
qui n’ont pas de variance, ou qui n’ont ni espérance ni variance (en réalité, les mêmes ennuis peuvent
se produire pour une variable discrète, lorsque l’ensemble des valeurs prises est infini).
Exemple 3
On considère la variable aléatoire réelle continue X, uniforme sur [0, A], définie à l’exemple 2.
Calculer l’espérance, la variance et l’écart type de X.

II Loi exponentielle
II.1 Introduction
La loi exponentielle est une loi de probabilité continue très importante. Elle possède des liens étroits
avec d’autres lois de probabilités et plusieurs modèles probabilistes. Elle est souvent utilisée pour
modéliser la dur?e de vie de certains phénomènes ou le temps d’attente entre des événements:
• la dur?e de vie d’un appareil électrique,
• le temps d’attente entre l’arrivée de clients à un guichet automatique,
• le temps entre des appels téléphoniques,

2
• etc.
Définition II.1
Une variable aléatoire dont la densité est donnée par l’équation suivante, où λ, est positif,
 −λx
λe si x ≥ 0
f (x) =
0 si x < 0

est dite variable aléatoire exponentielle (ou plus simplement est dite de distribution exponentielle)
de paramètre λ.
II.2 Fonction de répartition
La fonction de répartition F d’une variable exponentielle est donnée par
Z x
F (x) = P (X ≤ x) = λe−λt dt
0
h ix
−λt
= −e = 1 − e−λx , x ≥ 0
0

Z +∞
On remarquera que F (+∞) = λe−λx dx = 1 comme il se doit.
0

Nous allons montrer à présent que le paramètre λ est égale à l’inverse de l’espérance de la variable.
II.3 Caractéristiques d’une variable exponentielle
Exemple 4
1
Soit X une variable aléatoire exponentielle de paramètre λ. Montrer que E(X) = et
λ
1
Var(X) = 2 .
λ

1
On prendra garde de ne pas confondre la "vie moyenne" E(X) = avec ce que les physiciens
λ
ln 2 1
appellent en radioactivité la "période" T = , déterminée par F (T ) = P (X ≤ T ) = (avec la
λ 2
signification statistique suivante: au bout du temps T , environ la moitié d’une grande quantité de
particules semblables s’est désintégrée).
III La distribution normale
III.1 Introduction
La distribution normale est la distribution continue la plus courante. Elle est souvent référée comme
la distribution de Gauss (Karl Friedrich Gauss, 1777-1855).
De nombreuses autres distributions qui ne sont pas elles-mêmes normales, peuvent devenir normales
après une opération de changement d’échelle des données. D’une manière générale, toute variable
aléatoire qui peut être exprimée sous la forme d’une somme de nombreuses autres variables peut
être valablement approchée par une distribution normale.

3
Ainsi, par son omniprésence, la distribution normale est incontournable en bio-statistique. La plu-
part des procédures d’estimation et de tests d’hypothèses qui seront étudiées ultérieurement sont
basées sur l’hypothèse que la variable aléatoire d’étude suit une distribution normale dans la popu-
lation. Un autre domaine important d’application de la distribution normale est son approximation
des autres distributions. En effet, il est plus aisé de travailler sur une distribution normale que sur
les autres. Dans ce cas, l’approximation normale de ces autres distributions est un gain de temps
considérable.
Définition III.1
La distribution normale se définit par sa fonction de densité de probabilité f (x):
1 2 2
f (x) = √ e−(x−µ) /2σ , −∞ < x < +∞, pour des paramètres µ ∈ R, σ ∈ R∗+ .
σ 2π
La représentation graphique de la densité de probabilité f (x) est représentée sur la figure 1.

La courbe est en forme de cloche et la valeur la plus élevée est observée pour x = µ. La courbe
est symétrique par rapport à µ avec des points d’inflexion de chaque côté de µ à µ − σ et µ + σ.
Ainsi, l’écart entre points d’inflexion et moyenne donne une image de l’ampleur de l’écart type de
la distribution.
En fait la distribution normale n’est pas une distribution unique. C’est une famille de distributions,
chacune étant définie par sa moyenne et sa variance.
La figure 2 présente les fonctions de densité de probabilité de trois distributions normales indexées
par leurs paramètres respectifs.

Une distribution normale de moyenne µ et de variance σ 2 se note: N (µ, σ 2 ).


On peut résumer ci-après les 4 premières caractéristiques de la distribution normale que nous avons
déjà vues:
(i) La plus grande valeur de probabilité est obtenue lorsque x = µ.
(ii) La courbe de distribution de la densité de probabilité est symétrique par rapport à µ et est
en forme de cloche.
(iii) La forme de la distribution normale est déterminée par ses paramètres µ et σ 2 .

4
(iv) Une distribution normale de moyenne µ et de variance σ 2 se note: N (µ, σ 2 ).
III.2 Cas particulier de la variable normale: la distribution normale standard
III.2.1 Aperçu
Lorsque µ = 0 et σ 2 = 1, la fonction de densité de probabilité prend la forme de:
1 2
f (x) = √ e−x /2 , −∞ < x < +∞.
σ 2π
Cette distribution est symétrique par rapport à 0 (figure 3).

En raison de la propriété de ses paramètres, cette distribution normale est appelée distribution
normale standard ou distribution normale centrée réduite. On la note assez souvent Z.
La distribution normale standard a d’autres caractéristiques intéressantes:
• environ 2/3 de l’aire sous la courbe de densité de probabilité se trouvent entre les valeurs −1
et +1 de la variable aléatoire normale standard;
• environ 95% de l’aire sous la courbe de densité de probabilité se trouvent entre les valeurs −2
et +2;
• environ 99% de l’aire sous la courbe de densité de probabilité se trouvent entre les valeurs −2, 6
et +2, 6. Nous pouvons aussi reformuler ces caractéristiques comme suit:
• P (−1 < Z < 1) = 0, 6826;
• P (−1, 96 < Z < 1, 96) = 0, 95;
• P (−2, 576 < Z < 2, 576) = 0, 99 (voir figure 4).

III.2.2 La fonction de répartition de la distribution normale standard


La fonction de répartition d’une distribution normale standard se note: Φ(x). Par définition:

Φ(x) = P (X ≤ x) où X ,→ N (0, 1).

La figure 5 montre la courbe représentative de la fonction de répartition de la distribution normale


standard. Nous utiliserons dans la suite, le symbole ,→ comme un raccourci de "se distribue selon"

5
ou "suit une distribution". Ainsi X ,→ N (0, 1) signifie que la variable aléatoire X se distribue selon
une distribution normale standard, de moyenne nulle et de variance égale à 1.

III.2.3 Propriétés symétriques de la distribution normale standard


L’application des propriétés symétriques de la distribution normale standard permet d’écrire:

Φ(−x) = P (X ≤ −x) = P (X > x) = 1 − P (X ≤ x) = 1 − Φ(x).

La figure 6 illustre cette importante propriété.

III.2.4 Aire entre deux points ou Probabilité d’un intervalle de valeurs


Soient deux points quelconques a et b de la courbe d’une distribution normale standard tels que
a < b. Si nous désirons déterminer la probabilité de l’intervalle de valeurs entre a et b, comment
procéderions-nous? Nous avons que:

P (a ≤ X ≤ b) = P (X ≤ b) − P (X ≤ a) = Φ(b) − Φ(a).

III.2.5 La table de distribution normale standard


La principale utilité de la distribution normale standard est qu’elle possède une table permettant
d’évaluer les probabilités ou les aires . La table donne Φ(x) = P (X ≤ x) = Φ(z) = P (Z ≤ z), l’aire
sous la courbe de N (0, 1) à gauche de x (ou z). Elle indique les aires pour x = 0, 00 à x = 4, 00.
Les entrées sont:
• Colonne des z (ou x): valeurs de z (ou de x): un chiffre et 2 décimales s’étendant de 0, 00 à
4, 00.
• Colonne des probabilités (ou des aires sous la courbe de distribution normale standard): valeurs
de Φ(z) = P (Z ≤ z), en nombre décimal de 5 chiffres s’étendant de 0, 5000 à 9, 99997.

Ainsi, connaissant z on peut déterminer Φ(z) et vice versa.


Remarques 5
• La table ne donne pas de valeurs négatives de x; leur présence dans la table n’est pas nécessaire
en raison de la symétrie de la distribution normale standard par rapport à 0.

6
• Il faut toujours lire la note indicative sous les tables d’aires. Certaines tables donnent
P (X > x), d’autres encore P (X ≤ x).
Application 6
Soit X ,→ N (0, 1). Trouver P (X ≤ 1, 96), P (X ≤ 1), P (X ≤ −1, 96) et P (−1 ≤ X ≤ 1, 96).

III.2.6 Les quantiles d’une distribution normale standard


Nous aurons souvent à nous référer aux valeurs des quantiles d’une distribution normale standard
dans le cadre du travail en statistique inférentielle. Le quantile d’ordre p d’une distribution normale
standard, notée zp se définit comme:

P (X ≤ zp ) = p, où X ,→ N (0, 1).

zp est indiqué sur la figure 7.

Par exemple, le quantile d’ordre p = 0, 975 est égal à z0,975 = 1, 96.

La fonction zp est souvent référée comme la fonction normale inverse. Dans l’utilisation précé-
dente de la table de distribution normale, une valeur de x était donnée, et à l’aide de la table, on
évaluait l’aire à gauche de x, c’est-à-dire Φ(x) d’une distribution normale standard. Pour obtenir
zp , on exécute l’opération inverse: on recherche d’abord l’aire dans la table des aires et ensuite la
valeur de zp correspondant à cette aire. Autrement dit, étant donné p, on recherche la valeur de z.
IV La conversion d’une distribution normale N (µ, σ 2 ) en une distribution normale stan-
dard N (0, 1)
Exemple 7
soit une hypertension limite définie comme celle d’une personne âgée de 40-50 ans, dont la pression
artérielle diastolique est comprise entre 90 et 100 mm Hg. En outre, nous supposons que la pression
artérielle des hommes de cette tranche d’âge de la population est normalement distribuée avec une
moyenne et une variance respectives de 80 mm Hg et 144 mm2 Hg. Alors quelle est la probabil-
ité d’un homme de 40-50 ans tiré au hasard dans la population d’avoir une hypertension limite?
Autrement dit, si X ,→ N (80, 144), quelle est la P (90 < X < 100)?

D’une manière générale, si X ,→ N (µ, σ 2 ), alors quelle est la P (a ≤ X ≤ b) pour tous nombres
a et b? Il s’agit de convertir un énoncé de probabilité d’une N (µ, σ 2 ) en un énoncé de probabilité
d’une N (0, 1), puisqu’il n’existe de tables de probabilité que pour la distribution N (0, 1). Pour cette
conversion, on a recourt à la variable normale standard Z.

7
X −µ
Considérons la variable aléatoire suivante: .
σ
Dans cette expression:
X est la variable des valeurs observées;
µ= la moyenne de la distribution normale et σ 2 sa variance.
On observe que Z est l’écart à la moyenne mesuré en termes de nombres d’écart types de la distri-
bution ((X − µ) = Zσ). Donc par définition, Z est la variable normale standard.

La variable Z a deux propriétés intéressantes:


Sa moyenne est égale à 0.
Considérons l’ensemble N des valeurs individuelles de z; alors:
 N
X

N  (Xi − µ) 
1 X  i=1  Nµ − Nµ
µZ = Zi =  = = 0.
N i=1 
 N σ 
 Nσ

Sa variance est égale à 1.


Puisque µz = 0, la variance se réduit à

XN 
XN
2
N
(Xi − µ)  (Xi − µ)2
σ2

1 X  1 i=1
 = i=1

σZ2 = Zi2 =  = .
N i=1 N
 σ2 
 N σ2 σ2

Ces propriétés sont celles de la distribution normale standard et du fait de cette analogie de ses
caractéristiques, la variable Z est appelée variable normale standard. Ce qui permet de reformuler
l’équation de la distribution normale donnée précédemment.
Il s’en suit qu’une variable X de moyenne µ et de variance σ 2 peut être transformée en une nouvelle
variable Z par la formule:
X −µ
.
σ2
En outre si la variable X est normalement distribuée, alors la variable Z sera elle aussi normalement
distribuée:
X −µ
Si X ,→ N (µ, σ 2 ) et Z = , alors Z ,→ N (0, 1).
σ
Exemple 8
Répondre à la question posée dans l’exemple 7 puis interpréter le résultat?

8
V Approximation normale d’une répartition binomiale
Le théorème présenté ci-dessous est connu sous le nom de théorème limite de De Moivre-Laplace.
1
De Moivre fut le premier à l’établir dans le cas particulier p = en 1733, tandis que Laplace a pu
2
le généraliser pour toute valeur de p en 1812.
Théorème limite de De Moivre-Laplace
Soit Sn le nombre de succès lors de la réalisation de n épreuves indépendantes, la probabilité de
réussite pour chaque épreuve étant p. Alors, pour tout a < b on
n Sn − np o
P a≤ p ≤b −→ Φ(b) − Φ(a)
np(1 − p)

lorsque n → +∞.
Autre formulation
Soit X une variable aléatoire de loi binomiale B(n, p). Si "n est grand" et "p pas trop petit", alors
X suit approximativement la loi normale N (np, np(1 − p)) (de même moyenne et même écart type
que la binomiale).
En pratique, ce résultat s’applique dès que np ≥ 10 et n(1 − p) ≥ 10. (Autres conditions possibles
n ≥ 30, n(p ≥ 5 et n(1 − p) ≥ 5).

Vous aimerez peut-être aussi