0% ont trouvé ce document utile (0 vote)
32 vues10 pages

Notions de variables aléatoires en statistiques

cour

Transféré par

souadesn17
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
32 vues10 pages

Notions de variables aléatoires en statistiques

cour

Transféré par

souadesn17
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

USTHB, FEI, Dépt Télécom, Master ST/Section A, Octobre 2018, Chapitre 2 : Notions de variables aléatoires

Version résumée : Seules les paramètres et les fonctions jugés nécessaires pour la bonne
compréhension de ce module sont cités dans ce chapitre. Toute erreur signalée est la bienvenue

Les points à voir


• Fonction de répartition/distribution,
• fonction de densité de probabilité (v.a. continue) ou fonction de masse (v.a. discrète).
• Moyenne d’une v.a (discrète et continue),
• variance, écart type.
• Fonction conjointe
• Covariance de deux v.a.
• Vecteur de v.a
• Transformation de v.a : Le Jacobien
• Matrice variance-covariance d’un vecteur
• Théorème central limite

1. Définition d’un phénomène aléatoire :


Un phénomène dont la succession d'événements est imprédictible est dit aléatoire, on dit aussi que
cette succession n'obéit à aucune loi et à aucune régularité qui permettent de le prévoir. À titre
d'exemple, la variation de la pression atmosphérique en un lieu donné est aléatoire et, de fait,
imprédictible.

2. Définition d’une variable aléatoire :


Une variable aléatoire est un nombre dépendant du résultat d'une expérience aléatoire. C’est donc une
variable mais de nature aléatoire. Ce sont les valeurs de ce nombre pendant l’expérience qui déterminent
par la suite la loi de cette variable aléatoire.

Chaque v.a. possède un pourcentage qu’il lui est associée.

Donc une v.a. est une fonction qui passe du domaine du processus aléatoire au domaine des nombres.

Types de v.a. : Deux types existent : v.a Continues et v.a discrètes

Exemple 1: pièce de monnaie, Pile ou face.


Si je décide de calculer la probabilité d’avoir le nombre de faces en jetant deux pièces de monnaie, je
pourrai avoir soit 0, soit 1, soit 2. Ce genre de v.a. est discret
Pour le type discret, le nombre de résultats est en général dénombrable.

Exemple 2 : un enseignant qui reçoit des étudiants, Il peut recevoir 0,1,2….. Théoriquement il peut recevoir
jusqu’à l’infinie. Il ne peut pas recevoir une fraction.
Contrairement à la v.a. continue dont la valeur est toujours non dénombrable et fonctionne en intervalle [],

Exemple 3 : la quantité d’eau qui va pleuvoir, ou le poids d’une personne.

[Link]étés de l’opérateur « espérance mathématique » E

L’opérateur espérance mathématique est un opérateur linéaire (il s’agit d’une intégrale ou d’une
sommation). Par conséquence, on a :
E [aX ] = aE [X ], E [b + aX ] = b + aE [X ] E [ag ( X )] = aE [g ( X )]
(a et b des constantes)

1
USTHB, FEI, Dépt Télécom, Master ST/Section A, Octobre 2018, Chapitre 2 : Notions de variables aléatoires

Deux relations utiles concernent l’espérance et la variance d’une somme de v.a,:

 
E ∑ X i  = ∑ E [ X i ] et Var(aX+b) :=a2Var(X), Var(b)=0
 i  i

Si, X1, ….,Xn, sont indépendantes, alors la variance de leur somme est égale à la somme de leurs
variances.

1. Fonction de répartition/pdf-pmf
Noter que la lettre majuscule est la v.a et la lettre minuscule représente la valeur qu’elle peut prendre.

Fonction de répartition

La fonction de répartition FX(x) exprime la probabilité que la variable aléatoire X prenne une valeur

inférieure ou égale à toute valeur particulère x. Elle est donnée par FX ( x) = P ( X ≤ x)

Propriétés :
lim FX ( x ) = 0, lim FX ( x ) = 1
x→ −∞ x →∞

FX(x) est une fonction non décroissante.

Si X est une v.a. discrète, FX(x) est une fonction en escalier, dans le cas contraire FX(x) est continue.

2. Fonction de masse et de densité

1. Cas discret :pX(x)= P(X=x) est une fonction de masse de probabilité (Probability mass

function :pmf) de la v.a. discrète X. On peut exprimer la pmf par pX(x)= FX(x)-FX(x-)

2. Cas continu: fX(x) est une fonction de densité de probabilité (Probability density

function :pdf) de la v.a. discrète X. La pdf est donnée par : f X ( x) = FX ( x)
dx
Une fonction de densité de distribution est une fonction qui montre comment les probabilités d’une v.a.
sont assignées à chaque résultat de valeurs numériques.

Exemple de fonction pdf Exemple de fonction de répartition

Normal Probability Distributions Cumulative Normal Distributions


1.2
0.4
µ = 0; sigma = 1 1
µ = 1; sigma = 1 µ = 0; sigma = 1
0.3 µ = 1; sigma = 1
µ = 0; sigma = 2 0.8
µ = 0; sigma = 2
F(x)
f(x)

0.2 0.6

0.4
0.1
Pro 0.2
prié
0
tés :
0
-3 -2 -1 0 1 2 3 -3 -2 -1 0 1 2 3
x x

2
USTHB, FEI, Dépt Télécom, Master ST/Section A, Octobre 2018, Chapitre 2 : Notions de variables aléatoires

Cas discret cas continu


f X ( x) ≥ 0
PX ( x) ≥ 0
P(a ≤ X ≤ b ) = ∫ f X ( x)dx = FX (b) − FX (a)
b
P( X ≤ 1) a

∑ P (x ) = 1
i
X i

−∞

f X ( x)dx = 1
Exemple : Dans une expérience on jette deux fois une pièce de monnaie équilibrée: le domaine est
S={PP, FF, PF, FP} P : Pile, F : Face
Le nombre de faces est R={0, 1, 2},
Ici on ne cherche pas une pdf mais une PMF puisque la variable est discrète.
PX(0)=1/4, PX(1)=1/2, PX(2)=1/4.
Et on peut tracer la PMF par :

Exemple 1 : Des tiges d’acier montrent une résistance en tension variable. La fdp est donnée par

Q1 : Quelle est la probabilité qu’une tige donnée


 2 x − 35
 55 − 35 41 − 35 35 ≤ x ≤ 41 montre une résistance en tension comprise entre 47
 2  x − 41  et 49 ?
f X ( x) =  1 −  41 ≤ x ≤ 55
 55 − 35  41 − 35  Q2 : Quelle est la probabilité que la résistance soit
 0 ailleurs
inférieure à 41 ?

Rep.1 : 0.1 Rep. 2 :0.3

[Link] fonctions de densité de probabilité:

La pdf uniforme :
Si toute valeur de X est équiprobable dans l’intervalle [a,b], alors X suit une loi uniforme. La fdp et la
fonction de répartition :
1 x−a
f X ( x) = a ≤ x ≤ b, FX ( x) = a≤ x≤b
b−a b−a
E ( x) = (a + b ) 2 Var ( X ) = (a + b ) 12
2

Démonstration : (voir cours)

Pdf normale ou gaussienne


Cette pdf est aussi appelée pdf gaussienne ou en forme de cloche. C’est sans contredit la loi la plus
importante en statistique. Elle est adéquate pour décrire plusieurs phénomènes naturels surtout ceux
causés par l’addition d’un grand nombre de petits effets indépendants. Mathématiquement, elle jouit

3
USTHB, FEI, Dépt Télécom, Master ST/Section A, Octobre 2018, Chapitre 2 : Notions de variables aléatoires

de plusieurs propriétés extrêmement intéressantes. Finalement, elle constitue la distribution limite pour
une somme de v.a. indépendantes de même distribution (théorème central limite).

 ( x − µ )2 
f X (x ) = E[X ] = µ , Var [X ] = σ 2
1
exp − ,

2π σ  2σ 2

Note: Une variable aléatoire X suit une loi N (μ, σ 2) si z=(X- μ)/ σ 2, suit la loi normale N (0,1).
La distribution gaussienne est la plus utilisée en statistiques. Cette distribution fournit souvent un excellent
modèle pour la distribution de fréquence observée pour de nombreux événements naturels, tels que la
distribution des tailles ou les poids des individus de la même espèce, d’où son importance. Lorsque la
moyenne mu =0, on dit que la pdf est centrée et lorsque sigma est égale à 1, on dit que la pdf est réduite.
Les propriétés de la distribution gaussienne lui confèrent aussi cette importance. Elle est considérée
comme une fonction de distribution propre, c'est-à-dire que si un phénomène représenté par une
gaussienne traverse un filtre LIT la sortie sera aussi gaussienne dont les paramètres sont différents que
ceux de celle en entrée.

Quelques pdf connues

[Link]éristiques de distributions (à une seule variable)


Il est intéressant de définir des quantités permettant de décrire les caractéristiques principales d’une
distribution. Ceci facilite la comparaison de distributions entre elles. Quand nous travaillerons au niveau de
l’échantillon, il arrivera que l’on ne connaisse pas nécessairement les distributions impliquées, pourtant les
mesures caractéristiques pourront toujours être estimées à partir de l’échantillon.

L’espérance mathématique
Pour n’importe quelle loi, la moyenne µ , et la variance σ 2 , sont définies respectivement par :
x max x max
µ= ∫ xf ( x)dx σ = ∫ (x − µ )
2 2
et f ( x)dx
x min x min
La racine carrée de la variance, σ (sigma), est appelée écart type (standard deviation).

4
USTHB, FEI, Dépt Télécom, Master ST/Section A, Octobre 2018, Chapitre 2 : Notions de variables aléatoires

Covariance : Si deux v.a X et Y réelles admettent des moments d’ordre 2, alors la covariance cov(X,Y)est
définie par :
Cov = Cov , ( X , Y ) = E [( X , µ )](Y , µ )
XY X Y

Var ( X + Y ) = Var ( X ) + Var (Y ) + 2Cov( X , Y )


Var ( X + Y ) = Var ( X ) + Var (Y )
Si X et Y sont des v.a. indépendantes alors
Coefficient de corrélation : le coefficient de corrélation n’a pas d’unité comme c’est le cas pour la
covariance.
Les écart types sont tous deux positifs, c’est la covariance qui peut être négative ou positive, et par
conséquence ρ.
Cov( X , Y )
ρ (X ,Y ) = , −1 ≤ ρ (X ,Y ) ≤ 1
Var ( X ) Var (Y )
Exemple de corrélation :
La figure A indique une corrélation moyenne, celle en B une corrélation forte mais de signe négatif, celle
en C une corrélation forte causée par une seule valeur aberrante et celle en D une absence de
corrélation bien qu’il existe une relation non-linéaire parfaite entre X et Y. De C on conclut que la
présence d’une forte corrélation peut être due à une anomalie des données, de D on conclut que
l’absence de corrélation n’indique pas nécessairement une absence de relation entre les variables. Cela
indique simplement une absence de relation linéaire. Ainsi, si l’indépendance entre 2 v.a. implique
l’absence de corrélation, l’inverse est fausse (sauf pour le cas particulier de la loi binormale).

[Link] conjointes
Dans plusieurs expériences, les observations sont en fonctions d’un ensemble de v.a. au lieu que ça soit une
seule v.a. Par exemple pour enregistrer la taille et le poids de chaque personne dans une société
quelconque nous avons besoin de deux nombres, d’où pour étudier cet exemple nous considérons 2 v.a. .
Soit X et Y deux v.a. Alors:
P( y1 < Y ≤ y2 ) = FY ( y2 ) − FY ( y1 ) = ∫ fY ( y )dy.
y2
P(x1 < X ≤ x2 ) = FX ( x2 ) − FX ( x1 ) = ∫ f X ( x)dx,
x2
y1
x1

La probabilité d’appartenance de la paire de v.a (X,Y) à une partie donnée est estimée par :
P[( x1 < X ≤ x2 ) ∩ ( y1 < Y ≤ y2 )]
On définit alors la fonction de distribution de probabilité conjointe (the joint probability distribution
function) de X et de Y par :
FXY ( x, y ) = P[( X ≤ x) ∩ (Y ≤ y )]
= P( X ≤ x, Y ≤ y ) ≥ 0,
où x et y sont des nombres réelles arbitraires.
On définit alors la Fonction de répartition de probabilité conjointe et la fonction de distribution de
probabilité conjointe ( joint pdf).

5
USTHB, FEI, Dépt Télécom, Master ST/Section A, Octobre 2018, Chapitre 2 : Notions de variables aléatoires

En général, toutes les lois que nous avons vu pour une seule v.a, sont aussi valables pour deux v.a. ou plus.
Nous avons alors, la p.d.f conjointe de X et de Y est donnée par :

FXY ( x, y ) = ∫
x y
∂2
−∞ ∫ −∞
f XY (u , v) dudv. f XY ( x, y ) =
dxdy
FXY ( x, y )

Dans le contexte de plusieurs v.a, les statistiques de chacune sont appelées les statistiques marginales.
Ainsi,
FX (x) est la fonction de répartition marginale de X, et f X (x) est la pdf marginale de X. Il est intéressant
de noter que toutes les marginales peuvent être obtenues à partir de la pdf conjointe. Pour deux v.a, nous
avons :
+∞ +∞
f X ( x) = ∫ f XY ( x, y )dy, fY ( y ) = ∫ f XY ( x, y )dx.
Remarque ; −∞ −∞

Dans le cas d’une variable aléatoire discrète, tel que le cas de la distribution de poisson, on ne parle
pas de fonction de distribution mais de fonction de masse.

Exemple 2:
Soit la fonction pdf donnée par :
Alors : exp[− ( x + y )]
f X ,Y ( x, y ) =  x, y ≥ 0
y
 0 sin on
FX ,Y ( x, y ) = ∫ ∫ exp[− (t + u )]dtdu
x
FX ,Y ( x, y ) = ∫ [1 − exp(− x )]exp(− u )du
y
0 0
0
Ainsi : y

= [1 − exp(− x )]∫ exp(− u )du


y

= ∫ exp(− u )∫ exp(− t )dtdu


x

0 0
0

[1 − exp(− x )][1 − exp(− y )] x, y ≥ 0


FX ,Y ( x, y ) = 
 0 sin on

Exemple 3: Vérifier que la pdf est bien celle donnée dans l’exercice précédent (homework 1).
Exemple 4 : vérifier si f(x,y) et h(x,y) sont des pdfs.
 x + y 0 ≤ x, y ≤ 1  x a y1−a 0 ≤ x, y ≤ 1
f X ,Y ( x, y ) =  hX ,Y ( x, y ) = 
Réponse : ∞ ∞  0 sin on  0 sin on
∫ ∫ f X ,Y ( x, y)dxdy = 1,
−∞ −∞
∞ ∞
∫ ∫ hX ,Y ( x, y)dxdy = 1 / 1 + q − q
−∞ −∞
(2
)
f X ,Y ( x, y ) = 1 donc une pdf , hX ,Y ( x, y ) ≠ 1, ne vérifie pas la condition

Homework 2 :
Quelle est la condition sur la valeur de la variable a pour que f X ,Y ( x, y ) = 1 / 1 + q − q
2
( ) soit une pdf ?

Moments d’ordre N :
___
Moments: Le moment d’ordre n d’une v.a X est donné par: mn = X n = E ( X n ), n ≥1
Et µ n = E[( X − µ ) ] est connu sous le nom de moment central d’ordre n.
n

Il est claire que µ = m1 , est la moyenne et σ 2 = µ 2 . est la variance .


Question : Comment appelle-t-on les moments d’ordre 3 et 4 ?
[Link] aléatoire
Un vecteur aléatoire X, X = (X1, · · ·, XN)T (T est l’opérateur Transposé) de dimension N est une variable
aléatoire à valeurs dans RN. On peut lui appliquer tous les théormes et les propriétés vus pour les v.a. déjà
avec une certaine formulation adaptée aux vecteurs. Les éléments X1, ………XN son des v.a, chacune
possédant sa propre moyenne et sa propre variance, et sa pdf.

6
USTHB, FEI, Dépt Télécom, Master ST/Section A, Octobre 2018, Chapitre 2 : Notions de variables aléatoires

E(Xj)=μj, var(Xj)=E(Xj-μj)2=δj2 ,

Moyenne d’un vecteur aléatoire : E(X) = μ =(E(X1), · · ·, E(XN))T= E(X) = (μ1,, · · ·, μN)T

Dans ce cas, μ est un vecteur de moyennes.

La fonction de répartition d’un vecteur aléatoire X est FX ( x1 , x2 ,........xN ) = P( X 1 ≤ x1 ,........, X N ≤ xN )

La fonction de Densité de probabilité est : FX ( x1 , x2 ,........xN ) = ∫


]−∞ , x1 ]*...
....... ∫f X
*]−∞ , xN ]
(u1 ,........u N )du1.....du N .
Covariance d’un vecteur aléatoire

Soit un vecteur X=(X1, X2, ……………. XN) où chaque composante admet un moment d’ordre 2. On appelle
matrice de variance-covariance ou matrice de dispertion, la matrice ∑ donnée par :

 Var ( X 1 ) Cov( X 1 , X 2 ) . . Cov( X 1 , X N )


 
 Cov( X 2 , X 1 ) Var ( X 2 ) 
[
Σ = E ( X − µ )( X − µ )T * ] =

. . 

 . . 
 Cov( X , X )
 N 1 Var ( X N ) 
Cas particulier du vecteur gaussien

La distribution normale multivariable est une extension de la distribution normale d’une v.a. s singulière au
vecteur aléatoire de taille (nx1) où ses v.a. suivent chacune une distribution normale. Sa pdf est donnée
par ([Link]) :

1 −1 / 2  ( X − µ )T Σ −1 ( X − µ ) 
f ( x, µ , Σ ) = f ( x ) = Σ exp− 
(2π )n / 2  2 
Si det(∑) est différent de 0, alors ∑ est symétrique, semi-définie positive.
Exemple : Cas d’une matrice diagonale 2x2
Vérifier que la pdf du vecteur X est donnée par le produit des pdf des v.a. qui le constituent.
f ( x, µ , Σ )
 x1   µ1  σ 12 0 
X =  , µ =   Σ =  2
 x2   µ2   0 σ2 
 1  x − µ T σ 2 0  −1  x − µ  
1 
p ( x, µ , Σ ) = x1 − µ1 exp −  1 1   1
Réponse :
1 1

σ 12 0
1/ 2  2  x2 − µ2   0 σ 22   x2 − µ2  
2π  
0 σ 22
 (x1 − µ1 )2   ( x2 − µ2 )2 
f ( x, µ , Σ ) =
1 1
exp − . 
 2π σ exp − 2σ 2 

2π σ 1  2σ 2
1  2  2 

On reconnait bien le produit de pdf gaussiennes de v.a. indépendantes avec les moyennes μ1 et μ2 et les
variances σ12 et σ22.

7
USTHB, FEI, Dépt Télécom, Master ST/Section A, Octobre 2018, Chapitre 2 : Notions de variables aléatoires

[Link] de variables aléatoires: Le Jacobien


Ayant une collection de variables (X1, · · ·, XN) de rang X(n) de et sachant une fonction conjointes
fX1,………Xk(x1, ….xk), on peut construire la pdf d’un ensemble de variables (Y1, · · ·, YN) en suivant les étapes :
X i = gi (Y1 ,.......Yk ), i ∈ [1, k ]
−1
1. Ecrire l’ensemble des fonctions

2. Ecrire l’ensemble des fonctions Yi = gi ( X 1 ,....... X k ), i ∈ [1, k ]


3. Calculer le Jacobien
 ∂x1 ∂x1 ∂x1 
 . . 
 ∂y1 ∂y2 ∂yk 
 
D= . . , J = D

 . . 
 ∂x ∂xk 
 k 
 ∂y1 ∂yk 
Ecrire la fonction conjointe fY1,………Yk(y1, ….yk),
( )
fY1 ,Y2 ,........Yk ( y1 , y2 ,........ yk ) = f X1 ,........ X k x1 = g1−1 ( y1 ,.., yk ),........, xk = g k−1 ( y1 ,.., yk ) .J
Exemple 5:
Supposons que X1 et X2 ont une pdf fX1,X2(x1,x2)=2 pour 0< x1<x2<1 0 sinon.
Calculer la pdf conjointe des v.a. Y1 et Y2 tel que :

Y1= X1/X2 et Y2 = X 2

Réponse :
X(n) = X(2) ≡{( x1,x2) : 0< x1<x2<1 } et
1. Y1= X1/X2 et Y2= X2 → X1= Y1.Y2 et X2=Y2

2. Transformation à Y(2) ≡{( y1,y2) : 0< x1<x2<1⇔0< y1 y2<y2<1 }


qui résulte en 0< y1<1 et 0< y2<1

3. Le Jaconbien :
 ∂x1 ∂x1   ∂y1 ∂y1 
1 x1 
 ∂y ∂y2   y2 y1   ∂x ∂x2   1
Dy =  1 =
∂x2   0
= y2 Dx =  1 = x22  =
 ∂x2 1   ∂y2 ∂y2   x2  x2
1
∂x2  
0
 ∂y1 ∂y2   ∂x1

On vérifie que [Link]=1


4. (
fY1 ,Y2 ( y1 , y2 ) = f X1 , X 2 x1 = g1−1 ( y1 , y2 ), x2 = g 2−1 ( y1 , y2 ) .J )
= f X , X ( y1. y2 , y2 ).1 = 2 y2
Exemple 6: 1 2

Supposons que X1 et X2 sont des v.a. iid définies sur R+, chacune avec une pdf f(x). Calculer la pdf
conjointe des v.a.: Y1= X1 et Y2= X1+X2
1  x
Reponse f ( x) = exp−  x>0 0 sin on
2πx  2
J =1
1 1  y 
fY1 ,Y2 ( y1 , y2 ) = f X1 , X 2 ( y1 , y2 − y1 ) = exp− 2  pour 0 < y1 < y2 < ∞ 0 sin on
2π y1 ( y2 − y1 )  2

8
USTHB, FEI, Dépt Télécom, Master ST/Section A, Octobre 2018, Chapitre 2 : Notions de variables aléatoires

[Link]éorème central limite.


Le théorème central limite et la loi des grands nombres sont les deux théorèmes fondamentaux des
probabilités. En gros, le théorème central limite stipule que la répartition de la somme (ou la moyenne)
d'un grand nombre de variables aléatoires indépendantes , identiquement distribuées (iid) sera normale,
indépendamment de la distribution de celles-ci (Donc c’est la moyenne qui sera considérée ici comme v.a).
Ce théorème est la raison du fonctionnement de plusieurs procédures statistiques.
Ainsi, les [Link] individuelles deviennent sans importance pour l’analyse. Si le phénomène de bruit est
modélisé comme la somme d'un grand nombre de variables aléatoires indépendantes (par exemple : le
mouvement des électrons dans les composants de la résistance), ce théorème nous permet de conclure
que le bruit se comporte comme une v.a. normale ou gaussienne.
La moyenne μ des moyennes deséchantillons est égale à la moyenne de la population à partir de laquelle
ont été établis les échantillons et la variance de la distribution est la variance δ divisée par la racine carrée
de n ( L'erreur-type . )

Quel est la valeur de N pour que le théorème de la central limite fonctionne ?


• Si la pdf de l'échantillon est normale, alors la distribution de la nouvelle combinaison
d’échantillons sera également normale , quelle que soit la taille de l'échantillon .
• Lorsque la population de l'échantillon est à peu près symétrique, la distribution devient
approximativement normale avec des valeurs de n relativement faibles.
• Lorsque la population de l'échantillon est biaisée, la taille de l'échantillon doit être d'au moins 30.

Exemple 5 :
Figure XX : Distribution de
l’échantillon, distribution de la
moyenne de (a) avec un
échantillon n = 10, (c) :
Distribution de moyenne avec un
échantillon de taille = 100

Exemple 6 : pour une v.a. X suit une distribution exponentiel avec une pdf :

λ e−λ x ,
1 1
f (=
x; λ ) ( x ≥ 0, λ > 0 ) ⇒ E
= [X ] =
, V [X ]
λ λ2
L’illustration, pour λ = 1pour l’échantilllon moyenne avec des tailles d’échantillons égales à n = 1, 2, 4 et 8 :
=n 1:=f ( x) e− x =n 2=
: fX ( x) 4 x e −2 x
4 ( 4 x ) e−4 x 8 ( 8 x ) e −8 x
3 7
=n 4=
: fX ( x) =n 8=
: fX ( x)
3! 7!

Ce site web contient des définitions rapides sur plusieurs paramètres et fonctions statistiques.
[Link]

9
USTHB, FEI, Dépt Télécom, Master ST/Section A, Octobre 2018, Chapitre 2 : Notions de variables aléatoires

[Link] de deux v.a.


Cas discret:
On suppose que X et Y sont deux v.a. indépendantes discrètes avec des fonctions de distributions m1(x) et m2(x).
Soit Z = X + Y . On voudrait déterminer la distribution m3(x) de Z. Pour cela il est suffisant de déterminer la
probabilité que Z prenne les valeurs de z où z est un entier arbitraire. Supposons que X=k où k est un entier
quelconque. Alors Z=z si et ssi Y=z-k. L’évènement Z=z est l’union de la paire d’évènements disjoints
(X=k) et (Y=z-k)

On a alors : P(Z = z ) = ∑ P( X = k ).P(Y = z − k )
k = −∞
Ceci nous donne la fonction de distribution de la v.a. z. ainsi que les définitions suivantes :

Déf. Soient X et Y deux v.a. entières indépendantes avec des fonctions de distributions m1(x) et m2(x)
respectivement. La convolution de m1(x) et m2(x) est la function de distribution m3 = m1 * m2 donnée par :

m3 ( j ) = ∑ m (k ).m ( j − k )
1 2
k = −∞
La fonction m3(x) est la fonction de distribution de la variable aléatoire Z=X+Y.
Cas continu :
Soient deux v.a. continues indépendantes avec des pdf f(x) et g(y) respectivement. On suppose qu’elles sont
définies pour tous les nombres. La convolution de f et g , f*g est la fonction donnée par :

FX +Y ( z ) = P{X + Y ≤ z} ∂FX +Y ( z )
f X +Y ( z ) =
=∫ f X ( x ). fY ( y )dxdy ∂z
X +Y ≤ z +∞
+∞ z − y +∞ z − x = ∫ f X ( z − y ). fY ( y )dy
=∫ ∫ f X ( x ). fY ( y )dxdy = ∫ ∫ fY ( x ). f X ( x )dydx −∞
−∞ −∞ −∞ −∞ +∞
+∞ +∞ = ∫ fY ( z − x ). f x ( x )dx
= ∫ FX ( z − y ). fY ( y )dy = ∫ FY ( z − x ). f x ( x )dx −∞
−∞ −∞

+∞
( f * g )(z ) = ∫−∞ f (z − y ).g ( y )dy
+∞
= ∫ g ( z − x ). f ( x )dx
−∞

Donc : si X et Y sont deux v.a. indépendantes avec des pdf fX(x) et fY(y) pour tout x, alors la somme
X=X+Y
est une v.a. avec une pdf fZ(z) résultante de la convolution de fX par fY.

10

Vous aimerez peut-être aussi