Variables Aleatorias Bidimensionales
Definición. Sean (X,Y) dos variables aleatorias discretas, entonces existe:
pX,Y(x,y) = P(X = x , Y = y);
(x,y) ∊ Rec (X,Y) llamada Distribución de Probabilidad Conjunta de (X,Y)
o función de cuantía conjunta de (X,Y) tal que cumple con:
1.- 0 < p(x,y) < 1
2.- p(x,y) 1
Re cX Re cY
Definición. Sean (X,Y) dos variables aleatorias continuas , entonces existe:
fX,Y(x,y) llamada función de densidad Conjunta de (X,Y) tal que cumple con:
1.- f(x,y) > 0 (x,y) ∊ Rec (X,Y)
2.- f(x , y )dydx 1
Re cX Re cY
b d
3.- P(a < X < b ; c < Y < d) = f(x , y )dydx
x ay c
Definición. Sean (X,Y) dos variables aleatorias discretas, tal que p(x,y) es su función de probabilidad
conjunta, entonces:
p(x) = p(x, y) ; x ∊ Rec (X) Distribución de probabilidad Marginal de X
Re cY
p(y) = p(x, y) ; y ∊ Rec (Y) Distribución de probabilidad Marginal de Y
Re cX
p(x, y)
p(x/y) = ; (x,y) ∊ Rec (X,Y) Distribución de probabilidad de X condicionada por Y
p(y)
p(x, y)
p(y/x) = ; (x,y) ∊ Rec (X,Y) Distribución de probabilidad de Y condicionada por X
p( x )
E(X / Y = yj) = x p(x/ y j ) Esperanza de X condicionada por Y = yj
RecX
V(X / Y = yj) = E(X2 / Y=yj) - [E(X / Y=yj) ]2 Varianza de X condicionada por Y = yj
Covarianza(X,Y) = E[(X – E(X)(Y-E(Y)] = E(XY) – E(X)E(Y) Covarianza de X, Y
E(XY) = xy p(x,y) Esperanza conjunta de (X,Y)
Re cX Re cY
σ X,Y
( X ,Y ) ; -1 ≤ ρ ≤ 1 Coeficiente de correlación lineal de Pearson (X,Y)
σXσ Y
σ X,Y =CoV (X,Y)
P(X a , Y=b)
P(X ≤ a / Y = b) = Si X e Y son Variables Aleatorias Discretas
P(Y=b)
E(X + Y) = E(X) + E(Y) Si X e Y son Variables Aleatorias Discretas o Continuas
COORDINACIÓN
Definición. Sean (X,Y) dos variables aleatorias continuas , tal que f(x,y) es su función de densidad
conjunta, entonces:
f(x) = f(x, y) dy; x Rec X Función de densidad Marginal de X
Re cY
f(y) = f(x, y) dx; y Rec Y Función de densidad Marginal de Y
Re cX
f(x, y)
f(x/ y) Función de densidad de X condicionada por Y = yj
f(y) Y=y j
f(x, y)
f(y/ x) Función de densidad de Y condicionada por X = xj
f(x ) X =x j
Por lo tanto:
a
f(x,y) = f(y)∙f(x/y) = f(x)∙f(y/x) P(X ≤ a / Y = b) = f(x/ y = b) dx
E(X/ Y = y j ) x f(x/ Y = y j ) dx Esperanza de X condicionada por Y = yj
Re cX
V(X / Y = yj) = E(X2 / Y=yj) - [E(X / Y=yj) ]2 Varianza de X condicionada por Y = yj
E(XY) = x y f(x, y) dydx Esperanza conjunta de (X,Y)
Re cX Re cY
Cov(X,Y) = E[(X – E(X)(Y-E(Y))] = E(XY) – E(X)E(Y) Covarianza de X, Y
Propiedades de la Covarianza
1.- Cov(X , X) = V(X) ; Cov(Y , Y) = V(Y)
2.- Cov(aX +b , cY +d) = ac∙Cov(XY) a, b ,c, d ∊ ℝ
3.- Cov(aX + bY , cX +dY) = ac∙V(X) + bd∙V(Y) + (ad + bc)∙Cov(X , Y) a, b ,c, d ∊ ℝ
Definición: Se dice que (X , Y) son variables aleatorias Independientes si y solo si:
P(X = x , Y = y) = P( X =x)P(Y = y) (x,y) ∊ Rec (X,Y) Si X e Y son v.a. discretas.
f(x, y) = f(x)f(y) (x,y) ∊ Rec (X,Y) Si X e Y son v.a. continuas.
Consecuencias: Si X e Y son variables aleatorias independientes, entonces:
E(XY) = E(X)E(Y) Cov(X , Y) = 0 (X, Y) = 0
V(X + Y) = V(X) + V(Y) + 2Cov(X , Y) = V(X) + V(Y)
V(X - Y) = V(X) + V(Y) - 2Cov(X , Y) = V(X) + V(Y)
p(x /y) = pX(x) ; p(y/x) = p(y); E(X/Y=yj) = E(X); E(Y/X = xj) = E(Y)
2 2
X N( X ; X ) y sea Y N( Y ; Y ) entonces
2 2 2 2
X+Y N( X + Y ; X Y ) X-Y N( X - Y ; X Y )
COORDINACIÓN