0% encontró este documento útil (0 votos)
42 vistas12 páginas

Capítulo 4

Este documento discute las distribuciones de probabilidad conjunta y marginal de dos variables aleatorias. Define: 1) La distribución de probabilidad conjunta como la función f(x,y) que da la probabilidad de eventos para dos variables aleatorias X e Y. 2) Las distribuciones marginales como las sumas de la distribución conjunta sobre una variable, que dan las probabilidades de X e Y individualmente. 3) Cómo calcular probabilidades, covarianza y correlación a partir de la distribución conjunta para casos discretos y continuos. Los objetivos son entender las distribuciones univariadas y bivariadas y cómo derivar propiedades clave de la distribución conjunta.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
42 vistas12 páginas

Capítulo 4

Este documento discute las distribuciones de probabilidad conjunta y marginal de dos variables aleatorias. Define: 1) La distribución de probabilidad conjunta como la función f(x,y) que da la probabilidad de eventos para dos variables aleatorias X e Y. 2) Las distribuciones marginales como las sumas de la distribución conjunta sobre una variable, que dan las probabilidades de X e Y individualmente. 3) Cómo calcular probabilidades, covarianza y correlación a partir de la distribución conjunta para casos discretos y continuos. Los objetivos son entender las distribuciones univariadas y bivariadas y cómo derivar propiedades clave de la distribución conjunta.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

Estadísticas para la economía JJU, Departamento de Economía

Capítulo Cuatro
4. Distribuciones Conjuntas y Marginales
Introducción
Hasta ahora hemos estado preocupados por las propiedades de una sola variable aleatoria definida en un
espacio de muestra dado. A veces encontramos problemas que tratan con dos o más aleatorios
variables definidas en el espacio muestral. En este capítulo, consideramos esta probabilidad conjunta
distribución o variable aleatoria multivariada.
Las ideas sobre variables aleatorias discutidas anteriormente se pueden generalizar fácilmente a dos o más aleatorias.

variables. Consideramos el caso típico de dos variables aleatorias que son ambas
discreto o ambos continuos. También se discutió el concepto de covarianza y correlación
coeficiente de dos variables aleatorias. En casos donde una variable es discreta y la otra
modificaciones continuas y adecuadas se realizan fácilmente, generalizaciones a más de dos
las variables también se pueden crear

Objetivos;
Después de este capítulo, los estudiantes serán capaces de:

variable aleatoria univariante


encontrar la probabilidad de distribuciones de probabilidad conjuntas

encuentra la distribución de probabilidad marginal de la distribución conjunta

calcular la covarianza y el coeficiente de correlación de dos variables aleatorias

1
Estadísticas para Economía JJU, Departamento de Economía

En el capítulo II, hemos visto una variable aleatoria que significa una sola variable aleatoria.

(ejemplo X). La variable aleatoria podría representar características de un artículo o un individuo.


Por ejemplo, X podría representar la edad de un individuo. Sin embargo, a veces, podemos estar
interesado en conocer dos características de un artículo o individuo, por ejemplo, nivel de
la educación de un individuo que puede ser representada por X y los ingresos que pueden ser
representada por Y. En este caso, nuestra variable aleatoria es dos y se dice que la distribución es
distribución conjunta. Como hemos visto en el capítulo II, la variable aleatoria puede ser discreta
o continuo:

4.1. Caso Discreto


Definición: Si X e Y son variables aleatorias discretas, la función dada por fxy (x,y) =
P(X=x, Y=y) para cada par de (x,y) con el rango de X e Y se llama conjunto
distribución de probabilidad de X e Y.

Propiedades

1. 0 P(xi,yi) 1

∑x ∑y f( x )=1
2.
es decir, la suma de la probabilidad de x e y es igual a uno

Supongamos que X puede asumir cualquiera de los m valores x1, x2, . . . ,xmy Y puede asumir cualquiera de n
valores y1, y2, . . . ynEntonces la probabilidad del evento de que X=xj, y Y=ykse da por
P(X=xj, Y=yk) = f(xj, yk)
Una función de probabilidad conjunta para X e Y puede ser representada por una tabla de probabilidad conjunta como en

Tabla 4.1.
Definición: Si X e Y son variables aleatorias discretas y f(x,y) es el valor de su
distribución de probabilidad conjunta en (X,Y). La función dada por g(x) = Σy f(x,y) para cada
x dentro del rango de X se llama la distribución marginal de X, correspondientemente
h(y) = Σx f(x,y) para cada y dentro del rango de Y es la distribución marginal de Y

2
Estadísticas para la Economía JJU, Departamento de Economía

Tabla 4.1 Distribución de probabilidad conjunta

Y Totales

X y1 y2 … yn
x1 f(x1,y1) f(x1,y2) … f(x1,yn) fx(x1)
x2 f(x2,y1) f(x2,y2) … f(x2,yn) fx(x2)
.. .. .. .. .. ..
xm f(xm,y1) f(xm,y2) … f(xm, yn) fx(xm)
Totales fy(y1) fy(y2) … fy(y) 1 Total General

n
P(Y y)k f(y)
y k f(x,y)
j k
Porque las probabilidades P(X=xj, Y=yk) = f(xj, yk) y j 1

se obtienen de los márgenes de la tabla a los que a menudo nos referimos a fx(xj) y fy(yk) (o simplemente fx(x)
y fy(y)) como las funciones de probabilidad marginal de X e Y respectivamente.

También se debe señalar que

m n
f(x)
x j
1 f(y)
y k
1
j 1 k 1

Esto se puede escribir como:


m n

∑ ∑
j=1k=1
f(x)=1
j k

Esta es simplemente la afirmación de que la probabilidad total de todas las entradas es 1. El gran total de 1 es
indicado en la esquina inferior derecha de la tabla.
La función de distribución conjunta de X e Y está definida por

F( x)=P( X≤x≤ y)= ∑ ∑ f(u , v )


u ¿ x v¿ y

En la Tabla 4.1, F(x, y) es la suma de todas las entradas para las cuales xj< x e yk< y.
Ejemplo 4.1. Supongamos que f(x,y) =(x+y)/30, donde x = 0, 1, 2, 3; y y = 0, 1, 2. ¿Es esto?
¿Una función de distribución es una distribución de probabilidad conjunta?

Ejemplo 4.2 La función de probabilidad conjunta de dos variables aleatorias discretas X e Y es


dado por f(x,y) = c(2x + y), donde x e y pueden asumir todos los enteros tales que 0 < x < 2, 0 < y <
3, y f(x,y) = 0 de lo contrario.
a) Encuentra el valor de la constante c,
b) Encuentra P(X = 2, Y = 1).
c) Encuentra P(X > 1, Y < 2)

3
Estadísticas para la Economía JJU, Departamento de Economía

Solución:
a) Los puntos de muestra (x,y) para los cuales las probabilidades son diferentes de cero se indican en
fig 5.1. Las probabilidades asociadas con estos puntos, dadas por c(2x + y), se muestran
en la Tabla 5.2. Dado que el total general, 42c, debe ser igual a 1, tenemos c = 1/42.

y
Tabla 5.2
Y Totales 3
X 0 1 2 3
0 0 C 2c 3c 6c 2
1 2c 3c 4c 5c 14c
2 4c 5c 6c 7c 22 grados Celsius 1
Totales 6c 9c 12c 15c 42c
x
012

Figura 5.1
b) de la tabla 5.2 vemos que
5
P( X=2, Y=1)=5 c =
42
c) de la tabla 5.2 vemos que
P( X¿ 1, Y¿ 2 )= ∑ ∑
x ¿ 1año¿ 2
f( x)

=(2 c +3 c + 4 c )+(4 c +5 c +6 c )
24 =4 =
=24 grados Celsius
42 7
P[ X≥1]
Tarea del estudiante: Encontrar

Ejemplo 4.3 Encuentra las funciones de probabilidad marginal (a) de X y (b) de Y para la variable aleatoria

variables del ejemplo 5.1


Solución:
a) La función de probabilidad marginal para X está dada por g(x) = P(X = x) = fx(x) y puede ser
obtenido de los totales del margen en la columna derecha de la tabla 5.2. De estos, vemos que
6c 1 7 x 0
g(x) P(x x) fx(x) 14c 1 3 x 1
22c 11 21 x 2

1 1 11
Verificar:+ + =1
7 3 21

4
Estadísticas para la Economía JJU, Departamento de Economía

b) La función de probabilidad marginal para Y está dada por h(y)=P(Y = y) = fy(y) y puede ser
obtenidos de los totales de margen en la última fila de la Tabla 5.2. De estos vemos que

6c 1 7 x 0
h(y) P(X y) Fy(y) 9c 3 14 x 1
12c 27 x 2
15c 5 14 y 3

1 3 2 5
Verificar:+ + + =1
7 7 7 14
4.2. Caso Continuo
El caso en el que ambas variables son continuas se obtiene fácilmente por analogía con el discreto
caso sobre reemplazar sumas por integrales.
Si X e Y son variables aleatorias continuas conjuntas con una función de densidad conjunta dada por
f(x; y) = f(X = x; Y = y), entonces
1.f(x,y) 0
2.  
f(x,y)dx dy 1

La función de distribución conjunta de X e Y en este caso está definida por


x y
F(x,y) P(X x y) 
f(x,y)dx

dy

La probabilidad de que X se encuentre entre a1y un2mientras Y está entre b1y b2es:
a2b2
(un¿1 ≤ X ≤2 a 1, b ≤ Y
2 ≤ b )=¿ ¿ f(x,y)dx dy
P ¿ a1 b1

Se sigue que
2
F
f(x,y)
x y

es decir, la función de densidad se obtiene al diferenciar la función de distribución con respecto a


x e y, por lo tanto, obtenemos
x y
P(X x) Fx(x) 
f(x,y)dx

dy
x y
P(Y y) Fy( y ) 
f(x,y)dx

dy

5
Estadísticas para la Economía JJU, Departamento de Economía

Llamamos a la ecuación anterior, las funciones de distribución marginal, o simplemente la distribución.


funciones, de X e Y respectivamente. Las derivadas con respecto a x e y se llaman entonces las
las funciones de densidad marginal, o simplemente las funciones de densidad, de X y Y se dan por

g(x) f(x)
x f(x,y)dy

y h(y) f(y) y 
f(x,y)dx

Ejemplo 5.3: Verifique si la siguiente función puede ser una densidad conjunta válida.
función

Ejemplo 5.4: Dada la siguiente función

{
xy
x2 + , 0 ≤ x ≤ 1 , 0 ≤ y ≤ 2
f(x
) = 3
0, de lo contrario
¿Encontrar la densidad marginal de X e Y?
2
xy 4x
h(x ¿ )dy=2x2 +
)= ∫0 ( x¿2+ ¿
3 6
1
xy 2+ y
g ( y )= ∫ ( x¿¿2+ ) dx= ¿
0 3 6

6
Estadísticas para la Economía JJU, Departamento de Economía

h(x)

4.3. Variables aleatorias independientes


Se dice que dos variables X e Y son variables independientes si y solo si la probabilidad de una
la variable no se ve influenciada por la ocurrencia de la otra variable.
Supongamos que X e Y son variables aleatorias discretas. Si los eventos X = x y Y = y son
eventos independientes para todos x e y, entonces decimos que X e Y son variables aleatorias independientes

variables. En tal caso


P(X=x, Y=y) = P(X=x) * P(Y=y)
O equivalente
f(x,y) = fx(x) fy(y)=h(x)*g(y)
Por el contrario, si para todos x e y la función de probabilidad conjunta f(x,y) puede expresarse como el

producto de una función de x sola y una función de y sola (que son entonces las marginales
las funciones de probabilidad de X e Y), X e Y son independientes. Sin embargo, si f(x, y) no se puede así
expresado entonces X e Y son dependientes.

Si X e Y son variables aleatorias continuas, decimos que son variables aleatorias independientes.

variables si los eventos X<x y Y<y son eventos independientes para todo x y y. En tal caso, nosotros
puede escribir

P(X<x, Y< y) = P(X<x) * P(Y<y)


O de manera equivalente

F(x,y) = Fx(x) Fy(y)


Dónde Fx(x) y Fy(y) son las funciones de distribución (marginal) de X e Y respectivamente.

Ejemplo 5.5. Demuestra que las variables aleatorias X e Y del ejemplo 4.1 son dependientes.

Solución:
Si las variables aleatorias X e Y son independientes, entonces debemos tener, para todos x e y.

P(X = x, Y = y) = P(X = x) * P(Y = y)


Pero, como se ve en el ejemplo 4.1(b)

7
Estadísticas para Economía JJU, Departamento de Economía

5 11 3
P( X=2, Y=1)= P( X =2)= P(Y=1)=
42 21 14
P( X =2 , Y =1) ≠ P ( X=2 ) P (Y=1)
El resultado también se deriva del hecho de que la función de probabilidad conjunta, (2x + y)/42, no puede
ser expresado como una función de x sola multiplicada por una función de y sola.

Ejemplo 5.6: Dada la siguiente tabla

¿Son X e Y variables aleatorias independientes?

Solución:
Para responder a esta pregunta, primero tenemos que derivar la distribución marginal de X e Y, h(x) &
g(y), que se encuentran en la última columna y la última fila de la tabla.
P(x=0, y=0) = h(x) g(y) P(x=1, y=1) = (0.4) (0.2) = 0.08
0.1 = (0.2) (0.5) =0.1 P(x=2, y=1) = (0.4) (0.2) = 0.08
P(x=2, y=2) = (0.4) (0.3) = 0.12, etc.
Por lo tanto, la distribución es independiente {ya que P(x,y)=h(x)g(y)}

¿Es esta función de distribución independiente?


Solución:

1 1
h ( x )= ∫4xy d y=2x,g ( y )= ∫4xy dx=2y
0 0

Así, {P(x,y) =4xy}={ g(x)*h(x) = (2x)(2y) = 4xy}.

4.4. Distribuciones Condicionales

8
Estadísticas para la Economía JJU, Departamento de Economía

P( A∩B )
P(B ¿ )=
Ya sabemos que si P (A)>0, P( A )
Si X e Y son variables aleatorias discretas y tenemos los eventos (A:X=x), (B:Y=y), entonces el
la distribución condicional anterior se convierte en

f(x,y)f(x,y)
P(Y y/X x)
fx(x) g(x)
Donde f(x,y) = P(X=x, Y=y) es la función de probabilidad conjunta y fx(x) es el marginal
función de probabilidad para X. Definimos
f(x,y)f(x,y)
f(y/x)
fx(x) g(x)

Y llámala la función de probabilidad condicional de Y dado X. De manera similar, la condicional


función de probabilidad de X dado Y es
f(x,y)f(x,y)
f(x/y)
fy(y) h(y)

A veces denotaremos f(x/y) y f(y/x) como fx(x/y) y fy(y/x) respectivamente.


Estas ideas se extienden fácilmente al caso en que X e Y son variables aleatorias continuas.
Las funciones de densidad condicional de Y dado X

f(x,y)
f(y/x)
g(x)

Donde f(x, y) es la función de densidad conjunta de X e Y, y g(x) es la densidad marginal


función de X. Podemos, por ejemplo, encontrar que la probabilidad de Y estar entre c y d dado
que x<X<x+dx es

d
P(c Y d/ x X x dx) c
f( y/ x)dy

Las generalizaciones de estos resultados también están disponibles.

Ejemplo 5.5. La función de probabilidad conjunta de dos variables aleatorias discretas X e Y se da

por f(x,y) C(2x y) donde x e y pueden asumir todos los enteros tales que

9
Estadísticas para la economía JJU, Departamento de Economía

0≤x≤2,0≤ y≤3 y f(x)=0 de lo contrario. Encuentra, a) f( y/2) b)

P( y=1/ x=2 )
Solución
Con el valor de C=1/42 obtenido arriba;
f(x,y) (2x y) 42
f(y/x)
a. g(x) g(x) , de modo que con X = 2

(4 + y)/42 4+ y
f( y /2 )= =
11/21 22
5
P( y=1/ x=2 )=f(1/2 )=
b. 22

5.6. Esperanza Condicional, Varianza y Momentos

Si X e Y tienen una función de densidad conjunta f(x,y), entonces la función de densidad condicional de Y

dada X es f(y/x) = f(x,y)/fx(x) donde fx(x) es la función de densidad marginal de X. Podemos


define la esperanza condicional o la media condicional de Y dado X por

E Y X x  
yf(y/x)dy

Donde "X = x" debe interpretarse como x < X < x + dx en el caso continuo.
Notamos las siguientes propiedades:
E (Y / X = x) = E (Y) cuando X e Y son independientes

E(Y/X x)fx(x)dx
2. E (Y) 

A menudo es conveniente calcular expectativas utilizando la propiedad 2, en lugar de hacerlo directamente.

Ejemplo 5.5. El tiempo promedio de viaje a una ciudad lejana es de c horas en coche o de b horas en autobús. A

el hombre no puede decidir si conducir o tomar el autobús, así que lanza una moneda. ¿Cuál es su esperado?
¿tiempo de viaje?

Solución:
Aquí estamos tratando con la distribución conjunta del resultado del lanzamiento, X y el viaje
X = 1. Presumiblemente, ambos Y y Ycoche
tiempo, Y, donde Y = Y sicoche son independientes
autobús de X, así que
que por la Propiedad 1 anterior

E (Y / X = 0 ) = E (Ycoche/ X = 0) = E (Ycoche) = c
y E (Y / X = 1) = E (Yautobús/ X = 1) = E (Yautobús) = b

10
Estadísticas para la Economía JJU, Departamento de Economía

Entonces, la propiedad 2 (con la integral reemplazada por una suma) da, para una moneda justa,

c+b
E(Y)=E(Y/ X=0 ) P( X=0 )+E(Y/ X =1) PX=1 )=
2
De manera similar, podemos definir la varianza condicional de Y dado X como

[
2
E (Y− μ /2 )X = x= ] ∫ ¿ ( y− μ2)2f( y ¿ ) dy¿
−∞

Dónde 2E(Y / X = x) También podemos definir el rthmomento condicional de Y dado X sobre


cualquier valor "a" como

E [ ( Y − ar) / X = x=
] ∫ ¿ ( y− a)rf( y¿ ) dy¿
−∞

Los teoremas habituales para la varianza y los momentos se extienden a la varianza y los momentos condicionales.

5.7. Varianza para distribuciones conjuntas: Covarianza


Los resultados dados arriba para una variable se pueden extender a dos o más variables. Así, para
ejemplo, si X e Y son dos variables aleatorias continuas que tienen una función de densidad conjunta

f(x,y), las medias o expectativas de X e Y son


∞ ∞ ∞ ∞

μ x=E ( X )=
∫ ∫ ¿
−∞
¿
−∞
xf( x) dx dy , μY=E( Y)=
∫ ∫ ¿
−∞
¿
−∞
yf( x)dx dy¿ ¿ ¿ ¿

y las varianzas son

σ =E ( X−μ ) =] ∫ ¿ ∫
∞ ∞ ∞ ∞

]∫ ∫
2 2

X [ X
2

−∞
¿
−∞
2

[
σ
( x−μ X) f(x) dx dy¿ =E(Y−μ )=
Y
Y
2
¿
−∞
¿ ( y−μ )y f2 ( x) dx dy¿ ¿
−∞
¿
Otra cantidad que surge en el caso de dos variables X e Y es la covarianza definida
por

σ XY = [(
Cov( X)= EX− μ Y−X
μ) ( Y )]
En términos de la función de densidad conjunta f(x,y) tenemos
∞ ∞

σ ∫ ∫
XY = ¿ ¿ ( x−μ X) ( y−μ Y) f( x )dx dy¿ ¿
−∞ −∞

Se pueden hacer observaciones similares para dos variables aleatorias discretas. En tal caso,

μX= x∑f(∑
x ) μ = y f( x , y ) Y ∑x ∑y
x y

σ XY= ∑x ∑y ( x−μ X)( y−μ )Yf( x)


donde las sumas se realizan sobre todos los valores discretos de X e Y
Los siguientes son algunos teoremas importantes sobre la covarianza.

11
Estadísticas para la Economía JJU, Departamento de Economía

σ XY= E ( XY)− E ( X) E( Y)=E( XY)−μ XμY

Si X e Y son variables aleatorias independientes

XY Cov (X , Y) = 0
Var (X + Y) = Var (X) + Var (Y) + 2 Cov (X, Y)

σ σ σ + 2σ
2 2 2
X + Y= X+ Y XY

o |σ XY|≤ σ Xσ Y

Coeficiente de correlación
Si X e Y son independientes, entonces Cor(X, Y) = XY= [Link] otro lado, si x e Y son
completamente dependiente, por ejemplo cuando X = Y, entonces Cor (X, Y) – XY= X YDe esto nosotros

conducen a una medida de la dependencia de las variables X e Y dada por


σ XY
P=
σ Xσ Y
que es una cantidad adimensional. Llamamos p al coeficiente de correlación o coeficiente de
correlación. Se puede demostrar que -1 < p < 1. En el caso donde p = 0 (es decir, la covarianza es
cero) llamamos a las variables X e Y no correlacionadas. En tal caso, sin embargo, las variables pueden o
puede que no sean independientes.

12

También podría gustarte