9.
INTRODUCCION A DISTRIBU-
CIONES MULTIVARIANTES
Objetivo
Introducir la idea de la distribucion conjunta
de dos variables discretas. Generalizar las ideas
del tema 2. Introducir la distribucion normal
bivariante.
En esta seccion se trata de la distribucion con-
junta de dos variables. Veremos un ejemplo.
401
Ejemplo 182 Se lanzan tres monedas distntas
con probabilidades de cara de 0,5, 0,4 y 0,3 re-
spectivamente. Sean X el numero de caras (C)
en las primeras dos monedas e Y el numero de
cruces (c) en las ultimas dos lanzadas.
Los posibles resultados del experimento, sus
probabilidades y los valores de las variables X
e Y son los siguientes.
Resultado Prob. X Y
{C, C, C} 0,06 2 0
{C, C, c} 0,14 2 1
{C, c, C} 0,09 1 1
{C, c, c} 0,21 1 2
{c, C, C} 0,06 1 0
{c, C, c} 0,14 1 1
{c, c, C} 0,09 0 1
{c, c, c} 0,21 0 2
Hacemos una tabla de doble entrada mostran-
do la distribucion conjunta de las dos variables.
402
La distribucion conjunta de X e Y
Definicion 43 Para dos variables discretas X
e Y , la distribucion conjunta de X e Y es el
conjunto de probabilidades P (X = x, Y = y)
para todos los posibles valores de x e y.
Y
0 1 2
0 0,00 0,09 0,21
X 1 0,06 0,23 0,21
2 0,06 0,14 0,00
1
Observamos que
P (X = x, Y = y) = 1.
x y
403
Las distribuciones marginales de X e Y
Y
0 1 2
0 0,00 0,09 0,21 0,3
X 1 0,06 0,23 0,21 0,5
2 0,06 0,14 0,00 0,2
0,12 0,46 0,42 1,0
La distribucion marginal de X es
0,3 si x = 0
0,5 si x = 1
P (X = x) =
0,2 si x = 2
0 si no
Observamos que
P (X = x) = P (X = x, Y = y)
y
404
La distribucion condicionada
La distribucion condicionada de Y dado X = 2
es
0,3 si y = 0
P (Y = y|X = 2) = 0,7 si y = 1
0 si no
Observamos que P (Y = y|X = x) = P (X=x,Y =y)
P (X=x)
.
La media condicionada es
E[Y |X = 2] = 0,3 0 + 0,7 1 = 0,7
405
Independencia
Definicion 44 Se dicen que dos variables (disc-
retas) X e Y son independientes si
P (X = x, Y = y) = P (X = x)P (Y = y)
para todos los valores de x e y.
Esta definicion equivale a decir que
P (X = x|Y = y) = P (X = x) o
P (Y = y|X = x) = P (Y = y)
para todos los valores de x e y.
En nuestro ejemplo, X e Y no son independi-
entes.
406
Covarianza y correlacion
Definicion 45 Para dos variables X e Y , la
covarianza entre X e Y es
Cov[X, Y ] = E[(X E[X])(Y E[Y ])
A menudo, se escribe XY para representar la
covarianza.
En la practica, normalmente, se evalua la co-
varianza a traves de otra formula equivalente.
Teorema 22
Cov[X, Y ] = E[XY ] E[X]E[Y ]
Se calcula E[XY ] = x y xyP (X = x, Y = y).
407
Ejemplo 183 Volvemos al Ejemplo. Tenemos:
E[X] = 0 0,3 + 1 0,5 + 2 0,2
= 0,9
E[Y ] = 0 0,12 + 1 0,46 + 2 0,52
= 1,5
E[XY ] = 0 0 0,00 + 0 1 0,09 + . . .
+2 1 0,14 + 2 2 0
= 0,93
Cov[X, Y ] = 0,93 0,9 1,5
= 0,42
Una medida sin unidades es la correlacion.
408
Definicion 46 La correlacion entre X e Y es
Cov[X, Y ]
Corr[X, Y ] =
DT [X]DT [Y ]
A menudo, se escribe XY para representar la
correlacion y entonces XY = XY .
X Y
Ejemplo 184 Tenemos
2
E X = 02 0,3 + 12 0,5 + 22 0,2
= 1,3
V [X] = 1,3 0,92 = 0,49
DT [X] = 0,7
E Y2 = 02 0,12 + 12 0,46 + 22 0,52
= 2,54
V [Y ] = 2,54 0,932 = 1,6751
DT [Y ] 1,294
0,42
Corr[X, Y ] = 0,464
0,7 1,294
Hay una relacion negativa entre las dos vari-
ables.
409
Propiedades de la correlacion
1. 1 XY 1
2. La correlacion es igual a 1 si y solo si existe
una relacion lineal positiva entre X e Y , es
decir
Y = + X
donde > 0.
3. La correlacion es 1 si y solo si existe una
relacion lineal negativa
Y = X
donde < 0.
4. Si X e Y son independientes, XY = 0.
El ultimo resultado no es verdad al reves. Ex-
isten variables incorreladas pero dependientes.
410
Variables continuas
Para dos variables continuas, se puede definir
la funcion de distribucion conjunta
F (x, y) = P (X x, Y y)
y la funcion de densidad conjunta
2
f (x, y) = F (x, y)
xy
Se tiene
x y
f (x, y) dx dy = F (x, y)
f (x, y) dx dy = 1
Se calcula la distribucion condicionada, media,
covarianza etc. de manera semejante al calculo
para variables discretas pero sustituyendo inte-
grales por sumatorios donde sea necesario.
411
Ejemplo 185 Verificar que la siguiente fun-
cion bivariante es una densidad
f (x, y ) = 6xy 2, 0 < x < 1, 0 < y < 1,
En primer lugar observamos que f (x, y) 0 y
en segundo lugar, debemos comprobar que la
densidad integra a 1.
1 1 1
1
y 3
6xy 2dxdy = 6x dx
0 0 0 3 0
1
1
1 x 2
= 6x dx = 2 = 1.
0 3 2 0
412
Las densidades marginales
La densidad marginal de X es
f (x) = f (x, y) dy
Luego tenemos
1
f (x) = 6xy 2 dy
0
1
y 3
= 6x
3 0
= 2x para 0 < x < 1
Igualmente, la densidad marginal de Y es
1
f (y) = 6xy 2 dx
0
1
x2
= 6 y2
2 0
= 3y 2 para 0 < y < 1
413
Observamos que
f (x, y) = 6xy 2
= 2x 3y 2
= f (x)f (y)
Luego X e Y son independientes.
Entonces sabemos que
f (x|y) = f (x)
f (y|x) = f (y)
Cov[X, Y ] = 0
414
La distribucion normal bivariante
La distribucion normal bivariante es la mas im-
portante de las variables aleatorias continuas
bivariantes. Una variable aleatoria bivariante
(X, Y ) que sigue una distribucion normal bi-
variante se carateriza por un vector de medias,
X
= ,
Y
y una matriz de varianzas y covarianzas,
2
X XY
= .
XY Y2
Si X e Y tienen una distribucion normal bivari-
ante, se escribe (X, Y ) N (, ) .
415
Propiedades de la distribucion normal bi-
variante
1. Las distribuciones marginales de X y de Y
son normales.
2. Las distribuciones condicionadas son nor-
males.
3. Si la covarianza es cero, entonces X e Y
son independientes.
4. Cualquier transformacion lineal,
U X
=A ,
V Y
donde A es una matriz, es normal.
416
El siguiente grafico muestra la funcion de den-
sidad conjunta de una distribucion normal bi-
variante estandar, con media = (0, 0)T y ma-
triz de varianzas y covarianzas = I.
0.16
0.14
0.12
0.1
0.08
0.06
0.04
0.02
0
3
2
3
1 2
0 1
1 0
1
2 2
3 3
417