ENMES250: Estadı́stica II
Hoja Resumen para el Control 4
Indicación: Este es el único material al que puede consultar durante el transcurso del Control 3.
1. Distribuciones Conjuntas
• Para las variables aleatorias discretas podemos definir la Función de Probabilidad Conjunta (f.p.
Conjunta) fX,Y como:
fX,Y (x, y) = Pr(X = x, Y = y)
Que debe cumplir con las siguientes propiedades:
Pr(X = x, Y = y) ≥ 0
XX
Pr(X = x, Y = y) = 1.
x y
• En el caso de dos variables aleatorias X e Y continuas, diremos que tienen una Función de Densidad
Conjunta si existe una función fX,Y (x, y) : R2 → R, tal que, para todo subconjunto A ∈ R2 tenemos que:
ZZ
Pr[(X, Y ) ∈ A] = fX,Y (x, y)dxdy
A
Y deben cumplir con las siguientes propiedades:
fX,Y (x, y) ≥ 0
Z ∞ Z ∞
fX,Y (x, y)dxdy = 1.
−∞ −∞
2. Distribuciones Marginales
A partir de una función de distribución Conjunta se puede obtener una distribución de probabilidad Marginal.
Para las variables aleatorias discretas X e Y la Función de Probabilidad Marginal de X es
X
fX (x) = Pr(X = x, Y = y)
y
Si X e Y son variables aleatorias continuas con distribución conjunta fX,Y , la marginal de X es:
Z ∞
fX (x) = fX,Y (x, y)dy
−∞
Esperanza de una función de un vector aleatorio
1
Si X, Y son v.a. continuas, con función de densidad f(X,Y ) , tenemos que:
Z ∞ Z ∞
E(g(X, Y )) = g(x, y)fX,Y (x, y)dxdy.
−∞ −∞
Sea g una función desde R2 a R, si X e Y son variables aleatorias discretas, entonces:
XX
E(g(X, Y )) = g(x, y) Pr(X = x, Y = y)
x y
3. Independencia y Covarianzas
Independencia:
Diremos que X e Y son independientes si, para todo x e y, se cumple que:
FX,Y (x, y) = FX (x)FY (y)
fX,Y (x, y) = fX (x)fY (y)
Covarianza:
Definición: La covarianza entre dos variables aleatorias X e Y se define como
Cov(X, Y ) = E[(X − µX )(Y − µY )]
Que es equivalente a:
Cov(X, Y ) = E(XY ) − E(X)E(Y )
4. Estadı́sticas descriptivas para una nube de puntos
Datos (la nube de puntos): (x1 , y1 ), (x2 , y2 ), ... , (xn , yn ).
Definimos varios estadı́sticos para cuantificar la asociación entre los xi y los yi .
Covarianza muestral:
n
1X
σ
bx,y = (xi − x)(yi − y).
n i=1
Esta es la covarianza muestral, es decir la covarianza de dos variables observadas en los datos, un concepto
relacionado pero distinto es la covarianza de dos variables aleatorias:
Cov(X, Y ) = E[(X − µx )(Y − µy )],
donde E(X) = µx , E(Y ) = µy .
σ
bx,y es el estimador de MdM de Cov(X, Y ), por lo que es natural que exista un paralelo entre las propiedades
del concepto muestral y el concepto que aplica a variables aleatoria.
2
5. Correlación de Pearson
Definición:
σ
bx,y
rx,y = . (1)
σ
bx σ
by
Esta es la correlación muestral, es decir la correlación de los valores que toman n pares ordenados.
Un concepto relacionado pero distinto es la correlación de dos variables aleatorias.
Cov(X, Y )
ρ(X, Y ) = ,
DS(X)DS(Y )
donde DS(X) y DS(Y ) denotan la desviación estándar de la v.a. X e Y , respectivamente.
rx,y es el estimador de MdM de ρ(X, Y ) y por lo tanto también existe un paralelo entre las propiedades del
concepto muestral y el concepto que aplica a variables aleatorias.
Propiedades de la correlación muestral de Pearson
Correlación de v.a. Correlación muestral
ρ(X, Y ) = ρ(Y, X) rx,y = ry,x
ρ(X, c) = ρ(c, X) = 0 rx,c = rc,x = 0
−1 ≤ ρ(X, Y ) ≤ 1 −1 ≤ rx,y ≤ 1
ρ(X + c, Y + d) = ρ(X, Y ) rx+c,y+d = rx,y
ρ(aX, bY ) = ρ(X, Y ) rax,by = rx,y
Donde en la última propiedad suponemos a > 0, b > 0.
6. Estimadores de M.C.O.
Considerando n pares de observaciones:
(x1 , y1 ), (x2 , y2 ), ..., (xn , yn )
Podemos ajustar una recta a la nube de puntos. La recta la podemos escribir como a + bxi , donde a y b se eligen
de tal manera que la recta minimice la suma de las distancias al cuadrado entre la recta e yi , obteniendo que:
Pn
(x − x)(yi − y)
bb = Pn i
i=1
2
, a = y − bbx.
j=1 (xj − x)
b
7. Ajuste a los datos : R2
Podemos usar los resultados de M.C.O. para calcular el porcentaje de la variabilidad de y que es explicada por
la ecuación a + bxi , esto se conoce como bondad de ajuste. Para eso se calcula el valor predicho por el modelo
de M.C.O., que se define como yˆi = b a + bbxi .
Con yˆi podemos definir la Suma Explicada al Cuadrado SEC (variabilidad del modelo de M.C.O.):
n
X
SEC = (yˆi − y)2
i=1
3
Mientras que la variabilidad de y se conoce como Suma Total al Cuadrado (ST C) que corresponde a:
n
X
ST C = (yi − y)2
i=1
Y la medida de bondad de ajuste, que llamaremos R2 de la regresión corresponde a:
SEC
R2 =
ST C
8. Función de probabilidad condicional y marginal
Para las variables aleatorias discretas X e Y la función de probabilidad condicional de Y dado X = x es:
Pr(X = x, Y = y)
Pr(Y = y|X = x) =
Pr(X = x)
Sean X e Y variables aleatorias continua con densidad conjunta fX,Y , la condicional de Y dado X = x es
fX,Y (x, y)
fY |X (y|x) =
fX (x)
Además estudiamos como las distribuciones marginales se pueden escribir cómo función de distribuciones condi-
cionales.
Para el caso de variables discretas:
X
Pr(X = x) = Pr(X = x|Y = y) Pr(X = x)
y
Y para el caso de variables continuas:
Z ∞
fX (x) = fX|Y (x|y)fY (y)dy
−∞
9. Esperanza condicional y Ley de Esperanzas Totales
Sea A un evento con probabilidad de ocurrencia positiva. Si Y es una v.a. discreta, entonces la esperanza de Y
condicional en que ocurrió A es
X
E(Y |A) = y Pr(Y = y|A)
y
Si Y es una v.a. continua, con función de densidad f , la esperanza condicional corresponde a:
Z ∞
E(Y |A) = yf (y|A)dy
−∞
Sea A1 , A2 , . . . , An una partición del espacio muestral S, con Pr(Ai ) > 0 para todo i, sea Y una variable aleatoria
en el mismo espacio muestral, entonces:
n
X
E(Y ) = E(Y |Ai ) Pr(Ai )
i=1
4
10. Ley de Adán y ley de Eva
Ley de Adán:
E[E[Y |X]] = E[Y ]
Ley de Evva
V ar(y) = E[V ar(Y |X)] + V ar(E[Y |X])
11. El modelo de regresión lineal simple
• Datos: (x1 , y1 ), (x2 , y2 ), . . . , (xn , yn )
• Modelo probabilı́stico: Los Yi que generaron los yi son variables aleatorias independientes que se distribuyen
normal con esperanza a + bxi y varianza σ 2 . Y los xi son valores dados.
• Valores estimados de MV de b y a:
Pn
(x − x)(yi − y)
bb = Pn i
i=1
2
, a = y − bbx.
j=1 (xj − x)
b
• EMV para b y a:
Pn
(x − x)(Yi − Y )
bb = Pn i
i=1
2
, a = Y − bbx.
j=1 (xj − x)
b
con,
!−1
n
x2
bb ∼ N b, σ 2
X 1
(xi − x)2 , a ∼ N a, σ 2 + Pn 2
.
i=1 (xi − x)
b
i=1
n
12. Intervalos de Confianza para b y a
Un intervalo de confianza (aproximado) del 95% para b:
!−1/2 !−1/2
n
X n
X
bb − 1, 96b
σ (xi − x)2 , bb + 1, 96b
σ (xi − x)2
i=1 i=1
Un intervalo de confianza (aproximado) del 95% para a:
" 1/2 1/2 #
x2 x2
1 1
a − 1, 96b
σ + Pn 2
,b
a + 1, 96b
σ + Pn 2
i=1 (xi − x) i=1 (xi − x)
b
n n
Donde, v
u n
u1 X
σ
b=t a − bbxi )2
(yi − b
n i=1
13. EMV para la predicción de y para x0
(x0 − x)2
1
a + bbx0 ) ∼ N a + bx0 , σ 2
(b + Pn 2
n i=1 (xi − x)
5
14. Intervalo de confianza de Confianza para una predicción
Un intervalo de confianza (aproximado) del 95% para a + bx0 :
" 1/2 1/2 #
(x0 − x)2 (x0 − x)2
1 1
a + bbx0 − 1, 96b
σ + Pn 2
,b
a + bbx0 + 1, 96b
σ + Pn 2
i=1 (xi − x) i=1 (xi − x)
b
n n
Donde, v
u n
u1 X
σ
b=t a − bbxi )2
(yi − b
n i=1