Probabilidad y Estadística
Ángelo Gárate
Departamento de Matemática
Universidad Técnica Federico Santa María
1-1
Estadística Descriptiva Bivariada
Supongamos que tenemos dos variables estadísticas X e Y .
Además, supongamos que tomamos una muestra aleatoria de
tamaño n y que dividimos la variable X en r clases Ai ,
i = 1, . . . , r y la variable Y en s clases Bj , j = 1, . . . , s.
Observación
La toma de la muestra se hace de manera conjunta.
2-1
Definición Se define la frecuencia absoluta conjunta nij de la
modalidad Ai Bj por la cantidad de individuos que pertenecen a
la clase Ai y Bj , al mismo tiempo.
Definición Se define la frecuencia relativa conjunta fij de la
modalidad Ai Bj por:
nij
fij = .
n
Observación
De las definiciones se puede ver que:
Pr Ps
nij = n
Pi=1
r Pj=1
s
i=1 j=1 fij = 1
3-1
Tabla de Contingencia
Para trabajar con datos agrupados se puede construir una tabla
de contingencia.
X/Y B1 B2 ··· Bs Total
A1 n11 n12 ··· n1s n1.
A2 n21 n22 ··· n2s n2.
.. .. ..
. . .
Ar nr1 nr2 ··· nrs nr.
Total n.1 n.2 ··· n.s n..
4-1
Definición Se definen las frecuencias absolutas marginales por:
s
X
ni. = nij i = 1, . . . , r
j=1
r
X
n.j = nij j = 1, . . . , s
i=1
Definición Se definen las frecuencias relativas marginales por:
ni.
fi. = i = 1, . . . , r
n
n.j
f.j = i = 1, . . . , r
n
Observación
Las frecuencias marginales nos sirven para recuperar la
información de las variables X e Y .
5-1
Definición Se definen las frecuencias relativas condicionales
por:
fij nij
fi/j = = j = 1, . . . , s
f.j n.j
Observación
Hasta ahora se han definido tres tipos de frecuencias, estas son:
conjunta, marginal y condicional.
6-1
Definición Suponga que se han muestreado de forma conjunta
n individuos. Suponga que mXi es la marca de clase del
intervalo i-ésimo para la variable X y mYj es la marca de clase
del intervalo j-ésimo para la variable Y . Entonces se definen:
1. Promedio marginal de X:
r
X
X= fi. mXi
i=1
2. Promedio marginal de Y :
s
X
Y = f.j mYj
j=1
7-1
3. Varianza marginal de X:
r
X
2
SX = fi. (mXi − X)2
i=1
4. Varianza marginal de Y :
r
X
SY2 = f.j (mYj − Y )2
j=1
5. Promedio de X condicionada a Bj :
r
X
Xj = fi/j mXi
i=1
8-1
6. Promedio de Y condicionada a Ai :
s
X
Yi = fj/i mYj
j=1
7. Varianza de X condicionada a Bj :
r
X
Vj (X) = fi/j (mXi − Xj )2
i=1
8. Varianza de Y condicionada a Ai :
s
X
Vi (Y ) = fj/i (mYj − Yi )2
j=1
9-1
9. Descomposición de la varianza de X:
s
X s
X
V (X) = f.j Vj (X) + f.j (Xj − X)2
j=1 j=1
10. Descomposición de la varianza de Y :
r
X r
X
V (Y ) = fi. Vi (Y ) + fi. (Yj − Y )2
i=1 i=1
Observación
Las medidas de forman también pueden ser calculadas a partir
de una tabla de contingencia.
10-1
Covarianza
Definición Sean X e Y dos variables estadísticas. Supongamos
que disponemos de una muestra {(Xi , Yi )}ni=1 . Se define la
covarianza entre X e Y por:
1X
Cov(X, Y ) = (Xi − X)(Yi − Y )
n
i=1
Observación
Si Cov(X, Y ) ≥ 0 entonces las variables están directamente
asociadas.
Si Cov(X, Y ) ≤ 0 entonces las variables están inversamente
asociadas.
Si Cov(X, Y ) = 0 entonces no tienen una asociación lineal.
11-1
Observación
1 Pn
Se puede probar que: Cov(X, Y ) = Xi Yi − XY
n i=1
Si α, β ∈ R+ , entonces Cov(αX, βY ) = αβCov(X, Y )
Si los datos están agrupados en una tabla de contingencia,
entonces la covarianza se puede calcular por:
r X
X s
Cov(X, Y ) = fij (mXi − X)(mYj − Y )
i=1 j=1
También se puede probar que para datos agrupados se
cumple que:
r X
X s
Cov(X, Y ) = fij mXi mYj − XY
i=1 j=1
12-1
Correlación
Definición Sean X e Y dos variables estadísticas. Supongamos
que disponemos de una muestra {(Xi , Yi )}ni=1 . Se define la
correlación entre X e Y por:
Cov(X, Y )
r= q
2 S2
SX Y
Observación
|r| ≤ 1
Si r = 1 entonces hay asociación lineal directa perfecta.
Si r = −1 entonces hay asociación lineal inversa perfecta.
Si r = 0 entonces no tienen una asociación lineal.
13-1
Regresión Lineal Simple
Consideremos la variable Y una variable a ser explicada
(variable respuesta) y X una variable predictora (Explicativa o
independiente). Supongamos que disponemos de los datos
{(Xi , Yi )}ni=1 , entonces se plantea el siguiente modelo de
regresión lineal:
Yi = β0 + β1 Xi + i .
donde β0 y β1 son parámetros a ser modelados en función de los
datos y i es un error aleatorio.
14-1
Regresión Lineal Simple
El cuadrado de las distancias entre los puntos observados y los
puntos que provee el modelo viene dado por:
n
X X n
X
(Yi − β0 − β1 Xi )2 = (Yi − Ybi )2 = 2i := g(β0 , β1 )
i=1 i=1 i=1
Entonces se quiere la mejor recta tal que minimice g(β0 , β1 ).
Esto es equivalente a resolver:
∂g(β0 , β1 ))
=0
∂β0
∂g(β0 , β1 ))
=0
∂β1
15-1
Teorema Dado un conjunto de datos en el plano {(Xi , Yi )}ni=1
y el modelo de regresión lineal anterior. Entonces la mejor recta
se puede representar por:
Ybi = βb0 + βb1 Xi
donde
βb0 = Y − βb1 X
Cov(X, Y )
βb1 = 2
SX
16-1
Definición: Se define el coeficiente de determinación del
modelo de regresión lineal por:
Cov(X, Y )2
R2 = 2 S2 = r2
SX Y
Observación
0 ≤ R2 ≤ 1
El coeficiente R2 determina la calidad del modelo para
replicar los resultados.