0% encontró este documento útil (0 votos)
115 vistas17 páginas

Estadística Bivariada y Tablas de Contingencia

1) El documento presenta conceptos básicos de estadística descriptiva bivariada como tablas de contingencia, frecuencias absolutas y relativas conjuntas, marginales y condicionales. 2) También introduce medidas como promedios, varianzas, covarianza y correlación para analizar la relación entre dos variables estadísticas. 3) Finalmente, explica el modelo de regresión lineal simple y cómo estimar sus parámetros para predecir una variable en función de otra.

Cargado por

Eduardo Ezequiel
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
115 vistas17 páginas

Estadística Bivariada y Tablas de Contingencia

1) El documento presenta conceptos básicos de estadística descriptiva bivariada como tablas de contingencia, frecuencias absolutas y relativas conjuntas, marginales y condicionales. 2) También introduce medidas como promedios, varianzas, covarianza y correlación para analizar la relación entre dos variables estadísticas. 3) Finalmente, explica el modelo de regresión lineal simple y cómo estimar sus parámetros para predecir una variable en función de otra.

Cargado por

Eduardo Ezequiel
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

Probabilidad y Estadística

Ángelo Gárate

Departamento de Matemática
Universidad Técnica Federico Santa María
1-1

Estadística Descriptiva Bivariada

Supongamos que tenemos dos variables estadísticas X e Y .


Además, supongamos que tomamos una muestra aleatoria de
tamaño n y que dividimos la variable X en r clases Ai ,
i = 1, . . . , r y la variable Y en s clases Bj , j = 1, . . . , s.
Observación
La toma de la muestra se hace de manera conjunta.
2-1

Definición Se define la frecuencia absoluta conjunta nij de la


modalidad Ai Bj por la cantidad de individuos que pertenecen a
la clase Ai y Bj , al mismo tiempo.
Definición Se define la frecuencia relativa conjunta fij de la
modalidad Ai Bj por:
nij
fij = .
n
Observación
De las definiciones se puede ver que:
Pr Ps
nij = n
Pi=1
r Pj=1
s
i=1 j=1 fij = 1
3-1

Tabla de Contingencia

Para trabajar con datos agrupados se puede construir una tabla


de contingencia.
X/Y B1 B2 ··· Bs Total
A1 n11 n12 ··· n1s n1.
A2 n21 n22 ··· n2s n2.
.. .. ..
. . .
Ar nr1 nr2 ··· nrs nr.
Total n.1 n.2 ··· n.s n..
4-1
Definición Se definen las frecuencias absolutas marginales por:
s
X
ni. = nij i = 1, . . . , r
j=1
r
X
n.j = nij j = 1, . . . , s
i=1
Definición Se definen las frecuencias relativas marginales por:
ni.
fi. = i = 1, . . . , r
n
n.j
f.j = i = 1, . . . , r
n
Observación
Las frecuencias marginales nos sirven para recuperar la
información de las variables X e Y .
5-1

Definición Se definen las frecuencias relativas condicionales


por:

fij nij
fi/j = = j = 1, . . . , s
f.j n.j

Observación
Hasta ahora se han definido tres tipos de frecuencias, estas son:
conjunta, marginal y condicional.
6-1
Definición Suponga que se han muestreado de forma conjunta
n individuos. Suponga que mXi es la marca de clase del
intervalo i-ésimo para la variable X y mYj es la marca de clase
del intervalo j-ésimo para la variable Y . Entonces se definen:
1. Promedio marginal de X:
r
X
X= fi. mXi
i=1

2. Promedio marginal de Y :
s
X
Y = f.j mYj
j=1
7-1

3. Varianza marginal de X:
r
X
2
SX = fi. (mXi − X)2
i=1

4. Varianza marginal de Y :
r
X
SY2 = f.j (mYj − Y )2
j=1

5. Promedio de X condicionada a Bj :
r
X
Xj = fi/j mXi
i=1
8-1

6. Promedio de Y condicionada a Ai :
s
X
Yi = fj/i mYj
j=1

7. Varianza de X condicionada a Bj :
r
X
Vj (X) = fi/j (mXi − Xj )2
i=1

8. Varianza de Y condicionada a Ai :
s
X
Vi (Y ) = fj/i (mYj − Yi )2
j=1
9-1

9. Descomposición de la varianza de X:
s
X s
X
V (X) = f.j Vj (X) + f.j (Xj − X)2
j=1 j=1

10. Descomposición de la varianza de Y :


r
X r
X
V (Y ) = fi. Vi (Y ) + fi. (Yj − Y )2
i=1 i=1

Observación
Las medidas de forman también pueden ser calculadas a partir
de una tabla de contingencia.
10-1

Covarianza
Definición Sean X e Y dos variables estadísticas. Supongamos
que disponemos de una muestra {(Xi , Yi )}ni=1 . Se define la
covarianza entre X e Y por:
1X
Cov(X, Y ) = (Xi − X)(Yi − Y )
n
i=1

Observación
Si Cov(X, Y ) ≥ 0 entonces las variables están directamente
asociadas.
Si Cov(X, Y ) ≤ 0 entonces las variables están inversamente
asociadas.
Si Cov(X, Y ) = 0 entonces no tienen una asociación lineal.
11-1
Observación
1 Pn
Se puede probar que: Cov(X, Y ) = Xi Yi − XY
n i=1
Si α, β ∈ R+ , entonces Cov(αX, βY ) = αβCov(X, Y )
Si los datos están agrupados en una tabla de contingencia,
entonces la covarianza se puede calcular por:
r X
X s
Cov(X, Y ) = fij (mXi − X)(mYj − Y )
i=1 j=1

También se puede probar que para datos agrupados se


cumple que:
r X
X s
Cov(X, Y ) = fij mXi mYj − XY
i=1 j=1
12-1

Correlación
Definición Sean X e Y dos variables estadísticas. Supongamos
que disponemos de una muestra {(Xi , Yi )}ni=1 . Se define la
correlación entre X e Y por:

Cov(X, Y )
r= q
2 S2
SX Y

Observación
|r| ≤ 1
Si r = 1 entonces hay asociación lineal directa perfecta.
Si r = −1 entonces hay asociación lineal inversa perfecta.
Si r = 0 entonces no tienen una asociación lineal.
13-1

Regresión Lineal Simple

Consideremos la variable Y una variable a ser explicada


(variable respuesta) y X una variable predictora (Explicativa o
independiente). Supongamos que disponemos de los datos
{(Xi , Yi )}ni=1 , entonces se plantea el siguiente modelo de
regresión lineal:

Yi = β0 + β1 Xi + i .
donde β0 y β1 son parámetros a ser modelados en función de los
datos y i es un error aleatorio.
14-1

Regresión Lineal Simple


El cuadrado de las distancias entre los puntos observados y los
puntos que provee el modelo viene dado por:

n
X X n
X
(Yi − β0 − β1 Xi )2 = (Yi − Ybi )2 = 2i := g(β0 , β1 )
i=1 i=1 i=1

Entonces se quiere la mejor recta tal que minimice g(β0 , β1 ).


Esto es equivalente a resolver:

∂g(β0 , β1 ))
=0
∂β0
∂g(β0 , β1 ))
=0
∂β1
15-1

Teorema Dado un conjunto de datos en el plano {(Xi , Yi )}ni=1


y el modelo de regresión lineal anterior. Entonces la mejor recta
se puede representar por:

Ybi = βb0 + βb1 Xi


donde
βb0 = Y − βb1 X
Cov(X, Y )
βb1 = 2
SX
16-1

Definición: Se define el coeficiente de determinación del


modelo de regresión lineal por:

Cov(X, Y )2
R2 = 2 S2 = r2
SX Y

Observación
0 ≤ R2 ≤ 1
El coeficiente R2 determina la calidad del modelo para
replicar los resultados.

También podría gustarte