INSTITUTO POLITÉCNICO
NACIONAL
Escuela Superior de Economía
Proyecto Final
Trabajo para el tercer departamental
Estadística inferencial
ALUMNOS
Bautista Ramírez Brayan
Ruíz Cadena Veronica Monserrat
Gómez Alvárez Andrea Ivvone
Zarcos Ramírez Daniela Jenyfer
Gpo: 2EM8
Comportamiento conjunto de dos variables aleatorias
El estudio del comportamiento conjunto de dos variables aleatorias es fundamental en la
estadística y la teoría de la probabilidad. Este análisis se centra en entender cómo dos variables
aleatorias se relacionan y varían juntas, lo cual es crucial para diversos campos como la
economía, la biología, la ingeniería, y las ciencias sociales.
Distribución conjunta
La distribución conjunta de dos variables aleatorias, \(X\) e \(Y\), describe la probabilidad de que
\(X\) tome un valor específico \(x\) e \(Y\) tome un valor específico \(y\) simultáneamente. Si \(X\)
e \(Y\) son discretas, su distribución conjunta se representa mediante una función de probabilidad
conjunta \(P(X=x, Y=y)\). Para variables continuas, se utiliza una función de densidad de
probabilidad conjunta \(f_{X,Y}(x,y)\).
Función de distribución conjunta
La función de distribución acumulativa conjunta (FDA conjunta) \(F_{X,Y}(x,y)\) se define como
la probabilidad de que \(X\) sea menor o igual a \(x\) e \(Y\) sea menor o igual a \(y\):
F {X,Y} (x,y) = P(X \𝑙𝑒𝑞 x, Y \leq y) \
Esta función es útil para calcular probabilidades en regiones específicas del espacio conjunto de
las dos variables.
Independencia y dependencia
Dos variables aleatorias \(X\) e \(Y\) son independientes si la distribución conjunta es igual al
producto de las distribuciones marginales:
\[ P(X=x, Y=y) = P(X=x)P(Y=y) \]
Si esta condición no se cumple, \(X\) e \(Y\) son dependientes. La dependencia entre variables
puede ser positiva o negativa, indicando la dirección de la relación entre ellas.
Covarianza de dos variables aleatorias
La covarianza es una medida que indica el grado en que dos variables aleatorias varían juntas.
Para dos variables aleatorias \(X\) e \(Y\) con medias
\(\mu_X\) y \(\mu_Y\), respectivamente, la covarianza se define como:
\[ \text{Cov}(X,Y) = E[(X - \mu_X)(Y - \mu_Y)] \]
Interpretación de la covarianza
Covarianza positiva: Indica que, en promedio, un aumento en \(X\) está asociado con un
aumento en \(Y\).
Covarianza negativa: Indica que, en promedio, un aumento en \(X\) está asociado con una
disminución en \(Y\).
Covarianza cero: Indica que no hay una relación lineal entre \(X\) e \(Y\).
Aunque la covarianza proporciona información sobre la dirección de la relación entre dos
variables, su magnitud no es fácilmente interpretable debido a que depende de las unidades de
las variables.
Propiedades de la covarianza
1. Suma de covarianzas: Para cualquier constante \(a\) y \(b\),
\[ \text{Cov}(aX + b, Y) = a \cdot \text{Cov}(X, Y) \]
2. Covarianza de una variable consigo misma: Es igual a su varianza,
\[ \text{Cov}(X, X) = \text{Var}(X) \]
3. Simetría: La covarianza es simétrica,
\[ \text{Cov}(X, Y) = \text{Cov}(Y, X) \]
Correlación entre dos variables aleatorias
La correlación es una medida estandarizada de la relación lineal entre dos variables aleatorias.
El coeficiente de correlación de Pearson, \(\rho\), se define como:
\[ \rho_{X,Y} = \frac{\text{Cov}(X,Y)}{\sigma_X \sigma_Y} \]
donde \(\sigma_X\) y \(\sigma_Y\) son las desviaciones estándar de \(X\) e \(Y\), respectivamente.
Interpretación del coeficiente de correlación
- \(\rho = 1\): Relación lineal perfecta positiva.
- \(\rho = -1\): Relación lineal perfecta negativa.
- \(\rho = 0\): No hay relación lineal.
La correlación toma valores entre -1 y 1, y su magnitud indica la fuerza de la relación lineal
entre las variables. A diferencia de la covarianza, la correlación no depende de las unidades de
las variables, lo que facilita su interpretación.
Limitaciones de la correlación
- Relaciones no lineales: La correlación de Pearson solo mide relaciones lineales y puede
ser engañosa si las variables tienen una relación no lineal.
- Sensibilidad a valores atípicos: Valores extremos pueden distorsionar la correlación.
Pruebas de hipótesis del coeficiente de correlación.
Para evaluar si la correlación observada en una muestra es significativa, se utilizan pruebas de
hipótesis. La hipótesis nula (\(H_0\)) suele ser que no hay correlación (\(\rho = 0\)), y la hipótesis
alternativa (\(H_a\)) es que sí hay una correlación (\(\rho \neq 0\)).
Procedimiento de la prueba
1. Estadístico de prueba: Para una muestra de tamaño \(n\) con coeficiente de correlación \(r\),
el estadístico de prueba t se calcula como:
\[ t = \frac{r\sqrt{n-2}}{\sqrt{1-r^2}} \]
2. Distribución: Este estadístico sigue una distribución t de Student con \(n-2\) grados de
libertad bajo \(H_0\).
3. Valor p: Se calcula el valor p correspondiente al estadístico t. Si el valor p es menor que el
nivel de significancia (\(\alpha\)), se rechaza \(H_0\).
Ejemplo de prueba de hipótesis
Supongamos que queremos probar si existe una correlación significativa entre dos variables en
una muestra de 30 observaciones con un coeficiente de correlación \(r = 0.45\).
1. Calculamos el estadístico de prueba:
\[ t = \frac{0.45\sqrt{30-2}}{\sqrt{1-0.45^2}} \approx 2.66 \]
2. Consultamos la tabla de la distribución t con 28 grados de libertad. Para un
\(\alpha = 0.05\), el valor crítico es aproximadamente 2.048.
3. Como \(t = 2.66 > 2.048\), rechazamos \(H_0\) y concluimos que hay una correlación
significativa.
Consideraciones adicionales
Es importante considerar el tamaño de la muestra y posibles supuestos de normalidad al realizar
pruebas de hipótesis sobre la correlación. Para muestras pequeñas, la distribución t puede ser
inexacta si las variables no son aproximadamente normales.