TEMA 3: CONTRASTE DE HIPÓTESIS CON UNA VARIABLE
INTRODUCCIÓN AL CONTRASTE DE HIPÓTESIS CON UNA VARIABLE:
CLASIFICACIÓN PROCEDIMIENTOS INFERENCIALES O TÉCNICAS DE ANÁLISIS SEGÚN
EL TIPO DE DATOS QUE PERMITEN MANIPULAR:
Técnicas de análisis para datos cuantitativos:
- Medidas de intervalo o de razón (nivel de inteligencia).
Técnicas de análisis para datos semicuantitativos o cualitativos:
- Medidas nominales (género).
- Medidas ordinales (clase social).
DISEÑOS EXPERIMENTALES SEGÚN EL NÚMERO DE VIS:
Unifactorial (solo hay una VI):
- Dos muestras.
- J muestras (más de dos muestras).
- Una muestra (no existe VI, únicamente vemos qué pasa con una variable).
Factorial (dos o más VI).
DISEÑOS EXPERIMENTALES SEGÚN EL TIPO DE MUESTRAS:
SUJETOS DIFERENTES:
Grupos aleatorios o muestras independientes:
- Se forman tantos grupos de sujetos como niveles tiene la VI y cada grupos se asigna
aleatoriamente a un nivel de la VI.
- Bloques aleatorios.
MISMOS SUJETOS O MUESTRAS RELACIONADAS:
- A los mismos sujetos se les toma J ( J = niveles de la VI) medidas.
Diseños intrasujetos o de medidas repetidas:
- Porque se miden J variables en los mismos sujetos o porque la misma variable es
medida en los mismos sujetos en momentos diferentes.
Muestras relacionadas (con un sujeto por nivel y bloque, esas J medidas no se toman al
mismo sujeto sino a J sujetos igualados o emparejados utilizando algún criterio relevante).
EJEMPLO DE DISEÑOS: tenemos una investigación sobre memoria en la cual se quiere
evaluar el efecto distractor de la música mientras se estudia:
MUESTRA NO ES LO MISMO QUE GRUPO:
La muestra no se refiere a un grupo de sujetos sino a un conjunto de datos:
- Se forman tantos grupos de sujetos como niveles tiene la VI y cada grupo se asigna
aleatoriamente a un nivel de la VI.
- Siempre hay una muestra de datos para cada nivel de VI.
En grupos aleatorios muestra y grupo coinciden: cada grupo genera una muestra de datos.
En medidas repetidas muestra y grupo NO coinciden: cada grupo genera más de una
muestra de datos.
TIPOS DE CONTRASTES CON UNA VARIABLE:
PROCEDIMIENTO GENERAL PARA CONTRASTES DE HIPÓTESIS:
1. Verificación de supuestos.
2. Hipótesis.
3. El estadístico de contraste.
4. Regla de decisión.
5. La decisión.
CONTRASTES DE HIPÓTESIS SOBRE EL CENTRO DE UNA DISTRIBUCIÓN:
Pregunta clave en el contraste de hipótesis sobre una media: ¿podemos afirmar, con
determinado 𝛼, que una muestra pertenece a una población con media 𝜇?
- El contraste de hipótesis sobre una muestra sirve para tomar decisiones sobre el
verdadero valor poblacional que corresponde a la media de una variable.
- Trabajamos con una sola muestra.
- Para tomar decisiones sobre el parámetro µ seguiremos los pasos vistos en el tema
anterior para el contraste de hipótesis.
LA PRUEBA T PARA UNA MUESTRA DESDE EL MLG: prueba estadística que se utiliza para
determinar si la media de una muestra difiere significativamente de un valor específico (una
media teórica o esperada). Si la media de una variable 𝑌 es igual a un valor dado (𝜇0).
Esta situación se puede modelar como un modelo lineal general muy simple:
- Un modelo sin variables independientes, y solo estamos estimando el valor de una
constante, es decir, el intercepto 𝛽0, que sería la media de la variable 𝑌.
𝒀𝒊 = 𝜷𝟎 + 𝝐𝒊
𝒀𝒊: i-ésima observación de la muestra
𝜷𝟎: parámetro que estamos estimando, que representa la media poblacional de la variable 𝑌 (𝜇)
𝝐𝒊: error aleatorio de la observación 𝑖
SUPUESTOS:
Normalidad: los datos de la población de la muestra siguen una distribución normal.
- Con 𝑛 > 30 no suele haber problema (Teoría Central del Límite).
- Si 𝑛 < 30 es crítico que los datos sigan una distribución normal
¿Cómo lo verificamos?
- Histograma o un gráfico de probabilidad normal (Q-Q plot).
- Pruebas de normalidad (Shapiro-Wilk , Kolmogorov-Smirnov o Anderson-Darling).
Independencia: se asume que las observaciones de la muestra son independientes entre sí.
- El valor de una observación no proporciona inf. sobre el valor de otras observaciones
- Si se usa muestreo aleatorio no suele haber problema.
HIPÓTESIS: tenemos una muestra de datos 𝑌1, 𝑌2, … , 𝑌𝑛, y queremos probar que:
- Su 𝑌ത es significativamente diferente (mayor o menor) de un valor teórico 𝜇0.
𝐻0: 𝜇 = 𝜇0 (la media de la población es igual a 𝜇0).
𝐻1: 𝜇 ≠ 𝜇0 (la media de la población es diferente a 𝜇0).
- Su 𝑌ത es significativamente mayor que un valor teórico 𝜇0.
𝐻0: 𝜇 ≤ 𝜇0
𝐻1: 𝜇 > 𝜇0
- Su 𝑌ത es significativamente menor que un valor teórico 𝜇0.
𝐻0: 𝜇 ≥ 𝜇0
𝐻1: 𝜇 < 𝜇0
ESTADÍSTICOS DE CONTRASTE:
CRITERIO DE DECISIÓN:
VALOR CRÍTICO: se determina utilizando la distribución t de
Student con 𝑛 − 1 grados de libertad y el nivel de significancia
𝛼 deseado (p. ej., 𝛼 = 0,05).
¿p MENOR O MAYOR QUE α?:
Calculado el nivel crítico (p), decidiremos
rechazar la H0 si 𝒑 es menor que 𝜶.
Si p es menor que 𝛼 significa que la probabilidad de obtener un valor tan extremo o más que
el encontrado es menor que el riesgo que estamos dispuestos a asumir en nuestra decisión.
INTERVALO DE CONFIANZA:
TAMAÑO DEL EFECTO:
d = 0,2 → tamaño del efecto pequeño
d = 0,5 → tamaño del efecto mediano
d = 0,8 → tamaño del efecto grande
De acuerdo con los datos recogidos durante los últimos años por un psicólogo escolar, los
estudiantes de ESO que no reciben orientación vocacional obtienen una media de 190 en
una prueba de madurez (Y). El psicólogo opina que los estudiantes que si reciben orientación
vocacional obtienen un promedio superior en la mencionada prueba. Para obtener alguna
evidencia sobre su sospecha, toma una muestra aleatoria de 65 estudiantes de ESOO que
habían recibido orientación vocacional y les pasa la prueba de madurez. Obtiene una media
de 198 y una desviación típica de 24. ¿Podemos pensar, con un nivel de significación de 0,05,
que estos datos apoyan la opinión del psicólogo?
PASOS A SEGUIR:
1. Supuestos: suponemos que la distribución de las puntuaciones en la prueba de
madurez es normal y que la muestra es aleatoria.
2. Hipótesis: 𝐻0: 𝜇 ≤ 190; 𝐻1: 𝜇 > 190 (contraste unilateral derecho).
𝑌−µ 198−190
3. Estadísticos de contraste: 𝑇 = 𝑆𝑛−1 = 24 = 2,6874
𝑛 65
4. Distribución muestral: T se distribuye según 𝑡64.
De acuerdo con los datos recogidos durante los últimos años por un psicólogo escolar, los
estudiantes de ESO que no reciben orientación vocacional obtienen una media de 190 en
una prueba de madurez (Y). El psicólogo opina que los estudiantes que si reciben orientación
vocacional obtienen un promedio superior en la mencionada prueba. Para obtener alguna
evidencia sobre su sospecha, toma una muestra aleatoria de 65 estudiantes de ESO que
habían recibido orientación vocacional y les pasa la prueba de madurez. Obtiene una media
de 198 y una desviación típica de 24. ¿Podemos pensar, con un nivel de significación de 0,05,
que estos datos apoyan la opinión del psicólogo?
PASOS A SEGUIR:
5. Zona crítica: T ≥ según 0,95t64 ≈ 1,67
6. Nivel crítico: 𝑝 = 𝑃 (𝑇 ≥ 2,6874) < 0,005 (< 𝛼). Nos lleva al rechazo de H0.
7. Decisión: como 2,667 > 1,67 (y p < 𝛼 ) rechazamos 𝐻0. Concluimos que el promedio
obtenido en la prueba de madurez por los estudiantes de COU que reciben
orientación vocacional es significativamente superior al obtenido por los estudiantes
que no la reciben. Los datos, por tanto, apoyan la opinión del psicólogo.
LA PRUEBA DE WILCOXON PARA UNA MUESTRA:
Para poder realizar la prueba T con los mínimos de calidad deben cumplirse dos supuestos:
- Independencia.
- Normalidad de la distribución.
Si no se dan esos supuestos, debemos usar la prueba de Wilcoxon para una muestra.
También es una prueba para someter a contraste el centro de la distribución de una variable
cuantitativa, pero en este caso no usa la media; usa las medianas.
Es una prueba no paramétrica.
LÓGICA DE LA PRUEBA:
1. Supongamos que la mediana de la variable vale 𝑘0.
2. Hemos seleccionado una muestra aleatoria de 𝑚 observaciones de 𝑌 (es decir, 𝑌𝑖 ).
3. Después, calculamos las diferencias existentes (𝐷𝑖) entre el valor que toma la variable
para que elemento muestral (𝑌𝑖) y la mediana (𝑘0). Es decir, 𝐷𝑖 = 𝑌𝑖 − 𝑘0 (𝑖 = 1, 2 … , 𝑚).
4. De esas diferencias vamos a seleccionar solo aquellas que no sean nulas, es decir,
aquellas obtenidas porque el valor de la variable para ese elemento muestral no
coincida con el de la media o que cumplan que 𝐷𝑖 = 𝑌𝑖 − 𝑘0 ≠ 0.
5. A continuación, les asignamos rangos (𝑅𝑖) desde 1 hasta el valor de la última diferencia
(𝑛) al valor de esas diferencias.
6. Entonces, la diferencia más pequeña en términos
absolutos |𝐷𝑖 | tendrá el rango 1, el segunda más
pequeña el 2, etc. hasta que la diferencia más
grande ocupe el valor 𝑛.
7. Sumamos por un lado todos los rangos positivos, es
decir, aquellos rangos donde las diferencias fueran
positivas (𝑌𝑖 > 𝑘0) y, por otro lado, los rangos
negativos, es decir, aquellos donde las diferencias fuesen negativas (𝑌𝑖 < 𝑘0).
8. Encontraremos el mismo número de 𝑌𝑖 por debajo de 𝑘0 que por encima (habrá tantas
diferencias negativas como positivas). Además, si la distribución de la variable es
simétrica el tamaño de las diferencias positivas en la población debe ser idéntico al
de las diferencias negativas.
9. Por tanto, si existe una gran diferencia entre el resultado de sumar todas las
diferencias positivas (𝑆+) y sumar todas las diferencias negativas (𝑆−) significa que 𝑘0
no es el verdadero valor de la mediana poblacional de 𝑌.
10. Para conocer si el centro de la variable se
corresponde con el esperado poblacionalmente
puede utilizarse la discrepancia entre 𝑆+ y 𝑆−. Es
decir, la hipótesis 𝑀𝑑𝑛𝑌 = 𝑘0 puede contrastarse
utilizando las sumas 𝑆+ y 𝑆−.
CONTRASTES SOBRE LA FORMA DE UNA DISTRIBUCIÓN (BONDAD DE AJUSTE):
Existen diferentes formas de evaluar la normalidad de una variable:
- Echar un vistazo a los datos.
- Gráficos: histograma, gráfico de comparación de cuantiles (QQ-plot).
- Pruebas específicas de bondad de ajuste.
RECORDATORIO ASIMETRÍA Y CURTOSIS:
Aunque la inspección de un gráfico (histograma, diagrama de caja) ya permite formarse una
primera idea sobre el grado de asimetría y curtosis de una distribución, utilizar estadísticos
permite valorar ambas características con mayor precisión.
Interpretación:
Asimetría:
- aprox = 0 → distribución simétrica.
- > 0 → distribución asimétrica positiva.
- < 0 → distribución asimétrica negativa.
Curtosis:
- aprox = 0 → distribución mesocúrtica.
- > 0 → distribución leptocúrtica.
- < 0 → distribución platicúrtica.
¿Qué significa aproximadamente? Para saber si el valor está cercano al cero o es lo
suficientemente mayor o menor a cero, se divide el valor del índice por su desviación típica (o
error típico): si el resultado:
- Está entre -2 y 2 se considera que es aprox = 0 (por tanto, simétrica y/o mesocúrtica).
- Es mayor que 2, el resultado será asimétrica positiva y/o leptocúrtica.
- Es menor que 2, el resultado será asimétrica negativa y/o platicúrtica.
NORMAL:
−0,09
- ASIMETRÍA: 0,241
=− 0, 373
−0,344
- CURTOSIS: 0,478
=− 0, 719
NO NORMAL:
0,154
- ASIMETRÍA: 0,241
= 0, 639
−1,1066
- CURTOSIS: 0,478
=− 2, 313
GRÁFICOS → HISTOGRAMA:
GRÁFICOS → GRÁFICO DE COMPARACIÓN DE CUANTILES (Q-Q Plot):
ANDERSON-DARLING, SHAPIRO-WILK Y KOLMOGOROV-SMIRNOV:
1. Hipótesis:
- Hipótesis nula (𝐻₀): los datos siguen una distribución específica (normalidad,
exponencial, etc.).
- Hipótesis alternativa (𝐻₁): los datos no siguen esa distribución.
2. Estadístico de contraste:
- Comparan la distribución empírica (los datos observados) con una distribución
teórica (normal, uniforme, etc.).
- Cada prueba genera un estadístico de prueba que mide la magnitud de las
diferencias entre los datos y la distribución teórica.
3. Valor p: se calcula un valor p asociado al estadístico. Si el valor p es menor que un
nivel de significancia establecido (por ejemplo, 0.05), se rechaza la hipótesis nula, lo
que sugiere que los datos no siguen la distribución teórica.
La prueba de Shapiro-Wilk es una prueba específica de normalidad, mientras que el método
utilizado por la prueba de Kolmogorov-Smirnov es más general, pero menos potente (lo que
significa que rechaza correctamente la hipótesis nula de normalidad con menos frecuencia).
La prueba de Shapiro-Wilk es un método más apropiado para muestras de pequeño tamaño
(𝑛 < 50), aunque también puede aplicarse a muestras de mayor tamaño, mientras que la
prueba de KolmogorovSmirnov se utiliza para n ≥50.
Anderson-Darling también es una prueba general para estudiar la bondad de ajuste (no solo
la normalidad) y tiene una mayor sensibilidad en las colas de la distribución, lo que la hace útil
cuando se espera que los datos tengan desviaciones importantes en los extremos. Por eso
se recomienda sobre todo cuando trabajamos con datos con desviaciones extremas.
Shapiro-Wilk y Anderson-Darling tienen más poder para detectar la no normalidad que
Kolmogorov-Smirnov.
CONTRASTES DE HIPÓTESIS CON UNA VARIABLE CATEGÓRICA:
De la misma forma que con una variable cuantitativa nos interesa estudiar:
- El centro de la distribución.
- Bondad de ajuste.
De una variable categórica suele analizarse el reparto de las frecuencias entre las categorías
que puede tener esa variable.
- Si la variable es binomial es interesante comprobar si el número de casos o la
proporción de éxitos se reparte equitativamente entre dos grupos: similar a estudiar el
centro de su distribución.
- Si la variable es politómica resulta interesante estudiar el reparto de frecuencias entre
todas las categorías: similar a estudiar la forma de la distribución.
PRUEBA BINOMIAL SOBRE UNA PROPORCIÓN PARA VARIABLES DICOTÓMICAS:
Es frecuente encontrarnos en nuestra disciplina variables dicotómicas, es decir, variables
categóricas que tengan solo dos categorías.
Las más comunes son: acierto-error en tarea, verdadero-falso en un examen, recuperados-no
recuperados cuando se aplica un tratamiento, diagnosticados-no diagnosticados cuando se
divide una muestra en función de su evaluación en alguna categoría diagnóstica, a favor-en
contra cuando queremos recoger opiniones, y así hasta un largo etcétera.
Lo importante es que estas variables siempre representan la presencia-ausencia de algo. Por
este motivo se suele registrar con “unos” aquellos elementos muestrales que muestren la
presencia de esa categoría y con “ceros” a aquellos sujetos que muestren su ausencia.
Además, se suele denominar la presencia como éxito y la ausencia como fracaso.
SUPUESTOS:
- La variable de interés es dicotómica (dos posibles resultados: éxito o fracaso).
- Las observaciones son independientes.
- Cada ensayo tiene una probabilidad constante de éxito, denotada por 𝜋 (la proporción
poblacional que estamos evaluando).
- Si el tamaño de la muestra es grande, podemos aplicar una aproximación normal a la
binomial cuando se cumplen 𝑛𝜋 ≥ 5 y 𝑛(1 − 𝜋) ≥ 5.
HIPÓTESIS:
La proporción de éxitos en la población (𝜋) es diferente de 𝜋0.
- 𝐻0: 𝜋 = 𝜋0(la proporción de éxitos en la población es igual a 𝜋0).
- 𝐻1: 𝜋 ≠ 𝜋0(la proporción de éxitos en la población es diferente a 𝜋0).
La proporción de éxitos en la población (𝜋) es mayor que 𝜋0.
- 𝐻0: 𝜋 ≤ 𝜋0.
- 𝐻1: 𝜋 > 𝜋0.
La proporción de éxitos en la población (𝜋) es menor que 𝜋0.
- 𝐻0: 𝜋 ≥ 𝜋0.
- 𝐻1: 𝜋 < 𝜋0.
ESTADÍSTICO DE CONTRASTE:
CRITERIO DE DECISIÓN:
VALOR CRÍTICO: se determina utilizando la distribución normal
unitaria y el nivel de significancia 𝛼 deseado (p. ej., 𝛼 = 0,05).
¿p MENOR O MAYOR QUE α?: suponiendo que se usa el estadístico n1 o P1:
Calculado el nivel crítico (p), decidiremos rechazar la H0 si 𝒑 es menor que 𝜶 Si p es menor
que 𝛼 significará que la probabilidad de obtener un valor tan extremo o más que el
encontrado es menor que el riesgo que estamos dispuestos a asumir en nuestra decisión.
Suponiendo que se usa el estadístico Z:
Calculado el nivel crítico (p), decidiremos rechazar la H0 si 𝒑 es menor que 𝜶 Si p es menor
que 𝛼 significará que la probabilidad de obtener un valor tan extremo o más que el
encontrado es menor que el riesgo que estamos dispuestos a asumir en nuestra decisión.
INTERVALO DE CONFIANZA:
EJEMPLO: muestra de 64 estudiantes del Grado de Psicología. Esta muestra está compuesta
por 13 hombres (20,31%) y 51 mujeres (79,69%). Mi interés es comprobar si la proporción de
mujeres en mi muestra es superior a la proporción de mujeres en la población (𝜋0 = 0,6).
1. SUPUESTOS: la variable es dicotómica (hombre-mujer) y hemos extraído una muestra
aleatoria de 𝑛 = 64 observaciones con probabilidad de éxito constante en cada
extracción (𝜋1 = 0,6). La muestra es grande porque:
- 𝑛𝜋 = 64 ∙ 0,6 = 38,4 ≥ 5
- 𝑛 1 − 𝜋 = 64 ∙ 0,4 = 25,6 ≥ 5
2. HIPÓTESIS: la proporción de éxitos en la población (𝜋) es mayor que 𝜋0
- 𝐻0: 𝜋 ≤ 0,6
- 𝐻1: 𝜋 > 0,6
3. ESTADÍSTICO DE CONTRASTE:
𝑷𝟏 = 𝟎, 𝟕𝟗𝟔𝟗 𝑷𝟏 ~ 𝑩 (𝟔𝟒; 𝟎, 𝟔)
𝒏𝟏 = 𝟓𝟏 𝒏𝟏 ~ 𝑩 (𝟔𝟒; 𝟎, 6)
4. P-VALOR: 𝒁 = 𝟑, 𝟐𝟔𝟔~𝑵(𝟎, 𝟏)
5. INTERVALO DE CONFIANZA ESTADÍSTICO DE CONTRASTE:
6. DECISIÓN: independientemente del estadístico de contraste que usemos, 𝑝 < 𝛼 y por
tanto debemos rechazar la hipótesis nula. Concluimos que la proporción de mujeres
es significativamente superior a la proporción de mujeres en la población.
2
PRUEBA χ DE PEARSON SOBRE BONDAD DE AJUSTE DE PRUEBAS POLITÓMICAS:
Las pruebas de bondad de ajuste para variables categóricas sirven para analizar el grado de
similitud entre la realidad de las variables y las ideas que podamos tener sobre ellas. El grado
de parecido hace referencia a en qué medida se parecen la forma de la distribución de
probabilidad empírica, es decir de la variable concreta que queremos analizar, y la de la
probabilidad teórica.
Dentro de las variables categóricas podemos tener:
- Variables binomiales: podemos comprobar si se ajustan a la binomial, es decir,
exactamente lo que con la prueba binomial.
- Variables politómicas: es decir, con más de dos categorías. Evaluar el grado de ajuste
de una variable politómica suele utilizarse el grado de ajuste que tiene con una
distribución multinomial.
1. Extraemos una muestra aleatoria de tamaño n de una población cualquiera.
2. Podemos clasificar todas las observaciones en función de la categoría a la que
pertenezca cada unidad. Normalmente, se utiliza i para hacer referencia a cualquiera
de las I categorías (𝑖 = 1, 2, … ,𝐼 ) y 𝜋𝑖 es la probabilidad de que una observación
cualquiera sea clasificada en la categoría i (𝜋𝑖 = 𝜋1, 𝜋2, … , 𝜋𝐼 ).
3. Esos resultados se pueden clasificar en una tabla de frecuencias, incluyen las
proporciones observadas (𝑃𝑖 = 𝑛𝑖/𝑛) y las teóricas (𝜋𝑖).
4. Para evaluar si el resultado muestral se asemeja o no a un determinado tipo de
distribución teórica se utiliza una comparación entre las frecuencias observadas o
empíricas (𝑛𝑖) con las frecuencias esperadas o teóricas (𝑚𝑖 ). Esta comparación se
2
2 𝐼 (𝑛𝑖−𝑚𝑖)
representa como: 𝑋 = Σ𝑖=1 𝑚𝑖
Para obtener las frecuencias esperadas debemos tener en cuenta las probabilidades teóricas
asociadas a ellas de forma que: 𝑚𝑖 = 𝑛𝜋1.
El numerador del estadístico se refiere a las diferencias entre cada frecuencia observada 𝑛𝑖 y
la teórica o esperada 𝑚𝑖 . Estas diferencias también se conocen como residuos y se pueden
reflejar como 𝑅𝑖= 𝑛𝑖 − 𝑚𝑖. El numerador del estadístico recoge las diferencias entre lo
esperado y lo observado.
Para conocer en detalle si esas diferencias son grandes o pequeñas en relación con el
tamaño de la muestra debemos relativizar las diferencias. Por ese motivo, divide las
diferencias entre la frecuencia esperada. Después, el estadístico suma todas las diferencias
(elevadas al cuadrado para que la suma no valga cero) relativizadas de la tabla.
Además, el estadístico 𝑋 2 tiene distribución muestral conocida. Concretamente, el
estadístico 𝑋 2 se distribuye según el modelo de probabilidad χ 2 (se lee como ji-cuadrado)
con I – 1 grados de libertad, lo cual se representa como 𝑋 2 ~χ 2 𝐼−1.
EJEMPLO: hemos preguntado a un grupo de 64 estudiantes de psicología con qué frecuencia
salen de fiesta cada mes. En la población general, el 20% no sale ningún fin de semana al
mes, el 40% sale un fin de semana al mes, el 20% sale dos fines de semana al mes, el 10%
sale tres fines de semana al mes y el 10% todos los findes. ¿Podemos concluir que la
frecuencia con la que salen los estudiantes de fiesta es diferente al de la población?
1. SUPUESTOS: tenemos una muestra aleatoria de n observaciones (n ensayos)
clasificada en las I Categorías exclusivas y exhaustivas de una variable categórica. La
probabilidad de que una observación pertenezca a cada una de las categorías de la
variable se mantiene constante en los n ensayos (es decir, las n observaciones son
independientes entre sí).
2. HIPÓTESIS:
𝐻0: 𝑓(𝑛𝑖) = 𝑀(64; 0.2,0.4,0.2,0.1,0.1)
𝐻1: 𝑓(𝑛𝑖) ≠ 𝑀(64; 0.2,0.4,0.2,0.1,0.1)
2
2 𝐼 (𝑛𝑖−𝑚𝑖)
3. ESTADÍSTICO DE CONTRASTE: 𝑋 = Σ𝑖=1 𝑚𝑖
=
2 2 2 2 2
(13−12,8) (13−12,8) (2−6,4) (9−6,4) (27−25,6)
12,8
+ 12,8
+ 6,4
+ 6,4
+ 25,6
=
0, 00312 + 0, 00312 + 3, 025 + 1, 056 + 0, 0766 = 4, 16
2 2
𝑋 = 4, 16 ∼ 𝑋4
4. p-VALOR:
5. DECISIÓN: como 𝒑 > 𝜶, mantenemos la hipótesis nula. Por tanto, no tenemos
evidencia suficiente para afirmar que la frecuencia con la que salen los estudiantes de
fiesta es diferente al de la población