0% encontró este documento útil (0 votos)
40 vistas6 páginas

Tema 4

1) El documento describe los procedimientos generales para realizar contrastes de hipótesis e inferencia estadística con una variable, incluyendo establecer hipótesis nulas y alternativas, seleccionar el nivel de significación, elegir el estadístico de contraste y tomar una decisión. 2) Explica diferentes tipos de diseños experimentales y análisis de datos cuantitativos y cualitativos. 3) Detalla pruebas específicas para realizar contrastes sobre el centro, dispersión y forma de una distribución de probabilidad.

Cargado por

adaya
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
40 vistas6 páginas

Tema 4

1) El documento describe los procedimientos generales para realizar contrastes de hipótesis e inferencia estadística con una variable, incluyendo establecer hipótesis nulas y alternativas, seleccionar el nivel de significación, elegir el estadístico de contraste y tomar una decisión. 2) Explica diferentes tipos de diseños experimentales y análisis de datos cuantitativos y cualitativos. 3) Detalla pruebas específicas para realizar contrastes sobre el centro, dispersión y forma de una distribución de probabilidad.

Cargado por

adaya
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

FPM II

2º curso

TEMA 4: INFERENCIA CON 1 VARIABLE

Procedimiento general para el contraste de hipótesis:

- Establecer H0 y H1.
- Seleccionar el nivel de significación α.
- Características de la población en cuestión y planteamiento de las suposiciones necesarias.
- Elegir el estadístico de contraste.
- Ir a la distribución muestral del estadístico.
- Región crítica derivada del α seleccionado.
- Decidir sobre la aceptación o rechazo de H0.

Clasificación de procedimientos inferenciales o técnicas de análisis por los tipos de datos:

- Para datos cuantitativos: medidas de intervalo o razón. Se comparan grupos de sujetos


y se estudia la relación entre 2 o más variables mediante los estadísticos de media,
correlación, mediana, varianza…
- Para datos semicuantitativos o cualitativos: medidas nominales u ordinales.

Diseños experimentales según el nº de variables independientes:

- Unifactorial (una VI): 2 muestras (ej.: género e inteligencia), J muestras (inteligencia y clase
social: alta, baja, media…) y 1 muestra (no existe VI).
- Factorial (2 o más VI).

Diseños experimentales según el tipo de muestras:

- Grupos aleatorios o muestras independientes: se forma tantos grupos de sujetos como


niveles tiene la VI y cada grupo se asigna aleatoriamente a un nivel de la VI. Se crean
bloques aleatorios.
- Mismos sujetos o muestras relacionadas: a los mismos sujetos se les toma J medidas.
- Diseños intrasujetos o de medidas repetidas: miden J variables en los mismos sujetos
o porque la misma variable es medida en los mismos sujetos en momentos diferentes.

Muestra no es igual que grupo porque la muestra se refiere a un conjunto de datos. En los
grupos aleatorios y muestras coincide que cada grupo de sujetos genera una muestra de
datos y en medidas repetidas, muestra y grupo no coinciden pues cada grupo genera más
de una muestra de datos.
FPM II
2º curso

1. CONTRASTE DE HIPÓTESIS SOBRE EL CENTRO DE LA DISTRIBUCIÓN


➔ MEDIA: PRUEBA T PARA UNA MUESTRA

El contraste de hipótesis sirve para tomar decisiones del verdadero valor poblacional que
corresponde a la media de una variable. Vamos a trabajar con una sola muestra. Para tomar
decisiones sobre µ vamos a seguir los pasos del tema anterior para el contraste. Si en la
muestra σ es conocida, se usa el estadístico Z; si es por el contrario, desconocida, se usa
la prueba T.

- σ conocida: generalmente, si esta se conoce, también se conoce la media por lo que no


hay que hacer inferencias.
Los pasos son: hipótesis (nula y alternativa), supuestos, estadístico de contraste,
distribución muestral, zona crítica y decisión.

- σ desconocida: el rango entre los límites será el rango de valores que nos lleva a
mantener H0 en un contraste bilateral.
FPM II
2º curso

Se deben cumplir unos supuestos:

- Deben ser aleatorios.


- Deben ser independientes: el resultado de una observación no influye la siguiente.
- Debe distribuirse por la normal. Debe tener más en cuenta con muestras pequeñas
porque a medida que aumenta n, las variables se distribuyen por la normal. Si n<15 la
población debe ser normal, si 15<n<40 puede usarse T cuando los datos no se
distribuyan de forma muy asimétrica y sin valores atípicos, si n>40 T puede usarse con
asimetría y valores atípicos.

Normalmente se usa el nivel crítico (p). tk = valor concreto del estadístico T

- Bilateral→ p = 2 [P (T≥ |tk|)]


- Unilateral izquierdo→ p = P (T ≤ |tk|)
- Unilateral derecho→ p = P (T ≥ |tk|)

Calculando p, decidiremos rechazar H0 cuando p < α. Pues esto significa que la probabilidad
de obtener un valor tan extremo o más que el encontrado es menor que el riesgo que
estamos dispuestos a asumir en la decisión.

➔ MEDIANA: PRUEBA DE WILCOXON PARA UNA MUESTRA

Se usa cuando no existe independencia y/o normalidad de distribución para someter a


contraste el centro de la distribución usando las medianas. Asume simetría.
FPM II
2º curso

➔ MEDIANA: PRUEBA DE LOS SIGNOS

No requiere asumir ningún supuesto sobre la forma de la población original, solo se exige un
nivel de medida ordinal.

La principal diferencia con la prueba de Wilcoxon es que esta aprovecha la info ordinal de
los datos mientras que la de signos aprovecha la info nominal y que la prueba de Wilcoxon
exige nivel de medida de intervalos o razón (asume asimetría), mientras que las de signos
solo exige nivel de medida ordinal (mediana es un estadístico ordinal).

2. CONTRASTE SOBRE LA DISPERSIÓN DE UNA DISTRIBUCIÓN


➔ VARIANZA

El centro de la distribución no informa de todos los cambios del conjunto de los datos. Si
realizamos un análisis de los datos y comprobamos que el centro de la distribución no ha
cambiado significativamente, significaría que los sujetos no han mejorado con el
entrenamiento y que, por tanto, este no ha funcionado. Pero, el aumento de la desviación
típica implicaría mayor dispersión de los datos, lo cual indica que:

- Unos sujetos han mejorado su CI pero otros lo han empeorado.


- Limitar el análisis inferencial de una variable al centro de la distribución es limitar la
información que podemos obtener y debemos completarlo con contrastes sobre la
dispersión de los datos para obtener información más realista de lo que está pasando.
3. CONTRASTE SOBRE LA FORMA DE UNA DISTRIBUCIÓN
➔ PRUEBA DE KOLMOGOROV-SMIRNOV SOBRE LA BONDAD DE AJUSTE

Es la más usada para contrastar hipótesis sobre la distribución de variables cuantitativas.


Se basa en comparar 2 funciones de distribución o probabilidad acumuladas. Por un lado
está la función de distribución de la variables F (Yi), la función empírica y por otro, la
función teórica F0 (Yi).

Para calcular la función de distribución empírica de cualquier variable hay que ordenar los
n valores de 𝑌𝑖 de forma ascendente y, después calcular la probabilidad acumulada.

Después, la forma de calcular la función de distribución teórica no es tan sencillo porque


depende de H0. La hipótesis nula plantea la igualdad de la distribución empírica con la
teórica (𝐻0: 𝐹 (𝑌𝑖) = 𝐹0 (𝑌𝑖)), pero no especifica cómo es la distribución teórica.

Esto ocurre porque puede compararse la distribución empírica con una gran variedad de
distribuciones. Sin embargo, la distribución teórica que más suele establecerse para
FPM II
2º curso

realizar comparaciones es la normal porque una gran variedad de contrastes de hipótesis


tiene como supuestos que los datos se distribuyan normalmente.

Únicamente quedaría calcular el estadístico de contraste Kolmogórov-Smirnov partiendo


de la diferencia más grande entre ambas distribuciones:

➔ OTRAS PRUEBAS SOBRE BONDAD DE AJUSTE


- Echar un vistazo a los datos: se puede distinguir la normal porque media y mediana son
prácticamente iguales y porque la simetría y curtosis están muy cerca de 0.
- Gráficos
o Histograma:

o Gráfico de comparación de cuantiles:

- Prueba de Shapiro – Wilk: tiene


el mayor poder para detectar la
no normalidad y es el más
popular y ampliamente usado.

De las variables categóricas/cualitativas suele analizarse el reparto de la frecuencia entre


las categorías que pueden tener: si la variable es binomial se comprueba si el nº de casos
o proporción de éxitos se reparte equitativamente y es similar a estudiar el centro de su
distribución y si la variable es politómica se estudia el reparto frecuente entre todas las
categorías, similar a estudiar la forma de la distribución.

4. VARIBLE DICOTÓMICA
FPM II
2º curso

➔ PROPORCIÓN: PRUEBA BINOMIAL

1/éxito: presencia de la categoría y 0/fracaso: ausencia de la categoría. Los estadísticos 𝑛1


= nº de éxitos y 𝑃1 = proporción de éxitos se distribuyen según la probabilidad binomial
con parámetros 𝑛 = nº de ensayos y 𝜋 = proporción de éxitos.

El modelo de distribución de probabilidad binomial sirve para obtener las probabilidades


asociadas a los estadísticos n1 y 𝑃1. A medida que el tamaño muestral aumenta, las
distribuciones de 𝑛1 y 𝑃1 se aproximan a una distribución normal 𝑁 (0,1). Si tenemos
muestras grandes puede utilizarse una distribución normal en lugar de una binomial.

5. VARIABLE POLITÓMICA
➔ BONDAD DE AJUSTE: X2 DE PEARSON

Se puede calcular si se ajustan exactamente a la prueba binomial o más de 2 categorías


donde suele usarse el grado de ajuste que tiene con la distribución multinomial.

- Extraemos una muestra aleatoria de tamaño n de una población cualquiera.


- Podemos clasificar todas las observaciones en función de la categoría de cada unidad.
Se usa i como referencia a cualquiera de las I categorías (𝑖 = 1, 2, …, 𝐼) y 𝜋i como
probabilidad de que una observación sea clasificada en la categoría i (𝜋i = 𝜋1, 𝜋2, …, 𝜋𝐼).
- Esos resultados se pueden clasificar en una tabla de frecuencias que también incluyen
las proporciones observadas (𝑃i = 𝑛i/𝑛) y las teóricas (𝜋𝑖).
- Para evaluar si el resultado muestral se asemeja o no a un determinado tipo de
distribución teórica se usa una comparación entre frecuencias observadas o empíricas
(𝑛i) con frecuencias esperadas o teóricas (𝑚i). Se representa como:

Para obtener las frecuencias esperadas debemos tener en cuenta las probabilidades
teóricas asociadas a ellas de forma que: 𝑚i = 𝑛𝜋1. El numerador del estadístico se refiere a
las diferencias entre cada frecuencia observada (𝑛i) y la esperada (𝑚i). Estas diferencias
también se conocen como residuos y se pueden reflejar como 𝑅𝑖= 𝑛𝑖 − 𝑚𝑖. El numerador
recoge las diferencias entre lo esperado y lo observado. Para conocer en detalle si esas
diferencias son grandes o pequeñas en relación con el tamaño de la muestra debemos
relativizar las diferencias. Por ello, divide las diferencias entre la frecuencia esperada.
Después, el estadístico suma todas las diferencias (elevadas al cuadrado para que no
valga cero) relativizadas de la tabla. Además, el estadístico 𝑋2 tiene distribución muestral
conocida según el modelo de probabilidad X2 con I – 1 grados de libertad, que se representa
como X2 ~ X2 l – 1.

También podría gustarte