TEMA 1: DISTRIBUCIÓN MUESTRAL
Estimador puntual: idees iniciales
El estadístico es una medida derivada de los datos de una muestra, con el objetivo de
estimar características de una población. Depende de los datos de la muestra. En
diferentes muestras, se espera que el estadístico sea diferente.
Por lo tanto, el estimador es una variable aleatoria. No todos los estimadores de
tendencia central (media, mediana…) son igual de buenos.
Estimador puntual: insesgado
Su esperanza matemática debería ser igual al parámetro (por ejemplo 80). No quiere
decir que cada estadístico tenga que ser igual al parámetro.
La media de los estadísticos debería ser aproximadamente igual al parámetro.
Estimador puntual: consistente
Los estadísticos se acercan más al parámetro al aumentar el tamaño de la muestra.
La probabilidad de que el estadístico sea igual al parámetro se aproxima a 1, cuando n
tiende a infinito.
Estimador puntual: eficiente
El histograma de la izquierda tiene menor variabilidad, por lo que los valores se
aproximan más a la media.
Se dice que el estimador puntual es eficiente porque no se aleja de la tendencia
central.
¿Existe la distribución normal?
Estimar: (Si tengo una media de la edad de 3 personas, digo que la media de la
población de interés es igual a esa media, porque no tengo más datos).
Por tanto, la distribución muestral depende de los datos, no siempre es igual.
¿De qué sirve la distribución muestral? Para escoger estimadores puntuales con
mejores propiedades
¿Cuál es la distribución muestral?
La distribución muestral de la media se parece cada vez más a una distribución normal
cuando más grande es la muestra.
Si la muestra es muy pequeña no puedo utilizar el Teorema del Límite Central (dice
que se va a parecer a la normal). Pero si la variable es normal, aunque use muestras
pequeñas la gráfica también se parecerá a una distribución normal.
El Teorema del Límite Central dice que la distribución se aproxima a la normal cuando
n aumenta.
Para que un estimador sea insesgado, el promedio de todas las medias ha de ser igual
a la media poblacional.
Error estándar= Desviación estándar
Cuanto más grande una muestra, el error estándar es menor, ya que los valores se
aproximan a la media.
La proporción (otro estimador) también se distribuye normalmente para distribuciones
grandes.
La distribución muestral de la proporción, mediana, desviación típica y variancia se
aproxima a la normal al aumentar n.
Si en desviación estándar y la variancia la variable no es normal, la forma sigue siendo
de normal, pero la fórmula de la desviación estándar es diferente.
Si la muestra de la variancia es pequeña, también sabemos la forma que representa el
gráfico, que es de distribución ji cuadrado.
La ji cuadrada es asimétrica. Cuánto más grande sea la n, la distribución se va
pareciendo cada vez a la normal, ya que cada vez se hace más simétrica.
El procedimiento de remuestreo Bootstrap se da cuando no conocemos el estimador:
Obtenemos una muestra al azar, empiezo a seleccionar muestras de la muestra. Si la
muestra inicial tiene 50 personas, puedo tomar otra muestra de 50 (no saldrá el mismo
resultado, ya que se pueden repetir valores, la primera muestra puede ser los números
del 1 al 50, y la segunda puede repetir por ejemplo el 4 y no tener el 46), con 5000
repeticiones ya es suficiente. Tendré 5000 medias, puedo dibujar una distribución
muestral, ya puedo saber probabilidades.
Kahoot
Cada vez que se extrae una muestra aleatoria de la misma población, se espera
que Los estadísticos sean diferentes entre sí.
Según el teorema central del límite Algunos estadísticos se distribuyen
normalmente para muestras grandes.
Para el teorema central del límite La distribución de la variable no es importante.
El sesgo de un estimador se refiere a La media de un estimador en muchas
muestras difiere del parámetro
El control estadístico de la calidad se basa en la idea de que las medias
muestrales Siguen una distribución normal.
En el control estadístico de la calidad, si se observa algún valor por debajo del
valor nominal Se entiende como variabilidad aleatoria.
TEMA 2: INTERVALO DE PROBABILIDAD
Conociendo la distribución muestral, podemos decir algo sobre lo que se espera
obtener en la muestra al extraerla aleatoriamente de una población con características
conocidas
- Hay que asegurarse de que la distribución muestral del estimador se puede
aproximar a un modelo (e.g., normal).
- Se establece un nivel de probabilidad: 1 – alfa (α).
- Se puede construir un intervalo de valores que contendrá al estadístico (i.e.,
valor del estimador, como por ejemplo la media) con una probabilidad igual a 1
– alfa. Complementariamente, alfa es la probabilidad de que el estadístico esté
fuera del intervalo.
Conceptos clave
Probabilidades
- Alfa: Probabilidad de que un estadístico esté fuera del intervalo
- (1 – alfa): Probabilidad de que un estadístico esté dentro del intervalo
Margen de error
El margen de error es la semi-anchura (la mitad) del intervalo de la probabilidad. Hay
un límite inferior, la media y un límite superior. El primer margen de error es entre
límite inferior y media, y el segundo entre media y límite superior. Se representa con la
(e).
Sabiendo la distribución muestral puedo predecir donde estaría la media de esta
muestra.
A mayor probabilidad, menor precisión (intervalo más ancho)
A mayor tamaño muestral, mayor precisión, más estrecho
Cálculos: media
Cuando se hace la tipificación, los valores que dejan en el área el 95% son -2 y 2 (2
desviaciones estándar son el 95%). Para saber realmente el valor se multiplica -2 y 2
por el error estándar.
La propiedad no es exacta, es – i + 1,96.
Aunque la variable no se distribuya normalmente, si obtenemos una muestra grande,
la forma se parecerá a una distribución normal.
Entre – i + 2,58 se encuentra el 99% de la muestra.
Cálculos: proporción
Si el tamaño de la muestra lo multiplico por la proporción y da más de 5, la distribución
será normal.
Gráfico de control: lo deseado
Al observar la fabricación de algún producto, se parte de una característica deseada,
por ejemplo, un helado de 100 gramos. A estos 100 gramos se le llama valor
nominal.
No todos los helados serán de 100 gramos, por tanto, la media de todos los helados
tampoco será exactamente 100 gramos.
La diferencia en los gramos puede deberse a factores aleatorios o sistemáticos. (i.e.,
causas asignables - e.g., deseo de engañar, por parte de la empresa, o maquinaria
defectuosa).
Gráfico de control: lo tolerable
Se establece un intervalo de tolerancia que marca la variabilidad que se considera
normal.
El intervalo se suele basar en ±𝟑𝝈 del valor nominal. (El 99%).
Una regla posible: Dos o más valores consecutivos, fuera del intervalo de tolerancia
marcan un proceso fuera de control… aparte de buscar patrones en los datos, incluso
dentro de los límites.
Gráfico de control: proporción
Valor nominal: Mínimo 50% de los helados han de ser mínimo 100 gramos cada día.
Dosier ejercicios
Ejercicio 1. Suponiendo que la esperanza de vida para las mujeres de una
determinada población se distribuye según una distribución normal con parámetros µ =
83 años y σ = 7, 6 años, responda a las siguientes cuestiones:
a) ¿Qué distribución sigue la variable aleatoria correspondiente a la media
de la esperanza de vida en una muestra de 45 mujeres seleccionadas al
azar de esa población? Una distribución muestral normal
b) ¿Cuál es la probabilidad de que la esperanza de vida promedio, en una
muestra con las características del apartado anterior, sea superior a 86
años? σ x= σ/raíz cuadrada de n i obtenemos un error estándar de
la media de 1.13. (n=45). S(86)= 0,004 (con R commander).
TEMA 3: INTERVALO DE CONFIANZA
A diferencia del intervalo de probabilidad, donde de una población se obtiene una
muestra, en el intervalo de confianza se dispone de una muestra y a partir de esta
imaginarnos como seria el valor poblacional desconocido.
Cosas que cambian y cosas que no:
(Cambia): (1-α) es el grado de confianza, no de probabilidad.
(Igual): Si (1- α) es más grande, el intervalo será más ancho.
(Cambia): Se trabaja con una única muestra y se desconocen las
características de la población.
(Igual): Si la muestra es más grande, el intervalo será más estrecho.
(Igual): El margen de error depende de α y de n.
(Igual): Se requiere conocer la distribución de la variable o muestra grande
para suponer la distribución muestral del estimador.
Interpretación
Si trabajo con un nivel de confianza del 95%, el 95% de los intervalos construidos a
partir de cada muestra, contendría el valor del parámetro poblacional.
- Como no conozco el valor del parámetro, no sabemos si la muestra
seleccionada está en este 95% o no.
Este rango de valores del intervalo de valores son los más plausibles (es lo más
probable) para el valor del parámetro poblacional.
Intervalo de confianza: proporción
La misma fórmula, pero se sustituye la π por la p. La muestra es grande, por la tanto la
proporción se distribuye de manera normal. Se trabaja con estimadores
Intervalo de confianza
Estrecho (preciso, menos margen de error)
Muestra grande
Menor variación de la población
(1- α) Nivel de confianza, a menos confianza más estrecho el intervalo.
TEMA 3: TAMAÑO DE LA MUESTRA
Determinar el tamaño
Depende de:
La precisión, si quiero algo preciso la muestra ha de ser mayor. (más precisión
= más estrecho)
La confianza (1- α) que se desea tener: más confianza = mayor tamaño de la
muestra.
Proporción
La e es el margen de error, lo contrario a la precisión (la semi-anchura del intervalo).
α representa el nivel de confianza. (Cuanta más grande la Z (confianza), más alejada
del 0).
Para una población infinita o muestreo con reposición: en caso de falta de información
sobre 𝜋 (el parámetro que se desea estimar), se opta por maximizar el tamaño
muestral, utilizando 𝜋 = 0,5 que lleva al mayor producto 𝜋 1 − 𝜋.
Tamaño de la media
Para una población infinita o muestreo con reposición: en caso de falta de información
sobre 𝜎, hipotetizamos que su valor es igual a 20
Ejercicio 3
a) ¿Cuál debe ser el tamaño de la muestra si, para realizar la estimación, se fija
un nivel de confianza igual a 0,98 y un margen de error o error de muestreo (en
las fichas técnicas, es frecuente escribir simplemente error) igual al 0,02?
Z= 2’32
E = 0,02
Resultado: n= 3394
b) ¿Cuál sería el tamaño de muestra necesario para el sondeo si se conoce que,
en la población de referencia u objetivo, existen 1.250.000 de personas entre
50 y 65 años, ambas edades inclusive? Indique la consecuencia de conocer el
tamaño de la población respecto al caso en que N es desconocido.
Cuanto más pequeña la población se necesita menos muestra.
c) Suponiendo ahora de nuevo que se desconoce el tamaño de la población
objetivo, ¿qué tamaño de muestra se precisaría si el margen de error fuera
igual a 0,01?
Kahoot
El intervalo de confianza informa sobre La precisión de la estimación puntual.
En el caso de extraer repetidas muestras aleatorias de la misma población, se
espera que (1-alfa)x100% intervalos de confianza contengan el parámetro.
Al determinar el tamaño de la muestra es necesario Fijar el nivel de confianza y
el margen de error deseados.
Si al determinar el tamaño de la muestra necesario se obtiene un valor decimal,
entonces El valor se redondea hacia arriba.
TEMA 4: DECISIÓN ESTADÍSTICA
En la idea inicial no hay diferencias. En la muestra se obtienen dos diferencias.
¿Cuál es la probabilidad de que haya 2 o más diferencias, si en la población es 0?
Hay que establecer un punto de corte que diga qué es muy vs que es poco probable
(que ocurra al azar). (Incluso si se decide que una diferencia tan grande es poco
probable que se deba al azar, sigue siendo posible.)
Por lo tanto, la decisión no está libre de error. No sé si me estoy equivocando o no. El
error puede cuantificarse.
Fluctuación aleatoria
Cada muestra contiene solo una parte de los datos de la población.
En diferentes muestras se obtendrían diferentes estimaciones del parámetro
(diferencia de medias, por ejemplo): error muestral
¿De dónde sale la probabilidad?
De comparar un valor hipotético (cero u otro) y un valor observado en la muestra.
De utilizar un modelo de probabilidad que represente a la distribución muestral
correspondiente.
De basarse en (y comprobar) supuestos sobre los datos (ejemplo: tamaño de la
muestra…)
Cerrando el círculo
Se empieza por una hipótesis conductual (una idea, ej.: alumnos que van a las
clases sacarán más nota). De esta hipótesis conductual se deriva una hipótesis
estadística o nula (dice que no, la diferencia es 0. Alumnos que van a clase sacarán
lo mismo que los que no van). Se establece un nivel alfa: riesgo de equivocarse
asumible. Se espera rechazar esta hipótesis. Recojo una muestra aleatoria y me sale
una diferencia de 2. La prueba previamente es elegida en base al modelo de
probabilidad. En función de esta probabilidad, decidiré si me parece mucha o poco.
La decisión estadística solo consiste en rechazar o no rechazar la hipótesis nula.
Tipos de hipótesis nula
Bilateral: No hay relación entre puntuación en un test y la nota en la misma
asignatura. Hay 0 diferencias.
Unilateral:
1. Hipótesis conceptual: A más ansiedad menos nota. En la hipótesis nula
pongo lo contrario. (hipótesis estadística)
2. Hipótesis estadística: Se pone lo contrario.
3. Podemos obtener una correlación positiva (como en la hipótesis nula).
Si pasa lo contrario (a más ansiedad menos nota) rechazamos la
hipótesis nula.
Unilateral vs bilateral
En la bilateral se buscan probabilidades en las dos colas del gráfico.
Uso de las palabras
La hipótesis nula suele ser más concreta que la alternativa, sobre todo si es bilateral:
se rechaza o no; hay o no evidencia suficiente para rechazarla
Aceptar la hipótesis nula (en caso de no rechazarla) no es correcto, porque no se
aporta evidencia a favor. Se parte de la idea de que es cierta.
Puede parecer que, al rechazar la hipótesis nula, habría que aceptar la hipótesis
alternativa, por complementaria, pero si la hipótesis alternativa no es concreta, no
tiene sentido.
La perspectiva de Fisher
No se dispone de hipótesis alternativa
El p valor como grado de evidencia en contra de la hipótesis (hay que reportar el valor
concreto)
Prueba de significación: rechazar o no rechazar la hipótesis si la diferencia es
estadísticamente significativa o no
La perspectiva de Neyman y Pearson
Se postula una hipótesis nula concreta.
Se establece un punto de corte para decidir si los datos encajan mejor con la hipótesis
o con la hipótesis nula.
El punto de corte depende de dos riesgos: la prob𝜶bilidad de rechazar una 𝐻0
verdadera (error Tipo I) y la pro𝜷abilidad de no rechazar una 𝐻0 falsa (error Tipo II o
su complementario la potencia estadística [1 − β], especificando un valor del
parámetro en la 𝐻1)
Prueba de la hipótesis: se acepta la hipótesis nula o la hipótesis inicial.
Probabilidad asociada al estadístico
Pregunta: ¿Cuán probable es una diferencia tan grande como la obtenida en la
muestra o incluso mayor, si en la población la diferencia fuera igual a 0?
Procedimiento: Se compara la diferencia observada en la muestra con la
hipotetizada para la población (i.e., la 𝐻0).
Cálculo: Esta comparación se incorpora en un estadístico de prueba que tenga una
distribución muestral conocida (bajo ciertos supuestos).
El valor del estadístico de prueba se refiere a su distribución muestral bajo la Ho
(hipótesis nula).
Cuanto más extremo (grande o pequeño) sea el valor del estadístico de prueba, más
se aleja de la Ho (parámetro hipotetizado).
Lo que la probabilidad (p) sí y no es
Un p-valor pequeño es evidencia en contra de la hipótesis nula (que se suele desear
rechazar).
Establecer previamente a la recogida de datos qué se entiende por una probabilidad
pequeña: 𝛼 = 0,05.
Ser consciente de que el p valor disminuye si la n aumenta.
Pruebas: aciertos y errores
En la realidad, no llegamos a saber si acertamos o erramos.
Máximo riesgo asumible de error Tipo I: alfa.
Probabilidad de error Tipo I para una muestra concreta: p-valor
Pruebas de hipótesis: se puede calcular la probabilidad de error Tipo II – beta.
Se puede reducir la probabilidad de error: alfa y beta disminuyen si n aumenta.
Pruebas de hipótesis: probabilidades
Kahoot
La hipótesis nula se refiere a Características de la población.
La decisión estadística se suele basar en La comparación entre el alfa nominal y
el p valor obtenido.
Lo que el investigador habitualmente fija de antemano es El riesgo de
equivocarse al rechazar la hipótesis nula.
Si el contraste es unilateral o bilateral depende de Las expectativas del
investigador.
La potencia estadística aumenta cuando Se aumenta el tamaño de la muestra
TEMA 4: PRUEBAS DE CONFORMIDAD
Tipos de pruebas estadísticas
Pruebas paramétricas (ejemplo: prueba t, análisis de la variancia): hacen
referencia a parámetros: medias, proporciones, asimetría, curtosis…
Pruebas no paramétricas (ejemplo: prueba U de Mann-Whitney, prueba T de
Wilcoxon, prueba x2): hacen referencia a distribuciones enteras.
Pruebas libres de distribución (ejemplo: Bootstrap, permutación): no requieren
referirse a una distribución normal (ejemplo: prueba t, análisis de la variancia),
sino que construyen la distribución de referencia.
Pruebas de relación: suelen implicar:
o Más de una ‘’muestra’’
o Más de una variable (correlación, ji-cuadrado)
o Más de un momento de medida
Pruebas de conformidad: Suelen implicar una única muestra (ejemplo: one
sample tests: ji-cuadrado, prueba de Kolmogorov-Smirnov).
Prueba para la proporción: hipótesis
Se dispone de datos de una muestra (p que estima π) y se postula un valor hipotético
πo para el parámetro poblacional).
Ho: π = πo. La proporción de helados lo suficientemente grandes es 0,5
(50%).
Ho: π ≥ 𝜋0. La proporción de helados lo suficientemente grande es como
mínimo 0,5 (50%)
Ho: π ≤ πo. La proporción de alta ansiedad ante las matemáticas es como
mucho 0,2 (20%).
Proporción: prueba exacta
Ho: π = 0,5. La proporción de helados lo suficientemente grandes es 0,5.
Distribución binomial: π = 0,5, n=100 helados muestreados al día.
Muestra: 43 de los 100 helados son de más de 100g.
Función de distribución: Cola inferior. Probabilidad de un valor tan bajo o más bajo.
Función de distribución + función de supervivencia: Probabilidad de un valor tan
alejado o más alejado.
Proporción: prueba aproximada
Teorema central del límite: la proporción se distribuye normalmente, si n es grande.
Condición de aplicación: nπo ≥ 5 y n(1- 𝜋0 ) ≥ 5
Ho: 𝜋 ≤ 0,2. La proporción de estudiantes con alta ansiedad ante las matemáticas es
como mucho 0,2.
Prueba para la media: hipótesis
Se dispone de una muestra (𝑥 estima 𝜇) y se postula un valor hipotético (𝜇0) para el
parámetro poblacional.
𝐻0: 𝜇 = 𝜇0 – la media de peso de los helados es igual a 100 g
𝐻0: 𝜇 ≥ 𝜇0 – la media de puntuación sMARS es como mínimo 79 puntos
𝐻0: 𝜇 ≤ 𝜇0 – la media de peso de los helados es como mucho 100 g
Pruebas de bondad de ajuste
Comparación entre una distribución empírica y una distribución de probabilidad.
Hipótesis nula: la distribución se ajusta al modelo
Deseo habitual: no rechazar la hipótesis nula no implica evidencia a favor de la
normalidad, sino la imposibilidad de rechazarla, es decir, sigue siendo un supuesto
plausible.
Normalidad: variedad de pruebas. La más famosa es la de Kolmogorov-Smirnov. La
más potente es la de Shapiro-Wilk.
Bondad de ajuste: prueba ji-cuadrado
El objetivo es comparar una distribución de frecuencias hipotética (esperada) con una
frecuencia empírica (observada).
2 categorías, parecida al uso de la distribución normal.
TEMA 5: JI-CUADRADO COMO PRUEBA DE RELACIÓN
La decisión estadística (rechazar o no la hipótesis nula) se toma para una gran
cantidad de pruebas de significación. Estas pruebas pueden ser pruebas de
conformidad (que implican una sola muestra) o pruebas de relación (que implican más
de una muestra o el estudio de la asociación entre dos variables). Tanto dentro de las
pruebas de conformidad, como dentro de las pruebas de relación, hay pruebas
paramétricas y pruebas no paramétricas. Las pruebas de conformidad de tipo
paramétrico que vimos son la prueba para una media, para una proporción y para una
variancia.
Las pruebas de conformidad de tipo no paramétrico (pruebas de bondad de ajuste) se
centran en distribuciones enteras – las pruebas de normalidad y la prueba ji-cuadrado
sobre una distribución de frecuencias (relativas). Para el Tema 5, trabajaremos con la
prueba ji-cuadrado como una prueba de relación (que no de bondad de ajuste) entre
dos variables categóricas. Se trata de una prueba no paramétrica.
Pasos para seguir a la hora de realizar la prueba:
Especificar la hipótesis nula (Ho)
Plantear la hipótesis estadística
Tomar una decisión, comparando el riesgo asumible especificado
anteriormente (alfa) y el nivel de significación empírica (p-valor).
La base del estudio inferencial de relación entre dos variables categóricas es la tabla
de contingencia. Se calcula el estadístico ji-cuadrado comparando frecuencias
observadas y frecuencias esperadas al azar.
El estadístico ji-cuadrado se refiere a una distribución ji-cuadrado con tantos grados
de libertad como casillas de la tabla de contingencia que pueden variar libremente. . El
p-valor es la probabilidad de encontrar una relación tan fuerte o más fuerte en una
muestra, si a nivel población las variables fueran independientes (i.e., si la relación
fuera 0).
El índice V de Cramér se considera un indicador del tamaño del efecto (cuantifica la
fuerza de la relación).
Para suponer que un estadístico ji-cuadrado sigue una distribución ji-cuadrado, es
necesario que se cumpla un supuesto: que todas las frecuencias esperadas sean
iguales o superiores a 5. En caso de que esto no se cumpla, hay varias maneras
alternativas de proceder:
Una cuestión para considerar es que para tablas que no sean 2x2 (solo un grado de
libertad), existe un supuesto menos restrictivo.
En caso de que la tabla sea 2x2 o el supuesto menos restrictivo no se cumple,
una primera opción es juntar varias categorías en una sola, para conseguir que
la tabla sea de menor dimensión (con menos casillas) y que las frecuencias
esperadas sean iguales o superiores a 5.
Una segunda opción es utilizar la correlación de Yates que implica una
pequeña modificación en la fórmula para calcular el estadístico ji-cuadrado.
Una tercera opción es la prueba exacta de Fisher, que es aplicable solo a
tablas 2x2.
TEMA 6: PRUEBA T PARA DATOS INDEPENDIENTES
Se trata de una prueba de relación entre una variable cuantitativa (la variable
dependiente) y una variable categórica dicotómica (la variable independiente).
Cuando usamos el término ‘’grupos independientes’’ nos referimos a grupos formados
al azar en un diseño experimental o grupos ya existentes.
Los pasos para seguir son los mismos que para una prueba ji-cuadrado: se empieza
por una hipótesis conceptual, convirtiéndola en una hipótesis nula sobre la cual se
acaba tomando una decisión, comparando el riesgo asumido especificado a priori (alfa
nominal) y el nivel de significación empírica (p-valor) asociado al estadístico de
contraste (en este caso el estadístico t).
También es necesario comprobar el supuesto de homogeneidad de variancias a nivel
poblacional, o en caso de que no se cumpla, utilizar la corrección de Welch.
Adicionalmente, se requiere que la muestra sea lo suficientemente grande para
suponer que la distribución t representa bien la distribución muestral del estadístico t, o
en caso de que no sea así, es necesario comprobar que distribución de la variable
cuantitativa puede ser normal en cada una de las dos poblaciones de las cuales
provienen los grupos independientes.
La significación estadística (haber rechazado la hipótesis nula) no informa sobre la
magnitud de la relación. Para eso existe el índice d de Cohen, que se puede obtener
del estadístico t. También es posible convertir el estadístico t en un coeficiente de
correlación, que si está acotado (entre -1 y 1). A diferencia de la d de Cohen.
La prueba t: Comparación de medias
Se dispone de dos grupos y se realiza una comparación entre las medias
poblacionales. Cuanta más diferencia haya entre las dos medias, más fuerte es la
relación entre las dos variables. No solo es importante la diferencia de las medias,
también es importante la variabilidad.
Hipótesis nula
Es posible postular cualquier diferencia hipotética entre las medias
poblacionales:
H 0 : μ1−μ2=δ
Lo más habitual es que se postule que la diferencia es igual a 0, las dos
medias son iguales. Por lo tanto, la hipótesis sería equivalente a:
H 0 : μ1=μ2
También es posible postular hipótesis unidireccionales según las expectativas
de los investigadores.
H 0 : μ1 ≤ μ2 o H 0 : μ1−μ2 ≤0
H 0 : μ1 ≥ μ2 o H 0 : μ1−μ2 ≥ 0
Test Welch
El test de Welch compara las dos medias de los grupos asumiendo que la variancia es
diferente. Primer paso:
- Hipótesis nula: μ1−μ2 =0
- Hipótesis alternativa: μ1−μ2 <0
Segundo paso consiste en obtener el estadístico t y el grado de libertad
Paso 3: si p valor < alfa (0,05) se rechaza la hipótesis nula
Si p valor ≥ alfa, se acepta la hipótesis nula
Los grados de libertad
Al no trabajar directamente con los parámetros poblacionales es necesario
estimar la media de población. Esta estimación se utiliza tanto para sustituir μ
por x , como para utilizar estos valores a la hora de estimar la variancia en cada
población.
Habiendo 2 grupos, se realizan 2 estimaciones.
Estas dos estimaciones son los dos grados de libertad que se “pierden”. Siendo
las medias fijas, en cada uno de los grupos, solo pueden variar libremente
( n 1−1 ) y ( n 2−1 ) valores, respectivamente.
Por lo tanto, el total de grados de libertad es ( n 1+ n2−2 )
TEMA 7: PRUEBA T PARA MUESTRAS RELACIONADAS
Es una prueba de relación entre una variable cuantitativa (la variable dependiente) y
una variable categórica dicotómica (la variable independiente). No obstante, es
aplicable a otro tipo de diseño: un diseño de medidas repetidas en las que el mismo
grupo de personas se estudia en dos condiciones diferentes o un diseño en el cual se
utiliza emparejamiento, y posteriormente, se realizan comparaciones dentro de las
parejas.
Los pasos para seguir en esta prueba son parecidos, pero con la diferencia de que las
comparaciones no se realizan a nivel promedio entre los dos grupos, sino que se
comparan dos valores que corresponden a la misma persona (diseño de medidas
repetidas) o a la misma pareja (diseño de dos grupos con emparejamiento). Esto
conlleva a dos diferencias más:
- La hipótesis nula se refiere a las diferencias calculadas dentro de la misma
persona/pareja.
- Los grados de libertad se refieren también al número de diferencias, que no
necesariamente al número personas (en un diseño de medidas repetidas hay la
misma cantidad de personas diferentes que de diferencias, pero en un diseño
de grupos con emparejamiento hay el doble de personas que diferencias) o de
medidas (hay que doble de medidas que diferencias).
Otra diferencia respecto a la prueba t para grupos independientes es el supuesto de
que las dos medidas que se comparan deberían estar relacionadas (al pertenecer a la
misma persona o a la misma pareja).
Al igual que para la prueba t para grupos independientes, para la cuantificación del
tamaño del efecto se utiliza el índice d de Cohen (que se calcula de una manera un
poco diferente) o el un coeficiente de correlación r.
TEMA 8: ANOVA (ANÁLISIS DE LA VARIANCIA)
Se podría entender como una extensión de las pruebas t para el caso en el cual la
variable categórica no es dicotómica, sino que tiene tres o más categorías. (ANOVA
también se puede aplicar a variables dicotómicas que dan resultados idénticos a las
pruebas t.
También se dispone de una versión del ANOVA para diseños de grupos
independientes otra versión para diseños de medidas repetidas.
Pese a su nombre, el análisis de la variancia compara medias y no es una prueba
sobre la variancia.
A nivel de cálculo, lo que se hace es repartir la variabilidad total en una parte asignada
a la variable categórica (la condición o el tratamiento) y una parte no explicada
(residual o error).
La variabilidad total es el hecho de que no todas las medias son iguales a la media
global. La variabilidad no explicada o del error es el hecho de que las medidas
dentro de cada grupo no son iguales a la media grupal. La variabilidad explicada por
la condición es el hecho de que las medias de cada grupo no son iguales a la media
global.
Estas variabilidades se cuantifican primero como “sumas de cuadrados”, que a su vez
se dividen entre los grados de libertad correspondientes para obtener “cuadrados
medios” (o variancias).
Bajo la hipótesis nula, la variancia explicada es solo azar (error muestral) y ha de ser
igual a la variancia residual: esto se traduciría a un estadístico F (una razón de estas
dos variancias) que es igual a 1 (ausencia de relación entre variables).
El estadístico F se refiere a una distribución F que se caracteriza por dos valores
diferentes para los grados de libertad:
- Uno para el factor de agrupación
- Otro para el residual
El p-valor representa la probabilidad a una diferencia tan grande o mayor entre los
grupos, si a nivel poblacional la diferencia entre todas las poblaciones fuera 0.
Para poder confiar en la validez del p-valor (o probabilidad asociada al estadístico F)
son necesarios supuestos iguales que en el caso de las pruebas t. La decisión
estadística se toma de la misma manera que en el resto de las pruebas que hemos
visto: comparando el p-valor con el valor nominal de alfa.
La decisión estadística del ANOVA puede no ser el último paso, puesto que al
encontrarse diferencias estadísticamente significativas se pueden realizar contrastes a
priori para comprobar entre qué poblaciones se dan dichas diferencias. (Que no todas
las medias poblacionales sean iguales no implica que son todas ellas diferentes entre
sí).
A nivel de cuantificación del tamaño del efecto, el índice eta-cuadrado es la razón
entre la variabilidad explicada (cuantificado como suma de cuadrados y no como
variancia) y la variabilidad (o suma de cuadrados total).
Aparte del ANOVA unifactorial (muy parecido a la prueba t para grupos
independientes), también existe una versión del ANOVA para comprobar el efecto de
varios factores, el ANOVA factorial.
De este modo, se puede estudiar la significación estadística de cada factor por
separado, pero primero se evalúa si existe una interacción entre estos factores.
Otra versión, el ANOVA de medidas repetidas. Como su nombre indica, se trata de
una prueba aplicable a diseños de medidas repetidas. Lo que distingue esta prueba es
un supuesto específico llamado esfericidad, que sustituye el supuesto de
homogeneidad de variancias.
La hipótesis nula y la decisión se refieren a si las medias poblacionales en todos los
momentos de medida son iguales o no.
TEMA 9: PRUEBAS NO PARAMÉTRICAS
Se les llama pruebas no paramétricas ya que no tratan las hipótesis nulas de
parámetros (media, desviación estándar, variación, proporción), sino que se contrastan
distribuciones enteras.
Las pruebas no paramétricas se les considera alternativas a las pruebas paramétricas
(temas 6,7 y 8), en caso de que los supuestos paramétricos no se cumplan. Cuando
estos sí se cumplen, las pruebas paramétricas tienen mayor potencia estadística
(mayor facilidad para rechazar la hipótesis nula falsa).
Se requiere que la escala de medida sea mínimo ordinal (ya que los datos se
transforman en rangos).
Algunas pruebas requieren corrección por presencia de empates.
Algunas personas prefieren usar las pruebas no paramétricas directamente, por
ejemplo, por la posibilidad de obtener p-valores exactos.
Los pasos para seguir al llevar a cabo las pruebas son los mismos de siempre.
Prueba U de Mann-Whitney
La prueba de U de Mann-Whitney es aplicable para comparar dos poblaciones de las
cuales se han extraído dos grupos independientes. En general, se postula que las
distribuciones de la variable cuantitativa en las diferentes poblaciones son iguales.
Pasos y estadístico de prueba
Se obtienen los rangos para el conjunto de los datos, independientemente
del grupo al que pertenecen.
Se obtiene la suma de rangos para cada uno de los dos grupos
El estadístico Z es usado como estadístico de prueba, aunque también tenemos la
opción de tomar la decisión estadística directamente utilizando el valor U.
El p-valor puede ser basado en una cola (contraste unilateral) o en ambas colas
(contraste bilateral) de la distribución nominal unitaria (Z).
En caso de empates
En caso de empates se introduce una corrección en el cálculo del error estándar
(desviación) de la distribución muestral U. El cálculo no es importante.
Los importante es tener en cuenta que se necesita dicha correlación para que el
parámetro de escala de la distribución normal sea correcto, y, por lo tanto, el p-valor
sea correcto.
La hipótesis nula se rechaza cuando el valor del estadístico es menor que el valor
crítico
Prueba T de Wilcoxon
En cuanto a la prueba T de Wilcoxon, es aplicable para comparar dos conjuntos de
medidas relacionadas, obtenidas a partir de un diseño de medidas repetidas o un
diseño de grupos emparejados. Al igual que la prueba t para muestras relacionadas, la
principal comparación se realiza dentro de cada persona (en un diseño de medidas
repetidas) o dentro de cada pareja (diseño de grupos emparejados).
(En general, se postula que las distribuciones de la variable cuantitativa en los
diferentes momentos de medida son iguales.)
Por esta razón, añadimos una representación gráfica diferente a los diagramas de caja
y a los gráficos de medias: se trata de un gráfico en el que cada persona o pareja se
representa mediante una línea que conecta sus dos medidas y, de esta manera, se
puede observar la diferencia entre estas medidas de forma individual y no solo en
general (e.g., comparando dos medianas).
Pasos y estadístico de prueba
Hay dos maneras diferentes pero equivalentes de obtener el p-valor: utilizando la
suma de rangos con el signo menos frecuente y utilizando la suma de rangos con el
signo más frecuente. El cálculo del tamaño del efecto es igual que en el caso de la
prueba U.
Prueba de Kruskal-Wallis
En cuanto a la prueba de Kruskal-Wallis, es aplicable para comparar dos o más
grupos medidos en un momento temporal, igual que el ANOVA.
(En general, se postula que las distribuciones de la variable cuantitativa en las
diferentes poblaciones son iguales).
Pasos y estadístico de prueba
Al igual que la prueba U de Mann-Whitney, se procede a obtener los rangos de todos
los valores sin tener en cuenta el grupo al que pertenecen. Las sumas de rangos para
cada grupo se incluyen en el estadístico de prueba, que se denota mediante la letra H
y que se refiere a una distribución ji-cuadrado con tantos grados de libertad como
grupos menos 1.
Como en las pruebas anteriormente mencionadas, se puede llevar a cabo una
corrección por la presencia de empates, para asegurar que los p-valores que se
obtienen son válidos (puesto que la distribución ji-cuadrado, al igual que la normal, es
continua y no deberían producirse empates para variables continuas).
El contraste que se suele hacer es bilateral.
Prueba de Friedman
En cuanto a la prueba de Friedman, es aplicable a diseños de medidas repetidas con
dos o más medidas del mismo grupo de personas, al igual que el ANOVA de medidas
repetidas. Al igual que en la prueba de Kruskal-Wallis la hipótesis nula suele ser no
direccional.
En general, se postula que las distribuciones de la variable cuantitativa en los
diferentes momentos de medida son iguales.
Pasos y estadístico de prueba
Los rangos se obtienen de cada individuo. Es decir, si cada individuo es medido en
cuatro momentos, entonces para cada persona se asignarían los rangos 1, 2, 3 y 4 a
cada una de sus cuatro medidas. Es decir, no se asignan rangos a todos los valores
indiscriminadamente (como en la prueba U de Mann-Whitney o en la prueba de
Kruskal-Wallis, ni tampoco se calculan diferencias como en la prueba T de Wilcoxon).
El estadístico de prueba incluye la suma de rangos para cada uno de los momentos de
medida y se refiere a una distribución ji-cuadrado con tantos grados de libertad como
momentos de medida menos 1.
TEMA 10: CORRELACIÓN
También se trata de pruebas de relación. En los últimos temas siempre había por lo
menos una variable categórica que se estaba estudiando, mientras que en este tema
ambas variables son cuantitativas (i.e., medidas en escala de intervalo o razón).
En cuanto al cálculo de los coeficientes de correlación, es importante saber que:
- El coeficiente de Pearson cuantifica una relación lineal. Las variables son en
escala de intervalo
- El coeficiente de Spearman cuantifica una relación monótona al utilizar
rangos en vez de las medidas originales de las dos variables. Las variables son
en escala ordinal
La hipótesis nula plantea que el parámetro a nivel poblacional toma un valor de 0 y,
por tanto, las dos variables son independientes
En cuanto a la inferencia estadística, los pasos para llevar la prueba de significación
son los mismos de siempre, aunque se suele poner menos énfasis en la comprobación
del supuesto de normalidad bivariada para llevar a cabo la prueba para el coeficiente
de correlación de Pearson, al ser dicho supuesto difícil de comprobar. Se pueden
plantear contrastes unilaterales o bilaterales, en función de las expectativas del
investigador.
Para realiza la prueba se mencionan dos estadísticos de prueba diferentes:
- El estadístico t, que se refiere a una distribución t con tantos grados de libertad
como personas (pares de medidas) menos 2 (al estimar dos parámetros
poblacionales.
- El estadístico z, que requiere una transformación del coeficiente de correlación
y se refiere a una distribución normal (media 0 y desviación 1).
La decisión estadística se toma como siempre comparando el p-valor con el nivel alfa
preestablecido o, equivalentemente, comparando el valor del estadístico t obtenido con
el valor crítico (punto que define un conjunto de valores que apoyan el rechazo de la
hipótesis).
También a nivel inferencial es posible construir un intervalo de confianza, gracias a la
transformación de Fisher que permite utilizar la distribución normal unitaria (Z). La idea
es la misma que para los intervalos de confianza para una media o una proporción,
solo el cálculo es un poco diferente en que requiere volver a transformar las Z en
correlaciones, una vez obtenidos los límites del intervalo de confianza. Una idea en
concreto que se mantiene igual es que a mayor tamaño muestral, mayor precisión (i.e.,
menor semi-anchura o margen de error del intervalo de confianza). Igual que en el
caso de las pruebas de conformidad (sobre una media y una proporción), el hecho de
que el intervalo de confianza no contenga el parámetro hipotetizado en la hipótesis
nula es equivalente a rechazarla.
Como en el caso de las pruebas de relación anteriormente trabajadas, la
significación estadística (i.e., rechazar la hipótesis nula o no) y la magnitud de la
relación (i.e., el tamaño del efecto) son dos aspectos relacionados, pero no
equivalentes, al ser posible encontrar una relación débil pero estadísticamente
significativa (en caso de una muestra grande) o fuerte pero no estadísticamente
significativa (en caso de una muestra pequeña). Nos volvemos a referir a dos índices
que ya conocéis: el coeficiente de determinación (R-cuadrado) y eta-cuadrado,
interpretándose ambos como proporción de variabilidad explicada (si una de las
variables se considera como independiente) o compartida (si simplemente hablamos
de asociación entre las variables).
Magnitud del efecto
El coeficiente de correlación ya es una medida del tamaño del efecto, al expresarse en
una escala de -1 a +1.
El signo señala si la relación es positiva o negativa, a diferencia de la d de Cohen,
donde el signo simplemente marca cuál de las dos medidas es mayor.
Que el valor del estadístico sea más grande que el valor crítico es equivalente a un p-
valor más pequeño que alfa.
TEMA 11: REGRESIÓN LINEAL SIMPLE
En primer lugar, hay que mencionar que el análisis de la regresión forma parte del
modelo lineal general, que incluye también a la correlación, a las pruebas t y al análisis
de la variancia. Es decir, si comparamos dos grupos en cuanto a sus medidas en una
variable cuantitativa, los resultados que se obtendrían serían los mismos para cada
una de estas cuatro técnicas de análisis.
Como en la correlación, la regresión lineal es aplicable para estudiar la relación entre
dos variables cuantitativas (sin incluir ninguna variable categórica). No obstante,
ambas técnicas analíticas se pueden aplicar a casos en los cuales una de las variables
es categórica dicotómica, si esta se codifica como una variable ficticia con valores 0
(por ejemplo, no repetidores) y 1 (repetidores de la asignatura).
La principal diferencia inicial entre la correlación y la regresión es que a una de las
dos variables se le trata como independiente (i.e., causa, marcada mediante X y
representada en el eje de abscisas) y a la otra se le trata como dependiente (i.e.,
efecto, marcada mediante Y y representada en el eje de ordenadas).
La regresión distingue entre dos aspectos que no son relevantes para la correlación: el
intercepto y la pendiente. De hecho, son los dos parámetros que se estimaban y que
hacían que se perdieran dos grados de libertad al trabajar con la distribución t para
poner a prueba la significación estadística de la correlación:
- El intercepto es el valor de la variable dependiente, cuando la variable
independiente toma el valor de 0.
- La pendiente es el cambio en el valor de la variable dependiente, cuando la
variable independiente incrementa en una unidad (un kilo, un euro, un niño…
en función de las unidades de medida de la variable independiente).
Para que el análisis de la regresión tenga sentido, es importante que la recta se ajuste
relativamente bien a los datos. Es decir, que haya un patrón lineal en la relación entre
las dos variables. Para esto es importante la inspección visual del diagrama de
dispersión, aunque también se dispone de cuantificación para esta finalidad, como
comentaremos más adelante.
En el análisis de la regresión se ajusta una recta de regresión a los datos. Esta línea
recta se ubica de tal forma que se minimiza la suma de las desviaciones al cuadrado
entre la recta y los datos (i.e., los puntos). A este procedimiento se le llama
estimación por mínimos cuadrados ordinarios. A los valores que representa la
recta de regresión se les llama valores ajustados o predichos. A las desviaciones
entre la recta y los datos se les llama residuales o errores (por ser diferentes de lo
que la recta predice).
Un segundo producto del análisis de la regresión, aparte de la representación gráfica
de una recta de regresión, son las estimaciones de los coeficientes de regresión: el
intercepto y la pendiente. De hecho, el intercepto y la pendiente determinan donde la
recta de regresión cruza el eje de ordenadas y cuál es su inclinación. Es decir, ajustar
la recta de regresión es lo mismo que estimar estos dos parámetros (mediante el
procedimiento de mínimos cuadrados ordinarios.
Aparte de la estimación puntual (i.e., el valor concreto), se puede obtener un p-valor
asociado a cada uno de los coeficientes, además de la posibilidad de construir un
intervalo de confianza. Ambos aspectos son posibles gracias a la distribución t, con
tantos grados de libertad como personas (pares de valores) menos 2.
En cuanto al p-valor asociado al estadístico t, permite poner a prueba la hipótesis nula
de que el coeficiente de regresión (el intercepto o la pendiente) es igual a cero en la
población. Esta hipótesis nula no suele ser de interés en el caso del intercepto, pero sí
es fundamental para la pendiente. Si la pendiente fuera 0 en la población, entonces al
incrementar los valores de la variable predictora (independiente), los valores de la
variable dependiente no cambiarían, en promedio. Esto implicaría falta de relación. Por
lo tanto, es muy importante que la hipótesis nula referente a la pendiente se rechace.
En caso contrario, no hace falta el análisis de la regresión.
La regresión se llama lineal porque la fórmula contiene una suma entre dos partes:
beta 0 (parámetro poblacional estimado por b0, intercepto) y beta 1 (parámetro
poblacional estimado por b0, pendiente) y estas dos partes están elevadas a potencia
1.
También se puede construir un intervalo de confianza alrededor de la recta de
regresión (i.e., alrededor de los valores predichos). Hay que tener en cuenta que a
estos valores predichos se les llama también “esperados” (aparte de “ajustados”) al ser
una media predicha para todas las personas con un determinado valor de la variable
predictora. Por lo tanto, el intervalo de confianza es alrededor de esta media predicha.
También se puede construir un “intervalo de predicción” para valores individuales (que
no medias): este intervalo es más ancho, puesto que hay más variabilidad para los
valores individuales.
Hay una serie más o menos larga de pasos que tienen lugar al llevar a cabo un
análisis de la regresión. Estos pasos son un poco más complejos que en el caso de las
pruebas de relación que vimos hasta ahora. En primer lugar, se evalúa si una línea
recta se ajustaría bien a los datos: esto se ha a nivel visual y también a nivel
cuantitativo – a través de un p-valor que representa todo el modelo (i.e., a nivel
inferencial) y a través de una R-cuadrado que cuantifica la fuerza de la relación o la
capacidad predictiva del modelo (a nivel descriptivo). En cuanto al p-valor, se utiliza
para decidir sobre la hipótesis nula de que el modelo no es útil, es decir, no es mejor
que prediciendo solo con la media de la variable dependiente.
Para poder interpretar p-valores e intervalos de confianza, hay que comprobar una
seria de supuestos. Los dos principales son que el residual o error (diferencia entre
valores predichos y obtenidos en la muestra) se distribuye normalmente y que su
variancia es homogénea para todos los valores de la variable independiente (o,
equivalentemente, para todos los valores predichos). Estos supuestos se pueden
comprobar a nivel gráfico o mediante pruebas de normalidad (e.g., prueba de Shapiro-
Wilk) y de homogeneidad de variancia (e.g., prueba de Breusch-Pagan).
A nivel ilustrativo, vemos un ejemplo en el cual se siguen los pasos y se obtienen las
diferentes cuantificaciones. Se empieza por la inspección visual del diagrama de
dispersión: se tiene que ver un patrón lineal. En segundo lugar, se obtiene un p-valor
inferior a 0,05, lo que implicaría rechazar la inutilidad del modelo. Esto nos permite
seguir adelante. A nivel descriptivo, R-cuadrado es igual a 0,49: esto indica que la
variable predictora explica el 49% de la variabilidad de la variable dependiente – es
mucho (valores superiores a 14% se consideran grandes). Posteriormente, podemos
ver las estimaciones puntuales de los parámetros de regresión y su significación
estadística. En un modelo de regresión lineal simple, el p-valor del coeficiente de la
pendiente es igual al p-valor de todo el modelo: aquí, 0,00005407. También se
representa gráficamente el intervalo de confianza alrededor de la recta de regresión,
para saber el grado de precisión de la predicción que hacemos. En cuanto a los
supuestos, a nivel visual no se observa ningún patrón claro en los residuales (es lo
deseable) y no se rechaza la hipótesis nula de homogeneidad de la variancia (esto
también es deseable). La normalidad del residual no está muy clara a nivel visual, pero
a nivel inferencia, la hipótesis nula tampoco se rechaza, así que podemos dar el
supuesto por cumplido. En la diapositiva 37 identificamos un valor con alto
apalancamiento y alta influencia. Posteriormente, vemos un segundo ejemplo en el
que la relación entre las variables no es tan clara y, de hecho, el modelo de regresión
no es estadísticamente significativo, al ser el p-valor igual a 0,2547. Esto está
relacionado con el valor anómalo que ahora está más lejos del conjunto de valores.
La regresión, al igual que la correlación de Pearson, es sensible a valores anómalos.
Por esta razón se realiza el diagnóstico de valores con alto apalancamiento de valores
influyentes, que podrían incidir en la recta de regresión.
KAHOOTS
Distribución muestral
Cada vez que se extrae una muestra de la misma población, se espera que los
estadísticos sean diferentes entre sí.
Para el teorema central del límite la distribución de la variable no es importante.
El sesgo de un estimador se refiere a la media de un estimador en muchas
muestras difiere del parámetro.
El proceso se considera controlado cuando no se observa ningún patrón, ni valor
anómalo.
Intervalo de confianza y tamaño de la muestra
El intervalo de confianza informa sobre la precisión de la estimación puntual.
Si se extraen repetidas muestras aleatorias de la misma población, se espera
que las medias muestrales sean similares entre sí.
Al calcular el tamaño de la muestra para una proporción se especifica un valor del
parámetro que maximiza la variancia.
Decisión estadística
La hipótesis nula se refiere a características de la población.
Según Neyman y Pearson la cuestión es qué hipótesis encaja mejor con los
resultados.
Pruebas de conformidad
En pruebas de conformidad, se compara lo observado con lo esperado.
Grados de libertad en la prueba de conformidad ji-cuadrado Número de
categorías – 1
En la prueba de conformidad X2, el supuesto de muestra lo suficientemente
elevada se comprueba fijándonos en las frecuencias esperadas para cada categoría
Ji-cuadrado
Grados de libertad El número de casillas que pueden variar al fijar las sumas
El valor de ji-cuadrado aumenta al aumentar la fuerza de asociación.
El valor crítico de ji-cuadrado aumenta con los grados de libertad.
Pruebas t
La hipótesis nula es que las medias de las dos poblaciones son iguales
Grados de libertad para grupos independientes Tiene en cuenta cuántas medias
se han de estimar.
Valor crítico para grupos independientes Suele ser mayor que una distribución
normal
Grados de libertad para muestras relacionadas Número de pares de medidas
menos 1.
En pruebas t, cuanto más grande sea el número de grados de libertad Más
pequeño es el valor crítico
Análisis de la variancia
La distribución de referencia es la distribución F
Grados de libertad Cuántas medias se estiman
Para la distribución F, cuanto más grande sea el número de grados de libertad
Más pequeño es el valor crítico.
Pruebas no paramétricas
En la prueba U de Man-Whitney, la hipótesis nula se rechaza cuando El valor
del estadístico es menor que el valor crítico
Correlación
Grados de libertad Cuántos parámetros se estiman
Si usamos un valor crítico para la decisión, para rechazar Ho El estadístico ha
de ser más grande que el valor crítico