0% encontró este documento útil (0 votos)
34 vistas47 páginas

Introducción a la Inferencia Estadística

Cargado por

Ester Manchado
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
34 vistas47 páginas

Introducción a la Inferencia Estadística

Cargado por

Ester Manchado
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

ESTADISTICA

INTRODUCCIÓN A LA INFERENCIA ESTADÍSTICA

INFERENCIA ESTADISTICA
En la muestra se miden y recogen unos datos para hacer una afirmacion de toda la poblacion,
imaginandomelo porque no la he estudiado toda, y se hace mediante unos pasos determinados.

Hay una incertidumbre no lo sabemos seguro, no existe la seguridad estadisica segura.

Estimación

- Extraer una conclusión sobre un parámetro poblacional, en base a datos recogidos en


una muestra. El estadistico es el numero que recogemos, que puede ser la media de
algo, que la aprovecho para decir algo del parametro `poblacional, APROXIMADO.
o Estimacion puntual→ un valor concreto; 20 metros
o Estimacion por intervalo→ un badaje de valores; entre 18-20 metros
- No se sabe si nuestra estimacion es correcta o no, porque no estudiamos toda la
poblacion, solo una parte de ella.
Decisión estadística

- Extraer una conclusión en forma de decisión sobre una hipótesis nula o escogiendo
entre dos hipótesis, en base a la probabilidad de observar lo que sí se observó (o algo
más extremo) en caso de que a nivel población la hipótesis nula fuera cierta.

- Se formula una hipotsis, se rec.ogen evidencias en contra de esta, y se toma la decision


de rechazar o no esta hipotesis, mediante una serie de pasos extensos. Con la idea que
nose cddcdsi mi decision es correcta o no, pero se decide en base de un aprobabilidad
que es lo mas correcto.

ESTIMADORES

Caracteristicas
EJEMPLO:

- Objetivo→ Conocer la ansiedad ante las matemáticas de los estudiantes de la asignatura


de “Estadística” en el Grado de Psicología de la UB
ESTADISTICA

- Método: Participantes→ Se selecciona una muestra de 50 estudiantes (aleatoria), de la


totalidad de 425 matriculados en “Estadística”
¿Es lo mismo trabajar con los voluntarios del grupo M5 que seleccionar al azar
estudiantes de todos los grupos de matrícula?
- Método: Instrumento→ La ansiedad ante las matemáticas se mide mediante la versión
española (Núñez-Peña, Suárez-Pellicioni, Guilera, & Mercadé-Carranza, 2013) del
instrumento denominado sMARS (Alexander & Martray, 1989). Esta escala se compone
de 25 ítems, cada uno de los cuales puntúa entre 1 y 5, siendo, por lo tanto, el mínimo
de la escala 25 y el máximo 125 (i.e., máxima ansiedad ante las matemáticas).
o En los ejemplos posteriores se utiliza 𝜇 = 80; 𝜎 = 15

PRIMERAS DECISIONES:

- Descripción→ Calcular la puntuación media en sMARS en la muestra de 50 estudiantes


- Inferencia→ Estimar la media poblacional de todos los estudiantes, mediante un
estimador puntual (la media) que proporciona un valor concreto (el estadístico) o
mediante un estimador por intervalo.
o Pruebas de decisión estadística: pruebas de conformidad y de relación.
o ¡Requiere muestreo probabilístico!

LA DISTINCIÓN:

Distribución de la variable en la población

▪ Puntuaciones de ansiedad ante las matemáticas de los estudiantes de la asignatura de


“Estadística” en el Grado de Psicología de la UB. Se desconoce habitualmente.

Distribución de la variable en la muestra

▪ Puntuaciones de ansiedad ante las matemáticas de los participantes de la muestra de 50


estudiantes. Distribución empírica.

Distribución del estimador

▪ Medias de ansiedad ante las matemáticas calculadas para diferentes muestras extraídas
de la misma población. Se representa mediante modelos, bajo ciertos supuestos.

▪ El salto→en la muestra de 50 hay una media, pero si selecciono otra muestra de 50


tendre otra media diferente (distribuvion muestral, medias para diferentes muestras)
▪ La distribucion de la media es aproximar el conocimiento estadistico representadolo en
graficas, suponiendo e imaginando cosas, oorque no se estudia a toda la poblacion,
llamados supuestos.
PRIMERAS DISTINCIONES Y TÉRMINOS

Parametro→ lo que se sesupone que es la poblacion


El estadistco muestral→ lo que yo he calculado
Distrubucion muestral→ si junto el estadistico muestral.
La media de nuestra poblacion no se sabe si es igual que la de la poblacion general, pero
sabemos que no son iguales
Error estandars→ es igual que la distribucion estándar.

ESTIMADOR PUNTUAL: IDEAS INICIALES

El estadístico (i.e., el valor del estimador) depende de los datos de la muestra.


ESTADISTICA

En diferentes muestras, el estadístico se espera que sea diferente.

Por lo tanto, el estimador es una variable aleatoria.

En la realidad, no se espera conocer el valor del parámetro poblacional para saber hasta qué
punto se parece el estadístico (i.e., cuánto es el error muestral).

No todos los estimadores de tendencia central (e.g., media, mediana, semisuma del valor
mínimo y el máximo) son igual de “buenos”.

ESTIMADOR PUNTUAL: INSESGADO

Su esperanza matemática debería ser igual al parámetro.

No quiere decir que cada estadístico ha de ser igual al parámetro

- El sesgo es una desviacion sistematica, como un prejuicio o estereotipo.


- Que no haya sesgo a nivel estadistico es que su esperanza matematica es igual al
parametro.
- Que sea insesgado no quieres decir que sea todo igual al parametro.
- La media no ha de ser igual a la otra media, pero no significa que haya sesgos.

Por lo tanto, en la distribución de estadísticos, no todos los valores serán iguales al parámetro
poblacional.

Pero la media de los estadísticos debería ser aproximadamente igual al parámetro

- La media de todas las medias del mismo tamaño, el promedio, acierta con el parametro,
por tanto coincide/ muestra la realidad→MUESTRA INSESGADA

ESTIMADOR PUNTUAL: CONSISTENTE

Los estadísticos se acercan más al parámetro al aumentar el tamaño de la muestra.


La probabilidad de que el estadístico sea igual al parámetro se aproxima a 1, cuando n tiende a
infinito.

Estimadores consistentes→ los estadisticos se acercan al parametro poblacional cuando la


muestra es grande, hay menos variabilidad, estan mas cerca del parametro, se comporta mejor.
SOLO CON MUESTRAS ALEATORIAS.

Ley de los grandes números:

- La esperanza matemática del estimador media converge al parámetro al aumentar n.


- Y eso es así independiente-mente de la forma de la distribución de la variable cuya
media se calcula.
- Cuando las muestras son mas pequeñas hay mas variabilidad, y cuando son mas grandes
se acercan mucho mas al parametro poblacional.
- La reduccion del error (MENOS VARIABILIDAD) ocurre independientemente de como se
distribuye la variable en la poblacion, consige consistencia.

ESTIMADOR PUNTUAL: EFICIENTE


ESTADISTICA

No comparo conmigo mismo con otras medias mas grandes, sino que comparamos estimadores.
Un estimador que tiene menos error estándar que otro, no tiene tanta variabilidad en su
resultado, que son mucho mas efectivos, no tiene tanto margen de error.

Propiedad relativa, en comparación con otros estimadores insesgados.

ESTIMADOR PUNTUAL: ERROR CUADRÁTICO MEDIO

Para comparar estimadores sesgados, o un estimador sesgado con uno insesgado.

Si un estimador tiene mas sesg que otro, y a la vez mas eficiencia, se utiliza el ECM, y el que
tenga menos es mejor→ forma de buscar el equilibrio.

- ECM = Sesgo^2 + Var


- ECM(Media) = (80-80,05)^2 + 4,25 ≈ 4,25
- ECM(Semisuma) = (80-80,18)^2 + 24,15 ≈ 24,18

PREGUNTAS RESUMEN

Si un estimador es más eficiente que otro, entonces al extraer diferentes muestras al azar de la
misma población→ su valor (i.e., el estadístico) varía en menor medida.

- Cuando un estimador es mas eficiente que otro, para saberlos tenemos que observar la
variedad que hay en conjunto de todas las medias de las diferentes muestras que
recogemos, contra menos variedad haya mas eficacia habra en un estimador.

Si sabemos que el valor del estimador (i.e., el estadístico) obtenido en una muestra no es igual
al parámetro poblacional, entonces este estimador no es insesgado. ¿Verdadero o falso? →
Falso.

- Es dificil saber el parametro poblacional.


ESTADISTICA

Si nuestra muestra es la totalidad de la población, entonces el valor del estadístico→


necesariamente sería igual al valor del parámetro poblacional.

- La variancia es un estimador sesgado, si el promedio de las variacias no coincide con el


parametro poblacional, hay un error = sesgo.

Y eso ilustra el concepto de→ Consistencia.

- No todas las distribuciones mediales son normales, pueden ser asimetricas.


- ERROR ESTÁNDAR→ es la desviacion de variancia, media o proporcion.
DISTRIBUCION MUESTRAL

IDEAS INICIALES
TEORIA DEL LIMITE CENTRAL:
• A medida que aumentamos el tamaño de la muestra, la distribucion se empieza a
parecer a una normal, sobretodo cuando el tamaño de la muestra es grande→ se vuelve
normal = simetrica.
• Pasa para la media mediana proporcion y la variancia, de ahí va la obsesion por las
muestras grandes, porque si la funcion es normal, puedo extraer las proporciones
porque la conozco, sino no puedo, las supongo.
• Podmeos tener una muestra normal, independientemente de la distribucion de la
variable en la poblacion.
• ASINTOTICA→ cada vez se aproximan mas a la normal en funcion del crecimiento de la
variable, mejor representa el modelo la realidad.

EXISTE LA DISRTIBUCION MUESTRAL?

La distribución de los estadísticos (i.e., valores del estimador) en diferentes (muchísimas)


muestras del mismo tamaño.

La distribución muestral “existiría” porque en diferentes muestras aleatorias se obtendrían


diferentes estadísticos.

La distribución muestral no suele obtenerse en la realidad, al contar con una única muestra. La
distribución muestral se aproxima, bajo ciertos supuestos.

Hay una distribución muestral diferente para cada tamaño de la muestra (e.g., ver la propiedad
“consistencia”).
ESTADISTICA

Hay una distribución muestral diferente para cada estimador (e.g., ver la propiedad “eficiencia
relativa”).

- La distribucion que esta llena de medias→ si existe habria mas de una, porque
trabajariamos con muestras del mismo tamaño, y por tanto según el tamaño de la
muestra habran diferentes.
- Yo piedo aproximarla, en funcion de UNA sola muestra, y puedo imaginarme y
representar la distribucion muestral, como una normal,y son minimamente validas solo
si se muestran unos supuestos→ la muestra lo mas grande posible…
- Muestra mas grande→ menos error estándar→ mas consistencia.
- Ni existe una unica distr muestr, ni la obtenemos la suponemos y la representamos.
- Es un modelo que intentamos representar, a partir de una media.

DE QUE SIRVE LA DISTRIBUCION MUESTRAL?


Escoger estimadores puntuales con mejores propiedades: Ha de ser insesgado, consistente y
que sea mas eficiente que el otro→ necesito la idea de distribucion muestral para comprobar
estas tres conceptos.

¿Cómo estimar la tendencia central de la ansiedad ante las matemáticas en la población de


estudiantes?

Hace posible la estimación por intervalo del parámetro poblacional:

¿Cuál es el rango de valores más plausibles para la ansiedad ante las matemáticas
promedio en la población de estudiantes?

- Estimacion por intervalo


o Es mas dificil que la puntual.
o Rango de valores apusibles, si el intervalo es muy ancho, no tienes idea de por
donde esta, y si es mas estrevho ya entiendes y sabes por donde se ubica.

INDICES DE TENDENCIA MUESTRAL


MEDIA: MUESTRAS GRANDES

- Para el estimador media, la distribución muestral se aproxima a una normal, cuanto más
grande sea el tamaño de la muestra n.
- … y esto es así, incluso si la variable aleatoria (e.g., sMARS) no fuera normal en la
población (e.g., uniforme).
ESTADISTICA

MEDIA: MUESTRAS PEQUEÑAS

- Para el estimador media, la distribución muestral se aproxima a


una normal, incluso si la muestra es pequeña, siempre y cuando la
variable aleatoria (e.g., sMARS) se distribuya normalmente en la
población.

𝐸(𝑥̅ ) = 𝜇𝑥̅
𝜎
𝜎𝑥̅ =
MEDIANA: MUESTRAS GRANDES
√𝑛

- La distribución muestral de la mediana se aproxima a la normal, al


aumentar n (mín. 30)

1,2533𝜎
𝜎𝑀𝑑 = 𝐸 (𝑀𝑑 ) = 𝜇𝑀𝑑
√𝑛

PROPORCIÓN

MUESTRAS GRANDES:

- La distribución muestral de la proporción se aproxima a la normal, al aumentar n [𝑛𝜋 ≥


5, 𝑛(1 − 𝜋) ≥ 5 ], incluso si la variable aleatoria (e.g., sMARS) no fuera normal en la
población (e.g., uniforme).
𝜋 (1−𝜋 )
- 𝐸(𝑝) = 𝜇𝑝 𝜎𝑝 = √ 𝑛

INDICES DE DISPERSION

DESVIACION ESTANDAR

- La distribución muestral de la desviación típica se aproxima a la normal, al aumentar n


(mín. 100)
𝜎
- 𝐸(𝑠) = 𝜇𝑠 𝑠𝑖 𝑙𝑎 𝑣𝑎𝑟𝑖𝑎𝑏𝑙𝑒 𝑒𝑠 𝑛𝑜𝑟𝑚𝑎𝑙: 𝜎𝑠 = 2𝑛

𝜇4 −(𝜇2 )2
- 𝑠𝑖 𝑙𝑎 𝑣𝑎𝑟𝑖𝑎𝑏𝑙𝑒𝑠 𝑁𝑂 𝑒𝑠 𝑛𝑜𝑟𝑚𝑎𝑙: 𝜎𝑠 =
√4𝑛𝜇2
ESTADISTICA

VARIANCIA: MUESTRAS GRANDES

- La distribución muestral de la variancia se aproxima a la normal, al aumentar n (mín.


100).
𝜎 2 (𝑛−1) 2
- 𝐸(𝑠 2 ) = 𝑛
𝑠𝑖 𝑙𝑎 𝑣𝑎𝑟𝑖𝑎𝑏𝑙𝑒 𝑒𝑠 𝑛𝑜𝑟𝑚𝑎𝑙: 𝜎𝑠2 = 𝜎 2 √𝑛
𝜇4 −(𝜇2 )2
- 𝑠𝑖 𝑙𝑎 𝑣𝑎𝑟𝑖𝑎𝑏𝑙𝑒 𝑁𝑂 𝑒𝑠 𝑛𝑜𝑟𝑚𝑎𝑙: 𝜎𝑠2 = √ 𝑛

VARIANCIA: VARIABLE NORMAL

- Independientemente de n, si la variable
aleatoria (e.g., sMARS) se distribuye
normalmente en la población, una
transformación de la variancia sigue la
distribución ji-cuadrado.

COEFICIENTE DE VARIACION: CONDICIONES

- La distribución muestral del coeficiente de variación se


aproxima a la normal, al aumentar n (mín. 100), si la
variable aleatoria (e.g., sMARS) se distribuye
normalmente.
- 𝐸(𝐶𝑉) = 𝜎⁄𝜇
𝜎 ⁄𝜇
- 𝜎𝐶𝑉 = √1 + 2(𝜎⁄𝜇)2
√2𝑛

RESUMEN

¿La distribución de cualquier estimador es normal?

- No, solo de algunos (e.g., los que incluyen medias, sumas)

¿Todas las distribuciones muestrales son normales?

- Es una pregunta equivalente al anterior: No.

¿La distribución de la media siempre es normal?

- No, solo bajo determinadas condiciones (tamaño muestral o distribución normal de la


variable de interés).

¿Las condiciones se cumplirán siempre?

- Deberían cumplirse siempre que queramos utilizar la aproximación a la normalidad,


pero no necesariamente se cumplirán siempre.

¿Todas las distribuciones muestrales normales son unitarias (Z)?


ESTADISTICA

- No: se han mostrado fórmulas diferentes para los parámetros 𝜇 y 𝜎.

LEY DE GRANDES NUMEROS vs TLC: PREGUNTAS

Según la Ley de los grandes números, la proporción de Aprobados (vs. Suspensos) en la


asignatura aproximará 0,5 al aumentar el tamaño a la muestra. ¿V/F?

- Falso, puesto que 0,5 no tiene por qué ser el parámetro poblacional.

Según el Teorema del Límite Central, la distribución muestral de la proporción de Aprobados


(vs. Suspensos) en la asignatura se aproximará a la normal si el tamaño muestral es elevado.
¿V/F?

- Verdadero.

¿Podemos modelar la media de la edad de l@s estudiantes de primer curso de Psicología


mediante una distribución normal?

- Solo si la muestra es grande (Teorema del límite central), al no ser la edad de l@s
estudiantes de primer curso de Psicología una variable distribuida normalmente en la
población.

Si en la población de estudiantes de Psicología, la proporción de personas que escogieron la


carrera en primera opción es 0,75, entonces en la muestra…

- No sabemos qué valor se obtendría, pero el valor ser acercaría a 0,75 cuanto mayor sea
el tamaño muestral (Ley de los grandes números).

PROCEDIMIENTO DE REMUESTREO: BOOTSTRAP

1. Seleccionar una muestra de n valores: se supone representativa (una miniatura) de la


población.
2. Seleccionar B (unas 5000) muestras de n valores, a partir de los n valores iniciales, con
reposición (cada valor inicial puede aparecer entre 0 y n veces).
3. Calcular el estadístico para cada una de las B muestras: se obtiene la distribución
muestral estimada mediante bootstrap.
4. Calcular la media y la desviación típica de dicha distribución, o los percentiles 2,5 y 97,5
para una estimación por intervalo.

Remuestreo con reposicion→ si a una persona la


psiciono y coge su valor, la devuelvo y la vuelvo a
escoger. Cada valor se puede repetri tantas veces
como personas hay en la muestra.

Me monto mi propia distribucion no la busco a


partir de ningun modelo, la saco a partir de nuestros
propios datos.
INFERENCIA, ESTIMACION, INCERTIDUMBRE
ENFOQUE CLASICO (FRECUENTISTA)
ESTADISTICA

- La incertidumbre a la hora de estimar un parámetro poblacional (e.g., media del nivel de


felicidad) a partir de los datos muestrales se expresa valorando la distribución muestral
del estimador (e.g., media) en infinitas muestras posibles.

- En realidad, se obtiene una única muestra. La distribución muestral se aproxima


mediante un modelo matemático (e.g., distribución normal), dependiendo de que se
cumplan ciertos supuestos (e.g., muestra grande).

- Estimaciones asintóticas: se acercan al parámetro poblacional cuanto más grande sea la


muestra (i.e., consistencia).

- La inferencia (e.g., intervalos de confianza, decisión estadística a partir de p-valores)


contempla lo que se espera que pase si se extrajeran infinitas muestras.

- Ejemplo de construcción de intervalos de


confianza:

▪ Siendo (1−𝛼) el nivel de confianza, el


100(1−𝛼)% de los intervalos de confianza
construidos para las muestras aleatorias
seleccionadas de la población contendrían
el valor del parámetro poblacional…

- Ejemplo de decisión estadística: 1- P

▪ En función de la probabilidad de encontrar


Probabilidad
un valor tanto o más alejado del valor asociada al
estadístico (P)
establecido en la hipótesis nula y en
función del riesgo 𝛼 pre-fijado.
d
▪ La probabilidad proviene de una
distribución muestral que aproxima la
distribución del estadístico si se cumplen Valor del parámetro Valor del estadístico
establecido en la obtenido en la
determinados supuestos (e.g., distribución hipótesis nula muestra

normal de la variable).
▪ La probabilidad representa la proporción de estadísticos que se espera
encontrar a una distancia igual o superior a d, si se extrajeran infinitas muestras
de la población descrita en la hipótesis nula.

PRUEBAS DE PERMUTACION
Idea:

- Construir, a partir de los datos obtenidos y siguiendo la lógica del diseño utilizado, la
distribución de referencia a partir de la cuál se obtendrá la probabilidad asociada al
estadístico de contraste.
- Evitar la necesidad de referirse a una distribución teórica (e.g., t, F, normal)

Características:

- Bajo la hipótesis nula de ausencia de relación, todas las permutaciones (o arreglos de


datos) son igualmente probables (y la obtenida es simplemente una de ellas).
- Diferentes permutaciones / combinaciones en función del diseño (e.g., hay 10!/
5! 5! maneras de dividir 10 datos en dos grupos de 5, pero hay 25 maneras de permutar
los datos dentro de 5 parejas)
ESTADISTICA

- El p-valor es la proporción de valores del estadístico obtenidos en las diferentes


permutaciones que sean iguales o más extremos (según si el contraste es unilateral o
bilateral) que el valor obtenido para la partición real de los datos.

Ventajas:

- Mas apropiadas para muestras pequeñas o al no cumplirse los supuestos paramétricos


(incl. normalidad, homoscedasticidad, muestreo aleatorio).
- Pueden dar lugar a probabilidades exactas (en cambio, las probabilidades basadas en
resultados asintóticos son aproximadas).
- El grado en que un resultado es extremo / raro puede valorar de una manera más
intuitiva atendiendo a permutaciones de los datos disponibles, en comparación con la
necesidad de imaginarse múltiples muestras que permitan la construcción de una
distribución muestral clásica.
- Considerados como el gold standard para valorar si los resultados de las aproximaciones
asintóticas (i.e., distribuciones muestrales teóricas) son correctas.
- Aplicable a diferentes tipos de diseños (e.g., comparación de grupos independientes o
emparejados; medidas repetidas) y diferentes tipos de análisis o estadísticos de
contraste (pruebas t, análisis de la variancia; pruebas no paramétricas).
- Posibilidad de construir intervalos de confianza a través de la inversión de la prueba
(e.g., al restar la diferencia observada entre intervenid@s y no intervenid@s, de todos
los valores del grupo intervenido, obtener el rango de valores de la diferencia para el
cual la hipótesis nula no se rechazaría).
- Posibilidad de tratar directamente con los valores perdidos (missing data) a través de
un marcador que se permuta como si fuera un valor observado.

Inconvenientes:

- Necesidad de software especializado para listar todas las permutaciones posibles.


- En algunos casos la totalidad de permutaciones (arreglos de datos posibles) puede ser
difícil de listar o excesivamente grande. Hace necesario el uso del procedimiento Monte
Carlo (e.g., trabajar con una muestra de 10,000 permutaciones) para aproximar la
probabilidad exacta.
- Necesidad de asignación aleatoria para asegurar (bajo la hipótesis nula) la
intercambiabilidad de los datos entre las diferentes condiciones.

EJEMPLO DE PRUEBA DE RELACION


ESTADISTICA

BOOTSTRAP

REMUESTREO CON REPOSICIÓN


Simula el proceso de muestreo, al seleccionar múltiples muestras (e.g., 5000) a partir de la
información contenida en los datos empíricos de la única muestra con que se trabaja.

Bootstrap paramétrico: si se conoce el modelo de probabilidad que describe adecuadamente la


variable y sus parámetros se estiman a partir de la muestra, para posteriormente realizar
simulaciones

Bootstrap no paramétrico: se trabaja directamente con los valores obtenidos, como si


representaran a toda la población.

Usos:

- Estimar (y corregir) el sesgo de un estimador


- Estimar el error estándar de un estimador y gracias a ello construir un intervalo de
confianza o tomar una decisión estadística
- Construir un intervalo de confianza a partir de los percentiles (e.g., 2,5 y 97,5) de la
distribución bootstrap

Ventajas:

- Aplicable a cualquier tipo de estimador, incluyendo estimadores para los cuales la


distribución muestral no se ha aproximado mediante un modelo de probabilidad
conocido y estimadores para los cuales sí existe una aproximación pero los supuestos
necesarios para utilizarla no se cumplen.
- No implica supuestos sobre la distribución de la variable o del estimador.
- Aplicable incluso a residuales (e.g., en el análisis de la regresión) y no solo a datos.

Inconvenientes:

- Es necesario que la muestra sea representativa de la población.


- Funciona mejor con muestras grandes.
- Requiere uso de software para llevar a cabo el remuestreo.
ESTADISTICA

ESTIMACIÓN BAYESIANA

IDEA
Concepto de probabilidad→ La experiencia subjetiva de la incertidumbre. Se ve reflejada en las
creencias iniciales (basadas en la evidencia empírica disponible).

Probabilidad frecuentista→ frecuencia relativa en la que ocurre un evento de interés, a la larga


(después de muchas replicaciones equivalentes del estudio y de muchas muestras aleatorias de
la misma población).

El parámetro poblacional→ se considera una variable, con su distribución que refleja la


incertidumbre.

- El parámetro desde la perspectiva frecuentista es fijo, no varía.

ELEMENTOS
Conocimiento existente o creencias, expresados como información previa (i.e., modelo de
probabilidad con cierta media y precisión según el grado de confianza en dicho conocimiento).
Si hay poca base, se puede utilizar un prior poco informativo (e.g., uniforme o normal con
variancia grande).

Datos empíricos obtenidos en una muestra: resumidos mediante una función de probabilidad
que representa la probabilidad de los datos obtenidos, dados ciertos parámetros.

Distribución posterior que combina el conocimiento previo y los datos empíricos: conocimiento
actualizado. Se aproxima mediante simulación.

¿Qué HACE?
La probabilidad posterior combina (i.e., es un compromiso entre) la distribución previa (creencia
inicial) los datos (i.e., la función de probabilidad / verosimilitud).

Esta combinación se acerca a la distribución previa cuanto menos variable y más leptocúrtica sea
y cuantos menos datos haya. Si la creencia previa es fuerte (pocos valores con mucha
probabilidad), es difícil cambiarla (i.e., hacen falta muchos datos).

La combinación se acerca más a los datos, cuanto más platicúrtica y variable (no informativa) sea
la distribución previa y cuantos más datos haya disponibles. Si la creencia previa es débil (muchos
valores igualmente probables), incluso con pocos datos se puede cambiar.

¿Qué DICE?
No estima de forma puntual el parámetro poblacional + estimación del error estándar de la
estimación puntual (enfoque frecuentista).

El parámetro se estima como una distribución. Cada valor de esta distribución se puede asociar
a una probabilidad. Esto permite obtener intervalos de credibilidad que informan de la
probabilidad de que el valor del parámetro poblacional esté comprendido entre un intervalo de
valores (algo que el intervalo de confianza frecuentista no hace).

La probabilidad / distribución posterior informa sobre qué parámetros son menos malos que
otros.
ESTADISTICA

No informa si los parámetros menos malos de hecho son buenos. Para esto se necesita una
comprobación posterior (“posterior predictive check”): explorar patrones en datos simulados
según los valores posteriores típicos.

Si los valores de los parámetros son buenos, entonces los datos simulados (según estos
parámetros) se parecerían a los datos realmente obtenidos.

PROBABILIDAD CONDICIONADA
Probabilidad previa de que la hipótesis nula sea cierta y su efecto en la probabilidad posterior
de que la hipótesis nula sea falsa,

- habiéndose observado un resultado “estadísticamente significativo” (𝑝 ≤ 0,05).

- partiendo de una potencia estadística (1 − 𝛽 = 0,80),

- y un nivel de significación nominal (𝛼 = 0,05)

LA REGLA DE BAYES
La información que tenemos y la que queremos.

ESTIMACIÓN BAYESIANA
Formalmente:

- Conocimiento previo resumido en una función de densidad para el parámetro de interés,


𝑝(𝜃). Si el prior es no informativo (e.g., uniforme) se le llama “objetivo”; si es informativo
se le llama “subjetivo”.
- Datos empíricos, resumidos como una probabilidad de los datos, dado el valor del
parámetro especificado: 𝑝(𝑦|𝜃).
- Distribución posterior, que se expresa como una función de densidad: 𝑝(𝜃|𝑦).
𝑝(𝑦|𝜃 )×𝑝(𝜃)
- Lo que se desprende del teorema de Bayes: 𝑝(𝜃|𝑦) = 𝑝(𝑦)

Se puede realizar un análisis de la “sensibilidad” de los resultados / conclusiones a diferentes


priors.

Al seleccionar muestras iterativamente de la distribución posterior, se estiman sus momentos y


cuantilas.

La distribución posterior: lo habitual es aproximarla mediante MCMC (Markov chain Monte


Carlo), obteniendo múltiples muestras de dicha distribución, al no ser una solución analítica
posible (e.g., Metropolis method, Gibbs sampling)

De la distribución de valores muestreados / generados, se estima su tendencia central y el


intervalo de más alta densidad (i.e., intervalo de credibilidad).
ESTADISTICA

Factor Bayesiano:

- hasta qué punto los datos empíricos encajan mejor con una de
las hipótesis
- Es la razón de la densidad correspondiente al tamaño del efecto
observado (0,4) bajo la hipótesis alternativa (diferencia=0,5) vs.
la hipótesis nula (diferencia = 0).
- En el ejemplo: 0,21/0,04 = 5,25 a favor de la hipótesis alternativa.
El resultado obtenido es 5 veces más probable bajo la hipótesis
alternativa.

Inconvenientes:

- Dificultad de definir la distribución previa. Si hay falta de acuerdo, el análisis se puede


llevar a cabo con priors diferentes y comprobar hasta qué punto se parecen las
distribuciones posteriores. También la distribución previa podría ser una mezcla de
priors diferentes.
- Impacto de la distribución previa en los resultados finales. Posibilidad de llevar a cabo
análisis de la sensibilidad a la distribución previa (i.e., si tiene impacto), aunque esto
implica otra complicación para el análisis.
- Complejidad para entender completamente el procedimiento que se sigue para
representar la distribución posterior.
- Necesidad de software especializado para llevar a cabo las simulaciones que se
requieren (y también valorar la convergencia de los resultados).

TEMA 2: ESTIMACIÓN ESTADÍSTICA

INTERVALO DE PROBABILIDAD

IDEA PRINCIPAL
Predicción: Conociendo la distribución muestral, podemos decir algo sobre lo que se espera
obtener en la muestra al extraerla aleatoriamente de una población con características
conocidas

▪ Hay que asegurarse de que la distribución muestral del estimador se puede aproximar
a un modelo (e.g., normal).
▪ Se establece un nivel de probabilidad: 1 – alfa.
ESTADISTICA

▪ Se puede construir un intervalo de valores que contendrá al estadístico (i.e., valor del
estimador, como por ejemplo la media) con una probabilidad igual a 1 – alfa.
Complementariamente, alfa es la probabilidad de que el estadístico esté fuera del
intervalo.

REPRESENTACION GRAFICA

Siendo la distribución poblacional de la variable sMARS


N(65.09,16.51), y la distribución muestral de la media N(65.1,
2.34), con una probabilidad de 0.95 el estadístico media en una
muestra de tamaño n=50 estará comprendido en el intervalo
(60.51, 69.69)

Con una probabilidad de 0,95 el estadístico media en una


muestra estará comprendido en el intervalo (60.51, 69.69) =

El 95% de los estadísticos calculados en muestras aleatorias del


mismo tamaño 50 estarían dentro del intervalo.

CONCEPTOS CLAVE
Probabilidades:

- alfa (𝛼): probabilidad de que un estadístico esté fuera del intervalo


- (1 − 𝛼): probabilidad de que un estadístico esté dentro del intervalo

Margen de error (lo inverso a la precisión):

- La semi-anchura del intervalo de probabilidad


- Es función del grado de probabilidad 𝛼 y del error estándar del estimador (i.e., la
desviación estándar de su distribución muestral). A su vez, el error estándar es función
del tamaño de la muestra, n.

✓ A mayor probabilidad (1 − 𝛼), menor precisión (intervalo más ancho)

✓ A mayor tamaño muestral n, mayor precisión (intervalo más estrecho)

USOS DEL INTERVALO DE PROBABILIDAD


Prediccion por intervalo del estadistico→ entre qie valores estaria comprendido, con una
probabilidad (1-alfa).
ESTADISTICA

Base para la estimacion por intervalo→ calculo parecido, pero a partir de datos de la muestra,
se infiere sobre la poblacion.

Grafico de control→ esta el proceso bajo control.

CAULCULOS: MEDIA
Si la variable sMARS se distribuye normalmente en la población N(65.09,16.51)…

Incluso para una muestra no excesivamente grande (n=50), suponiendo muestreo con reposición
o población infinita

Los límites intervalo de probabilidad para la media se pueden obtener utilizando


𝜎 𝜎
𝜇𝑖 = 𝜇𝑥̅ − e = 𝜇𝑥̅ − 𝑍𝛼⁄2 𝜎𝑥̅ = 𝜇𝑥̅ − 𝑍𝛼⁄2 𝜇𝑠 = 𝜇𝑥̅ + e = 𝜇𝑥̅ + 𝑍𝛼⁄2 𝜎𝑥̅ = 𝜇𝑥̅ + 𝑍𝛼⁄2
√𝑛 √𝑛

Si la variable sMARS se distribuye normalmente en la población N(65.09,16.51)…

Incluso para una muestra no excesivamente grande (n=50), suponiendo muestreo sin reposición
de una población de N=425.

Los límites intervalo de probabilidad para la media se pueden obtener utilizando

𝜎 𝑁−𝑛 𝜎 𝑁−𝑛
𝜇𝑖 = 𝜇𝑥̅ − 𝑍𝛼⁄2 √ 𝜇𝑠 = 𝜇𝑥̅ + 𝑍𝛼⁄2 √
√𝑛 𝑛 − 1 √𝑛 𝑛 − 1

Si la variable sMARS no se distribuye normalmente en la población

…pero la muestra es grande (e.g., n=100), suponiendo muestreo con reposición

Los límites intervalo de probabilidad para la media se pueden obtener utilizando


𝜎 𝜎
𝜇𝑖 = 𝜇𝑥̅ − e = 𝜇𝑥̅ − 𝑍𝛼⁄2 𝜎𝑥̅ = 𝜇𝑥̅ − 𝑍𝛼⁄2 𝜇𝑠 = 𝜇𝑥̅ + e = 𝜇𝑥̅ + 𝑍𝛼⁄2 𝜎𝑥̅ = 𝜇𝑥̅ + 𝑍𝛼⁄2
√𝑛 √𝑛
ESTADISTICA

Intervalo más preciso, debido a n más grande (y error estándar más pequeño)

Aparte de que la semi-anchura del intervalo depende del tamaño de la muestra (que incide en
el error estándar), esta anchura también varía en función del nivel de probabilidad escogido
𝜎 𝜎
𝜇𝑖 = 𝜇𝑥̅ − e = 𝜇𝑥̅ − 𝑍𝛼⁄2 𝜎𝑥̅ = 𝜇𝑥̅ − 𝑍𝛼⁄2 𝜇𝑠 = 𝜇𝑥̅ + e = 𝜇𝑥̅ + 𝑍𝛼⁄2 𝜎𝑥̅ = 𝜇𝑥̅ + 𝑍𝛼⁄2
√𝑛 √𝑛
CALCULOS: PROPORCION
Independientemente de si la variable es normal o no en la población, la distribución muestral se
aproxima a la normal si n𝜋 ≥ 5 y n(1 − 𝜋) ≥ 5

Suponiendo muestreo con reposición o población infinita

Los límites intervalo de probabilidad para la proporción se pueden obtener utilizando

𝜋(1 − 𝜋)
𝑝𝑖 = 𝜇𝑝 − e = 𝜇𝑝 − 𝑍𝛼⁄2 𝜎𝑝 = 𝜇𝑝 − 𝑍𝛼⁄2 √
𝑛

𝜋(1 − 𝜋)
𝑝𝑠 = 𝜇𝑝 + e = 𝜇𝑝 + 𝑍𝛼⁄2 𝜎𝑝 = 𝜇𝑝 + 𝑍𝛼⁄2 √
𝑛

APLICACIONES: GRAFICO DE CONTROL

GRAFICO DE CONTROL: LO DESADO


Al observar la fabricación de algún producto, se parte de una característica deseada (i.e., el valor
nominal), por ejemplo un helado de 100 gramos.

No todos los helados serán de 100 gramos.

En un día concreto, la media de todos los helados tampoco será de exactamente 100 gramos.

Las fluctuaciones en los gramos pueden deberse a factores aleatorios o sistemáticos (i.e., causas
asignables - e.g., deseo de engañar, por parte de la empresa, o maquinaria defectuosa).

GRAFICO DE CONTROL: LO TOLERABLE


Puesto que no todos los helados serán de 100 gramos + en un día concreto, la media de todos
los helados tampoco será de exactamente 100 gramos.

Se establece un intervalo de tolerancia que marca la variabilidad que se


considera “normal”.

El intervalo se suele basar en ±𝟑𝝈 del valor nominal

Una regla posible: Dos o más valores consecutivos, fuera del intervalo de
tolerancia marcan un proceso fuera de control… aparte de buscar patrones
en los datos, incluso dentro de los límites
ESTADISTICA

GRAFICO DE CONTROL: PROPORCION


Valor nominal→ Mínimo 50% de los helados han de ser de mínimo 100 gramos cada día

Muestras de 100 helados al día

GRAFICO DE CONTROL: MEDIA


Valor nominal→ Mínimo 100 gramos de media por día

Muestras de 100 helados al día

INTERVALO DE CONFIANZA

EJEMPLO
Método: Instrumento

▪ Según Núñez-Peña, Suárez-Pellicioni, Guilera, & Mercadé-Carranza (2013), para la


puntuación total del instrumento denominado sMARS que mide la ansiedad ante las
matemáticas, la media es 65,09 y la desviación estándar 16,91.

▪ ¡Estos son los parámetros de la distribución de la variable (sMARS), no de la distribución


muestral de la media!

IDEA PRINCIPAL
Intervalo de probabilidad:

- POBLACION → MUESTRA
▪ Predicción por intervalo del estadístico (valor del estimador)

Intervalo de confianza:

- MUESTRA→ POBLACION
▪ Estimación por intervalo del parámetro poblacional

CONCEPTOS CLAVE
Nivel de confianza de que el parámetro poblacional estaría incluido en el intervalo construido a
partir de los datos muestrales (1 − 𝛼). Valores habituales: 90 % (𝛼 = 0,10), 95 % (𝛼 = 0,05) y
99 % (𝛼 = 0,01).

Margen de error (lo inverso a la precisión):

- La semi-anchura del intervalo de confianza


- Es función del nivel de confianza (1 − 𝛼) y del error estándar del estimador (i.e., la
desviación estándar de su distribución muestral). A su vez, el error estándar es función
del tamaño de la muestra, n.

✓ A mayor confianza (1 − 𝛼), menor precisión (intervalo más ancho)

✓ A mayor tamaño muestral n, mayor precisión (intervalo más estrecho)

Consistencia→ se acercan cada vez mas todos los estadisticos de todas las muestras que se
pueden sacar; margen de error mjy pequeño, se parece mucho al parametro poblacional.
ESTADISTICA

Intervalo de probabilidad vs. Confianza: LO QUE SÍ CAMBIA Y LO QUE NO


Cambia: (1 − 𝛼) es el grado de confianza, no de probabilidad

Igual: Si (1 − 𝛼) es más grande, el intervalo será más ancho (menos preciso)

Cambia: se trabaja con una única muestra y se desconocen las características de la población

Igual: Si la muestra es más grande, el intervalo será más estrecho

Igual: El margen de error depende de 𝛼 y de n

Igual: Se requiere conocer la distribución de la variable aleatoria (e.g., sMARS) o muestra grande
para suponer que la distribución muestral del estimador se aproxima a un modelo de
probabilidad conocido.

INTERPRETACIÓN
Interpretación del intervalo de probabilidad→ el intervalo contendrá el valor del estimador (i.e.,
el estadístico) con una probabilidad de (1 − 𝛼)%.

Interpretación del intervalo de probabilidad→ en (1 − 𝛼)% de las muestras aleatorias


seleccionadas de la población, el valor del estimador (i.e., el estadístico) estará dentro del
intervalo de probabilidad.

Interpretación del intervalo de confianza→ el (1 − 𝛼)% de los intervalos de confianza


construidos para las muestras aleatorias seleccionadas de la población contendrían el valor del
parámetro poblacional.

¡Cuidado!: Sólo se selecciona una muestra y su intervalo de confianza contiene o no


(¡desconocido!) el valor del parámetro.

¡Cuidado!: A veces se dice que con una confianza del (1 − 𝛼)%, el parámetro poblacional
oscilará entre los límites, pero de hecho el parámetro no oscila: en un momento dado, es un
valor fijo

Interpretación alternativa del intervalo de confianza→ rango de valores plausibles para el


parámetro poblacional.

INTERPRETACION: GRAFICAMENTE
Interpretación del intervalo de confianza→ el (1 − 𝛼)% de los intervalos de confianza
construidos para las muestras aleatorias seleccionadas de la población contendrían el valor del
parámetro poblacional…

Los intervalos de confianza que contengan el parámetro deberían ser aproximadamente 95 de


cada 100 muestras, si 𝛼 = 0,05.
ESTADISTICA

Si la desviacion estandar es diferente por cada muestra, va a tener diferentes intervalos y


anchuras.

INTERVALO DE CONFIANZA: PROPORCION

Para población finita añadir : 𝑁−𝑛



𝑛−1

Ahora se trabaja con estimaciones:


𝑝(1 − 𝑝) 𝑝(1 − 𝑝)
𝑝𝑠 = 𝜇̂ 𝑝 + 𝑍𝛼⁄2 𝜎̂𝑝 = 𝑝 + 𝑍𝛼⁄2 √ 𝑝𝑖 = 𝜇̂ 𝑝 + 𝑍𝛼⁄2 𝜎̂𝑝 = 𝑝 − 𝑍𝛼⁄2 √
𝑛 𝑛

- Sera normal cuando la n sea grande |Lo verde es el nivel de confianza.


Condiciones de aplicación:

- n𝑝𝑖 ≥ 5
- n(1 − 𝑝𝑖 ) ≥ 5
- n𝑝𝑠 ≥ 5
- n(1 − 𝑝𝑠 ) ≥ 5
INTERVALO DE CONFIANZA: MEDIA
𝑁−𝑛
Para poblacion finita añadir: √
𝑛−1

Ahora de trabaja con estimaciones:


𝜎 𝜎
𝜇̂ 𝑖 = 𝜇̂ 𝑥̅ − 𝑍𝛼⁄2 𝜎̂𝑥̅ = 𝑥̅ − 𝑍𝛼⁄2 𝜇̂ 𝑠 = 𝜇̂ 𝑥̅ − 𝑍𝛼⁄2 𝜎̂𝑥̅ = 𝑥̅ + 𝑍𝛼⁄2
√𝑛 √𝑛

Condiciones de aplicación:

- Variancia poblacional 𝜎 2 conocida y


- Muestra grande o
- Variable (e.g., sMARS) distribuida normalmente en la población

Cambio: se aproxima a la normal, al crecer la n.


ESTADISTICA

𝜎̂
𝜇̂ 𝑖 = 𝜇̂ 𝑥̅ − 𝑡(𝜈),𝛼⁄2 𝜎̂𝑥̅ = 𝑥̅ − 𝑡(𝜈),𝛼⁄2
√𝑛

Trabajamos con t cuando hacemos cálculos o probabilidades estimadas.

Muestra pequeña y Variable (e.g., sMARS) distribuida N en la población


𝜎̂
𝑥̅ ± 𝑡(𝜈),𝛼⁄2
√𝑛
DETERMINACION DEL TAMAÑO DE LA MUESTRA

DETERMINAR EL TAMAÑO: GENERAL


El tamaño de la muestra necesario depende de:

- La confianza (𝟏 − 𝜶) que se desea tener:  confianza (que el parametro poblacional


entre en el intervalo),  mayor tamaño muestral n

- El grado de precisión que se desea tener :  precisión (i.e., menor anchura del
intervalo),  tamaño muestral n.

▪ En la fórmula se especifica la falta de precisión: e que representa la semi-


anchura del intervalo y se expresa en las mismas unidades de medida que el
parámetro que se desea estimar (e.g., media del peso de helados en gramos,
proporción de personas satisfechas en el habitual rango de 0 a 1)

▪ ¿Se mide en lo mismo que se mide la variable--> cuantos gramos pesa?


E=gramos; ¿cuántos cigarros se fuma la gente? E=cigarros.
▪ e es como un margen de error.

- El parámetro que se desea estimar: diferentes fórmulas (según el error estándar del
estimador)→ media o proporcion.

DETERMINAR EL TAMAÑO: PRECISION

DETERMINAR EL TAMAÑO: PROPORCION


Para una población infinita o muestreo con reposición (no se el tamaño de la poblacion)
𝜋(1−𝜋)𝑍𝛼2⁄2
- 𝑛= 𝑒2
ESTADISTICA

Para una población finita, con tamaño N (se conoce el tamaño de la poblacion por eso se añade
N, porque se EXACTAMENTE la gente que hay; contra mas pequeña la poblacion, menos muestra
necesito)
𝑁𝜋(1−𝜋)𝑍2⁄𝛼 2
- 𝑛 = 𝑒 2 (𝑁−1)+𝜋(1−𝜋)𝑍 2
𝛼 ⁄2

Para una población infinita o muestreo con reposición: en caso de falta de información sobre 𝜋
(¡el parámetro que se desea estimar!), se opta por maximizar el tamaño muestral, utilizando 𝜋 =
0,5 que lleva al mayor producto 𝜋(1 − 𝜋).

- 𝜋(1 − 𝜋)𝑍𝛼2⁄2
𝑛=
𝑒2

¿CUMPLE EL INTERVALO?: PROPORCION


Se requería incluir el parámetro 95% de las veces y tener un margen de error de 0,05, como
mucho.

Cojo muchas muestras de ese tamaño, con un nivel ce confianza de 95% →el 95% de estas
muestras deberían incluir el parametro poblacional.

Que los intervalos tengan una semianchura de 0,05→ no hay ninguna semianchura que sea
superior a 0.05, según el diagrama de caja.

Por tanto, es verdad que con 385 personas puede conseguir estas premisas.

DETERMINAR EL TAMAÑO: MEDIA


Para una población infinita o muestreo con reposición

𝜎 2 𝑍𝛼2⁄2
𝑛=
𝑒2
Para una población finita, con tamaño N

𝑁𝜎 2 𝑍𝛼2⁄2
𝑛=
𝑒 2 (𝑁 − 1) + 𝜎 2 𝑍𝛼2⁄2

Cuanto más pequeña sea la poblacion menos muestra voy a necesitar.

Para una población infinita o muestreo con reposición: en caso de falta de información sobre
𝜎, hipotetizamos que su valor es igual a 20.
ESTADISTICA

𝜎 2 𝑍𝛼2⁄2
𝑛=
𝑒2
¿CUMPLE EL INTERVALO?: MEDIA
Suponiendo que la desviación estándar de la población fuera 20.

Se requería incluir el parámetro 95% de las veces y tener un margen de error de 7 puntos, como
mucho.

95% de los intervalos tiene que incluir el parametro poblacional→ LO HE CUMPLIDO CON UN
97% → nivel de confianza cumplido.

Semianchura como mucho de 7→ ninguna anchura la supera, en el diagrama de cajas, por tanto
es verdad.

En este caso he acetado suponiendo la variancia→ 20.

Suponiendo incorrectamente que la desviación estándar de la población fuera 8 (cuando de


hecho es 20): ¿inclusión del 95% y semi-anchura de un máximo de 7 puntos?

En este caso supongo que son 8→no consigo que se cumpla nada.

Con la proporcion pasa lo mismo→ si me equivoco en la aproximacion de la pi, la cago, pero


como tengo la aproximacion del 0,5, me asegura que no pase.

Por eso debemos tener una idea de lo que estamos haciendo.


ESTADISTICA

TEMA 3: DECISIÓN ESTADÍSTICA

CONCEPTOS PRELIMINARES

FLUCTUACION ALEATORIA
Cada muestra contiene solo una parte de los datos de la población

En diferentes muestras se obtendrían diferentes estimaciones del parámetro; Cada vez que
extraigo una muestra, obtengo un valor diferente (e.g., media; diferencia de medias): error
muestral

Dos grupos (e.g., hombres y mujeres) pueden no tener medias muestrales iguales (e.g., 𝑥̅ en
sMARS) solo debido al azar, incluso si las medias poblacionales 𝜇 son iguales.

Puede que haya diferencias en mi muestra que no son poblacionales, porque es solo una
pequeña parte de la poblacion general. A nivel poblacional se dirá que no hay diferencias,
independientemente que en la muestra si haya.

Si de verdad a nivel poblacional cual probabilidad es obtener a nivel muestral esta diferencia
que he obtenido u otra más grande.

AZAR, PROBABILIDAD, DECISIÓN


¿Cuán probable (p-valor) es que una diferencia tan grande como la que se ha observado en la
muestra (o incluso mayor) ocurra solo al azar (Ho)?

¿Cuán probable (p-valor) es que una diferencia tan grande como la que se ha observado en la
muestra (o incluso mayor) se pueda dar, si en la población la diferencia fuera igual a 0 (Ho)?

Decisión→ ¿es (muy) probable que se deba solo al azar (error muestral) o no? Si es probable,
no se rechaza H0. Si no es probable, se rechaza.

Hay que establecer un punto de corte de qué es muy vs. poco probable.

Alfa la utilizaremos como marcador de que es poco probable.

Hay que establecer un punto de corte de qué es muy vs. poco probable: ¿qué riesgo de
equivocarse al rechazar la H0 es asumible?

Incluso si se decide que una diferencia tan grande es poco probable que se deba al azar, sigue
siendo posible (i.e., 𝑃𝑟𝑜𝑏 ≠ 0).

La decisión no está libre de error, pero dicho error puede cuantificarse. Ver el subapartado
“Errores en la decisión estadística”

¿DE DONDE SALE LA PROBABILIDAD?

De comparar un valor hipotético (cero u otro) y un valor observado en la muestra.

De utilizar un modelo de probabilidad que representa / aproxima a la distribución muestral (de


la media, de la diferencia de medias) correspondiente.

De basarse en (y comprobar) supuestos sobre los datos (e.g., tamaño de la muestra,


características de la distribución empírica).
ESTADISTICA

LOGICA DE LA DECISION ESTADISTICA

LA PERSPECTIVA DE R.A. FISHER


𝐻0 : se establece un valor hipotético para el parámetro poblacional

No se dispone de hipótesis alternativa (𝐻1 )

El p-valor como grado de evidencia en contra de la 𝐻0 : hay que reportar el valor concreto, no
solo 𝑝 < 0,05

Prueba de significación estadística: rechazar o no la 𝐻0 : e.g., si la diferencia es estadísticamente


significativa o no. Cuanto más pequeña es la probabilidad más evidencia tenemos en contra de
la Ho, y más me reafirmo en mi hipotesis principal.

LA PERSPECTIVA DE J. NEYMAN & E.S. PEARSON


Se postula una 𝐻1 concreta, ha de ser un valor concreto.

Se establece un punto de corte para decidir si los datos encajan mejor con la 𝐻0 o con la 𝐻1 .

El punto de corte depende de dos riesgos: la prob𝜶bilidad de rechazar una 𝐻0 verdadera (error
Tipo I) y la pro𝜷abilidad de no rechazar una 𝐻0 falsa (error Tipo II o su complementario la
potencia estadística [1 − β], especificando un valor del parámetro en la 𝐻1 )

Prueba de hipótesis: se acepta la 𝐻0 o la 𝐻1 .

Recogemos datos y en funcion de donde estén los datos del resultado, con el punto de corte
ALFA, me decanto por la H1 o la Ho (son dos ideas concretas sobre la realidad) → los datos con
que encajan mejor de las dos hipotesis??

PRUEBA DE SIGNIFICACIÓN
SELECCIÓN DE LA PRUEBA
ESTADÍSTICA ADECUADA PARA
RESPONDER AL PROBLEMA

VERIFICACIÓN DE SUPUESTOS
MUESTRA ALEATORIA DE LA
O CONDICIONES DE
POBLACIÓN
APLICACIÓN

ESPECIFICACIÓN DE LA
EXISTE SUFICIENTE EVIDENCIA
NO EXISTE EVIDENCIA PARA HIPÓTESIS NULA
PARA RECHAZAR LA HIPÓTEIS
RECHAZAR LA HIPÓTESIS NULA
NULA

CÁLCULO A PARTIR DE LOS


DATOS MUESTRALES DEL
ESTADÍSTICO DE CONTRASTE

OBTENCIÓN DEL VALOR DE


PROBABILIDAD ASOCIADO AL
ESTADÍSTICO

No rechazar hipótesis estadística Rechazar hipótesis estadística

DECISIÓN ESTADÍSTICA
ESTADISTICA

PRUEBA DE HIPOTESIS
SELECCIÓN DE LA PRUEBA
ESTADÍSTICA ADECUADA PARA
RESPONDER AL PROBLEMA

VERIFICACIÓN DE SUPUESTOS
MUESTRA ALEATORIA DE LA
O CONDICIONES DE
POBLACIÓN
APLICACIÓN

ESPECIFICACIÓN DE LAS
EXISTE EVIDENCIA A FAVOR DE HIPÓTESIS NULA Y EXISTE EVIDENCIA A FAVOR DE
AQUELLO ESPECIFICADO EN LA ALTERNATIVA AQUELLO ESPECIFICADO EN LA
HIPÓTESIS NULA HIPÓTESIS ALTERNATIVA

CÁLCULO A PARTIR DE LOS


DATOS MUESTRALES DEL
ESTADÍSTICO DE CONTRASTE

COMPARACIÓN DEL
ESTADÍSTICO DE CONTRASTE
CON UN VALOR CRÍTICO

Aceptar hipótesis nula Aceptar hipótesis alternativa

DECISIÓN ESTADÍSTICA

TIPOS DE PRUEBAS ESTADISTICAS


Prueba de significación→ Partir de una hipótesis nula y cuantificar el grado de evidencia en
contra de ésta, a través de un p-valor.

Prueba de hipótesis→ Partir de dos hipótesis concretas. Identificar un punto de corte (gracias a
los errores 𝛼 y 𝛽) que permita decidir a favor de una u otra de estas hipótesis.

Enfoque híbrido (actualmente seguido, null hypothesis significance testing)→ Partir de una
hipótesis nula concreta y una hipótesis alternativa más vaga. Utilizar un punto de corte para un
decisión dicotómica (¿𝑝 ≤ 𝛼?), pero a veces al mismo tiempo utilizar el p-valor como grado de
evidencia (< 0,05… 0,01…)

- En vez de tener un valor concreto, simplemente decimos que la alternativa es lo que


queda de la otra. La p no es un grado de evidencia.

ENFOQUE HÍBRIDO: USO DE LAS PALABRAS


La hipótesis nula suele ser más concreta que la alternativa, sobre todo si es bilateral: se rechaza
o no; hay o no evidencia suficiente para rechazarla.

Aceptar la hipótesis nula (en caso de no rechazarla) no es correcto, porque no se aporta


evidencia a favor. Se parte de la idea de que es cierta.

Puede parecer que al rechazar la hipótesis nula, habría que aceptar la hipótesis alternativa, por
complementaria, pero si la hipótesis alternativa no es concreta, no tiene sentido.

En la mayoria de los casos trabajaremos con H1 muy poco concretas.


ESTADISTICA

RELACIONAR: PRUEBA DE SIGNIFICACIÓN E INTERVALOS DE CONFIANZA


El alfa nominal es el complementario al nivel de confianza; probabilidad de equivocarme (1 −
𝛼).

Si el intervalo de confianza no contiene el valor establecido en la hipótesis nula, entonces el


resultado obtenido es “estadísticamente significativo”.

El intervalo de confianza se puede conceptualizar como el rango de valores para el parámetro


poblacional para el cual la hipótesis nula no se rechazaría.

DISTINGUIR: DIFERENCIA Y EQUIVALENCIA


Si se rechaza la hipótesis nula, se dispone de evidencia sobre la diferencia “estadísticamente
significativa” (i.e., a nivel poblacional y no solo a nivel muestral).

Si no se rechaza la hipótesis nula, no se dispone de evidencia sobre la equivalencia.

Para disponer de evidencias sobre equivalencia: (1) se establece de antemano un valor 𝑚𝑖𝑛 que
representa diferencias de magnitud irrelevante; (2) se llevan a cabo dos pruebas unidireccionales
(ver “tipos de contraste”): 𝑯𝟎 : 𝝁𝑨 − 𝝁𝑩 ≥ 𝒎𝒊𝒏 y 𝑯𝟎 : 𝝁𝑨 − 𝝁𝑩 ≤ −𝒎𝒊𝒏; (3) se han de rechazar
ambas hipótesis nulas

RELACIONAR: EQUIVALENCIA E INTERVALOS DE CONFIANZA


El alfa nominal es el complementario al nivel de confianza (1 − 𝛼).

Se establece de antemano un valor 𝑚𝑖𝑛 que representa diferencias de magnitud irrelevante.

Si el límite inferior del intervalo de confianza es superior a −𝑚𝑖𝑛 y el límite superior del intervalo
de confianza es inferior a 𝑚𝑖𝑛, entonces se dispondría de evidencia de equivalencia. (Es decir, el
intervalo de confianza estaría contenido dentro del intervalo que va desde −𝑚𝑖𝑛 hasta 𝑚𝑖𝑛 ,
indicando que los valores más plausibles para la diferencia son poco relevantes)

DECISION ESTADISTICA
Establecer, en función del valor de 𝛼 preestablecido, un valor crítico del estadístico de prueba
que se ha de superar para rechazar la hipótesis nula. Tomar la decisión en función de si el valor
del estadístico realmente obtenido es superior al valor crítico.

Tomar la decisión en función de si (𝑝 ≤ 𝛼) o no, donde 𝑝 es el nivel de significación empírica


asociado al valor observado del estadístico de prueba y el 𝛼 es el valor nominal preestablecido.

Estadistico de prueba→ dierencia de medias.

El valor critico→ valor que tengo que superar (AREA DE RECHAZO)

DECISION A TRAVES DEL P-VALOR


Postular una hipótesis nula estadística (e.g., 𝐻0 : 𝜇 = 40; 𝐻0 : 𝜇1 − 𝜇2 = 0)

- hipótesis conceptual, del investigador

Establecer un nivel 𝜶lfa→ riesgo de equivocarse asumible (≠ 0).

Recoger datos empíricos.


ESTADISTICA

Utilizar un procedimiento estadístico para contrastar la hipótesis nula: comparar la probabilidad


obtenida con el nivel αlfa

- Rechazar (𝑝 ≤ 𝛼) o no rechazar (𝑝 > 𝛼) la hipótesis nula.

TIPOS DE CONTRASTE ESTADISTICO

EJEMPLO: CORRELANCION ENTRE VARIABLES CUANTITATIVAS


Contraste bilateral: no hay relación entre la puntuación sMARS y la nota en Técnicas de
investigación

𝐻0 : 𝜌𝑋𝑌 = 0
- Lo complementario de 0 es la diferencia de 0, por tanto, la puedo rechazar si mi
correlacion es diferente de 0, +/-.
- Para ver la correlacion, y si hay diferencia, necesito un numero grande con una
probabilidad pequeña.
- El p valor es la suma de las dos colas, porque no se qué busco, por tanto no me puedo
centrar en una cola.

Contraste unilateral:

1. Hipótesis conceptual: los estudiantes con nota más baja en Técnicas de


investigación tendrían mayor ansiedad ante las matemáticas: relación negativa
(𝜌𝑋𝑌 < 0)

2. Hipótesis estadística (¡la contraria!): 𝐻0 : 𝜌𝑋𝑌 ≥ 0

3. Si el estadístico 𝑟𝑋𝑌 > 0, la 𝐻0 no se puede rechazar. Si 𝑟𝑋𝑌 < 0, sería más fácil
rechazar la hipótesis nula que en el caso bilateral.

4. El p valor es cuan alegado esta de la Ho o más. Solo se centra en un extremo.

5. Tiene sentido cuando yo tengo una expectativa, y si los resultados van en contra,
no se rechazan porque mi Ho, es correcta.

EJEMPLO: RELACION ENTRE UNA VARIABLE CATEGORICA Y OTRA CUANTITATIVA


Contraste bilateral: no hay diferencia la puntuación sMARS entre hombres y mujeres

𝐻0 : 𝜇𝑚𝑢𝑗𝑒𝑟𝑒𝑠 − 𝜇ℎ𝑜𝑚𝑏𝑟𝑒𝑠 = 0

Contraste unilateral: en funcion de las expectativas.

1. Hipótesis conceptual: las mujeres tendrían mayor ansiedad ante las


matemáticas, según la evidencia del artículo que presenta la versión de sMARS
en castellano.

2. Hipótesis estadística (¡la contraria!): 𝐻0 : 𝜇𝑚𝑢𝑗𝑒𝑟𝑒𝑠 − 𝜇ℎ𝑜𝑚𝑏𝑟𝑒𝑠 ≤ 0

3. Si la diferencia < 0, la 𝐻0 no se puede rechazar. Si la diferencia > 0, sería más


fácil rechazar la hipótesis nula que en el caso bilateral.
ESTADISTICA

EL P-VALOR

PROBABILIDAD ASOCIADA AL ESTADISTICO


Pregunta: ¿Cuán probable es una diferencia tan grande como la obtenida en la muestra o incluso
mayor, si en la población la diferencia de hecho fuera igual a 0?

Procedimiento: Se compara la diferencia observada en la muestra con la hipotetizada para la


población (i.e., la 𝐻0 ).

Cálculo: Esta comparación se incorpora en un estadístico de prueba que tenga una distribución
muestral conocida (bajo ciertos supuestos), de la cual se obtiene la probabilidad.

ESTADISTICO DE PRUEBA→ compara el valor que nosotros hemos obtenido con la Ho.

El valor del estadístico de prueba se refiere a su distribución muestral bajo la 𝐻0 : no se espera


que cada estadístico sea igual al parámetro.

Cuanto más extremo (grande o pequeño) sea el valor del estadístico de prueba, más se aleja de
la 𝐻0 (parámetro hipotetizado).

La probabilidad de obtener un estadístico tan extremo o más extremo (i.e., tan alejado del
parámetro hipotetizado) al azar (i.e., si 𝐻0 fuera cierta): p-valor – nivel de significación
estadística.

Se utiliza cola inFerior y/o Superior, según el tipo de contraste y la 𝐻0

1- P

Probabilidad
asociada al
estadístico (P)

Valor del parámetro Valor del estadístico


establecido en la obtenido en la
hipótesis nula muestra
ESTADISTICA

PROBABILIDAD Y DISTRIBUCION MUESTRAL


La probabilidad se obtiene localizando el valor del estadístico de prueba en una distribución de
referencia (e.g., normal, t, F, ji-cuadrado).

Para que el estadístico de prueba siga dicha distribución es necesario que se cumplan
determinados supuestos.

Esta distribución de referencia es una distribución muestral que informa sobre la probabilidad
de posibles datos, en caso de llevar a cabo un estudio (repetidas veces), partiendo de una
hipótesis nula que se considera cierta.

La distribución muestral no informa sobre la credibilidad de posibles hipótesis, partiendo de los


datos obtenidos.

LO QUE LA PROBABILIDAD SI ES / NO ES
SI ES:

- Probabilidad de los datos bajo (i.e., considerando cierta) la 𝐻0

- Probabilidad de una diferencia (estadístico muestral vs. parámetro poblacional


hipotetizado) tan grande o mayor al azar (i.e., por error muestral)

- Probabilidad de equivocarnos al rechazar la 𝐻0 (error Tipo I)

NO ES:

- Probabilidad de que la 𝐻0 sea cierta

- Probabilidad de replicar los resultados en otro estudio

PROBABILIDAD PEQUEÑA. PARA DECIDIR


Un p-valor pequeño es evidencia en contra de la 𝐻0 (que se suele desear rechazar).

Establecer previamente a la recogida de datos qué se entiende por una probabilidad pequeña:
𝛼 = 0,05 (el riesgo asumible de cometer error Tipo I)

- Es poco probable que que sean correctos simultaniamente la Ho y la evidencia empirica.


- Por eso necesitamos un criterio de antemano para saber si la probabilidad es pequeña.
Ser consciente de que el p-valor  si n 

- Contra mas grande la muestra, mas pequeño el p valor.

Decisión estadística: rechazar o no 𝐻0 en función de ¿ 𝑝 ≤ 𝛼?

Si se rechaza 𝐻0 , se dice que el resultado (e.g., la diferencia) es estadísticamente significativo.


ESTADISTICA

ERRORES EN LA DECISION ESTADISTICA

PRUEBAS: ACIERTOS Y ERRORES

En la realidad, no llegamos a saber si acertamos o erramos

Ningún análisis es inmune a falsas alarmas, puesto que datos muestreados aleatoriamente
ocasionalmente contendrán coincidencias accidentales de valores anómalos.

Pruebas de hi𝝆ótesis: se puede calcular la probabilidad de error Tipo II - 𝜷eta

Reducir la probabilidad de error: alfa y beta  si n 

- Rechazar una Ho que es cierta.


- Si rechazo la Ho que ademas es incorrecta, acierto.
- Que a nivel poblacional haya relacion, pero no rechazo la Ho.
- Alfa es el riesgo maximo que yo quiero asumir en un error tipo I, una intervencion es
efectiva cuando no lo es. Se intenta mantener baja la probabilidad de no ver cosas.

POTENCIA ESTADISTICA (REQUIERE TAMAÑO DEL EFECTO)

TAMAÑO DEL EFECTO

TAMAÑO DEL EFECTO→ Diferencia entre lo que dice la Ho y la nuestra, tiene que haber una H
alternativa concreta.

En la zona de alfa→ se recogen resultados poco probables, me llevarian a rechazar la hipotesis


nula.

Valor critico→ es la linia del centro, tener evidencia suficiente.

Zona beta→ si no supero al valor critico, tengo resultados probables que no me hacen rechazar
la Ho.

1-beta→ acepto la alternativa, es la probabilidad de acertar→ POTENCIA ESTADISTICA.


ESTADISTICA

Va a ser lo mismo que una cuantificacion de la fuerza de la relacion. Es una descripcion e lo que
hay en la muestra, lo necesitamos para que el resultado sea estadisticamente relativo.

Los indicadores no dependen sistematicamente del tamaño de la muestra, es bueno porque me


da potencia estadistica, pero puede denominar a todo estaditicamente relativo.

AUMENTAR LA MUESTRA AUMENTA LA POTENCIA


CONSISTENCIA→ Beta se ha reducido porque la muestra a augmentado. Se ha reducido la
variabilidad, error estandar, e ilustra uno de los conceptos que la distribucion muestral adelgaza
cuando augmenta el tamaño de la muestra.

POTENCIA ESTADISTICA
Rechazar una hipótesis nula falsa: es algo deseable, un tipo de acierto.

Se puede entender como obtener un 𝑝 ≤ 𝛼, cuando el parámetro poblacional toma un valor


concreto diferente del valor en la hipótesis nula (i.e., cuando el tamaño del efecto es diferente
de cero).

Aumenta: Al aumentar el tamaño muestral, para el mismo valor de alfa y para el mismo tamaño
del efecto.

Aumenta: Al aumentar el tamaño del efecto, para el mismo tamaño muestral y el mismo valor
de alfa.

Disminuye: Al reducir el riesgo alfa, para el mismo tamaño muestral y el mismo tamaño del
efecto.

El tamaño del efecto no lo piedo hacer maas grande, no puedo modificarlo, porque es la
realidad.

Alfa depende de mi, si reduzco alfa aumenta beta.


ESTADISTICA

POTENCIA ESTADISTICA: SOFTWARE G*POWER


Tamaño muestral necesario para detectar como estadísticamente
significativa una correlación de 0,30, siendo alfa = 0,05 y beta = 0,20.

Si tiene sentido hacer el estudio.

El programa me dice la muestra que necesito con los resultados y datos


que yo tengo.
Tanta muestra necesitas para que te salga el significativo. Solo si es 0,5
o mas si no, no saldra significativo.

RESUMEN: SIGNIFICACION ESTADISTICA Y MAS


El p-valor depende sistemáticamente tanto del tamaño del efecto, como del tamaño de la
muestra.

Empezar por un análisis de la potencia o determinación del tamaño de la muestra necesario para
disponer de una determinada potencia estadística, para detectar como estadísticamente
significativo un tamaño del efecto (concreto) de interés sustantivo.

Complementar el p-valor con tamaño del efecto e intervalo de confianza (en torno a una
estimación puntual o en torno a la diferencia entre dos estimaciones puntuales).

Mas probable es que el pvalor sea pequeño.


Se ha de hacer de antemano, tener una idea de que valor es de interes.
El tamaño de la muestra que uno necesita se puede establecer de antemano.
Siempre van juntos.

RESUMEN: PEQUEÑAS MUESTRAS


Conllevan intervalos de confianza más anchos

▪ Menor precisión

▪ Mayor margen de error

▪ Reducen la potencia estadística: mayor probabilidad de error Tipo II

Hacen más probable que la significación estadística se deba a error de muestreo: error Tipo I.

ERRORES: VALICEZ DE LAS PROBABILIDADES


Escoger la prueba estadística en función de la hipótesis nula + el nivel 𝛼 en función de la
convención o criterios sustantivos, antes de recoger los datos

Comprobar las condiciones de aplicación de la prueba: si se cumplen, las probabilidades son


“correctas”

Aplicar la prueba correctamente: software

Interpretar los resultados correctamente: conclusiones sin saltos cualitativos:

o diferencia estadísticamente significativa ≠ grande ≠ importante


ESTADISTICA

o una relación estadísticamente significativa no siempre implica una causalidad

o falta de significación estadística no implica evidencia de equivalencia


ESTADISTICA

TEMA 4: PRUEBAS DE CONFORMIDAD

TIPOS DE PRUEBAS ESTADISTICAS: SEGÚN EL OBJETIVO DE LA Ho


Pruebas paramétricas (e.g., prueba t, análisis de la variancia)→ hacen referencia a parámetros:
medias, proporciones, asimetría, curtosis…

Pruebas no paramétricas (e.g., prueba U de Mann-Whitney, prueba T de Wilcoxon, prueba


𝝌𝟐 )→ hacen referencia a distribuciones enteras

Pruebas libres de distribución (e.g., bootstrap, permutación)→ no requieren referirse a una


distribución muestral (e.g., prueba t, análisis de la variancia), sino que construyen la distribución
de referencia

TIPOS DE PRUEBAS ESTADISTICAS: SEGÚN EL OBJETIVO DE ESTUDIO


Pruebas de relación→ suelen implicar

- Más de una “muestra” (e.g., comparación entre grupos mediante la prueba t para datos
independientes o el análisis de la variancia [ANOVA])
- Más de una variable (e.g., correlación, ji-cuadrado)
- Más de un momento de medida (e.g., la prueba t para muestras relacionadas, el ANOVA
de medidas repetidas).

Pruebas de conformidad→ suelen implicar una única muestra (i.e., “one-sample test” al hablar
de la prueba t para una muestra; “one-row test” al hablar de ji-cuadrado para la proporción;
prueba de Kolmogorov-Smirnov).

PRUEBAS ESTADISTICAS: COMBINANDO CRITERIOS


Pruebas de relación:

- Paramétricas (e.g., prueba t para datos independientes o ANOVA)


- No paramétricas (e.g., ji-cuadrado como prueba de relación, prueba U de Mann-
Whitney, prueba T de Wilcoxon, prueba de Kruskal-Wallis, prueba de Friedman)

Pruebas de conformidad:

- Paramétricas (e.g., prueba para la media, la proporción, la variancia, la asimetría, la


curtosis)
- No paramétricas (i.e., pruebas de bondad de ajuste: distribución de frecuencias
mediante ji-cuadrado, normalidad mediante la prueba de Kolmogorov-Smirnov o
Shapiro-Wilk)

PRUEBAS PARAMETRICAS

PRUEBA PARA LA PROPORCION: HIPOTESIS


Se dispone de datos de una muestra (𝑝𝑛 que estima 𝜋) y se postula un valor hipotético 𝜋0 para
el parámetro poblacional

𝑯𝟎 : 𝝅 = 𝝅𝟎 → la proporción de helados lo suficientemente grandes (más de 100g) es 0,5 (50%).


Contraste bilateral.

𝑯𝟎 : 𝝅 ≥ 𝝅𝟎 → la proporción de helados lo suficientemente grandes (más de 100g) es como


mínimo 0,5 (50%). Contraste unilateral.
ESTADISTICA

𝑯𝟎 : 𝝅 ≤ 𝝅𝟎 → la proporción de alta ansiedad ante las matemáticas (sMARS > 79) es como
mucho 0,2 (20%). Contraste unilateral.

PROPORCION: PRUEBA EXACTA


𝑯𝟎 : 𝝅 = 𝟎, 𝟓 → la proporción de helados lo
suficientemente grandes es 0,5

Distribución binomial→ 𝜋 = 0,5, 𝑛 = 100 helados


muestreados al día.

Muestra→ 43 de los 100 helados son de más de 100g

Probabilidad de un valor tan bajo:

Probabilidad de un valor tan alejado

Función de distribución→ Cola inferior. Probabilidad


de un valor tan bajo o más bajo, si la probabilidad
poblacional (real) fuera 0,5.

Función de distribución + Función de supervivencia→


Probabilidad de un valor tan alejado o más alejado, si la
probabilidad poblacional (real) fuera 0,5.

PROPORCION: PRUEBA APROXIMADA


Teorema central del límite→ la proporción se distribuye normalmente, si n es grande.

Condición de aplicación→ n𝜋0 ≥ 5 y n(1 − 𝜋0 ) ≥ 5

PRUEBA PARA LA PROPORCION: MUESTRA


Se trabaja con alfa = 0,05.

Condición de aplicación→ n𝜋0 ≥ 5 y n(1 − 𝜋0 ) ≥ 5

𝑯𝟎 : 𝝅 ≤ 𝟎, 𝟐 →la proporción de estudiantes con alta ansiedad ante las matemáticas es como
mucho 0,2

Se dispone de una muestra con 𝑛 = 30

En la muestra se obtiene→ 𝑝30 = 9⁄30 = 0,3

PROPORCION: PRUEBA APROXIMADA


Estadistico de prueba (contraste):
𝑝𝑛 − 𝜋0 0,3 − 0,2 0,1
𝑧0 = = = ≈ 1,369
0,073
√𝜋0 (1 − 𝜋0 ) √0,2 × 0,8
𝑛 30
Probabilidad unilateral (lado correcto)

Valor critico unilateral (lado correcto)


ESTADISTICA

PROPORCION: INTERVALO DE CONFIANZA


Estimación puntual→ 𝑝30 = 9⁄30 = 0,3

𝑝𝑛 (1−𝑝𝑛 ) 0,3(1−0,3)
Error estándar→ √ 𝑛
=√ 30
≈ 0,084

Nivel de confianza 95% convertido a cuantila Z→ 1,96

Margen de error→ 0,084 × 1,96 ≈ 0,16

Límite inferior→ 0,30 − 0,16 = 0,14

Límite superior→ 0,30 + 0,16 = 0,44

El intervalo de confianza (con alfa = 5%) incluye el valor hipotetizado para el parámetro
poblacional (0,20).

Es equivalente a un contraste bilateral en el no se rechazaría la hipótesis nula.

PRUEBA PARA LA MEDIA: HIPOTESIS


Se dispone de datos de una muestra (𝑥̅ estima 𝜇) y se postula un valor hipotético (𝜇0 ) para el
parámetro poblacional

𝑯𝟎 : 𝝁 = 𝝁𝟎 → la media de peso de los helados es igual a 100 g. Contraste bilateral.

𝑯𝟎 : 𝝁 ≥ 𝝁𝟎 → la media de puntuación de ansiedad ante las matemáticas (sMARS) es como


mínimo 79 puntos.

𝑯𝟎 : 𝝁 ≤ 𝝁𝟎 → la media de peso de los helados es como mucho 100 g.

MEDIA: ESTADISTICO DE CONTRASTE


Variable normal y variancia conocida:
𝑥̅𝑛 − 𝜇0
𝑧0 =
2
√𝜎
𝑛
Variable normal y variancia desconocida
𝑥̅𝑛 − 𝜇0
𝑡0 =
2
√𝜎̂
𝑛
Distribución desconocida o no Normal
𝑥̅𝑛 − 𝜇0
𝑡0 =
2
√𝜎̂
𝑛
PRUEBA PARA LA MEDIA: MUESTRA
Se trabaja con 𝛼 = 0,05

𝑯𝟎 : 𝝁 = 𝝁𝟎 → la media de peso de los helados es igual a 100 g

Se dispone de una muestra con 𝑛 = 70


ESTADISTICA

Se supondrá que 70 es tamaño muestral suficiente para que la distribución muestral sea la t de
Student con 𝑛 − 1 grados de libertad

En la muestra se obtiene→ 𝑥̅70 = 93 y 𝜎̂ 2 ≡ 𝑠 2 = 19 × 19

MEDIA: ESTADISTICO DE PRUEBA


Estadistico de contraste:
𝑥̅𝑛 − 𝜇0 93 − 100 −7
𝑡0 = = = ≈ −3,08
𝜎̂ 2 2,27
√ √361
𝑛 70
Estadisticmente significativo si la n es grande.

La z y la t se parecen mucho, como valores criticos.

Maneras de traducir la diferencia a algo que se le puede asociar un p-valor.

100 no va a estar incluido porque la Ho es rechaza, no va a estar en el intervalo de confianza.


PRUEBA PARA LA MEDIA: PROBABILIDADES

Se parece mucho a una normal.


Si es mas grande o pequeño que los extremos, el area gris en concreto, rechazo la Ho.

MEDIA: INTERVALO DE CONFIANZA


Estimación puntual→ 𝑥̅𝑛 = 93
𝑠 19
Error estándar→ = ≈ 2,27
√𝑛 √70

Nivel de confianza 95% convertido a cuantila t con 𝜈 = 70 − 1: 1,99

Margen de error→ 2,27 × 1,99 ≈ 4,52

Límite inferior→ 93 − 4,52 = 88, 48

Límite superior→ 93 + 4,52 = 97,52

El intervalo de confianza (con alfa = 5%) no incluye el valor hipotetizado para el parámetro
poblacional (100).

Es equivalente a un contraste bilateral en el se rechazaría la hipótesis nula.


ESTADISTICA

PRUEBA PARA LA VARIANCIA: HIPOTESIS


Se dispone de datos de una muestra (𝑠 2 ≡ 𝜎̂ 2 estima 𝜎 2 ) y se postula un valor hipotético (𝜎02 )
para el parámetro poblacional

𝑯𝟎 : 𝝈𝟐 = 𝝈𝟐𝟎 →la variancia en el peso de los helados es igual a 10 x 10 𝑔2 . Contraste bilateral.

𝑯𝟎 : 𝝈𝟐 ≥ 𝝈𝟐𝟎 →la variancia en el peso de los helados es como mínimo 10 x 10 𝑔2

𝑯𝟎 : 𝝈𝟐 ≤ 𝝈𝟐𝟎 → la variancia de puntuación de ansiedad ante las matemáticas (sMARS) es como


mucho 5 x 5 𝑝𝑢𝑛𝑡𝑜𝑠 2

PRUEBA PARA LA VARIANCIA: ESTADISTICO


Estadistico de prueba:

(𝑛 − 1)𝜎̂ 2 (𝑛 − 1)𝑠 2
𝜒𝑛2 = =
𝜎02 𝜎02

El estadístico de contraste sigue 𝜒 2 con 𝑛 − 1 grados de libertad, solo si la variable se distribuye


normalmente en la población.

PRUEBA PARA LA VARIANCIA: MUESTRA


𝑯𝟎 : 𝝈𝟐 ≥ 𝝈𝟐𝟎 → la variancia en el peso de los helados es como mínimo 10 x 10 𝑔2

Se dispone de una muestra con 𝑛 = 50

En la muestra se obtiene→ 𝜎̂ 2 ≡ 𝑠 2 = 8 × 8

Uso de la distribución muestral ji-cuadrado→ Se supondrá que el peso de los helados se


distribuye normalmente en la población.

PRUEBA PARA LA VARIANCIA: PROBABILIDAD


Estadistico:

(𝑛 − 1)𝜎̂ 2 (50 − 1)64


𝜒𝑛2 = = = 31,36
𝜎02 100

PRUEBAS DE BONDAD DE AJUSTE


Comparación entre una distribución empírica y una
distribución de probabilidad (i.e., un modelo).

Hipótesis nula→ la distribución se ajusta al modelo (e.g., normal).

Deseo habitual→ no rechazar la hipótesis nula → siguiendo con el ejemplo, no implica evidencia
a favor de la normalidad, sino la imposibilidad de rechazarla, es decir, sigue siendo un supuesto
plausible.

PRUEBAS DE BONDAD DE AJUSTE: NORMAL


Normalidad→ varias pruebas. La más famosa es la de Kolmogorov-Smirnov. La que tiene más
potencia estadística es la de Shapiro-Wilk.
ESTADISTICA

BONDAD DE AJUSTE: INSPECCIÓN VISUAL


Aparte del gráfico de cuantilas QQ; histograma con curva normal.

Ejemplo→ población con distribución uniforme, con mín=25,


máx=125 y n=100.

BONDAD DE AJUSTE: PRUEBA JI-CUADRADO


Objetivo→ comparar una distribución de frecuencias hipotética
con una frecuencia empírica (observada).

Frecuencias observadas→ 20 (𝑝𝑒𝑠𝑜 < 90𝑔), 70 (90𝑔 ≤ 𝑝𝑒𝑠𝑜 ≤


110𝑔) , 10 (𝑝𝑒𝑠𝑜 > 110𝑔)

Proporción esperada→ 10% (𝑝𝑒𝑠𝑜 < 90𝑔), 80% (90𝑔 ≤ 𝑝𝑒𝑠𝑜 ≤


110𝑔), 10% (𝑝𝑒𝑠𝑜 > 110𝑔)

Frecuencias esperadas, para 𝑛 = 100: 10 (𝑝𝑒𝑠𝑜 < 90𝑔), 80 (90𝑔 ≤ 𝑝𝑒𝑠𝑜 ≤ 110𝑔), 10 (𝑝𝑒𝑠𝑜 >
110𝑔)

El uso de ji-cuadrado con 𝑘 − 1 grados de libertad (en función del número de categorías k) es
adecuado, si las frecuencias esperadas son superiores a 5
2
(𝑓𝑜𝑖 −𝑓𝑒𝑖 ) (20−10)2 (70−80)2
Estadístico ji-cuadrado 2
𝜒 = ∑𝑘𝑖=1 = + +
𝑓𝑒𝑖 10 80
(10−10)2
= 11,25
10

Resultado→ comparar una distribución de frecuencias hipotética con


una frecuencia empírica (observada).

Objetivo→ Igual, para 2 categorías, parecida al uso de la distribución


binomial.

LA FORMA DE LA DISTRIBUCION JI-CUADRADO


Diferente forma según gl, diferente valor crítico para el mismo alfa = 5%, diferente decisión
estadística para el mismo valor del estadístico de prueba.
ESTADISTICA

TEMA 5: PRUEBAS DE RELACIÓN PARA VARIABLES CATEGÓRICAS

JI-CUADRADO COMO PRUEBA DE RELACION


Prueba de relación (Tema 5)

- Aplicación a dos variables categóricas o categorizadas


- Comparación de frecuencias observadas y esperadas bajo la hipótesis nula (ausencia de
relación entre las variables)

LA Ho
Versión #1: 𝑯𝒐 : 𝝅𝒊𝒋 = 𝝅𝒊 𝝅𝒋

- La probabilidad de cada casilla es simplemente la multiplicación de las probabilidades


de las correspondientes sumas de fila y columna.
- Significado→ la categorización en variable es independiente de la categorización en la
otra

Versión #2: 𝑯𝒐 : 𝝅𝒊𝒋 = 𝝅𝒊𝒋(𝒐)

- Las frecuencias observadas (que se convierten en proporciones y estiman


probabilidades) son iguales a las frecuencias hipotéticas (ver, prueba de conformidad)

EJEMPLO: VARIABLES IMPLICADAS


Rendimiento académico:

- Definición operativa: nota categórica en la asignatura de Estadística (suspenso,


aprobado, notable, excelente) obtenida al sumar todas las evidencias de evaluación.
- ¿Escala de medida?

Ansiedad ante las matemáticas:

- Definición operativa: puntuación en sMARS, dividida según el punto de corte


establecido en 79 puntos, distinguiendo (supuestamente) una ansiedad disfuncional.
- ¿Escala de medida?

EJEMPLO: DATOS OBTENIDOS


Frecuencias observadas: TABLA DE CONTINGENCIA

Frecuencias esperadas:
ESTADISTICA

ESTADISTICO DE PRUEBA
𝐼 𝐽 2
2
(|𝑓𝑖𝑗(𝑜) − 𝑓𝑖𝑗(𝑒) |) (4 − 10,04)2 (15 − 8,96)2 (0 − 2,36)2
𝜒 = ∑∑ = + + ⋯+
𝑓𝑖𝑗(𝑒) 10,04 8,96 2,36
𝑖=1 𝑗=1

EJEMPLO: RESULTADOS

𝝂 = (𝑰 − 𝟏)(𝑱 − 𝟏)
Al fijar los marginales, de las 8 casillas, solo pueden variar libremente 3. Una vez definidas estas
3, el resto están completamente determinadas.

EJEMPLO: INTERPRETACION
Rechazar la hipótesis nula: ¿Qué significa?

- La hipótesis nula no es plausible, puesto que es poco probable que siendo cierta se
obtengan las frecuencias observadas (realmente obtenidas) u otras más extremas.
- No es muy probable que la discrepancia entre las frecuencias observadas y las esperadas
se deba solo al azar, por lo que inferimos que se debe a la existencia de relación entre
las dos variables.

EJEMPLO: TAMAÑO DEL EFECTO


Si se desea conocer la magnitud de la relación, más allá de su significación estadística. Calculable
tanto si 𝒑 ≤ 𝜶, como si 𝒑 > 𝜶.

𝜒 2 ⁄𝑛 15,88⁄53
𝑉=√ =√ = √0,3 = 0,548
(𝑞 − 1) (2 − 1)

𝑞 = 𝑚𝑖𝑛{𝐼, 𝐽}
ESTADISTICA

SUPUESTOS: PARA QUE LA PROBABILIDAD OBTENIDA DE LA DISTRIBUCION JI-CUADRADO SEA


VALIDA
Supuesto principal:

- Todas las frecuencias esperadas han de ser iguales o


superiores a 5.

Supuesto relajado para 𝝂 > 𝟏

- Menos del 20% de las frecuencias esperadas pueden


ser inferiores a 5.
- Ninguna frecuencia esperada ha de ser inferior a 1.

ALTERNATIVA 1: COLAPSAR CATEGORIAS

CORRECCION DE YATES

ALTERNATIVA 2: CORRECCION DE YATES

𝐼 𝐽 2
2
(|𝑓𝑖𝑗(𝑜) − 𝑓𝑖𝑗(𝑒) | − 0,5)
𝜒 = ∑∑
𝑓𝑖𝑗(𝑒)
𝑖=1 𝑗=1

¿Decisión estadistica? →

Valor critico: 5%

PRUEBA EXACTA DE FISHER

ALTERNATIVA 3: PRUEBA EXACTA DE FISHER


Especialmente necesaria para 𝑛 < 20, pero aplicable siempre

Exacta, porque no requiere referirse a distribuciones muestrales (e.g., ji-cuadrado) a las cuales
el comportamiento del estadístico de prueba se acerca al aumentar el tamaño de la muestra.

La hipótesis nula es que odds ratio = 1: ¿qué significa?

Permite calcular la probabilidad de la repartición observada por casillas, considerando los


marginales (i.e., sumas) fijos.

Probabilidad exacta:
ESTADISTICA

- Al fijar los marginales, de las 4 casillas, solo puede variar libremente 1. Una vez definidas
ésta, el resto están completamente determinadas.

- 𝜈 = (𝐼 − 1)(𝐽 − 1)=(2-1)(2-1)=1

La probabilidad de que una relación “tan fuerte” se observe al azar (en caso de independencia)
es igual a la probabilidad de los datos observados más las probabilidades de todas las
configuraciones más extremas. [Cuidado con si se trata de un contraste uni o bi-lateral]

(𝑎 + 𝑏)! (𝑐 + 𝑑)! (𝑎 + 𝑐)! (𝑏 + 𝑑)!


𝑝=
𝑎! 𝑏! 𝑐! 𝑑! 𝑛!
La probabilidad de los datos observados es función de la cantidad de maneras posibles de
repartir los marginales (sumas) en los valores de las casillas realmente obtenidos.

Prueba unilateral: >79 asociado con suspenso→ SUMA DE PROBABILIDADES

Contraste unilateral vs. Bilateral

Es una configuración probabilidad más extrema, pero no es relevante al ir en contra de la


hipótesis alternativa que “>79” asociado con “suspenso”

PRUEBA EXACTA DE FISHER: TAMAÑO DEL EFECTO (para tablas 2x2)


ESTADISTICA

3 7
𝑜𝑑𝑑𝑠𝑠𝑢𝑠𝑝𝑒𝑛𝑠𝑜(≤79) = = 0,4286 𝑜𝑑𝑑𝑠𝑎𝑝𝑟𝑜𝑏𝑎𝑑𝑜+(≤79) = = 2,33
7 3
3 2
𝑜𝑑𝑑𝑠𝑠𝑢𝑠𝑝𝑒𝑛𝑠𝑜(>79) = = 1,5000 𝑜𝑑𝑑𝑠𝑎𝑝𝑟𝑜𝑏𝑎𝑑𝑜+(>79) = = 0,67
2 3
0,4286 2,33
𝑂𝑅 = = 0,2857 𝑂𝑅 = = 3,5
1,5000 0,67

Se está 3,5 más “en riesgo” de aprobar al tener baja ansiedad ante las matemáticas, comparado
con tener alta ansiedad.

PRUEBA DE MCNEMAR
1. Para valorar concordancia entre evaluadores

2. Para diseño de medidas repetidas (e.g., pre- vs. post-


intervención, categorizando personas según su diagnóstico
de depresión sí / no)

PARA TABLAS 2x2


Ejemplo: Para valorar la concordancia entre jueces que
utilizan el mismo sistema de categorías.

Se trabaja con las discordancias, con la condición (𝑏 + 𝑐) ≥


10 para poder referir el estadístico de prueba a la
distribución 𝜒 2 con un grado de libertad (𝜈 = 1); en caso
contrario se ha de utilizar el modelo binomial.

(𝑏 − 𝑐)2 (8 − 2)2 36
𝜒2 = = = = 3,6
𝑏+𝑐 8+2 10
ESTADISTICO DE PRUEBA
Sin vs. Con la corrección de Yates

(𝑏 − 𝑐)2 (8 − 2)2 36
𝜒2 = = = = 3,6
𝑏+𝑐 8+2 10
(|𝑏 − 𝑐| − 1)2 (|8 − 2| − 1)2 25
𝜒2 = = = = 2,5
𝑏+𝑐 8+2 10

DECISION ESTADISTICA
¿Decisión estadística referente a la concordancia observada entre las percepciones del profesor
y las autopercepciones de los estudiantes respecto a la presencia o ausencia de ansiedad ante
las matemáticas?
ESTADISTICA

Casi, pero no se rechaza la hipótesis nula de que hetero- y auto-percepción son iguales.

DECISION ESTADISTICA: BINOMIAL


𝒏 = 𝟏𝟎 discordancias

𝝅 = 𝟎, 𝟓 probabilidad de b = probabilidad de c

𝒌 = 𝒃 = 𝟖 discordancias en las que los estudiantes perciben ansiedad y los profesores no

Probabilidad de un resultado tanto o más extremo: 𝑷𝒓𝒐𝒃(𝑿 ≥ 𝒌) = 𝑺(𝒌 − 𝟏)

Casi, pero no se rechaza la hipótesis nula de que las discordancias son solo por azar. Es probable
(>5%) encontrar tanta discordancia en un sentido (los estudiantes auto-perciben más ansiedad
que los profesores) a nivel muestral, incluso si a nivel poblacional las discordancias estuvieran
repartidas de forma equilibrada 50%-50%).

TAMAÑO DEL EFECTO


Centrándonos en las discordancias:

▪ Razón de odds→ OR=b/c=8/2=4 más probable no coincidir al detectar ansiedad los


estudiantes y no l@s profesores.

UNA ALTERNATIVA DE ANALISIS


La variabilidad y la arbitrariedad

- ¿Qué alternativa se os ocurre para el análisis de la relación entre la ansiedad ante las
matemáticas y el rendimiento en Estadística?
- Pista: no se utilizaría ninguna de las pruebas comentadas aquí.

También podría gustarte