0% encontró este documento útil (0 votos)
28 vistas13 páginas

Tema 10

Cargado por

Iqra Tabassum
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
28 vistas13 páginas

Tema 10

Cargado por

Iqra Tabassum
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

Tema 10 Karla Marmolejo

Estimación de parámetros y cálculo del tamaño muestral

El muestreo y la distribución muestral de un estadístico son la base de la Inferencia Estadística➜la que permite derivar, a
partir de los resultados de la muestra, los resultados que con una cierta probabilidad se pueden determinar para la
población.

Se aplican estos modelos cuando se diseña una investigación y el investigador se plantea preguntas teóricas. Una vez
planteadas las preguntas y evaluadas en relación con los conocimientos adquiridos a través del estudio y análisis de la
bibliografía, se traducen a términos estadísticos y se comprueba si la situación planteada se parece a algún modelo; si es así,
obtendremos una respuesta estadística a la pregunta.

Esta forma de trabajo exige garantizar que la realidad representada en el modelo teórico se ajusta al modelo matemático
elegido para dar la respuesta estadística➜la comparación entre la pregunta estadística (la expresión matemática del modelo
teórico) y los modelos de probabilidad y/o estadísticos debe hacerse cumpliendo los supuestos referentes a:
➤La métrica de las variables o nivel de medida
➤La forma de la distribución de la variable

Conjunto de métodos y técnicas basadas en los modelos Estadísticos y de Probabilidad➜permiten


inducir a partir de la muestra, el comportamiento de las variables en la población➙emplea un
razonamiento que va de lo particular a lo general (de muestra a población).

Estadística paramétrica➜la distribución de las variables en la


Inferencia población es conocida, la muestra se selecciona por muestreo
aleatorio simple y los datos están medidos al menos en escala de
Estadística
Dos ramas
intervalos.

1
Estadística Karla Marmolejo
Dos ramas
Estadística no paramétrica➜la distribución de las variables no se
ajusta a ninguna distribución conocida o los datos están medidos en
una escala inferior a la escala de intervalo.

Estimación de parámetros➜asignar un valor numérico o


determinar un intervalo de valores numéricos al parámetro o
parámetros que deseamos conocer. Permite hacer conjeturas como
➤si el valor más próximo o el intervalo de valores entre los que se
encuentre el valor de media de la población μ con un cierto grado de
confianza ➤si el valor más próximo o el intervalo de valores entre los
que se encontrará el valor de la diferencia a nivel poblacional con un
cierto grado de confianza.
➜Se parte de los datos muestrales para responder a una pregunta
Estadística Emplea dos
sobre la población
paramétrica procedimientos
Contraste de hipótesis➜tiene como objetivo comprobar si un
determinado supuesto, referido a un parámetro o parámetros
poblaciones, es compatible con la evidencia empírica que no
proporciona la muestra. Responde a preguntas como ➤es el valor
de la media poblacional un valor determinado según el grado de
confianza considerado suficiente ➤la diferencia entre los valores
numéricos de la media es relevante o simplemente se debe al azar.
➜Se hace una afirmación sobre la población que luego se contrasta
con la realidad d los datos obtenidos en la muestra.

2
Karla Marmolejo
ESTIMACION DE PARAMETROS—CUATRO TIPOS
Asignamos un único valor al parámetro desconocido a
partir del resultado obtenido en una muestra.

La estimación puntual consiste en dar un valor


numérico único al parámetro desconocido➜utilizar el
valor del estadístico para estimar el parámetro
Estimación Puntual No se puede establecer ni la fiabilidad de la
estimación ni el error que se comete➜lo único que
podemos afirmar es que el error cometido en la
estimación se hará menor a medida que aumente el
tamaño de la muestra

No siempre es el más aconsejable y útil

Un rango de posibles valores dentro del cual


Estimación por
estimamos se encuentra el verdadero valor del
Intervalos parámetro con un determinado grado de confianza.

Los parámetros se presentan como variables


Estimación aleatorias con una cierta distribución a priori. Las
observaciones aportan información que transforman
Bayesiana las probabilidades a priori en probabilidades a
posteriori.

Se basan en el remuestreo y en las técnicas de


Estimación simulación, por lo que se requieren el uso de
ordenadores y consiste en extraer de una misma
Bootstrap muestra varias (muchas) muestras y estudiar el
conjunto de muestras así obtenidas

Para que un estadístico pueda considerarse un buen estimador de un parámetro


deberá cumplir con las siguientes propiedades➜carencia de sesgo, eficiencia,
consistencia y suficiencia.

3
Karla Marmolejo
PROPIEDADES DE LOS ESTIMADORES
Estimador insesgado➜aquel en el que se cumple que la media de la distribución muestral (esperanza
matemática de la distribución) coincide con el parámetro estimado.

Sea θ el parámetro a estimar y Θ el valor del estimador. Se define como E(Θ) = θ

Se sabe que el estadístico media sigue una distribución normal o una t de Student.
LA MEDIA En cualquiera de las dos distribuciones E(Ẍ) = μ ➢la media de la muestra es un
estimador insesgado de la media poblacional.
Carencia de
LA PROPORCION E(P) = π ➢P es un estimador insesgado de π.
Sesgo
La varianza S2x no es exactamente su correspondiente valor poblacional 𝜎2 ➢ S2x es
un estimador sesgado, cuyo sesgo es el factor (n-1)/n
LA VARIANZA Y
CUASIVARIANZA La cuasivarianza si es un estimador insesgado ya que E(S2n-1) = 𝜎2 ➢si queremos
realizar una estimación puntual de 𝜎2, es preferible utilizar la cuasivarianza en lugar
de la varianza.

Dos estimadores Θ1 y Θ2 del mismo θ (parámetro), diremos que Θ1 es más eficiente que Θ2 si su varianza (la
de la distribución muestral) es menor ➢ 𝜎2 Θ1 < 𝜎2 Θ2

Entre dos estimadores insesgados será preferible seleccionar el que presente una menor varianza (menor
error típico de la distribución muestral del estadístico). El error típico refleja el mayor o menor alejamiento
de los posibles valores del estadístico a su esperanza matemática (media de la distribución muestral). Un
estimador es tanto mejor cuanto su distribución muestral esté más concentrada➢tenga una varianza más
pequeña.

4
Karla Marmolejo
Dado que 𝜎2S2x = 𝜎2√(2(n-1)) / n y 𝜎2S2n-1 = 𝜎2√(2 / n-1) ➢el error típico de la cuasivarianza es mayor que el
de la varianza, por lo que la varianza es un estimador más eficiente que la cuasivarianza.
Eficiencia
La eficiencia del estimador siempre es relativa, ninguno puede ser perfectamente eficiente➜el error típico
acompaña a cualquier distribución muestral.

Eficiencia relativa ER = 𝜎2 Θ1 / 𝜎2 Θ2
Si el cociente es igual a 1, ambos estimadores son igualmente eficientes
Si ER > 1 el estimador del dominador es más eficiente
Si ER < 1 el estimador del numerado es más eficiente
La media es más eficiente que la mediana➜preferimos la media a pesar de que ambos estimadores son
igualmente insesgados.

Indica que, a medida que el tamaño muestra se hace grande (que tiende al infinito), el valor del estadístico
se aproxima al valor del parámetro

Un estimador es consistente cuando la probabilidad de que su valor se aproxime al del parámetro es


mayor conforme aumenta el tamaño de la muestra
Consistencia

limn➝∞ P(∣Θ - θ∣ < 𝛅) = 1

Si n tiende al infinito, la probabilidad de que ∣Θ - θ∣ sea menor que cualquier valor 𝛅, por pequeño que sea
éste, tiende a 1.

5
Karla Marmolejo
Se refiere a la capacidad del estimador de utilizar toda la información existente en la muestra en relación al
parámetro➜que el estimador emplee todos los valores de los datos para estimar el parámetro.
Suficiencia
El estimador suficiente de μ es Ẍ, al igual que la varianza, la cuasivarianza insertada y la proporción son
estimadores suficientes de 𝜎2 y π respectivamente.

La media muestral se considera buen estimador de la media poblacional (Ẍ = μ). Cumple con las
propiedades de ser insesgado, consistente y suficiente
Propiedades de
La proporción muestral (P) se considera buen estimador de la proporción poblacional (P = π). Cumple con
los estimadores
las propiedades de ser insesgado, consistente y suficiente
media, proporción
La varianza muestral (S2x) es consistente y suficiente, pero NO insesgado➜la cuasivarianza se considera
y cuasivarianza
buen estimador de la varianza poblacional (𝜎2 = S2n-1) cumple con las propiedades de ser insesgada,
consistente y suficiente, aunque su eficiencia es menor en relación con la varianza muestral.

6
Karla Marmolejo
Métodos de obtención de estimadores
Existen varios métodos para la obtención de estimadores que garanticen las propiedades de carencia de
sesgo, eficiencia, consistencia y suficiencia➜en Psicología y Ciencias de las Salud se utilizan habitualmente
dos:

Obtener aquel estimador que minimice las distancias (al cuadrado) entre el valor
estimado y el parámetro y los resultados muestras observados
Método de
mínimos Que ∑(Xi - Θ)2 sea mínimo, donde i = 1, 2, 3, …., n
cuadrados No siempre es el mejor, pero resulta muy útil para estimar los parámetros de la
regresión.

Método de Obtener como estimador aquel valor del estadístico que hace lo más verosímil
máxima posible la muestra obtenida➜el que maximice la probabilidad de obtener el
verosimilitud resultado particular observado en la muestra.

7
Karla Marmolejo
Estimación por Intervalos
La estimación por intervalos consiste en obtener una medida del error (diferencia entre el estimador y el parámetro)
que se comete al realizar la estimación con una determinada probabilidad➜atribuir al parámetro un rango de valores
posibles dentro del cual estará incluido el parámetro con una determinada probabilidad.

Un rango de posibles valores del parámetro, sus límites se les llama límites del intervalo de
Intervalo de confianza
confianza
Corresponde con la probabilidad asociada al intervalo que contiene todos los posibles
Nivel de
valores que puede tomar el parámetro θ. Se le llama de confianza y no de
confianza n.c. probabilidad➜el intervalo de confianza contendrá al verdadero valor del parámetro o no

Su principal ventaja➜se puede valorar la seguridad con la que se realizan las estimaciones mediante el nivel de
confianza➙se expresa en términos de probabilidad.

Relación entre amplitud del intervalo y nivel de confianza➜cuanto mayor es el intervalo


de valores, mayor es la probabilidad de que se encuentre dentro de él el verdadero valor
de θ y la estimación es menos precisa➙la precisión de la estimación se relaciona de
forma inversa con el nivel de confianza➤a mayor confianza en la estimación, mayor será
el intervalo (el rango de posibles valores del parámetro) y la estimación es menos
precisa➛a mayor confianza menor precisión

Características Fijación del nivel de confianza➜El investigador es quien decide y fija el valor del nivel de

del intervalo de
confianza. Por convenio en general se adoptan los niveles de confianza de 1 - ⍺ = 0,95 ó
1 - ⍺ = 0,99
confianza
Nivel de riesgo o significación ⍺➜el opuesto al nivel de confianza se llama nivel de
riesgo, margen de error o nivel de significación y se representa por ⍺➙indica la
probabilidad de que el valor del parámetro NO se encuentra dentro de los límites
definidos ➤se divide en dos partes iguales siendo el área correspondiente de cada una
⍺/2

Entre en nivel de confianza (1- ⍺) y el nivel de riesgo o significación ⍺ existe una


relación inversa➜cuanto mayor es el nivel de confianza menor es margen de error.

8
Karla Marmolejo
Cálculo del Intervalo de Confianza
Para calcular el intervalo de confianza de un parámetro es necesario conocer la distribución muestral del estadístico
correspondiente y los parámetros que la definen➜la esperanza matemática y el error típico

X sigue una distribución normal en la población y se conoce la varianza


poblacional
P (Ẍ - ∣Z∝/2∣ 𝜎/√n ≤ µ ≤ Ẍ + ∣Z∝/2∣ 𝜎/√n) = 1- 𝜶

Los límites del intervalo son:

Para el Linf = Ẍ - ∣Z∝/2∣ 𝜎/√n

parámetro µ Lsup = Ẍ + ∣Z∝/2∣ 𝜎/√n

Error máximo de estimación➜a semi-amplitud (la mitad de la amplitud) del intervalo de


con 𝜎 2
conocida confianza➙indica que el investigador asume con un nivel de confianza del (1- 𝜶)% que la
diferencia máxima entre el valor estimado a partir de la muestra y el valor real del
parámetro es igual a
Emax = ∣Z∝/2∣ 𝜎/√n

Cuando el tamaño muestral sea grande (n>30) y queramos estimar la media poblacional,
podemos utilizar el intervalo antes definido

X sigue una distribución normal en la población pero se desconoce la


varianza poblacional
La distribución muestral de la media Ẍ sigue la distribución t de Student definida por:
Ẍ ➝ t(µ; Sn-1/√n) con n-1 grados de libertad
T = (Ẍ - µ) / Sn-1/√n
Para el
El intervalo de confianza para T sería
parámetro µ P (Ẍ - ∣tn-1;∝/2∣ Sn-1/√n ≤ µ ≤ Ẍ + ∣tn-1;∝/2∣ Sn-1/√n) = 1- 𝜶

con 𝜎 2
Los límites del intervalo son:
Linf = Ẍ - ∣tn-1;∝/2∣ Sn-1/√n
desconocida Lsup = Ẍ + ∣tn-1;∝/2∣ Sn-1/√n

X sigue una distribución desconocida y el tamaño muestral sea n≥30,


Teorema del Límite Central
Linf = Ẍ - ∣Z∝/2∣ Sn-1/√n
Lsup = Ẍ + ∣Z∝/2∣ Sn-1/√n

La distribución muestral del estadístico P cuando se cumple que la muestra es grande


Intervalo de
(n≥30; ó nP≥5 y n(1-P)≥5) es N(0,1) aproximadamente, por lo que
confianza para Z = (P - 𝝅) / √(𝝅(1-𝝅)/n). A partir de la tipificación de P

el parámetro 𝝅 P (P - ∣Z∝/2∣ √(P(1-P)/n) ≤ 𝝅 ≤ P + ∣Z∝/2∣ √(P(1-P)/n)) = 1- 𝜶


(aproximación a L = P - ∣Z ∣ √(P(1-P)/n)
inf ∝/2

la normal Lsup = P + ∣Z∝/2∣ √(P(1-P)/n

9
Karla Marmolejo
La varianza S2x es un estimador sesgado de 𝜎2, siendo la cuasivarianza el estimador

insesgado. Se utiliza la cuasivarianza muestral S2n-1 como estimador de 𝜎2

P ( [(n-1) S2n-1 ] / [𝛘2n-1,∝/2 ] ≥ 𝜎2 ≥ [(n-1) S2n-1 ] / [𝛘2n-1,1-∝/2 ] ) = 1- 𝜶

Intervalo de Linf = [(n-1) S2n-1 ] / [𝛘2n-1,1-∝/2 ]

confianza para Lsup = [(n-1) S2n-1 ] / [𝛘2n-1,∝/2 ]

𝜎
Cuando las muestras son grandes (n>100) la distribución muestral de la varianza
el parámetro 2
insesgada se puede aproximar a la normal N (𝜎2; S2n-1√2/n). Por lo tanto, cuando n>100

P (S2n-1 - ∣Z∝/2∣ S2n-1√2/n≤ 𝜎2 ≤ S2n-1 + ∣Z∝/2∣ S2n-1√2/n) = 1- 𝜶

Linf = S2n-1 - ∣Z∝/2∣ S2n-1√2/n


Lsup = S2n-1 + ∣Z∝/2∣ S2n-1√2/n

10
Karla Marmolejo
Significado del Nivel de Confianza
La probabilidad de que el parámetro desconocido se encuentre entre los límites del intervalo. Sin embargo, el
concepto de probabilidad sólo es aplicable a variables y los límites del intervalo son valores constantes.

Para interpretar correctamente el nivel de confianza asociado al intervalo (por ejemplo 0,95)➜de cada 100 intervalos
que construyamos, se puede esperar que 95 capten el valor del parámetro (intervalos correctos) y 5 no lo capten
(intervalos incorrectos). Una proporción de 1- 𝜶 contendrá al parámetro poblacional y una proporción de 𝜶 no los
contendrá.

Se habla de probabilidad cuando se hace alusión a la variable media, por eso al referirnos al intervalo hablaremos de
confianza y no de probabilidad.

Generalización del la Construcción de Intervalos


Para estimadores con distribución muestral conocida, los pasos son:

1. Determinar el parámetro que queremos estimar y el estadístico (estimador) cumpliendo con las propiedades de un
buen estimador

2. Conocer la distribución muestral del estadístico (estimador) y los parámetros que la definen (media y error típico)

3. Fijar el nivel de significación de 𝜶 o el nivel de confianza 1- 𝜶 ➜𝜶 lo fija el investigador; suele ser por convenio
𝜶=0,05 ó 𝜶=0,01

4. Determinar el error máximo de estimación (Emax)➜producto del error típico de la distribución muestral del
estadístico que estima al parámetro por el valor del estadístico (Z, T, F, etc) correspondiente al nivel de significación
prefijado.

IC = [Estimador ± Error máximo de estimación] = [𝜃 ± Emax]

Factores que afectan al intervalo de confianza


Nivel de confianza➜con 1- 𝜶 = 0,95 tendremos intervalos menos amplios (o más precisos) que con la elección de
1- 𝜶 = 0,99

Error de confianza➜medida de la variabilidad de la distribución muestral del estadístico➙depende del tamaño


muestral n y de la homogeneidad de la muestra, afectando ambos factores al intervalo de confianza.

Tamaño muestral➜inversamente proporcional al error típico➙a mayor tamaño muestral n menor es el error típico➤
menor amplitud del intervalo y mayor precisión

Homogeneidad de la muestra➜si las muestras son homogéneas➙la varianza es pequeña➤ la desviación típica
(poblacional o muestral), o sea el error típico será pequeño➛la amplitud del intervalo es menor y por tanto la precisión
será mayor.

11
Karla Marmolejo
Cálculo del Tamaño Muestral
El tamaño muestral tiene que ser suficiente para garantizar la precisión deseada en la estimación de los parámetros.
Debe ser un número entero por lo que se redondea siempre al inmediato superior. Gira en torno a los conceptos de
error típico y de error máximo de estimación

Se responde a una pregunta sobre la población

Los factores que influyen en la determinación del tamaño muestral


El parámetro que se va a estimar
Estimación de El error máximo Emax que el investigador está dispuesto a admitir
parámetros
El nivel de confianza 1- 𝜶 con el que se trabaja
La Estadística
La precisión que se desea
Paramétrica tiene dos
procedimientos y para La variabilidad que presenta la población
ambos se parte de datos
Se hace una afirmación sobre la población que luego se comprueba
muestrales.
Los factores son:

Contraste de El error tipo I (𝜶) y error tipo II (β) y la potencia estadística


hipótesis Magnitud de la diferencia (o tamaño del efecto)
Direccionalidad de la hipótesis
Variabilidad de la población respecto a la variable en estudio

Tamaño muestral para el parámetro media


Conocida la varianza poblacional
Emax = ∣Z∝/2∣ 𝜎/√n

n = ( ∣Z∝/2∣ 𝜎/Emax)2 = 𝜎2Z2∝/2/E2max

Para poblaciones finitas y muestreo sin reposición debe multiplicarse por el factor de corrección √[(N-n)/(N-1)]
n = (𝜎2Z2∝/2N) / (E2max (N-1) + 𝜎2Z2∝/2)

Desconocida la varianza poblacional


La distribución muestral del estadístico media se ajusta a una distribución t de Student con n-1 grados de libertad
Emax = ∣tn-1;∝/2∣ Sn-1/√n
n = t2n-1;∝/2 S2n-1 / E2max

Para poblaciones finitas y muestreo sin reposición debe multiplicarse por el factor de corrección √[(N-n)/(N-1)]
n = (t2n-1;∝/2 S2n-1 N) / (E2max (N-1) + t2n-1;∝/2 S2n-1)

Como no se conoce n, dos soluciones posibles:


Procedimiento iterativo
Iteración 0➜ g.l.=26; t26;0,025 = -2,06; n = -2,062 x 23,48 / 0,752 = 177,14 ≈ 178
Iteración 1➜ g.l.=177; t177;0,025 = -1,98 (aprox); n = -1,982 x 23,48 / 0,752 = 163,65 ≈ 164
Iteración 2➜ g.l.=163; t163;0,025 = -1,98 (aprox); n = -1,982 x 23,48 / 0,752 = 163,65 ≈ 164

Aproximación a la normal
n = Z2∝/2 S2n-1/E2max

Cómo podemos saber cuál es la varianza insesgada en nuestra muestra?


El procedimiento más cómodo y efectivo es obtener un valor aproximado de la desviación típica insesgada (Sn-1). A
partir de estudios previos, o de la realización de un estudio piloto, partiendo de este valor de Sn-1 se calcula el tamaño
muestral n

12
Karla Marmolejo
Factores que afectan al intervalo de confianza
Cuando n>30
Emax = Z∝/2 √[P(1-P) / n]
n = [Z2∝/2 P(1-P)] / E2max
Lo que se suele hacer en la práctica es suponer que la varianza de la distribución muestral es máxima (p = q = 1-p =
0,5), con lo que la muestra será casi con toda seguridad superior a lo que estrictamente necesario, pero no habrá que
hacer suposiciones arriesgadas sobre el valor de p
Si la población es finita o el muestreo es sin reposición
n = [Z2∝/2 P(1-P) N] / [E2max (N-1) + Z2∝/2 P(1-P)]
Si no se conoce el valor de P se supone varianza máxima, es decir p = 0,5

13

También podría gustarte