Intro
A un valor calculado con los datos de una muestra lo llamamos ESTADÍSTICA. Cuando usamos una estadística para jugar
el papel de decir, aproximadamente, el valor de un parámetro de la población, le llamamos ESTIMADOR. Luego esta el
ESTIMADOR PUNTUAL (al decir ``puntual'' queremos decir que para estimar el parámetro estamos usando un valor
único).
Cuando se tiene una fórmula para estimar y se aplica a una muestra aleatoria, el resultado es aleatorio, es decir los
estimadores son variables aleatorias.
Por ejemplo si se recibe un embarque de objetos que pueden estar listos para usarse ó defectuosos.
Podemos seleccionar, al azar, algunos de ellos para darnos una idea de la proporción de defectuosos en el embarque. El
parámetro de interés es la proporción de defectuosos en toda la población, pero lo que observamos es la proporción de
defectuosos en la muestra. El valor de la proporción en la muestra es una variable aleatoria cuya distribución está
emparentada directamente con la binomial (si se tratara del número de defectuosos, sería binomial).
Como cualquier variable aleatoria, el estimador tiene distribución de probabilidad. valor esperado desviación
estándar / varianza.
desarrollo
La distribución de probabilidad de una estadística
Quizá el resultado mas importante para la estadística es el Teorema del Límite Central. Este resultado nos indica que,
para la estadística promedio de la muestra
· el valor esperado es la media de la población.
· la varianza es igual a la de la población dividida por el número de elementos de la muestra.
· la distribución de probabilidad es la normal.
Este teorema es muy importante porque permite calcular probabilidades acerca de dónde se encuentra el valor del
promedio muestra. Es sólo cuestión de usar la tabla normal teniendo cuidado al estandarizar de usar la desviación
estándar adecuada que es la de la población dividida por la raíz cuadrada del número de elementos de la muestra
Valor esperado de un estimador y sesgo
El valor esperado de un estimador nos da un valor alrededor del cual es muy probable que se encuentre el valor del
estimador. Para poner un ejemplo, si supieramos que el valor esperado de una estadística es 4, esto significaría que al
tomar una muestra: No creemos que el valor de la estadística vaya a ser 4 Pero tampoco creemos que el valor de la
estadística vaya a estar lejos de 4.
Ya que es muy probable que el valor del estimador esté cerca de su valor esperado, una propiedad muy deseable es que
ese valor esperado del estimador coincida con el del parámetro que se pretende estimar. Al menos, quisiéramos que el
valor esperado no difiera mucho del parámetro estimado.
Por esa razón es importante la cantidad que, técnicamente llamamos sesgo. El sesgo es la diferencia entre el valor
esperado del estimador y el parámetro que estima.
Si el sesgo 0, se dice que el estimador es instigado y ésta es una característica buena para un estimador. Un estimador
que es instigado tiene una alta probabilidad de tomar un valor cercano al valor del parámetro.
Varianza de un estimador
Otra propiedad importante de un estimador es su varianza (o su raíz cuadrada, la desviación estándar).
La importancia de la desviación estándar es que nos permite darle un sentido numérico a la cercanía del valor del
estimador a su valor esperado.
Entre menor sea la desviación estándar (o la varianza) de un estimador, será más probable que su valor en una muestra
específica se encuentre mas cerca del valor esperado. Para aclarar esto, considere dos estimadores T1 y T2, suponga que
ambos son instigados y suponga que la varianza de T1 es menor que la de T2 ¿Qué quiere decir esto? Simplemente que
en un entorno fijo del valor del parámetro, los valores de T1 son más probables que los de T2. O sea que vamos a
encontrar a T1 más cerca del valor del parámetro que a T2. Esto hace que nuestras preferencias estén con T1.
Cuando un estimador tiene una varianza menor que otro decimos que el estimador es más eficiente.
En el pizarrón vemos algunos estimadores instigados:
· la proporción muestra como estimador de la proporción poblaciones.
· la media muestra como estimador del valor esperado poblaciones.
· la varianza de la muestra como estimador de la varianza de la población.
2. Tipos de estimación estadística
Estimación de parámetros:
Un problema importante de la inferencia estadística es la estimación de parámetros de la población, brevemente
parámetros (tales como la media y la variación de la población), de los correspondientes estadísticos muéstrales, o
simplemente estadísticos(tales como la media y la variación de la muestra).
Estimaciones sin sesgo:
Si la media de las dispersiones de muestreo con un estadístico es igual que la del correspondiente parámetro de la
población, el estadístico se llamara estimador sin sesgo, del parámetro; si no, si no se llama estimador sesgado. Los
correspondientes valores de tal estadístico se llaman estimación sin sesgo, y estimación con sesgo respectivamente.
Ejemplo 1: la media de las distribuciones de muestreo de medias e, media de la población. Por lo tanto, la media
muestral es una estimación sin sesgo de la media de la población.
Ejemplo 2. Las medias de las distribuciones de muestreo de las variables es:
Para ver el grafico seleccione la opción ¨Bajar trabajo¨ del menú superior
Encontramos, de manera que es una estimación sin sesgo de. Sin embargo, s es una estimación sesgada de. En términos
de esperanza podríamos decir que un estadístico es instigado porque Para ver el grafico seleccione la opción ¨Bajar
trabajo¨ del menú superior
Estimación Eficiente:
Si las distribuciones de muestreo de dos estadísticos tienen la misma media(o esperanza), el de menor varianza se llama
un estimador eficiente de la media, mientras que el otro se llama un estimador ineficiente, respectivamente.
Si consideramos todos los posibles estadísticos cuyas distribuciones de muestreo tiene la misma media, aquel de
varianza mínima se llama aveces, el estimador de máxima eficiencia, ósea el mejor estimador.
Estimación por punto
Consiste en la estimación del valor del parámetro mediante un sólo valor, obtenido de una fórmula determinada. Por
ejemplo, si se pretende estimar la talla media de un determinado grupo de individuos, puede extraerse una muestra y
ofrecer como estimación puntual la talla media de los individuos. Lo más importante de un estimador, es que sea un
estimador eficiente. Es decir, que sea insesgado(ausencia de sesgos) y estable en el muestreo o eficiente (varianza
mínima) Estimación puntual. Sea X una variable poblacional con distribución Fθ , siendo θ desconocido. El problema de
estimación puntual consiste en, seleccionada una muestra X1, ..., Xn, encontrar el estadístico T(X1, ..., Xn) que mejor
estime el parámetro θ. Una vez observada o realizada la muestra, con valores x1, ..., xn, se obtiene la estimación puntual
de θ, T(x1, ..., xn) = ˆ θ .
Una estimación puntual de un parámetro poblacional es cuando se utiliza un único valor para estimar ese parámetro, es
decir, se usa un punto en concreto de la muestra para estimar el valor deseado.
Cuando estimamos un parámetro de forma puntual, podemos saber con certeza, cual es ese valor. Imaginemos una
población de 30 personas de las que seleccionamos una muestra de 20 para las que conocemos sus edades. Estimar de
forma puntual la media de edad, sería tan sencillo como sumar esos 20 datos y dividirlos entre el total de la muestra
estadística.
Pensemos ahora en que queremos estimar la altura media de esa muestra. Al contrario que antes, no tenemos el valor
de la altura de cada persona. En este caso no podríamos realizar una estimación puntual, es decir, no podríamos hallar
un valor concreto de esa altura media. En este caso tendríamos que realizar una estimación por intervalos, es decir,
podríamos acotar el valor más alto y más bajo de las alturas de las personas con cierta seguridad o lo que en estadística
se conoce como cierto nivel de confianza.
Propiedades deseables de un estimador
Las propiedades deseables de un estimador son las siguientes:
Insesgadez: Un estimador es insesgado cuando la esperanza matemática del este es igual al parámetro que se desea
estimar. Por tanto, la diferencia entre el parámetro a estimar y la esperanza de nuestro estimador tendría que ser 0.
Eficiente: Un estimador es más eficiente o tiene la capacidad de estimar de forma precisa cuando su varianza es
reducida. Por lo tanto ante 2 estimadores, siempre elegiremos el que tenga una varianza menor.
Consistencia: Un estimador consistente es aquel que a medida que la medida que la muestra crece se aproxima cada vez
más al valor real del parámetro. Por lo tanto, cuantos más y valores entran en la muestra, el parámetro estimado será
más preciso
Vemos a continuación dos métodos para obtener la estimación puntual de un parámetro: método de los momentos y
método de máxima verosimilitud. Método de los momentos: consiste en igualar momentos poblacionales a momentos
muestrales. Deberemos tener tantas igualdades como parámetros a estimar. Momento poblacional de orden r αr = E(Xr)
Momento muestral de orden r ar = Xn i=1 Xr i n