0% encontró este documento útil (0 votos)
18 vistas5 páginas

Métodos de Muestreo y Estimación Estadística

Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
18 vistas5 páginas

Métodos de Muestreo y Estimación Estadística

Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

MATERIA

Unidad 1
Estadística: Ciencia que se encarga de recolectar, organizar, presentar datos tomar
decisiones con el mejor riesgo posible
Población: recolección completa de todos las observaciones de interés para el investigador
Muestra: parte resentativa de la población que se selecciona para estudiar
¿Por qué tomar una muestra?
Establecer contacto con toda la población requerida mucho tiempo
costo de estudiar todos los elementos de la población.
Métodos de la muestra

1. Probabilístico
▪ Asegura representatividad muestral
▪ Equiprobabilismo
▪ Es un muestreo aleatorio que se da al azar
▪ Todas las posibles muestras tienen la misma probabilidad de ser elegidas.
1.1 Muestreo aleatorio simple: cada elemento de la población tiene la misma
probabilidad de ser elegido
1.2 Muestreo aleatorio sistemático: los elementos se seleccionan cada k elementos
k=N/n
1.3 Muestreo aleatorio estratificado: Se da cuando una población se divide en grupos
llamados estratos y se selecciona al azar una muestra de cada estrato.
1.4 Muestreo por conglomerados: Se da cuando una población se divide en grupos
llamados conglomerados después se selecciona los conglomerados al azar hasta
que se complete el tamaño de la muestra. Los conglomerados son homogéneos
entre sí, pero heterogéneos al interior.
2. No probabilístico
▪ No todos los elementos de la población tienen la misma probabilidad de ser
elegidos.
▪ No se puede hacer generalizaciones
▪ Es útil para pruebas piloto o estudios de caso.
2.1 Muestreo por bola de nieve.
2.2 Muestreo por conveniencia
2.3 Muestro por juicio de valor
2.4 Muestreo discrecional
2.5 Muestreo por cuotas
Error de Muestreo: es la diferencia entre el estadístico muestral y el parámetro poblacional
Media aritmética-u jeje
Teorema de límite central: Al tomar todos las muestras de tamaño n de una población la
distribución de medias muestran tiende a la normalidad esta distribución normal mejora a
medida que el tamaño de la muestra aumenta
Conclusiones:
● 𝜇 = 𝜇𝑥
● 𝜎𝑥 ≤ 𝜎 R𝑥 ≤ 𝑅
● La distribución de medias muestrales se aproxima a la distribución de probabilidad
normal, sin importar la forma de la población.
Unidad 2 Teoría de la Estimación
Estimador puntual: Es la mejor estimación de un parámetro poblacional la mejor estimación
de un parámetro poblacional es el estadístico muestral.
Intervalo de Confianza: Par de valores en donde se espera encontrar el verdadero valor del
parámetro con una cierta probabilidad
Características de una distribución normal: Es una distribución simétrica μ=Me=Mo se
divide en 2 partes iguales cada lado de la distribución 50% a la izquierda y 50% a la derecha.
CARACTERÍSTICAS DE LA DISTRIBUCIÓN T DE STUDENT
● Es una distribución continua
● Es una distribución asintótica
● Es una distribución simétrica
● Se encuentra a la izquierda el 50% de observaciones y 50% a la derecha. X̅=Me=Mo.
● Tiene forma de campana
● La distribución t tiene más dispersión que la distribución normal por lo tanto la
distribución t es más aplanada que la distribución z.
● Existe una familia de distribución t que está en función con los grados de libertad (gl),
es decir a medida que la muestra aumenta la distribución t se aproxima a la
normalidad.
Nivel de confianza: probabilidad con la que se va a encontrar el parámetro de la población
en el intervalo confianza 90% 95% 99%
Margen de error: Cantidad que se suma se resta a la media o a la población para formar el
intervalo de confianza
ELEMENTOS DEL TAMAÑO DE LA MUESTRA
● Nivel de confianza. (existe una variación directa entre el tamaño de la muestra y el
nivel de confianza A MAYOR NIVEL DE CONFIANZA MAYOR TAMAÑO DE LA
MUESTRA.)
● Varianza de los datos (Existe una relación directa entre el tamaño de la muestra y la
variación de los datos. A MAYOR VARIACIÓN EN LOS DATOS MAYOR TAMAÑO
DE LA MUESTRA).
● Margen de error (existe una relación inversa entre el tamaño de la muestra y el margen
de error. CUANDO AUMENTA EL MARGEN DE ERROR, DISMINUYE EL TAMAÑO
DE LA MUESTRA.)
1. Intervalo de Confianza para una media cuando se conoce la desviación estándar
poblacional: (Z)
2. Intervalo de confianza cuando no se conoce la desviación estándar poblacional. (t)
3. Intervalo de confianza para una proporción. (Z)
4. Intervalo de confianza para la diferencia de dos medias independientes cuando se
conoce la desviación estándar poblacional. (Z)
5. Intervalo de confianza para la diferencia de dos medias independientes cuando se
desconoce la desviación estándar poblacional. DESVIACIONES IGUALES (t)
6. Intervalo de confianza para la diferencia de dos medias independientes cuando se
desconoce la desviación estándar poblacional. DESVIACIONES DIFERENTES (t)
7. Intervalo de confianza para la diferencia de medias de poblaciones dependientes. (t)
8. Intervalo de confianza para dos proporciones (Z)
FACTOR DE CORRECCIÓN: Siempre que se aplique el factor de corrección para
poblaciones finitas, el intervalo de confianza será menor.
HIPÓTESIS
Hipótesis: es una afirmación del parámetro poblacional sujeto a verificación.
NIVEL DE SIGNIFICANCIA: es la probabilidad de rechazar una hipótesis nula verdadera.
REGLA DE DECISIÓN: son las condiciones en las que se acepta un hipótesis nula y cuando
se rechaza una hipótesis nula.
VALOR P: es una probabilidad que se compara con el nivel de significancia y sirve para
confirmar la aceptación o el rechazo de la hipótesis nula bajo las siguientes condiciones.
Si el valor p es menor a ∝ se rechaza la Ho
si el valor p es mayor a ∝ se acepta la Ho
0.10 = existe cierta evidencia estadística que la Ho no es verdadera
0.05= existe evidencia fuerte de que la Ho no es verdadera.
0.01= existe evidencia muy fuerte de que la Ho no es verdadera.
0.001= existe evidencia extremadamente fuerte de que la hipótesis nula no es verdadera.
Muestra dependientes: pareadas, relacionadas, las poblaciones son dependientes, siguen
la distribución de probabilidad normal. (t)
1. Prueba de hipótesis para una media cuando se conoce la desviación estándar
poblacional. (Z)
2. Prueba de hipótesis para una media cuando no se conoce la desviación estándar
poblacional (t).
3. Prueba de hipótesis para una proporción. (Z)
4. Prueba de hipótesis para la diferencia de dos medias cuando se conoce la
desviación estándar poblacional. (Z)
5. Prueba de hipótesis para la diferencia de dos medias cuando no se conoce la
desviación estándar poblacional. (t)
6. Prueba de hipótesis para muestras dependientes (t)
7. Prueba de hipótesis para dos proporciones. (Z)
Análisis de Varianza
Comprobar si 2 varianzas son iguales o diferentes
comprobar si 3 o mas medidas son iguales o diferentes
Supuestos:
la población de los datos sigue la distribución poblacional normal
datos con una escala de medición al menos intervalo
estadístico de prueba (F)
Características de la distribución F:
● Existe una familia de distribuciones F, que estan en función de los grados de libertad
del numerador y del denominador. Cuando se tienen tamaños de muestra muy
grandes, por lo tanto, gl altos la distribución tiende a ser normal.
● Es una distribución con sesgo positivo.
● Es una distribución continua parte del cero hacia el infinito positivo.
● Asintótica
● No puede asumir nunca valores negativos.
1. Prueba de Hipótesis para comparar dos varianzas. (F)
2. Prueba de hipótesis para comparar 3 o más medias (F)
3. Comparación si dos medias de tratamientos son iguales o diferentes.(t)

Método Tokey: Se aplica cuando el número de observaciones de cada tratamiento es igual


Regla de decisión:
Si la diferencia entre la X1-X2 < T las medidas no son diferentes
Si la diferencia entre X1 y X2 > T las medidas son diferentes

Analisis de Regresion

Regresión simple: es una ecuación matemática que sirve para explicar las variaciones en
la variable dependiente a partir de una variable independiente.
Coeficiente de correlación de Pearson:
Mide la relación entre 2 variables cuantitativas
toma valores entre -1 y 1
indica la relación y la fuera de relación entre 2 variables
Un valor de coeficiente cero, indica que no hay relaciones entre las dos variables.
Un coeficiente de 1 o -1 indica una correlación perfecta entre las variables.
Se simboliza por la letra r (muestra) y p (rho) población.

Análisis de regresión:
Construir una ecuación que muestre la relación lineal entre 2 variables; una variable
independiente (x) y una variable dependiente (y) con la finalidad de explicar las variaciones
en la variable dependiente (y) a partir de la variable independiente (x)
Residuo o el error:
Es la diferencia entre cada observación de Y y su valor estimado ŷ

1. Prueba de hipótesis para el coeficiente de correlación. (t)


2. Prueba de significancia para la pendiente.(t)

Evaluación de la capacidad predictiva de la Ecuación de regresión


Coeficiente de determinación: es el cuadrado del coeficiente de correlación. Indica el
porcentaje en el que las variaciones de Y(variable dependiente) están siendo aplicadas por
las variaciones en X (variable independiente)
Error de estándar de estimación: Se calcula encontrando la diferencia entre cada
observación de Y y el valor estimado de ŷ elevado al cuadrado y dividendo para el total de
observaciones menos 2, finalmente se encuentra la raíz cuadrada.

Relacion entre el coeficiente de determinación y el error estandar de estimacion:


Existe una relación inversa, mientras más alto es el coeficiente de determinación más
pequeño es el valor del error estandar de estimacion
Media Cuadrática: es la estimación de las varianzas.
Intervalo de confianza: es el rango de valores en los que se espera encontrar al valor
estimado de dado ŷ un valor de x.
Intervalo de predicción: es el par de valores dentro del que se espera que se encuentre el
valor estimado de y (ŷ), dando un valor particular de x.

Análisis de regresión múltiple:


Ecuación en la que se explica la variable dependiente en función de las variables
independientes.

Evaluación de un modelo de regresión múltiple


Error estándar de estimación: Indica el error típico de la ecuación de regresión
Coeficiente de determinación: R2 indica el% en el que esta siendo explicado las variaciones
de la variable dependiente por las variaciones de las variables independientes
Coeficiente de determinación ajustada: Es el coeficiente de determinación ajustado a las
grados de libertad, también indica el % en el que están siendo explicadas las variacione de Y
por las variaciones independientes
Prueba de hipótesis global: Indica si la ecuación de regresión múltiple es significativa o no.
Supuestos que se deben cumplir para el análisis de regresión múltiple:
● Debe existir una relación lineal entre la variable dependiente y las variaciones
independientes
● residuos son homocedásticos
● residuos son independientes
● residuos siguen una distribución normal
● no debe existir multicolinealidad
Linealidad: debe existir una relación lineal entre cada variable independiente (x) y la variable
dependiente (y)
Los residuos son homocedásticos: significa que los residuos tienen varianza constante.
Multicolinealidad: Relación lineal de variables independientes. Las variables independientes
no deben estar relacionadas. Cuando la correlaciones mayor a 0,7 o menos a -0,7 se debe
decidir que la variable dejar en el modelo regresión.
Problemas de la presencia de multicolinealidad:
● Puede salir en coeficiente no significativo cuando en realidad sí es significativo.
● El signo del coeficiente no es el esperado
● si se elimina una variable del modelo existen cambios bruscos en los coeficientes del
modelo
Prueba de bondad de ajuste: comparación de las distribuciones de frecuencias
observada y esperada:
Características de la distribución Ji cuadrada:
● No asume valores negativos (es una distribución que toma valores solo positivos)
● Distribución que tiene sesgo positivo
● Existe una familia de distribuciones que están en función de los grados de libertad. A
medida que se incrementan los grados de libertad, la distribución tiende a la
normalidad
Aplicaciones:
Sirve para probar la bondad de ajuste de una distribución
[Link]ón específico
a. las frecuencias esperadas son iguales
b. las frecuencias esperadas no son iguales
2. Prueba de normalidad
3. Prueba de independencia
Limitaciones de Ji cuadrado:
No se debe realizar un análisis cuando la frecuencia esperada es:
a. si hay 2 categorías la frecuencia esperada (fe) es menor a 5 en uno de los casos
b. Si hay más de 2 categorías la frecuencia esperada (fe) no debe superar al 20% las
cosas en las que la (fe) sea menor que 5
Prueba de independencia:
Comparar si 2 variables están relacionadas o no están relacionadas
sirve para datos cualitativos

También podría gustarte