0% encontró este documento útil (0 votos)
22 vistas13 páginas

Estimación y Pruebas en Estadística

El documento aborda la estimación estadística, incluyendo la estimación puntual y por intervalo, así como la prueba de hipótesis, que incluye definiciones de hipótesis nula y alternativa, errores tipo I y II, y el proceso de establecimiento de hipótesis. También se discuten la regresión lineal, el coeficiente de correlación, el diseño de experimentos y el análisis de varianza (ANOVA), proporcionando ejemplos de implementación en software como Python. Estos conceptos son esenciales para el análisis de datos en estadística.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
22 vistas13 páginas

Estimación y Pruebas en Estadística

El documento aborda la estimación estadística, incluyendo la estimación puntual y por intervalo, así como la prueba de hipótesis, que incluye definiciones de hipótesis nula y alternativa, errores tipo I y II, y el proceso de establecimiento de hipótesis. También se discuten la regresión lineal, el coeficiente de correlación, el diseño de experimentos y el análisis de varianza (ANOVA), proporcionando ejemplos de implementación en software como Python. Estos conceptos son esenciales para el análisis de datos en estadística.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

Estimación

Definición de Estimación
La estimación es un proceso estadístico utilizado para inferir o aproximar
el valor de un parámetro desconocido de una población a partir de una
muestra. Se basa en la teoría de la probabilidad y la inferencia estadística
para proporcionar valores que representen, con cierto grado de confianza,
características como la media, la varianza o la proporción de una
población.

Tipos de Estimación de Medias y Proporciones


1. Estimación Puntual
La estimación puntual consiste en proporcionar un único valor como
aproximación del parámetro desconocido de la población. Este valor se
obtiene a partir de los datos muestrales y se calcula mediante estadísticos
como la media muestral (xˉ\bar{x}xˉ) o la proporción muestral (p^\hat{p}p^
). Sin embargo, la estimación puntual no proporciona información sobre la
precisión o la incertidumbre del valor estimado.
Ejemplo:
Si se toma una muestra aleatoria de 50 estudiantes y se calcula que su
edad media es de 22 años, esa sería una estimación puntual de la edad
media de todos los estudiantes de la población.
2. Estimación por Intervalo
La estimación por intervalo proporciona un rango de valores dentro del
cual se espera que se encuentre el verdadero parámetro de la población
con un cierto nivel de confianza. Se expresa como un intervalo de
confianza y considera la variabilidad de la muestra para dar una mejor
representación del posible valor real del parámetro.
Prueba de Hipótesis.

Definiciones
1. Hipótesis
Una hipótesis es una suposición o afirmación que se plantea sobre una
población con base en una muestra de datos. En estadística, se utiliza
para realizar pruebas y determinar si existe suficiente evidencia para
aceptar o rechazar una afirmación sobre un parámetro poblacional.
2. Hipótesis Nula
La hipótesis nula es una afirmación que indica que no hay un efecto
significativo o que no existe una diferencia real entre los grupos
analizados. Es la hipótesis que se somete a prueba y se asume verdadera
hasta que se demuestre lo contrario con suficiente evidencia estadística.
Ejemplo:
En un estudio sobre el efecto de un medicamento, la hipótesis nula podría
ser:
"El medicamento no tiene ningún efecto sobre la presión arterial."
3. Hipótesis Alternativa
La hipótesis alternativa es la afirmación opuesta a la hipótesis nula. Indica
que existe un efecto, diferencia o relación significativa en los datos
analizados. Se acepta si hay suficiente evidencia para rechazar la
hipótesis nula.
Ejemplo:
Siguiendo el ejemplo anterior, la hipótesis alternativa sería:
"El medicamento tiene un efecto significativo sobre la presión arterial."
4. Error Tipo I y Error Tipo II
Error Tipo I Ocurre cuando se rechaza la hipótesis nula siendo esta
verdadera. Es un "falso positivo", es decir, se concluye que hay un efecto
cuando en realidad no lo hay.
Ejemplo: Concluir que un medicamento funciona cuando en realidad no
tiene efecto.
Error Tipo II : Se comete cuando no se rechaza la hipótesis nula siendo
esta falsa. Es un "falso negativo", es decir, se falla en detectar un efecto
cuando realmente sí existe.
Ejemplo: No detectar el efecto de un medicamento cuando en realidad sí
es efectivo.

1. Establecimiento de Hipótesis

El primer paso en la prueba de hipótesis es definir dos afirmaciones:

• Hipótesis nula (H_0): Es la afirmación que se somete a prueba y supone que


no hay efecto o diferencia.

• Hipótesis alternativa (H_1): Es la afirmación contraria a la hipótesis nula y


representa el efecto o diferencia esperada.

Para pruebas de media y varianza:

• Una muestra:

o Para la media:

o Para la varianza:

• Dos muestras:

o Para la media:

o Para la varianza:

La hipótesis alternativa puede ser:

• Bilateral:

• Unilateral derecha:

• Unilateral izquierda:

2. Criterio de Aceptación
Se establece el nivel de significancia (α), que indica la probabilidad de rechazar
cuando es verdadera. Valores comunes son:

• (5%)

• (1%)

Con base en , se determina la región crítica, que define el conjunto de valores del
estadístico de prueba donde se rechaza .

3. Estadístico de Prueba

Dependiendo del tipo de prueba y los datos disponibles, se utilizan diferentes


estadísticos:

• Para pruebas de media:

o Si la varianza es conocida, se usa la distribución normal:

o Si la varianza es desconocida, se usa la distribución t-Student:

• Para pruebas de varianza:

o Una muestra: Se usa la distribución chi-cuadrado:

o Dos muestras: Se usa la distribución F de Fisher:


Regresión Lineal y Correlación.
Diagrama de dispersión
El diagrama de dispersión es una representación gráfica que muestra
la relación entre dos variables cuantitativas.
Proceso de construcción:
Recolectar datos de dos variables (X e Y).
Definir el eje horizontal (X) y el eje vertical (Y).
Plasmar los puntos en el plano según los valores de X e Y.
Observar el patrón de los puntos para determinar si existe alguna
relación (positiva, negativa o nula).

Coeficiente de correlación
El coeficiente de correlación mide la intensidad y dirección de la
relación entre dos variables.
Valor entre -1 y 1:
Cercano a 1: Correlación positiva fuerte.
Cercano a -1: Correlación negativa fuerte.
Cercano a 0: No hay relación lineal significativa.
La fórmula del coeficiente de correlación de Pearson es:
r=∑(Xi−Xˉ)(Yi−Yˉ)∑(Xi−Xˉ)2∑(Yi−Yˉ)2r = \frac{\sum (X_i - \bar{X})(Y_i -
\bar{Y})}{\sqrt{\sum (X_i - \bar{X})^2 \sum (Y_i - \bar{Y})^2}}r=∑(Xi
−Xˉ)2∑(Yi−Yˉ)2∑(Xi−Xˉ)(Yi−Yˉ)

Regresión lineal y su interpretación


La regresión lineal busca modelar la relación entre una variable
independiente (XXX) y una variable dependiente (YYY) con una
ecuación de la forma:
Y=a+bXY = a + bXY=a+bX
Donde:
aaa = Intersección con el eje Y (cuando X=0X = 0X=0).
bbb = Pendiente (tasa de cambio de YYY por cada unidad de XXX).
Proceso:
Construcción del diagrama de dispersión: Se observan tendencias en
los datos.
Cálculo del coeficiente de correlación: Se mide la fuerza de la relación
entre XXX y YYY.
Determinación de la ecuación de regresión: Se encuentran aaa y bbb
para modelar la relación entre las variables.

Regresión lineal en software


Software como Excel, R, Python o SPSS facilita la estimación de
regresión lineal.
Proceso en software (ejemplo en Python con sklearn):
python
CopiarEditar
import numpy as np
import [Link] as plt
from sklearn.linear_model import LinearRegression
# Datos de ejemplo
X = [Link]([1, 2, 3, 4, 5]).reshape(-1, 1)
Y = [Link]([2, 3, 5, 6, 8])

# Modelo de regresión
modelo = LinearRegression()
[Link](X, Y)

# Predicciones
Y_pred = [Link](X)

# Gráfica
[Link](X, Y, label="Datos reales")
[Link](X, Y_pred, color='red', label="Línea de regresión")
[Link]()
[Link]()

Pronóstico en regresión lineal


Se utiliza la ecuación de regresión para predecir valores futuros de YYY
para un XXX dado.
Ejemplo: Si la ecuación es:
Y=2+3XY = 2 + 3XY=2+3X
Para X=6X = 6X=6:
Y=2+3(6)=20Y = 2 + 3(6) = 20Y=2+3(6)=20
Diseño de experimentos
El diseño de experimentos (DOE, Design of Experiments) es una
metodología que permite organizar y analizar experimentos para
estudiar el efecto de factores sobre una variable de interés.
Elementos clave:
Factores: Variables controladas en el experimento.
Niveles: Valores que toman los factores.
Tratamientos: Combinaciones de niveles de factores.
Respuesta: Variable medida.
Tipos de diseños experimentales:
Diseño completamente aleatorizado.
Diseño factorial.
Diseño de bloques.
Diseño de experimentos
Elementos de ANOVA (Análisis de varianza)
El ANOVA evalúa si existen diferencias significativas entre grupos.
Fuentes de variación:
Variabilidad entre grupos (debida al tratamiento).
Variabilidad dentro de los grupos (error aleatorio).
Suma de cuadrados (SS, Sum of Squares):
SStotalSS_{total}SStotal: Variabilidad total.
SStratamientoSS_{tratamiento}SStratamiento: Variabilidad explicada
por los tratamientos.
SSerrorSS_{error}SSerror: Variabilidad no explicada.
Cuadrados medios (MS, Mean Square):
MS=SSgrados de libertadMS = \frac{SS}{\text{grados de
libertad}}MS=grados de libertadSS
Estadístico de prueba (F):
F=MStratamientoMSerrorF =
\frac{MS_{tratamiento}}{MS_{error}}F=MSerrorMStratamiento
Si FFF es alto, hay diferencias significativas entre grupos.

Construcción e interpretación de la tabla ANOVA


La tabla ANOVA contiene:
Gra
Fuen dos
p-
te de de
Suma de cuadrados (SS) Cuadrados medios (MS) F va
varia libe
lor
ción rtad
(df)

Entr k−1
F
e SStratamientoSS_{tratam k- MStratamientoMS_{trata pp
F
grup iento}SStratamiento 1k− miento}MStratamiento p
F
os 1

Dent n−k
ro de n- MSerrorMS_{error}MSerro
SSerrorSS_{error}SSerror
grup kn− r
os k

n−1
n-
Total SStotalSS_{total}SStotal -
1n−
1

Si p<0.05p < 0.05p<0.05: Hay diferencias significativas entre los


grupos.

Prueba ANOVA en software


Ejemplo en Python con statsmodels:
python
CopiarEditar
import pandas as pd
import [Link] as sm
from [Link] import ols

# Datos de ejemplo
df = [Link]({
'Grupo': ['A', 'A', 'A', 'B', 'B', 'B', 'C', 'C', 'C'],
'Valor': [5, 7, 9, 8, 10, 12, 15, 17, 20]
})

# ANOVA
modelo = ols('Valor ~ C(Grupo)', data=df).fit()
anova_resultado = [Link].anova_lm(modelo, typ=2)
print(anova_resultado)
Interpretación de salida:
Si p<0.05p < 0.05p<0.05 → Rechazamos H0H_0H0, hay diferencia entre
grupos.
Si p>0.05p > 0.05p>0.05 → No hay evidencia de diferencia significativa.

Conclusión
Estos conceptos y métodos son fundamentales para el análisis de
datos en estadística. La regresión lineal permite predecir valores y el
ANOVA compara medias de grupos. Usar software como Python o R
facilita estos cálculos.
Si necesitas ejemplos con otro software (Excel, R, SPSS), dime y te
ayudo.

También podría gustarte