0% encontró este documento útil (0 votos)
109 vistas5 páginas

Hoja Formulas EF

Este documento resume varias fórmulas estadísticas importantes para un examen final, incluyendo el teorema de Bayes, la ley de probabilidades totales, valores esperados, varianzas, distribuciones marginales y condicionales, estimadores de máxima verosimilitud, bondad de ajuste, coeficientes de correlación e intervalos de confianza.

Cargado por

stefanyrsr
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
109 vistas5 páginas

Hoja Formulas EF

Este documento resume varias fórmulas estadísticas importantes para un examen final, incluyendo el teorema de Bayes, la ley de probabilidades totales, valores esperados, varianzas, distribuciones marginales y condicionales, estimadores de máxima verosimilitud, bondad de ajuste, coeficientes de correlación e intervalos de confianza.

Cargado por

stefanyrsr
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

RESUMEN DE FÓRMULAS – EXAMEN FINAL

Teorema de Bayes Muestra de Orden


𝑃(𝐴 ∩ 𝐵) #𝑚(𝑟; 𝐴) = 𝑛𝑟
𝑃(𝐴|𝐵) =
𝑃(𝐵)
Permutaciones
𝑃(𝐴|𝐵)𝑃(𝐵) = 𝑃(𝐵|𝐴)𝑃(𝐴) = 𝑃(𝐴 ∩ 𝐵) 𝑛!
𝑃(𝑟; 𝑛) = ; 𝑟≤𝑛
Ley de Probabilidades Totales (𝑛 − 𝑟)!
Ω = {𝑁1 ∪ 𝑁2} → 𝑃(𝐴) = 𝑃(𝐴 ∩ 𝑁1) + 𝑃(𝐴 ∩ 𝑁2)
Combinaciones
Valor Esperado y Varianza 𝑛!
𝐶(𝑟; 𝑛) =
(𝑛 − 𝑟)! 𝑟!
𝐸[𝑋] = 𝜇 = ∑ 𝑥𝑖 𝑔𝑋 (𝑥𝑖 ) ó ∫ 𝑥𝑓𝑋 (𝑥) 𝑑𝑥 Particiones Ordenadas
𝑅(𝑋) 𝑅(𝑋) 𝑁 𝑁 − 𝑛1 𝑁 − 𝑛1 − 𝑛2 − ⋯ − 𝑛𝑟−1
#𝑃(𝑛1 , 𝑛2 , … , 𝑛𝑟 ; 𝐴) = ( ) ( )…( )
𝑉𝑎𝑟[𝑋] = 𝐸[𝑋 2 ] − (𝐸[𝑋])2 𝑛1 𝑛2 𝑛𝑟
𝑁!
Regla de la Multiplicación #𝑃(𝑛1 , 𝑛2 , … , 𝑛𝑟 ; 𝐴) =
# 𝑇𝑜𝑡𝑎𝑙 𝑑𝑒 𝑟𝑒𝑠𝑢𝑙𝑡𝑎𝑑𝑜𝑠 = 𝑛1 ∗ 𝑛2 ∗ … ∗ 𝑛𝑟 𝑛1 ! 𝑛2 ! … 𝑛𝑟 !

Resumen de Fórmulas – Parcial 3 Página 1 de 1


Distribuciones Marginales

 Discretas
𝑔𝑋 (𝑥) = ∑ 𝑔𝑋𝑌 (𝑥, 𝑦)
Sesgo
𝑅(𝑌)
𝐸(𝜃̂) − 𝜃
 Continuas
𝑓𝑋 (𝑥) = ∫ 𝑓𝑋𝑌 (𝑥, 𝑦)𝑑𝑦 Mínima Varianza
𝑅(𝑌)
𝑉𝑎𝑟(𝜃̂1 ) < 𝑉𝑎𝑟(𝜃̂2 )
Distribución Condicional
Error Cuadrático Medio (ECM)
2
𝑓𝑋𝑌 (𝑥, 𝑦) 𝐸𝐶𝑀(𝜃̂) = 𝑉𝑎𝑟(𝜃̂) + [𝑆𝑒𝑠𝑔𝑜(𝜃̂)]
𝑓𝑋|𝑌 (𝑥, 𝑦) =
𝑓𝑌 (𝑦)
Consistencia
Valor Esperado Lim 𝐸(𝜃̂) = 𝜃 ; lim 𝑉𝑎𝑟(𝜃̂) = 0
𝑛→∞ 𝑛→∞

𝐸(𝑢(𝑋, 𝑌)) = ∫ ∫ 𝑢(𝑋, 𝑌)𝑓𝑋𝑌 (𝑋, 𝑌)𝑑𝑥 𝑑𝑦 Cota Rao-Cramer (CRC)


𝑅(𝑌) 𝑅(𝑋) 1 1
𝐶𝑅𝐶 = = 2
𝛿 2 𝛿
𝑛𝐸 ([ (ln 𝑓𝑋 (𝑥; 𝜃))] ) −𝑛𝐸 ([𝛿𝜃 2 (ln 𝑓𝑋 (𝑥; 𝜃))])
Varianza y Covarianza de una V.A. 𝛿𝜃

𝐶𝑜𝑣(𝑋, 𝑌) = 𝐸(𝑋𝑌) − 𝐸(𝑋)𝐸(𝑌) Estimador de Máxima Verosimilitud



𝑉𝑎𝑟(𝑋) = 𝐸[(𝑥 − 𝜇)2 ] = ∑ (𝑥 − 𝜇)2 𝑓𝑋 (𝑥) = ∫ (𝑥 − 𝜇)2 𝑓𝑋 (𝑥)𝑑𝑥
𝑅(𝑋) −∞ 1) 𝐿(𝑥1 , … , 𝑥𝑛 ; 𝜃) = ∏𝑛𝑖=1 𝑓𝑋 (𝑥𝑖 )
2) 𝑙𝑛(𝐿 (𝑥1 , … , 𝑥𝑛 ; 𝜃))
𝛿
Valor Esperado Condicional 3) [𝑙𝑛(𝑙) (𝑥1 , … , 𝑥𝑛 )] = 0
𝛿𝜃
4) 𝑑𝑒𝑠𝑝𝑒𝑗𝑎𝑟 𝜃 = 𝜃̂

𝐸(𝑋|𝑌 = 𝑏) = ∑ 𝑥𝑓𝑋|𝑌 (𝑥, 𝑌 = 𝑏) Bondad de Ajuste


𝑅(𝑋 |𝑌 )
𝑚
𝐸(𝑋|𝑌 = 𝑏) = ∫ 𝑥𝑓𝑋|𝑌 (𝑥, 𝑌 = 𝑏)𝑑𝑥 (𝑂𝑖 − 𝐸𝑖 )2 (𝑥𝑖 − 𝑛𝑝𝑖 )2 2
𝑅(𝑋|𝑦=𝑏) 𝑌(𝑚−1) = =∑ ~𝜒(𝑚−1)
𝐸𝑖 𝑛𝑝𝑖
𝑖=1

Probabilidades Condicionales
𝑥𝑖 = 𝐹𝑟𝑒𝑐𝑢𝑒𝑛𝑐𝑖𝑎 𝑂𝑏𝑠𝑒𝑟𝑣𝑎𝑑𝑎, 𝑛 =
# 𝑑𝑒 𝑂𝑏𝑠𝑒𝑟𝑣𝑎𝑐𝑖𝑜𝑛𝑒𝑠 𝑇𝑜𝑡𝑎𝑙𝑒𝑠
𝑃(𝑋 ≤ 𝑎|𝑌 = 𝑏) = ∫ 𝑓𝑋|𝑌 (𝑥, 𝑌 = 𝑏)𝑑𝑥
𝑅(𝑋≤𝑎|𝑦=𝑏)
𝑚 = # 𝑑𝑒 𝐶𝑙𝑎𝑠𝑒𝑠
𝑃(𝑋 ≤ 𝑎 ∩ 𝑌 ≤ 𝑏)
𝑃(𝑋 ≤ 𝑎|𝑌 ≤ 𝑏) = 𝑆𝑖 𝑌𝑐𝑎𝑙𝑐𝑢𝑙𝑎𝑑𝑜 > 𝜒 2 (𝑚−1;(1−𝛼)) → 𝑟𝑒𝑐ℎ𝑎𝑧𝑜 𝐻𝑜
𝑃(𝑌 ≤ 𝑏)

Coeficiente de Correlación Distribuciones Muestrales

𝐶𝑜𝑣(𝑋, 𝑌) 𝝌𝟐 : 𝑿𝟐𝟏 + 𝑿𝟐𝟐 + ⋯ + 𝑿𝟐𝒏 → 𝝌𝟐(𝒏)


𝜌𝑋𝑌 = Donde Xi es N(0,1) y Xi es independiente de Xj.
𝜎𝑋 𝜎𝑌
𝑿
𝒕: 𝒀
→ 𝒕(𝒏)

Suma de VAs independientes 𝒏

Sean 𝑋1 𝑦 𝑋2 variables aleatorias independientes con Donde X es N(0,1) y Y es 𝑥 2 (𝑛) , siendo X y Y


función generadoras de momentos independientes.
𝜓𝑥1 (𝑡)𝑦 𝜓𝑥2 (𝑡),respectivamente, y sea 𝑊 = 𝑋1 + 𝑋2
𝑿⁄
Entonces: 𝑭: 𝒏𝟏
→ 𝑭(𝒏𝟏,𝒏𝟐)
𝒀⁄
𝜓𝑊 (𝑡) = 𝜓𝑥1 (𝑡) ∗ 𝜓𝑥2 (𝑡) 𝒏𝟐
Donde X y Y son Vas independientes con distribuciones
𝜒 2 (𝑛1) y 𝜒 2 (𝑛2) respectivamente.

𝟏
Si 𝑿 → 𝑭(𝜶;𝒏𝟏.𝒏𝟐) 𝒆𝒏𝒕𝒐𝒏𝒄𝒆𝒔 𝒀 = → 𝑭(𝟏−𝜶;𝒏𝟐.𝒏𝟏)
𝑿

Resumen de Fórmulas – Parcial 3 Página 2 de 1


Intervalos de Confianza

MEDIA POBLACIONAL()
Distr. Intervalo de Confianza
Var. Pob. Tamaño Muestra
Pob. (1-α)%
𝜎
Normal Conocida Pequeño 𝑋̅ ± 𝑧(1−𝛼)
2 √𝑛
𝑆
Normal Desconocida Pequeño 𝑋̅ ± 𝑡(1−𝛼;𝑛−1)
2 √𝑛
𝜎
Cualquiera Conocida Grande 𝑋̅ ± 𝑧(1−𝛼)
2 √𝑛
𝑠
Cualquiera Desconocida Grande 𝑋̅ ± 𝑧 𝛼
(1− )
2 √𝑛
ESTIMACIÓN DE UNA PROPORCIÓN POBLACIONAL (p)
Distr. Intervalo de Confianza
Var. Pob. Tamaño Muestra
Pob. (1- α)%
Binomial, 𝑝̂ (1 − 𝑝̂ )
Bernoulli, 𝑝̂ ± 𝑧(1−𝛼) √
Desconocida Grande 2 𝑛
Binomial 𝑥
Negativa 𝑝̂ = , donde 𝑥 𝑒𝑠 # é𝑥𝑖𝑡𝑜𝑠
𝑛
ESTIMACIÓN DE UNA VARIANZA POBLACIONAL (σ2)
Distr. Intervalo de Confianza
Var. Pob.
Pob. (1- α)%
(𝑛 − 1)𝑆 2 (𝑛 − 1)𝑆 2
Normal Cualquiera ( ; )
𝜒 2 (1−𝛼;(𝑛−1)) 𝜒 2 (𝛼;(𝑛−1))
2 2
ESTIMACIÓN DE UNA DIFERENCIA DE MEDIAS POBLACIONALES 1-2
Distr. Tamaño Intervalo de Confianza
Var. Pob.
Pob. Muestra (1- α)%
1 1
𝑋̅1 − 𝑋̅2 ± 𝑡(1−𝛼;(𝑛 𝑆𝑐 √ +
1 +𝑛2 −2)) 𝑛1 𝑛2
Desconocidas 2
Pequeños
Normales

e iguales (𝑛1 − 1)𝑆12 + (𝑛2 − 1)𝑆22


𝑑𝑜𝑛𝑑𝑒 𝑆𝑐 = √
𝑛1 + 𝑛2 − 2

𝜎12 𝜎22
Conocidas Cualquiera 𝑋̅1 − 𝑋̅2 ± 𝑧(1−𝛼) √ +
2 𝑛1 𝑛2

𝜎12 𝜎22
Cualquiera Conocidas Grande 𝑋̅1 − 𝑋̅2 ± 𝑧(1−𝛼) √ +
2 𝑛1 𝑛2
ESTIMACIÓN DE UNA DIFERENCIA DE PROPORCIONES POBLACIONALES p1-p2
Distr. Tamaño
Var. Pob. Intervalo de Confianza (1- α)%
Pob. Muestra
𝑝̂1 (1 − 𝑝̂1 ) 𝑝̂2 (1 − 𝑝̂2 )
Bernoulli Desconocidas Grandes 𝑝̂1 − 𝑝̂2 ± 𝑧(1−𝛼) √ +
2 𝑛1 𝑛2
ESTIMACIÓN DE UN COCIENTE DE VARIANZAS POBLACIONALES σ12/ σ22
Distr.
Var. Pob. Intervalo de Confianza (1- α)%
Pob.
𝑆12 𝑠12
Normales Cualquiera ( 𝐹𝛼 ; 𝐹 𝛼 )
𝑆22 ( 2 ;(𝑛2−1);(𝑛1−1)) 𝑠22 (1−2 ;(𝑛2 −1);(𝑛1 −1))

Resumen de Fórmulas – Parcial 3 Página 3 de 1


Pruebas de Hipótesis

Prueba de Hipótesis para la Media Poblacional


Hipótesis Estadístico de Prueba Región Crítica
Hipótesis Nula Supuestos
Alterna (EP) de Rechazo
𝐻1 : 𝜇 < 𝜇0 𝐸𝑃 < −𝑧(1−𝛼)
𝑋 → 𝑁(𝜇, 𝜎02 ) 𝑋̅ − 𝜇0 𝐸𝑃 > 𝑧(1−𝛼)
𝐻1 : 𝜇 > 𝜇0
𝐻0: 𝜇 = 𝜇0 𝜎02 : 𝑐𝑜𝑛𝑜𝑐𝑖𝑑𝑎 → 𝑁(0,1)
𝜎0 /√𝑛 𝐸𝑃 < −𝑧(1−𝛼/2)
𝐻1 : 𝜇 ≠ 𝜇0 𝑋1 , 𝑋2 , … , 𝑋𝑛
𝐸𝑃 > 𝑧(1−𝛼/2)
𝐻1 : 𝜇 < 𝜇0 𝐸𝑃 < −𝑡(1−𝛼);𝑛−1
𝑋 → 𝑁(𝜇, 𝜎 2 ) 𝑋̅ − 𝜇0 𝐸𝑃 > 𝑡(1−𝛼);𝑛−1
𝐻1 : 𝜇 > 𝜇0
𝐻0: 𝜇 = 𝜇0 𝜎 2 : 𝑑𝑒𝑠𝑐𝑜𝑛𝑜𝑐𝑖𝑑𝑎 → 𝑡(𝑛−1)
𝑆/√𝑛 𝐸𝑃 < −𝑡(1−𝛼/2);𝑛−1
𝐻1 : 𝜇 ≠ 𝜇0 𝑋1 , 𝑋2 , … , 𝑋𝑛
𝐸𝑃 > 𝑡(1−𝛼/2);𝑛−1
Prueba de Hipótesis para la Diferencia de Medias Poblacionales
Hipótesis Estadístico de Prueba Región Crítica de
Hipótesis Nula Supuestos
Alterna (EP) Rechazo
𝐻1: 𝜇𝑋 − 𝜇𝑌 < 𝑎 𝑋 → 𝑁(𝜇𝑋 , 𝜎𝑋2 ) 𝐸𝑃 < −𝑧(1−𝛼)
𝐻1: 𝜇𝑋 − 𝜇𝑌 > 𝑎 𝑌 → 𝑁(𝜇𝑌 , 𝜎𝑌2 ) 𝐸𝑃 > 𝑧(1−𝛼)
𝜎𝑋2 , 𝜎𝑌2 : 𝑐𝑜𝑛𝑜𝑐 𝑋̅ − 𝑌̅ − (𝜇𝑋 − 𝜇𝑌 )
X y Y independientes → 𝑁(0,1)
𝐻0 : 𝜇𝑋 − 𝜇𝑌 = 𝑎 𝑋1 , 𝑋2 , … , 𝑋𝑛𝑋 𝜎2 𝜎2
√ 𝑋+ 𝑌 𝐸𝑃 < −𝑧(1−𝛼/2)
𝐻1: 𝜇𝑋 − 𝜇𝑌 ≠ 𝑎 𝑌1 , 𝑌2 , … , 𝑌𝑛𝑌 𝑛𝑋 𝑛𝑌
𝐸𝑃 > 𝑧(1−𝛼/2)
Si las poblaciones no se distribuyen
Normal el tamaño de muestra debe ser
grande, 𝑛𝑋 , 𝑛𝑌 ≥ 3 → TLC
𝐻1: 𝜇𝑋 − 𝜇𝑌 < 𝑎 𝐸𝑃 < −𝑡(1−𝛼; 𝑛𝑋 +𝑛𝑌 −2)
𝐻1: 𝜇𝑋 − 𝜇𝑌 > 𝑎 𝑋 → 𝑁(𝜇𝑋 , 𝜎 2 ) 𝑋̅ − 𝑌̅ − (𝜇𝑋 − 𝜇𝑌 ) 𝐸𝑃 > 𝑡(1−𝛼; 𝑛𝑋 +𝑛𝑌 −2)
→ 𝑡(𝑛𝑋 +𝑛𝑌 −2)
𝑌 → 𝑁(𝜇𝑌 , 𝜎 2 ) 1 1
X y Y independientes 𝑆𝑝√ +
𝐻0 : 𝜇𝑋 − 𝜇𝑌 = 𝑎 𝑛𝑋 𝑛𝑌
𝜎 2 : 𝑑𝑒𝑠𝑐𝑜𝑛𝑜𝑐𝑖𝑑𝑎𝑠 𝑒 𝑖𝑔𝑢𝑎𝑙𝑒𝑠 𝐸𝑃 < −𝑡(1−𝛼; 𝑛
2 𝑋 +𝑛𝑌 −2)
𝐻1: 𝜇𝑋 − 𝜇𝑌 ≠ 𝑎 𝑋1 , 𝑋2 , … , 𝑋𝑛𝑋 𝐸𝑃 > 𝑡(1−𝛼; 𝑛
𝑌1 , 𝑌2 , … , 𝑌𝑛𝑌 (𝑛𝑋 − 1)𝑆𝑋2+ (𝑛𝑌 − 1)𝑆𝑌2 2 𝑋 +𝑛𝑌 −2)
𝑆𝑝 = √
𝑛𝑋 + 𝑛𝑌 − 2
Prueba de Hipótesis para la Proporción
Hipótesis Estadístico de Prueba Región Crítica
Hipótesis Nula Supuestos
Alterna (EP) de Rechazo
𝐻1 : 𝑝 < 𝑝0 𝑋 → 𝐵𝑒𝑟𝑛𝑜𝑢𝑙𝑙𝑖 (𝑝) 𝐸𝑃 < −𝑧(1−𝛼)
𝐻1 : 𝑝 > 𝑝0 𝜎 2 : 𝑑𝑒𝑠𝑐𝑜𝑛𝑜𝑐𝑖𝑑𝑎 𝑝̂−𝑝0 𝐸𝑃 > 𝑧(1−𝛼)
𝐻0 : 𝑝 = 𝑝0 𝑋1 , 𝑋2 , … , 𝑋𝑛
~𝑁(0,1)
𝑝0 (1−𝑝0 )
√ 𝐸𝑃 < −𝑧(1−𝛼/2)
𝐻1 : 𝑝 ≠ 𝑝0 𝑛 ≥ 30 𝑛
𝑝̂ = 𝑋̅ 𝐸𝑃 > 𝑧(1−𝛼/2)
Prueba de Hipótesis para la Diferencia de Proporciones
Hipótesis Estadístico de Prueba Región Crítica
Hipótesis Nula Supuestos
Alterna (EP) de Rechazo
𝐻1: 𝑝𝑥 − 𝑝𝑦 < 0 𝑋 → 𝐵𝑒𝑟𝑛𝑜𝑢𝑙𝑙𝑖 (𝑝𝑥 ) 𝐸𝑃 < −𝑧(1−𝛼)
𝐻1: 𝑝𝑥 − 𝑝𝑦 > 0 𝑌 → 𝐵𝑒𝑟𝑛𝑜𝑢𝑙𝑙𝑖 (𝑝𝑦 ) 𝑝̂𝑥 − 𝑝̂ 𝑦 − (𝑝𝑥 − 𝑝𝑦 ) 𝐸𝑃 > 𝑧(1−𝛼)
X y Y in’dependientes ~𝑁(0,1)
𝐻0 : 𝑝𝑥 − 𝑝𝑦 = 0 𝑋1 , 𝑋2 , … , 𝑋𝑛𝑋 1 1
√𝑝̂ 𝑞̂ (𝑛 + 𝑛 ) 𝐸𝑃 < −𝑧(1−𝛼/2)
𝐻1: 𝑝𝑥 − 𝑝𝑦 ≠ 0 𝑌1 , 𝑌2 , … , 𝑌𝑛𝑌 𝑥 𝑦

𝑛𝑋 , 𝑛𝑌 ≥ 30 𝐸𝑃 > 𝑧(1−𝛼/2)
𝑛𝑥 𝑝̂ 𝑥 + 𝑛𝑦 𝑝̂𝑦
𝑝̂𝑋 = 𝑋̅ y 𝑝 ̂𝑌 = 𝑌̅ 𝑝̂ = 𝑞̂ = 1 − 𝑝̂
𝑛𝑥 + 𝑛𝑦
Prueba de Hipótesis para la Varianza
Hipótesis Estadístico de Prueba Región Crítica de
Hipótesis Nula Supuestos
Alterna (EP) Rechazo
2
𝐻1: 𝜎 2 < 𝜎 2 0 𝐸𝑃 < 𝜒(𝛼; 𝑛−1)
𝐻1: 𝜎 2 > 𝜎 2 0 𝑋 → 𝑁(𝜇, 𝜎 2 ) (𝑛 − 1)𝑆 2 2
𝐸𝑃 > 𝜒(1−𝛼; 𝑛−1)
2
𝐻0 : 𝜎 2 = 𝜎 2 0 𝜎 2 : 𝑑𝑒𝑠𝑐𝑜𝑛𝑜𝑐𝑖𝑑𝑎 → 𝜒(𝑛−1) 2
𝑋1 , 𝑋2 , … , 𝑋𝑛 𝜎20 𝐸𝑃 < 𝜒(𝛼/2; 𝑛−1)
𝐻1: 𝜎 2 ≠ 𝜎 2 0 2
𝐸𝑃 > 𝜒(1−𝛼/2; 𝑛−1)
Prueba de Hipótesis para las Varianzas de dos Poblaciones
Hipótesis Estadístico de Prueba Región Crítica de
Hipótesis Nula Supuestos
Alterna (EP) Rechazo
𝜎𝑋2
𝐻1 : 2 > 1 𝑋 → 𝑁(𝜇𝑋 , 𝜎𝑋2 ) 𝐸𝑃 > 𝐹(1−𝛼; 𝑛𝑋 −1; 𝑛𝑌 −1)
𝜎𝑌
𝑌 → 𝑁(𝜇𝑌 , 𝜎𝑌2 )
𝜎𝑋2 𝜎𝑋2 𝑆𝑋2
𝐻0 : 2 =1 𝐻1 : 2 < 1 𝜎𝑋2 𝑦 𝜎𝑌2 : 𝑑𝑒𝑠𝑐𝑜𝑛𝑜𝑐𝑖𝑑𝑎𝑠 → 𝐹(𝑛𝑋 −1; 𝑛𝑌 −1) 𝐸𝑃 < 𝐹(𝛼; 𝑛𝑋 −1; 𝑛𝑌 −1)
𝜎𝑌 𝜎𝑌 X y Y independientes 𝑆𝑌2
𝜎𝑋2 X corresponde a la población que tiene 𝐸𝑃 < 𝐹(𝛼/2; 𝑛𝑋 −1; 𝑛𝑌 −1)
𝐻1 : 2 ≠ 1 la mayor varianza muestral.
𝜎𝑌 𝐸𝑃 > 𝐹(1−𝛼/2; 𝑛𝑋 −1; 𝑛𝑌 −1)

Resumen de Fórmulas – Examen Final Página 4 de 5


Regresión Lineal

𝒀 = 𝜷𝟎 + 𝜷𝟏 𝑿 + 𝒆 𝒀 = 𝜷 𝟎 + 𝜷 𝟏 𝑿𝟏 + 𝜷 𝟐 𝑿𝟐 + ⋯ + 𝜷 𝒋 𝑿𝒋 + 𝒆

𝑆𝑢𝑝𝑢𝑒𝑠𝑡𝑜𝑠: Estimación de parámetros


𝐸(𝑒𝑖 ) = 0; 𝑉𝑎𝑟(𝑒𝑖 ) = 𝜎 2 ;
𝐶𝑜𝑣(𝑒𝑖 , 𝑒𝑗 ) = 0 ∀ 𝑖 ≠ 𝑗; 𝑒𝑖 ~𝑁(0, 𝜎 2 ) ̂0 + 𝛽
𝒆̂𝒊 = 𝑦𝑖 − (𝛽 ̂1 𝑥𝑖 + ⋯ + 𝛽̂𝑗 𝑥𝑖𝑗 )

Estimación de parámetros Prueba asociada

𝑒𝑖 = 𝑦𝑖 − 𝑦̂𝑖 𝑆𝐶𝑇 = 𝑆𝐶𝑅 + 𝑆𝐶𝐸

𝐻𝑎𝑙𝑙𝑎𝑟 𝛽 ̂1 𝑐𝑜𝑛 𝑆𝐶𝐸 = ∑ 𝑒̂𝑖 2


̂0 𝑦 𝛽 Recuerde:
𝑃𝑟𝑢𝑒𝑏𝑎 𝑠𝑖𝑔𝑛𝑖𝑓𝑖𝑐𝑎𝑛𝑐𝑖𝑎 𝑔𝑙𝑜𝑏𝑎𝑙 → 𝐹
̂0 = 𝑦̅ − 𝛽
𝛽 ̂1 𝑥̅ ̂1 = ∑(𝑥𝑖 −𝑥̅ )(𝑦𝑖2−𝑦̅)
𝛽 𝑃𝑟𝑢𝑒𝑏𝑎 𝑠𝑖𝑔𝑛𝑖𝑓𝑖𝑐𝑎𝑛𝑐𝑖𝑎 𝑖𝑛𝑑𝑖𝑣𝑖𝑑𝑢𝑎𝑙 → 𝑡
∑(𝑥 )
𝑖 −𝑥̅

𝛽̂𝑖
Propiedades de los estimadores 𝑡(𝑔𝑙 𝑒𝑟𝑟𝑜𝑟) =
(Centrados) 𝑑𝑒𝑠(𝛽̂𝑖 )

E(β̂1 ) = β1 𝑆𝐶𝑅
𝑞 𝑀𝐶𝑅
𝐹(𝑞;𝑛−𝑞−1) → =
𝜎2 𝑆𝐶𝐸 ⁄𝑛 − 𝑞 − 1 𝑀𝐶𝐸
𝑉𝑎𝑟(𝛽1 ) = 𝑑𝑜𝑛𝑑𝑒 𝑆𝑋𝑋 = ∑(𝑥𝑖 − 𝑥̅ )
𝑆𝑥𝑥
Intervalo de Confianza
Prueba asociada
𝐼𝐶(1−𝛼) (𝛽𝑖 ) = 𝛽̂ ± 𝑡(1−𝛼,𝑛−𝑞−1) 𝑑. 𝑒(𝛽̂ )
𝑆𝐶𝑇 = 𝑆𝐶𝑅 + 𝑆𝐶𝐸 2

∑(𝑦𝑖 − 𝑦̅)2 = ∑(𝑦̂𝑖 − 𝑦̅)2 + ∑(𝑦𝑖 − 𝑦̂)


𝑖
2

𝑆𝐶𝑅
𝐹(1;𝑛−2) →
𝑆𝐶𝐸 ⁄𝑛−2

𝑆𝐶𝑅 𝑆𝐶𝐸
𝑅2 = =1− 0 ≤ 𝑅2 ≤ 1
𝑆𝐶𝑇 𝑆𝐶𝑇

Resumen de Fórmulas – Examen Final Página 5 de 5

También podría gustarte