Estadística II: Análisis de Regresión Lineal
Formulario
Regresión Lineal Simple 1. Inferencia para la pendiente de la recta (𝜷𝟏 )
̂𝟐
𝝈
Donde ̂) = 𝜷
𝑬(𝜷 ̂) =
𝑽( 𝜷
𝟏 𝟏 𝟏 𝑺𝒙𝒙
𝒚 = 𝑉𝑎𝑟𝑖𝑎𝑏𝑙𝑒 𝑑𝑒𝑝𝑒𝑛𝑑𝑖𝑒𝑛𝑡𝑒 ̂1 (t-student)
Distribución del estimador 𝛽
𝒚 = 𝜷𝟎 + 𝜷𝟏 𝑿 + 𝜺𝒊 𝒙 = 𝑉𝑎𝑟𝑖𝑎𝑏𝑙𝑒 𝑖𝑛𝑑𝑒𝑝𝑒𝑛𝑑𝑖𝑒𝑛𝑡𝑒 ̂𝟏 − 𝜷𝟏
𝜷
𝜷𝟎 = 𝐶𝑜𝑟𝑡𝑒 𝑐𝑜𝑛 𝑒𝑙 𝑒𝑗𝑒 𝑦 ~ 𝒕 𝒄𝒐𝒏 𝒗 = 𝒏 − 𝟐
𝟐
𝜷𝟏 = 𝑃𝑒𝑛𝑑𝑖𝑒𝑛𝑡𝑒 √𝝈̂
𝑺𝒙𝒙
𝜺𝒊 = 𝐸𝑟𝑟𝑜𝑟 𝑟𝑒𝑙𝑎𝑡𝑖𝑣𝑜 Un intervalo de confianza del (1-α)100% para 𝜷𝟏 viene dado por:
̂𝟐 ̂𝟐
𝐸(𝑦𝑖) = 𝛽0 + 𝛽1 𝑋𝑖 𝒚𝒊 ~ 𝑵(𝜷𝟎 + 𝜷𝟏 𝑿𝒊, 𝝈𝟐 ) ̂ − 𝒕𝜶 , 𝒗√ 𝝈 < 𝜷 < 𝜷
𝜷 ̂ + 𝒕𝜶 , 𝒗√ 𝝈
𝟏 ⁄𝟐 𝟏 𝟏 ⁄𝟐
𝑺𝒙𝒙 𝑺𝒙𝒙
𝑉(𝑦𝑖) = 𝑉(𝜀𝑖 ) = 𝜎 2 Prueba de hipótesis
Estadístico de Prueba Ho H1
𝜀𝑖 = 𝑦𝑖 − 𝛽0 − 𝛽1 𝑥𝑖 = 𝑦𝑖 − 𝐸(𝑦𝑖) ̂𝟏 − 𝜷𝟏
𝜷 𝜷𝟏 ≠ 𝜷′𝟏
𝒕𝒐 =
̂𝟐 𝜷𝟏 > 𝜷′𝟏
∑ 𝒙𝒊 ∑ 𝒚𝒊 √𝝈 𝜷𝟏 = 𝜷′𝟏
̂𝟎 = ∑ 𝒚𝒊
̂𝟏 ∑ 𝒙𝒊
̂𝟏 𝑿
̅−𝜷 ̅ ̂𝟏 =
∑ 𝒙𝒊𝒚𝒊−
𝒏 𝑺𝒙𝒚 𝑺𝒙𝒙 𝜷𝟏 < 𝜷′𝟏
𝜷
𝒏
−𝜷
𝒏
=𝒀 𝜷 (∑ 𝒙𝒊)𝟐
= 𝑺𝒙𝒙
∑ 𝒙𝒊𝟐 − 𝒕𝟎 > 𝒕𝛂/𝟐,𝛎 , 𝒕𝟎 < −𝒕𝛂/𝟐,𝛎
𝒏
Región crítica 𝒕𝟎 > 𝒕𝛂,𝛎 𝒕𝟎 < −𝒕𝛂,𝛎
2
(∑ 𝑥𝑖)
𝑆𝑥𝑥 = ∑(𝑥𝑖 − 𝑋̅ )2 = ∑ 𝑥𝑖(𝑥𝑖 − 𝑋̅)2 = ∑ 𝑥𝑖 2 −
𝑛
2. Prueba de la significancia de la regresión
2
(∑ 𝑦𝑖) Estadístico de Prueba Ho H1
𝑆𝑦𝑦 = ∑(𝑦𝑖 − 𝑌̅ )2 = ∑ 𝑦𝑖(𝑦𝑖 − 𝑌̅)2 = ∑ 𝑦𝑖 2 − ̂𝟏
𝑛 𝜷 𝜷𝟏 ≠ 𝟎
𝒕𝒐 =
̂𝟐 𝜷𝟏 = 𝟎 𝜷𝟏 > 𝟎
∑ 𝑥𝑖 ∑ 𝑦𝑖 √𝝈 𝜷𝟏 < 𝟎
𝑆𝑥𝑦 = ∑(𝑥𝑖 − 𝑋̅)(𝑦𝑖 − 𝑌̅) = ∑ 𝑦𝑖(𝑥𝑖 − 𝑋̅) = ∑ 𝑥𝑖𝑦𝑖 − 𝑺𝒙𝒙
𝑛 𝒕𝟎 > 𝒕𝛂/𝟐,𝛎 , 𝒕𝟎 < −𝒕𝛂/𝟐,𝛎
Cuadrado medio del error Región crítica 𝒕𝟎 > 𝒕𝛂,𝛎 𝒕𝟎 < −𝒕𝛂,𝛎
𝑺𝑪𝑬 ̂ 𝑆𝑥𝑦
𝑪𝑴𝑬 = = 𝝈𝟐 ̂ )2 = 𝑆𝑦𝑦 − 𝛽
Dónde: 𝑆𝐶𝐸 = ∑(𝑦𝑖 − 𝑦𝑖 1
𝒏−𝟐 3. Inferencia para el corte con el eje
𝟏 𝑿̅𝟐
NOTA: Todas las sumatorias (Σ) son de la forma ∑𝑛
𝑖=1 ̂𝟎 ) = 𝜷𝟎
𝐸(𝜷 ̂𝟎 ) = 𝝈
𝑽(𝜷 ̂𝟐 [ + ]
𝒏 𝑺𝒙𝒙
̂0 (t-student)
Distribución del estimador 𝛽
̂𝟎 − 𝜷𝟎
𝜷
~ 𝒕 𝒄𝒐𝒏 𝒗 = 𝒏 − 𝟐
𝟏 𝑿̅𝟐
√𝝈
̂𝟐 [ + ]
𝒏 𝑺𝒙𝒙
Estadística II: Análisis de Regresión Lineal
Formulario
Un intervalo de confianza del (1-α)100% para 𝜷𝟎 viene dado por: Un intervalo de predicción del (1-α)100% para el valor esperado de 𝒚
𝟏 𝑿̅𝟐 𝟏 𝑿̅𝟐 dado un 𝒙𝒐 (𝒚𝒐) viene dado por:
̂𝟎 − 𝒕𝜶⁄ , 𝒗√𝝈
𝜷 ̂𝟐 [ + ̂𝟎 + 𝒕𝜶⁄ , 𝒗√𝝈
] < 𝜷𝟎 < 𝜷 ̂𝟐 [ + ]
𝟐 𝒏 𝑺𝒙𝒙 𝟐 𝒏 𝑺𝒙𝒙
̅ )𝟐
𝟏 (𝒙𝟎 − 𝑿 ̅ )𝟐
𝟏 (𝒙𝒐 − 𝑿
Prueba de hipótesis 𝒚 ̂ 𝟐 [𝟏 +
̂𝒙𝟎 − 𝒕𝜶⁄ , 𝒗√𝝈 + ̂𝒙𝟎 + 𝒕𝜶⁄ , 𝒗√𝝈
] < 𝑬(𝒀𝒙𝟎 ) < 𝒚 ̂ 𝟐 [𝟏 + + ]
𝟐 𝒏 𝑺𝒙𝒙 𝟐 𝒏 𝑺𝒙𝒙
Estadístico de Prueba Ho H1
̂𝟎 − 𝜷𝟎
𝜷
𝒕𝒐 = 𝜷𝟎 ≠ 𝜷′𝟎 6. Análisis de varianza en regresión lineal (ANOVA)
𝟏 𝑿 ̅𝟐 𝜷𝟎 = 𝜷′𝟎 𝜷𝟎 > 𝜷′𝟎
√𝝈̂𝟐 [ + ] 𝜷𝟎 < 𝜷′𝟎
𝒏 𝑺𝒙𝒙
Suma Grados
Fuente de Cuadrados Estadístico
𝒕𝟎 > 𝒕𝛂/𝟐,𝛎 , 𝒕𝟎 < −𝒕𝛂/𝟐,𝛎 de de
Región crítica variación medios de prueba
𝒕𝟎 > 𝒕𝛂,𝛎 𝒕𝟎 < −𝒕𝛂,𝛎 cuadrados Libertad
𝑆𝐶𝑅
Regresión SCR 1 𝐶𝑀𝑅 = 𝐶𝑀𝑅
1
4. Intervalo de confianza para la media 𝒚 dado un 𝒙𝟎 (𝒚𝟎 ) 𝑓𝑜 =
𝟏 ̅ )𝟐
(𝒙𝒐−𝑿 Error SCE n-2 𝐶𝑀𝐸 =
𝑆𝐶𝐸
= 𝜎̂ 2
𝐶𝑀𝐸
̂)
𝑬(𝒚 𝟎 = 𝜷 𝟎 + 𝜷 𝟏 𝑿𝟎 ̂)
𝑽(𝒚 ̂𝟐 [ +
𝟎 =𝝈 ] 𝑛−2
𝒏 𝑺𝒙𝒙
Distribución del estimador 𝑌̂0 (t-student) Total SCTO n-1
̂𝟎 − 𝑬(𝒀𝒐)
𝒀 𝑆𝑐𝑡𝑜 = ∑(𝑦𝑖 − 𝑌̅ )2 = 𝑆𝑦𝑦 𝑆𝑢𝑚𝑎 𝑑𝑒 𝑐𝑢𝑎𝑑𝑟𝑎𝑑𝑜𝑠 𝑡𝑜𝑡𝑎𝑙𝑒𝑠
~ 𝒕 𝒄𝒐𝒏 𝒗 = 𝒏 − 𝟐
̅ )𝟐
𝟏 (𝒙𝒐 − 𝑿
√𝝈
̂𝟐 [ + ] ̂1 𝑆𝑥𝑦 𝑆𝑢𝑚𝑎 𝑑𝑒 𝑐𝑢𝑎𝑑𝑟𝑎𝑑𝑜𝑠 𝑑𝑒 𝑙𝑎 𝑟𝑒𝑔𝑟𝑒𝑠𝑖ó𝑛
𝒏 𝑺𝒙𝒙 ̂ − 𝑌̅)2 = 𝛽
𝑆𝑐𝑟 = ∑(𝑦𝑖
Un intervalo de confianza del (1-α)100% para el valor esperado de 𝒚 dado un
𝒙𝟎 (𝒚𝟎 ) viene dado por: 𝑆𝑐𝑒 = ∑(𝑦𝑖 − 𝑦𝑖 ̂1 𝑆𝑥𝑦 𝑆𝑢𝑚𝑎 𝑑𝑒 𝑐𝑢𝑎𝑑𝑟𝑎𝑑𝑜𝑠 𝑑𝑒𝑙 𝑒𝑟𝑟𝑜𝑟
̂ )2 = 𝑆𝑦𝑦 − 𝛽
𝟐 𝟐
̅)
𝟏 (𝒙𝟎 − 𝑿 ̅)
𝟏 (𝒙𝒐 − 𝑿
̂𝟐 [ +
𝒚̂𝟎 − 𝒕𝜶⁄𝟐 , 𝒗√𝝈 ] < 𝑬(𝒚𝟎 ) < 𝒚 ̂𝟐 [ +
̂𝟎 + 𝒕𝜶⁄ , 𝒗√𝝈 ] Prueba de significancia de la regresión utilizando ANOVA
𝒏 𝑺𝒙𝒙 𝟐 𝒏 𝑺𝒙𝒙
Estadístico de Prueba Ho H1
5. Intervalo de predicción 𝒇𝒐 =
𝑪𝑴𝑹
𝒗𝟏 = 𝟏 ; 𝒗𝟐 = 𝒏 − 𝟐 𝜷𝟏 = 𝟎 𝜷𝟎 ≠ 𝟎
𝟏 ̅ )𝟐
(𝒙𝒐−𝑿 𝑪𝑴𝑬
̂𝒙𝟎 ) = 𝜷𝟎 + 𝜷𝟏 𝑿𝟎
𝑬(𝒚 ̂)
𝑽(𝒚 ̂ 𝟐 [𝟏 + +
𝟎 =𝝈 ]
𝒏 𝑺𝒙𝒙
Región crítica 𝒇𝟎 > 𝒇𝛂,𝛎𝟏.𝐯𝟐
Distribución del estimador 𝑦̂𝑥0 (t-student)
̂𝒙𝟎 − 𝑬(𝒀𝒙𝟎 )
𝒚
~ 𝒕 𝒄𝒐𝒏 𝒗 = 𝒏 − 𝟐 Relación entre el estadístico f0 y el estadístico t0 de la prueba de significancia de la
̅ )𝟐
𝟏 (𝒙𝒐 − 𝑿 regresión:
√𝝈
̂𝟐 [𝟏 + + ]
𝒏 𝑺𝒙𝒙
(𝒕𝟎 )𝟐 = 𝒇𝟎
Estadística II: Análisis de Regresión Lineal
Formulario
7. Coeficiente de determinación (𝑹𝟐 ) 10. Análisis de residuales (Supuestos del modelo)
1. Normalidad (Obligatoria)
𝑺𝑪𝑹 𝑺𝑪𝑻𝑶 − 𝑺𝑪𝑬 𝑺𝑪𝑬 a) Histograma
𝑹𝟐 = = =𝟏− 𝟎 ≤ 𝑹𝟐 ≤ 𝟏
𝑺𝑪𝑻𝑶 𝑺𝑪𝑻𝑶 𝑺𝑪𝑻𝑶
b) Probabilidad normal (Gráfica 𝑃𝑖 𝑉𝑠 𝜀𝑖 )
𝜺𝒊
8. Coeficiente de Correlación poblacional (𝝆) 𝜺𝒊 = 𝒚𝒊 − 𝒚̂𝒊 ; 𝜺𝒊 ~𝑵(𝟎, 𝝈𝟐 ) 𝜺𝒊𝒔 = ; 𝜺𝒊𝒔 ~𝑵(𝟎, 𝟏)
𝑪𝒐𝒗(𝒙, 𝒚) √𝑪𝑴𝑬
𝝆= 𝑺ó𝒍𝒐 𝒓𝒆𝒍𝒂𝒄𝒊ó𝒏 𝒍𝒊𝒏𝒆𝒂𝒍 c) Índices de asimetría y curtosis
𝝈𝒙 𝝈𝒚
d) Pruebas paramétricas: Kolmogorov o Chi-Cuadrada
𝒏 𝒏
2. Independencia estadística (IE)
̅)(𝒚𝒊 − 𝒚
∑ ∑(𝒙𝒊 − 𝒙 ̅)𝒇(𝒙, 𝒚) 𝑽𝒂𝒓𝒊𝒂𝒍𝒆𝒔 𝒂𝒍𝒆𝒂𝒕𝒐𝒓𝒊𝒂𝒔 𝒅𝒊𝒔𝒄𝒓𝒆𝒕𝒂𝒔
𝒙 𝒖
a) Método gráfico (𝑒𝑖𝑠 𝑉𝑆 𝑡)
Condiciones: Comportamiento aleatorio y −2 ≤ 𝜀𝑖𝑠 ≤ +2
∞ ∞
∫ ∫ (𝒙𝒊 − 𝒙
̅)(𝒚𝒊 − 𝒚
̅)𝒇(𝒙, 𝒚) 𝑽𝒂𝒓𝒊𝒂𝒃𝒍𝒆𝒔 𝒂𝒍𝒆𝒂𝒕𝒐𝒓𝒊𝒂𝒔 𝒄𝒐𝒏𝒕𝒊𝒖𝒏𝒂𝒔 b) Prueba paramétrica de Durbin-Watson (Se cumple el supuesto
−∞ −∞ de normalidad)
𝝆 = −𝟏; 𝒓𝒆𝒍𝒂𝒄ó𝒏 𝒍𝒊𝒏𝒆𝒂𝒍 𝒏𝒆𝒈𝒂𝒕𝒊𝒗𝒂 𝒑𝒆𝒓𝒇𝒆𝒄𝒕𝒂
𝑫𝒘 = 𝟐(𝟏 − 𝝆) 𝜺𝒕 = 𝝆𝜺𝒕−𝟏 + 𝒏𝒕
−𝟏 ≤ 𝝆 ≤ +𝟏 𝝆 = 𝟎; 𝒏𝒐 𝒆𝒙𝒊𝒔𝒕𝒆 𝒓𝒆𝒍𝒂𝒄𝒊ó𝒏
𝝆 = −𝟏 → 𝑫𝒘 = 𝟒
𝝆 = +𝟏; 𝒓𝒆𝒍𝒂𝒄𝒊ó𝒏 𝒍𝒊𝒏𝒆𝒂𝒍 𝒑𝒐𝒔𝒊𝒕𝒊𝒗𝒂 𝒑𝒆𝒓𝒇𝒆𝒄𝒕𝒂
𝝆 = 𝟎 → 𝑫𝒘 = 𝟐 𝟏, 𝟓 ≤ 𝑫𝒘 ≤ 𝟐, 𝟓 𝒔𝒆 𝒄𝒖𝒎𝒑𝒍𝒆 𝒆𝒍 𝒔𝒖𝒑𝒖𝒆𝒔𝒕𝒐 𝒅𝒆 𝑰𝑬
9. Coeficiente de correlación maestral (R) 𝝆 = +𝟏 → 𝑫𝒘 = 𝟎
𝑺𝒙𝒚
𝑹= Estadístico de Prueba Ho H1
√𝑺𝒙𝒙√𝑺𝒚𝒚
∑𝒏𝒊=𝟐(𝜺𝒊 − 𝜺𝒊−𝟏 )𝟐
𝟎 ≤ |𝑹| ≤ 𝟎. 𝟓; 𝒆𝒙𝒊𝒔𝒕𝒆 𝒖𝒏𝒂 𝒓𝒆𝒍𝒂𝒄𝒊ó𝒏 𝒅é𝒃𝒊𝒍 𝑫𝒘 = 𝝆>𝟎
−𝟏 ≤ 𝑹 ≤ +𝟏 𝟎. 𝟓 < |𝑹| < 𝟎. 𝟖; 𝒆𝒙𝒊𝒔𝒕𝒆 𝒖𝒏𝒂 𝒓𝒆𝒍𝒂𝒄𝒊ó𝒏 𝒅𝒎𝒐𝒅𝒆𝒓𝒂𝒅𝒂 ∑𝒏𝒊=𝟏 𝜺𝒊 𝟐 𝝆=𝟎
𝟎. 𝟖 ≤ |𝑹| ≤ 𝟏; 𝒆𝒙𝒊𝒔𝒕𝒆 𝒖𝒏𝒂 𝒓𝒆𝒍𝒂𝒄𝒊ó𝒏 𝒇𝒖𝒆𝒓𝒕𝒆 𝑫𝒘 < 𝒅𝑳 ; 𝒔𝒆 𝒓𝒆𝒄𝒉𝒂𝒛𝒂 𝑯𝟎
Prueba de Hipótesis (Contra 0) 𝑫𝒘 > 𝒅𝑼 ; 𝒏𝒐 𝒔𝒆 𝒑𝒖𝒆𝒅𝒆 𝒓𝒆𝒄𝒉𝒂𝒛𝒂𝒓 𝑯𝟎
Regla de decisión
Estadístico de Prueba Ho H1 𝒅𝑳 < 𝑫𝒘 < 𝒅𝑼 ; 𝒍𝒂 𝒑𝒓𝒖𝒆𝒃𝒂 𝒏𝒐 𝒆𝒔 𝒄𝒐𝒏𝒄𝒍𝒖𝒚𝒆𝒏𝒕𝒆
𝝆≠𝟎
𝑹√𝒏 − 𝟐
𝒕𝒐 = 𝝆=𝟎 𝝆>𝟎
√𝟏 − 𝑹𝟐 𝝆<𝟎
𝒕𝟎 > 𝒕𝛂/𝟐,𝛎 , 𝒕𝟎 < −𝒕𝛂/𝟐,𝛎 Estadístico de Prueba Ho H1
𝒅 = 𝟒 − 𝑫𝒘 𝝆=𝟎 𝝆>𝟎
Región crítica 𝒕𝟎 > 𝒕𝛂,𝛎 𝒕𝟎 < −𝒕𝛂,𝛎
𝒅 < 𝒅𝑳 ; 𝒔𝒆 𝒓𝒆𝒄𝒉𝒂𝒛𝒂 𝑯𝟎
Prueba de hipótesis (Contra cualquier otro valor)
𝒅 > 𝒅𝑼 ; 𝒏𝒐 𝒔𝒆 𝒑𝒖𝒆𝒅𝒆 𝒓𝒆𝒄𝒉𝒂𝒛𝒂𝒓 𝑯𝟎
Estadístico de Prueba Ho H1 Regla de decisión
𝝆 ≠ 𝝆𝟎 𝒅𝑳 < 𝒅 < 𝒅𝑼 ; 𝒍𝒂 𝒑𝒓𝒖𝒆𝒃𝒂 𝒏𝒐 𝒆𝒔 𝒄𝒐𝒏𝒄𝒍𝒖𝒚𝒆𝒏𝒕𝒆
√𝒏 − 𝟑 (𝟏 + 𝑹)(𝟏 − 𝝆𝟎 )
𝒛𝒐 = 𝑳𝒏 [ ] 𝝆 = 𝝆𝟎 𝝆 > 𝝆𝟎
𝟐 (𝟏 − 𝑹)(𝟏 + 𝝆𝟎 )
𝝆 < 𝝆𝟎
𝒛𝟎 > 𝒛𝛂/𝟐 , 𝒛𝟎 < −𝒛𝛂/𝟐 3. Varianza contante
Región crítica 𝒛𝟎 > 𝒛𝛂 𝒛𝟎 < −𝒛𝛂
Método gráfico (𝜀𝑖𝑠 𝑉𝑆 𝑥 ó 𝑦̂)
Estadística II: Análisis de Regresión Lineal
Formulario
4. Linealidad (Prueba de bondad de ajuste) Propiedades del logaritmo neperiano
Fuente de Suma Grados Cuadrados Estadístico 𝑳𝒏(𝟏) = 𝟎 𝑳𝒏(𝒆) = 𝟏 𝑳𝒏(𝒆𝒏 ) = 𝒏
variación de de medios de prueba
cuadrados Libertad 𝑳𝒏(𝒙⁄𝒚) = 𝑳𝒏(𝒙) − 𝑳𝒏(𝒚) 𝑳𝒏(𝒙. 𝒚) = 𝑳𝒏(𝒙) + 𝑳𝒏(𝒚) 𝒍𝒏(𝒙𝒏 ) = 𝒏𝑳𝒏(𝒙)
𝑺𝑪𝑹
Regresión SCR 1 𝑪𝑴𝑹 =
𝟏 𝑪𝑴𝑹
𝒇𝒐 =
𝑺𝑪𝑬 𝑪𝑴𝑬
Error SCE n-2 𝑪𝑴𝑬 = ̂𝟐
=𝝈
𝒏−𝟐
𝑺𝑪𝑭𝑨
SCFA m-2 𝑪𝑴𝑭𝑨 =
Falta de ajuste 𝒎−𝟐 𝑪𝑴𝑭𝑨
𝒇𝟎 =
𝑺𝑪𝑬𝑷 𝑪𝑴𝑬𝑷
SCEP n-m 𝑪𝑴𝑬𝑷 =
Error Puro 𝒏−𝒎
Total SCTO n-1
𝑺𝒚𝒚 = 𝑺𝑪𝑹 + 𝑺𝑪𝑬
𝑺𝑪𝑬 = 𝑺𝑪𝑭𝑨 + 𝑺𝑪𝑬𝑷
𝑮𝑳𝑬 = 𝑮𝑳𝑭𝑨 + 𝑮𝑳𝑬𝑷
𝑮𝑳𝑬𝑷 = 𝒏 − 𝒎
𝒎 = 𝒏ú𝒎𝒆𝒓𝒐 𝒅𝒆 𝒗𝒂𝒍𝒐𝒓𝒆𝒔 𝒅𝒊𝒔𝒕𝒊𝒏𝒕𝒐𝒔 𝒅𝒆 𝒍𝒂 𝒗𝒂𝒓𝒊𝒂𝒃𝒍𝒆 𝒊𝒏𝒅𝒆𝒑𝒆𝒏𝒅𝒊𝒆𝒏𝒕𝒆(𝒙)
Estadístico de Prueba Ho H1
𝑪𝑴𝑭𝑨
𝒇𝒐 = 𝒗𝟏 = 𝒎 − 𝟐 ; 𝑬(𝒚)
𝑪𝑴𝑬𝑷 𝑬(𝒚) = 𝜷𝟎 + 𝜷𝟏 𝑿
𝒗𝟐 = 𝒏 − 𝒎 ≠ 𝜷𝟎 + 𝜷𝟏 𝑿
Región crítica 𝒇𝟎 > 𝒇𝛂,𝛎𝟏.𝐯𝟐
11. Linealización de funciones
Función Transformación Forma Lineal
∗ ∗
𝒚 = 𝑳𝒏𝒚 𝒚 = 𝑳𝒏𝜷𝟎 + 𝜷𝟏 𝑳𝒏𝒙
𝒚 = 𝜷𝟎 𝒙𝜷𝟏
𝒙∗ = 𝑳𝒏𝒙 𝒚∗ = 𝑳𝒏𝜷𝟎 + 𝜷𝟏 𝒙∗
𝒚 = 𝜷𝟎 𝒆𝜷𝟏𝒙 𝒚∗ = 𝑳𝒏𝒚 𝒚∗ = 𝑳𝒏𝜷𝟎 + 𝜷𝟏 𝒙
𝟏 𝟏
𝒚 = 𝜷𝟎 + 𝜷𝟏 ( ) 𝒙∗ = 𝒚 = 𝑳𝒏𝜷𝟎 + 𝜷𝟏 𝒙∗
𝒙 𝒙
𝒙 𝟏 𝟏 𝒚∗ = 𝜷𝟎 + 𝜷𝟏 𝒙∗
𝒚= 𝒚∗ = 𝒙∗ =
𝜷𝟎 + 𝜷𝟏 𝒙 𝒚 𝒙