0% encontró este documento útil (0 votos)
37 vistas3 páginas

Formulario Segundo Parcial

Este documento presenta varios métodos estadísticos para el análisis de regresión lineal múltiple, incluyendo la estimación de parámetros, pruebas de hipótesis, intervalos de confianza, predicción y selección de modelos. Explica cómo calcular la matriz de correlación, realizar pruebas t de significancia individual de predictores, y usar la prueba F para determinar si un conjunto de variables mejora significativamente la predicción de una variable dependiente.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
37 vistas3 páginas

Formulario Segundo Parcial

Este documento presenta varios métodos estadísticos para el análisis de regresión lineal múltiple, incluyendo la estimación de parámetros, pruebas de hipótesis, intervalos de confianza, predicción y selección de modelos. Explica cómo calcular la matriz de correlación, realizar pruebas t de significancia individual de predictores, y usar la prueba F para determinar si un conjunto de variables mejora significativamente la predicción de una variable dependiente.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

FORMULARIO MAT 1136 FORMULARIO MAT 1136

ANALISIS DE REGRESIÓN LINEAL MÚLTIPLE PREDICCIÓN: INTERVALO DE CONFIABILIDAD PARA 𝒀𝟎

Estimación de los parámetros bi del modelo de regresión múltiple 1


−𝟏 𝑋1
𝒃=𝑨 𝒈 𝑋0 = 𝑋2 𝑋0𝑇 = (1 𝑋1 𝑋2 ⋯ 𝑋𝑘 )

𝑛 ∑ 𝑋1 ∑ 𝑋2 ∑ 𝑋3 ∑𝑌 (𝑋𝑘 )
∑ 𝑋1 ∑ 𝑋1 2 ∑ 𝑋1 𝑋2 ∑ 𝑋3 𝑋1 ∑ 𝑋1 𝑌
𝐴= 𝒈=( )
∑ 𝑋2 ∑ 𝑋2 𝑋1 ∑ 𝑋2 2 ∑ 𝑋3 𝑋2 ∑ 𝑋2 𝑌 INTERPOLACIONES

(∑ 𝑋3 ∑ 𝑋3 𝑋1 ∑ 𝑋3 𝑋2 ∑ 𝑋3 2 ) ∑ 𝑋3 𝑌 ̂ 𝟎 − 𝒕𝟎 𝑺√𝑿𝑻𝟎 𝑨−𝟏 𝑿𝟎 ≤ 𝝁𝒀/𝑿 ,𝑿 ,⋯,𝑿 ≤ 𝒀


̂ 𝟎 + 𝒕𝟎 𝑺√𝑿𝑻𝟎 𝑨−𝟏 𝑿𝟎 ) = 𝟏 − 𝜶
𝑷 (𝒀 𝟏 𝟐 𝒌

INFERENCIA ESTADISTICA EN EL MARCO DE REGRESION LINEAL MULTIPLE EXTRAPOLACIONES


Prueba de hipótesis para 𝜷𝒊 ̂ 𝟎 − 𝒕𝟎 𝑺√𝟏 + 𝑿𝑻𝟎 𝑨−𝟏 𝑿𝟎 ≤ 𝝁𝒀/𝑿 ,𝑿 ,⋯,𝑿 ≤ 𝒀
𝑷 (𝒀 ̂ 𝟎 + 𝒕𝟎 𝑺√𝟏 + 𝑿𝑻𝟎 𝑨−𝟏 𝑿𝟎 ) = 𝟏 − 𝜶
𝟏 𝟐 𝒌
1)
𝐻0 : 𝛽𝑖 = 0 MEJOR MODELO
𝐻1 : 𝛽𝑖 ≠ 0 𝐻0 : 𝐿𝑎 𝑎𝑑𝑖𝑐𝑖ó𝑛 𝑑𝑒 𝑙𝑎𝑠 𝑣𝑎𝑟𝑖𝑎𝑏𝑙𝑒𝑠 𝑖𝑛𝑑𝑒𝑝𝑒𝑛𝑑𝑖𝑒𝑛𝑡𝑒𝑠 𝑍1 , 𝑍2 , … , 𝑍ℎ 𝑎 𝑢𝑛 𝑚𝑜𝑑𝑒𝑙𝑜 𝑑𝑒 𝑟𝑒𝑔𝑟𝑒𝑠𝑖ó𝑛
2.- 𝛼 = ⋯ 𝑙𝑖𝑛𝑒𝑎𝑙 𝑚ú𝑙𝑡𝑖𝑝𝑙𝑒 𝑞𝑢𝑒 𝑦𝑎 𝑖𝑛𝑐𝑙𝑢𝑦𝑒 𝑎 𝑙𝑎𝑠 𝑣𝑎𝑟𝑖𝑎𝑏𝑙𝑒𝑠 𝑖𝑛𝑑𝑒𝑝𝑒𝑛𝑑𝑖𝑒𝑛𝑡𝑒𝑠 𝑋1 , 𝑋2 , … , 𝑋𝑝 𝑁𝑂 𝑀𝐸𝐽𝑂𝑅𝐴 𝑙𝑎
𝑝𝑟𝑒𝑑𝑖𝑐𝑐𝑖ó𝑛 𝑑𝑒 𝑙𝑎 𝑣𝑎𝑟𝑖𝑎𝑏𝑙𝑒 𝑑𝑒𝑝𝑒𝑛𝑑𝑖𝑒𝑛𝑡𝑒 𝑌.
3.- estadístico de prueba
𝐻1 : 𝐿𝑎 𝑎𝑑𝑖𝑐𝑖ó𝑛 𝑑𝑒 𝑙𝑎𝑠 𝑣𝑎𝑟𝑖𝑎𝑏𝑙𝑒𝑠 𝑖𝑛𝑑𝑒𝑝𝑒𝑛𝑑𝑖𝑒𝑛𝑡𝑒𝑠 𝑍1 , 𝑍2 , … , 𝑍ℎ 𝑎 𝑢𝑛 𝑚𝑜𝑑𝑒𝑙𝑜 𝑑𝑒 𝑟𝑒𝑔𝑟𝑒𝑠𝑖ó𝑛
𝐵𝑖 − 𝛽𝑖 Rechazar 𝑯𝟎 si: 𝑙𝑖𝑛𝑒𝑎𝑙 𝑚ú𝑙𝑡𝑖𝑝𝑙𝑒 𝑞𝑢𝑒 𝑦𝑎 𝑖𝑛𝑐𝑙𝑢𝑦𝑒 𝑎 𝑙𝑎𝑠 𝑣𝑎𝑟𝑖𝑎𝑏𝑙𝑒𝑠 𝑖𝑛𝑑𝑒𝑝𝑒𝑛𝑑𝑖𝑒𝑛𝑡𝑒𝑠 𝑋1 , 𝑋2 , … , 𝑋𝑝 𝑆𝐼 𝑀𝐸𝐽𝑂𝑅𝐴 𝑙𝑎
𝑇= ~𝑡𝑛−𝑘−1 𝑝𝑟𝑒𝑑𝑖𝑐𝑐𝑖ó𝑛 𝑑𝑒 𝑙𝑎 𝑣𝑎𝑟𝑖𝑎𝑏𝑙𝑒 𝑑𝑒𝑝𝑒𝑛𝑑𝑖𝑒𝑛𝑡𝑒 𝑌.
𝑆 √𝑐𝑖𝑖 |𝑻𝒄𝒂𝒍𝒄𝒖𝒍𝒂𝒅𝒐| > 𝒕𝟎 𝐻0 : 𝑌1 = 𝑌2 = 𝑌3 = ⋯ = 𝑌ℎ = 0
𝐻1 : 𝐴𝑙 𝑚𝑒𝑛𝑜𝑠 𝑑𝑒 𝑢𝑛𝑜 𝑑𝑒 𝑒𝑠𝑡𝑜𝑠 𝑌𝑗 (𝑗 = 1,2,3, … , ℎ) ≠ 0
1. α=…
Intervalo de confiabilidad para 𝛽𝑖 2. Estadístico de Prueba.
𝑆𝑆𝑅(𝑋1 , 𝑋2 , … , 𝑋𝑝 ; 𝑍1 , 𝑍2 , … , 𝑍ℎ ) − 𝑆𝑆𝑅( 𝑋1, 𝑋2 , … , 𝑋𝑝 )
Rechazar 𝑯𝟎 si:

Poder predictivo del modelo 𝐹=
𝑆𝑆𝐸(𝑋1, 𝑋2 , … , 𝑋𝑝 ; 𝑍1 , 𝑍2, … , 𝑍ℎ )
~𝐹ℎ; 𝑛−(𝑝+ℎ+1) 𝑭𝒄𝒂𝒍𝒄𝒖𝒍𝒂𝒅𝒐 > 𝑭𝒕𝒂𝒃𝒍𝒂𝒔
𝑛 − (𝑝 + ℎ + 1)
𝐻0 : 𝛽1 = 𝛽2 = 𝛽3 = ⋯ = 𝛽𝑘 = 0
n= tamaño de la muestra
𝐻1 : 𝐴𝑙 𝑚𝑒𝑛𝑜𝑠 𝑑𝑒 𝑢𝑛𝑜 𝑑𝑒 𝑒𝑠𝑡𝑜𝑠 𝛽𝑗 (𝑗 = 1,2,3, … , 𝑘) ≠ 0
p= número de variables independientes en el modelo inicial
1. α=0,05
𝑆𝑆𝑅 h= número de variables independientes se desea añadir
𝐹= 𝑘 ~𝐹𝑘; 𝑛−𝑘−1 Rechazar 𝑯𝟎 si:
𝑆𝑆𝐸 𝑭𝒄𝒂𝒍𝒄𝒖𝒍𝒂𝒅𝒐 > 𝑭𝒕𝒂𝒃𝒍𝒂𝒔
𝑛−𝑘−1

Fuente de Suma de Grados de Cuadrado


𝑭𝒄𝒂𝒍𝒄𝒖𝒍𝒂𝒅𝒐
Variación Cuadrados Libertad Medio
Regresión SSR k 𝑆𝑆𝑅
𝑆𝑆𝑅
𝑘
Error SSE n-k-1 𝑆𝑆𝐸 𝑘
𝑆𝑆𝐸
𝑛−𝑘−1 𝑛−𝑘−1
= 𝑆2
TOTAL SST n-1

(∑𝒏𝒊=𝟏 𝒀𝒊)𝟐 (∑𝑛1 𝑌𝑖 )2


𝑺𝑺𝑹 = ∑𝒌𝒋=𝟎 𝒃𝒋𝑮𝒋 − 𝒏
𝑆𝑆𝑇 = 𝑆𝑌𝑌 = ∑𝑛1 (𝑌𝑖 )2 − 𝑛
𝑺𝑺𝑬 = 𝑺𝑺𝑻 − 𝑺𝑺𝑹
FORMULARIO MAT 1136 FORMULARIO MAT 1136

ANALISIS DE CORRELACIÓN LINEAL MÚLTIPLE


𝑯𝟎 : 𝝆𝒀;𝑿𝟏,𝑿𝟐,…,𝑿𝒌 = 𝟎
MATRIZ DE CORRELACIÓN LINEAL SIMPLE 𝑯𝟏 : 𝝆𝒀;𝑿𝟏,𝑿𝟐,…,𝑿𝒌 ≠ 𝟎
𝑌 𝑋1 𝑋2 𝑋3 𝑋4 2.- α= (1-10%)
𝑌 𝑟𝑌,𝑋1 𝑟𝑌,𝑋2 𝑟𝑌,𝑋3 𝑟𝑌,𝑋4
𝑋1 1 3.- Estadístico de prueba
Rechazar 𝑯𝟎 si:
1 𝑟𝑋1,𝑋2 𝑟𝑋1,𝑋3 𝑟𝑋1,𝑋4 𝑅𝑌;𝑋1 ,𝑋2 ,…,𝑋𝑘 √𝑛−𝑘−1
𝑋2 ⋯ 𝑇= ~ 𝑡𝑛−𝑘−1
𝑟𝑋2,𝑋3 𝑟𝑋2,𝑋4
𝑋3 ⋯ ⋯ 1 2
√1−𝑅𝑌;𝑋1 ,𝑋2 ,…,𝑋𝑘 |𝑻𝒄𝒂𝒍𝒄𝒖𝒍𝒂𝒅𝒐 | > 𝒕𝟎
⋯ ⋯ ⋯ 1 𝑟𝑋3,𝑋4
𝑋4 SEGUNDA PRUEBA
(⋯ ⋯ ⋯ ⋯ 1 )
1.-
𝑆𝑦𝑥1 ∑ 𝑦 ∑ 𝑥1 (∑ 𝑦)2 (∑ 𝑥1 )2 𝑯𝟎 : 𝝆𝒀;𝑿𝟏,𝑿𝟐,…,𝑿𝒌 = 𝝆𝟎
𝑅𝑌,𝑋1 = 𝑆𝑦𝑥1 = ∑ 𝑦𝑥1 − 𝑆𝑦𝑦 = ∑ 𝑦 2 − 𝑆𝑥1𝑥1 = ∑ 𝑥12 − 𝑯𝟏 : 𝝆𝒀;𝑿𝟏,𝑿𝟐,…,𝑿𝒌 ≠ 𝝆𝟎
√𝑆𝑦𝑦 𝑆𝑥1 𝑥1 𝑛 𝑛 𝑛
𝝆 > 𝝆 𝟎 ; 𝝆 < 𝝆𝟎
COEFICIENTE DE CORRELACIÓN LINEAL MÚLTIPLE 2.- α= (1-10%)
∑𝑛𝑖=1 𝑌𝑖 𝑌̂𝑖 − 𝑛𝑌̅ 2 𝑆𝑦𝑦̂ 3.- Estadístico de prueba
𝑅𝑌;𝑋1,𝑋2,…,𝑋𝑘 = = (1+𝑅𝑌;𝑋1 ,𝑋2 ,…,𝑋𝑘 )(1−𝜌𝑌;𝑋1 ,𝑋2 ,…,𝑋𝑘 )
𝑆 𝑆 √𝑛−3
√(∑𝑛𝑖=1 𝑌𝑖2 − 𝑛𝑌̅ 2 )(∑𝑛𝑖=1 𝑌̂𝑖2 − 𝑛𝑌̅ 2 ) √ 𝑦𝑦 𝑦̂𝑦̂ 𝑍=
2
𝐿𝑛 [
(1−𝑅𝑌;𝑋 ,𝑋 ,…,𝑋 )(1+𝜌𝑌;𝑋 ,𝑋 ,…,𝑋 )
] ~𝑁(0,1) Rechazar 𝑯𝟎 si:
1 2 𝑘 1 2 𝑘
|𝒁𝒄𝒂𝒍𝒄𝒖𝒍𝒂𝒅𝒐 | > 𝒁𝟎
2
𝑆𝑆𝑅
𝑅𝑌;𝑋1 ,𝑋2 ,…,𝑋𝑘
=√
𝑆𝑆𝑇 INTÉRVALO DE CONFIABILIDAD PARA 𝝆𝒀;𝑿𝟏 ,𝑿𝟐,…,𝑿𝒌
𝟏 𝟏 + 𝑟𝑌;𝑋1 ,𝑋2 ,…,𝑋𝑘 𝒁𝒐 𝟏 𝟏 + 𝜌𝑌;𝑋1 ,𝑋2 ,…,𝑋𝑘 𝟏 𝟏 + 𝑟𝑌;𝑋1 ,𝑋2 ,…,𝑋𝑘 𝒁𝒐
𝑷 [ 𝐥𝐧 ( )− ≤ 𝐥𝐧 ( ) ≤ 𝐥𝐧 ( )+ ]
𝟐 𝟏 − 𝑟𝑌;𝑋1 ,𝑋2 ,…,𝑋𝑘 √𝑵 − 𝟑 𝟐 𝟏 − 𝜌𝑌;𝑋1 ,𝑋2 ,…,𝑋𝑘 𝟐 𝟏 − 𝑟𝑌;𝑋1 ,𝑋2 ,…,𝑋𝑘 √𝑵 − 𝟑
Coeficiente de correlación lineal parcial simple de primer orden:
Variable de control: Z 𝒆𝟐𝑨−𝟏 𝒆𝟐𝑩−𝟏
𝑅𝑌,𝑋 − 𝑅𝑌,𝑍 𝑅𝑋,𝑍 𝑳𝑰 = 𝒆𝟐𝑨+𝟏 𝑳𝑺 = 𝒆𝟐𝑩+𝟏 𝑷[𝑳𝑰 ≤ 𝜌𝑌;𝑋1 ,𝑋2 ,…,𝑋𝑘 ≤ 𝑳𝑺] = 𝟏−∝
𝑅𝑌,𝑋/𝑍 =
2
√(1 − 𝑅𝑌,𝑍 2
)(1 − 𝑅𝑋,𝑍 ) INFERENCIA ESTADISTICA RELACIONADA CON EL COEFICIENTE DE CORRELACIÓN LINEAL
PARCIAL SIMPLE
𝑌 𝑋2 𝑋3 ⋯ 𝑋𝑘 PRUEBA DE HIPÓTESIS
𝑌 𝑟𝑌,𝑋2/𝑋1 𝑟𝑌,𝑋3/𝑋1 ⋯ 𝑟𝑌,𝑋𝑘 /𝑋1
𝑋2 1 1.-
⋯ 1 𝑟𝑋2,𝑋3/𝑋1 ⋯ 𝑟𝑋2,𝑋𝑘 /𝑋1
𝑋3 𝑯𝟎 : 𝑁𝑜 𝑒𝑥𝑖𝑠𝑡𝑒 𝑐𝑜𝑟𝑟𝑒𝑙𝑎𝑐𝑖ó𝑛 𝑙𝑖𝑛𝑒𝑎𝑙 𝑒𝑛𝑡𝑟𝑒 𝑙𝑎 𝑣𝑎𝑟𝑖𝑎𝑏𝑙𝑒 𝑑𝑒𝑝𝑒𝑛𝑑𝑖𝑒𝑛𝑡𝑒 𝑌 𝑦 𝑙𝑎 𝑣𝑎𝑟𝑖𝑎𝑏𝑙𝑒
⋯ ⋯ 1 ⋯ 𝑟𝑋3,𝑋𝑘 /𝑋1
⋮ 𝑖𝑛𝑑𝑒𝑝𝑒𝑛𝑑𝑖𝑒𝑛𝑡𝑒 𝑋; 𝑙𝑢𝑒𝑔𝑜 𝑑𝑒 𝑐𝑜𝑛𝑡𝑟𝑜𝑙𝑎𝑟 𝑑𝑒 𝑒𝑠𝑡𝑎 𝑐𝑜𝑟𝑟𝑒𝑙𝑎𝑐𝑖ó𝑛 𝑙𝑜𝑠 𝑒𝑓𝑒𝑐𝑡𝑜𝑠 𝑑𝑒 𝑙𝑎𝑠
⋯ ⋯ ⋯ ⋯ ⋮
𝑋𝑘 𝑣𝑎𝑟𝑖𝑎𝑏𝑙𝑒𝑠 𝑖𝑛𝑑𝑒𝑝𝑒𝑛𝑑𝑖𝑒𝑛𝑡𝑒𝑠 𝑍1 , 𝑍2 , … , 𝑍𝑞
( ⋯ ⋯ ⋯ ⋯ 1 )
𝑯𝟏 : 𝐸𝑥𝑖𝑠𝑡𝑒 𝑐𝑜𝑟𝑟𝑒𝑙𝑎𝑐𝑖ó𝑛 𝑙𝑖𝑛𝑒𝑎𝑙 𝑒𝑛𝑡𝑟𝑒 𝑙𝑎 𝑣𝑎𝑟𝑖𝑎𝑏𝑙𝑒 𝑑𝑒𝑝𝑒𝑛𝑑𝑖𝑒𝑛𝑡𝑒 𝑌 𝑦 𝑙𝑎 𝑣𝑎𝑟𝑖𝑎𝑏𝑙𝑒
𝑖𝑛𝑑𝑒𝑝𝑒𝑛𝑑𝑖𝑒𝑛𝑡𝑒 𝑋; 𝑙𝑢𝑒𝑔𝑜 𝑑𝑒 𝑐𝑜𝑛𝑡𝑟𝑜𝑙𝑎𝑟 𝑑𝑒 𝑒𝑠𝑡𝑎 𝑐𝑜𝑟𝑟𝑒𝑙𝑎𝑐𝑖ó𝑛 𝑙𝑜𝑠 𝑒𝑓𝑒𝑐𝑡𝑜𝑠 𝑑𝑒 𝑙𝑎𝑠
Coeficiente de correlación lineal parcial simple de segundo orden: 𝑣𝑎𝑟𝑖𝑎𝑏𝑙𝑒𝑠 𝑖𝑛𝑑𝑒𝑝𝑒𝑛𝑑𝑖𝑒𝑛𝑡𝑒𝑠 𝑍1 , 𝑍2 , … , 𝑍𝑞
Variable de control: Z, W 𝑯𝟎 : 𝜌𝑌,𝑋/𝑍1,𝑍2 ,…,𝑍𝑞 = 0
𝑯𝟏 : 𝜌𝑌,𝑋/𝑍1,𝑍2 ,…,𝑍𝑞 ≠ 0
𝑅𝑌,𝑋/𝑍 − 𝑅𝑌,𝑊/𝑍 𝑅𝑋,𝑊/𝑍 𝑅𝑌,𝑋/𝑊 − 𝑅𝑌,𝑍/𝑊 𝑅𝑌,𝑍/𝑊
𝑅𝑌,𝑋/𝑍,𝑊 = = 2.- α= (1-10%)
2 2 2 2 3.- Estadístico de prueba
√(1 − 𝑅𝑌,𝑊/𝑍 )(1 − 𝑅𝑋,𝑊/𝑍 ) √(1 − 𝑅𝑌,𝑍/𝑊 )(1 − 𝑅𝑋,𝑍/𝑊 )
𝑺𝑺𝑹(𝑍1, 𝑍2 , … , 𝑍𝑞 , 𝑋) − 𝑺𝑺𝑹(𝑍1, 𝑍2 , … , 𝑍𝑞 )
𝑭= ~𝑭𝟏;𝒏−𝒒−𝟐
INFERENCIA ESTADÍSTICA RELACIONADA CON 𝛒𝐘;𝐗𝟏 ,𝐗𝟐,…,𝐗𝐤 𝑺𝑺𝑬(𝑍1, 𝑍2 , … , 𝑍𝑞 , 𝑋)
PRIMERA PRUEBA 𝑛−𝑞−2
q= numero de variables que se controlan de la correlación
𝑯𝟎 : 𝑁𝑜 𝑒𝑥𝑖𝑠𝑡𝑒 𝑐𝑜𝑟𝑟𝑒𝑙𝑎𝑐𝑖ó𝑛 𝑙𝑖𝑛𝑒𝑎𝑙 𝑒𝑛𝑡𝑟𝑒 𝑌 𝑦 𝑋1 , 𝑋2 , … , 𝑋𝑘
𝑯𝟏 : 𝐸𝑥𝑖𝑠𝑡𝑒 𝑐𝑜𝑟𝑟𝑒𝑙𝑎𝑐𝑖ó𝑛 𝑙𝑖𝑛𝑒𝑎𝑙 𝑒𝑛𝑡𝑟𝑒 𝑌 𝑦 𝑋1 , 𝑋2 , … , 𝑋𝑘
FORMULARIO MAT 1136 FORMULARIO MAT 1136

INTÉRVALO DE CONFIABILIDAD PARA 𝝆𝒀,𝑿/𝒁𝟏,𝒁𝟐,…,𝒁𝒒

𝟏 𝟏 + 𝑟𝑌,𝑋/𝑍1 ,𝑍2 ,…,𝑍𝑞 𝒁𝒐 𝟏 𝟏 + 𝜌𝑌,𝑋/𝑍1 ,𝑍2 ,…,𝑍𝑞 𝟏 𝟏 + 𝑟𝑌,𝑋/𝑍1 ,𝑍2 ,…,𝑍𝑞 𝒁𝒐


𝑷 [ 𝐥𝐧 ( )− ≤ 𝐥𝐧 ( ) ≤ 𝐥𝐧 ( )+ ]
𝟐 𝟏 − 𝑟𝑌,𝑋/𝑍1 ,𝑍2 ,…,𝑍𝑞 √𝑵 − 𝟑 𝟐 𝟏 − 𝜌𝑌,𝑋/𝑍1 ,𝑍2 ,…,𝑍𝑞 𝟐 𝟏 − 𝑟𝑌,𝑋/𝑍1 ,𝑍2 ,…,𝑍𝑞 √𝑵 − 𝟑

𝒆𝟐𝑨 −𝟏 𝒆𝟐𝑩−𝟏
𝑳𝑰 = 𝑳𝑺 = 𝑷 [𝑳𝑰 ≤ 𝝆𝒀,𝑿/𝒁𝟏,𝒁𝟐,…,𝒁𝒒 ≤ 𝑳𝑺] = 𝟏−∝
𝒆𝟐𝑨 +𝟏 𝒆𝟐𝑩+𝟏

MEJOR MODELO
• Menor número de variables independientes
• Alto poder predictivo
¿Mejor modelo de regresión lineal de primer grado?
PASO 1ro. MATRIZ DE CORRELACIÓN LINEAL SIMPLE.
Buscar la variable independiente mejor correlacionada con la variable dependiente Y
PASO 2do. PODER PREDICTIVO
Prueba de hipótesis
¿Cuál es la siguiente variable que podría ingresar al modelo?

Obtener la matriz de correlación lineal parcial simple tomando como variable de control a la
variable independiente mejor correlacionada encontrada en el anterior paso

También podría gustarte