Vicerrectorado de Docencia
Unidad de Apoyo a la Formación Académica
Fundamentos de Econometría
Tema n.°2
Modelo de regresión con dos variables: problema de estimación
Vicerrectorado de Docencia
Unidad de Apoyo a la Formación Académica
Índice
Pág.
2.1. Modelo de regresión con dos variables 3
2.1.1. Mínimos cuadrados ordinarios (MCO). 3
2.1.2. Propiedades numéricas de los estimadores 5
2.1.3. Supuestos de MCO 7
2.1.4. Errores estándar de los estimadores de MCO 11
2.1.5. Propiedades de los estimadores de MCO 13
2.1.6. Coeficiente de determinación 13
Recursos complementarios 16
Referencias 16
Autoevaluación 17
Tema n.2°: Modelo de regresión con dos variables: problema de estimación 2
Vicerrectorado de Docencia
Unidad de Apoyo a la Formación Académica
2.1. Modelo de regresión con dos variables.
Un modelo de regresión con dos variables, también conocido como regresión
bivariada, es un enfoque estadístico que busca modelar la relación entre dos
variables. En este tipo de modelo, una variable es designada como la variable
dependiente (la que se pretende predecir), mientras que la otra se denomina variable
independiente (la que se utiliza para hacer la predicción).
2.1.1. Mínimos cuadrados ordinarios (MCO).
Los Mínimos Cuadrados Ordinarios (MCO) es un método utilizado para estimar
los parámetros de un modelo de regresión lineal a partir de ciertos supuestos. El
objetivo del método de MCO es encontrar los valores de los coeficientes de regresión
que minimizan la suma de los cuadrados de los residuos, es decir, las diferencias
entre los valores observados y los valores predichos por el modelo, al trabajar con la
suma de los cuadrados de los residuos en lugar de un suma algebraica aporta
robustez al modelo, lo hace más resistente frente a valores atípicos y es coherente
con varias suposiciones relacionadas con la distribución de los errores y la varianza
constante.
Tabla1. Comparación de modelos de regresión.
Modelo 1 Modelo 2
2
Años escolaridad 𝑋𝑖 Salario hora 𝑌𝑖 𝑌̂1𝑖 𝜇̂1𝑖 𝜇̂1𝑖 𝑌̂2𝑖 𝜇̂ 2𝑖 𝜇̂ 2𝑖 2
6 4,46 4,19 0,27 0,07 4,33 0,13 0,02
7 5,77 4,89 0,88 0,77 5,05 0,72 0,51
8 5,98 5,59 0,39 0,15 5,78 0,20 0,04
9 7,33 6,29 1,04 1,09 6,50 0,83 0,69
10 7,32 6,99 0,33 0,11 7,23 0,09 0,01
11 6,58 7,69 -1,11 1,22 7,95 -1,37 1,86
12 7,82 8,39 -0,57 0,33 8,67 -0,86 0,73
13 7,84 9,09 -1,25 1,57 9,40 -1,56 2,44
14 11,02 9,79 1,23 1,52 10,12 0,90 0,81
15 10,67 10,49 0,18 0,03 10,85 -0,17 0,03
16 10,84 11,19 -0,35 0,13 11,57 -0,73 0,54
17 13,62 11,89 1,73 2,98 12,29 1,32 1,75
18 13,53 12,59 0,94 0,89 13,02 0,51 0,26
3,70 10,85 0,00 9,69
Tema n.2°: Modelo de regresión con dos variables: problema de estimación 3
Vicerrectorado de Docencia
Unidad de Apoyo a la Formación Académica
̂1 = −0,010 𝑦 𝛽
𝑌̂1𝑖 = −0,010 + 0,70𝑋𝑖 ; 𝛽 ̂2 = 0,70
̂1 = −0,0144 𝑦 𝛽
𝑌̂2𝑖 = −0,0144 + 0,7240𝑋𝑖 ; 𝛽 ̂2 = 0,7240
En el presente ejemplo se busca determinar la FRM de manera que
quede lo más cerca posible de la “Y” observada, considerando el criterio de
MCO, la FRM que minimice la ∑ 𝜇̂ 𝑖 2 .
Como se puede observar en el modelo 1 la suma de los cuadrados de los residuos
es 10,85 y en el modelo 9,69. Se puede decir que las 𝛽̂ del primer experimento son
los “mejores” valores. Pero ¿cómo saberlo? Si se tuviera tiempo, se podrían realizar
muchos más experimentos de este tipo, escogiendo cada vez diferentes conjuntos de
𝛽̂ y comparando las ∑ 𝜇̂ 𝑖 2 resultantes, y luego escogiendo el conjunto de valores de
𝛽̂ que diera el menor valor posible de ∑ 𝜇̂ 𝑖 2 y suponiendo, desde luego, que se
consideraron todos los valores posibles de los 𝛽̂ . El método de mínimos cuadrados
para una muestra dada, proporciona valores estimados únicos de 𝛽1 y 𝛽2 que
producen el valor más pequeño o reducido posible de ∑ 𝜇̂ 𝑖 2 .
Es evidente que:
∑ 𝜇̂ 𝑖 2 = 𝑓(𝛽
̂1 , 𝛽
̂2 )
Aplicando cálculo diferencial para encontrar 𝛽1 y 𝛽2 que minimice la anterior
función y resolviendo las ecuaciones simultáneas se obtiene:
∑(𝑋𝑖 − 𝑋̅ )(𝑌𝑖 − 𝑌̅ )
̂2 =
𝛽 2
∑(𝑋𝑖 − 𝑋̅)
Tema n.2°: Modelo de regresión con dos variables: problema de estimación 4
Vicerrectorado de Docencia
Unidad de Apoyo a la Formación Académica
Considerando que 𝑋̅; 𝑌̅ son las medias muestrales de “X”, “Y” y que 𝑥𝑖 ; 𝑦𝑖
son las desviaciones de los valores respectivos de sus medias (muestrales)
simbólicamente:
𝑥𝑖 = 𝑋𝑖 − 𝑋̅ ; 𝑦𝑖 = 𝑌𝑖 − 𝑌̅
Se tiene que:
∑(𝑥𝑖 𝑦𝑖 )
̂2 =
𝛽
∑(𝑥𝑖 )2
Y finalmente:
̂1 = 𝑌̅ − 𝛽
𝛽 ̂2 𝑋̅
2.1.2. Propiedades numéricas del los estimadores de MCO
a. Los estimadores obtenidos mediante el método de Mínimos Cuadrados
Ordinarios (MCO) en un modelo de regresión lineal se definen y calculan
utilizando únicamente los datos observados en la muestra, es decir, las
variables independientes (X) y la variable dependiente (Y).
b. Son estimadores puntuales, dan como resultado un solo valor
c. La línea de regresión obtenida presenta las siguientes propiedades:
Pasa por las medias muestrales de “X” e “Y” como se puede apreciar en la
siguiente gráfica:
Tema n.2°: Modelo de regresión con dos variables: problema de estimación 5
Vicerrectorado de Docencia
Unidad de Apoyo a la Formación Académica
Figura 1. Función de Regresión Muestral FRM.
Fuente: Econometría (p.59), Gujarati, Damodar N. y Porter, Dawn C, 2010. McGraw Hill.
El valor medio de Y estimada 𝑌̅̂ es igual al valor medio de Y real 𝑌̅
𝑌̅̂ = 𝑌̅
El valor medio de los residuos estimados es cero
𝜇̂ ̅ = 0
Considerando la presente propiedad se puede escribir la FRM en forma de
desviación como:
̂2 𝑥𝑖
𝑦̂𝑖 = 𝛽
Los residuos 𝜇̂ 𝑖 no están correlacionados con el valor pronosticado de 𝑌𝑖 . Este
supuesto se refiere a la independencia de los errores respecto a las
predicciones del modelo
Los residuos 𝜇̂ 𝑖 no están correlacionados con el valor 𝑋𝑖 . Este supuesto
implica la ausencia de correlación entre los residuos y las variables
independientes.
Tema n.2°: Modelo de regresión con dos variables: problema de estimación 6
Vicerrectorado de Docencia
Unidad de Apoyo a la Formación Académica
2.1.3. Supuestos del método de MCO
El objetivo no solo es obtener los estimadores sino verificar cuan acertados
son, los supuestos sobre las variables 𝑋𝑖 y el término de error son relevantes. El
modelo de Gauss, modelo clásico o estándar de regresión lineal (MCRL) plantea siete
supuestos:
a. Supuesto 1
Modelo de regresión lineal: El modelo de regresión es lineal en los parámetros,
aunque puede o no ser lineal en las variables.
Para verificar este supuesto se puede realizar una gráfica de dispersión entre
la variable dependiente e independiente y la línea de regresión como se aprecia a
continuación:
Gráfico de Dispersión y Línea de Regresión
350
Variable Y
150
0
0 500 1000 1500 2000
Variable X
Figura 2. Gráfica de dispersión y línea de regresión
Se debe Observar si la línea de regresión sigue una forma lineal en el gráfico
de dispersión, en el gráfico se puede apreciar que se asemeja a un comportamiento
lineal por lo que se comprueba el supuesto de linealidad.
b. Supuesto 2
Valores fijos de X, o valores de X independientes del término de error
𝑐𝑜𝑣(𝑋𝑖 , 𝜇𝑖 ) = 0. En el enfoque, se considera que los valores de las variables
Tema n.2°: Modelo de regresión con dos variables: problema de estimación 7
Vicerrectorado de Docencia
Unidad de Apoyo a la Formación Académica
predictoras (X) son fijos y no están sujetos a variabilidad aleatoria. Se asume que los
valores de X son conocidos y no cambian debido a la variabilidad del proceso.
c. Supuesto 3
El valor medio de la perturbación 𝜇𝑖 es igual a cero, simbólicamente si es
estocástica se representa como:
𝐸 (𝜇𝑖 \𝑋𝑖 ) = 0
Y si no es estocástica:
𝐸 (𝜇𝑖 ) = 0
Este supuesto implica que no hay sesgo de especificación o error de especificación
en el modelo del análisis empírico.
Geométricamente, este supuesto se representa mediante una gráfica que se la
presenta a continuación:
Figura 3. Distribución condicional de las perturbaciones 𝜇𝑖 .
Fuente: Econometría (p.63), Gujarati, Damodar N. y Porter, Dawn C, 2010. McGraw Hill.
Tema n.2°: Modelo de regresión con dos variables: problema de estimación 8
Vicerrectorado de Docencia
Unidad de Apoyo a la Formación Académica
En un modelo de regresión lineal bien especificado, se espera que el valor
medio de los residuos sea aproximadamente cero. Si este valor es significativamente
diferente de cero, podría sugerir problemas en la especificación del modelo.
d. Supuesto 4
Homocedasticidad o varianza constante de 𝜇𝑖 : La varianza del término de error,
o de perturbación, es la misma sin importar el valor de X. Simbólicamente se lo puede
apreciar a continuación:
𝑣𝑎𝑟(𝜇𝑖 ) = 𝐸 [𝜇𝑖 − 𝐸 (𝜇𝑖 \𝑋𝑖 )]2
= 𝐸 (𝜇𝑖 2 \𝑋𝑖 ) ; 𝑝𝑜𝑟 𝑒𝑙 𝑠𝑢𝑝𝑢𝑒𝑠𝑡𝑜 3
= 𝐸 (𝜇𝑖 2 ), 𝑠𝑖 𝑋𝑖 𝑠𝑜𝑛 𝑣𝑎𝑟𝑖𝑎𝑏𝑙𝑒𝑠 𝑛𝑜 𝑒𝑠𝑡𝑜𝑐á𝑠𝑡𝑖𝑐𝑎𝑠
= 𝜎2
Figura 4. Homocedasticidad.
Fuente: Econometría (p.65), Gujarati, Damodar N. y Porter, Dawn C, 2010. McGraw Hill.
En contraste donde la varianza condicional de la población Y varía con X. Esta
situación se conoce apropiadamente como heteroscedasticidad, o dispersión
desigual, o varianza desigual. Simbólicamente esta situación se presenta a
continuación:
𝑣𝑎𝑟(𝜇𝑖 ) = 𝜎𝑖 2
Tema n.2°: Modelo de regresión con dos variables: problema de estimación 9
Vicerrectorado de Docencia
Unidad de Apoyo a la Formación Académica
Figura 5. Heterocedasticidad
Fuente: Econometría (p.65), Gujarati, Damodar N. y Porter, Dawn C, 2010. McGraw Hill.
e. Supuesto 5
No hay autocorrelación entre las perturbaciones. Dados dos valores
cualesquiera de X, 𝑋𝑖 y 𝑋𝑗 𝑖 ≠ 𝑗, lla correlación entre dos 𝜇𝑖 y 𝜇𝑗 cualesquiera es cero.
Simbólicamente:
𝑐𝑜𝑣(𝜇𝑖 , 𝜇𝑗 \𝑋𝑖 , 𝑋𝑗 ) = 0 𝑠𝑖 𝑋 𝑒𝑠 𝑒𝑠𝑡𝑜𝑐á𝑠𝑡𝑖𝑐𝑎
𝑐𝑜𝑣(𝜇𝑖 , 𝜇𝑗 ) = 0 𝑠𝑖 𝑋 𝑛𝑜 𝑒𝑠 𝑒𝑠𝑡𝑜𝑐á𝑠𝑡𝑖𝑐𝑎
Figura 6. Patrones de correlación entre las perturbaciones
Fuente: Econometría (p.67), Gujarati, Damodar N. y Porter, Dawn C, 2010. McGraw Hill.
a) correlación serial positiva; b) correlación serial negativa; c) correlación cero.
Tema n.2°: Modelo de regresión con dos variables: problema de estimación 10
Vicerrectorado de Docencia
Unidad de Apoyo a la Formación Académica
f. Supuesto 6
El número de observaciones “n” debe ser mayor que el número de parámetros
por estimar: Sucesivamente, el número de observaciones n debe ser mayor que el
número de variables explicativas.
g. Supuesto 7
La naturaleza de las variables X: No todos los valores X en una muestra
determinada deben ser iguales. Técnicamente, var(X) debe ser un número positivo.
Además, no puede haber valores atípicos de la variable X, es decir, valores muy
grandes en relación con el resto de las observaciones.
2.1.4. Precisión o errores estándar de las estimaciones de mínimos cuadrados
Los datos muestrales pueden cambiar de una muestra a otra; por tanto, se
̂1 𝑦 𝛽
necesita una media de precisión de los estimadores 𝛽 ̂2 . La precisión se mide por
su error estándar (ee). Para obtener los errores estándar de las estimaciones de
MCO.
𝜎2
𝑣𝑎𝑟(𝛽̂2 ) =
∑ 𝑥𝑖 2
𝜎
𝑒𝑒(𝛽̂2 ) =
√∑ 𝑥𝑖 2
∑ 𝑋𝑖 2 2
𝑣𝑎𝑟(𝛽̂1 ) = 𝜎
𝑛 ∑ 𝑥𝑖 2
∑ 𝑋𝑖 2
𝑒𝑒(𝛽̂1 ) = √ 𝜎
∑ 𝑥𝑖 2
Tema n.2°: Modelo de regresión con dos variables: problema de estimación 11
Vicerrectorado de Docencia
Unidad de Apoyo a la Formación Académica
donde var = varianza, ee = error estándar y 𝜎 2 es la constante o varianza
homocedástica de 𝜇𝑖 del supuesto 4.
A 𝜎 2 se lo puede estimar mediante
∑ 𝜇̂ 𝑖 2
𝜎̂ 2 =
𝑛−2
̂ 2
∑𝜇
𝜎̂ = √ 𝑛−2𝑖 se conoce como el error estándar de estimación
o el error estándar de la regresión (ee).
Para calcular ∑ 𝜇̂ 𝑖 2
2
∑ 𝜇̂ 𝑖 2 = ∑ 𝑦𝑖 2 − 𝛽̂2 ∑ 𝑥𝑖 2
o también se la puede calcular como:
(∑ 𝑥𝑖 𝑦𝑖 )2
∑ 𝜇̂ 𝑖 2 = ∑ 𝑦𝑖 2 −
∑ 𝑥𝑖 2
Características de las varianzas (y por consiguiente, de los errores estándar)
̂𝟏 𝒚 𝜷
de 𝜷 ̂𝟐
a. La varianza de 𝛽̂2 es directamente proporcional a 𝜎̂ 2 pero inversamente a ∑ 𝑥𝑖 2 ,
cuando hay una variación sustancial en los valores de X, 𝛽2 se mide en forma
más precisa y para conseguirlo se sugiere aumentar el tamaño de la muestra
n.
b. La varianza de 𝛽̂1 es directamente proporcional a 𝜎 2 y a ∑ 𝑋𝑖 2 , pero
inversamente proporcional a ∑ 𝑥𝑖 2 y al tamaño de la muestra.
c. β̂1 y β̂2 son estimadores que varían de una muestra a otra y en una muestra
dada por lo tanto es probable que dependan entre sí, esta dependencia se
mide por la covarianza entre ellos.
Tema n.2°: Modelo de regresión con dos variables: problema de estimación 12
Vicerrectorado de Docencia
Unidad de Apoyo a la Formación Académica
𝜎2
𝑐𝑜𝑣(β̂1 , β̂2 ) = −𝑋̅𝑣𝑎𝑟(β̂2 ) = −𝑋̅ ( )
∑ 𝑥𝑖 2
Si el coeficiente de la pendiente 𝛽2 está sobrestimado (es decir, la pendiente
es muy pronunciada), el coeficiente del intercepto 𝛽1 estará subestimado (es decir, el
intercepto será muy pequeño).
2.1.5. Propiedades de los estimadores de MCO: Teorema de Gauss-Markov.
Las estimaciones de mínimos cuadrados poseen algunas propiedades ideales
u óptimas, las cuales están contenidas en el famoso teorema de Gauss-Markov. Un
estimador o parámetro es el mejor estimador lineal insesgado (MELI) si cumple lo
siguiente:
1) Es lineal, es decir, función lineal de una variable aleatoria
2) Es insesgado, es decir, su valor promedio o esperado, 𝐸(𝛽̂ ), es igual al valor
verdadero, 𝛽.
3) Es un estimador eficiente, debido a que tiene la varianza mínima dentro de la
clase de estimadores lineales insesgados.
2.1.6. Coeficiente de determinación (Bondad de ajuste).
El coeficiente de determinación 𝑟 2 (caso de dos variables) o 𝑅2 (regresión
múltiple), hace referencia a cuán “bien” se ajusta la línea de regresión a los datos. Si
todas las observaciones cayesen en la línea de regresión, se obtendría un ajuste
“perfecto”, pero rara vez se presenta este caso. 𝑟 2 mide la proporción o el porcentaje
de la variación total en Y explicada por el modelo de regresión. Es una cantidad no
negativa; toma valores entre 0 y 1, siendo 1 un ajuste perfecto en el cual 𝑌̂ = 𝑌𝑖 , por
Tema n.2°: Modelo de regresión con dos variables: problema de estimación 13
Vicerrectorado de Docencia
Unidad de Apoyo a la Formación Académica
otra parte, un valor igual a 0 significa que 𝛽̂2 = 0 lo cual denota que ni existe una
relación entre la variable regresora y regresada.
Para calcular 𝑟 2 :
Partimos de:
∑ 𝑦𝑖2 = 𝛽̂22 ∑ 𝑥𝑖2 + ∑ 𝜇̂ 𝑖2
𝑆𝐶𝑇 = 𝑆𝐶𝐸 + 𝑆𝐶𝑅
SCT= suma de cuadrados total; SCE=suma de cuadrados explicada; SCR= suma
de cuadrados de los residuos.
2
2
∑(𝑌̂𝑖 − 𝑌̅) 𝑆𝐶𝐸
𝑟 = =
∑(𝑌𝑖 − 𝑌)̅ 2 𝑆𝐶𝑇
𝑆𝐶𝑅
𝑟2 = 1 −
𝑆𝐶𝑇
Otras formas de calcular:
∑ 𝑥𝑖2
𝑟 2 = 𝛽̂22 ( 2 )
∑ 𝑦𝑖
𝑆𝑥2
𝑟 2 = 𝛽̂22 ( 2 ): 𝑆𝑥2 y 𝑆𝑦2 , son las varianzas muestrales de 𝑌 y 𝑋
𝑆𝑦
(∑ 𝑥𝑖 𝑦𝑖 )2
𝑟2 =
∑ 𝑥𝑖2 ∑ 𝑦𝑖2
Una cantidad estrechamente relacionada con 𝑟 2 pero conceptualmente muy diferente
es el coeficiente de correlación “r”, el cual, es una medida del grado de asociación
entre dos variables.
𝑟 = ±√𝑟 2
Tema n.2°: Modelo de regresión con dos variables: problema de estimación 14
Vicerrectorado de Docencia
Unidad de Apoyo a la Formación Académica
Algunas características de “r” es que: puede tener signo positivo o negativo;
cae entre los límites de −1 y +1; Es simétrico por naturaleza es decir el coeficiente de
correlación entre X y Y es el mismo que entre Y y X; Es independiente del origen y de
la escala; una correlación igual a cero no necesariamente implica independencia; es
una medida de asociación lineal o dependencia lineal solamente y Aunque es una
medida de asociación lineal entre dos variables, esto no implica necesariamente
alguna relación causa-efecto.
A continuación, se presentan diferentes gráficas en función de los valores que puede
tomar “r”.
Figura 7. Patrones de correlación
Fuente: Econometría (p.78), Gujarati, Damodar N. y Porter, Dawn C, 2010. McGraw Hill.
Tema n.2°: Modelo de regresión con dos variables: problema de estimación 15
Vicerrectorado de Docencia
Unidad de Apoyo a la Formación Académica
Recursos complementarios
Capítulo 2 del texto de Wooldridge, Jeffrey. (2009). Introducción a la
econometría: un enfoque moderno (cuarta edición). Cengage Learning
Referencias
Gujarati, D. N., & Porter, D. C. (2010). Econometría (quinta edición). McGraw Hill.
Tema n.2°: Modelo de regresión con dos variables: problema de estimación 16
Vicerrectorado de Docencia
Unidad de Apoyo a la Formación Académica
Autoevaluación
̂ 𝒊 significa:
̂ 𝒊 = 𝒀𝒊 − 𝒀
1. El término 𝝁
Los residuos son la diferencia entre los valores observados y los estimados de Y.
Los residuos son la diferencia entre los valores poblacionales y reales de Y.
Los residuos son la diferencia entre los valores poblacionales y muestrales de Y.
Los residuos son la diferencia entre los valores muestrales y observados de Y.
Los residuos son la diferencia entre los valores predichos y los valores reales de
Y.
̂ 𝟐𝒊 :
2. Elevar los residuos al cuadro 𝝁
Da un peso similar a todos los residuos.
Da más peso a los residuos más alejados.
Da más peso a los residuos más cercanos.
Evita resultados negativos
Ninguna de las anteriores.
3. El método de mínimos cuadrados para una muestra dada proporciona un
intervalo de valores estimados para 𝜷𝟏 y 𝜷𝟐 que producen el valor más
pequeño o reducido posible de ∑ 𝝁̂𝒊𝟐
Falso
Verdadero.
4. Escoja cuál o cuáles de las siguientes propiedades corresponda a la recta
de regresión obtenida por MCO:
Pasa por las medias muestrales de “X” e “Y”
𝑌̅̂ = 𝑌̅ 𝑦 𝜇̂ ̅ = 0
Los residuos 𝜇̂ 𝑖 no están correlacionados con el valor pronosticado de 𝑌𝑖
Los residuos 𝜇̂ 𝑖 no están correlacionados con el valor 𝑋𝑖
Todas las anteriores.
5. ¿Considerando los supuestos de MCO, 𝒄𝒐𝒗(𝑿𝒊 , 𝝁𝒊 ) = 𝟎, significa?
Valores de X independientes del término de error.
Valores de X dependientes del término de error.
El intercepto es igual a 0.
No existe correlación entre la variable dependiente e independiente.
Valores de X están correlacionados con el término de error.
Tema n.2°: Modelo de regresión con dos variables: problema de estimación 17
Vicerrectorado de Docencia
Unidad de Apoyo a la Formación Académica
6. ¿Cuál de las siguientes afirmaciones describe adecuadamente la
homocedasticidad en el contexto de un modelo estadístico?
La homocedasticidad se refiere a la independencia de los errores del modelo.
La homocedasticidad implica que la media de los errores del modelo es cero.
La homocedasticidad se cumple cuando la varianza de los errores es constante
en todos los niveles de las variables predictoras.
La homocedasticidad se relaciona con la linealidad de la relación entre las
variables independientes y dependientes.
La homocedasticidad se evidencia por una distribución normal de los errores en
el modelo.
7. ¿Qué significa que 𝒄𝒐𝒗(𝝁𝒊 , 𝝁𝒋 \𝑿𝒊 , 𝑿𝒋 ) = 𝟎
No hay autocorrelación entre las perturbaciones
Hay autocorrelación entre las perturbaciones
No existe causalidad en el modelo
Los errores estocásticos son igual a 0
No hay autocorrelación entre las perturbaciones y la variable independiente.
8. En el contexto de un análisis de regresión lineal, ¿qué conclusión se puede
extraer si el error estándar de 𝛽̂2 de la regresión es bajo?
La relación entre las variables predictoras y la variable de respuesta es fuerte.
Existe multicolinealidad entre las variables independientes.
Los errores del modelo son independientes y homocedásticos.
La precisión de la estimación de la pendiente de la regresión es alta.
La varianza de la variable dependiente es pequeña.
9. Mencione que característica o características corresponde a las varianzas
de 𝜷 ̂𝟏 𝒚 𝜷̂𝟐
La varianza de 𝛽̂2 es directamente proporcional a 𝜎̂ 2 pero inversamente a ∑ 𝑥𝑖 2
La varianza de 𝛽̂1 es directamente proporcional a 𝜎 2 y a ∑ 𝑋𝑖 2 , pero inversamente
proporcional a ∑ 𝑥𝑖 2 y al tamaño de la muestra
β̂1 y β̂2 son estimadores que varían de una muestra a otra y en una muestra dada
por lo tanto es probable que dependan entre sí, esta dependencia se mide por la
covarianza entre ellos
Todas las anteriores
Ninguna de las anteriores
10. Para medir 𝜷𝟐 en forma más precisa se debe:
Aumentar el tamaño de la muestra
Disminuir el tamaño de la muestra
Obtener un menor 𝜎̂ 2
𝜷𝟐 No se puede estimar de forma precisa
Ninguna de las anteriores
Tema n.2°: Modelo de regresión con dos variables: problema de estimación 18
Vicerrectorado de Docencia
Unidad de Apoyo a la Formación Académica
11. En el contexto del coeficiente de determinación r2 en un modelo de
regresión, ¿cuál de las siguientes afirmaciones es correcta?
Un valor de 𝑟 2 igual a 1 indica que la regresión no se ajusta a los datos.
Si 𝑟 2 es igual a 0, significa que no hay relación entre la variable regresora y la variable
regresada.
El coeficiente de correlación es siempre positivo cuando
𝑆𝐶𝑅
La fórmula 𝑟 2 = 1 − 𝑆𝐶𝑇 expresa la proporción de variación total en Y explicada por el
modelo.
Un coeficiente de correlación igual a 1 implica una relación causal entre las variables.
Tema n.2°: Modelo de regresión con dos variables: problema de estimación 19