Capitulo 10
10.1. En el modelo de regresión lineal de k variables, hay k ecuaciones normales para estimar
las k incógnitas. Estas ecuaciones normales están dadas en el apéndice C. Suponga que 𝑿𝒓 es
una combinación lineal perfecta de las variables X restantes. ¿Cómo se demostraría que en este
caso es imposible estimar los k coeficientes de regresión?
Se supone una combinación lineal perfecta de las variables restantes, lo que genera un
problema denominado multicolinealidad perfecta. Esto implica que una variable puede
expresarse de manera precisa como un conjunto lineal de otras variables en el modelo. Este
caso no tendrá un rango completo de matriz de diseño X.
La evaluación de un modelo de regresión lineal mediante el método de mínimos cuadrados
presenta una suposición fundamental para establecer una perspectiva clara sobre la matriz de
diseño X, lo que indica que las columnas de X son linealmente independientes.
10.3. Consulte el ejemplo de la mortalidad infantil analizado en el capítulo 8 (ejemplo 8.1).
Dicho ejemplo implicó hacer la regresión de la tasa de mortalidad infantil (MI) sobre el PIB
per cápita (PIBPC) y la tasa de alfabetización de las mujeres (TAM). Ahora, suponga que
añadimos la variable tasa de fecundidad total (TFT). Lo anterior da los siguientes resultados
de la regresión:
1. Compare estos resultados de la regresión con los obtenidos en la ecuación (8.1.4). ¿Qué
cambios observa? ¿Cómo los explica?
A pesar de que los valores numéricos de la intersección y la pendiente de los coeficientes y
TAM y PBIPC han sido modificados, las observaciones en cuestión no son válidas para evaluar el
impacto negativo del mismo.
Por otra parte, estas variables son estadísticamente significativas, lo cual implica que el nivel de
significancia es inferior a 0.05. Estos cambios se deben a la incorporación de la tasa total de
fecundidad variable, lo que sugiere que puede haber alguna multicolinealidad entre la variable
independiente en el modelo de regresión, esto implica que estas variables podrían estar
correlacionadas entre sí, lo que puede generar dificultades para distinguir el efecto individual
de cada variable en la variable dependiente.
2. ¿Vale la pena añadir la variable TFT al modelo? ¿Por qué?
El valor del coeficiente de la tasa total de fecundidad (TFT) es una medida demográfica que
representa el número promedio de hijos que una mujer tendrá durante su vida reproductiva en
determinadas condiciones es significativamente bajo (con una probabilidad de solo 0.0032),
por lo que considerado un factor crucial en el modelo.
El coeficiente es positivo, ya que indica que cuando aumenta el número de hijos por mujer, las
probabilidades de tener una mayor mortalidad infantil (TAM) también aumentan. Indicando
que la relación entre la TFT y la TAM no es aleatoria y tiene una alta estadística.
3. ¿Como todos los coeficientes t individuales son estadísticamente significativos, ¿podemos
decir que no existe un problema de colinealidad en el presente caso?
La colinealidad se caracteriza por la presencia de una conexión perfecta o elevada entre
algunas de las variables independientes en un modelo de regresión. Esto se refleja en
coeficientes de conexiones simples o múltiples que tienen un valor de
1. Se considera que las variables independientes están altamente correlacionadas entre sí.
A pesar de que existe colinealidad, los coeficientes de regresión siguen siendo estadísticamente
significativos, no se considera un problema grave. Esto quiere decir que, a pesar de la conexión
entre las variables independientes, el modelo aún proporciona estimaciones confiables y
válidas.
10.5. Considere el siguiente modelo:
𝒀𝒕 = 𝜷𝟏 + 𝜷𝟐𝒙𝒕 + 𝜷𝟑𝒙𝒕−𝟏 + 𝜷𝟒𝒙𝒕−𝟐 + 𝜷𝟓𝒙𝒕−𝟑 + 𝜷𝟔𝒙𝒕−𝟒 + 𝝁𝒕
donde Y= consumo, X= ingreso y t=tiempo. El modelo anterior postula que el gasto de
consumo en el tiempo t es función no sólo del ingreso en el tiempo t, sino también del
ingreso en periodos anteriores. Por tanto, el gasto de consumo en el primer trimestre de
2000 es función del ingreso en ese trimestre y en los cuatro trimestres de 1999. Tales
modelos se denominan modelos de rezago distribuido y los veremos en un capítulo
posterior.
1. ¿Esperaría multicolinealidad en tales modelos y por qué?
No obstante, es probable que exista una multicolinealidad en estos modelos. Los datos de serie
de tiempo se han observado como una tendencia de movimiento en la misma dirección, lo que
indica un aumento significativo del nivel de evolución.
Los rezagos de las variables de ingresos seguirán moverse en la misma dirección.
2. Si espera colinealidad, ¿cómo resolvería el problema?
Como se menciona de forma resumida en el Capítulo 10 y se aborda de manera más detallada
en el Capítulo 17, una posible solución para mitigar el problema de multicolinealidad es realizar
una transformación mediante la diferencia de primer orden. Esta transformación puede ayudar
a abordar el problema.
10.7. En los datos que comprenden series de tiempo económicas, como PNB, oferta
monetaria, precios, ingreso, desempleo, etc., suele sospecharse la presencia de
multicolinealidad. ¿Por qué?
La pregunta 10.5 presenta una perspectiva sobre cómo las variables económicas suelen estar
influidas por factores, como los ciclos económicos y las tendencias generales. En consecuencia,
al analizar la regresión mediante variables como el Producto Nacional Bruto (PNB) y la oferta
de dinero, es probable que se presente multicolinealidad.
Se refiere a la multicolinealidad, a la presencia de una gran coincidencia entre las variables
económicas consideradas, lo que puede dificultar la interpretación de los resultados y la
estimación precisa de los coeficientes de regresión.
10.9. Consulte el ejemplo ilustrativo del capítulo 7, en el cual ajustamos la función de
producción Cobb-Douglas al sector manufacturero de los 50 estados y el Distrito de Columbia
de Estados Unidos para 2005. Los resultados de la regresión dados en (7.9.4) muestran que
los coeficientes del trabajo y del capital son estadísticamente significativos en lo individual.
Examine si las variables trabajo y capital están muy correlacionadas.
La correlación entre el trabajo y el capital es significativamente elevada, con un coeficiente de
correlación aproximado del 0,698.
Si la respuesta a es afirmativa, ¿eliminaría, por ejemplo, la variable trabajo del modelo y
efectuaría la regresión de la variable producción sobre el insumo capital solamente?
No obstante, aunque existen conexiones entre las dos variables, los coeficientes de regresión
son estadísticamente significativos al nivel del 5%. Esto significa que la variable trabajo no debe
ser excluida de acuerdo con los criterios de sesgo establecidos.
Si hace lo anterior, ¿en qué clase de sesgo de especificación se incurre? Descubra la
naturaleza de este sesgo.
Si se excluye la variable de trabajo en el modelo de regresión, el coeficiente de capital será
parcial. El sesgo puede ser calculado siguiendo el ejercicio 10.6. En este caso, el sesgo es igual a
la multiplicación de (𝐹𝑇2) y (𝐵23), es decir, (1.4988 *
0.1319) = 0.1975.
10.11. Regresión por pasos. Al decidir sobre el “mejor” conjunto de variables explicativas
para un modelo de regresión, los investigadores a menudo siguen el método de regresión por
pasos. En este método se introducen, una por una, las variables X (regresión por pasos hacia
delante) o se incluyen todas las variables X posibles en una regresión múltiple y se rechazan
una a la vez (regresión por pasos hacia atrás). La decisión de aumentar o eliminar una
variable suele tomarse con base en la contribución de esa variable a la SCE, a juicio de la
prueba F. Con todo lo que sabe sobre multicolinealidad, ¿recomendaría alguno de estos
procedimientos? ¿Por qué? *
Las variables no deben agregarse a un modelo únicamente con el fin de aumentar la suma de
los cuadrados explicados (ESS) o el coeficiente de determinación (𝑅2), sino que deben ser
seleccionadas de acuerdo a su relevancia teórica. Además, si las variables están
correlacionadas entre sí, agregar o eliminar variables puede alterar los valores de los otros
coeficientes en el modelo.
10.13.
a) Demuestre que si r𝟏𝒊 = 0 entonces para i = 2,3, …. , K entonces
r 1.2 .3 …. k= 0
Al analizar la ecuación (7.11.5), podemos notar que si todos los coeficientes de determinación
parcial (𝑅2) son iguales a cero, entonces el coeficiente de determinación total (𝑅2) será
automáticamente cero.
b) ¿Qué importancia tiene este hallazgo para la regresión de la variable
𝒙𝟏 (=Y) sobre x2, x3, …..,xK?
Si existe una relación entre la variable de retorno y cada variable predictora en el modelo de
regresión, esto significa que el modelo no puede explicar ninguna variación en la variable de
retorno. En otras palabras, el modelo no captura ninguna de las variables dependientes
seleccionadas.