0% encontró este documento útil (0 votos)
418 vistas14 páginas

Multicolinealidad en Modelos de Regresión

Este documento presenta los supuestos del modelo clásico de regresión lineal, incluyendo la multicolinealidad y la heteroscedasticidad. La multicolinealidad se refiere a la relación lineal entre variables independientes y puede ser perfecta o alta. La heteroscedasticidad implica que la varianza de los errores no es constante.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
418 vistas14 páginas

Multicolinealidad en Modelos de Regresión

Este documento presenta los supuestos del modelo clásico de regresión lineal, incluyendo la multicolinealidad y la heteroscedasticidad. La multicolinealidad se refiere a la relación lineal entre variables independientes y puede ser perfecta o alta. La heteroscedasticidad implica que la varianza de los errores no es constante.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd

República Bolivariana de Venezuela

Ministerio del Poder Popular para la Defensa


Universidad Nacional Experimental de la Fuerza Armada Nacional Bolivariana
(U.N.E.F.A)
Núcleo – Vargas

Supuestos del modelo clásico

Profesor: Alumna:

Luis Guanda Fraymar Garrido

C.I.:26.440.747
MULTICOLINEALIDAD

La multicolinealidad tiene que ver con la relación lineal entre algún conjunto de
variables independientes en un modelo de regresión. Supóngase el siguiente
modelo con cuatro variables independientes:

Cualquier relación lineal entre las variables independientes de este modelo, por
ejemplo X2 con X3 o X2 con X5 y X4 puede generar problemas de multicolinealidad.
Por lo general, existen dos tipos de multicolinealidad:

1) Multicolinealidad Perfecta: Para entender el concepto de multicolinealidad


perfecta es necesario expresar las variables independientes del modelo en
términos de una combinación lineal cuya suma algebraica sea igual a cero. Para el
modelo presentado la combinación lineal sería:

Los valores de pueden ser positivos o negativos y formar muchas combinaciones.


Cuando la suma algebraica para todas las observaciones de la muestra de esta
combinación lineal es cero se dice que existe multicolinealidad perfecta. De este caso
se exceptúa que simultáneamente los valores de sean cero, pues esta es una solución
trivial de la ecuación. En otras palabras, la multicolinealidad perfecta se presenta
cuando una combinación lineal de uno o más vectores de variables explicativas
generan de manera perfecta uno o más vectores idénticos a cualquiera de las variables
explicativas en la base de dato.

2) Multicolinealidad Alta: Esta se presenta cuando la colinealidad que existe entre


variables independientes es muy fuerte aunque no perfecta.
La multicolinealidad se presenta debido a la tendencia definida de ciertas variables
a lo largo de la muestra o a través del tiempo. Tendencias o patrones de
comportamiento similares de las variables independientes en un modelo de
regresión sustentan la multicolinealidad. La multicolinealidad se puede presentar en
datos provenientes de series de tiempo. Por ejemplo, es común encontrarla al
regresar variables que tienen que ver con la representación de ciclos económicos.
Por ello, antes de efectuar la regresión es útil elaborar diagramas de dispersión
entre las variables independientes con el objetivo de analizar el comportamiento
tendencial de estas.

El problema de multicolinealidad es un problema ocasionado por las


observaciones en los datos recopilados de la muestra. La presencia de
multicolinealidad afecta directamente la estimación de los parámetros del modelo.

De acuerdo con el estimador por mínimos cuadrados ordinarios:



1

β  X' X X' Y

Si existe multicolinealidad perfecta entre las variables independientes de un


modelo de regresión, ( X' X )-1 no existe. Cuando esto ocurre no es posible estimar

β . En presencia de alta multicolinealidad se genera una ampliación del error

Estándar de β , por lo que el valor de los estadísticos "t" para cada uno de los
Parámetros del modelo serán mucho menores que en ausencia de multicolinealidad,
aumentándose la probabilidad de cometer error de tipo II, es decir, que acepte Ho no
siendo verdadera. Por consiguiente, el modelo no tiene validez para realizar pruebas
de relevancia.
DETECCIÓN DE MULTICOLINEALIDAD.

La detección de multicolinealidad en un modelo puede hacerse por medio de la


visualización de contradicciones en los estadísticos que juzgan la bondad del
ajuste (R2), dependencia (Fc) y los estadísticos que permiten evaluar la relevancia
de las variables en el modelo (tc). Otro método de detección es la estimación de
X' X ; si el valor obtenido de X' es muy cercano a cero, puede concluirse que
X

es muy probable la existencia de multicolinealidad alta.

No obstante, se encuentran otras pruebas mucho más formales en términos


estadísticos. Una de ellas es estimar coeficientes de correlación entre pares de
variables independientes y formular pruebas de hipótesis sobre los coeficientes de
correlación estimados para comprobar la significancia de la relación lineal en
términos estadísticos. Por ejemplo, una vez calculado el coeficiente de correlación
lineal entre X2 y X3, puede proponerse la siguiente prueba de hipótesis cuya
formulación es idéntica a la presentada en el capítulo 2:

Ho:
 X,23
 0 (No existe relación lineal entre X2 y X3)
X

Ho:   0 (Si existe relación lineal entre X2 y X3)


X2 ,3
X

El estadístico de prueba es:


tC  rX 2,X
n2 ~. t 2, n2
1  rX 2,X 32
3

Donde  es el valor que se desea probar del coeficiente de correlación lineal


poblacional. No obstante en la mayoría de los casos este se asume cero con lo
cual solo se desea verificar si hay o no correlación entre las variables explicativas.

Si
t 2, n2 a un nivel de significancia determinado, se rechaza H
tC

Confirmando la existencia de relación lineal entre X 2 y X3, es decir el modelo de


regresión mostrará multicolinealidad.

El otro método formal consiste en la estimación de regresiones auxiliares que


ayudan a evaluar la relación lineal existente entre un conjunto de variables
independientes. Para ello, se ejecuta una regresión entre las variables
independientes del modelo, por ejemplo X 2 versus (X3, X4, X4, X5) y luego se
analizan los estadísticos resultantes de esta. Si hay relación lineal entre estas
variables, el R2, el Fc y el tc que acompaña a cada variable independiente de la
regresión auxiliar serán altos. Las pruebas de hipótesis sobre relevancia y
dependencia estadística en la regresión auxiliar determinan si existe o no
multicolinealidad. Es importante tener en cuenta que deben estimarse todas las
posibles regresiones auxiliares resultantes de las combinaciones entre las
variables independientes o regresores del modelo original. El método de
regresiones auxiliares es el más utilizado y recomendado por su sustentación
estadística dado que permite evaluar la multicolinealidad ocasionada
simultáneamente por la relación lineal entre más de dos variables independientes.
CORRECCIÓN DE MULTICOLINEALIDAD.

La corrección de multicolinealidad en un modelo puede ejecutarse mediante varios


métodos:

1. Eliminación de Variables: Esta técnica propone la eliminación de una de


las variables independientes relacionadas linealmente. El problema de
aplicar esta técnica es que se pueden eliminar variables importantes que
teóricamente explican la variable dependiente, presentándose posiblemente
sesgo de especificación por omisión de variables.

2. Utilización de Información a priori: La información a priori comúnmente


proviene de estudios anteriores que pueden brindar algún indicio sobre el
valor de algún parámetro correspondiente a una de las variables
independientes incluida en la ecuación de regresión. Operativamente, el
valor a priori del parámetro es reemplazado en el modelo original. Luego se
procederá a estimar el modelo resultante.

3. Transformación de Variables: Esta técnica plantea una transformación de


las variables del modelo original. El más conocido es la transformación en
primeras diferencias. Al trabajar con un modelo que incluye datos
organizados en series de tiempo se presenta la posibilidad de construir una
ecuación de primeras diferencias, asumiendo que con un rezago de cada
una de las variables del modelo es posible eliminar la relación lineal que
puede existir entre las variables independientes. El modelo original en el
periodo t:
Luego la ecuación en diferencias es:

Donde t* = t – t-1. Debe tenerse en cuenta que al estimar este nuevo


modelo, la interpretación de los coeficientes estimados no es la misma que
en el modelo original, debido a que estos ahora representan cambios o
diferencias de las variables entre los periodos t y t-1.

4. Aumentar el tamaño de la muestra: Este método consiste en ampliar la


muestra o conjunto de datos utilizados para estimar el modelo. Esta es una
solución plausible dado que el problema de multicolinealidad es ocasionado
fundamentalmente por las observaciones en la muestra. Cuando se
incrementa el número de observaciones se piensa que es más difícil
reproducir el componente de colinealidad entre los regresores. Sin
embargo, en muchos casos no es posible adquirir más información u
observaciones de las variables debido a restricciones físicas, técnicas y
económicas.

Finalmente, se recomienda que el investigador una vez utilice alguno de estos


métodos verifique si el problema de multicolinealidad fue corregido.
HETEROSCEDASTICIDAD

El problema de heteroscedasticidad se presenta cuando es violado el supuesto de


varianza constante de los errores de la función de regresión. La
heteroscedasticidad tiene que ver con la relación entre una o más de las variables
independientes del modelo y el cuadrado de los errores estimados a partir de la
regresión. Este problema se manifiesta en un crecimiento o decrecimiento de la
varianza del modelo.

La presencia de heteroscedasticidad es muy común en regresiones estimadas a


partir de datos de corte transversal. Por ejemplo, cuando se recolectan datos
provenientes de estratos, de regiones, por tamaño de la familia o por tipo de
empresa. En general, puede presentarse en estudios que incluyen grupos con
comportamientos marcados a lo largo de toda la muestra; por ejemplo la variable
ingreso monetario del hogar según el estrato, pues se puede pensar que la
varianza del ingreso monetario del grupo de alta riqueza es más alta que la del
grupo de escasos recursos.
El problema de heteroscedasticidad repercute directamente sobre la estimación de
los parámetros de la regresión. Los estimadores seguirán siendo insesgados y
consistentes pero no eficientes. La heteroscedasticidad causa la subestimación o
sobre estimación de la varianza del modelo de regresión, por lo tanto el valor del
error estándar de los parámetros, el valor de los estadísticos t y los intervalos de
confianza cambian con respecto a los resultados que deberían obtenerse en
ausencia de heteroscedasticidad. En este sentido, la presencia de
heteroscedasticidad en el modelo de regresión hace que las pruebas de hipótesis
no tengan validez estadística o que las inferencias sean erróneas.
DETECCIÓN DE LA HETEROSCEDASTICIDAD

A continuación se presentan los métodos para detectar la existencia de


heteroscedaticidad:

1) Análisis de residuales: Este método permite evaluar gráficamente si existe


heteroscedasticidad causada por una variable independiente en particular o por
todo el conjunto de variables independientes. Para el primer caso se elabora un
diagrama de dispersión entre Xt y et2 (cuadrado del término de error) donde X t es el
regresor que el investigador supone genera la heteroscedaticidad. En el segundo
caso, se construye el diagrama de dispersión entre Yt estimado y et2. Si estas
gráficas muestran alguna tendencia específica, puede afirmarse que existe
heteroscedasticidad en el modelo de regresión. No obstante esta metodología es
indicativa y no está basada en una prueba estadística.

2) Análisis de regresión: Es la utilización de una o más regresiones auxiliares. El


procedimiento es similar al planteado para detectar multicolinealidad, con la
salvedad de que ahora la regresión no se estima entre las variables
independientes, sino entre el cuadrado del término de error y el conjunto de
regresores del modelo original. Dentro de este método se encuentran las pruebas
de Park, White, Glejser, Breusch-Pagan-Godfrey, y Golfeld – Quandt. A
continuación se presenta el procedimiento general para efectuar la prueba de
White:
Si se tiene el siguiente modelo original:
Una vez estimado el modelo por el método de mínimos cuadrados
ordinarios (MCO), el investigador debe calcular el cuadrado de los errores:

 
 t2  Yt  Yt ˆ 2 , y luego estimar por MCO el siguiente modelo:

2  X  X  X 2
  4X
2
 X X t
t 0 2t 5
1 1t 2 2t 3 1t  1t 2t

La prueba de hipótesis relacionada con el modelo anterior es:

Ho:

Ha: 1  2  3  4  5  0 (No hay heteroscedasticidad)

1  2  3  4  5  0 (Si hay heteroscedasticidad)

El estadístico de prueba es nR 2 ~.  2 . En este caso el número de grados de


5

libertad es cinco, que corresponde al número de variables explicativas en la


regresión de White. Asimismo, para modelos con más variables explicativas
los grados de libertad serán equivalentes al número de regresores en el
modelo auxiliar. Si nR 2   a un nivel de significancia , la hipótesis
2
g.
l

nula es rechazada, por lo tanto, existe heteroscedasticidad en el modelo


original.

Es importante señalar que la prueba de White desarrollada se refiere


exclusivamente a la prueba de términos cruzados debido a que incorpora
en la regresión auxiliar el término de interacción de las variables
independientes del modelo original:  5 X 1t X 2t . Cuando este componente no
es agregado la prueba recibe el nombre de prueba de White sin términos
cruzados. Este cambio tiene un efecto directo sobre los grados de libertad
de la prueba.

CORRECCIÓN DE HETEROSCEDASTICIDAD

Las medidas correctivas principalmente incluyen dos enfoques: cuando 2 es


conocida y cuando 2
es desconocida.

1) Cuando se conoce 2 : En este caso se utiliza el método de mínimos


cuadrados ponderados (M.C.P) para realizar una transformación de las
variables del modelo. Considere el modelo original el cual presenta
heteroscedasticidad y 2 es conocida:
Yt  1  2 X t   t
Este método supone la siguiente transformación:
Yt   1
2X t
t

Donde 2 es la desviación estándar del modelo. Se supone que esta


transformación permite que el modelo quede libre de heteroscedasticidad.
No obstante, para asegurarse de esto puede efectuarse cualquiera de las
pruebas de detección presentadas anteriormente.

2) Cuando no se conoce 2 : Por lo regular es muy difícil tener conocimiento

previo de 2. Para utilizar el método de mínimos cuadrados ponderados

debe recurrirse a supuestos ad hoc, con cierto grado de razonabilidad sobre


2 para proceder a la transformación de la regresión original, de tal
manera, que el nuevo modelo cumpla con el supuesto de
homocedasticidad. Considérese el siguiente modelo:

El investigador presume que la varianza de los errores tiene la siguiente


forma:
E Ut  
2 2
Xt
2

Esta expresión es planteada cuando se cree que la varianza de los errores


es proporcional al cuadrado de la variable explicativa. Bajo este supuesto el
modelo transformado puede presentarse como sigue:

Ut
Donde v 
t . Puede verificarse que:
Xt
E v t   E U t X t   1 X t EU t   0
y que el modelo transformado ahora es teóricamente homocedástico:

 
E v2 
Xt  
2
 X2 2
 X
2
 2
X  .
2 2

EU
t t

EU 1 t t 1 t t

El método indica que las observaciones de la muestra deben dividirse por la


raíz cuadrada de la estructura generadora de la heteroscedasticidad; lo cual
para este ejemplo es equivalente a dividir por X t . Luego el procedimiento
indica que el modelo transformado requiere estimarse por MCO. Esta es
la razón por la cual el método se denomina mínimos cuadrados
ponderados, dado que se ponderan las observaciones originales por un
factor. Es conveniente verificar empíricamente si luego de estimar el
modelo transformado el problema de heteroscedasticidad fue corregido.

También podría gustarte