0% encontró este documento útil (0 votos)
67 vistas11 páginas

MULTICOLINEALIDAD

La multicolinealidad se refiere a cuando dos o más variables explicativas están altamente correlacionadas, dificultando medir sus efectos individuales sobre la variable dependiente. Se diagnostica mediante el coeficiente de correlación entre variables, la regresión de cada variable sobre las demás, y el factor de inflación de la varianza. Las soluciones incluyen añadir datos, restringir parámetros, suprimir variables o transformar las variables.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
67 vistas11 páginas

MULTICOLINEALIDAD

La multicolinealidad se refiere a cuando dos o más variables explicativas están altamente correlacionadas, dificultando medir sus efectos individuales sobre la variable dependiente. Se diagnostica mediante el coeficiente de correlación entre variables, la regresión de cada variable sobre las demás, y el factor de inflación de la varianza. Las soluciones incluyen añadir datos, restringir parámetros, suprimir variables o transformar las variables.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd

MULTICOLINEALIDAD.

El término multicolinealidad en econometría se refiere a una situación en la que


dos o más variables explicativas se parecen mucho y, por tanto, resulta difícil
medir sus efectos individuales sobre la variable explicada. Este es un problema
complejo, porque en cualquier regresión las variables explicativas van a presentar
algún grado de correlación. Lo ideal en un modelo sería que no existiera ninguna
relación entre dichas variables.
Podemos encontrar:
 Multicolinealidad perfecta: Se da cuando los valores de una variable
explicativa se obtienen como combinación lineal exacta de otras, es decir,
cuando una variable explicativa se puede escribir como la multiplicación de
un número real por otra.
 Multicolinealidad imperfecta: Se da cuando los valores de diferentes
variables están tan correlacionados que se hace casi imposible estimar con
precisión los efectos individuales de cada uno de ellos, por lo que existirán
relaciones lineales fuertes entre algunas de sus variables explicativas, que
no les permitirán ser perfectas, en este caso solo una parte de las variables
serán múltiplos de otra.

Diagnóstico de la Multicolinealidad:
Una primera aproximación para diagnosticar la multicolinealidad consiste en
obtener los coeficientes de correlación muestral simples para cada par de
variables explicativas y ver si el grado de correlación entre estas variables es alto.
Pero se puede dar el caso de tener una relación lineal casi perfecta entre tres o
más variables. Otro método consiste en realizar la regresión de cada variable
explicativa sobre el resto. Se realizan las regresiones y se obtienen los
coeficientes de determinación 𝑅 cuadrado, por lo que, si alguno de ellos es alto,
podemos sospechar la existencia de multicolinealidad.
Cabe resaltar que para decidir si la multicolinealidad constituye un problema
debemos tener en cuenta los objetivos de cada análisis concreto. Por ejemplo, la
colinealidad no es demasiado grave si la intención es predecir, pero si el análisis
se centra en interpretar las estimaciones de los parámetros, tendríamos que sí
será un problema muy grave.
De esta manera, se tendrá en cuenta la presencia de multicolinealidad con el
coeficiente de correlación que se encuentra en el intervalo (-1, 1) por lo que:
 Si es 1, se dice que el 100% de los datos tienen relación lineal, entonces
habrá multicolinealidad perfecta.
 Si es -1, se dice que el 100% de los datos tienen relación lineal, entonces
habrá multicolinealidad perfecta pero inversa.
 Si es 0,8 se dice que el 80% de los datos tienen relación lineal, entonces
habrá multicolinealidad imperfecta
 Si es -0,8 se dice que el 80% de los datos tienen relación lineal, entonces
habrá multicolinealidad imperfecta pero inversa.

Factor de inflación de la varianza (VIF)


La multicolinealidad se puede detectar utilizando varias técnicas, una de ellas es el
factor de inflación de la varianza el cual evalúa cuantitativamente la intensidad del
problema de multicolinealidad en un modelo de análisis de regresión normal en
mínimos cuadrados ordinarios mostrando un índice que mide hasta qué punto la
varianza de un coeficiente de regresión estimado se incrementa a causa de la
colinealidad. Una regla general para interpretar los VIF es la siguiente: Un valor de
1 indica que no hay correlación entre una variable predictora dada y cualquier otra
variable predictora en el modelo.

Soluciones para la Multicolinealidad.


El problema de multicolinealidad se reduce a que la muestra no contiene suficiente
información para estimar todos los parámetros. Por ello, resolver el problema
requiere añadir nueva información, sea muestral o extramuestral, o cambiar la
especificación. Algunas posibles soluciones en esta línea son:
 Añadir nuevas observaciones:
Si realmente es un problema muestral, una posibilidad es cambiar de
muestra porque puede ser que con nuevos datos el problema se resuelva,
aunque esto no siempre ocurre. La idea consiste en conseguir datos menos
correlacionados que los anteriores, bien cambiando toda la muestra o
simplemente incorporando más datos en la muestra inicial. No siempre
resulta fácil obtener mejores datos por lo que muy probablemente debamos
convivir con el problema teniendo cuidado con la inferencia realizada y las
conclusiones de la misma.
 Restringir parámetros:
Si la Teoría Económica o la experiencia sugieren algunas restricciones
sobre los parámetros más afectados por la colinealidad, imponerlas
permitirá reducir el problema. Obviamente, se corre el riesgo de imponer
restricciones que no son ciertas.
 Suprimir variables:
Si se suprimen variables que están correlacionadas con otras, la pérdida de
capacidad explicativa será pequeña y la multicolinealidad se reducirá. Esta
medida puede provocar otro tipo de problemas, ya que, si la variable que
eliminamos del modelo realmente sí es significativa, estaremos omitiendo
una variable relevante, lo que hará que los estimadores de los coeficientes
del modelo y de su varianza sean sesgados por lo que la inferencia
realizada no sería válida.
 Transformar las variables del modelo:
Si la colinealidad se debe a que se están relacionando series temporales
con tendencia, puede convenir transformar las variables para eliminar esta
tendencia.

Ejercicio para detectar y resolver los problemas de multicolinealidad.


Para aplicar lo expuesto anteriormente se evaluará la demanda agregada en
función del consumo, la inversión, el gasto, exportaciones e importaciones, con
base de datos propuesta en clase (Ver datos en anexos, última página). Por lo que
tendremos:

DA= β0 + β 1 C+ β 2 I + β 3 G+ β 4 X + β5 M + u

Estimando el modelo con ayuda del programa STATA tenemos:


Estimando el modelo con ayuda del programa EVIEWS tenemos:

Podemos ver que el p-valor de las variables explicativas no son estadísticamente


significativas porque son mayores al Alpha = 5% por lo que está a favor de la
hipótesis nula.
 Por otro lado, podemos inmediatamente apreciar que el R cuadrado es muy
alto, con una proporción de la suma de cuadrados del 99% lo que nos
indica que hay presencia de multicolinealidad.

 Con la técnica de la matriz de correlaciones también podremos determinar


la existencia de multicolinealidad, por lo que tenemos:

Podemos deducir que la correlación de las variables entre sí es muy alta, por lo
que podemos afirmar la existencia de multicolinealidad.
 Con la técnica del Factor de inflación de la varianza (VIF) también se podrá
determinar la existencia de multicolinealidad. Tenemos:

Podemos observar que los valores del VIF también son demasiado altos por lo
que se confirma la presencia de multicolinealidad.
Por otro lado, podemos confirmar que a partir de las pruebas de hipótesis sobre
los residuales todos los test están a favor de la hipótesis nula, lo que refleja que
los residuales se distribuyen como una normal, no hay autocorrelación y los
residuales son homocedasticos. En resumen, los residuales son MELI, para el
estudio en STATA.
con ayuda del programa STATA tenemos:
con ayuda del programa EVIEWS tenemos:

Resolver problema de Multicolinealidad:


Dividimos cada una de las variables independientes entre la variable dependiente
(DA) bajo el método de conversión:
Estimamos el modelo con las nuevas variables:
con ayuda del programa STATA tenemos:

con ayuda del programa EVIEWS tenemos:

Observamos que automáticamente las variables se vuelven estadísticamente


significativas.
Sin embargo, aun seguimos teniendo cierto grado de multicolinealidad.

Precedemos a eliminar variables, para llegar a la siguiente estimación:


STATA:

EVIEWS:
Por lo que conformamos mediante el método del VIF y de la Matriz de Correlación
la solución del problema de multicolinealidad:

En este punto podemos observar que las variables explicativas ya no se


encuentran cerca, por lo que se rechaza la existencia de multicolinealidad.
ANEXOS:

DATOS:
da c g i x m
80963 48365 11600 9841 11561 10731
81158 48506 11630 9840 11290 10881
82301 48547 11655 9891 11315 10955
83099 48548 12114 9546 11656 11311
81067 49016 12016 10033 11774 11985
83689 49281 11858 10730 11528 12205
85460 49083 12023 11156 12112 11847
86223 49593 12132 11002 11696 11676
83270 49732 11787 10714 11745 11007
86481 49944 12036 12510 11556 12094
86987 50574 12201 12178 11155 12285
86448 50629 11789 12291 11534 12484
86419 50664 11936 12842 11464 12832
89272 51445 12141 13201 12181 12321
91560 52058 12250 12818 13328 13269
92036 52657 12332 14310 12402 13359
93019 53297 12701 14421 13078 13796
91978 53226 12846 14009 13464 13943
97256 53693 12788 14768 13753 13978
99583 54606 13402 15891 13923 15383
97131 54677 13674 15892 13965 14718
100579 55908 13727 16119 14509 16091
102719 56158 13584 17062 14271 16400
103623 56776 13449 17821 14571 16687
103533 57667 14295 17446 15211 17680
108745 59115 14148 20279 15254 19241
114298 60122 14430 20497 16061 19865
113019 60982 14611 20760 15718 19869
113225 62447 14827 21928 15588 20730
116880 63292 14863 22010 15997 21469
121743 64366 15545 22821 16810 22417
123312 65068 15698 23623 18147 22806
122132 65662 15566 24324 17247 23243
124689 65752 15810 25156 17081 23479
125806 66339 15676 25538 17209 24408
124758 66336 15874 24273 17985 25450
123661 66172 16192 24322 17769 22989
123369 66374 16486 24874 16980 20794
123062 66247 16898 24379 16403 21228
126546 66794 17045 24440 16392 22733
127809 68246 17349 24727 16964 23055
128975 69099 17551 24790 17270 23649
131377 70212 17691 25533 17133 24846
133798 71291 17775 27729 17031 25710
137528 71625 17922 28516 18715 27933
141647 73925 18165 30385 19104 29451
144037 74587 18334 31448 19196 29962
145240 75379 18460 31928 19423 30812
148195 76156 18721 32069 20268 31628
150682 76852 19194 33756 20335 32560
147896 77477 19523 30591 20350 32598
149619 77986 20035 31664 20063 32094
151512 78412 20320 33076 19764 32767
157530 79662 21044 34175 23295 34719
157282 80142 21433 34435 20628 34535
159851 80714 21830 35065 21546 34563
160752 81341 22022 36464 20165 34804
163859 82504 22128 36973 20619 36084
165916 83295 22199 38368 21604 36573
167628 85033 22296 38309 21710 39754
167715 85095 22508 38608 21067 38235
168429 85669 22630 38561 20857 36516
171010 86953 22882 38766 20759 39651
170127 87564 23147 38346 20855 38533
170640 88143 22871 37453 21615 37927
171028 87980 23086 37850 21612 36757

También podría gustarte