UNIVERSIDAD NACIONAL MAYOR DE SAN
MARCOS
FACULTAD DE CIENCIAS ECONÓMICAS
ECONOMETRÍA I
ANÁLISIS DEL MODELO DE EXPORTACIONES DE LOS
ESTADOS UNIDOS DE AMÉRICA
AUTORES:
GUEVARA CAYO, JOSE ALONSO
PALACIOS QUISPE, SAM WANDERLEY
DOCENTE ASESOR:
Mg. CORNELIO TICSE NÚÑEZ
LIMA – PERÚ
2022
INTRODUCCIÓN
Los Estados Unidos de América, al ser una de las grandes potencias (junto a China)
presentes en la coyuntura actual, impacta de manera directa en las economías de
diversos países, en especial de los latinoamericanos.
Debido a esta importancia, se buscará analizar la economía comercial de este país,
precisamente en el sector de exportaciones, haciendo usos de las técnicas y conceptos
aprendidos dentro del curso de econometría.
Las variables que se incluirán dentro del modelo a usar serán dos únicamente.
Empezando por el tipo de cambio del dólar respecto al euro, y seguido por el producto
bruto interno (PBI) mundial.
Entre las razones de la inclusión como variable del tipo de cambio están la importancia
que tiene su moneda contraparte, el euro. Es esta última moneda una de los pocas que
tiene tan o similar “confianza” al igual que el dólar. Siendo consecuentemente una
medida ideal para poder medir el impacto de este tipo cambio.
Ahora, con respecto al PBI mundial, no hay mucho que decir. Es claro que como
cualquier país, el ingreso del resto del mundo es muy importante en el tema de una
demanda externa sobre los productos estadounidenses. Este impacta seguidamente en el
sector de exportaciones, y si tomamos en cuenta además que Estados Unidos (como ya
se dijo) es uno de los principales socios comerciales de carácter industrial de muchos
países, esta variable se vuelve esencial si se quiere analizar un modelo comercial de
exportaciones norteamericano.
DATA:
A continuación presentamos la data respectiva, tanto de la variable de tipo de cambio
como la del PBI mundial, que impactan sobre la variable endógena exportaciones.
TC EXPORT PBIM
I 0.96 24052.00 33010756
II 0.93 25094.33 33284137
2000
III 0.90 25133.33 33557518
IV 0.89 25062.00 33830900
I 0.91 24790.00 33777025
II 0.86 24604.00 33723150
2001
III 0.90 23546.33 33669275
IV 0.90 21738.33 33615400
I 0.87 23358.00 33939400
II 0.94 24076.00 34263400
2002
III 0.98 24149.67 34587400
IV 1.01 24436.33 34911400
I 1.08 23738.33 35970300
II 1.15 23943.00 37029200
2003
III 1.13 25159.33 38088100
IV 1.21 26406.33 39147000
I 1.24 27747.67 40389650
II 1.21 28684.00 41632300
2004
III 1.22 28452.00 42874950
IV 1.32 29961.67 44117600
I 1.31 30906.00 45033125
II 1.24 31143.00 45948650
2005
III 1.22 31432.33 46864175
IV 1.19 32681.00 47779700
I 1.21 33949.67 48779725
II 1.27 35106.33 49779750
2006
III 1.27 34966.00 50779775
IV 1.31 37006.33 51779800
I 1.32 39054.00 53423600
II 1.35 40193.00 55067400
2007
III 1.39 42160.67 56711200
IV 1.46 43813.67 58355000
I 1.53 44647.00 59797175
II 1.56 45851.00 61239350
2008
III 1.48 45655.67 62681525
IV 1.31 44110.00 64123700
I 1.29 42006.00 63295050
II 1.38 42801.33 62466400
2009
III 1.44 43737.00 61637750
IV 1.47 45609.67 60809100
I 1.37 46456.00 62255850
2010 II 1.26 47278.67 63702600
III 1.31 49330.33 65149350
IV 1.34 50948.67 66596100
I 1.39 51872.67 68410525
II 1.46 53700.00 70224950
2011
III 1.41 55390.00 72039375
IV 1.34 53926.33 73853800
I 1.32 55953.67 74262375
II 1.28 56578.33 74670950
2012
III 1.26 56940.00 75079525
IV 1.30 58802.67 75488100
I 1.32 59183.33 76017875
II 1.31 59090.33 76547650
2013
III 1.33 60314.33 77077425
IV 1.36 61216.33 77607200
I 1.37 62097.67 78132600
II 1.37 63368.33 78658000
20014
III 1.31 63241.33 79183400
IV 1.24 63643.33 79708800
I 1.11 64182.00 78576425
II 1.11 64123.33 77444050
20015
III 1.11 64027.00 76311675
IV 1.08 64134.00 75179300
I 1.10 63592.00 75500875
II 1.12 65280.67 75822450
2016
III 1.12 66561.33 76144025
IV 1.07 65709.00 76465600
I 1.07 67977.33 77700200
II 1.12 69343.67 78934800
2017
III 1.19 70232.67 80169400
IV 1.18 71604.00 81404000
I 1.23 72839.67 82656250
II 1.18 71568.00 83908500
2018
III 1.16 72064.00 85160750
IV 1.14 72044.67 86413000
I 1.13 72735.33 86722975
II 1.13 75056.67 87032950
2019
III 1.10 74539.33 87342925
IV 1.11 74727.67 87652900
I 1.10 67850.00 86966375
II 1.11 56075.67 86279850
2020
III 1.18 56638.33 85593325
IV 1.19 60854.67 84906800
I 1.20 62645.00 87705125
II 1.20 64897.00 90503450
2021
III 1.18 66563.00 93301775
IV 1.14 70986.33 96100100
Fuente: [Link]/international/detailed-trade-data
[Link]
[Link] 2000 - 2021.
ESTADISTICA DESCRIPTIVA:
En base a la data obtenida de las diversas fuentes, se presenta la estadística descriptiva
arrojada por el programa E – Views para cada variable, medidas que nos darán una
mejor idea del comportamiento a través del tiempo de estos datos.
EXPORT PBIM TC
Mean 48967.58 63912922 1.206041
Median 51410.67 67503313 1.206017
Maximum 75056.67 96100100 1.564233
Minimum 21738.33 33010756 0.861333
Std. Dev. 17195.25 18979022 0.160056
Skewness -0.169450 -0.329344 -0.245775
Kurtosis 1.606400 1.754485 2.670311
Jarque-Bera 7.542237 7.278986 1.284488
Probability 0.023026 0.026266 0.526110
Sum 4309147. 5.62E+09 106.1316
Sum Sq. Dev. 2.57E+10 3.13E+16 2.228745
Observations 88 88 88
GRAFICOS:
Comportamiento a través del tiempo de las variables.
Tal y como se puede visualizar, todos los gráficos (excepto el tipo de cambio) tienen
una tendencia alcista. Tanto las exportaciones como el PBI mundial tienen pocas
perturbaciones agresivas, a diferencia del tipo de cambio, el cual tiene una trayectoria
bastante discontinua.
Si nos ponemos más específicos, podemos mencionar con respecto a la trayectoria del
tipo de cambio, que su pico más bajo fue en los primeros periodos trimestrales a partir
del 2000. Esto también coincide con el PBI mundial, como se muestra en la figura. De
manera general, evaluando el gráfico de las exportaciones (la cual es nuestra variable
endógena y dependiente) también tiene uno de los picos más bajos que coinciden con
los periodos que se mencionaron.
REGRESIÓN:
A continuación mostramos la regresión de las exportaciones en función de las variables
del PBI mundial y el tipo de cambio, dentro del programa E – Views:
Included observations: 88
Variable Coefficient Std. Error t-Statistic Prob.
PBIM 0.000904 2.25E-05 40.18515 0.0000
TC -8794.983 2667.113 -3.297567 0.0014
C 1806.024 3126.079 0.577728 0.5650
R-squared 0.952431 Mean dependent var 48967.58
Adjusted R-squared 0.951311 S.D. dependent var 17195.25
S.E. of regression 3794.219 Akaike info criterion 19.35384
Sum squared resid 1.22E+09 Schwarz criterion 19.43830
Log likelihood -848.5690 Hannan-Quinn criter. 19.38787
F-statistic 850.9315 Durbin-Watson stat 0.260232
Prob(F-statistic) 0.000000
PRUEBA T – STUDENT O INDIVIDUAL
Se evaluará la significancia de las variables respectivas con respecto al modelo, como
sigue:
𝑯𝒐: 𝛽 = 0 → 𝐿𝑎 𝑣𝑎𝑟𝑖𝑎𝑏𝑙𝑒 𝑒𝑠 𝑛𝑜 𝑠𝑖𝑔𝑛𝑖𝑓𝑖𝑐𝑎𝑡𝑖𝑣𝑎, 𝑜 𝑠𝑖𝑚𝑝𝑙𝑒𝑚𝑒𝑛𝑡𝑒 𝑛𝑜 𝑡𝑖𝑒𝑛𝑒 𝑖𝑚𝑝𝑎𝑐𝑡𝑜.
𝑯𝟏: 𝛽 ≠ 0 → 𝐿𝑎 𝑣𝑎𝑟𝑖𝑎𝑏𝑙𝑒 𝑠í 𝑒𝑠 𝑠𝑖𝑔𝑛𝑖𝑓𝑖𝑐𝑎𝑡𝑖𝑣𝑎, 𝑡𝑖𝑒𝑛𝑒 𝑢𝑛 𝑒𝑓𝑒𝑐𝑡𝑜.
Para el PBIM:
𝜶 = 0.05
𝒕 = 40.18
𝑷𝒓𝒐𝒃 = 0.0000
𝑃𝑟𝑜𝑏 < 𝛼 → 𝑆𝑒 𝑟𝑒𝑐ℎ𝑎𝑧𝑎 𝑙𝑎 𝐻𝑜
Para el TC
𝜶 = 0.05
𝒕 = −3.29
𝑷𝒓𝒐𝒃 = 0.0014
𝑃𝑟𝑜𝑏 < 𝛼 → 𝑆𝑒 𝑟𝑒𝑐ℎ𝑎𝑧𝑎 𝑙𝑎 𝐻𝑜
Para el Intercepto C
𝜶 = 0.05
𝒕 = 0.58
𝑷𝒓𝒐𝒃 = 0.5650
𝑃𝑟𝑜𝑏 > 𝛼 → 𝑆𝑒 𝑎𝑐𝑒𝑝𝑡𝑎 𝐻𝑜
PRUEBA OMISIÓN DE VARIABLE
En este caso estaremos omitiendo la variable explicativa TC, y evaluaremos si es
relevante o no a través de la prueba F
Value df Probability
t-statistic 3.297567 85 0.0014
F-statistic 10.87395 (1, 85) 0.0014
Likelihood ratio 10.59371 1 0.0011
F-test summary:
Mean
Sum of Sq. df Squares
Test SSR 1.57E+08 1 1.57E+08
Restricted SSR 1.38E+09 86 16048965
Unrestricted SSR 1.22E+09 85 14396101
LR test summary:
Value
Restricted LogL -853.8659
Unrestricted LogL -848.5690
Datos arrojados por E-Views al omitir variable.
Como se puede ver, podemos notar una probabilidad F menor al 5%, lo que nos hace
rechazar la Ho:
Ho: La variable omitida es no significativa
Ha: La variable omitida es significativa
De igual forma, en la parte de LR test summary podemos notar las cifras y
compararlas entre Restricted LogL (variable omitida) y Unrestricted LogL (variable
incluida). Aquella cifra que sea menor será la más adecuada, siendo en este caso la que
incluye a la variable que hemos omitido.
Conclusión: La variable TC sí es significativa y debe incluirse en el modelo, según dice
la prueba F de Fisher.
PRUEBAS EN RELACIÓN CON EL MODELO MCO
Supuesto 1: Linealidad
Para estudiar si los datos se ajustan a modelo lineal se emplea la prueba del análisis de
varianza (ANVA) que se basa en la distribución F de Fisher
NIVEL DE SIGNIFICANCIA: 5%
Como se puede apreciar el P-
valor es menor que el nivel de
significancia por lo tanto se
rechaza la 𝐻0 y aceptamos la 𝐻1 ,
concluimos que los datos se
ajustan correctamente al modelo
lineal.
Supuesto 2: E(ε) = 0
Mediante este supuesto lo que se busca es que lo factores que no están incluidos en el
modelo no afectan sistemáticamente el valor de la media de Y.
Se puede visualizar que el valor del p-valor del intercepto (c) es 0.5650 por lo cual es
mayor que el nivel de significancia del 5%, entonces aceptamos la 𝐻0 que nos indica
que el intercepto es igual a cero.
Supuesto 3a: Homocedasticidad, var(ε) = σ2
Para probar si los errores siguen algún patrón predeterminado de acuerdo a los cambios
de las variables explicativas se utilizará el Test de White
NIVEL DE SIGNIFICANCIA: 5%
Se puede visualizar que
la Prob.F y la Prob. Chi.
son menores que el nivel
de significancia por lo
cual se rechaza la 𝐻0 y
aceptamos la 𝐻1 , ante
ello se acepta que son
heterocedastiscos los
errores por lo cual ya no serán eficientes, dicho de otro modo, sus varianzas no serán
mínimos.
Para contrastar que las varianzas de los residuos no son mínimos se presenta los
siguientes gráficos.
Supuesto 3b: No autocorrelación, cov (εi x εj)
Mediante este supuesto se establece que los errores de un periodo definido no deben
seguir el mismo patrón de otros errores en periodos n, sí existe algún patrón estaremos
hablando de una autocorrelación.
Para comprobar si existe autocorrelación pasaremos a realizar el Test de Durbin
Watson
Du = 1.6999 Dl = 1.60709
Reemplazando en los términos
correspondientes se tiene una
autocorrelación positiva.
Pasamos a realizar una segunda prueba para confirmar, para ello utilizamos El test de
Breusch-Godfrey
Rezago 1 Rezago 2
Rezago 3 Rezago 4
CORRECCION DEL DURBIN - WATSON
Para ello ajustamos los datos
Supuesto 4: ε ~ N (0, σ^2)
Este supuesto nos indica que los errores siguen una distribución normal con media cero,
varianza σ ^2 y que no existe autocorrelación.
El método que se utilizará para determinar si los errores siguen esta distribución es el
Test de Jarque – Bera
NIVEL DE SIGNIFICANCIA: 5%
Este test tiene las siguientes hipótesis:
𝐻0 : 𝐿𝑎 𝑑𝑖𝑠𝑡𝑟𝑖𝑏𝑢𝑐𝑖𝑜𝑛 𝑑𝑒 𝑙𝑜𝑠 𝑒𝑟𝑟𝑜𝑟𝑒𝑠 𝑒𝑠 𝑙𝑎 𝑑𝑖𝑠𝑡𝑟𝑖𝑏𝑢𝑐𝑖ó𝑛 𝑛𝑜𝑟𝑚𝑎𝑙.
𝐻1 : 𝐿𝑎 𝑑𝑖𝑠𝑡𝑟𝑖𝑏𝑢𝑐𝑖ó𝑛 𝑑𝑒 𝑙𝑜𝑠 𝑒𝑟𝑟𝑜𝑟𝑒𝑠 𝑛𝑜 𝑒𝑠 𝑙𝑎 𝑑𝑖𝑠𝑡𝑟𝑖𝑏𝑢𝑐𝑖ó𝑛 𝑛𝑜𝑟𝑚𝑎𝑙.
Como se puede apreciar a primera instancia el grafico nos da a entender que los errores
no siguen una distribución normal por otra parte nos damos cuenta que nuestra
probabilidad es de un 0.000000 < 0.05 por lo cual rechazamos la hipótesis nula de la
normalidad. No se satisface el cuarto supuesto.
PRUEBA DE WALD
Mediante esta prueba se pondrá a prueba sí los coeficientes relacionados con las
provisiones son igual a -1, esto será nuestra hipótesis nula (𝐻0 ) y como hipótesis
alternativa (𝐻1 ) que sea un numero distinto a -1.
NIVEL DE SIGNIFICANCIA: 5%
Se puede observar en el grafico
que las probabilidades son
menores que el nivel de
significancia por ello
rechazamos la hipótesis nula
(𝐻0 ) .
EVALUACION DE LA FORMA FUNCIONAL DE LA FORMA LINEAL
Para realizar la siguiente prueba utilizamos El test de Ramsey, conocido como RESET
NIVEL DE SIGNIFICANCIA: 5%
Dado las pruebas se puede
concluir que hay elementos
no lineales que explican las
exportaciones, concluimos
que la forma lineal no es la
correcta.
Estabilidad de los parámetros estimados
Como todo análisis se espera que los parámetros estimados se mantengan con el pasar del
tiempo sin embargo esto es difícil que se cumpla por otro lado estadísticamente se pueden
mantener iguales. Pasamos a utilizar el test de estabilidad de Chow
Para nuestro análisis planteamos lo siguiente
Como se puede observar en
ambos casos el p-valor es
menor que 0,05 tanto para la
Prob. F (3.82) y [Link]. (3),
por lo que se rechaza la
hipótesis nula de estabilidad de
los parámetros.
No se da una estabilidad de los parámetros porque hay cambios en la tendencia de los
datos.
Variables redundantes
En nuestros análisis econométricos nosotros algunas veces podemos incluir variables
que no son importantes e inclusive que no corroboran nuestras variables dependientes
ante ello pasamos a realizar este test en eviews para comprobar las siguientes hipótesis:
Dato: En el caso de incluir variables no relevantes eso conlleva a que sus coeficientes no
sean estadísticamente significativos.
PARA EL PBIM
Como se puede observar el p-
valor para ambos test es de
0.0000, como el nivel de
signicancia es del 5% entonces
rechazamos la hipótesis nula y
aceptamos la hipótesis
alternativa por lo cual nos indica que la variable analizada es relevante.
PARA EL TC
PARA EL TC
Se puede observar el p-
valor para ambos test es de
0.0014 siendo menor que
el nivel de significancia
por lo cual rechazamos la
hipótesis nula y aceptamos
la hipótesis alternativa por lo cual nos indica que la variable analizada es relevante.
Conclusiones
• Dado el modelo estimado de exportaciones se puede observar que los datos se
ajustan correctamente al modelo lineal, sin embargo, al pasar a realizar el test de
Ramsey se observa que existen elementos no lineales que explican el modelo.
• Con el test de White se observa que los errores siguen un patrón por lo tanto estos
ya no cumplen el supuesto de homocedasticidad la cual plantea que la varianza
para los errores son las mismas.
• Un análisis obtenido es que los errores son heterocedasticos por lo cual ya no
serán eficientes los estimadores, dicho de otro modo, sus varianzas no serán
mínimos.
• La presencia de autocorrelación nos muestra que los errores siguen un patrón
inclusive mediante la prueba del Durbin Watson se refleja que siguen una
autocorrelación positiva.
Prueba de Multicolinealidad
En esta parte se buscará detectar la multicolinealidad del modelo, y corregirla si es que
esta llega a existir.
Primeramente mostramos nuevamente la regresión original de nuestras variables
presentadas anteriormente:
Constatamos que si bien nuestro 𝑅 2 es elevado, la significancia de la mayoría de
nuestras variables es elevada. Esto (aunque no suficiente) es una las primeras pruebas
para la detección de multicolinealidad.
Seguidamente, mostramos una tabla de correlación entre las variables explicativas
usadas:
PBIM TC
PBIM 1
TC 0.30326027 1
Tal y como se puede visualizar, la dependencia entre variables, es decir, un posible
vinculo que las une, es bajo con un 0.303.
Finalmente, y como una prueba final (la cual considera nuestro grupo es necesario
realizar para descartar el problema) es hacer las regresiones auxiliares, para después
usar la Regla de Klein:
PBIM sobre TC
TC sobre PBIM
Con estos resultados auxiliares, y comparándolos con el 𝑅 2 original, constatamos que
estos son sumamente menores, lo cual sugiere una baja multicolinealidad o simplemente
inexistente.
Prueba de heterocedasticidad
Como bien sabemos uno de los supuestos del MCO es que las varianzas de los errores
que aparecen en la función de regresión deben ser homocedasticas es decir que todas
deben tener la misma variación.
Sin embargo, también existirán casos en las cuales no se cumplan tal supuesto teniendo
así el problema de heterocedasticidad, la existencia de por si de la heterocedasticidad no
influye en que los coeficientes estimados dejen ser insesgados y lineales, pero ya no se
cumplirá el supuesto del MELI (Mejor estimador lineal insesgado) para ser más
precisos tales estimadores no serán eficientes.
A continuación, pasamos a realizar las pruebas respectivas para detectar si existe el
problema de heterocedasticidad.
Utilizaremos principalmente la prueba de White, así como también la prueba de
Breusch -Pagan – Godfrey, complemento a ello utilizamos una grafico en el cual nos
muestra como los residuos se encuentran dispersos conforme aumenta la variable
independiente que se muestra en el respectivo gráfico.
PRUEBA DE WHITE
𝑯𝟎 : 𝑵𝒐 𝒉𝒂𝒚 𝒑𝒓𝒐𝒃𝒍𝒆𝒎𝒂 𝒅𝒆 𝑯𝒆𝒕𝒆𝒓𝒐𝒄𝒆𝒅𝒂𝒔𝒕𝒊𝒄𝒊𝒅𝒂𝒅
𝑯𝟏 : 𝑺𝒆 𝒕𝒊𝒆𝒏𝒆 𝑯𝒆𝒕𝒆𝒓𝒐𝒄𝒆𝒅𝒂𝒔𝒕𝒊𝒄𝒊𝒅𝒂𝒅
REGLA
[Link] > 0.005 Aceptamos la 𝐻0
[Link] < 0.005 Rechazamos la 𝐻0
Como podemos apreciar una vez realizada la prueba White que consiste en regresar los
residuos cuadráticos de MCO sobre las variables explicativas nos indica que existe
varianzas diferentes para los residuos siendo el [Link] menor al 0.005, por lo tanto, se
rechaza la hipótesis nula y se acepta la hipótesis alternativa.
PRUEBA DE BREUCH – PAGAN – GODFREY
𝑯𝟎 : 𝑵𝒐 𝒉𝒂𝒚 𝒑𝒓𝒐𝒃𝒍𝒆𝒎𝒂 𝒅𝒆 𝑯𝒆𝒕𝒆𝒓𝒐𝒄𝒆𝒅𝒂𝒔𝒕𝒊𝒄𝒊𝒅𝒂𝒅
𝑯𝟏 : 𝑺𝒆 𝒕𝒊𝒆𝒏𝒆 𝑯𝒆𝒕𝒆𝒓𝒐𝒄𝒆𝒅𝒂𝒔𝒕𝒊𝒄𝒊𝒅𝒂𝒅
REGLA
[Link] > 0.005 Aceptamos la 𝐻0
[Link] < 0.005 Rechazamos la 𝐻0
La prueba de Breusch-Pagan se utiliza para determinar si la heteroscedasticidad está
presente o no en un modelo de regresión, como se puede visualizar en el grafico se tiene
que el [Link] es menor al 0.005, por lo tanto, se tiene claramente la presencia de
heterocedasticidad entre las perturbaciones.
GRAFICO DE LOS RESIDUOS ELEVADOS AL CUADRADO EN RELACION
CON EL PBI
Mediante el grafico realizado en base a los datos recopilados se puede observar que en
un principio los residuos que están elevados al cuadrado se encuentran más cerca de la
media sin embargo conforme el PBI empieza a expandirse tales errores se encuentran
más dispersos respecto a la media dándonos a entender que existe el problema de
heterocedasticidad en el modelo.
CORRECCIÓN DE LA HETEROCEDASTICIDAD
REGRESION MINIMO CUADRADOS PONDERADOS
El fin de esta regresión es que los estimadores obtenidos mediante este método sean
MELI a comparación de la primera regresión que nos muestra que ya no serán MELI
puesto que existe el problema de la heterocedasticidad.
TRANFORMACION LOGARITMICA
Para el principal modelo econométrico hacemos una transformación logarítmica para
poder cumplir el supuesto de homocedasticidad, como se puede observar mediante tal
método el R^2 aumenta a comparación del R^2 inicial, sin embargo, a pesar de tal
transformación aún se sigue teniendo el problema de heterocedasticidad, para
comprobarlo hacemos las respectivas pruebas:
TEST DE WHITE
TEST DE BREUSCH-PAGAN-GODFREY
ERRORES ESTANDAR ROBUSTOS
Mediante este método lo que se obtendrá son
las estimaciones consistentes de las varianzas y
covarianzas de los estimadores de MCO,
aunque exista heterocedasticidad para así de
esta forma las inferencias estadísticas sean
válidas, dicho de otro modo, los errores
estándar robustos se basan en la corrección de
los errores estándar de White corregidos
mediante heterocedasticidad, como se puede
visualizar los errores estándar disminuyen
haciendo que las inferencias no sean erróneas.
ESTIMACIÓN POR MCO CON HETEROCEDASTICIDAD
Nota:
Es importante analizar si se cumple el supuesto de homocedasticidad en el modelo
estimado debido a que sí no se cumpliera tal supuesto es probable que las pruebas t y f
no muestren resultados imprecisos.
Prueba de Autocorrelación
TEST DURBIN – WATSON:
Presentamos nuevamente los indicadores necesarios para descartar la autocorrelación.
En este caso, mostramos el estadístico Durbin – Watson:
R-squared 0.952431 Mean dependent var 48967.58
Adjusted R-squared 0.951311 S.D. dependent var 17195.25
S.E. of regression 3794.219 Akaike info criterion 19.35384
Sum squared resid 1.22E+09 Schwarz criterion 19.43830
Log likelihood -848.5690 Hannan-Quinn criter. 19.38787
F-statistic 850.9315 Durbin-Watson stat 0.260232
Prob(F-statistic) 0.000000
Según la regla de evaluación proporcionada por el libro de Court – Rengifo, además de
encontrar el DL y DW respectivos según el número de observaciones y variables, la
línea de medida sería:
0 1.6 1.69 2 2.31 2.4
En donde verificamos que nuestro estadístico dado por 0.260, cae en una zona que se
considera de autocorrelación positiva. (entre 0 y 1.60).
TEST DE BREUSCH – GODFREY:
Se presenta también los resultados de la mencionada prueba:
Breusch-Godfrey Serial Correlation LM Test:
Null hypothesis: No serial correlation at up to 2 lags
F-statistic 145.5691 Prob. F(2,83) 0.0000
Obs*R-squared 68.47780 Prob. Chi-Square(2) 0.0000
Test Equation:
Dependent Variable: RESID
Method: Least Squares
Date: 12/18/22 Time: 09:27
Sample: 1 88
Included observations: 88
Presample missing value lagged residuals set to zero.
Variable Coefficient Std. Error t-Statistic Prob.
PBIM -6.07E-06 1.09E-05 -0.558018 0.5783
TC 866.5532 1293.739 0.669805 0.5048
C -696.9491 1501.711 -0.464103 0.6438
RESID(-1) 1.151458 0.104735 10.99398 0.0000
RESID(-2) -0.313943 0.110229 -2.848112 0.0055
R-squared 0.778157 Mean dependent var -6.60E-12
Adjusted R-squared 0.767466 S.D. dependent var 3750.354
S.E. of regression 1808.489 Akaike info criterion 17.89351
Sum squared resid 2.71E+08 Schwarz criterion 18.03427
Log likelihood -782.3145 Hannan-Quinn criter. 17.95022
F-statistic 72.78454 Durbin-Watson stat 1.811619
Prob(F-statistic) 0.000000
En donde se verifica que la Ho de no autocorrelación es rechazada al 5% de
significancia.
METODO GRÁFICO:
Adicionalmente, mostramos una gráfica de la distribución de residuos y residuos
estandarizados:
8,000
4,000
-4,000
-8,000
-12,000
-16,000
10 20 30 40 50 60 70 80
EXPORT Residuals
Residuos
2
-1
-2
-3
-4
10 20 30 40 50 60 70 80
Standardized Residuals
Residuos estandarizados
Como se puede notar, esta tiene una tendencia bastante discordante a medida que
avanza el tiempo. Comparando ambos tipos de gráficas, podemos ver sus similitudes,
algo que podría indicar autocorrelación.
Corrección de autocorrelación
Implementamos lo que es un modelo AR(3), uno de los métodos más usados para la
corrección de autocorrelación. A continuación mostramos este modelo implementado:
Verificamos el Durbin – Watson, dado por 1.88. Este estadístico según lo indicado por
los libros de apoyo, al estar bastante cerca del 2 absoluto, verifica la ausencia de
autocorrelación.