CESAR ANTUNEZ IRGOIN
nakatabox@[Link]
Mapa Curricular
Presentación
La presentación de Análisis de Regresión
pretende apoyar los objetivos de aprendizaje
y contenidos de esta Unidad de aprendizaje
presentando los conceptos y su
representación en términos de algebra
matricial. Adicionalmente, se busca que el
alumno aprenda a utilizar el software
estadistico Econometric Views 7.0, para la
calibración de los modelos econometricos y
su representación gráfica.
El análisis sistemático de los modelos
econometricos orientados a las finanzas y a
la economía es el trabajo del actuario.
Guión Explicativo
Estapresentación esta diseñada para introducir
a los alumnos en el manejo del software
econometrico “EViews7”, con esta herramienta
se pretende que el alumno desarrolle el análisis
econométrico y el pronostico de diferentes
variables económico-financieras. De igual
forma se busca fortalecer los conceptos
aprendidos en las clases teóricas, mediante el
desarrollo de ejercicios empíricos con datos
reales. Finalmente se busca que el estudiante
desarrolle su capacidad para programar en un
leguaje orientado a objetos, que es como
funciona el programa econometrico.
Guión Explicativo
La Unidad de Aprendizaje contempla 4 horas
teóricas y 2 horas prácticas. Esta presentación
busca cubrir:
Unidad de Competencia I, que contempla los
temas de Modelo lineal simple, estimación de los
parametros por MCO (Mínimos Cuadrados
Ordinarios), coeficientes de determinación,
intervalos de confianza y pruebas de hipótesis.
Unidad de Competencia 2, que contempla:
Modelo lineal multiple, estimación de
parametros, propiedades de los estimadores,
coeficiente de determinación multiple, Análisis
de varianza, coeficiente de regresión parcial,
predicciones
El Modelo Lineal General
(MLG)
Yt = βXt + εt
Supuestos del Modelo
E(Y /Xtt) = α + Xtt β → El modelo puede representarse.
(Ytt/X
εtt ~ N(0 ; σ^2.I) →El error tiene una distribución Normal.
ρ(X) = k → X es fija y de rango (Txk) completo (no
perfecta multicolinealidad)
El error presenta una matriz de varianza y covarianza:
E(εε΄΄) = E(ε^2) =Var(ε)= 2 I Homocedasticidad.
E(εttεs)
s) == Cov(εttεs)
s) == 0 no autocorrelación.
El Estimador por Mínimos Cuadrados
Ordinarios (MCO): Minimiza la suma de
cuadrados del
residuo
Min ; 2 Y X Y X 1
̂ X X XY
X 11 X 12 X 1t
X Y11
21 X 22 X 2t Y
X Txk YTx1 21
X T 1 X T 2 X Tk YT
ˆ 2
Y Xˆ Y Xˆ
n k n k
Var Cov( ) ˆ XX
1
ˆ ˆ 2
Estimación con EViews
Previo al análisis de series en estudio ,
Eviews nos permite estimar MCG por tres
métodos que son equivalentes.
1. Uso de Comandos:
LS LOGM C LOGPBI LOGinter
Nombre del modelo: CAGAN
Equation [Link] Log(M) c Log(PBI) Log(inter)
2. Ventana de Dialogo: Quick/Estimate
Equation/…
Escribir la ecuación con el método seleccionar
muestra.
3. Creación de Ecuación: Objects/New Object
/Equation.
Se activa una ventana de dialogo igual al caso uno.
Nota: también se puede introducir variables
directamente como log(X), D(x,d), X(-n), exp(x),
abs(X), etc…
Ventanas de Eviews con MCO
para MLG
Escribir la ecuación a estimar que
también puede escribirse como:
Logm=C(1)+C(2)*Logpbi+C(3)*Loginter
Selección del método de
estimación . Por defecto Eviews
utiliza mínimos cuadrados
ordinarios, LS-Least Quares .
Selección del periodo o muestra.
Estimación de Parámetros
Modelo de Demanda de Dinero:
Coefficiente:
Coeficientes estimados
por MCO. Su
interpretación depende la
de naturaleza de la
variable del modelo. Si el
PBI aumenta en 1% la
demanda de dinero
aumenta en 2.06% y si la
tasa de interés aumenta
en un punto porcentual, la
masa monetaria disminuirá
a una tasa de 0.14%
Log ( M t ) 0.87 2.059 * Log ( PBI t ) 0.14 * Log (int er ) t
[Link]: Error estándar de los coeficientes estimar.
t-Statistic: Valor del estadístico t, bajo la hipótesis individual que las variables
(H0: βi =0).Con t-k grados de libertad, Indica que la variable contribuye a explicar
la variable endógena.
Prob: Si los Valores son superiores al 5% (α=5%) no se rechaza la hipótesis
(significativa la variable) nula y la variable exógena sirve para explicar el modelo.
R squared: Es el R cuadrado de la ecuación y representa el porcentaje de la
variabilidad de la variable dependiente explicad por la variable independiente.
Adjusted R-squared: Permite medir el incremento neto de R cuadrado,
cuando se incluye un nuevo regresor.
SE. Of regression: SCE ˆˆ Y Xˆ Y Xˆ
Sum suared resid:
SCR Y Y Y Xˆ Y Xˆ
Log likelihood: Representa el valor de la función de verosimilitud en los
parametros, útil para la interpretación del ratio de verosimilitud.
Durbin-Watson stat: Sirve para contrastar la hipótesis de
incorrelación entre perturbaciones aleatorias frente a la presencia de
autocorrelación.
Mean depent var: Representa la media la variable dependiente.
S.D depent var: Representa la cuasidesviación típica de la muestra.
F-statistic: Es el estadístico que esta asociado a la hipótesis conjunta
de que los parámetros asociados son iguales a cero ( excepto el
intercepto). H0 : β1 =β2 =β3 =βi
Prob(F-statistic): Mide la probabilidad de cometer el erro tipo I . Se
calcula con la distribución F de Snedecor Fk-1;T-k.
Criterios de Información: Son el Akaike info criterion y Schwarz
criterion, estos criterios nos dan información de la capacidad
explicativa del modelo y permite realizar comparaciones de los
modelos analizados.
Prueba de Normalidad
Uno de los problema más frecuentes al trabajar con
variables es saber si tiene distribución Normal. Pues
no se puede aplicar las pruebas estadísticas si la
población no se distribuye de forma normal, en ese
caso se trabajaría con pruebas no paramétricas o se
puede graficar las variables para tener una idea de la
forma y de esta manera poder hacer las
transformaciones del caso para que tengan una
distribución normal.
* Eviews 7 tiene incorporado varias pruebas para
analizar la normalidad, yo por mi parte describir tres
de estas que considero las más importantes para
estar seguro o tener una alta probabilidad que la
variables tenga una distribución normal
• Prueba de Jarque – Bera
• Prueba de Normalidad
Test de Jarque – Bera
Yo por mi parte aplicare las tres pruebas a los
errores del modelo se recomienda al lector
aplicarlos a las demás variables de su modelos que
tenga.
H0 : εt se aproxima a una distribución Normal.
H1 : εt no se aproxima a una distribución
T k Normal.K 3 2
2
Jarque - Bera se formula: JB S
6 4
T: Tamaño de muestra
K: Es la Curtosis
S: Es la Simetría k: Número de regresoras
JB 2
( 5%; 2 ) 5.99
Regla de Decisión:
Si el JB es menor 5.99 no se rechaza la hipótesis nula
Abrir con doble click Resid ir a View/ Descriptive
Statistics & Tests / Histogram and Stats
Pruebas Estadísticas sobre los
Coeficientes
Eviews 7 tiene tres pruebas sobre los coeficientes del modelo y
estas son:
Pruebas de Restricción de Coeficientes: Esta prueba se basa en la
prueba de Wald, que puede ser individual (H0: βi = 0) o grupal (H0:
β1 = β2 =… βk =0)
En la ventana de la ecuación(nuestro caso cagan) ir a
View/Coefficient Diagnostics/Wald Test-Coefficient Restrictions…E n
la ventana de dialogo se escriben las restricciones entre comas
ejemplo: H0 : C(1)-2*C(2) = 0
1
1
W ( Rb q) S R( X X ) R ( Rb q) 2
2
Como se observa en
el rectángulo de color
rojo que tiene una
baja probabilidad
0.02% de no rechazar
la hipótesis nula.
Rechaza H0
F ( q=1;T=70;0.95)
q: Número de
restricciones.
o Contraste de restricciones lineales: Esta Prueba utiliza el
estadístico “W” y el “F “ para contrastar los residual del modelo
sin restringir (εS) y los del [Link] restringido (εt).
( t/ t s/ s ) / q
F F( q ;T k )
s /(T k )
/
s
o Pruebas de Variables Omitidas: Nos da una idea si una lista
de variable adicional podría mejorar el modelo.
Ubicamos en cuadro de la ecuación (caso Cagan) nos dirigimos
a View/Coefficient Diagnostics /Omitted Variables Test-
Likelihood Ratio.
En el cuadro de dialogo se escriben las variables a omitir (caso:
inter)
H0 : La variable inter es no
significativa para el
modelo (C(3)=0)
H1 : inter es una variable
significativa para el modelo
(C(3)≠ 0).
Con una probabilidad
0.07% se rechaza la
hipótesis nula de no
significancia para el
modelo,
o Pruebas de Variables Redundantes: Prueba si la
exclusión de una lista de variable podría mejor el
ajuste del modelo.
* Ubicamos en cuadro de la ecuación (caso Cagan) nos
dirigimos a View/Coefficient Diagnostics
/RedundantVariables Test-Likelihood Ratio…
En el cuadro de dialogo se escriben las variables a
omitir (caso: LOGPBI)
H0 : La variable LogPBI es
redundante para el
modelo.
H1 : La variable LogPBI es
redundante para el modelo .
Con una baja probabilidad de 0
% (menor α=5%) no se acepta
la hipótesis nula.
Por lo que la variable LogPBI no
es redundante para el modelo
de Cagan
Multicolinealidad
La multicolinealidad en el Modelo Lineal General se presenta cuando las
variables independientes presentan alto nivel de correlación. Por lo que
en términos empíricos hay que definir los limites de tolerancia de
colinealidad.
Siguiendo a Klein en su versión de correlación indica un alto grado
cuando: rX X RY
i j
RY : Es la raíz cuadrada del coeficiente de determinación
Multicolinealidad Perfecta ρ (X׳X) < k
Multicolinealidad imperfecta ρ (X׳X) = k / X׳X / ≈ 0
Consecuencias: Es el incremento de los errores estándar de la prueba
“t” , se mantiene un buen ajuste R cuadrado alto, una prueba “F”
significativa y “t” bajo para variables que presentan multicolinealidad.
Detección: Análisis de la matriz de correlaciones.
Algunos autores recomiendan correlaciones mayores 0.8
indica la presencia de colinealidad.
Análisis de la matriz X׳X (es o no una matriz singular)
Para ver la matriz de correlaciones en Eviews 7 tenemos que el
cuadros Pros/Make Regressor Group en la nueva ventana ir Group
Menbers, borra la variable LogM hacer click en name y guardalo con
el nombre Matrix.
Abrir el objeto Matrix con
doble click e ir View/Principal
Components… Nos da la
matrix de correlaciones
En el cuadro de comandos
Digitar: Sym
mcorrel=@cor(matrix)
En el cuadro de comandos
escribir: Scalar
det_cor=det(mcorrel)
Abrir el objeto det_cor con
doble click ver el valor de la
detreminante esón 0.61>0. No
existe correlación el en modelo
A continuación se simula un modelo con Multicolinealidad
En el modelo de Regresión
de la Guía positiva
anterior se puede
observar una alta
colinealidad (un buen
ajuste entre R^2 y F),
pero la variable X3_ no es
significativa (tiene una
probabilidad alta de
21.31% mayor al 5%), lo
que nos da indicios de
multicolinealidad que
constatara con la matriz
de correlaciones. Para
realizar el grafico de las
correlaciones
seleccionemos X1 X2 X3_
con CTRL y después un
Click izquierdo nos
dirigiremos a la Table en
menú View/Graph…
seleccionaremos la opción
que se muestra en el
gráfico de Graph Options
Autocorrelación
Es un caso particular de Mínimos Cuadrados Generalizado que se
produce cuando los errores del modelo presentan correlaciones entre
ellas (esto puede deberse a efectos inerciales del pasado como la
inflación, una crisis mundial, rezagos de política, especulación, etc…).
Este problema y la heteroscedasticidad origina que las perturbaciones no
sean esféricas. Por lo que la matriz de varianzas y covarianzas de las
perturbaciones sean distintas a cero.
Sus efectos son: la los estimadores por MCO de β son insesgados
por ineficientes (varianza no es la mínima) e inconsistentes
reduciendo la probabilidad de hacer pruebas de hipótesis.
Solución: Reparametrizar el modelo y determinar el componente
autorregresivo.
Planteamiento Formal
Yt xt t
E ( t s , t ) s 0
Autocovarianza
E ( t
2
)
2
s 0
Coeficientes de Autocorrelación
Cov ( t s , t )
r s s 0,1,-2,...
Var ( t s )Var ( t ) 0
0 1 T 1 1 1 T 1
1
Var ( t ) E ( t , t/ ) 1 0 T 2
2 1 T 2
T1 T 2 0
T1 T 2 1
Se utilizará MCG o reparametrizados de los coeficientes
de autocorrelaciónpara estimar los parámetros
Test de Durbin-Watson: Somete a prueba la
autocorrelación de Primer orden (AR(1)).
Yt xt t
t t 1 ut
Ho : 0 no existe autocorrelación de primer orden
T 2
DW=
(ˆ t ˆt 1 )
t 2
T
2(1 )
ˆ
t 1
2
t
El valor del DW se puede apreciar en la ventana de resultados
( Guía P. 7). Si el DW ≈ 2 no existe autocorrelación positiva, DW
> 2 existe sospechas de una autocorrelación negativa y si DW
< 2 existe sospechas de una autocorrelación positiva.
Crítica:
* Sólo es valido para la autocorrelación de la perturbación
autorregresiva de orden 1 (AR(1)).
* Requiere de una muestra mínima de 15, para obtener
resultados fiables.
* Presenta zonas de indeterminación
Prueba de Breusch - Godfrey
Es un contraste más general que el DW al permitir procesos
estocásticos más generales de orden p (AR(p)) o medias
móviles de orden q (MA(q)), y se puede utilizar en variables
endógenas retardadas.
Yt xt t
t 1 t 1 2 t 2 ... r t r ut
H 0 : 1 2 ... r 0 (ausencia de
Autocorrelación)
H 1 : 1 2 ... r 0
AR (r) o MA (r)
LM TR 2
2
r
Prueba: En la ventana de resultados View/Residual
Diagnostics/ Serial Correlation LM Test… teclea 2 rezagos
(Lags)
Por tener un probabilidad muy baja 0% (menor
de 5%) se rechaza la hipótesis nula de
incorrelación.
Por lo que el modelo presenta autocorrelación
de 2 orden (AR(2))
Test de Ljung – Box y Box – Pierce
Este test utiliza el coeficiente de correlación simple y sólo puede
ser aplicado cuando el conjunto de variables explicativas son todas
exógenas. r
Test Box - Pierce: Q T ri 2 r2
i 1
Ljung presenta un refinamiento a la formula anterior:
r
ri 2
Q T (T 2) r2
i 1 T i
Donde : r i : Es el coeficiente
T de autocorrelación simple
t i t
ri t 1T
t
2
t 1
Correlograma o Periodograma: Es otra forma de
identificar la autocorrelación de orden p.
En el cuadro de dialogo que aparece seleccionamos sin
transformar (Level) y el número de rezagos 22 (Lag
Specification)
Las banda esta del
correlograma estan
representada por :
2 2
T 73
= ± 0.2341los
valores que sean
iguales o mayor ha
este valor nos
indicara el orden de
AR(r).
Corrección de la
Autocorrelación
Introduciremos el componente
autoregresivo al modelo
estimado.
Comando : equation [Link]
logm logpbi inter AR(1) AR(2)
Luego, se incorporo una variable
autoregresiva de primer orden y
otra variable autorregresiva de
segundo orden, estas variables
ayudaron a perfeccionar el
modelo dando solución al
problema de autocorrelación de
los errores en el modelo,
considerando de que el error esta
en función del mismo error pero
rezagado hasta el segundo
periodo.
Heteroscedasticidad o
diferente dispersión de las
perturbaciones
Significa que la varianza de las perturbaciones no es constante a lo
largo de las observaciones.
Consecuencias
Una perdida de eficiencia de los estimadores mínimos cuadrados.
La varianza del estimador por MCO no es mínima.
Solución
Reparamétrizar el modelo para encontrar la ley de formación de la
varianza para cada periodo.
* Como veremos a continuación Eviews tiene incorporado varias
pruebas para detectar la heteroscedasticidad de los errores
Supuesto Formal
Yt xt t
2
1 0 0
2
0 2 0
Var ( t ) E ( t , t )
/
2
0 0 T
Del gráfico se observa
que la relación entre las
variables es lineal, lo
que nos lleva a pensar
que errores al cuadrado
de las perturbaciones
crece linealmente
elasticidad demanda de
dinero.
Si observamos bien esta
relación es exponencial
por lo que nos animamos
ha dar el factor de la
varianza.
Var ( i ) 2Yˆi 2
Prueba de Goldfeld - Quant
H0 : No existe Heteroscedasticidad (igualdad de varianzas)
i2 h( xij )
H1 : Existe Heteroscedasticidad donde h(.) es
función monotona.
En nuestro cejemplo tenemos 73 observaciones, después de
ordenar las observaciones del modelo (se ordena las
observaciones de todas la variables mediante la ventana de
Worfile » activamos Procs/Sort Current Page en el nuevo cuadro
de dialogo introducimos la variable Logmf y ordenamos
Ascendentemente), se eliminan las 24 (r < 73/3) centrales
formando dos grupo donde el primer grupo tiene de 1 hasta 24 y
el segundo grupo 49 hasta 73.
Generamos el escalar en el cuadro de comandos: Scalar se1=@se para el
primer grupo y la desviación de la perturbación para el segundo grupo
Scalar se2=@se .
Obteamos cual de las dos desviaciones es la mayor por que dividiremos la
mayor desviación entre la menor en el cuadro de comandos, en nuestro
caso es Se2 (0.152044) es mayor a Se1(0.084002). En el cuadro de
comando generamos el estadístico : Scalar f=(se2/se1)^2 , que si
revisamos el valor del objeto f nos da 3.276
Para rezar o no la hipótesis nula necesitamos del
estadístico F, por lo que crearemos este estadístico en
el cuadroFde comandos.
( s 2 / s1 ) 2 ;(T r ) / 2;(T r ) / 2
Scalar prob=(1-@cfdist(f, 24, 24))
El resultado nos da una probabilidad muy baja de
0.2562139% (menor del 5%). Por lo que se
rechaza la hipotesis nula de Homocedasticidad de
la varianza.
Una solución habitual
Var ( i ) 2 ( xij )
en este tipo de problemas
Var ( i ) 2 x 2ji
es considerar el esquema de la varianza como:
o
Prueba de White (Con y sin terminos
cruzados)
Este
H : contraste
2
2 es el más general por que no especifica
0 i
concretamente la heteroscedasticidad.
H1 : no se verifica H 0 Heteroscedasticidad
No existe
ˆ
2
White
t
sin
0 x
termino
1 1i x
2 cruzado
2i x 2
11 (no cross
22 x
1i
2
12 x1i x2i ui
terms)2i
i 1 N
Esta prueba es similar a MCG que
LM T * considera
R 2 22k los residuos del
cuadrado como variable dependiente.
White con termino cruzado (cross terms)
La varianza toma forma general en función de regresores al
cuadrado y de su producto cruzado
ˆt2 0 1 x1i k xkt 11 x 2 kk x 2 12 x1t x2t k 1,k xk 1,t xkt ui
1k kt
H o : 1 k 11 kk 12 k 1,k 0
LM T * R 2 22k
Aplicando la Heteroscedasticidad en Eviews
View que se encuentra en el objeto de ecuación Cagan(es el nombre
de nuestra ecuación) pulsamos View/Residual Test/Specification
White (no cross terms)
rechaz
a
Formas de Corregir la
Heteroscedasticidad
Un manera es realizar Mínimos Cuadrados
Ponderados , donde la ponderación se
puede elegir mediante White o el análisis
de residuos.
Corrección
* Corrección White (Heteroskedasticy
Consiste Covariances)
* Correción de Newey – West (HAC
Consistent Covariances)
Mínimos Cuadrados
Ponderados(MCP)
Modelo con problemas de Heteroscedasticidad
Yt xt t V : Ponderador
12 0 0 1 0 0
0 2 0 0 2 0 VV
2
t t
E ( , /
)
2
0 0 T 0 0 T
Modelo transformado sin problemas
1 / 1 0 0
de Heteroscedasticidad
1 0 1/ 2
V
0
Yt x t vt
0 0
1 / T
MCO X X X Y
1
Pasos para estimar Minimos
Cuadrados Ponderado (MCP)
1. Estimar β por MCO ignorando H.
2. Establecer la forma del error (ε) al
cuadrado (ε′=f(z)) utilizando el
procedimiento de White.
3. Transformar las variables (Y, X)
dividiendo las por la estimación del
paso anterior (ponderación).
4. Se estima el modelo por
Mínimos Cuadrados Ordinarios con
variables transformadas.
En la ventana de resultado hacemos click en estimate click en
options y podemos dejar que el programa por defecto (default)
incorpore el factor que ponderará las variables X e Y.
Recordemos que nuestro modelo no tiene problemas de
Heteroscedasticida pero para fines ilustrativos incorporaremos
como factor de ponderación a la inversa de la desviación de los
errores (Inversa [Link].). Y en Weight (ponderación) establecemos
logm
Resultados por Mínimos
Cuadrados Ponderados
Corrección de
Heteroscedasticidad
Corrección de White: Corrige la matriz de Var –
Cov por heteroscedasticidad.
X X t2 XX ( X X ) 1
1
T
ˆW T
T k t 1
Corrección de Newy – West (HAC Consistente
Covariances): Corrige la matriz de Var – Cov de
los parámetros estimados por
heteroscedasticidad
T y autocorrelación
ˆ NW X X ˆ ( X X ) 1
1
T k
T 2 q
ˆ
T
t XX 1
T k t 1
v
X t tX t v X t v t v tX
q 1
v 1
q 4(T / 100) 2 / 9
q: Representa un número entero
Estimación en Eviews
En la ventana de resultados hacemos click en
estimate y luego en options
También podemos activar el tipo(type) de
ponderación, como por ejemplo la varianza y la
inversa del logPBI (ponderación se obtiene de la
prueba de White) como se muestra en la siguiente
Hay que mencionar que los resultados
que no cambian con cualquiera de las
dos pruebas solo cambia los errores
estándar que se corregirán. Es decir, se
castiga la prueba de hipótesis.
Resultados de Corrección de
White
Resultados de Corrección de
Newey - West
REFERENCIAS
Startz R. “[Link] illusttrated for version 7”, IHS,
2009
Gujarati, Damodar N. “Econometría”. McGrawHill.
Cuarta Edición, 2007”.
Jhonston, J. Econometric Methods, Edit. Mc Graw Hill,
3a. Edicion.
Greene, W. (1999) Analisis Económetrico. Prentice
Hall, Tercera Edicion.