UNIVERSIDAD NACIONAL DE PIURA
FACULTAD DE ECONOMIA
DPTO. DE ECONOMETRIA Y METODOS CUANTITATIVOS
ECONOMETRIA I
M. Sc. Eco. LUIS A. ROSALES GARCÍA
CASTILLA, AGOSTO DEL 2001
CAPITULO I
PERTURBACIONES AUTOCORRELACIONADAS
Existe autocorrelación cuando el término de error de un modelo
econométrico está correlacionado consigo mismo a través del tiempo, es decir:
E( u i u s ) ≠ 0 .
I.1. CAUSAS
1º EXISTENCIA DE CICLOS Y TENDENCIAS
La autocorrelación positiva está asociada a la existencia de
rachas de valores altos y bajos de Yt .
Si (debido a la inercia de la mayoría de las variables
macroeconómicas) la variable endógena del modelo econométrico
presenta ciclos y éstos no son bien explicados por las variables
exógenas del modelo, el término de error tendrá autocorrelación.
La mayoría de
las variables
económicas tienen
una tendencia,
generalmente
creciente. Si el
conjunto de variables
explicativas del
modelo no explican
adecuadamente dicho
comportamiento,
entonces el término
de error incorporará
dicha tendencia, y ello
conduce a la
existencia de
autocorrelación
positiva: Una racha de residuos negativos seguida por otra racha de
residuos positivos.
2º VARIABLES OMITIDAS
Si el verdadero modelo que explica el comportamiento de la
2
variable endógena es :
Yt = β 1 + β 2 X2 t + β 3 X 3t + u t
pero, se especifica el modelo siguiente :
Yt = β 1 + β 2 X2 t + v t
donde :
v t = u t + β 3 X 3t
Si la variable X 3 t presenta autocorrelación, entonces el
término de error v t también estará autocorrelacionada, incluso si ut
estaba libre de tal problema.
3º RELACIONES NO LINEALES
Supongamos que la verdadera relación entre los tipos de
interés y el stock de capital de Deuda Pública ( D t ) es :
r = β + β D + β D2 + u β > 0, β < 0 t = 1,2,..., T
t 1 2 t 3 t t 2 3
donde,
∂rt
= β 2 + 2β 3 D t
∂D t
nos indica que los tipos de interés
aumentan al crecer el stock de
Deuda, aunque menos que
proporcionalmente. Tanto menor
cuanto mayor es D t .
Si se especifica el modelo lineal :
r =δ +δ D +v t = 1,2,..., T
t 1 2 t t
entonces, se tendrá una racha de residuos negativos, seguida de
otra racha de residuos positivos, para terminar con otra racha
negativa. Ello generará autocorrelación del término de error.
4º RELACIONES DINÁMICAS
La mayoría de las relaciones entre variables económicas se
extienden a más de un período, especialmente si el período de
observación de los datos es mensual o trimestral. Por ejemplo : se
tienen relaciones entre inflación y crecimiento de la oferta
monetaria, del tipo :
3
π t = β 1 + β 2 m t + β 3π t − 1 + u t
La omisión del retardo de la variable endógena haría que el
término de error del modelo incorporara dicha variable, mostrando
ciertas propiedades sistemáticas, que no serían sino reflejo de la
influencia de π t−1 sobre π t .
5º ERROR DE MEDIDA
Es poco probable que los procedimientos de estimación
produzcan errores que sean aleatorios de un período a otro, de
forma, que si :
Y = Y* + V
Y = XΒ + U + V
donde,
Y es el vector de valores observados de Y.
*
Y son los verdaderos valores de Y.
V el vector de errores de medida.
el término de perturbación es U + V que puede exhibir
autocorrelación, bien debido a U, a V o a los dos.
6º POSIBLES CAMBIOS DE ESTRUCTURA
Que provocan errores sistemáticos de infra o supervaloración
por períodos y, por tanto, una autocorrelación positiva de los
residuos en cada subperíodo.
7º DATOS DE CORTE TRANSVERSAL
Pueden darse ciertos efectos de proximidad que provoquen
autocorrelación entre las perturbaciones.
I.2. CONSECUENCIAS
1º El estimador M.C.O. sigue siendo insesgado en un modelo con
autocorrelación en el que las variables explicativas sean
deterministas.
2º Ya no es el estimador lineal insesgado de mínima varianza. Existe
sesgo sistemático en el cálculo de sus varianzas muestrales.
3º Incorrecta aplicación de los contrastes de significación.
4
I.3. CONTRASTES
1º GRÁFICO
Ningún contraste de autocorrelación debe excluir un examen
riguroso de los residuos generados en la estimación del modelo.
(A) Dicho examen debe incluir el gráfico de la serie de residuos
de igual signo, que serían un claro indicio de autocorrelación
de primer orden.
E POSIBLE
E POSIBLE E POSIBLE
AUSENCIA DE
AUTOCORR ELACION AUTOCORR ELACION
T
T T
NEGATIVA AUTOCORRELA CION
POS ITIVA
EJERCICIO
Supongamos que se especifica el modelo siguiente :
Q1t = β1 + β 2 P1t + β 3 M1t + β 4 R1t + β 5C1t + u t
y se quiere verificar ausencia de autocorrelación de primer
orden.
Primero estimamos el modelo, así :
Quick ⇒ Estimate Equation ⇒ Q1 C P1 M1 R1 C1 ⇒ OK,
luego marcamos residuos con el comando siguiente :
Procs ⇒ Make Residual Series, el computador crea la nueva
serie con el nombre RESID1, entonces se gráfica con la
siguiente instrucción :
Quick ⇒ Graph ⇒ RESID1 @TREND(1985.1) ⇒ OK
⇒ Scatter Diagram ⇒ Single Scale ⇒ OK, el EVIEWS nos
muestra el siguiente gráfico :
5
50
El gráfico obtenido se
parece al tercer gráfico de los
0
anteriores, por lo tanto,
RESID1
concluimos que no existe
-50 indicios de autocorrelación de
primer orden.
-100
0 5 10 15 20 25
@TREND(1985.1)
(B) El examen del gráfico de u$ t contra u$ t −1 . Si la mayoría de los
puntos en dicho gráfico se hallan en el primer y tercer
cuadrante, entonces hay indicio de autocorrelación positiva
de primer orden. Si se hallan en el segundo y cuarto,
entonces hay indicio de autocorrelación negativa de primer
orden.
La limitación de este procedimiento es que sólo es
realmente útil si la autocorrelación puede aproximarse por un
modelo autorregresivo de orden uno.
EJERCICIO
En el archivo de trabajo tenemos los residuos
estimados (RESID1), a continuación se gráfica con el
comando siguiente:
Quick ⇒ Graph ⇒ RESID1 RESID1(-1) ⇒ OK ⇒ Scatter
Diagram ⇒ Single Scale ⇒ OK, el computador nos muestra
el siguiente gráfico :
Observamos en el gráfico
que la nube de puntos está
esparcida en los cuatro cuadrantes,
por lo tanto, concluimos que no
existe indicios de autocorrelación
de primer orden.
6
(C) EL TEST DE RACHAS
Se basa en las rachas de residuos de igual signo : si
hay pocas rachas, quiere decir que los residuos apenas
cambian de signo, entonces existe probable correlación
positiva. Si hay muchas rachas, entonces existe evidencia de
autocorrelación negativa.
Tenemos que calcular la media y varianzas de las
rachas, así :
E ( n) = 1 + 2 T1T2
T1 + T2
2 T1T2 ( 2 T1T2 − T1 − T2 )
Var ( n) = ( T1 + T2 ) 2 ( T1 + T2 − 1)
donde, T es el número total de observaciones, T1 es el
número de residuos positivos, T2 es el número de residuos
negativos y n es el número de rachas de igual signo.
Si el tamaño muestral es suficientemente grande,
entonces la variable n puede aproximarse a una distribución
normal, por lo que con un 95 % de confianza, sus valores
deberían estar en el intervalo :
[ E( n) − 196
. Var ( n) , E( n) + 196
. Var ( n) ]
En caso contrario, debería rechazarse la hipótesis nula
de ausencia de autocorrelación, siendo ésta positiva si n está
a la izquierda del intervalo y negativa si está a la derecha.
EJERCICIO
En el archivo de trabajo tenemos los residuos
estimados (RESID1), a continuación se observan con el
comando siguiente : SHOW RESID1 y el computador nos
muestra :
RESID1
============================================
Modified: 1985:1 1990:4 // [Link]
1985:1 -15.70622 -0.570948 5.209713 -3.056230
1986:1 -16.02646 18.45952 12.86312 31.08897
1987:1 -11.84675 -14.02071 15.80160 -4.631590
1988:1 -4.522475 2.066781 -2.310079 2.877531
1989:1 11.52880 1.854023 -3.304130 -84.07878
1990:1 5.855036 -5.775373 27.17033 31.07432
============================================
7
Observando la tabla se determina que T1 = 12 y T2 = 12. A
continuación obtenemos el gráfico de los residuos, así :
EQ01 ⇒ View ⇒ Actual, Fitted, Residual ⇒ Residual Graph,
el computador nos muestra el siguiente gráfico :
40
20
-20
-40
-60
-80
-100
1985 1986 1987 1988 1989 1990
Q1 Residuals
analizando el gráfico, deducimos que existen 14 rachas.
A continuación, calcularemos la media y la varianza de
las rachas, de la forma siguiente :
2(12)(12)
E(n) = 1 + 12+12 = 13
2(12)(12)[2(12)(12)−12−12]
Var(n) = = 5.739130435
(12+12)2 (12+12−1)
El intervalo sería :
[8.304529472,17.69547053]
Como el número de rachas es 14 y cae dentro del
intervalo; por lo tanto, ausencia de autocorrelación de
primer orden.
(D) TABLA DE CONTINGENCIA
Bajo la hipótesis nula de ausencia de autocorrelación
de primer orden, los sucesos independientes serían los
signos de los residuos del modelo en dos instantes
consecutivos de tiempo, t-1 y t. Puede diseñarse la tabla :
8
# de residuos # de residuos
positivos en t negativos en
t
# de residuos T11 T12 T1
positivos en t-1
# de residuos T11 T22 T2
negativos en t-1
T1 T2 T-1
donde, T21 es el número de residuos negativos que están
seguidos de residuos positivos en el siguiente período.
Si el término de error del modelo estuviese libre de
autocorrelación, entonces debería ser igualmente probable
encontrar residuos positivos y negativos un período después
de haber observado un residuo positivo (o negativo);
entonces, se debería tener las siguientes igualdades entre los
tamaños submuestrales :
T12 T12 T1T2 T1T2
T11 = T−1
= N11
T12 = T−1
= N12
T2 T1 T2 T1 T22 T22
T21 = T−1
= N 21
T22 = T−1
= N 22
Si el tamaño muestral es suficientemente grande,
entonces el estadístico es :
( T11 − N11 ) 2 ( T12 − N12 ) 2 ( T21 − N 21 ) 2 ( T22 − N 22 ) 2
N11
+ N12
+ N 21
+ N 22
≈ χ12
EJERCICIO
Primero, calculamos los Ti i , así :
(12 ) 2
T11 = T12 = T21 = T22 = 24 − 1 = 6.260869565
porque el número de residuos positivos es igual al número de
residuos negativos.
A continuación, obtenemos el estadístico de la
siguiente forma :
9
4 ( 6.260869565− 23) 2
23 = 48.73017177〉 χ 12 = 384
.
Si comparamos el estadístico con el valor de la tabla,
concluimos que existe autocorrelación de primer orden.
2º DURBIN - WATSON
Si se sospecha que el término de error del modelo
econométrico tiene autocorrelación de primer orden: u t = ρu t −1 + ε t ,
donde ε t no tiene autocorrelación, entonces el estadístico DW
permite contrastar la hipótesis nula de ausencia de autocorrelación
de primer orden. El estadístico se define:
T
∑ ( u$ t − u$ t −1 ) 2
DW = d = 2
T
∑ u$
2
2
t
La autocorrelación de primer orden con coeficiente ρ
positivo hace que valores positivos del término de error u t , tiendan
a venir seguidos de valores positivos, y valores negativos tiendan
asimismo a venir seguidos de valores negativos; entonces la
diferencia u$ t − u$ t −1 será menor que el valor de u$ t y tendríamos que
( u$ t − u$ t −1 ) 2 < u$ 2t , por lo tanto, el numerador de d será pequeño en
relación con el denominador.
Cuando ρ ≅ 1 entonces u$ t ≅ u$ t −1 , dando como resultado que
el numerador en d tenderá a ser muy próximo a cero.
Los valores admisibles del parámetro ρ están entre -1 y 1,
entonces el estadístico oscilará entre 0 y 4 con valores :
* próximos a 0 cuando exista autocorrelación positiva de
primer orden
* cercanos a 4 cuando exista autocorrelación negativa de
primer orden
Cuando el término de error es independiente a lo largo del
tiempo, ρ$ será casi nulo, y el valor del estadístico d estará próximo
a 2.
10
Dada la dependencia de cualquier valor calculado de d sobre
la matriz X asociada, no es posible calcular valores críticos exactos
de d para todos los casos posibles.
Durbin-Watson establecieron las cotas superior (d U ) e
inferior (d L ) para los valores críticos. Las cotas tabuladas sirven
para verificar la hipótesis de autocorrelación nula frente a la
alternativa de autocorrelación positiva de primer orden.
El procedimiento de verificación es el siguiente :
* d < dL se rechazará la hipótesis de
autocorrelación nula en las u en favor de
la hipótesis de autocorrelación positiva de
primer orden.
* d > dU no se rechazará la hipótesis nula.
* dL < d < dU el test no es concluyente.
Si el valor muestral de d es mayor que 2, se desearía verificar
la hipótesis nula frente a la alternativa de autocorrelación negativa
de primer orden. El procedimiento apropiado sería calcular 4 - d y
comparar este estadístico con los valores tabulados de d L y d U
como si fuera a contrastar para el caso de autocorrelación positiva.
Nos daría el siguiente diagrama:
4 4 - dL 4 - dU 2 dU dL 0
9 Autocorre- 9 Zona de 9 Ausencia de autocorre- 9 Zona de 9Autoco-9 9
lación ne- duda. lación de primer orden duda. rrelación
gativa de positiva
1º orden. de 1ºorden
Las cotas d U y d L obtenidas por D -W suponen que hay un
término constante incluido en la regresión, y no son estrictamente
válidos en otro caso. Dichas cotas están obtenidas sobre el
supuesto de que todas las variables incluidas como explicativas son
deterministas.
EJERCICIO
Verificaremos ausencia de autocorrelación de primer orden,
por lo tanto, utilizamos el estadístico Durbin-Watson que se tiene
en la estimación del modelo, luego buscamos en la tabla de Durbin -
Watson a un nivel de significancia del 5 %, la cota superior e inferior
para 24 observaciones y cuatro variables explicativas ( excluyendo
11
el intercepto ); a continuación aplicamos la regla correspondiente:
0 1.01 1.78 2
dL dU ƒ
1.832160
D-W
Como el DW supera la cota superior entonces no se rechaza
la hipótesis nula, es decir, hay ausencia de autocorrelación positiva
de primer orden.
3º DURBIN
En el caso en que las únicas variables estocásticas incluidas
como explicativas son los retardos de la variable endógena, Durbin
sugirió utilizar el siguiente estadístico :
T
h = ρ$
1 − TVar (β$ 2 )
donde, Var(β$ 2 ) es la varianza de la estimación M.C.O. del
coeficiente del primer retardo de Y t .
ρ$ estimación habitual del parámetro ρ .
Si no hay autocorrelación de primer orden, el estadístico h
tiene una distribución que se aproxima a N(0,1) cuando el tamaño
muestral tiende a infinito.
Como la hipótesis alternativa es, o bien que exista
autocorrelación positiva de primer orden, o bien que exista
autocorrelación negativa de primer orden, el contraste de la
hipótesis nula debe ser, lógicamente contraste de una sola cola.
Durbin probó que cuando el tamaño muestral tiende a infinito,
un modo equivalente de llevar a cabo el contraste anterior ( cuando
el radicando salga negativo ), a saber :
(1) Estimar una regresión de los residuos M.C.O. de la regresión
lineal sobre un retardo de los mismos, todos lo retardos de la
variable endógena incluida en el modelo, y las demás
variables explicativas.
(2) Rechazar la hipótesis nula si el coeficiente de u$ t −1 resulta
significativamente diferente de cero ( " t " ).
12
En el caso de que la verdadera estructura de autocorrelación
no fuese de primer orden, entonces el resultado del test podría ser
arbitrario.
EJERCICIO
El modelo especificado no tiene variables endógenas
rezagadas como variables explicativas, por tal razón no se aplica el
estadístico h de Durbin.
Supongamos que se hubiera especificado el siguiente
modelo:
Q1t = β1 + β 2 P1t + β 3 M1t + β 4 R1t + β 5C1t + β 6 Q1t −1 + v t
y se quiere verificar ausencia de autocorrelación de primer orden.
Primero estimamos el modelo, así :
Quick ⇒ Estimate Equation ⇒ Q1 C P1 M1 R1 C1 Q1(-1) ⇒
OK, luego marcamos residuos con el comando siguiente :
Procs ⇒ Make Residual Series, el computador crea la nueva
serie con el nombre RESID2 y observamos el valor de la varianza del
estimador de la variable rezagada ( Var (β$ 6 )) con la instrucción :
View ⇒ Covariance Matrix, el computador nos muestra el
valor de 0.005483.
A continuación se estima el coeficiente de autocorrelación (ñ)
mediante la estimación del modelo u t = ρu t −1 + ε t , aplicando el
comando :
Quick ⇒ Estimate Equation ⇒ RESID2 RESID2(-1) ⇒ OK,
y nos da como resultado 0.028158.
Por último aplicamos la fórmula :
23
h = 0.028158 = 0144456500342
. < 1645
.
1 − 23(0.005483)
concluimos que no existe autocorrelación positiva de primer orden.
4º WALLIS
Muchos estudios aplicados emplean datos trimestrales, y en
tales caso podría esperarse que el término de perturbación
presentara autocorrelación de cuarto orden.
13
La especificación apropiada es en este caso :
ut = φ4 ut−4 + ε t
y la hipótesis nula es φ 4 = 0 .
Propone una modificación del test de Durbin-Watson, de la
siguiente forma :
T
∑ ( u$ t − u$ t − 4 ) 2
d4 = 5
T
∑ u$5
2
t
donde, u$ son los residuos de M.C.O. tradicionales.
Obtiene cotas superiores e inferiores para d 4 bajo el supuesto
de que la matriz X sea no estocástica.
EJERCICIO
Los residuos de M.C.O. del modelo original se tienen con el
nombre RESID1, luego se calcula el estadístico de Wallis de la
siguiente forma :
Genr ⇒ D4 = @SUM((RESID1-RESID1(-4))^2)/@SUM(RESID1^2) ⇒
1986.1 1990.4 ⇒ OK, nos da como resultado 2.353052.
Buscamos en la tabla de Wallis a un nivel de significancia del
5 % la cota inferior y superior considerando cuatro variables
explicativas y 20 observaciones; resultando :
2 2.572 3.374 4
ƒ 4 - dU 4 - dL
2.353052
d4
como el estadístico de Wallis es menor a 4 menos la cota superior
entonces hay ausencia de autocorrelación de cuarto orden.
5º EN BASE AL MULTIPLICADOR DE LAGRANGE (LM)
Puede usarse para los casos de indeterminación para el
estadístico d de Durbin-Watson, o de imposibilidad de obtención
para el h de Durbin y para verificar autocorrelación de cualquier
orden.
14
El procedimiento consta de las siguientes etapas :
(1) Se estima el modelo original por M.C.O. y se recupera los
residuos.
(2) Regresionar los residuos de la ecuación, en las variables
explicativas de las misma, y en los residuales con p períodos
de rezago; y obtención del R2 de la estimación.
(3) Calcular el estadístico de prueba para la autocorrelación de
primer orden : LM = TR2, siendo R2 el coeficiente de
determinación de la regresión de la etapa 2 y T el tamaño
muestral de la misma.
El estadístico LM sigue aproximadamente una
distribución normal con p grados de libertad, y la regla de
decisión :
Si LM > χ 2 crítico Existe autocorrelación significativa
de orden p.
Si LM < χ 2 crítico No existe autocorrelación
significativa de orden p.
Harvey ha llegado a demostrar que en muestras pequeñas, el
contraste LM pierde confiabilidad, maximizando la probabilidad de
ocurrencia de errores tipo, y para tales casos propone la siguiente
modificación para el estadístico de prueba :
(T − k ) R 2
LM =*
≈ F( p ,T− k )
p(1 − R 2 )
La regla de decisión sigue siendo la misma.
EJERCICIO
Comprobaremos que no existe autocorrelación de primer
orden. Abrimos la estimación del modelo original y se ejecuta la
siguiente instrucción :
View ⇒ Residual Tests ⇒ Serial Correlation LM Test ⇒ 1 ⇒ OK
y el EVIEWS nos muestra el siguiente resultado :
Breusch-Godfrey Serial Correlation LM Test:
=======================================================
F-statistic 0.020702 Probability 0.887194
Obs*R-squared 0.027570 Probability 0.868123
=======================================================
15
Si fuera muestra grande tendríamos :
LM = TR2 = 0.027570 < 384
. = χ 2( 0.05,1)
entonces no existe autocorrelación significativa de segundo orden.
En nuestro caso, se trata de una muestra pequeña, utilizamos
el contraste de Harvey; entonces se aplica la fórmula :
(24 − 6)(0.001149)
LM* = = 0.020702 < 4.41 = F( 0.05,1,18)
1(1 − 0.001149)
concluimos que no hay autocorrelación de segundo orden.
Ahora, verificaremos que no existe autocorrelación de
segundo orden. Abrimos la estimación del modelo original y se
ejecuta la siguiente instrucción :
View ⇒ Residual Tests ⇒ Serial Correlation LM Test ⇒ 2 ⇒ OK
y el EVIEWS nos muestra el siguiente resultado :
Breusch-Godfrey Serial Correlation LM Test:
=======================================================
F-statistic 0.020550 Probability 0.979684
Obs*R-squared 0.057883 Probability 0.971473
=======================================================
Si fuera muestra grande tendríamos :
LM = TR2 = 0.057883 < 5.99 = χ 2( 0.05,2 )
entonces no existe autocorrelación significativa de segundo orden.
En nuestro caso, se trata de una muestra pequeña, utilizamos
el contraste de Harvey; entonces se aplica la fórmula :
(24 − 7)(0.002412)
LM* = = 0.02055157 < 359
. = F( 0.05,2 ,17 )
2(1 − 0.002412)
concluimos que no hay autocorrelación de segundo orden.
6º BOX - PIERCE
Sea ρ s el coeficiente de autocorrelación de u$ t y u$ t −1 , siendo
s = 1, 2, 3, ..., m. Denotemos como Q al estadístico de prueba de
autocorrelación de Box - Pierce, tal que :
T
Q=T ∑ ρ$
1
2
s ≈ χ 2m
16
se han detectado algunas irregularidades en las propiedades del
mismo cuando se trabaja con muestra pequeña. Para esos casos,
Ljung y Box (1978) demostraron que la consideración de los grados
de libertad producen un contraste más adecuado, quedando como
resultado el siguiente estadístico :
T
Q* = T(T + 2) ∑ (T − s)
1
−1
ρ$ 2s
En ambos casos, la hipótesis de autocorrelación significativa
de orden m es aceptada si el valor calculado del estadístico supera
al valor crítico de la tabla con m grados de libertad.
EJERCICIO
Verificaremos que no existe autocorrelación de segundo
orden, como la muestra es pequeña aplicamos el contraste de Ljung
y Box.
Abrimos la estimación del modelo original y se ejecuta el
siguiente comando :
View ⇒ Residual Tests ⇒ Correlogram - Q - Statistics ⇒ 2 ⇒ OK
y el computador nos da el siguiente resultado :
Correlogram of Residuals
=====================================================
Sample: 1985:1 1990:4
Included observations: 24
=====================================================
Autocorrelation Partial Correlation AC PAC Q-Stat Prob
=====================================================
. | . | . | . | 1 0.032 0.032 0.0276 0.868
. | . | . | . | 2 -0.034 -0.035 0.0605 0.970
=====================================================
Tenemos :
1º Para verificar autocorrelacción de primer orden :
Q LB = 0.0276 < 384
. = χ (20.05,1)
concluyéndose que no existe autocorrelación de primer
orden.
17
2º Para verificar autocorrelación de segundo orden :
Q LB = 0.0605 < 5.99 = χ (20.05,2 )
concluyéndose que no existe autocorrelación de segundo
orden.
I.4. CORRECCIÓN
(A) CUANDO SE CONOCE LA ESTRUCTURA DE AUTOCORRELACIÓN
Asumamos un esquema autorregresivo de primer orden :
u t = ρu t − 1 + ε t
donde ρ 〈1 y ε t satisface los supuestos de mínimos cuadrados ordinarios
de valor esperado cero, varianza constante y no autocorrelación.
El modelo es :
Yt = β 1 + β 2 X t + u t (1)
se rezaga el modelo un periodo :
Yt −1 = β 1 + β 2 X t −1 + u t −1 ( 2)
multiplicamos la ecuación (2) por ρ :
ρ Yt −1 = ρ β 1 + ρ β 2 X t − 1 + ρ u t − 1 ( 2a )
restamos (2a) de (1), nos da :
Yt − ρ Yt − 1 = β 1 − ρ β 1 + β 2 X t − ρ β 2 X t − 1 + u t − ρ u t −1
factorizando se obtiene :
Yt − ρ Yt −1 = (1 − ρ )β 1 + β 2 ( X t − ρ X t − 1 ) + u t − ρ u t − 1
renombrando variables resulta :
Yt* = β 1* + β 2 X*t + ε t
Como ε t cumple con los supuestos de mínimos cuadrados
ordinarios, entonces se aplica mínimos cuadrados ordinarios y se
obtienen estimaciones MELI con todas las propiedades óptimas.
La regresión se conoce como ecuación de diferencia generalizada.
En este proceso de diferenciación se pierde una observación, puesto que
la primera de ellas no tiene observación que le anteceda. Para evitar esta
pérdida de una observación, las primeras observaciones de Y y de X se
transforma de la siguiente manera :
18
Y1* = Y1 1 − ρ 2 X1* = X1 1 − ρ 2
Esta transformación se conoce como transformación de Prais - Winsten.
(B) CUANDO NO SE CONOCE LA ESTRUCTURA DE AUTOCORRELACIÓN
1º Basado en el estadístico d de Durbin - Watson
Sabemos que :
d
d = 2(1 − ρ$ ) o ρ$ = 1 −
2
Lo cual sugiere una forma simple de obtener una estimación de ρ a partir
del estadístico Durbin - Watson estimado. Esta relación es solamente una
aproximación y puede no cumplirse para muestras pequeñas.
Para muestras pequeñas, se puede utilizar el estadístico d
modificado de Theil - Nagar :
n 2 (1 − d 2 ) + k 2
ρ$ =
n2 − k 2
A continuación se utiliza la ecuación de diferencia generalizada y se
aplica el método de mínimos cuadrados ordinarios para su estimación.
2º Correlación serial perfecta
2.1. Método de la primera diferencia :
Si ρ = 1 , entonces la ecuación en diferencias generalizadas queda :
Yt − Yt −1 = β 2 ( X t − X t −1 ) + u t − u t −1
que se puede escribir de la siguiente manera :
∆ Yt = β 2 ∆ X t + ε t
se conoce con el nombre de modelo en primera diferencia.
En este caso no hay intercepto en el modelo. Si el modelo original
fuera :
Yt = β 1 + β 2 X t + β 3t + u t
donde t es una variable de tendencia. La transformación de primera
diferencia es :
∆ Yt = β 2 ∆ X t + β 3 + ε t
19
donde β 3 es el coeficiente de la variable de tendencia.
Para verificar si la correlación serial positiva es perfecta, se tiene la
Prueba de Berenbluth - Webb, que se plantea de la siguiente manera :
1º La hipótesis nula es existencia de correlación serial de primer orden
positiva perfecta, es decir :
H 0 :ρ = 1
2º El estadístico se calcula de la siguiente forma :
T
∑ e$ 2t
g= t=2
T
∑
t =1
u$ 2t
El numerador son los residuos de mínimos cuadrados ordinarios de
la regresión en primera diferencia y el denominador son los residuos de
mínimos cuadrados ordinarios del modelo original.
Si el modelo original contiene un término constante, se puede
utilizar las tablas de Durbin - Watson para probar el estadístico g.
2.2. Método del promedio móvil :
Si ρ = − 1 , entonces la ecuación en diferencias generalizadas es :
Yt + Yt − 1 = 2β 1 + β 2 ( X t + X t − 1 ) + u t + u t − 1
se puede escribir de la siguiente manera :
Yt + Yt −1 X + X t −1 u t + u t −1
= β1 + β2 t +
2 2 2
se conoce con el nombre de regresión de promedios móviles (2 períodos).
2.3. Procedimiento iterativo de Cochrane - Orcutt :
Se trata del procedimiento más usado y uno de los más importantes
para el tratamiento de la autocorrelación, dado que está basado en la
20
estimación de ρ como coeficiente de autocorrelación propiamente dicho,
en base a la expresión :
T
∑ u$ u$ t t −1
ρ$ = 2
T
∑ u$2
2
t
El procedimiento es como sigue :
(1) Estimación por M.C.O. del modelo original y obtención del estimador
de la autocorrelación de Cochrane - Orcutt, con el fin de aplicar la
ecuación de diferencias generalizadas.
(2) A partir de los residuos M.C.O. de la ecuación de diferencias
generalizadas de la primera etapa, obtener un nuevo estimador de
Cochrane - Orcutt; el mismo que se reemplaza en una nueva
ecuación de diferencias generalizadas.
(3) De los residuos M.C.O. de la ecuación de diferencias generalizadas
anterior, pueden lograrse una nueva estimación del coeficiente de
autocorrelación, para de esta manera reemplazarlo en una nueva
ecuación de diferencias generalizadas, y así sucesivamente, el
proceso puede repetirse hasta que las estimaciones sucesivas de
ñ no difieran entre sí ( en menos de 0.01 o 0.005), pudiendo lograrse
2, 5 10 o más iteraciones.
Debe tenerse en cuenta que muchas veces un elevado número de
iteraciones, cercano al número de observaciones, transforma la
información original, dificultando notablemente la interpretación lógica de
las relaciones entre las variables.
EJERCICIO
Supongamos que la estimación tuvo autocorrelación de primer
orden, se corrige con la siguiente instrucción en el Eviews :
Quick ± Estimate Equation ± Q1 C P1 M1 R1 C1 AR(1) ± OK
el computador emplea el método de COCHRANE - ORCUTT y le da el
resultado siguiente :
21
LS // Dependent Variable is Q1
Sample(adjusted): 1985:2 1990:4
Included observations: 23 after adjusting endpoints
Convergence achieved after 6 iterations
===========================================================
Variable Coefficien Std. Error t-Statistic Prob.
===========================================================
C 155.5032 253.2345 0.614068 0.5473
P1 -0.957648 1.895793 -0.505144 0.6199
M1 3.554249 0.276112 12.87249 0.0000
R1 0.701198 0.138989 5.044985 0.0001
C1 4.517882 3.049668 1.481434 0.1568
AR(1) 0.043108 0.262008 0.164529 0.8713
===========================================================
R-squared 0.963843 Mean dependent var 2085.000
Adjusted R-squared 0.953209 S.D. dependent var 119.0206
S.E. of regression 25.74560 Akaike info criter 6.715985
Sum squared resid 11268.21 Schwarz criterion 7.012201
Log likelihood -103.8694 F-statistic 90.63536
Durbin-Watson stat 1.923314 Prob(F-statistic) 0.000000
===========================================================
Inverted AR Roots .04
===========================================================
2.4. Procedimiento de dos etapas de Cochrane - Orcutt :
Las etapas son las siguientes :
I Etapa : Se estima ñ a partir del siguiente modelo :
u$ t = ρ$ u$ t −1 + ε t
II Etapa : Estimar la ecuación en diferencia generalizada con ρ$ , así :
Yt − ρ$ Yt −1 = (1 − ρ$ )β 1 + β 2 ( X t − ρ$ X t − 1 ) + u t − ρ$ u t − 1
Algunas veces, en la práctica este método de dos etapas produce
resultados bastante similares a los obtenidos en el procedimiento iterativo.
2.5. Método de Durbin :
La ecuación en diferencia generalizada es :
Yt = (1 − ρ)β1 + β 2 X t − ρβ 2 X t −1 + ρYt −1 + ε t (1)
Durbin sugiere los siguientes pasos :
1º Estimar el modelo (1) y trátese el valor estimado del coeficiente de
22
regresión de Yt−1 ( = ρ$ ) como una estimación de ρ . El estimador es
sesgado, pero consistente.
2º Transfórmese las variables como :
Yt* = Yt − ρ$ Yt −1 y X*t = X t − ρ$ X t −1
el modelo a estimar sería :
Yt* = β 1* + β 2 X *t + ε t
se aplica mínimos cuadrados ordinarios.
2.6. Máxima Verosimilitud :
Comprende procedimientos de estimación no lineales (en los
parámetros).
2.7. Procedimiento de Hildreth - Lu :
Como ñ oscila entre -1 y 1. Se utiliza intervalos de 0.1 y
transformando los datos mediante la ecuación en diferencia generalizada,
se obtienen nueve modelos, que se estiman por mínimos cuadrados
ordinarios.
T
Se elige el modelo estimado que tiene la menor sum residual ∑ u$
1
2
t o
el máximo coeficiente de determinación ( R 2 ) .