0% encontró este documento útil (0 votos)
52 vistas23 páginas

AUTOCORRELACION

Cargado por

0402021063
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
52 vistas23 páginas

AUTOCORRELACION

Cargado por

0402021063
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

UNIVERSIDAD NACIONAL DE PIURA

FACULTAD DE ECONOMIA

DPTO. DE ECONOMETRIA Y METODOS CUANTITATIVOS

ECONOMETRIA I

M. Sc. Eco. LUIS A. ROSALES GARCÍA

CASTILLA, AGOSTO DEL 2001


CAPITULO I

PERTURBACIONES AUTOCORRELACIONADAS

Existe autocorrelación cuando el término de error de un modelo


econométrico está correlacionado consigo mismo a través del tiempo, es decir:
E( u i u s ) ≠ 0 .

I.1. CAUSAS

1º EXISTENCIA DE CICLOS Y TENDENCIAS

La autocorrelación positiva está asociada a la existencia de


rachas de valores altos y bajos de Yt .

Si (debido a la inercia de la mayoría de las variables


macroeconómicas) la variable endógena del modelo econométrico
presenta ciclos y éstos no son bien explicados por las variables
exógenas del modelo, el término de error tendrá autocorrelación.

La mayoría de
las variables
económicas tienen
una tendencia,
generalmente
creciente. Si el
conjunto de variables
explicativas del
modelo no explican
adecuadamente dicho
comportamiento,
entonces el término
de error incorporará
dicha tendencia, y ello
conduce a la
existencia de
autocorrelación
positiva: Una racha de residuos negativos seguida por otra racha de
residuos positivos.

2º VARIABLES OMITIDAS

Si el verdadero modelo que explica el comportamiento de la


2

variable endógena es :
Yt = β 1 + β 2 X2 t + β 3 X 3t + u t

pero, se especifica el modelo siguiente :

Yt = β 1 + β 2 X2 t + v t
donde :
v t = u t + β 3 X 3t
Si la variable X 3 t presenta autocorrelación, entonces el
término de error v t también estará autocorrelacionada, incluso si ut
estaba libre de tal problema.

3º RELACIONES NO LINEALES

Supongamos que la verdadera relación entre los tipos de


interés y el stock de capital de Deuda Pública ( D t ) es :

r = β + β D + β D2 + u β > 0, β < 0 t = 1,2,..., T


t 1 2 t 3 t t 2 3

donde,
∂rt
= β 2 + 2β 3 D t
∂D t
nos indica que los tipos de interés
aumentan al crecer el stock de
Deuda, aunque menos que
proporcionalmente. Tanto menor
cuanto mayor es D t .

Si se especifica el modelo lineal :


r =δ +δ D +v t = 1,2,..., T
t 1 2 t t
entonces, se tendrá una racha de residuos negativos, seguida de
otra racha de residuos positivos, para terminar con otra racha
negativa. Ello generará autocorrelación del término de error.

4º RELACIONES DINÁMICAS

La mayoría de las relaciones entre variables económicas se


extienden a más de un período, especialmente si el período de
observación de los datos es mensual o trimestral. Por ejemplo : se
tienen relaciones entre inflación y crecimiento de la oferta
monetaria, del tipo :
3

π t = β 1 + β 2 m t + β 3π t − 1 + u t

La omisión del retardo de la variable endógena haría que el


término de error del modelo incorporara dicha variable, mostrando
ciertas propiedades sistemáticas, que no serían sino reflejo de la
influencia de π t−1 sobre π t .

5º ERROR DE MEDIDA

Es poco probable que los procedimientos de estimación


produzcan errores que sean aleatorios de un período a otro, de
forma, que si :
Y = Y* + V
Y = XΒ + U + V
donde,
Y es el vector de valores observados de Y.
*
Y son los verdaderos valores de Y.
V el vector de errores de medida.

el término de perturbación es U + V que puede exhibir


autocorrelación, bien debido a U, a V o a los dos.

6º POSIBLES CAMBIOS DE ESTRUCTURA

Que provocan errores sistemáticos de infra o supervaloración


por períodos y, por tanto, una autocorrelación positiva de los
residuos en cada subperíodo.

7º DATOS DE CORTE TRANSVERSAL

Pueden darse ciertos efectos de proximidad que provoquen


autocorrelación entre las perturbaciones.

I.2. CONSECUENCIAS

1º El estimador M.C.O. sigue siendo insesgado en un modelo con


autocorrelación en el que las variables explicativas sean
deterministas.

2º Ya no es el estimador lineal insesgado de mínima varianza. Existe


sesgo sistemático en el cálculo de sus varianzas muestrales.

3º Incorrecta aplicación de los contrastes de significación.


4

I.3. CONTRASTES

1º GRÁFICO

Ningún contraste de autocorrelación debe excluir un examen


riguroso de los residuos generados en la estimación del modelo.

(A) Dicho examen debe incluir el gráfico de la serie de residuos


de igual signo, que serían un claro indicio de autocorrelación
de primer orden.
E POSIBLE
E POSIBLE E POSIBLE
AUSENCIA DE
AUTOCORR ELACION AUTOCORR ELACION

T
T T

NEGATIVA AUTOCORRELA CION


POS ITIVA

EJERCICIO

Supongamos que se especifica el modelo siguiente :

Q1t = β1 + β 2 P1t + β 3 M1t + β 4 R1t + β 5C1t + u t

y se quiere verificar ausencia de autocorrelación de primer


orden.

Primero estimamos el modelo, así :

Quick ⇒ Estimate Equation ⇒ Q1 C P1 M1 R1 C1 ⇒ OK,


luego marcamos residuos con el comando siguiente :

Procs ⇒ Make Residual Series, el computador crea la nueva


serie con el nombre RESID1, entonces se gráfica con la
siguiente instrucción :

Quick ⇒ Graph ⇒ RESID1 @TREND(1985.1) ⇒ OK


⇒ Scatter Diagram ⇒ Single Scale ⇒ OK, el EVIEWS nos
muestra el siguiente gráfico :
5

50

El gráfico obtenido se
parece al tercer gráfico de los
0
anteriores, por lo tanto,

RESID1
concluimos que no existe
-50 indicios de autocorrelación de
primer orden.
-100
0 5 10 15 20 25

@TREND(1985.1)

(B) El examen del gráfico de u$ t contra u$ t −1 . Si la mayoría de los


puntos en dicho gráfico se hallan en el primer y tercer
cuadrante, entonces hay indicio de autocorrelación positiva
de primer orden. Si se hallan en el segundo y cuarto,
entonces hay indicio de autocorrelación negativa de primer
orden.

La limitación de este procedimiento es que sólo es


realmente útil si la autocorrelación puede aproximarse por un
modelo autorregresivo de orden uno.

EJERCICIO

En el archivo de trabajo tenemos los residuos


estimados (RESID1), a continuación se gráfica con el
comando siguiente:

Quick ⇒ Graph ⇒ RESID1 RESID1(-1) ⇒ OK ⇒ Scatter


Diagram ⇒ Single Scale ⇒ OK, el computador nos muestra
el siguiente gráfico :

Observamos en el gráfico
que la nube de puntos está
esparcida en los cuatro cuadrantes,
por lo tanto, concluimos que no
existe indicios de autocorrelación
de primer orden.
6

(C) EL TEST DE RACHAS

Se basa en las rachas de residuos de igual signo : si


hay pocas rachas, quiere decir que los residuos apenas
cambian de signo, entonces existe probable correlación
positiva. Si hay muchas rachas, entonces existe evidencia de
autocorrelación negativa.

Tenemos que calcular la media y varianzas de las


rachas, así :

E ( n) = 1 + 2 T1T2
T1 + T2
2 T1T2 ( 2 T1T2 − T1 − T2 )
Var ( n) = ( T1 + T2 ) 2 ( T1 + T2 − 1)
donde, T es el número total de observaciones, T1 es el
número de residuos positivos, T2 es el número de residuos
negativos y n es el número de rachas de igual signo.

Si el tamaño muestral es suficientemente grande,


entonces la variable n puede aproximarse a una distribución
normal, por lo que con un 95 % de confianza, sus valores
deberían estar en el intervalo :

[ E( n) − 196
. Var ( n) , E( n) + 196
. Var ( n) ]

En caso contrario, debería rechazarse la hipótesis nula


de ausencia de autocorrelación, siendo ésta positiva si n está
a la izquierda del intervalo y negativa si está a la derecha.

EJERCICIO

En el archivo de trabajo tenemos los residuos


estimados (RESID1), a continuación se observan con el
comando siguiente : SHOW RESID1 y el computador nos
muestra :
RESID1
============================================
Modified: 1985:1 1990:4 // [Link]
1985:1 -15.70622 -0.570948 5.209713 -3.056230
1986:1 -16.02646 18.45952 12.86312 31.08897
1987:1 -11.84675 -14.02071 15.80160 -4.631590
1988:1 -4.522475 2.066781 -2.310079 2.877531
1989:1 11.52880 1.854023 -3.304130 -84.07878
1990:1 5.855036 -5.775373 27.17033 31.07432
============================================
7

Observando la tabla se determina que T1 = 12 y T2 = 12. A


continuación obtenemos el gráfico de los residuos, así :

EQ01 ⇒ View ⇒ Actual, Fitted, Residual ⇒ Residual Graph,


el computador nos muestra el siguiente gráfico :
40

20

-20

-40

-60

-80

-100
1985 1986 1987 1988 1989 1990

Q1 Residuals

analizando el gráfico, deducimos que existen 14 rachas.

A continuación, calcularemos la media y la varianza de


las rachas, de la forma siguiente :
2(12)(12)
E(n) = 1 + 12+12 = 13
2(12)(12)[2(12)(12)−12−12]
Var(n) = = 5.739130435
(12+12)2 (12+12−1)

El intervalo sería :

[8.304529472,17.69547053]
Como el número de rachas es 14 y cae dentro del
intervalo; por lo tanto, ausencia de autocorrelación de
primer orden.

(D) TABLA DE CONTINGENCIA

Bajo la hipótesis nula de ausencia de autocorrelación


de primer orden, los sucesos independientes serían los
signos de los residuos del modelo en dos instantes
consecutivos de tiempo, t-1 y t. Puede diseñarse la tabla :
8

# de residuos # de residuos
positivos en t negativos en
t
# de residuos T11 T12 T1
positivos en t-1
# de residuos T11 T22 T2
negativos en t-1
T1 T2 T-1

donde, T21 es el número de residuos negativos que están


seguidos de residuos positivos en el siguiente período.

Si el término de error del modelo estuviese libre de


autocorrelación, entonces debería ser igualmente probable
encontrar residuos positivos y negativos un período después
de haber observado un residuo positivo (o negativo);
entonces, se debería tener las siguientes igualdades entre los
tamaños submuestrales :

T12 T12 T1T2 T1T2


T11 = T−1
= N11
T12 = T−1
= N12
T2 T1 T2 T1 T22 T22
T21 = T−1
= N 21
T22 = T−1
= N 22
Si el tamaño muestral es suficientemente grande,
entonces el estadístico es :
( T11 − N11 ) 2 ( T12 − N12 ) 2 ( T21 − N 21 ) 2 ( T22 − N 22 ) 2
N11
+ N12
+ N 21
+ N 22
≈ χ12

EJERCICIO

Primero, calculamos los Ti i , así :


(12 ) 2
T11 = T12 = T21 = T22 = 24 − 1 = 6.260869565
porque el número de residuos positivos es igual al número de
residuos negativos.

A continuación, obtenemos el estadístico de la


siguiente forma :
9

4 ( 6.260869565− 23) 2
23 = 48.73017177〉 χ 12 = 384
.

Si comparamos el estadístico con el valor de la tabla,


concluimos que existe autocorrelación de primer orden.

2º DURBIN - WATSON

Si se sospecha que el término de error del modelo


econométrico tiene autocorrelación de primer orden: u t = ρu t −1 + ε t ,
donde ε t no tiene autocorrelación, entonces el estadístico DW
permite contrastar la hipótesis nula de ausencia de autocorrelación
de primer orden. El estadístico se define:
T

∑ ( u$ t − u$ t −1 ) 2
DW = d = 2
T

∑ u$
2
2
t

La autocorrelación de primer orden con coeficiente ρ


positivo hace que valores positivos del término de error u t , tiendan
a venir seguidos de valores positivos, y valores negativos tiendan
asimismo a venir seguidos de valores negativos; entonces la
diferencia u$ t − u$ t −1 será menor que el valor de u$ t y tendríamos que
( u$ t − u$ t −1 ) 2 < u$ 2t , por lo tanto, el numerador de d será pequeño en
relación con el denominador.

Cuando ρ ≅ 1 entonces u$ t ≅ u$ t −1 , dando como resultado que


el numerador en d tenderá a ser muy próximo a cero.

Los valores admisibles del parámetro ρ están entre -1 y 1,


entonces el estadístico oscilará entre 0 y 4 con valores :

* próximos a 0 cuando exista autocorrelación positiva de


primer orden
* cercanos a 4 cuando exista autocorrelación negativa de
primer orden

Cuando el término de error es independiente a lo largo del


tiempo, ρ$ será casi nulo, y el valor del estadístico d estará próximo
a 2.
10

Dada la dependencia de cualquier valor calculado de d sobre


la matriz X asociada, no es posible calcular valores críticos exactos
de d para todos los casos posibles.

Durbin-Watson establecieron las cotas superior (d U ) e


inferior (d L ) para los valores críticos. Las cotas tabuladas sirven
para verificar la hipótesis de autocorrelación nula frente a la
alternativa de autocorrelación positiva de primer orden.

El procedimiento de verificación es el siguiente :

* d < dL se rechazará la hipótesis de


autocorrelación nula en las u en favor de
la hipótesis de autocorrelación positiva de
primer orden.
* d > dU no se rechazará la hipótesis nula.
* dL < d < dU el test no es concluyente.

Si el valor muestral de d es mayor que 2, se desearía verificar


la hipótesis nula frente a la alternativa de autocorrelación negativa
de primer orden. El procedimiento apropiado sería calcular 4 - d y
comparar este estadístico con los valores tabulados de d L y d U
como si fuera a contrastar para el caso de autocorrelación positiva.
Nos daría el siguiente diagrama:

4 4 - dL 4 - dU 2 dU dL 0

9 Autocorre- 9 Zona de 9 Ausencia de autocorre- 9 Zona de 9Autoco-9 9


lación ne- duda. lación de primer orden duda. rrelación
gativa de positiva
1º orden. de 1ºorden

Las cotas d U y d L obtenidas por D -W suponen que hay un


término constante incluido en la regresión, y no son estrictamente
válidos en otro caso. Dichas cotas están obtenidas sobre el
supuesto de que todas las variables incluidas como explicativas son
deterministas.

EJERCICIO

Verificaremos ausencia de autocorrelación de primer orden,


por lo tanto, utilizamos el estadístico Durbin-Watson que se tiene
en la estimación del modelo, luego buscamos en la tabla de Durbin -
Watson a un nivel de significancia del 5 %, la cota superior e inferior
para 24 observaciones y cuatro variables explicativas ( excluyendo
11

el intercepto ); a continuación aplicamos la regla correspondiente:

0 1.01 1.78 2
dL dU ƒ
1.832160
D-W

Como el DW supera la cota superior entonces no se rechaza


la hipótesis nula, es decir, hay ausencia de autocorrelación positiva
de primer orden.

3º DURBIN

En el caso en que las únicas variables estocásticas incluidas


como explicativas son los retardos de la variable endógena, Durbin
sugirió utilizar el siguiente estadístico :
T
h = ρ$
1 − TVar (β$ 2 )

donde, Var(β$ 2 ) es la varianza de la estimación M.C.O. del


coeficiente del primer retardo de Y t .

ρ$ estimación habitual del parámetro ρ .

Si no hay autocorrelación de primer orden, el estadístico h


tiene una distribución que se aproxima a N(0,1) cuando el tamaño
muestral tiende a infinito.

Como la hipótesis alternativa es, o bien que exista


autocorrelación positiva de primer orden, o bien que exista
autocorrelación negativa de primer orden, el contraste de la
hipótesis nula debe ser, lógicamente contraste de una sola cola.

Durbin probó que cuando el tamaño muestral tiende a infinito,


un modo equivalente de llevar a cabo el contraste anterior ( cuando
el radicando salga negativo ), a saber :

(1) Estimar una regresión de los residuos M.C.O. de la regresión


lineal sobre un retardo de los mismos, todos lo retardos de la
variable endógena incluida en el modelo, y las demás
variables explicativas.

(2) Rechazar la hipótesis nula si el coeficiente de u$ t −1 resulta


significativamente diferente de cero ( " t " ).
12

En el caso de que la verdadera estructura de autocorrelación


no fuese de primer orden, entonces el resultado del test podría ser
arbitrario.

EJERCICIO

El modelo especificado no tiene variables endógenas


rezagadas como variables explicativas, por tal razón no se aplica el
estadístico h de Durbin.

Supongamos que se hubiera especificado el siguiente


modelo:
Q1t = β1 + β 2 P1t + β 3 M1t + β 4 R1t + β 5C1t + β 6 Q1t −1 + v t
y se quiere verificar ausencia de autocorrelación de primer orden.

Primero estimamos el modelo, así :

Quick ⇒ Estimate Equation ⇒ Q1 C P1 M1 R1 C1 Q1(-1) ⇒


OK, luego marcamos residuos con el comando siguiente :

Procs ⇒ Make Residual Series, el computador crea la nueva


serie con el nombre RESID2 y observamos el valor de la varianza del
estimador de la variable rezagada ( Var (β$ 6 )) con la instrucción :

View ⇒ Covariance Matrix, el computador nos muestra el


valor de 0.005483.

A continuación se estima el coeficiente de autocorrelación (ñ)


mediante la estimación del modelo u t = ρu t −1 + ε t , aplicando el
comando :

Quick ⇒ Estimate Equation ⇒ RESID2 RESID2(-1) ⇒ OK,


y nos da como resultado 0.028158.

Por último aplicamos la fórmula :


23
h = 0.028158 = 0144456500342
. < 1645
.
1 − 23(0.005483)

concluimos que no existe autocorrelación positiva de primer orden.

4º WALLIS

Muchos estudios aplicados emplean datos trimestrales, y en


tales caso podría esperarse que el término de perturbación
presentara autocorrelación de cuarto orden.
13

La especificación apropiada es en este caso :


ut = φ4 ut−4 + ε t
y la hipótesis nula es φ 4 = 0 .

Propone una modificación del test de Durbin-Watson, de la


siguiente forma :
T

∑ ( u$ t − u$ t − 4 ) 2
d4 = 5
T

∑ u$5
2
t

donde, u$ son los residuos de M.C.O. tradicionales.

Obtiene cotas superiores e inferiores para d 4 bajo el supuesto


de que la matriz X sea no estocástica.

EJERCICIO

Los residuos de M.C.O. del modelo original se tienen con el


nombre RESID1, luego se calcula el estadístico de Wallis de la
siguiente forma :

Genr ⇒ D4 = @SUM((RESID1-RESID1(-4))^2)/@SUM(RESID1^2) ⇒
1986.1 1990.4 ⇒ OK, nos da como resultado 2.353052.

Buscamos en la tabla de Wallis a un nivel de significancia del


5 % la cota inferior y superior considerando cuatro variables
explicativas y 20 observaciones; resultando :

2 2.572 3.374 4
ƒ 4 - dU 4 - dL
2.353052
d4

como el estadístico de Wallis es menor a 4 menos la cota superior


entonces hay ausencia de autocorrelación de cuarto orden.

5º EN BASE AL MULTIPLICADOR DE LAGRANGE (LM)

Puede usarse para los casos de indeterminación para el


estadístico d de Durbin-Watson, o de imposibilidad de obtención
para el h de Durbin y para verificar autocorrelación de cualquier
orden.
14

El procedimiento consta de las siguientes etapas :

(1) Se estima el modelo original por M.C.O. y se recupera los


residuos.

(2) Regresionar los residuos de la ecuación, en las variables


explicativas de las misma, y en los residuales con p períodos
de rezago; y obtención del R2 de la estimación.

(3) Calcular el estadístico de prueba para la autocorrelación de


primer orden : LM = TR2, siendo R2 el coeficiente de
determinación de la regresión de la etapa 2 y T el tamaño
muestral de la misma.

El estadístico LM sigue aproximadamente una


distribución normal con p grados de libertad, y la regla de
decisión :

Si LM > χ 2 crítico Existe autocorrelación significativa


de orden p.
Si LM < χ 2 crítico No existe autocorrelación
significativa de orden p.

Harvey ha llegado a demostrar que en muestras pequeñas, el


contraste LM pierde confiabilidad, maximizando la probabilidad de
ocurrencia de errores tipo, y para tales casos propone la siguiente
modificación para el estadístico de prueba :
(T − k ) R 2
LM =*
≈ F( p ,T− k )
p(1 − R 2 )

La regla de decisión sigue siendo la misma.

EJERCICIO

Comprobaremos que no existe autocorrelación de primer


orden. Abrimos la estimación del modelo original y se ejecuta la
siguiente instrucción :
View ⇒ Residual Tests ⇒ Serial Correlation LM Test ⇒ 1 ⇒ OK
y el EVIEWS nos muestra el siguiente resultado :

Breusch-Godfrey Serial Correlation LM Test:


=======================================================
F-statistic 0.020702 Probability 0.887194
Obs*R-squared 0.027570 Probability 0.868123
=======================================================
15

Si fuera muestra grande tendríamos :


LM = TR2 = 0.027570 < 384
. = χ 2( 0.05,1)

entonces no existe autocorrelación significativa de segundo orden.

En nuestro caso, se trata de una muestra pequeña, utilizamos


el contraste de Harvey; entonces se aplica la fórmula :
(24 − 6)(0.001149)
LM* = = 0.020702 < 4.41 = F( 0.05,1,18)
1(1 − 0.001149)
concluimos que no hay autocorrelación de segundo orden.

Ahora, verificaremos que no existe autocorrelación de


segundo orden. Abrimos la estimación del modelo original y se
ejecuta la siguiente instrucción :
View ⇒ Residual Tests ⇒ Serial Correlation LM Test ⇒ 2 ⇒ OK
y el EVIEWS nos muestra el siguiente resultado :

Breusch-Godfrey Serial Correlation LM Test:


=======================================================
F-statistic 0.020550 Probability 0.979684
Obs*R-squared 0.057883 Probability 0.971473
=======================================================

Si fuera muestra grande tendríamos :


LM = TR2 = 0.057883 < 5.99 = χ 2( 0.05,2 )

entonces no existe autocorrelación significativa de segundo orden.

En nuestro caso, se trata de una muestra pequeña, utilizamos


el contraste de Harvey; entonces se aplica la fórmula :
(24 − 7)(0.002412)
LM* = = 0.02055157 < 359
. = F( 0.05,2 ,17 )
2(1 − 0.002412)
concluimos que no hay autocorrelación de segundo orden.

6º BOX - PIERCE

Sea ρ s el coeficiente de autocorrelación de u$ t y u$ t −1 , siendo


s = 1, 2, 3, ..., m. Denotemos como Q al estadístico de prueba de
autocorrelación de Box - Pierce, tal que :
T
Q=T ∑ ρ$
1
2
s ≈ χ 2m
16

se han detectado algunas irregularidades en las propiedades del


mismo cuando se trabaja con muestra pequeña. Para esos casos,
Ljung y Box (1978) demostraron que la consideración de los grados
de libertad producen un contraste más adecuado, quedando como
resultado el siguiente estadístico :
T
Q* = T(T + 2) ∑ (T − s)
1
−1
ρ$ 2s

En ambos casos, la hipótesis de autocorrelación significativa


de orden m es aceptada si el valor calculado del estadístico supera
al valor crítico de la tabla con m grados de libertad.

EJERCICIO

Verificaremos que no existe autocorrelación de segundo


orden, como la muestra es pequeña aplicamos el contraste de Ljung
y Box.

Abrimos la estimación del modelo original y se ejecuta el


siguiente comando :

View ⇒ Residual Tests ⇒ Correlogram - Q - Statistics ⇒ 2 ⇒ OK


y el computador nos da el siguiente resultado :

Correlogram of Residuals
=====================================================
Sample: 1985:1 1990:4
Included observations: 24
=====================================================
Autocorrelation Partial Correlation AC PAC Q-Stat Prob
=====================================================
. | . | . | . | 1 0.032 0.032 0.0276 0.868
. | . | . | . | 2 -0.034 -0.035 0.0605 0.970
=====================================================

Tenemos :

1º Para verificar autocorrelacción de primer orden :


Q LB = 0.0276 < 384
. = χ (20.05,1)

concluyéndose que no existe autocorrelación de primer


orden.
17

2º Para verificar autocorrelación de segundo orden :


Q LB = 0.0605 < 5.99 = χ (20.05,2 )
concluyéndose que no existe autocorrelación de segundo
orden.

I.4. CORRECCIÓN

(A) CUANDO SE CONOCE LA ESTRUCTURA DE AUTOCORRELACIÓN

Asumamos un esquema autorregresivo de primer orden :


u t = ρu t − 1 + ε t
donde ρ 〈1 y ε t satisface los supuestos de mínimos cuadrados ordinarios
de valor esperado cero, varianza constante y no autocorrelación.

El modelo es :
Yt = β 1 + β 2 X t + u t (1)
se rezaga el modelo un periodo :
Yt −1 = β 1 + β 2 X t −1 + u t −1 ( 2)
multiplicamos la ecuación (2) por ρ :
ρ Yt −1 = ρ β 1 + ρ β 2 X t − 1 + ρ u t − 1 ( 2a )
restamos (2a) de (1), nos da :
Yt − ρ Yt − 1 = β 1 − ρ β 1 + β 2 X t − ρ β 2 X t − 1 + u t − ρ u t −1
factorizando se obtiene :
Yt − ρ Yt −1 = (1 − ρ )β 1 + β 2 ( X t − ρ X t − 1 ) + u t − ρ u t − 1
renombrando variables resulta :
Yt* = β 1* + β 2 X*t + ε t

Como ε t cumple con los supuestos de mínimos cuadrados


ordinarios, entonces se aplica mínimos cuadrados ordinarios y se
obtienen estimaciones MELI con todas las propiedades óptimas.

La regresión se conoce como ecuación de diferencia generalizada.


En este proceso de diferenciación se pierde una observación, puesto que
la primera de ellas no tiene observación que le anteceda. Para evitar esta
pérdida de una observación, las primeras observaciones de Y y de X se
transforma de la siguiente manera :
18

Y1* = Y1 1 − ρ 2 X1* = X1 1 − ρ 2

Esta transformación se conoce como transformación de Prais - Winsten.

(B) CUANDO NO SE CONOCE LA ESTRUCTURA DE AUTOCORRELACIÓN

1º Basado en el estadístico d de Durbin - Watson

Sabemos que :
d
d = 2(1 − ρ$ ) o ρ$ = 1 −
2
Lo cual sugiere una forma simple de obtener una estimación de ρ a partir
del estadístico Durbin - Watson estimado. Esta relación es solamente una
aproximación y puede no cumplirse para muestras pequeñas.

Para muestras pequeñas, se puede utilizar el estadístico d


modificado de Theil - Nagar :

n 2 (1 − d 2 ) + k 2
ρ$ =
n2 − k 2
A continuación se utiliza la ecuación de diferencia generalizada y se
aplica el método de mínimos cuadrados ordinarios para su estimación.

2º Correlación serial perfecta

2.1. Método de la primera diferencia :

Si ρ = 1 , entonces la ecuación en diferencias generalizadas queda :

Yt − Yt −1 = β 2 ( X t − X t −1 ) + u t − u t −1
que se puede escribir de la siguiente manera :
∆ Yt = β 2 ∆ X t + ε t
se conoce con el nombre de modelo en primera diferencia.

En este caso no hay intercepto en el modelo. Si el modelo original


fuera :
Yt = β 1 + β 2 X t + β 3t + u t
donde t es una variable de tendencia. La transformación de primera
diferencia es :
∆ Yt = β 2 ∆ X t + β 3 + ε t
19

donde β 3 es el coeficiente de la variable de tendencia.

Para verificar si la correlación serial positiva es perfecta, se tiene la


Prueba de Berenbluth - Webb, que se plantea de la siguiente manera :

1º La hipótesis nula es existencia de correlación serial de primer orden


positiva perfecta, es decir :

H 0 :ρ = 1
2º El estadístico se calcula de la siguiente forma :
T

∑ e$ 2t
g= t=2
T


t =1
u$ 2t

El numerador son los residuos de mínimos cuadrados ordinarios de


la regresión en primera diferencia y el denominador son los residuos de
mínimos cuadrados ordinarios del modelo original.

Si el modelo original contiene un término constante, se puede


utilizar las tablas de Durbin - Watson para probar el estadístico g.

2.2. Método del promedio móvil :

Si ρ = − 1 , entonces la ecuación en diferencias generalizadas es :


Yt + Yt − 1 = 2β 1 + β 2 ( X t + X t − 1 ) + u t + u t − 1

se puede escribir de la siguiente manera :


Yt + Yt −1 X + X t −1 u t + u t −1
= β1 + β2 t +
2 2 2

se conoce con el nombre de regresión de promedios móviles (2 períodos).

2.3. Procedimiento iterativo de Cochrane - Orcutt :

Se trata del procedimiento más usado y uno de los más importantes


para el tratamiento de la autocorrelación, dado que está basado en la
20

estimación de ρ como coeficiente de autocorrelación propiamente dicho,


en base a la expresión :
T

∑ u$ u$ t t −1
ρ$ = 2
T

∑ u$2
2
t

El procedimiento es como sigue :

(1) Estimación por M.C.O. del modelo original y obtención del estimador
de la autocorrelación de Cochrane - Orcutt, con el fin de aplicar la
ecuación de diferencias generalizadas.

(2) A partir de los residuos M.C.O. de la ecuación de diferencias


generalizadas de la primera etapa, obtener un nuevo estimador de
Cochrane - Orcutt; el mismo que se reemplaza en una nueva
ecuación de diferencias generalizadas.

(3) De los residuos M.C.O. de la ecuación de diferencias generalizadas


anterior, pueden lograrse una nueva estimación del coeficiente de
autocorrelación, para de esta manera reemplazarlo en una nueva
ecuación de diferencias generalizadas, y así sucesivamente, el
proceso puede repetirse hasta que las estimaciones sucesivas de
ñ no difieran entre sí ( en menos de 0.01 o 0.005), pudiendo lograrse
2, 5 10 o más iteraciones.

Debe tenerse en cuenta que muchas veces un elevado número de


iteraciones, cercano al número de observaciones, transforma la
información original, dificultando notablemente la interpretación lógica de
las relaciones entre las variables.

EJERCICIO

Supongamos que la estimación tuvo autocorrelación de primer


orden, se corrige con la siguiente instrucción en el Eviews :

Quick ± Estimate Equation ± Q1 C P1 M1 R1 C1 AR(1) ± OK

el computador emplea el método de COCHRANE - ORCUTT y le da el


resultado siguiente :
21

LS // Dependent Variable is Q1
Sample(adjusted): 1985:2 1990:4
Included observations: 23 after adjusting endpoints
Convergence achieved after 6 iterations
===========================================================
Variable Coefficien Std. Error t-Statistic Prob.
===========================================================
C 155.5032 253.2345 0.614068 0.5473
P1 -0.957648 1.895793 -0.505144 0.6199
M1 3.554249 0.276112 12.87249 0.0000
R1 0.701198 0.138989 5.044985 0.0001
C1 4.517882 3.049668 1.481434 0.1568
AR(1) 0.043108 0.262008 0.164529 0.8713
===========================================================
R-squared 0.963843 Mean dependent var 2085.000
Adjusted R-squared 0.953209 S.D. dependent var 119.0206
S.E. of regression 25.74560 Akaike info criter 6.715985
Sum squared resid 11268.21 Schwarz criterion 7.012201
Log likelihood -103.8694 F-statistic 90.63536
Durbin-Watson stat 1.923314 Prob(F-statistic) 0.000000
===========================================================
Inverted AR Roots .04
===========================================================

2.4. Procedimiento de dos etapas de Cochrane - Orcutt :

Las etapas son las siguientes :

I Etapa : Se estima ñ a partir del siguiente modelo :


u$ t = ρ$ u$ t −1 + ε t
II Etapa : Estimar la ecuación en diferencia generalizada con ρ$ , así :

Yt − ρ$ Yt −1 = (1 − ρ$ )β 1 + β 2 ( X t − ρ$ X t − 1 ) + u t − ρ$ u t − 1

Algunas veces, en la práctica este método de dos etapas produce


resultados bastante similares a los obtenidos en el procedimiento iterativo.

2.5. Método de Durbin :

La ecuación en diferencia generalizada es :


Yt = (1 − ρ)β1 + β 2 X t − ρβ 2 X t −1 + ρYt −1 + ε t (1)

Durbin sugiere los siguientes pasos :

1º Estimar el modelo (1) y trátese el valor estimado del coeficiente de


22

regresión de Yt−1 ( = ρ$ ) como una estimación de ρ . El estimador es


sesgado, pero consistente.

2º Transfórmese las variables como :


Yt* = Yt − ρ$ Yt −1 y X*t = X t − ρ$ X t −1
el modelo a estimar sería :
Yt* = β 1* + β 2 X *t + ε t
se aplica mínimos cuadrados ordinarios.

2.6. Máxima Verosimilitud :

Comprende procedimientos de estimación no lineales (en los


parámetros).

2.7. Procedimiento de Hildreth - Lu :

Como ñ oscila entre -1 y 1. Se utiliza intervalos de 0.1 y


transformando los datos mediante la ecuación en diferencia generalizada,
se obtienen nueve modelos, que se estiman por mínimos cuadrados
ordinarios.

T
Se elige el modelo estimado que tiene la menor sum residual ∑ u$
1
2
t o

el máximo coeficiente de determinación ( R 2 ) .

También podría gustarte