100% encontró este documento útil (1 voto)
335 vistas62 páginas

Heterocedasticidad

Este documento resume los supuestos del modelo de regresión de mínimos cuadrados ordinarios (MCO) y las implicaciones de la heterocedasticidad. Brevemente: 1) Un supuesto clave del MCO es que la varianza de los residuos es constante, conocido como homocedasticidad. 2) Si la varianza de los residuos no es constante entre observaciones, esto se conoce como heterocedasticidad. 3) La presencia de heterocedasticidad implica que los estimadores de MCO dejan de ser eficientes aunque siguen

Cargado por

Ronar Bermudez
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PPTX, PDF, TXT o lee en línea desde Scribd
100% encontró este documento útil (1 voto)
335 vistas62 páginas

Heterocedasticidad

Este documento resume los supuestos del modelo de regresión de mínimos cuadrados ordinarios (MCO) y las implicaciones de la heterocedasticidad. Brevemente: 1) Un supuesto clave del MCO es que la varianza de los residuos es constante, conocido como homocedasticidad. 2) Si la varianza de los residuos no es constante entre observaciones, esto se conoce como heterocedasticidad. 3) La presencia de heterocedasticidad implica que los estimadores de MCO dejan de ser eficientes aunque siguen

Cargado por

Ronar Bermudez
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PPTX, PDF, TXT o lee en línea desde Scribd

¿Qué pasa si la varianza de los

residuos ya no es constante?:
Heterocedasticidad
Clase 8
Capitulo 11 – Gujarati y Porter
¿Cuáles son los supuestos del MCO?
¿Qué implica ese supuesto?
Taller de Econometría

¿Qué implica en términos de la función de


distribución?
Dado el supuesto anterior, el modelo se distribuye como una
función de densidad de probabilidad normal

 1 
f y x ( y) =
1
exp - (y - X b )(
´ y - X b )
( 2ps )
2 n /2
 2 
El condicionamiento de la variable dependiente al conjunto de
variables independientes (X) se distribuye como una normal.

Horacio Catalán Alosno


Taller de Econometría

Implicaciones de asumir normalidad


Los estimadores se distribuyen como una función de
distribución normal
(
ˆb  N b, s 2 X' X -1 )
Aspecto que permite realizar las siguientes
pruebas de hipótesis son validas

• T-Student
• F-estadística
• Chi-cuadrado

Horacio Catalán Alosno


Taller de Econometría

¿Cómo vemos la normalidad de una variable?


Se pude determinar por medio del tercer y cuarto momento central de
una distribución. Los momentos de una distribución son:

• Primer momento. La media de la distribución E(x) = m

• Segundo momento. La varianza de la distribución Var(x) = s2

• Tercer momento. Sesgo de la distribución o asimetría  3 = E û 3


t / s (
3
=0)
• Cuarto momento. Curtosis  4 = E (uˆt4 / s 4 ) = 3

Horacio Catalán Alosno


Taller de Econometría

Pruebas para ver la normalidad de una variable (i)


Prueba de Jarque-Bera (1987). Esta prueba consiste en evaluar
la curtosis y la asimetría de una variable.

La hipótesis nula es que la variable se distribuye normalmente,


para lo cual evalúa los valores de la simetría y curtosis de la
variable.

• Hipótesis nula H0: 3 = 0 y 4 -3 = 0

• Hipótesis alternativa H1: 3  0 y 4-3  0

Horacio Catalán Alosno


Taller de Econometría

Pruebas para ver la normalidad de una variable (ii)


El estadístico para la prueba se distribuye como una Chi-cuadrado
con 2 grados de libertad

 2 (K - 3) 
T: Tamaño de muestra
T -k
2
JB = S  
K: Es la kurtosis
S: Es la asimetría
6  4  k: Número de regresoras

A un nivel de significancia del 5% el estadístico JB tiene como valor


crítico o de tablas el 5.99.

Entonces, si el valor del JB estimado es menor al de tablas, se acepta


la nula de Normalidad. En caso contrario, se rechaza la nula y la
variable seria No normal. Horacio Catalán Alosno
Taller de Econometría

Consecuencias por la ausencia de normalidad en


los errores
• Las pruebas de hipótesis consideradas para realizar inferencia
estadística no son adecuadas, se debe de recurrir a
estimaciones no paramétricas.

• Los parámetros estimados del modelo MCO dejan de ser


eficientes dado que la varianza no sería constante.

Horacio Catalán Alosno


View/ Descriptive Statistics & Tests / Histogram and
Stats
Eviews es doble click en Resid ir a View/ Graph y en
especificación seleccionar Quantile - Quantile en
opciones seleccionar Theoretical
Para que exista normalidad en los residuos los puntos deberán estar a lo largo
de la recta, pero si los puntos están muy dispersos y la mayoría esta fuera de la
recta no existe normalidad.
Si no existe normalidad de los
residuos, uno de los causantes es la
presencia de Heterocedasticidad
Heterocedasticidad (i)
Si la varianza de los residuos no son constantes a lo largo de las
diferentes observaciones, el modelo de regresión presenta
heterocedastidad. Esto se puede expresar de la siguiente forma:

Var ( i | xi ) = s i , i = 1,....., n
2

Sin embargo, la covarianza entre las diferentes observaciones es 0


(cov(εiεj)=0), es decir no hay covarianza entre las diferentes
observaciones.
Taller de Econometría

Heterocedasticidad (ii)
De forma matricial, se puede expresar el problema de
heterocedasticidad de la siguiente manera:

s2
1 0  w1 0  
  2 
E[ ´] = s  =  0 s 2   = s  0 w2  
2 2

   s 2n  
   w 

  n
Consecuencias de la Heterocedasticidad en el
modelo MCO
• El estimador de Mínimos Cuadrados Ordinarios sigue siendo lineal,
insesgado y consistente pero deja de ser eficiente (varianza mínima).

• Las varianzas del estimador de Mínimos Cuadrados Ordinarios,


además de no ser mínimas, no pueden estimarse con la expresión
utilizada en presencia de homocedasticidad 𝑉 𝛽 = 𝑆 2 (𝑋 ′ 𝑋)−1 y
ahora la nueva expresión es 𝑉 𝛽 = 𝑆 2 (𝑋 ′ 𝑋)−1 𝑋´Ω𝑋(𝑋 ′ 𝑋)−1

En resumen, si bien la presencia de heterocedasticidad no introduce


sesgo en los parámetros estimados, si origina problemas en la validez de
las pruebas estadisticas.
Causas de la Heterocedasticidad
Las causas mas comunes de la heterocedasticidad son:
• Mala especificación del modelo.
Variables omitidas

• Forma funcional incorrecta en las variables usadas en el modelo.


Una de las variables tiene una relación no lineal con la dependiente

• Cambio estructural.
Un cambio de estructural puede provocar una estimación errónea de los
parámetros. Esto se produce en algunas secciones de la muestra y genera
diversos problemas en el modelo
Formas de detectar la Heterocedascidad
• Si no se cuenta con información previa sobre la naturaleza de la
heterocedasticidad, se debe estimar el modelo de regresión para
luego hacer un análisis de los residuos del mismo.

• Recordar que los residuos se definen como 𝑒 = 𝑦 − 𝑦ො

• Sobre los residuos estimados se realizan los diferentes tipos de


análisis para detectar la heterocedasticidad.
Análisis Gráfico de los errores al cuadrado y el valor
estimado de Y
• De acuerdo a los supuesto del Modelo
MCO, los residuos no deben estar
correlacionados o asociados con el
valor promedio estimado de la
variable dependiente.

• Los gráficos muestran que esto sólo


ocurre en la figura a, mientras en las
demás figuras se aprecia cierto nivel
de asociación.
Análisis Gráfico de los errores al cuadrado y los
valores de X
• De acuerdo a los supuesto del Modelo
MCO, los residuos no deben estar
correlacionados o asociados con las
variables explicativas o
independientes ( E[e|X]=0 ).

• Los gráficos muestran que esto sólo


ocurre en la figura a, mientras en las
demás figuras se aprecia cierto nivel
de asociación entre los residuos y la
variable explicativa X. Este análisis nos
estaría dando un indicio sobre la
posible fuente de heterocedasticidad
en el modelo.
Pruebas estadísticas para ver la presencia de
heterocedasticidad
• Existen tres pruebas comúnmente usadas para ver la presencia de
heterocedasticidad:

Prueba de Park

Prueba de Glesjer

Prueba de White
Pasos a seguir para la estimación de las pruebas de
heterocedasticidad (i)
Paso 1: Estimar el modelo de regresión a testear

𝑌𝑖 = 𝛽1 𝑋1 + 𝛽2 𝑋2𝑖 + 𝛽3 𝑋3𝑖 + ⋯ + 𝛽𝑘 𝑋𝑘𝑖 + 𝜀𝑖

Paso 2: Se obtienen los residuos de la regresión, algunos prefieres


usar los errores estandarizados para evitar los valores extremos.

𝑒 = 𝑦 − 𝑦ො

Paso 3: Luego se estiman diferentes regresiones auxiliares o


secundarias en función a los residuos estimados.
Pasos a seguir para la estimación de las pruebas de
heterocedasticidad (ii)
Paso4a: Prueba de Park (Dependiente es el logaritmo natural de los
residuos al cuadrado)

𝑙𝑛𝑒 2 𝑖 = 𝛼0 + 𝛼1 𝑙𝑛𝑍1 + ⋯ + 𝛼𝑝 𝑙𝑛𝑍𝑝𝑖 + 𝜇𝑖

Paso4b: Prueba de Glesjer (Dependiente: Valor absoluto de los residuos)

|𝑒𝑖 | = 𝛼0 + 𝛼1 𝑍1 + ⋯ + 𝛼𝑝 𝑍𝑝𝑖 + 𝜇𝑖

Paso4c: Prueba de White (Dependiente: residuos al cuadrado)

𝑒 2 𝑖 = 𝛼0 + 𝛼1 𝑍1 + 𝛼2 𝑍2𝑖 + 𝛼3 𝑍3𝑖 + 𝛼4 𝑍 21 + 𝛼5 𝑍 2 2 + 𝛼6 𝑍 2 3 + 𝜇𝑖
Pasos a seguir para la estimación de las pruebas de
heterocedasticidad (iii)
• En las pruebas de Park y Glesjer se requiere saber que variable es la
posible fuente de heterocedasticidad.

• La prueba de Glesjer requiere que los residuos de la ecuación


adicional sean normalmente distribuidos.

• La prueba de White no requiere que se conozca la fuente de


heterocedasticidad dado que se estima sobre todas las explicativas
del modelo. Así mismo, la prueba de White no requiere el supuesto
de normalidad de los residuos.
Prueba de Park
Se evalúan los coeficientes de cada
variable (t y p-value). La hipótesis nula
(Ho) es que la variable no esta
asociado a los errores por tanto seria
homocedastico con relación a la
variable analizada. En caso contrario,
existiría heterocedasticidad.
Prueba de Glesjer
Se evalúan los coeficientes de cada
variable (t y p-value). La hipótesis nula
(Ho) es que la variable no esta
asociado a los errores por tanto seria
homocedastico con relación a la
variable analizada. En caso contrario,
existiría heterocedasticidad.
Prueba de White
El test de White, una vez que se estima el modelo, se
guarda el valor del R2 (0.295) y se construye el índice
que será igual a: nR2 que sigue una distribución Chi-
cuadrado con tantos grados de libertad como variables
explicativas se incluyan en el modelo.

La hipótesis nula (Ho) en el test de White es de


Homocedasticidad, por tanto, si el valor del estadístico
calculado excede al valor de tablas, se rechaza la nula y
existe heterocedasticidad en los errores.

En caso no exceda, lo que se estaría asumiendo es que


los coeficientes de los diferentes regresores incluidos
son iguales a 0.
Formas de corregir la Heterocedasticidad
• La manera de corregir la heterocedasticidad, en caso no haya una
mala especificación del modelo, es mediante Mínimos cuadrados
Ponderados. Donde el factor de ponderación se elige mediante los
análisis de detección de heterocedasticidad realizados.

• Existen dos tipos de corrección: i) Corrección de White y ii) Corrección


de Newey-West.
Mínimos Cuadrados Ponderados (i)
• Lo que tenemos ahora es que:

𝑉 𝛽 = 𝑆 2 (𝑋 ′ 𝑋)−1 𝑋´Ω𝑋(𝑋 ′ 𝑋)−1

• Necesitamos conocer Ω para poder corregir el problema de


heterocedasticidad.

Y = Xb  u , E (uu´) = s 2 
Y* = X * b  u* , E (u*u*´) = s 2 I
donde : Y* = TY, X* = TX, u * = Tu es decir T es el ponderador
Cuando “Ω” es conocida (i)
A manera de ejemplo:

a ) s i2 = s 2 x2i
b) s i2 = s 2 x22i
c) s i2 = s 2 ( x2i  x3i )
k
d) s = s
i
2 2
x
j =2
ji
Cuando “Ω” es conocida (ii)
Si tomamos el primer caso, entonces la matriz de varianzas y
covarianzas seria:

 x22,1 0  0 
 
2 0 x22, 2  0 
E (uu ' ) = s  = s u
2
     
 2 
 0 0  x2, N 
Cuando “Ω” es conocida (iii)
Entonces, la matriz ponderadora para transformar el modelo sería:
1 / x2,1 0  0 
 
 0 1 / x2 , 2  0 
T=
     
 
 0 0  1 / x2, N 

1 / x22,1 0  0 
 2 
0 1 / x  0 
T ' T =  -1 =  2, 2
     
 2 
 0 0  1 / x2, N 
Los pasos a seguir son entonces
• Se estima el modelo por MCO ignorando el problema de
heterocedasticidad.
• Se estima la forma funcional de los errores en función de la variable
que causa la heterocedasticidad y se usan los residuos de esta
regresión para estimar la forma funcional supuesta.
• Se divide a cada una de las variables (Y y X) por la raíz cuadrada de los
errores estimados del paso anterior.
• Se estima nuevamente el modelo por MCO y de esta manera los
nuevos errores del modelo carecen de heterocedasticidad.
Cuando “Ω” no es conocida
Se puede usar la corrección de White o de Newey West que corrigen la
matriz de varianzas y covarianzas.

-1  
T
ˆ
Corrección de White: W =
T
 X 
X   t u 2
XX   ( X 
X ) -1

T -k  t =1 
ˆ NW =
Corrección de Newey-West: 
T
X X -1 ˆ ( X X ) -1
T -k
T 2 
 
 
q
T v
donde ˆ =  ut XX    1 -  Xut u t X t-v  X t -vut -vu t X  
' '

T - k  t =1 v =1  q -1  
y q = 4(T / 100)
2/9
¿Cómo se realiza esta corrección en el Eviews?
En la ventana de resultados de la regresión realizada en eviews, se hace
click en “estimate” y luego en la sección “options”

Luego se tiene
Autocorrelación de los
errores en el modelo MCO
Capitulo 12 - Gujarati y Porter
Clase 9
¿Cuáles son los supuestos del MCO?
Autocorrelación
La autocorrelación se define como la existencia de correlación entre ut con
sus valores pasados, en otras palabras:

𝐸 𝑢𝑖 𝑢𝑗 ≠ 0 𝑑𝑜𝑛𝑑𝑒 𝑖 ≠ 𝑗

Las causas de la autocorrelación:

• La omisión de variables relevantes en la ecuación estimada.


• La existencia de ciclos y/o tendencias.
• Presencia de relaciones no lineales.
Un ejercicio sencillo para poder ver
posible problemas de autocorrelación de
los errores es graficar los errores
estimados contra el tiempo. De esta
manera, si se identifica cierto patrón, se
puede decir que existen problemas de
autocorrelación.

Las figuras de la “a” a “d “ mostrarían que


existe un posible problema de
autocorrelación de los errores en el
tiempo. En la figura “e” se aprecia que los
errores se comportarían normalmente.
Autocorrelación Positiva

Autocorrelación Negativa
¿Qué implica la presencia de Autocorrelación en los
errores?
Ante la presencia de autocorrelación, el estimador de β sigue siendo
insesgado pero la varianza de β ya no es eficiente o mínima, aspecto
que influye en los errores estándar estimados para cada uno de los
parámetros estimados y por ende influye en las pruebas de hipótesis
que se realicen.
 s 0 2 s 1  s T -1   1 1  T -1 
   
s s 2
 s 1  
Var (ut ) = E (ut , u t/ ) =  1 0 T -2 
= s u2  1 T -2 
           
 2   
s s
 T -1 T - 2  s 0    
 T -1 T - 2  1 
Modelos autoregresivos (AR) y media-móvil (MA)
para los errores
AR(p): La correlación entre momentos diferentes del tiempo, no se
limita a dos periodos sucesivos, sino que se mantiene para cualquier
distancia entre esos dos momentos del tiempo (Memoria ilimitada).
AR( p); ut = 1ut -1  2 ut -2  ...   p ut - p   t
con  t  N (0, s 2 )
MA(q): La correlación en momentos diferentes del tiempo sólo se
mantiene en dos períodos inmediatamente sucesivos, desapareciendo
cuando la distancia en el tiempo es superior al orden del MA (Memoria
limitada).
MA(q); ut =  t  1 t -1   2 t -2  ...   q t -q
con  t  N (0, s 2 )
Contraste de autocorrelación
Los contrastes de autocorrelación más usados son:

• Durbin Watson

• Breusch-Godfrey

• Test de Ljung – Box


Contraste de Durbin Watson (i)
Pone a prueba que exista un comportamiento autoregresivo de los
errores de primer orden, es decir que sigue un proceso AR(1).
AR(1); ut = 1ut -1   t
con  t  N (0, s 2 )
La hipótesis nula de este contraste es que no existe autocorrelación o
que el parámetro φ1=0
T 2

 (ˆ t - ˆt -1 )
El estadístico de DW es igual a d= t =2
T
= 2(1 -  )
 ˆ
t =1
2
t
Si n=30
(observaciones), k=8
(número de
regresores) entonces
el dL y dU son 0.854 y
2.141
respectivamente.

Entonces se evalúa
donde cae el d
estimado en el
modelo de acuerdo
a la zonas de
decisión.
Contraste de Durbin Watson (ii)
Si el DW ≈ 2 no existe autocorrelación, DW > 2 existe sospechas de una
autocorrelación negativa y si DW < 2 existe sospechas de una
autocorrelación positiva.

Las principales limitaciones de este contraste son:


• Sólo es valido para la autocorrelación de la perturbación
autorregresiva de orden 1 (AR(1)).
• Requiere de una muestra mínima de 15, para obtener resultados
fiables.
• Presenta zonas de indeterminación
Cuando se estima un modelo de
regresión en Eviews, en la parte inferior
se encuentran los diferentes estadísticos
del modelo estimado. Uno de los cuales
es el d de Durbin Watson que nos
permitirá ver si existe o no
autocorrelación de los errores de primer
orden.
Del ejercicio anterior:
N=73
Regresores=2
DW=0.577

Valores de Tablas
dL=1.422
dU=1.529
4-dL= 2.578 0 1.422 1.529 2 2.478 2.578 4

4-dU= 2.478
0.577 = Hay autocorrelación positiva de primer orden
Contraste de Breusch-Godfrey
A diferencia del contraste anterior, permite contrastar que los errores
sigue un comportamiento autoregresivo de orden p o de media móvil
q.
Yt = xtb  ut
ut = 1ut -1   2ut - 2  ...   r ut - r   t

H 0 : 1 =  2 = ... =  r = 0
H1 : 1  2  ...  r  0

MLBG = NR 2   r2
¿Cómo hacer la prueba de Breusch-Godfrey en
Eviews?
En la ventana de resultados hacer click en “view” luego en “residual
diagnostics” y posteriormente en “serial Correlation LM Test”,
finalmente se debe de colocar el número de rezagos que se quiere
evaluar.
En este ejemplo, se evalúo un
comportamiento autoregresivo de
segundo orden.

La prueba del Multiplicador de


Lagrange de BP nos indica que el
estadístico Chi es de 45.56 y que
la probabilidad asociada al
estadístico es de 0.00, aspecto
que nos hace rechazar la hipótesis
nula (probabilidad<0.05) y aceptar
la alternativa que es la existencia
de autocorrelación.
Contraste de Ljung – Box
Este test utiliza el coeficiente de correlación simple y sólo puede ser
aplicado cuando el conjunto de variables explicativas son todas
exógenas.
r
 i2
Estadístico de LB: Q = N ( N  2)   r2
i =1 N -i

u t -i ut
donde  i = t =1
T

 t
u 2

t =1
¿Cómo hacer la prueba de Ljung-Box en
Eviews?
Para realizar esta prueba y obtener el estadístico Q, se usa el
correlagrama de los residuos de la regresión estimada. Para lo cual en
la ventana de resultados de la regresión se hace click en “view” luego
en “residual diagnostics” luego en “correlogram – q statistics”,
finalmente se indica el número de rezagos (dependerá del número de
observaciones, se recomienda la tercera parte de las observaciones).
¿Cómo leer el correlograma de los residuos?
La Autocorrelación Parcial nos
permite ver si los residuos siguen o
no un comportamiento
autoregresivo.

En el correlograma, se aprecia que el


primer rezago se escapa de las
bandas o intervalo de confianza,
aspecto que nos indica que los
errores siguen un Modelo AR(1)
En el correlograma, se aprecia que los
residuos son normales y no siguen
ningún tipo de comportamiento
autoregresivo, incluso se puede
apreciar que los estadísticos Q en
todos los casos la probabilidad es
mayor a 5%, lo que indica que se
acepta la hipótesis nula de no
correlación de los errores.
En el correlograma, se aprecia que los
residuos siguen un proceso de media
móvil donde cada 12 meses la
correlación serial se escapa de las
bandas.
Formas de corregir los problemas de
autocorrelación
Las formas de corregir la autocorrelación son:

• Análisis de primeras diferencias

• Método iterativo de Cochrane-Orcutt


Análisis de primeras diferencias
Se aplica este método cuando el coeficiente de autocorrelación de los errores es
alto, es decir, se encuentra por encima de 0.80. Así, el modelo de primeras
diferencias consiste en:

𝑌𝑡 − 𝑌𝑡−1 = 𝛽2 𝑋𝑡 − 𝑋𝑡−1 + 𝑢𝑡 − 𝑢𝑡−1

en otras palabras

∆𝑌𝑡 = 𝛽2 ∆𝑋𝑡 + 𝜀𝑡

donde Δ es el operador de diferencias. Un aspecto que se tiene que tomar en


consideración es que al hacer este tipo de estimación, no se considera la constante,
motivo por el cual, la regresión se hace sin constante.
Método iterativo de Cochrane Orcutt (i)
El objetivo de este método es obtener una estimación consistente del coeficiente de
correlación entre los errores. Una de la principales ventajas de este método es que permite
hacer el análisis para esquemas autoregresivos de orden superior.

Pasos a seguir:
• Estima el modelo original por MCO y se guardan los residuos
• Se corre una regresión de los residuos (µt) con su rezago de un periodo (µt-1) para
obtener el coeficiente de correlación de los errores (ρ)
• Usar el parámetro ρ estimado para transformar las variables y estimar el nuevo
modelo por MCO.

Estas iteraciones de deben de repetir hasta un nivel de convergencia considerado de


antemano.
Método iterativo de Cochrane Orcutt (ii)
La idea es tomar cuasidiferencias con el ρ estimado (se asume un
modelo AR(1)):

𝑦𝑡∗ = 𝑦𝑡 − 𝜌𝑦𝑡−1
𝑥𝑡∗ = 𝑥𝑡 − 𝜌𝑥𝑡−1

Para luego estimar el nuevo modelo con y*t y x*t mediante MCO. El
modelo se puede generalizar para esquemas autoregresivos de orden
superior.
Tarea 2
• Estimar la propensión Marginal a Consumir con la base de datos que
se le proporciona. Revisar si se tiene problemas de autocorrelación y
corregirlo usando el método de Cochrane Orcutt.

También podría gustarte