0% encontró este documento útil (0 votos)
310 vistas14 páginas

Regresión Lineal Múltiple - RLM

El documento describe el modelo de regresión lineal múltiple, incluyendo su estimación por mínimos cuadrados y las hipótesis estadísticas básicas del modelo. El modelo relaciona una variable dependiente con múltiples variables independientes de forma lineal, permitiendo estimar los coeficientes de la relación.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
310 vistas14 páginas

Regresión Lineal Múltiple - RLM

El documento describe el modelo de regresión lineal múltiple, incluyendo su estimación por mínimos cuadrados y las hipótesis estadísticas básicas del modelo. El modelo relaciona una variable dependiente con múltiples variables independientes de forma lineal, permitiendo estimar los coeficientes de la relación.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd

REGRESIÓN LINEAL MÚLTIPLE

El modelo de regresión lineal múltiple se aplica tanto a datos de corte transversal (es decir, a
observaciones referidas a un mismo momento del tiempo como puede ser los datos de
encuestas familias, empresas, etc.) como a datos de series temporales.

EL MODELO DE REGRESIÓN LINEAL MÚLTIPLE Y SU ESTIMACIÓN POR MÍNIMOS CUADRADOS

Se considera que el regresando es una función lineal de k −1 regresores y de una perturbación


aleatoria, existiendo además un regresor ficticio correspondiente al término independiente.
Designando por Y t al regresando, por β 0 , β 1 X 1 t , β2 X 2 t , ⋯ , β k X kt a los regresores y por ε t a la
perturbación aleatoria.

El modelo teórico de regresión lineal viene dado, para la observación genérica t-ésima, por la
siguiente expresión:

Modelo de regresión múltiple:

Y t =β 0 + β 1 X 1 t + β2 X 2 t + ⋯+ β k X kt +ut , t=1,2 , ⋯ ,T

Siendo T el tamaño de la muestra y dando valores a t desde t=1 hasta t=T , se obtiene el
sistema de ecuaciones siguiente:

Y 1=β 0 + β 1 X 11+ β 2 X 21 + ⋯+ β k X k 1 +u1

Y 2=β 0 + β 1 X 12+ β 2 X 22+ ⋯+ β k X k 2 +u2

………………………… …………………………
Y T =β 0 + β 1 X 1 T + β 2 X 2 T + ⋯+ β k X kT + uT

El sistema de ecuaciones anterior se puede expresar de forma más compacta utilizando


notación matricial. Así, se denomina:

y= [Y 1 Y 2 ⋯ Y T ] X =[ 1 X 11 X 21 ⋯ X k 1 1 X 12 X 22 ⋯ X k 2 ⋯ ⋯ ⋯ ⋯ ⋯ 1 X 1 T X 2T ⋯ X kT ] β =[ β 0 β 1 ⋯ βT ] u=[ u1 u2 ⋯ uT ]

El modelo de regresión lineal múltiple expresado en notación matricial es el siguiente:

[]
β0
β1 + u u ⋯ u
[ Y 1 Y 2 ⋯ Y T ]=[ 1 X 11 X 21 ⋯ X k 1 1 X 12 X 22 ⋯ X k 2 ⋯ ⋯ ⋯ ⋯ ⋯ 1 X 1 T X 2 T ⋯ X kT ] [ 1 2 T]

βT

Si se tiene en cuenta las denominaciones dadas a vectores y matrices, el modelo de regresión


lineal múltiple se puede expresar de forma compacta de la siguiente manera:

y= Xβ+u
Donde y es un vector T × 1, X es una matriz T × k , β es un vector T × 1, y u es un vector
T × 1.
El correspondiente modelo ajustado (modelo estimado) será el siguiente:
^y = X ^β
El vector de residuos es igual a la diferencia entre valores observados y ajustados, es decir:

u^ = y− ^y = y−X ^β
Denominando S a la suma de los cuadrados de los residuos (SSR), se tiene que:

[]
u^ 1
T
u^ 2 = u^ 2
S= u^ u^ =[ u^ 1 u^ 2 ⋯ u^ T ]
'
∑ t
⋯ t=1
u^ T

Teniendo en cuenta u^ = y−X ^β , se obtiene:

S= ( y−X ^β ) ' ( y− X β^ )
Derivando S con respecto al vector de coeficiente de mínimo cuadráticos, ^β , e igualando a 0 se
obtiene el siguiente sistema de ecuaciones:

X X ^β=X ' y
'

Al sistema anterior se le denomina genéricamente sistema de ecuaciones normales del


hiperplano. Cuando k =1, se obtiene el sistema de ecuaciones normales de la recta; cuando
k =2, se obtiene el sistema de ecuaciones normales del plano; finalmente, cuando k > 2, se
obtiene específicamente el sistema de ecuaciones normales del hiperplano, el cual no es
susceptible de ser representando físicamente.

En notación matricial expandida, el sistema de ecuaciones normales es el siguiente:

Para poder resolver el sistema: X ' X ^β=X ' y respecto a ^β unívocamente, se debe cumplir que
el rango de la matriz X ' X sea igual a k . Si se cumple esta condición, se pueden pre-multiplicar
ambos miembros de X ' X ^β=X ' y por [ X ' X ]
−1

−1 −1
[ X' X ] X ' X β^ =[ X ' X ] X ' y
Con lo cual se obtiene la expresión del vector de estimadores mínimos-cuadráticos:

^β=[ X ' X ]−1 X ' y

Las propiedades que se exponen a continuación son propiedades derivadas exclusivamente de


la aplicación del método de estimación por mínimos cuadrados al modelo de regresión:
Y t =β 0 + β 1 X 1 t + β2 X 2 t + ⋯+ β k X kt +ut , en el que incluye como primer regresor el término
independiente.

1. La suma de los residuos mínimo-cuadráticos es igual a cero:


T

∑ u^ t=0
t =1
Obsérvese que, al cumplirse lo anterior, se cumplirá también que:
T T

∑ Y t=∑ Y^ t
t =1 t =1

^
Y al dividirse por T , Y = Y

2. El hiperplano de regresión pasa necesariamente por el punto: Y , X 1 , X 2 , ⋯ , X k .

Este es un corolario de la propiedad anterior. Tanto ésta como la propiedad anterior


solamente se cumple si existe un término independiente en el modelo.

3. Los momentos de segundo orden entre cada regresor y los residuos son iguales a 0.

X ' u^ =0
Esta propiedad implica que los residuos están incorrelacionados con los regresores.

4. Los momentos de segundo orden entre ^y y los residuos son 0, es decir:

^y u^ =0
Esta propiedad implica que los residuos están incorrelacionados con los valores ajustados.

Modelo estimado (ajustado), para T muestras:

Y^ t = ^β 0 + ^β 1 X 1 t + ^β2 X 2 t + ⋯+ ^β k X kt

HIPÓTESIS ESTADÍSTICA BÁSICAS DEL MODELO

Hipótesis sobre la forma funcional

Los elementos del modelo tienen la siguiente relación entre sí:

Y t =β 0 + β 1 X 1 t + β2 X 2 t + ⋯+ β k X kt +ut , t=1,2 , ⋯ ,T

O en forma matricial, y= Xβ+u

La relación entre el regresando, los regresores y la perturbación aleatoria es lineal, el


regresando y los regresores pueden ser cualquier función de la variable endógena o de las
variables predeterminadas, respectivamente, siempre que entre regresando y regresores se
mantengan una relación lineal, es decir, el modelo sea lineal en los parámetros. El carácter
aditivo de la perturbación aleatoria garantiza su relación lineal con el resto de los elementos.

Hipótesis sobre el vector de perturbaciones aleatoriasu

El vector de perturbaciones aleatorias u es no observable con las siguientes propiedades:

a. La esperanza matemática del vector de perturbaciones aleatorias es cero. E ( u )=0, es


decir: E ( ut )=0 ,t =1,2 , ⋯ , T
2 2
b. Las perturbaciones aleatorias son homoscedásticas. E ( ut ) =σ , t=1,2 , ⋯ , T
Esta hipótesis indica que todas las perturbaciones aleatorias tienen la misma varianza. Es
decir, la varianza de las perturbaciones aleatorias del modelo es constante y, por tanto,
independiente del tiempo o de los valores de las variables predeterminadas.

c. Las perturbaciones aleatorias con distintos subíndices son independientes entre sí.
E ( ut u s )=0 ,t ≠ s .

Es decir, las perturbaciones correspondientes a diferentes momentos del tiempo o distintas


unidades muestrales que tengan una ordenación no están correlacionadas entre sí.

Dado que la perturbación aleatoria recoge un conjunto amplio de variable, que son
independientes entre sí y también del conjunto de regresores, por el teorema central del límite
se puede suponer que el vector de perturbaciones aleatorias tiene una distribución normal
2
multivariante. u N (0 , σ 2 I ) o alternativamente, por: ut NID (0 , σ ); donde NID indica que
son normales e independientes.

Hipótesis sobre el regresor X

a. La matriz de regresores, X , es una matriz fija.

*La matriz de regresores, X , se distribuye independientemente del vector de


perturbaciones aleatorias. E ( X ' u )=0

b. La matriz de regresores, X , tiene rango k .

Recordemos que la matriz de regresores contiene k columnas, correspondientes a los k


regresores del modelo, y T filas, correspondientes al número de observaciones.

Implicaciones:

*El número de observaciones, T , debe ser igual o mayor que el número de regresores, k .

*Todas las columnas de la matriz de regresores deben ser linealmente independientes, lo


cual implica que no puede existir una relación lineal exacta entre ningún subconjunto de
regresores.

c. La matriz de regresores, X , no contiene errores de observación o de medida.

Hipótesis sobre el vector de parámetros β

El vector de parámetros β es constante. Si no se adopta esta hipótesis, el modelo de regresión


sería muy complicado de manejar.

MEDIDAS DE LA BONDAD DE AJUSTE

Una vez que se ha realizado el ajuste por mínimos cuadrados, conviene disponer de algún
indicador que permita medir el grado de ajuste entre el modelo y los datos. En el caso de que
se hayan estimado varios modelos alternativos podría utilizarse medidas de este tipo, a las que
se denomina medidas de bondad del ajuste, para seleccionar el modelo más adecuado.

Coeficiente de determinación
Se basa en la descomposición de la varianza de la varianza endógena, a la que se denomina
varianza total. Cuando se aplica el método de mínimos cuadrados y existe un término
independiente en el modelo, se puede establecer que:

Varianza total = varianza “explicada” + varianza residual

La igualdad anterior se puede expresar de esta forma:


T T T

∑ ( Y t−Y ) =∑ ( Y^ t−Y ) +∑ u^ t
2 2 2

t =1 t=1 t=1

A partir de la descomposición anterior, el coeficiente de determinación se define como la


proporción de la varianza total explicada por la regresión. Su expresión es:

∑ ( Y^ t−Y )
2

varianza“ explicada ”
R2= t=1 =
T
Varianza total
∑ ( Y t−Y )2
t =1

Alternativamente, y de forma equivalente, el coeficiente de determinación se puede definir


como 1 menos la proporción no explicada por la regresión, es decir, como:
T

∑ u^ 2t
R2=1− T
t=1

∑ ( Y t−Y )2
t =1

proporción no explicada por la regresión:


T

∑ u^ 2t varianza residual
t =1
=
T
Varianzatotal
∑ ( Y t −Y )2
t =1

Los valores extremos del coeficiente de determinación son: 0, cuando la varianza explicada es
nula, y 1, cuando la varianza residual es nula, es decir, cuando el ajuste es perfecto.

Para interpretar adecuadamente el coeficiente de determinación conviene tener en cuenta las


siguientes observaciones:

a. A medida que en un modelo se añaden nuevas variables explicativas, el coeficiente de


determinación aumenta su valor o, en el peor de los casos, queda con el mismo valor. Esto
ocurre, aunque la variable o variables añadidas no tengan ninguna relación con la variable
endógena.
b. Si el modelo no tiene término independiente, el coeficiente de determinación no tiene
una interpretación clara debido a que entonces no se cumple la descomposición dada en
T T T

∑ ( Y t−Y ) =∑ (Y^ t−Y ) +∑ u^ 2t .


2 2

t =1 t=1 t=1

Además, las dos formas de cálculo señaladas anteriormente conducirán en general a


resultados diferentes, que en algunos casos pueden caer fuera del intervalo [0,1].

c. Cuando se estima un modelo con datos de series temporales se obtienen, en general,


coeficiente de determinación elevados, aún en casos en que las variables explicativas
tengan una relación causal débil. Esto es debido a que las variables de la ecuación estimada
pueden estar sometidas a una evolución tendencial más o menos similar.

d. El coeficiente de determinación no se puede utilizar para comparar modelos en los que la


forma funcional con que aparece la variable endógena es distinta. Por ejemplo, el R2 no se
puede aplicar para comparar dos modelos en los que el regresando son Y y ln (Y )
respectivamente.

Para distinguirlo del corregido, al coeficiente de determinación que se acaba de exponer se le


da el calificativo de ordinario.

Coeficiente de determinación corregido

El coeficiente de determinación corregido permite comparar modelos con distinto número de


regresores. Viene dado por:

T −1
2
R =1− ( 1−R 2 )
T −k
El coeficiente de determinación corregido toma el valor de 1 cuando el ajuste es perfecto. En
cambio, no está acotado por la parte inferior, pudiendo tomar valores negativos cuando el
ajuste realizado es muy malo.

En la interpretación del coeficiente de determinación corregido hay que tener en cuenta las
siguientes observaciones:

a. Cuando en un modelo se añade una nueva variable explicativa el coeficiente de


determinación corregido puede aumentar, quedar igual o disminuir su valor. Para que
aumente es necesario que la variable añadida tenga cierto poder explicativo. Por el
contrario, si la variable añadida tiene un poder pequeño o nula, el coeficiente de
determinación corregido disminuirá de valor, penalizándose de esta forma su introducción.

b. El coeficiente de determinación corregido tampoco tiene una interpretación clara cuando


no existe término independiente.

c. cuando se estima un modelo con datos de series temporales, en general también se


obtendrán coeficiente de determinación corregidos elevados, aunque más bajo que los
coeficientes de determinación ordinarios.

d. El coeficiente de determinación corregido tampoco se puede aplicar para comparar


modelos en los que la forma funcional con que aparece la variable endógena es distinta.

Estadístico AIC
Basado en la teoría de la información, tiene la siguiente expresión:

[[
AIC= ln ( 2 π )
T ] ]
u^ ' u^
+1 +
2k
T

En el estadístico AIC, a diferencia de los coeficientes de determinación ordinario y corregido,


cuando mejor es el ajuste más pequeño es el valor que toma el estadístico.

Para la interpretación del estadístico AIC conviene tener en cuenta las siguientes
observaciones:

a. En el estadístico AIC está penalizada la introducción de nuevas variables explicativas.


Como se puede observar, en el segundo término del segundo miembro de la expresión
anterior figura el número de variables explicativas (k ) en el numerador. Por lo tanto, el
crecimiento de k hará aumentar el valor de AIC y, consecuentemente, empeorará la
bondad del ajuste, si ello no está compensado con un crecimiento suficiente del logaritmo
de verosimilitud.

b. El estadístico AIC puede aplicarse a modelos sin término independiente, no planteándose


ningún problema de interpretación.

c. El estadístico AIC no es una medida de carácter relativo como lo es el coeficiente de


determinación. Por ello, no puede decirse que un valor obtenido en un modelo sea en sí
mismo elevado o bajo. La utilidad del estadístico AIC se manifiesta cuando se comparan los
valores obtenidos en modelos alternativos.

d. El estadístico AIC se puede aplicar para comparar modelos en los que la forma funcional
de la variable endógena sea distinta. En concreto, para ver cómo se pueden realizar
comparaciones nos vamos a referir al caso más usual en que comparan dos modelos en los
que los regresandos son Y y ln (Y ) respectivamente.

MULTICOLINEALIDAD

Como vimos en hipótesis básicas del modelo, establece que no existe relación lineal exacta
entre los regresores, o, en otras palabras, establece que no existe multicolinealidad perfecta
en el modelo.

La relación entre regresores hace que sea difícil cuantificar con precisión el efecto que cada
regresor ejerce sobre el regresando, lo que determina que las varianzas de los estimadores
sean elevadas. Cuando se presenta una relación aproximadamente lineal entre los regresores,
se dicen que existe multicolinealidad no perfecta.

Es importante señalar que el problema de multicolinealidad, en mayor o menor grado, se


plantea porque no existe información suficiente para conseguir una estimación precisa de los
parámetros del modelo.

Para analizar este problema, se examinará la varianza de un estimador. En el modelo de


regresión lineal múltiple, el estimador de la varianza de un coeficiente cualquiera, por ejemplo,
de ^β j , se puede formular de la siguiente forma:
σ^
2
^
var ( ^β j ) =
T (1−R 2j ) S 2j

Donde:

R j , es el coeficiente de determinación obtenido al efectuar la regresión de X j sobre el resto


2

de los regresores del modelo.

S j , es la varianza muestral del regresor X j.


2

σ^ , es el estimador insesgado de la varianza de las perturbaciones.


2

Como se deduce de la expresión anterior, el estimador de la varianza viene afectado por los
siguientes factores:

a. Cuando mayor es σ^ 2, es decir, cuanto mayor es la dispersión de los datos en el modelo


ajustado, mayor será la varianza del estimador.

b. Al aumentar el tamaño de la muestra se reduce la varianza del estimador.

c. Cuanto menor sea la varianza muestral del regresor X j, es decir, cuanto menor sea la
variabilidad muestral del regresor, mayor será la varianza del correspondiente coeficiente.
Como S jes pequeña, es difícil realizar el ajuste de la recta porque, a simple vista, cabrían
distintas alternativas. En cambio, en b., en que S j es mayor, la realización del ajuste es más
fácil.
2
d. Cuando mayor sea R j , cuanto mayor sea la correlación del regresor con el resto de los
regresores mayor será la varianza de ^β j .

De los cuatro factores señalados, es el factor d., en que se refiere a la multicolinealidad.


Cuando se presenta multicolinealidad de una cierta gravedad, es decir, cuando uno o más de
2
los R j se aproximan a 1, se presentan los siguientes problemas al realizar inferencias con el
modelo:

*Las varianzas de los estimadores son muy grandes.

*Se puede aceptar con frecuencia la hipótesis nula de que un parámetro es cero, aun
cuando la correspondiente variable sea relevante.

*Los coeficientes estimados serán muy sensibles ante pequeños cambios en los datos.

Detección

Factor de agrandamiento de la varianza

En un modelo de regresión múltiple, si el regresor j-ésimo fuera ortogonal con respecto a los
demás regresores (es decir, si la correlación con el resto de los regresores fuera nula), la
fórmula para la varianza quedaría reducida a:

σ^
2
^ ^
var ( β j ) = 2
¿

T Sj
^ ^
El coeficiente entre var ( ^β j ) y var ( ^β ¿j ) es precisamente el factor de agrandamiento de la
varianza (FAV), cuya expresión será:

1
FAV ( ^β j ) = 2
1−R j

Así pues, el FAV ( ^β j ) es la razón entre la varianza observada y la que habría sido en caso de
que X j estuviera incorrelacionada con el resto de los regresores del modelo. Dicho de otra
forma: el FAV muestra en qué medida se “agranda” la varianza del estimador como
consecuencia de la no ortogonalidad de los regresores.

Se considera que existe un problema grave de multicolinealidad cuando el FAV de algún


2
coeficiente es mayor de 10, es decir cuando R j >0.90 .

CONTRASTE DE SIGNIFICACIÓN EN EL MODELO DE REGRESIÓN

Contraste de un subconjunto de parámetros

Una hipótesis nula implica imponer una o más restricción sobre los coeficientes del modelo. Al
modelo sin restringir le denominaremos modelo general o modelo de referencia, y se puede
expresar de la siguiente forma:

Y t =β 0 + β 1 X 1 t + ⋯+ β k−r X k−r ,t + β k−r+1 X k−r +1 ,t + ⋯+ β k X kt +ut

Supongamos que consideramos las siguientes hipótesis nula y alternativa:

H 0 : β k−r+1 =β k−r+2=⋯=β k =0

H 1 : No todos de β j son nulos

El modelo restringido (es decir, el modelo que incorpora las r restricciones de la hipótesis
nula), será el siguiente:

Y t =β 0 + β 1 X 1 t + ⋯+ β k−r X k−r ,t + ut

Para realizar el contraste de las hipótesis, se puede utilizar el siguiente estadístico:

F=
[ RG−R R ] /r
2 2

( 1−R2G )
( T −k )
Donde
2
RG : es el coeficiente de determinación del modelo general.
2
R R: es el coeficiente de determinación del modelo restringido.

El estadístico, F , se distribuye, bajo la hipótesis nula, como F F r ,T −k


Un caso particular del contraste de un subconjunto de parámetros es el contraste de la
significatividad global del as variables explicativas incluidas en la regresión. En otras palabras,
esto implica contrastar si todos los coeficientes (excluido el del término independiente) son en
conjunto estadísticamente significativos, lo que implica formular las siguientes hipótesis nula y
alternativa:

H 0 : β 1=β 2=⋯=β k =0

H 1 : No todos de β j son nulos

En este caso particular, dado que el modelo restringido con sólo el término independiente
2
tiene un R R nulo, el estadístico de contraste es el siguiente:
2
RG /r
F=
( 1−R2G )
( T −k )
Tabla de Análisis de la varianza

Fuente de Grados de
Suma de cuadrados Media cuadrática Estadístico F
variación libertad
T
R 2 ∑ ( Y^ t −Y )
T 2

R ∑ ( Y^ t −Y )
2 2
Regresión k −1 t =1 R
2
t=1
k−1 k −1
T ( 1−R2 )
T
( 1−R2 ) ∑ ( Y t −Y )2
Residual ( 1−R 2 ) ∑ ( Y t−Y )2 T −k t=1
T −k
t =1
T −k
T

Total
T

∑ ( Y t−Y ) 2
T −1 ∑ ( Y t −Y )2
t =1
t =1
T −1

En muchas ocasiones este contraste de significatividad global del modelo se presenta en el


contexto del análisis de varianza, tal como puede verse en la Tabla.

La tabla del análisis de varianza se basa en la descomposición de la varianza total en varianza


explicada y varianza residual. El numerador de la varianza explicada por la regresión se puede
expresar en función del R2 de la siguiente forma:
T T

∑ ( Y^ t −Y ) =R 2 ∑ ( Y^ t−Y )
2 2

t =1 t=1

Varianza residual se puede expresar del siguiente modo:


T T

∑ u^ 2t =( 1−R 2) ∑ ( Y t−Y )2
t =1 t =1
Las expresiones anteriores aparecen en la segunda columna de la tabla. Ambos estadísticos
tienen una distribución Chi-cuadrado: el primero se distribuye con k −1 grados de libertad, el
segundo estadístico tiene T −k grados de libertad, ya que solamente hay T −k residuos
independientes debido a las restricciones impuestas por las k ecuaciones normales de la
estimación mínimo-cuadrática. En la última columna se recoge el estadístico F , que se obtiene
como cociente entre la media cuadrática explicada y la media cuadrática residual. Este
estadístico se distribuye como una F de Snedecor con k −1 grados de libertad en el
numerador y T −k grados de libertad en el denominador.

Contraste de un parámetro individual

En el caso concreto de contrastes sobre un solo coeficiente o de una hipótesis nula con una
sola restricción se puede utilizar un estadístico con distribución t de Student. Así, cuando se
trata de contrastar una hipótesis nula, con una sola restricción, tal como:

H 0 : β j=d

Entonces se puede utilizar, alternativamente a un estadístico F , el siguiente estadístico t (que


es la raíz cuadrada del estadístico F correspondiente):
^β j−d
t=
σ^ ^β
j

Donde:

σ^ ^β : es la desviación típica estimada del coeficiente ^β j


j

Este estadístico, bajo la hipótesis nula, tiene la siguiente distribución:

t t T−k

Es decir, se distribuye con T −k grados de libertad.

Si se desea contrastar la significatividad de un coeficiente individual se hace d=0, con lo


que la hipótesis nula es la siguiente:
H 0 : β j=0

Con lo que el estadístico t tomará el siguiente valor:


^β j
t=
σ^ ^β
j

CONTRASTE DE LAS HIPÓTESIS DEL MODELO

Contraste de Normalidad

Prueba de Jarque – Bera (1980). Está basado en los estadísticos de asimetría y curtosis de los
residuos.

El estadístico de asimetría es un momento de tercer orden estandarizado que, aplica a los


residuos, toma el siguiente valor:
3
T
u^ t
∑T
t =1
γ 1( u)^ =

[ ]
T 2 3 /2
u^
∑ Tt
t =1

Es una distribución simétrica, como es el caso de la distribución normal, el coeficiente de


asimetría es 0.

El estadístico de curtosis, que es un momento de cuarto orden estandarizado, toma el


siguiente valor cuando se aplica a los residuos:
4
u^ t
T

∑T
t=1
γ 2( u^ ) =

[ ]
2
T
u^ 2t
∑T
t =1

Es una distribución estandarizada, es decir, en una distribución N(0,1), el coeficiente de


curtosis es igual a 3.

El estadístico de Jarque – Bera (JB) está construido sobre los coeficientes de asimetría y
curtosis de los residuos y viene dado por:

JB=
T −k +1
6 ( 1
γ 1 (^u) + [ γ 2 (^u )−3 ]
4
2
)
2
El estadístico JB tiene la siguiente distribución: JB X 2

Otro procedimiento estándar para evaluar la normalidad a través de los residuos es aplicar los
test de normalidad de Shapiro de Wilks, Kolmogorov-Smirnov, Anderson-Darling y Cramer-Von
Moses. Todos ellos platean la hipótesis nula de que la variable sigue una distribución normal.

Contraste de Homocedasticidad

En la etapa de verificación de los modelos estimados se deben realizar contrastes para


determinar si es, o no, admisible la hipótesis nula de homocedasticidad.

Test de Breusch – Pagan

La lógica de este test, propuesta por Breusch y Pagan (1979) y por Cook y Weisberg (1983), se
regresan los cuadrados de los residuos sobre los regresores de la función estimada

Por ejemplo: Sean 3 variables regresoras: x 1 t , x 2 t y x3 t


2
u^ t =α 0 + α 1 x 1 t + α 2 x 2 t + α 3 x3 t
2
Esta regresión tendrá una R2 que denominaremos R BP, se construye el estadístico de
contraste como:
2 2
n × R BP X k
Siendo k el número de regresores sin incluir el intercepto de la nueva regresión efectuada que,
en este caso, coincide con el número de regresores originales.

Contraste de White (1980)

Es una variante del test de Breusch – Pagan, donde los residuos al cuadrado no solo se
regresan sobre los regresores de la función original, sino sobre todas sus interacciones y sus
términos al cuadrado.

Por ejemplo: Sean 3 variables regresoras: x 1 t , x 2 t y x3 t

u^ 2t =α 0 + α 1 x 1 t + α 2 x 2 t + α 3 x3 t +α 4 x 1 t x 2 t +α 5 x 1 t x3 t +α 6 x 2 t x3 t + α 7 x 21 t +α 8 x 22 t + α 9 x23 t
2
Esta regresión tendrá una R2 que denominaremos RW , se construye el estadístico de contraste
como:
2 2
n × Rw X p
Siendo p el número de regresores, no los originales (3), sino los 9 de la regresión anterior,
también no se considera el intercepto.

Test de Goldfeld – Quandt (1965; 1972)

Es también una lógica radical. Se ordenan los datos por la variable dependiente, y a
continuación se divide la muestra en tres submuestras, la central debe ser inferior a un tercio y
superior al 15% de la muestra total. Las submuestras extremas deben ser aproximadamente
iguales.

Se estima a continuación el modelo para cada una de las submuestras extremas (obviando la
central). Cada una de las estimaciones tendrá una suma de cuadrados de los residuos. Bajo la
hipótesis nula de homocedasticidad se aplica el siguiente contraste, donde m 1 es el tamaño de
la muestra inferior, m2el de la superior, y k, el número de regresores.

SCR1
(m −k )
F GQ= 1 Fm −k , m −k
SCR2 1 2

(m2−k )

Linealidad

Si la variable dependiente está linealmente relacionada con las independientes, no debería


haber ninguna relación funcional aparente entre los residuos y los valores predichos de esa
variable dependiente, es decir, el modelo debería capturar toda la varianza sistemática
dejando solo ruido aleatorio. Otra forma de buscar evidencia de relaciones no lineales es
realizar gráficos denominados gráficos de componentes y residuos, donde cada regresor x i se
representa frente a los residuos del modelo general más el modelo sin ese regresor, es decir:

ui + β 0 + β 1 x i1i + ⋯+ β k xiki

Independencia de los términos de error


Esta suposición se basa en la existencia de datos cronológicos. Si los datos son cronológicos,
cada punto de datos debe ser independiente del punto de datos precedente o el posterior. Por
tanto, es importante asegurarse de que sus datos cronológicos estén organizados en el orden
correcto al realizar un análisis de regresión. Esta suposición se puede calcular mediante
una prueba de Durbin-Watson.

El contraste de Durbin-Watson (DW) se utiliza para realizar una prueba de autocorrelación


AR(1) sobre un conjunto de datos. Este contraste se centra en el estudio de los residuos de
Mínimos Cuadrados Ordinarios (MCO).

La prueba de Durbin-Watson es una medida de la autocorrelación de los residuales de un


modelo de regresión. La prueba de Durbin-Watson utiliza una escala de 0 a 4, en la que los
valores 0 a 2 indican una autocorrelación positiva, el valor 2 indica ninguna autocorrelación y
los valores 2 a 4 indican una autocorrelación negativa. Por tanto, se requieren valores cercanos
a 2 para cumplir la suposición de que no exista autocorrelación en los residuales. En general,
los valores comprendidos entre 1,5 y 2,5 se consideran aceptables, mientras que los valores
menores que 1,5 o mayores que 2,5 indican que el modelo no se ajusta a la suposición de que
no exista autocorrelación.

También podría gustarte