Estadística Actuarial (751)
Cátedra: Landro
Curso: Landro – Del Rosso
1er Cuatrimestre de 2017
“Remember that all models are wrong;
the practical question is how wrong
do they have to be to not be useful”
(George Box, 1987).
Modelos Lineales (Linear Models) en R
Temas: Modelos Lineales, Bondad del Modelo, Diagnóstico, Contrastes de Hipótesis
El ajuste de modelos emplea funciones cuyo primer argumento es un objeto fórmula que representa
el modelo deseado según los nombres de vectores. Las fórmulas en R siguen la sintaxis,
Variable Respuesta ~ Expresión de Covariables (Variables Predictoras)
La virgulilla se interpreta como “está modelada como una función de“.
Por ejemplo, para expresar un modelo de regresión lineal con "𝑦" como respuesta (variable
dependiente) y "𝑥" como covariable (variable independiente) se usa la función 𝒍𝒎()
> 𝑚𝑜𝑑𝑒𝑙𝑜. 𝑙𝑖𝑛𝑒𝑎𝑙 < −𝑙𝑚(𝑦 ~ 𝑥)
Otros ejemplos de fórmulas válidas,
𝑝𝑒𝑠𝑜 ~ 𝑡𝑎𝑙𝑙𝑒 + 𝑠𝑒𝑥𝑜 + 𝑟𝑒𝑔𝑖ó𝑛 # 𝑚𝑜𝑑𝑒𝑙𝑜 𝑑𝑒 𝑟𝑒𝑔𝑟𝑒𝑠𝑖ó𝑛 𝑚ú𝑙𝑡𝑖𝑝𝑙𝑒
𝑝𝑒𝑠𝑜 ~ 𝑡𝑎𝑙𝑙𝑒 + 𝑠𝑒𝑥𝑜 + 𝑡𝑎𝑙𝑙𝑒: 𝑠𝑒𝑥𝑜 # 𝑚𝑜𝑑𝑒𝑙𝑜 𝑐𝑜𝑛 𝑖𝑛𝑡𝑒𝑟𝑎𝑐𝑐𝑖ó𝑛 → 𝑒𝑞𝑢𝑖𝑣𝑎𝑙𝑒 𝑎 𝑝𝑒𝑠𝑜 ~ 𝑡𝑎𝑙𝑙𝑎 ∗ 𝑠𝑒𝑥𝑜
𝑝𝑒𝑠𝑜 ~ 𝑠𝑒𝑥𝑜 − 1 # 𝑚𝑜𝑑𝑒𝑙𝑜 sin 𝑡é𝑟𝑚𝑖𝑛𝑜 𝑖𝑛𝑑𝑒𝑝𝑒𝑛𝑑𝑖𝑒𝑛𝑡𝑒
𝑝𝑒𝑠𝑜 ~ 𝑝𝑜𝑙𝑦(𝑡𝑎𝑙𝑙𝑒, 3) # 𝑚𝑜𝑑𝑒𝑙𝑜 𝑞𝑢𝑒 𝑎𝑗𝑢𝑠𝑡𝑎 𝑢𝑛 𝑝𝑜𝑙𝑖𝑛𝑜𝑚𝑖𝑜 𝑑𝑒 𝑔𝑟𝑎𝑑𝑜 3 𝑎 𝑡𝑎𝑙𝑙𝑒
La siguiente tabla exhibe los símbolos utilizados en una fórmula de R,
Símbolo Ejemplo Significado
+ +𝑋 Incluye esta variable
- −𝑋 Elimina esta variable
: 𝑋: 𝑍 Incluye la interacción entre estas variables
* 𝑋∗𝑍 Incluye estas variables y la interacción entre ellas
| 𝑋|𝑍 Incluye un condicionante
^ (𝑋 + 𝑌 + 𝑍)^3 Incluye estas variables y todas las interacciones posibles
I 𝐼(𝑋 ∗ 𝑍) Incluye una nueva variable que surge del producto de estas variables
1 𝑋−1 Elimina el intercepto (regresión a través del origen)
Otros argumentos de interés de la función 𝒍𝒎() son,
𝒅𝒂𝒕𝒂 = para indicar una data frame donde buscar los vectores de la fórmula
𝒔𝒖𝒃𝒔𝒆𝒕 = para indicar una expresión lógica que defina una condición que selecciona las
observaciones que deben emplearse para el modelo. Por ejemplo, para seleccionar sólo los hombres
puede usarse: subset=(sexo=="hombre"). Los paréntesis son opcionales.
𝒘𝒆𝒊𝒈𝒕𝒉𝒔 = para indicar un vector con pesos si se desea un modelo de regresión ponderada.
1
Estadística Actuarial (751)
Cátedra: Landro
Curso: Landro – Del Rosso
1er Cuatrimestre de 2017
𝒏𝒂. 𝒂𝒄𝒕𝒊𝒐𝒏 = función que indica que debe hacerse con los valores NA (perdidos). Por defecto es
[Link], por lo que se realiza un análisis con casos completos. Si se desea que el análisis acabe con
un mensaje de error si hay NAs debe ponerse [Link]=[Link]
Modelos Lineales Generalizados (Generalized Linear Models – GLM -)
Son una extensión de los modelos lineales que permiten utilizar distribuciones no normales de los
errores (Binomial, Poisson, Gamma, etc) y varianzas no constantes. Existen ciertos tipos de variables
dependientes que sufren invariablemente la violación de estos supuestos de los modelos normales
y los GLM ofrecen una buena alternativa para tratarlos, y se utilizará cuando la variable respuesta
(dependiente o endógena) es,
i. Una variable de conteo. En concreto son casos (número de colisiones, accidentes,
viviendas destruidas, etc.)
ii. Una variable de conteo de casos expresados éstos como proporciones (porcentaje de
heridos graves en accidentes, etc.)
iii. Una variable binaria (vivo o muerto, hombre o mujer, carnet o no, etc.)
La función para estos modelos es 𝒈𝒍𝒎(). Además de los anteriores argumentos, precisa uno más
que define la familia del modelo.
𝒇𝒂𝒎𝒊𝒍𝒚 = 𝒏𝒐𝒓𝒎𝒂𝒍 | 𝒃𝒊𝒏𝒐𝒎𝒊𝒂𝒍 |𝒑𝒐𝒊𝒔𝒔𝒐𝒏 | 𝒈𝒂𝒎𝒎𝒂
Cada familia está basada en una distribución de probabilidad del error tiene una transformación
asociada. Otras transformaciones válidas pueden indicarse entre paréntesis: normal identity binomial
logistic poisson log gamma inverse
Exploración de los resultados
Normalmente el resultado de ajustar un modelo con 𝒍𝒎() o 𝒈𝒍𝒎() se asigna a un objeto que es de
clase lm o glm respectivamente. Las siguientes funciones permiten explorar diferentes aspectos del
modelo,
𝒑𝒓𝒊𝒏𝒕() 𝒔𝒖𝒎𝒎𝒂𝒓𝒚() 𝒄𝒐𝒆𝒇()
𝒓𝒆𝒔𝒊𝒅() 𝒇𝒊𝒕𝒕𝒆𝒅() 𝒅𝒆𝒗𝒊𝒂𝒏𝒄𝒆()
𝒂𝒏𝒐𝒗𝒂() 𝒑𝒓𝒆𝒅𝒊𝒄𝒕() 𝒑𝒍𝒐𝒕()
Ejemplo 1
Con el fin de ejemplificar algunas opciones que se utilizarán ampliamente al estimar modelos de
regresión vamos a considerar el caso siguiente. Generamos dos vectores con la siguiente
información,
> 𝑦 < −𝑐(1,2,3, −1,0, −1,2,1,2)
> 𝑥 < −𝑐(0,1,2, −2,1, −2,0. −1,1)
Ahora es posible correr la regresión para el modelo lineal simple, 𝑌𝑖 = 𝑎0 + 𝑎1 𝑋𝑖 + 𝜀𝑖
2
Estadística Actuarial (751)
Cátedra: Landro
Curso: Landro – Del Rosso
1er Cuatrimestre de 2017
Por el momento no nos preocupamos por las características del modelo, ni de la comprensión del
método de estimación ya que se abordará más adelante. Aquí simplemente debe aprender que para
correr esa regresión se utiliza la función lineal model o 𝒍𝒎()
Los resultados de la regresión se pueden obtener con el comando 𝒔𝒖𝒎𝒎𝒂𝒓𝒚(),
Ejemplo 2 – PWT (Penn World Table)
Ahora ya estamos en condiciones de preparar nuestros datos para utilizarlos en el paquete. La
manera más fácil de manejar los archivos de datos en R es crearlos en una planilla de cálculo como
Excel y guardarlos como archivo de texto delimitado por tabulaciones. Para que los datos puedan
ser cargados en R habrá que utilizar el comando para leer tablas ([Link]) e indicar que la primer
línea de su cuadro de datos contiene los nombres de las variables (header=TRUE) y que las
columnas están separadas por tabulaciones (sep=). Las instrucciones son las siguientes,
> 𝑑𝑎𝑡𝑜𝑠 < −𝑟𝑒𝑎𝑑. 𝑡𝑎𝑏𝑙𝑒(PWT_2000.txt, ℎ𝑒𝑎𝑑𝑒𝑟 = 𝑇𝑅𝑈𝐸, 𝑠𝑒𝑝 = "")
Los datos de la tabla ahora están cargados en un objeto llamado "datos", sin embargo R no puede
reconocer cada una de las variables que están en el cuadro. Para indicar que las variables están en
las columnas se debe usar la siguiente instrucción,
> 𝑎𝑡𝑡𝑎𝑐ℎ(𝑑𝑎𝑡𝑜𝑠)
La leyenda que arroja el software estadístico R es el siguiente,
The following object(s) are masked from 'datos (position 3)': K, PAIS, PIBPCL
3
Estadística Actuarial (751)
Cátedra: Landro
Curso: Landro – Del Rosso
1er Cuatrimestre de 2017
Una herramienta gráfica que utilizaremos frecuentemente es un diagrama de dispersión. Por
ejemplo, se puede solicitar una nube de puntos para visualizar la relación entre el esfuerzo de
inversión de los países (𝐾) y su ingreso per cápita (𝑃𝐼𝐵𝑃𝐶𝐿),
> 𝑝𝑙𝑜𝑡(𝐾, 𝑃𝐼𝐵𝑃𝐶𝐿, 𝑐𝑜𝑙 = "red")
En la gráfica se puede observar claramente una relación positiva entre el esfuerzo de inversión y el
PIB per cápita de los países de la muestra de datos. Sin embargo, es posible estimar el coeficiente
de correlación lineal entre ambas variables, mediante la siguiente instrucción,
> 𝑐𝑜𝑟(𝐾, 𝑃𝐼𝐵𝑃𝐶𝐿)
[𝟏] 𝟎. 𝟗𝟓𝟔𝟖𝟎𝟔𝟖
Asimismo es posible efectuar un contraste de hipótesis de significatividad del coeficiente de
correlación lineal. El planteo de hipótesis es el siguiente,
𝐻0 : 𝜌(𝐾, 𝑃𝐼𝐵𝑃𝐶𝐿) = 0
𝐻1 : 𝜌(𝐾, 𝑃𝐼𝐵𝑃𝐶𝐿) ≠ 0
La sintaxis en R para efectuar dicho test es,
> 𝑐𝑜𝑟. 𝑡𝑒𝑠𝑡(𝐾, 𝑃𝐼𝐵𝑃𝐶𝐿)
4
Estadística Actuarial (751)
Cátedra: Landro
Curso: Landro – Del Rosso
1er Cuatrimestre de 2017
Teniendo en cuenta que se rechazó la hipótesis nula y que bajo la evidencia empírica se puede
afirmar que el coeficiente de correlación lineal entre ambas variables es distinto a cero, es posible
plantear un contraste para evaluar si el grado de asociación lineal es positiva o negativa. En este
caso se testea la posibilidad que la hipótesis alternativa sea menos a cero, es decir,
𝐻0 : 𝜌(𝐾, 𝑃𝐼𝐵𝑃𝐶𝐿) ≥ 0
𝐻1 : 𝜌(𝐾, 𝑃𝐼𝐵𝑃𝐶𝐿) < 0
La sintaxis en R para efectuar dicho test es,
> 𝑐𝑜𝑟. 𝑡𝑒𝑠𝑡(𝐾, 𝑃𝐼𝐵𝑃𝐶𝐿, 𝑎𝑙𝑡𝑒𝑟𝑛𝑎𝑡𝑖𝑣𝑒 = "𝑙𝑒𝑠𝑠")
Dado que ya sabemos utilizar el comando “lm” de regresión lineal, podemos ahora estimar un modelo
para explicar el ingreso per cápita de los países en función de su capital, pero ahora guardaremos
el resultado en un objeto bajo el nombre PWT (Penn World Table),
> 𝑃𝑊𝑇 < −𝑙𝑚(𝑃𝐼𝐵𝑃𝐶𝐿 ~ 𝐾)
Un comando útil que proveerá los coeficientes estimados del modelo es,
> 𝑐𝑜𝑒𝑓(𝑃𝑊𝑇)
Para obtener un resumen estadístico más completo del modelo, por ejemplo, utilizamos el comando
𝒔𝒖𝒎𝒎𝒂𝒓𝒚()
> 𝑠𝑢𝑚𝑚𝑎𝑟𝑦(𝑃𝑊𝑇)
Los resultados del modelo indican que al incrementarse la inversión en un dólar el ingreso de los
países se incrementa en 3.64 dólares, tal y como se aprecia en el siguiente cuadro.
5
Estadística Actuarial (751)
Cátedra: Landro
Curso: Landro – Del Rosso
1er Cuatrimestre de 2017
Adición de Líneas de Regresión a los Gráficos
La recta de regresión estimada la podemos añadir al diagrama de dispersión que ya habíamos
generado con la siguiente opción,
> 𝑎𝑏𝑙𝑖𝑛𝑒(𝑃𝑊𝑇, 𝑐𝑜𝑙 = "𝑏𝑙𝑢𝑒")
Otra gráfica que nos va a ser de utilidad es el histograma, en el cual podemos relacionar intervalos
de los datos con sus frecuencias. Con la siguiente instrucción generaremos el histograma para los
datos del PIB per cápita de los países,
> ℎ𝑖𝑠𝑡(𝑃𝐼𝐵𝑃𝐶𝐿, 𝑚𝑎𝑖𝑛 = "Histograma del PIBPCL")
Claramente el histograma muestra que la mayoría de los países se encuentran en los ingresos más
bajos de la distribución. Resulta útil visualizar el histograma en densidades (área bajo la curva igual
6
Estadística Actuarial (751)
Cátedra: Landro
Curso: Landro – Del Rosso
1er Cuatrimestre de 2017
a la unidad) y añadirle funciones de densidad kernel, lo cual se puede hacer con la instrucción
siguiente,
> ℎ𝑖𝑠𝑡(𝑃𝐼𝐵𝑃𝐶𝐿, 𝑚𝑎𝑖𝑛 = "Histograma del PIBPCL", 𝑓𝑟𝑒𝑞 = 𝐹𝐴𝐿𝑆𝐸)
> 𝑙𝑖𝑛𝑒𝑠(𝑑𝑒𝑛𝑠𝑖𝑡𝑦(𝑃𝐼𝐵𝑃𝐶𝐿))
Para observar la distribución de los datos es utilizar cajas de box, en las cuales la caja muestra los
umbrales para los cuartiles inferior y superior, además de la mediana. Las líneas abajo y arriba de la
caja permiten identificar las observaciones extremas. Para obtener este tipo de gráficas se utiliza la
instrucción siguiente,
> 𝑏𝑜𝑥𝑝𝑙𝑜𝑡(𝑃𝐼𝐵𝑃𝐶𝐿, 𝑐𝑜𝑙 = "𝑦𝑒𝑙𝑙𝑜𝑤")
La gráfica resultante exhibe un grupo de países con ingresos extremos.
7
Estadística Actuarial (751)
Cátedra: Landro
Curso: Landro – Del Rosso
1er Cuatrimestre de 2017
Evaluación de los Resultados de un Modelo Lineal
Antes de aceptar el resultado de un modelo lineal, es importante evaluar su idoneidad para explicar
los datos. Una de las varias formas de hacer esto es examinar visualmente los residuos.
Si el modelo es apropiado, entonces los errores residuales deben ser aleatorios y normalmente
distribuidos. Además, la eliminación de un caso no debe afectar significativamente la idoneidad del
modelo. El programa estadístico suministra 4(cuatro) aproximaciones gráficas para evaluar un
modelo, mediante el comando 𝒑𝒍𝒐𝒕()
> 𝑙𝑎𝑦𝑜𝑢𝑡(𝑚𝑎𝑡𝑟𝑖𝑥(1: 4,2,2))
> 𝑝𝑙𝑜𝑡(𝑃𝑊𝑇)
El gráfico en extremo superior izquierdo exhibe los residuos del modelo versus los valores estimados
(fitted) por el modelo. Los residuos deberían ser distribuidos aleatoriamente alrededor de la línea
horizontal, que representa un error residual de cero, lo que implica, que no debería existir una
tendencia distinta en la distribución de los puntos. El gráfico en el extremo inferior izquierdo es un
gráfico QQ Plot, que debería sugerir que los errores residuales son distribuidos normalmente. El
gráfico “scale – location” en el extremo superior derecho exhibe la raiz cuadrada de los residuos
estandarizados como una función de los valores ajustados. Y el ultimo gráfico en el extremo inferior
derecho exhibe cada punto de apalancamiento, que representa una medida de la importancia en la
determinación de la regresión resultante.
8
Estadística Actuarial (751)
Cátedra: Landro
Curso: Landro – Del Rosso
1er Cuatrimestre de 2017
Utilización de los Resultados de una Regresión para hacer Predicciones
El objetivo de un análisis de regresión, por supuesto, es para desarrollar un modelo que pueda ser
utilizado para predecir los resultados de experimentos futuros. En nuestro ejemplo, la ecuación de
calibración es,
̂ = 2364 + 3,641 ∗ 𝐾
𝑃𝐼𝐵𝑃𝐶𝐿
La recta ajustada se utiliza tanto para estimar la respuesta media como para predecir una respuesta
individual. La distinción entre la estimación de una media y la predicción de un valor futuro se aclara
cuando utilizamos intervalos que proveen una medida del error. Una vez hallada la recta de
regresión, si la regresión es significativa, podría interesarnos predecir la variable respuesta para un
valor fijo x de la variable independiente, o estimar la respuesta media. Tiene sentido realizar
predicciones y estimaciones dentro del rango de la variable independiente. El rango de la variable
independiente es,
> 𝑟𝑎𝑛𝑔𝑒(𝐾)
[1] 25.02441 11130.66452
Podemos hacer predicciones y estimaciones dentro de este rango de valores.
Intervalos de predicción para un valor dado de la variable independiente
Por ejemplo, podría interesarnos predecir el valor del ingreso per cápita entre los países para valores
promedio del esfuerzo de inversión igual a 370, 390, 400. Podemos hacer la cuenta,
> 2364 + 3.641 ∗ 370
[1] 3711.17
> 2364 + 3.641 ∗ 390
[1] 3783.99
> 2364 + 3.641 ∗ 400
[1] 3820.4
En R podemos usar la sentencia "𝑝𝑟𝑒𝑑𝑖𝑐𝑡", que nos permite hallar los valores predichos y sus
intervalos de predicción respectivos. El modelo ajustado era:
> 𝑃𝑊𝑇 < −𝑙𝑚(𝑃𝐼𝐵𝑃𝐶𝐿 ~ 𝐾)
Si hacemos,
> 𝑝𝑟𝑒𝑑𝑖𝑐𝑡(𝑃𝑊𝑇)
Obtenemos los mismos valores haciendo,
> 𝑃𝑊𝑇$𝑓𝑖𝑡𝑡𝑒𝑑
Lo chequeamos restando:
> 𝑟𝑜𝑢𝑛𝑑(𝑝𝑟𝑒𝑑𝑖𝑐𝑡(𝑃𝑊𝑇) − 𝑃𝑊𝑇$𝑓𝑖𝑡𝑡𝑒𝑑, 0)
9
Estadística Actuarial (751)
Cátedra: Landro
Curso: Landro – Del Rosso
1er Cuatrimestre de 2017
Si queremos predecir el valor del ingreso per capital para valores del Esfuerzo de Inversión =370,
390, 400 y sus respectivos intervalos de predicción:
> 𝑛𝑒𝑤 < −𝑑𝑎𝑡𝑎. 𝑓𝑟𝑎𝑚𝑒(𝑥 = 𝑐(370,390,400))
> 𝑝𝑟𝑒𝑑𝑖𝑐𝑡(𝑃𝑊𝑇, 𝑛𝑒𝑤, 𝑖𝑛𝑡𝑒𝑟𝑣𝑎𝑙 = "𝑝𝑟𝑒𝑑𝑖𝑐𝑡𝑖𝑜𝑛")
El default es 0.95, si queremos otro nivel lo tenemos que especificar:
> 𝑝𝑟𝑒𝑑𝑖𝑐𝑡(𝑃𝑊𝑇, 𝑛𝑒𝑤, 𝑖𝑛𝑡𝑒𝑟𝑣𝑎𝑙 = "prediction", 𝑙𝑒𝑣𝑒𝑙 = 0.99)
Observación: Necesitamos definir el conjunto de datos que queremos predecir como un data frame
y tiene que tener la variable el mismo nombre que nuestra variable independiente, en nuestro cado
x. Si no ponemos un nuevo conjunto de datos, lo hace para los valores ajustados por el modelo.
> 𝑝𝑟𝑒𝑑𝑖𝑐𝑡(𝑃𝑊𝑇, 𝑖𝑛𝑡𝑒𝑟𝑣𝑎𝑙 = "𝑝𝑟𝑒𝑑𝑖𝑐𝑡𝑖𝑜𝑛")
Intervalos de Confianza para la respuesta media
Si fijamos un valor de la variable independiente x, y queremos hallar el valor esperado de Y y su
respectivo intervalo de confianza usamos,
> 𝑝𝑟𝑒𝑑𝑖𝑐𝑡(𝑃𝑊𝑇, 𝑛𝑒𝑤, 𝑖𝑛𝑡𝑒𝑟𝑣𝑎𝑙 = "confidence")
El default es 0.95, si queremos otro nivel lo tenemos que especificar:
> 𝑝𝑟𝑒𝑑𝑖𝑐𝑡(𝑃𝑊𝑇, 𝑛𝑒𝑤, 𝑖𝑛𝑡𝑒𝑟𝑣𝑎𝑙 = "confidence",level=0.99)
Si comparamos los resultados obtenidos vemos que los valores predichos, y los esperados
coinciden, pero los intervalos de predicción tienen mayor longitud que los intervalos de confianza.
Debido a que existe incertidumbre tanto en la pendiente calculada como en la intercepción, habrá
incertidumbre en el el esfuerzo de inversión (K) calculados. Suponga que deseamos predecir el
ingreso per cápita para distintos niveles de inversión junto con el intervalo de confianza para cada
uno. Podemos utilizar el comando 𝒑𝒓𝒆𝒅𝒊𝒄𝒕() para hacer esto. La sintaxis es,
𝒑𝒓𝒆𝒅𝒊𝒄𝒕(𝑚𝑜𝑑𝑒𝑙𝑜, 𝑑𝑎𝑡𝑎. 𝑓𝑟𝑎𝑚𝑒(𝑝𝑟𝑒𝑑 = 𝑛𝑒𝑤 𝑝𝑟𝑒𝑑), 𝑙𝑒𝑣𝑒𝑙 = 0.95, 𝑖𝑛𝑡𝑒𝑟𝑣𝑎𝑙 = "confidence")
Donde “pred” es el objeto que contiene los valores de la variable independiente y “new pred” es el
objeto que contiene los nuevos valores para las predicciones que son deseadas y “level” es el nivel
de confianza. Asimismo “lwr” es el límite inferior del intervalo de confianza y “upr” es el límite superior
de dicho intervalo. Una de las limitaciones de R, es que no contiene una característica para encontrar
los intervalos de confianza para los valores predichos de la variable independiente para valores
específicos de la variable dependiente.
Ejemplo 3 – Deuda
Para comenzar, se utilizarán datos de la Economía Mexicana para el periodo comprendido de Enero
de 2009 a Diciembre de 2013, con frecuencia mensual y cuya fuente provienen de la página web del
Banco de México ([Link]), con dicha información permitirá estimar el siguiente
modelo,
10
Estadística Actuarial (751)
Cátedra: Landro
Curso: Landro – Del Rosso
1er Cuatrimestre de 2017
𝐷𝑒𝑢𝑑𝑎 𝑃ú𝑏𝑙𝑖𝑐𝑎𝑡 = 𝑎0 + 𝑎1 𝑅𝑅𝐼𝐼𝑡 + 𝑎2 𝐼𝑛𝑑𝑖𝑐𝑒 𝐵𝑢𝑟𝑠𝑎𝑡𝑖𝑙𝑡 + 𝜀𝑡
La variable dependiente, y, es el nivel de deuda pública del gobierno mexicano (expresada en miles
de millones de pesos) que es explicada por el nivel de Reservas Internacionales, X2, (expresada en
miles de millones de dólares) y por el índice bursátil de la Bolsa Mexicana de Valores, X3 (miles de
unidades). Para encontrar el modelo que explique el comportamiento de la Deuda Externa en función
de las Reservas Internacionales y del Índice Bursátil se utilizarán los datos que se encuentran en el
archivo “deuda_mex” con extensión CSV (delimitado por comas). Para ejecutarlo en R se hace uso
del siguiente código,
𝑑𝑒𝑢𝑑𝑎 < −𝑟𝑒𝑎𝑑. 𝑐𝑠𝑣("C:/data/deuda_mex.csv", ℎ𝑒𝑎𝑑𝑒𝑟 = 𝑇)
𝑎𝑡𝑡𝑎𝑐ℎ(𝑑𝑒𝑢𝑑𝑎)
𝑝𝑎𝑖𝑟𝑠(𝑑𝑒𝑢𝑑𝑎)
El comando para obtener el vector de residuos del modelo estimado es,
> 𝑟𝑒𝑠𝑖𝑑𝑢𝑜𝑠 < −𝑚𝑜𝑑𝑒𝑙𝑜$𝑟𝑒𝑠𝑖𝑑𝑢𝑎𝑙𝑠
Otra posibilidad alternativa es mediante la siguiente sintaxis,
> 𝑟𝑒𝑠𝑖𝑑𝑢𝑜𝑠 < −𝑟𝑒𝑠𝑖𝑑(𝑚𝑜𝑑𝑒𝑙𝑜)
En nuestro ejemplo, la matriz de varianzas-covarianzas de las estimaciones de los parámetros del
modelo se obtiene mediante el siguiente comando,
11
Estadística Actuarial (751)
Cátedra: Landro
Curso: Landro – Del Rosso
1er Cuatrimestre de 2017
> 𝑣𝑐𝑜𝑣(𝑚𝑜𝑑𝑒𝑙𝑜)
El comando para obtener la tabla ANOVA del ejemplo que se desarrollo es el siguiente,
> 𝑎𝑛𝑜𝑣𝑎(𝑚𝑜𝑑𝑒𝑙𝑜)
Contrastes de Hipótesis
Test de Student
La instrucción en R para aplicar el test de Student es "𝒕. 𝒕𝒆𝒔𝒕". Por default es un test bilateral (a dos
colas) y con un intervalo de confianza del 95%.
Ejemplo 1: Para la media de una población normal
Generamos una muestra de tamaño 30 de una distribución normal con media 5 y desvío 1.
> 𝑠𝑒𝑡. 𝑠𝑒𝑒𝑑(34)
> 𝑥 < −𝑟𝑛𝑜𝑟𝑚(30,5,1)
> 𝑡. 𝑡𝑒𝑠𝑡(𝑥, 𝑚𝑢 = 5)
Ejemplo 2: Podemos hacerlo con más argumentos
> 𝑡. 𝑡𝑒𝑠𝑡(𝑥, 𝑎𝑙𝑡𝑒𝑟𝑛𝑎𝑡𝑖𝑣𝑒 = "[Link]", 𝑚𝑢 = 5, 𝑐𝑜𝑛𝑓. 𝑙𝑒𝑣𝑒𝑙 = 0.95)
Si planteamos un test unilateral a izquierda
> 𝑡. 𝑡𝑒𝑠𝑡(𝑥, 𝑎𝑙𝑡𝑒𝑟𝑛𝑎𝑡𝑖𝑣𝑒 = "less", 𝑚𝑢 = 5, 𝑐𝑜𝑛𝑓. 𝑙𝑒𝑣𝑒𝑙 = 0.95)
¿Qué es lo único que cambia? ¿Por qué?
Ejemplo 3: Si planteamos un test unilateral a derecha para mu=4 y nivel de confianza 0.99
> 𝑡. 𝑡𝑒𝑠𝑡(𝑥, 𝑎𝑙𝑡𝑒𝑟𝑛𝑎𝑡𝑖𝑣𝑒 = "greater", 𝑚𝑢 = 4, 𝑐𝑜𝑛𝑓. 𝑙𝑒𝑣𝑒𝑙 = 0.95)
Para comparar la media de dos poblaciones normales e independientes
Por default es un test bilateral, y con un intervalo de confianza del 95%, diferencia 0 y varianzas
distintas.
i. Asumiendo varianzas iguales
Generamos otra muestra de tamaño 25 de una distribución normal con media 6 y desvío 1.
> 𝑠𝑒𝑡. 𝑠𝑒𝑒𝑑(35)
12
Estadística Actuarial (751)
Cátedra: Landro
Curso: Landro – Del Rosso
1er Cuatrimestre de 2017
> 𝑦 < −𝑟𝑛𝑜𝑟𝑚(25,6,1)
> 𝑡. 𝑡𝑒𝑠𝑡(𝑥, 𝑦, 𝑣𝑎𝑟. 𝑒𝑞𝑢𝑎𝑙 = 𝑇𝑅𝑈𝐸)
Ejemplo 5: Si queremos ver si la media de x es menor en una unidad que la media de y
> 𝑡. 𝑡𝑒𝑠𝑡(𝑥, 𝑦, 𝑚𝑢 = 1, 𝑎𝑙𝑡𝑒𝑟𝑛𝑎𝑡𝑖𝑣𝑒 = "𝑙𝑒𝑠𝑠", 𝑣𝑎𝑟. 𝑒𝑞𝑢𝑎𝑙 = 𝑇𝑅𝑈𝐸)
Ejemplo 6: Cuando la variable de interés está definida mediante un factor
Generamos un data frame denominado “datos”
> 𝑠𝑒𝑡. 𝑠𝑒𝑒𝑑(20)
> 𝑣𝑎𝑟𝑖𝑎𝑏𝑙𝑒 < −𝑟𝑛𝑜𝑟𝑚(40,20,2)
> 𝑠𝑒𝑡. 𝑠𝑒𝑒𝑑(20)
> 𝑠𝑒𝑥𝑜 < −𝑠𝑎𝑚𝑝𝑙𝑒(𝑐("F","M"),40,replace=TRUE)
> 𝑑𝑎𝑡𝑜𝑠 < −𝑑𝑎𝑡𝑎. 𝑓𝑟𝑎𝑚𝑒(𝑣𝑎𝑟𝑖𝑎𝑏𝑙𝑒, 𝑠𝑒𝑥𝑜)
> 𝑡. 𝑡𝑒𝑠𝑡(𝑣𝑎𝑟𝑖𝑎𝑏𝑙𝑒 ~ 𝑠𝑒𝑥𝑜, 𝑑𝑎𝑡𝑎 = 𝑑𝑎𝑡𝑜𝑠, 𝑣𝑎𝑟. 𝑒𝑞𝑢𝑎𝑙 = 𝑇𝑅𝑈𝐸)
ii. Asumiendo varianzas distintas (Test de Welch)
Ejemplo7
> 𝑠𝑒𝑡. 𝑠𝑒𝑒𝑑(29)
> 𝑥1 < −𝑟𝑛𝑜𝑟𝑚(25,5,0.5)
> 𝑠𝑒𝑡. 𝑠𝑒𝑒𝑑(30)
> 𝑥2 < −𝑟𝑛𝑜𝑟𝑚(20,5.2,1)
> 𝑡. 𝑡𝑒𝑠𝑡(𝑥1, 𝑥2)
Para muestras apareadas
Ejemplo 8
> 𝑠𝑒𝑡. 𝑠𝑒𝑒𝑑(29)
> 𝑤1 < −𝑟𝑛𝑜𝑟𝑚(25,5,0.5)
> 𝑠𝑒𝑡. 𝑠𝑒𝑒𝑑(30)
> 𝑤2 < −𝑟𝑛𝑜𝑟𝑚(25,3,1)
> 𝑡. 𝑡𝑒𝑠𝑡(𝑤1, 𝑤2, 𝑝𝑎𝑖𝑟𝑒𝑑 = 𝑇𝑅𝑈𝐸)
Test F para igualdad de varianzas
13
Estadística Actuarial (751)
Cátedra: Landro
Curso: Landro – Del Rosso
1er Cuatrimestre de 2017
La instrucción en R para aplicar el test F es "𝑣𝑎𝑟. 𝑡𝑒𝑠𝑡". Por default es un test bilateral para cociente
1 y con un intervalo de confianza del 95%. Chequeamos el supuesto para los test realizados
anteriormente.
Ejemplo 9
> 𝑣𝑎𝑟. 𝑡𝑒𝑠𝑡(𝑥, 𝑦)
Ejemplo 10
> 𝑣𝑎𝑟. 𝑡𝑒𝑠𝑡(𝑥1, 𝑥2)
Ejemplo 11
> 𝑣𝑎𝑟. 𝑡𝑒𝑠𝑡(𝑣𝑎𝑟𝑖𝑎𝑏𝑙𝑒 ~ 𝑠𝑒𝑥𝑜, 𝑑𝑎𝑡𝑎 = 𝑑𝑎𝑡𝑜𝑠)
Ver el help para otras opciones
Test de Shapiro Wilk (SW)
Se utiliza para contrastar la normalidad de un conjunto de datos. La hipótesis nula postula que una
muestra de 𝑥1 , … , 𝑥𝑛 proviene de una población que se encuentra normalmente distribuida. Es
considerado uno de los test más potentes para el contraste de normalidad, sobre todo para muestras
pequeñas (n<50). El estadístico utilizado es,
2
(∑𝑛𝑖=1 𝑎𝑖 𝑥(𝑖) )
𝑊= 𝑛
∑𝑖=1(𝑥𝑖 − 𝑥̅ )2
Se rechazará si 𝑊 es demasiado pequeño y puede oscilar entre 0 y 1. Si el P-Valor es menor al nivel
de significación entonces la hipótesis nula es rechazada (se concluye que los datos no provienen de
una distribución normal). Ahora bien, si el P-Valor es mayor al nivel de significación, no se rechaza
la hipótesis y se concluye que los datos siguen una distribución normal. Para los ejemplos vistos,
Ejemplo 12
> 𝑠ℎ𝑎𝑝𝑖𝑟𝑜. 𝑡𝑒𝑠𝑡(𝑥)
Ejemplo 13
> 𝑠ℎ𝑎𝑝𝑖𝑟𝑜. 𝑡𝑒𝑠𝑡(𝑦)
Ejemplo 14
Para muestras apareadas la diferencia debe tener distribución normal
> 𝑠ℎ𝑎𝑝𝑖𝑟𝑜. 𝑡𝑒𝑠𝑡(𝑤1 − 𝑤2)
Ejemplo 15
> 𝑡𝑎𝑝𝑝𝑙𝑦(𝑑𝑎𝑡𝑜𝑠$𝑣𝑎𝑟𝑖𝑎𝑏𝑙𝑒, 𝑑𝑎𝑡𝑜𝑠$𝑠𝑒𝑥𝑜, 𝑠ℎ𝑎𝑝𝑖𝑟𝑜. 𝑡𝑒𝑠𝑡)
14
Estadística Actuarial (751)
Cátedra: Landro
Curso: Landro – Del Rosso
1er Cuatrimestre de 2017
Test de Anderson Darling (AD)
Es una prueba estadística no paramétrica que permite determinar si una muestra de datos se extrae
de una distribución de probabilidad. El Estadístico de Prueba es,
𝐴2 = −𝑁 − 𝑆
𝑁
2𝑘 − 1
𝑆=∑ [𝑙𝑛𝐹(𝑋𝑘 ) + ln(1 − 𝐹(𝑋𝑁+1−𝑘 ))]
𝑁
𝑘=1
En su forma más sencilla, el test asume que no existen parámetros a estimar en la distribución que
se está probando, en cuyo caso la prueba y su conjunto de valores críticos siguen una distribución
libre. Sin embargo, la prueba se utiliza con mayor frecuencia en contextos en los que se está
probando una familia de distribuciones, en cuyo caso deben ser estimados los parámetros de esa
familia y debe tenerse estos en cuenta a la hora de ajustar la prueba estadística y sus valores críticos.
Cuando se aplica para probar si una distribución normal describe adecuadamente un conjunto de
datos, es una de las herramientas estadísticas más potentes para la detección de la mayoría de las
desviaciones de la normalidad. Si el P-Valor es inferior al nivel de significación se rechaza la hipótesis
nula de normalidad.
Test de Kolmogorov – Smirnov (KS)
Esta prueba conocida como KS es una prueba no paramétrica que determina la bondad de ajuste
de una distribución empírica con una teórica, en este caso con la Distribución Normal.
El estadístico de prueba para un test unilateral o a una sola “cola” es la siguiente expresión,
𝐷 = 𝑚𝑎𝑥|𝐹𝑛 (𝑥) − 𝐹0 (𝑥)|
Cuando la prueba es bilateral o a dos colas, el estadístico surge del cálculo de dos diferencias
absolutas,
𝐷 + = 𝑚𝑎𝑥|𝐹𝑛 (𝑥) − 𝐹0 (𝑥)|
𝐷 − = 𝑚𝑎𝑥|𝐹0 (𝑥) − 𝐹𝑛 (𝑥)|
donde 𝐹𝑛 (𝑥) representa la Función de Distribución Muestral que se calcula de la forma siguiente,
𝑛
1 𝑠𝑖 𝑥𝑖 ≤ 𝑥
𝐹𝑛 (𝑥) = ∑ 𝑥𝑖 {
0 𝑒𝑛 𝑜𝑡𝑟𝑎 𝑎𝑙𝑡𝑒𝑟𝑛𝑎𝑡𝑖𝑣𝑎
𝑖=1
y 𝐹0 (𝑥) corresponde a la función teórica o correspondiente a la población normal especificada en la
hipótesis nula.
La distribución del estadístico de Kolmogorov-Smirnov es independiente de la distribución
poblacional especificada en la hipótesis nula y los valores críticos de este estadístico están
tabulados. Si la distribución postulada es la normal y se estiman sus parámetros, los valores críticos
se obtienen aplicando la corrección de significación propuesta por Lilliefors.
15
Estadística Actuarial (751)
Cátedra: Landro
Curso: Landro – Del Rosso
1er Cuatrimestre de 2017
Si el P-Valor es menor al nivel de significación entonces la hipótesis nula es rechazada (se concluye
que los datos no provienen de una distribución normal). Ahora bien, si el P-Valor es mayor al nivel
de significación, no se rechaza la hipótesis y se concluye que los datos siguen una distribución
normal.
Contrastes de Homocedasticidad
El Contraste de Breusch - Pagan (BP) es uno de los contrastes más conocido para detectar la
heterocedasticidad. La idea es comprobar si se puede encontrar un conjunto de variables, que
permitan determinar la dinámica de la varianza de las perturbaciones, estimada a partir del cuadrado
de los errores del modelo inicial. El proceso a seguir para llevar a cabo este contraste es el siguiente,
i. Estimar el modelo inicial, sobre el que se pretende saber si hay o no heterocedasticidad,
empleando MCO y determinar los errores.
ii. Calcular una serie con los errores del modelo anterior al cuadrado estandarizados,
𝜖𝑖2
𝜖̃𝑖2 =
𝜎̂ 2
∑𝑛𝑖=1 𝜖̂𝑖2
𝜎̂ 2 =
𝑛
iii. Estimar una regresión sobre los determinantes de los errores mediante la incorporación
de variables independientes "𝑍", mediante las cuales se busca establecer si este
conjunto de variables explican el proceso de heterocedasticidad de las perturbaciones
en el modelo original; la estimación propuesta es la siguiente,
𝜖̃𝑖2 = 𝛼0 + 𝛼1 𝑍1𝑖 + 𝛼2 𝑍2𝑖 + ⋯ + 𝛼𝑝 𝑍𝑝𝑖 + 𝜀𝑡
iv. El modelo es ineficiente si la varianza de la variable dependiente estimada y su error
estimado es grande. Entonces, podría afirmarse que el poder explicativo del conjunto de
variables Z sobre la representación de la varianza de las perturbaciones aleatorias es
escaso. Mediante el diseño de un contraste calculado con la sumatoria de los residuales
de la estimación planteada en el paso 3, cuando este se encuentre cercano a cero, la
probabilidad de que el proceso sea homocedástico es alta. El contraste propuesto sería
el siguiente,
∑𝑛𝑖=1 𝜖̃̂𝑖2 ∗ 𝑛
2
Breusch y Pagan, mostraron que el contraste se distribuye como una Chi-cuadrada, cuando el
proceso del modelo es homocedástico, al revisar el contraste tablas, se toman en cuenta las
siguientes hipótesis,
𝐻0 : 𝑃𝑟𝑒𝑠𝑒𝑛𝑐𝑖𝑎 𝑑𝑒 𝐻𝑜𝑚𝑜𝑐𝑒𝑑𝑎𝑠𝑡𝑖𝑐𝑖𝑑𝑎𝑑
𝐻1 : 𝑃𝑟𝑒𝑠𝑒𝑛𝑐𝑖𝑎 𝑑𝑒 𝐻𝑒𝑡𝑒𝑟𝑜𝑐𝑒𝑑𝑎𝑠𝑡𝑖𝑐𝑖𝑑𝑎𝑑
16
Estadística Actuarial (751)
Cátedra: Landro
Curso: Landro – Del Rosso
1er Cuatrimestre de 2017
Cuando la probabilidad de cometer el Error Tipo I, es muy alta no se puede rechazar la hipótesis
nula, entonces, la varianza de los errores aleatorios es constante, por lo tanto, homocedásticos.
El test de White es considerado una prueba robusta al no requerir supuestos previos como, por
ejemplo, la normalidad de las perturbaciones. De igual manera, no es necesario determinar a priori
las variables explicativas que determinan heterocedasticidad.
El objetivo de esta prueba es determinar si las variables explicativas del modelo, pueden determinar
la evolución de los errores al cuadrado. Es decir; si la dinámica de las variables explicativas en
relación a las varianzas y covarianzas es significativa para determinar el valor de la varianza muestral
de los errores.
El proceso de estimación es el siguiente,
i. Estimar el modelo original por MCO, para obtener los errores en la estimación.
ii. Estimar una regresión sobre los determinantes de los errores, con la incorporación de
todas las variables incluidas en el estimación del primer modelo, estas elevados al
cuadrado y sus combinaciones no repetidas,
𝜖𝑖2 = 𝛼0 + 𝛼1 𝑋1𝑖 + 𝛼2 𝑋2𝑖 + ⋯ + 𝛼𝑝 𝑋𝑝𝑖 + 𝜀𝑡
Contrastes de Incorrelación o Ausencia de Correlación Serial
Para detectar la autocorrelación se pueden utilizar métodos gráficos y contrastes de hipótesis. Con
frecuencia un examen visual de las perturbaciones nos permitirá conocer la presencia de la
autocorrelación. Aunque es una forma subjetiva de probar la existencia de la autocorrelación, existen
pruebas formales para detectarla.
El Contraste de Durbin Watson (DW) es uno de los contrastes más conocido para detectar la
existencia de autocorrelación serial. El planteo de hipótesis es el siguiente,
𝐻0 : 𝑁𝑜 𝑒𝑥𝑖𝑠𝑡𝑒 𝑎𝑢𝑡𝑜𝑐𝑜𝑟𝑟𝑒𝑙𝑎𝑐𝑖ó𝑛 𝑠𝑒𝑟𝑖𝑎𝑙
𝐻1 : 𝐸𝑥𝑖𝑠𝑡𝑒 𝑎𝑢𝑡𝑜𝑐𝑜𝑟𝑟𝑒𝑙𝑎𝑐𝑖ó𝑛 𝑠𝑒𝑟𝑖𝑎𝑙
El Estadístico de Prueba se puede expresar de la siguiente manera,
∑𝑛𝑡=2(𝜖̂𝑡 − 𝜖̂𝑡−1 ) ∑𝑛𝑡=2 𝜖̂𝑡2 + ∑𝑛𝑡=2 𝜖̂𝑡−1
2
+ 2 ∑𝑛𝑡=2 𝜖̂𝑡 𝜖̂𝑡−1
𝐷𝑊 = =
∑𝑛𝑡=1 𝜖̂𝑡2 ∑𝑛𝑡=1 𝜖̂𝑡2
Para muestras grandes se puede considerar que las sumatorias de los residuos del modelo en el
periodo 𝑡 y en 𝑡 − 1 son casi iguales. De este modo, el estadístico de DW puede expresase de la
siguiente forma,
2 ∑𝑛𝑡=2 𝜖̂𝑡2 − 2 ∑𝑛𝑡=2 𝜖̂𝑡 𝜖̂𝑡−1
𝐷𝑊 ≅ = 2(1 − 𝜌̂)
∑𝑛𝑡=1 𝜖̂𝑡2
Donde 𝜌̂ denota el coeficiente de correlación lineal muestral de orden 1. El Estadístico asumirá
distintos valores y se puede comprobar la existencia de la autocorrelación serial de primer orden,
Si 𝜌̂ = −1 ⟹ 𝐷𝑊 ≅ 4 ⟹ 𝐸𝑥𝑖𝑠𝑡𝑒 𝑎𝑢𝑡𝑜𝑐𝑜𝑟𝑟𝑒𝑙𝑎𝑐𝑖ó𝑛 𝑛𝑒𝑔𝑎𝑡𝑖𝑣𝑎
17
Estadística Actuarial (751)
Cátedra: Landro
Curso: Landro – Del Rosso
1er Cuatrimestre de 2017
Si 𝜌̂ = 0 ⟹ 𝐷𝑊 ≅ 2 ⟹ 𝑁𝑜 𝑒𝑥𝑖𝑠𝑡𝑒 𝑎𝑢𝑡𝑜𝑐𝑜𝑟𝑟𝑒𝑙𝑎𝑐𝑖ó𝑛 𝑠𝑒𝑟𝑖𝑎𝑙
Si 𝜌̂ = 1 ⟹ 𝐷𝑊 ≅ 0 ⟹ 𝐸𝑥𝑖𝑠𝑡𝑒 𝑎𝑢𝑡𝑜𝑐𝑜𝑟𝑟𝑒𝑙𝑎𝑐𝑖ó𝑛 𝑝𝑜𝑠𝑖𝑡𝑖𝑣𝑎
Los criterios de rechazo y de indecisión de la Hipótesis Nula son,
Si 𝐷𝑊 < 𝐷𝑊𝐿 ⟹ 𝐸𝑥𝑖𝑠𝑡𝑒 𝑒𝑣𝑖𝑑𝑒𝑛𝑐𝑖𝑎 𝑑𝑒 𝑎𝑢𝑡𝑜𝑐𝑜𝑟𝑟𝑒𝑙𝑎𝑐𝑖ó𝑛 𝑠𝑒𝑟𝑖𝑎𝑙 𝑝𝑜𝑠𝑖𝑡𝑖𝑣𝑎
Si 𝐷𝑊 > 4 − 𝐷𝑊𝐿 ⟹ 𝐸𝑥𝑖𝑠𝑡𝑒 𝑒𝑣𝑖𝑑𝑒𝑛𝑐𝑖𝑎 𝑑𝑒 𝑎𝑢𝑡𝑜𝑐𝑜𝑟𝑟𝑒𝑙𝑎𝑐𝑖ó𝑛 𝑠𝑒𝑟𝑖𝑎𝑙 𝑛𝑒𝑔𝑎𝑡𝑖𝑣𝑎
Si 𝐷𝑊𝑈 < 𝐷𝑊 < 4 − 𝐷𝑊𝑈 ⟹ 𝑁𝑜 ℎ𝑎𝑦 𝑒𝑣𝑖𝑑𝑒𝑛𝑐𝑖𝑎 𝑑𝑒 𝑎𝑢𝑡𝑜𝑐𝑜𝑟𝑟𝑒𝑙𝑎𝑐𝑖ó𝑛
Si 𝐷𝑊𝐿 < 𝐷𝑊 < 𝐷𝑊𝑈 ⟹ 𝐿𝑎 𝑝𝑟𝑢𝑒𝑏𝑎 𝑛𝑜 𝑒𝑠 𝑐𝑜𝑛𝑐𝑙𝑢𝑦𝑒𝑛𝑡𝑒
Si 4 − 𝐷𝑊𝑈 < 𝐷𝑊 < 4 − 𝐷𝑊𝐿 ⟹ 𝐿𝑎 𝑝𝑟𝑢𝑒𝑏𝑎 𝑛𝑜 𝑒𝑠 𝑐𝑜𝑛𝑐𝑙𝑢𝑦𝑒𝑛𝑡𝑒
A pesar de ser la prueba más conocida y más utilizada para detectar la autocorrelación, sólo permite
detectar la autocorrelación serial de primer orden y carece de interpretación cuando incluimos
rezagos dentro del modelo, además no permite obtener conclusiones en las regiones de indecisión.
El Contraste de Breusch-Godfrey (BG) determina si existe o no autocorrelación de orden superior
a uno y consiste en estimar una regresión auxiliar mediante el Método de Mínimos Cuadrados
Ordinarios (MCO) y efectuar una prueba de hipótesis sobre los parámetros de esta regresión.
Supongamos que se estima el siguiente modelo, 𝑌𝑡 = 𝑋𝑡 𝐵 + 𝜖𝑡
La regresión auxiliar para el contraste de autocorrelación hasta de orden p en los residuos tiene la
𝑝
siguiente forma, 𝜖𝑡 = 𝑋𝑡 𝜃 + ∑𝑗=1 𝜖𝑡−𝑗 + 𝑣𝑡
Donde el estadístico 𝐿𝑀 = 𝑛 ∗ 𝑅2 (𝑛 → ∞) ~ 𝜒𝑝2 y el P-Valor se calcula de la siguiente manera,
𝑃 − 𝑉𝑎𝑙𝑜𝑟 = 𝑃(𝜒𝑝2 ≥ 𝐿𝑀)
Las ventajas de la prueba Breusch-Godfrey son las siguientes,
i) Implementación relativamente fácil
ii) se puede generalizar para detectar autocorrelación de orden superior
iii) la distribución asintótica del estadístico LM para la prueba de autocorrelación hasta de
orden p tiene una Distribución 𝜒𝑝2
18