ECONOMETRIA
Segunda edición
D a m o d a r N . G u ja ra ti
Bernard M. Baruch College
City University o f New York
Traducción
Victor Manuel Mayorga Torrado
M.s. en Economía
University o f Nevada
Catedrático
Universidad Colegio Mayor
de Nuestra Señora del Rosario
Con la colaboración de Orion Traducciones L tda.
SALA DE LECTURA
McGRAW-HILL
MÉXICO • BUENOS AIRES • CARACAS • GUATEMALA
LISBOA • MADRID • NUEVA YORK • PANAMÁ • SAN JUAN
SANTAFÉ DE BOGOTÁ • SANTIAGO • SÄO PAULO
AUCKLAND • HAMBURGO • LONDRES • MILÁN • MONTREAL
NUEVA DELHI • PARÍS • SAN FRANCISCO • SINGAPUR
ST. LOUIS • SIDNEY • TOKIO • TORONTO
CONTENIDO
Introducción 1
Parte I Modelos uniecuacionales de regresión 11
1 La naturaleza del análisis de regresión 13
1.1 Origen histórico del término “regresión” 13
1.2 Interpretación moderna de la regresión 14
1.3 Relaciones estadísticas vs. relaciones determinísticas 18
1.4 Regresión vs. causación 19
1.5 Regresión vs. correlación 19
1.5 Terminología y notación 21
1.7 Naturaleza y fuentes de información para el análisiseconométrico 22.
Tipos de datos
Fuentes de datos
Exactitud de los datos
1.8 Resumen y conclusiones 25
Ejercicios 26
2 Modelos de regresión con dos variables:
algunas ideas básicas 28
2.1 Ejemplo hipotético 28
2.2 Concepto de la función de regresión poblacional(FRP) 31
2.3 Significado del término “lineal” 33
Linealidad en las variables
Linealidad en los parámetros
2.4 Especificación estocástica de la FRP 34
2.5 La significancia del término de “perturbación estocástica” 35
2.6 Función de regresión muestral (FRM) 37
2.7 Resumen y conclusiones 41
Ejercicios 42
3 El modelo de regresión con dos variables:
El problema de la estimación 47
3.1 El método de mínimos cuadrados ordinarios 47
Principio de los mínimos cuadrados
3.2 El modelo de regresión lineal clásico: Supuestos fundamentales del
método de mínimos cuadrados ordinarios 54
3.3 Errores de precisión o errores estándar de los estimadores de mínimos
cuadrados ordinarios 63
3.4 Propiedades de los estimadores de mínimos cuadrados: El teorema
de Gauss-Markov 65
3.5 Coeficiente de determinación r2: Medida de la “bondad delajuste” 67
3.6 Un ejemplo numérico 73
3.7 Un ejemplo ilustrativo: La demanda de café en los Estados Unidos 75
3.8 Listado de computador para la función de demanda de café 77
3.9 Resumen y conclusiones 77
Ejercicios 79
Apéndice 3A 84
3A.1 Derivación de los estimadores de mínimos cuadrados 84
3A.2 Las propiedades de linealidad e insesgamiento de los
estimadores de mínimos cuadrados ordinarios 84
3A.3 Varianzas y errores estándar de los estimadores mínimos
cuadrados ordinarios 85
3A.4 El estimador de mínimos cuadrados para o2 86
3A.5 La propiedad de la varianza mínima de los estimadores con
mínimos cuadrados 87
3A.6 Listado SAS para la función de demanda de café (3.7.1) 89
4 El supuesto de normalidad: El modelo clásico
de regresión lineal normal 91
4.1 La distribución probabilística de las perturbaciones ju,- 91
4.2 El supuesto de normalidad 92
4.3 Propiedades de los estimadores de MCO bajo el supuesto de
normalidad 94
4.4 El método de máxima verosimilitud (MV) 97
4.5 Resumen y conclusiones 97
Apéndice 4A 98
Estimación utilizando el método de máxima verosimilitud para un
modelo de regresión con dos variables 98
Ejercicios* del Apéndice 4A* 101
5 Regresión con dos variables: Estimación por intervalos
y prueba de hipótesis 102
5.1 Estimación por intervalos: Algunos conceptos básicos 102
5.2 Distribuciones normal t, X 7 y F: Breve exposición 104
5.3 Intervalos de confianza para los coeficientes de regresión /3Xy j32 106
Intervalo de confianza para j32
Intervalo de confianza para j3x
Intervalo de confianza para (3x y |32 simultáneamente
5.4 Intervalo de confianza para a2 109
5.5 Prueba de hipótesis: Comentarios generales 110
5.6 Prueba de hipótesis: El enfoque del intervalo de confianza 111
6A.1 Derivación de los estimadores con el método mínimos
cuadrados para la regresión a través del origen 168
6A.2 Listado SAS para la línea característica (6.1.11) 170
6A.3 Listado SAS para la regresión de la curva de Phillips, para
el Reino Unido (6.3.13) 171
7 Enfoque matricial para el modelo
de regresión lineal 172
7.1 El modelo de regresión lineal con k variables 173
7.2 Supuestos del modelo clásico de regresión utilizando notación
matricial 175
7.3 Estimaciones utilizando MCO 177
Ilustración
Matriz de varianza-covarianza para 0
Propiedades del vector $ de MCO
7.4 El coeficiente de determinación/?2 y el coeficiente de determinación
ajustado R 2 es la notación matricial 182
7.5 La matriz de correlación 184
7.6 Pruebas de hipótesis con respecto a los coeficientes individuales
de regresión en notación matricial 185
7.7 Pruebas de significancia global de la regresión: Análisis de varianza
en notación matricial 186
7.8 Prueba de restricciones lineales: Pruebas generales F utilizando
notación matricial 187
7.9 Predicción utilizando regresión múltiple: Formulación matricial 187
Predicción media
Predicción individual
Varianza y predicción media
Varianza de la predicción media
Varianza de la predicción individual
7.10 Resumen del enfoque matricial: Ejemplo ilustrativo 192
7.11 Resumen y conclusiones 197
Ejercicios 198
Apéndice 7A 204
7A.1 Derivación de las A ecuaciones normales o simultáneas 204
7A.2 Derivación matricial de las ecuaciones normales 205
7A.3 Matriz de varianza-covarianza de fj 205
7A.4 Propiedad MELI de los estimadores de MCO 206
Parte II Violación de los supuestos del modelo clásico 209
8 Multicolinealidad 213
8.1 Naturaleza de la multicolinealidad 213
8.2 Estimación en el caso demulticolinealidad perfecta 216
8.3 Estimación en el caso de “ alta” multicolinealidad pero
“imperfecta” 218
8.4 Multicolinealidad: Consecuencias teóricas de la multicolinealidad 219
8.5 Consecuencias prácticas de la multicolinealidad 221
Varianzas y covarianzas amplias de los estimadores de MCO
Intervalos de confianza más amplios
Razones t “no significativas”
Un alto R 2 pero pocas razones t significativas
Sensibilidad de los estimadores de MCO y sus errores estándar
ante pequeños cambios en los datos
8.6 Ejemplo ilustrativo: gastos de consumo en relación con ingreso y
la riqueza 226
8.7 Cómo detectar la multicolinealidad 229
8.8 Medidas remediales 233
8.9 ¿Es la multicolinealidad necesariamente mala? tal vez no, si el
objetivo es únicamente la predicción 239
8.10 Resumen y conclusiones 240
Ejercicios 241
9 Heterocedasticidad 247
9.1 Naturaleza de la heterocedasticidad 247
9.2 La estimación con MCO en presencia de heterocedasticidad 252
9.3 El método de los mínimos cuadrados generalizados (MCG) 253
Diferencia entre MCO y MCG
9.4 Consecuencias de utilizar MCO ante presencia de heterocedasticidad 256
Estimación con MCO permitiendo heteroscedasticidad
Estimación con MCO sin tener en cuenta la presencia de
heterocedasticidad 257
9.5 Cómo detectar la heterocedasticidad 258
Ejemplo ilustrativo
9.6 Medidas remediales 269
Cuando se conoce a¡ : el método de los mínimos cuadrados
ponderados
Cuando no se conoce óf
9.7 Resumen y conclusiones 274
Ejercicios 276
Apéndice 9A
9A.1 Prueba de la ecuación (9.2.2) 285
9A.2 Método de mínimos cuadrados ponderados 285
10 Autocorrelación 287
10.1 Naturaleza del problema 287
10.2 Estimación de MCO en presencia de autocorrelación 294
10.3 El MELI en presencia de autocorrelación 297
10.4 Consecuencias de utilizar MCO en presencia de autocorrelación 298
Estimación de MCO permitiendo la autocorrelación
Estimación de MCO sin tener en cuenta la autocorrelación
10.5 Cómo detectar la autocorrelación 304
10.6 Medidas remediales 316
Cuando se conoce la estructura de la autocorrelación
Cuando p no se conoce
Ejemplo ilustrativo: La relación entre el índice de vacantes de empleos
y la tasa de desempleo en los Estados Unidos comparación de los
métodos 323
Resumen y conclusiones 326
Ejercicios 327
Especificación del modelo 336
Atributos de un buen modelo 337
Tipos de errores de especificación 339
Consecuencias de los errores de especificación 341
Omisión de una variable relevante
Inclusión de una variable irrelevante
Pruebas de errores de especificación 343
Cómo detectar la presencia de variables innecesarias
Pruebas de variables omitidas y de la forma funcional incorrecta
Otras pruebas de error de especificación
Pruebas para detectar errores de especificación de un modelo 350
Ejemplo ilustrativo: el modelo de San Luis
Errores de medición 352
Errores de medición en la variable dependiente Y
Errores de medición en la variable explicativa X
Un ejemplo
Resumen y conclusiones 358
Ejercicios 359
Apéndice 11A 363
11 A .l Consecuencias de incluir una variable irrelevante:
la propiedad de insesgamiento 363
11A.2 Prueba de la ecuación (11.6.10) 363
Temas en econometria 365
Regresión con una variable dicotòmica 367
Naturaleza de las variables dicotómicas 367
Ejemplo 12.1: Los salarios de los profesores según el sexo 369
Regresión con una variable independiente cuantitativa y una
cualitativa con dos clases o categorías 370
Ejemplo 12.2: ¿Son los inventarios sensibles a las tasas de interés?
Regresión en una variable independiente cuantitativa y una variable
cualitativa con más de dos clases 374
Regresión en una variable independiente cuantitativa y dos
cualitativas 376
Generalización
Ejemplo 12.3: La economía del “ doble empleo” 377
Comparación de dos regresiones: Ideas básicas 379
Ejemplo 12.4: Ahorros e ingresos, Reino Unido, 1946-1963 379
Comparación de dos regresiones: Prueba de Chow 381
Comparación de dos regresiones: Enfoque de la variable dicotòmica 384
12.9 Comapración de dos regresiones: Ilustración adicional 386
Ejemplo 12.5: El comportamiento del desempleo y de las
vacantes sin llenar: Gran Bretaña, 1958-1971
12.10 Efectos de interacción 388
12.11 El uso de las variables dicotómicas en el análisis estacional 389
Ejemplo 12.6: Comportamiento de las ganancias-ventas en la
industria manufacturera en los Estados Unidos
12.12 Regresión discotinua o lineal por etapas o tramos 392
12.13 Resumen y conclusiones 394
Ejercicios 395
Apéndice 12A 403
12A.1 Matriz de datos para la regresión (12.9.2) 403
12A.2 Matriz de datos para la regresión (12.11.2) 404
13 Regresión en una variable dependiente dicotòmica:
Los modelos MPL, Logit y Probit 405
13.1 Variable dependiente dicotòmica 405
13.2 El modelo de probabilidad lineal (MPL) 406
13.3 Estimación de los MPL 407
13.4 MPL: Ejemplo numérico 411
13.5 Aplicaciones del MPL 413
13.6 Alternativas al MPL 418
13.7 El modelo Logit 420
13.8 Estimación del modelo Logit 422
13.9 El modelo Logit: Un ejemplo numérico 425
13.10 El modelo Logit: Ejemplos ilustrativos 428
13.11 El modelo Probit 430
13.12 El modelo Probit: Ejemplo numérico 434
Logit vs. Probit
13.13 El modelo Probit: Ejemplo ilustrativo 436
13.14 Resumen y conclusiones 439
Ejercicios 440
14 Modelos autorregresivos y rezagos distribuidos 445
14.1 El papel del “ tiempo” o “rezagos” en la economía 446
14.2 Razones que explican los rezagos 450
14.3 Estimación de los modelos de rezagos distribuidos 452
Estimación A d hoc de los modelos de rezagos distribuidos
14.4 El enfoque de Koyck para los modelos de rezagos distribuidos 453
Media y mediana de los rezagos
14.5 Racionalización del modelo de Koyck: El modelo de expectativas
adaptables 457
14.6 Otra racionalización del modelo Koyck: El modelo de ajuste de
existencias o ajuste parcial 460
14.7 Combinación de los modelos de esperanzas adaptables y de ajuste
parcial 463
14.8 Estimación de los modelos autorregresivos 464
14.9 Método de variables instrumentales (VI) 466
14.10 Cómo detectar autocorrelacíón en los modelos autorregresivos:
Prueba h de Durbin 467
14.11 Ejemplo numérico: La demanda de dinero en la India 470
14.12 Ejemplos ilustrativos 472
14.13 El enfoque de Almon a los modelos de rezagos distribuidos:
El modelo de rezagos polimoniales de Almon 477
Ejemplo numérico
14.14 Causalidad en economía: La prueba de Granger 484
La prueba de Granger
Resultados empíricos
14.15 Resumen y conclusiones 486
Ejercicios 489
Parte IV Modelos de ecuaciones simultáneas 497
15 Modelos de ecuaciones simultáneas 499
15.1 Naturaleza de los modelos de ecuaciones simultáneas 499
15.2 Ejemplos de modelos de ecuaciones simultáneas 500
15.3 El sesgo en las ecuaciones simultáneas: Inconsistencia de los
estimadores de MCO 507
15.4 El sesgo en los modelos de ecuaciones simultáneas: Ejemplo
numérico 510
15.5 Resumen y conclusiones 512
Ejercicios 512
16 El problema de la identificación 517
16.1 Notación y definiciones 517
16.2 El problema de la identificación 521
Subidentificación
Identificación justa o exacta
Sobreidentificación
16.3 Reglas para la identificación de un modelo 530
La condición de orden de identificabilidad
La condición de rango de identificabilidad
16.4 Resumen y conclusiones 535
Ejercicios 536
17 Métodos de ecuaciones simultáneas 539
17.1 Enfoque para la estimación de un modelo 539
17.2 Modelos recursivos y el método de mínimos cuadrados ordinarios 541
17.3 Estimación de una ecuación exactamente identificada: El método
de mínimos cuadrados indirectos 544
Propiedades de los estimadores con el método de MCI
17.4 Estimación de una ecuación sobreidentificada: El método de
mínimos cuadrados en dos etapas. (MC2E) 548
Características sobresalientes de los estimadores con el método
de MC2E
17.5 MC2E: ejemplo numérico 553
17.6 Ejemplos ilustrativos 555
17.7 Resumen y conclusiones 561
Ejercicios 562
Apéndice 17 565
17A. 1 El sesgo de los estimadores de mínimos cuadrados indirectos 565
17A.2 Estimación de los errores estándar de los estimadores
de MC2E 566
Apéndices
A Lista de algunos paquetes estadísticos de computador 568
B Tablas estadísticas 571
Tabla B. 1 Areas bajo la distribución normal estandarizada
Tabla B.2 Puntos porcentuales de la distribución t
Tabla B.3 Puntos porcentuales superiores de la distribución F
Tabla B.4 Puntos porcentuales superiores de la distribución x 2
Tabla B.5 Estadística d de Durbin-Watson: Puntos de significancia
dL y d v a niveles de significancia de 0.05 y 0.01
Tabla B.6 Valores críticos para diferentes rachas en la prueba de
rachas
Bibliografía 588
Indice 591