DOCTORADO EN GESTIÓN DE LAS
ORGANIZACIONES
Resumen “Capitulo 3, Método de mínimos
cuadrados ordinarios (MCO)”
PRESENTA:
JOSÉ RAMÓN LÓPEZ ARELLANO
24 DE NOVIEMBRE DE 2017
1
24 DE NOVIEMBRE DE 2017
Tabla de Contenido
MÉTODO DE MÍNIMOS CUADRADOS ORDINARIOS (MCO) 3
MODELO CLÁSICO DE REGRESIÓN LINEAL: FUNDAMENTOS DEL MÉTODO DE MÍNIMOS
CUADRADOS 3
SUPUESTO 1: MODELO DE REGRESIÓN LINEAL 3
SUPUESTO 2: VALORES FIJOS DE X, O VALORES DE X INDEPENDIENTES DEL TÉRMINO DE ERROR 3
SUPUESTO 3: EL VALOR MEDIO DE LA PERTURBACIÓN UI ES IGUAL A CERO 3
SUPUESTO 4: HOMOSCEDASTICIDAD O VARIANZA CONSTANTE DE UI 3
SUPUESTO 5: NO HAY AUTOCORRELACIÓN ENTRE LAS PERTURBACIONES 4
SUPUESTO 6: EL NÚMERO DE OBSERVACIONES N DEBE SER MAYOR QUE EL NÚMERO DE PARÁMETROS POR ESTIMAR
4
SUPUESTO 7: LA NATURALEZA DE LAS VARIABLES X 4
PRECISIÓN O ERRORES ESTÁNDAR DE LAS ESTIMACIONES DE MÍNIMOS CUADRADOS 5
PROPIEDADES DE LOS ESTIMADORES DE MÍNIMOS CUADRADOS: TEOREMA DE GAUSS-MARKOV
5
COEFICIENTE DE DETERMINACIÓN R²: UNA MEDIDA DE LA “BONDAD DEL AJUSTE” 6
MAPA MENTAL 7
REFERENCIAS 8
2
Método de mínimos cuadrados ordinarios (MCO)
El método de mínimos cuadrados ordinarios se atribuye a Carl Friedrich Gauss,
matemático alemán. A partir de ciertos supuestos, el método de mínimos cuadrados
presenta propiedades estadísticas muy atractivas que lo han convertido en uno de
los más eficaces y populares del análisis de regresión.
Modelo clásico de regresión lineal: fundamentos del método de
mínimos cuadrados
El modelo de Gauss, modelo clásico o estándar de regresión lineal (MCRL), es el
cimiento de la mayor parte de la teoría econométrica y plantea siete supuestos.
Supuesto 1: Modelo de regresión lineal
El modelo de regresión es lineal en los parámetros, aunque puede o no ser lineal
en las variables. Es decir, el modelo de regresión como se muestra en la ecuación.
Yi = β1 + β2 Xi + ui
Supuesto 2: Valores fijos de X, o valores de X independientes del término de error
Los valores que toma la regresora X pueden considerarse fijos en muestras
repetidas (el caso de la regresora fija), o haber sido muestreados junto con la
variable dependiente Y (el caso de la regresora estocástica). En el segundo caso
se supone que la(s) variable(s) X y el término de error son independientes.
Supuesto 3: El valor medio de la perturbación ui es igual a cero
Dado el valor de Xi, la media o el valor esperado del término de perturbación
aleatoria ui es cero.
Supuesto 4: Homoscedasticidad o varianza constante de ui
La varianza del término de error, o de perturbación, es la misma sin importar el valor
de X.
3
Supuesto 5: No hay autocorrelación entre las perturbaciones
Dados dos valores cualesquiera de X, Xi y Xj (i ≠ j ), la correlación entre dos ui y uj
cualesquiera (i ≠ j ) es cero. En pocas palabras, estas observaciones se muestrean
de manera independiente.
No obstante, debe añadirse aquí que la justificación de este supuesto depende del
tipo de datos para el análisis. Si los datos son transversales y se obtienen como
muestra aleatoria de la población pertinente, a menudo es posible justificar este
supuesto. Sin embargo, si los datos corresponden a una serie de tiempo, es difícil
mantener el supuesto de independencia, porque las observaciones sucesivas de
una serie de tiempo, como el PIB, están muy correlacionadas.
Supuesto 6: El número de observaciones n debe ser mayor que el número de
parámetros por estimar
De esta sola observación no hay forma de estimar los dos parámetros
desconocidos, β1 y β2. Se necesitan por lo menos dos pares de observaciones para
estimar dichos parámetros.
Supuesto 7: La naturaleza de las variables X
No todos los valores X en una muestra determinada deben ser iguales.
Técnicamente, var(X) debe ser un número positivo. Además, no puede haber
valores atípicos de la variable X, es decir, valores muy grandes en relación con el
resto de las observaciones.
El requisito de que no existan valores atípicos de X es para evitar que los resultados
de la regresión estén dominados por tales valores atípicos. Si hay algunos valores
de X que, por ejemplo, sean 20 veces el promedio de los valores de X, las líneas de
regresión estimadas con o sin dichas observaciones serían muy diferentes. Con
mucha frecuencia, estos valores atípicos son el resultado de errores humanos de
aritmética o de mezclar muestras de diferentes poblaciones.
4
Precisión o errores estándar de las estimaciones de mínimos
cuadrados
Es evidente que las estimaciones de mínimos cuadrados son función de los datos
muestrales. Pero, como es probable que los datos cambien entre una muestra y
otra, los valores estimados cambiarán ipso facto. Por consiguiente, se requiere
alguna medida de “confiabilidad” o precisión de los estimadores βˆ1 y βˆ2. En
estadística, la precisión de un valor estimado se mide por su error estándar (ee).
Propiedades de los estimadores de mínimos cuadrados: teorema de
Gauss-Markov
Dados los supuestos del modelo clásico de regresión lineal, las estimaciones de
mínimos cuadrados poseen algunas propiedades ideales u óptimas, las cuales
están contenidas en el famoso teorema de Gauss-Markov. Para entender este
teorema necesitamos considerar la propiedad del mejor estimador lineal insesgado.
Un estimador lineal insesgado es el mejor si se cumple con lo siguiente:
1. Es lineal, es decir, función lineal de una variable aleatoria.
2. Es insesgado, es decir, su valor promedio o esperado.
3. Tiene varianza mínima dentro de la clase de todos los estimadores lineales
insesgados; un estimador insesgado con varianza mínima se conoce como
estimador eficiente.
En el contexto de regresión puede probarse que los estimadores de MCO son MELI.
Ésta es la clave del famoso teorema de Gauss-Markov, el cual se puede enunciar
de la siguiente forma:
Dados los supuestos del modelo clásico de regresión lineal, los estimadores
de mínimos cuadrados, dentro de la clase de estimadores lineales
insesgados, tienen varianza mínima, es decir, son MELI.
5
Coeficiente de determinación r²: una medida de la “bondad del
ajuste”
Nuestro análisis se centró en el problema de estimar los coeficientes de regresión,
sus errores estándar y algunas de sus propiedades. Veremos ahora la bondad del
ajuste de la línea de regresión a un conjunto de datos; es decir, veremos cuán “bien”
se ajusta la línea de regresión a los datos. El coeficiente de determinación r² (caso
de dos variables) o R² (regresión múltiple) es una medida comprendida que dice
cuán bien se ajusta la línea de regresión muestral a los datos.
6
Mapa Mental
7
Referencias
Gujarati, D. (2010). Econometría, Capitulo 3, Mcgraw-Hill Interamericana.