0% encontró este documento útil (0 votos)
24 vistas18 páginas

Universidad Nacional de San Agustín de Arequipa: Facultad de Economía

Cargado por

lpayea
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
24 vistas18 páginas

Universidad Nacional de San Agustín de Arequipa: Facultad de Economía

Cargado por

lpayea
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

Universidad Nacional de San Agustín de Arequipa

Facultad de Economía
Escuela Profesional de Economía
Departamento Académico de Economía

Asignatura
Econometría 1

Guía de práctica
Modelo de regresión polinomial de grado 3:
modelo de regresión cúbica

Carlos Pedro Vera Ninacondor

Arequipa–Perú
2020
Carlos Pedro Vera Ninacondor

Contenido

1. Modelo de regresión cúbica


1.1. Modelo de regresión poblacional cúbica
1.2. Modelo de regresión muestral cúbica
1.3. Estimación de los coeficientes de la función de regresión poblacional cúbica
1.4. Función de regresión muestral MCO
1.5. Error de predicción MCO
1.6. Caso resuelto
1.6.1. Datos
1.6.2. Especificación del modelo de regresión poblacional cúbica
1.6.3. Especificación del modelo de regresión muestral cúbica
1.6.4. Construcción de la matriz de sumas
1.6.5. Cálculo de los estimadores MCO de los coeficientes 𝛽0 , 𝛽1 y 𝛽2 de la función de
regresión poblacional
1.6.6. Estimación de la función de regresión muestral MCO
1.6.7. Predicción MCO de la variable dependiente dado un valor de la variable
independiente
1.6.8. Estimación de los residuos MCO

Bibliografía

2
Carlos Pedro Vera Ninacondor

1. Modelo de regresión cúbica


El modelo de regresión cúbica, es el modelo de regresión que relaciona una variable
dependiente cuantitativa (𝑌𝑖 ) con una variable independiente (𝑋𝑖 ), y, con el cuadrado y el
cubo de la misma variable independiente (𝑋𝑖2 𝑦 𝑋𝑖3 ).
1.1. Modelo de regresión poblacional cúbica
El modelo de regresión poblacional cúbica (Stock y Watson, 2012, p. 188) puede expresarse
como,
𝑌𝑖 = 𝛽0 + 𝛽1 𝑋𝑖 + 𝛽2 𝑋𝑖2 + 𝛽3 𝑋𝑖3 + 𝑢𝑖
Donde
𝑖 es el subíndice que toma valores de 1 hasta 𝑁.
𝑁 es el número de observaciones en la población.
𝑌 es la variable dependiente (o el regresando).
𝑋 es la variable independiente (o el regresor uno).
𝑋 2 es el cuadrado de la variable independiente (o el regresor dos).
𝑋 3 es el cubo de la variable independiente (o el regresor tres).
𝑌𝑖 es el valor de la observación i-ésima de 𝑌 en la población.
𝑋𝑖 es el valor de la observación i-ésima de 𝑋 en la población.
𝑋𝑖2 es el cuadrado del valor de la observación i-ésima de 𝑋 en la población.
𝑋𝑖3 es el cubo del valor de la observación i-ésima de 𝑋 en la población
𝛽0 + 𝛽1 𝑋1𝑖 + 𝛽2 𝑋𝑖2 + 𝛽3 𝑋𝑖3 es la función de regresión poblacional cúbica.
𝛽0 , 𝛽1 , 𝛽2 y 𝛽3 son los coeficientes de la función de regresión poblacional cúbica, que
se denominan parámetros.
𝛽0 es el intercepto, término independiente o término constante, de la función de
regresión poblacional cúbica, el cual es desconocido.
𝛽1 es el coeficiente de 𝑋𝑖 de la función de regresión poblacional cúbica, el cual es
desconocido.
𝛽2 es el coeficiente de 𝑋𝑖2 de la función de regresión poblacional cúbica, el cual es
desconocido.

3
Carlos Pedro Vera Ninacondor

𝛽3 es el coeficiente de 𝑋𝑖3 de la función de regresión poblacional cúbica, el cual es


desconocido.
𝑢𝑖 es el término de error, el cual es desconocido, “es una variable aleatoria no
observable que adopta valores positivos o negativos” (Gujarati y Porter, 2010, p. 40).
Interpretación
En los modelos no lineales (con respecto de las 𝑋) la función de regresión se interpreta
mejor mediante su representación gráfica y mediante el cálculo del efecto esperado
sobre 𝑌 de la variación de una o más variables independientes (Stock y Watson, 2012,
p. 187).
1.2. Modelo de regresión muestral cúbica
El modelo de regresión muestral cúbica (Stock y Watson, 2012, p. 188) puede expresarse
como,
𝑌𝑖 = 𝛽̂0 + 𝛽̂1 𝑋𝑖 + 𝛽̂2 𝑋𝑖2 + 𝛽̂3 𝑋𝑖3 + 𝑢̂𝑖
Donde
𝑖 es el subíndice que toma valores de 1 hasta 𝑛.
𝑛 es el número de observaciones en la muestra.
𝑌 es la variab|le dependiente (o el regresando).
𝑌𝑖 es el valor de la observación i-ésima de 𝑌 en la muestra.
𝑋 es la variable independiente (o el regresor uno).
𝑋𝑖 es el valor de la observación i-ésima de 𝑋 en la muestra.
𝑋 2 es el cuadrado de la variable independiente 𝑋 (o el regresor dos).
𝑋𝑖2 es el cuadrado del valor de la observación i-ésima de 𝑋 en la muestra.
𝑋 3 es el cubo de la variable independiente 𝑋 (o el regresor tres).
𝑋𝑖3 es el cubo del valor de la observación i-ésima de 𝑋 en la muestra.
𝛽̂0 es el estimador del coeficiente 𝛽0 de la función de regresión poblacional cúbica.
𝛽̂1 es el estimador del coeficiente 𝛽1 de la función de regresión poblacional cúbica.
𝛽̂2 es el estimador del coeficiente 𝛽2 de la función de regresión poblacional cúbica.
𝛽̂3 es el estimador del coeficiente 𝛽3 de la función de regresión poblacional cúbica
𝑢̂𝑖 es el residuo, es el estimador del término de error 𝑢𝑖 .

4
Carlos Pedro Vera Ninacondor

1.3. Estimación de los coeficientes de la función de regresión poblacional cúbica


Para la estimación de los coeficientes de la función de regresión poblacional cúbica se utiliza
el método de mínimos cuadrados ordinarios.
Estimador de mínimos cuadrados ordinarios (MCO)
Iniciando con el modelo de regresión muestral cúbica
𝑌𝑖 = 𝛽̂0 + 𝛽̂1 𝑋𝑖 + 𝛽̂2 𝑋𝑖2 + 𝛽̂3 𝑋𝑖3 + 𝑢̂𝑖

Despejando 𝑢̂𝑖
𝛽̂0 + 𝛽̂1 𝑋𝑖 + 𝛽̂2 𝑋𝑖2 + 𝛽̂3 𝑋𝑖3 + 𝑢̂𝑖 = 𝑌𝑖
𝑢̂𝑖 = 𝑌𝑖 − 𝛽̂0 − 𝛽̂1 𝑋𝑖 − 𝛽̂2 𝑋𝑖2 − 𝛽̂3 𝑋𝑖3
Elevando al cuadrado ambos lados de la ecuación
2
𝑢̂𝑖2 = (𝑌𝑖 − 𝛽̂0 − 𝛽̂1 𝑋𝑖 − 𝛽̂2 𝑋𝑖2 − 𝛽̂3 𝑋𝑖3 )
Aplicando sumatorias a ambos lados de la ecuación
𝑛 𝑛
2
∑ 𝑢̂𝑖2 = ∑(𝑌𝑖 − 𝛽̂0 − 𝛽̂1 𝑋𝑖 − 𝛽̂2 𝑋𝑖2 − 𝛽̂3 𝑋𝑖3 )
𝑖=1 𝑖=1

El principio o método de mínimos cuadrados elige 𝛽̂0 , 𝛽̂1 , 𝛽̂2 y 𝛽̂3 de manera que, para una
muestra o conjunto de datos determinados, ∑ 𝑢̂𝑖2 es la más pequeña posible. En otras
palabras, para una muestra dada, proporciona valores estimados únicos de 𝛽̂0 , 𝛽̂1 , 𝛽̂2 y 𝛽̂3
que producen el valor más pequeño o reducido posible de ∑ 𝑢̂𝑖2 (Gujarati y Porter, 2010, p.
57).
Minimizando la suma de los residuos elevados al cuadrado
Calculando las derivadas parciales de primer orden de ∑ 𝑢̂𝑖2 respecto de β̂0, de 𝛽̂1 , de β̂2 y
de β̂3 se obtiene
𝑛 𝑛
𝜕(∑ 𝑢̂𝑖2 )
= 2 ∑(𝑌𝑖 − 𝛽̂0 − 𝛽̂1 𝑋𝑖 − 𝛽̂2 𝑋𝑖2 − 𝛽̂3 𝑋𝑖3 ) (−1) = −2 ∑(𝑌𝑖 − 𝛽̂0 − 𝛽̂1 𝑋𝑖 − 𝛽̂2 𝑋𝑖2 − 𝛽̂3 𝑋𝑖3 )
𝜕𝛽̂0 𝑖=1 𝑖=1
𝑛 𝑛
𝜕(∑ 𝑢̂𝑖2 )
= 2 ∑(𝑌𝑖 − 𝛽̂0 − 𝛽̂1 𝑋𝑖 − 𝛽̂2 𝑋𝑖2 − 𝛽̂3 𝑋𝑖3 ) (−𝑋𝑖 ) = −2 ∑(𝑌𝑖 − 𝛽̂0 − 𝛽̂1 𝑋𝑖 − 𝛽̂2 𝑋𝑖2 − 𝛽̂3 𝑋𝑖3 ) (𝑋𝑖 )
𝜕𝛽̂1 𝑖=1 𝑖=1
𝑛 𝑛
𝜕(∑ 𝑢̂𝑖2 )
= 2 ∑(𝑌𝑖 − 𝛽̂0 − 𝛽̂1 𝑋𝑖 − 𝛽̂2 𝑋𝑖2 − 𝛽̂3 𝑋𝑖3 ) (−𝑋𝑖2 ) = −2 ∑(𝑌𝑖 − 𝛽̂0 − 𝛽̂1 𝑋𝑖 − 𝛽̂2 𝑋𝑖2 − 𝛽̂3 𝑋𝑖3 ) (𝑋𝑖2 )
𝜕𝛽̂2 𝑖=1 𝑖=1

5
Carlos Pedro Vera Ninacondor

𝑛 𝑛
𝜕(∑ 𝑢̂𝑖2 )
= 2 ∑(𝑌𝑖 − 𝛽̂0 − 𝛽̂1 𝑋𝑖 − 𝛽̂2 𝑋𝑖2 − 𝛽̂3 𝑋𝑖3 ) (−𝑋𝑖3 ) = −2 ∑(𝑌𝑖 − 𝛽̂0 − 𝛽̂1 𝑋𝑖 − 𝛽̂2 𝑋𝑖2 − 𝛽̂3 𝑋𝑖3 ) (𝑋𝑖3 )
𝜕𝛽̂3 𝑖=1 𝑖=1

Seguidamente igualando a cero las derivadas parciales de primer orden, y luego resolviendo
el sistema de ecuaciones se obtienen los estimadores MCO de 𝛽0 , 𝛽1 , 𝛽2 y 𝛽3
Igualando a cero la derivada parcial de primer orden de ∑ 𝑢̂𝑖2 respecto de β̂0
𝑛

−2 ∑(𝑌𝑖 − 𝛽̂0 − 𝛽̂1 𝑋𝑖 − 𝛽̂2 𝑋𝑖2 − 𝛽̂3 𝑋𝑖3 ) = 0


𝑖=1

Despejando ∑ 𝑌𝑖
𝑛

∑(𝑌𝑖 − 𝛽̂0 − 𝛽̂1 𝑋𝑖 − 𝛽̂2 𝑋𝑖2 − 𝛽̂2 𝑋𝑖3 ) = 0


𝑖=1
𝑛 𝑛 𝑛 𝑛 𝑛

∑ 𝑌𝑖 − ∑ 𝛽̂0 − ∑ 𝛽̂1 𝑋𝑖 − ∑ 𝛽̂2 𝑋𝑖2 − ∑ 𝛽̂3 𝑋𝑖3 = 0


𝑖=1 𝑖=1 𝑖=1 𝑖=1 𝑖=1
𝑛 𝑛 𝑛 𝑛

∑ 𝑌𝑖 − 𝑛𝛽̂0 − 𝛽̂1 ∑ 𝑋𝑖 − 𝛽̂2 ∑ 𝑋𝑖2 − 𝛽̂3 ∑ 𝑋𝑖3 = 0


𝑖=1 𝑖=1 𝑖=1 𝑖=1
𝑛 𝑛 𝑛 𝑛

∑ 𝑌𝑖 = 𝑛𝛽̂0 + 𝛽̂1 ∑ 𝑋𝑖 + 𝛽̂2 ∑ 𝑋𝑖2 + 𝛽̂3 ∑ 𝑋𝑖3


𝑖=1 𝑖=1 𝑖=1 𝑖=1

Igualando a cero la derivada parcial de primer orden de ∑ 𝑢̂𝑖2 respecto de β̂1


𝑛

−2 ∑(𝑌𝑖 − 𝛽̂0 − 𝛽̂1 𝑋𝑖 − 𝛽̂2 𝑋𝑖2 − 𝛽̂3 𝑋𝑖3 ) (𝑋𝑖 ) = 0


𝑖=1

Despejando ∑ 𝑌𝑖 𝑋𝑖
𝑛

∑(𝑌𝑖 − 𝛽̂0 − 𝛽̂1 𝑋𝑖 − 𝛽̂2 𝑋𝑖2 − 𝛽̂3 𝑋𝑖3 )(𝑋𝑖 ) = 0


𝑖=1
𝑛

∑(𝑌𝑖 𝑋𝑖 − 𝛽̂0 𝑋𝑖 − 𝛽̂1 𝑋𝑖 𝑋𝑖 − 𝛽̂2 𝑋𝑖2 𝑋𝑖 − 𝛽̂3 𝑋𝑖3 𝑋𝑖 ) = 0


𝑖=1
𝑛

∑(𝑌𝑖 𝑋𝑖 − 𝛽̂0 𝑋𝑖 − 𝛽̂1 𝑋𝑖2 − 𝛽̂2 𝑋𝑖3 − 𝛽̂3 𝑋𝑖4 ) = 0


𝑖=1
𝑛 𝑛 𝑛 𝑛 𝑛

∑ 𝑌𝑖 𝑋𝑖 − ∑ 𝛽̂0 𝑋𝑖 − ∑ 𝛽̂1 𝑋𝑖2 − ∑ 𝛽̂2 𝑋𝑖3 − ∑ 𝛽̂3 𝑋𝑖4 = 0


𝑖=1 𝑖=1 𝑖=1 𝑖=1 𝑖=1

6
Carlos Pedro Vera Ninacondor

𝑛 𝑛 𝑛 𝑛 𝑛

∑ 𝑌𝑖 𝑋𝑖 − 𝛽̂0 ∑ 𝑋𝑖 − 𝛽̂1 ∑ 𝑋𝑖2 − 𝛽̂2 ∑ 𝑋𝑖3 − 𝛽̂3 ∑ 𝑋𝑖4 = 0


𝑖=1 𝑖=1 𝑖=1 𝑖=1 𝑖=1
𝑛 𝑛 𝑛 𝑛 𝑛

∑ 𝑌𝑖 𝑋𝑖 = 𝛽̂0 ∑ 𝑋𝑖 + 𝛽̂1 ∑ 𝑋𝑖2 + 𝛽̂2 ∑ 𝑋𝑖3 + 𝛽̂3 ∑ 𝑋𝑖4


𝑖=1 𝑖=1 𝑖=1 𝑖=1 𝑖=1

Igualando a cero la derivada parcial de primer orden de ∑ 𝑢̂𝑖2 respecto de β̂2


𝑛

−2 ∑(𝑌𝑖 − 𝛽̂0 − 𝛽̂1 𝑋𝑖 − 𝛽̂2 𝑋𝑖2 − 𝛽̂3 𝑋𝑖3 ) (𝑋𝑖2 ) = 0


𝑖=1

Despejando ∑ 𝑌𝑖 𝑋𝑖2
𝑛

∑(𝑌𝑖 − 𝛽̂0 − 𝛽̂1 𝑋𝑖 − 𝛽̂2 𝑋𝑖2 − 𝛽̂3 𝑋𝑖3 )(𝑋𝑖2 ) = 0


𝑖=1
𝑛

∑(𝑌𝑖 𝑋𝑖2 − 𝛽̂0 𝑋𝑖2 − 𝛽̂1 𝑋𝑖 𝑋𝑖2 − 𝛽̂2 𝑋𝑖2 𝑋𝑖2 − 𝛽̂3 𝑋𝑖3 𝑋𝑖2 ) = 0
𝑖=1
𝑛

∑(𝑌𝑖 𝑋𝑖2 − 𝛽̂0 𝑋𝑖2 − 𝛽̂1 𝑋𝑖3 − 𝛽̂2 𝑋𝑖4 − 𝛽̂3 𝑋𝑖5 ) = 0
𝑖=1
𝑛 𝑛 𝑛 𝑛 𝑛

∑ 𝑌𝑖 𝑋𝑖2 − ∑ 𝛽̂0 𝑋𝑖2 − ∑ 𝛽̂1 𝑋𝑖3 − ∑ 𝛽̂2 𝑋𝑖4 − ∑ 𝛽̂3 𝑋𝑖5 = 0


𝑖=1 𝑖=1 𝑖=1 𝑖=1 𝑖=1
𝑛 𝑛 𝑛 𝑛 𝑛

∑ 𝑌𝑖 𝑋𝑖2 − 𝛽̂0 ∑ 𝑋𝑖2 − 𝛽̂1 ∑ 𝑋𝑖3 − 𝛽̂2 ∑ 𝑋𝑖4 − 𝛽̂3 ∑ 𝑋𝑖5 = 0


𝑖=1 𝑖=1 𝑖=1 𝑖=1 𝑖=1
𝑛 𝑛 𝑛 𝑛 𝑛

∑ 𝑌𝑖 𝑋𝑖2 = 𝛽̂0 ∑ 𝑋𝑖2 + 𝛽̂1 ∑ 𝑋𝑖3 + 𝛽̂2 ∑ 𝑋𝑖4 + 𝛽̂3 ∑ 𝑋𝑖5


𝑖=1 𝑖=1 𝑖=1 𝑖=1 𝑖=1

Igualando a cero la derivada parcial de primer orden de ∑ 𝑢̂𝑖2 respecto de β̂3


𝑛

−2 ∑(𝑌𝑖 − 𝛽̂0 − 𝛽̂1 𝑋𝑖 − 𝛽̂2 𝑋𝑖2 − 𝛽̂3 𝑋𝑖3 ) (𝑋𝑖3 ) = 0


𝑖=1

Despejando ∑ 𝑌𝑖 𝑋𝑖3
𝑛

∑(𝑌𝑖 − 𝛽̂0 − 𝛽̂1 𝑋𝑖 − 𝛽̂2 𝑋𝑖2 − 𝛽̂3 𝑋𝑖3 )(𝑋𝑖3 ) = 0


𝑖=1
𝑛

∑(𝑌𝑖 𝑋𝑖3 − 𝛽̂0 𝑋𝑖3 − 𝛽̂1 𝑋𝑖 𝑋𝑖3 − 𝛽̂2 𝑋𝑖2 𝑋𝑖3 − 𝛽̂3 𝑋𝑖3 𝑋𝑖3 ) = 0
𝑖=1

7
Carlos Pedro Vera Ninacondor

∑(𝑌𝑖 𝑋𝑖3 − 𝛽̂0 𝑋𝑖3 − 𝛽̂1 𝑋𝑖4 − 𝛽̂2 𝑋𝑖5 − 𝛽̂3 𝑋𝑖6 ) = 0
𝑖=1
𝑛 𝑛 𝑛 𝑛 𝑛

∑ 𝑌𝑖 𝑋𝑖3 − ∑ 𝛽̂0 𝑋𝑖3 − ∑ 𝛽̂1 𝑋𝑖4 − ∑ 𝛽̂2 𝑋𝑖5 − ∑ 𝛽̂3 𝑋𝑖6 = 0


𝑖=1 𝑖=1 𝑖=1 𝑖=1 𝑖=1
𝑛 𝑛 𝑛 𝑛 𝑛

∑ 𝑌𝑖 𝑋𝑖3 − 𝛽̂0 ∑ 𝑋𝑖3 − 𝛽̂1 ∑ 𝑋𝑖4 − 𝛽̂2 ∑ 𝑋𝑖5 − 𝛽̂3 ∑ 𝑋𝑖6 = 0


𝑖=1 𝑖=1 𝑖=1 𝑖=1 𝑖=1
𝑛 𝑛 𝑛 𝑛 𝑛

∑ 𝑌𝑖 𝑋𝑖3 = 𝛽̂0 ∑ 𝑋𝑖3 + 𝛽̂1 ∑ 𝑋𝑖4 + 𝛽̂2 ∑ 𝑋𝑖5 + 𝛽̂3 ∑ 𝑋𝑖6


𝑖=1 𝑖=1 𝑖=1 𝑖=1 𝑖=1

Las ecuaciones siguientes son las ecuaciones normales


𝑛 𝑛 𝑛 𝑛

∑ 𝑌𝑖 = 𝑛𝛽̂0 + 𝛽̂1 ∑ 𝑋𝑖 + 𝛽̂2 ∑ 𝑋𝑖2 + 𝛽̂3 ∑ 𝑋𝑖3


𝑖=1 𝑖=1 𝑖=1 𝑖=1
𝑛 𝑛 𝑛 𝑛 𝑛

∑ 𝑌𝑖 𝑋𝑖 = 𝛽̂0 ∑ 𝑋𝑖 + 𝛽̂1 ∑ 𝑋𝑖2 + 𝛽̂2 ∑ 𝑋𝑖3 + 𝛽̂3 ∑ 𝑋𝑖4


𝑖=1 𝑖=1 𝑖=1 𝑖=1 𝑖=1
𝑛 𝑛 𝑛 𝑛 𝑛

∑ 𝑌𝑖 𝑋𝑖2 = 𝛽̂0 ∑ 𝑋𝑖2 + 𝛽̂1 ∑ 𝑋𝑖3 + 𝛽̂2 ∑ 𝑋𝑖4 + 𝛽̂3 ∑ 𝑋𝑖5


𝑖=1 𝑖=1 𝑖=1 𝑖=1 𝑖=1
𝑛 𝑛 𝑛 𝑛 𝑛

∑ 𝑌𝑖 𝑋𝑖3 = 𝛽̂0 ∑ 𝑋𝑖3 + 𝛽̂1 ∑ 𝑋𝑖4 + 𝛽̂2 ∑ 𝑋𝑖5 + 𝛽̂3 ∑ 𝑋𝑖6


𝑖=1 𝑖=1 𝑖=1 𝑖=1 𝑖=1

Cálculo de los estimadores MCO de los coeficientes 𝜷𝟎 , 𝜷𝟏 , 𝜷𝟐 y 𝜷𝟑


Expresando en un sistema matricial
𝑛 𝑛 𝑛 𝑛

∑ 𝑌𝑖 𝑛 ∑ 𝑋𝑖 ∑ 𝑋𝑖2 ∑ 𝑋𝑖3
𝑖=1 𝑖=1 𝑖=1 𝑖=1
𝑛 𝑛 𝑛 𝑛 𝑛

∑ 𝑌𝑖 𝑋𝑖 ∑ 𝑋𝑖 ∑ 𝑋𝑖2 ∑ 𝑋𝑖3 ∑ 𝑋𝑖4 𝛽̂0


𝑖=1 𝑖=1 𝑖=1 𝑖=1 𝑖=1 𝛽̂
𝑛 = 𝑛 𝑛 𝑛 𝑛 × 1
𝛽̂2
∑ 𝑌𝑖 𝑋𝑖2 ∑ 𝑋𝑖2 ∑ 𝑋𝑖3 ∑ 𝑋𝑖4 ∑ 𝑋𝑖5 [𝛽̂3 ] 4×1
𝑖=1 𝑖=1 𝑖=1 𝑖=1 𝑖=1
𝑛 𝑛 𝑛 𝑛 𝑛

∑ 𝑌𝑖 𝑋𝑖3 ∑ 𝑋𝑖3 ∑ 𝑋𝑖4 ∑ 𝑋𝑖5 ∑ 𝑋𝑖6


[ 𝑖=1 ]4×1 [ 𝑖=1 𝑖=1 𝑖=1 𝑖=1 ]4×4

8
Carlos Pedro Vera Ninacondor

Despejando 𝛽0 , 𝛽1 , 𝛽2 y 𝛽3
𝑛 𝑛 𝑛 𝑛

𝑛 ∑ 𝑋𝑖 ∑ 𝑋𝑖2 ∑ 𝑋𝑖3 ∑ 𝑌𝑖
𝑖=1 𝑖=1 𝑖=1 𝑖=1
𝑛 𝑛 𝑛 𝑛 𝑛

∑ 𝑋𝑖 ∑ 𝑋𝑖2 ∑ 𝑋𝑖3 ∑ 𝑋𝑖4 𝛽̂0 ∑ 𝑌𝑖 𝑋𝑖


𝑖=1 𝑖=1 𝑖=1 𝑖=1 𝛽̂ 𝑖=1
𝑛 𝑛 𝑛 𝑛 × 1 = 𝑛
𝛽̂2
∑ 𝑋𝑖2 ∑ 𝑋𝑖3 ∑ 𝑋𝑖4 ∑ 𝑋𝑖5 [𝛽̂3 ] ∑ 𝑌𝑖 𝑋𝑖2
4×1
𝑖=1 𝑖=1 𝑖=1 𝑖=1 𝑖=1
𝑛 𝑛 𝑛 𝑛 𝑛

∑ 𝑋𝑖3 ∑ 𝑋𝑖4 ∑ 𝑋𝑖5 ∑ 𝑋𝑖6 ∑ 𝑌𝑖 𝑋𝑖3


[ 𝑖=1 𝑖=1 𝑖=1 𝑖=1 ]4×4 [ 𝑖=1 ]4×1
𝑛 𝑛 𝑛 −1 𝑛

𝑛 ∑ 𝑋𝑖 ∑ 𝑋𝑖2 ∑ 𝑋𝑖3 ∑ 𝑌𝑖
𝑖=1 𝑖=1 𝑖=1 𝑖=1
𝑛 𝑛 𝑛 𝑛 𝑛
𝛽̂0 ∑ 𝑋𝑖 ∑ 𝑋𝑖2 ∑ 𝑋𝑖3 ∑ 𝑋𝑖4 ∑ 𝑌𝑖 𝑋𝑖
𝛽̂1 𝑖=1 𝑖=1 𝑖=1 𝑖=1 𝑖=1
= 𝑛 𝑛 𝑛 𝑛 × 𝑛
𝛽̂2
[𝛽̂3 ] ∑ 𝑋𝑖2 ∑ 𝑋𝑖3 ∑ 𝑋𝑖4 ∑ 𝑋𝑖5 ∑ 𝑌𝑖 𝑋𝑖2
4×1
𝑖=1 𝑖=1 𝑖=1 𝑖=1 𝑖=1
𝑛 𝑛 𝑛 𝑛 𝑛

∑ 𝑋𝑖3 ∑ 𝑋𝑖4 ∑ 𝑋𝑖5 ∑ 𝑋𝑖6 ∑ 𝑌𝑖 𝑋𝑖3


[ 𝑖=1 𝑖=1 𝑖=1 𝑖=1 ] 4×4 [ 𝑖=1 ]4×1
Simbólicamente
𝛽̂ = (𝑋 ′ 𝑋)−1 𝑋′𝑦
1.4. Función de regresión muestral MCO
La función de regresión muestral cuadrática MCO se especifica de la siguiente forma,
𝑌̂𝑖 = 𝛽̂0 + 𝛽̂1 𝑋𝑖 + 𝛽̂2 𝑋𝑖2 + 𝛽̂3 𝑋𝑖3
Donde
𝑖 es el subíndice que toma valores de 1 hasta 𝑛.
𝑛 es el número de observaciones en la muestra.
𝑌̂𝑖 es el valor esperado de acuerdo a la función de regresión muestral MCO.
𝑋 es la variable independiente (o el regresor uno).
𝑋 2 es el cuadrado de la variable independiente (o el regresor dos).
𝑋 3 es el cubo de la variable independiente (o el regresor tres).

9
Carlos Pedro Vera Ninacondor

𝑋𝑖 es el valor de la observación i-ésima de 𝑋 en la muestra.


𝑋𝑖2 es el cuadrado del valor de la observación i-ésima de 𝑋 en la muestra.
𝑋𝑖3 es el cubo del valor de la observación i-ésima de 𝑋 en la muestra.
𝛽̂0 + 𝛽̂1 𝑋𝑖 + 𝛽̂2 𝑋𝑖2 + 𝛽̂3 𝑋𝑖3 es la función de regresión muestral cúbica MCO, es la función
construida utilizando los estimadores MCO.
𝛽̂0 es el estimador MCO del coeficiente 𝛽0 de la función de regresión poblacional cúbica.
𝛽̂1 es el estimador MCO del coeficiente 𝛽1 de la función de regresión poblacional cúbica.
𝛽̂2 es el estimador MCO del coeficiente 𝛽2 de la función de regresión poblacional cúbica.
𝛽̂3 es el estimador MCO del coeficiente 𝛽3 de la función de regresión poblacional cúbica.
1.5. Error de predicción MCO
Para calcular el error de predicción MCO (Stock y Watson, 2012, p. 137) se utiliza la siguiente
fórmula
𝑢̂𝑖 = 𝑌𝑖 − 𝑌̂𝑖
Donde
𝑢̂𝑖 es el residuo MCO para la observación i-ésima en la muestra (error de predicción).
𝑌𝑖 es el valor de la observación i-ésima de 𝑌 en la muestra.
𝑌̂𝑖 es el valor de predicción de 𝑌𝑖 dado 𝑋𝑖 basado en la función de regresión MCO
𝑌̂𝑖 = 𝛽̂0 + 𝛽̂1 𝑋𝑖 + 𝛽̂2 𝑋𝑖2 + 𝛽̂3 𝑋𝑖3 .
𝑌𝑖 − 𝑌̂𝑖 es la diferencia entre 𝑌𝑖 y su valor de predicción MCO.
1.6. Caso resuelto
1.6.1. Datos
Considerando los datos presentados en la Tabla 1, especificar el modelo de regresión
poblacional cúbica que relaciona la nota lograda con las horas de estudio semanal,
especificar el modelo de regresión muestral cúbica que relaciona la nota lograda con las
horas de estudio semanal, calcular los estimadores MCO de los coeficientes 𝛽0 , 𝛽1 , 𝛽2 y 𝛽3
de la función de regresión poblacional cúbica, estimar la función de regresión muestral
cúbica MCO, calcular el valor de predicción MCO de la nota lograda dado un valor de las
horas de estudio semanal, calcular los residuos MCO, y calcular los residuos elevados al
cuadrado MCO.

10
Carlos Pedro Vera Ninacondor

Tabla 1. Nota lograda y horas de estudio semanal de estudiantes, 2016


Nota lograda Horas de estudio semanal fuera de clase
Estudiante
𝑌𝑖 𝑋𝑖
1 8 5
2 10 5
3 15 7
4 11 5
5 10 6
6 8 3
7 14 29
8 15 35
9 7 3
10 14 16
11 19 9
12 12 13
13 14 10
14 14 7
15 9 15
16 15 20
17 15 20
18 16 24
19 5 10
20 18 15
21 12 15
22 10 21
23 7 5
24 11 21
25 9 5
26 8 3
27 16 24
28 12 13
29 12 40
30 14 5
31 5 6
32 14 19
33 15 24
34 15 18
35 12 6
Fuente: Cuestionario aplicado a estudiantes de Métodos Cuantitativos 1, 2016.
Elaboración: Autoría propia.

1.6.2. Especificación del modelo de regresión poblacional cúbica


Considerando lo presentado en el punto 1.1, para este caso, se especifica el modelo de
regresión poblacional cúbica siguiente,
𝑁𝑜𝑡𝑎𝑖 = 𝛽0 + 𝛽1 𝐻𝑜𝑟𝑎𝑠𝑖 + 𝛽2 𝐻𝑜𝑟𝑎𝑠𝑖2 + 𝛽3 𝐻𝑜𝑟𝑎𝑠𝑖3 + 𝑢𝑖
11
Carlos Pedro Vera Ninacondor

Donde
𝑁𝑜𝑡𝑎𝑖 es la nota lograda del estudiante i-ésimo en la población.
𝐻𝑜𝑟𝑎𝑠𝑖 es el número de horas de estudio semanal fuera de clase del estudiante i-ésimo
en la población.
𝐻𝑜𝑟𝑎𝑠𝑖2 es el cuadrado del número de horas de estudio semanal fuera de clase del
estudiante i-ésimo en la población.
𝐻𝑜𝑟𝑎𝑠𝑖3 es el cubo del número de horas de estudio semanal fuera de clase del estudiante
i-ésimo en la población
𝛽0 + 𝛽1 𝐻𝑜𝑟𝑎𝑠𝑖 + 𝛽2 𝐻𝑜𝑟𝑎𝑠𝑖2 + 𝛽2 𝐻𝑜𝑟𝑎𝑠𝑖3 es la función de regresión poblacional cúbica.
𝛽0 es el término constante de la función de regresión poblacional, el cual es desconocido.
𝛽1 es el coeficiente de 𝐻𝑜𝑟𝑎𝑠𝑖 de la función de regresión poblacional, el cual es
desconocido.
𝛽2 es el coeficiente de 𝐻𝑜𝑟𝑎𝑠𝑖2 de la función de regresión poblacional, el cual es
desconocido.
𝛽3 es el coeficiente de 𝐻𝑜𝑟𝑎𝑠𝑖3 de la función de regresión poblacional, el cual es
desconocido.
𝑢𝑖 es el término de error, el cual es desconocido.
1.6.3. Especificación del modelo de regresión muestral cúbica
Considerando lo presentado en el punto 1.2, para este caso, se especifica el modelo de
regresión muestral cúbica siguiente,
𝑁𝑜𝑡𝑎𝑖 = 𝛽̂0 + 𝛽̂1 𝐻𝑜𝑟𝑎𝑠𝑖 + 𝛽̂2 𝐻𝑜𝑟𝑎𝑠𝑖2 + 𝛽̂3 𝐻𝑜𝑟𝑎𝑠𝑖3 + 𝑢̂𝑖
Donde
𝑁𝑜𝑡𝑎𝑖 es la nota lograda del estudiante i-ésimo en la muestra.
𝐻𝑜𝑟𝑎𝑠𝑖 es el número de horas de estudio semanal fuera de clase del estudiante i-ésimo
en la muestra.
𝐻𝑜𝑟𝑎𝑠𝑖2 es el cuadrado del número de horas de estudio semanal fuera de clase del
estudiante i-ésimo en la muestra.
𝐻𝑜𝑟𝑎𝑠𝑖3 es el cubo del número de horas de estudio semanal fuera de clase del
estudiante i-ésimo en la muestra
𝛽̂0 es el estimador del término constante 𝛽0 de la función de regresión poblacional.
𝛽̂1 es el estimador del coeficiente 𝛽1 de la función de regresión poblacional.

12
Carlos Pedro Vera Ninacondor

𝛽̂2 es el estimador del coeficiente 𝛽2 de la función de regresión poblacional.


𝛽̂3 es el estimador del coeficiente 𝛽3 de la función de regresión poblacional.
𝑢̂𝑖 es el residuo, es el estimador del término de error 𝑢𝑖 .
1.6.4. Construcción de la matriz de sumas
Tabla 2. Matriz de sumas
𝑁𝑜𝑡𝑎𝑖 𝐻𝑜𝑟𝑎𝑠𝑖
𝑛𝑖
𝑌𝑖 𝑋𝑖 𝑋𝑖2 𝑋𝑖3 𝑌𝑖 𝑋𝑖 𝑌𝑖 𝑋𝑖2 𝑌𝑖 𝑋𝑖3 𝑋𝑖4 𝑋𝑖5 𝑋𝑖6

1 8 5 25 125 40 200 1 000 625 3 125 15 625


2 10 5 25 125 50 250 1 250 625 3 125 15 625
3 15 7 49 343 105 735 5 145 2 401 16 807 117 649
4 11 5 25 125 55 275 1 375 625 3 125 15 625
5 10 6 36 216 60 360 2 160 1 296 7 776 46 656
6 8 3 9 27 24 72 216 81 243 729
7 14 29 841 24 389 406 11 774 341 446 707 281 20 511 149 594 823 321
8 15 35 1 225 42 875 525 18 375 643 125 1 500 625 52 521 875 1 838 265 625
9 7 3 9 27 21 63 189 81 243 729
10 14 16 256 4 096 224 3 584 57 344 65 536 1 048 576 16 777 216
11 19 9 81 729 171 1 539 13 851 6 561 59 049 531 441
12 12 13 169 2 197 156 2 028 26 364 28 561 371 293 4 826 809
13 14 10 100 1 000 140 1 400 14 000 10 000 100 000 1 000 000
14 14 7 49 343 98 686 4 802 2 401 16 807 117 649
15 9 15 225 3 375 135 2 025 30 375 50 625 759 375 11 390 625
16 15 20 400 8 000 300 6 000 120 000 160 000 3 200 000 64 000 000
17 15 20 400 8 000 300 6 000 120 000 160 000 3 200 000 64 000 000
18 16 24 576 13 824 384 9 216 221 184 331 776 7 962 624 191 102 976
19 5 10 100 1 000 50 500 5 000 10 000 100 000 1 000 000
20 18 15 225 3 375 270 4 050 60 750 50 625 759 375 11 390 625
21 12 15 225 3 375 180 2 700 40 500 50 625 759 375 11 390 625
22 10 21 441 9 261 210 4 410 92 610 194 481 4 084 101 85 766 121
23 7 5 25 125 35 175 875 625 3 125 15 625
24 11 21 441 9 261 231 4 851 101 871 194 481 4 084 101 85 766 121
25 9 5 25 125 45 225 1 125 625 3 125 15 625
26 8 3 9 27 24 72 216 81 243 729
27 16 24 576 13 824 384 9 216 221 184 331 776 7 962 624 191 102 976
28 12 13 169 2 197 156 2 028 26 364 28 561 371 293 4 826 809
29 12 40 1 600 64 000 480 19 200 768 000 2 560 000 102 400 000 4 096 000 000
30 14 5 25 125 70 350 1 750 625 3 125 15 625
31 5 6 36 216 30 180 1 080 1 296 7 776 46 656
32 14 19 361 6 859 266 5 054 96 026 130 321 2 476 099 47 045 881
33 15 24 576 13 824 360 8 640 207 360 331 776 7 962 624 191 102 976
34 15 18 324 5 832 270 4 860 87 480 104 976 1 889 568 34 012 224
35 12 6 36 216 72 432 2 592 1 296 7 776 46 656
35 35 35 35 35 35 35 35 35 35

𝑛 ∑ 𝑌𝑖 ∑ 𝑋𝑖 ∑ 𝑋𝑖2 ∑ 𝑋𝑖3 ∑ 𝑌𝑖 𝑋𝑖 ∑ 𝑌𝑖 𝑋𝑖2 ∑ 𝑌𝑖 𝑋𝑖3 ∑ 𝑋𝑖4 ∑ 𝑋𝑖5 ∑ 𝑋𝑖6


= 35 𝑖=1 𝑖=1 𝑖=1 𝑖=1 𝑖=1 𝑖=1 𝑖=1 𝑖=1 𝑖=1 𝑖=1

421 482 9 694 243 458 6 327 131 525 3 318 609 7 021 270 222 659 522 7 546 593 574
Fuente: Tabla 1.
Elaboración: Autoría propia.

13
Carlos Pedro Vera Ninacondor

1.6.5. Cálculo de los estimadores MCO de los coeficientes 𝜷𝟎 , 𝜷𝟏 , 𝜷𝟐 y 𝜷𝟑 de la


función de regresión poblacional cúbica
Para calcular se utiliza el sistema matricial estimado en el punto 1.3
𝑛 𝑛 𝑛 −1 𝑛

𝑛 ∑ 𝑋𝑖 ∑ 𝑋𝑖2 ∑ 𝑋𝑖3 ∑ 𝑌𝑖
𝑖=1 𝑖=1 𝑖=1 𝑖=1
𝑛 𝑛 𝑛 𝑛 𝑛
𝛽̂0 ∑ 𝑋𝑖 ∑ 𝑋𝑖2 ∑ 𝑋𝑖3 ∑ 𝑋𝑖4 ∑ 𝑌𝑖 𝑋𝑖
𝛽̂1 𝑖=1 𝑖=1 𝑖=1 𝑖=1 𝑖=1
= 𝑛 𝑛 𝑛 𝑛 × 𝑛
𝛽̂2
[𝛽̂3 ] ∑ 𝑋𝑖2 ∑ 𝑋𝑖3 ∑ 𝑋𝑖4 ∑ 𝑋𝑖5 ∑ 𝑌𝑖 𝑋𝑖2
4×1
𝑖=1 𝑖=1 𝑖=1 𝑖=1 𝑖=1
𝑛 𝑛 𝑛 𝑛 𝑛

∑ 𝑋𝑖3 ∑ 𝑋𝑖4 ∑ 𝑋𝑖5 ∑ 𝑋𝑖6 ∑ 𝑌𝑖 𝑋𝑖3


[ 𝑖=1 𝑖=1 𝑖=1 𝑖=1 ] 4×4 [ 𝑖=1 ]4×1
Remplazando
𝛽̂0 35 482 9 694 243 458
−1
421
𝛽̂1 482 9 694 243 458 7 021 270 6 327
=[ ] ×[ ]
𝛽̂2 9 694 243 458 7 021 270 222 659 522 131 525
[𝛽̂3 ] 243 458 7 021 270 222 659 522 7 546 593 574 3 318 609

Simbólicamente
𝛽̂ = (𝑋 ′ 𝑋)−1 𝑋′𝑦
De donde se obtienen
𝛽̂0 6,379968494
𝛽̂1 0,799566855
=[ ]
𝛽̂2 −0,025302547
[𝛽̂3 ] 0,000236561 4×1
4×1

14
Carlos Pedro Vera Ninacondor

1.6.6. Estimación de la función de regresión muestral MCO


Los valores calculados en el punto 1.6.5 se remplazan en la función de regresión muestral
MCO presentada en el punto 1.6.3, con lo cual se obtiene,
̂ 𝑖 = 6,379968494 + 0,799566855𝐻𝑜𝑟𝑎𝑠𝑖 − 0,025302547𝐻𝑜𝑟𝑎𝑠𝑖2 + 0,000236561𝐻𝑜𝑟𝑎𝑠𝑖3
𝑁𝑜𝑡𝑎
Donde
La función de regresión estimada muestra una relación positiva entre la nota lograda y
el número de horas de estudio semanal fuera de clase del estudiante, también, muestra
una relación negativa entre la nota lograda y el cuadrado del número de horas de
estudio semanal fuera de clase del estudiante, además, muestra una relación positiva
entre la nota lograda y el cubo del número de horas de estudio semanal fuera de clase
del estudiante.
1.6.7. Predicción MCO de la variable dependiente dado un valor de la variable
independiente
Para ello, se utiliza la función de regresión muestral MCO estimada en el punto 1.6.6, la cual
es la siguiente,
̂ 𝑖 = 6,379968494 + 0,799566855𝐻𝑜𝑟𝑎𝑠𝑖 − 0,025302547𝐻𝑜𝑟𝑎𝑠𝑖2 + 0,000236561𝐻𝑜𝑟𝑎𝑠𝑖3
𝑁𝑜𝑡𝑎

15
Carlos Pedro Vera Ninacondor

Tabla 3. Predicción de la nota lograda dado un valor del número de horas de estudio
̂ 𝑖 = 6,379968494 + 0,799566855𝐻𝑜𝑟𝑎𝑠𝑖
𝑁𝑜𝑡𝑎 Predicción
𝑛𝑖 𝐻𝑜𝑟𝑎𝑠𝑖
−0,025302547𝐻𝑜𝑟𝑎𝑠𝑖2 + 0,000236561𝐻𝑜𝑟𝑎𝑠𝑖3 ̂𝑖
𝑁𝑜𝑡𝑎
1 5 6,379968494 + 0,799566855(5) − 0,025302547(5)2 + 0,000236561(5)3 9,774809219
2 5 6,379968494 + 0,799566855(5) − 0,025302547(5)2 + 0,000236561(5)3 9,774809219
3 7 6,379968494 + 0,799566855(7) − 0,025302547(7)2 + 0,000236561(7)3 10,818252099
4 5 6,379968494 + 0,799566855(5) − 0,025302547(5)2 + 0,000236561(5)3 9,774809219
5 6 6,379968494 + 0,799566855(6) − 0,025302547(6)2 + 0,000236561(6)3 10,317575108
6 3 6,379968494 + 0,799566855(3) − 0,025302547(3)2 + 0,000236561(3)3 8,557333283
7 29 6,379968494 + 0,799566855(29) − 0,025302547(29)2 + 0,000236561(29)3 14,057451491
8 35 6,379968494 + 0,799566855(35) − 0,025302547(35)2 + 0,000236561(35)3 13,511741219
9 3 6,379968494 + 0,799566855(3) − 0,025302547(3)2 + 0,000236561(3)3 8,557333283
10 16 6,379968494 + 0,799566855(16) − 0,025302547(16)2 + 0,000236561(16)3 13,664539998
11 9 6,379968494 + 0,799566855(9) − 0,025302547(9)2 + 0,000236561(9)3 11,699016851
12 13 6,379968494 + 0,799566855(13) − 0,025302547(13)2 + 0,000236561(13)3 13,017931683
13 10 6,379968494 + 0,799566855(10) − 0,025302547(10)2 + 0,000236561(10)3 12,081943344
14 7 6,379968494 + 0,799566855(7) − 0,025302547(7)2 + 0,000236561(7)3 10,818252099
15 15 6,379968494 + 0,799566855(15) − 0,025302547(15)2 + 0,000236561(15)3 13,478791619
16 20 6,379968494 + 0,799566855(20) − 0,025302547(20)2 + 0,000236561(20)3 14,142774794
17 20 6,379968494 + 0,799566855(20) − 0,025302547(20)2 + 0,000236561(20)3 14,142774794
18 24 6,379968494 + 0,799566855(24) − 0,025302547(24)2 + 0,000236561(24)3 14,265525206
19 10 6,379968494 + 0,799566855(10) − 0,025302547(10)2 + 0,000236561(10)3 12,081943344
20 15 6,379968494 + 0,799566855(15) − 0,025302547(15)2 + 0,000236561(15)3 13,478791619
21 15 6,379968494 + 0,799566855(15) − 0,025302547(15)2 + 0,000236561(15)3 13,478791619
22 21 6,379968494 + 0,799566855(21) − 0,025302547(21)2 + 0,000236561(21)3 14,203240643
23 5 6,379968494 + 0,799566855(5) − 0,025302547(5)2 + 0,000236561(5)3 9,774809219
24 21 6,379968494 + 0,799566855(21) − 0,025302547(21)2 + 0,000236561(21)3 14,203240643
25 5 6,379968494 + 0,799566855(5) − 0,025302547(5)2 + 0,000236561(5)3 9,774809219
26 3 6,379968494 + 0,799566855(3) − 0,025302547(3)2 + 0,000236561(3)3 8,557333283
27 24 6,379968494 + 0,799566855(24) − 0,025302547(24)2 + 0,000236561(24)3 14,265525206
28 13 6,379968494 + 0,799566855(13) − 0,025302547(13)2 + 0,000236561(13)3 13,017931683
29 40 6,379968494 + 0,799566855(40) − 0,025302547(40)2 + 0,000236561(40)3 13,018471494
30 5 6,379968494 + 0,799566855(5) − 0,025302547(5)2 + 0,000236561(5)3 9,774809219
31 6 6,379968494 + 0,799566855(6) − 0,025302547(6)2 + 0,000236561(6)3 10,317575108
32 19 6,379968494 + 0,799566855(19) − 0,025302547(19)2 + 0,000236561(19)3 14,060091171
33 24 6,379968494 + 0,799566855(24) − 0,025302547(24)2 + 0,000236561(24)3 14,265525206
34 18 6,379968494 + 0,799566855(18) − 0,025302547(18)2 + 0,000236561(18)3 13,953770408
35 6 6,379968494 + 0,799566855(6) − 0,025302547(6)2 + 0,000236561(6)3 10,317575108
35 35
35
∑ 𝑋𝑖 1 1 ∑ 𝑌̂𝑖
𝑛 = 35 𝑖=1
𝑌̂ = × ∑ 𝑌̂𝑖 = × 421 = 12,028571429 𝑖=1
𝑛 35
𝑖=1
482 421
Fuente: Tabla 1, ítem 1.6.6.
Elaboración: Autoría propia.

16
Carlos Pedro Vera Ninacondor

1.6.8. Estimación de los residuos MCO


Tabla 4. Residuos y residuos elevados al cuadrado MCO
𝑛𝑖 𝑁𝑜𝑡𝑎𝑖 ̂𝑖
𝑁𝑜𝑡𝑎 ̂𝑖
𝑢̂𝑖 = 𝑁𝑜𝑡𝑎𝑖 − 𝑁𝑜𝑡𝑎 𝑢̂𝑖2
1 8 9,774809219 -1,774809219 3,149947764
2 10 9,774809219 0,225190781 0,050710888
3 15 10,818252099 4,181747901 17,487015508
4 11 9,774809219 1,225190781 1,501092450
5 10 10,317575108 -0,317575108 0,100853949
6 8 8,557333283 -0,557333283 0,310620388
7 14 14,057451491 -0,057451491 0,003300674
8 15 13,511741219 1,488258781 2,214914199
9 7 8,557333283 -1,557333283 2,425286954
10 14 13,664539998 0,335460002 0,112533413
11 19 11,699016851 7,300983149 53,304354942
12 12 13,017931683 -1,017931683 1,036184911
13 14 12,081943344 1,918056656 3,678941336
14 14 10,818252099 3,181747901 10,123519706
15 9 13,478791619 -4,478791619 20,059574366
16 15 14,142774794 0,857225206 0,734835054
17 15 14,142774794 0,857225206 0,734835054
18 16 14,265525206 1,734474794 3,008402811
19 5 12,081943344 -7,081943344 50,153921528
20 18 13,478791619 4,521208381 20,441325224
21 12 13,478791619 -1,478791619 2,186824652
22 10 14,203240643 -4,203240643 17,667231903
23 7 9,774809219 -2,774809219 7,699566202
24 11 14,203240643 -3,203240643 10,260750617
25 9 9,774809219 -0,774809219 0,600329326
26 8 8,557333283 -0,557333283 0,310620388
27 16 14,265525206 1,734474794 3,008402811
28 12 13,017931683 -1,017931683 1,036184911
29 12 13,018471494 -1,018471494 1,037284184
30 14 9,774809219 4,225190781 17,852237136
31 5 10,317575108 -5,317575108 28,276605029
32 14 14,060091171 -0,060091171 0,003610949
33 15 14,265525206 0,734474794 0,539453223
34 15 13,953770408 1,046229592 1,094596359
35 12 10,317575108 1.682424892 2,830553517
35 35 35 35

𝑛 = 35 ∑ 𝑌𝑖 = 421 ∑ 𝑌̂𝑖 = 421 ∑ 𝑢̂𝑖 = 0,000 ∑ 𝑢̂𝑖2 = 285,036422327


𝑖=1 𝑖=1 𝑖=1 𝑖=1

Fuente: Tabla 1, Tabla 3.


Elaboración: Autoría propia.

17
Carlos Pedro Vera Ninacondor

Bibliografía

Gujarati, D. N., y Porter, D. C. (2010). Econometría. México, D. F., México: McGRAW-HILL/

INTERAMERICANA EDITORES, S. A. de C. V.

Stock, J. H., y Watson, M. M. (2012). Introducción a la Econometría. Madrid, España:

PEARSON EDUCACIÓN, S. A.

18

También podría gustarte