0% encontró este documento útil (0 votos)
19 vistas18 páginas

Guía de Regresión Cuadrática

Cargado por

lpayea
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
19 vistas18 páginas

Guía de Regresión Cuadrática

Cargado por

lpayea
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

Universidad Nacional de San Agustín de Arequipa

Facultad de Economía
Escuela Profesional de Economía
Departamento Académico de Economía

Asignatura
Econometría 1

Guía de práctica
Modelo de regresión polinomial de grado 2:
modelo de regresión cuadrática

Carlos Pedro Vera Ninacondor

Arequipa–Perú
2020
Carlos Pedro Vera Ninacondor

Contenido

1. Modelo de regresión cuadrática


1.1. Modelo de regresión poblacional cuadrática
1.2. Modelo de regresión muestral cuadrática
1.3. Estimación de los coeficientes de la función de regresión poblacional cuadrática
1.4. Función de regresión muestral MCO
1.5. Error de predicción MCO
1.6. Caso resuelto
1.6.1. Datos
1.6.2. Especificación del modelo de regresión poblacional cuadrática
1.6.3. Especificación del modelo de regresión muestral cuadrática
1.6.4. Construcción de la matriz de sumas
1.6.5. Cálculo de los estimadores MCO de los coeficientes 𝛽0 , 𝛽1 y 𝛽2 de la función de
regresión poblacional
1.6.6. Estimación de la función de regresión muestral MCO
1.6.7. Predicción MCO de la variable dependiente dado un valor de la variable
independiente
1.6.8. Estimación de los residuos MCO

Bibliografía

2
Carlos Pedro Vera Ninacondor

1. Modelo de regresión cuadrática


El modelo de regresión cuadrática, es el modelo de regresión que relaciona una variable
dependiente cuantitativa (𝑌𝑖 ) con una variable independiente (𝑋𝑖 ), y con el cuadrado de la
misma variable independiente (𝑋𝑖2 ).
1.1. Modelo de regresión poblacional cuadrática
El modelo de regresión poblacional cuadrática (Stock y Watson, 2012, p. 183) puede
expresarse como,
𝑌𝑖 = 𝛽0 + 𝛽1 𝑋𝑖 + 𝛽2 𝑋𝑖2 + 𝑢𝑖
Donde
𝑖 es el subíndice que toma valores de 1 hasta 𝑁.
𝑁 es el número de observaciones en la población.
𝑌 es la variable dependiente (o el regresando).
𝑋 es la variable independiente (o el regresor uno).
𝑋 2 es el cuadrado de la variable independiente (o el regresor dos).
𝑌𝑖 es el valor de la observación i-ésima de 𝑌 en la población.
𝑋𝑖 es el valor de la observación i-ésima de 𝑋 en la población.
𝑋𝑖2 es el cuadrado del valor de la observación i-ésima de 𝑋 en la población.
𝛽0 + 𝛽1 𝑋1𝑖 + 𝛽2 𝑋𝑖2 es la función de regresión poblacional cuadrática.
𝛽0 , 𝛽1 y 𝛽2 son los coeficientes de la función de regresión poblacional cuadrática, que
se denominan parámetros.
𝛽0 es el intercepto, término independiente o término constante, de la función de
regresión poblacional cuadrática, el cual es desconocido.
𝛽1 es el coeficiente de 𝑋𝑖 de la función de regresión poblacional cuadrática, el cual es
desconocido.
𝛽2 es el coeficiente de 𝑋𝑖2 de la función de regresión poblacional cuadrática, el cual es
desconocido.
𝑢𝑖 es el término de error, el cual es desconocido, “es una variable aleatoria no
observable que adopta valores positivos o negativos” (Gujarati y Porter, 2010, p. 40).

3
Carlos Pedro Vera Ninacondor

Interpretación
En los modelos no lineales (con respecto de las 𝑋) la función de regresión se interpreta
mejor mediante su representación gráfica y mediante el cálculo del efecto esperado
sobre 𝑌 de la variación de una o más variables independientes (Stock y Watson, 2012,
p. 187).
1.2. Modelo de regresión muestral cuadrática
El modelo de regresión muestral cuadrática (Stock y Watson, 2012, p. 183) puede
expresarse como,
𝑌𝑖 = 𝛽̂0 + 𝛽̂1 𝑋𝑖 + 𝛽̂2 𝑋𝑖2 + 𝑢̂𝑖
Donde
𝑖 es el subíndice que toma valores de 1 hasta 𝑛.
𝑛 es el número de observaciones en la muestra.
𝑌 es la variab|le dependiente (o el regresando).
𝑌𝑖 es el valor de la observación i-ésima de 𝑌 en la muestra.
𝑋 es la variable independiente (o el regresor uno).
𝑋𝑖 es el valor de la observación i-ésima de 𝑋 en la muestra.
𝑋 2 es el cuadrado de la variable independiente 𝑋 (o el regresor dos).
𝑋𝑖2 es el cuadrado del valor de la observación i-ésima de 𝑋 en la muestra.
𝛽̂0 es el estimador del coeficiente 𝛽0 de la función de regresión poblacional cuadrática.
𝛽̂1 es el estimador del coeficiente 𝛽1 de la función de regresión poblacional cuadrática.
𝛽̂2 es el estimador del coeficiente 𝛽2 de la función de regresión poblacional cuadrática.
𝑢̂𝑖 es el residuo, es el estimador del término de error 𝑢𝑖 .
1.3. Estimación de los coeficientes de la función de regresión poblacional
cuadrática
Para la estimación de los coeficientes de la función de regresión poblacional cuadrática se
utiliza el método de mínimos cuadrados ordinarios.
Estimador de mínimos cuadrados ordinarios (MCO)
Iniciando con el modelo de regresión muestral cuadrática
𝑌𝑖 = 𝛽̂0 + 𝛽̂1 𝑋𝑖 + 𝛽̂2 𝑋𝑖2 + 𝑢̂𝑖

4
Carlos Pedro Vera Ninacondor

Despejando 𝑢̂𝑖
𝛽̂0 + 𝛽̂1 𝑋𝑖 + 𝛽̂2 𝑋𝑖2 + 𝑢̂𝑖 = 𝑌𝑖
𝑢̂𝑖 = 𝑌𝑖 − 𝛽̂0 − 𝛽̂1 𝑋𝑖 − 𝛽̂2 𝑋𝑖2
Elevando al cuadrado ambos lados de la ecuación
2
𝑢̂𝑖2 = (𝑌𝑖 − 𝛽̂0 − 𝛽̂1 𝑋𝑖 − 𝛽̂2 𝑋𝑖2 )
Aplicando sumatorias a ambos lados de la ecuación
𝑛 𝑛
2
∑ 𝑢̂𝑖2 = ∑(𝑌𝑖 − 𝛽̂0 − 𝛽̂1 𝑋𝑖 − 𝛽̂2 𝑋𝑖2 )
𝑖=1 𝑖=1

El principio o método de mínimos cuadrados elige 𝛽̂0 , 𝛽̂1 y 𝛽̂2 de manera que, para una
muestra o conjunto de datos determinados, ∑ 𝑢̂𝑖2 es la más pequeña posible. En otras
palabras, para una muestra dada, proporciona valores estimados únicos de 𝛽̂0 , 𝛽̂1 y 𝛽̂2 que
producen el valor más pequeño o reducido posible de ∑ 𝑢̂𝑖2 (Gujarati y Porter, 2010, p. 57).
Minimizando la suma de los residuos elevados al cuadrado
Calculando las derivadas parciales de primer orden de ∑ 𝑢̂𝑖2 respecto de β̂0, de 𝛽̂1 y de β̂2
se obtiene
𝑛 𝑛
𝜕(∑ 𝑢̂𝑖2 )
= 2 ∑(𝑌𝑖 − 𝛽̂0 − 𝛽̂1 𝑋𝑖 − 𝛽̂2 𝑋2𝑖 ) (−1) = −2 ∑(𝑌𝑖 − 𝛽̂0 − 𝛽̂1 𝑋𝑖 − 𝛽̂2 𝑋2𝑖 )
𝜕𝛽̂0
𝑖=1 𝑖=1
𝑛 𝑛
𝜕(∑ 𝑢̂𝑖2 )
= 2 ∑(𝑌𝑖 − 𝛽̂0 − 𝛽̂1 𝑋𝑖 − 𝛽̂2 𝑋2𝑖 ) (−𝑋𝑖 ) = −2 ∑(𝑌𝑖 − 𝛽̂0 − 𝛽̂1 𝑋𝑖 − 𝛽̂2 𝑋2𝑖 ) (𝑋𝑖 )
𝜕𝛽̂1
𝑖=1 𝑖=1
𝑛 𝑛
𝜕(∑ 𝑢̂𝑖2 )
= 2 ∑(𝑌𝑖 − 𝛽̂0 − 𝛽̂1 𝑋𝑖 − 𝛽̂2 𝑋2𝑖 ) (−𝑋2𝑖 ) = −2 ∑(𝑌𝑖 − 𝛽̂0 − 𝛽̂1 𝑋𝑖 − 𝛽̂2 𝑋2𝑖 ) (𝑋2𝑖 )
̂
𝜕𝛽2
𝑖=1 𝑖=1

Seguidamente igualando a cero las derivadas parciales de primer orden, y luego resolviendo
el sistema de ecuaciones se obtienen los estimadores MCO de 𝛽0 , 𝛽1 y 𝛽2
Igualando a cero la derivada parcial de primer orden de ∑ 𝑢̂𝑖2 respecto de β̂0
𝑛

−2 ∑(𝑌𝑖 − 𝛽̂0 − 𝛽̂1 𝑋𝑖 − 𝛽̂2 𝑋𝑖2 ) = 0


𝑖=1

Despejando ∑ 𝑌𝑖
𝑛

∑(𝑌𝑖 − 𝛽̂0 − 𝛽̂1 𝑋𝑖 − 𝛽̂2 𝑋𝑖2 ) = 0


𝑖=1

5
Carlos Pedro Vera Ninacondor

𝑛 𝑛 𝑛 𝑛

∑ 𝑌𝑖 − ∑ 𝛽̂0 − ∑ 𝛽̂1 𝑋𝑖 − ∑ 𝛽̂2 𝑋𝑖2 = 0


𝑖=1 𝑖=1 𝑖=1 𝑖=1
𝑛 𝑛 𝑛

∑ 𝑌𝑖 − 𝑛𝛽̂0 − 𝛽̂1 ∑ 𝑋𝑖 − 𝛽̂2 ∑ 𝑋𝑖2 = 0


𝑖=1 𝑖=1 𝑖=1
𝑛 𝑛 𝑛

∑ 𝑌𝑖 = 𝑛𝛽̂0 + 𝛽̂1 ∑ 𝑋𝑖 + 𝛽̂2 ∑ 𝑋𝑖2


𝑖=1 𝑖=1 𝑖=1

Igualando a cero la derivada parcial de primer orden de ∑ 𝑢̂𝑖2 respecto de β̂1


𝑛

−2 ∑(𝑌𝑖 − 𝛽̂0 − 𝛽̂1 𝑋𝑖 − 𝛽̂2 𝑋𝑖2 )(𝑋𝑖 ) = 0


𝑖=1

Despejando ∑ 𝑌𝑖 𝑋𝑖
𝑛

∑(𝑌𝑖 − 𝛽̂0 − 𝛽̂1 𝑋𝑖 − 𝛽̂2 𝑋𝑖2 )(𝑋𝑖 ) = 0


𝑖=1
𝑛

∑(𝑌𝑖 𝑋𝑖 − 𝛽̂0 𝑋𝑖 − 𝛽̂1 𝑋𝑖 𝑋𝑖 − 𝛽̂2 𝑋𝑖2 𝑋𝑖 ) = 0


𝑖=1
𝑛

∑(𝑌𝑖 𝑋𝑖 − 𝛽̂0 𝑋𝑖 − 𝛽̂1 𝑋𝑖2 − 𝛽̂2 𝑋𝑖3 ) = 0


𝑖=1
𝑛 𝑛 𝑛 𝑛

∑ 𝑌𝑖 𝑋𝑖 − ∑ 𝛽̂0 𝑋𝑖 − ∑ 𝛽̂1 𝑋𝑖2 − ∑ 𝛽̂2 𝑋𝑖3 = 0


𝑖=1 𝑖=1 𝑖=1 𝑖=1
𝑛 𝑛 𝑛 𝑛

∑ 𝑌𝑖 𝑋𝑖 − 𝛽̂0 ∑ 𝑋𝑖 − 𝛽̂1 ∑ 𝑋𝑖2 − 𝛽̂2 ∑ 𝑋𝑖3 = 0


𝑖=1 𝑖=1 𝑖=1 𝑖=1
𝑛 𝑛 𝑛 𝑛

∑ 𝑌𝑖 𝑋𝑖 = 𝛽̂0 ∑ 𝑋𝑖 + 𝛽̂1 ∑ 𝑋𝑖2 + 𝛽̂2 ∑ 𝑋𝑖3


𝑖=1 𝑖=1 𝑖=1 𝑖=1

Igualando a cero la derivada parcial de primer orden de ∑ 𝑢̂𝑖2 respecto de β̂2


𝑛

−2 ∑(𝑌𝑖 − 𝛽̂0 − 𝛽̂1 𝑋𝑖 − 𝛽̂2 𝑋𝑖2 )(𝑋𝑖2 ) = 0


𝑖=1

Despejando ∑ 𝑌𝑖 𝑋𝑖2
𝑛

∑(𝑌𝑖 − 𝛽̂0 − 𝛽̂1 𝑋𝑖 − 𝛽̂2 𝑋𝑖2 )(𝑋𝑖2 ) = 0


𝑖=1

6
Carlos Pedro Vera Ninacondor

∑(𝑌𝑖 𝑋𝑖2 − 𝛽̂0 𝑋𝑖2 − 𝛽̂1 𝑋𝑖 𝑋𝑖2 − 𝛽̂2 𝑋𝑖2 𝑋𝑖2 ) = 0


𝑖=1
𝑛

∑(𝑌𝑖 𝑋𝑖2 − 𝛽̂0 𝑋𝑖2 − 𝛽̂1 𝑋𝑖3 − 𝛽̂2 𝑋𝑖4 ) = 0


𝑖=1
𝑛 𝑛 𝑛 𝑛

∑ 𝑌𝑖 𝑋𝑖2 − ∑ 𝛽̂0 𝑋𝑖2 − ∑ 𝛽̂1 𝑋𝑖3 − ∑ 𝛽̂2 𝑋𝑖4 = 0


𝑖=1 𝑖=1 𝑖=1 𝑖=1
𝑛 𝑛 𝑛 𝑛

∑ 𝑌𝑖 𝑋𝑖2 − 𝛽̂0 ∑ 𝑋𝑖2 − 𝛽̂1 ∑ 𝑋𝑖3 − 𝛽̂2 ∑ 𝑋𝑖4 = 0


𝑖=1 𝑖=1 𝑖=1 𝑖=1
𝑛 𝑛 𝑛 𝑛

∑ 𝑌𝑖 𝑋𝑖2 = 𝛽̂0 ∑ 𝑋𝑖2 + 𝛽̂1 ∑ 𝑋𝑖3 + 𝛽̂2 ∑ 𝑋𝑖4


𝑖=1 𝑖=1 𝑖=1 𝑖=1

Las ecuaciones siguientes son las ecuaciones normales


𝑛 𝑛 𝑛

∑ 𝑌𝑖 = 𝑛𝛽̂0 + 𝛽̂1 ∑ 𝑋𝑖 + 𝛽̂2 ∑ 𝑋𝑖2


𝑖=1 𝑖=1 𝑖=1
𝑛 𝑛 𝑛 𝑛

∑ 𝑌𝑖 𝑋𝑖 = 𝛽̂0 ∑ 𝑋𝑖 + 𝛽̂1 ∑ 𝑋𝑖2 + 𝛽̂2 ∑ 𝑋𝑖3


𝑖=1 𝑖=1 𝑖=1 𝑖=1
𝑛 𝑛 𝑛 𝑛

∑ 𝑌𝑖 𝑋𝑖2 = 𝛽̂0 ∑ 𝑋𝑖2 + 𝛽̂1 ∑ 𝑋𝑖3 + 𝛽̂2 ∑ 𝑋𝑖4


𝑖=1 𝑖=1 𝑖=1 𝑖=1

Cálculo de los estimadores MCO de los coeficientes 𝜷𝟎 , 𝜷𝟏 y 𝜷𝟐


Expresando en un sistema matricial
𝑛 𝑛 𝑛

∑ 𝑌𝑖 𝑛 ∑ 𝑋𝑖 ∑ 𝑋𝑖2
𝑖=1 𝑖=1 𝑖=1
𝑛 𝑛 𝑛 𝑛 𝛽̂0
∑ 𝑌𝑖 𝑋𝑖 = ∑ 𝑋𝑖 ∑ 𝑋𝑖2 ∑ 𝑋𝑖3 × [𝛽̂1 ]
𝑖=1
𝑛
𝑖=1
𝑛
𝑖=1
𝑛
𝑖=1
𝑛
𝛽̂2 3×1
∑ 𝑌𝑖 𝑋𝑖2 ∑ 𝑋𝑖2 ∑ 𝑋𝑖3 ∑ 𝑋𝑖4
[ 𝑖=1 ]3×1 [ 𝑖=1 𝑖=1 𝑖=1 ]3×3

7
Carlos Pedro Vera Ninacondor

Despejando 𝛽0 , 𝛽1 y 𝛽2
𝑛 𝑛 𝑛

𝑛 ∑ 𝑋𝑖 ∑ 𝑋𝑖2 ∑ 𝑌𝑖
𝑖=1 𝑖=1 𝑖=1
𝑛 𝑛 𝑛 𝛽̂0 𝑛

∑ 𝑋𝑖 ∑ 𝑋𝑖2 ∑ 𝑋𝑖3 × [𝛽̂1 ] = ∑ 𝑌𝑖 𝑋𝑖


𝑖=1
𝑛
𝑖=1
𝑛
𝑖=1
𝑛
𝛽̂2 3×1
𝑖=1
𝑛

∑ 𝑋𝑖2 ∑ 𝑋𝑖3 ∑ 𝑋𝑖4 ∑ 𝑌𝑖 𝑋𝑖2


[ 𝑖=1 𝑖=1 𝑖=1 ]3×3 [ 𝑖=1 ]3×1
𝑛 𝑛 −1 𝑛

𝑛 ∑ 𝑋𝑖 ∑ 𝑋𝑖2 ∑ 𝑌𝑖
𝑖=1 𝑖=1 𝑖=1
𝛽̂0 𝑛 𝑛 𝑛 𝑛

[𝛽̂1 ] = ∑ 𝑋𝑖 ∑ 𝑋𝑖2 ∑ 𝑋𝑖3 × ∑ 𝑌𝑖 𝑋𝑖


𝛽̂2 3×1 𝑖=1
𝑛
𝑖=1
𝑛
𝑖=1
𝑛
𝑖=1
𝑛

∑ 𝑋𝑖2 ∑ 𝑋𝑖3 ∑ 𝑋𝑖4 ∑ 𝑌𝑖 𝑋𝑖2


[ 𝑖=1 𝑖=1 𝑖=1 ]3×3 [ 𝑖=1 ]3×1
Simbólicamente
𝛽̂ = (𝑋 ′ 𝑋)−1 𝑋′𝑦
1.4. Función de regresión muestral MCO
La función de regresión muestral cuadrática MCO se especifica de la siguiente forma,
𝑌̂𝑖 = 𝛽̂0 + 𝛽̂1 𝑋𝑖 + 𝛽̂2 𝑋𝑖2
Donde
𝑖 es el subíndice que toma valores de 1 hasta 𝑛.
𝑛 es el número de observaciones en la muestra.
𝑌̂𝑖 es el valor esperado de acuerdo a la función de regresión muestral MCO.
𝑋 es la variable independiente (o el regresor uno).
𝑋 2 es el cuadrado de la variable independiente (o el regresor dos).
𝑋𝑖 es el valor de la observación i-ésima de 𝑋 en la muestra.
𝑋𝑖2 es el cuadrado del valor de la observación i-ésima de 𝑋 en la muestra.
𝛽̂0 + 𝛽̂1 𝑋𝑖 + 𝛽̂2 𝑋𝑖2 es la función de regresión muestral cuadrática MCO, es la función
construida utilizando los estimadores MCO.

8
Carlos Pedro Vera Ninacondor

𝛽̂0 es el estimador MCO del coeficiente 𝛽0 de la función de regresión poblacional


cuadrática.
𝛽̂1 es el estimador MCO del coeficiente 𝛽1 de la función de regresión poblacional
cuadrática.
𝛽̂2 es el estimador MCO del coeficiente 𝛽2 de la función de regresión poblacional
cuadrática.
1.5. Error de predicción MCO
Para calcular el error de predicción MCO (Stock y Watson, 2012, p. 137) se utiliza la siguiente
fórmula
𝑢̂𝑖 = 𝑌𝑖 − 𝑌̂𝑖
Donde
𝑢̂𝑖 es el residuo MCO para la observación i-ésima en la muestra (error de predicción).
𝑌𝑖 es el valor de la observación i-ésima de 𝑌 en la muestra.
𝑌̂𝑖 es el valor de predicción de 𝑌𝑖 dado 𝑋𝑖 basado en la función de regresión MCO
𝑌̂𝑖 = 𝛽̂0 + 𝛽̂1 𝑋𝑖 + 𝛽̂2 𝑋𝑖2 .
𝑌𝑖 − 𝑌̂𝑖 es la diferencia entre 𝑌𝑖 y su valor de predicción MCO.
1.6. Caso resuelto
1.6.1. Datos
Considerando los datos presentados en la Tabla 1, especificar el modelo de regresión
poblacional cuadrática que relaciona la nota lograda con las horas de estudio semanal,
especificar el modelo de regresión muestral cuadrática que relaciona la nota lograda con
las horas de estudio semanal, calcular los estimadores MCO de los coeficientes 𝛽0 , 𝛽1 y 𝛽2
de la función de regresión poblacional cuadrática, estimar la función de regresión muestral
cuadrática MCO, calcular el valor de predicción MCO de la nota lograda dado un valor de
las horas de estudio semanal, calcular los residuos MCO, y calcular los residuos elevados al
cuadrado MCO.

9
Carlos Pedro Vera Ninacondor

Tabla 1. Nota lograda y horas de estudio semanal de estudiantes, 2016


Nota lograda Horas de estudio semanal fuera de clase
Estudiante
𝑌𝑖 𝑋𝑖
1 8 5
2 10 5
3 15 7
4 11 5
5 10 6
6 8 3
7 14 29
8 15 35
9 7 3
10 14 16
11 19 9
12 12 13
13 14 10
14 14 7
15 9 15
16 15 20
17 15 20
18 16 24
19 5 10
20 18 15
21 12 15
22 10 21
23 7 5
24 11 21
25 9 5
26 8 3
27 16 24
28 12 13
29 12 40
30 14 5
31 5 6
32 14 19
33 15 24
34 15 18
35 12 6
Fuente: Cuestionario aplicado a estudiantes de Métodos Cuantitativos 1, 2016.
Elaboración: Autoría propia.

1.6.2. Especificación del modelo de regresión poblacional cuadrática


Considerando lo presentado en el punto 1.1, para este caso, se especifica el modelo de
regresión poblacional cuadrática siguiente,
𝑁𝑜𝑡𝑎𝑖 = 𝛽0 + 𝛽1 𝐻𝑜𝑟𝑎𝑠𝑖 + 𝛽2 𝐻𝑜𝑟𝑎𝑠𝑖2 + 𝑢𝑖
10
Carlos Pedro Vera Ninacondor

Donde
𝑁𝑜𝑡𝑎𝑖 es la nota lograda del estudiante i-ésimo en la población.
𝐻𝑜𝑟𝑎𝑠𝑖 es el número de horas de estudio semanal fuera de clase del estudiante i-ésimo
en la población.
𝐻𝑜𝑟𝑎𝑠𝑖2 es el cuadrado del número de horas de estudio semanal fuera de clase del
estudiante i-ésimo en la población.
𝛽0 + 𝛽1 𝐻𝑜𝑟𝑎𝑠𝑖 + 𝛽2 𝐻𝑜𝑟𝑎𝑠𝑖2 es la función de regresión poblacional cuadrática.
𝛽0 es el término constante de la función de regresión poblacional, el cual es desconocido.
𝛽1 es el coeficiente de 𝐻𝑜𝑟𝑎𝑠𝑖 de la función de regresión poblacional, el cual es
desconocido.
𝛽2 es el coeficiente de 𝐻𝑜𝑟𝑎𝑠𝑖2 de la función de regresión poblacional, el cual es
desconocido.
𝑢𝑖 es el término de error, el cual es desconocido.
1.6.3. Especificación del modelo de regresión muestral cuadrática
Considerando lo presentado en el punto 1.2, para este caso, se especifica el modelo de
regresión muestral cuadrática siguiente,
𝑁𝑜𝑡𝑎𝑖 = 𝛽̂0 + 𝛽̂1 𝐻𝑜𝑟𝑎𝑠𝑖 + 𝛽̂2 𝐻𝑜𝑟𝑎𝑠𝑖2 + 𝑢̂𝑖
Donde
𝑁𝑜𝑡𝑎𝑖 es la nota lograda del estudiante i-ésimo en la muestra.
𝐻𝑜𝑟𝑎𝑠𝑖 es el número de horas de estudio semanal fuera de clase del estudiante i-ésimo
en la muestra.
𝐻𝑜𝑟𝑎𝑠𝑖2 es el cuadrado del número de horas de estudio semanal fuera de clase del
estudiante i-ésimo en la muestra.
𝛽̂0 es el estimador del término constante 𝛽0 de la función de regresión poblacional.
𝛽̂1 es el estimador del coeficiente 𝛽1 de la función de regresión poblacional, y se espera
que sea positivo.
𝛽̂2 es el estimador del coeficiente 𝛽2 de la función de regresión poblacional, y se espera
que sea negativo.
𝑢̂𝑖 es el residuo, es el estimador del término de error 𝑢𝑖 .

11
Carlos Pedro Vera Ninacondor

1.6.4. Construcción de la matriz de sumas


Tabla 2. Matriz de sumas
𝑁𝑜𝑡𝑎𝑖 𝐻𝑜𝑟𝑎𝑠𝑖 (𝑋𝑖 𝑋𝑖2 ) (𝑋𝑖 )2 (𝑋𝑖2 )2
𝑛𝑖
𝑌𝑖 𝑋𝑖 𝑋𝑖2 𝑌𝑖 𝑋𝑖 𝑌𝑖 𝑋𝑖2 𝑋𝑖3 𝑋𝑖2 𝑋𝑖4
1 8 5 25 40 200 125 25 625
2 10 5 25 50 250 125 25 625
3 15 7 49 105 735 343 49 2 401
4 11 5 25 55 275 125 25 625
5 10 6 36 60 360 216 36 1 296
6 8 3 9 24 72 27 9 81
7 14 29 841 406 11 774 24 389 841 707 281
8 15 35 1 225 525 18 375 42 875 1 225 1 500 625
9 7 3 9 21 63 27 9 81
10 14 16 256 224 3 584 4 096 256 65 536
11 19 9 81 171 1 539 729 81 6 561
12 12 13 169 156 2 028 2 197 169 28 561
13 14 10 100 140 1 400 1 000 100 10 000
14 14 7 49 98 686 343 49 2 401
15 9 15 225 135 2 025 3 375 225 50 625
16 15 20 400 300 6 000 8 000 400 160 000
17 15 20 400 300 6 000 8 000 400 160 000
18 16 24 576 384 9 216 13 824 576 331 776
19 5 10 100 50 500 1 000 100 10 000
20 18 15 225 270 4 050 3 375 225 50 625
21 12 15 225 180 2 700 3 375 225 50 625
22 10 21 441 210 4 410 9261 441 194 481
23 7 5 25 35 175 125 25 625
24 11 21 441 231 4 851 9 261 441 194 481
25 9 5 25 45 225 125 25 625
26 8 3 9 24 72 27 9 81
27 16 24 576 384 9 216 13 824 576 331 776
28 12 13 169 156 2 028 2 197 169 28 561
29 12 40 1 600 480 19 200 64 000 1 600 2 560 000
30 14 5 25 70 350 125 25 625
31 5 6 36 30 180 216 36 1 296
32 14 19 361 266 5 054 6 859 361 130 321
33 15 24 576 360 8 640 13824 576 331 776
34 15 18 324 270 4 860 5 832 324 104 976
35 12 6 36 72 432 216 36 1 296
35 35 35 35 35 35 35 35

∑ 𝑌𝑖 ∑ 𝑋𝑖 ∑ 𝑋𝑖2 ∑ 𝑌𝑖 𝑋𝑖 ∑ 𝑌𝑖 𝑋𝑖2 ∑ 𝑋𝑖3 ∑ 𝑋𝑖2 ∑ 𝑋𝑖4


𝑛 = 35
𝑖=1 𝑖=1 𝑖=1 𝑖=1 𝑖=1 𝑖=1 𝑖=1 𝑖=1
421 482 9 694 6 327 131 525 243 458 9 694 7 021 270
Fuente: Tabla 1.
Elaboración: Autoría propia.

12
Carlos Pedro Vera Ninacondor

1.6.5. Cálculo de los estimadores MCO de los coeficientes 𝜷𝟎 , 𝜷𝟏 y 𝜷𝟐 de la función


de regresión poblacional cuadrática
Para calcular se utiliza el sistema matricial estimado en el punto 1.3
𝑛 𝑛 −1 𝑛

𝑛 ∑ 𝑋𝑖 ∑ 𝑋𝑖2 ∑ 𝑌𝑖
𝑖=1 𝑖=1 𝑖=1
𝛽̂0 𝑛 𝑛 𝑛 𝑛

[𝛽̂1 ] = ∑ 𝑋𝑖 ∑ 𝑋𝑖2 ∑ 𝑋𝑖3 × ∑ 𝑌𝑖 𝑋𝑖


𝛽̂2 3×1
𝑖=1
𝑛
𝑖=1
𝑛
𝑖=1
𝑛
𝑖=1
𝑛

∑ 𝑋𝑖2 ∑ 𝑋𝑖3 ∑ 𝑋𝑖4 ∑ 𝑌𝑖 𝑋𝑖2


[ 𝑖=1 𝑖=1 𝑖=1 ]3×3 [ 𝑖=1 ]3×1
Remplazando
𝛽̂0 35 482 9 694 −1 421
[𝛽̂1 ] = [ 482 9 694 243 458 ] × [ 6 327 ]
𝛽̂2 9 694 243 458 7 021 270 3×3 131 525 3×1
3×1

Simbólicamente
𝛽̂ = (𝑋 ′ 𝑋)−1 𝑋′𝑦
Cálculo de la matriz inversa, es decir, la matriz (𝑋 ′ 𝑋)−1
Cálculo del determinante de la matriz
𝐷 = (35 × 9694 × 7021270) + (482 × 243458 × 9694) + (9694 × 482 × 243458) −
(9694 × 9694 × 9694) − (243458 × 243458 × 35) − (7021270 × 482 × 482)
𝐷 = 2 382 246 698 300 + 1 137 559 452 664 + 1 137 559 452 664 −
910 980 427 384 − 2 074 512 921 740 − 1 631 209 531 480
𝐷 = 40 662 723 024
Cálculo de los menores de la matriz
243 458 | | 482 9 694
| 9 694 243 458 | | 482 |
243 458 7 021 270 9 694 7 021 270 9 694 243 458
482 9 694 35 9 694 35 482
𝑀= | | | | | |
243 458 7 021 270 9 694 7 021 270 9 694 243 458
482 9 694 35 9 694 35 482
[ |9 694 243 458| |
482 243 458
| | |
482 9 694 ]
8 792 393 616 1 024 170 288 23 373 120
𝑀 = [1 024 170 288 151 770 814 3 848 522 ]
23 373 120 3 848 522 106 966

13
Carlos Pedro Vera Ninacondor

Cálculo de los cofactores de la matriz


8 792 393 616 −1 024 170 288 23 373 120
[
𝐶 = −1 024 170 288 151 770 814 −3 848 522]
23 373 120 −3 848 522 106 966
Cálculo de la adjunta de la matriz
8 792 393 616 −1 024 170 288 23 373 120
𝐴 = [−1 024 170 288 151 770 814 −3 848 522]
23 373 120 −3 848 522 106 966
Cálculo de la matriz inversa

1 8 792 393 616 −1 024 170 288 23 373 120


𝐼𝑛𝑣𝑒𝑟𝑠𝑎 = × [−1 024 170 288 151 770 814 −3 848 522]
40 662 723 024
23 373 120 −3 848 522 106 966
8 792 393 616 −1 024 170 288 23 373 120
40 662 723 024 40 662 723 024 40 662 723 024
−1 024 170 288 151 770 814 −3 848 522
𝐼𝑛𝑣𝑒𝑟𝑠𝑎 = (𝑋 ′ 𝑋)−1 =
40 662 723 024 40 662 723 024 40 662 723 024
23 373 120 −3 848 522 106 966
[ 40 662 723 024 40 662 723 024 40 662 723 024]
De donde se obtienen
8 792 393 616 −1 024 170 288 23 373 120
𝛽̂0 40 662 723 024 40 662 723 024 40 662 723 024
−1 024 170 288 151 770 814 −3 848 522 421
[𝛽̂1 ] = × [ 6 327 ]
40 662 723 024 40 662 723 024 40 662 723 024 131 525 3×1
𝛽̂2 3×1 23 373 120 −3 848 522 106 966
[ 40 662 723 024 40 662 723 024 40 662 723 024]3×3

𝛽̂0 7,275014710
[𝛽̂1 ] = [ 0,563203622 ]
𝛽̂2 −0,010840691 3×1
3×1

14
Carlos Pedro Vera Ninacondor

1.6.6. Estimación de la función de regresión muestral MCO


Los valores calculados en el punto 1.6.5 se remplazan en la función de regresión muestral
MCO presentada en el punto 1.6.3, con lo cual se obtiene
̂ 𝑖 = 7,275014710 + 0,563203622𝐻𝑜𝑟𝑎𝑠𝑖 − 0,010840691𝐻𝑜𝑟𝑎𝑠𝑖2
𝑁𝑜𝑡𝑎
Donde
La función de regresión estimada muestra una relación positiva entre la nota lograda y
el número de horas de estudio semanal fuera de clase del estudiante, además, muestra
una relación negativa entre la nota lograda y el cuadrado del número de horas de
estudio semanal fuera de clase del estudiante.
1.6.7. Predicción MCO de la variable dependiente dado un valor de la variable
independiente
Para ello, se utiliza la función de regresión muestral MCO estimada en el punto 1.6.6, la cual
es la siguiente
̂ 𝑖 = 7,275014710 + 0,563203622𝐻𝑜𝑟𝑎𝑠𝑖 − 0,010840691𝐻𝑜𝑟𝑎𝑠𝑖2
𝑁𝑜𝑡𝑎

15
Carlos Pedro Vera Ninacondor

Tabla 3. Predicción de la nota lograda dado un valor del número de horas de estudio
̂ 𝑖 = 7,275014710 + 0,563203622𝐻𝑜𝑟𝑎𝑠𝑖
𝑁𝑜𝑡𝑎 Predicción
𝑛𝑖 𝐻𝑜𝑟𝑎𝑠𝑖
−0,010840691𝐻𝑜𝑟𝑎𝑠𝑖2 ̂𝑖
𝑁𝑜𝑡𝑎
1 5 7,275014710 + 0,563203622(5) − 0,010840691(5)2 9,820015545
2 5 7,275014710 + 0,563203622(5) − 0,010840691(5)2 9,820015545
3 7 7,275014710 + 0,563203622(7) − 0,010840691(7)2 10,686246205
4 5 7,275014710 + 0,563203622(5) − 0,010840691(5)2 9,820015545
5 6 7,275014710 + 0,563203622(6) − 0,010840691(6)2 10,263971566
6 3 7,275014710 + 0,563203622(3) − 0,010840691(3)2 8,867059357
7 29 7,275014710 + 0,563203622(29) − 0,010840691(29)2 14,490898617
8 35 7,275014710 + 0,563203622(35) − 0,010840691(35)2 13,707295005
9 3 7,275014710 + 0,563203622(3) − 0,010840691(3)2 8,867059357
10 16 7,275014710 + 0,563203622(16) − 0,010840691(16)2 13,511055766
11 9 7,275014710 + 0,563203622(9) − 0,010840691(9)2 11,465751337
12 13 7,275014710 + 0,563203622(13) − 0,010840691(13)2 12,764585017
13 10 7,275014710 + 0,563203622(10) − 0,010840691(10)2 11,822981830
14 7 7,275014710 + 0,563203622(7) − 0,010840691(7)2 10,686246205
15 15 7,275014710 + 0,563203622(15) − 0,010840691(15)2 13,283913565
16 20 7,275014710 + 0,563203622(20) − 0,010840691(20)2 14,202810750
17 20 7,275014710 + 0,563203622(20) − 0,010840691(20)2 14,202810750
18 24 7,275014710 + 0,563203622(24) − 0,010840691(24)2 14,547663622
19 10 7,275014710 + 0,563203622(10) − 0,010840691(10)2 11,822981830
20 15 7,275014710 + 0,563203622(15) − 0,010840691(15)2 13,283913565
21 15 7,275014710 + 0,563203622(15) − 0,010840691(15)2 13,283913565
22 21 7,275014710 + 0,563203622(21) − 0,010840691(21)2 14,321546041
23 5 7,275014710 + 0,563203622(5) − 0,010840691(5)2 9,820015545
24 21 7,275014710 + 0,563203622(21) − 0,010840691(21)2 14,321546041
25 5 7,275014710 + 0,563203622(5) − 0,010840691(5)2 9,820015545
26 3 7,275014710 + 0,563203622(3) − 0,010840691(3)2 8,867059357
27 24 7,275014710 + 0,563203622(24) − 0,010840691(24)2 14,547663622
28 13 7,275014710 + 0,563203622(13) − 0,010840691(13)2 12,764585017
29 40 7,275014710 + 0,563203622(40) − 0,010840691(40)2 12,458053990
30 5 7,275014710 + 0,563203622(5) − 0,010840691(5)2 9,820015545
31 6 7,275014710 + 0,563203622(6) − 0,010840691(6)2 10,263971566
32 19 7,275014710 + 0,563203622(19) − 0,010840691(19)2 14,062394077
33 24 7,275014710 + 0,563203622(24) − 0,010840691(24)2 14,547663622
34 18 7,275014710 + 0,563203622(18) − 0,010840691(18)2 13,900296022
35 6 7,275014710 + 0,563203622(6) − 0,010840691(6)2 10,263971566
35 35
35
∑ 𝑋𝑖 1 1 ∑ 𝑌̂𝑖
𝑛 = 35 𝑖=1
𝑌̂ = × ∑ 𝑌̂𝑖 = × 421 = 12,028571429 𝑖=1
𝑛 35
𝑖=1
482 421
Fuente: Tabla 1, ítem 1.6.6.
Elaboración: Autoría propia.

16
Carlos Pedro Vera Ninacondor

1.6.8. Estimación de los residuos MCO


Tabla 4. Residuos y residuos elevados al cuadrado MCO
𝑢̂𝑖
𝑛𝑖 𝑁𝑜𝑡𝑎𝑖 ̂𝑖
𝑁𝑜𝑡𝑎 ̂𝑖 𝑢̂𝑖2
= 𝑁𝑜𝑡𝑎𝑖 − 𝑁𝑜𝑡𝑎
1 8 9,820015545 -1,820015545 3,312456584
2 10 9,820015545 0,179984455 0,032394404
3 15 10,686246205 4,313753795 18,608471804
4 11 9,820015545 1,179984455 1,392363314
5 10 10,263971566 -0,263971566 0,069680988
6 8 8,867059357 -0,867059357 0,751791929
7 14 14,490898617 -0,490898617 0,240981452
8 15 13,707295005 1,292704995 1,671086204
9 7 8,867059357 -1,867059357 3,485910643
10 14 13,511055766 0,488944234 0,239066464
11 19 11,465751337 7,534248663 56,764902916
12 12 12,764585017 -0,764585017 0,584590248
13 14 11,822981830 2,177018170 4,739408113
14 14 10,686246205 3,313753795 10,980964214
15 9 13,283913565 -4,283913565 18,351915432
16 15 14,202810750 0,797189250 0,635510700
17 15 14,202810750 0,797189250 0,635510700
18 16 14,547663622 1,452336378 2,109280955
19 5 11,822981830 -6,822981830 46,553081053
20 18 13,283913565 4,716086435 22,241471262
21 12 13,283913565 -1,283913565 1,648434042
22 10 14,321546041 -4,321546041 18,675760184
23 7 9,820015545 -2,820015545 7,952487674
24 11 14,321546041 -3,321546041 11,032668102
25 9 9,820015545 -0,820015545 0,672425494
26 8 8,867059357 -0,867059357 0,751791929
27 16 14,547663622 1,452336378 2,109280955
28 12 12,764585017 -0,764585017 0,584590248
29 12 12,458053990 -0,458053990 0,209813458
30 14 9,820015545 4,179984455 17,472270044
31 5 10,263971566 -5,263971566 27,709396648
32 14 14,062394077 -0,062394077 0,003893021
33 15 14,547663622 0,452336378 0,204608199
34 15 13,900296022 1,099703978 1,209348839
35 12 10,263971566 1,736028434 3,013794724
35 35 35 35

𝑛 = 35 ∑ 𝑌𝑖 = 421 ∑ 𝑌̂𝑖 = 421 ∑ 𝑢̂𝑖 = 0,00000 ∑ 𝑢̂𝑖2 = 286,65140294


𝑖=1 𝑖=1 𝑖=1 𝑖=1

Fuente: Tabla 1, Tabla 3.


Elaboración: Autoría propia.

17
Carlos Pedro Vera Ninacondor

Bibliografía

Gujarati, D. N., y Porter, D. C. (2010). Econometría. México, D. F., México: McGRAW-HILL/

INTERAMERICANA EDITORES, S. A. de C. V.

Stock, J. H., y Watson, M. M. (2012). Introducción a la Econometría. Madrid, España:

PEARSON EDUCACIÓN, S. A.

18

También podría gustarte