Regresión lineal
Distribuciones de estimadores
Modelo de regresión
Dos variables: independiente x (variable de control), dependiente
Y (variable de respuesta)
Regresión : E {Y |x}
Regresión lineal simple: E {Y |x} = ax + b
Modelo normal: Y ∼ N(ax + b, σ 2 ) Y = ax + b + , ∼ N(0, σ 2 )
Datos : (x1 , y1 ), . . . , (xn , yn )
Parámetros a, b, σ 2
Caso particular a = 0 independencia.
Estimación, pruebas, etc. ...
1/8
Regresión lineal
Distribuciones de estimadores
Estimación. Método de mı́nimos cuadrados.
Para unas a y b dadas, se pronostica axi + b como respuesta,
mientras fue observado yi .
Error cuadratico (axi + b − yi )2 para una i . Sobre todas i:
n
X
(axi + b − yi )2 .
i=1
Criterio de mı́nimos cuadrados: que sea mı́nima la suma de
cuadrados de errores (Gauss)
X
(axi + b − yi )2 → mı́n
a,b
Sea (â, b̂) punto donde se alcanza el mı́nimo.
Derivamos la suma de cuadrados e igualamos a cero:
2/8
Regresión lineal
Distribuciones de estimadores
Fórmulas
X
(axi + b − yi )xi = 0
X
(axi + b − yi ) = 0
dos ecuaciones lineales conP dos incógnitas
Equivalentes a a xi2 + b xi = xi yi y a xi + nb = yi
P P P P
De la segunda
X X
b=( yi − a xi )/n = ȳ − ax̄
SustituimosPen la primera
a xi2 + ( yi − a xi ) xi /n =
P P P P
xi yi ⇒
X X X X X
a( xi2 − ( xi )2 /n) = xi yi − xi yi /n
| {z } | {z }
Sxx Sxy
3/8
Regresión lineal
Distribuciones de estimadores
Ecuación de regresión
â = Sxy /Sxx y b̂ = ȳ − âx̄
Ecuación de regresión
y = âx + b̂ = âx + (ȳ − âx̄)
y − ȳ = â(x − x̄)
P P
Predicciones ŷi = âxi + b̂ ( ŷP
i = yi )
Residuos (errores) ˆi = yi − ŷi ( ˆi = 0)
4/8
Regresión lineal
Coeficiente de regresión y la ordenada al origen
Distribuciones de estimadores
Distribuciones de estimadores
Yi ∼ N(axi + b, σ 2 )
P
1 (xi − x̄)(Yi − Ȳ )
â = SxY = i
Sxx Sxx
Esperanza de â:
1 1
E
SxY = ESxY
Sxx Sxx
1 X 1 X
= ( (xi − x̄)(EYi − E Ȳ ) = ( (xi − x̄)(axi − ax̄) =
Sxx Sxx
i i
a X a X
= ( (xi − x̄)(xi − x̄)) = ( (xi − x̄)2 ) = a
Sxx Sxx
i i
→ â estimador insesgado de a.
5/8
Regresión lineal
Coeficiente de regresión y la ordenada al origen
Distribuciones de estimadores
Varianza de â
Ahora calculamos
1
Var (â) = 2
Var (SxY ) (1)
Sxx
Calculamos esta última varianza
X
Var (SxY ) = Var ( (xi − x̄)(Yi − Ȳ ))
i
P P
Notemos
P que i (x i − x̄)(Yi − Ȳ ) = i (xi − x̄)Yi ya que
i (xi − x̄)Ȳ = 0 por lo que
X X
Var ( (xi − x̄)(Yi − Ȳ ) = Var ( (xi − x̄)Yi )
i i
X
= (xi − x̄)2 σ 2 = Sxx σ 2
σ2
por lo que (1) es igual a Var (â) = Sxx
6/8
Regresión lineal
Coeficiente de regresión y la ordenada al origen
Distribuciones de estimadores
Ahora sobre b̂ = Ȳ − âx̄. Primero
E b̂ = E (Ȳ − ax̄) = (ax̄ + b) − x̄a = b. Insesgado.
Ahora Var b̂ = Var (Ȳ − âx̄).
Se puede demostrar que Ȳ y â son independientes.
De ser ası́
σ2 1 x̄ 2 2
Var b̂ = Var (Ȳ − âx̄) = + (x̄)2 Var â = ( + )σ
n n Sxx
Entonces
1 x̄ 2 2
Var b̂ = ( + )σ
n Sxx
7/8
Regresión lineal
Coeficiente de regresión y la ordenada al origen
Distribuciones de estimadores
Theorem
σ2
â ∼ N(a, )
Sxx
1 (x̄)2
b̂ ∼ N(b, + σ2)
n Sxx
8/8