0% encontró este documento útil (0 votos)
29 vistas10 páginas

Resumen Eco

Cargado por

sinchatgpt2
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
29 vistas10 páginas

Resumen Eco

Cargado por

sinchatgpt2
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

Econometria

2024-09-19

1. INTRODUCCION A LA ECONOMETRIA
La demanda para algun bien se puede expresar como:

Qd = f (P, P s , P c , IN C)

donde Qd es la cantidad del bien demandado, P es el precio del bien, P s es el precio de los bienes sustitutos,
P c el precio de los bienes complementarios e IN C es el nivel de ingreso.
Similarmente para la oferta de un bien:
Qs = f (P, P c , P f )
donde Qs es la cantidad del bien ofertado, P es el precio del bien,P c el precio de los bienes competitivos y
P f es el precio de los insumos requeridos para la producción del bien.
Cada una de las ecuaciones anteriores es un modelo económico general que describe como visualizamos el
modo en que las variables económicas están interrelacionadas.
La econometría se basa en como podemos usar la teoría y los datos de economía, negocios y ciencias sociales,
junto con herramientas estadísticas, para predecir resultados, responder preguntas del tipo “¿cuánto?”, y
probar hipótesis.

EL MODELO ECONOMETRICO
Cuando se estudia la venta de algún bien, entendemos que el número real de bienes vendidos es la suma de la
parte sistematica y un componente aleatorio e impredecible ”e” que llamaremos error aleatorio. Esto es,
el modelo econométrico que representa las ventas del bien está dada por:

Qd = f (P, P s , P c , IN C) + e

El error aleatorio representa para las ventas los muchos factores que omitimos en este modelo simple.
En economía, la cantidad demandada se representó como una funcion lineal del precio, extendiendo ésta
suposición:
f (P, P s , P c , IN C) = β1 + β2 P + β3 P s + β4 P c + β5 IN C

El modelo econométrico correspondiente es:

Qd = β1 + β2 P + β3 P s + β4 P c + β5 IN C + e

Los coeficientes β1 , β2 , ..., β5 son parámetros desconocidos del modelo que estimamos usando datos económicos
y técnicas econométricas. La forma funcional representa una hipótesis sobre la relación entre las variables.
En todo modelo econométrico, hay una parte sistemática y un componente aleatorio no observable.

DEFINICIONES DE PROBABILIDAD
1
Una variable aleatoria es una variable la cual su valor es desconocido hasta que es observada.
Las definiciones para densidad, distribucion, marginales y condicionadas son las mismas vistas que en los
cursos de probabilidad.

PROPIEDADES DE LA SUMA
Pn Pn Pn
i=1 (xi − x̄) = 0 \ i=1 (xi − x̄)2 = i=1 x2i − nx̄2
Las demás propiedades son las mas comunes, las podemos omitir.

2. MODELO DE REGRESION LINEAL SIMPLE


La regresión es un conjunto de técnicas que son usadas para establecer una relación entre una
variable cuantitativa llama variable dependiente y una o más variables independientes llamadas
variables predictoras o regresoras. Las variables independientes pueden ser cuantitativas o cualitativas.
La ecuación que representa la relación es llamada modelo de regresión, en este caso, nuestro modelo
econométrico está dado por:
y = β1 + β2 x + e

El objetivo de este modelo es pronosticar la variable respuesta (dependiente) para valores futuros de las
variables predictoras (independientes).
La recta de regresión lineal representa el patrón que sigue la mayoría de los datos.
Regresando a nuestro modelo, β1 , β2 son parámetros de población desconocidos.
Si tomamos que este modelo esta relacionado al gasto semanal en comida dado cierto nivel de ingreso para
todos los hogares de cierta población, entonces β1 representa el gasto en comida semanal, más una prporción
del ingreso β2 , más cualesquiera otros factores e.

PROCESO GENERADOR DE DATOS


Tomando el ejemplo de gasto en comida por hogar, supongamos que podemos obtener una muestra de algún
momento en el tiempo que consiste de N pares de datos que son seleccionados aleatoriamente de la población.
Denotemos (yi , xi ) como el i-ésimo par de datos, con i = 1, ..., N . Las variables yi , xi son variables
aleatorias, porque sus valores son desconocidos hasta que son observados. Cada par de observaciones (yi , xi )
son estadísticamente independientes de cualesquiera otros pares (yj , xj ), donde i ̸= j. Más aún, suponemos
que las variables aleatorias yi , xi tienen una fdp conjunta f (yi , xi ) que describe la distribución de los valores,
y se supone que todos los pares de datos de la misma población siguen la misma fdp, y no solo los pares de
datos son estadísticamente independietnes, también son idénticamente distribuidas (i.i.d).
Si nuestra primera suposición es cierta, esto es, que la regla de comportamiento y = β1 + β2 x + e es valida
para todos los hoagres en la población, entonces para cada para de datos:
yi = β1 + β2 xi + ei

Esto se le conoce como el proceso generador de datos porque asumimos que la información observable
sigue ésta relación.

ERROR ALEATORIO Y EXOGENEIDAD ESTRICTA


2
Las variables (yi , xi ) son variables aleatorias porque no sabemos que valores toman hasta que un hogar en
particular es seleccionado y observado. El término de error ei también es una variable aleatoria.
A diferencia de el gasto en comida y el ingreso, el término de error aleatorio ei es no observable.
Dado un nivel de ingreso xi para el i-ésimo hogar, el mejor (óptimo) predictor del error aleatorio ei es la
esperanza condicional, E[ei |xi ]. Asumir que xi no puede usarse para predecir ei es equivalente a decir que
E[ei |xi ] = 0. De esto se deriva:
E[ei |xi ] = 0 =⇒ E[ei ] = 0
E[ei |xi ] = 0 =⇒ cov(ei , xi ) = 0

Recíprocamente, E[ei |xi ] ̸= 0 si E[ei ] ̸= 0 o cov(ei , xi ) ̸= 0.


Si cov(ei , xi ) = 0, se dice que la variable explicativa (independiente) x es exógena.1 Cuando x es exógena, el
análisis de regresión puede ser usado exitosamente para estimar β1 y β2 .
Para diferenciar la condición débil cov(ei , xi ) = 0, exogeneidad simple, de la condición fuerte E[ei |xi ] = 0,
decimos que x es estrictamente exógena si E[ei |xi ] = 0.
Si cov(ei , xi ) ̸= 0, entonces decimo que x es endógena.2

LA FUNCION DE REGRESION
Si la exogeneidad estricta E[ei |xi ] = 0 es cierta, entonces la esperanza condicional de yi dado xi es

E[yi |xi ] = β1 + β2 xi + E[ei |xi ] = β1 + β2 xi

La esperanza condicional E[yi |xi ] = β1 + β2 xi se llama función de regresión, o función de regresión


poblacional.
Dado un cambio en x, denotado como ∆x, el cambio resultante en E[yi |xi ] es β2 ∆x manteniendo todo lo
demás constante. En este caso, podemos decir que un cambio en x causa un cambio en el valor esperado de y
dado xi .
La función de regresión anterior, graficada en la imagen siguiente con intercepto β1 = E[yi |xi = 0] y pendiente
i |xi ] i |xi )
β2 = ∆E[y
∆xi = dE(y
dxi

Otra consecuencia importante de la exogeneidad estricta es que nos permite pensar el modelo econométrico
como una descomposición de la variable dependiente en dos componentes: uno que varie sistemáticamente
1 Una variable se considera exógena si no está correlacionada con el término de error del modelo. Es decir, la variable

explicativa (o independiente) no está influenciada por factores no observados que afectan a la variable dependiente.
2 Una variable se considera endógena cuando está correlacionada con el término de error del modelo

3
dependiendo del cambio en la variable independiente y otra aleatoria. Esto es, el modelo econométrico
yi = β1 + β2 xi + ei se puede dividir como E[yi |xi ] = β1 + β2 xi y el error aleatorio ei . Esto es:

yi = β1 + β2 xi + ei = E[yi |xi ] + ei

Los valores de la variable dependiente yi varía sistemáticamente dada la variación en la esperanza condicional
E[yi |xi ], a medida que el valor de la variable explicativa (independiente) cambia.

VARIACION DEL ERROR ALEATORIO


Dada la suposición de que la esperanza condicional del término de error aleatorio es cero, E[ei |xi ] = 0. Para
el término de error aleatorio, estamos interesados tanto en la esperanza condicional, como en su varianza.
Idealmente, la la varianza condicional del error aleatorio es constante.

var(ei |xi ) = σ 2

A esto se le conoce como suposicion de homocedasticidad.3 Para cada xi , la variación del componente del
error aleatorio es la misma.
Suponiendo la relación poblacional yi = β1 + β2 xi + ei la varianza condicional de la variable dependiente está
dada por:
var(yi |xi ) = var(β1 + β2 xi + ei ) = var(ei |xi ) = σ 2

La suposición de homosedasticidad condicional implica que para cada nivel de ingreso, la variación en el gasto
en comida alrededor de su media es la misma. Esto quiere decir que para cada nivel de ingreso tenemos la
misma incertidumbre sobre que tan lejos el gasto en comida caerá de suy media. Más aún, esta incertidumbre
no depende del ingreso ni de otra cosa. Si ésta suposición no se cumple, y var(ei |xi ) ̸= 0, entonces los errores
aleatorios se dicen ser heterosedásticos. 4

NORMALIDAD DEL ERROR


El Teorema Central del Limite burdamente nos dice que una colección de muchos factores aleatorios tienden
a una distribución normal. En el contexto del modelo de gasto en comida, si suponemos que los errores
aleatorios reflejan los gustos y preferencias, es completamente plausible que los errores aleatorios para cada
nivel de ingreso están distribuidos normalmente. Si ésta suposición se cumple, entonces:

ei |xi ∼ N (0, σ 2 )

=⇒ yi |xi ∼ N (β1 + β2 xi , σ 2 )

CORRELACION DE ERRORES
Dentro de una muestra grande de datos, pueden haber agrupaciones de observaciones con errores correla-
cionados debido al componente espacial.
Consecuentemente, los errores aleatorios en la relación poblacional yi = β1 + β2 xi + ei están correlacionados
en el tiempo, entonces cov(et , et+1 ) ̸= 0, cov(et , et+2 ) ̸= 0 y así sucesivamente. Esto se denomina como
correlación serial o autocorrelación, en econometría.
3 La homocedasticidad ocurre cuando la varianza de los errores (residuos) de un modelo de regresión es constante para todas

las observaciones. En otras palabras, no importa cuál sea el valor de la variable independiente, los errores tienen la misma
dispersión o variabilidad.
4 La heterocedasticidad ocurre cuando la varianza de los errores no es constante, sino que cambia con respecto a los valores de

las variables independientes.

4
RESUMIENDO LOS SUPUESTOS
SR1: Modelo econométrico Todo par de datos (y_i,x_i) obtenidos de una población satisfacen la relación:

yi = β1 + β2 xi + ei

SR2: Exogeneidad estricta La esperanza condicional del error aleatorio ei es cero. Si x = (x1 , ..., xN ),
entonces:
E[ei |x] = 0

Si la exogeneidad estricta se da, entonces la función de regresión poblacional es:

E[yi |x] = β1 + β2 xi ; i = 1, ..., N

y
yi = E[yi |x] + ei ; i = 1, ..., N

SR3: Homocedasticidad condicional La varianza condicional del error aleatorio es constante:

var(ei |x) = σ 2

SR4: Errores condicionalmente no corrrelacionados La covarianza condicional de errores aleatorios ei y


ej es cero:
cov(ei , ej |x) = 0 si i ̸= j

SR5: La variable explanatorio debe variar En una muestra de datos, xi debe tomar al menos dos valores
diferentes.
SR6: Normalidad del error (opcional) La distribucion condional del error aleatorio es normal:

ei |x ∼ N (0, σ 2 )

Sabemos que el error aleatorio ei y la variable dependiente y son ambas variables aleatorios, la diferencia es
que y es observable mientras que ei no lo es.
Si los parámetros de regresión β1 y β2 fueran conocidos, entonces para cualesquiera valores yi y xi podríamos
calcular
ei = yi − (β1 + β2 xi )

De cualquier modo, β1 y β2 nunca son conocidos, por lo que no podemos calcular ei .

PRINCIPIO DE MINIMOS CUADRADOS


El principio de minimos cuadrados afirma que, para ajustar una recta a los valores de los datos, deberíamos
hacer que la suma de los cuadrados de las distancias verticales desde cada punto a la recta sea lo más pequeña
posible. Las distancias se elevan al cuadrado para evitar que las grandes distancias positivas se cancelen con
las grandes distancias negativas. Esta regla es arbitraria, pero muy efectiva, y es simplemente una forma de
describir una recta que pasa por el medio de los datos. La intersección y la pendiente de esta recta son b1 y
b2 , las estimaciones de mínimos cuadrados de β1 y β2 . La recta ajustada en sí se expresa como:

yˆi = b1 + b2 xi

5
Las distancias verticales desde cada punto a la recta ajustada son los residuos de mínimos cuadrados, dada
por:
eˆi = yi − yˆi = yi − b1 − b2 xi

Ahora, supongamos que dibujamos otra recta, denotada como:

yˆi ∗ = b∗1 + b∗2 xi

donde b∗1 y b∗2 son cualesquiera otros intercepto y [Link] residuos para esta recta está dada por
eˆi ∗ = yi − yˆi ∗. Los estimadores de mínimos cuadrados b1 y b2 tienen la propiedad de que la suma de sus
residuos cuadrados es menor que la suma de residuos cuadrados de cualquier otra recta. Esto es, si
N
X
SSE = eˆi 2
i=1

es la suma de los cuadrados de los residuos de mínimos cudrados y


N
X N
X
SSE ∗ = (eˆi ∗ )2 = (yi − yˆi ∗ )2
i=1 i=1

es la suma de los residuos cuadrados dados cualesquiera otros estimadores, entonces

SSE < SSE ∗

no importa como se dibuje la otra recta en los datos.


El principio de mínimos cuadrados dice que los estimadores b1 y b2 de β1 y β2 son los valores a usar, pues la
recta usando estos es la que mejor encaja con los datos.
Dada las observaciones sobre y y x, queremos encontrar los valores para los parámetros desconocidos η1 y β2
que minimizan la función de suma de cuadrados
N
X
S(β1 , β2 ) = (yi − β1 − β2 xi )2
i=1
.

ESTIMADORES DE MINIMOS CUADRADOS ORDINARIOS (MCO)


P
(xi − x̄)(yi − ȳ)
b2 = P
(xi − x̄)2
b1 = ȳ − b2 x̄
donde ȳ y x̄ son las medias muestrales de las observaciones de y y x.

Elasticidades
La elasticidad ingreso es una manera útil de caracterizar la capacidad de respuesta del gasto a los cambios en
el ingreso. La elasticidad de una variable y con respecto a otra variable x es

∆y x
ϵ=
∆x y

6
En el modelo económico lineal, se mostró que

∆E(y|x)
β2 =
∆x

entonces, la elasticidad del gasto promedio respecto al ingreso es


x
ϵ = β2
E(y|x)

EL ESTIMADOR b2
Tenemos b2 dado por P
(xi − x̄)(yi − ȳ)
b2 = P
(xi − x̄)2

Llamaremos a b2 como forma de desviación de la media del estimador, pues a los datos se les restan sus
medias muestrales. Suponiendo SR1, podemos reescribir b2 como un estimador lineal
N
X
b2 = wi yi
i=1

donde
xi − x̄
wi = P
(xi − x̄)2

VARIANZAS Y COVARIANZA DE b1 y b2
P 2
2 xi
var(b1 |x) = σ [ P ]
N (xi − x̄)2
σ2
var(b2|x) = P
(xi − x̄)2
−x̄
cov(b1 , b2 |x) = σ 2 [ P ]
(xi − x̄)2

DISTR PROB ESTIMADORES DE MINIMOS CUADRADOS


Si suponemos SR6,entonces la distribución de la probabilidad condicional de los estimadores de mínimos
cuadrados también es normal. Primero, dado x suponiendo SR1, si ei es normal, yi también
P lo es. Después,
los estimadores de mínimos cuadrados son estimadores lineales de la forma b2 = wi yi .Dado que x es
esta suma ponderada de variables aleatorias normales, también se distribuye normalmente. Por lo tanto, si
asumimos la normalidad (asunción SR6 sobre el término de error) y tratamos x como dado, entonces los
estimadores de mínimos cuadrados se distribuyen normalmente:

σ 2 x2i
P
b1 |x ∼ N (β1 , P )
N (xi − x̄)2

σ2
b2 |x ∼ N (β2 , P )
(xi − x̄)2

7
ESTIMANDO LA VARIANZA DEL TERMINO DE ERROR

eˆi 2
P
σ2 =
N −2
donde eˆi = yi − b1 − b2 xi , y el 2 en el denominador es el número de parámetros del modelo.

ESTIMANDO VARIANZAS Y COV DE LOS ESTIMADORES DE MC

P 2
2 xi
ar(b1 |x) = σ̂ [ P
vd ]
N (xi − x̄)2

σ̂ 2
ar(b2 |x) = P
vd
(xi − x̄)2

−x̄
c 1 , b2 |x) = σ̂ 2 [ P
cov(b ]
(xi − x̄)2

p
se(b1 ) = ar(b1 |x)
vd

p
se(b2 ) = ar(b2 |x)
vd

[Link] CONFIANZA Y PRUEBA DE HIPOTESIS

LA DISTRIBUCION t

b2 − β 2
t= ∼ tN −2
se(b2 )

Tenemos un resultado similar para b1 , en general:


bk − β k
t= ∼ tN −2 con k = 1, 2
se(bk )

Este resultado es un estadistico pivote, por lo que para encontrar un intervalo de confianza despejamos βk .

PRUEBA DE HIPOTESIS
La hipotesis nula, denotada por H0 , especifíca un valor para el parámetro de regresión, que para generalidad
denotaremos βk .

8
La hipotesis nula se define como H0 : βk = c, donde c es una constante.
Una hipotesis nula es la creencia que mantendremos hasta que estemos convencidos por los datos de que no
es cierta, en ese caso rechazamos la hipotesis nula.
Una hipotesis alternativa H1 es aquella que aceptaremos si H0 se rechaza.
Para la hipotesis alternativa H0 : βk = c, tenemos tres posibles hippotesis alternativas: \
·H1 : βk > c =⇒ t ≥ tc \
·H1 : βk < c =⇒ t ≤ tc \
·H1 : βk ̸= c =⇒ t ≤ −tc o t > tc \

REGION DE RECHAZO

9
4. PREDICCION ETC
Saltaremos prediccionp porque espero que no venga en el examen.

R CUADRADA
X
SST = (yi − ȳ)2

X
SSR = (yˆi − ȳ)2

X
SSE = eˆi 2

SST = SSR + SSE


SSR SSE
R2 = =1−
SST SST
Saltaremos tambien las correlaciones porque espero que no vengan en el examen.

TIPOS DE MODELOS, PENDIENTE Y ELASTICIDAD

10

También podría gustarte