0% encontró este documento útil (0 votos)
62 vistas33 páginas

Repaso de Estadística: Introduccion A La Econometria

Este documento presenta conceptos básicos de probabilidad y estadística, incluyendo definiciones de probabilidad, probabilidad condicional, variables aleatorias, funciones de densidad de probabilidad, momento esperado, varianza, covarianza y coeficiente de correlación. Explica cómo calcular estas medidas y sus propiedades clave.

Cargado por

Uriel Gutiérrez
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PPTX, PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
62 vistas33 páginas

Repaso de Estadística: Introduccion A La Econometria

Este documento presenta conceptos básicos de probabilidad y estadística, incluyendo definiciones de probabilidad, probabilidad condicional, variables aleatorias, funciones de densidad de probabilidad, momento esperado, varianza, covarianza y coeficiente de correlación. Explica cómo calcular estas medidas y sus propiedades clave.

Cargado por

Uriel Gutiérrez
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PPTX, PDF, TXT o lee en línea desde Scribd

Repaso de Estadística

INTRODUCCIÓ N A LA ECONOMETRÍA
Probabilidad
• La probabilidad de un evento A, es un número real en el
intervalo [0, 1] que denotaremos por P(A),

• Representa una medida de la frecuencia con la que se observa


la ocurrencia del evento A cuando se efectúa el experimento
aleatorio en cuestión.
Propiedades de la Probabilidad
Probabilidad Condicional

• Sean A y B dos eventos.

• La probabilidad condicional del evento A dado el evento B,


denotada por P(A|B), se define como sigue:
Ejemplo: (Proba Condicional)
• Ejemplo: Considere el experimento de lanzar un dado equilibrado. El
espacio muestral es = {1, 2, 3, 4, 5, 6}. Sean los eventos A = {2} y B = {2,
4, 6} = “Cae par”. Entonces P(A) = 1/6 mientras que

• Observe que conocer la información de la ocurrencia del evento


B, ha afectado la probabilidad del evento A, es decir, dada la
información que el resultado del dado es un número par, la
probabilidad de obtener “2” es ahora 1/3.
Independencia de Eventos

• Se dice que dos eventos cualesquiera A y B son independientes


si se cumple la condición P(A ∩ B) = P(A)P(B). Esta igualdad es
equivalente a la expresión P(A|B) = P(A) cuando P(B) > 0.

• Ejemplo. Suponga que se lanza una moneda dos veces. Es una


hipótesis natural suponer que el resultado del primer
lanzamiento no afecta el resultado del segundo lanzamiento. De
este modo cualquier evento del primer ensayo es
independiente de cualquier otro evento en el segundo ensayo.
Variables aleatorias
• Dado un experimento aleatorio cualquiera, una variable aleatoria
es una transformación X del espacio de resultados al conjunto de
números reales, esto es,

• Suponga entonces que se efectúa el experimento aleatorio una


vez y se obtiene un resultado ω en . Al transformar este resultado
con la variable aleatoria X se obtiene un número real X(ω) = x.
Variables aleatorias
Ejemplo: (v.a.)
• Suponga que un experimento aleatorio consiste en lanzar al aire una
moneda y observar la cara superior una vez que la moneda cae.
Denotemos por “Cara” y “Cruz” los dos lados de la moneda.

• El espacio muestral es el conjunto = {“Cara”, “Cruz”}.

• Defina la variable aleatoria X : → R de la siguiente forma:


X(“Cara”) = 0 y X(“Cruz”) = 1.

• De este modo podemos suponer que el experimento aleatorio


tiene dos valores numéricos posibles: 0 y 1. Observe que los
números 0 y 1 son en realidad arbitrarios, otro par de números
distintos puede ser escogido para distinguir los dos resultados del
experimento aleatorio.
v.a. discreta y continua
• Considerando el conjunto de valores que una variable aleatoria
puede tomar, vamos a clasificar a las variables aleatorias en dos
tipos: discretas o continuas.

• Decimos que una v.a. es discreta cuando el conjunto de valores


que ésta toma es un conjunto discreto, es decir, un conjunto
finito o numerable. Por ejemplo, el conjunto {0, 1, 2, . . . , n} es un
conjunto discreto porque es finito, lo mismo N pues aunque es
infinito, es numerable y por lo tanto discreto.

• Por otra parte, decimos que una variable aleatoria es continua


cuando toma todos los valores dentro de un intervalo (a, b) ⊆ R.
Funciones de densidad
• Definición. (Función de probabilidad para una variable discreta).
Sea X una variable aleatoria discreta que toma los valores x1,
x2, . . . con probabilidades respectivas P(X = x1), P(X = x2), . . .. La
función de probabilidad de la variable X denotada por f(x) se
define como sigue

• En palabras, la función de probabilidad es simplemente aquella


función que indica los valores de la probabilidad en los distintos
valores que toma la variable aleatoria discreta.
Función de densidad (caso discreto)
• Toda función de densidad (discreta) debe verificar las siguientes
dos propiedades:

• Ejemplos…
Funció n de densidad (caso continuo)
• Definición. (Función de probabilidad para una variable continua).
Sea X una variable aleatoria continua. Decimos que la función
integrable y no negativa f(x) : R → [0,∞) es la función de densidad
de X si para cualquier intervalo (a, b) de R se cumple la igualdad

• Es decir, la probabilidad de que la variable tome un valor dentro


del intervalo (a, b) se puede calcular o expresar como el área bajo
la función de densidad en el intervalo (a, b). De esta forma el
cálculo de una probabilidad se reduce al cálculo de una integral..
Funció n de densidad (caso continuo)
• Toda función de densidad f(x) de una variable aleatoria continua
cumple las siguientes propiedades análogas al caso discreto.
Funció n de distribució n
• Definición. Sea X una variable aleatoria discreta o continua. La
función de distribución de X, denotada por F(x) : R → [0, 1], se
define como F(x) = P(X ≤ x).

• Siendo F(x) una probabilidad, sus valores están entre 0 y 1.

• F.D. Discreta:

• F.D. Continua:
Propiedades de la Función de distribución
Ejemplo. Funció n de distribució n
• Ejemplo: Considere la variable aleatoria discreta X del ejemplo
pasado. Tenemos que la correspondiente función de distribución
evaluada en x se calcula sumando las probabilidades P(X = u) para
valores de u menores o iguales a x, es decir,
Funciones de densidad de probabilidad
conjunta (caso discreto)
• Definición. (Función de probabilidad conjunta discreta).
Consideremos un vector aleatorio discreto (X, Y ) tal que la
variable X toma los valores en el conjunto {x1, x2, . . .}, y la
variable Y toma los valores en {y1, y2, . . .}. La función de densidad
del vector (X, Y ) que se denota por f(x, y), se encuentra definida
sobre R2 y toma valores en el intervalo [0, 1] de acuerdo a la
siguiente definición

• Es decir, el número f(x, y) es la probabilidad de que la variable X


tome el valor x y al mismo tiempo la variable Y tome el valor y.
Funciones de densidad de probabilidad
conjunta (caso discreto)
• Toda función de densidad de probabilidad conjunta (caso discreto)
debe de cumplir las siguientes propiedades:

• Ejemplo…
Función de densidad de probabilidad
marginal (caso discreto)
• En relación con f (x, y), f (x) y f (y) se denominan funciones de
densidad de probabilidad individuales o marginales.

• Ejemplo…
Función de densidad de probabilidad
conjunta (caso continuo)
• Definición. (Función de probabilidad conjunta continua). Se dice
que la función integrable y no negativa f(x, y) : R2 → [0,∞) es la
función de densidad del vector aleatorio continuo (X, Y ) si para
todo par (x, y) en R2 se cumple la igualdad

• Toda función de densidad f(x, y) de estas características satisface


las siguientes dos propiedades que son análogas al caso discreto.
Función de densidad de probabilidad
marginal (caso continuo)
• Se define la función de densidad marginal de la variable X como
sigue

• La correspondiente función de densidad marginal de la variable Y


se obtiene integrando ahora respecto de la variable x, es decir,
Características de las distribuciones
de probabilidad
• Una distribución de probabilidades a menudo se resume en
términos de algunas de sus características, conocidas como
momentos de la distribución. Dos de los momentos más
comunes son la media, o valor esperado, y la varianza.

• Valor esperado. El valor esperado de una va discreta X, denotado


por E(X ), se define de la siguiente manera:
Propiedades del valor esperado
1. El valor esperado de una constante es la constante misma. Así, si b es una constante,
E(b) = b.

2. Si a y b son constantes, E(aX + b) =aE(X) + b

3. Si X y Y son variables aleatorias independientes, E(XY) = E(X) E(Y)

4. Si X es una variable aleatoria con FDP f (x) y si g(X ) es cualquier función de X, entonces

5. Por tanto, si g(X ) = X 2,


Varianza
• Sea X una variable aleatoria y sea E(X) = μ. La distribución o
dispersión de los valores de X alrededor del valor esperado se
mide por la varianza, la cual se define como

• La varianza o la desviación estándar da una indicación de qué


tan cercanos o dispersos están los valores individuales de X
respecto del valor de su media.

• La varianza definida anteriormente se calcula de la siguiente


forma:
Varianza
• Por conveniencia de cálculo, la fórmula de la varianza anterior
se expresa también como

• ¿Porqué?
Propiedades de la Varianza
1. E(X − μ)2 = E(X 2) − μ2

2. La varianza de una constante es cero.

3. Si a y b son constantes,

4. Si X y Y son variables aleatorias independientes,

5. Si X y Y son va independientes y a y b son constantes,


Propiedades de la Varianza
Varianzas de variables correlacionadas

7. Sean X y Y dos variables aleatorias. Entonces,

5. Para tres variables aleatorias X1, X2 y X3, la varianza es:

6. En general,
Covarianza
• Sean X y Y dos va con medias μx y μy, respectivamente.
Entonces, la covarianza entre las dos variables se define como

• Propiedades de la covarianza
Coeficiente de correlación
• El coeficiente de correlación (poblacional) ρ (rho) se define como

• Así definido, ρ es una medida de la asociación lineal entre dos


variables y su valor se sitúa entre −1 y +1, donde −1 indica una
perfecta asociación negativa y +1 indica una perfecta asociación
positiva.
Momentos superiores de las distribuciones de
probabilidad
• Los momentos tercero y cuarto de una FDP univariada f (x)
alrededor del valor de su media (μ) se definen como

• El tercero y cuarto momentos de una distribución sirven a menudo


para estudiar la “forma” de una distribución de probabilidades, en
particular su asimetría, S (es decir, falta de simetría), y su
apuntamiento o curtosis, K (es decir, altura o aplanamiento).
Momentos superiores de las distribuciones de
probabilidad
• Una medida de asimetría se define como

• Una medida común de curtosis está dada por

• Las FDP con valores de K menores que 3 se denominan platicúrticas


(anchas o de colas cortas), y las que tienen valores mayores que 3 se
denominan leptocúrticas (delgadas o de colas largas). Una FDP con un
valor de curtosis de 3 se conoce como mesocúrtica, cuyo ejemplo
principal es la distribución normal.
Asimetría y Curtosis

También podría gustarte