Funciones de Distribución en Estadística
Funciones de Distribución en Estadística
Función de Distribución
Universidad de Chile
Economía & Negocios
FUNCIONES DE DISTRIBUCION.
1. INTRODUCCIÓN.
En este capítulo se define y exponen varias distribuciones especiales que son muy
utilizadas en aplicaciones de probabilidad estadística. Las distribuciones que se
presentarán aquí incluyen distribuciones discretas y continuas de tipo univariante,
bivariante y multivariante. Las distribuciones discretas univariantes son la binomial, de
Bernoulli y de Poisson. Las distribuciones continuas univariantes son la normal, gamma,
exponencial y beta. Otras distribuciones continuas univariantes son la lognormal, de
Weibull y de Pareto. También se exponen la distribución discreta multivariante
denominada distribución multinomial y la distribución continua bivariante denominada
distribución normal bivariante.
Es muy importante, a pesar de que no se a discutido con detalle, tener claro que las
estructuras de las funciones de distribuciones se encuentran definidas por una familia
especifica de funciones, como por ejemplo, exponenciales, cuadráticas (polinomios),
logarítmicas, cóncavas o convexas, pero la forma definitiva, la que representa el
comportamiento final de una población por medio de sus frecuencias depende de los
parámetros que la constituyen. Un ejemplo claro de este punto, es el hecho que una
línea recta, es una familia de posibles funciones que pueden ser oblicuas, verticales,
horizonales, etc., sin embargo, el grado de inclinación y contacto con el o los ejes
dependerá de los valores que tomen su pendiente o intercepto.
Ax + B a ≤ x ≤ b
f ( x) = (1.1)
0
Además, por efecto de simplificación, supongamos que esta función es efectivamente una
función de distribución de probabilidades, por lo tanto, sabemos que el área bajo la curva
dentro del dominio de f ( x) debe ser igual a 1. Ahora, nuestro interés radica en el hecho
de que la función de la ecuación (1.1) es una recta, pero la constitución final de ella
dependerá de sus parámetros A (pendiente) y B (intercepto), por lo que para diferentes
combinaciones de estos valores, tendremos diferentes distribuciones de probabilidades
finales. Esto quiere decir, que al ser la función de distribución el reflejo del
comportamiento poblacional, entonces sus característica poblaciones (parámetros)
perimitiran diferencias una población de otra cuando estas pertenezcan a la misma
familia, ya sea porque una tiene mayor pendiente que la otra o porque una se desfasa más
que la otra.
Es por esta razón que muchas de las funciones que veremos a continuación se describirán
bajo la premisa de valores paramétricos conocidos, por ejemplo en nuestro caso de la
línea recta, la función será denotada como:
f ( x / A, B) = Ax + B ∀ x ∈ [ a, b] (1.2)
Se dice que una variable aleatoria X tiene una distribución de Bernoulli con parámetro
p tal que (0 ≤ p ≤ 1) si X puede tomar únicamente los valores 0 y 1 y las probabilidades
son
) p x (1 − p )1− x
f ( x / p= ∀=
x 0,1 (1.4)
1.i. E ( X ) = p
[Link]. E ( X 2 ) = p
[Link]. var( X ) = p(1 − p)
[Link]. ψ (t ) = E (exp(tX )) = pe t + q
Definición 2. Una variable aleatoria X tiene una distribución Binomial con parámetros
T y p si X tiene una distribución discreta cuya función corresponde a:
T
x / p ) p x (1 − p )T − x =
f (= ∀x 0,1, 2,..., T (1.5)
x
2.i. E ( X ) = Tp
[Link]. var( X ) = Tp (1 − p)
[Link]. ψ (t ) = E (exp(tX )) = ( pe t + q) T
Demostración
Para efecto de desarrollo se demostraran las propiedades 2.i y [Link], mientras que la [Link]
quedará propuesta para el lector.
ΣTx = 0 ( Tx ) xp x (1 − p )T − x
E( X ) =
=
T
x 1=
T!
x !(T − x )!
x T −x T
E( X ) =
Σ(T −1)!
x 1 ( x −1)!(T − x )! xp (1 − p ) =
TpΣ p x −1 (1 − p )T − x (1.6)
Sin embargo, la sumatoria del lado derecho de la ecuación (1.7) es igual a 1, por
definición de función de distribución de probabilidad, así que la expresión anterior se
reduce a:
E ( X ) = Tp
ΣTx = 0 ( Tx ) x( x − 1) p x (1 − p )T − x
E ( X ( X − 1)) =
E ( X ( X − 1)) = T (T − 1) p 2=
ΣTx 2 ( )p
T −2
x−2
x−2
(1 − p )T − x
E ( X ( X − 1)) = T (T − 1) p 2 Σ Ny = 0 ( Ny ) p y (1 − p ) N − y = T (T − 1) p 2
E ( X 2 ) = T (T − 1) p 2 + Tp
var( X ) =
E( X 2 ) − E 2 ( X ) =
T (T − 1) p 2 + Tp − T 2 p 2 =
−Tp 2 + Tp =
Tp (1 − p )
Definición 3. Sea X una variable aleatoria con una distribución discreta y supóngase
que el valor de X debe ser un entero no negativo. Se dice que X tiene una distribución
de Poisson con media λ (λ > 0) si la función de distribución de probabilidad de X es la
siguiente:
λ x e −λ
f (x / λ) = ∀x = 0,1,2,..., (1.8)
x!
Está claro que f ( x / λ ) es positiva para todos los valores de x . Para verificar que la
función f ( x / λ ) definida por la ecuación (1.8) satisface los requisitos de toda función de
distribución, se debe demostrar que Σ ∞x =0 f ( x / λ ) = 1 . Se sabe de cálculo que para todo
número real λ ,
λx λx
∑ ∑
∞ τ
eλ = = lim (1.9)
x =0 x! τ →∞ x =0 x!
Por tanto,
λx
∑ ∑
∞ ∞
eλ = f ( x / λ ) = e −λ = e −λ e λ = 1 (1.10)
x =0 x =0 x!
e −λ λ x e −λ λ x e − λ λ x −1
∑ ∑ ∑ ∑
∞ ∞ ∞ ∞
E( X ) =
x =0
xf ( x / λ ) =
x =0
x =
x =1
x =λ
x =1 ( x − 1)!
=λ (1.11)
x! x!
=
∞ ∞ e− λ λ x 2 ∞
E[ X ( X − 1)] =
x 0 =x 0= x!
e− λ λ x −2
Σ x( x − 1) f ( x / λ ) =
x 0 ( x − 2)! Σ x( x − 1) λ Σ
= λ2
= (1.12)
E[ X ( X − 1)] = E ( X 2 ) − E ( X ) = E ( X 2 ) − λ = λ 2
E ( X 2 ) = λ2 + λ (1.13)
De esta forma de la ecuación (1.10) y (1.13) se puede determinar que la varianza de esta
variable corresponde a:
var( X ) = E ( X 2 ) − [ E ( X )] 2 = λ (1.14)
(λ e t ) x
∑ ∑
∞ ∞
ψ (t ) = E ( e tX ) = e tx f ( x / λ ) = e −λ = exp[λ (e t − 1)] (1.15)
x =0 x =0 x!
Respuesta
f ( x / p, T ) = ( )pT
x
x
(1 − p )T − x ≡ f (5 / 12 ,12) = ( )(
12
5 ) (1 − 12 )7
1 5
2
Pero:
( )=
12
5
12!
5!7!
= 8⋅9⋅10⋅11⋅12
1⋅ 2⋅3⋅ 4⋅5
= 8⋅9⋅11⋅12
1⋅3⋅ 4
= 8⋅9⋅11
1
= 8 ⋅ 9 ⋅11 = 792
El lector debe tener presente que el resultado puede quedar expresado como 99 sobre
512, más que 0.1933, de hecho para una decisión practica y básicamente se pudo
aproximar a 1 de cada 5 casos, con lo cual habría sido posible sacar conclusiones sin
perdida de generalidad.
Respuesta
f (7 / 0.8,10) = ( )(
10
7 ) ( ) =
4 7 1 3
5 5
10!
7!3!
( 54 )7 ( 15 )3 = 8⋅9⋅10
1⋅ 2⋅3
= 4 ⋅ 3 ⋅10 5410 ≈ 0.20
7
2 x e −2
Pr( X = x / λ = 2) = f ( x / λ = 2) = ∀x = 0,1, 2,...,
x!
20 e −2
Pr( X= 0 / λ= 2)
= = 0,1353
0!
21 e −2
Pr( X= 1/ λ= 2)
= = 0, 2707
1!
22 e −2
Pr( X= 2 / λ= 2)
= = 0, 2707
2!
1
f ( x / a, b) = ∀a< x<b (1.16)
b−a
Los parámetros a y b de esta densidad de probabilidad son constantes reales, con a < b .
4.i. E ( X ) = 12 (a + b)
[Link]. var( X ) = 121 (b − a) 2
Esta distribución resulta de gran utilidad para atacar problemas de listas de espera y
colas. Cuando el tiempo de servicio a un cliente es aleatorio, esta incertidumbre puede
representarse a menudo mediante una distribución exponencial. La distribución
exponencial difiere de la normal en dos características básicas: Se restringe a variables
aleatorias que pueden tomar valores positivos únicamente, y su función de densidad no
es simétrica alrededor de la media.
e −x β
f (x / β ) = ∀x≥0 (1.17)
β
Donde β es cualquier número positivo, entonces se dice que X sigue una distribución
exponencial
5.i. E ( X ) = β
[Link]. var( X ) = β 2
[Link]. ψ (t ) = E (exp(tX )) = (1 − βt ) −1
f ( x / α ) α e −α x
= ∀ x ≥ 0, α > 0
Esta forma, como podrá darse cuenta el leedor es igual a la de la exponencial, para ello
sólo deberíamos imponer que α = β −1 y recuperaríamos la misma función definida en la
ecuación (1.17). Sin embargo, en una buena parte de la literatura se utiliza esta ultima
expresión de la función exponencial y que en este caso la esperanza y varianza serían α −1
y α −2 , respectivamente.
Ejemplo 4. En una cierta localidad de la autopista 78, el número de autos que exceden
el límite de velocidad en más de 10 Kilómetros por hora en media hora es una variable
aleatoria que tiene una distribución de Poisson con λ = 8.4 . ¿Cuál es la probabilidad de
que el tiempo de espera entre autos que exceden el límite de velocidad en más de 10
Km/Hr sea menor a 5 minutos?
Respuesta
Al usar media hora como la unidad de tiempo, tenemos que lamba puede ser equivalente
a el inverso de beta. Por consiguiente, el tiempo de espera es una variable aleatoria que
tiene una distribución exponencial con β = 8.41 y, puesto que 5 minutos es 16 de la unidad
de tiempo, encontraremos que la probabilidad deseada es:
x2 1/ 6 1/ 6
∫Domf
f ( x / β )dx =∫ β −1e − x / β dx =∫
x1 0
8.4e −8.4 x dx =−e −8.4 x
0
=−e −1.4 + 1 =0.75
Respuesta
En este caso debemos recordar que la muestra al ser independientes, entonces cada una
de sus componentes son independientes, esto quiere decir que no existe covarianza entre
las observaciones que en este caso son la muestra de variables aleatorias. Por otro lado el
que sean idénticamente distribuidas quiere decir que cada una da la variables aleatorias
que constituyen la muestra tienen los mismos parámetros, que en este caso
correspondería a la esperanza y varianza, que en mucha de la literatura disponible es
interpretado como pertenecientes a la misma población, lo cual puede ser cierto sólo si
la población sobre la cual se extrajo la muestra es constante en forma transversal (entre
los individuos) y longitudinalmente (a través del tiempo).
Para efecto de nuestro problema supondremos que nuestra población es constante para
todos los efectos, es decir, que nuestro cálculo queda como:
−1 T
xi ) = T −1 E (ΣTi 1 xi )
T ) = E (T Σ i 1 =
E ( x=
Claramente los términos que no tienen comportamiento aleatoria no sufren cambio con
la función esperanza, lo que hace poder sacarlo de esta, sin embargo, no debemos olvidar
que la esperanza es un operador lineal, por lo tanto, el valor esperado de la suma de
variables aleatorias es la suma de los valores esperados por separado, es decir,
) T −1ΣTi =1 E ( xi )
E ( xT=
Pero, todos los x´s tienen el mismo valor esperado, recuerde que son idénticamente
distribuidos, por lo tanto, tenemos que:
E ( xT ) =T −1ΣTi =1 β =T −1T β =β
Ahora con respecto a la varianza tenemos algo un poco más complicado, ya que esta no
es lineal, sin embargo, puede tener un comportamiento parecido al lineal si las variables
sean independientes, para entender mejor este concepto, vamos a realizar el siguiente
procedimiento, recordemos que la varianza de la suma de dos variables aleatorias
corresponde a:
var( X + =
Y ) var( X ) + var(Y ) + 2 cov( X , Y )
var( X + =
Y ) var( X ) + var(Y )
De esta forma podemos ver que cuando se suman variables independientes, entonces es
posible afirmar que es igual a la suma de las varianzas por separado. Entonces, para
nuestro problema tenemos
xT )= var(T −1ΣTi 1 =
var(= xi )= T −2 var(ΣTi 1 xi )
var(
= var( xi ) =T −2 ΣTi 1 β 2 =T −1 β 2
xT ) =T −2 ΣTi 1 =
µ ,σ 2 )
f ( x /= 1
2πσ 2
(
exp − 2σ1 2 ( x − µ ) 2 ) ∀ x ∈ IR (1.18)
6.i. E ( X ) = µ
[Link]. var( X ) = σ 2
[Link]. ψ (t ) = E (exp(tX )) = ( µt + 12 σ 2 t 2 ) ∀t ∈ IR
De estas propiedades puede concluirse que dadas la media y la varianza de una variable
aleatoria normal, queda determinada la distribución específica dentro de la familia de
distribuciones normales. Esto permite el uso de la siguiente notación.
X N (µ ,σ 2 )
Ahora, la media proporciona una medida de posición central, mientras que la varianza da
una medida de dispersión alrededor de la media. Luego los valores que toman los
parámetros µ y σ 2 tienen diferentes efectos en la función de densidad de una variable
aleatoria normal. La figura 2 muestra la función de densidad de dos distribuciones
normales con varianza común pero diferentes medias. Puede verse, que incrementar la
media, dejando constante la varianza, traslada la función de densidad pero no altera su
forma. En la figura 3 las funciones de densidad representadas corresponden a variables
aleatorias normales con media común pero diferentes varianzas. Ambas son simétricas
alrededor de la media común, pero la que tiene mayor varianza es más dispersa.
( )
x0
=
F ( x0 ) ∫−∞
1
2πσ 2
exp − 2σ1 2 ( x − µ ) 2 dx
1 1
φ=
( z / 0,1) exp − z 2 ∀ z ∈ IR (1.19)
2π 2
exp ( − 12 z 2 ) dz
z0 z0 1
=
Φ ( z0 ) ∫ −∞
φ ( z=
/ 0,1)dz ∫ −∞
2π
(1.20)
Φ (−0, =
74) Pr( Z ≤ −0.74)
= 0, 2296
Sin embargo, los valores positivos de esta misma probabilidad se podría obtener a partir
de la simetría del problema. Esto quiere decir que Pr( Z ≤ −0.74)
= Pr( Z ≥ 0.74) , que en
términos de la función acumulada normal estándar es:
1
Téngase presente que Pr( Z ≤ z )= Pr( Z < z ) , para efecto de variables continuas.
Respuesta
Pr(−0.5 < Z < 1.23) = Pr( Z < 1.23) − Pr( Z < −0.5) = Φ (1.23) − Φ (−0.5)
Supongamos que la variable aleatoria discreta 2 X , tiene una probabilidad p de ser igual
a x0 , ( Pr(=
X x= 0) p ), por otro lado, tenemos dos escalares que son a y b (constantes
arbitrarias), entonces, analicemos lo siguiente:
Pr( X + a = x0 + a ) = Pr( X = x0 , a = a)
Pero Pr(a = a) es uno, ya que una constante nunca cambia de posición por lo que se
tiene certeza absoluta de su valor, por esta razón, al reemplazar los valores tenemos que:
2
Esto es simplemente para simplificar el cálculo, sin embargo, el lector podrá extender este ejercicio a
variables aleatorias continuas, cambiando solamente el signo de desigualdad.
Pr( X + a = x0 + a ) = p ⋅1 = p
Sin embargo, esta expresión puede ser fácilmente extensible a una variable aleatoria
continua, como:
Pr( X ⊕ x=
0) Pr( X + a ⊕ x0 + a ) (1.22)
Pr( X ⊕ x0=
) Pr(bX ⊕ bx0 ) (1.23)
Ejemplo 7. Sea X una variable aleatoria normal con media µ y varianza σ 2 . Entonces,
si definimos la variable Z X , como:
X −µ
ZX =
σ
¿La probabilidad Pr( X ≤ x) , puede ser representada como la probabilidad de una variable
aleatoria normal estándar?
Respuesta
X − µ x0 − µ x0 − µ
Pr( X ≤ x=
0) Pr ≤ = Pr Z X ≤ σ
σ σ
Sabemos que Z X tiene comportamiento normal, pero todavía no podemos afirmar que
esta normalidad viene de una distribución estándar. Para determinar ello es necesario
determinar el valor esperado (media) y la varianza de esta variable aleatoria. Es decir,
E[σ −1 ( X −=
µ )] σ −1 E[ X −=
µ ] σ −1[ E ( X ) − E ( µ )]
var[σ −1 ( X =
− µ )] σ −2 var[ X=
− µ ] σ −2 [var( X ) − var( µ )]
Ejemplo 8. El rendimiento promedio de la PSU 3 2005 fue de 395 ptos. y una desviación
estándar de 168 ptos. Se le solicita que determine el número aproximado de alumnos
que superaron los 670 ptos, si el número total de quienes la rindieron fue de 120.000,
además puede suponer que esta población sigue un comportamiento normal.
Respuesta
El lector debe tener presente que es muy frecuente encontrarse con problemas que
suponen normalidad, que como ejercicio matemático es una buena forma de simplificar
la resolución del problema, sin embargo, no es tan simple darse este supuesto en
problemas cotidianos, de hecho hacerlo sin la más mínima fundamentación teórica, es
una exageración que resta confiabilidad a los resultados y por ende a las conclusiones.
Entonces, como calcular esta probabilidad con una integral es prácticamente imposible,
entonces, utilizaremos las ecuaciones (1.22) y (1.23), para determinar el valor de esta
probabilidad, es decir,
3
PSU, Prueba de Selección Universitaria, la cual se aplica en Chile desde el 2003 y rinden todos los
alumnos que hallan cursado su enseñanza media.
Ahora si quisiéramos discutir este resultado, podríamos hacer énfasis en el hecho de que
no todos los alumnos rindieron la PSU, por lo tanto, existe un porcentaje de individuos
que no participaron en el proceso, quienes posiblemente podrían haber modificado este
resultado, no siendo un 5%, sin que una cifra posiblemente menor.
Supóngase que Z 1 y Z 2 son variables aleatorias independientes cada una de las cuales
tiene una distribución normal tipificada. Entonces la función de distribución de
probabilidad conjunta g ( z1 , z2 ) de Z 1 y Z 2 para cualquiera valores de z1 y z2 está dada
por la ecuación
g ( z1 , z 2 ) = 1
2π
(
exp − 12 ( z12 + z 22 ) ) (1.24)
X 1 = σ 1 Z 1 + µ1
(1.25)
X 2 = σ 1 [ ρZ 1 + (1 − ρ 2 ) −1 2 Z 2 ] + µ 2
x − µ 2
1 1
1
f ( x1 , x 2 ) = exp − 1
2 σ
2π (1 − ρ ) σ 1σ 2
2 12
2(1 − ρ ) 1
x − µ1 x 2 − µ 2 )
− 2 ρ 1 (1.27)
σ 1 σ 2
2
x − µ2 )
+ 2
σ2
E( X i ) = µ i var( X i ) = σ i2 ∀i = 1,2
cov( X 1 , X 2 )
cov( X 1 , X 2 ) = ρσ 1σ 2 ρ(X1, X 2 ) =
σ 1σ 2
Algunas de las variables aleatorias que veremos siguen una distribución de la forma:
f ( x / α , β ) = kx α −1 e − x β x ∈ IR + + (1.28)
Donde α > 0 , β > 0 y k debe ser tal que el área total bajo la curva sea igual a 1. Para
evaluar k , primero hacemos la substitución y = x β , lo cual nos da
∞ ∞
∫ 0
kx α −1 e − x β dx = kβ α ∫ 0
y α −1 e − y dy (1.29)
∞
Γ(α ) = ∫ 0
y α −1 e − y dy ∀α > 0 (1.30)
Que se trata en detalle en muchos de los textos de cálculo avanzado. Al integrar por
parte y asumiendo que α es un parámetro, encontramos que la función gamma satisface
la fórmula recursiva.
Γ(α=
) (α − 1) ⋅ Γ(α − 1) (1.31)
∞
Γ(1) = ∫ 0
e − y dy = 1
Se sigue por la aplicación repetida de la fórmula recursiva que Γ(α ) = (α − 1)! donde α
es un entero positivo. También, un valor especial importante es Γ( 12 ) = π .
∞
∫ 0
kx α −1 e − x β dx = kβ α Γ(α ) = 1
Y por tanto
1
k= (1.32)
β α Γ(α )
1
f (x / α , β ) = α
x α −1 e − x β x ∈ IR + + (1.33)
β Γ(α )
7.i. E ( X ) = αβ
[Link]. var( X ) = αβ 2
[Link]. ψ (t ) = E (exp(tX )) = (1 − β t ) −α ∀ t < β −1
Definición 8. Una variable aleatoria X tiene una distribución beta y se conoce como
una variable aleatoria Beta si y sólo si su densidad de probabilidad está dada por
Γ(α + β ) α −1
f (x / α , β ) = x (1 − x) β −1 ∀α > 0, β > 0 (1.34)
Γ(α )Γ( β )
No demostraremos aquí que el área total bajo la curva de la distribución beta, como la de
cualquier densidad de probabilidad, es igual a 1, pero en la demostración del teorema
que sigue, nos valdremos del hecho que
1 Γ(α + β ) α −1
∫ 0 Γ (α )Γ ( β )
x (1 − x) β −1 dx = 1 (1.35)
1 Γ(α + β )
∫ 0
x α −1 (1 − x) β −1 dx =
Γ(α )Γ( β )
= B(α , β ) (1.36)
Esta integral define la función beta, cuyos valores se denotan por B(α , β ) . En cualquier
libro de texto avanzado se puede encontrar un análisis detallado de función beta.
α
8.i. E ( X ) =
α +β
αβ
[Link]. var( X ) =
(α + β ) (α + β + 1)
2
En una distribución bivarainte, hay una distribución condicional sobre y para cada valor
de x. Las densidades condicionales son
f ( x, y ) f ( x, y ) f ( x, y ) f ( x, y )
f ( y | x) = = y f ( x | y) = = (1.37)
∫y f ( x, y )dy f x ( x)
∫x f ( x, y )dx f y ( y)
f ( x, y ) = f ( y | x ) f x ( x ) = f ( x | y ) f y ( y ) (1.38)
yf ( y | x)dy si y es continua
E (Y | x) = y ∫ (1.39)
Σ y yf ( y | x) si y es discreta
En los siguientes teoremas se presentan algunos resultados útiles sobre los momentos de
una distribución condicional:
cov( X , Y )
a = E[Y ] − bE[ x] y b= (1.42)
V[X ]
La notación V x [⋅] indica la varianza sobre la distribución de x . Esto indica que en una
distribución bivariante, la varianza de Y se descompone en la varianza de la función
media condicional (intervarianza) más la varianza esperada alrededor de la media
condicional (intravarianza).
V [Y | X ] = V [Y ](1 − Corr 2 [Y , X ]) = σ 2y (1 − ρ xy
2
)
λ P e −λ
f (P | λ ) = , P = 0,1,2,...
P!
λ = a + bR = E[ P | R]
(a + bR) P e −( a +bR )
f ( P | R) = , P = 0,1,2,...
P!
Que capta el efecto que buscábamos. Observar un gran número de patentes puede
reflejar un valor alto del proceso POISSON, o bien puede que se derive de un valor
inusualmente alto de R .
Ahora supongamos que R es una fracción constante del tamaño de la empresa, y que
esta variable sigue una distribución lognormal. Así, R también seguirá una distribución
lognormal 4. Supongamos que µ = 0 y σ = 1 . Entonces
E[ R] = e = 1,65 y V [ R] = 4,65
E[ P | R ] = 1 + 2 R
E[ P] = ER [ E[ P | R]] = ER [1 + 2 R] = 1 + 2 ER [ R ] = 4,30
V [ P | R] = λ = 1 + 2 R
ER [V [ P | R]] = ER [1 + 2 R] = 1 + 2 ER [ R] = 4,30
4
Cuando se modelan distribuciones de tamaño, tales como la distribución del tamaño de las
empresas en una industria o la distribución de la renta en un país, la distribución lognormal
(LN), que representamos por LN [ µ , σ 2 ] es especialmente útil.
f (x | µ,σ 2 ) =
1
2π σx
(
exp − 12 [(ln x − µ ) / σ ] 2 )
µ + 12 σ 2
y V [ X ] = e2 µ +σ (eσ − 1) la relación en las
2 2
Una variable lognormal X tiene E[ X ] = e
distribuciones normal y lognormal es que si Y ~ LN [ µ , σ 2 ] , entonces ln(Y ) ~ N [ µ , σ 2 ] , por lo
tanto se puede concluir que Y r ~ LN [rµ , r 2σ 2 ] .
Por tanto,
Varianza de Regrersión
Coeficiente de Determinación = CoD =
Varianza Total
18,6
CoD = = 0,812
22,9
Esto nos indica que aproximadamente el 81% de la varianza es explicada por la varianza
de la regresión.
Teorema 6. Kinchin
O equivalentemente
lim Pr[ X T − µ ≤ ε ] =
T →∞
1 (1.46)
Teorema 7. Chebyshev
Demostración
5
La desigualdad de Chebyshev. Si xT es una variable aleatoria y cT y ε son constantes, entonces
Pr( xT − cT ≥ ε ) ≤ ε −2 E[( xT − cT ) 2 ]
var( X T ) c
Pr[ X T − µT ≥ ε ] ≤ ≤ (1.47)
ε2 Tε 2
En este caso tenemos que cuando T tiende a infinito el lado derecho de la ecuación
(1.47) converge a cero y como la probabilidad no puede ser negativa, entonces se
demuestra que el término descrito converge el cero.
Teorema 8. Markov´s
Teorema 9. Kolmogorov´s
Sea X=
T T −1ΣTi =1 X i y µ=
T T −1ΣTi =1 µi , y además se define Z=
T X T − µT . Una condición
p
necesaria y suficiente para que se cumpla WLLN, debe ocurrir que ZT → 0 y que
0.
lim E[ ZT2 /(1 + ZT2 )] =
T →∞
Teorema 10.
a.s.
Si las X t ´s son IID y E ( X t ) = µ , entonces ( X T − µ ) → 0 .
6
Para la demostración se puede utilizar la desigualdad de Markov. Sea y T una variable
aleatoria que toma valores no negativos y κ una constante positiva, entonces,
Pr( y T ≥ κ ) ≤ κ −1 E ( y T )
Teorema 11.
Teorema 12.
a.s.
Si las X t ´s son IID, entonces una condición necesaria y suficiente para ( X T − µT ) → 0 es
que E X i − µi < ∞ para todo i .
∞ ∞
lim ∫ g ( x)dFT ( x) = ∫ g ( x)dF ( x) (1.48)
T →∞ −∞ −∞
∞ ∞
lim ∫ g ( x) fT ( x)dx = ∫ g ( x) f ( x)dx (1.49)
T →∞ −∞ −∞
X T − E ( X T ) ST − E ( ST )
=ZT = (1.50)
var( X T ) var( ST )
d
Donde se ha definido que ZT → N (0,1) .
E( XT ) = p =
var( X T ) T −1 p (1 − p )
var( X T ) p (1 − p )
Pr( X T − p > ε ) ≤ = 2
ε 2
ε T
p (1 − p )
lim Pr( X T − p > ε ) ≤ lim =
0
T →∞ T →∞ ε 2T
XT − p T ( X T − p) d
= → N (0,1)
var( X T ) p (1 − p )
7
Se debe notar que en el promedio de variables aleatoria Bernoulli se pierde el orden en que salieron los
ceros y unos, por lo tanto, la distribución de este promedio es la distribución conjunta de variables
aleatorias Bernoulli sin orden, que corresponde a la descripción de la distribución de una Binomial.
Sin embargo, el lector debe notar que esto se cumplirá siempre y cuando el
número de observaciones sea sustancialmente grande, es decir que con 30 ó 50
observaciones posiblemente no pudríamos concluir lo mismo.
(ΣTi=1 ρi ) 2
lim =0
T →∞ (ΣT σ 2 ) 2 + δ
i =1 i
∑ ∫ ( x − µi ) 2 dFi ( x) =
1 T
lim 0
T →∞ sT2 i =1 x − µi > ε ST
Teorema 15.
T [ g ( z T ) − g ( µ )] →
D
N [0, ( g ′( µ )) 2 σ 2 ] (1.43)
g ( z T ) ≅ g ( µ ) + g ′( µ )( z T − µ ) (1.44)
Estos resultados sugieren que los momentos de la distribución límite son los límites
ordinarios de los momentos de la distribución de la muestra finita. Esto es casi siempre
cierto, pero no necesariamente tiene por que ser así. Es posible construir ejemplos en los
que los momentos para muestras finitas ni siquiera existen, mientras que los momentos
de la distribución límite están bien definidos. Incluso en esos casos, generalmente es
posible encontrar la media y la varianza de la distribución límite.
Las distribuciones límite, así como los límites en probabilidades, pueden simplificar de
manera importante el análisis de algún problema concreto. Algunos resultados en los que
se combinan ambos tipos de convergencia se presentan a continuación.
APÉNDICE: TABLA
z0 1 1
Forma funcional: Pr( Z ≤ z0 ) = ∫
Φ ( z0 ) =
−∞
2π
exp s 2 ds
2
Forma gráfica:
0,00 0,01 0,02 0,03 0,04 0,05 0,06 0,07 0,08 0,09
-3,5 0,0002 0,0002 0,0002 0,0002 0,0002 0,0002 0,0002 0,0002 0,0002 0,0002
-3,4 0,0003 0,0003 0,0003 0,0003 0,0003 0,0003 0,0003 0,0003 0,0003 0,0002
-3,3 0,0005 0,0005 0,0005 0,0004 0,0004 0,0004 0,0004 0,0004 0,0004 0,0003
-3,2 0,0007 0,0007 0,0006 0,0006 0,0006 0,0006 0,0006 0,0005 0,0005 0,0005
-3,1 0,0010 0,0009 0,0009 0,0009 0,0008 0,0008 0,0008 0,0008 0,0007 0,0007
-3,0 0,0013 0,0013 0,0013 0,0012 0,0012 0,0011 0,0011 0,0011 0,0010 0,0010
-2,9 0,0019 0,0018 0,0018 0,0017 0,0016 0,0016 0,0015 0,0015 0,0014 0,0014
-2,8 0,0026 0,0025 0,0024 0,0023 0,0023 0,0022 0,0021 0,0021 0,0020 0,0019
-2,7 0,0035 0,0034 0,0033 0,0032 0,0031 0,0030 0,0029 0,0028 0,0027 0,0026
-2,6 0,0047 0,0045 0,0044 0,0043 0,0041 0,0040 0,0039 0,0038 0,0037 0,0036
-2,5 0,0062 0,0060 0,0059 0,0057 0,0055 0,0054 0,0052 0,0051 0,0049 0,0048
-2,4 0,0082 0,0080 0,0078 0,0075 0,0073 0,0071 0,0069 0,0068 0,0066 0,0064
-2,3 0,0107 0,0104 0,0102 0,0099 0,0096 0,0094 0,0091 0,0089 0,0087 0,0084
-2,2 0,0139 0,0136 0,0132 0,0129 0,0125 0,0122 0,0119 0,0116 0,0113 0,0110
-2,1 0,0179 0,0174 0,0170 0,0166 0,0162 0,0158 0,0154 0,0150 0,0146 0,0143
-2,0 0,0228 0,0222 0,0217 0,0212 0,0207 0,0202 0,0197 0,0192 0,0188 0,0183
-1,9 0,0287 0,0281 0,0274 0,0268 0,0262 0,0256 0,0250 0,0244 0,0239 0,0233
-1,8 0,0359 0,0351 0,0344 0,0336 0,0329 0,0322 0,0314 0,0307 0,0301 0,0294
-1,7 0,0446 0,0436 0,0427 0,0418 0,0409 0,0401 0,0392 0,0384 0,0375 0,0367
-1,6 0,0548 0,0537 0,0526 0,0516 0,0505 0,0495 0,0485 0,0475 0,0465 0,0455
-1,5 0,0668 0,0655 0,0643 0,0630 0,0618 0,0606 0,0594 0,0582 0,0571 0,0559
-1,4 0,0808 0,0793 0,0778 0,0764 0,0749 0,0735 0,0721 0,0708 0,0694 0,0681
-1,3 0,0968 0,0951 0,0934 0,0918 0,0901 0,0885 0,0869 0,0853 0,0838 0,0823
-1,2 0,1151 0,1131 0,1112 0,1093 0,1075 0,1056 0,1038 0,1020 0,1003 0,0985
-1,1 0,1357 0,1335 0,1314 0,1292 0,1271 0,1251 0,1230 0,1210 0,1190 0,1170
-1,0 0,1587 0,1562 0,1539 0,1515 0,1492 0,1469 0,1446 0,1423 0,1401 0,1379
-0,9 0,1841 0,1814 0,1788 0,1762 0,1736 0,1711 0,1685 0,1660 0,1635 0,1611
-0,8 0,2119 0,2090 0,2061 0,2033 0,2005 0,1977 0,1949 0,1922 0,1894 0,1867
0,00 0,01 0,02 0,03 0,04 0,05 0,06 0,07 0,08 0,09
-0,7 0,2420 0,2389 0,2358 0,2327 0,2296 0,2266 0,2236 0,2206 0,2177 0,2148
-0,6 0,2743 0,2709 0,2676 0,2643 0,2611 0,2578 0,2546 0,2514 0,2483 0,2451
-0,5 0,3085 0,3050 0,3015 0,2981 0,2946 0,2912 0,2877 0,2843 0,2810 0,2776
-0,4 0,3446 0,3409 0,3372 0,3336 0,3300 0,3264 0,3228 0,3192 0,3156 0,3121
-0,3 0,3821 0,3783 0,3745 0,3707 0,3669 0,3632 0,3594 0,3557 0,3520 0,3483
-0,2 0,4207 0,4168 0,4129 0,4090 0,4052 0,4013 0,3974 0,3936 0,3897 0,3859
-0,1 0,4602 0,4562 0,4522 0,4483 0,4443 0,4404 0,4364 0,4325 0,4286 0,4247
0,0 0,5000 0,4960 0,4920 0,4880 0,4840 0,4801 0,4761 0,4721 0,4681 0,4641
0,0 0,5000 0,5040 0,5080 0,5120 0,5160 0,5199 0,5239 0,5279 0,5319 0,5359
0,1 0,5398 0,5438 0,5478 0,5517 0,5557 0,5596 0,5636 0,5675 0,5714 0,5753
0,2 0,5793 0,5832 0,5871 0,5910 0,5948 0,5987 0,6026 0,6064 0,6103 0,6141
0,3 0,6179 0,6217 0,6255 0,6293 0,6331 0,6368 0,6406 0,6443 0,6480 0,6517
0,4 0,6554 0,6591 0,6628 0,6664 0,6700 0,6736 0,6772 0,6808 0,6844 0,6879
0,5 0,6915 0,6950 0,6985 0,7019 0,7054 0,7088 0,7123 0,7157 0,7190 0,7224
0,6 0,7257 0,7291 0,7324 0,7357 0,7389 0,7422 0,7454 0,7486 0,7517 0,7549
0,7 0,7580 0,7611 0,7642 0,7673 0,7704 0,7734 0,7764 0,7794 0,7823 0,7852
0,8 0,7881 0,7910 0,7939 0,7967 0,7995 0,8023 0,8051 0,8078 0,8106 0,8133
0,9 0,8159 0,8186 0,8212 0,8238 0,8264 0,8289 0,8315 0,8340 0,8365 0,8389
1,0 0,8413 0,8438 0,8461 0,8485 0,8508 0,8531 0,8554 0,8577 0,8599 0,8621
1,1 0,8643 0,8665 0,8686 0,8708 0,8729 0,8749 0,8770 0,8790 0,8810 0,8830
1,2 0,8849 0,8869 0,8888 0,8907 0,8925 0,8944 0,8962 0,8980 0,8997 0,9015
1,3 0,9032 0,9049 0,9066 0,9082 0,9099 0,9115 0,9131 0,9147 0,9162 0,9177
1,4 0,9192 0,9207 0,9222 0,9236 0,9251 0,9265 0,9279 0,9292 0,9306 0,9319
1,5 0,9332 0,9345 0,9357 0,9370 0,9382 0,9394 0,9406 0,9418 0,9429 0,9441
1,6 0,9452 0,9463 0,9474 0,9484 0,9495 0,9505 0,9515 0,9525 0,9535 0,9545
1,7 0,9554 0,9564 0,9573 0,9582 0,9591 0,9599 0,9608 0,9616 0,9625 0,9633
1,8 0,9641 0,9649 0,9656 0,9664 0,9671 0,9678 0,9686 0,9693 0,9699 0,9706
1,9 0,9713 0,9719 0,9726 0,9732 0,9738 0,9744 0,9750 0,9756 0,9761 0,9767
2,0 0,9772 0,9778 0,9783 0,9788 0,9793 0,9798 0,9803 0,9808 0,9812 0,9817
2,1 0,9821 0,9826 0,9830 0,9834 0,9838 0,9842 0,9846 0,9850 0,9854 0,9857
2,2 0,9861 0,9864 0,9868 0,9871 0,9875 0,9878 0,9881 0,9884 0,9887 0,9890
2,3 0,9893 0,9896 0,9898 0,9901 0,9904 0,9906 0,9909 0,9911 0,9913 0,9916
2,4 0,9918 0,9920 0,9922 0,9925 0,9927 0,9929 0,9931 0,9932 0,9934 0,9936
2,5 0,9938 0,9940 0,9941 0,9943 0,9945 0,9946 0,9948 0,9949 0,9951 0,9952
2,6 0,9953 0,9955 0,9956 0,9957 0,9959 0,9960 0,9961 0,9962 0,9963 0,9964
2,7 0,9965 0,9966 0,9967 0,9968 0,9969 0,9970 0,9971 0,9972 0,9973 0,9974
2,8 0,9974 0,9975 0,9976 0,9977 0,9977 0,9978 0,9979 0,9979 0,9980 0,9981
2,9 0,9981 0,9982 0,9982 0,9983 0,9984 0,9984 0,9985 0,9985 0,9986 0,9986
3,0 0,9987 0,9987 0,9987 0,9988 0,9988 0,9989 0,9989 0,9989 0,9990 0,9990
3,1 0,9990 0,9991 0,9991 0,9991 0,9992 0,9992 0,9992 0,9992 0,9993 0,9993
3,2 0,9993 0,9993 0,9994 0,9994 0,9994 0,9994 0,9994 0,9995 0,9995 0,9995
3,3 0,9995 0,9995 0,9995 0,9996 0,9996 0,9996 0,9996 0,9996 0,9996 0,9997
3,4 0,9997 0,9997 0,9997 0,9997 0,9997 0,9997 0,9997 0,9997 0,9997 0,9998
3,5 0,9998 0,9998 0,9998 0,9998 0,9998 0,9998 0,9998 0,9998 0,9998 0,9998
APÉNDICE: USO
z
Pr( Z ≤ z ) =
Φ( z ) =∫ φ (s)ds −∞
Y que
z2 z2 z2
Pr( z1 ≤ Z ≤ z2=
) ∫ z1
φ ( s )ds= ∫−∞
φ ( s )ds − ∫ φ ( s )ds= Pr( Z ≤ z2 ) − Pr( Z ≤ z1 )
−∞
Pr( z1 ≤ Z ≤ z2 ) =
0.9
Pero como la distribución normal estándar es simétrica con respecto a cero, tenemos
z2 = − z1 , de esta forma las probabilidades antes mencionadas se pueden descomponer de
la siguiente forma:
Pr( z1 ≤ Z ≤ z2=
) Pr( Z ≤ z2 ) − Pr( Z ≤ z1=
) 0.9
=
Pr( Z ≤ z2 ) 0,95 =
Pr( Z ≤ z1 ) 0.5
Claramente se puede apreciar que la resta genera el valor 0.9, que interpretaremos como
el conjunto de valores que posee un 90% de representatividad.
Ahora podemos calcular cada probabilidad por separado, y encontrar que son iguales en
modulo, por lo tanto, primero determinaremos el valor de z2 .
Esta primera columna representa el valor de z con un decimal (el primero), mientras
que el segundo decimal corresponde al de la primera fila. Por lo tanto, nosotros
buscamos la probabilidad de 0.95, la cual se encuentra marcada por un circulo en el
cuadro a. Pero, al extender una flecha en forma horizontal encontramos el número 1,6
que corresponderían al valor de z2 hasta el primer decimal, sin embargo, al extender
una flecha en forma vertical, nos encontramos con el valor 0,05 que representa el
segundo decimal de z2 , esto nos dice que el valor completo de z2 es 1,65.
Este último resultado concuerda con el hecho de que la distribución normal estándar es
simétrica.
Entonces, podemos concluir que el rango que tiene un 90% de representatividad en una
distribución normal se encuentra dentro [−1, 65;1, 65] .
Suponga que cuenta con una muestra aleatoria de tamaño N obtenida de una población
que posee una distribución normal con media µ y varianza σ 2 , la cual informa que el
40% de las observaciones son menores a 20 y el 45% son menores a 35. Estime en forma
aproximada el valor de la media y de la varianza.
Para poder realizar este cálculo debemos suponer que la muestra es lo suficientemente
grande como para ser representativa de la población, por lo tanto, el enunciado anterior
se puede expresar en términos estadísticos como:
También sabemos que las probabilidades de variables normales pueden ser llevada a una
normal estándar, es decir,
Sin embargo, al hacer este cambio hemos igualado la probabilidad de una normal
cualquiera a la probabilidad de una normal estándar. De esta manera para la probabilidad
de 0.4 el valor de eje ( z ) se encuentra aproximadamente en el valor de -0.25, según se
muestra en el círculo del cuadro c.
Esto quiere decir que Pr( Z < −0, 25) 0, 4 , por lo tanto, al igualar estas dos
probabilidades tenemos que:
1
σ (20 − µ ) =
−0, 25
De la cual se desprende nuestra primera ecuación µ − 0, 25σ =20 , pero se hace necesaria
una segunda ecuación, ya que tenemos dos incógnitas. Esta segunda ecuación la podemos
generar de la segunda probabilidad, de manera que:
y2 − y1
=y ( x − x1 ) + y1
x2 − x1
Por lo tanto, de la tabla sabemos que para un valor de eje igual a -0,12 la probabilidad
acumulada es 0.4522, mientras que para un valor de eje igual -0,13 la probabilidad
acumulada respectiva es igual 0.4483 (ver cifras encerradas en un cuadrado, en el
cuadro c), que al ser utilizado como puntos, hace que la recta quede expresada como
−0,13 + 0,12
=y ( x − 0, 4522) + 0,12
0, 4483 − 0, 4522
Entonces, podemos concluir que para una probabilidad acumulada de 0.45, el valor de
eje corresponde a -0,126.
De esta forma al igual las probabilidades tenemos nuestra segunda ecuación, es decir,
σ
1
(35 − µ ) =
−0,126
µ − 0,126σ =
35
µ − 0, 25σ =
20
µ − 0,126σ =35
Que una vez resuelto nos entrega que un valor aproximado de la media es 50.24 y para
la desviación estándar es 120.97, con lo cual podemos señalar que la varianza
corresponde a 14633.74.