0% encontró este documento útil (0 votos)
43 vistas9 páginas

Notas Proba

El documento describe diversas distribuciones de probabilidad discretas y continuas, incluyendo la distribución uniforme, binomial, multinomial, hipergeométrica y de Poisson. Se detallan sus características, fórmulas para la media y varianza, así como aproximaciones entre ellas. Además, se abordan propiedades de la distribución normal y su aplicación en el análisis estadístico.

Cargado por

UvaLayne
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
43 vistas9 páginas

Notas Proba

El documento describe diversas distribuciones de probabilidad discretas y continuas, incluyendo la distribución uniforme, binomial, multinomial, hipergeométrica y de Poisson. Se detallan sus características, fórmulas para la media y varianza, así como aproximaciones entre ellas. Además, se abordan propiedades de la distribución normal y su aplicación en el análisis estadístico.

Cargado por

UvaLayne
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

0.

1 Distribuciones de Probabilidad Discretas


A continuacion se presentan las distribuciones de probabilidad discretas mas
usadas
Distribucion discreta uniforme Una variable aleatoria X es discreta uni-
forme si toma cada uno de sus valores con identica probabilidad.
p(x
i
) =
1
n
, i = 1, 2, 3, ..., n
es distribucion de probabilidad porque

x
i
p(x
i
) =

n
i=1
p(x
i
) =

n
i=1
1
n
= n(
1
n
) = 1
Ademas = E(X) =

n
i=1
x
i
p(x
i
) =

n
i=1
x
i
1
n
=

n
i=1
x
i
n
el cual es un
simple promedio
y V (X) =

n
i=1
(x
i
)
2
p(x
i
) =

n
i=1
(x
i
)
2
n
Ensayo bernoulli: es un experimento que tiene dos posibles resultados
catalogados como exito o fracaso
Proceso bernoulli: Es un conjunto de n ensayos bernoulli independientes
y con probabilidad p de exito que permanece constante de ensayo a ensayo,
es decir:
X(exito) = 1
X(fracaso) = 0
p(x
1
, x
2
, ..., x
n
) = p(x
1
)p(x
2
)p(x
3
)...p(x
n
)
p
i
(x
i
) = p(x
i
) =
_
_
_
p
1 p = q
0
Distribucion binomial. La variable aleatoria X, que denota el n umero de
exitos en n ensayos bernoulli tiene una distribucion binomial dada por p(x),
donde
p(x) =
_
_
_
_
n
x
_
p
x
(1 p)
nx
0
x = 0, 1, 2..., n
Ademas E(X) = np y V (X) = npq
Distribucion multinomial. Sea un experimento cuyo espacio muestral S
se particiona en k eventos mutuamente excluyentes, A
1
, A
2
, A
3
, ..., A
k
, al con-
siderar n repeticiones independientes del experimento y considerando que la
p
i
= p(A
i
) sea constante de ensayo a ensayo, para i = 1, 2, ..., k. El vector
aleatorio [X
1
, X
2
, ..., X
n
] tiene la siguiente distribucion, donde X
i
es el n umero
de veces que ocurre A
i
en las n repeticiones del experimento, i = 1, 2, ..., k.
p(x
1
, x
2
, ..., x
n
) =
_
n!
x
1
!x
2
!...x
k
!
_
p
x
1
1
p
x
2
2
...p
x
k
k
para x
i
= 0, 1, 2, ..., n, i = 1, 2, .., k y donde

k
i=1
x = n
1
E(X
i
) = np
i
y V (X
i
) = np
i
q
i
para cada X
i
Distribucion hipergeometrica. Suponga que existe cierta poblacion nita
con N artculos. Cierto n umero m (m N) de los artculos entra en una cate-
gora de interes. Se selecciona una muestra aleatoria de tama no n sin reemplazo,
y la variable aleatoria de interes, X es el n umero de artculos que pertenecen a
la clase de interes en la muestra. La distribucion de X es:
p(x) =
_

_
_
m
x
__
N m
n x
_
_
N
n
_
0
x = 0, 1, 2..., min(n.m)
Ademas
E(X) = n(
m
N
) y V (X) = n(
m
N
)(1
m
N
)(
Nn
N1
)
Aproximacion binomial a la hipergeometrica Si en la distribucion hiper-
geometrica la fraccion del muestreo
n
N
< 0.1 , la distribucion binomial con
parametros p = m/N y n proporciona una buena aproximacion.
Proceso de Poisson Se considera un grupo de ocurrencias arbitrarias real-
tivas al tiempo, denominadas a menudo ocurrencias, llegadas o arrivos.
La variable X es el
n umero de llegadas que ocurren en el intervalo [0, t] con el rango de R
x
=
{0, 1, 2, ...} y se debe de tener las siguientes suposiciones
1.- El promedio de arrivos por intervalo de tiempo [0, t] puede estimarse
a traves de datos anteriores que se tengan disponibles.
2.- Si se divide el intervalo [0, t] en subintervalos mas peque nos se tienen las
siguientes armaciones:
a) La probabilidad de que exactamente un arrivo ocurra por subintervalo
es muy peque na y es constante.
b) La probabilidad de que ocurran dos o mas arrivos en un subintervalo es
tan peque na que se le puede asignar un valor de cero.
c) El n umero de arrivos que ocurren por subintervalo es independiente del
momento en que dicho subintervalo se presenta dentro del intervalo [0, t].
d) El n umero de arrivos en un subintervalo es independiente del n umero de
arrivos en cualquier otro subintervalo.
Distribucion Poisson La variable aleatoria X que denota el n umero de ar-
rivos por intervalo de tiempo [0, t] tiene una distribucion Poisson con parametro
si su funcion de densidad es
2
f(x) =
e
c
c
x
x!
x = 0, 1, 2, ...y c > 0 (1)
Ademas E(X) = c y V (X) = c
0.1.1 Aproximacion poisson a la binomial
Usando c = np se aproxima la poisson a la binomial para n grande (n 20) y
p peque na (p 0.05).
0.2 Distribuciones continuas.
0.2.1 Distribucion uniforme.
La funcion de densidad uniforme se dene como
f(x) =
1

x (2)
donde y son reales con < .
La media y la varianza de la distribucion uniforme son E(X) =
+
2
y
V (X) =
()
2
12
0.2.2 Distribucion normal.
La distribucion normal es una distribucion subyacente a muchos metodos es-
tadsticos usados en el analisis de datos.
Se dice que una variable aleatoria X con funcion de densidad :
f(x) =
1

2
e
(1/2)[(x)/]
2
< x < ; < < ; > 0 (3)
tiene una distribucion normal con media y varianza
2
,lo cual se indica
X N(,
2
).
En particular si X es una variable normal con = 0 y
2
= 1 esta se llama
normal estandar y se denota por Z ,su funcion de densidad es:
f(z) =
1

2
e
z
2
/2
< z < (4)
y para indicar que se distribuye de esta forma se escribe Z N(0, 1).
Propiedades de la distribucion normal:
1.- f
X
(x) 0 para toda x
3
2.-
_

f(x)dx = 1
3.-lim
x
f(x) = 0 y lim
x
f(x) = 0
4.- f( +x) = f( x). La densidad es simetrica alrededor de .
5.- El valor maximo de f ocurre en x =
6.-Los puntos de inexion de f estan en x =
en resumen su distribucion tiene forma de campana, simetrica respecto
a la media , tiene colas izquierda y derecha que se extienden indenidamente
teniendo como asntota al eje de las x.
0.2.3 Funcion de distribucion normal acumulativa
La funcion de distribucion acumulativa F es
F(x) = P(X x) =
_
x

2
e
(1/2)[(u)/]
2
du
es casi imposible evaluar esta integral sin recurrir a metodos numericos e
inclusive se tendra que calcular para cada par (,
2
), pero el siguiente teorema
simplicara cada situacion.
0.2.4 Teorema de estandarizacion.
Sea X una variable aleatoria normal con media y desviacion estandar . La
variable aleatoria Z = (X )/ es la variable normal estandar.
F(x) = P(X x) =
_
x

2
e
(1/2)[(u)/]
2
du = P
_
Z
x

_
=
_ x

2
e
z
2
/2
dz =
_
z

2
e
u
2
/2
du = (z)
la cual ya existe su tabla de distribucion acumulativa (z) para valores de
z, llamada distribucion acumulativa normal estandar.
Algunas propiedades que se derivan de la denicion y de la simetra de la
distribucion normal estandar son:
a) P(Z > z) = 1 P(Z z) = 1 (z)
b) P(z
1
Z z
2
) = (z
2
) (z
1
)
c) P(Z z) = P(Z > z) = 1 (z)
b) P(z
1
Z z
2
) = P(z
1
< Z z
2
) = P(z
1
Z < z
2
) = P(z
1
< Z < z
2
)
4
0.2.5 Propiedad reproductiva de la distribucion normal
Si se tienen n variables aleatorias normales e independientes , X
1
, X
2
, ..., X
n
donde X
i
N(
i
,
2
i
) para i = 1, 2, ..., n. Entonces
Y = X
1
+ X
2
+ ... + X
n
es normal con media
Y
=

n
i=1

i
y varianza

2
Y
=

n
i=1

2
i
es decir Y N(
Y
,
2
Y
)
0.2.6 Aproximacion normal a la distribucion binomial.
La aproximacion de Stirling a n!es:
n! (2)
1/2
e
n
n
n+(1/2)
(5)
esta aproximacion es bastante buena cuando n .
Aplicando esta formula al modelo binomial, para n grande se tiene que:
P(X = x)
1
_
np(1 p)

2
e
(1/2)(xnp)
2
/(npq)
(6)
por lo que
P(X x)
_
x np

npq
_
=
_
(xnp)/

npq

2
e
z
2
/2
dz (7)
En general la experiencia indica que la aproximacion es bastante buena siem-
pre que np > 5 para p
1
2
o cuando nq > 5 en el caso en el que p >
1
2
.
Dado que la distribucion binomial es discreta y la distribucion normal es
continua, comunmente se emplea la correccion de medio intervalo o la cor-
reccion de continuidad. Al calcular P(X = x) un procedimiento usual con-
siste en moverse media unidad hacia cualquier lado del entero x dependiendo
del intervalo de interes. En la siguiente tabla se muestran varios casos.
P(X = x) P
_
x
1
2
X x +
1
2
_
P(X x) P
_
X x +
1
2
_
P(X < x) P
_
X x 1 +
1
2
_
P(X x) P
_
X x
1
2
_
P(X > x) P
_
X x + 1
1
2
_
P(a X b) P
_
a
1
2
X b +
1
2
_
0.2.7 Distribucion Gamma
Funcion Gamma (n) =
_

0
x
n1
e
x
dx, para n > 0
Una importante relacion recurrente que puede demostrarse con facilidad in-
tegrando por partes la ecuacion anterior es:
(n) = (n 1)(n 1)
Si n es un entero positivo, entonces
(n) = (n 1)!
5
Distribucion gamma La distribucion de probabilidad gamma se dene como
f(x) =

(r)
(x)
r1
e
x
, x > 0
Los parametros son r > 0 y > 0.El parametro r suele llamrase parametro
de forma y recibe el nombre de parametro de escala.
E(X) =
r

y V (X) =
r

2
0.2.8 Distribucion exponencial
La distribucion exponencial tiene funcion de densidad
f(x) = e
x
, x 0
donde el parametro es una constante positiva real.
Notar que la distribucion exponencial es un caso particular de la distribucion
gamma cuando r = 1.
Relacion entre la distribucion Exponencial y la distribucion de Pois-
son.
P(0) = e
t
es la probabilidad de ninguna ocurencia en [0, t], otra inter-
pretacion de P(0) = e
t
es que esta es la probabilidad de que el tiempo antes
de la primera ocurrencia sea mayor que t. Al considerar este tiempo como una
variable aleatoria T notamos que:
P(0) = P(T > t) = e
t
, t 0 (1)
por consiguiente si dejamos que el tiempo vare y consideramos la variable
aleatoria T como el tiempo antes de la ocurrencia
F(t) = P(T t) = 1 e
t
, t 0 (2)
y puesto que f(t) = F

(t), vemos que la densidad es


f(t) = e
t
, t 0 (3)
si el n umero de ocurrencias tiene una distribucion Poisson (1), el tiempo
entre ocurrencias tiene una distribucion exponencial con ecuacion (3). Notar que
Poisson mide una distribucion discreta y la exponenciall es una disctribucion
continua.
El valor esperado y la varianza de una exponencial es E(X) =
1

y V (X) =
1

2
La funcion de distribucion acumulativa F puede obtenerse integrando (3)
f(x) =
_
0
_
x
0
e
t
dt = 1 e
x
x < 0
x 0
6
Propiedad de falta de memoria de la distribucion exponencial. La
distribucion exponencial tiene una interesante y unica propiedad de falta de
memoria para variables aleatorias continuas, esto es
P ( X > x +s| X > x) =
P(X>x+s)
P(X>x)
=
e
(x+s)
e
x
= e
s
por lo que P ( X > x +s| X > x) = P(X > s)
por ejemplo: si un tubo de rayos catodicos tiene una distribucion exponencial
de tiempo de falla y se advierte que en el tiempo x sigue funcionando, la vida
restante tiene la misma distribucion de falla exponencial que tena el tubo en
el tiempo 0.
0.2.9 Distribucion Ji Cuadrada
Teorema: Sean Z
1
, Z
2
, ..., Z
k
variables aleatorias distribuidas normal e indepen-
dientemente con = 0 y
2
= 1, la variable aleatoria

2
= Z
2
1
+Z
2
2
, +... +Z
2
k
tiene la funcion de densidad de probabilidad
f(u) =
1
2
k/2
(
k
2
)
u
(k/2)1
e
u/2
, u > 0 (8)
se dice que sigue la distribucion ji cuadrada con k grados de libertad lo que
se abrevia
2
k
, la variable aleatoria ji cuadrada tiene media y varianza
E(X) = k y V (X) = 2k
cuando k tiende a innito la forma lmite de la distribucion ji cuadrada es
la distribucion normal.
Los puntos porcentuales de la distribucion
2
k
se proporcionan en tablas.
Defnase
2
,k
como el valor de la variable aleatoria ji cuadrada con k grados de
libertad tal que la probabilidad de que
2
k
exceda ese valor es .Esto es
P
_

2
k
>
2
,k
_
=
_

2
,k
f(u)du = (9)
Teorema: Aditividad de la ji cuadrada: Sean
2
1
,
2
2
, ...,
2
p
variables
aleatorias ji cuadradas independientes con k
1,
k
2
, ..., k
p
grados de libertad re-
spectivamente. Entonces la cantidad Y =
2
1
+
2
2
+... +
2
p
sigue la distribucion
ji cuadrada con grados de libertad iguales a k =

p
k=1
k
i
0.2.10 Distribucion Weibull
Esta distribucion tiene una importante area de aplicacion como modelo para
establecer el tiempo de falla en componentes y sistemas electricos y mecanicos.
La funcion de densidad esta dada por
7
f(x) =

_
x

_
1
exp
_

_
x

_
, x (10)
sus parametros son.
(< < ) parametro de localizacion.
> 0 parametro de escala.
> 0 parametro de forma.
Cuando = 0 y = 1 la distribucion Weibull se reduce a una exponencial
con = 1/.
La media y varianza de una variable Weibull es:
E(X) = +
_
1 +
1

_
V (X) =
2
_

_
1 +
2

_
1 +
1

__
2
_
La funcion de distribucion acumulativa de una disribucion Weibull es
F(x) = 1 exp
_

_
x

_
, x (11)
0.2.11 Funcion generatriz de momentos
M
x
(t) = E(e
tx
) =

i
e
tx
i
p(x
i
) (12)
=
_

e
tx
f(x)dx (13)
0.2.12 Momentos
El momento r-esimo se dene como

r
(t) =
d
r
dt
r
M
x
(t)

t=0
(14)
As el valor esperado es
E(X) =

1
(t) (15)
8
Y la varianza es
V (X) =

2
(t) (

1
(t))
2
(16)
9

También podría gustarte