5.
DISTRIBUCIONES DE PROBABILIDAD
DISCRETAS
5.1.Presentación de las distribuciones discretas
El comportamiento de una variable aleatoria queda descrito por su
distribución de probabilidad. Con frecuencia, las observaciones que se
generan en diferentes experimentos estadísticos tienen el mismo tipo de
comportamiento en términos generales. En consecuencia, las variables
aleatorias discretas que se asocian con estos experimentos pueden
describirse, esencialmente, por la misma distribución de probabilidad y, por
lo tanto, se representan por una única fórmula. De hecho, se necesita sólo un
puñado de distribuciones de probabilidad importantes para describir muchas
de las variables aleatorias discretas que se encuentran en la práctica.
A continuación veremos:
La distribución discreta uniforme.
El proceso aleatorio de Bernoulli.
Las distribuciones binomial y multinomial.
La distribución hipergeométrica.
TN
U
La distribución de Poisson.
SF
5.2.Distribución discreta uniforme
La más simple de todas las distribuciones discretas de probabilidad es
FR
aquella en la cual la variable aleatoria asume cada uno de sus valores con
idéntica probabilidad. Tal distribución de probabilidad recibe el nombre de
distribución discreta uniforme.
E
Distribución discreta uniforme:
Si la variable aleatoria X asume los valores x1, x2, ..., xk, con iguales
y
probabilidades, entonces la distribución discreta uniforme es:
f xi
1
i 1,2,..., k
P
k
Ejemplo:
Cuando un foco se selecciona al azar de una caja que contiene un foco de 40
watts, uno de 60, uno de 75 y uno de 100, cada elemento del espacio
muestral S = {40, 60, 75, 100} ocurre con una probabilidad de 1/4. Por lo
tanto, se tiene una distribución uniforme con:
f x
1
x 40,60,75,100
4
Ejemplo:
Cuando se lanza un dado, cada elemento del espacio muestral S = {1, 2, 3, 4,
5, 6} ocurre con una probabilidad de 1/6. Por lo tanto, se tiene una
distribución uniforme con:
f x
1
x 1,2,3,4,5,6
6
Teorema:
La media y la variancia de la distribución uniforme discreta f(x) están
dadas por:
k k
x x
2
i i
i 1
y 2 i 1
k k
Demostración:
Por definición,
k
k
x k x i
E X xi f xi i i 1
i 1 i 1 k k
También, por definición,
k
x
TN
2
xi 2
k 2 k i
2 E X 2 xi f xi i 1
i 1 i 1 k k
U
Con los datos del ejemplo del dado, se encuentra que:
1 2 3 4 5 6
3.5
SF
6
y
1 3.52 2 3.52 ... 6 3.52 35
FR
2
6 12
5.3.El proceso aleatorio de Bernoulli
E
Frecuentemente un experimento consiste en ensayos repetidos, cada uno con
dos posibles resultados que pueden llamarse “éxito” y “fracaso”. La
y
aplicación más obvia se da en la prueba de artículos a medida que salen de
P
una línea de producción, donde cada prueba o experimento puede indicar si
uno de ellos está o no defectuoso.
Se tiene la posibilidad de escoger la manera en que se define un resultado.
Puede considerarse el experimento de retirar cartas en sucesión de un mazo
y a cada intento se le puede designar con éxito o fracaso, dependiendo de si
la carta es o no de corazones. Si se reemplaza cada carta y el mazo se baraja
antes de sacar nuevamente, los dos experimentos descritos antes tienen
propiedades similares en el sentido de que los intentos o ensayos repetidos
son independientes y la probabilidad de éxito permanece constante para
cada uno de ellos. Este proceso se conoce como proceso de Bernoulli.
Cada intento se llama experimento de Bernoulli.
Obsérvese en el experimento de las cartas que las probabilidades de éxito
para los intentos que se repiten cambian si las cartas no se reemplazan. Esto
es, la probabilidad de seleccionar una carta de corazones en el primer
intento es 1/4, pero la segunda sería una probabilidad condicional que tiene
el valor de 13/51 o 12/51, dependiendo de si se sacó o no una carta de
corazones en el primer intento. Entonces, esto ya no se podría considerar un
conjunto de experimentos de Bernoulli.
Estrictamente hablando, el proceso de Bernoulli debe tener las siguientes
propiedades:
El experimento consiste en un solo intento.
Los resultados del intento pueden clasificarse como éxito o fracaso.
Luego, la distribución de probabilidad de la v.a. y (variable aleatoria de
Bernoulli) se puede presentar en forma tabular de la manera siguiente:
Distribución de probabilidades de y:
y p(y) 0: fracaso; q: probabilidad de fracaso
0 q 1: éxito; p: probabilidad de éxito
1 p Ry = {0,1}
Donde: p + q = 1, por lo tanto, q = 1 – p.
5.3.1.Esperanza y variancia de la variable aleatoria de Bernoulli
Esperanza matemática de y:
E y y. p y 0 * q 1 * p p TN
U
yR y
Variancia y desviación típica de y:
V y y2 E y 2 E y
SF
y p y p
2 2 2
yR y
0 2 * q 12 * p p 2 p p 2 p1 p p.q
FR
D y y V y p.q
Ejemplo:
E
Consideremos el experimento E = "arrojar un dado", y sea el suceso A =
"obtener un número par". El hecho de obtener un número par al arrojar el
y
dado será considerado como éxito. En caso contrario, el resultado es
considerado como un fracaso. Ahora asociamos a este experimento la v.a. y
P
= número o cantidad de valores pares obtenidos al arrojar el dado. Luego,
los posibles valores de y son 0 (si la cara que muestra el dado hacia arriba no
es un número par, o sea, si obtengo 1, 3 ó 5) y 1 (si la cara que muestra el
dado hacia arriba es un número par, o sea, si obtengo 2, 4 ó 6).
Distribución de probabilidades de y:
y p(y)
0 1/2
1 1/2
Gráficamente:
y
S Ry
1.
2. .0
3.
4.
5. .1
6.
E y p
1
2
V y p.q
1 1 1
*
2 2 4
D y p.q
1
2
¿Qué significa que E(y) = 1/2?
TN
Esto quiere decir que, si arrojamos el dado un gran número de veces, es de
esperar que la mitad de las veces obtengamos un número par. Por ejemplo,
si arrojamos el dado 1000 veces, esperaríamos obtener aproximadamente
U
500 veces un número par.
5.4.Distribución binomial
SF
Considérese el conjunto de experimentos de Bernoulli donde tres artículos
se seleccionan aleatoriamente de un proceso de manufactura; se
FR
inspeccionan y se clasifican como defectuosos o no defectuosos. El proceso
produce un 25% de piezas defectuosas. Un artículo defectuoso se considera
un éxito. El número de éxitos es una variable aleatoria que asume valores
enteros de 0 a 3. Los ocho posibles resultados y sus correspondientes
E
valores de X son:
y
Posibles resultados Valores de x
NNN 0
P
NDN 1
NND 1
DNN 1
NDD 2
DND 2
DDN 2
DDD 3
Los artículos se seleccionan en forma independiente. La probabilidad de una
secuencia cualquiera, por ejemplo NDN, es:
3 1 3 9
PNDN PN PD PN
4 4 4 64
Mediante cálculos similares se obtienen las probabilidades para los otros
posibles resultados. Por lo tanto, la distribución de probabilidad de X es:
x 0 1 2 3
f(x) 27/64 27/64 9/64 1/64
El número X de éxitos en n experimentos de Bernoulli recibe el nombre de
variable aleatoria binomial. La distribución de probabilidad de esta
variable aleatoria discreta se llama distribución binomial y sus valores se
representan por B(x;n,p), dado que estos últimos dependen del número de
intentos y de la probabilidad de éxito en un intento determinado.
La probabilidad de seleccionar 2 artículos defectuosos es:
1 9
P X 2 f 2 B 2;3,
4 64
B(2;3,¼) significa: 2 es el valor de la variable, 3 es el tamaño de la muestra
o el número de observaciones y ¼ es la probabilidad de éxito.
Se generaliza el ejemplo anterior para derivar una fórmula para B(x;n,p).
TN
Esto es, se desea encontrar una fórmula que dé la probabilidad de x éxitos en
n intentos para un experimento binomial con probabilidad de éxito igual a p.
Primero, considérese la probabilidad de x éxitos y n - x fracasos en un orden
U
determinado. Dado que los intentos son independientes, pueden
multiplicarse todas las probabilidades correspondientes a los diferentes
SF
resultados. Cada éxito ocurre con una probabilidad p y cada fracaso con una
probabilidad q = 1 - p. Por lo tanto, la probabilidad para el orden
especificado es px qn-x.
FR
Ahora debe determinarse el número total de puntos muestrales en el
experimento que tiene x éxitos y n - x fracasos. Este número es igual al
número de particiones de n resultados en dos grupos, con x en un grupo y n -
x en el otro, y se expresa por nx . Debido a que estas particiones son
E
mutuamente excluyentes, se suman las probabilidades de todas las
y
diferentes particiones para obtener la fórmula general, o se debe
simplemente multiplicar px qn-x por nx .
P
"La notación x ~ B(n,p) quiere decir que la v.a. x tiene una distribución
binomial con un tamaño de muestra igual a n y una probabilidad de éxito
igual a p."
La función de probabilidad de la variable aleatoria binomial X, el número
de éxitos en n experimentos independientes, es:
P X x nx p x q n x x 0,1,2,..., n
donde n es el número de observaciones, p es la probabilidad de éxito, q es
la probabilidad de fracaso y p + q = 1.
Las características del modelo binomial son:
El experimento consiste en n intentos repetidos.
Los resultados de cada uno de los intentos pueden clasificarse como
éxito o como fracaso.
La probabilidad de éxito, representada por p, permanece constante para
todos los intentos.
Los intentos repetidos son independientes.
Por ejemplo, si n = 4 y p = 1/4, la distribución de probabilidad de X, es
decir, el número de artículos defectuosos que pueden obtenerse en una
muestra de cuatro artículos, puede escribirse como:
x 4 x
P X 4
x 1 3 x 0,1,2,3,4
4 4
Ejemplo Propuesto:
La probabilidad de que una cierta clase de componente pase con éxito una
determinada prueba de impacto es 0.8. ¿Cuál es la probabilidad de que, de
las próximas 4 componentes que se prueben, exactamente 3 pasen la
prueba?
El nombre de distribución binomial se deriva del hecho de que los n + 1
términos en la expansión binomial de (p + q)n, corresponden a los diversos
TN
valores de B(x;n,p) para x = 0, 1, 2,..., n. Esto es,
p q n 0n p 0 q n 1n p1q n 1 n2 p 2 q n 2 ... nn p n q 0
B x; n, p 1 , una condición que
n
U
Dado que p + q = 1, se observa que x 0
debe cumplirse para cualquier distribución de probabilidad.
SF
Con frecuencia, el interés se centra en problemas donde es necesario
encontrar P(X < r) o P(a X b). Por fortuna, se dispone de las sumas
binomiales Br ; n, p x 0 B x; n, p que se dan en las tablas, es decir,
r
FR
podemos encontrar tabuladas tanto las probabilidades puntuales como las
acumuladas. Estas tablas simplifican en gran medida el cálculo de
probabilidades.
E
5.4.1.Función de distribución o de probabilidades acumuladas
y
x0
F x0 P X x0 p X
P
Ejemplo:
La probabilidad de que un paciente se recupere de una rara enfermedad de la
sangre es 0.4. Si se sabe que 15 personas han contraído esta enfermedad,
¿cuál es la probabilidad de que: a) al menos 10 sobrevivan, b) sobrevivan
entre 3 y 8 personas, y c) sobrevivan exactamente 5 personas? (Resolver
utilizando la tabla de probabilidad binomial)
Solución:
Sea X el número de personas que sobreviven,
9
a) P X 10 1 P X 10 1 p x 1 0.9662 0.0338
x 0
8 8 2
b) P3 X 8 p x p x p x 0.9050 0.0271 0.8779
x 3 x 0 x 0
5 4
c) P X 5 p x p x 0.4032 0.2173 0.1859
x 0 x 0
Nota: El punto c) también se puede calcular directamente si disponemos de
la tabla de probabilidades puntuales.
En los ejemplos anteriores se observa con claridad que la distribución
binomial tiene aplicaciones en muchos campos científicos. Un ingeniero
industrial está profundamente interesado en la "proporción de defectuosos"
en un proceso industrial. Con frecuencia el control de calidad y los
esquemas de muestreo para los procesos se basan en la distribución
binomial. Ésta se aplica en cualquier situación de tipo industrial donde se
presentan las características siguientes:
el resultado de un proceso es dicotómico,
los resultados posibles son independientes, y
la probabilidad de éxito es constante de una observación a otra.
TN
La distribución binomial también se utiliza extensamente en aplicaciones
médicas y militares. En ambos casos el resultado exitoso o fallido es
importante. Por ejemplo, "curar" o "no curar" es importante en el trabajo
U
farmacéutico, mientras que "dar en el blanco" o "errar" es importante al
disparar un misil.
SF
Dado que la distribución de probabilidad de cualquier variable aleatoria
binomial depende sólo de los valores que asumen los parámetros n, p y q,
parecería razonable suponer que la media y la variancia de una variable
FR
aleatoria binomial también dependan de los valores de estos parámetros.
5.4.2.Esperanza y variancia de la variable aleatoria binomial
E
Teorema:
La esperanza matemática y la variancia de la distribución binomial están
y
dadas por:
E x n. p V x 2 n. p.q
P
y
Demostración:
Sea la variable aleatoria de Bernoulli yj que representa el resultado de la j-
ésima observación, la cual asume los valores 1 y 0 con probabilidades p y q,
respectivamente. Por lo tanto, en un experimento binomial el número de
éxitos puede escribirse como la suma de las n variables de Bernoulli
independientes. Entonces,
X y1 y2 ... yn
Recordemos que E(yj) = (0 * q) + (1 * p) = p. Por lo tanto, la media de la
distribución binomial es:
E X E y1 E y 2 ... E y n p p ... p n. p
n términos
Aplicamos la propiedad que dice que la esperanza de una suma de v.a. es
igual a la suma de las esperanzas individuales.
Observación: Reinterpretemos este importante resultado, considerando la
variable aleatoria x/n. Ésta representa la frecuencia relativa del evento A
entre las n repeticiones de E. Usando la propiedad 1 de E(x), tenemos E(x/n)
= (n.p) / n = p. Esto expresa que la frecuencia relativa esperada del evento A
es p, donde p = P(A), lo cual representa la primera verificación teórica del
hecho de que hay una relación entre la frecuencia relativa de un evento y la
probabilidad de ese evento.
La variancia de cualquier yj es:
y2 j E y j p 2 E y 2j p 2
0 2 * q 12 * p p 2 p1 p p.q
Luego, si consideramos que la v.a. binomial es la suma de n v.a. de
Bernoulli independientes, la variancia de la distribución binomial es:
x2 y21 y22 ... y2n p.q p.q ... p.q n. p.q
Ejemplo:
n términos
TN
U
Encuentre la media y la variancia de la variable aleatoria binomial del
último ejemplo planteado, y entonces utilice el teorema de Chebyshev para
SF
interpretar el intervalo 2.
Solución:
Dado que el ejemplo se trató de un experimento binomial con n = 15 y p =
FR
0.4, por el teorema se tiene que:
= 15 * 0.4 = 6 y 2 = 15 * 0.4 * 0.6 = 3.6
Al sacar la raíz cuadrada de 3.6 se encuentra que = 1.897. Como el
E
intervalo requerido es 6 2 * 1.897, sería de 2.206 a 9.794. El teorema de
Chebyshev establece que: de una muestra de 15 pacientes, se espera que se
y
recuperen de la enfermedad entre 3 y 9 inclusive, con una probabilidad de al
menos 3/4 (o sea, al menos el 75%). Podemos ver que, si calculamos la
P
probabilidad P(3 X 9) por la binomial, efectivamente resulta un valor
mayor que 0.75.
Asimetría de la distribución binomial.
Es posible predecir la asimetría de toda distribución binomial en función del
valor de sus parámetros, especialmente, de la probabilidad de éxito p.
Resulta:
a) Si p < 1/2, n < 30 entonces la distribución binomial será asimétrica a
derecha.
b) Si p > 1/2, n < 30 entonces tal distribución resultará asimétrica a
izquierda.
c) Si p = ½, entonces esta distribución resulta simétrica, sin importar el
tamaño de muestra n.
Ejercicio Propuesto:
Se sabe que el 10% de las piezas mecánicas de una determinada marca
deben ser reemplazadas dentro del período de garantía. Si se compra un lote
de 25 piezas:
¿Cuál es la probabilidad de que deban reemplazar:
a) a lo sumo 4 piezas del lote?
b) al menos 2 piezas, pero no más de 5?
5.4.3.Experimentos multinomiales
Si cada prueba u observación tiene más de 2 resultados posibles, entonces el
experimento binomial se convierte en un experimento multinomial. De
aquí que un producto manufacturado que se clasifica como ligero, pesado o
aceptable y el registro de accidentes en una intersección determinada según
el día de la semana constituyen experimentos multinomiales. El sacar una
carta de un mazo con reemplazo es también un experimento multinomial si
los cuatro palos son los resultados de interés.
En general, si una observación puede resultar en cualquiera de k
TN
posibilidades E1, E2, ..., Ek con probabilidades de éxitos p1, p2, ..., pk,
respectivamente, entonces la distribución multinomial dará la probabilidad
de que E1 ocurra x1 veces, E2 ocurra x2 veces, ..., y Ek ocurra xk veces en n
U
intentos independientes. Dado que estos k resultados posibles completan el
espacio muestral, debe cumplirse que p1 + p2 + ... + pk = 1.
SF
Para derivar la fórmula general se procede como en el caso binomial. Dado
que los intentos son independientes, cualquier orden especificado que
produzca x1 resultados para E1, x2 para E2, ..., xk para Ek ocurrirá con una
FR
probabilidad p1x1 p 2x2 ... pkxk . El número total de órdenes que producen
resultados similares para los n intentos es igual al número de particiones de
n intentos en k grupos con x1 en el primer grupo, x2 en el segundo, ..., y xk en
E
el grupo k. Esto puede realizarse en
x1 , x2 ,..., xk
n n!
y
x1! x 2 !... x k !
P
maneras. Dado que todas las particiones son mutuamente excluyentes y
ocurren con igual probabilidad, se obtiene la distribución multinomial al
multiplicar la probabilidad para un orden específico por el número total de
particiones.
Distribución multinomial:
Si en un experimento aleatorio determinado cada observación puede
resultar en k resultados distintos, con probabilidades p1, p2, ..., pk
respectivamente, entonces la distribución de probabilidades de las v.a. x 1,
x2, ..., xk, que representan el número de ocurrencias para los resultados en n
observaciones independientes, viene dada por:
p x1 , x 2 ,..., x k nx1 , x2 ,..., xk p1x1 p 2x2 ... p kxk
donde:
x ! x n!...
k k
!
n
x1 , x2 ,..., xk
x!
, x
i 1
i n y p
i 1
i 1
1 2 k
Ejemplo:
Se saca una carta de un mazo de 40, se anota la carta obtenida y luego se la
vuelve a incorporar al mazo, mezclando bien. Este experimento se repite 5
veces. ¿Cuál es la probabilidad de obtener 3 cartas de espada y 2 de oro?
Solución:
Como el problema se refiere sólo a obtener cartas de un determinado palo,
luego los resultados posibles ante la extracción de cada carta serían:
A1 = "Obtener carta de espada."
A2 = "Obtener carta de oro."
A3 = "Obtener carta de basto."
A4 = "Obtener carta de copa."
La probabilidad de cada uno de ellos en cada extracción es 1/4. Luego:
3 2 0 0
1 1 1 1
Px1 3, x2 2, x3 0, x4 0 5
3, 2,0,0
4 4 4 4
5! 1 1
5
25 9.76 * 10
3!2!0!0! 4 4
3
5
TN
U
Como conclusión podemos decir que, si se extraen 5 cartas de un mazo de
40, reponiendo cada carta luego de ser extraída, la probabilidad de obtener 3
SF
cartas de espada y 2 cartas de oro es de aproximadamente el 1%.
5.5.Distribución hipergeométrica
FR
El esquema del tipo de experimentos aleatorios donde se puede aplicar una
distribución hipergeométrica es similar al de la binomial. La diferencia
radica en que en la binomial las distintas observaciones eran independientes,
E
mientras que en la hipergeométrica son dependientes. Si llevamos el
problema al muestreo de un lote de artículos, la diferencia radica en que en
y
la distribución binomial el muestreo debe realizarse con reemplazo o
reposición, mientras que en la hipergeométrica el muestreo se realiza sin
P
reemplazo.
La distribución hipergeométrica se aplica en diferentes problemas: en
muestreo de aceptación, pruebas electrónicas, pruebas de calidad, etc. Es
obvio que en estos casos, cuando la pieza se prueba, se destruye y no puede
reponerse en el lote. Entonces, es necesario realizar muestreo sin reemplazo.
Luego, las características de un experimento aleatorio donde se puede
aplicar el modelo hipergeométrico son las siguientes:
La población posee N elementos, de los cuales N1 son de una clase
determinada y N2 son de otra clase, tal que N1 + N2 = N. Ambas clases
son mutuamente excluyentes y exhaustivas.
Se extrae una muestra de n elementos sin reemplazo.
Luego, la función de probabilidad de la distribución hipergeométrica viene
dada por:
P X x N1 , N 2 ,n
N1 N 2
n x
x
N1 N 2
n
donde
x = 0,1,2,...,n y N1 + N2 = N
En algunas aplicaciones en las que correspondería aplicar el modelo
hipergeométrico, porque se muestrea sin reemplazo, se prefiere el modelo
binomial. El hecho es que, al muestrear sin reemplazo en una población
infinita (caso de los muestreos de inspección en los procesos de
producción), reemplazar o no la pieza observada no altera el resultado.
Ejemplo:
En un proceso de producción se controla la calidad de las piezas
seleccionando 5 ítems aleatoriamente y sometiéndolos a un ensayo de tipo
destructivo. Los lotes que se reciben son de 40 piezas y se sabe que hay 3
defectuosos en cada uno. ¿Cuál es la probabilidad de que haya a lo sumo
uno defectuoso en la muestra?
TN
Solución:
Tenemos los siguientes datos:
N: Número de piezas en el lote, N = 40.
U
N1: Número de piezas defectuosas en el lote, N1 = 3.
N2: Número de piezas buenas en el lote, N2 = 37.
SF
n: Tamaño muestral, n = 5.
Esquemáticamente, nuestra situación es la siguiente:
FR
Muestra
Lote
x
E
3 defectuosas defectuosas
y
37 buenas n–x
buenas
P
Si llamamos X al número de piezas defectuosas en la muestra, luego:
P(haya a lo sumo 1 pieza defectuosa en la muestra) = P(X ≤ 1) =
P X 0 P X 1
0,6624 0,3011 0,9635
3
0
37
5
3
1
37
4
40
5
40
5
Lamentablemente no disponemos de tablas para esta distribución. Luego,
debemos realizar todos los cálculos para determinar las probabilidades.
5.5.1.Esperanza y variancia de la variable aleatoria
hipergeométrica
Teorema:
La esperanza matemática y la variancia de la distribución hipergeométrica
están dadas por:
N
E x n 1
N
N n N1 N1
V x 2 n 1
N 1 N N
Demostración:
Para encontrar la media de la distribución hipergeométrica, hacemos:
n
N1 N N1
E X x x Nn x N 1
n
N 1 1! nNxN1 n
Nx111 nNxN1
1
x 0 n x 1 x 1! N 1 x ! n
N
N
x 1 nN
Si y = x – 1, lo anterior se convierte en:
n 1 N1 1 N N1
EX N
TN
y n 1 y
1
y 0
N
n
Si se expresa,
U
N N1
n 1 y N 1 N1 1
n 1 y y n!NN! n ! Nn
N
n
N 1
n 1
SF
se obtiene:
EX
nN 1 n 1
N1 1 N 1 N1 1
nN
y n 1 y
1
FR
N 1
N y 0 n 1 N
=1
dado que la sumatoria representa el total de todas las probabilidades en un
E
experimento hipergeométrico cuando n - 1 resultados se seleccionan
aleatoriamente de N - 1, de los cuales N1 - 1 se consideran éxitos.
y
En forma similar se puede demostrar la variancia V(X).
P
Ejemplo:
Encuentre la media y la variancia de la variable aleatoria del último
ejemplo, y utilice entonces el teorema de Chebyshev para interpretar el
intervalo 2.
Recordar que la desigualdad de Chebyshev es P x k 1 2 .
1
k
Solución:
Dado que el ejemplo se trató de un experimento hipergeométrico con N =
40, n = 5, entonces:
40 5 3 3
5 1 0,3113
3
0,375 y 2
8 39 40 40
Se obtiene la raíz cuadrada de 0,3113 y se encuentra que = 0,558. De aquí
que el intervalo requerido es 0,375 2 * 0,558, o de –0,741 a 1,491. El
teorema de Chebyshev establece que el número de componentes defectuosos
que se obtienen cuando 5 de ellos se seleccionan al azar de un lote de 40
componentes en el cual 3 están defectuosos tiene una probabilidad de al
menos 3/4 de caer entre –0,741 y 1,491. Esto es, al menos el 75% de los
lotes de 5 ítems que se seleccionen incluirá menos de 2 defectuosos, es
decir, incluirán 0 o 1 defectuosos.
Si n es relativamente pequeño respecto de N cuando se muestrea sin
reposición, la probabilidad de éxito para cada intento cambia sólo
ligeramente. De aquí que, en estos casos, aunque el proceso responda
naturalmente a un esquema hipergeométrico, puede aproximarse por uno
binomial con p = N1/N. La media y la variancia pueden aproximarse también
mediante las fórmulas:
nN N N
n. p 1 y 2 n. p.q n 1 1 1
N N N
Si se comparan estas fórmulas con las del teorema anterior, se observa que
la media es la misma mientras que la variancia difiere por un factor de
TN
corrección de (N - n) / (N - 1). Esto es despreciable cuando n es pequeño en
relación con N.
U
5.6.Distribución de Poisson
Se denominan experimentos de Poisson a aquellos que describen el
SF
comportamiento de una variable aleatoria que representa el número de
resultados observados, con una determinada característica, durante un
intervalo de tiempo dado o en una unidad de espacio específica. Cualquiera
FR
puede ser la duración del intervalo de tiempo, por ejemplo un minuto, un
día, una semana, un mes, o inclusive un año. Por ejemplo, si analizamos el
número de llamadas telefónicas por hora que se reciben en una oficina, el
E
número de clientes que entran a un banco por día, el número de glóbulos
rojos por cm3 de sangre, etc., podemos describir su comportamiento
mediante un modelo de Poisson. El área especificada podría ser un
y
segmento de línea, un área, un volumen, o tal vez un trozo de determinadas
P
dimensiones de algún material. En este caso, X podría representar el número
de ratas de campo por acre, el número de bacterias en un determinado
cultivo, o el número de errores de mecanografía por página, etc.
Un experimento de Poisson surge del proceso de Poisson y tiene las
siguientes características:
El número de resultados que ocurren en un intervalo de tiempo o región
específicos es independiente del número que ocurre en cualquier otro
intervalo disjunto de tiempo o espacio. De esta manera, se dice que el
proceso de Poisson no tiene memoria.
La probabilidad de que un resultado sencillo ocurra en un intervalo de
tiempo muy corto o en una región pequeña es proporcional a la longitud
del intervalo de tiempo o al tamaño de la región, y no depende del
número de resultados que ocurren fuera de este intervalo o región.
La probabilidad de que más de un resultado ocurra en ese intervalo de
tiempo tan corto o en esa región tan pequeña es despreciable.
El número X de resultados que ocurren en un experimento de Poisson se
llama variable aleatoria de Poisson y su distribución de probabilidad
recibe el nombre de distribución de Poisson.
Distribución de Poisson:
La función de probabilidad de la variable aleatoria de Poisson X, que
representa el número de resultados que ocurren en un intervalo de tiempo
dado o de espacio, es:
e t t
x
p x; t x = 0,1,2,...
x!
donde es el número promedio de resultados por unidad de tiempo o
espacio y e = 2.71828...
Ejemplo:
El número promedio de partículas radiactivas que pasan a través de un
contador durante un milisegundo en un experimento de laboratorio es 4.
milisegundo determinado?
Solución:
TN
¿Cuál es la probabilidad de que entren 6 partículas al contador en un
U
Si se utiliza la distribución de Poisson con x = 6 y = 4, se encuentra
mediante la tabla de probabilidades de Poisson que:
SF
e 4 4 6 6 5
p6;4 px;4 px;4 0.8893 0.7851 0.1042
6! x 0 x 0
FR
Ejemplo:
Se sabe que 10 es el número promedio de camiones-tanque de aceite que
llegan por día a una cierta ciudad portuaria. Las instalaciones del puerto
E
pueden atender cuando mucho a 15 camiones-tanque en un día. ¿Cuál es la
probabilidad de que en un determinado día se tengan que regresar los
y
camiones-tanque?
Solución:
P
Sea X el número de camiones-tanque que llegan por día, entonces,
utilizando la tabla, se tiene:
15
P X 15 1 P X 15 1 px;10 1 0,9513 0,0487
x 0
Como en el caso de la distribución binomial, la distribución de Poisson tiene
aplicaciones en control de calidad, aseguramiento de la calidad y muestreo
de aceptación. Adicionalmente, ciertas distribuciones continuas importantes
utilizadas en teoría de confiabilidad y teoría de colas dependen del proceso
de Poisson.
5.6.1.Esperanza y variancia de la variable aleatoria de Poisson
Teorema:
La media y la variancia de la distribución de Poisson tienen, ambas, el
valor .
Demostración:
e x e x
e x 1
EX x x
x 0 x! x 1 x! x 1 x 1!
La sumatoria se anula para x = 0.
Ahora, sea y = x - 1 para dar
e y
EX
y 0 y!
ya que,
e y
p y; 1
y 0 y! y 0
TN
Se demuestra que la variancia de la distribución de Poisson es:
V X 2
Es decir, que si X es una variable aleatoria de Poisson, entonces:
U
EX V X 2 x
SF
En el ejemplo de las partículas radiactivas, donde = 4, también se tiene 2
= 4 y, de aquí, = 2. Cuando se utiliza el teorema de Chebyshev, puede
establecerse que la variable aleatoria tiene una probabilidad de, al menos,
FR
3/4 de caer en el intervalo 2 = 4 2 * 2, o de 0 a 8. Por lo tanto, se
concluye que, al menos 3/4 partes del tiempo, el número de partículas
radiactivas que entren al contador será de entre 0 y 8 durante un
E
milisegundo determinado.
En este caso también disponemos de tablas que nos simplifican el cálculo de
y
probabilidades de Poisson.
P
5.6.2.La distribución de Poisson como límite de la binomial
Cuando n , p 0 y n.p permanece constante la distribución Binomial
se aproxima a la de Poisson. De aquí que, si n es grande y p es cercana a 0,
la distribución de Poisson puede utilizarse con = n.p para aproximar
distribuciones binomiales. Si p es cercana a 1, se puede utilizar la
distribución de Poisson para aproximar a la distribución binomial,
intercambiando lo que se definió como un éxito por un fracaso, cambiando
de esta manera p por un valor cercano a 0.
Teorema:
Sea X una variable aleatoria binomial con distribución de probabilidad
B(n,p). Cuando n , p 0 y = n.p permanece constante:
B x; n , p p x;
Ejercicio Propuesto:
Suponga que una fábrica de aceites tiene 20 máquinas embotelladoras
automáticas. La probabilidad de que una máquina cualquiera se
descomponga un día determinado es 0.05. Calcule la probabilidad de que un
día cualquiera se descompongan 3 máquinas automáticas. Primero utilice la
distribución binomial y luego calcule nuevamente la misma probabilidad
usando la aproximación de Poisson.
5.7.Aplicación de las distribuciones de probabilidad al
muestreo de aceptación
En los problemas que vimos, donde se usaba la distribución binomial, la
probabilidad de éxito p se suponía conocida. Imaginemos ahora que no se
conoce p y, en base a resultados muestrales, se quieren hacer inferencias con
respecto a p.
Supongamos que se reciben grandes lotes de artículos manufacturados,
digamos lotes de 500 artículos, y se desea rechazar y devolver al fabricante
aquellos lotes que contengan una proporción alta de artículos defectuosos.
TN
Digamos que el comprador sólo aceptará lotes que no contengan una
proporción mayor de p = 0.05 artículos defectuosos. Luego, siendo p la
proporción de artículos defectuosos en el lote:
U
Si p 0.05 El lote es aceptado.
Si p > 0.05 El lote es rechazado.
SF
Luego, se determina un plan de muestreo que consiste en establecer un
tamaño de muestra n que será la cantidad de artículos que se inspeccionarán
del lote. También se selecciona de antemano un número a que representa el
FR
número de defectuosos que se está dispuesto a aceptar. Siendo X el número
de artículos defectuosos en la Mn:
Si X a Se acepta el lote.
E
Si X > a Se rechaza el lote y se devuelve al fabricante.
Los ingenieros de control de calidad caracterizan la bondad de un plan de
y
muestreo mediante el cálculo de la probabilidad de aceptar un lote para
distintos valores de la proporción de defectuosos. La representación gráfica
P
del resultado se denomina curva característica de operación del plan de
muestreo.
Un buen plan de muestreo debe dar probabilidades altas de aceptar lotes con
una baja proporción de defectuosos y probabilidades bajas de aceptar lotes
con una alta proporción de defectuosos.
Ejemplo:
Supongamos el siguiente plan de muestreo: aceptar un lote si a = 1 y n = 5.
Considerar las proporciones de defectuosos 0.1, 0.2, 0.4 y 0.5. Representar
la curva característica de operación del plan.
Solución:
X = número de piezas defectuosas en muestras de tamaño 5
Consideramos que X tiene distribución binomial, luego:
Si p = 0,1 P(aceptar lote) = P(X 1) = 0,9185
Si p = 0,2 P(aceptar lote) = P(X 1) = 0,7373
Si p = 0,4 P(aceptar lote) = P(X 1) = 0,3370
Si p = 0,5 P(aceptar lote) = P(X 1) = 0,1875
1
0,8
Probabilidad de
aceptar el lote
0,6
0,4
0,2
0
0,1 0,2 0,4 0,5
Proporción de defectuosos del lote
TN
El procedimiento de muestreo de aceptación es un ejemplo de Inferencia
Estadística ya que se toman decisiones en relación a la proporción de
artículos defectuosos del lote, de acuerdo al número de defectuosos
U
encontrados en la muestra. Al aceptar un lote, se infiere que la proporción
real de defectuosos es pequeña. Al rechazarlo, se infiere que es
SF
demasiado grande.
5.8.Autoevaluación conceptual
FR
En cada una de las siguientes proposiciones coloque Verdadero o Falso. Si
es Falso, enuncie una nueva proposición que resulte Verdadera.
a) La variable aleatoria que representa el número que se obtiene cuando se
E
arroja un dado normal tiene una distribución discreta uniforme.
b) La esperanza matemática de una variable aleatoria que sigue un proceso
y
aleatorio de Bernoulli es igual a la probabilidad de fracaso.
c) En el modelo binomial, la probabilidad de éxito permanece constante de
P
una observación a otra.
d) En el modelo de Poisson, la esperanza y la desviación típica son iguales.
e) El procedimiento de muestreo de aceptación es un ejemplo de Inferencia
Estadística.
f) En una distribución de Poisson la variable aleatoria representa
observaciones a lo largo de una unidad de tiempo o espacio.
g) Si n ∞ y p 0, la distribución Binomial tiende a la distribución
de Poisson.
h) La variable aleatoria discreta asociada con un muestreo sin reposición
sobre una población finita pequeña clasificada en éxitos y fracasos,
sigue una distribución de probabilidades binomial.
i) Si n es grande y p > 0.10 la distribución Binomial tiende a la
distribución de Poisson.
j) Una variable aleatoria binomial puede escribirse como la suma de
variables aleatorias de Bernoulli.
k) Al muestrear sin reemplazo en una población infinita, reemplazar o no la
pieza observada altera el resultado.
TN
U
SF
FR
E
y
P