Fundamentos de Probabilidad y Estadística
Fundamentos de Probabilidad y Estadística
Sección 2: Probabilidad
Preparado por:
1 Probabilidad 4
1.1 Definiciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2.1 Permutaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.2.2 Combinaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2 Variable Aleatoria 30
2.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
3 Distribuciones Discretas 48
2
ÍNDICE GENERAL Probabilidad y Estadística
4 Distribuciones Continuas 62
ÍNDICE GENERAL 3
1. P ROBABILIDAD
I NTRODUCCIÓN
En sus inicios el desarrollo de la probabilidad fue financiada por los grandes apostadores en el
siglo XVII, para conocer las probabilidades de los diferentes juegos de azar de la época, este desarrollo
fue aprovechado después por los científicos en diferentes fenómenos físicos y en este capítulo se
presentan los principales elementos de la probabilidad.
Desde muy pequeños desarrollamos la idea de probabilidad al jugar juegos de mesa y al enfren-
tarnos a situaciones aleatorias. Por ejemplo, en el lanzamiento de un dado, es claro que existen seis
posibles resultados y que en cada nuevo lanzamiento no siempre se obtiene el mismo resultado an-
terior. Del mismo modo cuando lanzamos una moneda tenemos dos posibles opciones y en cada
lanzamiento se puede obtener una u otra opción (cara o sello). De esta manera, el ser humano poco a
poco adquiere una idea intuitiva de probabilidad y aunque no sepa definirla ni calcularla.
1.1. D EFINICIONES
Existen dos tipos de fenómenos, los primeros son aquellos que bajo un conjunto específico de
condiciones permiten obtener los mismos resultados. En particular, si se deja caer un objeto de cierta
altura el tiempo que se demora en llegar al suelo es el mismo independientemente del número de
4
CAPÍTULO 1. PROBABILIDAD Probabilidad y Estadística
veces que se repita el experimento. En cambio, hay ciertos fenómenos, a pesar de que se hagan bajo
las mismas condiciones el resultado es diferente cada vez que se repite; por ejemplo, al sacar una
bolita al azar en el bingo, el lanzamiento de un dado, sacar una carta al azar, etc. A este tipo de
“fenómenos” los llamaremos experimentos aleatorios; así:
Definición 1 – Experimento Aleatorio
Es un fenómeno con un resultado que no se puede predecir con certeza.
Tomemos el experimento aleatorio escoger de una bolsa de cuatro canicas de diferentes colores una al
azar e identificar el color de la misma, digamos que los colores de las canicas son NEGRO, ROJO, BLANCO
y VERDE , así al sacar una bola al azar, el color de ésta será uno de los cuatro anteriores. Lo único
que podremos es adivinar cuál es el color de la bola, pero nunca sabremos con certeza el color de la
misma sin verla.
Definición 2 – Espacio Muestral
Al conjunto de todos los posibles resultados de un experimento aleatorio se le denomina espacio
muestral, notaremos al espacio muestral con Ω.
Del ejemplo anterior observemos que el espacio muestral es el conjunto de los cuatro colores que
puede tomar cualquiera de las bolas, es decir,
En términos de conjuntos, es claro que el espacio muestral y el conjunto vacío son también even-
tos, también lo son cualquier evento individual o combinado. Por ejemplo, el evento de que la bola
al azar sea verde o roja se puede representar por el conjunto,
A = { ROJO, VERDE }.
Como observamos para estudiar la teoría de probabilidades es de vital importancia conocer la teoría
de conjuntos, la cual se ha abordado en cursos anteriores. De esta manera, abordaremos esta teoría de
forma sencilla haciendo las respectivas traducciones del lenguaje conjuntista al lenguaje estadístico.
Es claro que cualquier conjunto, subconjunto del espacio muestral, es un evento o suceso. La clase
universal, en cada experimento, será el espacio muestral; la clase vacía es un evento imposible o
falso; el complemento de un conjunto A (Ac ) es el evento contrario de A, en términos de conjuntos lo
podemos expresar por Ω r A.
De forma similar a como se hacen las operaciones entre conjuntos (unión, intersección, diferencia
y complemento) se lo realiza con los eventos y de esta manera se puede obtener o caracterizar eventos
particulares que juegan un papel fundamental en la estadística. El siguiente ejemplo permite aclarar
estas definiciones.
1.1. DEFINICIONES 5
Probabilidad y Estadística CAPÍTULO 1. PROBABILIDAD
Ejemplo 1. Consideremos un dado que está formado por seis lados en los cuales se tiene numerado
desde el 1 hasta el 6. Supongamos que A es el evento de que al lanzar un dado se obtenga un número
menor que 4. Luego, B sea el evento de que al lanzar un dado se obtenga un número par.
Ahora bien, A ∪ B representa el evento de que al lanzar un dado se obtenga un número que sea
menor que 4 o que sea par. Es decir,
A ∪ B = {1, 2, 3, 4, 6}
El evento de obtener un número menor que 4 y que sea un número par representa A ∩ B. Luego,
A ∩ B = {2}
El evento de obtener un número que sea menor a 4, pero que no sea par representa A r B. Es decir,
A r B = {1, 2, 3, 4, 6}
Bc = {1, 3, 5}
Así, se pueden definir eventos importantes en el estudio de la estadística tales como eventos
independientes, dependientes mutuamente excluyentes, etc y otros tipos de eventos que en lenguaje
se puede utilizar frases como: “al menos”, “a lo más”, “todos a la vez” entre otras frases. Por ejemplo,
Ejemplo 2. Imaginemos que se tienen dos tetraedros regulares con cada una de sus caras numeradas.
Se lanzan a una mesa y se anotan los resultados.
b) Determine los elementos del evento A que representa que la suma de los números sea al menos
6.
c) Determine los elementos del espacio B que representa que la suma de los números sea a lo
mucho 3.
d) Determine los elementos del evento C que representa que la suma de los números sea más de
6.
e) Determine los elementos del evento D que representa que la suma de los números sea menos
de 3.
Solución.
6 1.1. DEFINICIONES
CAPÍTULO 1. PROBABILIDAD Probabilidad y Estadística
tetraedro. Así,
(1, 1), (1, 2), (1, 3), (1, 4),
(2, 1),
(2, 2), (2, 3), (2, 4),
Ω= .
(3, 1),
(3, 2), (3, 3), (3, 4),
(4, 1),
(4, 2), (4, 3), (4, 4)
b) El hecho de que la suma de los números de los tetraedros sea al menos 6 significa que la suma
puede ser 6, 7 u 8, luego,
A = {(3, 3), (3, 4), (4, 3), (4, 4)}.
c) El hecho de que la suma de los números de los tetraedros sea a lo mucho 3 significa que la suma
puede ser 2 o 3, luego,
B = {(1, 1), (1, 2), (2, 1)}.
d) El hecho de que la suma de los números de los tetraedros sea más de 6 significa que la suma
puede ser 7 u 8, luego,
C = {(3, 4), (4, 3), (4, 4)}.
e) El hecho de que la suma de los números de los tetraedros sea menos de 3 significa que la suma
puede ser 2, luego,
D = {(1, 1)}.
A ∩ B = ∅.
Ahora consideremos como C al evento de que al lanzar el dado se obtenga el número impar, y D
como el evento de que al lanzar el dado se obtenga el número 2.
Está claro que los dos eventos no se pueden dar al mismo tiempo pues no es posible obtener un
número impar y el 2 a la vez.
Como se dijo al inicio de este capítulo, la forma intuitiva de abordar la probabilidad es a través
de la frecuencia relativa de un evento, para ello vamos a definir lo siguiente:
Definición 5 – Frecuencia relativa de un evento
Si un experimento aleatorio se realiza n veces y A es un evento que ocurre n A veces, entonces la
1.1. DEFINICIONES 7
Probabilidad y Estadística CAPÍTULO 1. PROBABILIDAD
nA
fA = .
n
3. 0 6 f A 6 1
Ejemplo 4. Se han ubicado 10 bolas numeradas con los dígitos en una bolsa, cada vez que se saca
una bola se escribe en una hoja el número de la bola sacada y se la vuelve a meter en la bolsa, así se
obtiene lo siguiente:
Número de la bola 0 1 2 3 4 5 6 7 8 9
Número de apariciones 5 3 3 2 5 7 2 5 4 6
Ω = {0, 1, 2, 3, 4, 5, 6, 7, 8, 9}
A = {0, 2, 4, 6, 8} B = {0, 3, 6, 9}
C = {5, 7, 9} D = {2, 3, 5, 7}
Luego, es notorio que se han hecho 42 experimentos y de la definición de frecuencia relativa se tiene
que:
5+3+5+2+4 19 5+2+2+6 5
fA = = , fB = = ,
42 42 42 14
7+5+6 3 3+2+7+5 17
fC = = , fD = = .
42 7 42 42
8 1.1. DEFINICIONES
CAPÍTULO 1. PROBABILIDAD Probabilidad y Estadística
después,
5+3+2+5+2+4+6 9 5+3+5+7+2+5+4+6 37
f A∪ B = = , f A∪C = = ,
42 14 42 42
6 1 3+2 5
f B∩C = = , f D rC = = .
42 7 42 42
Definición 6 – Probabilidad
Dado un espacio muestral Ω y la función P : P (Ω)a → R, la probabilidad del evento A es
P( A), tal que
I) P(Ω) = 1;
Las tres proposiciones anteriores son los que se conocen como axiomas de la probabilidad, de
aquí se deducen las siguientes proposiciones:
Teorema 1 – Propiedades de la probabilidad
1. P(∅) = 0.
2. P( Ac ) = 1 − P( A).
3. Si A ⊆ B, P( A) 6 P( B).
4. P( A) = P( A r B) + P( A ∩ B).
5. P( A ∪ B) = P( A) + P( B) − P( A ∩ B).
Observemos que de la definición de frecuencia relativa de un evento, se tiene que el valor al que
converge f A cuando n tiende al infinito es justamente P( A). Así, la manera más sencilla de calcular
la probabilidad de un evento A está dada por:
b) salga 4 o 6.
1.1. DEFINICIONES 9
Probabilidad y Estadística CAPÍTULO 1. PROBABILIDAD
Ω = {1, 2, 3, 4, 5, 6}
y, en consecuencia, |Ω| = 6 1 . Vamos a definir el conjunto A = {2, 4, 6} que representa al evento que
al lanzar un dado salga un número par. Luego, que suceda este evento es:
| A| 3 1
P( A) = = = .
|Ω| 6 2
Ahora, definamos el conjunto B = {4, 6} que representa al evento de que al lanzar un dado salga 4 o
6.
| B| 2 1
P( B) = = = .
|Ω| 6 3
El evento de que al lanzar un dado se obtenga un número mayor a 6 es un evento imposible, es decir,
lo podemos representar por C = ∅, en consecuencia,
P(C ) = P(∅) = 0.
Finalmente, el evento de que al lanzar un dado se obtenga un número menor o igual a 6 es el evento
contrario al evento C, es decir, D = C c , luego,
P( D ) = P(C c ) = P(Ω) = 1.
P ( A ∪ A c ) = P ( A ) + P ( A c ),
de donde,
P ( Ω ) = P ( A ) + P ( A c );
ya que A ∪ Ac = Ω, y en consecuencia,
P ( A c ) = 1 − P ( A ).
1 El signo | Ω | representa la cardinalidad (número de elementos) del conjunto finito Ω. Y, para nuestros propósitos repre-
10 1.1. DEFINICIONES
CAPÍTULO 1. PROBABILIDAD Probabilidad y Estadística
| A ∪ B| = m + n.
Esto quiere decir que: “Si un suceso A puede ocurrir de m maneras (| A| = m), y otro suceso
B puede ocurrir de n maneras (| B| = n), y no pueden ocurrir ambos simultáneamente, entonces el
suceso A ∪ B puede ocurrir de m + n maneras”.
| A1 ∪ A2 ∪ . . . ∪ A n | = | A1 | + | A2 | + . . . + | A n |.
Esto significa que si un evento A1 puede ocurrir de m1 maneras, un evento A2 de m2 maneras, etc., y
un evento An ocurre de mn maneras, entonces la unión de estos eventos ocurre de m1 + m2 + . . . + mn
maneras.
Definición 8 – Principio del producto
Si | A| = m y | B| = n, entonces
| A × B| = | A| · | B| = m · n.
Este principio puede visualizarse disponiendo todos los elementos del producto cartesiano A × B
en una tabla. Suponiendo que A = { a1 , . . . , am } y B = {b1 , . . . , bn }, entonces los elementos de A × B
son pares ordenados:
( a1 , b1 ) ( a1 , b2 ) ... ( a 1 , bn )
( a2 , b1 ) ( a2 , b2 ) ... ( a 2 , bn )
.. .. .. ..
. . . .
( am , b1 ) ( am , b2 ) . . . ( am , bn )
Esta definición la usaremos para determinar la cardinalidad de eventos que se realizan de forma
sucesiva, es decir, si un primer objeto puede escogerse entre m posibles, y después de realizada esta
selección puede escogerse un segundo objeto entre n posibles, entonces pueden escogerse m · n pares
diferentes.
| A1 × A2 × . . . × A n | = | A1 | · | A2 | · . . . · | A n |,
es decir, si un evento A1 ocurre de m1 formas, y después de realizado este evento se realiza A2 y este
puede ocurrir m2 formas, etc., hasta que el n-ésimo evento (An ) se realice y este ocurre de mn formas;
entonces los n eventos ocurren de forma sucesiva de m1 · m2 · . . . · mn formas.
Ejemplo 7. ¿De cuántas maneras pueden colocarse una torre blanca y una torre negra en un tablero
de ajedrez de modo que se ataquen?
1.1. DEFINICIONES 11
Probabilidad y Estadística CAPÍTULO 1. PROBABILIDAD
Respuesta. El tablero de ajedrez esta formado por 8 filas y 8 columnas, entonces, el número de casillas
en que se puede ubicar la torre blanca es 8 · 8 = 64.
Una vez ubicada la torre blanca, la torre negra debe colocarse en una casilla de la misma columna
o fila ocupada por la torre blanca, si consideramos como el suceso A la ubicación de la torre negra
en una casilla de la misma fila donde se ubica la torre blanca tenemos que | A| = 7 es decir existe 7
maneras diferentes de ubicarse en las casillas y si consideramos como el suceso B la ubicación de la
torre negra en una casilla de la misma columna donde se ubica la torre blanca tenemos que | B| = 7,
es decir, existe otras 7 maneras diferentes de ubicarse en las casillas.
Como A y B son sucesos mutuamente excluyentes entonces por el principio de la suma se tienen
7 + 7 = 14, diferentes maneras de ubicarse la torre negra.
Por lo tanto, del principio del producto podemos concluir que se tienen 64 · 14 = 896 maneras
de colocarse la torre blanca y negra. Ya que primero se ubica la torre blanca y luego la torre negra.
El orden de colocación de las piezas es indiferente, es decir, si se ubica primero la negra y luego la
blanca el resultado es el mismo.
Para determinar los elementos del espacio muestral es común hacer un listado de ellos, una ma-
nera para hacerlo de forma sistemática es justamente el diagrama de árbol. Este es un esquema en
el cual se detalla como ocurren los eventos, en ocasiones de forma sucesiva, no es necesario que así
ocurra.
Ejemplo 8. ¿Cuáles son los posibles resultados del lanzamiento de dos dados?
Respuesta. Para este experimento el orden en el que se lancen los dados no es relevante, es decir, no
importa si lanzo uno u otro primero. Cada dado tiene 6 resultados posibles como se observa en la
figura 1.1.
12 1.1. DEFINICIONES
CAPÍTULO 1. PROBABILIDAD Probabilidad y Estadística
Así, el primer evento tiene 6 resultados posibles y el segundo también; en resumen, el lanzamiento
de los dados se realiza de 36 formas diferentes en el diagrama de árbol se puede observar estos 36
“puntos” muestrales.
Observemos que existe una fuerte relación entre el número de elementos del espacio muestral,
las formas en que un evento ocurre y el cálculo de la probabilidad de que suceda dicho evento; por
esta razón vamos a ver diversos métodos de enumeración.
Hemos visto que es necesario contar los elementos ya sean del espacio muestral o de los elementos
de un evento. De aquí, que es necesario contar los grupos que se pueden formar a partir de un
conjunto, al cual llamaremos conjunto base, y lo representaremos por Ψ, y que puede tener elementos
en donde, el primer conjunto tiene 9 elementos y algunos se repiten; en cambio, el segundo tiene 4
elementos todos distintos. Ahora, tomemos en cuenta el conjunto Ψ = { a, b, c, d} y con los elementos
de este conjunto podemos formar, por ejemplo, los siguientes conjuntos:
Observemos que para formar estos grupos se toman en cuenta los siguientes criterios:
1. Número de elementos del grupo, este número puede variar entre 1 y el número de elementos
del conjunto base;
2. Repetición de elementos, es decir, si los grupos se los realiza con elementos repetidos y si son
todos diferentes;
3. Orden de los elementos, es decir, si el orden de los elementos en el grupo es relevante o no.
De esta manera surge la pregunta: ¿cuántos grupos de k elementos se puede formar a partir de un
conjunto de n elementos?, aquí es importante resaltar los aspectos de orden y repetición, ya que son
claves para las agrupaciones.
Cuando el orden no es un factor relevante en las agrupaciones, es decir, no importa el orden de los
elementos en cada una de estas agrupaciones, se les denomina combinaciones; en cambio, si el orden
es relevante las agrupaciones reciben el nombre de permutaciones. Y existen tanto combinaciones
con y sin repetición como permutaciones con y sin repetición.
1.2.1.- P ERMUTACIONES
Definición 9 – Permutación
Dado un conjunto con n elementos diferentes, a cada uno de los arreglos de k elementos, en
un orden predeterminado, tal que 1 6 k 6 n se le denomina permutación de n elementos
tomados k a la vez. Dos permutaciones son diferentes si al menos un elemento es diferente o si
el orden de presentación es distinto. Además, una permutación es sin repetición si cada uno de
los elementos aparece una sola vez.
Veamos como calcular el número de permutaciones sin repetición y como formar estas agrupa-
ciones a partir de un conjunto base dado.
Ejemplo 9. Respondamos la pregunta: ¿de cuántas formas se pueden formar grupos de 2 elementos
a partir del conjunto {♥, ♦, ♠, ♣}? En este caso, bajo el supuesto de que el orden sí importa, pero sin
repetición de elementos.
Respuesta. Es claro que los grupos de 2 elementos que podemos formar a partir del conjunto base, sin
repetir elementos, son:
{♥, ♦} {♥, ♠} {♥, ♣}
{♦, ♥} {♦, ♠} {♦, ♣}
{♠, ♥} {♠, ♦} {♠, ♣}
{♣, ♥} {♣, ♦} {♣, ♠}
Es decir, el número de permutaciones sin repetición diferentes de 4 elementos tomados 2 a la vez es
12.
Teorema 2 – Permutaciones sin repetición
El número de permutaciones sin repetición diferentes de n elementos tomados k a la vez, repre-
sentada por n P k , es
n!
,
(n − k)!
es decir,
n!
n Pk = .
(n − k)!
Ejemplo 10. Determine el número de formas que se puede sentar 8 personas en 4 sillas en un orden
determinado.
Solución. Es claro que el orden es importante en esta situación y que si una persona se sienta en una
silla ya no se puede sentar en otra. Por lo tanto, vamos a determinar el número de permutaciones sin
repetición de 8 elementos tomados 4 a la vez,
8! 8 · ·7 · 6 · 5 · 4!
8 P4 = = = 8 · ·7 · 6 · 5 = 1 680.
(8 − 4) ! 4!
En consecuencia, el número de posibles formar de sentar a estas 8 personas en las 4 sillas es 1 680.
Ahora bien, si queremos determinar el número de formas que se puede sentar 8 personas en 8
sillas en un orden determinado, el valor de k en este caso sería 8 al igual que el valor de n, entonces
la relación para las permutaciones sin repetición pasaría a ser la siguiente
n!
n Pn =
(n − n)!
n!
=
1!
= n!
Ahora, observemos como formar a partir de un conjunto base agrupaciones con elementos repe-
tidos y determinar el número de agrupaciones posibles que se pueden formar.
Ejemplo 11. Respondamos la pregunta: ¿de cuántas formas se pueden formar grupos de 2 elementos
a partir del conjunto {♥, ♦, ♠, ♣}? En este caso, bajo el supuesto de que el orden sí importa, y los
elementos se pueden repetir.
Respuesta. Es claro que los grupos de 2 elementos que podemos formar a partir del conjunto base
son:
{♥, ♥} {♥, ♦} {♥, ♠} {♥, ♣}
{♦, ♥} {♦, ♦} {♦, ♠} {♦, ♣}
{♠, ♥} {♠, ♦} {♠, ♠} {♠, ♣}
{♣, ♥} {♣, ♦} {♣, ♠} {♣, ♣}
Es decir, el número de permutaciones con repetición diferentes de 4 elementos tomados 2 a la vez es
16.
Teorema 3 – Permutaciones con repetición
El número de permutaciones con repetición diferentes de n elementos tomados k a la vez, repre-
sentada por n PR k , es
nk ,
es decir,
n PR k = nk .
Ejemplo 12. Determine la cantidad de números diferentes de 4 cifras se pueden formar con los si-
guientes dígitos: 1, 3, 5, 7 y 9.
Solución. En este caso, es claro que los dígitos se pueden repetir, luego, se requiere se determinar el
número de permutaciones con repetición de 5 elementos tomados 4 a la vez, es decir,
5 PR 4 = 54 = 625.
En consecuencia, la cantidad de números de 4 cifras que se puede formar con los dígitos 1, 3, 5, 7 y 9
es 625.
1.2.2.- C OMBINACIONES
Definición 10 – Combinación
Dado un conjunto con n elementos diferentes, a cada uno de los arreglos de k elementos, sin un
orden predeterminado, tal que 1 6 k 6 n se le denomina combinación de n elementos tomados
k a la vez. Dos combinaciones son diferentes si al menos un elemento es diferente. Además, una
combinación es sin repetición si cada uno de los elementos aparece una sola vez.
Veamos como calcular el número de combinaciones sin repetición y como formar estas agrupa-
ciones a partir de un conjunto base dado.
Ejemplo 13. Respondamos la pregunta: ¿de cuántas formas se pueden formar grupos de 2 elementos
a partir del conjunto {♥, ♦, ♠, ♣}? En este caso, bajo el supuesto de que el orden no importa y sin
repetición de elementos.
Respuesta. Los grupos de 2 elementos que podemos formar a partir del conjunto base, sin repetir
elementos, son:
{♥, ♦} {♥, ♠} {♥, ♣}
{♦, ♠} {♦, ♣}
{♠, ♣}
Es decir, el número de combinaciones sin repetición diferentes de 4 elementos tomados 2 a la vez es
6.
Teorema 4 – Combinaciones sin repetición
El número de combinaciones sin repetición diferentes de n elementos tomados k a la vez, repre-
sentada por n C k , es
n!
,
k!(n − k)!
es decir,
n!
n Ck = .
k!(n − k)!
Ejemplo 14. Una persona tiene que escoger 5 preguntas de un banco de preguntas que contiene 15
preguntas, ¿de cuántas formas diferentes pueden escogerse las preguntas si el orden en que conteste
las preguntas es irrelevante y si escoge una pregunta esta ya no se repite?
Respuesta. En esta situación se tiene que el orden es irrelevante y que no hay repetición de preguntas,
por lo que se determina el número de combinaciones de 15 elementos tomados 5 a la vez, es decir
15! 15 · 14 · 13 · 12 · 11 · 10!
15 C 5 = = = 3 003.
5!(15 − 5)! 5 · 4 · 3 · 2 · 10!
En consecuencia, el número de posibles formas en que esta persona puede escoger estas 5 preguntas
es 3 003.
Veamos como calcular el número de combinaciones con repetición y como formar estas agrupa-
ciones a partir de un conjunto base dado.
Ejemplo 15. Respondamos la pregunta: ¿de cuántas formas se pueden formar grupos de 2 elementos
a partir del conjunto {♥, ♦, ♠, ♣}? En este caso, bajo el supuesto de que el orden no importa y con
repetición de elementos.
Respuesta. Los grupos de 2 elementos que podemos formar a partir del conjunto base, con repetición
de elementos, son:
{♥, ♥} {♥, ♦} {♥, ♠} {♥, ♣}
{♦, ♦} {♦, ♠} {♦, ♣}
{♠, ♠} {♠, ♣}
{♣, ♣}.
Es decir, el número de combinaciones sin repetición diferentes de 4 elementos tomados 2 a la vez es
10.
Teorema 5 – Combinaciones con repetición
El número de combinaciones con repetición diferentes de n elementos tomados k a la vez, repre-
sentada por n CR k , es
( n + k − 1) !
,
k!(n − 1)!
es decir,
( n + k − 1) !
n CR k = .
k!(n − 1)!
Ejemplo 16. Se lanzan 2 dados iguales de forma simultánea, ¿cuántos posibles resultados se puede
obtener?
(6 + 2 − 1) ! 7 · 6 · 5!
6 CR 2 = = = 21.
2!(6 − 1)! 2 · 5!
Ejemplo 17. A partir del conjunto base {), ), ), e, e}, ¿cuántos grupos 5 elementos se pueden
formar a partir del conjunto base tomando en cuenta el orden?
Respuesta. Los posibles grupos de 5 elementos que se pueden formar a partir del conjunto base dado
y tomando en cuenta el orden es:
En consecuencia, se pueden formar 10 grupos distintos a partir del conjunto base dado.
Ejemplo 18. A partir del conjunto base {,,,,§,Æ,Æ,Æ,Æ}, ¿cuántos grupos 9 elementos se pue-
den formar a partir del conjunto base tomando en cuenta el orden?
Respuesta. Del teorema anterior tenemos que para calcular el número de permutaciones a par de un
conjunto con elementos repetidos, así
9!
= 3 780.
2! · 2! · 1! · 4!
a) Si se saca una carta al azar, describa el espacio muestral en un diagrama donde el eje x sea la
denominación de la carta sacada y el eje y el palo (corazones, picas, diamantes o tréboles).
b) Si se extraen dos cartas al azar. ¿Cuál es la probabilidad de que la suma de ambas sea 7?, ¿11?,
¿4?.
c) ¿De cuántas maneras se pueden seleccionar cuatro cartas, de modo que haya una de cada palo?.
d) Si se extraen diez al azar. ¿Cuál es la probabilidad de no sacar ningún as?, ¿de sacar al menos
un as? y ¿de sacar exactamente uno?.
rs rs rs rs rs rs rs rs rs rs rs rs rs
♠
rs rs rs rs rs rs rs rs rs rs rs rs rs
♣
rs rs rs rs rs rs rs rs rs rs rs rs rs
♦
rs rs rs rs rs rs rs rs rs rs rs rs rs
♥
A 2 3 4 5 6 7 8 9 10 J Q K
b) Sea A el evento de que la suma de dos cartas sea 7, tenemos que las únicas formas de que la
suma sea 7 son sacar A y 6; 2 y 5 o 3 y 4. Luego, para sacar cualquiera de estas opciones es
equivalente a sacar individualmente cada carta, sin importar el orden, es decir,
4 4 44
1 1 0 8
= .
52 663
Luego,
8 8
P( A) = 3 =
663 221
Sea B el evento de que la suma de dos cartas sea 11, tenemos que las únicas formas de que la
suma sea 11 son sacar A y 10; 2 y 9; 3 y 8; 4 y 7 o 5 y 6. Luego, para sacar cualquiera de estas
opciones es equivalente a sacar individualmente cada carta, sin importar el orden, es decir,
8
.
663
Luego,
8 40
P( B) = 5 =
663 663
Sea C el evento de que la suma de dos cartas sea 4, tenemos que las únicas formas de que la
suma sea 4 son sacar As y 3, o 2 y 2. Luego, para sacar la primera opción es equivalente a sacar
individualmente cada carta, sin importar el orden, es decir,
8
.
663
4 48
2 0 1
=
52 221
2
Finalmente,
8 1 11
P(C ) = + =
663 221 663
c) Hay 13 cartas de cada palo, por lo que el número de formas de seleccionar 4 de modo que exista
una de cada palo.
13 13 13 13
= 134 = 28 561
1 1 1 1
d) La probabilidad de sacar no sacar ningún as es igual a la probabilidad de sacar las diez cartas
de las cuales ninguna es un As:
4 48
0 10 246
= .
52 595
10
246 349
1− = .
595 595
4 48
1 9 656
= .
52 1547
10
Ejemplo 20. Delegados de 10 países, incluidos Rusia, Francia, Inglaterra y Estados Unidos deben
estar sentados en una fila. ¿Cuántas formas diferentes de sentarse son posibles si el delegado francés
y el delegado inglés deben sentarse juntos y los delegados de Rusia y Estados Unidos no?
Solución. Analicemos de la siguiente manera, dividamos a los 10 delegados en 9 grupos, ya que los
delegados de Francia en Inglaterra den estar siempre juntos.
Estos grupos se pueden agrupar de 9! formas, pero en 8! · 2! los delegados de Rusia y USA están
juntos.
Ahora, hay 2! formas de agrupar a los delegados de Francia e Inglaterra, después existen
P( A ∩ B)
P( A| B) = ;
P( B)
Ejemplo 21. En una bolsa hay 5 bolas rojas numeradas del 1 al 5; 7 bolas azules igualmente numera-
das del 1 al 7 y 3 bolas amarillas, también numeradas del 1 al 3. Si todas las bolas son equiprobables
(tienen la misma probabilidad de ser escogidas) y sean los eventos A el evento de que una bola sacada
al azar sea roja y B el evento de que la bola saca este marcada con un número par, determine:
2+3+1 2
P( B) = = ,
15 5
ya que hay 2 números pares del 1 al 5, 3 del 1 al 7 y 1 del 1 al 3. Después, determinemos la probabilidad
de que al mismo tiempo ocurra A y B, es decir, P( A ∩ B), es decir,
2
P( A ∩ B) = ,
15
ya que existen únicamente 2 bolas rojas con número par de las 15 que hay en la bolsa. Por lo tanto,
2
P( A ∩ B) 15 1
P( A| B) = = 2
= .
P( B) 5
3
5 1
P( A) = = ,
15 3
2
P( A ∩ B) 15 2
P( B| A) = = 1
= .
P( A) 3
5
Observemos del ejemplo anterior es evidente que de forma general P( A| B) 6= P( B| A). Además,
P( A| B) 6= P( A) y P( B| A) 6= P( B). Veamos un ejemplo en que P( A| B) = P( A):
Ejemplo 22. Se tiene un dado y una moneda justa, se los lanza simultáneamente tal que A es el evento
sacar 5 o 6 en el dado y B es el evento de obtener cara en la moneda. Determine la probabilidad de
que ocurra A dado que B a sucedido.
2
P( A ∩ B) =
12
ya que existen 12 posibles resultados en el espacio muestral {1C, 2C, 3C, 4C, 5C, 6C, 1S, 2S, 3S, 4S, 5S, 6S}
y únicamente 2 cumplen con el hecho de que el dado sea 5 o 6 y la moneda sea cara. También, hay 6
posibilidades de que la moneda sea cara, entonces
6
P( B) = .
12
Finalmente,
2
P( A ∩ B) 12 1
P( A| B) = = 6
= .
P( B) 12
3
P ( A | B ) = P ( A ).
P ( A ∩ B ) = P ( A ) P ( B ).
P ( A | B ) = P ( A );
P( A ∩ B)
P( A| B) = ,
P( B)
en consecuencia,
P( A ∩ B) = P( A) P( B)
como queríamos.
Ejemplo 23. En una heladería se venden helados de 3 sabores: Vainilla (V), Chocolate (C) y Ron con
Pasas (R) en un mes determinado se cuenta el número de helados vendidos a adultos (A) y jóvenes
(J) y se resume en la siguiente tabla:
V C R
A 25 30 12
J 42 72 15
Determine:
c) La probabilidad que una persona que escogió un helado de vainilla sea un joven.
e) La probabilidad de que una persona que escogió un helado de chocolate o vainilla sea un adul-
to.
V C R
A 25 30 12 67
J 42 72 15 129
67 102 27 196
a) La probabilidad de que una persona escoja un helado de chocolate está dada por:
102
P(C ) = ≈ 0.5204.
196
b) La probabilidad de que una persona joven compre un helado está dada por:
129
P( J ) = ≈ 0.6582.
196
c) La probabilidad que una persona que escogió un helado de vainilla sea un joven está dada por:
42
P( J ∩ V ) 196
P ( J |V ) = = 67
≈ 0.6269.
P (V ) 196
d) La probabilidad de que un adulto haya escogido un helado de Ron con Pasas está dada por:
12
P( R ∩ A) 196
P( R| A) = = 67
≈ 0.1791.
P( A) 196
e) La probabilidad de que una persona que escogió un helado de chocolate o vainilla sea un adulto
está dada por:
P( A ∩ (C ∪ V ))
P( A|C ∪ V ) =
P(C ∪ V )
P(( A ∩ C ) ∪ ( A ∩ V ))
=
P ( C ) + P (V )
P( A ∩ C ) + P( A ∩ V )
=
P ( C ) + P (V )
30 25
196 + 196
= 102 67
196 + 196
≈ 0.3254.
Los diagramas de árbol también se usan para expresar probabilidades y se puede usar para ex-
presar probabilidad condicional, por ejemplo,
Ejemplo 24. Una bolsa contiene 5 bolas rojas 3 bolas verdes y 8 bolas negras. Se sacan 3 bolas al azar
en orden. Determine:
c) La probabilidad de que la tercera bola sea negra dado que las dos primeras fueron rojas.
d) La probabilidad de que la primera bola sea verde, la segunda negra y la última roja.
e) La probabilidad de que la segunda bola sea negra o verde dado que la primera fue roja o verde.
f ) La probabilidad de que se saque las 2 primeras bolas sean verde y negra, sin importar el orden
en que se saquen.
Solución. Usaremos R, V y N para representar los eventos de sacar una bola roja, verde y negra
respectivamente. Y, usaremos subíndices en estas variables para identificar en que lugar salió la bola.
5
P ( R1 ) =
16
b) La probabilidad de que la dos primeras bolas son verdes está dada por:
2 3 1
P(V1 ∩ V2 ) = P(V2 |V1 ) P(V1 ) = · =
15 16 40
ya que, hay 3 bolas verdes de 16 antes de sacar la primera bola; cuando se saca la segunda bola
ya solo quedan 2 de 15, porque ya se ha sacado una verde antes.
2
15 V2
3 V1
16
c) La probabilidad de que la tercera bola sea negra dado que las dos primeras fueron rojas está
dada por:
8
P( N3 |( R1 ∩ R2 )) =
14
ya que, no se ha sacado ninguna bola negra (es decir, aún hay 8) en los primeros intentos y ya
solo quedan 14 bolas en la bolsa.
8
14 N3
4
15 R2
5 R1
16
d) La probabilidad de que la primera bola sea verde, la segunda negra y la última roja está dada
por:
= P( R3 |( N2 ∩ V1 )) P( N2 |V1 ) P(V1 )
5 8 3
= · ·
14 15 16
1
=
28
ya que, primero se saca una bola verde, en ese momento hay 3 de 16 bolas; luego, se saca
una bola negra, es decir, hay 8 de 15. Finalmente, se saca una roja de las 5 y en la bola hay
únicamente 14.
5
14 R3
8
15 N2
3 V1
16
e) La probabilidad de que la segunda bola sea negra o verde dado que la primera fue roja o verde
está dada por:
8
15 N2
5 R1
16 3 V2
15
8
3 15 N2
16 V1
2 V2
15
f ) La probabilidad de que se saque las 2 primeras bolas sean verde y negra, sin importar el orden
en que se saquen está dada por:
P(V ∩ N ) = P(V1 ∩ N2 ) + P( N1 ∩ V2 )
= P( N2 |V1 ) P(V1 ) + P(V2 | N1 ) P( N1 )
8 3 3 8
= · + ·
15 16 15 16
1
= .
5
8
15 N2
3 V1
16
8
16 N1
3 V2
15
Observemos que las ramas de los árboles se ubica siempre la probabilidad condicional del evento
siguiente dado el anterior o anteriores; y el producto de los valores de estas ramas es igual la proba-
bilidad de la intersección de los eventos de la rama en cuestión.
Los teoremas que detallaremos a continuación, son de utilidad en muchos modelos estadísticos
tales como: modelos factoriales discriminantes, teoría de decisiones, e incluso en redes neuronales
que son la base de la inteligencia artificial.
Para ello, tomemos un espacio muestral Ω tal que se puede partir en n eventos mutuamente
excluyentes, entonces si B1 , B2 , . . . , Bn son los estos n eventos mutuamente excluyentes, por lo tanto,
n
[ n
Bk = Ω y ∑ P( Bk ) = 1.
k =1 k =1
A = A∩Ω
!
n
[
= A∩ Bk
k =1
n
[
= A ∩ Bk ;
k =1
n
P( A) = ∑ P( A| Bk ) P( Bk ).
k =1
Ejemplo 25. En una mesa se ubican 3 pistolas las cuales tienen una probabilidad de acertar en un
blanco de 0.4, 0.8 y 0.5 respectivamente. Determine la probabilidad de acertar en el blanco al escoger
un pistola al azar de la mesa y disparar.
Solución. Tomemos en cuenta que la probabilidad de tomar cualquiera de las pistolas es 13 . Si repre-
En consecuencia,
P( A) = P( A| B1 ) P( B1 ) + P( A| B2 ) P( B2 ) + P( A| B3 ) P( B3 )
1 1 1
= 0.4 · + 0.8 · + 0.5 ·
3 3 3
17
=
30
≈ 0.567.
P( A| Bk ) P( Bk )
P( Bk | A) = n ,
∑ P( A| Bj ) P( Bj )
j =1
Ejemplo 26. Una compañía telefónica regional opera tres estaciones de retransmisión idénticas en
diferentes sitios. Durante un periodo de un año, el número de desperfectos reportados por cada
estación y las causas se muestran a continuación.
Estaciones A B C
Problemas con el suministro de electricidad 2 1 1
Desperfecto de la computadora 4 3 2
Fallas del equipo eléctrico 5 4 2
Fallas ocasionadas por otros errores humanos 7 7 5
Suponga que se reporta una falla y que se encuentra que fue ocasionada por otros errores huma-
nos. ¿Cuál es la probabilidad de que provenga de la estación C?
Solución. Supongamos que H representa las fallas ocasionadas por otros errores humanos y que A, B
y C representan las fallas ocurridas en las estaciones A, B y C respectivamente.
Para determinar cuál es la probabilidad de que la falla provenga de la estación C dado que fue
ocasionada por otros errores humanos, P(C | H ), vamos a utilizar la regla de Bayes, luego,
P( H |C ) · P(C )
P(C | H ) = ,
P( H | A) · P( A) + P( H | B) · P( B) + P( H |C ) · P(C )
donde,
18 15 10
P( A) = , P( B) = y P(C ) = .
43 43 43
7 7 5
P( H | A) = , P( H | B) = y ( H |C ) =
18 15 10
5 10
·
P(C | H ) = 10 43
7 18 7 15 5 10
· + · + ·
18 43 15 43 10 43
≈ 0.26
2.1. I NTRODUCCIÓN
En temas anteriores, se han estudiado las variables estadísticas, que representaban el conjunto de
resultados observados al realizar un experimento aleatorio, presentando para cada valor su frecuen-
cia, esto es, el número de veces que sucede cada resultado.
Sin embargo, antes de realizar un experimento aleatorio no se puede predecir con exactitud qué
resultados se van a observar, sino que, como mucho, se puede describir cuales van a ser los resultados
posibles y con qué probabilidad puede ocurrir cada uno de ellos. En muchas ocasiones, nos interesa
más que el resultado completo del experimento, una función real de los resultados.
Tales funciones, cuyos valores dependen de los posibles resultados de un experimento aleatorio,
se llaman variables aleatorias. En todo proceso de observación o experimento aleatorio podemos
definir una variable aleatoria asignando a cada resultado del experimento un número:
Si el resultado del experimento es numérico porque contamos o medimos, los posibles valores
de la variable coinciden con los resultados del experimento.
Llamamos variables aleatorias a aquellas funciones cuyos valores dependen de los resultados de
un experimento aleatorio. Más precisamente:
Definición 13
Sea Ω un espacio muestral, se dice que X es una variable aleatoria, si es una función de Ω en R,
tal que,
X : Ω −→ R
ω 7−→ X (ω )
Es decir, una variable aleatoria es un medio para describir los resultados del espacio muestral.
Las variables aleatorias se clasifican en variables aleatorias discretas y variables aleatorias continuas.
30
CAPÍTULO 2. VARIABLE ALEATORIA Probabilidad y Estadística
Definición 14
Sea Ω un espacio muestral, se dice que X es un variable aleatoria discreta, si img( X ) es un con-
junto finito o numerable.
Ejemplo 27. Determine una variable aleatoria tal que identifique si una persona que visita un alma-
cén lo atienden inmediatamente o le piden que espere de tal manera que la variable tome el valor de
uno cuando sea atendido o cero cuando le piden que espere.
Solución. El espacio muestral sería Ω = { A, E} donde A representa ser atendido y E tener que espe-
rar, podemos definir la variable aleatoria
X : Ω → R, donde X ( A) = 1 y X ( E) = 0.
Ejemplo 28. Determine una variable aleatoria para el experimento de lanzar una moneda cuatro
veces y contar el número de caras obtenidas.
donde
0 si ω ∈ {SSSS},
1 si ω ∈ {CSSS, SCSS, SSCS, SSSC },
X (ω ) = 2 si ω ∈ {CCSS, CSCS, CSSC, . . . , SSCC }
3 si ω ∈ {CCCS, CCSC, CSCC, SCCC },
4
si ω ∈ {CCCC }.
Para definir a una variable aleatoria discreta, debemos indicar el valor que toma la variable en
cada elemento del espacio muestral.
Definición 15 – Probabilidad
Sea X : Ω → R una variable aleatoria discreta, se dice que la probabilidad de x ∈ R bajo X,
notada por P ( X = x ), se define como
P ( X (τ ) = x |τ ∈ Ω) si x ∈ img( X ),
P (X = x) =
0 si x 6∈ img( X ).
p : R −→ R
x 7−→ p( x ) = P ( X = x )
Ejemplo 29. Se lanzan dos monedas justas y se cuenta el número de caras que aparecen. Determine
la función de masa de probabilidad para este experimento y trace la gráfica correspondiente.
Solución. Sea C si la moneda cayó en cara y S si la moneda cayó en sello. El espacio muestral del
experimento es
Ω = {CC, CS, SC, SS}.
Tomemos X variable aleatoria que representa la cantidad de caras que aparecieron, entonces
X : Ω → R,
donde,
0 si ω = {SS},
X (ω ) = 1 si ω = {CS, SC },
2 si ω = {CC }.
1
si x = 0,
4
2
P (X = x) = si x = 1,
4
1
si x = 2.
4
1
2
b
1 1
4 4
b b
| | |
0 1 2
Teorema 1
Sea X una variable aleatoria discreta y Ω su espacio muestral. La función de probabilidad debe
cumplir las propiedades:
1. 0 6 p( x j ) 6 1
n
2. ∑ p( x j ) = 1
j =1
F : R −→ R
x 7−→ F ( x ) = P ( X 6 x )
es decir,
F(x) = ∑ p ( t ).
t6 x
X P (X = x)
1 0.20
2 0.25
3 0.15
4 0.40
2. Calcule P ( X < 3)
Solución.
1. Comprobamos que:
Teorema 2
Si X es una variable aleatoria discreta, donde
img( X ) = { x1 , x2 , . . . , xn },
2. Si se conoce F,
F ( x j ) − F ( x j −1 ) si x = x j ,
p( x ) = P ( X = x ) =
0 si x ∈
/ img( X ).
X P (X = x)
1 0.20
2 0.25
3 0.15
4 0.40
1. Calcule P ( X < 2)
2. Calcule P ( X > 2)
Solución. Tenemos
P ( X < 2) = P ( X = 1) = 0.20
Luego,
P ( X > 2) = P ( X = 2) + P ( X = 3) + P ( X = 4) = 0.80;
o también,
P ( X > 2) = 1 − P ( X < 2) = 1 − 0.20 = 0.80.
Ejemplo 32. Se lanza un dado “justo” y se apunta el número que se observa en la cara superior. De
acuerdo a esto:
Solución. Como es un dado “justo”, cada una de las caras tiene la misma probabilidad de “salir”. Sea
X la variable aleatoria que representa el número que aparece en la cara superior.
P ( X sea par) = P ( X = 2 o X = 4 o X = 6)
= P ( X = 2) + P ( X = 4) + P ( X = 6)
1 1 1 1
= + + = .
6 6 6 2
P ( X < 3) = P ( X = 1 o X = 2)
= P ( X = 1) + P ( X = 2)
1 1
= +
6 6
2 1
= = .
6 3
En el caso de una variable continua, los valores numéricos provienen de un intervalo continuo.
Definición 18 – Variable aleatoria continua
Sea Ω un espacio muestral, se dice que X es un variable aleatoria continua, si img( X ) es un
intervalo de R.
Ejemplo 33. Determine una variable aleatoria que indica el número de mílilitros que toma una per-
sona en un día.
Solución. Si la variable aleatoria que indica la cantidad de mililitros que tomó una persona durante
un día es
X : Ω → R,
El espacio muestral representaría todos los volúmenes de agua consumidos por el individuo en
el día.
Ejemplo 34. Determine una variable aleatoria que indica el kilometraje recorrido por una persona en
un día en su auto.
Solución. Si la variable aleatoria que indica el kilometraje recorrido por una persona en un día en su
auto es
X : Ω → R,
El espacio muestral es un poco más difícil de describir y representaría todas las posibles rutas que
puedo haber tomado el individuo.
la cual verifica:
Es decir, la probabilidad de que X tome valores dentro del intervalo [ a, b] es igual al área bajo la
curva f que también suele ser llamada curva de densidad.
Teorema 3
Sea X una variable aleatoria continua, entonces
1. P ( X = x ) = 0.
1. Trace la gráfica de f .
−1 0 1 2
Z 1
P (0.5 < x < 1) = x dx = 0.375
0.5
F : R −→ R
Z x
x 7−→ F ( x ) = P ( X 6 x ) = f (t) dt.
−∞
Teorema 4
Sea X una variable aleatoria continua y su función de distribución F y f su función de densidad,
se verifica que Z x
f ( x) = F′ ( x) y F(x) = f (t) dt.
−∞
Teorema 5
Sea F la función de distribución de una variable aleatoria continua X, entonces
1. F es creciente.
2. Dado a ∈ R, P( X > a) = 1 − F ( a)
Ejemplo 36. Continuando con el ejemplo 29 y dada la función de masa de probabilidad de X definida
por
1
si x = 0,
4
2
P (X = x) = 4 si x = 1,
1
si x = 2.
4
Calcule la media de número de caras que pueden obtenerse cuando se lanzan dos monedas.
µ = E (X)
2
= ∑ xp( x)
x =0
La media de la variable X significa que al realizar este experimento en muchas ocasiones en promedio
el número de caras obtenidas es 1.
Determine la media.
Solución.
µ = E (X)
Z +∞
= x f ( x ) dx
−∞
Z √2
= x · x dx
0
√
2
x3
=
2 0
√ 3
2
= −0
3
≈ 0.942809
La media de la variable X significa que al realizar el experimento muchas veces en promedio el valor
que tomará la variable aleatoria será 0.9428.
Teorema 6
Si X es una variable aleatoria, entonces la esperanza de la variable aleatoria g( X ) es
E( g( X )) = ∑ g( x ) p( x )
x ∈img( X )
Teorema 7
Sean X y Y variables aleatorias y α ∈ R, se tiene que
1. E (α) = α
2. E ( X + Y ) = E ( X ) + E (Y )
3. E (α + X ) = α + E ( X )
4. E (αX ) = αE ( X )
Definición 22 – Varianza
Si X es una variable aleatoria discreta, se dice que la varianza de X, representada por V ( X ), está
definida por
V (x) = ∑ ( x − µ )2 p ( x ),
x ∈img( X )
Ejemplo 38. Continuando con el ejemplo 29 y dada la función de masa de probabilidad de X definida
por:
1
si x = 0,
4
2
P (X = x) = 4 si x = 1,
1
si x = 2.
4
Calcule la varianza del número de caras que pueden obtenerse cuando se lanzan dos monedas.
σ2 = V ( X )
2
= ∑ ( x − µ )2 p ( x )
x =0
Teorema 8
Si X es una variable aleatoria, entonces la varianza de la variable aleatoria g( X ) es
2
V ( g( X )) = ∑ g( x ) − E( g( X )) p( x )
x ∈img( X )
Teorema 9
Sean X y Y variables aleatorias y α ∈ R, se tiene que
1. V ( X ) = E X 2 − ( E ( X ))2
2. V (α) = 0
4. V (α + X ) = V ( X )
5. V (αX ) = α2 V ( X )
Demostración.
V (X) = ∑ ( x − µ )2 p ( x )
x ∈img( X )
= ∑ x2 p( x ) − 2µxp( x ) + µ2 p( x )
x ∈img( X )
= ∑ x2 p( x ) − 2µ ∑ xp( x ) + µ ∑ p( x )
x ∈img( X ) x ∈img( X ) x ∈img( X )
= E( X 2 ) − 2E( X ) E( X ) + E( X ) E( X )
= E( X 2 ) − ( E( X ))2
σ2 = V ( X )
= E X 2 − ( E ( X ))2
Z √2 √ 3
!2
2 2
= x f ( x ) dx −
0 3
Z √2
8
= x2 dx −
0 9
√
2
x4 8
= −
4 0 9
4 8
= −0−
4 9
1
=
9
≈ 0.1111,
√
de donde σ = 0.1111 = 0.3333.
Ejemplo 40. Consideremos el experimento aleatorio de lazar una moneda dos veces, en el cual no-
taremos con “C” cuando salga cara y “S” cuando salga sello, con lo cual el espacio muestral estará
representado por
Ω = {CC, SC, CS, SS} .
Existen varias variables aleatorias que se pueden construir en base a Ω, en particular, construya-
mos la variable aleatoria X que cuenta el número de caras obtenidas después de lanzar dos veces la
moneda, es decir,
X : Ω → {0, 1, 2}
Notemos que existe igual probabilidad de obtener “CC” o “SC”, con eso en mente vamos a cons-
truir la función de densidad, donde
1
P( X = 0) = P({SS}) =
4
1 1 1
P( X = 1) = P({CS} ∪ {SC }) = + =
4 4 2
1
P( X = 2) = P({CC }) =
4
es decir,
1
si x = 0
4
p( x ) = 1
2 si x = 1
1
si x = 2
4
2
1 1 1
∑ p( x ) = 4 + 2 + 4 = 1
x =0
2
E( X ) = ∑ xp( x)
x =0
2
V (X) = ∑ ( x − µ )2 p ( x )
x =0
Ejemplo 41. La distribución de la cantidad de grava (en toneladas) vendida por una compañía de
materiales de construcción en una semana dada es una variable continua aleatoria X con función de
densidad de probabilidad definida por
3
(1 − x 2 ) si 0 ≤ x ≤ 1,
f (x) = 2
0 en otro caso.
3
Z x
F(x) = (1 − y2 ) dy
0 2
3
3 y3
= y−
2 3 0
3 x3
= x−
2 3
Si calculamos además,
Z +∞
E( X 2 ) = x2 f ( x ) dx
−∞
Z 1
3
= x2 (1 − x2 ) dx
0 2
Z 1
3
= ( x2 − x4 ) dx
2 0
1
= ,
5
se tiene que
2
1 3
V (X) = −
5 8
19
=
320
≈ 0.0593
y
σX ≈ 0.2437.
Definición 24 – Percentiles
Si X es una variable aleatoria discreta, F su función de distribución acumulada y q ∈ [0, 1]. El
percentil 100q es
xq = máx{ x ∈ img( X ) : F ( x ) 6 q}.
Ejemplo 42. La proporción de personas que responden a cierta encuesta enviada por correo es una
variable aleatoria continua X que tiene la función de densidad
2( x + 2)
si 0 < x < 1
f (x) = 5
0
en otro caso.
Solución. Para la mediana tenemos que q = 0.5 por tanto, vamos a buscar el valor x0.5 talque
F ( x0.5 ) = 0.5,
luego,
2( x + 2) 1
Z x0.5
dx = 0.5 ≡ · x0.5 · ( x0.5 + 4) = 0.5
0 5 5
2
≡ x0.5 + 4x0.5 − 2.5 = 0
≡ x0.5 ≈ −4.55 ∨ x0.5 ≈ 0.55.
La mediana es igual a 0.55, descartamos el número negativo pues no pertenece al dominio. En este
contexto, la mediana representa que la proporción de personas que responden una encuesta es menor
o igual 55 % en el 50 % de las veces que se realice la encuesta.
1. Q1 = x0.25 ,
3. Q3 = x0.75 .
Definición 26
El rango intercuartílico representa la zona en la cual se encuentra el 50 % de la probabilidad y
representado por RIQ es
RIQ = Q3 − Q1
Q2 − Q1 = Q3 − Q2 .
E( X k ) = µk .
Por ejemplo, el momento de orden 2 respecto a la media es la varianza de una variable aleatoria
X. Es decir,
m2 = σ 2 .
m3
As = .
σ3
Definición 30 – Coeficiente de apuntalamiento
El coeficiente de apuntalamiento está definido por
m4
Ap = .
σ4
Definición 31 – Coeficiente de variación
El coeficiente de variación está definido por
σ
CV = .
|µ|
Ejemplo 43. Sea X una variable aleatoria continua cuya función de densidad es
1
si − 1 < x ≤ 3
f (x) = 4
0
en otro caso.
µ1 = E ( X ),
luego,
Z 3
1
Z +∞
1
µ1 = x f ( x ) dx = x = 1.
−∞ −1 4
Ahora, determinemos la varianza, es decir,
m2 = σ 2 .
luego,
Z 3
1 4
Z +∞
m2 = ( x − µ)2 f ( x ) dx = ( x − 1)2 dx = ;
−∞ −1 4 3
de donde, r
4
σ= .
3
Después,
Z 3
1
Z +∞
3 3
m3 = ( x − µ) f ( x ) dx = ( x − 1) dx = 0.
−∞ −1 4
En conclusión,
m3
As = = 0.
σ3
La distribución de la variable aleatoria X es simétrica.
Coeficiente de apuntalamiento
Z 3
1 16
Z +∞
4 4
m4 = ( x − µ) f ( x ) dx = ( x − 1) dx = .
−∞ −1 4 5
Por lo tanto,
16
m4 5 9
Ap = 4 =
σ r !4 = 5 .
4
3
3.1. L EY DE B ERNOULLI
Bernoulli, es el esquema más simple de las leyes de probabilidad discretas y consiste en lo si-
guiente:
Cuando ocurre el evento, se dice que se tiene un éxito (E), mientras que, cuando no ocurre el evento,
se dice que se tiene un fracaso (F).
Sea X, la variable aleatoria discreta de Bernoulli que cuenta el número de éxitos que se obtienen
del experimento. Como tal puede tomar dos valores 0 y 1, equivalente a fracaso y éxito respectiva-
mente.
Por ejemplo, se lanza un dado, y se plantea el evento que salga la cara marcada con el número
cuatro. Si sale el número cuatro, se dice que se tiene un éxito, en caso contrario (si sale el uno o el dos
o el tres o el cinco o el seis), se tiene un fracaso.
P(éxito) = P( E) = P( X = 1) = p,
P(fracaso) = P( F ) = P( X = 0) = q,
donde p + q = 1.
P( X = x ) = p x q1− x , x ∈ {0, 1}
48
CAPÍTULO 3. DISTRIBUCIONES DISCRETAS Probabilidad y Estadística
Para el ejemplo planteado, se tiene un éxito si sale la cara marcada con el número cuatro, entonces:
1
P( E) = p = 6 (por la definición básica de probabilidad), y
5
P( F ) = q = 6 (ya que p + q = 1).
Veamos la tendencia central y la dispersión de esta ley de probabilidad. Para esto se utiliza la defini-
ción de esperanza matemática (o promedio) y varianza para una variable aleatoria discreta (v.a.d.).
Siendo X la v.a.d. de Bernoullí, la tabla de distribución de probabilidades es:
X 0 1
P( X = x ) q p
La esperanza es:
E( X ) = 1 · p + 0 · q
= p.
La varianza es:
V ( X ) = (1 − p )2 · p + (0 − p )2 · q
= q2 p + p2 q
= pq( p + q)
= pq.
√
La desviación estándar es D ( X ) = pq.
3.2. L EY B INOMIAL
Supongamos ahora, que se realizan n experimentos de Bernoulli, cada uno de ellos de forma
independiente. Consideremos en este caso la variable aleatoria discreta X, que representa la suma de
éxitos obtenidos en los n experimentos de Bernoulli. Los posibles resultados de suma de éxitos que
pueden tenerse son: 0 éxitos, 1 éxito, 2 éxitos, 3 éxitos, ..., hasta n éxitos.
Así, bajo este esquema se plantea lo siguiente, ¿cuál será la probabilidad de obtener x éxitos,
como resultado de n experimentos de Bernoulli?
Se realizan n experimentos de Bernoulli, de los cuales x son éxitos (y por lo tanto se tienen n − x
fracasos). Supongamos que ocurrió la siguiente serie de x éxitos y n − x fracasos.
E E F F E F······ E F E E
| | | | | | | | |
Luego, la probabilidad de tener x éxitos para esta serie de eventos de Bernoulli es:
P( B1 ) = P( E ∩ E ∩ F ∩ F ∩ E ∩ F ∩ . . . ∩ E ∩ F ∩ E ∩ E)
= P( E) P( E) P( F ) P( F ) P( E) P( F ) . . . P( E) P( F ) P( E) P( E)
= p · p · q · q · p · q · . . . · p · q · p · p.
Supongamos ahora que, de los n eventos de Bernoulli, los primeros x eventos fueron éxitos, y los
restantes n − x fracasos. Veamos si cambia la probabilidad, para este esquema, como puede apreciarse
en la siguiente figura:
E E E E E E······ F F F F
| | | | | | | | |
Nuevamente, la probabilidad de tener x éxitos para esta serie, está dada por:
P( B1 ) = P( E ∩ E ∩ E ∩ E ∩ E ∩ E ∩ . . . ∩ E ∩ F ∩ E ∩ E)
= P( E) P( E) P( E) P( E) P( E) P( E) . . . P( F ) P( F ) P( F ) P( F )
= p · p · p · p · p · p · . . . · q · q · q · q.
Se aprecia que la probabilidad no cambia. Sin embargo, no interesan solamente las series B1 y B2
de eventos, sino todas las combinaciones posibles, puesto que se desea calcular la probabilidad de
tener x éxitos en n eventos de Bernoulli en cualquier orden que aparezcan.
Luego, la suma de todas las combinaciones posibles de estas probabilidades da la ley binomial
de probabilidades de parámetros n y p:
X 0 1 ... x ... n
n 0 n −0 n 1 n −1 n x n− x n n n−n
P( X = x ) p q p q ... p q ... p q
0 1 x n
Así, utilizando nuevamente las definiciones de los momentos estadísticos, el valor esperado y la
varianza de una variable aleatoria binomial X están dados por:
n
µ = E( X ) = ∑ xk pk
k =1
n
n k n−k
= ∑ k
k
p q
k =1
= np
σ2 = V ( X ) = npq
En resumen,
Teorema 1 – Media y Varianza Distribución Binomial
La media y la varianza de la distribución binomial de parámetros n y p son
µ = np y σ2 = npq.
Puede apreciarse que si se aplica esta ley para n = 1, se tiene la ley de Bernoulli.
Ejemplo 44. Se lanza un dado 20 veces, ¿cual será la probabilidad de que salga la cara marcada con
el cuatro en 15 ocasiones?
Solución. Este problema se ajusta al esquema binomial de probabilidades. Así, un lanzamiento del
dado puede ser visto como un evento de Bernoulli, en donde el éxito es cuando sale la cara marcada
con el cuatro y fracaso en caso contrario. Luego, tenemos 20 eventos de Bernoulli, y queremos la
probabilidad de que ocurran 15 éxitos.
La probabilidad de un éxito está dada por la probabilidad de que salga la cara marcada con el
1 5
cuatro al lanzar el dado, P( E) = p = 6, yq = 6. Utilizando la ley binomial de probabilidades
tenemos que la probabilidad de que salga la cara marcada con el cuatro en 15 ocasiones es:
15 20−15
20 1 5
P( X = 15) = = 0.000 000 013
15 6 6
Podemos apreciar que la probabilidad de que ocurra tal situación es muy baja, casi nula.
Notas Complementarias
I) Recordando del tema de conteo de elementos, se tiene que a partir de un conjunto de la forma
Ω = { a, a, a, b, c, c, d, e, e}, con n elementos, de los cuales al menos uno se repite un cierto núme-
ro de veces, el número de grupos posibles de tamaño n que se pueden formar (k = n), y que se
llaman permutaciones está dado por:
n n2 ...,nq n!
Pn 1 =
n1 !n2 ! . . . nq !
Siendo n1 el número de veces que se repite el primer elemento, n2 las veces que se repite el
segundo elemento del conjunto base, y así sucesivamente. Además, n1 + n2 + n3 + . . . + nq = n.
Así, siendo n1 = x éxitos, y n2 = n − x fracasos, el número de grupos posibles son (de acuerdo
n! n!
grupos posibles = = = combinaciones sin repetición (n, x)
n1 !n2 ! x!(n − x )!
Es decir, en el caso de tener 2 elementos que se repiten un cierto número de veces, el número
de permutaciones coinciden con el conteo de combinaciones sin repetición.
II ) El modelo Binomial de probabilidades (caracterizado por dos grupos que los podemos llamar
G1 = ÉXITOS y, G2 =FRACASOS), se puede generalizar para más de dos grupos.
Sean:
Este esquema (para dos o más grupos) se conoce como la ley multinomial y la probabilidad
está dada por:
n!
P(n, x1 , x2 , . . . xk ) = p x1 p x2 . . . pkxk .
x1 !x2 ! . . . xk ! 1 2
III) La suma de todas las probabilidades sabemos que es igual a uno. En el caso de las probabilida-
des de la Ley Binomial se tiene:
n n
n
∑ P ( X = x ) = ∑ x p x qn− x = ( p + q )n .
x =0 x =0
Es decir, este modelo viene del desarrollo del Binomio de Newton de ( p + q)n
Recordemos nuevamente el modelo Binomial (de la sección anterior). Este modelo se basa en
realizar n experimentos de Bernoulli (fijos), y se plantea la probabilidad de obtener x éxitos (donde x
puede tomar los valores 0, 1, 2, . . . , n, es decir, los éxitos x es el componente variable).
Consideremos ahora la situación contraria, es decir, mantenemos fijos los éxitos, digamos k, y se
plantea la probabilidad de realizar n experimentos (variable) de Bernoulli para lograr obtener los k
éxitos (fijos). Este esquema es lo que se conoce como el modelo Binomial Negativo o Ley de Pascal.
Debe notarse que si se realizan n experimentos de Bernoulli para obtener k éxitos (fijos de an-
temano), entonces n toma los valores k, k + 1, k + 2, . . . , puesto que necesitamos realizar al menos k
experimentos de Bernoulli para obtener k éxitos (fijos). El modelo de probabilidad que da esta pro-
babilidad, y que es conocido también como modelo o ley de Pascal, es:
n − 1 k n−k
P( X = n) = p q
k−1
Para evitar alguna confusión con esto de que n toma los valores desde k hasta el infinito, se hace la
transformación siguiente: n = x + k, donde k son los éxitos fijos, y x vienen a representar los fracasos
de los eventos de Bernoulli y, por lo tanto, esta variable X toma los valores 0, 1, 2, . . .. Por ejemplo, si
x = 0, entonces n = k, o si x = 1, n = k + 1, etc, que es equivalente a lo descrito en el párrafo anterior.
Reemplazando n = x + k en la expresión anterior, se obtiene la ley Binomial Negativa:
x+k−1 k x
P( X = x ) = p q ,
k−1
kq kq
µ= y σ2 = .
p p2
Ejemplo 45. Una persona realiza el lanzamiento de una moneda y registra el lanzamiento. Encuentre
la probabilidad de obtener la tercera cara en el séptimo lanzamiento;
4+3−1
P ( X = 4) = · (0.5)3 · (0.5)4
3−1
6
= · (0.5)7
2
= 0.1172
Una situación interesante que surge de este modelo en la gestión y análisis de algunos proyectos
es cuando se tiene un solo éxito, es decir, k = 1, obteniendo lo que se llama el modelo geométrico de
probabilidades, que se describe a continuación.
3.4. L EY G EOMÉTRICA
Este modelo se basa en repetir un experimento de Bernoulli mientras el resultado sea fracaso,
hasta que ocurre un éxito. Gráficamente se tiene:
F F F F F F······ F F F E
| | | | | | | | |
Luego, si se realizan m experimentos de Bernoulli, significa que se dieron m − 1 fracasos y 1 éxito (al
final y es cuando termina el proceso). Esto es equivalente a tomar el modelo Binomial Negativo con
k = 1 (un éxito fijo), y x = m − 1 fracasos.
Siendo X la variable aleatoria discreta que sigue una distribución Geométrica que representa el
número de fracasos de eventos de Bernoulli realizados hasta obtener un éxito (k = 1), se plantea
calcular la probabilidad P( X = x ) para x = 0, 1, 2, 3, . . ..
Se realizan x + 1 experimentos de Bernoulli, de los cuales los primeros x tiene como resultado
FRACASO, y el último es ÉXITO, entonces:
P( X = x ) = P( F ∩ F ∩ F ∩ F ∩ F ∩ F ∩ . . . ∩ F ∩ F ∩ F ∩ E)
= P( F ) P( F ) P( F ) P( F ) P( F ) P( F ) . . . P( F ) P( F ) P( F ) P( E)
= q·q·q·q·q·q·...·q·q·q· p
= q x p.
X 0 1 2 3 4 5 ...
P q0 p q1 p q2 p q3 p q4 p q5 p . . .
La esperanza es:
∞
E( X ) = ∑ kqk p
k =1
q
pero, 1 + 2q + 3q2 + . . . es la derivada de q + q2 + q3 + . . . = 1− q .
∞ 2
q
V (X) = ∑ k− qk p
k =1
p
= E ( X 2 ) − E2 ( X )
2
2 q
= E( X ) −
p
∞
q2
= ∑ k2 qk p − 2
k =1
p
q2
= p(q + 4q2 + 9q3 + . . .) −
p2
1+q q2
= pq −
(1 − q )3 p2
1+q q2
=q −
p2 p2
q
= 2.
p
En resumen,
Teorema 3 – Media y Varianza Distribución Geométrica
La media y la varianza de la distribución geométrica de parámetro p son
q q
µ= y σ2 = .
p p2
Ejemplo 46. Continuando con el ejemplo anterior del lanzamiento de un moneda, encuentre la pro-
babilidad de obtener la primera cara en el cuarto lanzamiento;
P( X = 3) = (0.5) · (0.5)3
1
= .
16
3.5. L EY H IPERGEOMÉTRICA
Esta ley se basa en el esquema siguiente: se tiene una población N de elementos, la cual está
caracterizada o definida por dos grupos o clases (G1 y G2 ), y digamos que K elementos pertenecen al
grupo G1 y N − K elementos pertenecen al grupo G2 .
De esta población, se toma al azar una muestra sin reposición de n elementos (n 6 N), y se plantea
calcular la probabilidad de que esta muestra esté formada por x elementos que pertenecen al grupo
G1 , y n − x elementos al grupo G2 .
x elementos n − x elementos
Siendo X, la variable aleatoria discreta que representa el número de elementos x que pertenecen
al grupo 1, la probabilidad de que hayan x elementos de la muestra n, y que pertenecen al grupo 1
está dada por:
n−x
x
K N−K ES NECESARIO CORREGIR
P( X = x ) =
ESTA FÓRMULA
n
N
K
Siendo p = N la proporción de elementos del Grupo 1, el valor esperado y la varianza de la
variable aleatoria discreta Hipergeométrica X, están dados por:
Teorema 4 – Media y Varianza Distribución Hipergeométrica
La media y la varianza de la distribución hipergeométrica de parámetros N, K y n son
K N−n
µ=n = np y σ2 = np(1 − p)
N N−1
Ejemplo 47. Se tiene un grupo 20 personas, compuesto por 10 hombres y 10 mujeres. Se toma al azar
un grupo de 2 personas. ¿Cuál será la probabilidad de que el grupo tomado al azar esté compuesto
por 1 hombre y 1 mujer?
Ë N = 20 (población total)
Ë K = 10, (N − K = 10)
Ë n = 2 (muestra al azar)
Ë x = 1 (n − x = 1)
Vamos a resolver este mismo ejercicio, con base en la definición básica de probabilidades
Para esto debemos definir el espacio muestral (conjunto de posibles resultados), y de este con-
junto, contamos cuantos elementos cumplen la condición (grupos de 2 personas, compuestos por un
hombre y una mujer). Veamos el siguiente gráfico para ayudarnos a establecer el espacio muestral:
1 2 3 4 5 6 7 8 9 10
| | | | | | | | | |
1 2 3 4 5 6 7 8 9 10
| | | | | | | | | |
El espacio muestral esta formado por todas las combinaciones posibles de dos personas que pue-
den darse de entre las 20 totales.
Así, del gráfico podemos ver, por ejemplo, que el primer hombre puede combinarse o hacer gru-
pos de dos, con cada una de las 10 mujeres, y con cada uno de los nueve hombres restantes.
Luego, posibles grupos de 2 personas formados por un hombre y una mujer, son 100, ya que son
las combinaciones de cada uno de los 10 hombres con cada una de las 10 mujeres (10 · 10).
Pero también, por ser tomados al azar, pueden formarse grupos de dos hombres o dos mujeres.
Y, podemos ver que el primer hombre se puede agrupar con los otros nueve hombres, teniendo así 9
grupos; luego el segundo hombre se puede combinar con los 8 hombres restantes, teniendo 8 grupos
posibles más, y así sucesivamente, hasta llegar al penúltimo que forma un grupo más con el último.
Luego, el espacio muestral está formado por un conjunto de 190 elementos (grupos posibles de 2
personas), de los cuales, 100 están compuestos por 1 hombre y una mujer, 45 están formados por 2
hombres, y 45 están formados por 2 mujeres.
Por definición de probabilidad, tenemos que 100 elementos (de los 190 posibles), cumplen la
condición (grupos de 2 personas formado por un hombre y una mujer).
100
Por lo tanto P( A) = 190 = 0.526 315 8, que es el mismo resultado que se obtuvo con la ley Hiper-
geométrica.
Sin embargo, este ejercicio resulta fácil de resolver por la definición básica de probabilidad debido
solamente a que se toma un grupo de dos personas. Para el caso en que se tomara, por ejemplo, 7
personas al azar, de las cuales 3 sean hombres, y 4 mujeres, resulta difícil resolver con la definición
básica de probabilidad, pero en cambio es muy fácil hacerlo con la ley Hipergeométrica que modela
tal situación.
7 personas, la probabilidad de que el grupo esté formado por 3 hombres y 4 mujeres, está dada por:
Nota complementaria
De una forma similar a como se generalizó la Ley Binomial para obtener la Ley Multinomial,
también se puede generalizar la Ley Hipergeométrica para más de dos grupos. Recordemos:
Grupo 1 Grupo 2
N1 elementos N2 elementos
x1 elementos x2 elementos
Cambiando la notación, digamos que el Grupo 1 tiene N1 elementos, y el Grupo 2 tiene N2 elemen-
tos (con N1 + N2 = N). Se selecciona al azar una muestra (sin reposición) de n elementos, entonces la
probabilidad de que esta muestra esté compuesta por x1 elementos que pertenecen al Grupo 1 y, x2
elementos al Grupo 2, (con x1 + x2 = n), está dada por:
N − N1
N1 N2 N1
x1 x x1 n−x
P ( X = x1 ) = 2 = 1
N N
n n
Ahora planteamos lo siguiente: se tiene una población N de elementos, la cual está caracterizada o
definida por k grupos o clases (G1 , G2 , . . . , Gk ), y digamos que N1 elementos pertenecen al grupo G1 ,
N2 elementos al grupo G2 , . . . ., y Nk elementos pertenecen al grupo Gk (con N1 + N2 + . . . + Nk = N)
De esta población, se toma al azar una muestra sin reposición de n elementos (n 6 N), y se plantea
calcular la probabilidad de que esta muestra esté formada por x1 elementos que pertenezcan al grupo
G1 , x2 elementos al grupo G2 , . . ., y xk elementos al grupo Gk (con x1 + x2 + . . . + xk = n ; y xi 6 Ni
para todo i = 1, 2, . . . , k). Gráficamente se tiene:
G1 G2 G3 ...... Gk
......
N1 N2 N3 Nk
x1 x2 x3 ...... xk
Así, esta probabilidad está dada por la Ley Hipergeométrica generalizada siguiente:
N1 N2 Nk
...
x1 x2 xk
P(n, x1 , x2 , . . . xk ) = .
N
n
3.6. L EY DE P OISSON
Existen eventos o esquemas en los cuales se tiene arribos o llegadas de elementos a un sistema,
por ejemplo:
Sistema
b b b b b b b b b
Se pueden modelar algunas de estas situaciones, digamos raras, en el sentido que muchas de ellas no
tienen control sobre la forma como arriban los elementos, como es el caso de los carros que llegan a
una determinada esquina.
Luego, un esquema o sistema que cumpla con estas tres condiciones a la vez, se llama proceso
físico de Poisson2 .
Por ejemplo, la llegada de aviones a un aeropuerto: el aeropuerto viene a ser el sistema; los avio-
nes son los elementos que arriban al sistema. Muchos elementos pueden ser independientes entre sí
(si son de compañías aéreas diferentes), sin embargo, los aviones no llegan en forma aleatoria, de-
bido a que tienen horarios establecidos, y por lo tanto, este esquema o sistema, no es un proceso de
Poisson.
Analicemos ahora el caso de los carros que llegan a una determinada esquina de la cuidad. La
esquina con los semáforos es el sistema, y los carros son los elementos que arriban al sistema (la es-
quina o la intersección de calles), donde son “atendidos” y continúan. Los carros, en general, llegan o
pasan por el lugar en forma aleatoria, son independientes entre sí, y también, en general, los tiempos
entre arribos podemos decir que son aleatorios, y por lo tanto, puede establecerse que este es un pro-
ceso de Poisson. Pero como se modela una situación como ésta, ya que los elementos pueden estar
arribando al sistema todo el tiempo, es decir, de manera permanente.
Para modelar este proceso, se establece un cierto intervalo de tiempo para el análisis, por ejem-
plo, un minuto, o una hora, etc., y se plantea ¿cuál será la probabilidad de que al sistema arriben x
elementos (en el intervalo de tiempo acordado para el análisis)?
Siendo X, la variable aleatoria discreta que representa el número de elementos x que arriban al
sistema durante el intervalo de tiempo establecido, se define la Ley de probabilidades de Poisson
de parámetro λ por:
e−λ λ x
P( X = x ) = ;
x!
donde
Los valores que puede tomar esta variable aleatoria teóricamente van desde cero hasta el infinito,
es decir, x ∈ {0, 1, 2, 3, . . .}.
Una de las cosas interesantes que podemos notar en estos procesos de Poisson es que los elemen-
tos pueden forman colas si el tiempo de atención en el sistema tarda, como es el caso típico al ir a un
Banco, a un centro comercial, una llamada en espera, el tráfico vehicular, etc. Así, con este modelo,
puede estudiarse lo que suele denominarse “teoría de colas”.
Teorema 5 – Media y Varianza Distribución de Poisson
El valor esperado y la varianza de la variable aleatoria discreta de Poisson de parámetro λ son:
µ=λ y σ2 = λ.
2 Suele decirse que esta ley sirve para modelar eventos raros.
Ejemplo 48. Supongamos que por una determinada esquina de la ciudad, pasan en promedio 7 ca-
rros cada dos minutos. ¿Cuál será la probabilidad de que no pase ningún carro?, ¿cuál será la proba-
bilidad de que pasen 5 carros?, y ¿cuál será la probabilidad de que pasen 20 carros?
Solución. Asumiendo que se cumplen las condiciones de un proceso de Poisson, tenemos que el inter-
valo de análisis es dos minutos, y el parámetro de Poisson es λ = 7 (siete carros pasan en promedio
cada 2 minutos).
Luego, tenemos:
70 e − 7
Ë Probabilidad que no pase ningún carro: P( X = 0) = 0! ≈ 0.000 912.
75 e − 5
Ë Probabilidad que pasen 5 carros: P( X = 5) = 5! ≈ 0.127 717.
720 e−20
Ë Probabilidad que pasen 20 carros: P( X = 20) = 20! ≈ 0.000 030.
4.1. L EY U NIFORME
Se dijo que la distribución de Bernoulli, era el esquema más simple de las leyes discretas. De ma-
nera similar puede decirse que la ley uniforme de probabilidad es la más sencilla de las distribuciones
de variables aleatorias continuas.
Esta ley se caracteriza por ser constante en el intervalo [ a, b] donde está definida, y suele llamarse
también ley o distribución rectangular.
Se denomina Ley Uniforme de Probabilidades a la función de densidad cuya imagen esta dada
por:
1
si a 6 x 6 b,
f (x) = b − a
0
si x 6∈ [ a, b]
para todo x ∈ R.
1 +
b− a
+ +
a b
Esta ley sirve para modelar, entre otros, el comportamiento de errores de redondeo. Sin embargo,
lo más notable es que de esta ley surgen los “números aleatorios” que se los suelen notar con la letra
r.
62
CAPÍTULO 4. DISTRIBUCIONES CONTINUAS Probabilidad y Estadística
Así, un número aleatorio r, es una variable aleatoria continua, cuya ley de probabilidad, es la ley
uniforme de probabilidades definida en el intervalo [0, 1].
Los números aleatorios tienen una gran cantidad de aplicaciones, sirviendo como base para la
generación de otras variables aleatorias, o para la selección de muestras, entre otras cosas.1
Ejemplo 49. Un autobús llega cada 10 minutos a una parada. Se supone que el tiempo de espera para
un individuo en particular es una variable aleatoria con distribución continua uniforme.
Solución. La variable X representa el tiempo de espera y sigue una ley de distribución uniforme cuya
imagen de la función de densidad es:
1
si 0 ≤ x ≤ 10,
f ( x ) = 10
0
caso contrario.
Literal 1. Z 10
1 10 − 7 3
P ( X > 7) = dx = = = 0.3
7 10 10 10
Literal 2. Z 7
1 7−2 5
P (2 < X < 7) = dx = = = 0.5
2 10 10 10
4.2. L EY G AMMA
F UNCIÓN G AMMA
para todo α ∈ R + .
1 Losnúmeros aleatorios tienen muchas aplicaciones, tales como para generar otras variables aleatorias, o para aplica-
ciones en teoría de muestreo.
1
x α−1 exp − x si x > 0,
βα Γ(α) β
f (x) =
0
en otro caso
α=2
α=3
E( X ) = αβ y V ( X ) = αβ2 .
Ejemplo 50. Sea X una variable aleatoria que sigue una distribución gamma de parámetros α = 4 y
β = 10. Determine la probabilidad de que la variable aleatoria sea mayor 5.
Γ(4) = (4 − 1)! = 3! = 6.
Luego,
P ( X > 5) = 1 − P ( X 6 5)
Z 5
1 4−1
x
= 1− x exp − dx
0 104 · 6 10
≈ 0.9982.
4.3. L EY E XPONENCIAL
1
β
Este modelo es útil en aplicaciones de control de calidad relacionadas a analizar tiempos de falla
de algunos dispositivos electrónicos.
Permite también modelar satisfactoriamente el tiempo entre arribos de dos elementos en los pro-
cesos de Poisson. Estos elementos pueden ser vistos como fallas que arriban al sistema y, esta ley
exponencial de probabilidades modela el tiempo que transcurre entre estas fallas. Para estos casos el
parámetro θ es exactamente el parámetro λ de la distribución de Poisson.
Teorema 4 – Valor esperado y varianza
Si X es una variable aleatoria exponencial de parámetro β, el valor esperado y la varianza están
dados por:
E( X ) = β y V ( X ) = β2 .
El parámetro β de la ley exponencial representa el tiempo promedio entre dos eventos consecu-
1
tivos, mientras que el parámetro , representa la frecuencia de eventos.
β
Ejemplo 51. El tiempo de vida de un transistor sigue una distribución exponencial con tiempo medio
de vida de 12 años. Determine
Solución. El tiempo de vida de un transistor es una variable aleatoria T que sigue una distribución
exponencial con β = 12, luego,
a)
b)
P ( T > 3) = 1 − P ( T 6 3)
Z 3
1 −1
= 1− e 12
0 12
− 41
=e ,
10
10
P (Y > 7 ) = ∑ (0.442)k (1 − 0.442)10−k
k =7
k
≈ 0.0930.
De todas las leyes de probabilidad, la ley normal de probabilidades (conocida también como ley
de Gauss o campana de Gauss), es una de las más importantes. Se afirma esto debido a la enorme
cantidad de aplicaciones que surgen de esta ley y las relaciones que se pueden establecer con muchos
otros modelos de probabilidad.
Se define como Ley Normal de Probabilidades a la función de densidad cuya imagen esta dada
por:
1 ( x − u )2
f (x) = √ exp −
2πσ 2σ2
para todo x ∈ R.
Teorema 5 – Valor esperado y varianza
La media y varianza de una variable aleatoria X que sigue una distribución normal de paráme-
tros µ y σ2 están dadas por
E( X ) = µ y V ( X ) = σ2 .
√1
2πσ
µ−σ µ µ+σ
En una distribución normal, al recorrer una desviación estándar hacia la izquierda y derecha
Recordando la definición de variable estandarizada (Z), y teniendo X, una variable aleatoria nor-
mal, donde µ es la media, y σ2 es la varianza. La variable estandarizada Z se determina mediante la
siguiente ecuación:
X−µ
Z=
σ
y tiene como ley de probabilidad la llamada ley normal estandarizada o tipificada, con media 0 y
varianza 1, cuya imagen de la función de densidad está dada por:
2
1 z
f (z) = √ exp − .
2π 2
para todo z ∈ R.
Ejemplo 52. El número de mensajes que una persona envía una persona por Whatsapp sigue una
distribución normal con media 1 200 y desviación estándar 450. Determine la probabilidad de que
una persona envié menos de 800 mensajes en un día.
Solución. Si X representa el número de mensajes que envía una persona en un día determinado en-
tonces X sigue una distribución normal con parámetros µ = 1 200 y σ2 = 202 500. Luego,
( x − 1200)2
Z 800
1
P( X < 800) = √ exp −
2π · 450 −∞ 2 · 202 500
≈ 0.1870.
Para la obtención de este resultado se ha utilizado una calculadora en línea; lo que normalmente no
es posible en otras circunstancias. Por esta razón es preferible obtener el resultado de la siguiente
manera:
X −1200
Si Z = 450 , entonces Z sigue una distribución normal con parámetros µ = 0 y σ2 = 1, luego
800 − 1200
P( X < 800) = P Z <
450
≈ P( Z < 0.8889)
≈ 0.1870.
Este resultado es exactamente similar pero se obtiene directo de las tablas de la distribución normal
estándar.
Nota 1
Todos los paquetes estadísticos, tienen implementados algoritmos para realizar cálculo de pro-
babilidades para muchas leyes de probabilidad, inclusive la hoja electrónica “Excel”, tiene co-
mandos para calcular probabilidades de varias leyes de probabilidad. Puede encontrar aquí una
plantilla para realizar estos cálculos.