0% encontró este documento útil (0 votos)
30 vistas69 páginas

Fundamentos de Probabilidad y Estadística

Este documento presenta los conceptos fundamentales de probabilidad. Introduce la noción de experimento aleatorio y espacio muestral, que es el conjunto de todos los posibles resultados de un experimento. Define un suceso o evento como cualquier subconjunto del espacio muestral. Explica definiciones clave como unión, intersección y complemento de eventos, y cómo se pueden usar para caracterizar eventos particulares importantes en estadística. Además, provee ejemplos para ilustrar estas definiciones básicas de probabilidad.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
30 vistas69 páginas

Fundamentos de Probabilidad y Estadística

Este documento presenta los conceptos fundamentales de probabilidad. Introduce la noción de experimento aleatorio y espacio muestral, que es el conjunto de todos los posibles resultados de un experimento. Define un suceso o evento como cualquier subconjunto del espacio muestral. Explica definiciones clave como unión, intersección y complemento de eventos, y cómo se pueden usar para caracterizar eventos particulares importantes en estadística. Además, provee ejemplos para ilustrar estas definiciones básicas de probabilidad.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

Probabilidad y Estadística - 2022-B

Sección 2: Probabilidad

Preparado por:

Cátedra de Probabilidad y Estadística - EPN


0. Í NDICE GENERAL

1 Probabilidad 4

1.1 Definiciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4

1.1.1 Diagrama de árbol . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12

1.2 Métodos de enumeración . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13

1.2.1 Permutaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14

1.2.2 Combinaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16

1.2.3 Permutaciones a partir un conjunto con elementos repetidos . . . . . . . . . . . 18

1.3 Probabilidad Condicional e Independencia . . . . . . . . . . . . . . . . . . . . . . . . . 21

1.4 Probabilidad Total y Regla de Bayes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27

2 Variable Aleatoria 30

2.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30

2.2 Variables aleatorias discretas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31

2.3 Variables aleatorias continuas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35

2.4 Medidas características de una variable aleatoria . . . . . . . . . . . . . . . . . . . . . . 37

2.4.1 Medidas de centralización . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37

2.4.2 Medidas de dispersión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39

2.4.3 Percentiles de una distribución . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44

2.4.4 Otras medidas características . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45

3 Distribuciones Discretas 48

3.1 Ley de Bernoulli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48

3.2 Ley Binomial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49

3.3 Ley Binomial Negativa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52

3.4 Ley Geométrica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53

3.5 Ley Hipergeométrica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55

3.6 Ley de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59

2
ÍNDICE GENERAL Probabilidad y Estadística

4 Distribuciones Continuas 62

4.1 Ley Uniforme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62

4.2 Ley Gamma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63

4.3 Ley Exponencial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65

4.4 Ley Normal de probabilidades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67

ÍNDICE GENERAL 3
1. P ROBABILIDAD

I NTRODUCCIÓN

En sus inicios el desarrollo de la probabilidad fue financiada por los grandes apostadores en el
siglo XVII, para conocer las probabilidades de los diferentes juegos de azar de la época, este desarrollo
fue aprovechado después por los científicos en diferentes fenómenos físicos y en este capítulo se
presentan los principales elementos de la probabilidad.

Desde muy pequeños desarrollamos la idea de probabilidad al jugar juegos de mesa y al enfren-
tarnos a situaciones aleatorias. Por ejemplo, en el lanzamiento de un dado, es claro que existen seis
posibles resultados y que en cada nuevo lanzamiento no siempre se obtiene el mismo resultado an-
terior. Del mismo modo cuando lanzamos una moneda tenemos dos posibles opciones y en cada
lanzamiento se puede obtener una u otra opción (cara o sello). De esta manera, el ser humano poco a
poco adquiere una idea intuitiva de probabilidad y aunque no sepa definirla ni calcularla.

El enfoque más intuitivo desde el cual se aborda la probabilidad es a través de la frecuencia


relativa, es decir, a través de la repetición del experimento. Por ejemplo, al lanzar una moneda un
gran número de veces de tal manera que registramos el número de lanzamientos y el número de
caras y sellos; en concreto, digamos que lanzamos 100 veces, la proporción de caras es cercano a la
mitad (obviamente si la moneda no ha sido modificada), es decir, 50 caras; la frecuencia relativa en
este experimento es 21 , la frecuencia es aproximadamente la probabilidad de que se obtenga cara en
un lanzamiento de moneda.

La probabilidad juega un papel muy importante en diferentes ramas de la ciencia y es un instru-


mento básico y necesario para su abordaje, nos permitirá afrontar situaciones de la vida cotidiana,
nos permitirá predecir, modelar, probar hipótesis, inclusive realizar control de calidad, entre muchas
otras aplicaciones.

1.1. D EFINICIONES

Antes de abordar la probabilidad vamos a establecer ciertos conceptos fundamentales en el con-


texto estadístico; primero vamos a distinguir el concepto de experimento aleatorio.

Existen dos tipos de fenómenos, los primeros son aquellos que bajo un conjunto específico de
condiciones permiten obtener los mismos resultados. En particular, si se deja caer un objeto de cierta
altura el tiempo que se demora en llegar al suelo es el mismo independientemente del número de

4
CAPÍTULO 1. PROBABILIDAD Probabilidad y Estadística

veces que se repita el experimento. En cambio, hay ciertos fenómenos, a pesar de que se hagan bajo
las mismas condiciones el resultado es diferente cada vez que se repite; por ejemplo, al sacar una
bolita al azar en el bingo, el lanzamiento de un dado, sacar una carta al azar, etc. A este tipo de
“fenómenos” los llamaremos experimentos aleatorios; así:
Definición 1 – Experimento Aleatorio
Es un fenómeno con un resultado que no se puede predecir con certeza.

Tomemos el experimento aleatorio escoger de una bolsa de cuatro canicas de diferentes colores una al
azar e identificar el color de la misma, digamos que los colores de las canicas son NEGRO, ROJO, BLANCO
y VERDE , así al sacar una bola al azar, el color de ésta será uno de los cuatro anteriores. Lo único
que podremos es adivinar cuál es el color de la bola, pero nunca sabremos con certeza el color de la
misma sin verla.
Definición 2 – Espacio Muestral
Al conjunto de todos los posibles resultados de un experimento aleatorio se le denomina espacio
muestral, notaremos al espacio muestral con Ω.

Del ejemplo anterior observemos que el espacio muestral es el conjunto de los cuatro colores que
puede tomar cualquiera de las bolas, es decir,

Ω = { NEGRO, ROJO, BLANCO, VERDE }.

Definición 3 – Suceso o evento


Cualquier subconjunto del espacio muestral se denomina suceso o evento.

En términos de conjuntos, es claro que el espacio muestral y el conjunto vacío son también even-
tos, también lo son cualquier evento individual o combinado. Por ejemplo, el evento de que la bola
al azar sea verde o roja se puede representar por el conjunto,

A = { ROJO, VERDE }.

Como observamos para estudiar la teoría de probabilidades es de vital importancia conocer la teoría
de conjuntos, la cual se ha abordado en cursos anteriores. De esta manera, abordaremos esta teoría de
forma sencilla haciendo las respectivas traducciones del lenguaje conjuntista al lenguaje estadístico.
Es claro que cualquier conjunto, subconjunto del espacio muestral, es un evento o suceso. La clase
universal, en cada experimento, será el espacio muestral; la clase vacía es un evento imposible o
falso; el complemento de un conjunto A (Ac ) es el evento contrario de A, en términos de conjuntos lo
podemos expresar por Ω r A.

De forma similar a como se hacen las operaciones entre conjuntos (unión, intersección, diferencia
y complemento) se lo realiza con los eventos y de esta manera se puede obtener o caracterizar eventos
particulares que juegan un papel fundamental en la estadística. El siguiente ejemplo permite aclarar
estas definiciones.

1.1. DEFINICIONES 5
Probabilidad y Estadística CAPÍTULO 1. PROBABILIDAD

Ejemplo 1. Consideremos un dado que está formado por seis lados en los cuales se tiene numerado
desde el 1 hasta el 6. Supongamos que A es el evento de que al lanzar un dado se obtenga un número
menor que 4. Luego, B sea el evento de que al lanzar un dado se obtenga un número par.

Tenemos que: A = {1, 2, 3} y B = {2, 4, 6}

Ahora bien, A ∪ B representa el evento de que al lanzar un dado se obtenga un número que sea
menor que 4 o que sea par. Es decir,

A ∪ B = {1, 2, 3, 4, 6}

El evento de obtener un número menor que 4 y que sea un número par representa A ∩ B. Luego,

A ∩ B = {2}

El evento de obtener un número que sea menor a 4, pero que no sea par representa A r B. Es decir,

A r B = {1, 2, 3, 4, 6}

Finalmente, el evento de al lanzar un dado y obtener un número impar representa Bc , es decir,

Bc = {1, 3, 5}

Así, se pueden definir eventos importantes en el estudio de la estadística tales como eventos
independientes, dependientes mutuamente excluyentes, etc y otros tipos de eventos que en lenguaje
se puede utilizar frases como: “al menos”, “a lo más”, “todos a la vez” entre otras frases. Por ejemplo,

Ejemplo 2. Imaginemos que se tienen dos tetraedros regulares con cada una de sus caras numeradas.
Se lanzan a una mesa y se anotan los resultados.

a) Determine el espacio muestral para este experimento.

b) Determine los elementos del evento A que representa que la suma de los números sea al menos
6.

c) Determine los elementos del espacio B que representa que la suma de los números sea a lo
mucho 3.

d) Determine los elementos del evento C que representa que la suma de los números sea más de
6.

e) Determine los elementos del evento D que representa que la suma de los números sea menos
de 3.

Solución.

a) Para determinar el espacio muestral usaremos pares ordenados, la primera componente es el


número del primer tetraedro, y la segunda componente es el número obtenido en el segundo

6 1.1. DEFINICIONES
CAPÍTULO 1. PROBABILIDAD Probabilidad y Estadística

tetraedro. Así,  


 (1, 1), (1, 2), (1, 3), (1, 4), 


 
 (2, 1),

(2, 2), (2, 3), (2, 4), 

Ω= .
 (3, 1),
 (3, 2), (3, 3), (3, 4), 


 

 (4, 1),

(4, 2), (4, 3), (4, 4) 

b) El hecho de que la suma de los números de los tetraedros sea al menos 6 significa que la suma
puede ser 6, 7 u 8, luego,
A = {(3, 3), (3, 4), (4, 3), (4, 4)}.

c) El hecho de que la suma de los números de los tetraedros sea a lo mucho 3 significa que la suma
puede ser 2 o 3, luego,
B = {(1, 1), (1, 2), (2, 1)}.

d) El hecho de que la suma de los números de los tetraedros sea más de 6 significa que la suma
puede ser 7 u 8, luego,
C = {(3, 4), (4, 3), (4, 4)}.

e) El hecho de que la suma de los números de los tetraedros sea menos de 3 significa que la suma
puede ser 2, luego,
D = {(1, 1)}.

Ahora, definamos lo que son eventos mutuamente excluyentes:


Definición 4
Dos eventos A y B son mutuamente excluyentes si no es posible que ocurran al mismo tiempo.
En términos de conjuntos, estos eventos son mutuamente excluyentes si son disjuntos, es decir,

A ∩ B = ∅.

Ejemplo 3. Retomemos el ejemplo 1.

Ahora consideremos como C al evento de que al lanzar el dado se obtenga el número impar, y D
como el evento de que al lanzar el dado se obtenga el número 2.

Está claro que los dos eventos no se pueden dar al mismo tiempo pues no es posible obtener un
número impar y el 2 a la vez.

Estos dos eventos son los que se consideran mutuamente excluyentes.

Como se dijo al inicio de este capítulo, la forma intuitiva de abordar la probabilidad es a través
de la frecuencia relativa de un evento, para ello vamos a definir lo siguiente:
Definición 5 – Frecuencia relativa de un evento
Si un experimento aleatorio se realiza n veces y A es un evento que ocurre n A veces, entonces la

1.1. DEFINICIONES 7
Probabilidad y Estadística CAPÍTULO 1. PROBABILIDAD

frecuencia relativa del evento A, lo que representaremos por f A , es cociente de n A y n, es decir,

nA
fA = .
n

Bajo esta definición se cumple que

1. A no ocurre en los n experimentos si y solo si f A = 0.

2. A ocurre siempre en los n experimentos si y solo si f A = 1.

3. 0 6 f A 6 1

4. Si A y B son mutuamente excluyentes, entonces f A∪ B = f A + f B

5. Si n aumenta f A se establece en un valor determinado, esto es lo que llamaremos en el sentido


probabilístico “converger”.

Ejemplo 4. Se han ubicado 10 bolas numeradas con los dígitos en una bolsa, cada vez que se saca
una bola se escribe en una hoja el número de la bola sacada y se la vuelve a meter en la bolsa, así se
obtiene lo siguiente:

Número de la bola 0 1 2 3 4 5 6 7 8 9
Número de apariciones 5 3 3 2 5 7 2 5 4 6

Si se tienen los eventos

A: El número es par, C: El número es mayor que 3 e impar,


B: El número es divisible por 3, D: El número es primo.

Determinemos f A , f B , f C , f D , f A∪ B , f A∪C , f B∩C y f DrC

Solución. En primera instancia determinemos el espacio muestral y los conjuntos A, B, C y D:

Ω = {0, 1, 2, 3, 4, 5, 6, 7, 8, 9}
A = {0, 2, 4, 6, 8} B = {0, 3, 6, 9}
C = {5, 7, 9} D = {2, 3, 5, 7}

Luego, es notorio que se han hecho 42 experimentos y de la definición de frecuencia relativa se tiene
que:

5+3+5+2+4 19 5+2+2+6 5
fA = = , fB = = ,
42 42 42 14
7+5+6 3 3+2+7+5 17
fC = = , fD = = .
42 7 42 42

Vamos a determinar los conjuntos:

A ∪ B = {0, 2, 3, 4, 6, 8, 9}, A ∪ C = {0, 2, 4, 5, 6, 7, 8, 9}, B ∩ C = {9}, D r C = {2, 3};

8 1.1. DEFINICIONES
CAPÍTULO 1. PROBABILIDAD Probabilidad y Estadística

después,

5+3+2+5+2+4+6 9 5+3+5+7+2+5+4+6 37
f A∪ B = = , f A∪C = = ,
42 14 42 42
6 1 3+2 5
f B∩C = = , f D rC = = .
42 7 42 42

Tomemos en cuenta que f A∪ B 6= f A + f B porque A y B no son mutuamente excluyentes, debido a que


A ∩ B = {6} 6= ∅. Además, f A∪C = f A + f C ya que A y C sí son eventos mutuamente excluyentes, y
se verifica que A ∩ C = ∅.

Definición 6 – Probabilidad
Dado un espacio muestral Ω y la función P : P (Ω)a → R, la probabilidad del evento A es
P( A), tal que

I) P(Ω) = 1;

II ) P( A) > 0, para todo A ∈ P (Ω), y

III ) si A y B son mutuamente excluyentes, P( A ∪ B) = P( A) + P( B).


a El signo P (Ω) representa el conjunto de partes de Ω.

Las tres proposiciones anteriores son los que se conocen como axiomas de la probabilidad, de
aquí se deducen las siguientes proposiciones:
Teorema 1 – Propiedades de la probabilidad

1. P(∅) = 0.

2. P( Ac ) = 1 − P( A).

3. Si A ⊆ B, P( A) 6 P( B).

4. P( A) = P( A r B) + P( A ∩ B).

5. P( A ∪ B) = P( A) + P( B) − P( A ∩ B).

Observemos que de la definición de frecuencia relativa de un evento, se tiene que el valor al que
converge f A cuando n tiende al infinito es justamente P( A). Así, la manera más sencilla de calcular
la probabilidad de un evento A está dada por:

número de formas que el evento A ocurra


P( A) = .
número de posibles resultados del experimento

Ejemplo 5. Calcular la probabilidad de que al lanzar un dado,

a) salga un número par,

b) salga 4 o 6.

c) obtener un número mayor que 6.

1.1. DEFINICIONES 9
Probabilidad y Estadística CAPÍTULO 1. PROBABILIDAD

d) obtener un número menor o igual a 6.

Solución. Observemos que el espacio muestral para este experimento es

Ω = {1, 2, 3, 4, 5, 6}

y, en consecuencia, |Ω| = 6 1 . Vamos a definir el conjunto A = {2, 4, 6} que representa al evento que
al lanzar un dado salga un número par. Luego, que suceda este evento es:

| A| 3 1
P( A) = = = .
|Ω| 6 2

Ahora, definamos el conjunto B = {4, 6} que representa al evento de que al lanzar un dado salga 4 o
6.
| B| 2 1
P( B) = = = .
|Ω| 6 3
El evento de que al lanzar un dado se obtenga un número mayor a 6 es un evento imposible, es decir,
lo podemos representar por C = ∅, en consecuencia,

P(C ) = P(∅) = 0.

Finalmente, el evento de que al lanzar un dado se obtenga un número menor o igual a 6 es el evento
contrario al evento C, es decir, D = C c , luego,

P( D ) = P(C c ) = P(Ω) = 1.

Ejemplo 6. Demostrar que


P ( A c ) = 1 − P ( A ).

Demostración. Recordemos de la teoría de conjunto se sabe que A ∩ Ac = ∅, de donde concluimos


que A y Ac son eventos mutuamente excluyentes, luego,

P ( A ∪ A c ) = P ( A ) + P ( A c ),

de donde,
P ( Ω ) = P ( A ) + P ( A c );

ya que A ∪ Ac = Ω, y en consecuencia,

P ( A c ) = 1 − P ( A ).

1 El signo | Ω | representa la cardinalidad (número de elementos) del conjunto finito Ω. Y, para nuestros propósitos repre-

sentará el número de formas en que ocurre el evento (Ω en particular).

10 1.1. DEFINICIONES
CAPÍTULO 1. PROBABILIDAD Probabilidad y Estadística

Definición 7 – Principio de la suma


Si | A| = m, | B| = n y A ∩ B = ∅, entonces

| A ∪ B| = m + n.

Esto quiere decir que: “Si un suceso A puede ocurrir de m maneras (| A| = m), y otro suceso
B puede ocurrir de n maneras (| B| = n), y no pueden ocurrir ambos simultáneamente, entonces el
suceso A ∪ B puede ocurrir de m + n maneras”.

Esta definición se puede generalizar, si A1 , . . . , An son disjuntos dos a dos, entonces

| A1 ∪ A2 ∪ . . . ∪ A n | = | A1 | + | A2 | + . . . + | A n |.

Esto significa que si un evento A1 puede ocurrir de m1 maneras, un evento A2 de m2 maneras, etc., y
un evento An ocurre de mn maneras, entonces la unión de estos eventos ocurre de m1 + m2 + . . . + mn
maneras.
Definición 8 – Principio del producto
Si | A| = m y | B| = n, entonces

| A × B| = | A| · | B| = m · n.

Este principio puede visualizarse disponiendo todos los elementos del producto cartesiano A × B
en una tabla. Suponiendo que A = { a1 , . . . , am } y B = {b1 , . . . , bn }, entonces los elementos de A × B
son pares ordenados:
( a1 , b1 ) ( a1 , b2 ) ... ( a 1 , bn )
( a2 , b1 ) ( a2 , b2 ) ... ( a 2 , bn )
.. .. .. ..
. . . .
( am , b1 ) ( am , b2 ) . . . ( am , bn )

Nótese que el cuadro tiene m filas y n columnas, y por lo tanto, | A × B| = m · n = | A| · | B|.

Esta definición la usaremos para determinar la cardinalidad de eventos que se realizan de forma
sucesiva, es decir, si un primer objeto puede escogerse entre m posibles, y después de realizada esta
selección puede escogerse un segundo objeto entre n posibles, entonces pueden escogerse m · n pares
diferentes.

Esta definición se puede generalizar, así

| A1 × A2 × . . . × A n | = | A1 | · | A2 | · . . . · | A n |,

es decir, si un evento A1 ocurre de m1 formas, y después de realizado este evento se realiza A2 y este
puede ocurrir m2 formas, etc., hasta que el n-ésimo evento (An ) se realice y este ocurre de mn formas;
entonces los n eventos ocurren de forma sucesiva de m1 · m2 · . . . · mn formas.

Ejemplo 7. ¿De cuántas maneras pueden colocarse una torre blanca y una torre negra en un tablero
de ajedrez de modo que se ataquen?

1.1. DEFINICIONES 11
Probabilidad y Estadística CAPÍTULO 1. PROBABILIDAD

Respuesta. El tablero de ajedrez esta formado por 8 filas y 8 columnas, entonces, el número de casillas
en que se puede ubicar la torre blanca es 8 · 8 = 64.

Una vez ubicada la torre blanca, la torre negra debe colocarse en una casilla de la misma columna
o fila ocupada por la torre blanca, si consideramos como el suceso A la ubicación de la torre negra
en una casilla de la misma fila donde se ubica la torre blanca tenemos que | A| = 7 es decir existe 7
maneras diferentes de ubicarse en las casillas y si consideramos como el suceso B la ubicación de la
torre negra en una casilla de la misma columna donde se ubica la torre blanca tenemos que | B| = 7,
es decir, existe otras 7 maneras diferentes de ubicarse en las casillas.

Como A y B son sucesos mutuamente excluyentes entonces por el principio de la suma se tienen
7 + 7 = 14, diferentes maneras de ubicarse la torre negra.

Por lo tanto, del principio del producto podemos concluir que se tienen 64 · 14 = 896 maneras
de colocarse la torre blanca y negra. Ya que primero se ubica la torre blanca y luego la torre negra.
El orden de colocación de las piezas es indiferente, es decir, si se ubica primero la negra y luego la
blanca el resultado es el mismo.

1.1.1.- D IAGRAMA DE ÁRBOL

Para determinar los elementos del espacio muestral es común hacer un listado de ellos, una ma-
nera para hacerlo de forma sistemática es justamente el diagrama de árbol. Este es un esquema en
el cual se detalla como ocurren los eventos, en ocasiones de forma sucesiva, no es necesario que así
ocurra.

Ejemplo 8. ¿Cuáles son los posibles resultados del lanzamiento de dos dados?

Respuesta. Para este experimento el orden en el que se lancen los dados no es relevante, es decir, no
importa si lanzo uno u otro primero. Cada dado tiene 6 resultados posibles como se observa en la
figura 1.1.

12 1.1. DEFINICIONES
CAPÍTULO 1. PROBABILIDAD Probabilidad y Estadística

Primer Segundo Puntos del


Dado Dado espacio muestral
1 (1, 1)
2 (1.2)
3 (1, 3)
1 4 (1, 4)
5 (1, 5)
6 (1, 6)
1 (2, 1)
2 (2, 2)
3 (2, 3)
2 4 (2, 4)
5 (2, 5)
6 (2, 6)
1 (3, 1)
2 (3, 2)
3 (3, 3)
3 4 (3, 4)
5 (3, 5)
6 (3, 6)
1 (4, 1)
2 (4, 2)
3 (4, 3)
4 4 (4, 4)
5 (4, 5)
6 (4, 6)
1 (5, 1)
2 (5, 2)
3 (5, 3)
5 4 (5, 4)
5 (5, 5)
6 (5, 6)
1 (6, 1)
2 (6, 2)
3 (6, 3)
6 4 (6, 4)
5 (6, 5)
6 (6, 6)
Figura 1.1: Diagrama de árbol de los resultados del lanzamiento de dos dados.

Así, el primer evento tiene 6 resultados posibles y el segundo también; en resumen, el lanzamiento
de los dados se realiza de 36 formas diferentes en el diagrama de árbol se puede observar estos 36
“puntos” muestrales.

Observemos que existe una fuerte relación entre el número de elementos del espacio muestral,
las formas en que un evento ocurre y el cálculo de la probabilidad de que suceda dicho evento; por
esta razón vamos a ver diversos métodos de enumeración.

1.2. M ÉTODOS DE ENUMERACIÓN

Hemos visto que es necesario contar los elementos ya sean del espacio muestral o de los elementos
de un evento. De aquí, que es necesario contar los grupos que se pueden formar a partir de un
conjunto, al cual llamaremos conjunto base, y lo representaremos por Ψ, y que puede tener elementos

1.2. MÉTODOS DE ENUMERACIÓN 13


Probabilidad y Estadística CAPÍTULO 1. PROBABILIDAD

diferentes o repetidos. Por ejemplo, tenemos los siguientes conjuntos

Ψ = { a, a, b, b, b, c, d, e, e}, Ψ = {♥, ♦, ♠, ♣},

en donde, el primer conjunto tiene 9 elementos y algunos se repiten; en cambio, el segundo tiene 4
elementos todos distintos. Ahora, tomemos en cuenta el conjunto Ψ = { a, b, c, d} y con los elementos
de este conjunto podemos formar, por ejemplo, los siguientes conjuntos:

{ a }, { a, b}, { a, b, d}, {b, a, d}, {c, b, d}, { a, a, a, a}, { a, b, a, d}.

Observemos que para formar estos grupos se toman en cuenta los siguientes criterios:

1. Número de elementos del grupo, este número puede variar entre 1 y el número de elementos
del conjunto base;

2. Repetición de elementos, es decir, si los grupos se los realiza con elementos repetidos y si son
todos diferentes;

3. Orden de los elementos, es decir, si el orden de los elementos en el grupo es relevante o no.

De esta manera surge la pregunta: ¿cuántos grupos de k elementos se puede formar a partir de un
conjunto de n elementos?, aquí es importante resaltar los aspectos de orden y repetición, ya que son
claves para las agrupaciones.

Cuando el orden no es un factor relevante en las agrupaciones, es decir, no importa el orden de los
elementos en cada una de estas agrupaciones, se les denomina combinaciones; en cambio, si el orden
es relevante las agrupaciones reciben el nombre de permutaciones. Y existen tanto combinaciones
con y sin repetición como permutaciones con y sin repetición.

1.2.1.- P ERMUTACIONES

Definición 9 – Permutación
Dado un conjunto con n elementos diferentes, a cada uno de los arreglos de k elementos, en
un orden predeterminado, tal que 1 6 k 6 n se le denomina permutación de n elementos
tomados k a la vez. Dos permutaciones son diferentes si al menos un elemento es diferente o si
el orden de presentación es distinto. Además, una permutación es sin repetición si cada uno de
los elementos aparece una sola vez.

Permutaciones sin repetición

Veamos como calcular el número de permutaciones sin repetición y como formar estas agrupa-
ciones a partir de un conjunto base dado.

Ejemplo 9. Respondamos la pregunta: ¿de cuántas formas se pueden formar grupos de 2 elementos
a partir del conjunto {♥, ♦, ♠, ♣}? En este caso, bajo el supuesto de que el orden sí importa, pero sin
repetición de elementos.

14 1.2. MÉTODOS DE ENUMERACIÓN


CAPÍTULO 1. PROBABILIDAD Probabilidad y Estadística

Respuesta. Es claro que los grupos de 2 elementos que podemos formar a partir del conjunto base, sin
repetir elementos, son:
{♥, ♦} {♥, ♠} {♥, ♣}
{♦, ♥} {♦, ♠} {♦, ♣}
{♠, ♥} {♠, ♦} {♠, ♣}
{♣, ♥} {♣, ♦} {♣, ♠}
Es decir, el número de permutaciones sin repetición diferentes de 4 elementos tomados 2 a la vez es
12.
Teorema 2 – Permutaciones sin repetición
El número de permutaciones sin repetición diferentes de n elementos tomados k a la vez, repre-
sentada por n P k , es
n!
,
(n − k)!
es decir,
n!
n Pk = .
(n − k)!

Ejemplo 10. Determine el número de formas que se puede sentar 8 personas en 4 sillas en un orden
determinado.

Solución. Es claro que el orden es importante en esta situación y que si una persona se sienta en una
silla ya no se puede sentar en otra. Por lo tanto, vamos a determinar el número de permutaciones sin
repetición de 8 elementos tomados 4 a la vez,

8! 8 · ·7 · 6 · 5 · 4!
8 P4 = = = 8 · ·7 · 6 · 5 = 1 680.
(8 − 4) ! 4!

En consecuencia, el número de posibles formar de sentar a estas 8 personas en las 4 sillas es 1 680.

Ahora bien, si queremos determinar el número de formas que se puede sentar 8 personas en 8
sillas en un orden determinado, el valor de k en este caso sería 8 al igual que el valor de n, entonces
la relación para las permutaciones sin repetición pasaría a ser la siguiente

n!
n Pn =
(n − n)!
n!
=
1!
= n!

La respuesta a la interrogante planteada sería igual a 8!, es decir 40 320 formas.

Permutaciones con repetición

Ahora, observemos como formar a partir de un conjunto base agrupaciones con elementos repe-
tidos y determinar el número de agrupaciones posibles que se pueden formar.

1.2. MÉTODOS DE ENUMERACIÓN 15


Probabilidad y Estadística CAPÍTULO 1. PROBABILIDAD

Ejemplo 11. Respondamos la pregunta: ¿de cuántas formas se pueden formar grupos de 2 elementos
a partir del conjunto {♥, ♦, ♠, ♣}? En este caso, bajo el supuesto de que el orden sí importa, y los
elementos se pueden repetir.

Respuesta. Es claro que los grupos de 2 elementos que podemos formar a partir del conjunto base
son:
{♥, ♥} {♥, ♦} {♥, ♠} {♥, ♣}
{♦, ♥} {♦, ♦} {♦, ♠} {♦, ♣}
{♠, ♥} {♠, ♦} {♠, ♠} {♠, ♣}
{♣, ♥} {♣, ♦} {♣, ♠} {♣, ♣}
Es decir, el número de permutaciones con repetición diferentes de 4 elementos tomados 2 a la vez es
16.
Teorema 3 – Permutaciones con repetición
El número de permutaciones con repetición diferentes de n elementos tomados k a la vez, repre-
sentada por n PR k , es
nk ,

es decir,
n PR k = nk .

Ejemplo 12. Determine la cantidad de números diferentes de 4 cifras se pueden formar con los si-
guientes dígitos: 1, 3, 5, 7 y 9.

Solución. En este caso, es claro que los dígitos se pueden repetir, luego, se requiere se determinar el
número de permutaciones con repetición de 5 elementos tomados 4 a la vez, es decir,

5 PR 4 = 54 = 625.

En consecuencia, la cantidad de números de 4 cifras que se puede formar con los dígitos 1, 3, 5, 7 y 9
es 625.

1.2.2.- C OMBINACIONES

Definición 10 – Combinación
Dado un conjunto con n elementos diferentes, a cada uno de los arreglos de k elementos, sin un
orden predeterminado, tal que 1 6 k 6 n se le denomina combinación de n elementos tomados
k a la vez. Dos combinaciones son diferentes si al menos un elemento es diferente. Además, una
combinación es sin repetición si cada uno de los elementos aparece una sola vez.

Combinaciones sin repetición

Veamos como calcular el número de combinaciones sin repetición y como formar estas agrupa-
ciones a partir de un conjunto base dado.

16 1.2. MÉTODOS DE ENUMERACIÓN


CAPÍTULO 1. PROBABILIDAD Probabilidad y Estadística

Ejemplo 13. Respondamos la pregunta: ¿de cuántas formas se pueden formar grupos de 2 elementos
a partir del conjunto {♥, ♦, ♠, ♣}? En este caso, bajo el supuesto de que el orden no importa y sin
repetición de elementos.

Respuesta. Los grupos de 2 elementos que podemos formar a partir del conjunto base, sin repetir
elementos, son:
{♥, ♦} {♥, ♠} {♥, ♣}
{♦, ♠} {♦, ♣}
{♠, ♣}
Es decir, el número de combinaciones sin repetición diferentes de 4 elementos tomados 2 a la vez es
6.
Teorema 4 – Combinaciones sin repetición
El número de combinaciones sin repetición diferentes de n elementos tomados k a la vez, repre-
sentada por n C k , es
n!
,
k!(n − k)!
es decir,
n!
n Ck = .
k!(n − k)!

Ejemplo 14. Una persona tiene que escoger 5 preguntas de un banco de preguntas que contiene 15
preguntas, ¿de cuántas formas diferentes pueden escogerse las preguntas si el orden en que conteste
las preguntas es irrelevante y si escoge una pregunta esta ya no se repite?

Respuesta. En esta situación se tiene que el orden es irrelevante y que no hay repetición de preguntas,
por lo que se determina el número de combinaciones de 15 elementos tomados 5 a la vez, es decir

15! 15 · 14 · 13 · 12 · 11 · 10!
15 C 5 = = = 3 003.
5!(15 − 5)! 5 · 4 · 3 · 2 · 10!

En consecuencia, el número de posibles formas en que esta persona puede escoger estas 5 preguntas
es 3 003.

Combinaciones con repetición

Veamos como calcular el número de combinaciones con repetición y como formar estas agrupa-
ciones a partir de un conjunto base dado.

Ejemplo 15. Respondamos la pregunta: ¿de cuántas formas se pueden formar grupos de 2 elementos
a partir del conjunto {♥, ♦, ♠, ♣}? En este caso, bajo el supuesto de que el orden no importa y con
repetición de elementos.

Respuesta. Los grupos de 2 elementos que podemos formar a partir del conjunto base, con repetición

1.2. MÉTODOS DE ENUMERACIÓN 17


Probabilidad y Estadística CAPÍTULO 1. PROBABILIDAD

de elementos, son:
{♥, ♥} {♥, ♦} {♥, ♠} {♥, ♣}
{♦, ♦} {♦, ♠} {♦, ♣}
{♠, ♠} {♠, ♣}
{♣, ♣}.
Es decir, el número de combinaciones sin repetición diferentes de 4 elementos tomados 2 a la vez es
10.
Teorema 5 – Combinaciones con repetición
El número de combinaciones con repetición diferentes de n elementos tomados k a la vez, repre-
sentada por n CR k , es
( n + k − 1) !
,
k!(n − 1)!
es decir,
( n + k − 1) !
n CR k = .
k!(n − 1)!

Ejemplo 16. Se lanzan 2 dados iguales de forma simultánea, ¿cuántos posibles resultados se puede
obtener?

Respuesta. En este experimento si en un dado se obtiene un número determinado, en el otro dado


también se puede obtener el mismo número, es decir, existen repeticiones. Es claro además que el or-
den de los dados no es relevante ya que se tiran simultáneamente. Después tenemos que determinar
el número de combinaciones con repetición de 6 elementos tomados 2 a la vez, es decir,

(6 + 2 − 1) ! 7 · 6 · 5!
6 CR 2 = = = 21.
2!(6 − 1)! 2 · 5!

En conclusión, el número de resultados posibles en el lanzamiento de dos dados lanzados simultá-


neamente es 21.

1.2.3.- P ERMUTACIONES A PARTIR UN CONJUNTO CON ELEMENTOS REPETIDOS

En ocasiones el conjunto base posee elementos repetidos y es relevante el orden en el que se


ubiquen los elementos en grupos.

Ejemplo 17. A partir del conjunto base {), ), ), e, e}, ¿cuántos grupos 5 elementos se pueden
formar a partir del conjunto base tomando en cuenta el orden?

Respuesta. Los posibles grupos de 5 elementos que se pueden formar a partir del conjunto base dado
y tomando en cuenta el orden es:

{),),),e,e} {),e,),),e} {),e,e,),)}


{),),e,),e} {),),e,e,)} {e,),),),e}
{e,e,),),)} {e,),),e,)} {e,),e,),)}
{),e,),e,)}

18 1.2. MÉTODOS DE ENUMERACIÓN


CAPÍTULO 1. PROBABILIDAD Probabilidad y Estadística

En consecuencia, se pueden formar 10 grupos distintos a partir del conjunto base dado.

Teorema 6 – Permutaciones a partir de un conjunto con elementos repetidos


Dado un conjunto de n elementos tal que existen k elementos distintos (k < n) y cada elemento
distinto se repite n1 , . . . , nk veces, el número de permutaciones con repetición de n elementos
tomados n a la vez es:
n!
.
k
∏ nj !
j =1

Ejemplo 18. A partir del conjunto base {–,–,„,„,§,Æ,Æ,Æ,Æ}, ¿cuántos grupos 9 elementos se pue-
den formar a partir del conjunto base tomando en cuenta el orden?

Respuesta. Del teorema anterior tenemos que para calcular el número de permutaciones a par de un
conjunto con elementos repetidos, así

9!
= 3 780.
2! · 2! · 1! · 4!

Es decir, el número de grupos posibles es 3 780.

A continuación, se presenta ejercicios de aplicación de la sección de enumeración.

Ejemplo 19. Se tiene una baraja de 52 naipes.

a) Si se saca una carta al azar, describa el espacio muestral en un diagrama donde el eje x sea la
denominación de la carta sacada y el eje y el palo (corazones, picas, diamantes o tréboles).

b) Si se extraen dos cartas al azar. ¿Cuál es la probabilidad de que la suma de ambas sea 7?, ¿11?,
¿4?.

c) ¿De cuántas maneras se pueden seleccionar cuatro cartas, de modo que haya una de cada palo?.

d) Si se extraen diez al azar. ¿Cuál es la probabilidad de no sacar ningún as?, ¿de sacar al menos
un as? y ¿de sacar exactamente uno?.

Solución. a) El espacio muestral esta representado por:

rs rs rs rs rs rs rs rs rs rs rs rs rs

rs rs rs rs rs rs rs rs rs rs rs rs rs

rs rs rs rs rs rs rs rs rs rs rs rs rs

rs rs rs rs rs rs rs rs rs rs rs rs rs

A 2 3 4 5 6 7 8 9 10 J Q K

1.2. MÉTODOS DE ENUMERACIÓN 19


Probabilidad y Estadística CAPÍTULO 1. PROBABILIDAD

b) Sea A el evento de que la suma de dos cartas sea 7, tenemos que las únicas formas de que la
suma sea 7 son sacar A y 6; 2 y 5 o 3 y 4. Luego, para sacar cualquiera de estas opciones es
equivalente a sacar individualmente cada carta, sin importar el orden, es decir,

4 4 44
   

1 1 0 8
= .
52 663
 

Luego,
8 8
 
P( A) = 3 =
663 221
Sea B el evento de que la suma de dos cartas sea 11, tenemos que las únicas formas de que la
suma sea 11 son sacar A y 10; 2 y 9; 3 y 8; 4 y 7 o 5 y 6. Luego, para sacar cualquiera de estas
opciones es equivalente a sacar individualmente cada carta, sin importar el orden, es decir,

8
.
663

Luego,
8 40
 
P( B) = 5 =
663 663
Sea C el evento de que la suma de dos cartas sea 4, tenemos que las únicas formas de que la
suma sea 4 son sacar As y 3, o 2 y 2. Luego, para sacar la primera opción es equivalente a sacar
individualmente cada carta, sin importar el orden, es decir,

8
.
663

Luego, para sacar 2 cartas iguales es igual a:

4 48
  

2 0 1
  =
52 221
2

Finalmente,
8 1 11
P(C ) = + =
663 221 663

c) Hay 13 cartas de cada palo, por lo que el número de formas de seleccionar 4 de modo que exista
una de cada palo.
13 13 13 13
    
= 134 = 28 561
1 1 1 1

d) La probabilidad de sacar no sacar ningún as es igual a la probabilidad de sacar las diez cartas
de las cuales ninguna es un As:
4 48
  

0 10 246
  = .
52 595
10

20 1.2. MÉTODOS DE ENUMERACIÓN


CAPÍTULO 1. PROBABILIDAD Probabilidad y Estadística

La probabilidad de sacar al menos un as es el evento complementario de no sacar ningún As:

246 349
1− = .
595 595

La probabilidad de sacar exactamente un As es:

4 48
  

1 9 656
  = .
52 1547
10

Ejemplo 20. Delegados de 10 países, incluidos Rusia, Francia, Inglaterra y Estados Unidos deben
estar sentados en una fila. ¿Cuántas formas diferentes de sentarse son posibles si el delegado francés
y el delegado inglés deben sentarse juntos y los delegados de Rusia y Estados Unidos no?

Solución. Analicemos de la siguiente manera, dividamos a los 10 delegados en 9 grupos, ya que los
delegados de Francia en Inglaterra den estar siempre juntos.

Estos grupos se pueden agrupar de 9! formas, pero en 8! · 2! los delegados de Rusia y USA están
juntos.

Ahora, hay 2! formas de agrupar a los delegados de Francia e Inglaterra, después existen

(9! − 8! · 2!)(2!) = 564 480

formas de sentar a los delegados.

1.3. P ROBABILIDAD C ONDICIONAL E I NDEPENDENCIA

Definición 11 – Probabilidad Condicional


Dados dos eventos A y B tales que P( B) > 0, se define la probabilidad del evento A condicio-
nado a B, lo que se representa por P( A| B), como

P( A ∩ B)
P( A| B) = ;
P( B)

también, se le conoce como la probabilidad de que ocurra A dado que B ha sucedido.

Ejemplo 21. En una bolsa hay 5 bolas rojas numeradas del 1 al 5; 7 bolas azules igualmente numera-
das del 1 al 7 y 3 bolas amarillas, también numeradas del 1 al 3. Si todas las bolas son equiprobables
(tienen la misma probabilidad de ser escogidas) y sean los eventos A el evento de que una bola sacada
al azar sea roja y B el evento de que la bola saca este marcada con un número par, determine:

a) la probabilidad de que ocurra A dado que B ha sucedido.

b) la probabilidad de que ocurra B dado que A ha sucedido.

1.3. PROBABILIDAD CONDICIONAL E INDEPENDENCIA 21


Probabilidad y Estadística CAPÍTULO 1. PROBABILIDAD

Solución. La probabilidad de que ocurra B es

2+3+1 2
P( B) = = ,
15 5

ya que hay 2 números pares del 1 al 5, 3 del 1 al 7 y 1 del 1 al 3. Después, determinemos la probabilidad
de que al mismo tiempo ocurra A y B, es decir, P( A ∩ B), es decir,

2
P( A ∩ B) = ,
15

ya que existen únicamente 2 bolas rojas con número par de las 15 que hay en la bolsa. Por lo tanto,

2
P( A ∩ B) 15 1
P( A| B) = = 2
= .
P( B) 5
3

La probabilidad de que ocurra el evento A se calcula de la siguiente manera:

5 1
P( A) = = ,
15 3

ya que hay 5 bolas rojas. En consecuencia,

2
P( A ∩ B) 15 2
P( B| A) = = 1
= .
P( A) 3
5

Observemos del ejemplo anterior es evidente que de forma general P( A| B) 6= P( B| A). Además,
P( A| B) 6= P( A) y P( B| A) 6= P( B). Veamos un ejemplo en que P( A| B) = P( A):

Ejemplo 22. Se tiene un dado y una moneda justa, se los lanza simultáneamente tal que A es el evento
sacar 5 o 6 en el dado y B es el evento de obtener cara en la moneda. Determine la probabilidad de
que ocurra A dado que B a sucedido.

Solución. Para determinar P( A| B) se requiere calcular P( A ∩ B) y P( B), luego,

2
P( A ∩ B) =
12

ya que existen 12 posibles resultados en el espacio muestral {1C, 2C, 3C, 4C, 5C, 6C, 1S, 2S, 3S, 4S, 5S, 6S}
y únicamente 2 cumplen con el hecho de que el dado sea 5 o 6 y la moneda sea cara. También, hay 6
posibilidades de que la moneda sea cara, entonces

6
P( B) = .
12

Finalmente,
2
P( A ∩ B) 12 1
P( A| B) = = 6
= .
P( B) 12
3

Se observa claramente que


4 1
P( A) = = .
12 3

22 1.3. PROBABILIDAD CONDICIONAL E INDEPENDENCIA


CAPÍTULO 1. PROBABILIDAD Probabilidad y Estadística

En el ejemplo anterior P( A| B) = P( A), es decir, el hecho que A ocurra es independiente de que


que B ocurra o no, en otras palabras, B no incide en la ocurrencia de A. De aquí, se tiene la siguiente
definición:
Definición 12 – Eventos Independientes
Dos eventos A y B son independientes si

P ( A | B ) = P ( A ).

De las definiciones de eventos independientes y probabilidad condicional se tiene el siguiente


teorema:
Teorema 7 – Eventos independientes
Si A y B son eventos independientes, entonces

P ( A ∩ B ) = P ( A ) P ( B ).

Demostración. Demostremos el teorema 7 se sabe que si A y B son independientes

P ( A | B ) = P ( A );

también, por definición de probabilidad condicional se tiene que

P( A ∩ B)
P( A| B) = ,
P( B)

en consecuencia,
P( A ∩ B) = P( A) P( B)

como queríamos.

Ejemplo 23. En una heladería se venden helados de 3 sabores: Vainilla (V), Chocolate (C) y Ron con
Pasas (R) en un mes determinado se cuenta el número de helados vendidos a adultos (A) y jóvenes
(J) y se resume en la siguiente tabla:

V C R
A 25 30 12
J 42 72 15

Determine:

a) La probabilidad de que una persona escoja un helado de chocolate.

b) La probabilidad de que una persona joven compre un helado.

c) La probabilidad que una persona que escogió un helado de vainilla sea un joven.

d) La probabilidad de que un adulto haya escogido un helado de Ron con Pasas.

1.3. PROBABILIDAD CONDICIONAL E INDEPENDENCIA 23


Probabilidad y Estadística CAPÍTULO 1. PROBABILIDAD

e) La probabilidad de que una persona que escogió un helado de chocolate o vainilla sea un adul-
to.

Solución. Vamos a completar la tabla con los totales.

V C R
A 25 30 12 67
J 42 72 15 129
67 102 27 196

a) La probabilidad de que una persona escoja un helado de chocolate está dada por:

102
P(C ) = ≈ 0.5204.
196

b) La probabilidad de que una persona joven compre un helado está dada por:

129
P( J ) = ≈ 0.6582.
196

c) La probabilidad que una persona que escogió un helado de vainilla sea un joven está dada por:

42
P( J ∩ V ) 196
P ( J |V ) = = 67
≈ 0.6269.
P (V ) 196

d) La probabilidad de que un adulto haya escogido un helado de Ron con Pasas está dada por:

12
P( R ∩ A) 196
P( R| A) = = 67
≈ 0.1791.
P( A) 196

e) La probabilidad de que una persona que escogió un helado de chocolate o vainilla sea un adulto
está dada por:

P( A ∩ (C ∪ V ))
P( A|C ∪ V ) =
P(C ∪ V )
P(( A ∩ C ) ∪ ( A ∩ V ))
=
P ( C ) + P (V )
P( A ∩ C ) + P( A ∩ V )
=
P ( C ) + P (V )
30 25
196 + 196
= 102 67
196 + 196

≈ 0.3254.

Los diagramas de árbol también se usan para expresar probabilidades y se puede usar para ex-
presar probabilidad condicional, por ejemplo,

Ejemplo 24. Una bolsa contiene 5 bolas rojas 3 bolas verdes y 8 bolas negras. Se sacan 3 bolas al azar
en orden. Determine:

24 1.3. PROBABILIDAD CONDICIONAL E INDEPENDENCIA


CAPÍTULO 1. PROBABILIDAD Probabilidad y Estadística

a) La probabilidad de que la primera bola sea roja.

b) La probabilidad de que la dos primeras bolas son verdes.

c) La probabilidad de que la tercera bola sea negra dado que las dos primeras fueron rojas.

d) La probabilidad de que la primera bola sea verde, la segunda negra y la última roja.

e) La probabilidad de que la segunda bola sea negra o verde dado que la primera fue roja o verde.

f ) La probabilidad de que se saque las 2 primeras bolas sean verde y negra, sin importar el orden
en que se saquen.

Solución. Usaremos R, V y N para representar los eventos de sacar una bola roja, verde y negra
respectivamente. Y, usaremos subíndices en estas variables para identificar en que lugar salió la bola.

a) La probabilidad de que la primera bola sea roja está dada por:

5
P ( R1 ) =
16

ya que, hay 5 bolas rojas y en total hay 16.

b) La probabilidad de que la dos primeras bolas son verdes está dada por:

2 3 1
P(V1 ∩ V2 ) = P(V2 |V1 ) P(V1 ) = · =
15 16 40

ya que, hay 3 bolas verdes de 16 antes de sacar la primera bola; cuando se saca la segunda bola
ya solo quedan 2 de 15, porque ya se ha sacado una verde antes.

2
15 V2
3 V1
16

c) La probabilidad de que la tercera bola sea negra dado que las dos primeras fueron rojas está
dada por:
8
P( N3 |( R1 ∩ R2 )) =
14
ya que, no se ha sacado ninguna bola negra (es decir, aún hay 8) en los primeros intentos y ya
solo quedan 14 bolas en la bolsa.
8
14 N3
4
15 R2
5 R1
16

d) La probabilidad de que la primera bola sea verde, la segunda negra y la última roja está dada
por:

P(V1 ∩ N2 ∩ R3 ) = P( N2 ∩ R3 |V1 ) P(V1 )

1.3. PROBABILIDAD CONDICIONAL E INDEPENDENCIA 25


Probabilidad y Estadística CAPÍTULO 1. PROBABILIDAD

= P( R3 |( N2 ∩ V1 )) P( N2 |V1 ) P(V1 )
5 8 3
= · ·
14 15 16
1
=
28

ya que, primero se saca una bola verde, en ese momento hay 3 de 16 bolas; luego, se saca
una bola negra, es decir, hay 8 de 15. Finalmente, se saca una roja de las 5 y en la bola hay
únicamente 14.
5
14 R3
8
15 N2
3 V1
16

e) La probabilidad de que la segunda bola sea negra o verde dado que la primera fue roja o verde
está dada por:

P(( N2 ∪ V2 )|( R1 ∪ V1 )) = P( N2 ∩ R1 ) + P(V2 ∩ R1 ) + P( N2 ∩ V1 ) + P(V2 ∩ V1 )


= P( N2 | R1 ) P( R1 ) + P(V2 | R1 ) P( R1 ) + P( N2 |V1 ) P(V1 ) + P(V2 |V1 ) P(V1 )
8 5 3 5 8 3 2 3
= · + · + · + ·
15 16 15 16 15 16 15 16
17
= .
48

Se detalla a continuación el diagrama de árbol:

8
15 N2
5 R1
16 3 V2
15
8
3 15 N2
16 V1
2 V2
15

f ) La probabilidad de que se saque las 2 primeras bolas sean verde y negra, sin importar el orden
en que se saquen está dada por:

P(V ∩ N ) = P(V1 ∩ N2 ) + P( N1 ∩ V2 )
= P( N2 |V1 ) P(V1 ) + P(V2 | N1 ) P( N1 )
8 3 3 8
= · + ·
15 16 15 16
1
= .
5

Se detalla a continuación el diagrama de árbol:

8
15 N2
3 V1
16

8
16 N1
3 V2
15

26 1.3. PROBABILIDAD CONDICIONAL E INDEPENDENCIA


CAPÍTULO 1. PROBABILIDAD Probabilidad y Estadística

Observemos que las ramas de los árboles se ubica siempre la probabilidad condicional del evento
siguiente dado el anterior o anteriores; y el producto de los valores de estas ramas es igual la proba-
bilidad de la intersección de los eventos de la rama en cuestión.

1.4. P ROBABILIDAD T OTAL Y R EGLA DE B AYES

Los teoremas que detallaremos a continuación, son de utilidad en muchos modelos estadísticos
tales como: modelos factoriales discriminantes, teoría de decisiones, e incluso en redes neuronales
que son la base de la inteligencia artificial.

Para ello, tomemos un espacio muestral Ω tal que se puede partir en n eventos mutuamente
excluyentes, entonces si B1 , B2 , . . . , Bn son los estos n eventos mutuamente excluyentes, por lo tanto,

n
[ n
Bk = Ω y ∑ P( Bk ) = 1.
k =1 k =1

Después, dado un evento A ⊆ Ω cualesquiera, entonces

A = A∩Ω
!
n
[
= A∩ Bk
k =1
n
[
= A ∩ Bk ;
k =1

tome en cuenta que A ∩ B1 , A ∩ B2 , . . . A ∩ Bn son disjuntos, es decir, son mutuamente excluyentes.


En consecuencia,
!
n
[
P( A) = P A ∩ Bk
k =1
n
= ∑ P( A ∩ Bk ).
k =1

Finalmente, por la definición de probabilidad condicional se tiene el siguiente teorema:


Teorema 8 – Probabilidad Total
n
[
Dados B1 , B2 , . . . , Bn eventos mutuamente excluyentes tal que Bk = Ω, se tiene que
k =1

n
P( A) = ∑ P( A| Bk ) P( Bk ).
k =1

Ejemplo 25. En una mesa se ubican 3 pistolas las cuales tienen una probabilidad de acertar en un
blanco de 0.4, 0.8 y 0.5 respectivamente. Determine la probabilidad de acertar en el blanco al escoger
un pistola al azar de la mesa y disparar.

Solución. Tomemos en cuenta que la probabilidad de tomar cualquiera de las pistolas es 13 . Si repre-

1.4. PROBABILIDAD TOTAL Y REGLA DE BAYES 27


Probabilidad y Estadística CAPÍTULO 1. PROBABILIDAD

sentamos los eventos de escoger la pistola 1, 2 y 3 por B1 , B2 y B3 respectivamente y evento de acertar


al blanco por A, se tiene que

P( A| B1 ) = 0.4, P( A| B2 ) = 0.8 y P( A| B3 ) = 0.5.

En consecuencia,

P( A) = P( A| B1 ) P( B1 ) + P( A| B2 ) P( B2 ) + P( A| B3 ) P( B3 )
1 1 1
= 0.4 · + 0.8 · + 0.5 ·
3 3 3
17
=
30
≈ 0.567.

De este teorema y la definición de probabilidad condicional se deduce el siguiente teorema:


Teorema 9 – Regla de Bayes
n
[
Dados B1 , B2 , . . . , Bn eventos mutuamente excluyentes tal que Bk = Ω, se tiene que
k =1

P( A| Bk ) P( Bk )
P( Bk | A) = n ,
∑ P( A| Bj ) P( Bj )
j =1

para todo k ∈ {1, . . . , n}.

Ejemplo 26. Una compañía telefónica regional opera tres estaciones de retransmisión idénticas en
diferentes sitios. Durante un periodo de un año, el número de desperfectos reportados por cada
estación y las causas se muestran a continuación.

Estaciones A B C
Problemas con el suministro de electricidad 2 1 1
Desperfecto de la computadora 4 3 2
Fallas del equipo eléctrico 5 4 2
Fallas ocasionadas por otros errores humanos 7 7 5

Suponga que se reporta una falla y que se encuentra que fue ocasionada por otros errores huma-
nos. ¿Cuál es la probabilidad de que provenga de la estación C?

Solución. Supongamos que H representa las fallas ocasionadas por otros errores humanos y que A, B
y C representan las fallas ocurridas en las estaciones A, B y C respectivamente.

Para determinar cuál es la probabilidad de que la falla provenga de la estación C dado que fue

28 1.4. PROBABILIDAD TOTAL Y REGLA DE BAYES


CAPÍTULO 1. PROBABILIDAD Probabilidad y Estadística

ocasionada por otros errores humanos, P(C | H ), vamos a utilizar la regla de Bayes, luego,

P( H |C ) · P(C )
P(C | H ) = ,
P( H | A) · P( A) + P( H | B) · P( B) + P( H |C ) · P(C )

donde,
18 15 10
P( A) = , P( B) = y P(C ) = .
43 43 43
7 7 5
P( H | A) = , P( H | B) = y ( H |C ) =
18 15 10

5 10
·
P(C | H ) = 10 43
7 18 7 15 5 10
· + · + ·
18 43 15 43 10 43

≈ 0.26

1.4. PROBABILIDAD TOTAL Y REGLA DE BAYES 29


2. VARIABLE A LEATORIA

2.1. I NTRODUCCIÓN

En temas anteriores, se han estudiado las variables estadísticas, que representaban el conjunto de
resultados observados al realizar un experimento aleatorio, presentando para cada valor su frecuen-
cia, esto es, el número de veces que sucede cada resultado.

Sin embargo, antes de realizar un experimento aleatorio no se puede predecir con exactitud qué
resultados se van a observar, sino que, como mucho, se puede describir cuales van a ser los resultados
posibles y con qué probabilidad puede ocurrir cada uno de ellos. En muchas ocasiones, nos interesa
más que el resultado completo del experimento, una función real de los resultados.

Tales funciones, cuyos valores dependen de los posibles resultados de un experimento aleatorio,
se llaman variables aleatorias. En todo proceso de observación o experimento aleatorio podemos
definir una variable aleatoria asignando a cada resultado del experimento un número:

Si el resultado del experimento es numérico porque contamos o medimos, los posibles valores
de la variable coinciden con los resultados del experimento.

Si el resultado del experimento es cualitativo, hacemos corresponder a cada resultado un nú-


mero siguiendo algún criterio.

Llamamos variables aleatorias a aquellas funciones cuyos valores dependen de los resultados de
un experimento aleatorio. Más precisamente:
Definición 13
Sea Ω un espacio muestral, se dice que X es una variable aleatoria, si es una función de Ω en R,
tal que,
X : Ω −→ R
ω 7−→ X (ω )

Es decir, una variable aleatoria es un medio para describir los resultados del espacio muestral.
Las variables aleatorias se clasifican en variables aleatorias discretas y variables aleatorias continuas.

30
CAPÍTULO 2. VARIABLE ALEATORIA Probabilidad y Estadística

2.2. VARIABLES ALEATORIAS DISCRETAS

Definición 14
Sea Ω un espacio muestral, se dice que X es un variable aleatoria discreta, si img( X ) es un con-
junto finito o numerable.

Ejemplo 27. Determine una variable aleatoria tal que identifique si una persona que visita un alma-
cén lo atienden inmediatamente o le piden que espere de tal manera que la variable tome el valor de
uno cuando sea atendido o cero cuando le piden que espere.

Solución. El espacio muestral sería Ω = { A, E} donde A representa ser atendido y E tener que espe-
rar, podemos definir la variable aleatoria

X : Ω → R, donde X ( A) = 1 y X ( E) = 0.

Ejemplo 28. Determine una variable aleatoria para el experimento de lanzar una moneda cuatro
veces y contar el número de caras obtenidas.

Solución. El espacio muestral sería

Ω = {CCCC, CCCS, CCSS, CSSS, SCCC, . . . , SSSS}

tomamos como variable aleatoria


X: Ω → R

donde 



 0 si ω ∈ {SSSS},

1 si ω ∈ {CSSS, SCSS, SSCS, SSSC },






X (ω ) = 2 si ω ∈ {CCSS, CSCS, CSSC, . . . , SSCC }


3 si ω ∈ {CCCS, CCSC, CSCC, SCCC },







4

si ω ∈ {CCCC }.

es decir, X representa el número de caras obtenidas.

Para definir a una variable aleatoria discreta, debemos indicar el valor que toma la variable en
cada elemento del espacio muestral.
Definición 15 – Probabilidad
Sea X : Ω → R una variable aleatoria discreta, se dice que la probabilidad de x ∈ R bajo X,
notada por P ( X = x ), se define como

 P ( X (τ ) = x |τ ∈ Ω) si x ∈ img( X ),
P (X = x) =
0 si x 6∈ img( X ).

2.2. VARIABLES ALEATORIAS DISCRETAS 31


Probabilidad y Estadística CAPÍTULO 2. VARIABLE ALEATORIA

Es decir, si x es igual a algún elemento de la imagen de X, P ( X = x ) es igual a la probabilidad del


evento de los posibles resultados del espacio muestral que tiene a x como imagen. Si x no pertenece
a la imagen de X, entonces representa al evento vacío, por lo cual, su probabilidad es nula.
Definición 16 – Función de masa de probabilidad
Sea X una variable aleatoria discreta, se dice que p es la función de masa de probabilidad de X si

p : R −→ R
x 7−→ p( x ) = P ( X = x )

Ejemplo 29. Se lanzan dos monedas justas y se cuenta el número de caras que aparecen. Determine
la función de masa de probabilidad para este experimento y trace la gráfica correspondiente.

Solución. Sea C si la moneda cayó en cara y S si la moneda cayó en sello. El espacio muestral del
experimento es
Ω = {CC, CS, SC, SS}.

Tomemos X variable aleatoria que representa la cantidad de caras que aparecieron, entonces

X : Ω → R,

donde, 


 0 si ω = {SS},

X (ω ) = 1 si ω = {CS, SC },


2 si ω = {CC }.

La función de masa de probabilidad está dada entonces por

1

 si x = 0,
4




2


P (X = x) = si x = 1,


 4
1


si x = 2.

4
1
2
b

1 1
4 4
b b

| | |

0 1 2
Teorema 1
Sea X una variable aleatoria discreta y Ω su espacio muestral. La función de probabilidad debe
cumplir las propiedades:

1. 0 6 p( x j ) 6 1

32 2.2. VARIABLES ALEATORIAS DISCRETAS


CAPÍTULO 2. VARIABLE ALEATORIA Probabilidad y Estadística

n
2. ∑ p( x j ) = 1
j =1

donde |Ω| = n, x j ∈ img( X ) y j ∈ {1, . . . , n}.

Definición 17 – Función de distribución acumulada


Dada una variable aleatoria discreta X con función de probabilidad p, se dice que F es la función
de distribución acumulada de X a toda función de la forma

F : R −→ R
x 7−→ F ( x ) = P ( X 6 x )

es decir,
F(x) = ∑ p ( t ).
t6 x

Ejemplo 30. Dada la siguiente tabla:

X P (X = x)
1 0.20
2 0.25
3 0.15
4 0.40

1. Compruebe si es una distribución de probabilidad.

2. Calcule P ( X < 3)

Solución.

1. Comprobamos que:

a) Cada una de las probabilidades está entre cero y uno.


b) Al sumar las probabilidades obtenemos uno.

Como se cumplen ambas propiedades concluimos que es una distribución de probabilidad.

2. P ( X < 3) = P ( X = 1) + P ( X = 2) = 0.20 + 0.25 = 0.45.

Teorema 2
Si X es una variable aleatoria discreta, donde

img( X ) = { x1 , x2 , . . . , xn },

p la función de masa de probabilidad y F la función de distribución acumulada, entonces:

1. Si se conoce p, para cada x ∈ R, F ( x ) = ∑ p ( t ).


t6 x

2.2. VARIABLES ALEATORIAS DISCRETAS 33


Probabilidad y Estadística CAPÍTULO 2. VARIABLE ALEATORIA

2. Si se conoce F,

 F ( x j ) − F ( x j −1 ) si x = x j ,
p( x ) = P ( X = x ) =
0 si x ∈
/ img( X ).

con j ∈ {1, 2, . . . , n}.

Ejemplo 31. Dada la siguiente tabla

X P (X = x)
1 0.20
2 0.25
3 0.15
4 0.40

1. Calcule P ( X < 2)

2. Calcule P ( X > 2)

Solución. Tenemos
P ( X < 2) = P ( X = 1) = 0.20

Luego,
P ( X > 2) = P ( X = 2) + P ( X = 3) + P ( X = 4) = 0.80;

o también,
P ( X > 2) = 1 − P ( X < 2) = 1 − 0.20 = 0.80.

Ejemplo 32. Se lanza un dado “justo” y se apunta el número que se observa en la cara superior. De
acuerdo a esto:

1. Determine la función de densidad de probabilidad.

2. Calcule la probabilidad de que el número sea un número par.

3. Calcule la probabilidad de que el número sea menor que tres.

Solución. Como es un dado “justo”, cada una de las caras tiene la misma probabilidad de “salir”. Sea
X la variable aleatoria que representa el número que aparece en la cara superior.

34 2.2. VARIABLES ALEATORIAS DISCRETAS


CAPÍTULO 2. VARIABLE ALEATORIA Probabilidad y Estadística

1. La función de densidad de probabilidad está definida por:



1



 6 si x = 1,




1
si x = 2,


6







 61 si x = 3,



P (X = x) =
1
si x = 4,


6







1
si x = 5,


6







1

si x = 6.

6

2. La probabilidad de que sea un número par se calcula como:

P ( X sea par) = P ( X = 2 o X = 4 o X = 6)
= P ( X = 2) + P ( X = 4) + P ( X = 6)
1 1 1 1
= + + = .
6 6 6 2

3. La probabilidad de que el número sea menor que tres se determina por:

P ( X < 3) = P ( X = 1 o X = 2)
= P ( X = 1) + P ( X = 2)
1 1
= +
6 6
2 1
= = .
6 3

2.3. VARIABLES ALEATORIAS CONTINUAS

En el caso de una variable continua, los valores numéricos provienen de un intervalo continuo.
Definición 18 – Variable aleatoria continua
Sea Ω un espacio muestral, se dice que X es un variable aleatoria continua, si img( X ) es un
intervalo de R.

Ejemplo 33. Determine una variable aleatoria que indica el número de mílilitros que toma una per-
sona en un día.

Solución. Si la variable aleatoria que indica la cantidad de mililitros que tomó una persona durante
un día es
X : Ω → R,

2.3. VARIABLES ALEATORIAS CONTINUAS 35


Probabilidad y Estadística CAPÍTULO 2. VARIABLE ALEATORIA

donde la imagen de X sería


R + ∪ {0} y X (ω ) = x

para todo ω ∈ Ω y x ∈ img( X ).

El espacio muestral representaría todos los volúmenes de agua consumidos por el individuo en
el día.

Ejemplo 34. Determine una variable aleatoria que indica el kilometraje recorrido por una persona en
un día en su auto.

Solución. Si la variable aleatoria que indica el kilometraje recorrido por una persona en un día en su
auto es
X : Ω → R,

donde la imagen de X sería


R + ∪ {0} y X (ω ) = x

para todo ω ∈ Ω y x ∈ img( X ).

El espacio muestral es un poco más difícil de describir y representaría todas las posibles rutas que
puedo haber tomado el individuo.

Definición 19 – Función de densidad de probabilidad


Sea X una variable aleatoria continua, se dice que f es la función de densidad probabilidad de X
si para todo a, b ∈ R donde a 6 b se tiene que
Z b
P ( a 6 X 6 b) = f ( x ) dx
a

la cual verifica:

1. f (t) > 0 para todo t ∈ R,


Z +∞
2. f ( x ) dx = 1.
−∞

Es decir, la probabilidad de que X tome valores dentro del intervalo [ a, b] es igual al área bajo la
curva f que también suele ser llamada curva de densidad.
Teorema 3
Sea X una variable aleatoria continua, entonces

1. P ( X = x ) = 0.

2. P ( a < X < b) = P ( a 6 X < b) = P ( a < X 6 b) = P ( a 6 X 6 b)

Ejemplo 35. Sea la función de densidad


 √
x si 0 ≤ x ≤ 2,
f (x) =
0 en otro caso .

36 2.3. VARIABLES ALEATORIAS CONTINUAS


CAPÍTULO 2. VARIABLE ALEATORIA Probabilidad y Estadística

1. Trace la gráfica de f .

2. Calcule P (0.5 < x < 1)

Solución. La gráfica de la función f es


2

−1 0 1 2

Z 1
P (0.5 < x < 1) = x dx = 0.375
0.5

Definición 20 – Función de distribución


Dada una variable aleatoria continua X con función de densidad de probabilidad f , se dice que
F es la función de distribución acumulada de X, a la función

F : R −→ R
Z x
x 7−→ F ( x ) = P ( X 6 x ) = f (t) dt.
−∞

Teorema 4
Sea X una variable aleatoria continua y su función de distribución F y f su función de densidad,
se verifica que Z x
f ( x) = F′ ( x) y F(x) = f (t) dt.
−∞

Teorema 5
Sea F la función de distribución de una variable aleatoria continua X, entonces

1. F es creciente.

2. Dado a ∈ R, P( X > a) = 1 − F ( a)

3. Dados a, b ∈ R tal que a < b, entonces P ( a 6 X 6 b) = F (b) − F ( a)

2.4. M EDIDAS CARACTERÍSTICAS DE UNA VARIABLE ALEATORIA

2.4.1.- M EDIDAS DE CENTRALIZACIÓN

Definición 21 – Esperanza Matemática


Si X es una variable aleatoria discreta, se dice que la esperanza matemática de X, representada
por E ( X ), está definida por
E (X) = ∑ x p( x )
x ∈img ( X )

donde p es la función de masa de probabilidad de X.

2.4. MEDIDAS CARACTERÍSTICAS DE UNA VARIABLE ALEATORIA 37


Probabilidad y Estadística CAPÍTULO 2. VARIABLE ALEATORIA

Si X es una variable aleatoria continua, la esperanza matemática de X está dada por


Z +∞
E (X) = t f (t) dt
−∞

donde f es la función de densidad de probabilidad de X.

Observación. También se suele representar a la esperanza matemática mediante la letra griega µ.

Ejemplo 36. Continuando con el ejemplo 29 y dada la función de masa de probabilidad de X definida
por
1

 si x = 0,
4




2


P (X = x) = 4 si x = 1,

1



si x = 2.


4

Calcule la media de número de caras que pueden obtenerse cuando se lanzan dos monedas.

Solución. Se tiene que

µ = E (X)
2
= ∑ xp( x)
x =0

= (0)(0.25) + (1)(0.5) + (2)(0.25)


= 1.

La media de la variable X significa que al realizar este experimento en muchas ocasiones en promedio
el número de caras obtenidas es 1.

Ejemplo 37. Sea la función de densidad de la variable aleatoria X definida por


 √
x si 0 6 x 6 2,
f (x) =
0 en otro caso.

Determine la media.

Solución.

µ = E (X)
Z +∞
= x f ( x ) dx
−∞
Z √2
= x · x dx
0

38 2.4. MEDIDAS CARACTERÍSTICAS DE UNA VARIABLE ALEATORIA


CAPÍTULO 2. VARIABLE ALEATORIA Probabilidad y Estadística


2
x3
=
2 0
√ 3
2
= −0
3
≈ 0.942809

La media de la variable X significa que al realizar el experimento muchas veces en promedio el valor
que tomará la variable aleatoria será 0.9428.

Teorema 6
Si X es una variable aleatoria, entonces la esperanza de la variable aleatoria g( X ) es

E( g( X )) = ∑ g( x ) p( x )
x ∈img( X )

si X es discreta con función de masa de probabilidad p; y


Z +∞
E( g( X )) = g( x ) p( x )
−∞

si X es continua con función de densidad f .

Teorema 7
Sean X y Y variables aleatorias y α ∈ R, se tiene que

1. E (α) = α

2. E ( X + Y ) = E ( X ) + E (Y )

3. E (α + X ) = α + E ( X )

4. E (αX ) = αE ( X )

2.4.2.- M EDIDAS DE DISPERSIÓN

Definición 22 – Varianza
Si X es una variable aleatoria discreta, se dice que la varianza de X, representada por V ( X ), está
definida por
V (x) = ∑ ( x − µ )2 p ( x ),
x ∈img( X )

donde p es la función de masa de probabilidad de X y µ es la esperanza de X.


Si X es una variable aleatoria continua, la varianza de X está dada por
Z +∞
V (X) = (t − µ)2 f (t) dt,
−∞

donde f es la función de densidad de X y µ es la esperanza de X.

2.4. MEDIDAS CARACTERÍSTICAS DE UNA VARIABLE ALEATORIA 39


Probabilidad y Estadística CAPÍTULO 2. VARIABLE ALEATORIA

La desviación estándar de X, que representaremos por σX , se define por


q
σX = V ( X ).

Ejemplo 38. Continuando con el ejemplo 29 y dada la función de masa de probabilidad de X definida
por:
1

 si x = 0,
4




2


P (X = x) = 4 si x = 1,

1



si x = 2.


4

Calcule la varianza del número de caras que pueden obtenerse cuando se lanzan dos monedas.

Solución. Se tiene que,

σ2 = V ( X )
2
= ∑ ( x − µ )2 p ( x )
x =0

= (0 − 1)2 (0.25) + (1 − 1)2 (0.5) + (2 − 1)2 (0.25)


= 0.5

Teorema 8
Si X es una variable aleatoria, entonces la varianza de la variable aleatoria g( X ) es
 2
V ( g( X )) = ∑ g( x ) − E( g( X )) p( x )
x ∈img( X )

si X es discreta con función de masa de probabilidad p; y


Z +∞  2
V ( g( X )) = g( x ) − E( g( X )) f (x)
−∞

si X es continua con función de densidad f .

Definición 23 – Variables aleatorias estadísticamente independientes


Dos variables aleatorias X y Y con función de densidad de probabilidad conjunta h y funciones
de densidad marginales f y g, respectivamente son estadísticamente independientes si para
todo x ∈ img( X ) y y ∈ img(Y )
h( x, y) = f ( x ) g(y).

Teorema 9
Sean X y Y variables aleatorias y α ∈ R, se tiene que

1. V ( X ) = E X 2 − ( E ( X ))2


40 2.4. MEDIDAS CARACTERÍSTICAS DE UNA VARIABLE ALEATORIA


CAPÍTULO 2. VARIABLE ALEATORIA Probabilidad y Estadística

2. V (α) = 0

3. Si X y Y son variables aleatorias independientes, V ( X + Y ) = V ( X ) + V (Y )

4. V (α + X ) = V ( X )

5. V (αX ) = α2 V ( X )

Vamos a probar la primera proposición para una variable aleatoria discreta.

Demostración.

V (X) = ∑ ( x − µ )2 p ( x )
x ∈img( X )

= ∑ x2 p( x ) − 2µxp( x ) + µ2 p( x )
x ∈img( X )

= ∑ x2 p( x ) − 2µ ∑ xp( x ) + µ ∑ p( x )
x ∈img( X ) x ∈img( X ) x ∈img( X )

= E( X 2 ) − 2E( X ) E( X ) + E( X ) E( X )
= E( X 2 ) − ( E( X ))2

Ejemplo 39. Sea la función de densidad de la variable aleatoria X definida por


 √
x si 0 ≤ x ≤ 2
f (x) =
0 en otro caso.

Determine la varianza y la distribución estándar.

Solución. Se tiene que,

σ2 = V ( X )
= E X 2 − ( E ( X ))2


Z √2 √ 3
!2
2 2
= x f ( x ) dx −
0 3
Z √2
8
= x2 dx −
0 9

2
x4 8
= −
4 0 9
4 8
= −0−
4 9
1
=
9
≈ 0.1111,

de donde σ = 0.1111 = 0.3333.

2.4. MEDIDAS CARACTERÍSTICAS DE UNA VARIABLE ALEATORIA 41


Probabilidad y Estadística CAPÍTULO 2. VARIABLE ALEATORIA

Ejemplo 40. Consideremos el experimento aleatorio de lazar una moneda dos veces, en el cual no-
taremos con “C” cuando salga cara y “S” cuando salga sello, con lo cual el espacio muestral estará
representado por
Ω = {CC, SC, CS, SS} .

Existen varias variables aleatorias que se pueden construir en base a Ω, en particular, construya-
mos la variable aleatoria X que cuenta el número de caras obtenidas después de lanzar dos veces la
moneda, es decir,
X : Ω → {0, 1, 2}

Notemos que existe igual probabilidad de obtener “CC” o “SC”, con eso en mente vamos a cons-
truir la función de densidad, donde

1
P( X = 0) = P({SS}) =
4
1 1 1
P( X = 1) = P({CS} ∪ {SC }) = + =
4 4 2
1
P( X = 2) = P({CC }) =
4

es decir, 
1
si x = 0
4



p( x ) = 1
2 si x = 1


1
si x = 2

4

Comprobamos que se verifica que

2
1 1 1
∑ p( x ) = 4 + 2 + 4 = 1
x =0

La función de distribución va estar dada por



1
4

 si x ≤ 0

F(x) = 3
4 si x ≤ 1


1 si x ≤ 2

Para analizar la variable aleatoria, calculamos:

2
E( X ) = ∑ xp( x)
x =0

= 0 · p (0) + 1 · p (1) + 2 · p (2)


1 1
= 0+ +2·
2 4
=1=µ

42 2.4. MEDIDAS CARACTERÍSTICAS DE UNA VARIABLE ALEATORIA


CAPÍTULO 2. VARIABLE ALEATORIA Probabilidad y Estadística

2
V (X) = ∑ ( x − µ )2 p ( x )
x =0

= (0 − 1)2 p (0) + (1 − 1)2 p (1) + (2 − 1)2 p (2)


1 1
= 1· +0+1·
4 4
1
= = σ2 .
2

Ejemplo 41. La distribución de la cantidad de grava (en toneladas) vendida por una compañía de
materiales de construcción en una semana dada es una variable continua aleatoria X con función de
densidad de probabilidad definida por
3
 (1 − x 2 ) si 0 ≤ x ≤ 1,
f (x) = 2
0 en otro caso.

La función de distribución acumulada de las ventas esta definida por

3
Z x
F(x) = (1 − y2 ) dy
0 2
3
3 y3

= y−
2 3 0
3 x3
 
= x−
2 3

para todo x ∈ [0, 1]. Con ello se tiene que


Z +∞
E( X ) = x f ( x ) dx
−∞
Z 1
3
= x · (1 − x2 ) dx
0 2
Z 1
3
= ( x − x3 ) dx
2 0
1
3 x2 x4

= −
2 2 4 0
3
= .
8

Si calculamos además,
Z +∞
E( X 2 ) = x2 f ( x ) dx
−∞
Z 1
3
= x2 (1 − x2 ) dx
0 2
Z 1
3
= ( x2 − x4 ) dx
2 0
1
= ,
5

2.4. MEDIDAS CARACTERÍSTICAS DE UNA VARIABLE ALEATORIA 43


Probabilidad y Estadística CAPÍTULO 2. VARIABLE ALEATORIA

se tiene que
 2
1 3
V (X) = −
5 8
19
=
320
≈ 0.0593

y
σX ≈ 0.2437.

2.4.3.- P ERCENTILES DE UNA DISTRIBUCIÓN

Definición 24 – Percentiles
Si X es una variable aleatoria discreta, F su función de distribución acumulada y q ∈ [0, 1]. El
percentil 100q es
xq = máx{ x ∈ img( X ) : F ( x ) 6 q}.

Si X es una variable aleatoria continua, F su función de distribución acumulada y q ∈ [0, 1]. El


percentil 100q es el valor xq tal que
F ( xq ) = q.

Ejemplo 42. La proporción de personas que responden a cierta encuesta enviada por correo es una
variable aleatoria continua X que tiene la función de densidad

 2( x + 2)

si 0 < x < 1

f (x) = 5
0

en otro caso.

Encuentre la mediana de la proporción de personas que responden a dicha encuesta.

Solución. Para la mediana tenemos que q = 0.5 por tanto, vamos a buscar el valor x0.5 talque

F ( x0.5 ) = 0.5,

luego,

2( x + 2) 1
Z x0.5
dx = 0.5 ≡ · x0.5 · ( x0.5 + 4) = 0.5
0 5 5
2
≡ x0.5 + 4x0.5 − 2.5 = 0
≡ x0.5 ≈ −4.55 ∨ x0.5 ≈ 0.55.

La mediana es igual a 0.55, descartamos el número negativo pues no pertenece al dominio. En este
contexto, la mediana representa que la proporción de personas que responden una encuesta es menor
o igual 55 % en el 50 % de las veces que se realice la encuesta.

44 2.4. MEDIDAS CARACTERÍSTICAS DE UNA VARIABLE ALEATORIA


CAPÍTULO 2. VARIABLE ALEATORIA Probabilidad y Estadística

Los cuartiles dividen a la población en cuatro partes iguales


Definición 25 – Cuartiles
Los cuartiles, representados por Qk con k ∈ {1, 2, 3} dividen a la distribución en cuatro partes
iguales. Se definen como el percentil con q igual a 0.25, 0.5 y 0.75 respectivamente, es decir,

1. Q1 = x0.25 ,

2. Q2 = x0.50 , también llamada mediana.

3. Q3 = x0.75 .

Definición 26
El rango intercuartílico representa la zona en la cual se encuentra el 50 % de la probabilidad y
representado por RIQ es
RIQ = Q3 − Q1

Observación. Las distribuciones simétricas verifican

Q2 − Q1 = Q3 − Q2 .

2.4.4.- O TRAS MEDIDAS CARACTERÍSTICAS

Definición 27 – Momento alrededor del origen


Dado k ∈ N. Definimos el momento de orden k alrededor del origen, y lo representaremos por
µk ,

1. de una variable discreta


µk = ∑ x k p ( x );
x ∈img( X )

2. de una variable continua Z +∞


µk = x k f ( x ) dx.
−∞

Tomemos en cuenta que para cada k ∈ N,

E( X k ) = µk .

Definición 28 – Momento alrededor de la media


Dado k ∈ N. Definimos el momento de orden k alrededor de la media, y lo representaremos por
mk ,

1. de una variable discreta


mk = ∑ ( x − µ ) k p ( x );
x ∈img( X )

2.4. MEDIDAS CARACTERÍSTICAS DE UNA VARIABLE ALEATORIA 45


Probabilidad y Estadística CAPÍTULO 2. VARIABLE ALEATORIA

2. de una variable continua Z +∞


mk = ( x − µ)k f ( x ) dx.
−∞

Por ejemplo, el momento de orden 2 respecto a la media es la varianza de una variable aleatoria
X. Es decir,
m2 = σ 2 .

Definición 29 – Coeficiente de asimetría


El coeficiente de asimetría está definido por

m3
As = .
σ3
Definición 30 – Coeficiente de apuntalamiento
El coeficiente de apuntalamiento está definido por

m4
Ap = .
σ4
Definición 31 – Coeficiente de variación
El coeficiente de variación está definido por

σ
CV = .
|µ|

Ejemplo 43. Sea X una variable aleatoria continua cuya función de densidad es

1

si − 1 < x ≤ 3

f (x) = 4
0

en otro caso.

Determine el coeficiente de asimetría y apuntalamiento de la variable X.

Coeficiente de asimetría Determinemos la media, es decir,

µ1 = E ( X ),

luego,
Z 3  
1
Z +∞
1
µ1 = x f ( x ) dx = x = 1.
−∞ −1 4
Ahora, determinemos la varianza, es decir,

m2 = σ 2 .

luego,
Z 3
1 4
Z +∞  
m2 = ( x − µ)2 f ( x ) dx = ( x − 1)2 dx = ;
−∞ −1 4 3

46 2.4. MEDIDAS CARACTERÍSTICAS DE UNA VARIABLE ALEATORIA


CAPÍTULO 2. VARIABLE ALEATORIA Probabilidad y Estadística

de donde, r
4
σ= .
3
Después,
Z 3
1
Z +∞  
3 3
m3 = ( x − µ) f ( x ) dx = ( x − 1) dx = 0.
−∞ −1 4
En conclusión,
m3
As = = 0.
σ3
La distribución de la variable aleatoria X es simétrica.

Coeficiente de apuntalamiento
Z 3
1 16
Z +∞  
4 4
m4 = ( x − µ) f ( x ) dx = ( x − 1) dx = .
−∞ −1 4 5

Por lo tanto,
16
m4 5 9
Ap = 4 =
σ r !4 = 5 .
4
3

La concentración de la variable aleatoria X es de forma leptocúrtica.

2.4. MEDIDAS CARACTERÍSTICAS DE UNA VARIABLE ALEATORIA 47


3. D ISTRIBUCIONES D ISCRETAS

L EYES DE PROBABILIDAD PARA VARIABLES DISCRETAS

3.1. L EY DE B ERNOULLI

Bernoulli, es el esquema más simple de las leyes de probabilidad discretas y consiste en lo si-
guiente:

Se realiza un experimento, sobre el cual se plantea si ocurre o no un cierto evento.

Así, este es un experimento donde se tienen dos posibles resultados:

(I) ocurre el evento, y;

(II) no ocurre el evento.

Cuando ocurre el evento, se dice que se tiene un éxito (E), mientras que, cuando no ocurre el evento,
se dice que se tiene un fracaso (F).

Sea X, la variable aleatoria discreta de Bernoulli que cuenta el número de éxitos que se obtienen
del experimento. Como tal puede tomar dos valores 0 y 1, equivalente a fracaso y éxito respectiva-
mente.

Por ejemplo, se lanza un dado, y se plantea el evento que salga la cara marcada con el número
cuatro. Si sale el número cuatro, se dice que se tiene un éxito, en caso contrario (si sale el uno o el dos
o el tres o el cinco o el seis), se tiene un fracaso.

Bajo este esquema se notan las probabilidades de éxito y fracaso, por:

P(éxito) = P( E) = P( X = 1) = p,

P(fracaso) = P( F ) = P( X = 0) = q,

donde p + q = 1.

Estas probabilidades p y q representan la ley de probabilidad, en este caso Ley Bernoulli de


probabilidades de la variable aleatoria discreta X dado por:

P( X = x ) = p x q1− x , x ∈ {0, 1}

48
CAPÍTULO 3. DISTRIBUCIONES DISCRETAS Probabilidad y Estadística

Para el ejemplo planteado, se tiene un éxito si sale la cara marcada con el número cuatro, entonces:

1
P( E) = p = 6 (por la definición básica de probabilidad), y
5
P( F ) = q = 6 (ya que p + q = 1).

Veamos la tendencia central y la dispersión de esta ley de probabilidad. Para esto se utiliza la defini-
ción de esperanza matemática (o promedio) y varianza para una variable aleatoria discreta (v.a.d.).
Siendo X la v.a.d. de Bernoullí, la tabla de distribución de probabilidades es:

X 0 1
P( X = x ) q p

La esperanza es:

E( X ) = 1 · p + 0 · q
= p.

La varianza es:

V ( X ) = (1 − p )2 · p + (0 − p )2 · q
= q2 p + p2 q
= pq( p + q)
= pq.


La desviación estándar es D ( X ) = pq.

3.2. L EY B INOMIAL

Supongamos ahora, que se realizan n experimentos de Bernoulli, cada uno de ellos de forma
independiente. Consideremos en este caso la variable aleatoria discreta X, que representa la suma de
éxitos obtenidos en los n experimentos de Bernoulli. Los posibles resultados de suma de éxitos que
pueden tenerse son: 0 éxitos, 1 éxito, 2 éxitos, 3 éxitos, ..., hasta n éxitos.

Así, bajo este esquema se plantea lo siguiente, ¿cuál será la probabilidad de obtener x éxitos,
como resultado de n experimentos de Bernoulli?

A esta situación planteada, se lo denomina, el esquema Binomial1 de probabilidades.

Luego, nos interesa calcular la probabilidad de tener x éxitos: P( X = x )

Se realizan n experimentos de Bernoulli, de los cuales x son éxitos (y por lo tanto se tienen n − x
fracasos). Supongamos que ocurrió la siguiente serie de x éxitos y n − x fracasos.

E E F F E F······ E F E E
| | | | | | | | |

1 Toma este nombre en honor al famoso Binomio de Newton

3.2. LEY BINOMIAL 49


Probabilidad y Estadística CAPÍTULO 3. DISTRIBUCIONES DISCRETAS

Luego, la probabilidad de tener x éxitos para esta serie de eventos de Bernoulli es:

P( B1 ) = P( E ∩ E ∩ F ∩ F ∩ E ∩ F ∩ . . . ∩ E ∩ F ∩ E ∩ E)
= P( E) P( E) P( F ) P( F ) P( E) P( F ) . . . P( E) P( F ) P( E) P( E)
= p · p · q · q · p · q · . . . · p · q · p · p.

Supongamos ahora que, de los n eventos de Bernoulli, los primeros x eventos fueron éxitos, y los
restantes n − x fracasos. Veamos si cambia la probabilidad, para este esquema, como puede apreciarse
en la siguiente figura:

E E E E E E······ F F F F
| | | | | | | | |

Nuevamente, la probabilidad de tener x éxitos para esta serie, está dada por:

P( B1 ) = P( E ∩ E ∩ E ∩ E ∩ E ∩ E ∩ . . . ∩ E ∩ F ∩ E ∩ E)
= P( E) P( E) P( E) P( E) P( E) P( E) . . . P( F ) P( F ) P( F ) P( F )
= p · p · p · p · p · p · . . . · q · q · q · q.

Se aprecia que la probabilidad no cambia. Sin embargo, no interesan solamente las series B1 y B2
de eventos, sino todas las combinaciones posibles, puesto que se desea calcular la probabilidad de
tener x éxitos en n eventos de Bernoulli en cualquier orden que aparezcan.

Luego, la suma de todas las combinaciones posibles de estas probabilidades da la ley binomial
de probabilidades de parámetros n y p:

P ( X = x ) = p x qn− x + p x qn− x + . . . p x qn− x


 
n x n− x
= p q
x

La tabla de distribución de probabilidades de la variable aleatoria discreta X Binomial es:

X 0 1 ... x ... n
       
n 0 n −0 n 1 n −1 n x n− x n n n−n
P( X = x ) p q p q ... p q ... p q
0 1 x n

Así, utilizando nuevamente las definiciones de los momentos estadísticos, el valor esperado y la
varianza de una variable aleatoria binomial X están dados por:

n
µ = E( X ) = ∑ xk pk
k =1
n  
n k n−k
= ∑ k
k
p q
k =1

= np
σ2 = V ( X ) = npq

50 3.2. LEY BINOMIAL


CAPÍTULO 3. DISTRIBUCIONES DISCRETAS Probabilidad y Estadística

En resumen,
Teorema 1 – Media y Varianza Distribución Binomial
La media y la varianza de la distribución binomial de parámetros n y p son

µ = np y σ2 = npq.

Puede apreciarse que si se aplica esta ley para n = 1, se tiene la ley de Bernoulli.

Ejemplo 44. Se lanza un dado 20 veces, ¿cual será la probabilidad de que salga la cara marcada con
el cuatro en 15 ocasiones?

Solución. Este problema se ajusta al esquema binomial de probabilidades. Así, un lanzamiento del
dado puede ser visto como un evento de Bernoulli, en donde el éxito es cuando sale la cara marcada
con el cuatro y fracaso en caso contrario. Luego, tenemos 20 eventos de Bernoulli, y queremos la
probabilidad de que ocurran 15 éxitos.

La probabilidad de un éxito está dada por la probabilidad de que salga la cara marcada con el
1 5
cuatro al lanzar el dado, P( E) = p = 6, yq = 6. Utilizando la ley binomial de probabilidades
tenemos que la probabilidad de que salga la cara marcada con el cuatro en 15 ocasiones es:
  15  20−15
20 1 5

P( X = 15) = = 0.000 000 013
15 6 6

Podemos apreciar que la probabilidad de que ocurra tal situación es muy baja, casi nula.

Notas Complementarias

I) Recordando del tema de conteo de elementos, se tiene que a partir de un conjunto de la forma
Ω = { a, a, a, b, c, c, d, e, e}, con n elementos, de los cuales al menos uno se repite un cierto núme-
ro de veces, el número de grupos posibles de tamaño n que se pueden formar (k = n), y que se
llaman permutaciones está dado por:

n n2 ...,nq n!
Pn 1 =
n1 !n2 ! . . . nq !

Siendo n1 el número de veces que se repite el primer elemento, n2 las veces que se repite el
segundo elemento del conjunto base, y así sucesivamente. Además, n1 + n2 + n3 + . . . + nq = n.

Se mencionó anteriormente que el número de combinaciones posibles de x éxitos (n − x fra-


casos) en n experimentos de Bernoulli son las combinaciones sin repetición de n elementos
agrupados en tamaño de x elementos, pero en realidad son permutaciones de n elementos de
tamaño n, formadas a partir de dos elementos {Exito, Fracaso} en donde los éxitos se repiten x
veces y los fracasos se repiten n − x veces.

Así, siendo n1 = x éxitos, y n2 = n − x fracasos, el número de grupos posibles son (de acuerdo

3.2. LEY BINOMIAL 51


Probabilidad y Estadística CAPÍTULO 3. DISTRIBUCIONES DISCRETAS

a la expresión de conteo del párrafo anterior):

n! n!
grupos posibles = = = combinaciones sin repetición (n, x)
n1 !n2 ! x!(n − x )!

Es decir, en el caso de tener 2 elementos que se repiten un cierto número de veces, el número
de permutaciones coinciden con el conteo de combinaciones sin repetición.

II ) El modelo Binomial de probabilidades (caracterizado por dos grupos que los podemos llamar
G1 = ÉXITOS y, G2 =FRACASOS), se puede generalizar para más de dos grupos.

Sean:

Ë k resultados (grupos) posibles G1 , G2 , . . . , Gk ;


Ë pi la probabilidad de que ocurra Gi , tal que p1 + p2 + . . . + pk = 1;
Ë se realizan n experimentos y, se plantea la probabilidad de que x1 elementos pertenezcan
al grupo G1 , x2 elementos al grupo G2 , . . . , xk elementos pertenezcan al grupo Gk , tal que
x1 + x2 + . . . + xk = n.

Este esquema (para dos o más grupos) se conoce como la ley multinomial y la probabilidad
está dada por:
n!
P(n, x1 , x2 , . . . xk ) = p x1 p x2 . . . pkxk .
x1 !x2 ! . . . xk ! 1 2

III) La suma de todas las probabilidades sabemos que es igual a uno. En el caso de las probabilida-
des de la Ley Binomial se tiene:

n  n
n
∑ P ( X = x ) = ∑ x p x qn− x = ( p + q )n .
x =0 x =0

Es decir, este modelo viene del desarrollo del Binomio de Newton de ( p + q)n

3.3. L EY B INOMIAL N EGATIVA

Recordemos nuevamente el modelo Binomial (de la sección anterior). Este modelo se basa en
realizar n experimentos de Bernoulli (fijos), y se plantea la probabilidad de obtener x éxitos (donde x
puede tomar los valores 0, 1, 2, . . . , n, es decir, los éxitos x es el componente variable).

Consideremos ahora la situación contraria, es decir, mantenemos fijos los éxitos, digamos k, y se
plantea la probabilidad de realizar n experimentos (variable) de Bernoulli para lograr obtener los k
éxitos (fijos). Este esquema es lo que se conoce como el modelo Binomial Negativo o Ley de Pascal.

Debe notarse que si se realizan n experimentos de Bernoulli para obtener k éxitos (fijos de an-
temano), entonces n toma los valores k, k + 1, k + 2, . . . , puesto que necesitamos realizar al menos k
experimentos de Bernoulli para obtener k éxitos (fijos). El modelo de probabilidad que da esta pro-
babilidad, y que es conocido también como modelo o ley de Pascal, es:

n − 1 k n−k
 
P( X = n) = p q
k−1

52 3.3. LEY BINOMIAL NEGATIVA


CAPÍTULO 3. DISTRIBUCIONES DISCRETAS Probabilidad y Estadística

Para evitar alguna confusión con esto de que n toma los valores desde k hasta el infinito, se hace la
transformación siguiente: n = x + k, donde k son los éxitos fijos, y x vienen a representar los fracasos
de los eventos de Bernoulli y, por lo tanto, esta variable X toma los valores 0, 1, 2, . . .. Por ejemplo, si
x = 0, entonces n = k, o si x = 1, n = k + 1, etc, que es equivalente a lo descrito en el párrafo anterior.
Reemplazando n = x + k en la expresión anterior, se obtiene la ley Binomial Negativa:

x+k−1 k x
 
P( X = x ) = p q ,
k−1

válido para x ∈ {0, 1, 2 . . .} fracasos (componente variable) y k ∈ {1, 2, . . .} éxitos (fijos).

Y se vuelve a reiterar que x + k es el número de experimentos de Bernoullí que se realizan para


obtener los k éxitos (fijos).

Con base en las definiciones de momentos estadísticos, el valor esperado y la varianza de la


variable aleatoria discreta Binomial Negativa, están dados por:
Teorema 2 – Media y Varianza Distribución Binomial Negativa
La media y la varianza de la distribución binomial negativa de parámetros k y p son

kq kq
µ= y σ2 = .
p p2

Ejemplo 45. Una persona realiza el lanzamiento de una moneda y registra el lanzamiento. Encuentre
la probabilidad de obtener la tercera cara en el séptimo lanzamiento;

Solución. La variable X representa el número de fracasos antes de obtener k éxitos. Luego, k = 3,


x = 4, n = 7 y p = 0.5, después,

4+3−1
 
P ( X = 4) = · (0.5)3 · (0.5)4
3−1
6
 
= · (0.5)7
2
= 0.1172

Una situación interesante que surge de este modelo en la gestión y análisis de algunos proyectos
es cuando se tiene un solo éxito, es decir, k = 1, obteniendo lo que se llama el modelo geométrico de
probabilidades, que se describe a continuación.

3.4. L EY G EOMÉTRICA

Este modelo se basa en repetir un experimento de Bernoulli mientras el resultado sea fracaso,
hasta que ocurre un éxito. Gráficamente se tiene:

F F F F F F······ F F F E
| | | | | | | | |

3.4. LEY GEOMÉTRICA 53


Probabilidad y Estadística CAPÍTULO 3. DISTRIBUCIONES DISCRETAS

Luego, si se realizan m experimentos de Bernoulli, significa que se dieron m − 1 fracasos y 1 éxito (al
final y es cuando termina el proceso). Esto es equivalente a tomar el modelo Binomial Negativo con
k = 1 (un éxito fijo), y x = m − 1 fracasos.

Siendo X la variable aleatoria discreta que sigue una distribución Geométrica que representa el
número de fracasos de eventos de Bernoulli realizados hasta obtener un éxito (k = 1), se plantea
calcular la probabilidad P( X = x ) para x = 0, 1, 2, 3, . . ..

Se realizan x + 1 experimentos de Bernoulli, de los cuales los primeros x tiene como resultado
FRACASO, y el último es ÉXITO, entonces:

P( X = x ) = P( F ∩ F ∩ F ∩ F ∩ F ∩ F ∩ . . . ∩ F ∩ F ∩ F ∩ E)
= P( F ) P( F ) P( F ) P( F ) P( F ) P( F ) . . . P( F ) P( F ) P( F ) P( E)
= q·q·q·q·q·q·...·q·q·q· p
= q x p.

Así, la Ley Geométrica de parámetro p está dada por P( X = x ) = q x p para x ∈ {0, 1, 2, . . .}

Se obtiene la misma expresión algebraica, al reemplazar k = 1 en el modelo de la ley Binomial


Negativa.

Veamos los parámetros de media y varianza de la v.a.d. X, a partir de la tabla de distribución de


probabilidades geométrica:

X 0 1 2 3 4 5 ...
P q0 p q1 p q2 p q3 p q4 p q5 p . . .

La esperanza es:


E( X ) = ∑ kqk p
k =1

= p(q + 2q2 + 3q3 + . . .)


= pq(1 + 2q + 3q2 + . . .),

q
pero, 1 + 2q + 3q2 + . . . es la derivada de q + q2 + q3 + . . . = 1− q .

Derivando y reemplazando se tiene: E( X ) = pq (1−1q)2 =


pq
p2
= qp .
La varianza es:

∞  2
q
V (X) = ∑ k− qk p
k =1
p
= E ( X 2 ) − E2 ( X )
 2
2 q
= E( X ) −
p

q2
= ∑ k2 qk p − 2
k =1
p

54 3.4. LEY GEOMÉTRICA


CAPÍTULO 3. DISTRIBUCIONES DISCRETAS Probabilidad y Estadística

q2
= p(q + 4q2 + 9q3 + . . .) −
p2
1+q q2
= pq −
(1 − q )3 p2
1+q q2
=q −
p2 p2
q
= 2.
p

En resumen,
Teorema 3 – Media y Varianza Distribución Geométrica
La media y la varianza de la distribución geométrica de parámetro p son

q q
µ= y σ2 = .
p p2

Ejemplo 46. Continuando con el ejemplo anterior del lanzamiento de un moneda, encuentre la pro-
babilidad de obtener la primera cara en el cuarto lanzamiento;

Solución. Si x representa el número de fracasos de eventos de Bernoulli realizados hasta obtener un


éxito (k = 1). Luego, se tiene que k = 1, m = 4, x = m − 1 = 3, p = 0.5 y q = 1 − p, por lo tanto,

P( X = 3) = (0.5) · (0.5)3
1
= .
16

3.5. L EY H IPERGEOMÉTRICA

Esta ley se basa en el esquema siguiente: se tiene una población N de elementos, la cual está
caracterizada o definida por dos grupos o clases (G1 y G2 ), y digamos que K elementos pertenecen al
grupo G1 y N − K elementos pertenecen al grupo G2 .

De esta población, se toma al azar una muestra sin reposición de n elementos (n 6 N), y se plantea
calcular la probabilidad de que esta muestra esté formada por x elementos que pertenecen al grupo
G1 , y n − x elementos al grupo G2 .

Gráficamente, el esquema es:


Grupo 1 Grupo 2
K elementos N − K elementos

x elementos n − x elementos

muestra al azar de n elementos

A este esquema, se le llama el modelo Hipergeométrico de probabilidades.

3.5. LEY HIPERGEOMÉTRICA 55


Probabilidad y Estadística CAPÍTULO 3. DISTRIBUCIONES DISCRETAS

Siendo X, la variable aleatoria discreta que representa el número de elementos x que pertenecen
al grupo 1, la probabilidad de que hayan x elementos de la muestra n, y que pertenecen al grupo 1
está dada por:
n−x
  
x
K N−K ES NECESARIO CORREGIR
P( X = x ) =  
ESTA FÓRMULA
n
N

K
Siendo p = N la proporción de elementos del Grupo 1, el valor esperado y la varianza de la
variable aleatoria discreta Hipergeométrica X, están dados por:
Teorema 4 – Media y Varianza Distribución Hipergeométrica
La media y la varianza de la distribución hipergeométrica de parámetros N, K y n son

K N−n
µ=n = np y σ2 = np(1 − p)
N N−1

Ejemplo 47. Se tiene un grupo 20 personas, compuesto por 10 hombres y 10 mujeres. Se toma al azar
un grupo de 2 personas. ¿Cuál será la probabilidad de que el grupo tomado al azar esté compuesto
por 1 hombre y 1 mujer?

Solución. Este problema se ajusta al esquema Hipergeométrico de probabilidades, teniendo el grupo


de 10 hombres (digamos G1 ), y el grupo de 10 mujeres (G2 ). De estas 20 personas, se toma al azar un
grupo de n = 2 personas.

De acuerdo a la notación utilizada, tenemos:

Ë N = 20 (población total)

Ë K = 10, (N − K = 10)

Ë n = 2 (muestra al azar)

Ë x = 1 (n − x = 1)

Utilizando la ley Hipergeométrica de probabilidades, y siendo A el evento al que hacemos refe-


rencia, tenemos:

10! (20 − 10)!


1!(10 − 1)! (2 − 1)!(20 − 10 − 2 + 1)! 10 · 10
P( A) = = ≈ 0.526 315 8
20! 190
2!(20 − 2)!

Así, existe casi un 53 % de opciones que ocurra el evento planteado.

Vamos a resolver este mismo ejercicio, con base en la definición básica de probabilidades

Para esto debemos definir el espacio muestral (conjunto de posibles resultados), y de este con-
junto, contamos cuantos elementos cumplen la condición (grupos de 2 personas, compuestos por un
hombre y una mujer). Veamos el siguiente gráfico para ayudarnos a establecer el espacio muestral:

56 3.5. LEY HIPERGEOMÉTRICA


CAPÍTULO 3. DISTRIBUCIONES DISCRETAS Probabilidad y Estadística

1 2 3 4 5 6 7 8 9 10
| | | | | | | | | |

1 2 3 4 5 6 7 8 9 10
| | | | | | | | | |

El espacio muestral esta formado por todas las combinaciones posibles de dos personas que pue-
den darse de entre las 20 totales.

Así, del gráfico podemos ver, por ejemplo, que el primer hombre puede combinarse o hacer gru-
pos de dos, con cada una de las 10 mujeres, y con cada uno de los nueve hombres restantes.

Luego, posibles grupos de 2 personas formados por un hombre y una mujer, son 100, ya que son
las combinaciones de cada uno de los 10 hombres con cada una de las 10 mujeres (10 · 10).

Pero también, por ser tomados al azar, pueden formarse grupos de dos hombres o dos mujeres.
Y, podemos ver que el primer hombre se puede agrupar con los otros nueve hombres, teniendo así 9
grupos; luego el segundo hombre se puede combinar con los 8 hombres restantes, teniendo 8 grupos
posibles más, y así sucesivamente, hasta llegar al penúltimo que forma un grupo más con el último.

Tenemos que los grupos posibles de 2 hombres son: 9 + 8 + 7 + 6 + 5 + 4 + 3 + 2 + 1 = 45. Y


como se tiene igual número de mujeres, se tiene también 45 posibles grupos de 2 mujeres.

Luego, el espacio muestral está formado por un conjunto de 190 elementos (grupos posibles de 2
personas), de los cuales, 100 están compuestos por 1 hombre y una mujer, 45 están formados por 2
hombres, y 45 están formados por 2 mujeres.

Por definición de probabilidad, tenemos que 100 elementos (de los 190 posibles), cumplen la
condición (grupos de 2 personas formado por un hombre y una mujer).
100
Por lo tanto P( A) = 190 = 0.526 315 8, que es el mismo resultado que se obtuvo con la ley Hiper-
geométrica.

Sin embargo, este ejercicio resulta fácil de resolver por la definición básica de probabilidad debido
solamente a que se toma un grupo de dos personas. Para el caso en que se tomara, por ejemplo, 7
personas al azar, de las cuales 3 sean hombres, y 4 mujeres, resulta difícil resolver con la definición
básica de probabilidad, pero en cambio es muy fácil hacerlo con la ley Hipergeométrica que modela
tal situación.

Utilizando la ley Hipergeométrica de probabilidades en el caso de tomar al azar una muestra de

3.5. LEY HIPERGEOMÉTRICA 57


Probabilidad y Estadística CAPÍTULO 3. DISTRIBUCIONES DISCRETAS

7 personas, la probabilidad de que el grupo esté formado por 3 hombres y 4 mujeres, está dada por:

10! (20 − 10)!


3!(10 − 3)! (7 − 3)!(20 − 10 − 7 + 3)! 120 · 210
P( A) = = ≈ 0.325.
20! 77520
7!(20 − 7)!

Nota complementaria

De una forma similar a como se generalizó la Ley Binomial para obtener la Ley Multinomial,
también se puede generalizar la Ley Hipergeométrica para más de dos grupos. Recordemos:

La Ley Hipergeométrica se basa en el esquema siguiente:

Grupo 1 Grupo 2
N1 elementos N2 elementos

x1 elementos x2 elementos

muestra al azar de n elementos

Cambiando la notación, digamos que el Grupo 1 tiene N1 elementos, y el Grupo 2 tiene N2 elemen-
tos (con N1 + N2 = N). Se selecciona al azar una muestra (sin reposición) de n elementos, entonces la
probabilidad de que esta muestra esté compuesta por x1 elementos que pertenecen al Grupo 1 y, x2
elementos al Grupo 2, (con x1 + x2 = n), está dada por:

N − N1
     
N1 N2 N1
x1 x x1 n−x
P ( X = x1 ) =  2 =   1
N N
n n

Ahora planteamos lo siguiente: se tiene una población N de elementos, la cual está caracterizada o
definida por k grupos o clases (G1 , G2 , . . . , Gk ), y digamos que N1 elementos pertenecen al grupo G1 ,
N2 elementos al grupo G2 , . . . ., y Nk elementos pertenecen al grupo Gk (con N1 + N2 + . . . + Nk = N)

De esta población, se toma al azar una muestra sin reposición de n elementos (n 6 N), y se plantea
calcular la probabilidad de que esta muestra esté formada por x1 elementos que pertenezcan al grupo
G1 , x2 elementos al grupo G2 , . . ., y xk elementos al grupo Gk (con x1 + x2 + . . . + xk = n ; y xi 6 Ni
para todo i = 1, 2, . . . , k). Gráficamente se tiene:

58 3.5. LEY HIPERGEOMÉTRICA


CAPÍTULO 3. DISTRIBUCIONES DISCRETAS Probabilidad y Estadística

G1 G2 G3 ...... Gk
......
N1 N2 N3 Nk

x1 x2 x3 ...... xk

muestra al azar de n elementos

Así, esta probabilidad está dada por la Ley Hipergeométrica generalizada siguiente:
    
N1 N2 Nk
...
x1 x2 xk
P(n, x1 , x2 , . . . xk ) =   .
N
n

3.6. L EY DE P OISSON

Existen eventos o esquemas en los cuales se tiene arribos o llegadas de elementos a un sistema,
por ejemplo:

Ë personas que llegan a un banco para ser atendidos,

Ë personas que llegan o arriban a un centro comercial,

Ë carros que llegan a una cierta esquina,

Ë aviones que arriban a un aeropuerto,

Ë llamadas telefónicas que arriban a una central, etc.

Esquemáticamente tenemos lo siguiente:

Sistema
b b b b b b b b b

Elementos que arriban al sistema

Se pueden modelar algunas de estas situaciones, digamos raras, en el sentido que muchas de ellas no
tienen control sobre la forma como arriban los elementos, como es el caso de los carros que llegan a
una determinada esquina.

Así, surge lo que se llama el proceso de Poisson, el cual consiste en lo siguiente:

Ë Los elementos que arriban al sistema son independientes entre sí.

Ë Los elementos arriban o llegan al sistema en forma aleatoria, y

Ë Los tiempos entre arribos de los elementos son también aleatorios.

3.6. LEY DE POISSON 59


Probabilidad y Estadística CAPÍTULO 3. DISTRIBUCIONES DISCRETAS

Luego, un esquema o sistema que cumpla con estas tres condiciones a la vez, se llama proceso
físico de Poisson2 .

Por ejemplo, la llegada de aviones a un aeropuerto: el aeropuerto viene a ser el sistema; los avio-
nes son los elementos que arriban al sistema. Muchos elementos pueden ser independientes entre sí
(si son de compañías aéreas diferentes), sin embargo, los aviones no llegan en forma aleatoria, de-
bido a que tienen horarios establecidos, y por lo tanto, este esquema o sistema, no es un proceso de
Poisson.

Analicemos ahora el caso de los carros que llegan a una determinada esquina de la cuidad. La
esquina con los semáforos es el sistema, y los carros son los elementos que arriban al sistema (la es-
quina o la intersección de calles), donde son “atendidos” y continúan. Los carros, en general, llegan o
pasan por el lugar en forma aleatoria, son independientes entre sí, y también, en general, los tiempos
entre arribos podemos decir que son aleatorios, y por lo tanto, puede establecerse que este es un pro-
ceso de Poisson. Pero como se modela una situación como ésta, ya que los elementos pueden estar
arribando al sistema todo el tiempo, es decir, de manera permanente.

Para modelar este proceso, se establece un cierto intervalo de tiempo para el análisis, por ejem-
plo, un minuto, o una hora, etc., y se plantea ¿cuál será la probabilidad de que al sistema arriben x
elementos (en el intervalo de tiempo acordado para el análisis)?

Siendo X, la variable aleatoria discreta que representa el número de elementos x que arriban al
sistema durante el intervalo de tiempo establecido, se define la Ley de probabilidades de Poisson
de parámetro λ por:
e−λ λ x
P( X = x ) = ;
x!
donde

Ë λ se denomina el parámetro de Poisson, y representa al número promedio de elementos que


arriban al sistema durante el intervalo de tiempo establecido.

Ë e es aproximadamente el número 2.7182 (base de los logaritmos naturales)

Los valores que puede tomar esta variable aleatoria teóricamente van desde cero hasta el infinito,
es decir, x ∈ {0, 1, 2, 3, . . .}.

Una de las cosas interesantes que podemos notar en estos procesos de Poisson es que los elemen-
tos pueden forman colas si el tiempo de atención en el sistema tarda, como es el caso típico al ir a un
Banco, a un centro comercial, una llamada en espera, el tráfico vehicular, etc. Así, con este modelo,
puede estudiarse lo que suele denominarse “teoría de colas”.
Teorema 5 – Media y Varianza Distribución de Poisson
El valor esperado y la varianza de la variable aleatoria discreta de Poisson de parámetro λ son:

µ=λ y σ2 = λ.

2 Suele decirse que esta ley sirve para modelar eventos raros.

60 3.6. LEY DE POISSON


CAPÍTULO 3. DISTRIBUCIONES DISCRETAS Probabilidad y Estadística

Ejemplo 48. Supongamos que por una determinada esquina de la ciudad, pasan en promedio 7 ca-
rros cada dos minutos. ¿Cuál será la probabilidad de que no pase ningún carro?, ¿cuál será la proba-
bilidad de que pasen 5 carros?, y ¿cuál será la probabilidad de que pasen 20 carros?

Solución. Asumiendo que se cumplen las condiciones de un proceso de Poisson, tenemos que el inter-
valo de análisis es dos minutos, y el parámetro de Poisson es λ = 7 (siete carros pasan en promedio
cada 2 minutos).

Luego, tenemos:

70 e − 7
Ë Probabilidad que no pase ningún carro: P( X = 0) = 0! ≈ 0.000 912.
75 e − 5
Ë Probabilidad que pasen 5 carros: P( X = 5) = 5! ≈ 0.127 717.
720 e−20
Ë Probabilidad que pasen 20 carros: P( X = 20) = 20! ≈ 0.000 030.

3.6. LEY DE POISSON 61


4. D ISTRIBUCIONES C ONTINUAS

L EYES DE PROBABILIDAD PARA VARIABLES CONTINUAS

4.1. L EY U NIFORME

Se dijo que la distribución de Bernoulli, era el esquema más simple de las leyes discretas. De ma-
nera similar puede decirse que la ley uniforme de probabilidad es la más sencilla de las distribuciones
de variables aleatorias continuas.

Esta ley se caracteriza por ser constante en el intervalo [ a, b] donde está definida, y suele llamarse
también ley o distribución rectangular.

Se denomina Ley Uniforme de Probabilidades a la función de densidad cuya imagen esta dada
por:
 1

si a 6 x 6 b,

f (x) = b − a
0

si x 6∈ [ a, b]

para todo x ∈ R.

1 +
b− a

+ +
a b

Teorema 1 – Valor esperado y Varianza


El valor esperado y la varianza de una variable aleatoria uniforme X de parámetros a y b están
dados por:
( a + b) ( b − a )2
E( X ) = y V (X) = .
2 12

Esta ley sirve para modelar, entre otros, el comportamiento de errores de redondeo. Sin embargo,
lo más notable es que de esta ley surgen los “números aleatorios” que se los suelen notar con la letra
r.

62
CAPÍTULO 4. DISTRIBUCIONES CONTINUAS Probabilidad y Estadística

Así, un número aleatorio r, es una variable aleatoria continua, cuya ley de probabilidad, es la ley
uniforme de probabilidades definida en el intervalo [0, 1].

Los números aleatorios tienen una gran cantidad de aplicaciones, sirviendo como base para la
generación de otras variables aleatorias, o para la selección de muestras, entre otras cosas.1

Ejemplo 49. Un autobús llega cada 10 minutos a una parada. Se supone que el tiempo de espera para
un individuo en particular es una variable aleatoria con distribución continua uniforme.

1. ¿Cuál es la probabilidad de que el individuo espere más de 7 minutos?

2. ¿Cuál es la probabilidad de que el individuo espere entre 2 y 7 minutos?

Solución. La variable X representa el tiempo de espera y sigue una ley de distribución uniforme cuya
imagen de la función de densidad es:

1

si 0 ≤ x ≤ 10,

f ( x ) = 10
0

caso contrario.

Literal 1. Z 10
1 10 − 7 3
P ( X > 7) = dx = = = 0.3
7 10 10 10
Literal 2. Z 7
1 7−2 5
P (2 < X < 7) = dx = = = 0.5
2 10 10 10

4.2. L EY G AMMA

Las distribuciones exponencial y gamma tienen aplicaciones en la teoría de colas y en problemas


de confiabilidad. Además, la distribución exponencial es un caso particular de la distribución gamma
y esta se define en base a la función gamma que es usada en muchos campos de la matemática. A
continuación, definimos la función y una propiedad importante de dicha función.

F UNCIÓN G AMMA

Definición 32 – Función Gamma


La función gamma es Γ : R + → R definida por
Z +∞
Γ(α) = x α−1 e− x dx
0

para todo α ∈ R + .
1 Losnúmeros aleatorios tienen muchas aplicaciones, tales como para generar otras variables aleatorias, o para aplica-
ciones en teoría de muestreo.

4.2. LEY GAMMA 63


Probabilidad y Estadística CAPÍTULO 4. DISTRIBUCIONES CONTINUAS

Teorema 2 – Función Gamma

1. Para todo α > 0,


Γ ( α ) = ( α − 1) Γ ( α − 1).

2. Si n ∈ N tal que n > 1, entonces


Γ(n) = (n − 1)!.

Ahora, se denomina Ley Gamma de probabilidades de parámetros α y β a la función de densidad


cuya imagen está dada por

1
  

 x α−1 exp − x si x > 0,
βα Γ(α) β
f (x) =
0

en otro caso

para todo x ∈ R. La gráfica para 2 valores de α diferentes se muestra a continuación:

α=2
α=3

Teorema 3 – Valor esperado y Varianza


El valor esperado y la varianza de la variable aleatoria X que sigue una distribución gamma con
parámetros α y β están dados por:

E( X ) = αβ y V ( X ) = αβ2 .

El parámetro β representa el tiempo promedio entre eventos y α es el número de eventos que


ocurren.

Ejemplo 50. Sea X una variable aleatoria que sigue una distribución gamma de parámetros α = 4 y
β = 10. Determine la probabilidad de que la variable aleatoria sea mayor 5.

Solución. Dado que α = 4, tenemos que

Γ(4) = (4 − 1)! = 3! = 6.

Luego,

P ( X > 5) = 1 − P ( X 6 5)
Z 5
1 4−1
 x
= 1− x exp − dx
0 104 · 6 10
≈ 0.9982.

64 4.2. LEY GAMMA


CAPÍTULO 4. DISTRIBUCIONES CONTINUAS Probabilidad y Estadística

La ley exponencial es un caso particular de la función gamma cuando α = 1. En la siguiente


sección mostramos esta distribución.

4.3. L EY E XPONENCIAL

Se conoce como ley exponencial de probabilidades de parámetro β, a la función de densidad cuya


imagen esta dada por:
  
 1 exp − x si x > 0,
β β
f (x) =
0 en otro caso

para todo x ∈ R. La gráfica se muestra a continuación:

1
β

Este modelo es útil en aplicaciones de control de calidad relacionadas a analizar tiempos de falla
de algunos dispositivos electrónicos.

Permite también modelar satisfactoriamente el tiempo entre arribos de dos elementos en los pro-
cesos de Poisson. Estos elementos pueden ser vistos como fallas que arriban al sistema y, esta ley
exponencial de probabilidades modela el tiempo que transcurre entre estas fallas. Para estos casos el
parámetro θ es exactamente el parámetro λ de la distribución de Poisson.
Teorema 4 – Valor esperado y varianza
Si X es una variable aleatoria exponencial de parámetro β, el valor esperado y la varianza están
dados por:
E( X ) = β y V ( X ) = β2 .

El parámetro β de la ley exponencial representa el tiempo promedio entre dos eventos consecu-
1
tivos, mientras que el parámetro , representa la frecuencia de eventos.
β

Algunos autores acostumbran definir este modelo de la siguiente forma:



θ exp (−θx ) si x > 0,
f (x) =
0 en otro caso.

En ese caso, tenemos que:


1 1
E( X ) = y V (X) =
θ θ2
1
donde θ representaría ahora el tiempo promedio entre fallas.

4.3. LEY EXPONENCIAL 65


Probabilidad y Estadística CAPÍTULO 4. DISTRIBUCIONES CONTINUAS

Ejemplo 51. El tiempo de vida de un transistor sigue una distribución exponencial con tiempo medio
de vida de 12 años. Determine

a) la probabilidad de que el tiempo de vida de un transistor sea mayor a 20 años.

b) la probabilidad de un transistor dure 3 años más dado que ya ha durado 12 años.

c) la probabilidad de que al menos 7 de 10 transistores de similares características duren menos


de 7 años.

Solución. El tiempo de vida de un transistor es una variable aleatoria T que sigue una distribución
exponencial con β = 12, luego,

a)

P( T > 20) = 1 − P( T 6 20)


Z 20
1 −x
= 1− e 12 dx
0 12
20
− 12
=e
5
= e− 3
≈ 0.1889.

b)

P( T > 15 y T > 12)


P( T > 12 + 3| T > 12) =
P( T > 12)
P( T > 15)
=
P( T > 12)
1 − P( T 6 15)
=
1 − P( T 6 12)
R 15 1 − x
1 − 0 12 e 12 dx
= R 12 1 − x
1 − 0 12 e 12 dx
5
e− 4
= −1
e
1
= e− 4 .

Una de las propiedades de la distribución exponencial es la falta de memoria, es decir, la proba-


bilidad de que un elemento dure un tiempo t más dado que ha durado ya un tiempo t0 es igual
a la probabilidad de que dure únicamente el tiempo t, en este caso, la probabilidad se puede
calcular así

P ( T > 3) = 1 − P ( T 6 3)
Z 3
1 −1
= 1− e 12
0 12
− 41
=e ,

66 4.3. LEY EXPONENCIAL


CAPÍTULO 4. DISTRIBUCIONES CONTINUAS Probabilidad y Estadística

que es lo que obtuvimos anteriormente.

c) Primero determinemos la probabilidad de que el tiempo de vida de un transistor es menor que


7, es decir,
Z 7
1 −x
P ( T < 7) = e 12 dx
0 12
7
= 1 − e− 12
≈ 0.4420.

Si Y representa el número de transistores de entre 10 que duran menos de 7 años. Luego, Y


sigue una distribución binomial con n = 10 y p =, en consecuencia,

10
10
 
P (Y > 7 ) = ∑ (0.442)k (1 − 0.442)10−k
k =7
k
≈ 0.0930.

4.4. L EY N ORMAL DE PROBABILIDADES

De todas las leyes de probabilidad, la ley normal de probabilidades (conocida también como ley
de Gauss o campana de Gauss), es una de las más importantes. Se afirma esto debido a la enorme
cantidad de aplicaciones que surgen de esta ley y las relaciones que se pueden establecer con muchos
otros modelos de probabilidad.

Se define como Ley Normal de Probabilidades a la función de densidad cuya imagen esta dada
por:
1 ( x − u )2
 
f (x) = √ exp −
2πσ 2σ2
para todo x ∈ R.
Teorema 5 – Valor esperado y varianza
La media y varianza de una variable aleatoria X que sigue una distribución normal de paráme-
tros µ y σ2 están dadas por
E( X ) = µ y V ( X ) = σ2 .

Gráficamente, esta ley tiene la forma de una campana:

√1
2πσ

µ−σ µ µ+σ

En una distribución normal, al recorrer una desviación estándar hacia la izquierda y derecha

4.4. LEY NORMAL DE PROBABILIDADES 67


Probabilidad y Estadística CAPÍTULO 4. DISTRIBUCIONES CONTINUAS

del promedio (esperanza matemática), se tiene aproximadamente el 68 % de la población. Entre dos


desviaciones estándar queda el 95 % de toda la información, mientras que entre tres desviaciones
estándar aproximadamente se tiene el 99 % de toda la población (con las tablas de cuantiles, se deter-
minará los valores exactos).

Recordando la definición de variable estandarizada (Z), y teniendo X, una variable aleatoria nor-
mal, donde µ es la media, y σ2 es la varianza. La variable estandarizada Z se determina mediante la
siguiente ecuación:
X−µ
Z=
σ
y tiene como ley de probabilidad la llamada ley normal estandarizada o tipificada, con media 0 y
varianza 1, cuya imagen de la función de densidad está dada por:

 2
1 z
f (z) = √ exp − .
2π 2
para todo z ∈ R.

Ejemplo 52. El número de mensajes que una persona envía una persona por Whatsapp sigue una
distribución normal con media 1 200 y desviación estándar 450. Determine la probabilidad de que
una persona envié menos de 800 mensajes en un día.

Solución. Si X representa el número de mensajes que envía una persona en un día determinado en-
tonces X sigue una distribución normal con parámetros µ = 1 200 y σ2 = 202 500. Luego,

( x − 1200)2
Z 800
1
 
P( X < 800) = √ exp −
2π · 450 −∞ 2 · 202 500
≈ 0.1870.

Para la obtención de este resultado se ha utilizado una calculadora en línea; lo que normalmente no
es posible en otras circunstancias. Por esta razón es preferible obtener el resultado de la siguiente
manera:
X −1200
Si Z = 450 , entonces Z sigue una distribución normal con parámetros µ = 0 y σ2 = 1, luego

800 − 1200
 
P( X < 800) = P Z <
450
≈ P( Z < 0.8889)
≈ 0.1870.

Este resultado es exactamente similar pero se obtiene directo de las tablas de la distribución normal
estándar.
Nota 1
Todos los paquetes estadísticos, tienen implementados algoritmos para realizar cálculo de pro-
babilidades para muchas leyes de probabilidad, inclusive la hoja electrónica “Excel”, tiene co-

68 4.4. LEY NORMAL DE PROBABILIDADES


CAPÍTULO 4. DISTRIBUCIONES CONTINUAS Probabilidad y Estadística

mandos para calcular probabilidades de varias leyes de probabilidad. Puede encontrar aquí una
plantilla para realizar estos cálculos.

4.4. LEY NORMAL DE PROBABILIDADES 69

También podría gustarte