0% encontró este documento útil (0 votos)
49 vistas23 páginas

Unidad Iii Act1

El documento aborda las distribuciones de probabilidad discretas, enfocándose en la variable aleatoria discreta y su importancia en la modelización de fenómenos contables en diversas disciplinas. Se analizan distribuciones clave como la binomial, hipergeométrica, geométrica, multinomial y de Poisson, explicando sus definiciones, propiedades y aplicaciones prácticas. El objetivo es proporcionar una comprensión sólida de estas herramientas estadísticas fundamentales para el análisis y modelado de eventos aleatorios.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
49 vistas23 páginas

Unidad Iii Act1

El documento aborda las distribuciones de probabilidad discretas, enfocándose en la variable aleatoria discreta y su importancia en la modelización de fenómenos contables en diversas disciplinas. Se analizan distribuciones clave como la binomial, hipergeométrica, geométrica, multinomial y de Poisson, explicando sus definiciones, propiedades y aplicaciones prácticas. El objetivo es proporcionar una comprensión sólida de estas herramientas estadísticas fundamentales para el análisis y modelado de eventos aleatorios.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd

UNIVERSIDAD AUTÓNOMA INDÍGENA DE MÉXICO

Institución Intercultural del Estado de Sinaloa


Extensión Topolobampo

CARRERA:
Ingeniería en Sistemas de Calidad Semestre 2

MATERIA:
Probabilidad y Estadística

INVESTIGACIÓN:
Unidad de aprendizaje 3

“Distribuciones de probabilidad discretas”

ALUMNO:
Juan David Román Mares

MAESTRO:
José Torres Medina

Los Mochis, Sinaloa a 30 de marzo del 2025


INDICE
Introducción....................................................................................................................1
3.1 Variable aleatoria discreta........................................................................................1
3.2 Distribución de probabilidad discreta........................................................................4
3.2.1 Distribución binomial...........................................................................................5
3.2.2 Distribución hipergeométrica..............................................................................7
3.2.3. Aproximación de la hipergeométrica por la binomial.......................................10
3.2.4 Distribución geométrica....................................................................................13
3.2.5 Distribución multinomial....................................................................................16
3.3.6 Distribución de Poisson....................................................................................19
Conclusión General......................................................................................................23
Bibliografía....................................................................................................................24
Introducción

En el estudio de la estadística y la probabilidad, el concepto de variable aleatoria discreta juega un


papel fundamental en la modelización de fenómenos que pueden describirse mediante valores
numéricos finitos o infinitos numerables. Estas variables permiten cuantificar la ocurrencia de
eventos en distintos contextos, desde la industria hasta la biología, la economía y las ciencias
sociales. La importancia de las variables aleatorias discretas radica en su capacidad de representar
matemáticamente situaciones en las que los valores posibles son contables, como el número de
defectos en un producto, la cantidad de llamadas en un centro de atención o el número de autos que
llegan a un peaje en un minuto determinado.
Dentro de este marco, las distribuciones de probabilidad discreta proporcionan herramientas
esenciales para analizar la probabilidad de ocurrencia de diferentes valores de una variable aleatoria
discreta. Estas distribuciones permiten conocer la frecuencia con la que ciertos eventos pueden
presentarse en función de parámetros específicos, facilitando la toma de decisiones en diversos
campos de estudio y aplicaciones prácticas. Algunas de las distribuciones discretas más utilizadas
incluyen la distribución binomial, que modela el número de éxitos en una serie de ensayos
independientes; la distribución hipergeométrica, empleada cuando el muestreo se realiza sin
reemplazo; la distribución geométrica, que mide el número de intentos necesarios hasta el primer
éxito; la distribución multinomial, que generaliza la binomial para más de dos categorías; y la
distribución de Poisson, que describe la cantidad de eventos que ocurren en un intervalo de
tiempo o espacio dado.
El estudio de estas distribuciones no solo permite describir y analizar datos en escenarios reales,
sino que también es clave para desarrollar modelos predictivos en áreas como la producción
industrial, el análisis financiero, la epidemiología, el control de calidad y la gestión de riesgos.
Además, muchas de estas distribuciones están interrelacionadas, permitiendo aproximaciones y
simplificaciones que facilitan el análisis probabilístico en situaciones más complejas.
En esta investigación, se explorarán a profundidad cada una de estas distribuciones de probabilidad
discreta, abordando su definición, propiedades, ecuaciones matemáticas y aplicaciones prácticas. El
objetivo es proporcionar una comprensión sólida de estas herramientas estadísticas fundamentales y
demostrar su relevancia en el análisis y modelado de eventos aleatorios en diversos contextos.

1
3.1 Variable aleatoria discreta

Definición y Concepto
Una variable aleatoria discreta es una función que asigna valores numéricos a los resultados de un
experimento aleatorio, donde estos valores son finitos o contables. En otras palabras, una variable
aleatoria discreta solo puede tomar valores específicos y no cualquier número dentro de un intervalo
continuo.
Matemáticamente, una variable aleatoria XXX es discreta si su conjunto de posibles valores x1,x2,x3,
…x_1, x_2, x_3, \dotsx1,x2,x3,… es finito o numerable (como los números naturales).
Ejemplos clásicos de variables aleatorias discretas incluyen:
 El número de caras obtenidas al lanzar un dado.
 La cantidad de llamadas recibidas en un centro de atención al cliente en una hora.
 El número de defectos en un lote de producción.
Función de Probabilidad de una Variable Aleatoria Discreta
Dado que la variable aleatoria discreta solo toma ciertos valores, su comportamiento se describe
mediante una función de probabilidad, también llamada función de masa de probabilidad (pmf,
por sus siglas en inglés). Esta función se define como:
P(X=xi)=pi,para cada xi en el espacio de la variableP(X = x_i) = p_i, \quad \text{para cada } x_i \
text{ en el espacio de la variable}P(X=xi)=pi,para cada xi en el espacio de la variable
Donde:
 pip_ipi representa la probabilidad de que XXX tome el valor xix_ixi.
 La suma de todas las probabilidades debe ser igual a 1:
∑P(X=xi)=1\sum P(X = x_i) = 1∑P(X=xi)=1
Ejemplo de Variable Aleatoria Discreta
Supongamos que lanzamos un dado equilibrado de seis caras y definimos la variable aleatoria XXX
como el número que aparece en la cara superior. En este caso:
 XXX puede tomar los valores {1,2,3,4,5,6}\{1, 2, 3, 4, 5, 6\}{1,2,3,4,5,6}.
 Como el dado es justo, la función de probabilidad es:
P(X=x)=16,para x=1,2,3,4,5,6P(X = x) = \frac{1}{6}, \quad \text{para } x = 1, 2, 3, 4, 5, 6P(X=x)=61
,para x=1,2,3,4,5,6
Es decir, cada número tiene una probabilidad del 16.67% de aparecer.

2
Función de Distribución Acumulada (FDA)
Además de la función de probabilidad, una variable aleatoria discreta también puede describirse
mediante su función de distribución acumulada (FDC), que indica la probabilidad de que la
variable tome un valor menor o igual a un cierto número:
F(x)=P(X≤x)=∑xi≤xP(X=xi)F(x) = P(X \leq x) = \sum_{x_i \leq x} P(X = x_i)F(x)=P(X≤x)=xi≤x∑P(X=xi)
Por ejemplo, para un dado:
F(3)=P(X≤3)=P(1)+P(2)+P(3)=16+16+16=36=0.5F(3) = P(X \leq 3) = P(1) + P(2) + P(3) = \frac{1}{6} +
\frac{1}{6} + \frac{1}{6} = \frac{3}{6} = 0.5F(3)=P(X≤3)=P(1)+P(2)+P(3)=61+61+61=63=0.5
Momentos de una Variable Aleatoria Discreta
Para caracterizar una variable aleatoria, se utilizan ciertas medidas estadísticas, conocidas como
momentos:
1. Esperanza matemática o valor esperado (E(X)E(X)E(X)): Representa el valor promedio de
la variable aleatoria a largo plazo y se define como:
E(X)=∑xiP(X=xi)E(X) = \sum x_i P(X = x_i)E(X)=∑xiP(X=xi)
2. Varianza (Var(X)\text{Var}(X)Var(X)): Mide la dispersión de los valores de la variable respecto
a su media:
Var(X)=E(X2)−(E(X))2\text{Var}(X) = E(X^2) - (E(X))^2Var(X)=E(X2)−(E(X))2
3. Desviación estándar (σ\sigmaσ): Es la raíz cuadrada de la varianza y representa la
dispersión en las mismas unidades que la variable aleatoria:
σ=Var(X)\sigma = \sqrt{\text{Var}(X)}σ=Var(X)
Importancia de las Variables Aleatorias Discretas
Las variables aleatorias discretas son esenciales en estadística y probabilidad porque permiten
modelar fenómenos en los que los resultados pueden contarse y ocurren con ciertas probabilidades.
Son ampliamente utilizadas en disciplinas como:
 Ingeniería (para modelar defectos en producción).
 Economía (para analizar demanda y oferta de bienes).
 Medicina (para estudiar la cantidad de pacientes con una enfermedad).
 Informática (para modelar procesos en redes de comunicación).

3
3.2 Distribución de probabilidad discreta

Definición y Concepto
Una distribución de probabilidad discreta describe la manera en que una variable aleatoria
discreta toma valores específicos y la probabilidad asociada a cada uno de ellos. Estas
distribuciones se aplican a experimentos cuyos resultados pueden contarse y ocurren con cierta
frecuencia en un número finito o infinito numerable de casos.
Matemáticamente, una distribución de probabilidad discreta se define mediante una función de
masa de probabilidad (pmf), que asigna a cada valor xix_ixi de la variable XXX una probabilidad
P(X=xi)P(X = x_i)P(X=xi), cumpliendo la condición:
∑P(X=xi)=1\sum P(X = x_i) = 1∑P(X=xi)=1
Algunas de las distribuciones de probabilidad discreta más importantes incluyen:
 Distribución Binomial (modela la cantidad de éxitos en una serie de ensayos de Bernoulli).
 Distribución Hipergeométrica (describe probabilidades en muestras sin reemplazo).
 Distribución Geométrica (modela el número de intentos hasta el primer éxito).
 Distribución Multinomial (extensión de la binomial para múltiples categorías).
 Distribución de Poisson (modela eventos en un intervalo de tiempo o espacio).
Cada una de estas distribuciones tiene aplicaciones específicas en diferentes áreas de la ciencia, la
ingeniería, la economía y la estadística.

3.2.1 Distribución binomial

Definición y Concepto

La distribución binomial es un modelo de probabilidad discreto que describe el número de éxitos


en una serie de ensayos independientes, donde cada ensayo tiene solo dos posibles resultados:
éxito o fracaso.
Matemáticamente, un experimento sigue una distribución binomial si cumple con las siguientes
condiciones:
1. Ensayos fijos: Se realiza un número fijo de experimentos o pruebas (nnn).
2. Dos posibles resultados: Cada ensayo puede resultar en éxito (evento favorable) o fracaso.
3. Independencia: Los resultados de los ensayos no influyen entre sí.

4
4. Probabilidad constante: La probabilidad de éxito (ppp) y la probabilidad de fracaso (q=1−pq
= 1 - pq=1−p) son constantes en cada ensayo.
Un experimento binomial se puede modelar con la notación:
X∼B(n,p)X \sim B(n, p)X∼B(n,p)
Donde:
 XXX es la variable aleatoria que representa el número de éxitos en nnn ensayos.
 nnn es el número de ensayos.
 ppp es la probabilidad de éxito en cada ensayo.
 q=1−pq = 1 - pq=1−p es la probabilidad de fracaso.
Función de Masa de Probabilidad (pmf)

La función de probabilidad de la distribución binomial está dada por:


P(X=k)=(nk)pk(1−p)n−kP(X = k) = \binom{n}{k} p^k (1 - p)^{n - k}P(X=k)=(kn)pk(1−p)n−k
Donde:
 P(X=k)P(X = k)P(X=k) es la probabilidad de obtener exactamente kkk éxitos en nnn ensayos.
 (nk)\binom{n}{k}(kn) es el coeficiente binomial, que se calcula como:
(nk)=n!k!(n−k)!\binom{n}{k} = \frac{n!}{k!(n-k)!}(kn)=k!(n−k)!n!
 pkp^kpk representa la probabilidad de obtener kkk éxitos.
 (1−p)n−k(1 - p)^{n - k}(1−p)n−k representa la probabilidad de obtener n−kn - kn−k fracasos.
Ejemplo

Supongamos que lanzamos una moneda justa (p=0.5p = 0.5p=0.5) cinco veces (n=5n = 5n=5) y
queremos conocer la probabilidad de obtener exactamente 3 caras (k=3k = 3k=3).
Aplicamos la función binomial:
P(X=3)=(53)(0.5)3(1−0.5)5−3P(X = 3) = \binom{5}{3} (0.5)^3 (1 - 0.5)^{5 - 3}P(X=3)=(35)
(0.5)3(1−0.5)5−3 P(X=3)=5!3!(5−3)!(0.5)3(0.5)2P(X = 3) = \frac{5!}{3!(5-3)!} (0.5)^3 (0.5)^2P(X=3)=3!
(5−3)!5!(0.5)3(0.5)2 P(X=3)=5!3!2!(0.5)5P(X = 3) = \frac{5!}{3!2!} (0.5)^5P(X=3)=3!2!5!(0.5)5
P(X=3)=5×42×1×0.03125P(X = 3) = \frac{5 \times 4}{2 \times 1} \times 0.03125P(X=3)=2×15×4
×0.03125 P(X=3)=202×0.03125=10×0.03125=0.3125P(X = 3) = \frac{20}{2} \times 0.03125 = 10 \
times 0.03125 = 0.3125P(X=3)=220×0.03125=10×0.03125=0.3125
Por lo tanto, la probabilidad de obtener exactamente 3 caras en 5 lanzamientos es 0.3125 (31.25%).
Esperanza y Varianza

5
Las principales medidas estadísticas de la distribución binomial son:
1. Esperanza matemática o media:
E(X)=npE(X) = n pE(X)=np
Representa el número esperado de éxitos en nnn ensayos.
2. Varianza:
Var(X)=np(1−p)\text{Var}(X) = n p (1 - p)Var(X)=np(1−p)
Mide la dispersión de los valores de la variable aleatoria con respecto a su media.
3. Desviación estándar:
σ=np(1−p)\sigma = \sqrt{n p (1 - p)}σ=np(1−p)
Representa la dispersión en la misma unidad de medida de la variable aleatoria.
Aplicaciones de la Distribución Binomial

La distribución binomial es ampliamente utilizada en diversas disciplinas, como:


 Estadística y control de calidad: Para evaluar la proporción de productos defectuosos en un
lote de producción.
 Biología y medicina: Para modelar la probabilidad de que un paciente reaccione
positivamente a un tratamiento.
 Economía y finanzas: Para predecir la probabilidad de éxito en una inversión con múltiples
intentos.
 Ciencias sociales: Para analizar la probabilidad de éxito en encuestas con respuestas
binarias (sí/no).

3.2.2 Distribución hipergeométrica

Definición

La distribución hipergeométrica es un modelo de probabilidad discreta que describe el número de


éxitos en una muestra extraída sin reemplazo de una población finita. Se diferencia de la distribución
binomial en que la probabilidad de éxito cambia en cada ensayo, ya que no hay reposición de los
elementos seleccionados.
Matemáticamente, una variable aleatoria XXX sigue una distribución hipergeométrica si
representa el número de éxitos en una muestra de tamaño nnn tomada de una población de tamaño
NNN, donde hay KKK elementos exitosos y N−KN - KN−K elementos fallidos.
Se denota como:
6
X∼H(N,K,n)X \sim H(N, K, n)X∼H(N,K,n)
Donde:
 NNN es el tamaño total de la población.
 KKK es el número total de elementos exitosos en la población.
 nnn es el tamaño de la muestra extraída.
 XXX es la variable aleatoria que representa el número de éxitos en la muestra.
Función de Masa de Probabilidad (pmf)

La probabilidad de obtener exactamente kkk éxitos en la muestra de tamaño nnn se calcula con la
función de masa de probabilidad:
P(X=k)=(Kk)(N−Kn−k)(Nn)P(X = k) = \frac{\binom{K}{k} \binom{N-K}{n-k}}{\binom{N}{n}}P(X=k)=(nN)
(kK)(n−kN−K)
Donde:
 (Kk)\binom{K}{k}(kK) representa las formas en que se pueden elegir kkk éxitos de los KKK
disponibles.
 (N−Kn−k)\binom{N-K}{n-k}(n−kN−K) representa las formas de elegir n−kn-kn−k fracasos de los
N−KN-KN−K disponibles.
 (Nn)\binom{N}{n}(nN) es la cantidad total de formas de seleccionar una muestra de nnn
elementos de una población de NNN.
Ejemplo

Supongamos que en una fábrica hay 10 productos, de los cuales 4 son defectuosos y 6 son
funcionales. Se extrae una muestra de 3 productos sin reposición, y queremos conocer la
probabilidad de que exactamente 2 productos sean defectuosos.
Aquí los parámetros son:
 N=10N = 10N=10 (total de productos).
 K=4K = 4K=4 (productos defectuosos).
 n=3n = 3n=3 (tamaño de la muestra).
 k=2k = 2k=2 (productos defectuosos en la muestra).
Aplicamos la fórmula:
P(X=2)=(42)(61)(103)P(X = 2) = \frac{\binom{4}{2} \binom{6}{1}}{\binom{10}{3}}P(X=2)=(310)(24)(16)
Calculamos los coeficientes binomiales:

7
(42)=4!2!(4−2)!=4×32×1=6\binom{4}{2} = \frac{4!}{2!(4-2)!} = \frac{4 \times 3}{2 \times 1} = 6(24)=2!
(4−2)!4!=2×14×3=6 (61)=6!1!(6−1)!=61=6\binom{6}{1} = \frac{6!}{1!(6-1)!} = \frac{6}{1} = 6(16)=1!
(6−1)!6!=16=6 (103)=10!3!(10−3)!=10×9×83×2×1=120\binom{10}{3} = \frac{10!}{3!(10-3)!} = \frac{10 \
times 9 \times 8}{3 \times 2 \times 1} = 120(310)=3!(10−3)!10!=3×2×110×9×8=120
Sustituyendo en la ecuación:
P(X=2)=6×6120=36120=0.3P(X = 2) = \frac{6 \times 6}{120} = \frac{36}{120} = 0.3P(X=2)=1206×6
=12036=0.3
Por lo tanto, la probabilidad de seleccionar exactamente 2 productos defectuosos en una muestra de
3 es 0.3 (30%).
Esperanza y Varianza

Las medidas estadísticas para la distribución hipergeométrica son:


1. Esperanza matemática o media:
E(X)=nKNE(X) = n \frac{K}{N}E(X)=nNK
Representa el número esperado de éxitos en la muestra.
2. Varianza:
Var(X)=nKN(1−KN)N−nN−1\text{Var}(X) = n \frac{K}{N} \left( 1 - \frac{K}{N} \right) \frac{N - n}{N
- 1}Var(X)=nNK(1−NK)N−1N−n
Mide la dispersión de la variable aleatoria con respecto a su media.
Diferencias entre la Distribución Hipergeométrica y la Binomial

Característica Distribución Binomial Distribución Hipergeométrica

Tamaño de la población Infinita o muy grande Finita

Tipo de muestreo Con reemplazo Sin reemplazo

Probabilidad de éxito en cada ensayo Constante Variable

Independencia de los ensayos Sí No

Aplicaciones de la Distribución Hipergeométrica

8
 Control de calidad: Evaluar el número de productos defectuosos en una muestra sin
reemplazo.
 Biología y genética: Calcular la probabilidad de heredar ciertos genes en un grupo limitado.
 Estadística electoral: Modelar la selección de individuos en encuestas sin repetición.
 Juegos de azar: Determinar la probabilidad de extraer ciertas cartas de una baraja sin
reposición.

3.2.3. Aproximación de la hipergeométrica por la binomial

Introducción

La distribución hipergeométrica es adecuada cuando se extraen elementos sin reemplazo de una


población finita. Sin embargo, en algunos casos, calcular su probabilidad exacta puede ser complejo,
especialmente cuando el tamaño de la población (NNN) es grande. En estas situaciones, la
distribución binomial puede utilizarse como una aproximación a la hipergeométrica, simplificando
los cálculos sin perder precisión significativa.
Condición para la Aproximación

La distribución binomial puede aproximar a la hipergeométrica cuando el tamaño de la población


NNN es mucho mayor que el tamaño de la muestra nnn, es decir:
N≫nN \gg nN≫n
Como regla general, se acepta la aproximación si:
nN≤0.05\frac{n}{N} \leq 0.05Nn≤0.05
Esto significa que el tamaño de la muestra nnn no debe ser mayor al 5% del tamaño total de la
población NNN. Bajo esta condición, la extracción de un elemento no afecta significativamente la
probabilidad de éxito en los ensayos posteriores, haciendo que la suposición de probabilidades
constantes (propia de la distribución binomial) sea válida.
Relación Matemática

Si una variable aleatoria XXX sigue una distribución hipergeométrica con parámetros N,K,nN, K,
nN,K,n:
X∼H(N,K,n)X \sim H(N, K, n)X∼H(N,K,n)
Entonces, bajo la condición de que NNN sea grande en comparación con nnn, podemos aproximar
XXX mediante una distribución binomial:
X∼B(n,p)X \sim B(n, p)X∼B(n,p)
9
donde la probabilidad de éxito ppp se define como:
p=KNp = \frac{K}{N}p=NK
Es decir, en la aproximación binomial, cada ensayo tiene una probabilidad constante de éxito igual a
la proporción de éxitos en la población.
Ejemplo

Supongamos que en una fábrica hay 500 productos, de los cuales 100 son defectuosos (K=100K
= 100K=100). Se selecciona una muestra aleatoria de 20 productos (n=20n = 20n=20) y queremos
conocer la probabilidad de que exactamente 3 productos sean defectuosos.
Solución exacta con la distribución Hipergeométrica

Los parámetros de la distribución hipergeométrica son:


 N=500N = 500N=500 (tamaño de la población).
 K=100K = 100K=100 (productos defectuosos).
 n=20n = 20n=20 (tamaño de la muestra).
 k=3k = 3k=3 (número de defectuosos en la muestra).
La probabilidad exacta se calcularía con la función de masa de probabilidad hipergeométrica:
P(X=3)=(1003)(40017)(50020)P(X = 3) = \frac{\binom{100}{3} \binom{400}{17}}{\binom{500}
{20}}P(X=3)=(20500)(3100)(17400)
Sin embargo, este cálculo es laborioso.
Aproximación con la distribución Binomial

Como la muestra es solo el 4% de la población (20/500=0.0420/500 = 0.0420/500=0.04), podemos


usar la aproximación binomial:
 p=100500=0.2p = \frac{100}{500} = 0.2p=500100=0.2
 X∼B(20,0.2)X \sim B(20, 0.2)X∼B(20,0.2)
La probabilidad aproximada se calcula con la fórmula binomial:
P(X=3)=(203)(0.2)3(0.8)17P(X = 3) = \binom{20}{3} (0.2)^3 (0.8)^{17}P(X=3)=(320)(0.2)3(0.8)17
P(X=3)=20!3!(17!)(0.008)(0.231)P(X = 3) = \frac{20!}{3!(17!)} (0.008) (0.231)P(X=3)=3!(17!)20!(0.008)
(0.231) P(X=3)≈0.205P(X = 3) \approx 0.205P(X=3)≈0.205

Comparación de Resultados

10
Si se calcula la probabilidad exacta usando la distribución hipergeométrica, se obtiene
aproximadamente 0.203. La diferencia entre ambos resultados es mínima, lo que valida la
aproximación binomial en este caso.
Ventajas de la Aproximación Binomial

1. Simplicidad en los cálculos: La fórmula binomial es más fácil de usar que la


hipergeométrica.
2. Uso de tablas y software: Existen muchas tablas y herramientas estadísticas para la
distribución binomial, facilitando su aplicación.
3. Mayor generalidad: La binomial se aplica en más contextos y simplifica la interpretación de
los resultados.
Conclusión

Cuando el tamaño de la población NNN es grande y la muestra nnn es pequeña en comparación con
NNN, la distribución binomial proporciona una excelente aproximación a la distribución
hipergeométrica. Esta aproximación facilita los cálculos sin afectar significativamente la precisión de
los resultados.

3.2.4 Distribución geométrica

La distribución geométrica es un modelo de probabilidad discreta que describe el número de


ensayos necesarios hasta obtener el primer éxito en una serie de ensayos independientes de
Bernoulli. En otras palabras, modela la probabilidad de que la primera ocurrencia de un evento
exitoso suceda en el intento número XXX.
Se dice que una variable aleatoria XXX sigue una distribución geométrica si cuenta la cantidad de
ensayos hasta el primer éxito en un experimento de Bernoulli repetido. Se denota como:
X∼Ge(p)X \sim Ge(p)X∼Ge(p)
Donde:
 XXX es la variable aleatoria que representa el número de ensayos hasta el primer éxito.
 ppp es la probabilidad de éxito en cada ensayo.
Ejemplo de Uso

Supongamos que lanzamos una moneda y queremos contar cuántos intentos necesitamos hasta
obtener la primera cara. La variable aleatoria XXX sigue una distribución geométrica con p=0.5p =
0.5p=0.5, pues cada intento tiene una probabilidad del 50% de éxito.

11
Función de Masa de Probabilidad (pmf)

La función de masa de probabilidad de la distribución geométrica está dada por:


P(X=k)=(1−p)k−1p,k=1,2,3,…P(X = k) = (1 - p)^{k-1} p, \quad k = 1, 2, 3, \
dotsP(X=k)=(1−p)k−1p,k=1,2,3,…
Esto representa la probabilidad de que el primer éxito ocurra en el kkk-ésimo intento, después de
k−1k-1k−1 fracasos.
Ejemplo de Cálculo

Si la probabilidad de éxito en cada ensayo es p=0.2p = 0.2p=0.2 y queremos saber la probabilidad de


que el primer éxito ocurra en el tercer intento, aplicamos la fórmula:
P(X=3)=(1−0.2)3−1(0.2)P(X = 3) = (1 - 0.2)^{3-1} (0.2)P(X=3)=(1−0.2)3−1(0.2)
P(X=3)=(0.8)2(0.2)=0.128P(X = 3) = (0.8)^2 (0.2) = 0.128P(X=3)=(0.8)2(0.2)=0.128
Es decir, hay un 12.8% de probabilidad de que el primer éxito ocurra en el tercer intento.

Esperanza y Varianza

Los parámetros principales de la distribución geométrica son:


1. Esperanza matemática o media:
E(X)=1pE(X) = \frac{1}{p}E(X)=p1
Indica el número promedio de ensayos necesarios para obtener el primer éxito.
2. Varianza:
Var(X)=1−pp2\text{Var}(X) = \frac{1 - p}{p^2}Var(X)=p21−p
Mide la dispersión de la variable respecto a su media.

Propiedades de la Distribución Geométrica

1. Memoria sin memoria: La distribución geométrica tiene la propiedad de falta de memoria,


lo que significa que la probabilidad de éxito en el futuro no depende de los ensayos pasados.
Matemáticamente:
P(X>k+m∣X>k)=P(X>m)P(X > k + m | X > k) = P(X > m)P(X>k+m∣X>k)=P(X>m)
Es decir, si llevamos varios intentos sin éxito, la probabilidad de éxito en el siguiente intento
sigue siendo ppp, como si estuviéramos comenzando de nuevo.

12
2. Distribución discreta infinita: La variable aleatoria XXX puede tomar valores en un conjunto
infinito {1,2,3,...}\{1, 2, 3, ...\}{1,2,3,...}, ya que teóricamente podemos seguir intentando
indefinidamente hasta obtener el primer éxito.
3. Monótona decreciente: La función de masa de probabilidad disminuye conforme aumenta
kkk, ya que es menos probable que el primer éxito ocurra en intentos tardíos.

Aplicaciones de la Distribución Geométrica

 Calidad y producción: Estimar cuántos productos se inspeccionarán antes de encontrar el


primer defectuoso.
 Biología: Modelar el número de intentos hasta que un gen se exprese correctamente.
 Redes de comunicación: Contar cuántos intentos de transmisión de datos son necesarios
hasta el primer envío exitoso.
 Juegos de azar: Determinar la cantidad de veces que se debe jugar hasta obtener la primera
victoria.
Ejemplo Práctico

Supongamos que un jugador de básquetbol tiene un 30% de probabilidad de anotar en cada tiro
libre. Si lanza una serie de tiros, queremos determinar la probabilidad de que anote en su segundo
intento.
Usamos la fórmula:
P(X=2)=(1−0.3)2−1(0.3)P(X = 2) = (1 - 0.3)^{2-1} (0.3)P(X=2)=(1−0.3)2−1(0.3)
P(X=2)=(0.7)1(0.3)=0.21P(X = 2) = (0.7)^1 (0.3) = 0.21P(X=2)=(0.7)1(0.3)=0.21
Esto significa que hay un 21% de probabilidad de que anote en su segundo intento.
Conclusión

La distribución geométrica es una herramienta poderosa para modelar situaciones donde se buscan
los intentos necesarios hasta el primer éxito. Su aplicación en diversos campos como la industria, la
biología y la informática la hace fundamental en la teoría de probabilidades.

3.2.5 Distribución multinomial

La distribución multinomial es una generalización de la distribución binomial, que modela


experimentos con más de dos posibles resultados en cada ensayo. Mientras que la distribución
binomial se limita a eventos con dos categorías (éxito o fracaso), la multinomial permite múltiples
categorías o clases.
13
Se dice que una variable aleatoria XXX sigue una distribución multinomial si representa el número
de veces que ocurren distintos eventos en una secuencia de nnn ensayos independientes, donde
cada ensayo tiene kkk posibles resultados con probabilidades constantes.
Matemáticamente, si cada ensayo puede dar lugar a uno de kkk resultados con probabilidades
p1,p2,…,pkp_1, p_2, \dots, p_kp1,p2,…,pk, la variable aleatoria (X1,X2,…,Xk)(X_1, X_2, \dots, X_k)
(X1,X2,…,Xk) sigue una distribución multinomial:
(X1,X2,…,Xk)∼Mult(n,p1,p2,…,pk)(X_1, X_2, \dots, X_k) \sim Mult(n, p_1, p_2, \dots, p_k)(X1,X2,
…,Xk)∼Mult(n,p1,p2,…,pk)
Donde:
 nnn es el número total de ensayos.
 XiX_iXi es la cantidad de veces que ocurre el evento iii.
 pip_ipi es la probabilidad de ocurrencia del evento iii, con la condición de que:
∑i=1kpi=1\sum_{i=1}^{k} p_i = 1i=1∑kpi=1
 ∑i=1kXi=n\sum_{i=1}^{k} X_i = n∑i=1kXi=n (la suma de las frecuencias de todos los eventos
es igual al número total de ensayos).
Función de Masa de Probabilidad (pmf)

La función de probabilidad de la distribución multinomial está dada por:


P(X1=x1,X2=x2,…,Xk=xk)=n!x1!x2!…xk!p1x1p2x2…pkxkP(X_1 = x_1, X_2 = x_2, \dots, X_k = x_k) =
\frac{n!}{x_1! x_2! \dots x_k!} p_1^{x_1} p_2^{x_2} \dots p_k^{x_k}P(X1=x1,X2=x2,…,Xk=xk)=x1!x2!
…xk!n!p1x1p2x2…pkxk
donde x1,x2,…,xkx_1, x_2, \dots, x_kx1,x2,…,xk son los valores específicos que pueden tomar las
variables X1,X2,…,XkX_1, X_2, \dots, X_kX1,X2,…,Xk.
Esta ecuación expresa la probabilidad de observar una combinación específica de frecuencias en
nnn ensayos.
Ejemplo de Cálculo

Un dado de seis caras se lanza 10 veces, y queremos calcular la probabilidad de obtener los
siguientes resultados:
 Cara 1: 2 veces
 Cara 2: 3 veces
 Cara 3: 1 vez
 Cara 4: 2 veces

14
 Cara 5: 1 vez
 Cara 6: 1 vez
Dado que cada cara tiene la misma probabilidad de aparecer (p1=p2=p3=p4=p5=p6=16p_1 = p_2 =
p_3 = p_4 = p_5 = p_6 = \frac{1}{6}p1=p2=p3=p4=p5=p6=61), aplicamos la función multinomial:
P(X1=2,X2=3,X3=1,X4=2,X5=1,X6=1)=10!2!3!1!2!1!1!(16)2(16)3(16)1(16)2(16)1(16)1P(X_1 = 2, X_2
= 3, X_3 = 1, X_4 = 2, X_5 = 1, X_6 = 1) = \frac{10!}{2!3!1!2!1!1!} \left(\frac{1}{6}\right)^2 \left(\frac{1}
{6}\right)^3 \left(\frac{1}{6}\right)^1 \left(\frac{1}{6}\right)^2 \left(\frac{1}{6}\right)^1 \left(\frac{1}{6}\
right)^1P(X1=2,X2=3,X3=1,X4=2,X5=1,X6=1)=2!3!1!2!1!1!10!(61)2(61)3(61)1(61)2(61)1(61)1
=3,628,8002⋅6⋅1⋅2⋅1⋅1×(16)10= \frac{3,628,800}{2 \cdot 6 \cdot 1 \cdot 2 \cdot 1 \cdot 1} \times \left(\
frac{1}{6}\right)^{10}=2⋅6⋅1⋅2⋅1⋅13,628,800×(61)10 =3,628,80024×(1610)= \frac{3,628,800}{24} \times
\left(\frac{1}{6^{10}}\right)=243,628,800×(6101) ≈0.0547\approx 0.0547≈0.0547
Esto significa que la probabilidad de obtener exactamente esta distribución de resultados es
aproximadamente 5.47%.
Esperanza y Varianza

Para cada categoría XiX_iXi, los valores esperados y la varianza son:


1. Esperanza matemática:
E(Xi)=npiE(X_i) = n p_iE(Xi)=npi
Indica la cantidad esperada de veces que ocurre el evento iii.
2. Varianza:
Var(Xi)=npi(1−pi)\text{Var}(X_i) = n p_i (1 - p_i)Var(Xi)=npi(1−pi)
Mide la dispersión de la variable XiX_iXi.
3. Covarianza entre dos categorías XiX_iXi y XjX_jXj:
Cov(Xi,Xj)=−npipj,para i≠j\text{Cov}(X_i, X_j) = -n p_i p_j, \quad \text{para } i \neq jCov(Xi,Xj
)=−npipj,para i=j
Esto indica que si una categoría aparece más veces de lo esperado, es probable que las otras
categorías ocurran menos veces.
Propiedades de la Distribución Multinomial

1. Generaliza la binomial: Si k=2k = 2k=2, la distribución multinomial se reduce a la


distribución binomial.
2. Las categorías son mutuamente excluyentes: En cada ensayo, solo puede ocurrir una de
las kkk categorías.
15
3. Las variables XiX_iXi están correlacionadas: Si una categoría ocurre más veces de lo
esperado, las demás ocurren menos veces.
4. Se usa en muestras aleatorias con múltiples resultados posibles: Es común en
experimentos con clasificación de objetos en distintas categorías.
Aplicaciones de la Distribución Multinomial

 Estadística electoral: Predecir la cantidad de votos que recibirán distintos partidos políticos.
 Análisis de encuestas: Modelar la distribución de respuestas en encuestas de opción
múltiple.
 Genética: Modelar la herencia de distintos alelos en poblaciones.
 Manufactura y control de calidad: Evaluar la frecuencia de distintos tipos de defectos en
productos.
 Marketing: Estimar la proporción de clientes que prefieren diferentes marcas o productos.
Ejemplo Aplicado

En una empresa se encuestan 500 empleados sobre su método de transporte al trabajo. Las
opciones son:
1. Auto propio (p1=0.4p_1 = 0.4p1=0.4)
2. Transporte público (p2=0.3p_2 = 0.3p2=0.3)
3. Bicicleta (p3=0.2p_3 = 0.2p3=0.2)
4. Caminando (p4=0.1p_4 = 0.1p4=0.1)
Si se obtienen los siguientes resultados:
 Auto propio: 210 empleados
 Transporte público: 140 empleados
 Bicicleta: 100 empleados
 Caminando: 50 empleados
La probabilidad de que ocurra exactamente esta distribución se calcula con la función multinomial:
P(X1=210,X2=140,X3=100,X4=50)=500!210!140!100!50!(0.4)210(0.3)140(0.2)100(0.1)50P(X_1 =
210, X_2 = 140, X_3 = 100, X_4 = 50) = \frac{500!}{210!140!100!50!} (0.4)^{210} (0.3)^{140}
(0.2)^{100} (0.1)^{50}P(X1=210,X2=140,X3=100,X4=50)=210!140!100!50!500!
(0.4)210(0.3)140(0.2)100(0.1)50
Este cálculo es complejo, pero puede realizarse con software estadístico como R, Python, o Excel.
Conclusión

16
La distribución multinomial es fundamental para modelar experimentos en los que cada ensayo tiene
múltiples resultados posibles. Su aplicación en encuestas, genética, producción y marketing la hace
indispensable en la estadística aplicada.

3.3.6 Distribución de Poisson

La distribución de Poisson es una distribución de probabilidad discreta que modela la cantidad de


eventos que ocurren en un intervalo de tiempo o espacio dado, bajo la suposición de que estos
eventos suceden de manera independiente y con una tasa promedio constante.
Se aplica en situaciones donde se cuenta el número de ocurrencias de un suceso en un período
determinado, como el número de llamadas en un call center por hora, el número de defectos en un
material o la cantidad de autos que pasan por un peaje en un minuto.
Matemáticamente, una variable aleatoria XXX sigue una distribución de Poisson con parámetro λ\
lambdaλ si su función de probabilidad está dada por:
P(X=k)=e−λλkk!,k=0,1,2,…P(X = k) = \frac{e^{-\lambda} \lambda^k}{k!}, \quad k = 0, 1, 2, \
dotsP(X=k)=k!e−λλk,k=0,1,2,…
Donde:
 λ\lambdaλ es el número esperado de eventos en el intervalo considerado.
 eee es la base del logaritmo natural (e≈2.718e \approx 2.718e≈2.718).
 kkk representa el número de eventos observados en el intervalo.
Características de la Distribución de Poisson

1. Los eventos ocurren de manera aleatoria e independiente: La aparición de un evento no


afecta la ocurrencia de otro.
2. El número esperado de eventos en un intervalo es constante: Está determinado por el
parámetro λ\lambdaλ.
3. No hay límite superior en la cantidad de eventos que pueden ocurrir: Aunque es más
probable observar valores cercanos a λ\lambdaλ, teóricamente kkk puede tomar cualquier
valor no negativo.
4. Cuando λ\lambdaλ es grande, la distribución de Poisson se aproxima a una normal:
Esto permite utilizar aproximaciones para cálculos complejos.
Esperanza, Varianza y Desviación Estándar

17
Para una variable aleatoria X∼Poisson(λ)X \sim Poisson(\lambda)X∼Poisson(λ), se cumplen las
siguientes propiedades:
 Esperanza matemática (media):
E(X)=λE(X) = \lambdaE(X)=λ
 Varianza:
Var(X)=λ\text{Var}(X) = \lambdaVar(X)=λ
 Desviación estándar:
σ=λ\sigma = \sqrt{\lambda}σ=λ
Esto indica que en una distribución de Poisson, la media y la varianza son iguales.
Ejemplo de Aplicación

Supongamos que una empresa de atención telefónica recibe en promedio 5 llamadas por minuto.
Se quiere calcular la probabilidad de que en un minuto se reciban exactamente 7 llamadas.
Dado que λ=5\lambda = 5λ=5, usamos la función de Poisson:
P(X=7)=e−5577!P(X = 7) = \frac{e^{-5} 5^7}{7!}P(X=7)=7!e−557
Calculando los valores:
P(X=7)=e−5×781255040P(X = 7) = \frac{e^{-5} \times 78125}{5040}P(X=7)=5040e−5×78125
P(X=7)≈0.0067×781255040P(X = 7) \approx \frac{0.0067 \times 78125}
{5040}P(X=7)≈50400.0067×78125 P(X=7)≈0.1044P(X = 7) \approx 0.1044P(X=7)≈0.1044
Por lo tanto, la probabilidad de recibir exactamente 7 llamadas en un minuto es aproximadamente
10.44%.
Aplicaciones de la Distribución de Poisson

La distribución de Poisson se usa ampliamente en diversos campos, tales como:


1. Telefonía y redes: Modelar la cantidad de llamadas en un centro de atención o paquetes de
datos en una red de telecomunicaciones.
2. Control de calidad: Estimar el número de defectos en un lote de productos manufacturados.
3. Biología y medicina: Analizar la cantidad de mutaciones genéticas en una muestra de ADN o
la aparición de enfermedades raras en una población.
4. Finanzas y seguros: Modelar la frecuencia de reclamaciones en una compañía de seguros.
5. Transporte y tráfico: Estimar la cantidad de autos que pasan por un peaje en un periodo
específico.
6. Astronomía: Medir la cantidad de estrellas que aparecen en una región determinada del cielo.
18
Relación con Otras Distribuciones

 Poisson como límite de la Binomial: Si X∼Bin(n,p)X \sim Bin(n, p)X∼Bin(n,p) y n→∞n \to \
inftyn→∞, con np=λnp = \lambdanp=λ constante, entonces XXX se aproxima a una
distribución de Poisson con parámetro λ\lambdaλ.
 Aproximación Normal: Si λ\lambdaλ es grande, la distribución de Poisson puede
aproximarse con una normal N(λ,λ)N(\lambda, \sqrt{\lambda})N(λ,λ).
Conclusión

La distribución de Poisson es esencial para modelar fenómenos en los que se cuenta el número de
ocurrencias de un evento en un intervalo de tiempo o espacio. Su aplicabilidad en diversas áreas,
desde la biología hasta la ingeniería, la hace una herramienta estadística fundamental.

Conclusión General

En conclusión, el estudio de las variables aleatorias discretas y sus distribuciones de probabilidad


discreta es fundamental dentro del análisis probabilístico y la estadística aplicada. Estas
herramientas permiten modelar eventos en los que las posibles ocurrencias son finitas o numerables,
facilitando la predicción y toma de decisiones en diversos ámbitos. La comprensión de estas
distribuciones proporciona un marco sólido para analizar fenómenos en disciplinas como la
economía, la ingeniería, la biología, la administración, y la ciencia de datos.
19
A lo largo de esta investigación, se abordaron distintas distribuciones de probabilidad discreta, cada
una con características específicas que las hacen aplicables a distintos escenarios. La distribución
binomial, por ejemplo, es esencial para modelar experimentos con dos posibles resultados, mientras
que la distribución hipergeométrica resulta clave en situaciones donde el muestreo se realiza sin
reemplazo. Por otro lado, la distribución geométrica ayuda a determinar la cantidad de intentos hasta
el primer éxito, y la distribución multinomial extiende la binomial a experimentos con más de dos
categorías. Finalmente, la distribución de Poisson es una de las más utilizadas para modelar eventos
que ocurren en un intervalo de tiempo o espacio bajo ciertas condiciones de independencia y
frecuencia constante.

Uno de los aspectos más importantes en el estudio de estas distribuciones es su aplicabilidad en


problemas del mundo real. Desde la predicción de fallas en procesos industriales, la estimación del
número de clientes en una tienda, el análisis de fenómenos naturales, hasta la evaluación de riesgos
en seguros y finanzas, las distribuciones de probabilidad discreta ofrecen soluciones cuantitativas
basadas en principios matemáticos sólidos. Además, su interrelación permite realizar
aproximaciones y cálculos eficientes en situaciones donde los modelos exactos pueden ser
demasiado complejos.

En resumidas cuentas, la comprensión de las variables aleatorias discretas y sus distribuciones de


probabilidad no solo enriquece el conocimiento teórico en el campo de la estadística, sino que
también proporciona herramientas esenciales para la resolución de problemas prácticos en múltiples
disciplinas. Su estudio permite mejorar la toma de decisiones basada en datos, optimizar recursos y
evaluar incertidumbres en distintos contextos. Por ello, su dominio es indispensable para quienes
buscan desarrollar análisis probabilísticos robustos en cualquier área del conocimiento.

Bibliografía
Devore, J. L. (2008). Probabilidad y estadística para ingeniería y ciencias (7ª ed.). México: Cengage
Learning. Recuperado de
[Link]
APUNTES/APUNTES%20PDF/Probabilidad%20y%20Estadistica%20para%20Ingenieria%20y
%20Ciencias%20-%20Jay%20Devore%20-%20Septima%[Link]

20
LibreTexts Español. (s.f.). Distribuciones de Probabilidad Discretas. Recuperado de
[Link]
%3A_Probabilidad_Introductoria_%28Grinstead_y_Snell
%29/01%3A_Distribuciones_de_Probabilidad_Discretas
López, B. (s.f.). Variables aleatorias discretas y sus distribuciones de probabilidad. Universidad
Nacional Autónoma de México. Recuperado de
[Link]
Universidad Centroamericana José Simeón Cañas. (2020). Distribución de probabilidades.
Recuperado de [Link]
%200002%[Link]?isAllowed=y&sequence=1
Universidad de Murcia. (s.f.). Tema 5. Variables aleatorias discretas. Recuperado de
[Link]
56d029769c4c
Universitat de València. (2023). Probabilidad básica. Recuperado de
[Link]
Wikipedia. (2023). Distribución de Poisson. Recuperado de [Link]
%C3%B3n_de_Poisson

Regresar

21

También podría gustarte