# Manual de Distribuciones de Probabilidad Discretas y Continuas
## Introducción
En probabilidad se utilizan **variables aleatorias** para asignar un número a
cada resultado de un experimento. Una variable aleatoria **discreta** toma
valores de un conjunto finito o numerable, mientras que una **continua** adopta
valores en un intervalo de la recta real【339922809083248†L69-L95】. Elegir la
distribución adecuada depende del tipo de variable y de las condiciones del
experimento (p. ej. número de repeticiones, independencia de los ensayos, si hay
reemplazo, etc.). Este manual resume las distribuciones más usadas, las fórmulas
básicas y cómo aplicarlas.
## Distribuciones discretas
### Distribución de Bernoulli
- **Contexto y condiciones**: modelo para un solo ensayo con dos resultados
posibles, etiquetados como *éxito* (probabilidad \(p\)) y *fracaso*
(probabilidad \(1-p\))【754051207211173†L46-L68】. La variable \(X\) toma el
valor 1 en caso de éxito y 0 en caso de fracaso.
- **Función de probabilidad (pmf)**:
\[
P(X=1)=p, \quad P(X=0)=1-p.
\]
- **Media y varianza**: \(E[X]=p\), \(\operatorname{Var}(X)=p(1-p)\).
- **Aplicación típica**: comprobar si una máquina produce una pieza buena
(\(1\)) o defectuosa (\(0\)). Sirve de base para otras distribuciones.
### Distribución binomial
- **Contexto**: se repite un experimento de Bernoulli \(n\) veces de forma
independiente, con probabilidad de éxito constante \(p\). Interesa el número \
(k\) de éxitos obtenidos【84456360327523†L17-L88】.
- **Función de probabilidad**:
\[
P(X=k)=\binom{n}{k} p^k (1-p)^{n-k}, \quad k=0,1,\ldots,n.
\]
- **Media y varianza**: \(E[X]=np\), \(\operatorname{Var}(X)=np(1-p)\).
- **Aplicación práctica**: número de encuestas favorables en una muestra de \
(n\) individuos, piezas defectuosas en un lote, respuestas correctas en un
examen de tipo test.
### Distribución geométrica
- **Contexto**: se repiten ensayos de Bernoulli hasta obtener el primer éxito.
Los ensayos son independientes y la probabilidad de éxito se mantiene constante
\(p\). La variable \(X\) es el número de ensayos necesarios
【594851655123511†L13-L30】【603881431782411†L4-L18】.
- **Función de probabilidad** (forma \(x\) desde 1):
\[
P(X=x)= (1-p)^{x-1} p, \quad x=1,2,\ldots
\]
- **Media y varianza**: \(E[X]=1/p\), \(\operatorname{Var}(X)=(1-p)/p^2\).
- **Propiedad destacada**: falta de memoria (probabilidad de esperar \(t\)
ensayos más es independiente del número de ensayos ya transcurridos).
- **Aplicación**: número de llamadas hasta contactar con la primera persona que
contesta, intentos necesarios para un lanzamiento acertado.
### Distribución binomial negativa
- **Contexto**: generaliza la geométrica. Se realizan ensayos de Bernoulli
independientes hasta obtener \(r\) éxitos. La variable \(X\) es el número total
de ensayos necesarios【869030378338844†L2-L35】.
- **Función de probabilidad**:
\[
P(X=n) = \binom{n-1}{r-1} p^r (1-p)^{n-r}, \quad n=r,r+1,\ldots
\]
- **Media y varianza**: \(E[X]=r/p\), \(\operatorname{Var}(X)=r(1-p)/p^2\).
- **Aplicación**: número de lanzamientos necesarios para obtener \(r\) caras en
una moneda, número de ventas hasta vender \(r\) productos.
### Distribución hipergeométrica
- **Contexto**: se extrae una muestra de tamaño \(n\) sin reemplazo de una
población finita de \(N\) elementos, de los cuales \(K\) presentan una
característica. La variable \(X\) es el número de elementos con la
característica en la muestra【513864623142703†L10-L32】. Las probabilidades
cambian tras cada extracción.
- **Función de probabilidad**:
\[
P(X=k)=\frac{\binom{K}{k}\binom{N-K}{n-k}}{\binom{N}{n}}, \quad \max(0,n-(N-K))
\le k \le \min(n,K).
\]
- **Media y varianza**: \(E[X]=n\frac{K}{N}\), \(\operatorname{Var}(X)=n\frac{K}
{N} \left(1-\frac{K}{N}\right) \frac{N-n}{N-1}\).
- **Aplicación**: inspección sin reemplazar; p. ej. extraer \(n\) piezas de un
lote de \(N\) sin devolverlas y contar defectuosas.
### Distribución de Poisson
- **Contexto**: modela el número de ocurrencias de un evento en un intervalo de
tiempo, espacio o volumen. Supone que las ocurrencias en intervalos pequeños son
raras, los eventos son independientes y el número medio de ocurrencias es
proporcional a la longitud del intervalo【9355444714222†L31-L50】.
- **Función de probabilidad**:
\[
P(X=k)=\frac{e^{-\lambda} \lambda^k}{k!}, \quad k=0,1,2,\ldots
\]
- **Media y varianza**: ambas iguales al parámetro \(\lambda\)
【9355444714222†L103-L113】.
- **Aplicación**: número de clientes que llegan a una ventanilla en una hora,
llamadas telefónicas por minuto, defectos en una longitud de cable.
### Distribución uniforme discreta
- **Contexto**: una variable aleatoria toma \(n\) valores distintos con la misma
probabilidad, por ejemplo, al lanzar un dado. Si los valores son
\(1,2,\ldots,n\), cada uno ocurre con probabilidad \(1/n\)【875997579240568†L2-
L25】.
- **Función de probabilidad**:
\[
P(X=i)=\frac{1}{n}, \quad i=1,2,\ldots,n.
\]
- **Media y varianza**: \(E[X]=\frac{n+1}{2}\), \(\operatorname{Var}
(X)=\frac{n^2-1}{12}\).
- **Aplicación**: resultados de un dado perfecto, elegir al azar un día de la
semana.
## Distribuciones continuas
### Distribución uniforme continua
- **Contexto**: la variable \(X\) puede tomar cualquier valor dentro del
intervalo \([a,b]\) y todos los subintervalos de la misma longitud son
igualmente probables【20523535887000†L4-L31】.
- **Función de densidad (pdf)**:
\[
f(x) = \begin{cases}\frac{1}{b-a}, & a \le x \le b,\\0,&\text{en otro caso.}
\end{cases}
\]
- **Media y varianza**: \(E[X]=\frac{a+b}{2}\), \(\operatorname{Var}
(X)=\frac{(b-a)^2}{12}\).
- **Aplicación**: seleccionar aleatoriamente un punto en un segmento, error de
medición uniformemente distribuido.
### Distribución normal (Gaussiana)
- **Contexto**: describe fenómenos con muchos factores pequeños e
independientes; surge en el teorema del límite central. Se caracteriza por la
media \(\mu\) y la desviación estándar \(\sigma\). Denotamos \(X\sim N(\mu,
\sigma^2)\).
- **Función de densidad**:
\[
f(x \mid \mu, \sigma^2) = \frac{1}{\sigma\sqrt{2\pi}} \exp\left(-\frac{1}
{2}\left(\frac{x-\mu}{\sigma}\right)^2\right)【337862174960137†L359-L376】.
\]
- **Propiedades**: simétrica alrededor de \(\mu\), campana unimodal,
aproximadamente el 68 % de los valores cae entre \(\mu\pm\sigma\), el 95 % entre
\(\mu\pm2\sigma\) y el 99,7 % entre \(\mu\pm3\sigma\)【337862174960137†L409-
L424】.
- **Media y varianza**: \(E[X]=\mu\), \(\operatorname{Var}(X)=\sigma^2\).
- **Aplicación**: alturas de personas, errores de medición, suma de muchas
variables aleatorias independientes.
### Distribución exponencial
- **Contexto**: modela el tiempo entre sucesos de un proceso de Poisson. Tiene
parámetro \(\mu\) (media) o \(\lambda=1/\mu\) (tasa de ocurrencia). Posee la
propiedad de falta de memoria.
- **Función de densidad y distribución acumulada**:
\[
f(t)=\frac{1}{\mu} e^{-t/\mu}, \quad F(t)=1-e^{-t/\mu}, \quad t\ge 0
【745509491914698†L23-L27】.
\]
- **Media y varianza**: \(E[X]=\mu\), \(\operatorname{Var}(X)=\mu^2\)
【745509491914698†L42-L49】.
- **Propiedad de falta de memoria**: \(P(X>t+s\mid X>s) = P(X>t)\)
【745509491914698†L50-L56】. Esto significa que el tiempo adicional de espera no
depende del tiempo ya transcurrido.
- **Aplicación**: tiempo entre llegadas en una cola, vida útil de componentes
electrónicos (cuando la tasa de fallo es constante).
### Distribución Gamma
- **Contexto**: generaliza la exponencial y describe tiempos de espera hasta
ocurrir \(k\) eventos en un proceso de Poisson. Tiene parámetros de forma \
(k>0\) y escala \(\theta>0\). Si \(k\) es entero, equivale a la suma de \(k\)
variables exponenciales independientes.
- **Función de densidad**:
\[
f(x;k,\theta)=\frac{x^{k-1} e^{-x/\theta}}{\theta^k \Gamma(k)}, \quad x>0
【227884436572658†L58-L74】.
\]
- **Media y varianza**: \(E[X]=k\theta\), \(\operatorname{Var}(X)=k\theta^2\)
【227884436572658†L58-L80】.
- **Relación con la exponencial**: cuando \(k=1\), \(\Gamma(1,\theta)\) es la
distribución exponencial de media \(\theta\)【227884436572658†L96-L117】.
- **Aplicación**: tiempos de vida acumulados de sistemas con múltiples
componentes, cantidad de lluvia acumulada en determinado periodo.
### Distribución chi-cuadrado
- **Contexto**: surge como la suma de los cuadrados de \(n\) variables normales
estándar independientes y se denota \(\chi^2_n\). Es un caso particular de la
distribución gamma \(\Gamma\left(\tfrac{n}{2},\tfrac{1}{2}\right)\)
【24159988903968†L420-L447】.
- **Función de densidad** (caso \(n\) grados de libertad):
\[
f(x)=\frac{1}{2^{n/2} \Gamma(n/2)} x^{\frac{n}{2}-1} e^{-x/2}, \quad x>0.
\]
- **Media y varianza**: \(E[X]=n\), \(\operatorname{Var}(X)=2n\).
- **Aplicación**: pruebas de bondad de ajuste y de independencia, intervalos de
confianza para varianzas.
### Distribución Beta
- **Contexto**: variable continua en el intervalo \([0,1]\). Es adecuada para
modelar proporciones o probabilidades. Tiene parámetros \(\alpha>0\) y \
(\beta>0\).
- **Función de densidad**:
\[
f(x;\alpha,\beta)=\frac{1}{B(\alpha,\beta)} x^{\alpha-1} (1-x)^{\beta-1}, \quad
0<x<1【263580958152689†L384-L416】,
\]
donde \(B(\alpha,\beta)\) es la función beta.
- **Media y varianza**: \(E[X]=\frac{\alpha}{\alpha+\beta}\), \
(\operatorname{Var}(X)=\frac{\alpha\beta}{(\alpha+\beta)^2(\alpha+\beta+1)}\)
【24159988903968†L510-L544】.
- **Aplicación**: distribuciones a priori en estadística bayesiana, proporción
de éxitos en ensayos binomiales, porcentaje de satisfacción.
### Distribución t de Student
- **Contexto**: se utiliza al estimar la media de una población normal cuando la
varianza es desconocida y el tamaño de muestra es pequeño. Se obtiene como el
cociente entre una variable normal estándar \(Z\) y la raíz cuadrada de una
variable \(\chi^2_n\) dividida por sus grados de libertad. Si \(Z\sim N(0,1)\) y
\(Y\sim\chi^2_n\) son independientes, entonces【388049575446696†L58-L71】
\[
T = \frac{Z}{\sqrt{Y/n}} \sim t_n.
\]
- **Función de densidad**:
\[
f_T(t)=\frac{\Gamma\big((n+1)/2\big)}{\sqrt{n\pi}\,\Gamma(n/2)} \left(1+
\frac{t^2}{n}\right)^{-\frac{n+1}{2}}【388049575446696†L58-L71】.
\]
- **Media y varianza**: \(E[T]=0\) para \(n>1\),
\(\operatorname{Var}(T)=n/(n-2)\) para \(n>2\)【388049575446696†L296-L305】.
- **Notas**: presenta colas más pesadas que la normal; cuando \(n\) aumenta
tiende a la normal estándar y con \(n=1\) se convierte en la distribución de
Cauchy【388049575446696†L296-L308】.
- **Aplicación**: estimación de medias y contraste de hipótesis con muestras
pequeñas (t-test).
### Distribución F de Fisher-Snedecor
- **Contexto**: relación de dos variables \(\chi^2\) independientes divididas
por sus grados de libertad. Si \(U\sim \chi^2_{d_1}\) y \(V\sim \chi^2_{d_2}\)
son independientes, entonces la variable
\[
F=\frac{U/d_1}{V/d_2}
\]
tiene distribución \(F\) con \(d_1\) y \(d_2\) grados de libertad
【810545357210267†L52-L63】.
- **Características**: sólo toma valores no negativos, tiene una cola derecha
larga y su forma depende de dos parámetros de grados de libertad
【810545357210267†L67-L74】. El valor esperado existe si \(d_2>2\) y vale \
(d_2/(d_2-2)【810545357210267†L67-L74】\); la varianza es más compleja (requiere
\(d_2>4\)).
- **Relación con \(\chi^2\)**: al aumentar \(d_2\) la distribución se aproxima a
una \(\chi^2_{d_1}\) escalada【810545357210267†L82-L100】.
- **Aplicación**: comparación de varianzas (prueba F), análisis de varianza
(ANOVA); el estadístico F se construye como la razón entre la varianza entre
grupos y la varianza dentro de los grupos y sigue una \(F_{k-1, N-k}\) bajo la
hipótesis nula【810545357210267†L122-L135】.
### Distribución lognormal
- **Contexto**: una variable es lognormal si el logaritmo natural de la variable
sigue una distribución normal. Se utilizan dos parámetros: la media \(m^*\) y la
desviación estándar \(\sigma\) del logaritmo【932541724064267†L571-L581】. Este
modelo es adecuado cuando los factores que influyen en una variable actúan de
manera multiplicativa y sólo se admiten valores positivos【932541724064267†L582-
L593】.
- **Función de densidad** (para \(X>0\)):
\[
f(x;\mu,\sigma)=\frac{1}{x\sigma \sqrt{2\pi}}\exp\left[-\frac{(\ln x-\mu)^2}
{2\sigma^2}\right],
\]
donde \(\mu\) y \(\sigma\) son la media y la desviación estándar del logaritmo
de \(X\). Esta fórmula se obtiene aplicando el método del cambio de variables \
(\tau=\ln x\) a una normal【932541724064267†L615-L627】.
- **Media y varianza**: \(E[X]=\exp\left(\mu+\frac{\sigma^2}{2}\right)\), \
(\operatorname{Var}(X)=\left(e^{\sigma^2}-1\right) e^{2\mu+\sigma^2}\).
- **Propiedades**: sólo admite valores positivos y tiende a tener cola derecha
pesada, de modo que la media es mayor que la mediana【932541724064267†L582-
L593】.
- **Aplicación**: tiempos de vida de componentes cuando la variabilidad es
multiplicativa, distribuciones de ingresos, tamaño de partículas, variables
económicas.
## Elección de la distribución y uso práctico
1. **Identificar el tipo de variable**: si cuenta eventos o ensayos, se trata de
una variable discreta; si mide magnitudes en un intervalo continuo (tiempo,
longitud, proporciones), es continua.
2. **Evaluar las condiciones del experimento**:
- **Número de ensayos**: fijo (binomial) o hasta cierto número de éxitos
(geométrica o binomial negativa).
- **Independencia y reemplazo**: si los ensayos no alteran las probabilidades
(con reemplazo), se usan distribuciones binomial o geométrica; sin reemplazo,
hipergeométrica.
- **Frecuencia de eventos en el tiempo**: para eventos raros e independientes
a tasa constante se usa Poisson (y su análoga exponencial para tiempos de
espera).
3. **Considerar el soporte de la variable**: variables no acotadas pueden
requerir normal o gamma; variables positivas multiplicativas pueden requerir
lognormal; proporciones se modelan con Beta.
4. **Uso de tablas o software**: muchas distribuciones (normal, t, F) necesitan
tablas o funciones en software estadístico para calcular probabilidades
acumuladas e intervalos de confianza.
## Conclusión
Las distribuciones de probabilidad son herramientas fundamentales para modelar
la incertidumbre. Cada distribución tiene un conjunto de condiciones que
determinan cuándo se aplica: la binomial y sus variantes describen conteos de
éxitos bajo diversos esquemas de muestreo; la Poisson y la exponencial capturan
la ocurrencia de eventos en el tiempo; las distribuciones continuas como la
normal, gamma, beta, t y F permiten describir fenómenos continuos y realizar
inferencia estadística. Comprender estas condiciones y los parámetros de cada
distribución permite seleccionar el modelo adecuado y aplicar correctamente
métodos de estimación y contraste de hipótesis.