Tipos de Distribuciones, Variables Aleatorias Discretas y Continuas
3.1 PRELIMINARES.
Variable Aleatoria.
Una variable aleatoria es un concepto en la teoría de probabilidad y estadística
que se utiliza para describir y modelar fenómenos aleatorios. Una variable
aleatoria es una función que asigna un valor numérico a cada resultado posible de
un experimento aleatorio.
En otras palabras, una variable aleatoria es una variable que toma diferentes
valores según el resultado de un evento aleatorio. Por ejemplo, si consideramos el
lanzamiento de un dado, la variable aleatoria podría ser el número que aparece en
la cara superior del dado. En este caso, los posibles valores de la variable
aleatoria son 1, 2, 3, 4, 5 y 6.
El estudio de las variables aleatorias incluye el cálculo de probabilidades, la
construcción de funciones de distribución y la realización de inferencias
estadísticas. Estas técnicas se utilizan en diversos campos, como la ingeniería, la
física, la economía y la medicina, entre otros, para analizar y predecir fenómenos
aleatorios y tomar decisiones basadas en la incertidumbre.
Ejemplo de variable aleatoria
Vista la definición de variable aleatoria, a continuación se muestra un ejemplo de
este tipo de variables estadísticas para asimilar el concepto.
En concreto, la variable aleatoria que estudiaremos será el número de caras
obtenidas al lanzar una moneda cuatro veces.
Hay cinco posibles resultados, ya que podemos sacar 0, 1, 2, 3 o 4 caras. Así
pues, debemos asignar un número a cada posible suceso del espacio
muestral, en este caso es fácil ya que simplemente el número de caras
obtenidas será el número que le corresponda de la variable.
Y de esta forma ya tenemos definida la variable y todos sus posibles valores. Sin
embargo, también podemos calcular la probabilidad de que ocurra cada evento
dividiendo el número de casos posibles entre el número total de casos:
Después de los cálculos, se deduce que el evento de la variable aleatoria que es
más probable que ocurra es «obtener dos caras» con una probabilidad del 37,5%.
CARACTERISTICAS:
Las características de una variable aleatoria son las siguientes:
1. Tipo de variable: Puede ser una variable aleatoria discreta o una variable
aleatoria continua. Una variable aleatoria discreta toma valores aislados en
un rango finito o numerable de números, mientras que una variable
aleatoria continua puede tomar cualquier valor dentro de un intervalo.
2. Dominio: Es el conjunto de posibles resultados que puede tomar la variable
aleatoria. Puede ser finito, numerable o no numerable, dependiendo si es
una variable aleatoria discreta, discreta enumerada o continua,
respectivamente.
3. Función de probabilidad o densidad de probabilidad: Es una función
que describe la probabilidad asociada con cada valor posible de la variable
aleatoria. En el caso de una variable aleatoria discreta, se utiliza una
función de probabilidad para asignar una probabilidad a cada valor. En el
caso de una variable aleatoria continua, se utiliza una función de densidad
de probabilidad para describir la probabilidad de que la variable caiga en un
intervalo específico.
4. Valor esperado: Es el número promedio que se espera obtener al repetir el
experimento un gran número de veces. Se calcula multiplicando cada valor
posible de la variable por su probabilidad y sumando los resultados.
5. Varianza: Es una medida de dispersión que indica cuánto se alejan los
valores posibles de la variable aleatoria de su valor esperado.
Estas características son fundamentales para comprender y analizar el
comportamiento de una variable aleatoria en un experimento o evento aleatorio.
Variable Aleatoria Discreta.
Una variable aleatoria discreta es una variable que puede tomar valores aislados o
separados entre sí, es decir, solo ciertos valores específicos. Estos valores
pueden ser finitos o infinitos contables. Los valores de una variable aleatoria
discreta se representan mediante una función de probabilidad discreta. Algunos
ejemplos comunes de variables aleatorias discretas son el número de hijos de una
familia, el número de veces que se lanza una moneda hasta que aparezca cara o
el número de personas en una cola.
Un ejemplo sencillo de variable aleatoria discreta sería aquella, cuya función de
distribución tome valores enteros. Supongamos, una moneda. Si sale cara el valor
es 1 y si sale cruz el valor es 0. Su función de distribución asociada estará
compuesta por el 1 y el 0, cada uno con una probabilidad de suceder.
Del ejemplo de la moneda, podemos deducir que la función de distribución de la
variable aleatoria no contempla el valor 0,5. Eso sería algo así como decir que
sale la mitad cara y la mitad cruz. O el valor es 1 (cara) o el valor es 0 (cruz). En
este caso estaríamos ante una variable aleatoria continua.
CARACTERISTICAS:
1. Es una variable que puede tomar distintos valores discretos, es decir,
valores aislados dentro de un rango determinado.
2. Cada valor tiene una probabilidad de ocurrencia asociada.
3. Los valores posibles son contables y finitos o infinitos numerables.
4. La función de probabilidad asigna a cada valor posible de la variable su
probabilidad de ocurrencia.
5. La función de probabilidad puede representarse mediante una tabla, un
gráfico o una fórmula matemática.
6. La suma de todas las probabilidades de los valores posibles es igual a 1.
7. Puede ser representada mediante una distribución de probabilidad, como la
distribución binomial, la distribución de Poisson o la distribución
hipergeométrica, entre otras.
8. Los valores de la variable aleatoria están determinados por el azar y
pueden variar en diferentes experimentos o situaciones.
9. Los ejemplos de variables aleatorias discretas incluyen el número de caras
obtenidas al lanzar una moneda varias veces, el número de aciertos en una
prueba de opción múltiple, el número de hijos en una familia, entre otros.
Las variables aleatorias discretas se utilizan ampliamente en estadística,
probabilidad, investigación de operaciones y otros campos para modelar y analizar
fenómenos que pueden tener resultados discretos y probabilísticos.
Función de probabilidad para una V.A.D.
La función de probabilidad para una Variable Aleatoria Discreta (V.A.D.) es aquella
que asigna una probabilidad a cada valor posible que puede tomar la variable
aleatoria.
Formalmente, para una V.A.D. X, la función de probabilidad se define como:
P(X = x) = P(x)
donde P(X = x) es la probabilidad de que la variable aleatoria X tome el valor x.
La función de probabilidad debe cumplir las siguientes propiedades:
Para todo valor posible x de X, 0 ≤ P(x) ≤ 1.
La suma de las probabilidades de todos los valores posibles de X es igual a 1. Es
decir, Σ P(x) = 1, donde Σ representa la suma sobre todos los valores posibles de
X.
La función de probabilidad puede ser representada de diferentes formas, como
una tabla de valores o mediante una fórmula matemática que relaciona los valores
posibles de la V.A.D. con sus probabilidades correspondientes.
Función de distribución acumulada para una V.A.D.
La función de distribución acumulada (FDA) para una variable aleatoria discreta
(VAD) es una función que asigna a cada valor posible de la variable aleatoria la
probabilidad de que dicha variable tome un valor igual o menor a ese.
Matemáticamente, la FDA se define como:
FDA(x) = P(X ≤ x)
donde X es la variable aleatoria y x es un valor específico.
Por ejemplo, si queremos calcular la FDA para una VAD que representa el
resultado de lanzar un dado, la función asignará a cada valor posible del dado (1,
2, 3, 4, 5, 6) la probabilidad de obtener un valor igual o menor a ese.
La FDA se puede representar mediante una función paso a paso, donde la FDA
aumenta solo cuando se alcanza uno de los valores posibles de la VAD.
En resumen, la función de distribución acumulada es una función que muestra
cómo se distribuyen las probabilidades a lo largo de los diferentes valores posibles
de una variable aleatoria discreta.
La función de distribución acumulada (FDA) para una variable aleatoria discreta
(VAD) se define como la probabilidad de que dicha variable aleatoria tenga un
valor menor o igual que un determinado valor.
Formalmente, si X es una VAD y x es un valor cualquiera, la función de
distribución acumulada F(x) se define como:
F(x) = P(X ≤ x)
Para entender mejor esto, consideremos el siguiente ejemplo:
Supongamos que X es una VAD que representa el número de veces que una
moneda sale cara al lanzarla 3 veces. Los posibles valores de X son 0, 1, 2 y 3.
La función de distribución acumulada F(x) para esta VAD se puede definir de la
siguiente manera:
F(0) = P(X ≤ 0) = P(X = 0) = 1/8 F(1) = P(X ≤ 1) = P(X = 0) + P(X = 1) = 1/8 + 3/8 =
4/8 = 1/2 F(2) = P(X ≤ 2) = P(X = 0) + P(X = 1) + P(X = 2) = 1/8 + 3/8 + 3/8 = 7/8
F(3) = P(X ≤ 3) = P(X = 0) + P(X = 1) + P(X = 2) + P(X = 3) = 1/8 + 3/8 + 3/8 + 1/8
=1
La función de distribución acumulada F(x) para esta VAD se muestra a
continuación:
x|0|1|2|3|
F(x) |1/8|1/2|7/8| 1 |
Es importante tener en cuenta que la suma de todos los valores de la función de
distribución acumulada para una VAD debe ser igual a 1, lo cual se cumple en
este ejemplo.
Variable aleatoria continua.
Una variable aleatoria continua es una variable cuyos valores pueden tomar
cualquier valor real dentro de un rango determinado. A diferencia de una variable
aleatoria discreta, que solo puede tomar valores específicos, una variable aleatoria
continua puede tomar valores en cualquier punto dentro de su rango.
Las variables aleatorias continuas se caracterizan por su función de distribución de
probabilidad continua, que se representa mediante una función de densidad de
probabilidad (PDF, por sus siglas en inglés) o una función de distribución
acumulativa (CDF, por sus siglas en inglés).
Algunos ejemplos comunes de variables aleatorias continuas incluyen la altura de
una persona, el tiempo que tarda en completarse una tarea y la velocidad de un
automóvil. Estas variables pueden tomar cualquier valor dentro de un rango
continuo y, por lo tanto, se consideran continuas.
CARACTERISTICAS:
1. Las variables aleatorias continuas tienen las siguientes características:
2. Pueden tomar un número infinito de valores dentro de un rango
determinado. Esto significa que pueden tomar cualquier valor en un
intervalo dado, incluyendo valores fraccionados o decimales.
3. La probabilidad de que la variable aleatoria tome un valor específico es
cero. En otras palabras, la probabilidad de obtener un valor exacto es
extremadamente baja debido a la infinita cantidad de posibilidades.
4. Se representan mediante una función de densidad de probabilidad (PDF
por sus siglas en inglés), la cual describe la forma de la distribución de
probabilidad de la variable aleatoria. Esta función mide la probabilidad
relativa de obtener diferentes valores dentro del rango especificado.
5. La variable aleatoria continua puede ser descrita mediante una función de
distribución acumulativa (CDF por sus siglas en inglés), que indica la
probabilidad de obtener un valor menor o igual a un determinado punto.
6. Las variables aleatorias continuas pueden tener una distribución simétrica,
como la distribución normal, o una distribución asimétrica, como la
distribución exponencial o la distribución beta.
7. Se suelen utilizar técnicas de cálculo diferencial e integral para calcular
probabilidades asociadas con las variables aleatorias continuas.
8. Se pueden aplicar diferentes medidas descriptivas, como la media y la
varianza, para caracterizar la distribución de la variable aleatoria.
9. Las variables aleatorias continuas pueden ser utilizadas para modelar
fenómenos naturales como el tiempo de vida de un producto, la altura de
las personas, la temperatura, el ingreso de las personas, entre otros.
Función de densidad para una V.A.C.
La función de densidad para una Variable Aleatoria Continua (V.A.C.) es una
función que describe la probabilidad de que la variable tome un determinado valor.
Se denota con f(x) y debe cumplir las siguientes propiedades:
f(x) ≥ 0: la función de densidad no puede ser negativa.
∫f(x)dx = 1: la integral de la función de densidad sobre todos los posibles valores
de x debe ser igual a 1.
La función de densidad para una V.A.C. se utiliza para calcular la probabilidad de
que la variable esté dentro de un intervalo dado, utilizando la integral de la función
de densidad en ese intervalo.
El área total bajo la curva de la función de densidad representa la probabilidad
total de todos los posibles valores que la variable aleatoria puede tomar.
La función de densidad puede variar dependiendo de la distribución de
probabilidad que siga la V.A.C., como por ejemplo la distribución normal, la
distribución uniforme, la distribución exponencial, entre otras.
Función de distribución acumulada para una V.A.C.
La función de distribución acumulada para una Variable Aleatoria Continua (V.A.C)
es una función que asigna la probabilidad de que la variable aleatoria tome un
valor menor o igual a un valor específico. Se representa comúnmente como F(x) y
se define matemáticamente como:
F(x) = P(X ≤ x)
Donde X es la variable aleatoria y x es el valor para el cual queremos calcular la
probabilidad acumulada.
La función de distribución acumulada para una V.A.C tiene las siguientes
propiedades:
Es una función no decreciente: esto significa que a medida que x aumenta, la
probabilidad acumulada también aumenta.
Tiende a 0 cuando x tiende a menos infinito: esto indica que la probabilidad
acumulada para valores muy pequeños de x tiende a 0.
Tiende a 1 cuando x tiende a más infinito: esto indica que la probabilidad
acumulada para valores muy grandes de x tiende a 1.
La función de distribución acumulada se utiliza para calcular la probabilidad de que
una variable aleatoria tome valores dentro de un intervalo específico. También se
utiliza para calcular percentiles, que son valores que dividen la distribución en
porcentajes específicos.
En resumen, la función de distribución acumulada para una V.A.C asigna la
probabilidad acumulada de que la variable aleatoria tome valores menores o
iguales a un valor específico.
Caracteristicas:
1. La función de distribución acumulada (FDA) para una variable aleatoria
continua (V.A.C.) tiene las siguientes características:
2. La FDA es una función creciente: esto significa que a medida que el valor
de la variable aumenta, el valor de la FDA también aumenta.
3. La FDA tiene límites definidos en los extremos: en el límite inferior de la
variable, la FDA es igual a cero, mientras que en el límite superior, la FDA
es igual a uno.
4. La FDA es continua: esto significa que no hay saltos o discontinuidades en
la función.
5. La FDA puede tener puntos de discontinuidad en forma de saltos en los
puntos en los que la variable aleatoria puede tomar valores discretos.
6. La FDA proporciona la probabilidad acumulada de que la variable aleatoria
sea menor o igual a un determinado valor. Es decir, la FDA en un punto
dado proporciona la probabilidad de que la variable esté por debajo o en
ese punto.
7. La FDA se puede utilizar para calcular la probabilidad de que la variable
aleatoria tome valores comprendidos entre dos puntos.
8. La FDA se puede utilizar para calcular la probabilidad de que la variable
aleatoria tome valores mayores o menores que un determinado valor.
3.2 DISTRIBUCIONES DISCRETAS.
Distribucion Binomial.
La distribución binomial es un tipo de distribución de probabilidad discreta que se
utiliza para modelar el número de éxitos en una secuencia de n ensayos
independientes, donde cada intento solo puede tener dos resultados posibles:
éxito o fracaso.
La distribución binomial se define por dos parámetros: el número de ensayos (n) y
la probabilidad de éxito (p). La probabilidad de éxito (p) se mantiene constante en
cada ensayo y la probabilidad de fracaso (q) se puede calcular como 1-p.
La función de probabilidad de la distribución binomial se puede calcular utilizando
la fórmula:
P(X=k) = C(n,k) * p^k * q^(n-k)
Donde X es el número de éxitos, k es un número entero no negativo menor o igual
a n, C(n,k) es el coeficiente binomial, p es la probabilidad de éxito y q es la
probabilidad de fracaso.
La distribución binomial es ampliamente utilizada en estadística y probabilidad
para modelar situaciones donde se tienen resultados binarios, como lanzar una
moneda o contar el número de éxitos en un número determinado de intentos.
La distribución binomial es un modelo estadístico que se utiliza para describir la
probabilidad de obtener un número determinado de éxitos en un determinado
número de ensayos independientes, donde cada ensayo solo tiene dos resultados
posibles: éxito o fracaso.
CARACTERISTICAS.
Las características principales de la distribución binomial son:
1. Número fijo de ensayos: La distribución binomial se aplica a un número fijo
de ensayos independientes. Cada ensayo se considera independiente, lo
que significa que el resultado de un ensayo no afecta el resultado de otro
ensayo.
2. Resultado binario: Cada ensayo solo tiene dos resultados posibles, que se
denominan éxito y fracaso. Estos resultados deben ser mutuamente
excluyentes y exhaustivos, lo que significa que no puede haber una tercera
opción.
3. Probabilidad constante: La probabilidad de éxito (denotada como p) debe
ser constante en cada ensayo. Esto implica que la probabilidad de fracaso
(denotada como q) también es constante, y se puede calcular como 1-p.
4. Distribución discreta: La distribución binomial es una distribución discreta, lo
que significa que solo puede tomar valores enteros y tener una cantidad
finita de resultados posibles.
5. Parámetros de la distribución: La distribución binomial se define por dos
parámetros: el número de ensayos (denotado como n) y la probabilidad de
éxito en cada ensayo (denotado como p). Estos parámetros determinan la
forma y las características de la distribución.
6. Función de probabilidad: La función de probabilidad de la distribución
binomial permite calcular la probabilidad de obtener un número específico
de éxitos en un número específico de ensayos.
7. Media y varianza: La media de la distribución binomial se calcula
multiplicando el número de ensayos por la probabilidad de éxito. La
varianza se calcula multiplicando el número de ensayos por la probabilidad
de éxito por la probabilidad de fracaso.
Media: Es un concepto estadístico que se utiliza para calcular el valor central de
un conjunto de datos. Se obtiene sumando todos los valores y dividiéndolos entre
la cantidad total de datos. La media proporciona una medida representativa del
conjunto de datos.
La fórmula de la media, también conocida como el promedio, se calcula sumando
todos los valores y dividiéndolos entre el número total de valores.
Matemáticamente se expresa de la siguiente manera:
Media = (Sumatoria de todos los valores) / (Número total de valores)
Por ejemplo, si tenemos los siguientes valores: 5, 8, 10, 6, 4, la media sería:
Media = (5 + 8 + 10 + 6 + 4) / 5 = 33 / 5 = 6.6
Por lo tanto, la media sería igual a 6.6 para estos datos.
Varianza: Es una medida de dispersión que indica cuánto se alejan los valores
individuales de un conjunto de datos de su media. Se calcula sumando las
diferencias al cuadrado entre cada valor y la media, y luego dividiendo ese
resultado entre la cantidad total de datos. La varianza mide la variabilidad o
dispersión de los datos.
La fórmula de la varianza es:
Varianza = Sumatoria (xi - media)^2 / n
Donde:
xi es cada valor de la muestra.
media es el promedio de la muestra.
n es el número de elementos en la muestra.
Desviación Estándar: Es la raíz cuadrada de la varianza. La desviación estándar
es una medida de dispersión que indica la cantidad promedio de desviación de los
valores individuales con respecto a la media. Cuanto mayor sea la desviación
estándar, mayor será la dispersión de los datos.
La fórmula para calcular la desviación estándar es la siguiente:
Desviación estándar (σ) = √(Σ(x - μ)² / N)
Donde:
σ: desviación estándar
Σ: suma
x: valor individual en la muestra
μ: media aritmética de la muestra
N: número total de valores en la muestra
Gráfica: Es una representación visual de datos o información. Una gráfica permite
mostrar patrones, tendencias o relaciones entre diferentes variables o conjuntos
de datos de manera más intuitiva y comprensible. Existen diferentes tipos de
gráficas, como gráficas de barras, gráficas de líneas, gráficas circulares, entre
otras, cada una adecuada para representar ciertos tipos de información.
Por ejemplo, supongamos que tenemos una variable aleatoria X que representa el
número de caras obtenidas al lanzar una moneda justo dos veces. La función de
probabilidad acumulada de X se podría representar en una gráfica de la siguiente
manera:
En el eje x tendríamos los posibles valores de X: 0, 1 y 2. En el eje y tendríamos
las probabilidades acumuladas correspondientes: P(X ≤ 0), P(X ≤ 1) y P(X ≤ 2).
Supongamos que las probabilidades de obtener 0, 1 o 2 caras son 0.25, 0.5 y 0.25
respectivamente. La gráfica mostraría una línea ascendente con 3 puntos: (0,
0.25), (1, 0.75) y (2, 1).
Esta gáfica nos permite visualizar cómo se distribuyen las probabilidades
acumuladas en función de los posibles valores de la variable aleatoria. En este
caso, nos mostraría que la probabilidad acumulada de obtener 0 o 1 cara es del
75%, mientras que la probabilidad acumulada de obtener 2 caras es del 100%.
Es importante destacar que este es solo un ejemplo y que las funciones de
probabilidad acumulada pueden tomar diferentes formas dependiendo de la
distribución de probabilidad de la variable aleatoria en cuestión.
Distribución de Poisson
La distribución de Poisson es una distribución de probabilidad discreta que se
utiliza para modelar el número de sucesos que ocurre en un intervalo de tiempo o
espacio.
La distribución de Poisson se define por un único parámetro, denotado por λ
(lambda), que representa el número medio de sucesos que se espera que ocurran
en el intervalo dado.
La función de probabilidad de la distribución de Poisson se define de la siguiente
manera:
P(x; λ) = (e^(-λ) * λ^x) / x!
Donde:
• x es el número de sucesos
• λ es el número medio de sucesos en el intervalo
• e es la constante matemática e (aproximadamente 2.71828)
• x! es el factorial de x
La distribución de Poisson es adecuada para modelar sucesos independientes que
ocurren a una tasa constante en el tiempo o espacio. Algunos ejemplos comunes
de sucesos que pueden seguir una distribución de Poisson incluyen el número de
llamadas telefónicas recibidas por una centralita en un intervalo de tiempo, el
número de accidentes de tráfico en una carretera por día, el número de partículas
radiactivas que se desintegran en un intervalo de tiempo, entre otros.
La distribución de Poisson tiene varias propiedades interesantes, como la
propiedad de falta de memoria, que establece que la probabilidad de que ocurra
un suceso en un futuro intervalo de tiempo no depende de cuánto tiempo ha
pasado desde el último suceso. También puede aproximarse a una distribución
normal cuando λ es grande.
Media: La fórmula para calcular la media de la distribución Poisson es:
media = lambda
donde lambda es el parámetro de la distribución, que representa el número
promedio de eventos que ocurren en un intervalo de tiempo o espacio.
En la distribución Poisson, la media también es igual a la varianza. Esto significa
que la dispersión de los datos alrededor de la media es igual a la media misma.
En resumen, la media de la distribución Poisson es igual al parámetro lambda, que
representa el número promedio de eventos que ocurren en un intervalo de tiempo
o espacio.
Varianza: La Varianza en una distribución de Poisson se utiliza para medir la
dispersión de los datos alrededor de la media. Es una medida estadística que
indica qué tan dispersos o concentrados están los datos alrededor de la media en
una distribución de Poisson.
La fórmula para calcular la varianza en una distribución de Poisson es:
Varianza = λ
Donde λ es el parámetro de la distribución de Poisson, que también es igual a la
media.
En una distribución de Poisson, la varianza siempre es igual a la media. Esto se
debe a que la distribución de Poisson tiene la propiedad de que su varianza es
igual a su media.
Desviacion Estandar: La desviación estándar en una distribución Poisson es
igual a la raíz cuadrada del parámetro lambda (λ).
La distribución Poisson es una distribución de probabilidad discreta que se utiliza
para modelar la ocurrencia de eventos en un intervalo de tiempo o espacio dado.
El parámetro lambda (λ) representa el número promedio de eventos que se
esperan en ese intervalo.
La fórmula para calcular la desviación estándar en una distribución Poisson es:
desviación estándar = √λ
Por ejemplo, si se espera un promedio de 5 eventos por hora en una distribución
Poisson, la desviación estándar sería:
desviación estándar = √5 ≈ 2.236
Grafica: La distribución de Poison, también conocida como distribución de
Poisson, se utiliza para modelar eventos raros e independientes en un periodo de
tiempo determinado. Esta distribución es ampliamente utilizada en áreas como la
epidemiología, la física de partículas, la teoría de colas, entre otros.
El parámetro lambda (λ) en la distribución de Poison representa la tasa media de
ocurrencia de eventos raros por intervalo de tiempo. Por ejemplo, si estamos
estudiando la cantidad de accidentes de tráfico que ocurren en una ciudad por día,
λ representaría el número medio de accidentes diarios.
La fórmula de probabilidad para la distribución de Poison es:
P(x;λ) = (e^(-λ) * λ^x) / x!
Donde x es el número de eventos que estamos interesados en modelar.
La gráfica de la distribución de Poison tiene una forma sesgada hacia la derecha,
con la media y la varianza iguales a λ. A medida que λ aumenta, la gráfica se
desplaza hacia la derecha y se va haciendo más simétrica.
Esta distribución se utiliza para responder preguntas como:
• ¿Cuál es la probabilidad de que ocurran exactamente x eventos raros en un
intervalo de tiempo dado?
• ¿Cuál es la probabilidad de que ocurra menos de x eventos raros en un
intervalo de tiempo determinado?
• ¿Cuál es la probabilidad de que ocurra más de x eventos raros en un
intervalo de tiempo específico?
En resumen, la distribución de Poison se utiliza para modelar eventos raros e
independientes en un periodo de tiempo determinado, como la cantidad de
accidentes de tráfico, la cantidad de llamadas telefónicas recibidas en un call
center, entre otros.
3.3 DISTRIBUCIONES CONTINUAS.
Distribucion Normal.
La distribución normal, también conocida como distribución de Gauss o campana
de Gauss, es una de las distribuciones más importantes y utilizadas en estadística.
Se caracteriza por tener una forma de campana simétrica alrededor de su media y
una desviación estándar que determina la dispersión de los datos.
En una distribución normal, la media, la mediana y la moda son iguales y se
encuentran en el centro de la distribución. Además, la distribución es simétrica
alrededor de la media, lo que significa que la probabilidad de obtener un valor a la
derecha o a la izquierda de la media es la misma.
La distribución normal está completamente determinada por su media y su
desviación estándar. Normalmente se representa mediante una curva y se calcula
utilizando una función matemática llamada función de densidad de probabilidad
(PDF por sus siglas en inglés).
Esta distribución es utilizada en muchos campos de la estadística y la ciencia, ya
que muchos fenómenos naturales y sociales siguen un patrón de distribución
normal. Algunos ejemplos de aplicaciones de la distribución normal son el análisis
de datos en medicina, la predicción del clima, la evaluación de riesgos financieros
y el análisis de resultados de pruebas estandarizadas.
En resumen, la distribución normal es una distribución estadística que tiene una
forma de campana simétrica alrededor de su media, y es ampliamente utilizada en
estadística y ciencias aplicadas.
Media: La media en una distribución normal, también conocida como la media de
la distribución o el valor esperado, representa el punto central de la distribución.
Es el promedio de todos los valores posibles en la distribución.
En una distribución normal simétrica, la media es el punto en el que se encuentra
el pico de la curva de distribución. En otras palabras, es el valor alrededor del cual
los datos tienden a agruparse.
La media puede ser positiva, negativa o cero, dependiendo de la distribución de
los datos. Por ejemplo, si la distribución representa los ingresos de una población,
la media puede ser un número positivo si la mayoría de las personas tienen
ingresos por encima de cero.
La media es un parámetro importante para resumir una distribución normal, ya que
proporciona información sobre el centro de los datos. También es útil para calcular
probabilidades y realizar inferencias estadísticas sobre la población.
Varianza:La varianza en una distribución gaussiana, también conocida como
distribución normal, se representa por el símbolo σ^2. Indica cuánto se dispersan
los valores de una variable aleatoria alrededor de su media.
La fórmula para calcular la varianza en una distribución gaussiana es:
σ^2 = 1/N * Σ((xi - μ)^2)
Donde N es el número de observaciones, Σ representa la suma de todos los
términos, xi son los valores de la variable aleatoria y μ es la media de la
distribución.
La varianza es una medida de dispersión, por lo que cuanto mayor sea su valor,
mayor será la dispersión de los datos alrededor de la media. Una varianza igual a
cero indicaría que todos los valores de la variable aleatoria son iguales y no hay
dispersión.
La raíz cuadrada de la varianza, σ, se conoce como desviación estándar. Es otra
medida importante de dispersión en una distribución gaussiana y se utiliza con
frecuencia en estadística.
Desviación Estándar: La desviación estándar en una distribución gaussiana o
normal, también conocida como desviación típica, es una medida de dispersión
que indica cuánto se alejan los valores individuales de la media de la distribución.
Es una medida de cuánto se esparcen los valores alrededor de la media.
En una distribución gaussiana, aproximadamente el 68% de los valores caen
dentro de una desviación estándar de la media, el 95% caen dentro de dos
desviaciones estándar de la media y el 99.7% caen dentro de tres desviaciones
estándar de la media.
La desviación estándar se calcula utilizando la fórmula:
Desviación estándar = √(Σ(xi - μ)²/n)
donde xi son los valores individuales de la distribución, μ es la media y n es el
número de valores en la distribución.
La desviación estándar es una medida importante en estadística y se utiliza para
comparar la variabilidad entre diferentes conjuntos de datos o para determinar la
precisión de un modelo teórico en relación con los datos observados. También se
utiliza en el cálculo de intervalos de confianza y en pruebas de hipótesis.
Distribución LogNormal.
La distribución lognormal es una distribución de probabilidad continua que se
deriva de la transformación logarítmica de una distribución normal. Se utiliza para
modelar variables que son positivas y asimétricas, es decir, tienen una cola más
larga en un lado que en el otro.
La distribución lognormal está caracterizada por dos parámetros: la media ((\mu))
y la desviación estándar ((\sigma)) de la distribución normal subyacente.
La función de densidad de probabilidad de la distribución lognormal es:
[f(x) = \frac{1}{x\sigma\sqrt{2\pi}}e^{-\frac{(\ln(x)-\mu)^2}{2\sigma^2}}]
donde (x) es el valor aleatorio, (\mu) es la media de la distribución lognormal (en
escala logarítmica), y (\sigma) es la desviación estándar de la distribución
lognormal (en escala logarítmica).
La distribución lognormal es utilizada en diversos campos, como la economía, la
biología, la ingeniería y la ciencia de materiales, debido a que muchos fenómenos
naturales y económicos siguen un patrón de crecimiento exponencial.
Media: En este caso, la media de la distribución lognormal en el contexto de los
medios de comunicación se refiere a la media de las audiencias o circulaciones de
los medios. Indica el tamaño promedio de la audiencia o circulación de los medios
según la distribución lognormal.
La media en la distribución lognormal se calcula utilizando la fórmula:
media = exp(μ + (σ^2)/2),
donde μ es la media de la distribución normal subyacente (ln(X)) y σ es la
desviación estándar de la distribución normal subyacente.
En resumen, la media en la distribución lognormal en el contexto de los medios de
comunicación es el tamaño promedio de la audiencia o circulación de los medios
según el modelo lognormal.
Varianza: La varianza de una distribución lognormal se puede calcular a partir de
los parámetros de la distribución, que son la media y la desviación estándar en
escala logarítmica.
Para una distribución lognormal con media (μ) y desviación estándar (σ) en escala
logarítmica, la varianza se puede calcular como:
Varianza = (e^(σ^2) - 1) * e^(2μ + σ^2)
Donde e es el número de Euler (aproximadamente 2.71828), σ^2 es el cuadrado
de la desviación estándar y μ es la media en escala logarítmica.
Es importante destacar que, debido a la naturaleza asimétrica de la distribución
lognormal, la varianza puede ser significativamente mayor que la media al
cuadrado.
Desviación Estándar: La desviación estándar de una distribución lognormal se
calcula utilizando la fórmula:
σ = √(exp(σ_ln^2) - 1) * exp(2μ_ln + σ_ln^2)
Donde:
σ es la desviación estándar de la distribución lognormal.
σ_ln es la desviación estándar de la distribución logarítmica correspondiente.
μ_ln es la media de la distribución logarítmica correspondiente.
exp(x) es la función exponencial de x.
La distribución lognormal tiene una cola más larga a la derecha y es asimétrica
positiva. La desviación estándar refleja la dispersión de los valores alrededor de la
media en una distribución lognormal.
Gráfica: La distribución lognormal es una distribución de probabilidad continua
que se utiliza para modelar fenómenos donde los valores positivos están sesgados
hacia la derecha y tienen un rango amplio. Esta distribución es ampliamente
utilizada en finanzas, ciencias naturales y sociales, y en ingeniería.
La gráfica de una distribución lognormal se asemeja a una campana asimétrica
inclinada hacia la derecha. La asimetría hacia la derecha se debe a la
transformación logarítmica aplicada a los datos. En la gráfica, el eje vertical
representa la densidad o la probabilidad, y el eje horizontal representa los valores
o el tiempo.
La forma de la curva de una distribución lognormal depende de dos parámetros: la
media (μ) y la desviación estándar (σ) de la distribución logarítmica
correspondiente. Estos parámetros determinan la magnitud y la variabilidad de los
datos respectivamente.
La curva es completamente simétrica si ambos parámetros son iguales a cero, y
se sesga hacia la derecha a medida que los valores de μ y σ aumentan. Si el
parámetro μ es negativo, la curva se refleja en el eje vertical, lo que indica que los
datos tienen un sesgo hacia la izquierda.
La distribución lognormal también tiene una peculiaridad: su cola derecha, que
significa que existen valores extremadamente altos en los datos. Esto puede
visualizarse en la gráfica a medida que la curva se estira hacia la derecha y nunca
intersecta el eje horizontal.
APROXIMACIÓN NORMAL A LA DISTRIBUCIÓN BINOMIAL.
La aproximación normal a la distribución binomial es un método utilizado para
estimar valores de la distribución binomial utilizando una distribución normal.
La distribución binomial es una distribución de probabilidad discreta que mide el
número de éxitos en una secuencia de n ensayos independientes entre sí, con una
probabilidad fija p de éxito en cada ensayo.
La aproximación normal a la distribución binomial se utiliza cuando n es grande y p
es moderado. En este caso, la distribución binomial puede aproximarse
razonablemente bien por una distribución normal.
Para realizar esta aproximación, se utilizan los siguientes pasos:
1. Encontrar el valor esperado μ, que es igual al producto de n y p.
2. Encontrar la desviación estándar σ, que es igual a la raíz cuadrada de np(1-
p).
3. Calcular el valor z, que es igual a la diferencia entre el valor que se quiere
estimar y el valor esperado, dividido por la desviación estándar. Es decir, z
= (x - μ) / σ.
4. Utilizar la tabla de la distribución normal estándar o una calculadora de
distribución normal para encontrar la probabilidad asociada al valor z
encontrado en el paso anterior.
5. Si se desea encontrar una probabilidad acumulada, es decir, la probabilidad
de que el número de éxitos sea menor o igual a cierto valor, simplemente
sumar las probabilidades asociadas a los valores menores o iguales a ese
valor en la tabla de la distribución normal.
Es importante destacar que esta aproximación es válida cuando n es grande
(generalmente mayor a 30) y p no es extremadamente pequeño o grande
(generalmente entre 0.1 y 0.9). Si estas condiciones no se cumplen, la
aproximación normal puede no ser precisa y se recomienda utilizar métodos más
exactos, como el cálculo directo de la distribución binomial.
Media: La aproximación normal permite el cálculo de probabilidades y valores
críticos de la distribución binomial utilizando la distribución normal estándar. Para
aplicar esta aproximación, se utilizan las siguientes fórmulas:
Media de la distribución binomial: μ = n * p
Desviación estándar de la distribución binomial: σ = √(n * p * (1-p))
Donde n es el número de ensayos, p es la probabilidad de éxito en cada ensayo, μ
es la media y σ es la desviación estándar.
La aproximación se utiliza para calcular la probabilidad acumulada de obtener un
número determinado de éxitos en una distribución binomial utilizando la función de
distribución acumulativa de la distribución normal estándar. También se puede
utilizar para calcular valores críticos, es decir, el valor mínimo o máximo que un
número de éxitos debe tener para estar dentro de un cierto intervalo de confianza.
Es importante tener en cuenta que la aproximación normal a la distribución
binomial es más precisa cuando el número de ensayos es grande y la probabilidad
de éxito y fracaso no están muy cerca de 0 o 1. En casos donde el número de
ensayos es pequeño o la probabilidad de éxito está muy cerca de 0 o 1, es
recomendable utilizar la distribución binomial exacta en lugar de la aproximación
normal.
Varianza: La varianza en la aproximación normal a la distribución binomial se
puede calcular utilizando la fórmula:
Varianza = n * p * (1 - p)
Donde:
n es el número de ensayos o repeticiones en la distribución binomial.
p es la probabilidad de éxito en cada ensayo de la distribución binomial.
Es importante tener en cuenta que esta fórmula es válida solo si se cumple la
condición de que np y n(1-p) sean ambos mayores o iguales a 5. Esta condición
se conoce como la "regla de los 5 éxitos" y es necesaria para garantizar una
buena aproximación normal a la distribución binomial.
Si esta condición no se cumple, entonces la aproximación normal no es adecuada
y se deben utilizar métodos alternativos para calcular la varianza de la distribución
binomial.
Desviación Estándar: La desviación estándar en la aproximación normal a la
distribución binomial se calcula utilizando la siguiente fórmula:
Desviación estándar = √(n * p * (1-p))
Donde:
n es el tamaño de la muestra o número de ensayos
p es la probabilidad de éxito en cada ensayo
Esta fórmula se utiliza cuando el tamaño de la muestra es grande y la probabilidad
de éxito en cada ensayo es cercana a 0.5.
La aproximación normal a la distribución binomial se utiliza para calcular la
probabilidad de obtener un cierto número de éxitos en una serie de ensayos
independientes, cuando el tamaño de la muestra es grande. En este caso, la
distribución binomial se puede aproximar por una distribución normal, lo cual
facilita los cálculos.
Es importante tener en cuenta que esta aproximación es válida cuando se
cumplen ciertas condiciones, como que el tamaño de la muestra sea grande (n >
30), que la probabilidad de éxito en cada ensayo no sea extremadamente pequeña
o grande (0.1 < p < 0.9), y que los ensayos sean independientes entre sí.
La desviación estándar en la aproximación normal a la distribución binomial nos
indica la dispersión de los valores posibles alrededor de la media de la
distribución. Cuanto mayor sea la desviación estándar, mayor será la dispersión
de los valores y viceversa.
BIBLIOGRAFIA
Walpole, R. E., Myers, R. H., Myers, S. L., & Ye, K. (2012). Probability & statistics
for engineers & scientists. Pearson Education.
Montgomery, D. C., Runger, G. C., & Hubele, N. F. (2014). Engineering statistics
(5th ed.). Wiley.
Devore, J. L. (2019). Probability and statistics for engineering and the sciences.
Cengage Learning.
Ross, S. M. (2010). Introduction to probability models (10th ed.). Academic Press.
Johnson, N. L., Kemp, A. W., & Kotz, S. (2005). Univariate discrete distributions
(3rd ed.). Wiley.
Bain, L. J., & Engelhardt, M. (1990). Introduction to probability and mathematical
statistics (2nd ed.). Springer.
Papoulis, A., & Pillai, S. U. (2002). Probability, random variables, and stochastic
processes (4th ed.). McGraw-Hill.
Casella, G., & Berger, R. L. (2002). Statistical inference (2nd ed.). Duxbury.
Anderson, T. W. (1994). An introduction to multivariate statistical analysis (3rd ed.).
Wiley.
Hogg, R. V., & Tanis, E. A. (2005). Probability and statistical inference (7th ed.).
Pearson.