Marco teórico
Distribuciones de probabilidad
Uno de los conceptos más importantes de la teoría de probabilidades es el de variable
aleatoria que, intuitivamente, puede definirse como cualquier característica medible que
toma diferentes valores con probabilidades determinadas.
Las variables comunes en el cálculo de las distribuciones de probabilidad son:
● n es el total de los elementos
● p es la probabilidad de éxito o bien la probabilidad del evento o característica de
estudio
● q es la probabilidad de fracaso o bien es la probabilidad del evento complemento
Toda variable aleatoria posee una distribución de probabilidad que describe su
comportamiento del cual existen dos tipos de variables:
1. Discretas
2. Continuas
Distribución discreta
Una distribución de probabilidad discreta es aquella distribución que define las
probabilidades de una variable aleatoria discreta. Por lo tanto, una distribución de
probabilidad discreta sólo puede tomar un número finito de valores (generalmente
siempre son enteros).
En una distribución de probabilidad discreta se asocia cada valor de la variable discreta
que representa (xi) a un valor de probabilidad (pi) que va desde 0 hasta 1. De manera
que la suma de todas las probabilidades de una distribución discreta da como resultado
uno.
Ejemplos
· Variable que nos define el número de productos defectuosos en un lote de 25
productos.
● X = {0, 1, 2, 3,..,25 productos defectuosos en el lote}
· Variable que nos define el número de alumnos aprobados en la materia de
probabilidad en un grupo de 40 alumnos (x).
● X = {0, 1, 2, 3, 4, 5,..,40 alumnos aprobados en probabilidad}
Características de la distribución de probabilidad discreta
● La probabilidad pi de un evento cualquiera xi está comprendida entre 0 y
1, pudiendo ser incluso alguno de estos valores límite: 0 ≤ x ≤ 1.
● P(X=xi) = pi solo toma valores positivos, por lo tanto: P(X=xi) ≥ 0.
● Se cumple que ∑ P(xi) = 1 para todos los valores posibles de x.
Tipos de distribución de probabilidad discreta
o Distribución de Bernoulli
o Distribución Binomial
o Distribución Geométrica
o Distribución Poisson
Distribución de Bernoulli
La distribución de Bernoulli, también conocida como distribución dicotómica, es una
distribución de probabilidad que representa una variable discreta la cual solo puede
tener una de dos resultados: éxito o fracaso.
En la distribución de Bernoulli, éxito es el resultado que esperamos que ocurra y tiene
el valor de 1, mientras que el resultado de fracaso es un resultado distinto al esperado
y su valor es 0. Así pues, si la probabilidad del resultado de éxito es p, la probabilidad
del resultado de fracaso es q=1-p.
Por otro lado, la fórmula anterior también puede escribirse mediante la siguiente
expresión equivalente:
Gráficamente, el resultado de estas distribuciones se puede representar así, de manera
que nomas existen 2 posibles resultados con una diferente probabilidad de suceder, por
lo cual nomas se muestran 2 variables en las gráficas.
Distribución binomial
La distribución binomial es un modelo estadístico que se utiliza para predecir la
probabilidad de obtener un número específico de éxitos en un número fijo de intentos,
cada uno con dos posibles resultados (éxito o fracaso) y donde cada intento es
independiente de los demás.
Esta se aplica cuando realizamos una serie de pruebas, todas independientes entre sí,
y queremos saber cuántas veces ocurrirá un evento específico, tal como obtener cara
al lanzar una moneda varias veces.
Por tanto, la distribución binomial nos ayuda a entender la probabilidad de que algo
suceda o no, en situaciones donde solo hay dos opciones y se hacen varias pruebas
para verificarlo.
Propiedades:
● La probabilidad de éxito debe ser constante. Por ejemplo, la probabilidad de que
salga un número par al lanzar un dado es 0,5 y esta es constante dado que el
dado no cambia en cada ensayo y las probabilidades de sacar par es constante.
● La probabilidad de fracaso debe ser también constante
● Cada experimento es independiente de los demás y no influye en las
probabilidades de los que hagamos posteriormente, por lo que en cada uno la
probabilidad de que se dé uno de los dos resultados será exactamente la misma.
● Los sucesos son mutuamente excluyentes, es decir, no pueden ocurrir los dos al
mismo tiempo. Al lanzar un dado, no puede salir par e impar a la vez, ni al lanzar
una moneda puede salir cara y cruz al mismo tiempo.
● Los resultados son colectivamente exhaustivos, es decir, al menos uno de los 2
ha de ocurrir. Si no sale par, sale impar, y si no sale cara, sale cruz.
● La variable aleatoria que sigue una distribución binomial se suele representar
así: X ~ (n, p), donde, como ya sabes, n representa el número de ensayos o
experimentos y p la probabilidad de éxito
Formula
n = número de ensayos p = probabilidad de éxito
q = probabilidad de fracaso (1-p)
x = número de éxitos
Es importante resaltar que la expresión no es una
expresión matricial, sino que es un resultado de
una combinatoria sin repetición. Este se obtiene
con la siguiente fórmula:
Distribución geométrica
La distribución geométrica es una distribución de probabilidad que define el número de
ensayos de Bernoulli necesarios hasta obtener el primer resultado con éxito. Es decir,
una distribución geométrica modela aquellos procesos en los que se repiten
experimentos de Bernoulli hasta que se consigue uno con un resultado de éxito.
Una distribución de Bernoulli es un experimento que tiene dos posibles resultados:
éxito y fracaso. Por lo tanto, la distribución geométrica depende del parámetro p, que
es la probabilidad de éxito que tienen todos los experimentos realizados. Además, la
probabilidad p es igual para todos los experimentos.
Todo esto quiere decir que:
P[X = 1] = P[éxito en el 1er ensayo] = p
P[X = 2] = P[fracaso en el 1er ensayo y éxito en el 2do] =
P[X = 2] = P[fracaso en el 1er ensayo y éxito en el 2do] =
P[fracaso en el 1ero] * P[éxito en el segundo] = (1−p)(p)
Efectuando esto, sucesivamente:
P[X = 3] = (1−p)(1−p)p
P[X = k] = (1−p)k−1p
El caso cuando X = 2 o cuando X = 3, etc. quiere decir que se quiere obtener el éxito
en el ensayo número 2 o 3 respectivamente, por lo cual, se debió haber fracasado en
los intentos anteriores. Esta fórmula devuelve la probabilidad de obtener el éxito en el
intento establecido (k).
Representación gráfica:
Debido a la naturaleza de la distribución geométrica, se puede determinar que la
probabilidad de éxito o fracaso mediante aumentan los intentos va disminuyendo la
probabilidad, de no ser que se represente de manera acumulada, por lo cual la
representación gráfica de las distribuciones geométricas, acumuladas y no
acumuladas, son de la siguiente manera:
Propiedades de la distribución geométrica:
Esperanza:
Varianza:
Distribución acumulada:
Éxito en todos los intentos:
Distribucion de Poisson
La distribución de Poisson, introducida por Simeón Poisson en 1837, es una
distribución de probabilidad discreta esencial en el campo de la estadística.
La distribución de Poisson se representa con la letra griega λ e indica el número de
veces que se espera que ocurra el evento estudiado durante un intervalo dado. Es
decir, la distribución de Poisson sirve para modelizar variables aleatorias que describen
el número de veces que se repite un fenómeno en un intervalo de tiempo.
Con el avance de la tecnología y el uso generalizado de computadoras en el siglo XXI,
la distribución de Poisson ha visto un incremento notable en su aplicación en diversas
áreas, desde la epidemiología hasta la ingeniería y la economía.
Caracteristicas
● Esperanza y Varianza:
En una distribución de Poisson, tanto la esperanza como la varianza son iguales a λ
(lambda), donde λ es el promedio de eventos en el intervalo observado.
● Distribución Discreta:
La distribución de Poisson se utiliza para describir eventos que suceden en un número
finito de ocasiones (es decir, eventos discretos).
● Independencia de Eventos:
La ocurrencia de un evento en un intervalo no afecta la probabilidad de que ocurran
eventos en otros intervalos.
● Tasa constante
Los eventos deben ocurrir a una tasa constante. Es fundamental que la tasa de
ocurrencia sea uniforme a lo largo del tiempo o del espacio que se esté considerando.
● Limite superior
No debe haber un límite superior en la cantidad de eventos que pueden ocurrir en un
intervalo.
Requisitos
● Los eventos deben ser independientes. Esto significa que la ocurrencia de un
evento no influye en la ocurrencia de otro.
● Los eventos deben ocurrir a una tasa constante. Es fundamental que la tasa de
ocurrencia sea uniforme a lo largo del tiempo o del espacio que se esté
considerando.
● No debe haber un límite superior en la cantidad de eventos que pueden ocurrir
en un intervalo.
Formula:
● F(X = x):
La probabilidad de que ocurran exactamente x eventos en un intervalo.
● λ (lambda):
La tasa promedio de ocurrencia de eventos en el intervalo observacional.
● e:
La base del logaritmo natural, aproximadamente igual a 2.71828.
● x!:
El factorial de x, que significa el producto de todos los números enteros positivos de x
hasta 1.
Esta fórmula permite calcular la probabilidad de Poisson para diferentes valores de x,
proporcionando información valiosa sobre el comportamiento de eventos en un tiempo
o espacio determinado.
Representación gráfica
La distribución de Poisson se puede
expresar de forma gráfica, ya que en
realidad consiste en un diagrama de
barras, similar a los obtenidos en la
función de probabilidad, pero con
forma asimétrica positiva como sucede
con la distribución binomial. Sin
embargo al ir aumentando los valores
de λ, va adquiriendo la típica forma de
campana de Gauss, pudiendo
deducirse, que conforme aumenta λ, las variables de Poisson van a poder aproximarse
a la distribución normal, por el Teorema Central del Límite.
Distribución de probabilidad continua
La distribución de probabilidad continua es aquella cuya función de distribución es
suave y sin saltos, lo que implica que se pueda tomar cualquier valor dentro de un
intervalo. En este tipo de distribución se describen las probabilidades asociadas a una
variable aleatoria continua.
Algunos ejemplos comunes de lo que son las distribuciones de probabilidad continua
incluyen la distribución normal y la distribución t de Student.
La distribución continua a diferencia de lo que son las distribuciones de probabilidad
discretas, donde las variables pueden asumir solo ciertos valores específicos, permiten
que las variables puedan tomar cualquier valor, incluidos los decimales, dentro de un
rango definido.
Para calcular probabilidades acumuladas en distribuciones continuas, es necesario
encontrar el área bajo la curva de la función de densidad de probabilidad. Esto se logra
mediante la integración de dicha función, ya que la función de probabilidad acumulada
en este contexto es equivalente a la integral de la función de densidad.
Ejemplos
Algunos ejemplo de la aplicación de la distribución continua, para una mejor
comprensión son las siguientes:
● El peso de los alumnos de un curso.
● El tiempo de duración de un componente eléctrico.
● La rentabilidad de las acciones que cotiza una empresa en la bolsa.
● La velocidad de un carro.
● El precio de unas acciones bursátiles.
Características de la distribución de probabilidad continua
● La variable aleatoria presentada puede tomar cualquier valor posible
dentro de un intervalo continuo establecido, esto incluye los valores
decimales o fraccionarios.
● La probabilidad que se tiene de que una variable aleatoria continua tome
un valor específico es de cero, ya que las variables pueden asumir
infinitos valores. En lugar de esto se utilizan intervalos para poder calcular
probabilidades y éstas se obtienen mediante el uso de la función de
densidad de probabilidad (FDP).
● La probabilidad que se tiene de que el área bajo la curva caiga en un
intervalo específico se puede calcular mediante el área bajo la curva de la
función de densidad de probabilidad dentro de dicho intervalo.
● El área total que se tiene bajo la curva es igual a 1, lo que nos indica que
la probabilidad total es igual a 100%.
Tipos de distribución de probabilidad discreta
o Distribución Normal
o Distribución Uniforme
o Distribución Triangular
o Distribución Exponencial
Distribución Normal
La distribución normal es una distribución de probabilidad continua cuya gráfica tiene
una característica forma de campana y es perfectamente simétrica respecto a su
media. En estadística, esta distribución es fundamental para modelar una amplia
variedad de fenómenos, lo que la convierte en una de las más importantes.
Se le considera la distribución más relevante dentro de la probabilidad y la estadística,
no sólo por su capacidad para representar numerosos fenómenos del mundo real, sino
que también bajo ciertas condiciones se puede aproximar otros tipos de distribuciones.
El símbolo que representa la distribución normal es la letra "N" mayúscula. Para
expresar que una variable sigue una distribución normal, se utiliza el símbolo "N"
seguido de su media aritmética y su desviación estándar entre paréntesis. Por ejemplo,
N(μ,σ)N(\mu, \sigma)N(μ,σ), donde μ\muμ es la media y σ\sigmaσ es la desviación
estándar.
La distribución normal presenta las siguientes características:
● En la distribución normal se depende de dos parámetros característicos, su
media aritmética distribución normal podemos observar cómo varía la función de
densidad de la distribución normal e(μ) y su desviación típica (σ).
● En la distribución normal se pueden tomar valores ya sean positivos o negativos,
por lo tanto, el dominio de la distribución normal son todos los números reales.
● Tanto la media como la moda en la distribución normal son iguales a la media
aritmética de la distribución.
Por último, se presenta la fórmula de la distribución normal:
En la gráfica de densidad de la distribución normal vemos cómo se depende de los
valores de su media aritmética y de su desviación típica.
Debido a su forma de campana centrada en la media aritmética, podemos ver que si
una variable tiene una distribución normal nos indica que su valor más repetido es la
media y que los valores alrededor de la media se repiten con más frecuencia que los
valores de los extremos. También cuanto mayor sea la desviación típica de la
distribución normal, más aplastada es la forma de su representación gráfica.
En la gráfica de la función de probabilidad acumulada de la distribución normal
observamos que también dependen sus valores de la media aritmética y de su
desviación típica.
En la función de densidad y la función de distribución de la distribución normal se nos
permite calcular las probabilidades que se relacionan con esta distribución. No
obstante, en lugar de utilizar sus fórmulas, se puede hacer uso directamente de las
tablas de la distribución normal ya que es más rápido.
Distribución Uniforme
En la distribución uniforme continua, también conocida como distribución rectangular,
es un tipo de distribución de probabilidad en la que todos los valores encontrados
dentro de un intervalo específico tienen la misma probabilidad de ocurrir. Dicho de otra
forma, la probabilidad está distribuida de manera uniforme a lo largo del intervalo, lo
que implica que no hay un valor más probable que otro.
Esta distribución es utilizada para poder modelar variables continuas con
probabilidades constantes y es útil para representar procesos aleatorios en los que
todos los resultados son igualmente posibles, lo que refleja la total aleatoriedad de los
mismos.
Los dos parámetros clave de la distribución uniforme continua son a y b, los cuales
determinan el intervalo en el que todos los valores tienen la misma probabilidad. Se
representa como U(a, b), donde a es el límite inferior y b el límite superior de la
distribución.
Algunas de las características que se aplican a la distribución uniforme continua son las
siguientes:
● La distribución uniforme continua está definida por dos parámetros reales
conocidos como a y b, los cuales establecen límites dentro de los cuales
obtenemos una probabilidad constante.
● En esta distribución solo se pueden tomar valores que estén dentro de los
límites o intervalos formados por a y b.
● La media es igual a la suma de los dos parámetros obtenidos dividido entre dos.
● La varianza obtenida equivale al cuadrado de la diferencia entre la división de b
y a sobre 12.
● Por último, tenemos que la distribución uniforme es simétrica, lo que nos indica
que el coeficiente de asimetría de este tipo de distribución tiene un valor nulo.
Función de Densidad de Probabilidad (FDP)
Para poder expresar la FDP de una distribución uniforme en el intervalo [a, b]
utilizamos la expresión matemática:
Lo que vemos con esto es que la probabilidad de que la variable aleatoria X tome un
valor entre a y b es constante y viene dada por 1/(b-a). Fuera de este intervalo, la
probabilidad es cero. En otras palabras, todos los valores dentro del intervalo son
igualmente probables, y la FDP tiene forma de línea horizontal entre a y b.
Función de Distribución Acumulada (FDA)
La FDA acumula la probabilidad desde el inicio del intervalo aaa hasta un valor
específico x dentro del mismo. Está dada por:
Esto significa que:
● Si x es menor que a, la probabilidad acumulada es 0 (ya que ningún valor ha
sido alcanzado).
● Si x está dentro del intervalo [a, b], la probabilidad acumulada aumenta
linealmente desde 0 en a hasta 1 en b.
● Si x es mayor que b, la probabilidad acumulada es 1, lo que significa que toda la
probabilidad está incluida en el intervalo [a, b].
Gráfica
La FDP se representa como una línea horizontal constante entre a y b, reflejando que
cada valor en el intervalo tiene la misma probabilidad de ocurrencia. La altura de la
línea es 1/(b-a), lo que asegura que el área total bajo la curva sea 1, cumpliendo con el
principio de que la suma de todas las probabilidades es igual a 1.
La FDA se representa como una línea recta que comienza en 0 cuando x=a, aumenta
de forma lineal hasta llegar a 1 en x=b. La pendiente de esta línea refleja la tasa
constante de acumulación de probabilidad dentro del intervalo.
Distribución Triangular
La distribución triangular es una distribución de probabilidad continua que se utiliza
para el modelaje de algunos fenómenos en donde los valores se distribuyen de forma
constante y estos están limitados por un rango definido. Esta distribución tiene como
característica principal su peculiar forma de triángulo, con una única moda y dos límites
(inferior y superior).
La distribución triangular se define por:
● a: el valor mínimo , donde a ≤ c,
● c: el valor máximo (la altura del triángulo), donde a ≤ c ≤ b,
● b: el valor máximo , donde b ≥ c.
Por lo que podemos estimar los parámetros de forma sencilla por lo que se hace a
partir de datos de muestra
● Utilice el mínimo muestral como estimador de a,
● Use el máximo de la muestra como un estimador para b, y
● Utilice cualquier estadística razonable como estimador de c.
Si no se cuentan con datos de muestra, se puede hacer uso del conocimiento experto
para la estimación de un valor mínimo, máximo y más probable (moda).
Los tres parámetros, a, b y c, cambian la forma del triángulo como todas las
distribuciones de probabilidad, el área bajo la curva es 1. Por lo tanto, cuanto mayor
sea la distancia entre a y c, menor será su altura.
La función de densidad de probabilidad , que se usa para encontrar la probabilidad de
que una variable aleatoria caiga dentro de cierto rango, está dada por:
La media de esta distribución es:
μ = 1/3 (a + b + c).
La desviación estándar , s, es:
s = (1/√6) a.
Esta fórmula asume que la distribución está centrada en cero y que se conocen los
puntos finales
Gráficas de la distribución triangular:
La gráfica de distribución triangular FDP muestra cómo la densidad de probabilidad
aumenta linealmente desde el límite inferior hasta la moda y luego disminuye
linealmente hasta el límite superior, formando una forma de triángulo. La altura de la
FDP varía dependiendo de la distancia entre los parámetros aaa, bbb y ccc.
Mientras que la gráfica de distribución triangular acumulada FDA, nos muestra cómo la
probabilidad acumulada aumenta linealmente desde el límite inferior hasta la moda y
luego disminuye hacia el límite superior, alcanzando 1 al final del intervalo.
Distribución Exponencial
La distribución exponencial es una distribución de probabilidad continua utilizada para
modelar el tiempo de espera hasta que ocurre un fenómeno aleatorio.
Específicamente, la distribución exponencial describe el tiempo que transcurre entre
dos eventos que siguen una distribución de Poisson. Por lo tanto, existe una conexión
estrecha entre ambas distribuciones.
La distribución exponencial se caracteriza por un parámetro, representado por la letra
griega λ, que indica la tasa a la que se espera que ocurra el evento en cuestión durante
un periodo de tiempo específico.
● La distribución exponencial tiene un parámetro característico λ, que indica el
número de veces que se espera que ocurra el fenómeno estudiado durante un
periodo de tiempo determinado.
● La distribución exponencial no puede tomar un valor negativo, por lo que el
dominio de la distribución exponencial son todos los números reales mayores o
igual que cero.
● La media de la distribución exponencial es igual a uno partido por el parámetro
característico λ.
● La varianza de la distribución exponencial es el cuadrado de su media, por lo
tanto, la varianza de la distribución exponencial es equivalente a uno partido por
el coeficiente λ al cuadrado.
● Independientemente del valor del coeficiente de asimetría de la distribución
exponencial siempre es igual a 2.
Esta distribución es útil en diversas aplicaciones, como el análisis de tiempos de
espera, fallos de sistemas y procesos de llegada en teoría de colas.
La forma de la gráfica de la distribución acumulada (FDA) en la distribución exponencial
se debe a la naturaleza de cómo se acumulan las probabilidades en este tipo de
distribución.
Desarrollo
Aplicaciones de distribucion de Bernoulli
La distribución Bernoulli en estadística Big Data es un componente esencial que se
utiliza para modelar experimentos con solo dos resultados posibles: éxito y fracaso. Por
lo tanto, es particularmente útil cuando se trata de eventos que se pueden categorizar
de manera binaria, como la compra o no compra de un producto, el clic o no clic en un
anuncio en línea, o la aprobación o desaprobación de una propuesta. Esta distribución
se emplea para analizar grandes volúmenes de datos que involucran eventos binarios.
Algunas aplicaciones comunes incluyen la evaluación de tasas de conversión en
marketing digital, la predicción de resultados en juegos de azar y la medición de la
efectividad de políticas gubernamentales.
Ejemplo
● Para ganar un juego, un jugador necesita lanzar un dado y sacar un 3, en caso
contrario, otro jugador ganará la partida y, por tanto, se perderá el juego. Calcula
la probabilidad de éxito y de fracaso.
Un dado tiene seis posibles resultados (1, 2, 3, 4, 5, 6), por lo tanto, en este caso el
espacio muestral del experimento es:
El único caso de éxito es obtener el número tres, de modo que la probabilidad de éxito
aplicando la regla de Laplace es igual a uno partido por el número total de posibles
resultados:
Si sale cualquier otro número al lanzar el dado, el resultado del experimento se
considerará como un fracaso, ya que el jugador perderá la partida. Dicho esto, la
probabilidad es equivalente a uno menos la probabilidad calculada anteriormente:
Finalmente, la distribución de Bernoulli de este experimento queda definida por la
siguiente expresión:
Gráficamente, este ejercicio se
representa de la siguiente manera.
Ejemplo 2
Un juego consiste en extraer una bola de una urna que contiene 50 bolas
numeradas. Se gana el juego si la bola extraída está marcada con un número
primo. En este juego, el espacio muestral es la colección Ω = {1, ..., 50}.
Suponiendo que el juego es justo, la probabilidad de extraer cualquiera de las
bolas es 1 / 50. Por otro lado, el evento éxito es el conjunto E = {2, 3, 5, ...., 50}, o
bien, E = {1 ≤ n ≤ 50 :n es primo}.
Asi:
P(Éxito) = 15 / 50 = 3 / 10
P(Fracaso) = 1 − P(E) = 7 / 10 .
Aplicaciones de Distribución Binomial
Utilizamos la distribución binomial en todos los eventos donde solamente hay dos
resultados en un conjunto finito de estas, a diferencia del bernoulli donde es en un solo
caso, por ejemplo, la definición del sexo de un bebé; el que nuestro equipo favorito
gane o pierda algún partido; el que pase o repruebe un examen. Algunos ejemplos son
los siguientes:
1. Éxito o fracaso en un negocio:
La distribución binomial se puede usar para modelar la probabilidad de que un negocio
tenga éxito o fracase. Por ejemplo, si se sabe que la tasa de éxito de los negocios en
un área determinada es del 60%, se puede utilizar la distribución binomial para calcular
la probabilidad de que un nuevo negocio tenga éxito en ese área.
2. Probabilidades de eventos deportivos:
La distribución binomial se puede usar para modelar la probabilidad de que un equipo
gane o pierda un partido en función de la tasa de éxito del equipo y el número de
partidos jugados. Por ejemplo, si un equipo tiene una tasa de éxito del 70% y jugará 10
partidos, se puede utilizar la distribución binomial para calcular la probabilidad de que el
equipo gane exactamente 7 partidos.
3. Pruebas médicas:
La distribución binomial se puede usar para modelar la probabilidad de resultados
positivos o negativos en pruebas médicas. Por ejemplo, si una prueba de detección de
una enfermedad tiene una tasa de acierto del 95%, se puede utilizar la distribución
binomial para calcular la probabilidad de que un paciente tenga un resultado falso
positivo o falso negativo.
4. Fabricación de productos:
La distribución binomial se puede usar para modelar la probabilidad de que un producto
sea defectuoso o no. Por ejemplo, si una línea de producción de una fábrica produce
productos defectuosos con una tasa del 5%, se puede utilizar la distribución binomial
para calcular la probabilidad de que se produzcan 3 productos defectuosos en un lote
de 50.
Ejemplo 1:
Se determina que un 80 % de las personas de todo el mundo vieron las Olimpiadas
2016 en Río de Janeiro. Una vez finalizadas, 4 amigos se reúnen para charlar. ¿Cuál
es la probabilidad de que 3 de ellos las hayan visto?
Se definen las variables del experimento:
● n = 4 (el total de la muestra)
● x = número de éxitos (en este caso es igual a 3, ya que buscamos la
probabilidad de que 3 de los 4 amigos las hayan visto)
● p = probabilidad de éxito (0,8)
● q = probabilidad de fracaso (0,2). Este resultado se obtiene al restar 1-p.
Tras definir todas las variables, simplemente se sustituyen en la fórmula.
El numerador del factorial se obtendrá de multiplicar 4*3*2*1 = 24 y en el denominador
tendríamos 3*2*1*1 = 6. Por lo tanto, el resultado del factorial sería 24 / 6 = 4.
Fuera del corchete tenemos dos números. El primero sería 0,8^3=0,512 y el segundo
0,2 (dado que 4-3 = 1 y
cualquier número
elevado a 1 es el
mismo).
Por tanto, el resultado
final sería: 4*0,512*0,2
= 0,4096. Si
multiplicamos por 100
tenemos que hay una
probabilidad del
40,96% de que 3 de
los 4 amigos hayan
visto el partido de la
final del mundial.
Ejemplo 2
Se sabe que el 30 % de los estudiantes de secundaria en México es incapaz de
localizar en un mapa el lugar donde se encuentra Afganistán. Si se entrevista a seis
estudiantes de este nivel elegidos al azar:
¿Cuál será la probabilidad de que exactamente dos puedan localizar este país?
Si se define como éxito que sí sepa la localización, podemos decir que la probabilidad
de éxito es de 0.70. Además, las probabilidades que se desean calcular se refieren al
número de éxitos, por lo cual el resultado queda como:
P(2) = 6C2 (0.70)2(0.30)4 = 15 (0.49)(0.0081) = 0.059535
Significa que 5.95% de probabilidad que exactamente 2 puedan localizar Afganistán.
Aplicaciones de Distribucion Geometrica
Esta distribución tiene muchas aplicaciones en diversas áreas donde los procesos
repetitivos y las probabilidades de éxito/fracaso están involucrados. Aquí algunos
ejemplos:
● Control de calidad: Se inspeccionan los productos uno por uno hasta
encontrar el primer defecto
● Sistemas de telecomunicaciones: Reintentando transmisiones hasta lograr
el éxito.
● Marketing: Se buscan los intentos realizados hasta lograr el éxito.
● Investigación médica: Cuando se administran tratamientos hasta encontrar
el primer defecto o falla.
Ejemplo 1
Al grabar un comercial de televisión, la probabilidad es 0.30 de que cierto actor dirá sus
líneas correctamente en una toma cualquiera.
● ¿Cuál es la probabilidad de que diga correctamente sus líneas por primera
vez en la sexta toma?
Para que al actor se le haga una sexta toma, tuvo que haberse equivocado en las 5
tomas anteriores. Primero hay que calcular la probabilidad de que NO diga
correctamente sus líneas, eso se calcula restando al entero la probabilidad de que diga
correctamente sus líneas:
1 - 0.3 = 0.7
Bien, la probabilidad de que no diga correctamente sus líneas es de 0.7. Sigue calcular
la probabilidad de que se haya confundido en las primeras 5 tomas:
(0.7)5 =0.168
Teniendo la probabilidad de que se confunda en las primeras 5 tomas, sigue la
probabilidad de que diga sus líneas correctamente en la sexta toma, eso se calcula
multiplicando la probabilidad de que haya dicho mal sus líneas las primeras 5 tomas
por la probabilidad de que diga su línea correctamente en la sexta toma:
(0.168)(0.3)=0.0504
Con esta probabilidad se puede asegurar que la probabilidad de que el actor diga sus
líneas correctamente en la sexta toma es de 0.0504 = 5.04%.
Ejemplo 2
Un matrimonio quiere tener una hija, y por ello deciden tener hijos hasta el nacimiento
de una hija. Calcular el número esperado de hijos (entre varones y hembras) que
tendrá el matrimonio. Calcular la probabilidad de que la pareja acabe teniendo tres hijos
o más.
La probabilidad de que la pareja acabe teniendo tres o más hijos, es la de que tenga 2
o más hijos varones (la niña está del tercer lugar en adelante), es decir:
Aplicaciones de Distribucion de Poisson
La distribución de Poisson se utiliza para modelar la probabilidad de que ocurra
un cierto número de eventos en un intervalo de tiempo o espacio, siempre y
cuando los eventos ocurran de manera independiente y a una tasa constante. Es
especialmente útil para calcular probabilidades muy pequeñas o sucesos que
tienen pocas posibilidades de producirse.
- Contador de Geiger.
Es un instrumento para medir la radiactividad de un objeto o zona. Se utiliza la
distribución de Poisson para calcular el comportamiento estadístico de la
radiación y así poder establecer su nivel.
- Operaciones bursátiles.
En el mundo de los mercados y la bolsa se utiliza la distribución de Poisson para
calcular el riesgo de las operaciones en los tiempos de espera entre
transacciones financieras.
- Contador de personas.
Los contadores de personas que habitualmente se utilizan en los comercios para
saber el número de personas que entran en su establecimiento durante un
periodo de tiempo (número de clientes en la última hora, por ejemplo).
Ejemplo 1
Si un banco recibe en promedio 6 cheques sin fondo por día, ¿cuáles son las
probabilidades de que reciba, a) cuatro cheques sin fondo en un día dado, b) 10
cheques sin fondos en cualquiera de dos días consecutivos?
a)
x = variable que nos define el número de cheques sin fondo que llegan al banco en un
día cualquiera = 0, 1, 2, 3, ....., etc, etc.
λ = 6 cheques sin fondo por día
ε = 2.718
b) X= variable que nos define el número de cheques sin fondo que llegan al banco en
dos días consecutivos = 0, 1, 2, 3, ......, etc., etc.
λ = 6 x 2 = 12 cheques sin fondo en promedio que llegan al banco en dos días
consecutivos.
Ejemplo 2
Cierta enfermedad tiene probabilidad de ocurrir p=1/100000, lo que en Medicina se
denomina prevalencia. Calcula la probabilidad de que en una ciudad de 500000
habitantes haya más de 3 personas con dicha enfermedad. ¿Cuál sería en dicha
ciudad el número de enfermos esperado?
Solución:
El problema se podría abordar mediante una calculacion de (500000 x 0.00001)
En este caso aproximamos por un modelo de Poisson de parámetro:
Aplicaciones de Distribución Normal
La distribución normal es una de las distribuciones más importantes debido a su amplio
uso en la estadística por su presencia en diversos fenómenos naturales y sociales.
Algunas de sus aplicaciones pueden ser:
● Para el modelado en investigaciones científicas y sociales, como lo pueden ser
la estatura o el peso de un grupo de personas.
● En la manufactura se puede utilizar para evaluar la variabilidad de los productos.
● Se puede utilizar en la calibración de instrumentos de medición ya que nos
permiten asegurar que las mediciones caen dentro de un rango esperado, es
decir, que sigue una distribución normal.
● En las pruebas estadísticas debido a que se asume que los datos tienen una
distribución normal, lo que nos permite realizar inferencias sobre poblaciones a
partir de muestras.
Ejemplo de un aplicación de la distribución normal:
Imaginemos que se requiere estudiar la altura de los hombres adultos en una ciudad.
Después de realizar un estudio, encontramos que las alturas se distribuyen
normalmente con una media (μ) de 175 cm y una desviación estándar (σ) de 10 cm.
La pregunta que nos hacemos es: ¿Cuál sería la probabilidad de que un hombre adulto
seleccionado de forma aleatoria tenga una altura mayor a 190 cm?
Solución:
Primero estandarizamos la altura usando la fórmula del puntaje z:
Donde tenemos que x es la altura deseada
Revisamos la tabla de distribución normal donde se nos indica que la probabilidad
correspondiente a z=1.5 es de aproximadamente 0.9332, lo que significa que tenemos
un 93.32% de probabilidad de elegir aleatoriamente a una persona que mida menos de
190 cm.
Para encontrar la probabilidad de que sea mayor, tenemos que hacer uso de la
siguiente fórmula:
Por lo que podemos ver que existe un 6.68% de probabilidad de encontrar a un hombre
adulto seleccionado al azar con una altura mayor a 190 cm.
Aplicaciones de Distribución Uniforme
La distribución uniforme nos indica que la probabilidad en la que todos los valores
están dentro de un intervalo específico es la misma. Algunos ejemplos de sus
aplicaciones son las siguientes:
● Es utilizada al momento de generar números aleatorios para poder crear
secuencias de números que son esenciales en distintas áreas como, juegos,
criptográficas y análisis de datos.
● Se utiliza en la planificación de proyectos ya que puede ser útil para modelar la
asignación equitativa de recursos a diferentes tareas o actividades.
● En el proceso de control de calidad es útil para definir tolerancias de medición en
donde cualquier valor dentro de un rango específico es aceptable.
● En los experimentos aleatorios donde se esperan resultados elegidos de manera
aleatoria como lo son la selección de un número entre un rango definido como lo
es al momento de lanzar un dado.
Ejemplo de una aplicación de distribución uniforme:
En un restaurante queremos estimar el tiempo que se debe esperar para que un cliente
reciba su comida, se tiene que es entre 10 y 30 minutos. Se considera que cada tiempo
entre estas dos cantidades tienen la misma probabilidad de suceder.
La pregunta para el estudio es: ¿Cuál es la probabilidad de que un cliente espere entre
15 y 25 minutos?
Lo primero que tenemos que realizar es la definición del intervalo que tenemos:
● Limite inferior (a): 10 minutos
● Limite superior (b): 30 minutos
Después debemos calcular la longitud del intervalo por medio de la resta entre b-a:
A continuación calculamos la longitud de nuestro intervalo de interés:
● Limite inferior (c): 15 minutos
● Limite superior (d): 25 minutos
Finalmente calculamos la probabilidad de que un cliente espere entre 15 y 25 minutos
por medio de la división entre la longitud de interes sobre la longitud total:
Como resultado tenemos que hay un 50% de probabilidad de que un cliente reciba su
comida con un tiempo de espera entre 15 y 25 minutos.
Aplicaciones de Distribución Triangular
La distribución triangular se utiliza principalmente para el modelado de variables
aleatorias que disponen de información limitada y que pueden establecer estimaciones
de los valores mínimo, máximo y la moda. Algunos ejemplo de sus aplicaciones pueden
ser:
● Al momento de estimar el tiempo o el costo necesario para completar tareas al
momentos de estar presentes incertidumbres. Como lo son los costos en análisis
de riesgos.
● Se utiliza para modelar variables en lo que se conocen sus límites y el valor más
probable permitiéndonos obtener distribuciones de probabilidad de resultados
más complejos.
● Nos permite evaluar riesgos en proyectos o decisiones comerciales para
identificar el rango de posibles resultados y su probabilidad de ocurrencia.
● Se utiliza para la estimación de costos en proyectos de construcción donde se
hace uso de valores máximos y mínimos basándose en experiencias previas.
Ejemplo de una aplicación de distribución triangular:
En una empresa de construcción en la que se está planificando un nuevo proyecto y se
necesita estimar el tiempo en el que se estima que se completará una fase del trabajo.
Obtenemos los siguientes datos:
● Tiempo mínimo estimado (a): 10 días
● Tiempo máximo estimado (b): 25 días
● Tiempo más posible(c): 15 días
La pregunta que nos hacemos para realizar el análisis es: ¿Cuál es la probabilidad de
que el tiempo de construcción de la etapa sea entre 12 y 20 días?
Lo primero que debemos realizar es la identificación de nuestros límites:
● a = 10
● b = 25
● c = 15
Después debemos de calcular el área bajo la curva en función del intervalo en el que
encontramos x:
Continuamos con los cálculos de las probabilidades:
Finalmente calculamos el área total donde se nos indica que la probabilidad es de
aproximadamente 34.67%
Aplicaciones de Distribución Exponencial
La distribución uniforme es utilizada comúnmente para modelar los tiempos que
transcurren hasta que sucede un evento aleatorio. Algunos ejemplos de las
aplicaciones de la distribución exponencial pueden ser:
● El tiempo que transcurre entre dos llamadas en un centro de atención al cliente.
● El tiempo que espera una persona hasta que un taxi pasa.
● El tiempo de espera en el que una nueva persona entra a una tienda.
● El tiempo de espera en el que entran dos usuarios distintos a una pagina web.
● El tiempo que transcurre entre dos vuelos distintos en un aeropuerto.
Ejemplo de una aplicación de distribución exponencial:
En un centro de atención al cliente se ha determinado que el tiempo promedio entre
llamadas de distintos clientes sigue una distribución exponencial con una tasa de
llamadas impuesta por λ = 0.2 llamadas por minuto.
La pregunta para el estudio es: ¿Cuál es la probabilidad de que el tiempo de espera
entre dos llamadas distintas sea mayor a 5 minutos?
Lo primero que debemos de realizar es la identificación de la tasa de llamadas, para
eso tenemos que:
● λ = 0.2 llamadas por minuto.
Despues definimos tanto la FDA como la FDP para calcular la probabilidad de que el
tiempo hasta la proxima llamada sea mayor a 5 minutos.
● FDP:
● FDA:
Haremos uso de la FDA, por lo que tenemos que:
Una vez resuelta, obtenemos que la probabilidad de que el tiempo de espera hasta la
proxima llamada sea mayor a 5 minutos es de 36.79% aproximadamente.