MATERIA: MIGUEL ALEJANDRO VAZQUEZ
GALLARDO
NUMERO DE CONTROL: 22130165
DOCENTE: ING. LIZETH ESPINO MARQUEZ
ACTIVIDAD: PORTAFOLIO DE EVIDENCIAS
UNIDAD: 3
MARCO TEORICO
DISTRIBUCION BINOMIAL
En teoría de la probabilidad y estadística, la distribución binomial o distribución binómica es
una distribución de probabilidad discreta que cuenta el número de éxitos en una secuencia
de ensayos de Bernoulli independientes entre sí con una probabilidad fija de ocurrencia de éxito
entre los ensayos. Un experimento de Bernoulli se caracteriza por ser dicotómico, esto es, solo
dos resultados son posibles, a uno de estos se le denomina “éxito” y tiene una probabilidad de
ocurrencia y al otro se le denomina “fracaso” y tiene una probabilidad
La distribución binomial se utiliza con frecuencia para modelizar el número de aciertos en una
muestra de tamaño n extraída con reemplazo de una población de tamaño N. Si el muestreo se
realiza sin reemplazo, las extracciones no son independientes, por lo que la distribución
resultante es una distribución hipergeométrica, no una distribución binomial. Sin embargo,
para N mucho mayores que n, la distribución binomial sigue siendo una buena aproximación, y
se utiliza ampliamente.
Más matemáticamente, la distribución binomial es una distribución discreta de
probabilidad descrita por dos parámetros: n el número de experimentos realizados, y p la
probabilidad de éxito. Para cada experimento llamado ensayo Bernoulli, utilizamos una variable
aleatoria que toma el valor 1 cuando se consigue un éxito y el valor 0 en caso contrario. La
variable aleatoria, suma de todas estas variables aleatorias, cuenta el número de éxitos y sigue
una distribución binomial. Es posible entonces obtener la probabilidad de k éxitos en una
repetición de n experimentos:
DISTRIBUCION HIPERGEOMETRICA:
La distribución hipergeométrica es una distribución discreta que modela el número
de eventos en una muestra de tamaño fijo cuando usted conoce el número total de
elementos en la población de la cual proviene la muestra. Cada elemento de la
muestra tiene dos resultados posibles (es un evento o un no evento). Las muestras
no tienen reemplazo, por lo que cada elemento de la muestra es diferente. Cuando
se elige un elemento de la población, no se puede volver a elegir. Por lo tanto, la
probabilidad de que un elemento sea seleccionado aumenta con cada ensayo,
presuponiendo que aún no haya sido seleccionado.
Utilice la distribución hipergeométrica para muestras obtenidas de poblaciones
relativamente pequeñas, sin reemplazo. Por ejemplo, la distribución
hipergeométrica se utiliza en la prueba exacta de Fisher para probar la diferencia
entre dos proporciones y en muestreos de aceptación por atributos cuando se
toman muestras de un lote aislado de tamaño finito.
La distribución hipergeométrica se define por 3 parámetros: tamaño de la
población, conteo de eventos en la población y tamaño de la muestra.
Por ejemplo, usted recibe un envío de pedido especial de 500 etiquetas.
Supongamos que el 2% de las etiquetas es defectuoso. El conteo de eventos en la
población es de 10 (0.02 * 500). Usted toma una muestra de 40 etiquetas y desea
determinar la probabilidad de que haya 3 o más etiquetas defectuosas en esa
muestra. La probabilidad de que haya 3 o más etiquetas defectuosas en la muestra
es de 0.0384.
DISTRIBUCION DE POISSON:
Qué es la distribución de Poisson
La distribución de Poisson es una distribución de probabilidad discreta que se aplica a las
ocurrencias de algún evento durante un periodo determinado. Es decir, es una distribución
de probabilidad discreta en la que solo es necesario conocer los eventos y cuál es su
frecuencia media de ocurrencia para poder conocer la probabilidad de que ocurran.
Una distribución es discreta cuando se toma un número de valor finito, mientras que las
continuas usan un número infinito de valores.
La distribución de Poisson fue creada por el matemático y filósofo francés del siglo
XVII Simeón-Denis Poisson en su proyecto para modelar la frecuencia de eventos durante
un rango de tiempo determinado. Esta distribución la hizo pública en el año 1838 en su
trabajo “Investigación sobre la probabilidad de los juicios en materias criminales y civiles”.
Qué diferencias hay entre distribución de Poisson y binomial
La distribución de Poisson es una distribución binomial que está limitada al solo depender
de un parámetro, el número esperado de eventos que ocurrirán en un intervalo fijado, es
decir, la frecuencia de los eventos.
Si en una función binomial sus parámetros tienden a infinito y a cero, la distribución límite
obtenida es la de Poisson.
Cómo saber si una distribución es de Poisson
Para que una distribución sea considerada como distribución de Poisson debe cumplir con
tres requisitos:
▪ La variable discreta “x” es el número de ocurrencias de un evento durante un
intervalo determinado (de tiempo, espacio, etc.).
▪ Las ocurrencias deben ser aleatorias y no contener ningún factor que favorezca unas
ocurrencias en favor de otras.
▪ Las ocurrencias deben estar uniformemente distribuidas dentro del intervalo que se
emplee.
Una propiedad importante de la distribución de Poisson es que, la suma de “n” variables de
Poisson independientes tendrán como resultado también una variable de Poisson, siendo
su parámetro la suma del valor de los parámetros originales.
Qué aplicaciones tiene la distribución de Poisson
En la vida real se utiliza la distribución de Poisson para hacer cálculos de probabilidades
donde se requiere contar el número de veces que se produce un suceso aleatorio durante
un periodo determinado de tiempo (o también de distancia, área u otro parámetro). Es
especialmente útil para calcular probabilidades muy pequeñas o sucesos que tienen pocas
posibilidades de producirse.
Ejemplos de la aplicación de la distribución de Poisson
A continuación presentamos algunos ejemplos de la aplicación de la distribución de Poisson
en la vida real:
▪ Contador de Geiger. Es un instrumento para medir la radiactividad de un objeto o
zona. Se utiliza la distribución de Poisson para calcular el comportamiento
estadístico de la radiación y así poder establecer su nivel.
▪ Operaciones bursátiles. En el mundo de los mercados y la bolsa se utiliza la
distribución de Poisson para calcular el riesgo de las operaciones en los tiempos de
espera entre transacciones financieras.
▪ Contador de personas. Los contadores de personas que habitualmente se utilizan en
los comercios para saber el número de personas que entran en su establecimiento
durante un periodo de tiempo (número de clientes en la última hora, por ejemplo).
▪ Otras aplicaciones. Otros ejemplos del uso de esta distribución son el cálculo de las
llamadas de teléfono que se reciben en un día en una centralita, hallar el número
de bacterias que hay en un volumen de determinado de agua, el número de
peticiones de servicio diarias de un servidor web, establecer el riesgo de crédito en
una operación de financiación, calcular la cantidad de estrellas en un determinado
volumen espacio o el número de accidentes por año registrados por una compañía
de seguros.
La distribución de Poisson también se usa a veces para aproximar una distribución
binomial. También se utiliza en ocasiones una aproximación de la distribución de Poisson a
una distribución Gaussiana (aunque esta es de probabilidad continua y no discreta).
Hemos visto como la distribución de Poisson es capaz de calcular la probabilidad de que se
produzca un evento durante un periodo determinado de tiempo o una región específica.
Las aplicaciones de esta distribución se usan en todas las áreas de la vida, siendo
especialmente útiles en el sector empresarial para poder hacer predicciones sobre el riesgo
de las operaciones.
En la ciencia y en la medicina es habitual la aplicación de la distribución de Poisson para
realizar cálculos de probabilidades en sucesos que son muy difíciles de predecir y que
tienen una ocurrencia aleatoria.
DISTRIBUCION GEOMETRICA:
DISTRIBUCIÓN GEOMÉTRICA O DE PASCAL
La distribución geométrica es un modelo adecuado para aquellos procesos en los
que se repiten pruebas hasta la consecución del éxito a resultado deseado y tiene
interesantes aplicaciones en los muestreos realizados de esta manera . También
implica la existencia de una dicotomía de posibles resultados y la independencia de
las pruebas entre sí.
Proceso experimental del que se puede hacer derivar
Esta distribución se puede hacer derivar de un proceso experimental puro o de
Bernouilli en el que tengamos las siguientes características
• El proceso consta de un número no definido de pruebas o experimentos
separados o separables. El proceso concluirá cuando se obtenga por primera
vez el resultado deseado (éxito).
• Cada prueba puede dar dos resultados mutuamente excluyentes : A y no A
• La probabilidad de obtener un resultado A en cada prueba es p y la de
obtener un resultado no A es q
siendo (p + q = 1).
Las probabilidades p y q son constantes en todas las pruebas ,por tanto , las
pruebas ,son independientes (si se trata de un proceso de "extracción" éste se
llevará a , cabo con devolución del individuo extraído) .
• (Derivación de la distribución). Si en estas circunstancias aleatorizamos de
forma que tomemos como variable aleatoria X = el número de pruebas
necesarias para obtener por primera vez un éxito o resultado A , esta variable
se distribuirá con una distribución geométrica de parámetro p.
Obtención de la función de cuantía
De lo dicho anteriormente , tendremos que la variable X es el número de pruebas
necesarias para la consecución del primer éxito. De esta forma la variables
aleatoria toma valores enteros a partir del uno ; 1,2,………
La función de cuantía P(x) hará corresponder a cada valor de X la probabilidad
de obtener el primer éxito precisamente en la X-sima prueba. Esto es , P(X) será la
probabilidad del suceso obtener X-1 resultados "no A" y un éxito o resultado A en
la prueba número X teniendo en cuenta que todas las pruebas son independientes y
que conocemos sus probabilidades tendremos:
dado que se trata de sucesos independientes y conocemos las probabilidades
luego la función de cuantía quedaría
DISTRIBUCION MULTINOMINAL:
En teoría de probabilidad, la distribución multinomial o distribución multinómica es una
generalización de la distribución binomial.
La distribución binomial es la probabilidad de un número de éxitos en N sucesos de Bernoulli
independientes, con la misma probabilidad de éxito en cada suceso. En una distribución
multinomial, el análogo a la distribución de Bernoulli es la distribución categórica, donde cada
suceso concluye en únicamente un resultado de un número finito K de los posibles, con
probabilidades (tal que para i entre 1 y K y ); y con n sucesos independientes.
Entonces sea la variable aleatoria , que indica el número de veces que se ha dado el
resultado i sobre los n sucesos. El vector sigue una distribución multinomial con
parámetros n y p, donde .
Nótese que en algunos campos las distribuciones categórica y multinomial se encuentran
unidas, y es común hablar de una distribución multinomial cuando el término más preciso sería
una distribución categórica.
La distribución multinomial es una generalización de la distribución binomial. En este caso, en un
experimento interesa estudiar no la ocurrencia de un único suceso o la de su contrario, sino la
de varios sucesos (tres o más).
La distribución multinomial, M(n,p1,...,pn) proporciona probabilidades de obtener,
en m repeticiones independientes de un experimento, x1 veces el suceso A1, x2 veces el suceso
A2,..., xn veces el suceso An, donde dichos sucesos forman una partición del espacio muestral,
es decir, tal que para y donde , por
tanto, se cumple .
Así, considerando que Xi es el número de veces que se presenta el suceso Ai en
las m repeticiones tenemos que la variable n-dimensional (X1, X2, ..., Xn) sigue una distribución
multinomial de parámetros n, p1, ..., pn y su función de probabilidad es
para con .
Hay que tener en cuenta que si (X1, X2, ..., Xn) es una variable multidimensional entonces existe
una relación lineal entre sus componentes ya que X1+ X2+ ...+ Xn = m, por lo que, una de las
variables, por ejemplo Xn, se puede poner como combinación lineal del resto, Xn=m-X1- X2- ...-
Xn-1. Por tanto, el fenómeno que describe la variable (X1, X2, ..., Xn) queda igualmente descrito
por una variable de una dimensión menor, (X1, X2, ..., Xn-1), sin que esta pérdida de dimensión
suponga una pérdida de información.
Por ejemplo, una variable multinomial de dimensión dos (X1, X2), M(n,p1,p2), se puede describir
considerando una cualquiera de sus componentes que tiene una distribución binomial, por lo
que en realidad esta variable es unidimensional y no bidimensional.
Además, cada una de las n variables, Xi, que forman una multinomial M(n,p1,...,pn) siguen
distribuciones binomiales B(m,pi), es decir, las distribuciones marginales de una multinomial son
binomiales, por tanto, la esperanza y la varianza de cada una de estas variables es, E[Xi]=m·pi y
Var(Xi)=mpi(1-pi). Además la covarianza entre dos cualesquiera de sus componentes
es, .
Estos momentos de las variables componentes de una multinomial se pueden agrupar en forma
de matriz dando lugar a las denominadas matriz de esperanzas y matriz de varianzas-
covarianzas, que recogen las características teóricas principales de la distribución multinomial
(medias, varianzas y covarianzas)
Ejemplo: El entrenador de un equipo de baloncesto opina que los jugadores A, B y
C tienen similares aptitudes para ser titulares del equipo en la posición de base.
Así, determina que juegen el mismo número de minutos cada partido. Se sabe que
el 40% de las canastas son de C, mientras que A y B consiguen un 30% de
encestes. Calcular la probabilidad de que en un partido con 9 encestes de dos
puntos, A consiguiera dos, B tres y C cuatro.
Sea la variable tridimensional que recoge el número de encestes de A,
de B y de C, respectivamente. Dicha variable es una multinomial con n=9, p1=0.3,
p2=0.3 y p3=0.4. Así,
Hipergeométrica Multivariante:
La distribución hipergeométrica multivariante H(N,m,p1,...,pn) es una generalización de la
distribución hipergeómetrica. Proporciona probabilidades de extraer x1 bolas del color 1, x2 bolas
del color 2,...y xn bolas del color n de una urna en la que hay N1,...Nn bolas de colores diferentes
(N=N1+···+Nn). Realizamos m extracciones sin reposición , y consideramos las
variables, Xi, número de bolas extraídas de color i (i = 1, 2, ..., n). La variable n-dimensional (X1,
X2, ..., Xn) sigue una distribución hipergeométrica multivariante de parámetros N, m, p1, ...,
pn, donde , es decir, la proporción de bolas de color i-ésimo (i= 1, 2,..,n) en la primera
extracción.
NOTA: Si las extracciones se hiciesen con reposición entonces se trataría de una distribución
multinomial.
La función de probabilidad de la distribución hipergeométrica multivariante es
para con y
(i = 1, 2,..., n).
Además, igual que en la distribución anterior, hay que tener en cuenta que existe una relación
lineal entre las variables componentes, X1+ X2+ ...+ Xn = m, por lo que, una de las variables, por
ejemplo Xn, se puede poner como combinación lineal del resto, Xn=m-X1- X2- ...- Xn-1. Por tanto,
el fenómeno que describe la variable (X1, X2, ..., Xn) queda igualmente descrito por una variable
de una dimensión menor, (X1, X2, ..., Xn-1), sin que esta pérdida de dimensión suponga una
pérdida de información.
Análogamente, una variable hipergeométrica multivariante de dimensión dos (X1,
X2), H(N,m,p1,p2), se puede describir considerando una cualquiera de sus componentes que
tiene una distribución hipergeométrica, por lo que en realidad esta variable es unidimensional y
no bidimensional.
Además, cada una de las n variables, Xi, que forman una hipergeométrica H(N,m,p1,...,pn)
siguen distribuciones hipergeométricas univariantes H(N,m,pi), es decir, las distribuciones
marginales de una hipergeométrica multivariante son hipergeométricas, por tanto, la esperanza
y la varianza de cada una de estas variables es, E[Xi]=m·pi y Var(Xi)=mpi(1-pi)(N-m)/(N-1).
Además la covarianza entre dos cualesquiera de sus componentes es,
Estos momentos de las variables componentes de una hipergeométrica multivariante se pueden
agrupar en forma de matriz dando lugar a las denominadas matriz de esperanzas y matriz de
varianzas-covarianzas, que recogen las características teóricas principales de la distribución
hipergeométrica multivariante (medias, varianzas y covarianzas)
DISTRIBUCION BINOMIAL NEGATIVA:
Esta distribución puede considerarse como una extensión o ampliación de la
distribución geométrica . La distribución binomial negativa es un modelo adecuado
para tratar aquellos procesos en los que se repite un determinado ensayo o prueba
hasta conseguir un número determinado de resultados favorables (por vez primera)
.Es por tanto de gran utilidad para aquellos muestreos que procedan de esta
manera. Si el número de resultados favorables buscados fuera 1 estaríamos en el
caso de la distribución geométrica . Está implicada también la existencia de una
dicotomía de resultados posibles en cada prueba y la independencia de cada prueba
o ensayo, o la reposición de los individuos muestreados.
Proceso experimental del que puede
hacerse derivar
Esta distribución o modelo puede hacerse derivar de un proceso experimental puro
o de Bernouilli en el que se presenten las siguientes condiciones
• El proceso consta de un número no definido de pruebas separadas o
separables . El proceso concluirá cuando se obtenga un determinado número
de resultados favorables K
• Cada prueba puede dar dos resultados posibles mutuamente excluyentes A y
no A
• La probabilidad de obtener un resultado A en cada una de las pruebas es p
siendo la probabilidad de no A , q . Lo que nos lleva a que p+q=1
• Las probabilidades p y q son constantes en todas las pruebas. Todas las
pruebas son independientes. Si se trata de un experimento de extracción éste se
llevará cabo con devolución del individuo extraído, a no ser que se trate de una
población en la que el número de individuos tenga de carácter infinito.
• (Derivación de la distribución) Si, en estas circunstancias aleatorizamos de
forma que la variable aleatoria x sea "el número de pruebas necesarias para
conseguir K éxitos o resultados A " ; entonces la variable aleatoria x seguirá
una distribución binomial negativa con parámetros p y k
será entonces
La variable aleatoria x podrá tomar sólo valores superiores a k
El suceso del que se trata podría verse como:
o lo que es lo mismo
dado que las pruebas son independientes y conocemos que P(A)= p y P(no A)= q
que sería la probabilidad de x si el suceso fuera precisamente con los resultados en
ese orden. Dado que pueden darse otros órdenes , en concreto formas u
órdenes distintos . La función de cuantía de la distribución binomial negativa
quedará como :
Como ejemplo la
representación gráfica de una
variable sería la
siguiente
Como en el caso de la
geométrica , algunos autores
aleatorizan de distinta manera el
mismo proceso . Así X sería el
número de fracasos (k) necesarios antes de conseguir el r-ésimo éxito . En este
caso el número de pruebas sería k + r ( lo que nosotros hemos llamado x) y r lo que
nosotros hemos denominado k.
Para este tipo de aleatorización la función de cuantía
sería:
que como se observa es la misma si se realizan los antes
nombrados cambios
La función generatriz de momentos será (según nuestra aleatorización) para una
BN(k,p).
Aplicando el teorema de los momentos hallamos media y varianza que resultan
ser:
No parece necesario recordar que si nos encontramos con una distribución
BN( k=1,p) realmente se trata de una distribución geométrica.
ir a modelos de probabilidad
Conclusion
Al realizar esta práctica aprendí a diferenciar y a calcular distintos tipos
de probabilidades dentro de los cuales se destacan la distribución
binomial, la hiper geométrica, de poison, entre muchas más sin embargo
este tipo de temas tienen un valor mucho mayor del que nosotros creemos
además de solo implementarlo dentro de algunos problemas en la escuela
también se puede implementar en la vida cotidiana de manera que nos
ayuda a saber con mayor certeza las probabilidades en este caso que
tenemos de tener un éxito o algún fracaso en cualquier actividad que
realicemos tomando en cuenta distintos tipos de variables para así poder
evitar o prevenir que nuestra situación no salga como la prevemos