República Bolivariana de Venezuela
Ministerio del Poder Popular Para la Educacion
Universidad Experimental de los Llanos Occidentales
“Ezequiel Zamora”
Elorza Estado Apure
Distribuciones de Probabilidad
Profesor Estudiante
Ever Gómez Jose Ojeda
Elorza Abril 2024
I. Distribución normal: qué es, ejemplo y propiedades teóricas
La distribución normal (en ocasiones llamada distribución gaussiana) es la
distribución continua que se utiliza más comúnmente en estadística, es un modelo
que aproxima el valor de una variable aleatoria a una situación ideal, dependiendo
de la media y la desviación típica.
La distribución normal es de vital importancia en estadística por tres razones
principales:
• Muchas variables continuas comunes en el mundo de los negocios tienen
distribuciones que se asemejan estrechamente a la distribución normal.
• La distribución normal sirve para acercarse a diversas distribuciones de
probabilidad discreta, como la distribución binomial y la distribución de Poisson.
• La distribución normal proporciona la base para la estadística inferencial clásica
por su relación con el teorema de límite central.
En la distribución normal, uno puede calcular la probabilidad de que varios
valores ocurran dentro de ciertos rangos o intervalos.
Ejemplo:
El tiempo (en segundos) se mide y no se cuenta. Por lo tanto, es factible
determinar la probabilidad de que el tiempo de descarga para una página principal
en un navegador de la Web esté entre 7 y 10 segundos o que la probabilidad de
que el tiempo de descarga esté entre 8 y 9 segundos, o la probabilidad de que el
tiempo de descarga esté entre 7.99 y 8.01 segundos. Sin embargo, la probabilidad
de que el tiempo de descarga sea exactamente de 8 segundos es cero.
La distribución normal tiene importantes propiedades teóricas:
• Tiene una apariencia de forma de campana (y,
por ende, es simétrica).
• Sus medidas de tendencia central (media, mediana y moda) son todas idénticas.
• Su «50% central» es igual a 1,33 desviaciones estándar. Esto significa que el
rango intercuartil está contenido dentro de un intervalo de dos tercios de una
desviación estándar por debajo de la media y de dos tercios de una desviación
estándar por encima de la media.
• Su variable aleatoria asociada tiene un rango infinito (-∞ < X < ∞).
• En la práctica, muchas variables tienen distribuciones que se asemejan a las
propiedades teóricas de la distribución normal.
II. DISTRIBUCIÓN F DE SNEDECOR
Es una distribución de probabilidad de gran aplicación en la inferencia
estadística , fundamentalmente en la contrastación de la igualdad de varianzas de
dos poblaciones normales, y fundamentalmente en el análisis de la varianza ,
técnica que permite detectar la existencia o inexistencia de diferencias significativas
entre muestras diferentes y que es, por tanto esencial , en todos aquellos casos en
los que se quiere investigar la relevancia de un factor en el desarrollo y naturaleza
de una característica.
La distribución se plantea partiendo de dos variables X e Y tales que:
→ Es decir una chi2 con m grados de libertad
→ Es decir una chi2 con n grados de libertad;
De manera que si establecemos el cociente es decir el
cociente entre ambas chi2 divididas a su vez, por sus correspondientes grados de
libertad tendremos que la función F corresponde a una distribución F de Snedecor
con m y n grados de libertad; es decir una , .
Queda claro por tanto que la distribución F de Snedecor tiene dos
parámetros, que son m y n; grados de libertad del numerador, grados de libertad del
denominador.
Dado que se trata de un cociente entre dos chi2 su forma (gráfica de la
función de densidad) será parecida a la de ésta distribución, por lo que estará sólo
definida para el campo positivo de la variable y su apariencia variará según los
grados de libertad; estando más próxima la densidad de probabilidad a los valores
próximos a cero de la variable, cuando los grados de libertad (sus parámetros) sean
bajos.
La función de densidad de la F de
Snedecor viene dada por
Siendo m y n los parámetros de la función (distribución) y la función gamma
de Euler la media de la distribución es si n > 2 siendo la varianza cuando
n>4
Lógicamente si su inversa lo que ayuda al cálculo de
probabilidades para distintos valores de la variable mediante la utilización de tablas,
caso que no es el nuestro pues estos los realizamos mediante un programa que
incluimos, no obstante, a modo de ejemplo, plantemos:
Si X y nos interesa el cálculo de dicho resultado
es 0,13
Luego luego
Como curiosidad tenemos que una F con un grado de libertad en el
numerador y n en el denominador, no es más que el cuadrado de una t de
student con n grados de libertad dado que:
Dado que:
Una
Luego una:
Siendo una una
III. Distribución Chi-Cuadrado de Pearson
Sea , , ,… variables aleatorias que se distribuyen como normales N
(0,1), y se define una nueva variable X ..,. , entonces se dice
que X se distribuye como una Chi-Cuadrado o Ji-cuadrado con n grados de libertad,
donde n es el número de variables aleatorias normales independientes elevadas al
cuadrado que se han sumado. Esta se representa como: → , y su función de
densidad es de la forma:
Gráficamente, la variable aleatoria Chi-cuadrado se representa,
Propiedades:
• Es una función asimétrica.
• E(x)= n.
• V(x)=2n. X1 → χ
• Sean dos variables aleatorias chi-cuadrado que se distribuyen → Y
→ , se define una nueva variable de la forma , entonces
esta nueva variable se distribuye como:
• Cuando el número de variables aleatorias es muy grande, es decir, cuando
→ ∞, la variable se puede aproximar por una normal.
IV. Distribución t- Student
Sea X una variable aleatoria que se distribuye como → 0,1 y sea “Y”
otra variable aleatoria que se distribuye como → , tal que “X” e “Y” son
independientes, entonces podemos definir otra variable aleatoria.
Se dice que esta se distribuye como una t-Student con n grados de libertad
y su función de densidad viene dada por:
Esta distribución es muy utilizada, que se construye a partir de una normal y
un chi-cuadrado. Veamos una gráfica comparativa con una distribución normal y
algunas de las propiedades que verifica.
Propiedades:
• Es simétrica, está centrada en el punto (0,0)
• Mo = Me =0
• E [T] = 0 si n>1
• V [T] = n/n-2 si n>2.
• Cuando el número de variables aleatorias es muy grande, es decir, cuando
→ ∞ , la variable se puede aproximar por una normal.
V. DISTRIBUCIÓN GEOMÉTRICA O DE PASCAL
La distribución geométrica es un modelo adecuado para aquellos procesos
en los que se repiten pruebas hasta la consecución del éxito a resultado deseado y
tiene interesantes aplicaciones en los muestreos realizados de esta manera.
También implica la existencia de una dicotomía de posibles resultados y la
independencia de las pruebas entre sí.
Esta distribución se puede hacer derivar de un proceso experimental puro o
de Bernouilli en el que tengamos las siguientes características.
• El proceso consta de un número no definido de pruebas o experimentos
separados o separables. El proceso concluirá cuando se obtenga por
primera vez el resultado deseado (éxito).
• Cada prueba puede dar dos resultados mutuamente excluyentes : A y no A
• La probabilidad de obtener un resultado A en cada prueba es p y la de
obtener un resultado no A es q siendo (p + q = 1).
• Las probabilidades p y q son constantes en todas las pruebas, por tanto, las
pruebas, son independientes (si se trata de un proceso de "extracción" éste
se llevará a, cabo con devolución del individuo extraído).
• (Derivación de la distribución). Si en estas circunstancias aleatorizamos de
forma que tomemos como variable aleatoria X = el número de pruebas
necesarias para obtener por primera vez un éxito o resultado A, esta
variable se distribuirá con una distribución geométrica de parámetro p.
Obtención de la función de cuantía
De lo dicho anteriormente, tendremos que la variable X es el número de
pruebas necesarias para la consecución del primer éxito. De esta forma la variables
aleatoria toma valores enteros a partir del uno; [1,2,………].
La función de cuantía P(x) hará corresponder a cada valor de X la
probabilidad de obtener el primer éxito precisamente en la X-sima prueba. Esto es,
P(X) será la probabilidad del suceso obtener X-1 resultados "no A" y un éxito o
resultado A en la prueba número X teniendo en cuenta que todas las pruebas son
independientes y que conocemos sus probabilidades tendremos:
Dado que se trata de sucesos independientes y conocemos las
probabilidades
Luego la función de
cuantía quedaría
Algunos autores consideran la aleatorización como "número de
pruebas anteriores al primer éxito". De esta manera el conseguir el éxito a la primera
sería X=0. En la siguiente representación gráfica de la función de cuantía de la
geométrica puede apreciarse este tipo de aleatorización, sin embargo nosotros
preferimos, por razones prácticas, utilizar la aleatorización antes comentada
Desarrollando la expresión tendríamos
De
donde
VI. Teorema de Chebyshev
Si una variable aleatoria tiene una varianza o desviación estándar pequeña,
esperaríamos que la mayoría de los valores se agrupen alrededor de la media. Por
lo tanto, la probabilidad de que una variable aleatoria tome un valor dentro de cierto
intervalo alrededor de la media es mayor que para una variable aleatoria similar con
una desviación estándar mayor. Si pensamos en la probabilidad en términos de
área, esperaríamos una distribución continua con un valor grande de σ (desviación
estándar) para indicar una variabilidad mayor y, por lo tanto, esperaríamos que el
área este más extendida, como en la figura 1(a). Una distribución con una
desviación estándar pequeña debería tener la mayor parte de su área cercana a μ
(media), como en la figura 1(b).
Podemos argumentar lo mismo para una distribución discreta. En el
histograma de probabilidad de la figura 2(b) el área se extiende mucho más
que en la figura 2(a), lo cual indica una distribución más variable de mediciones
o resultados.
La desigualdad de Chebyshev es una importante herramienta teórica. Entre
otras aplicaciones constituirá un medio para comprender cómo la varianza mide la
variabilidad de una dada variable aleatoria, con respecto a su media. La proporción
de cualquier distribución que esté a menos de k desviaciones estándar de la media
es por lo menos:
Donde k es cualquier número positivo mayor que 1. Este teorema es válido
para todas las distribuciones de datos. Este teorema establece que a menos de dos
desviaciones estándar de la media (k=2) siempre se encontrará por lo menos el 75%
o más de los datos (3/4 partes de los datos). Estableciendo de esta manera que la
variable aleatoria X tiene una probabilidad de al menos 1-1/22 = 3/4 de caer dentro
de dos desviaciones estándar a partir de la media; es decir, que tres cuartas partes
o más de las observaciones de cualquier distribución se localizan en el intervalo μ
± 2σ. De manera similar, el teorema afirma que al menos ocho novenos de las
observaciones de cualquier distribución caen en el intervalo μ ± 3σ. El matemático
ruso P. L. Chebyshev (1821-1894) descubrió que la fracción del área entre
cualesquiera dos valores simétricos alrededor de la media está relacionada con la
desviación estándar. Como el área bajo una curva de distribución de probabilidad,
o la de un histograma de probabilidad, suma 1, el área entre cualesquiera dos
números es la probabilidad de que la variable aleatoria tome un valor entre estos
números. Este teorema lleva el nombre del matemático ruso que la descubrió. Su
nombre aparece en una variedad de formas en la literatura: Chebyshev, Chebyshev,
Chebyshev, etc. El teorema de Chebyshev tiene validez para cualquier distribución
de observaciones, por lo cual los resultados generalmente son débiles. El valor que
proporciona el teorema es solo un límite inferior, es decir, sabemos que la
probabilidad de una variable aleatoria que cae dentro de dos desviaciones estándar
de la media no puede ser menor que 3/4, pero nunca sabemos cuánto podría ser
en realidad. Solo cuando conocemos la distribución de probabilidad podemos
determinar probabilidades exactas. Por esta razón llamamos al teorema resultado
de distribución libre. Cuando se supongan distribuciones específicas, los resultados
serán menos conservadores.
VII. Bibliografía
https://www.gestiopolis.com/que-es-la-distribucion-
normal/#:~:text=La%20distribuci%C3%B3n%20normal%20(en%20ocasiones,medi
a%20y%20la%20desviaci%C3%B3n%20t%C3%ADpica.
https://www.uv.es/ceaces/normaMu/f/f.htm
https://www.sergas.es/Saude-
publica/Documents/1899/Ayuda_Epidat_4_Distribuciones_de_probabilidad_Octubr
e2014.pdf
https://www.sergas.es/Saude-
publica/Documents/1899/Ayuda_Epidat_4_Distribuciones_de_probabilidad_Octubr
e2014.pdf
https://www.uv.es/ceaces/base/modelos%20de%20probabilidad/geometrica.htm