UNIVERSIDAD PERUANA
LOS ANDES
FACULTAD DE INGENIERÍA
Escuela Profesional de Ingeniería
Industrial
Asignatura:
ESTADISTICA
Dr. Casio Aurelio Torres
López
Email:
[email protected]
HUANCAYO - 2024
la.edu.pe
DISTRIBUCIONES DE
UNIDAD PROBABILIDADES DE VARIABLES
IV ALEATORIAS DISCRETAS Y
CONTINUAS
TEMA: Distribuciones de
Probabilidades
Capacidad
Analiza situaciones prácticas en las
:
que las
principales distribuciones de
probabilidad, discretas y continuas
pueden presentarse.
Dr. Casio A. Torres López
Distribuciones de Probabilidades
Variable Aleatoria
El resultado de un experimento aleatorio puede ser
descrito en ocasiones como una cantidad numérica.
En estos casos aparece la noción de variable aleatoria
• Función que asigna a cada suceso un número.
Las variables aleatorias pueden ser discretas o
continuas.
V. a. discreta es aquella que sólo puede tomar un número
finito de valores dentro de un intervalo. Ejm. el número
de fallas o defectos.
V. a. continua es aquella variable numérica que tiene un
número infinito de valores entre dos valores cualesquiera.
Función de Probabilidad
(V. Discretas)
Asigna a cada posible
40%
valor de una variable
35%
discreta su
probabilidad. 30%
• Recuerda los 25%
conceptos de 20%
frecuencia relativa y
15%
diagrama de barras.
10%
Ejemplo: 5%
0%
• Número de caras al 0 1 2 3
lanzar 3 monedas.
Función de Densidad (V.
Continuas)
Definición:
o Es una función no negativa de
integral 1.
o Piénsalo como la
generalización del histograma
con frecuencias relativas para
variables continuas.
¿Para qué lo voy a usar?
o Nunca lo vas a usar
directamente.
o Sus valores no representan
¿Para qué sirve la
función de densidad?
Muchos procesos aleatorios
vienen descritos por variables
de forma que son conocidas
las probabilidades en
intervalos.
La integral definida de la
función de densidad en dichos
intervalos coincide con la
probabilidad de los mismos.
Es decir, identificamos la
probabilidad de un
intervalo con el área bajo la
función de densidad.
Función de Es la función que asocia a cada
valor de una de una variable, la
Distribució probabilidad acumulada de los
valores inferiores o iguales.
n
Piénsalo como la generalización
de las
frecuencias acumuladas.
Diagrama integral.
A los valores extremadamente
bajos les corresponden valores de
la función de distribución
cercanos a cero.
A los valores extremadamente
altos les corresponden valores de
la función de distribución
cercanos a uno.
¿Para qué sirve la
función de distribución?
Contrastar lo anómalo de una observación concreta.
Sé que una persona de altura 210 cm es “anómala” porque la
función de distribución en 210 es muy alta.
Sé que una persona adulta que mida menos de 140 cm es
“anómala” porque la función de distribución es muy baja para
140 cm.
Sé que una persona que mida 170 cm no posee una altura nada
extraña pues su función de distribución es aproximadamente 0,5.
Relaciónalo con la idea de cuantil. Los cuantiles son aquellos
valores de la variable, que ordenados de menor a mayor, dividen a la
distribución en partes, de tal manera que cada una de ellas contiene
el mismo número de frecuencias
En otro contexto (contrastes de hipótesis) podremos observar unos
resultados experimentales y contrastar lo “anómalos” que son en
conjunto con respecto a una hipótesis de terminada.
Valor esperado y
varianza de una v.a. X
Valor Esperado Varianza
Se representa • Se representa
mediante VAR [X] o
mediante E[X] o μ
σ2
Es el equivalente a la
• Es el equivalente a la
media
varianza
La media aritmética es el
valor que se obtiene al sumar • Se llama desviación
todos los datos que tenemos típica o estándar a σ
y dividir el resultado entre el
número total de esos datos. La desviación estándar mide
cuánto se separan los datos.
MODELOS DE DISTRIBUCION
DE VARIABLES ALEATORIAS
DISCRETAS
Distribución de
Bernoulli
Tenemos un experimento de Bernoulli si al realizar un
experimento sólo son posibles dos resultados:
o X=1 (éxito, con probabilidad p)
o X=0 (fracaso, con probabilidad q=1-p)
• Lanzar una moneda y que salga cara. p = 1/2
• Elegir una persona de una población de 1000 y que esté enfermo.
P = 1/1000 = prevalencia de la enfermedad
• Aplicar un tratamiento a un enfermo y que éste se cure.
P = 95%, probabilidad de que el individuo se cure
Como se aprecia, en experimentos donde el resultado es
dicotómico, la variable queda perfectamente
determinada conociendo el parámetro p. 10
Ejemplo:
Se ha observado, estudiando
2000 accidentes de tráfico
con impacto frontal y cuyos
conductores no tenían
cinturón de seguridad, que
300 individuos quedaron con
secuelas. Describa el
experimento
Solución:
conceptos de v.a.
usando
o La noción frecuentista de probabilidad nos
permite aproximar la probabilidad de tener
secuelas mediante 300/2000=0,15=15%
o X =“tener secuelas tras accidente sin cinturón” es
variable de Bernoulli
X = 1 tiene probabilidad p ≈ 0,15
X = 0 tiene probabilidad q ≈ 0,85
Distribución Binomial
Función de probabilidad n k n k
P[ X k ] p q , 0 k n
k
=
o Problemas de cálculo si n es grande y/o p cercano a 0 o
1.
Media: μ = n p
Varianza: σ2 = n p q
12
Si se repite un número fijo de veces, n, un
experimento de Bernoulli con parámetro p,
el número de éxitos sigue una distribución
binomial de parámetros (n , p).
Lanzar una moneda 10 veces y contar las
caras.
Bin (n = 10, p = 1/2)
Lanzar una moneda 100 veces y contar las
caras.
Bin (n = 100, p = 1/2)
Difícil hacer cálculos con esas cantidades. El
modelo normal será más adecuado.
El número de personas que enfermará (en
una población de 500.000 personas) de
una enfermedad que desarrolla una de
cada 2000 personas.
Bin (n=500.000, p=1/2000)
Difícil hacer cálculos con esas cantidades. El
modelo de Poisson será más adecuado.
“Parecidos razonables”
Aún no conocemos la
distribución normal, ni de
Poisson.
De cualquier forma ahí
tenemos la comparación
entre valores de p no muy
extremos y una normal de
la misma media y
desviación típica, para
tamaños de n grandes
(n>30).
Cuando p es muy pequeño
es mejor usar la
aproximación del modelo
de Poisson.
Distribución de Poisson
• También se denomina de sucesos raros.
• Se obtiene como aproximación de una
distribución binomial con la misma media, para
‘n grande’ (n>30) y ‘p pequeño’ (p<0,1).
• Queda caracterizada por un único parámetro μ
(que es a su vez su media y varianza.)
• Función de probabilidad:
k
P[ X k ] e , k 0,1,2,...
k!
Ejemplo:
El número de
individuos que será
atendido un día
cualquiera en la Caja
Huancayo.
• En Huancayo hay 500.000 habitantes (n
grande)
• La probabilidad de que cualquier persona
tenga un crédito es pequeña, pero no nula.
Supongamos que es 1/10.000
• Bin (n=500.000, p=1/10.000) ≈
Poisson (μ =np= 50)
Este caso se puede modelar mediante
OTRAS
DISTRIBUCIONES DE
VARIABLES
ALEATORIAS
DISCRETAS
Distribución Binomial Negativa (de Pascal)
Consideremos la variable aleatoria definida
como: Número de pruebas necesarias
para lograr k éxitos
Dicha variable toma los valores: X = k, k+1,
k+2,... con probabilidades:
f(n) = P(X = n) = p k . (1-p)n-k
Esperanza matemática y Varianza:
E(X) = V(X) =
Distribución Geométrica
Es un caso particular de la de Pascal para k =
1 .Es decir, la variable X representa el número de
pruebas necesarias para obtener el primer éxito.
f(n) = P(X = n) = n = 1, 2, 3,…
p . q n-1
Esperanza matemática y Varianza:
E(X) = V(X) =
Distribución Multinomial(o Polinomial)
Es una generalización de la distribución binomial al
supuesto de existencia de k situaciones excluyentes
(en lugar de dos como ocurre en la binomial).
Si estas situaciones S 1 , S2 , ... , Sk , tienen
probabilidades p1 , p2 , ... , pk (con : p1 + p2 + ... + pk
= 1) y realizamos n pruebas, la situación S 1 podrá
presentarse X1 veces (de 0 a n), la situación S 2
podrá presentarse X2 veces (de 0 a n), etc...
(X
Se1 , Xdefine
2 ,..., Xk) así con:
unaXi =variable
xi = 0, 1, 2,..., n y
aleatoria x1
k-
+dimensional:
x2 ,... + xk = n
Con probabilidad:
P(X1 = x1, X2 = x2,…,Xk = xk) = . …
Distribución Hipergeométrica
Tratamos una nueva variante de la distribución
binomial. La distribución hipergeométrica
corresponde a extracciones de elementos sin
reemplazamiento (en la binomial eran experiencias
independientes o extracciones con
reemplazamiento).
Coincide con la binomial en el resto de
consideraciones; es decir, tratamos dos situaciones
excluyentes (éxito y fracaso) que se analizan en n
pruebas.
Como quiera que la extracción se realiza sin
devolución, la probabilidad de éxito cambiará en
cada prueba.
Partiendo de N elementos y siendo p la
Variable hipergeométrica = X = Número de
éxitos en n extracciones = 0, 1, 2,..., n. con
probabilidades:
P(X = k) =
Esperanza matemática: Varianza
:
E(X) = n. V(X) = n. p. q
p
Observando la varianza, es fácil advertir que cuando N
crece indefinidamente, el cociente tiende a la
unidad. Por ello, cuando N → ∞, la distribución
hipergeométrica tiende hacia una binomial.
MODELOS DE DISTRIBUCION DE
VARIABLES ALEATORIAS
CONTINUAS
Distribución Normal o de
Gauss
• Aparece de manera natural:
Errores de medida.
Distancia de frenado.
Altura, peso, propensión al
crimen…
Distribuciones binomiales con n
grande (n>30) y ‘p ni pequeño’
• Está(np>5)
caracterizada dos parámetros: La media
por (nq>5).
‘ni grande’
μ, y la desviación típica σ.
• Función de densidad: 1
1 x
2
2
f ( x) e
2
N (μ , σ): Interpretación
geométrica
• Podemos
interpretar la
media como un
factor de
traslación.
• Y la desviación
típica como un factor
de escala, grado de
dispersión.
24
N (μ , σ): Interpretación probabilista
• Entre la media y una
desviación típica
tenemos siempre la
misma probabilidad:
aprox. 68%
• Entre la media y dos
desviaciones típicas
tenemos: aprox. 95%
Algunas características
La función de densidad es simétrica,
mesocúrtica y unimodal.
• Media, mediana y moda coinciden.
Los puntos de inflexión de la función de
densidad están a distancia σ de μ.
Si tomamos intervalos centrados en μ, y cuyos
extremos están…
a distancia σ tenemos probabilidad 68%
a distancia 2 σ tenemos probabilidad 95%
a distancia 2’5 σ tenemos probabilidad 99%
Todas las distribuciones normales N (μ, σ), pueden
ponerse mediante una traslación μ, y un cambio
de escala σ, como N (0,1).
Esta distribución especial se llama Normal
Tipificada o Estandarizada.
Tipificación o estandarización
Dada una variable X de media μ y desviación típica
σ, se denomina valor tipificado z, de una
observación x, a la distancia (con signo) con
respecto a la media, medido en desviaciones
típicas, es decir:
x
z
En el caso de la variable X normal, la
interpretación es clara: Asigna a todo valor de N (μ,
σ), un valor de N (0,1) que deja exactamente la
misma probabilidad por debajo.
Nos permite así comparar entre dos valores de
dos distribuciones normales diferentes, para saber
cuál de los dos es más extremo.
Ejemplo:
Se quiere dar una beca a uno de dos estudiantes de
sistemas educativos diferentes. Se asignará al que
tenga mejor expediente
El estudiante académico.
A tiene una calificación de 8 en un sistema donde la
calificación de los alumnos se comporta como N (6,1).
El estudiante B tiene una calificación de 80 en un sistema donde
la calificación de los alumnos se comporta como N (70,10).
• Solución:
No podemos comparar directamente 8 puntos de A frente
a los 80 de B, pero como ambas poblaciones se comportan
de modo normal, podemos tipificar o estandarizar y
observar las puntuaciones sobre una distribución de
referencia N (0,1)
xA A 8 6
zA 2
A 1
xB B 80 70
zB 1
B 10
Como ZA>ZB, podemos decir que el porcentaje de
compañeros del mismo sistema de estudios que ha
superado en calificación el estudiante A es mayor que el
que ha superado B. Podríamos pensar en principio que A
es mejor candidato para la beca.
¿Por qué es importante la distribución
normal?
■Las propiedades que tiene la distribución normal
son interesantes, pero todavía no hemos
hablado de por qué es una distribución
especialmente importante.
■ La razón es que aunque una
variable aleatoria no
posea distribución
normal, ciertos
estadísticos/estimadores
calculados sobre muestras
elegidas al azar sí que
poseen una distribución
normal.
■Es decir, tengan la distribución que tengan
nuestros datos, los ‘objetos’ que resumen la
información de una muestra, posiblemente
tengan distribución normal (o asociada).
Veamos aparecer la distribución normal
► Como ilustración
mostramos una variable
que presenta valores
distribuidos más o menos
uniformemente sobre el
intervalo 150 -190.
► Como es de esperar la
media es cercana a 170. El
histograma no se parece
en nada a una distribución
normal con la misma
media y desviación típica o
estándar.
Muestra
■A continuación elegimos
aleatoriamente grupos de 10
observaciones de las anteriores y
1ª 2ª 3ª
calculamos el promedio. 185 190 179
174 169 163
■Para cada grupo de 10 obtenemos 167 170 167
entonces una nueva medición, que 160 159 152
vamos a llamar promedio
muestral. 172 179 178
183 175 183
■Observa que las nuevas cantidades 188 159 155
están más o menos cerca de la 178 152 165
media de la variable original.
152 185 185
175 152 152
■Repitamos el proceso un número
elevado de veces. En la siguiente
transparencia estudiamos la
distribución de la nueva variable.
173 169 168…
La distribución de los
promedios muestrales sí
que tiene distribución
aproximadamente normal.
La media de esta nueva
variable (promedio
muestral) es muy
parecida al de la variable
original.
Las observaciones de la
nueva variable están
menos dispersas.
Observa el rango. Pero no
sólo eso. La desviación
típica es
aproximadamente ‘raíz de
10’ veces más pequeña.
Llamamos error estándar
a la desviación típica de
esta nueva variable.
Teorema Central del Límite
Dada una v.a. cualesquiera, si extraemos muestras
de
tamaño n, y calculamos los promedios muestrales,
entonces:
Dichos promedios tienen distribución
aproximadamente normal;
La media de los promedios muestrales es la
misma que la de la variable original.
La desviación típica de los promedios disminuye
en un factor “raíz de n” (error estándar).
Este
Las teorema justifica
aproximaciones la
anteriores
importancia de la distribución se hacen exactas
cuando n tiende a infinito.
normal.
Sea lo que sea lo que midamos,
cuando se promedie sobre una
muestra grande (n>30) nos
va a aparecer de manera
natural la distribución
normal.
Distribuciones
asociadas a la Normal
Cuando queramos hacer inferencia estadística hemos visto que
la distribución normal aparece de forma casi inevitable.
Dependiendo del problema, podemos encontrar otras (asociadas):
X2 (Chi cuadrado)
t- Student
F-Snedecor
Estas distribuciones resultan directamente de operar con
distribuciones normales. Típicamente aparecen como
distribuciones de ciertos estadísticos.
Veamos algunas propiedades que tienen (superficialmente)..
Sobre todo nos interesa saber qué valores de dichas
distribuciones son “atípicos”.
Significación, p-valores,…
Chi cuadrado χ2
Tiene un sólo parámetro
denominado grados de
libertad.
La función de densidad
es asimétrica positiva.
Sólo tienen densidad los
valores positivos.
La función de densidad se
hace más simétrica incluso
casi gausiana cuando
aumenta el número de
grados de libertad.
Normalmente
consideraremos anómalos
aquellos valores de la
T de Student
► Tiene un parámetro
denominado grados de
libertad.
► Cuando aumentan los
grados de libertad, más
se acerca a N (0,1).
► Es simétrica con
respecto al cero.
► Se consideran valores
anómalos los que se
alejan de cero (positivos o
negativos).
F de Snedecor
Tiene dos parámetros
denominados grados de
libertad.
Sólo toma valores
positivos. Es asimétrica.
Normalmente se
consideran valores
anómalos los de la cola de
la derecha.
OTRAS
DISTRIBUCIONES DE
VARIABLES ALEATORIAS
CONTINUAS
Distribución Uniforme
Una variable aleatoria que toma valores en un intervalo [a,
b], se dice que X ɛ U (a, b) si su función de densidad está
dado por: si a ≤ x ≤ b
f(x)
= 0 en cualquier
otro caso𝒃
sidad de probabilidad:
∫𝒇 ( 𝒙 ) 𝒅𝒙 =𝟏
𝒂
0 si x < a
ribución acumulada:
f(x) si a ≤ x ≤ b
=
1 si x > b
emática y varianza:
µ = E(X) = Var (X) =
Distribución Exponencial
Una variable aleatoria X tiene una distribución exponencial
si su función de densidad de probabilidad está dado
por:
si x > 0
f(x)
0 en cualquier
=
otro caso
donde: λ = λ > 0 λ : es el promedio de
ocurrencias por unidad
Es una función de densidad de probabilidad porque
cumple:
a) f(x) ≥ 0
b)
Distribución Exponencial
Función de distribución: F(x) =
Función de distribución de probabilidad:
si x ≥ 0
F(x)
= 0 si x < 0
Esperanza matemática o media y varianza:
E(X) = Var(X) =
Gracias…