T2 Modelos Moodle2020
T2 Modelos Moodle2020
- MODELOS DE
DISTRIBUCIÓN DE
PROBABILIDAD
Contenido:
• Modelos discretos.
• Modelos continuos.
• La distribución normal.
En el tema 1 hemos visto que las variables pueden ser discretas o continuas; por ello, los
modelos de distribución irán asociados al tipo de variable aleatoria, discreta o
continua.
MODELOS DE DISTRIBUCIÓN DE
PROBABILIDAD
• Modelos discretos:
0 𝑠𝑖 𝑥 < 1
1
si 1 ≤ 𝑥 < 2
𝐹 𝑥 =𝑃 𝑋≤𝑥 = 𝑛
2
si 2 ≤ 𝑥 < 3
𝑛
...
(n-1)/n si (n-1) ≤ x <n
1 si 𝑥 ≥ n
Distribución discreta Uniforme
Los principales momentos son:
La Esperanza matemática:
𝑛 𝑛 1 1 1 1+𝑛 𝑛 1+𝑛
µ = E(X) = 𝑖=1 𝑥𝑖 𝑃(𝑋 = 𝑥𝑖 ) = 𝑥
𝑖=1 𝑖 𝑛 =
𝑛
1 + 2 + ⋯𝑛 =
𝑛 2
=
2
y la Varianza
𝑛 2 1 1+𝑛 2 1 1+𝑛 2
σ2 =Var[X] = E[X2] - µ2 = 1 𝑥𝑖 𝑛 − 2
= 12 + 22 + ⋯+ 𝑛2 𝑛 − 2
=
𝑛(𝑛+1)(2𝑛+1) 1 1+𝑛 2 𝑛+1 𝑛−1 𝑛2 −1
= − = = 12
6 𝑛 4 12
𝑛2 −1
Siendo la desviación típica: σ = 𝑉 𝑋 = 12
Ejemplo: Distribución discreta Uniforme
1.- Experimento de lanzar un dado: ejemplo que cumple la distribución uniforme discreta,
ya que Cx = { 1,…,6} con P(x) = 1/6.
[Link]
2.- Experimento de extraer una bola de un bombo con 50 bolas numeradas de 1 a 50,
Cx = { 1,…,50} con P(x) = 1/50.
3.- Sea la v.a. X = nº de vehículos Diesel que se permite entrar en el centro histórico
de una ciudad en un día, con Dx = {0, 1, …,24}. Su función de probabilidad de masa
es
y la función de distribución:
0 si x0
F X ( x) 1 - p si 0 x 1
1 si x 1
Los principales momentos son:
E[IB] = 0(1-p) + 1p = p y Var[IB] = E[IB2] - E2[IB] = p – p2 = p(1-p) = pq
X = 1⇒ Desempleado p = 0,1
X = 0 ⇒Empleado q = 1-p = 1-0,1 = 0,9
p(x=1)=0,1
Sobre este espacio probabilístico, una variable aleatoria (X) sigue una distribución binomial
de parámetros n, p [X ∼ B(n, p)],
Siendo X = número de veces que ocurre el suceso B en n repeticiones del exp. Bernoulli.
DX = {0, 1, 2, …, n}
Distribución Binomial
Función de masa.
Supongamos el siguiente resultado específico que consiste en la obtención del suceso B, k veces. Su
probabilidad de ocurrencia será:
Pn(B × … ×B × noB … × noB) = P(B) ∙…∙ P(B) ∙ P(noB) ∙…∙ P(noB) = pk (1-p)n-k
k veces n - k veces k veces n - k veces
El número de resultados en los que B aparece k veces (al repetir n veces el experimento) son las
combinaciones de n elementos tomados de k en k (PRn,k). Así:
n
P ( X k ) p X (k ) p k q n k
k
Momentos y función característica.
La consideración de las distribuciones binomiales (X) como suma de n variables independientes de Bernoulli
(Xi), de parámetro p, facilita el cálculo de las características de la distribución. Así:
E[X] = E[X1 + … + Xn] = ∑i=1, …, n E[Xi ] = np
Var[X] = Var[X1 + … + Xn] = ∑i=1, …, n Var[Xi ] = npq y
φX(t) =E[eitX ] E[e 1 ] E[eitXn ] ( peit q) n
itX
Teorema de adición:
0,15
0,1
0,05
0 k k k
0 10 20 30 0 10 20 30 0 10 20 30
Ejemplos:
Cada muestra de aire tiene 10% de posibilidades de contener una molécula rara
particular. Se obtienen 18 muestras, de manera independiente, y se analizan. Probabilidad
de que 2 de ellas contengan la molécula rara.
X = número de muestras con molec. rara en las 18 analizadas
n k = 2 ; n = 18 ; p = 0,1 , q = 0,9
P ( X k ) p X (k ) p k q n k
k
P( X = 2) = 0,284
Distribución de la Fr
La variable frecuencia relativa (Fr) se define como el número de veces que aparece un suceso al repetir n
veces, en condiciones de independencia, un experimento aleatorio, dividido por el número de repeticiones del
experimento. Así Fr = X / n, donde X∼ B(n, p).
Ambas variables comparten funciones de masa pFr(k / n) = pX(k), pero tienen diferente soporte:
DFr = {0, 1/n, 2/n, …, 1} y DX = {0, 1, 2, …, n}
Ejemplo:
La probabilidad de que un deportista gane una competición es 0,4. ¿Cuántas veces
habrá de competir para que tenga una probabilidad de al menos 0,95, de que la
frecuencia relativa de triunfos difiera de 0,4, en valor absoluto, como máximo en 0,02?
Distribuc. derivadas de la Distribución Binomial
Distribución multinominal.
Representa las probabilidades de que se presenten los diferentes sucesos de un sistema completo (B1, B2, …,
Bk), cuando se repite n veces (en condiciones de independencia) un experimento aleatorio. El vector aleatorio
(X1, X2, …, Xk) de variables independientes que muestra, para cada variable (Xk), el número de veces que
aparece el suceso Bk sigue una distribución multinomial de parámetros n, p1, p2, …, pk, lo que se denotará
como: (X1, … , Xk) ∼MB(n, p1, … , pk).
Distrib. Multinomial
Generalización de la distribución Binomial
Ejemplo:
En cada paciente se observa un experimento de Bernoullli con B=“sana” y noB=“no sana” y con P(B) = p = 0,3 y
P(noB) = q = 0,7. Si se repite la observación de 10 pacientes independientes (n = 10), la variable X=“número de
pacientes sanados al observar a 10”, sigue una distribución B(10, 0.3) y la probabilidad pedida será:
10
10
P ( X 5) 0.3k 0.710 k 0.15
k 5 k
2.- En una fábrica de madera laminada-encolada se emplean 3 tipos de cola diferentes, de forma indistinta. La
proporción de tableros encolados con el tipo A es del 50%, con el tipo B del 35% y con el tipo C del 15%. En
una muestra de 30 tableros, ¿Cuál es la probabilidad de que haya la misma cantidad de tableros con cada
cola?. Determinar, también , la probabilidad de que 20 se hayan encolado con cola A y 10 con cola B.
n
n n
P( X x) p x (1 p ) n x P ( X k ) p k q n k
x 0 x k
Otras distribuciones asociadas a la frecuencia de sucesos
Esta distribución discreta se adapta muy bien a procesos biológicos, donde X suele
representar el número de eventos independientes que ocurren a velocidad
constante en un intervalo de tiempo o en un espacio.
Así, X una variable aleatoria discreta, se dice que se distribuye como una
distribución de Poisson,
X → P( λ) con λ > ,0
λx - λ
P( X = x) = e , x = 0,1,2,...
x!
λx - λ
P( X = x) = e , x = 0,1,2,...
x!
Distribución de Poisson
Características de la distribución de Poisson.
λx - λ
Función de masa: P( X = x) = e , x = 0,1,2,...
x!
eλ
∞ ∞ ∞
λx - λ λx - λ λx -1
E[ X ] = ∑ x e = ∑ x e = λe ∑ -λ
=λ
x=0
x! x =1
x! x =1
( x - 1)!
x x
∞ 2 -λ λ = -λ ∞ 2 λ -λ ∞ λx -λ ∞ λx
E[ X ] = ∑
2
x e +e ∑ x =e ∑ x( x - 1) + e ∑ x =
x=0 x! x=0 x! x=0 x! x = 0 x!
∞ λx - 2 ∞ λx -1
= e - λ λ2 ∑ + e- λ λ ∑ (
= e - λ λ2e λ )
+ λe λ = λ2 + λ
x = 2 ( x - 2)! x =1 ( x - 1)!
x
Función característica: φX(t) = E[eitX] =∑ ∞ itX - λ λ λ(eit - 1)
e e = e
x=0 x!
Índices de agregación. Distribución de Poisson
IAX = Var[X] / E[X]. En modelos de Poisson Var[X] = E[X] ⇒ IAX = 1. En otros casos esto no ocurre, por
ejemplo, si Y sigue una distribución binomial negativa de parámetros r, p; entonces: IAY = 1/p, p∈(0, 1).
especie
Índice de
agregación >1 ≃1 <1
0,14
0,12
0,1
0,08
0,06
0,04
0,02
0
0 5 10 15 20 25 30 x
Teorema de adición:
Xn n →∞
→ X ≈ Poi( λ) ; X n ≈ B(n, p )
(por tanto: p →0 + )
6.- El número de insectos hembras (por ha) en una región sigue una distribución de Poisson con media λ. El
número de huevos puestos por cada insecto es también una variable de Poisson, pero de parámetro μ.
Determinar la distribución de probabilidad del número de huevos por ha en la región.
Sean las variables: F=“Número de insectos hembra (por ha) en una región” e Y=“Número de huevos (por ha) puestos
por los insectos de esa región”. Por tanto:
e f e f f
y
PY y, F f PF f PY y / F f
f! y!
Entonces:
PY y
e y
e
f
f y
y!
f 0 f!
Ejemplos. Distribución de Poisson
6.- El
número de insectos hembras (por ha) en una región sigue una distribución de
Poisson con media λ. El número de huevos puestos por cada insecto es también una
variable de Poisson, pero de parámetro μ. Determinar la distribución de
probabilidad del número de huevos por ha en la región.
y!
f 0 f!
Cálculo de probabilidades en Excel. Distribución de Poisson
x
k x
P( X x) e
P( X x) e
k 0 k! x!
T2.- MODELOS DE DISTRIBUCIÓN DE PROBABILIDAD
• Modelos continuos:
Distribuciones continuas con soporte de longitud finito.
Distribución Uniforme continua.
Distribución Beta.
Distribuciones de la variable “tiempo de espera”:
Distribución Exponencial y Gamma y
otras exponenciales .
Distribución normal.
Distribuciones continuas con soporte de longitud finito
Distribución uniforme.
Una variable se distribuye según una distribución uniforme en el intervalo [a, b]
(X∼U[a, b]) si su función de densidad es:
0 x<aox>b
f X ( x) = 1
Es una función de densidad cte. a≤ x≤b
b-a
Supone que la probabilidad de que tome valores en un intervalo es proporcional a la
longitud del intervalo: P[X∈(c,d)] =[1/(b-a)]⋅(min{b, d}-max{a,c}).
Y la función de distribución:
1 t≠0
φ(t) = E[eitX] = eitb - eita
t=0
it (b - a)
E[X ]= (a+b)/2 Var[X ]= (b-a)2/12
[Link]
Distribución Uniforme
Ejemplo:
En un trayecto urbano hay dos semáforos consecutivos de modo que 2,5 minutos
después de que el primero se ponga verde se pone rojo el segundo. Ambos se cierran
cada 2 minutos, permaneciendo cerrados 30 segundos.
Un conductor se ha detenido en el primero y el tiempo en recorrer la distancia entre
ambos semáforos es una U(1,4). ¿Cuál es la probabilidad de que se pare en el segundo?
Del enunciado se deduce que deberá parar si emplea entre 2,5 y 3 minutos en ir del
primero al segundo, es decir,
P[2.5 < X < 3]= F(3) - F(2,5) = (3-1) / 3 - (2,5-1) / 3 = 0,17.
[Link]
Distribuciones continuas con soporte de longitud finito
Distribución beta.
A partir de la función matemática beta, definida en [0 ; 1] como:
1
B(α , β ) = ∫0 x α -1 (1 - x ) β -1 dx
Γ (α ) Γ ( β )
iii B(α, β ) =
Γ (α + β )
Se dice que una variable aleatoria sigue una distribución beta de parámetros α,β
[X∼ Beta(α, β)] si su función de densidad es:
x α -1(1 - x) β -1
f X ( x) = 0 < x <1
B(α, β )
0 resto
Distribuciones continuas soporte de longitud finito
41146 .5
36 .4 51 56 .6
61 66.7
71 76 .8
81 86 .9
91 96 1 α=9 β=4
Series4
0,5
0,5 00
00 00
01 6 11
.1 16 21
.2 26 31
.3 36 41
.4 46 51
.5 56 61
.6 66 71
.7 76 81
.8 86 91
.9 96 1 x
01 6 .1
11 16 .2
21 26 .3
31 36 .4
41 46 .5
51 56 .6
61 66.7
71 76 .8
81 86 .9
91 96 1 x 01 6 11
.1 16 21
.2 26 31
.3 36 41
.4 46 51
.5 56 61
.6 66 71
.7 76 81
.8 86 91
.9 96 1
Momentos
α αβ
E[ X ] = Var [ X ] =
α+ β (α + β ) 2 (α + β + 1)
Distribuciones continuas soporte de longitud finito
Ejemplo:
La proporción media de tubos defectuosos de una fábrica es del 20%. Dicha
proporción se modeliza como una B (p, 8). Calcular p.
10.- De una estación parte un tren cada 20 minutos. Un viajero llega de imprevisto.
Hallar:
a) Función de distribución de la variable “tiempo de espera”.
Como se llega de improviso, se supone que todos los momentos de llegada son
equiprobables, por lo que la variable sigue una distribución U[0, 20] con:
0 x≤0
F(x) = P[X≤x] = x/20 0 < x < 20
1 x ≥ 20
11.- Definir un procedimiento para generar valores aleatorios de variables aleatorias continuas,
con función de distribución F(x), a partir de los valores de una v.a. ≈ U [0, 1].
∀ F(x)=P[X≤ x] ⇒ Y=F(x) es U[0, 1].
Entonces:
Φ(y) = P[Y ≤ y] = P[F(x) ≤ y] = P[X ≤ F-1(y)] = F [F-1(y)] = y
Por tanto, para obtener valores aleatorios de una variable aleatoria continua, basta
generar y1, …, yn valores de una U[0, 1] y transformarlos luego a
x1 = F-1(y1), …, xn = F-1(yn)
F(x)
1-
ALEATORIOS DE Y∼U[0, 1]
y3
GENERA VALORES
y2
y1
0-
x
F-1(y1) =
F-1(y2) =
F-1(y3) =
x3 OBTIENE VALORES
x1 x2
ALEATORIOS PARA X∼FX(x)
Distribuciones del tiempo de espera
Distribución Exponencial
1
-t e -t si t 0
⇒-S (t ) f (t )
S (t ) e
T∼Exp(θ)
0 si t ≤ 0
Toda variable aleatoria T, con esta función de densidad, se dice que sigue una
distribución exponencial de parámetro θ y se representa como T∼Exp(θ).
Su función característica: φT(t) = [1-itθ]-1
Derivando φT(t) una vez se obtiene la E[T] = θ; φ’’T(t) = E[T2] y Var[T] = θ2
Aplicación de la distribución exponencial: “tiempo de vida de un elemento”
Por ejemplo: una pieza que haya durado un tiempo s, la probabilidad de que siga
funcionando un tiempo t más, será
Así: P[T > t] = P(no ocurra ningún suceso de Poisson en [0,t]) = P0(t) = e- λt
Por tanto:
FT(t) = P[T ≤ t] = 1- e- λt ⇒ fT(t) = λ e- λt
7.- Se ha comprobado que el tiempo de vida de ciertos elementos sigue una distribución
exponencial con media de 8 meses. Se pide:
x x 1 -t 8
F ( x) = ∫ f (t )dt = ∫ e dt =1 - e- x 8 = 0.95 ⇒ x = -8 ln 0.05 = 23,97
0 08
c) La probabilidad de que un elemento que haya funcionado ya más 10 meses, viva 15 meses
más.
Por la propiedad de falta de memoria de la distribución exponencial:
Cuando α <1 indica que la tasa de fallos decrece con el tiempo (sistemas adaptativos
inteligentes, que aprenden con el tiempo); cuando α =1, la tasa de fallos es constante en
el tiempo (distribución exponencial) y cuando α > 1 indica que la tasa de fallos crece
con el tiempo.
-t 2 β
(1 β )2te si t > 0
f (t ) =
0 si t ≤ 0
Distribuciones del tiempo de espera
Ejemplos.
8.- Un fabricante de lavadoras garantiza sus productos contra cualquier defecto durante el primer
año de uso normal. El fabricante ha estimado un coste medio de reparación de 68 euros por cada
lavadora averiada durante el primer año de funcionamiento. Su experiencia le permite suponer
que el tiempo (en meses) transcurrido hasta que se produce el primer fallo es una variable con
distribución Weibull de parámetros α = 2 y β =1600.
Si el fabricante espera vender 100.000 unidades, determinar el coste estimado de la garantía.
α -1 -t α β
(α β )t e si t > 0
Función de densidad de la distrib. de Weibull: f (t ) =
0 si t ≤ 0
12
2 2
−𝑡1600
2
−121600
𝑃 𝑋 ≤ 12 = 𝑡𝑒 𝑑𝑡 = 1 − 𝑒 = 0.0861
0 1600
x -1e - x
x0
f ( x) ( )
y se representa por X∼γ(α, β ). 0 x0
f(x) f(x)
2,5
0,9 0,9
f(x) 0,8 0,8
2
0,7 0,7
α =3 α
1,5 Series30,6 0,6
β=0.33
Series1
Series40,5 0,5
1 β=1
Series2
α =0.5
0,4 β=0.5
Series2 0,4
β=1.66
Series3
α =10,3
Series1 β=0.5 0,3
0,5 β=2.33
Series4
0,2 0,2
0 0,1 0,1
x
x x
113
106
120
1
8
15
22
36
43
57
64
71
78
92
99
29
50
85
0 .5 1 1.5 2 2.5 3 0 0
100
111
122
133
144
155
166
177
188
199
1
12
23
34
45
56
67
78
89
100
111
122
133
144
155
166
177
188
199
1
12
23
34
45
56
67
78
89
0 2 0 4 2 6 4 8 6 10 8 10
Forma de la función de densidad. Distribución Gamma
•Para α = n/2, con n>0, y β= 2 se obtiene la distribución χ2n que se desarrollará en el apartado
de la distribución normal y desempeña un importante papel en teoría de muestras.
Momentos.
E[X]= α β Var[X]= α β2
Ejemplo. Distribución Gamma
9.- La duración (en horas) de una cuchilla de motosierra es una variable que sigue una Gamma de
parámetros α = 2 y β=20. Obtener su F(x), la duración esperada de una cuchilla y la probabilidad
de que se tenga que cambiar antes del tercer día de trabajo.
x 1
t
x
x
F [ x] te 20
dt 1 e 20
1
20
2
0 (20)
x =24
E[X] = α β = 40 horas
3 días (8 horas/día) = 24 horas. FX∼γ(2, 20)(24) = 0.337372728
Función de distribución
Función de densidad
Distribuciones de valores extremos
Sean X1, X2, ..., Xn , n [Link]. independientes y con la misma distribución [FX(x) y fX(x)].
La variable Y definida como: Y = max (X1, ..., Xn) se conoce como la variable máximo y
su función de distribución será:
Cuando las variable Xi son exponenciales, normales o gamma, Y = max(X1, ..., Xn) se aproxima
a una distribución Gumbel (tanto más cuanto mayor es n).
-( x- μ ) / β
La función de distribución de una variable Gumbel es: F ( x) = e-e , -∞≤ x ≤∞
Características:
Moda: μ Mediana: μ - β ln(- ln(1 2))
E[X]: μ + γβ donde γ = 0.577215
Var[X]: [ βπ / 6 ]2
Lectura: [Link]
MODELOS DE DISTRIBUCIÓN DE
PROBABILIDAD
• La distribución normal:
La distribución normal: definición y propiedades.
Teoremas del límite central.
Distribuciones asociadas a la normal.
Distribución normal multivariante.
Distribución Normal
1777-1855
1 1 𝑥−𝜇 2
−
𝑓 𝑥 = 𝑒 2 𝜎
𝜎 2𝜋
1
1 x - (t - μ ) 2
2σ 2
Su función de distribución es: F ( x) =
2π σ
∫ -∞ e dt
0,6
0,5 0,7
f(x) 0,6
0,4
μ=0
Series1 σ =1.6
0.4
0,3 0,5 μ=0 σ =1
Series2
μ=0 σ =0.4
Series3 1.6
0,2 0,4
μ=0 σ =1.6
Series1
0,1 0,3 μ=0 σ =1
Series2
0
μ=0 σ =0.4
Series3
0,2
-41 5 -3
9 13 17-2
21 25 29
-1 33 37 041 45 491 53 57 61
2 65 69373 77 81
4
0,1
0
x
-41 5 -3
9 13 17-2
21 25 29
-1 33 37 041 45 491 53 57 61
2 65 69373 77 81
4
La distribución normal: definición y propiedades
𝑛 𝑛 2 2
Y∼ 𝑁(𝑏 + 1 𝑎𝑖 𝜇𝑖 ; 1 𝑎𝑖 𝜎𝑖
Al ser una v.a. continua, las probabilidades se calculan para valores en intervalos de ℝ y se
pueden calcular a partir de la distribución de probabilidades de la normal tipificada (Z):
Las probabilidades de Z se obtienen de tablas para la distribución de esta variable; las más
usuales proporcionan el valor de la función de distribución
1 2
1 z -u
Ф(z) = ∫ -∞ e 2 du
2π
En general,
P[a < X < b] = P[(a-μ)/σ < Z < (b-μ)/σ] = Ф{(b-μ)/σ}- Ф{(a-μ)/σ}
[Link]
[Link]
La distribución normal: definición y propiedades
Normal tipificada.
α zα/2 zα
Valores de cuantiles más
z0.1=1.28
La distribución normal: definición y propiedades
Ejemplo.
16.- Calcular el valor de n que hace que la variable "media muestral" satisfaga P (| X - | ]
donde α es un valor pequeño, previamente especificado, siendo la variable de partida
X∼N(μ, σ)
Por Th. de adición, si X1, X2, …, Xn son todas N(μ, σ) e indep. ⇒ X = ( X1 + ... + X n ) n ∼
por lo que: N( , n)
X n
P
X 1 P X 1 P
n
n n
n n
1 P Z 1
n n
P X 2 1 1
2
Por tanto, al poner la expresión anterior en función de los valores tabulados, se obtiene
z 2
2
n n n
P Z 1 z 2 n
2
Teoremas del límite central Distribución Normal
Sea Sn=X1+X2+ ... +Xn, donde Xi son variables aleatorias independientes con
funciones de distribución Fi(xi) cualesquiera y E[Xi] = μi y Var[Xi] = σi2. Bajo
condiciones muy generales, siendo n suficientemente grande, se puede afirmar,
con un riesgo tanto menor cuanto mayor sea n, que la función de distribución de
Sn tiende a la función de distribución de una variable aleatoria
N in1i , in1 i2
Es decir, Sn converge en ley a una distribución normal con la media y desviación típica arriba
indicadas, lo que significa que:
1 x (t ) 2
lim FS n ( x) exp 2 2 dt, donde : i 1i y i1 i
n n 2
n 2
y se representa como Sn
L
X donde X∼
N in1i , in1 i2
Teoremas del límite central Distribución Normal
1 x (t ) 2
lim FS n ( x) 2 2
n n 2
exp dt , donde : y
2
i 1 i i 1 i
n
Sn
L n n
X ≈ N i 1i , i 1 i
2
Teorema de Lindeberg y Lévy.
n n S3
n
La siguiente expresión proporciona una acotación general para la aproximación, en distribuciones para
las cuales los momentos absolutos de orden tres respecto a la media sean finitos:
Distribución Valor de la cota anterior Aunque esta acotación se utiliza para determinar el valor de n
requerido para obtener una buena aproximación a la distribución
Bernoulli(p) 0.79751 2 p(1 p) np(1 p
normal, en muchas ocasiones no se conocen los momentos
Poi(λ)
0.7975 82 6 1 n requeridos de Sn y no siempre son finitos. Por otra parte, el error
U[0.5 ; 0,5] 1.036 n cometido puede ser inferior al acotado por la anterior expresión.
Exp(θ) 0.653 n
Teorema de Lindeberg y Lévy (consecuencias) Teoremas del límite central
Comentario 3: Incremento de la precisión por aplicación del teorema del límite (TCL).
Si se utiliza la acotación de Tchebychev para obtener probabilidades de valores de variables
con distribución de probabilidad desconocida, el rango de error es mayor que si se emplea el
TCL.
Por ejemplo, la probabilidad de que la variable aleatoria "media muestral” difiera de su
esperanza matemática converge a 0 con diferentes tasas de convergencia:
2
2 0 (Tasa de convergencia : n 1 )
n
n
Cota para P ( X 0.1) con 1
P( X )
n n 2 n
2
P X n
0,9
exp
2 n 0,8 2
2
0,7
0,6
Cota para P ( X 0.1) con 1
0,9
Comentario 4: Teorema de Laplace-De Moivre. 0,5
0,8 A. Tcheby.
Series1
0,4
Th. Límite
B(n, p)
N(np, npq )
0,7 Series2
L 0,3
0,6
0,2
0,5
0,1 A.
Ser
Este teorema es el teorema de Lindeberg-Lévy 0,4
0 Th
Ser
aplicado a la convergencia de la suma de n 1
80,3
22
29
36
43
50
57
71
78
85
92
99
15
64
130 150 170 190 220 230 =n
variables de Bernoulli de parámetro p. 0,2
0,1
0
1
8
22
29
36
43
50
57
71
78
85
92
99
15
64
130 150 170 190 220 230 =n
Teoremas del límite central
Resumen de aproximaciones entre distrib.
De los teoremas del límite se obtienen aproximaciones de distribuciones de v.a.
discreta a la distrib. de v.a. continua, Normal
np ≥ 5 y nq≥5
50
Teoremas del límite central
Ejemplo de aproximaciones entre distrib.
El 2% de las piezas fabricadas por una máquina presentan defectos. De un lote de 2000 piezas
fabricadas por dicha máquina ¿Cuál es la probabilidad de que haya menos de 50 defectuosos?
Cuando se aproxima de una distribución discreta como Binomial o Poisson a Normal que
es continua, surge un problema en el cálculo de algunas probabilidades.
Así, en el caso discreto la P[a ≤ X ≤ b] no tiene por qué ser igual a P[a < X < b], mientras
que en una continua como la Normal coinciden.
Por ello, cuando se aproxima una variable aleatoria discreta a una continua y se desea que
la aproximación de la probabilidad sea lo más adecuada posible, tendremos que evitar este
problema.
Los valores de una variable que sigue una Binomial o Poisson son enteros
positivos (0, 1, 2, …). Cualquier rectángulo centrado en un valor k, será de la
forma: k-1/2, k+1/2; de manera que determinar la probabilidad de P(X=x) en una
Binomial o Poisson, será equivalente a determinar la probabilidad en el intervalo
(x-0.5; x+0.5) utilizando la función de distribución de la normal.
Por tanto, para calcular la P(X=xi) se adopta el criterio de calcular:
P(xi – 0,5 < X < xi +0,5 )
Teoremas del límite central
Ejemplo.
17.- Se considera que el tiempo de funcionamiento de una componente eléctrica de un sistema
(con escasas vibraciones) se puede modelizar a través de una distribución exponencial, con
función de densidad:
f(x) = (1/θ) e-x/θ para x≥0 y f(x) = 0 para x<0
Si Xi representa el tiempo transcurrido entre la (i-1)-ésima y la i-ésima ruptura. S nn
S n n
N(0,1)
n
Sn= X1+... +Xn, representará el tiempo transcurrido hasta la n-ésima ruptura.
Comparar la probabilidad de que el n-ésimo fallo del sistema se produzca después de un tiempo
t (a) directamente y b) por el teorema del límite).
a) Para el cálculo directo de esta probabilidad se considera que las variables Xi son variables
aleatorias independientes con función de densidad exponencial. Como la distribución
exponencial es un caso especial de la distribución gamma; la aplicación del teorema de
adición a estas funciones permite concluir que Sn sigue una distribución gamma de
parámetros α=n y β=θ . Por tanto:
1
P[ S n t ] ∫ x n 1e - x dx
t (n) n
b) Para el cálculo de esta misma probabilidad a partir del teorema central del límite (Lindeberg
y Lévy) teniendo en cuenta que, si Xi es exponencial entonces
E[Xi] = θ y Var[Xi] = θ2 S nn
y S n n
N(0,1)
n
resulta que S n t n t n
P ( S n t ) P n P Z n
n n n
De las tablas de la normal, para n=30 y =2, se obtiene
36 60
PZ n 2.19 0.9857
30
P ( S n 36) P Z n
2 30
La diferencia entre las probabilidades calculadas por ambos procedimientos es muy pequeña
(0,0084), incluso para valores moderados de n=30. Esta diferencia es incluso bastante menor
que la cota antes obtenida para la velocidad de convergencia: en el caso 3
de una distribución
exponencial la acotación del error resulta ser de: E[ S n S ] 0.653
0.7975 n
0.653 n 0.1192
3
Sn 30
Distribuciones asociadas a la normal
MODELO χ2 de Pearson t de Student F de Fisher-Snedecor.
m
1 de
Distribución X
chi-cuadrado con n grados
asociada a una v. a. que se obtiene
(χ2t n(n))
libertad
X i2
m i 1 como suma
Definición n2 X 12 X 22 ... X n2 1 n 2 Fm ,n
de los cuadrados Xi
n i 1N(0, 1).
1 n 2
de n variables independientes
Yi
con
distribución n i 1
X1, X2, …, Xn SóloX,toma
X , Xvalores
, …, X positivos X , X , …, X Y , Y , …, Y
1 2 n 1 2 m, 1 2 n
Para: Independientes y N(0, 1) Independientes y N(0, σ) Independientes y N(0, 1)
n2 1 2x mn
Chi-Cuadrado Distribución
Función n 1 2 m m 2 1 m 2
m mn
x e si x 0 0.25 2 n21
n
f 2 ( x) 2 n f t n ( x)
1 2 1 x si - x 1 de libertad
f Fm ,n ( x) m n n n 10 n
x Grad. x si x 0
de n
2 n n 0.2n 2 2
2 50
0 2
densidad
densidad si x 0 0.15 0
3
si x 0
Momentos 0.1
n n n 2 (2m 2n 4)
E[ X ] n Var[ X ] 2n E[ X ] 0 Var[ X ] E[ X ] Var[ X ]
empleados 0.05 n2 n2 m(n 2) 2 (n 4)
0
Valores tn,α/2 :
χ2 n,α : P[X > χ2 n,α] =α 0 20 40 60
Fm,n,α : 80 Fm,n,α ] = α
P[X >100
tabulados P[-tn,α/2 < X < tn,α/2 ] = 1-α x
n
n2 γ ,2 (Th
T. Adición
adicción) 1
Fn ,m
2 Fm,n
n1 ... n2k ∼
n21 ... nk
Esta distribución es
2
Intuitivamente, esta distribución1 es de utilidad para
asintóticamente N(0,1), F m , n ,
Propiedades
2 N( 2n-1,1)
obtener información de la varianza F poblacional a n , m ,
2
n con buena aproximación P[ F F ] P[ F 1 F ]
Esta aproximación es válida para n>30 y partir de
para n>120. un conjunto de datos extraídos de una m ,n m , n , n ,m m , n ,
Se busca el valor x0.9 tal que P{χ 2 (25) < x0.9 } = 0.9 o, lo que es lo mismo, un χ 25
2
, α tal que :
2 2
P{χ (25) > χ 25,α } = α (α = 0.1), puesto que, como en el caso de la distribución normal, este
valor es el que proporcionan las tablas de la χ2.
2
Así se obtiene: χ 25 ,0.1 = 34.382 = x0.9
Cuando se utiliza la aproximación: 2 n2 N( 2n-1,1) , resulta que:
P{χ 2 (25) ≤ 34.382} ≈ P{Z ≤ 2 34.382 - 49} P{Z ≤ 1.29} 0.9015⇒34.382 x0Aprx Norm
.9015
si x 0 n 1
2 2 2
1
2
n 1 2 x x 1 x si x 0
de f 2 ( x) 2 n f t n ( x) 1 si - x f Fm ,n ( x) m n n n n
2
n n n 2de
n
2 Gráfica
su2 f(x): Centrada en x = 0,
densidad 0 si x 0 2
simétrica 0
y más aplastada que la si x 0
Momentos n N(0;1), platicúrtica.
n n 2 (2m 2n 4)
E[ X ] n Var[ X ] 2n E[ X ] 0 Var[ X ] E[ X ] Var[ X ]
empleados n2 n2 m(n 2) 2 (n 4)
t de Student Distribución
Valores tn,α/2 :
χ2 n,α : P[X > χ2 n,α] =α 0.4 Fm,n,α : P[X > Fm,n,α ] = α Grad. de libertad
tabulados P[-tn,α/2 < X < tn,α/2 ] = 1-α 10
3
0.3
densidad
n
50
γ ,2 (Th adicción)
2
n
1
Fn ,m
2
0.2
Fm,n
n21 ... n2k ∼
n21 ... nk
Esta distribución es 0.1
1
asintóticamente N(0,1), Fm ,n ,
Propiedades 0
Fn ,m ,
2 n2 N( 2n-1,1) con buena aproximación -9 -6 -3 0 3 6 9
P[ Fmx,n Fm ,n , ] P[ Fn ,m 1 Fm ,n , ]
Esta aproximación es válida para n>30 y
William
da Sealy
un ajuste Gossetal que obtiene por
superior
para n>120. 1 n m
Beta ,
1876-1937del teorema central del límite
aplicación 1 (m n) Fm,n 2 2
Distribuciones asociadas a la normal
MODELO χ2 de Pearson t de Student F de Fisher-Snedecor.
Distribución F de Fisher-Snedecor con n y m grados de 1 m 2
libertad
t
X
m i 1
Xi
Definición F(n,nm)
2
1 X 2 ... X n
esXla2 2
asociada 2
a una v.a. que sen obtiene
1 n a partir del Fm ,n
cociente de dos variables chi-cuadrado con 1 n 2
2
n y Xmi grados
n i 1
n i 1
Yi
de libertad respectivamente. Por tanto, esta variable sólo
toma valores
X1, X2,positivos.
…, Xn X, X1, X2, …, Xn X1, X2, …, Xm, Y1, Y2, …, Yn
Para: Independientes y N(0, 1) Independientes y N(0, σ) Independientes y N(0, 1)
n2 1 2x mn
Función n 1 2 m m 2 1 m 2
m mn
x e x0
n 1
Gráfica de
nsunf(x) si parecida a la1 de la x2 2
2 distribución 1 x si x 0
f Fm ,n ( x) m n n n
x
de f 2 ( x) 2 f t ( x) 1 si - x n
chi-cuadrado.
n
2 n
n n n 2 2
2
densidad 0 si x 0 2 si x 0
0
Momentos n n n 2 (2m 2n 4)
E[ X ] n Var[ F 2n de
X ](índice varianza) ]0 Var[ X ]
E[ XDistribución E[ X ] Var[ X ]
empleados n2 n2 m(n 2) 2 (n 4)
2.4 Numerador g.l.,Denominador g.l.
Valores tn,α/2 : 10,10
χ2n,α : P[X >2 χ2n,α] = α 3,15 Fm,n,α : P[X > Fm,n,α ] = α
tabulados P[-tn,α/2 < X < tn,α/2 ] = 1-α
densidad
1.6 100,100
n
n2 γ ,1.2
2 (Th adicción) 1
Fn ,m
2 Fm,n
0.8
n21 ... n2k ∼
n21 ... nk
Esta distribución es
1
0.4 asintóticamente N(0,1), Fm ,n ,
Propiedades Fn ,m ,
2 n2 N(
0 2n-1,1) con buena aproximación P[ Fm ,n Fm ,n , ] P[ Fn ,m 1 Fm ,n , ]
0 válida para
1 n>30 y2
Esta aproximación es
da un ajuste superior al que obtiene por
para3n>120.4 5
1 n m
x Beta ,
aplicación del teorema central del límite 1 (m n) Fm,n 2 2
Distribuciones asociadas a la normal
Momentos n n n 2 (2m 2n 4)
E[ X ] n Var[ X ] 2n E[ X ] 0 Var[ X ] E[ X ] Var[ X ]
empleados n2 n2 m(n 2) 2 (n 4)
Valores tn,α/2 :
χ2n,α : P[X > χ2n,α] = α Fm,n,α : P[X > Fm,n,α ] = α
tabulados P[-tn,α/2 < X < tn,α/2 ] = 1-α
n
n2 γ ,2 (Th adicción) 1
Fn ,m
2 Fm,n
n1 ... n2k ∼
2
n21 ... nk
Esta distribución es
1
asintóticamente N(0,1), Fm ,n ,
Propiedades Fn ,m ,
2 n2 N( 2n-1,1) con buena aproximación P[ Fm ,n Fm ,n , ] P[ Fn ,m 1 Fm ,n , ]
Esta aproximación es válida para n>30 y
da un ajuste superior al que obtiene por
para n>120. 1 n m
Beta ,
aplicación del teorema central del límite 1 (m n) Fm,n 2 2
Distribución normal multivariante
Un vector aleatorio absolutamente continuo (X,Y) sigue una distribución normal
bivariante de parámetros: -∞<μ1<∞, -∞<μ2<∞ , 0< σ1<∞ , 0< σ2<∞ y -1<ρ<1, si su
función de densidad es:
1 1 ( x 1 ) 2 2ρ( x 1 )( y 2 ) ( y 2 ) 2
f ( x, y ) exp 2
21 2 2(1 ρ ) 1 1 2 2
2 2
1 ρ 2
para -∞<x<∞ y -∞<y<∞.
1
expi ( 1t 2u ) ( 12t 2 2ρ 1 2 22u 2 )
2
Normal multivariante
Distribuciones marginales.
A partir de la función característica del vector aleatorio, se pueden obtener las funciones características de
cada una de las variables que forman el vector, pues: φ(t,0) = φ1(t) y φ(0,u)=φ2(u).
Por tanto, las funciones características asociadas a las variable X e Y son, respectivamente:
t 2 12 u 2 12
φX(t) = expit1 y φY(u) = expiu 2 2
2
de donde mediante la fórmula de reciprocidad, se obtiene:
1 ( x 1 ) 2 1 ( y 2 )2
f1 ( x) exp y f 2 ( y) exp
1 2 2 1
2
2 2 2 22
Parámetros.
De las marginales, se deduce que μ1, μ2, σ1 y σ2 son las medias y desviaciones típicas de X y de Y.
Coeficiente de correlación.
El parámetro ρ es el coeficiente de correlación: ρ = μ11/σ1σ2
μ11= Cov[X, Y] = E[XY]-E[X]E[Y] = α11─ μ1μ2 = ρσ1σ2 ⇒ α11=ρσ1σ2+μ1μ2
ρ=0
μ2-5
μ1-5 μ1 μ1+5
k = 1, 2, 3
ρ = -0.666 ρ = -0.85 ρ = -1
Distribuciones condicionadas.
Normal multivariante
Recordemos que la función de densidad condicionada es: f(x/y) = f(x,y)/f2(y) y en este caso:
1 1 ( x 1 ) 2 2ρ( x 1 )( y 2 ) ( y 2 ) 2 1 ( y 2 )2
f ( x, y ) exp 2
y f 2 ( y ) exp
21 2 1 ρ 2
2(1 ρ ) 2
1
1 2 2
2 2 2 2 22
2 y 2
1
exp 2 2 1
2 12 (1 ρ 2 ) 2
1 (1 ρ ) 2
que corresponde a una función de densidad de una distribución normal de parámetros:
X Y 1 112 y 2 ; X Y 12 1 ρ 2
2
Análogamente, la distribución de Y condicionada a X es una distribución normal de parámetros:
Y X 2 112 x 1 ; Y X 22 1 ρ 2
1
Propiedades.
i. La distribución marginal de cualquier componente de una distribución normal multivariable es una distribución normal
unidimensional. Es más, la distribución marginal de cualquier subconjunto de componentes, de dimensión p, es una
distribución normal p-variante.
ii. Toda combinación lineal de las componentes de un vector normal multivariantes sigue una distribución normal, aunque
las componentes sean dependientes.
iii. Las componentes de un vector aleatorio normal multivariantes son independientes si y sólo si, la matriz de covarianza
es una matriz diagonal.