Fomulario - 2021 - 00
Fomulario - 2021 - 00
Igualdades !
n ∞
X n k n−k
n
X φx
(a + b) = a b ; φk = si |φ| < 1;
k 1−φ
k=0 k=x
∞ ∞
!
X λk X x+k−1 1
= exp(λ); φx = si 0 < φ < 1 y k ∈ N
k! x=0
k − 1 (1 − φ)k
k=0
√
Z 1
Γ(q) Γ(r)
(4) Γ(1/2) = π; (5) B(q, r) = xq−1 (1 − x)r−1 dx; (6) B(q, r) = = beta(q, r)
0 Γ(q + r)
Distribución Gamma
k−1
X (ν t)x e−ν t
(1) Si T ∼ Gamma(k, ν), con k ∈ N −→ FT (t) = 1 −
x=0
x!
Medidas descriptivas
E (X − µX )3 E (X − µX )4
2 2 σX
µX = E(X), σX = E (X − µX ) , δX = , θX = 3
, KX = 4
−3
µX σX σX
X
g(x) · pX (x)
x∈ΘX
MX (t) = E et X , E[g(X)] = , Rango = máx − mı́n, IQR = x75 % − x25 %
Z ∞
g(x) · fX (x) dx
−∞
Cov(X, Y )
Cov(X, Y ) = E[(X − µX ) · (Y − µY )] = E(X · Y ) − E(X) · E(Y ) , ρ=
σX · σY
Transformación
Mı́nimo y Máximo
Sean X1 , . . . , Xn variables aleatorias continuas independientes con idéntica distribución (fX y FX ), entonces para:
En el caso que X1 ,. . . , Xn sean variables aleatorias independientes con funciones generadoras de momentos MX1 ,. . . ,
Xn
MXn respectivamente, se tiene si Z = Xi → MZ (t) = MX1 (t) × · · · × MXn (t).
i=1
Sea X una variable aleatoria e Y = g(X), la aproximación de 4to orden está dada por
Sea X1 ,. . . ,Xn una muestra aleatoria independiente e idénticamente distribuida con función de probabilidad pX o de
densidad fX , determinada por un parámetro θ. Si θ̂ es el estimador máximo verosı́mil del parámetro θ, entonces:
E(θ̂) → θ, cuando n → ∞.
2
1 ∂
Var(θ̂) = , con In (θ) = −E ln L(θ) .
In (θ) ∂ θ2
p ·
In (θ)(θ̂ − θ) ∼ Normal (0, 1), cuando n → ∞.
2
[g 0 (θ)]
El estimador máximo verosı́mil de g(θ) es g(θ̂), cuya varianza está dada por: Var[g(θ̂)] = .
In (θ)
Distribuciones Muestrales
Sean X1 ,. . . ,Xn variables aleatorias independientes e idénticamente distribuidas Normal(µ, σ), entonces
Xn − µ Xn − µ s2 (n − 1)
√ ∼ Normal(0, 1), √ ∼ t-student(n − 1), ∼ χ2 (n − 1)
σ/ n s/ n σ2
n
1 X
con s2 = (Xi − X n )2 .
n − 1 i=1
Potencia
Sean X1 ,. . . ,Xn variables aleatorias independientes e idénticamente distribuidas Normal(µ, σ), entonces para H0 :
µ = µ0 y σ conocido:
√ √ √ √
n n n n
1 − Φ k1−α/2 − ∆ + Φ kα/2 − ∆ , 1 − Φ k1−α − ∆ , Φ kα − ∆
σ σ σ σ
2
(n − 1) SX + (m − 1) SY2
con Sp2 =
n+m−2
Si σX y σY son desconocidos:
(X n − Y m ) − (µX − µY )
q
2 2
∼ t − Student(ν)
SX SY
n
+ m
con
2
2
SX /n + SY2 /m
ν= 2
(SX /n)2 (SY2 /m)2
n−1
+ m−1
Si µX y µY son desconocidos:
2 2
(n − 1) SX /σX /(n − 1) S 2 σY2
2 2
= X · 2 ∼ F (n − 1, m − 1)
[(m − 1) SY /σY ] /(m − 1) SY2 σX
Sean X1 , . . . , Xn e Y1 , . . . , Ym dos muestras aleatorias independientes con distribución Bernoulli(pX ) y Bernoulli(pY )
respectivamente, entonces
(X n − Y m ) − (pX − pY ) aprox (X n − Y m ) − (pX − pY ) aprox
q ∼ Normal(0, 1) y q ∼ Normal(0, 1)
pX (1−pX )
n
+ pY (1−p
m
Y) X n (1−X n )
n
+ Y m (1−Y
m
m)
Bondad de Ajuste
k
X (Oi − Ei )2
X2 = ∼ χ2 (k − 1 − ν)
i=1
Ei
con ν igual al número de estadı́sticos muestrales utilizados para estimar los parámetros del modelo ajustado.
2
v
sX (n − 2) sY |x u1 (xi − x)2
u
ρ̂ = β̂ , ρ̂2 = 1 − , hµY i
|xi 1−α = y i ± t (1−α/2), n−2 · sY |x u + n
sY (n − 1) s2Y un X
t (xj − x)2
j=1
Modelos de probabilidad en R:
Estadı́stica descriptiva en R:
Media: mean()
Moda: mlv() del paquete "modeest"
Varianza: var()
Desviación estándar: sd()
Resumen de vector numérico: summary()
Cuantiles: quantile()
Mı́nimo: min()
Máximo: max()
Rango: max()-min()
Rango intercuartil: IQR()
Mediana: median()
Coeficiente de variación: sd()/mean()
Coeficiente de asimetrı́a: skewness() del paquete "moments"
Coeficiente de kurtosis: kurtosis()-3 del paquete "moments"
Bondad de Ajuste:
Test KS: [Link]().
Test χ2 : [Link]().
Test Shapiro (Normalidad): [Link]().
Regresión lineal:
Regresión lineal: lm().
Tabla ANOVA: aov().
Tabla ANOVA: anova(). (equivalente a summary de aov)
n
x n−x
Binomial p (1 − p) x = 0, . . . , n n, p µX = n p
x
σX2 = n p (1 − p)
M (t) = [p et + (1 − p)]n , t ∈ R
x−1
Geométrica p (1 − p) x = 1, 2, . . . p µX = 1/p
2 = (1 − p)/p2
σX
M (t) = p e /[1 − (1 − p) et ],
t t < − ln(1 − p)
x − 1
r x−r
Binomial-Negativa p (1 − p) x = r, r + 1, . . . r, p µX = r/p
r−1
2 = r (1 − p)/p2
σX
n or
M (t) = p et /[1 − (1 − p) et ] , t < − ln(1 − p)
(ν t)x e−ν t
Poisson x = 0, 1, . . . ν µX = ν t
x!
σ2 = ν t
h X i
M (t) = exp λ et − 1 , t ∈ R
−ν x
Exponencial νe x ≥ 0 ν µX = 1/ν
σX2 = 1/ν 2
M (t) = ν/(ν − t), t < ν
νk k−1 −ν x
Gamma x e x ≥ 0 k, ν µX = k/ν
vii
Γ(k)
2 = k/ν 2
σX
M (t) = [ν/(ν − t)]k , t < ν
" !2 #
1 1 x−µ
Normal √ exp − −∞ < x < ∞ µ, σ µX = µ
2πσ 2 σ
σX2 = σ2
M (t) = exp(µ t + σ 2 t2 /2), t ∈ R
" !2 #
1 1 ln x − λ 1 2
Log-Normal √ exp − x ≥ 0 λ, ζ µX = exp λ+ ζ
2 π (ζ x) 2 ζ 22
2 2 ζ
σX = µ X e −1
1
Uniforme a ≤ x ≤ b a, b µX = (a + b)/2
(b − a)
σX2 = (b − a)2 /12
Profesores: Ricardo Aravena
1 (x − a)q−1 (b − x)r−1 q
Beta a ≤ x ≤ b q, r µX = a + (b − a)
B(q, r) (b − a)q+r−1 q+r
2 = q r (b−a)2
σX
(q+r)2 (q+r+1)
Ricardo Olea
Felipe Ossa
m N −m
x n−x
Hipergeométrica máx{0, n + m − N } ≤ x ≤ mı́n{n, m} N, m, n µX = n m
N N
n
2 =
σX N −n n m 1− m
N −1 N N
Otras distribuciones
donde
exp(z) exp(z)
ΦLogı́stica (z) = y φLogı́stica (z) =
[1 + exp(z)] [1 + exp(z)]2
son la función de probabilidad y de densidad de una Logı́stica Estándar. µ ∈ R, es un parámetro de localización
y σ > 0, es un parámetro de escala. Si yp es el percentil p × 100 %, entonces
p
yp = µ + σ Φ−1
Logı́stica (p) con Φ −1
Logı́stica (p) = log
1−p
σ2 π2
Su esperanza y varianza están dadas por: µY = µ y σY2 = 3
.
Un variable aleatoria T tiene distribución t-student(ν) si su función de densidad está dada por:
−(ν+1)/2
t2
Γ[(ν + 1)/2]
fT (t) = √ 1+ , −∞ < t < ∞
π ν Γ(ν/2) ν
• µT = 0, para ν > 1.
• σT2 = ν
ν−2
, para µ > 2.
Si T ∼ Fisher(η, ν), se tiene que
η
Γ( η+ν
2
) η η
2 t 2 −1
fT (t) = η+ν , t>0
Γ(η/2)Γ(ν/2) ν η
t+1 2
ν
ν
• µT = ν−2
, para ν > 2.
2 ν 2 (η+ν−2)
• σT2 = η (ν−2)2 (ν−4)
, para ν > 4.