0% encontró este documento útil (0 votos)
37 vistas8 páginas

Fomulario - 2021 - 00

El documento presenta definiciones y propiedades de funciones como la función Gamma, distribución Beta y distribución Gamma. También cubre conceptos estadísticos como medidas de tendencia central y dispersión, covarianza, probabilidades totales y esperanza y varianza condicional.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
37 vistas8 páginas

Fomulario - 2021 - 00

El documento presenta definiciones y propiedades de funciones como la función Gamma, distribución Beta y distribución Gamma. También cubre conceptos estadísticos como medidas de tendencia central y dispersión, covarianza, probabilidades totales y esperanza y varianza condicional.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

Formulario 2021 - 00

Igualdades !
n ∞
X n k n−k
n
X φx
(a + b) = a b ; φk = si |φ| < 1;
k 1−φ
k=0 k=x
∞ ∞
!
X λk X x+k−1 1
= exp(λ); φx = si 0 < φ < 1 y k ∈ N
k! x=0
k − 1 (1 − φ)k
k=0

Propiedades función Γ(·) y B(·, ·)


Z ∞
(1) Γ(k) = uk−1 e−u du = gamma(k); (2) Γ(a + 1) = a Γ(a); (3) Γ(n + 1) = n!, si n ∈ N0 ;
0


Z 1
Γ(q) Γ(r)
(4) Γ(1/2) = π; (5) B(q, r) = xq−1 (1 − x)r−1 dx; (6) B(q, r) = = beta(q, r)
0 Γ(q + r)

Distribución Gamma
k−1
X (ν t)x e−ν t
(1) Si T ∼ Gamma(k, ν), con k ∈ N −→ FT (t) = 1 −
x=0
x!

(2) Gamma(1, ν) = Exp(ν) (3) Gamma(η/2, 1/2) = χ2 (η)

Medidas descriptivas

E (X − µX )3 E (X − µX )4
   
2  2 σX
µX = E(X), σX = E (X − µX ) , δX = , θX = 3
, KX = 4
−3
µX σX σX
 X


 g(x) · pX (x)
   x∈ΘX

MX (t) = E et X , E[g(X)] = , Rango = máx − mı́n, IQR = x75 % − x25 %


Z ∞
g(x) · fX (x) dx



−∞

Cov(X, Y )
Cov(X, Y ) = E[(X − µX ) · (Y − µY )] = E(X · Y ) − E(X) · E(Y ) , ρ=
σX · σY

Teorema de Probabilidades Totales


X Z +∞
pY (y) = pX,Y (x, y); fX (x) = fX,Y (x, y) dy
x∈ΘX −∞
Z +∞ X
pX (x) = pX | Y =y (x) · fY (y) dy; fY (y) = fY | X=x (y) · pX (x)
−∞ x∈ΘX
Z +∞ X
E(X) = E(X | Y = y) · fY (y) dy E(Y ) = E(Y | X = x) · pX (x)
−∞ x∈ΘX

Esperanza y Varianza Condicional

E(Y ) = E[E(Y | X)] y Var(Y ) = Var[E(Y | X)] + E[Var(Y | X)]

Transformación

Sea Y = g(X) una función cualquiera, con k raı́ces:


k k
X d −1 X
gi−1 (y) pX gi−1 (y)
 
fY (y) = fX ·
g (y) o pY (y) =
i=1
dy i i=1

EYP1113 - Probabilidad y Estadı́stica i Profesores: Ricardo Aravena


Temporada Académica de Verano (enero 2021) Ricardo Olea
Felipe Ossa
Sea Z = g(X, Y ) una función cualquiera:
X
pZ (z) = pX,Y (x, y)
g(x,y)=z

Sea Z = g(X, Y ) una función invertible para X o Y fijo:


Z ∞ Z ∞
∂ ∂ −1
fX,Y (g −1 , y) g −1 dy = fX,Y (x, g −1 )

fZ (z) = g dx
−∞ ∂z −∞
∂z

Distribución Normal Bivariada


" ( 2  2   #)
1 1 x − µX y − µY x − µX y − µY
fX,Y (x, y) = × exp − + − 2ρ
2(1 − ρ2 )
p
2 π σ X σ Y 1 − ρ2 σX σY σX σY
 
ρ σY p
Y | X = x ∼ Normal µY + (x − µX ), σY (1 − ρ2 )
σX
X ∼ Normal(µX , σX ) e Y ∼ Normal(µY , σY )
Teorema del Lı́mite Central

Sean X1 , . . . , Xn variables aleatorias independientes e idénticamente distribuidas, entonces


n
X
Xi − n · µ
i=1 Xn − µ
Zn = √ = √ −→ Z ∼ Normal(0, 1),
nσ σ/ n

cuando n → ∞, E(Xi ) = µ y Var(Xi ) = σ 2 .

Mı́nimo y Máximo
Sean X1 , . . . , Xn variables aleatorias continuas independientes con idéntica distribución (fX y FX ), entonces para:

Y1 = mı́n{X1 , . . . , Xn } −→ fY1 = n [1 − FX (y)]n−1 fX (y); Yn = máx{X1 , . . . , Xn } −→ fYn = n [FX (y)]n−1 fX (y)

Mientras que la distribución conjunta entre Y1 e Yn está dada por:

fY1 ,Yn (u, v) = n (n − 1) [FX (v) − FX (u)]n−2 fX (v) fX (u), u≤v

Función Generadora de Momentos

En el caso que X1 ,. . . , Xn sean variables aleatorias independientes con funciones generadoras de momentos MX1 ,. . . ,
Xn
MXn respectivamente, se tiene si Z = Xi → MZ (t) = MX1 (t) × · · · × MXn (t).
i=1

Propiedades Esperanza, Varianza y Covarianza

Sean X1 , X2 , . . . , Xn , Y1 , Y2 , . . . , Ym variables aleatorias y a0 , a1 , . . . , an , b0 , b1 , . . . , bm constantes conocidas.


n
! n
X X
E a0 + ai · Xi = a0 + ai · E(Xi ).
i=1 i=1
n m
! n X
m
X X X
Cov a0 + ai · Xi , b0 + bj · Y j = ai · bj · Cov (Xi , Yj ).
i=1 j=1 i=1 j=1
n
! n X
n
X X
Var a0 + ai · Xi = ai · aj · Cov (Xi , Xj ).
i=1 i=1 j=1
n
! n
X X
Si X1 , . . . , Xn son variables aleatorias independientes, entonces Var a0 + ai · Xi = a2i · Var (Xi )
i=1 i=1

EYP1113 - Probabilidad y Estadı́stica ii Profesores: Ricardo Aravena


Temporada Académica de Verano (enero 2021) Ricardo Olea
Felipe Ossa
Aproximación de Momentos

Sea X una variable aleatoria e Y = g(X), la aproximación de 4to orden está dada por

(X − µX ) g 0 (µX ) (X − µX )2 g 00 (µX ) (X − µX )3 g 000 (µX ) (X − µX )4 g 0000 (µX )


Y = g(X) ≈ g(µX ) + + + +
1! 2! 3! 4!
2 2
Sean X1 , . . . , Xn variables aleatorias con valores esperados µX1 , . . . , µXn y varianzas σX 1
, . . . , σX n
e Y =
g(X1 , . . . , Xn ), la aproximación de primer orden está dada por
n
X ∂
Y ≈ g(µX1 , . . . , µXn ) + (Xi − µXi ) g(µX1 , . . . , µXn )
i=1
∂ Xi
E(Y ) ≈ g(µX1 , . . . , µXn )
n
n X  
X ∂ ∂
Var(Y ) ≈ ρij σXi σXj g(µX1 , . . . , µXn ) · g(µX1 , . . . , µXn ) , con ρij = Corr(Xi , Xj)
i=1 j=1
∂ Xi ∂ Xj

Estimador Máximo Verosı́mil

Sea X1 ,. . . ,Xn una muestra aleatoria independiente e idénticamente distribuida con función de probabilidad pX o de
densidad fX , determinada por un parámetro θ. Si θ̂ es el estimador máximo verosı́mil del parámetro θ, entonces:
E(θ̂) → θ, cuando n → ∞.
 2 
1 ∂
Var(θ̂) = , con In (θ) = −E ln L(θ) .
In (θ) ∂ θ2
p ·
In (θ)(θ̂ − θ) ∼ Normal (0, 1), cuando n → ∞.
2
[g 0 (θ)]
El estimador máximo verosı́mil de g(θ) es g(θ̂), cuya varianza está dada por: Var[g(θ̂)] = .
In (θ)

Error Cuadrático Medio

El error cuadrático medio de un estimador θ̂ de θ se define como:


 2 
ECM(θ̂) = E θ̂ − θ = Var(θ̂) + Sesgo2

Distribuciones Muestrales

Sean X1 ,. . . ,Xn variables aleatorias independientes e idénticamente distribuidas Normal(µ, σ), entonces

Xn − µ Xn − µ s2 (n − 1)
√ ∼ Normal(0, 1), √ ∼ t-student(n − 1), ∼ χ2 (n − 1)
σ/ n s/ n σ2
n
1 X
con s2 = (Xi − X n )2 .
n − 1 i=1

Potencia

Sean X1 ,. . . ,Xn variables aleatorias independientes e idénticamente distribuidas Normal(µ, σ), entonces para H0 :
µ = µ0 y σ conocido:
 √   √   √   √ 
n n n n
1 − Φ k1−α/2 − ∆ + Φ kα/2 − ∆ , 1 − Φ k1−α − ∆ , Φ kα − ∆
σ σ σ σ

EYP1113 - Probabilidad y Estadı́stica iii Profesores: Ricardo Aravena


Temporada Académica de Verano (enero 2021) Ricardo Olea
Felipe Ossa
Comparación de Poblaciones

Sean X1 , . . . , Xn e Y1 , . . . , Ym dos muestras aleatorias independientes con distribución Normal(µX , σX ) y Normal(µY , σY )


respectivamente. Con medias y varianzas muestrales dadas por:
n m
1X 1 X
Xn = Xi Ym = Yj
n i=1 m j=1
n m
2 1 X 1 X
SX = (Xi − X n )2 SY2 = (Yj − Y m )2
n − 1 i=1 m − 1 j=1
Entonces
Si σX y σY son conocidos:
(X n − Y m ) − (µX − µY )
q
2 2
∼ Normal(0, 1)
σX σY
n
+ m

Si σX y σY son desconocidos pero iguales:


(X n − Y m ) − (µX − µY )
q ∼ t − Student(n + m − 2)
Sp n1 + m 1

2
(n − 1) SX + (m − 1) SY2
con Sp2 =
n+m−2
Si σX y σY son desconocidos:
(X n − Y m ) − (µX − µY )
q
2 2
∼ t − Student(ν)
SX SY
n
+ m
con 
2
2 
SX /n + SY2 /m
ν= 2 
(SX /n)2 (SY2 /m)2
n−1
+ m−1

Si µX y µY son desconocidos:
2 2
 
(n − 1) SX /σX /(n − 1) S 2 σY2
2 2
= X · 2 ∼ F (n − 1, m − 1)
[(m − 1) SY /σY ] /(m − 1) SY2 σX
Sean X1 , . . . , Xn e Y1 , . . . , Ym dos muestras aleatorias independientes con distribución Bernoulli(pX ) y Bernoulli(pY )
respectivamente, entonces
(X n − Y m ) − (pX − pY ) aprox (X n − Y m ) − (pX − pY ) aprox
q ∼ Normal(0, 1) y q ∼ Normal(0, 1)
pX (1−pX )
n
+ pY (1−p
m
Y) X n (1−X n )
n
+ Y m (1−Y
m
m)

Sean X1 , . . . , Xn e Y1 , . . . , Ym dos muestras aleatorias independientes con distribución Poisson(λX ) y Poisson(λY )


respectivamente, entonces
(X n − Y m ) − (λX − λY ) aprox (X n − Y m ) − (λX − λY ) aprox
q ∼ Normal(0, 1) y q ∼ Normal(0, 1)
λX
n
+ λmY Xn
n
+ Ymm

Sean X1 , . . . , Xn e Y1 , . . . , Ym dos muestras aleatorias independientes con distribución Exponencial(νX ) y Exponencil(νY )


respectivamente, entonces
   
(X n − Y m ) − ν1X − ν1Y aprox (X n − Y m ) − ν1X − ν1Y aprox
q ∼ Normal(0, 1) y q 2 2
∼ Normal(0, 1)
1 1
2 + m ν2
Xn Ym
n νX Y n
+ m

Bondad de Ajuste
k
X (Oi − Ei )2
X2 = ∼ χ2 (k − 1 − ν)
i=1
Ei

con ν igual al número de estadı́sticos muestrales utilizados para estimar los parámetros del modelo ajustado.

EYP1113 - Probabilidad y Estadı́stica iv Profesores: Ricardo Aravena


Temporada Académica de Verano (enero 2021) Ricardo Olea
Felipe Ossa
Regresión Lineal Simple

Para el modelo de regresión lineal simple y 0 = ŷ = α + β x, se tiene que


n
X
(xi − x)(yi − y) n
s2Y |x 1 X
(yi − yi0 )2
i=1
α̂ = y − β̂ x, β̂ = n , r2 = 1 − , s2Y |x =
X s2Y n − 2 i=1
(xi − x)2
i=1

2
v
sX (n − 2) sY |x u1 (xi − x)2
u
ρ̂ = β̂ , ρ̂2 = 1 − , hµY i
|xi 1−α = y i ± t (1−α/2), n−2 · sY |x u + n
sY (n − 1) s2Y un X
t (xj − x)2
j=1

Regresión Lineal Múltiple

SCT = SCR + SCE


n
X n
X n
X
(yi − y)2 = (ŷi − y)2 + (yi − ŷi )2
i=1 i=1 i=1

SCR SCE (n − k − 1) s2Y | x (n − 1) SCE s2Y | x


R2 = =1− =1− , r2 = 1 − =1− 2
SCT SCT (n − 1) s2Y (n − k − 1) SCT sY
bj − βj SCR/k
Tbj = ∼ t-Student(n − k − 1), F = ∼ F (k, n − k − 1)
sbj SCE/(n − k − 1)
q
con k regresores en el modelo, bj estimador de βj y sbj = \j ).
Var(b

SCE(r) − SCE /r
F = ∼ F (r, n − (k + r) − 1)
SCE/(n − (k + r) − 1)
con SCE(r) y SCE son suma de errores al cuadrado de dos modelos anidados en k regresores comunes.

Modelos de probabilidad en R:

En general para cierta distribución DISTR existen las siguientes funciones:

dDISTR(x,...) entrega P (X = x).


pDISTR(q,...) entrega P (X ≤ q).
qDISTR(p,...) entrega el valor de x tal que P (X ≤ x) = p.
rDISTR(n,...) genera una muestra proveniente de un modelo de distribución.
Binomial: binom(,size=n,prob=p)
Geométrica: geom(x = x − 1,prob=p)
Binomial-Negativa: nbinom(x=x − r, size=r, prob=p)
Poisson: pois(,lambda=λ)
Uniforme: unif(,min=a,max=b)
Normal: norm(,mean=µ,sd=σ)
Log-Normal: lnorm(,meanlog=λ,sdlog=ζ)
Exponencial: exp(,rate=ν)
Gamma: gamma(,shape=k, rate=ν)
Chi Cuadrado: chisq(,df=η)
t-Student: t(,df=ν)
Fisher: f(,df1=η,df2=ν)

EYP1113 - Probabilidad y Estadı́stica v Profesores: Ricardo Aravena


Temporada Académica de Verano (enero 2021) Ricardo Olea
Felipe Ossa
Hipergeométrica: hyper(, m=m, n=N − m, k=n)
Weibull: weibull(, shape=β, scale=η)
Logı́stica: logis(, location=µ, scale=σ)
   
Log-Logı́stica: plogis log(x)−µ
σ
, location = 0, scale = 1 , dlogis log(x)−µ
σ
, location = 0, scale = 1 /(xσ)
  
x−a
Beta: pbeta b−a
, shape1 = q, shape2 = r

Estadı́stica descriptiva en R:
Media: mean()
Moda: mlv() del paquete "modeest"
Varianza: var()
Desviación estándar: sd()
Resumen de vector numérico: summary()
Cuantiles: quantile()
Mı́nimo: min()
Máximo: max()
Rango: max()-min()
Rango intercuartil: IQR()
Mediana: median()
Coeficiente de variación: sd()/mean()
Coeficiente de asimetrı́a: skewness() del paquete "moments"
Coeficiente de kurtosis: kurtosis()-3 del paquete "moments"

Estimación y Prueba de Hipótesis:


Estimación de Momentos: fitdist(..., method = "mme", ...) de library(fitdistrplus)
Estimación Máximo Verosı́mil: fitdistr() de library(MASS) y fitdist(..., method = "mle", ...) de
library(fitdistrplus)
Test para µ con σ conocido (bajo Normalidad): [Link](). (library(TeachingDemos))
Test para µ con σ desconocido (bajo Normalidad): [Link]().
Test para σ con µ desconocido (bajo Normalidad): [Link](). (library(TeachingDemos))
Test para comparación de varianzas: [Link]().
Test para comparación de medias: [Link]().
Test aproximado para θ (bajo cualquier distribución): [Link](). (library(TeachingDemos))
Test aproximado para p (bajo Bernoulli): [Link](..., correct = F).

Bondad de Ajuste:
Test KS: [Link]().
Test χ2 : [Link]().
Test Shapiro (Normalidad): [Link]().

Regresión lineal:
Regresión lineal: lm().
Tabla ANOVA: aov().
Tabla ANOVA: anova(). (equivalente a summary de aov)

EYP1113 - Probabilidad y Estadı́stica vi Profesores: Ricardo Aravena


Temporada Académica de Verano (enero 2021) Ricardo Olea
Felipe Ossa
Temporada Académica de Verano (enero 2021)
EYP1113 - Probabilidad y Estadı́stica

Distribución Densidad de Probabilidad ΘX Parámetros Esperanza y Varianza

n
x n−x
Binomial p (1 − p) x = 0, . . . , n n, p µX = n p
x
σX2 = n p (1 − p)
M (t) = [p et + (1 − p)]n , t ∈ R

x−1
Geométrica p (1 − p) x = 1, 2, . . . p µX = 1/p
2 = (1 − p)/p2
σX
M (t) = p e /[1 − (1 − p) et ],
t t < − ln(1 − p)

 x − 1
r x−r
Binomial-Negativa p (1 − p) x = r, r + 1, . . . r, p µX = r/p
r−1
2 = r (1 − p)/p2
σX
n or
M (t) = p et /[1 − (1 − p) et ] , t < − ln(1 − p)

(ν t)x e−ν t
Poisson x = 0, 1, . . . ν µX = ν t
x!
σ2 = ν t
h X i
M (t) = exp λ et − 1 , t ∈ R

−ν x
Exponencial νe x ≥ 0 ν µX = 1/ν
σX2 = 1/ν 2
M (t) = ν/(ν − t), t < ν

νk k−1 −ν x
Gamma x e x ≥ 0 k, ν µX = k/ν
vii

Γ(k)
2 = k/ν 2
σX
M (t) = [ν/(ν − t)]k , t < ν

" !2 #
1 1 x−µ
Normal √ exp − −∞ < x < ∞ µ, σ µX = µ
2πσ 2 σ
σX2 = σ2
M (t) = exp(µ t + σ 2 t2 /2), t ∈ R

" !2 # 
1 1 ln x − λ 1 2
Log-Normal √ exp − x ≥ 0 λ, ζ µX = exp λ+ ζ
2 π (ζ x) 2 ζ  22 
2 2 ζ
σX = µ X e −1

E(X r ) = er λ MZ (r ζ), con Z ∼Normal(0,1)

1
Uniforme a ≤ x ≤ b a, b µX = (a + b)/2
(b − a)
σX2 = (b − a)2 /12
Profesores: Ricardo Aravena

M (t) = [et b − et a ]/[t (b − a)], t ∈ R

1 (x − a)q−1 (b − x)r−1 q
Beta a ≤ x ≤ b q, r µX = a + (b − a)
B(q, r) (b − a)q+r−1 q+r
2 = q r (b−a)2
σX
(q+r)2 (q+r+1)
Ricardo Olea

  
Felipe Ossa

m N −m
x n−x
Hipergeométrica   máx{0, n + m − N } ≤ x ≤ mı́n{n, m} N, m, n µX = n m
N N
n    
2 =
σX N −n n m 1− m
N −1 N N
Otras distribuciones

Si T ∼ Weibull(η, β), se tiene que


"  β #  β−1 "   #
t β t t β
FT (t) = 1 − exp − fT (t) = exp − , t>0
η η η η

Con β > 0, es un parámetro de forma y η > 0, es un parámetro de escala. Si tp es el percentil p × 100 %,


entonces
1
ln(tp ) = ln(η) + · Φ−1
Weibull (p), Φ−1
Weibull (p) = ln[− ln(1 − p)]
β
Mientras que su m-ésimo momento está dado por
m m
E(T ) = η Γ(1 + m/β)
      
1 2 2 2 2 1
µT = ηΓ 1+ , σT = η Γ 1+ −Γ 1+
β β β

Si Y ∼ Logı́stica(µ, σ), se tiene que


   
y−µ 1 y−µ
FY (y) = ΦLogı́stica ; fY (y) = φLogı́stica , −∞ < y < ∞
σ σ σ

donde
exp(z) exp(z)
ΦLogı́stica (z) = y φLogı́stica (z) =
[1 + exp(z)] [1 + exp(z)]2
son la función de probabilidad y de densidad de una Logı́stica Estándar. µ ∈ R, es un parámetro de localización
y σ > 0, es un parámetro de escala. Si yp es el percentil p × 100 %, entonces
 
p
yp = µ + σ Φ−1
Logı́stica (p) con Φ −1
Logı́stica (p) = log
1−p
σ2 π2
Su esperanza y varianza están dadas por: µY = µ y σY2 = 3
.

Si T ∼ Log-Logı́stica(µ, σ), se tiene que


   
ln(t) − µ 1 ln(t) − µ
FT (t) = ΦLogı́stica ; fT (t) = φLogı́stica t>0
σ σt σ

Donde exp(µ), es un parámetro de escala y σ > 0, es un parámetro de forma. Si tp es el percentil p × 100 %,


entonces
ln(tp ) = µ + σ Φ−1
Logı́stica (p)

Para un entero m > 0 se tiene que


E(T m ) = exp(m µ) Γ(1 + m σ) Γ(1 − m σ)
El m-ésimo momento no es finito si m σ ≥ 1.

Para σ < 1: µT = exp(µ) Γ(1 + σ) Γ(1 − σ)

y para σ < 1/2: σT2 = exp(2 µ) Γ(1 + 2 σ) Γ(1 − 2 σ) − Γ2 (1 + σ) Γ2 (1 − σ)


 

Un variable aleatoria T tiene distribución t-student(ν) si su función de densidad está dada por:
−(ν+1)/2
t2

Γ[(ν + 1)/2]
fT (t) = √ 1+ , −∞ < t < ∞
π ν Γ(ν/2) ν
• µT = 0, para ν > 1.
• σT2 = ν
ν−2
, para µ > 2.
Si T ∼ Fisher(η, ν), se tiene que
η
Γ( η+ν
2
) η η
2 t 2 −1
fT (t) =  η+ν , t>0
Γ(η/2)Γ(ν/2) ν η
t+1 2
ν
ν
• µT = ν−2
, para ν > 2.
2 ν 2 (η+ν−2)
• σT2 = η (ν−2)2 (ν−4)
, para ν > 4.

EYP1113 - Probabilidad y Estadı́stica viii Profesores: Ricardo Aravena


Temporada Académica de Verano (enero 2021) Ricardo Olea
Felipe Ossa

También podría gustarte