Formulario Final PDF
Formulario Final PDF
def
Notación: lj−1 − lj ≡ (lj−1 , lj ]
√
n si n no es muy grande
Número de intervalos k ≈
1 + 3,22 log(n) en otro caso
Amplitud total A = lk − l0 donde l0 = xmin , l1 = l0 + a, . . . , lk = xmax = l0 + ka, y
Media
1
• Si los datos son continuos y están ordenados en una tabla,
k k
1 1X X
x= (c1 n1 + · · · + ck nk ) = ci ni = ci fi
n n
i=1 i=1
Mediana M ed, es la observación que queda en el centro de todas las observaciones (cuando
éstas han sido ordenadas de menor a mayor), si n es el número de observaciones, la mediana
corresponderá
• a la observación que ocupa la posición [n/2] + 1 (donde [·] es la parte entera de un número),
si el número de datos es impar, y
• a la semisuma de los valores que ocupan las posiciones n/2 y n/2 + 1, si el número de datos
es par.
• si los datos se presentan agrupados en una tabla, será el será el valor cuya frecuencia
acumulada sea igual a n/2 si existe, o el primer xi cuya frecuencia acumulada supere el
valor n/2.
Percentil de orden p es el valor de los datos que deja a su izquierda el 100 · p % de los datos
y a su derecha el 100 · (1 − p) %.
Tipificación Es el proceso de restar la media y dividir entre su desviación tı́pica a una variable
X, z = X−x
s .
σ
Coeficiente de Variación CV = x · 100.
1
i=1 (xi −x)
Pn
3 P
Coeficiente de asimetrı́a γ1 = m
=
√3
m2 m2 σ 3
n
donde µp = n1 ni=1 xpi , es el momento
P
de orden p y mp = n1 ni=1 (xi − x) , es el momento central de orden p.
p
m4
Coeficiente de curtosis o apuntamiento γ2 = σ4
− 3, donde m4 es el momento central de
cuarto orden.
2
TEMA 2
Frecuencia absoluta del par (xi , yj ), nij , número de observaciones que poseen la modalidad
xi de X e yj de Y al mismo tiempo.
nij
Frecuencia relativa del par (xi , yj ), fij = n
X \Y y1 y2 ··· yl
x1 n11 n12 ··· n1l n1.
x2 n21 n22 ··· n2l n2.
.. .. .. .. .. ..
. . . . . .
xk nk1 nk2 ··· nkl nk.
n,1 n,2 ··· n.l n
Observación Las frecuencias absolutas marginales corresponden a los valores suma de las dis-
tintas filas (ni. ) y columnas (n.j ) en la tabla de doble entrada.
ni. n.j
Frecuencias Relativas Marginales de X = xi e Y = yj fi. = n y f.j = n
respectivamente.
Observación
k
X l
X k X
X l
ni. = n.j = nij = n
i=1 j=1 i=1 j=1
k
X l
X k X
X l
fi. = f.j = fij = 1
i=1 j=1 i=1 j=1
Distribuciones Marginales de X y de Y
X ni. fi.
x1 n1. f1.
x2 n2. f2.
.. .. ..
. . .
xk nk. fk.
n 1
Y y1 y2 ··· yl
n.i n,1 n,2 ··· n.l n
f.i f,1 f,2 ··· f.l 1
3
Distribuciones Condicionadas
Y |X = xi y1 y2 ··· yl
nij ni1 ni2 ··· nil ni.
X|Y = yj nij
x1 n1j
x2 n2j
.. ..
. .
xk nkj
n.j
Observación Dos variables X e Y son estadı́sticamente independientes si y solo si fij = fi. f.j
1 Pn
Covarianza sxy = n i=1 (xi − x̄)(yi − ȳ)
1 Pn 1 Pn
Observación sxy = n i=1 (xi − x̄)(yi − ȳ) = n i=1 xi yi − ȳx̄
1 Pn
Observación ¯ = n i=1 i =0
Pn Pn
Varianza Residual s2 = 1
n
2
i=1 i = 1
n i=1 (yi − (a + bxi ))2
sy
Observación b = sx rxy
sxy
Y = a + bX con b = s2x
y a = ȳ − bx̄.
sxy
X = c + dY con d = s2y
, c = x̄ − dȳ.
2 y b s2x
Observación b · d = rxy d = s2y
4
TEMA 3
Leyes de DeMorgan A ∪ B = A ∩ B y A ∩ B = A ∪ B
Definición de Probabilidad
Axioma 2 P (E) = 1
Axioma 3 !
∞
[ ∞
X
A1 , . . . , A n , . . . ∈ A
=⇒ P Ai = P (Ai )
Ai ∩ Aj = ∅
i=1 i=1
Probabilidades como grado de confianza Medida del grado de creencia que tiene una
persona dada en un momento dado sobre la ocurrencia del suceso.
P (A∩B)
Probabilidad condicionada P (A|B) = P (B) .
Proposición
5
TEMA 4
f: N −→ [0, 1]
xi −→ f (xi ) = P (X = xi ) = P ({e, tal que X(e) = xi })
Propiedades:
1. f (xi ) ≥ 0 ∀i = 1, . . . , k
2.
k
X k
X
f (xi ) = P (X = xi ) = 1
i=1 i=1
F : N −→ [0, 1]
xi −→ F (xi ) = P (X ≤ xi ) = P ({e, tal que X(e) ≤ xi })
• f (x) ≥ 0
R +∞
• −∞ f (x)dx = 1
Rb
• Dados a < b, P (a ≤ X ≤ b) = a f (x)dx.
• F. de distribución de una v.a. continua,
Z x
F (x) = P (X ≤ x) = f (t)dt.
−∞
6
• Transformación de una variable aleatoria Dada una v.a. X se puede definir la trans-
formación g (X) y calcular su esperanza definida mediante
R∞
−∞ g (x) f (x) dx en el caso continuo
E [g (X)] =
P
i g (xi ) f (xi ) en el caso discreto
Análogamente, se define
h i
V ar [g (X)] = E {g (X) − E [g (X)]}2
es decir,
Cov (X1 , X2 ) = E [(X1 − µ1 ) (X2 − µ2 )]
• Observación: En el caso de independencia se tiene
Cov (X1 , X2 ) = 0.
• Observación:
7
Cálculo Probabilidades Normales a partir de la Tabla de la N (0, 1):
Para valores negativos:
Φ (−z) = 1 − Φ (z)
X−µ
Para v.a. normales no estándar, usamos que si X ∼ N (µ, σ), entonces Z = σ ∼ N (0, 1)
E(Y ) = a1 µ1 + . . . + an µn
y
V ar(Y ) = a21 σ12 + . . . + a2n σn2
Y = X1 + . . . + Xn
P P
es aproximadamente normal N ( µi , σi2 ). O equivalentemente, la distribución de
P
Y − µi
qP
σi2
8
Dist. f (x) F (x) E(X) V ar(X)
Bernoulli P (X = 1) = p
F (x) = p
Ber(p)
1 − p si 0 ≤ x < 1 p(1 − p)
P (X = 0) = 1 − p
0 si x < 0
1 si x ≥ 1
Binomial
P (X = x) = x – np
Bin(n, p)
px (1 − p)n−x , x = 1, 2, ..., n np(1 − p)
$n%
Geométrica 1 1
–
Ge(p) p p2
P (X = x) = p(1 − p)x−1 , x = 1, 2, ..., ∞
Poisson e−λ λx
P (X = x) = – λ λ
9
3
P oiss(λ) x!
, x = 0, 1, 2, ..., ∞
Uniforme 1 a+b
x≤a
x−a
f (x) = ,a < x < b F (x) = a<x<b
(b − a)2
U (a, b) b−a
2 12
1
b−a
0
x≥b
Γ (α + β) α−1
f (x) = x α αβ
Beta
(1 − x)β−1 , 0 < x < 1
∞ –
Be(α, β) α+β (α + β)2 (α + β + 1)
donde Γ(α) = xα−1 e−x dx
0
Γ (α) Γ&(β)
Exponencial 1 1
f (x) = αe−αx , x >0 F (x) =
0 x≤0
Exp(α) α α2
'
Normal
(x − µ)2
1 −
– µ σ2
N (µ, σ) f (x) = √ e 2σ 2 , −∞ < x < ∞
2πσ 2
10
11
12
1
Observación: Fn1 ,n2 ,α = Fn2 ,n1 ,1−α
13
1
Observación: Fn1 ,n2 ,α = Fn2 ,n1 ,1−α
14
1
Observación: Fn1 ,n2 ,α = Fn2 ,n1 ,1−α
15
Caso Intervalo de Confianza Contraste de Hipótesis Estadístico del Contraste Región de rechazo
c
H0 : µ = µ0 ; H1 : µ ≠ µ0 {z > zα 2 }
Para µ de N µ ,σ 2 , ( ) σ zc =
x − µ0
∼ N 0,1
1 x ± zα 2 H0 : µ ≤ µ0 ; H1 : µ > µ0 σ n
( ) {zc > zα }
σ 2 conocida n
H0 : µ ≥ µ0 ; H1 : µ < µ0 {zc < − zα }
c 2
H0 : µ = µ0 ; H1 : µ ≠ µ0 {t > tn−1,α }
2 s x − µ0
Para µ de N µ ,σ , ( ) tc = ∼ tn−1
2 x ± tn−1,α 2 H0 : µ ≤ µ0 ; H1 : µ > µ0 c
{t > t α } n−1,
σ 2 desconocida n s n
H0 : µ ≥ µ0 ; H1 : µ < µ0 c
{t < −t α } n−1,
c
H0 : µ = µ0 ; H1 : µ ≠ µ0 {z > zα 2 }
Para µ caso general, s x − µ0
3 n grande
x ± zα 2 H0 : µ ≤ µ0 ; H1 : µ > µ0 zc = ∼ N 0,1 ( ) {zc > zα }
n s n
H0 : µ ≥ µ0 ; H1 : µ < µ0 {zc < − zα }
c
16
H0 : p = p0 ; H1 : p ≠ p0 {z > zα 2 }
Para una proporción,
p̂(1− p̂) 0
p, caso general =
zc
( p̂ − p ) ∼ N
4 p̂ ± zα 2 H0 : p ≤ p0 ; H1 : p > p0 (0,1) {zc > zα }
(n grande) n p̂q̂ n
H0 : p ≥ p0 ; H1 : p < p0 {zc < − zα }
2 2 2 #
H0 : σ 2 = σ 02 ; H1 : σ 2 ≠ σ 02 {χ c
∉ !" χ n−1,1−α 2
,χ n−1,α 2 $ }
" n −1 s 2 n −1 s 2 % 2
$( ) ( ' ) ( n −1 s ) 2 2 2
5 Para σ 2 de N µ ,σ 2 ( ) , 2 H0 : σ 2 ≤ σ 02 ; H1 : σ 2 > σ 02 χ c2 = ∼ χ n−1 c
{χ > χ } n−1,α
$ χ2 χ ' σ 02
# n−1,α /2 n−1,1−α /2 &
2 2
H0 : σ 2 ≥ σ 02 ; H1 : σ 2 < σ 02 c
{χ < χ } n−1,1−α
2 2
Nota: 2 1
(n −1) s + (n −1) s 1 2 2
s p
=
n1 + n2 − 2
2
2
1
(s / n1 + s22 / n2 )
f = 2 2
Se elige el entero más próximo a esta cantidad.
2
1
(s / n1 / (n1 −1) + s22 / n2
) ( ) / (n2 −1)
Estadístico del
Caso Intervalo de Confianza Contraste de Hipótesis Región de rechazo
Contraste
Para µ − µ
1 2
c
H0 : µ1 − µ2 = d 0 ; H1 : µ1 − µ2 ≠ d0 {z > zα 2 }
de N µ ,σ 2 y
1 (1 ) 1
(x − x ) − d 2 0
6 σ 12 n1 + σ 22 n2 H0 : µ1 − µ2 ≤ d 0 ; H1 : µ1 − µ2 > d0 zc = ∼ N 0,1 ( ) {zc > zα }
(x − y) ± z α 2
2 2 2 σ 12 n1 + σ 22 n2
1 2
N µ 2 ,σ
( 2 ) σ ,σ
conocidas
H0 : µ1 − µ2 ≥ d 0 ; H1 : µ1 − µ2 < d0 {zc < − zα }
Para µ − µ de
1 2 H0 : µ1 − µ2 = d 0 ; H1 : µ1 − µ2 ≠ d0 c
{t > t n1+n2 −2,α 2 }
N µ1 ,σ 12 y
( ) H0 : µ1 − µ2 ≤ d 0 ; H1 : µ1 − µ2 > d0 1
(x − x ) − d 2 0 {t > t c n1+n2 −2,α }
7 2 2 2 ( x − y ) ± t( n1+n2 −2 ,α 2 p
)
s 1 n1 +1 n2 tc = ∼ tn +n −2
1 2
2 2 1 2
N ( µ ,σ ) , σ ,σ s p ⋅ 1 n1 +1 n2
desconocidas, H0 : µ1 − µ2 ≥ d 0 ; H1 : µ1 − µ2 < d0 {t c
< −tn +n −2,α
1 2
}
σ 12 = σ 22
Para µ − µ de
1 2
c 2
H0 : µ1 − µ2 = d 0 ; H1 : µ1 − µ2 ≠ d0 {t > t f ,α }
N µ1 ,σ 12 y
( ) H0 : µ1 − µ2 ≤ d 0 ; H1 : µ1 − µ2 > d0 1 2 0 {t c
(x − x ) − d > t f ,α }
8 2 2 2
tc = ∼ tf
17
(x − y) ± t f ,α 2
s12 n1 + s22 n2 2 2
2 2 1 2
N ( µ ,σ ) , σ ,σ s n1 + s n2
1 2
desconocidas, H0 : µ1 − µ2 ≥ d 0 ; H1 : µ1 − µ2 < d0 {t c
< −t f ,α }
σ 12 ≠ σ 22
c
H0 : µ1 − µ2 = d 0 ; H1 : µ1 − µ2 ≠ d0 {z > zα 2 }
Para µ − µ caso
1 2 1
(x − x ) − d 2 0
2 2 zc = ∼ N 0,1
9 general (n1 y n2 (x − y) ± z α 2
s n1 + s n2
1 2 H0 : µ1 − µ2 ≤ d 0 ; H1 : µ1 − µ2 > d0 ( ) {zc > zα }
s12 n1 + s22 n2
grandes)
H0 : µ1 − µ2 ≥ d 0 ; H1 : µ1 − µ2 < d0 {zc < − zα }
H 0 : p1 − p2 = p0 ; H1 : p1 − p2 ≠ p0 {z c
> zα 2 }
Para p − p caso
1 2 1 2
( p̂ − p̂ ) − p 0
10 general (n1 y n2 1 2
( p̂ − p̂ ) ± z α /2
p̂1q̂1 n1 + p̂2 q̂2 n2 H 0 : p1 − p2 ≤ p0 ; H1 : p1 − p2 > p0 zc = ∼ N 0,1 ( ) {zc > zα }
grandes) p̂1q̂1 n1 + p̂2 q̂2 n2
H 0 : p1 − p2 ≥ p0 ; H1 : p1 − p2 < p0 {zc < − zα }
H 0 : σ 12 = σ 22 ; H1 : σ 12 ≠ σ 22 c 1 2 1 2
Para σ 2 σ 2 {F ∉ !" Fn −1,n −1,1−α 2 , Fn −1,n −1,α 2 #$ }
1 2 " s2 / s2 s2 % 2
de N µ ,σ 2 y ' s 1
1 1
11 ( ) $ 1 2 , 1 F H 0 : σ 12 ≤ σ 22 ; H1 : σ 12 > σ 22 Fc = ∼ Fn −1,n −1 {F > F c n1−1,n2 −1,α }
$F 2 n2 −1,n1−1,α /2 ' 2 1 2
2
s
# n1−1,n2 −1,α /2 2 & s 2
N µ 2 ,σ 2
c
( ) H 0 : σ 12 ≥ σ 22 ; H1 : σ 12 < σ 22 {F < F n1−1,n2 −1,1−α }