0% encontró este documento útil (0 votos)
55 vistas17 páginas

Formulario Final PDF

El documento aborda la distribución de frecuencias para variables discretas y continuas, incluyendo fórmulas para calcular frecuencias absolutas, relativas y acumuladas. También se discuten conceptos estadísticos como media, mediana, moda, percentiles, cuartiles, varianza y desviación típica, así como la covarianza y el coeficiente de correlación. Finalmente, se presentan leyes de probabilidad, incluyendo axiomas, teoremas de probabilidad compuesta y total, y conceptos de variables aleatorias discretas y continuas.

Cargado por

pepe
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
55 vistas17 páginas

Formulario Final PDF

El documento aborda la distribución de frecuencias para variables discretas y continuas, incluyendo fórmulas para calcular frecuencias absolutas, relativas y acumuladas. También se discuten conceptos estadísticos como media, mediana, moda, percentiles, cuartiles, varianza y desviación típica, así como la covarianza y el coeficiente de correlación. Finalmente, se presentan leyes de probabilidad, incluyendo axiomas, teoremas de probabilidad compuesta y total, y conceptos de variables aleatorias discretas y continuas.

Cargado por

pepe
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

TEMA 1

Distribución de Frecuencias: Variables discretas

Mod. F. Abs. F. Rel. F. Abs. Acum. F. Rel. Acum


C ni fi Ni Fi
c1 n1 f1 = n1 /n N1 = n1 F1 = N1 /n = f1
··· ··· ··· ··· ···
cj nj fj = nj /n Nj = n1 + . . . + nj Fj = Nj /n = f1 + . . . + fj
··· ··· ··· ··· ···
ck nk fk = nk /n Nk = n Fk = 1
n 1

Distribución de Frecuencias: Variables continuas

M. clase F. Abs. F. Rel. F. Abs. Ac. F. Rel. Ac.


C ni fi Ni Fi
l0 − l1 c1 n1 f1 = n1 /n N1 = n1 F1 = f1
... ... ... ... ... ...
lj−1 − lj cj nj fj = nj /n Nj = Nj−1 + nj Fj = Fj−1 + fj
... ... ... ... ... ...
lk−1 − lk ck nk fk = nk /n Nk = n Fk = 1
n 1

def
Notación: lj−1 − lj ≡ (lj−1 , lj ]
 √
 n si n no es muy grande
Número de intervalos k ≈

1 + 3,22 log(n) en otro caso
Amplitud total A = lk − l0 donde l0 = xmin , l1 = l0 + a, . . . , lk = xmax = l0 + ka, y

Amplitud de cada intervalo: ai = a = A/k


li +li−1
Marca de clase: ci = 2 .

Media

• Si los datos no están ordenados en una tabla,


n
x1 + · · · + xn 1X
x= = xi
n n
i=1

• Si los datos son discretos y están ordenados en una tabla,


k k
1 1X X
x= (x1 n1 + · · · + xk nk ) = xi ni = xi fi
n n
i=1 i=1

1
• Si los datos son continuos y están ordenados en una tabla,
k k
1 1X X
x= (c1 n1 + · · · + ck nk ) = ci ni = ci fi
n n
i=1 i=1

Linealidad de la media Si Y = a + bX entonces la media de Y es y = a + bx,

Mediana M ed, es la observación que queda en el centro de todas las observaciones (cuando
éstas han sido ordenadas de menor a mayor), si n es el número de observaciones, la mediana
corresponderá

• a la observación que ocupa la posición [n/2] + 1 (donde [·] es la parte entera de un número),
si el número de datos es impar, y
• a la semisuma de los valores que ocupan las posiciones n/2 y n/2 + 1, si el número de datos
es par.
• si los datos se presentan agrupados en una tabla, será el será el valor cuya frecuencia
acumulada sea igual a n/2 si existe, o el primer xi cuya frecuencia acumulada supere el
valor n/2.

Moda Es el valor de la variable que se repite con mayor frecuencia.

Percentil de orden p es el valor de los datos que deja a su izquierda el 100 · p % de los datos
y a su derecha el 100 · (1 − p) %.

Cuartiles: Primer Cuartil: Q1 = P25 . Tercer Cuartil: Q3 = P75 .

Rango R = max{x1 , . . . , xn } − min{x1 , . . . , xn }


P
Desviación media Dm = n1 ni=1 |xi − x| .

Recorrido Intercuartı́lico IQR = Q3 − Q1


P
Varianza s2 = n1 ni=1 (xi − x)2 .
P
Notación E(X 2 ) = n1 ni=1 x2i .
P P
Observación s2 = n1 ni=1 (xi − x)2 = n1 ni=1 x2i − x2 = E(X 2 ) − x2 .

Desviación Tı́pica s = + s2
1 Pn 2 n·s2
Cuasi-varianza s2c = n−1 i=1 (xi − x) = n−1 .

Tipificación Es el proceso de restar la media y dividir entre su desviación tı́pica a una variable
X, z = X−x
s .
σ
Coeficiente de Variación CV = x · 100.
1
i=1 (xi −x)
Pn
3 P
Coeficiente de asimetrı́a γ1 = m
=
√3
m2 m2 σ 3
n
donde µp = n1 ni=1 xpi , es el momento
P
de orden p y mp = n1 ni=1 (xi − x) , es el momento central de orden p.
p

m4
Coeficiente de curtosis o apuntamiento γ2 = σ4
− 3, donde m4 es el momento central de
cuarto orden.

2
TEMA 2

Frecuencia Total n, es el número total de individuos observados.

Frecuencia absoluta del par (xi , yj ), nij , número de observaciones que poseen la modalidad
xi de X e yj de Y al mismo tiempo.
nij
Frecuencia relativa del par (xi , yj ), fij = n

Distribución Conjunta de Frecuencias de dos variables X e Y

X \Y y1 y2 ··· yl
x1 n11 n12 ··· n1l n1.
x2 n21 n22 ··· n2l n2.
.. .. .. .. .. ..
. . . . . .
xk nk1 nk2 ··· nkl nk.
n,1 n,2 ··· n.l n

Frecuencias Absolutas Marginales de X = xi y de Y = yj ni. = ni1 + ni2 + . . . + nil =


Pl Pk
j=1 nij y n.j = n1j + n2j + . . . + nkj = i=1 nij respectivamente.

Observación Las frecuencias absolutas marginales corresponden a los valores suma de las dis-
tintas filas (ni. ) y columnas (n.j ) en la tabla de doble entrada.
ni. n.j
Frecuencias Relativas Marginales de X = xi e Y = yj fi. = n y f.j = n
respectivamente.

Observación
k
X l
X k X
X l
ni. = n.j = nij = n
i=1 j=1 i=1 j=1
k
X l
X k X
X l
fi. = f.j = fij = 1
i=1 j=1 i=1 j=1

Distribuciones Marginales de X y de Y

X ni. fi.
x1 n1. f1.
x2 n2. f2.
.. .. ..
. . .
xk nk. fk.
n 1

Y y1 y2 ··· yl
n.i n,1 n,2 ··· n.l n
f.i f,1 f,2 ··· f.l 1

3
Distribuciones Condicionadas

Y |X = xi y1 y2 ··· yl
nij ni1 ni2 ··· nil ni.

X|Y = yj nij
x1 n1j
x2 n2j
.. ..
. .
xk nkj
n.j

Observación Dos variables X e Y son estadı́sticamente independientes si y solo si fij = fi. f.j

1 Pn
Covarianza sxy = n i=1 (xi − x̄)(yi − ȳ)
1 Pn 1 Pn
Observación sxy = n i=1 (xi − x̄)(yi − ȳ) = n i=1 xi yi − ȳx̄

Vector de Medias (x̄, ȳ)


 
s2x sxy
Matriz de Covarianzas S =
sxy s2y
sxy
Coeficiente de Correlación Lineal rxy = sx sy

Residuos o Errores i = yi − (a + bxi )

Ajuste de la recta Y = a + bX por Mı́nimos Cuadrados


sxy
b=
s2x
a = ȳ − bx̄

1 Pn
Observación ¯ = n i=1 i =0
Pn Pn
Varianza Residual s2 = 1
n
2
i=1 i = 1
n i=1 (yi − (a + bxi ))2

Observación s2 = s2y (1 − rxy


2 )

Coeficiente de Determinación R2 = rxy


2 .

sy
Observación b = sx rxy

Dos rectas de regresión

sxy
Y = a + bX con b = s2x
y a = ȳ − bx̄.
sxy
X = c + dY con d = s2y
, c = x̄ − dȳ.

2 y b s2x
Observación b · d = rxy d = s2y

4
TEMA 3

Leyes de DeMorgan A ∪ B = A ∩ B y A ∩ B = A ∪ B
Definición de Probabilidad

Axioma 1 Dado A ⊂ E, se cumple que 0 ≤ P (A) ≤ 1

Axioma 2 P (E) = 1

Axioma 3  !

[ ∞
X
A1 , . . . , A n , . . . ∈ A
=⇒ P Ai = P (Ai )
Ai ∩ Aj = ∅
i=1 i=1

Interpretación clásica de la probabilidad Regla de Laplace:


número de casos favorables a A
P (A) = .
número de casos posibles

Interpretación frecuentista de la probabilidad Supongamos que un suceso A ocurre An


veces en n repeticiones del experimento:
An
P (A) = lı́m .
n→∞ n

Probabilidades como grado de confianza Medida del grado de creencia que tiene una
persona dada en un momento dado sobre la ocurrencia del suceso.

P (A∩B)
Probabilidad condicionada P (A|B) = P (B) .

Sucesos Independientes: A es independiente de B si y solo si P (A) = P (A|B).

Observación: A es independiente de B ⇐⇒ P (A ∩ B) = P (A)P (B).

Proposición

• P (A ∪ B) = P (A) + P (B) − P (A ∩ B).


• P (A ∩ B) = P (A)P (B|A) = P (B)P (A|B).
• P (Ac ) = 1 − P (A).
• P (Ac |B) = 1 − P (A|B).

Teorema de la Probabilidad Compuesta

P (A1 A2 . . . An ) = P (A1 )P (A2 |A1 )P (A3 |A1 A2 ) · · · P (An |A1 A2 . . . An−1 ).


Pn
Teorema de la Probabilidad total P (B) = i=1 P (B|Ai ) P (Ai ).

Teorema de Bayes P (Aj |B) = PnP (B|Aj )·P (Aj ) .


i=1 P (B|Ai )·P (Ai )

5
TEMA 4

F. de masa de Probabilidad de una v.a. discreta.

f: N −→ [0, 1]
xi −→ f (xi ) = P (X = xi ) = P ({e, tal que X(e) = xi })

Propiedades:

1. f (xi ) ≥ 0 ∀i = 1, . . . , k
2.
k
X k
X
f (xi ) = P (X = xi ) = 1
i=1 i=1

F. de Distribución de una v.a. discreta.

F : N −→ [0, 1]
xi −→ F (xi ) = P (X ≤ xi ) = P ({e, tal que X(e) ≤ xi })

F. de densidad de una v.a. continua. Es una función f : R −→ R que verifica

• f (x) ≥ 0
R +∞
• −∞ f (x)dx = 1
Rb
• Dados a < b, P (a ≤ X ≤ b) = a f (x)dx.
• F. de distribución de una v.a. continua,
Z x
F (x) = P (X ≤ x) = f (t)dt.
−∞

Mismas propiedades que en el caso discreto, además de que f (x) = F 0 (x)


• Momentos: (P
xf (x) si X es discreta
E(X) = µ = R ∞x
−∞ xf (x)dx si X es continua
(P
2 (x − µ)2 f (x) si X es discreta
V ar(X) = σ = R ∞x 2
−∞ (x − µ) f (x)dx si X es continua

Observación: V ar(X) = σ 2 = E(X 2 ) − µ2



Desviación Tı́pica= σ = + σ 2
• Desigualdad de Chebychev X v.a. con media µ y desviación tı́pica σ entonces:
1
P (|X − µ| ≥ kσ) ≤ .
k2
o equivalentemente
1
P (|X − µ| < kσ) > 1 − .
k2

6
• Transformación de una variable aleatoria Dada una v.a. X se puede definir la trans-
formación g (X) y calcular su esperanza definida mediante
 R∞
 −∞ g (x) f (x) dx en el caso continuo
E [g (X)] =
 P
i g (xi ) f (xi ) en el caso discreto
Análogamente, se define
h i
V ar [g (X)] = E {g (X) − E [g (X)]}2

• Transformación de varias variables: Las definiciones anteriores se extienden al caso


bivariante. Ası́ para Y = g (X1 , X2 ) se tiene que
 R∞ R∞
 −∞ −∞ g (x1 , x2 ) f (x1 , x2 ) dx2 dx1 , en el caso continuo
E [Y ] =
 P P
x1 x2 g (x1 , x2 ) f (x1 , x2 ) , en el caso discreto

• Covarianza Es una medida de la relación de crecimiento conjunto de dos variables y se


define como la esperanza de la transformación

g (x1 , x2 ) = (x1 − µ1 ) (x2 − µ2 )

es decir,
Cov (X1 , X2 ) = E [(X1 − µ1 ) (X2 − µ2 )]
• Observación: En el caso de independencia se tiene

Cov (X1 , X2 ) = 0.

• Observación:

E (a1 X1 + a2 X2 ) = a1 E (X1 ) + a2 E (X2 )


V ar (a1 X1 + a2 X2 ) = a21 V ar (X1 ) + a22 V ar (X2 ) + 2a1 a2 Cov (X1 , X2 ) .

• Observación: Cuando X1 , X2 son independientes resulta

V ar (a1 X1 + a2 X2 ) = a21 V ar (X1 ) + a22 V ar (X2 ) ,

resultado que se extienden facilmente al caso de n variables aleatorias.


• Observación: Sean X1 , . . . , Xn v.a. independientes con media µ y varianza σ 2 . Si definimos
1
X= (X1 + · · · + Xn )
n
entonces
!
 1X 1X 1X
E X = E Xi = E (Xi ) = µ=µ
n n n
i i i
!
 1X 1 X σ2
V ar X = V ar Xi = V ar (Xi ) =
n n2 n
i i

7
Cálculo Probabilidades Normales a partir de la Tabla de la N (0, 1):
Para valores negativos:

Φ (−z) = 1 − Φ (z)

X−µ
Para v.a. normales no estándar, usamos que si X ∼ N (µ, σ), entonces Z = σ ∼ N (0, 1)

Suma de Variables Normales


Sean X1 , X2 , . . . , Xn , v.a. normales e independientes, t.q. E(Xi ) = µi y V ar(Xi ) = σi2 , i =
1, . . . , n, Definimos
Y = a1 X1 + . . . + an Xn
donde a1 , . . . , an son constantes. Entonces Y es una variable aleatoria normal con

E(Y ) = a1 µ1 + . . . + an µn

y
V ar(Y ) = a21 σ12 + . . . + a2n σn2

Teorema Central del Lı́mite


Sean X1 , X2 , . . . , Xn , variables independientes, con medias y varianzas E(Xi ) = µi y V ar(Xi ) =
σi2 , i = 1, . . . , n, respectivamente. Entonces cuando n crece, la distribución de la variable

Y = X1 + . . . + Xn
P P
es aproximadamente normal N ( µi , σi2 ). O equivalentemente, la distribución de
P
Y − µi
qP
σi2

es aproximadamente N (0, 1).

Ver tablas adjuntas

8
Dist. f (x) F (x) E(X) V ar(X)

Bernoulli P (X = 1) = p
F (x) = p
Ber(p)

1 − p si 0 ≤ x < 1 p(1 − p)
P (X = 0) = 1 − p
 0 si x < 0

1 si x ≥ 1

Binomial
P (X = x) = x – np
Bin(n, p)
px (1 − p)n−x , x = 1, 2, ..., n np(1 − p)
$n%

Geométrica 1 1

Ge(p) p p2
P (X = x) = p(1 − p)x−1 , x = 1, 2, ..., ∞

Poisson e−λ λx
P (X = x) = – λ λ

9
3
P oiss(λ) x!
, x = 0, 1, 2, ..., ∞

Uniforme 1 a+b
x≤a
x−a
f (x) = ,a < x < b F (x) = a<x<b
(b − a)2
U (a, b) b−a

2 12
1
b−a
 0

x≥b

Γ (α + β) α−1
f (x) = x α αβ
Beta
(1 − x)β−1 , 0 < x < 1
∞ –
Be(α, β) α+β (α + β)2 (α + β + 1)
donde Γ(α) = xα−1 e−x dx
0
Γ (α) Γ&(β)

Exponencial 1 1
f (x) = αe−αx , x >0 F (x) =
0 x≤0
Exp(α) α α2
'

1 − e−αx para x > 0

Normal
(x − µ)2
1 −
– µ σ2
N (µ, σ) f (x) = √ e 2σ 2 , −∞ < x < ∞
2πσ 2
10
11
12
1
Observación: Fn1 ,n2 ,α = Fn2 ,n1 ,1−α

13
1
Observación: Fn1 ,n2 ,α = Fn2 ,n1 ,1−α

14
1
Observación: Fn1 ,n2 ,α = Fn2 ,n1 ,1−α

15
Caso Intervalo de Confianza Contraste de Hipótesis Estadístico del Contraste Región de rechazo
c
H0 : µ = µ0 ; H1 : µ ≠ µ0 {z > zα 2 }
Para µ de N µ ,σ 2 , ( ) σ zc =
x − µ0
∼ N 0,1
1 x ± zα 2 H0 : µ ≤ µ0 ; H1 : µ > µ0 σ n
( ) {zc > zα }
σ 2 conocida n
H0 : µ ≥ µ0 ; H1 : µ < µ0 {zc < − zα }
c 2
H0 : µ = µ0 ; H1 : µ ≠ µ0 {t > tn−1,α }
2 s x − µ0
Para µ de N µ ,σ , ( ) tc = ∼ tn−1
2 x ± tn−1,α 2 H0 : µ ≤ µ0 ; H1 : µ > µ0 c
{t > t α } n−1,
σ 2 desconocida n s n
H0 : µ ≥ µ0 ; H1 : µ < µ0 c
{t < −t α } n−1,

c
H0 : µ = µ0 ; H1 : µ ≠ µ0 {z > zα 2 }
Para µ caso general, s x − µ0
3 n grande
x ± zα 2 H0 : µ ≤ µ0 ; H1 : µ > µ0 zc = ∼ N 0,1 ( ) {zc > zα }
n s n
H0 : µ ≥ µ0 ; H1 : µ < µ0 {zc < − zα }
c

16
H0 : p = p0 ; H1 : p ≠ p0 {z > zα 2 }
Para una proporción,
p̂(1− p̂) 0
p, caso general =
zc
( p̂ − p ) ∼ N
4 p̂ ± zα 2 H0 : p ≤ p0 ; H1 : p > p0 (0,1) {zc > zα }
(n grande) n p̂q̂ n
H0 : p ≥ p0 ; H1 : p < p0 {zc < − zα }
2 2 2 #
H0 : σ 2 = σ 02 ; H1 : σ 2 ≠ σ 02 {χ c
∉ !" χ n−1,1−α 2
,χ n−1,α 2 $ }
" n −1 s 2 n −1 s 2 % 2
$( ) ( ' ) ( n −1 s ) 2 2 2
5 Para σ 2 de N µ ,σ 2 ( ) , 2 H0 : σ 2 ≤ σ 02 ; H1 : σ 2 > σ 02 χ c2 = ∼ χ n−1 c
{χ > χ } n−1,α
$ χ2 χ ' σ 02
# n−1,α /2 n−1,1−α /2 &
2 2
H0 : σ 2 ≥ σ 02 ; H1 : σ 2 < σ 02 c
{χ < χ } n−1,1−α

2 2
Nota: 2 1
(n −1) s + (n −1) s 1 2 2
s p
=
n1 + n2 − 2
2
2
1
(s / n1 + s22 / n2 )
f = 2 2
Se elige el entero más próximo a esta cantidad.
2
1
(s / n1 / (n1 −1) + s22 / n2
) ( ) / (n2 −1)
Estadístico del
Caso Intervalo de Confianza Contraste de Hipótesis Región de rechazo
Contraste
Para µ − µ
1 2
c
H0 : µ1 − µ2 = d 0 ; H1 : µ1 − µ2 ≠ d0 {z > zα 2 }
de N µ ,σ 2 y
1 (1 ) 1
(x − x ) − d 2 0
6 σ 12 n1 + σ 22 n2 H0 : µ1 − µ2 ≤ d 0 ; H1 : µ1 − µ2 > d0 zc = ∼ N 0,1 ( ) {zc > zα }
(x − y) ± z α 2
2 2 2 σ 12 n1 + σ 22 n2
1 2
N µ 2 ,σ
( 2 ) σ ,σ
conocidas
H0 : µ1 − µ2 ≥ d 0 ; H1 : µ1 − µ2 < d0 {zc < − zα }
Para µ − µ de
1 2 H0 : µ1 − µ2 = d 0 ; H1 : µ1 − µ2 ≠ d0 c
{t > t n1+n2 −2,α 2 }
N µ1 ,σ 12 y
( ) H0 : µ1 − µ2 ≤ d 0 ; H1 : µ1 − µ2 > d0 1
(x − x ) − d 2 0 {t > t c n1+n2 −2,α }
7 2 2 2 ( x − y ) ± t( n1+n2 −2 ,α 2 p
)
s 1 n1 +1 n2 tc = ∼ tn +n −2
1 2
2 2 1 2
N ( µ ,σ ) , σ ,σ s p ⋅ 1 n1 +1 n2
desconocidas, H0 : µ1 − µ2 ≥ d 0 ; H1 : µ1 − µ2 < d0 {t c
< −tn +n −2,α
1 2
}
σ 12 = σ 22
Para µ − µ de
1 2
c 2
H0 : µ1 − µ2 = d 0 ; H1 : µ1 − µ2 ≠ d0 {t > t f ,α }
N µ1 ,σ 12 y
( ) H0 : µ1 − µ2 ≤ d 0 ; H1 : µ1 − µ2 > d0 1 2 0 {t c
(x − x ) − d > t f ,α }
8 2 2 2
tc = ∼ tf

17
(x − y) ± t f ,α 2
s12 n1 + s22 n2 2 2
2 2 1 2
N ( µ ,σ ) , σ ,σ s n1 + s n2
1 2
desconocidas, H0 : µ1 − µ2 ≥ d 0 ; H1 : µ1 − µ2 < d0 {t c
< −t f ,α }
σ 12 ≠ σ 22

c
H0 : µ1 − µ2 = d 0 ; H1 : µ1 − µ2 ≠ d0 {z > zα 2 }
Para µ − µ caso
1 2 1
(x − x ) − d 2 0
2 2 zc = ∼ N 0,1
9 general (n1 y n2 (x − y) ± z α 2
s n1 + s n2
1 2 H0 : µ1 − µ2 ≤ d 0 ; H1 : µ1 − µ2 > d0 ( ) {zc > zα }
s12 n1 + s22 n2
grandes)
H0 : µ1 − µ2 ≥ d 0 ; H1 : µ1 − µ2 < d0 {zc < − zα }
H 0 : p1 − p2 = p0 ; H1 : p1 − p2 ≠ p0 {z c
> zα 2 }
Para p − p caso
1 2 1 2
( p̂ − p̂ ) − p 0
10 general (n1 y n2 1 2
( p̂ − p̂ ) ± z α /2
p̂1q̂1 n1 + p̂2 q̂2 n2 H 0 : p1 − p2 ≤ p0 ; H1 : p1 − p2 > p0 zc = ∼ N 0,1 ( ) {zc > zα }
grandes) p̂1q̂1 n1 + p̂2 q̂2 n2
H 0 : p1 − p2 ≥ p0 ; H1 : p1 − p2 < p0 {zc < − zα }
H 0 : σ 12 = σ 22 ; H1 : σ 12 ≠ σ 22 c 1 2 1 2
Para σ 2 σ 2 {F ∉ !" Fn −1,n −1,1−α 2 , Fn −1,n −1,α 2 #$ }
1 2 " s2 / s2 s2 % 2
de N µ ,σ 2 y ' s 1
1 1
11 ( ) $ 1 2 , 1 F H 0 : σ 12 ≤ σ 22 ; H1 : σ 12 > σ 22 Fc = ∼ Fn −1,n −1 {F > F c n1−1,n2 −1,α }
$F 2 n2 −1,n1−1,α /2 ' 2 1 2
2
s
# n1−1,n2 −1,α /2 2 & s 2
N µ 2 ,σ 2
c
( ) H 0 : σ 12 ≥ σ 22 ; H1 : σ 12 < σ 22 {F < F n1−1,n2 −1,1−α }

También podría gustarte