Comparaciones o pruebas de Rango multiple
CAPITULO 3
Método LSD
Ecuación (3.10)
Una vez que se rechazo Ho en el ANNOVA, el problema es la igualdad de todos los
posibles
Ho: μ i=μ j
H 1: μi ≠ μ j
Donde:
Ho= Hipotesis Nula
H1= Hipotesis Alternativa
Ecuación (3.11)
| ý i .− ý J .|>t a ,N −k
2 √ CME
( n1 + n1 )=LSD
i j
Donde:
N-K= Grados de libertad
C M E= Cuadrado medio del error
Ni= número de observaciones para el tratamiento i
Nj= número de observaciones para el tratamiento i
| ý i .− ý J .| = diferencia del valor absoluto entre medias muestrales
N= número de tratamientos de n
K= número de tratamientos k
LSD= differencia mínima
La diferencia mínima que debe existir entre dos medias muestrales para considerar que
los tratamientos correspondientes son significativamente diferentes.
Ecuación 3.12
LSD=t a √ 2C M E I n
, N−k
2
C M E = Cuadrado medio del error
LSD= differencia mínima
In= Logaritmo natural
tα = prueba T students
N-K = grados de libertad
N= número de tratamientos de n
K= número de tratamientos k
EJEMPLO 3.4
Ilustremos esta prueba continuando con el ejemplo 3.3 en el cual ANNOVA se rechazó
la hipotesis Ho: μ A=μ B ¿ μ C=μ y se acepta al menos un par de medias de tratamientos
D
(métodos de ensamble) son diferentes entre sí. Para investigar cuales pares de medias
son estadísticamente diferentes pruebas los seis posibles pares de hipótesis.
Ecuación 3.13
Ho: μ A=μ B VS H A : μ A ≠ μB
Ho: μ A=μ c VS H A : μ A ≠ μc
Ho: μ A=μ D VS HA :μA ≠ μD
Ho: μ B=μ C VS H A : μ B ≠ μC
Ho: μ H =μ D VS H A :: μ H ≠ μ D
Ho: μ C =μ D VS H A :: μC ≠ μ D
LSD=t a √ 2C M E ∈¿ ¿ = 2 x 46
2
, N−k
√ 4
¿ 2.42
DONDE:
LDS= 42
APLICACIÓN de la prueba LSD a los métodos de ensamble
Los intervalos en la gráfica de medias con le método LSD
C ME
ý i . ±>t α , N −k
√ ni
DONDE:
∝= nivel de significancia prefijado
C M E = Cuadrado medio del error
Ni = número de observaciones del tratamiento i
C ME
√ ni
= Error estándar o desviacion que corresponde a la media muestral
(N-K) = Diferencia entre los numerous de tratamientos
tα = prueba T students
Ni= número de tratamiento i
Método de Turkey
Un método mas conservador para comparar las medias de tratamientos es el método
Turkey
T ∝=q∝ (k , N−k) √ C M E L ni
∝= nivel de significancia prefijado
√ C M E L ni= error estandarizado
(N-K) = grados de libertad
tα = prueba T students
q ∝( k , N −k )= porcentaje de la distribución del rango
T ∝=¿ Valor absoluto
Ejemplo 3.5
Para aplicar el método de Tukey al ejemplo de los métodos de ensamble, a partir del
ANOVA de la tabla 3.6, se toma la información pertinente y de las tablas del rango
estudentizado dadas en el apéndice, para a = 0.05, se obtiene q 0.05(4, 12) = 4.20, de
manera que el valor crítico es:
C ME 2.46
T 0.05=q 0,0,5 ( 4,12).
√ ni √
∈¿ 4,20 x
4
=3.27
Diferencia poblacional Diferencia muestral en valor absoluto Decisión
No
μ A =μB 1.25<2.42 significativa
Significativ
μ A =μc 5.50<2.42 a
Significativ
μ A =μ D 3.25>2.42 a
Significativ
μ B=μC 4.25< 2.42 a
No
μ H =μ D 2.00<2.42 Significativa
No
μC =μ D 2.25<2.42 Significativa
Obervaciones que esta prueba no encuentra diferencia entre los métodos de ensamble A
y D, se detectó con el método LSD.
MÉTODO DE DUNCAN
En este método para la comparación de medias, si las k muestras son de igual tamaño,
los
k promedios se acomodan en orden ascendente y el error estándar de los promedios se
estima
k
n AR = k
∑ n1
i =1 i
Donde:
K= número de observaciones
Ni= número de observaciones i
∑ n1 = sumatoria total de las observaciones
i=1 i
n R=rα ( p ,l ) S Ý i.; ; P 2, 3, k
Ejemplo 3.6
De nuevo, supongamos que interesa probar las seis hipótesis dadas en (3.13) para los
cuatro métodos de ensamble. En la tabla de ANOVA (tabla 3.6) se lee que CME =2.46,
lo cual se basa en 12 grados de libertad. Así, el error estándar de cada promedio
R2=r 0.05 ( 2,12 ) S r=¿ (3.08) (0.78 )¿ =2.40
R3=r 0.05 ( 3,12 ) S r=¿ (3.23) (0.78 )¿ =2.52
R4 =r 0.05 ( 4,12 ) S r=¿ ( 3.08) (0.78 )¿ =2.60
Diferencia poblacional Diferencia muestral en valor absoluto Decisión
μ A =μB 1.25−7.25=5.5 >2.60 = R1 significativa
Significativ
μ A =μc 12.75−8.50=3,27> 2.52= R3 a
No
μ A =μ D 12.75−10.50=2.25<2.40= R2 Significativa
Significativ
μ B=μC 10.50−7.25= 3.25<2.40= R3 a
No
μ H =μ D 10.50−8.50 = 2.0 >2.60= R3 Significativa
No
μC =μ D 2.25<2.42= 1.25< 2.40= R2 Significativa
COMPARACIÓN DE TRATAMIENTOS CON UN CONTROL (MÉTODO DE
DUNNET)
Una vez que se rechaza Ho con el ANNOVA, en ocasiones unos de los tratamientos k a
comprar llamado tratamiento de control por facilidad, denotemos como tratamiento
control al k-ésimo tratamiento, hacer comparaciones con respecto al control implica
probar las k – 1 hipótesis dadas
Por:
Ho: μ i=μ j
H 1: μi ≠ μ j
Donde:
Ho= Hipotesis Nula
H1= Hipotesis Alternativa
l ´y 1 1
i∗¿ ý jl∗Dσ (K −1 , 1) √ C M E ( + )¿
¿ nk
DONDE:
(K-1)= grados de libertad
∝= nivel de significancia prefijado
C M E = Cuadrado medio del error
Ni= número de observaciones i
Nk= número de observaciones k
Al usar el CME para estimar a s2 y Yi• para =1 estimar a la media mi, se puede ver que
un intervalo al 100(1 – a) % de confianza para el contraste C está dado por:
k
tα CME k
c
∑ i ij 2 n
j=1
¿ − ^
ý ± N −k
ni ∑
j=1
ci
√
Donde:
tα
−k = Punto porcentual de la distribucción T
2n
(N-K)= grados de libertad
∑ ¿ Sumatoria total
j=1
∝= nivel de significancia prefijado
C M E = Cuadrado medio del error
Ni= número de observaciones i
∑ ci = sumatoria total para el tratamiento de confianza
j=1
Ci= intervalo de confianza
CONTRASTES ortogonales
En el caso de un diseño balanceado, dos contrastes:
a a
c i=¿ ∑ C 2=¿ ∑ ¿
i i
a a
c i=¿ ∑ ¿ 0C 2=¿ ∑ ¿ 0 ¿
i i
Contrastes
C1 C2 C3 Ortogonales
2 -1 -1 2 μ A −μB −μc
0 1 -1 μ B−μc
1 1 1 μ A + μ B + μc −3 μ D
(2X0)+ (-1X1) + (-1X-1) + (0X0) = 0
MÉTODO DE SHEFFÉ
Este método está diseñado para probar todos los contrastes de medias que pudieran
Interesadas al experimentador
Ecuación 3.14
Ho= 2 μ A =μB + μC
HA= 2 μ A ≠ μ B+ μC
DONDE:
Ho= Hipotesis Nula
Ha= Hipotesis Alternativa
Varianza estimada
Ecuación 3.15
V¿
DONDE:
C M E = Cuadrado medio del error
Ci= intervalo de confianza
∑ = sumatoria total de los tratamientos
i
Ni= número de tratamientos i
VERIFICACIÓN DE LOS SUPUESTO DEL MODELO
Modelos de los datos DCA
y ij=¿¿ μ A +τI +∈ IJ
DONDE
I= datos del tratamiento i
J= datos del tratamiento j
τI = efecto del tratamiento I y ∈ IJ
μ A =¿¿ medida global estimada de A
y IJ=τI +∈ IJ
Donde:
I= datos del tratamiento i
J= datos del tratamiento j
τI = efecto del tratamiento I y ∈ IJ
μ A =¿¿ medida global estimada de A
MODELO DE TRABAJO
Ecuación 3.16
^y ij =^μ + ^τ i
DONDE:
μ¿ medida global estimada
τI = efecto del tratamiento I
EL MODELO AJUSTADO DCA SE PUEDE ESCRIBIR COMO:
Ecuación 3.17
^y ij =l ´y i∗¿¿
DONDE:
ý i=¿¿Residuo asociado a la observacion ý ij
Gráfica de probabilidad en papel normal
Consideremos los N residuos que resultan del análisis de una varianza, o cualquier
conjunto de N datos de los cuales se quiere verificar su procedencia de una distribución
normal los pasos en la construcción de la gráfica de probabilidad normal para los
residuos son los siguientes:
Dato ri Rango i (i-0.5)/ N Zi= (I) (((I-0.5)/n
39.9 1 0.05 -1,64
41.7 2 0.15 -1,03
43.9 3 0.25 -0,67
46.5 4 0.35 -0,38
48.6 5 9.5 0
48.6 6 0.5 0
48.8 7 0.65 0,38
50.4 8 0.75 0,67
50.6 9 0.85 1,03
51.5 10 0.95 1,64
GRÁFICA DE PROBALIDAD NORMAL EN PAPEL ORDINARIO
A falta de papel de probalidad normal tambien se puede hacer en papel ordinario con
escalas equivalents en ambos ejes.
(i−0.5)
=P ( Z < Zi ) =∅ ( Zi)
N
DONDE:
∅ ( Zi) = distribucción normal estándar acumulada en Zi
N= número de tratamientos
PRUEBA DE SHAPIRO-WILKS PARA NORMALIDAD
Consideremos una muestra aleatoria de datos x1, x2… xn que proceden de cierta
distribución desconocida denotada por F(x):
H0 : Los datos proceden de una distribución normal (F(x) es normal).
HA : Los datos no proceden de una distribución normal (F(x) no es normal).
La varianza es S2 = 15.72
( X (n-i+1)- ai(X(n-i-1)-
i ai X(j)) X(i))
1 0,5739 51,5-39,9=11,6 6,66
2 0,3291 50,6-41,7=8,9 2,93
3 0,2141 50,4-43,9=6,5 1,39
4 0,1224 48,8-46,5=2,3 0,28
5 0,0399 48,6-48,6=0 0
Con el tamaño de muestra n= 10, en la tabla de valores críticos dada el cuantil 95 WI=
0.987.
Prueba de Shapiro-Wilks para normalidad
k 2
W=
1
(n−1) S2 [∑
i=1
ai ( X (n−i +1)− X(i) ) ]
Donde:
S2= Varianza muestral
x= variable aleatoria discreta
K= número de observaciones
(n-1) = grados de libertad
Entonces:
1 2
W= 2
[ 11,26 ] 00.896
(10−1)15.72
La prueba de Shapiro Wills, en conjunto con la formula de varianza demuestran,
(W¿ W 1−α ) como resultado se acepta que los datos proceden de una distribución
normal.
Prueba de Bartlett para homogeneidad de varianza
k
∑ ( ni−1 ) S2i
Ssp= i=1
N−k
Donde:
S2i = Varianza muestral del tratamiento
k= número de observaciones
ni = número de observaciones i
∑ n1 = sumatoria total
i=1 i
Hipótesis de igualdad de varianzas
H o :σ 21=σ 22=... σ 2k =σ 2
H A :σ i2 ≠ σ 2j para algún i≠ j
Donde:
H o= hipótesis nula
H A =Hipótesis alterna
σ = sigma
Hipótesis nula, igualdad de varianza
q
x 20=
c
Donde:
x 20= Estadístico con distribución ji-cuadrada
x= variable aleatoria discreta
q= variable dependiente
c= constante
k
2 2
q=(N-k)log 10 S p−∑ ( ni−1 ) log 10 S i
i=1
Donde:
S2i = varianza muestral del tratamiento
q= estadístico q
( n−1 )= grados de libertad
k
1
× ∑ ( x ) = media aritmética
n i=1 i
k= número de tratamientos
1
c=1+ ¿
3(k −1)
Donde:
k
N=∑ ni= total de las observaciones
i=1
k= número de observaciones
( n−1 )= grados de libertad