CAP 3 Comparaciones - Multiples1
CAP 3 Comparaciones - Multiples1
Prueba de t
Planteamiento de hipótesis
Para i i , i, i 1, 2, ,t
Nivel de significación
Estadística de prueba
Yi Yi k
tc ~ tGLE / H 0 es verdadera
SYi Yi
donde:
GLE = Grados de libertad del error
1 1
SYi Yi CME
ni ni
Criterio de decisión
Se rechaza H 0 tc t
o tc t
tc t1 ,GLE tc t ,GLE
,GLE 1 ,GLE
2 2
H 0 : i i
H a : i i
Para i i , i, i 1, 2, ,t
Nivel de significación
En la prueba de t se acepta H 0 si
t
tc t
,GLE 1 ,GLE
2 2
Yi Yi
t
t
,GLE SYi Yi 1 ,GLE
2 2
t S
Yi Yi
Yi Yi t S
Yi Yi
1 ,GLE 1 ,GLE
2 2
Yi Yi t S
Yi Yi
1 ,GLE
2
Y se rechaza H 0 si
Yi Yi t S
Yi Yi
1 ,GLE
2
Entonces si definimos
DMS i, i t S
Yi Yi
o DLS i, i t S
Yi Yi
1 ,GLE 1 ,GLE
2 2
Luego, un criterio para examinar si existe diferencia significativa entre comparaciones
de dos medias de la variable respuestas de diferentes tratamientos se puede usar este
criterio de la diferencia mínima o límite significante DMS i, i o DLS i, i . Esto
es, se rechaza H 0 si
H 0 : A C
H a : A C
0.05
1 1
5.6
1 1
SYA YC CME 1.5275
nA nC 4 6
YA YC 61 68
tc 4.5826
SYA YC 1.5275
t 0.025,20 2.086 y t 0.975,20 2.086 , como tc t 0.975,20 , se rechaza H 0
> pvalue<-2*(1-pt(4.5826,20))
> pvalue
[1] 0.000180503
H 0 : i i
H a : i i Para i i , i, i A, B, C, D
i A D B C
Yi. 61 61 66 68
ni 4 8 6 6
Prueba de t con R
> coag<-read.table("coag.txt",header=TRUE)
> tiempo<-coag[,1]
> dieta<-coag[,2]
> pairwise.t.test(tiempo,dieta,p.adjust.method="none")
a b c
b 0.00380 - -
c 0.00018 0.15878 -
d 1.00000 0.00086 2.3e-05
se utiliza la estadística
yi y j
t0 (1)
1 1
s2
ri rj
Siendo s 2 CME , el nivel de significación o probabilidad de error tipo I para una sola
prueba es una tasa de error con respecto a la comparación , C , es el riesgo que se están
dispuestos a correr en una sola comparación .
Con la posibilidad de hasta 6 errores tipo I para 6 pruebas, se puede emplear otra forma
de error tipo I basada en el riesgo acumulado asociado con la familia de prueba en
estudio. La familia es el conjunto de comparaciones por pares como para el ejemplo del
párrafo anterior. El riesgo acumulado asociado con una familia de comparaciones se
conoce como la tasa de error tipo I con respecto al experimento, E . Es el riesgo de
cometer al menos un error tipo I en la familia de comparaciones en el experimento.
Para una familia de pruebas independientes, se puede evaluar la tasa de error tipo I con
respecto al experimento. Sin embargo, no todas las pruebas son independientes con la
ecuación dado en (1), ya que s 2 CME en el denominador es la misma, y en el
numerador de cada prueba contiene la misma media que en algunos otros estadísticos
t0 .
n
P x Cx 1 C
n x
(2)
x
para x 0,1, , n errores tipo I. La probabilidad de no cometer error tipo I es:
P X 0 1 C
n
(3)
E 1 1 C
n
(4)
La probabilidad E es el riesgo de cometer al menos un error tipo I entre las n
comparaciones independientes. Es el límite superior de la tasa de error tipo I con
respecto al experimento, para n pruebas en un conjunto de medias de variables
respuestas con diferentes tratamientos.
La relación
C 1 1 E
1/ n
(5)
Expresa la tasa de error tipo I con respecto a la comparación como una función de la
tasa de error tipo I con respecto al experimento o familiar.
En la siguiente tabla se muestra la relación entre la tasa de error tipo I del Experimento
o familiar y la tasa de error tipo I de la comparación
N E cuando C 0.05 C cuando E 0.05
1 0.050 0.050
2 0.098 0.025
3 0.143 0.017
4 0.185 0.013
5 0.226 0.010
10 0.401 0.005
Para el caso del ejemplo de comparación de las medias de los tiempos de coagulación si
se fija una tasa de error tipo I C 0.05 para cada comparación, la tasa de error tipo I
para el experimento será de E 1 1 .05 0.265 y si se fija una tasa de error tipo I
6
Nota: la prueba t y DMS o DLS es recomendable para una sola comparación planeada
El Método de Bonferroni
Este método se basa en la desigualdad de Bonferroni, el cual dice: dado una secuencia
de eventos Aj , P j
Aj j P Aj . De esta manera la posibilidad de uno o más
error tipo I es una colección arbitraria de la prueba es a lo más la suma de sus
t
posibilidades separada de error tipo I. Para el caso que se desee realizar nc de
2
tratamientos se puede seguir el siguiente procedimiento:
H 0 : i i
H a : i i , para i i , y i, i 1, 2, .t
VCB i, i t S
Y Y
1 ,GLE i . i .
2 nc
donde:
1 1
SYi . Yi. CME
ni ni
Se rechaza H 0 para i i , y i, i 1, 2, . t , si
Para aplicar esta prueba se requiere que ij son variables aleatorias independientes
distribuidas normalmente con media cero y variancia común 2 . Además, en este caso
las comparaciones deben ser planeadas de antemano. Esta prueba es recomendable
cuando se desea realizar pocas comparaciones entre medias de la variable respuesta de
dos tratamientos.
H 0 : i i
H a : i i Para i i , i, i A, B, C, D
i A D B C
Yi. 61 61 66 68
ni 4 8 6 6
t 0.05
t 0.9958333,20 2.927116 , esto se obtuvo usando R:
1 ,20
12
> qt(0.9958333,20)
[1] 2.927116
> pairwise.t.test(tiempo,dieta,p.adjust.method="bonferroni")
a b c
b 0.02282 - -
c 0.00108 0.95266 -
d 1.00000 0.00518 0.00014
Nota el R da los pvalue ajustado de manera que se pueda tomar decisiones con la tasa
de error para cada comparación.
La prueba de Duncan
Esta prueba fue propuesta por Duncan(1955), con el nombre de la nueva prueba de
rango-múltiple”.
Planteamiento de hipótesis
H 0 : i i
H a : i i Para i i , i, i 1, 2, ,t
Nivel de significación
donde:
d p, GLE =amplitud estudiantizada para la prueba de Duncan
p = número de medias muestrales ordenadas de menor a mayor comprendidas
entre ellas inclusive.
GLE = Grados de libertad del error
1 1
SYi Yi CME
ni ni
Yi Yi w
Ejemplo Use la prueba de Duncan para realizar todas comparaciones en el ejemplo de
coagulación a un nivel de significación 0.05 .
i A D B C
Yi. 61 61 66 68
ni 4 8 6 6
p 2 3 4
d0.05 p, 20 2.95 3.10 3.18
H 0 : i i
H a : i i Para i i , i, i A, B, C, D
Comparaciones Y Y
i i
SYi Yi p d0.05 p, 20 w d0.05 p, 20
1
SY Y
2 i i
C-A 7 1.5275 4 3.18 3.4347 *
C-D 7 1.2780 4 3.18 2.8737*
C-B 2 1.3663 2 2.95 2.8501ns
B-A 5 1.5275 3 3.10 3.3483*
B-D 5 1.2780 3 3.10 2.8014*
D-A 0 1.4491 2 2.95 3.0228ns
*=significativo , ns= no significativo
i A D B C
Yi. 61 61 66 68
ni 4 8 6 6
Con el paquete R
> library(agricolae)
> anva<-aov(Tiempo~dieta,coag)
> compd<-duncan.test(anva,"dieta")
> compd
$statistics
Mean CV MSerror
64 3.69755 5.6
$parameters
Df ntr
20 4
$Duncan
Table CriticalRange
2 2.949998 2.937680
3 3.096506 3.083577
4 3.189616 3.176298
$means
Tiempo std r Min Max
A 61 1.825742 4 59 63
B 66 2.828427 6 63 71
C 68 1.673320 6 66 71
D 61 2.618615 8 56 64
$comparison
NULL
$groups
trt means M
1 C 68 a
2 B 66 a
3 A 61 b
4 D 61 b
> compd<-duncan.test(anva,"dieta",group=FALSE)
> compd
$statistics
Mean CV MSerror
64 3.69755 5.6
$parameters
Df ntr
20 4
$Duncan
Table CriticalRange
2 2.949998 2.937680
3 3.096506 3.083577
4 3.189616 3.176298
$means
Tiempo std r Min Max
A 61 1.825742 4 59 63
B 66 2.828427 6 63 71
C 68 1.673320 6 66 71
D 61 2.618615 8 56 64
$comparison
Difference pvalue sig. LCL UCL
A - B -5 0.002007 ** -7.937680 -2.0623197
A - C -7 0.000104 *** -10.083577 -3.9164227
A - D 0 1.000000 -2.937680 2.9376803
B - C -2 0.170968 -4.937680 0.9376803
B - D 5 0.002722 ** 1.916423 8.0835773
C - D 7 0.000132 *** 3.823702 10.1762981
$groups
NULL
Conclusiones
No se ha encontrado diferencia a un nivel de significación del 10% entre las medias del
tiempo de coagulación obtenidos A y D. Tampoco se encontrado diferencias a un nivel
de significación del 10% entre las medias de los tiempos de coagulación obtenidos con
las dietas B y C
> Tiempo<-coag$Tiempo
> dieta<-coag$dieta
> yp<-tapply(Tiempo,dieta,mean)
> sort(yp)
A D B C
61 61 66 68
Esta prueba fue propuesta por Tukey(1949), quien desarrolló un procedimiento que
proporciona una tasa con respecto al experimento en el sentido fuerte, para las
comparaciones por pares de todas las medias de la variable respuestas sujetos
tratamiento diferentes, que se usa para obtener intervalos de confianza simultáneos de
100 1 % . A la prueba se le conoce por varios nombres, entre ellas “diferencia
honestamente significativa”.
Para aplicar esta prueba es necesario que los ij sea una variable aleatoria independiente
distribuida normalmente con media cero y variancia común 2 . Es necesario que la
prueba de F en ANVA sea significativo.Para realiza la prueba de Tukey se procede de la
siguiente manera:
Planteamiento de hipótesis
H 0 : i i
H a : i i Para i i , i, i 1, 2, ,t
Nivel de significación
donde:
q t , GLE =amplitud estudiantizada para la prueba de Tukey
t = número de tratamiento a comparar
GLE = Grados de libertad del error
1 1
SYi Yi CME
ni ni
i A D B C
Yi. 61 61 66 68
ni 4 8 6 6
q0.05 4, 20 3.96
H 0 : i i
H a : i i Para i i , i, i A, B, C, D
i A D B C
Yi. 61 61 66 68
ni 4 8 6 6
Con el paquete R
Para realizar estas pruebas con el lenguaje R bajar del CRAN los paquetes multcomp y
mvtnorm. Esto puede realizarse directamente usando el Menú para el caso que tuviera
Internet. Ente caso ir a Package y dentro de esto a la opción Install package(s) from
CRAN. Para el caso que no tuviera internet, se puede ir al CRAN y bajar los archivos
zip en www.cran.r-project/bin/windows, guardar estos archivos en una carpeta, luego ir
al menu de R a Package y dentro de este ir a la opción Install package(s) from local zip
files buscar la carpeta e instalar estos paquetes. Una vez instalado esto queda grabado en
una librería. Para usar estos paquetes primero instalar mediante la opción de Menu en
Packages e ir a la opción Load Packages y leer primero “mvtnorm” luego hacer lo
mismo con multcomp.
> coag<-read.table("coag.txt",header=T)
> anva<-aov(Tiempo~dieta,data=coag)
> summary(mod)
Df Sum Sq Mean Sq F value Pr(>F)
dieta 3 228.0 76.0 13.571 4.658e-05 ***
Residuals 20 112.0 5.6
> library(multcomp)
> cht <- glht(anva, linfct = mcp(dieta = "Tukey"))
> summary(cht)
Linear Hypotheses:
Estimate Std. Error t value Pr(>|t|)
B - A == 0 5.000e+00 1.528e+00 3.273 0.01832 *
C - A == 0 7.000e+00 1.528e+00 4.583 < 0.001 ***
D - A == 0 -1.071e-14 1.449e+00 -7.39e-15 1.00000
C - B == 0 2.000e+00 1.366e+00 1.464 0.47487
D - B == 0 -5.000e+00 1.278e+00 -3.912 0.00433 **
D - C == 0 -7.000e+00 1.278e+00 -5.477 < 0.001 ***
---
Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
(Adjusted p values reported -- single-step method)
Conclusiones
No se ha encontrado diferencia a un nivel de significación del 10% entre las medias del
tiempo de coagulación obtenidos A y D. Tampoco se encontrado diferencias a un nivel
de significación del 10% entre las medias de los tiempos de coagulación obtenidos con
las dietas B y C
> coag<-read.table("coag.txt",header=T)
> anva<-aov(Tiempo~dieta,data=coag)
> TukeyHSD(anva,"dieta")
Tukey multiple comparisons of means
95% family-wise confidence level
$dieta
diff lwr upr p adj
B-A 5.000000e+00 0.7245544 9.275446 0.0183283
C-A 7.000000e+00 2.7245544 11.275446 0.0009577
D-A -1.421085e-14 -4.0560438 4.056044 1.0000000
C-B 2.000000e+00 -1.8240748 5.824075 0.4766005
D-B -5.000000e+00 -8.5770944 -1.422906 0.0044114
D-C -7.000000e+00 -10.5770944 -3.422906 0.0001268
> Tiempo<-coag$Tiempo
> dieta<-coag$dieta
> yp<-tapply(Tiempo,dieta,mean)
> sort(yp)
A D B C
61 61 66 68
H 0 : i 1
H a : i 1 , para i 2, ,t
Nivel de significación
Valor Crítico:
d tDunnet , t*, GLE SYi Y1 , para i 2, ,t
Donde:
1 1
SYi Yi CME
ni ni
Yi Y1 d , para i 2, ,t
Ejemplo: Suponga que el tratamiento A es el testigo. Use la prueba de Dunnett para
realizar la comparación entre media de tratamiento testigo con el resto a un nivel de
significación 0.05 .
H 0 : i A
H a : i A , para i B, C, D
0.05
Usando el paquete R
> library(multcomp)
> coag<-read.table("coag.txt",header=T)
> anva<-aov(Tiempo~dieta,data=coag)
> cdu <- glht(anva, linfct = mcp(dieta = "Dunnett"))
> summary(cdu)
Linear Hypotheses:
Estimate Std. Error t value Pr(>|t|)
B - A == 0 5.000e+00 1.528e+00 3.273 0.00955 **
C - A == 0 7.000e+00 1.528e+00 4.583 < 0.001 ***
D - A == 0 -1.071e-14 1.449e+00 -7.39e-15 1.00000
---
Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
(Adjusted p values reported -- single-step method)
> Tiempo<-coag$Tiempo
> dieta<-coag$dieta
> dieta<-relevel(dieta,"C")
> anva<-aov(Tiempo~dieta)
> cdu <- glht(anva, linfct = mcp(dieta = "Dunnett"))
> summary(cdu)
Linear Hypotheses:
Estimate Std. Error t value Pr(>|t|)
A - C == 0 -7.000 1.528 -4.583 <0.001 ***
B - C == 0 -2.000 1.366 -1.464 0.351
D - C == 0 -7.000 1.278 -5.477 <0.001 ***
---
Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
(Adjusted p values reported -- single-step method)
Conclusión
t t t
Q CiYi. nCiYi. , con C i 0
i 1 i 1 i 1
Contrastes Ortogonales:
t t t t
Dos contrastes: Q1 C1iYi. n C1iYi. y Q2 C2 iYi. n C2 iYi. son ortogonales
i 1 i 1 i 1 i 1
si
t t t
C1i 0 ,
i 1
C2i 0 y
i 1
C C
i 1
1i 2i 0
t t t t
E Q E CiYi. E n CiYi. n Ci E Yi. n Ci i
i 1 i 1 i 1 i 1
t
E Q n Ci i
i 1
y la variancia está dado por:
t 2 2
t t 2 t
Var Q Var n CiYi. n Ci Var Yi. n Ci
2 2
n Ci2 2
i 1 i 1 i 1 n i 1
t
Var Q n 2 Ci2
i 1
Distribución Muestral de un contraste:
Si los ij sea una variable aleatoria independiente distribuida normalmente con media
cero y variancia común 2 , entonces
t t
t t
Q CiYi. n CiYi. ~ N n Ci i , n Ci2 2
i 1 i 1 i 1 i 1
Luego
t t
CiYi. Ci i
Z i 1 i 1
~ N 0,1
2
t 2
C
i 1
i
n
GLE CME ~ 2
GLE
2
También se puede demostrar que para este caso las variables
t t
t t
C Y C
i 1
i i.
i 1
i i
t
2 t t
Ci2
i 1 n C Y C
i i. i i
t i 1 i 1
t t
C Y C i i. i i
t i 1 i 1
~ tGLE
CME t 2
Ci
n i 1
a un nivel de significación
Estadística de Prueba
C Y i i. k
t i 1
~ tGLE / H 0 es verdadera
CME t 2
Ci
n i 1
Luego, se tiene los siguientes criterios de decisión
Se rechaza H 0 tc t
o tc t
tc t1 ,GLE tc t ,GLE
,GLE 1 ,GLE
2 2
Ejemplo: Suponga que se tiene cuatro fertilizantes que se desea comparar, con tal
motivo se realizó un experimento bajo un DCA con cinco repeticiones por tratamiento,
de la cual se obtuvo los siguientes resultados:
Fertilizante
T1 T2 T3 T4
Yi. 73.8 74.2 69.0 71.8
10.4
SCE 10.4 Luego CME 0.65
16
H 0 : 22 3 4 1
H1 : 22 3 4 1
2 74.2 69 71.8 1
tc 7.473028
0.65 2
5
2 1 1
2 2
> pvalue<-1-pt(tc,16)
> pvalue
[1] 6.634694e-07.
La prueba resultó muy altamente significativa, se puede afirmar que la media del
rendimiento obtenido con el fertilizante 2 supera en más de 0.5 unidad a la media de los
rendimientos obtenidos con los fertilizantes 3 y 4.
t
H 0 : Ci i 0
i 1
t
H a : Ci i 0
i 1
a un nivel de significación
Estadística de Prueba:
2
t
n CiYi.
2
i 1
t t
CiYi. C 2
i
F t 2 i 1 t i 1
~ F1,GLE / H 0
CME
Ci2
CME
n i 1
Se sabe que t2GLE F1,GLE , entonces la prueba de t para este caso es equivalente a usar
la siguiente estadística
Si se hace
2
t
n CiYi
SCQ i 1t =Suma de cuadrado de contraste, entonces se puede usar la
Ci2
i 1
siguiente estadística de prueba:
SCQ
Fc ~ F1,GLE / H 0 es verdadera
CME
Fuente de SC GL CM Fc
Variación
Entre Tratamiento SCTrat GLTrat CMTrat CMTrat / CME
Q1 SCQ1 1 SCQ1 SCQ1 / CME
Q2 SCQ2 1 SCQ2 SCQ2 / CME
. . . . .
. . . . .
. . . . .
Qt 1 SCQt 1 1 SCQt 1 SCQt 1 / CME
Dentro de SCE GLE CME
Tratamiento
Total SCTotal n. 1
t t
H 0 : Cli i 0 versus H a : Cli i 0 , para l 1, 2, , t 1
i 1 i 1
t t
donde: C
i 1
li 0 y C C
i 1
li l i 0 , para l l y l , l 1, 2, , t 1
SCQl
Fcl ~ F1,GLE / H 0 , para l 1, 2, , t 1
CME
Ejemplo:
Matriz de contraste
Fertilizante
Coeficientes T1 T 2 T3 T4
C1i -1 -1 1 1
C2i -1 1 0 0
C3i 0 0 -1 1
Contrastes ortogonales
Q1 Y1. Y2. Y3. Y4.
Q2 Y1. Y2.
Q3 Y3. Y4.
Hipótesis:
( T1 y T2 ) versus ( T3 y T4 )
H 0 : 3 4 1 2 0 contra H a : 3 4 1 2 0
T1 versus T2
H 0 : 2 1 0 contra H a : 2 1 0
T3 versus T4
H 0 : 4 3 0 contra H a : 4 3 0
2
t
n C1iYi.
5 73.8 74.2 69.0 71.8
2
SCQ1 i 1 64.8
t 2 2 2 2
C1i
2
i 1
1 1 1 1
2
t
n C2iYi.
5 73.8 74.2
2
SCQ2 i 1 0.4
t 2 2
C2i
2
i 1
1 1
2
t
n C3iYi.
5 69.0 71.8
2
SCQ3 i 1 19.6
t 2 2
C3i
2
i 1
1 1
Contraste SC GL CM Fc
( T1 y T2 ) versus ( T3 y T4 ) 64.80 1 64.80 99.69**
T1 versus T2 0.4 1 0.4 0.62 ns
T3 versus T4 19.6 1 19.6 30.15**
Residual 10.4 16 0.65
**= altamente Significativo, ns = no significativo F 0.90,1,16 3.05 , F 0.95,1,16 4.49 ,
F 0.99,1,16 8.53
> vp<-c(73.8,74.2,69,71.8)
> sce<-10.4
> r=5
> ct<-c(-1,-1,1,1)
> scc1<-r*((t(ct)%*%vp)^2)/(sum(ct^2))
> scc1
[,1]
[1,] 64.8
> ct2<-c(-1,1,0,0)
> scc2<-r*((t(ct2)%*%vp)^2)/(sum(ct2^2))
> scc2
[,1]
[1,] 0.4
> ct3<-c(0,0,-1,1)
> scc3<-r*((t(ct3)%*%vp)^2)/(sum(ct3^2))
> scc3
[,1]
[1,] 19.6
> tr<-4
> gle<-r*tr-tr
> gle
[1] 16
> cme<-sce/gle
> fuente<-c("Q1","Q2","Q3","Residuals")
> gl<-c(1,1,1,gle)
> SC<-c(scc1,scc2,scc3,sce)
> CM<-SC/gl
> Fc<-c(round(CM[1:3]/CM[4],4),"")
> Fc1<-as.numeric(Fc[1:3])
> pvalue1<-round(1-pf(Fc1,1,gle),4)
> pvalue<-c(pvalue1,"")
> data.frame(fuente,gl,SC,CM,Fc,pvalue)
fuente gl SC CM Fc pvalue
1 Q1 1 64.8 64.80 99.6923 0
2 Q2 1 0.4 0.40 0.6154 0.4442
3 Q3 1 19.6 19.60 30.1538 0
4 Residuals 16 10.4 0.65
Conclusiones
Se ha encontrado que existe diferencia muy altamente significativas entre las medias de
los rendimientos obtenido en forma conjunta con los fertilizantes (T1 y T2) versus las
medias de los rendimientos obtenidas en forma conjunta con los fertilizantes (T3 y T4).
También se encontrados diferencias muy altamente significativas entre la media de los
rendimientos obtenidos con los fertilizantes T3 y T4. No se ha encontrado diferencias a
un nivel de significación del 10% entre las medias de los rendimientos obtenidos entre
los fertilizantes T1 y T2.
Prueba de Scheffe
Es una prueba que permite realizar pruebas sobre cualquier función estimable de
medias de la variable respuesta de los tratamientos. Esto quiere decir que se puede
realizar infinitas pruebas simultáneas aunque en la práctica se realice un número finito
de pruebas simultáneas. Inclusive esta prueba es válida para comparaciones sugeridas
por los datos. Luego, las hipótesis son sobre las siguientes funciones lineales de
parámetros:
t t
L Ci i donde C i 0
i 1 i 1
Para aplicar esta prueba se requiere que los ij son variables aleatorias independientes
distribuidas normalmente con media cero y variancia común 2 .
t
H 0 : Ci i 0 contra
i 1
t
H a : Ci i 0
i 1
Nivel de significación
t
Lˆ CiYi.
i 1
Ci2
k
S Lˆ CME
i 1 ni
t = número de tratamientos
Se acepta H 0 , si
L̂ VCS
Se rechaza H 0 , si
L̂ VCS
H 0 : A B C D 0 contra la alternativa H a : A B C D 0
0.05
A B C D
Yi. 61 66 68 61
ni 4 6 6 8
Ci 1 1 -1 -1
CME 5.6 , F 0.95,4,20 3.10
4
Lˆ CiYi. 1 61 1 66 1 68 1 61 2
i 1
4
C2 12 12 12 12
S Lˆ CME i 5.6 1.991649
i 1 ni 4 6 6 8
Usando R
> tiempo<-coag[,1]
> dieta<-coag[,2]
> yp<-tapply(tiempo,dieta,mean)
> ci<-c(1,1,-1,-1)
> lab<-abs(t(ci)%*%yp)
> lab
[,1]
[1,] 2
> re<-tapply(tiempo,dieta,length)
> mod<- lm(tiempo~dieta)
> cme<-deviance(mod)/df.residual(mod)
> sdl<-sqrt(cme*(sum(ci^2/re)))
> vcs5<-sdl*sqrt(3*qf(0.95,3,20))
> vcs5
[1] 6.072138
> vcs10<-sdl*sqrt(3*qf(0.9,3,20))
> vcs10
[1] 5.321939
no es el mejor.
Los intervalos de confianza simultáneos (ICS) de las CMM para i . máx j tiene la
j i
restricción de incluir el cero con la perspectiva de que a la larga dos tratamientos nunca
tienen promedio idénticos. El intervalo de confianza CMM restringido establece que el
tratamiento i es uno de los mejores si el intervalo para i . máx j incluye el cero o el
j i
cero es su límite inferior. Por el contrario, si el límite superior del intervalo para
i . máx j es cero, entonces el tratamiento i no es el mejor. El procedimiento para
j i
2CME
2.- La cantidad M d ,t 1, gle , donde d ,t 1, gle es el estadístico tabulado para las
r
comparaciones de un lado en la Tabla IV del apéndice del texto Diseños de
Experimentos de Robert Kuehl para una tasa experimental de , t 1 comparaciones y
gle grados de libertad del error experimental.
3.- Encontrar los intervalos de confianza restringidos. El límite inferior del intervalo de
confianza restringido para i . máx j es:
j i
D M , Si Di M 0
L i
0 de otra manera
D M , Si Di M 0
U i
0 de otra manera
4.- Para obtener el mejor tratamiento o el conjunto de los mejores de tratamientos con
una tasa de error experimental de se selecciona a aquellos tratamientos cuyo límite
superior cumple con la regla: Di M 0
no es el mejor.
2CME
2.- La cantidad M d ,t 1, gle , donde d ,t 1, gle es el estadístico tabulado para las
r
comparaciones de un lado en la Tabla IV del apéndice del texto Diseños de
Experimentos de Robert Kuehl para una tasa experimental de , t 1 comparaciones y
gle grados de libertad del error experimental.
3.- Encontrar los intervalos de confianza restringidos. El límite inferior del intervalo de
confianza restringido para i . min j es:
j i
D M , Si Di M 0
L i
0 de otra manera
D M , Si Di M 0
U i
0 de otra manera
4.- Para obtener el mejor tratamiento o el conjunto de los mejores de tratamientos con
una tasa de error experimental de se selecciona a aquellos tratamientos cuyo límite
inferior cumple con la regla: Di M 0
Observación: Hsu (1996) desarrolló su metodología para el caso balanceado donde las
variancias de la diferencia de media de la variable respuesta de tratamientos son todos
iguales. Por otro lado, para el caso del Diseño completamente aleatorizado
desigualmente repetido, recomienda algunas aproximaciones basadas en desigualdades
de probabilidad, que paquetes como el Minitab ha incorporado
Método
Análisis de Varianza
R-cuad. R-cuad.
S R-cuad. (ajustado) (pred)
2.83901 74.69% 69.63% 60.46%
Medias
Diferencia
Diferencia de las EE de Valor p
de niveles medias diferencia IC de 95% Valor T ajustado
15 - 30 -11.80 1.80 (-15.94, 0.00) -6.57 0.000
20 - 30 -6.20 1.80 (-10.34, 0.00) -3.45 0.004
25 - 30 -4.00 1.80 ( -8.14, 0.14) -2.23 0.058
30 - 25 4.00 1.80 ( -0.14, 8.14) 2.23 0.058
35 - 30 -10.80 1.80 (-14.94, 0.00) -6.01 0.000
20
Resistencia
15
10
5
15 20 25 30 35
Porcentajes
La desviación estándar agrupada se utilizó para calcular los intervalos.
En este caso el conjunto de los tratamientos con mejores resistencia promedio está dado
por los tratamientos con los porcentajes de algodón 25 y 30
Método
Análisis de Varianza
R-cuad. R-cuad.
S R-cuad. (ajustado) (pred)
2.36643 67.06% 62.12% 53.46%
Medias
Diferencia
Diferencia de las EE de Valor p
de niveles medias diferencia IC de 95% Valor T ajustado
A - D 0.00 1.45 (-3.21, 3.21) 0.00 0.778
B - A 5.00 1.53 ( 0.00, 8.39) 3.27 0.005
C - A 7.00 1.53 ( 0.00, 10.39) 4.58 0.000
D - A 0.00 1.45 (-3.21, 3.21) 0.00 0.778
70.0
67.5
Tiempo
65.0
62.5
60.0
A B C D
dieta
La desviación estándar agrupada se utilizó para calcular los intervalos.
k
N ni (1)
i 1
R X ij
ni
Ri i=1, 2, ..., k (2)
j 1
En caso de que existan empates, asignar el promedio de los rangos a cada una de las
observaciones empatadas.
Asunciones:
1.- Todas las muestras son muestras aleatorias de sus respectivas poblaciones
Hipótesis:
H1: Al menos una de las k poblaciones tiende a producir observaciones más grandes que
las restantes.
Nota: La prueba de Kruskal - Wallis está diseñado para ser más sensitivo contra la
diferencia entre medias en k poblaciones, por esta razón, algunas veces la hipótesis
alternativa se expresa como sigue:
1 k Ri2 N N 1
2
T 2 (3)
S i 1 ni 4
donde
1 N N 1
2
R X ij
2
S2 (4)
N 1 i, j 4
N N 1
2
2
si no hay empates S se simplifica a y el estadístico de prueba se reduce a
4
12 k
Ri2
T 3 N 1
N N 1 i 1 ni
(5)
Si hay pocos empates (número de empates moderado) de manera que los valores
obtenidos con la ecuación (3) y (5) son muy próximos, entonces se prefiere usar
ecuación (5).
Regla de decisión:
Si k=3, todos los tamaños de muestras son 5 o menos y no hay empates, el cuantil
exacto puede ser obtenido de la tabla A8. Tabla más completa pueden ser obtenidos de
Iman Quade y Alexander (1975). Cuando hay empates o cuando tablas exactas no son
disponibles, entonces se puede usar la aproximación
Ri R j
ni n j
con
1/ 2
S 2 N 1 T 1 1
t 1 , N k
2 N k ni n j
Así si
1/ 2
Ri R j S 2 N 1 T 1 1
t 1 , N k
ni n j 2 N k ni n j
Se extraen de grandes grupos de alumnos instruidas por uno de los métodos en forma
aleatoria: 4 alumnos del método A, 6 del método B y 5 del método C. Luego se les tomó
una prueba. Los puntajes obtenidos se dan a continuación:
Métodos
A B C
73 91 72
77 90 76
67 81 79
71 83 77
84 78
83
H0: Los tres métodos producen puntajes que se ajustan a la misma distribución en la
pruebas.
H1: Algunos métodos de enseñanza tienen puntajes más altos que otros.
Métodos
A B C
Observ. Rango Observ. Rango Observ. Rango
73 4 91 15 72 3
77 6.5 90 14 76 5
67 1 81 10 79 9
71 2 83 11.5 77 6.5
84 13 78 8
83 11.5
Ri 13.5 75 31.5
ni 4 6 5
N=15
1 N N 1 1 15 15 1
2 2
R X ij
2
S
2
1239 19.92857
N 1 i , j 4 15 1 4
1 k R 2 N N 12 1 15 15 1
2
T 2 i
1181.513 11.11535
S i 1 ni 4 19.92857 4
> pvalue<-1-pchisq(11.11535,2)
> pvalue
[1] 0.003857735
La prueba resulto altamente significativa, se rechaza H0 de que los tres métodos de
enseñanza no producen puntajes que se ajustan a la misma distribución
Comparaciones Ri R j S 2 N 1 T 1 1
1/ 2
t1 , N k
ni n j 2
N k ni n j
A y B 9.125 3.078296*
A y C 2.925 3.199059ns
B y C 6.2 2.887698*
> curso<-read.table("calif.txt",T)
> calificación<-curso[,1]
> método<-curso[,2]
> library(agricolae)
> kw<-kruskal(calificación,método)
> kw
$statistics
Chisq p.chisq
11.11532 0.003857788
$parameters
Df ntr t.value alpha test name.t
2 3 2.178813 0.05 Kruskal-Wallis método
$means
rank calificación std r Min Max
a 3.375 72.00000 4.163332 4 67 77
b 12.500 85.33333 4.131182 6 81 91
c 6.300 76.40000 2.701851 5 72 79
$comparison
NULL
$groups
trt means M
1 b 12.500 a
2 c 6.300 b
3 a 3.375 b
> kw1<-kruskal(calificación,método,group=FALSE)
> kw1
Study:
Kruskal-Wallis test's
Ties or no Ties
Value: 11.11532
degrees of freedom: 2
Pvalue chisq : 0.003857788
calificación replication
a 3.375 4
b 12.500 6
c 6.300 5
H 0 : i i
H1 : i i
Conclusiones
Se ha encontrado diferencias altamente significativas entre las medias de los rendimientos obtenidos con
los métodos de enseñanza a y b. También entre las medias de los rendimientos obtenidos con los métodos
de enseñanza b y c Por último, solo se obtuvo diferencia a un nivel de significación del 10% entre las
medias de los rendimientos obtenidos a y c