0% encontró este documento útil (0 votos)
161 vistas37 páginas

CAP 3 Comparaciones - Multiples1

Este documento describe diferentes pruebas estadísticas para realizar comparaciones múltiples entre tratamientos en un experimento. Explica la prueba t y la diferencia mínima significativa (DMS), que se usan para comparaciones planeadas entre dos medias. También menciona pruebas de Duncan, Tukey-Kramer, Bonferroni y Dunnett que se usan para múltiples comparaciones planeadas o no planeadas. Al realizar múltiples comparaciones, aumenta el riesgo de cometer errores tipo I.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
161 vistas37 páginas

CAP 3 Comparaciones - Multiples1

Este documento describe diferentes pruebas estadísticas para realizar comparaciones múltiples entre tratamientos en un experimento. Explica la prueba t y la diferencia mínima significativa (DMS), que se usan para comparaciones planeadas entre dos medias. También menciona pruebas de Duncan, Tukey-Kramer, Bonferroni y Dunnett que se usan para múltiples comparaciones planeadas o no planeadas. Al realizar múltiples comparaciones, aumenta el riesgo de cometer errores tipo I.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

Comparaciones Múltiples

Cuando se realiza un experimento, y se utiliza el modelo I, el investigador siempre está


interesado en determinar si existe o no diferencia significante de comparaciones entre
dos medias de la variable respuesta con diferentes tratamientos. Estas comparaciones
pueden ser planeadas o no antes del experimento. Las pruebas de comparaciones más
usadas son:

1) Prueba de t y DMS o DLS (Diferencia Mínima o Limite Significante)(Para


comparaciones planeadas).
2) Prueba de Duncan (Para muchas comparaciones planeadas o comparaciones no
planeadas).
3) Prueba de Tukey Kramer (Para muchas comparaciones planeadas o comparaciones
no planeadas).
4) Prueba de Bonferroni (para pocas comparaciones entre en m pares).
5) Prueba de Dunnett (para comparar con un tratamiento testigo o control).
6) Prueba de t y F con contrastes.
7) Prueba de Scheffe (para funciones lineales de media o para contraste y
comparaciones no planeadas).
8) La prueba de Hsu con el mejor tratamiento (cuando se desea que el mejor o el
conjunto de los mejores tratamientos sea seleccionado, Minitab tiene programado solo
para DCA)

Prueba de t y Diferencia Mínima o Límite Significante (DMS o DLS)

Esta prueba puede realizarse si se cumple las siguientes condiciones:

a) Esta prueba es válida para comparaciones planeadas. Es decir, cuando las


comparaciones entre dos medias de la variable respuesta con diferentes
tratamientos han sido planeados de antemano, antes de realizar el experimento.
b) La prueba de F en el ANVA debe resultar significativa.
c) Los  ij es una variable aleatoria independiente distribuida normalmente con
media cero y variancia común  2 .

Prueba de t

Planteamiento de hipótesis

Caso Bilateral Unilateral a la derecha Unilateral a la izquierda


H 0 : i  i  k H 0 : i  i  k 0 H 0 : i  i  k 0
H 0 : i  i  k H 0 : i  i  k

H a : i  i  k H a : i  i  k H a : i  i  k

Para i  i , i, i  1, 2, ,t

Nivel de significación 
Estadística de prueba

Yi  Yi  k
tc  ~ tGLE  / H 0 es verdadera
SYi Yi
donde:
GLE = Grados de libertad del error
1 1 
SYi Yi  CME   
 ni ni 
Criterio de decisión

Decisión Caso Bilateral Unilateral a la Unilateral a la


derecha izquierda
Se acepta H 0 t  
 tc  t  
tc  t1 ,GLE  tc  t ,GLE 
 ,GLE  1 ,GLE 
2   2 

Se rechaza H 0 tc  t  
o tc  t  
tc  t1 ,GLE  tc  t ,GLE 
 ,GLE  1 ,GLE 
2   2 

Diferencia mínima o límite de significación (DMS o DLS)

H 0 : i  i
H a : i  i
Para i  i , i, i  1, 2, ,t

Nivel de significación 

En la prueba de t se acepta H 0 si

t  
 tc  t  
 ,GLE  1 ,GLE 
2   2 

Yi  Yi
t  
  t  
 ,GLE  SYi Yi 1 ,GLE 
2   2 

t  S
 Yi Yi
 Yi  Yi  t  S
 Yi Yi
1 ,GLE  1 ,GLE 
 2   2 

Yi  Yi  t  S
 Yi Yi
1 ,GLE 
 2 

Y se rechaza H 0 si
Yi  Yi  t  S
 Yi Yi
1 ,GLE 
 2 
Entonces si definimos

DMS  i, i   t  S
 Yi Yi
o DLS  i, i   t  S
 Yi Yi
1 ,GLE  1 ,GLE 
 2   2 
Luego, un criterio para examinar si existe diferencia significativa entre comparaciones
de dos medias de la variable respuestas de diferentes tratamientos se puede usar este
criterio de la diferencia mínima o límite significante  DMS  i, i  o DLS  i, i  . Esto
es, se rechaza H 0 si

Yi  Yi  DMS  i, i  o Yi  Yi  DLS  i, i 


Para i  i , i, i  1, 2, ,t

Ejemplo: Para el ejemplo de tiempo de coagulación, suponga se ha planeado comparar


las verdaderas media de los tiempos de coagulación que se obtiene con la dieta A y la
dieta C, use la prueba de t para realizar esta comparación a un nivel de significación
  0.05 .

H 0 :  A  C
H a :  A  C

  0.05

1 1
 5.6  
1 1
SYA YC  CME       1.5275
 nA nC   4 6 

YA  YC 61  68
tc    4.5826
SYA YC 1.5275
t 0.025,20  2.086 y t 0.975,20  2.086 , como tc  t 0.975,20 , se rechaza H 0
> pvalue<-2*(1-pt(4.5826,20))
> pvalue
[1] 0.000180503

Ejemplo Si se planeo realizar todas las comparaciones en el ejemplo de coagulación a


un nivel de significación   0.05 , use la prueba de DMS. Luego, se tiene:

H 0 : i  i
H a : i  i Para i  i , i, i  A, B, C, D

i A D B C
Yi. 61 61 66 68
ni 4 8 6 6

Comparaciones Yi  Yi SYi Yi DMS  i, i   t 0.975,20 SYi Yi


C-A 7 1.5275 3.1864 *
C-D 7 1.2780 2.6659 *
C-B 2 1.3663 2.8501 ns
B-A 5 1.5275 3.1864 *
B-D 5 1.2780 2.6659 *
D-A 0 1.4491 3.0228 ns
*=significativo, ns= no significativo

Prueba de t con R
> coag<-read.table("coag.txt",header=TRUE)
> tiempo<-coag[,1]
> dieta<-coag[,2]
> pairwise.t.test(tiempo,dieta,p.adjust.method="none")

Pairwise comparisons using t tests with pooled SD

data: tiempo and dieta

a b c
b 0.00380 - -
c 0.00018 0.15878 -
d 1.00000 0.00086 2.3e-05

P value adjustment method: none

Las comparaciones múltiples afectan las tasas de error

Para probar la hipótesis


H 0 : i   j
H1 : i   j para i  j , i, j  1, 2, ,t

se utiliza la estadística

yi  y j
t0  (1)
1 1 
s2   
 ri rj 

Siendo s 2  CME , el nivel de significación o probabilidad de error tipo I para una sola
prueba es una tasa de error con respecto a la comparación ,  C , es el riesgo que se están
dispuestos a correr en una sola comparación .

Si se tienen t tratamientos entonces se pueden hacer t  t  1 2 comparaciones por


pares. Por ejemplo si se tienen cuatro tratamientos: A, B, C, D, entonces se puede hacer
4  3 / 2  6 pares posibles de comparaciones: (A,B), (A,C), (A,D), (B,C), (B,D), (C,D),
Si se prueban los 6 pares existe la posibilidad de cometer 0, 1, 2, 3, 4, 5 o 6 errores de
tipo I, si las medias poblacionales son iguales.

Con la posibilidad de hasta 6 errores tipo I para 6 pruebas, se puede emplear otra forma
de error tipo I basada en el riesgo acumulado asociado con la familia de prueba en
estudio. La familia es el conjunto de comparaciones por pares como para el ejemplo del
párrafo anterior. El riesgo acumulado asociado con una familia de comparaciones se
conoce como la tasa de error tipo I con respecto al experimento,  E . Es el riesgo de
cometer al menos un error tipo I en la familia de comparaciones en el experimento.

Para una familia de pruebas independientes, se puede evaluar la tasa de error tipo I con
respecto al experimento. Sin embargo, no todas las pruebas son independientes con la
ecuación dado en (1), ya que s 2  CME en el denominador es la misma, y en el
numerador de cada prueba contiene la misma media que en algunos otros estadísticos
t0 .

Aunque las pruebas en la familia descrita no son independientes, se puede evaluar el


límite superior para el valor del error tipo I con respecto al experimento, si se suponen
pruebas independientes. Suponiendo que las hipótesis nulas son ciertas para cada una de
t  t  1
las n  pruebas, la probabilidad de un error tipo I para cualquier prueba sola es
2
 C (la tasa respecto a la comparación) con 1  C  como la probabilidad de una
decisión correcta. La probabilidad de cometer x errores tipo I está dada por la
distribución Binomial como:

n
P  x      Cx 1   C 
n x
(2)
 x
para x  0,1, , n errores tipo I. La probabilidad de no cometer error tipo I es:

P  X  0   1  C 
n
(3)

La probabilidad de cometer al menos un error tipo I ( x  1, 2, , n ) es


P  x  1  1  P  x  0  , o sea

 E  1  1  C 
n
(4)
La probabilidad  E es el riesgo de cometer al menos un error tipo I entre las n
comparaciones independientes. Es el límite superior de la tasa de error tipo I con
respecto al experimento, para n pruebas en un conjunto de medias de variables
respuestas con diferentes tratamientos.

La relación

C  1  1   E 
1/ n
(5)

Expresa la tasa de error tipo I con respecto a la comparación como una función de la
tasa de error tipo I con respecto al experimento o familiar.

En la siguiente tabla se muestra la relación entre la tasa de error tipo I del Experimento
o familiar y la tasa de error tipo I de la comparación
N  E cuando C  0.05 C cuando  E  0.05
1 0.050 0.050
2 0.098 0.025
3 0.143 0.017
4 0.185 0.013
5 0.226 0.010
10 0.401 0.005

Para el caso del ejemplo de comparación de las medias de los tiempos de coagulación si
se fija una tasa de error tipo I C  0.05 para cada comparación, la tasa de error tipo I
para el experimento será de  E  1  1  .05  0.265 y si se fija una tasa de error tipo I
6

para el experimento de  E  0.05 , la tasa de error tipo I para la comparación será de


C  1  (1  0.05)1/ 6  0.009

Nota: la prueba t y DMS o DLS es recomendable para una sola comparación planeada

El Método de Bonferroni

Este método se basa en la desigualdad de Bonferroni, el cual dice: dado una secuencia
de eventos  Aj  , P  j 
Aj   j P  Aj  . De esta manera la posibilidad de uno o más
error tipo I es una colección arbitraria de la prueba es a lo más la suma de sus
t
posibilidades separada de error tipo I. Para el caso que se desee realizar nc    de
 2
tratamientos se puede seguir el siguiente procedimiento:

1) Plantear las hipótesis:

H 0 : i  i
H a : i  i , para i  i , y i, i  1, 2, .t

2) Fijar el nivel de significación de comparación simultánea 


3) Encontrar todas las diferencias absolutas de medias muestrales para las
comparaciones:

Yi.  Yi. , para i  i , y i, i  1, 2, .t

4) Encontrar el valor Crítico de Bonferroni

VCB  i, i   t  S
 Y Y
1 ,GLE  i . i .
 2 nc 
donde:
1 1 
SYi . Yi.  CME   
 ni ni 

Se rechaza H 0 para i  i , y i, i  1, 2, . t , si

Yi.  Yi.  VCB  i, i 

Para aplicar esta prueba se requiere que  ij son variables aleatorias independientes
distribuidas normalmente con media cero y variancia común  2 . Además, en este caso
las comparaciones deben ser planeadas de antemano. Esta prueba es recomendable
cuando se desea realizar pocas comparaciones entre medias de la variable respuesta de
dos tratamientos.

Ejemplo Si se planeó realizar todas las comparaciones en forma simultánea en el


ejemplo de coagulación a un nivel de significación   0.05 , use la prueba de
Bonferroni. Luego, se tiene:

H 0 : i  i
H a : i  i Para i  i , i, i  A, B, C, D

i A D B C
Yi. 61 61 66 68
ni 4 8 6 6

t 0.05 
 t 0.9958333,20   2.927116 , esto se obtuvo usando R:
1 ,20 
 12 
> qt(0.9958333,20)
[1] 2.927116

Comparaciones Yi  Yi SYi Yi VCB  i, i   t 0.9995833,20 SYi Yi


C-A 7 1.5275 4.471243* 4.471243
C-D 7 1.2780 3.74091* 3.740910
C-B 2 1.3663 3.999201ns 3.999201
B-A 5 1.5275 4.471243* 4.471243
B-D 5 1.2780 3.74091* 3.740910
D-A 0 1.4491 4.241793ns 4.241793
*=significativo , ns= no significativo

> pairwise.t.test(tiempo,dieta,p.adjust.method="bonferroni")

Pairwise comparisons using t tests with pooled SD

data: tiempo and dieta

a b c
b 0.02282 - -
c 0.00108 0.95266 -
d 1.00000 0.00518 0.00014

P value adjustment method: bonferroni

Nota el R da los pvalue ajustado de manera que se pueda tomar decisiones con la tasa
de error para cada comparación.

La prueba de Duncan

Esta prueba fue propuesta por Duncan(1955), con el nombre de la nueva prueba de
rango-múltiple”.

Para aplicar esta prueba es necesario que


.
i) Los  ij sea una variable aleatoria independiente distribuida normalmente con
media cero y variancia común  2 .
ii) Es menos rigurosa que la prueba de Tukey pero más rigurosa que la prueba de
DLS
iii) Se usa para comparaciones planeadas y no planeadas

Para realiza la prueba de Duncan se procede de la siguiente manera:

Planteamiento de hipótesis
H 0 : i  i
H a : i  i Para i  i , i, i  1, 2, ,t

Nivel de significación 

Cálculo del Valor Crítico:


1
w  d  p, GLE  SY Y
2 i i

donde:
d  p, GLE  =amplitud estudiantizada para la prueba de Duncan
p = número de medias muestrales ordenadas de menor a mayor comprendidas
entre ellas inclusive.
GLE = Grados de libertad del error
1 1 
SYi Yi  CME   
 ni ni 

Se rechaza H 0 a un nivel de significación  , si

Yi  Yi  w
Ejemplo Use la prueba de Duncan para realizar todas comparaciones en el ejemplo de
coagulación a un nivel de significación   0.05 .
i A D B C
Yi. 61 61 66 68
ni 4 8 6 6

p 2 3 4
d0.05  p, 20  2.95 3.10 3.18
H 0 : i  i
H a : i  i Para i  i , i, i  A, B, C, D

Comparaciones Y  Y 
i i
SYi Yi p d0.05  p, 20  w  d0.05  p, 20 
1
SY Y
2 i i
C-A 7 1.5275 4 3.18 3.4347 *
C-D 7 1.2780 4 3.18 2.8737*
C-B 2 1.3663 2 2.95 2.8501ns
B-A 5 1.5275 3 3.10 3.3483*
B-D 5 1.2780 3 3.10 2.8014*
D-A 0 1.4491 2 2.95 3.0228ns
*=significativo , ns= no significativo

i A D B C
Yi. 61 61 66 68
ni 4 8 6 6

Con el paquete R
> library(agricolae)
> anva<-aov(Tiempo~dieta,coag)
> compd<-duncan.test(anva,"dieta")
> compd
$statistics
Mean CV MSerror
64 3.69755 5.6

$parameters
Df ntr
20 4

$Duncan
Table CriticalRange
2 2.949998 2.937680
3 3.096506 3.083577
4 3.189616 3.176298

$means
Tiempo std r Min Max
A 61 1.825742 4 59 63
B 66 2.828427 6 63 71
C 68 1.673320 6 66 71
D 61 2.618615 8 56 64
$comparison
NULL

$groups
trt means M
1 C 68 a
2 B 66 a
3 A 61 b
4 D 61 b
> compd<-duncan.test(anva,"dieta",group=FALSE)
> compd
$statistics
Mean CV MSerror
64 3.69755 5.6

$parameters
Df ntr
20 4

$Duncan
Table CriticalRange
2 2.949998 2.937680
3 3.096506 3.083577
4 3.189616 3.176298

$means
Tiempo std r Min Max
A 61 1.825742 4 59 63
B 66 2.828427 6 63 71
C 68 1.673320 6 66 71
D 61 2.618615 8 56 64

$comparison
Difference pvalue sig. LCL UCL
A - B -5 0.002007 ** -7.937680 -2.0623197
A - C -7 0.000104 *** -10.083577 -3.9164227
A - D 0 1.000000 -2.937680 2.9376803
B - C -2 0.170968 -4.937680 0.9376803
B - D 5 0.002722 ** 1.916423 8.0835773
C - D 7 0.000132 *** 3.823702 10.1762981

$groups
NULL

Conclusiones

Se ha encontrado diferencias muy altamente significativas entre las medias de los


tiempos de coagulación obtenidos entre dietas A y C. También se ha encontrado
diferencias muy altamente significativas entre las medias de los tiempos de coagulación
obtenidos entre dietas D y C.

Se ha encontrado diferencias altamente significativas entre las medias de los tiempos de


coagulación obtenidos entre dietas D y B. También se encontrado diferencias altamente
significativa entre las medias de los tiempos de coagulación obtenidos entre dietas A y
B

No se ha encontrado diferencia a un nivel de significación del 10% entre las medias del
tiempo de coagulación obtenidos A y D. Tampoco se encontrado diferencias a un nivel
de significación del 10% entre las medias de los tiempos de coagulación obtenidos con
las dietas B y C

> Tiempo<-coag$Tiempo
> dieta<-coag$dieta
> yp<-tapply(Tiempo,dieta,mean)
> sort(yp)
A D B C
61 61 66 68

Si entereza seleccionar el conjunto de dietas que proporciona menores medias de


tiempos de coagulación se recomendaría las dietas A y D

Prueba de Tukey-Kramer (Tukey HSD)

Esta prueba fue propuesta por Tukey(1949), quien desarrolló un procedimiento que
proporciona una tasa con respecto al experimento en el sentido fuerte, para las
comparaciones por pares de todas las medias de la variable respuestas sujetos
tratamiento diferentes, que se usa para obtener intervalos de confianza simultáneos de
100 1    % . A la prueba se le conoce por varios nombres, entre ellas “diferencia
honestamente significativa”.

Para aplicar esta prueba es necesario que los  ij sea una variable aleatoria independiente
distribuida normalmente con media cero y variancia común  2 . Es necesario que la
prueba de F en ANVA sea significativo.Para realiza la prueba de Tukey se procede de la
siguiente manera:

Planteamiento de hipótesis
H 0 : i  i
H a : i  i Para i  i , i, i  1, 2, ,t

Nivel de significación 

Cálculo del Valor Crítico:


1
w  q  t , GLE  SY Y
2 i i

donde:
q  t , GLE  =amplitud estudiantizada para la prueba de Tukey
t = número de tratamiento a comparar
GLE = Grados de libertad del error
1 1 
SYi Yi  CME   
 ni ni 

Se rechaza H 0 a un nivel de significación  , si


Yi  Yi  w
Ejemplo Use la prueba de Tukey para realizar todas comparaciones en el ejemplo de
coagulación a un nivel de significación   0.05 .

i A D B C
Yi. 61 61 66 68
ni 4 8 6 6

q0.05  4, 20   3.96

H 0 : i  i
H a : i  i Para i  i , i, i  A, B, C, D

Comparaciones Yi  Yi SYi Yi


w  q0.05  4, 20 
1
SY Y
2 i i
C-A 7 1.5275 4.2770 *
C-D 7 1.2780 3.5784 *
C-B 2 1.3663 3.82564 ns
B-A 5 1.5275 4.2770 *
B-D 5 1.2780 3.5784 *
D-A 0 1.4491 4.0575 ns
*=significativo, ns= no significativo

i A D B C
Yi. 61 61 66 68
ni 4 8 6 6

Con el paquete R

Para realizar estas pruebas con el lenguaje R bajar del CRAN los paquetes multcomp y
mvtnorm. Esto puede realizarse directamente usando el Menú para el caso que tuviera
Internet. Ente caso ir a Package y dentro de esto a la opción Install package(s) from
CRAN. Para el caso que no tuviera internet, se puede ir al CRAN y bajar los archivos
zip en www.cran.r-project/bin/windows, guardar estos archivos en una carpeta, luego ir
al menu de R a Package y dentro de este ir a la opción Install package(s) from local zip
files buscar la carpeta e instalar estos paquetes. Una vez instalado esto queda grabado en
una librería. Para usar estos paquetes primero instalar mediante la opción de Menu en
Packages e ir a la opción Load Packages y leer primero “mvtnorm” luego hacer lo
mismo con multcomp.

> coag<-read.table("coag.txt",header=T)
> anva<-aov(Tiempo~dieta,data=coag)
> summary(mod)
Df Sum Sq Mean Sq F value Pr(>F)
dieta 3 228.0 76.0 13.571 4.658e-05 ***
Residuals 20 112.0 5.6

> library(multcomp)
> cht <- glht(anva, linfct = mcp(dieta = "Tukey"))
> summary(cht)

Simultaneous Tests for General Linear Hypotheses

Multiple Comparisons of Means: Tukey Contrasts

Fit: aov(formula = Tiempo ~ dieta, data = coag)

Linear Hypotheses:
Estimate Std. Error t value Pr(>|t|)
B - A == 0 5.000e+00 1.528e+00 3.273 0.01832 *
C - A == 0 7.000e+00 1.528e+00 4.583 < 0.001 ***
D - A == 0 -1.071e-14 1.449e+00 -7.39e-15 1.00000
C - B == 0 2.000e+00 1.366e+00 1.464 0.47487
D - B == 0 -5.000e+00 1.278e+00 -3.912 0.00433 **
D - C == 0 -7.000e+00 1.278e+00 -5.477 < 0.001 ***
---
Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
(Adjusted p values reported -- single-step method)

Conclusiones

Se ha encontrado diferencias muy altamente significativas entre las medias de los


tiempos de coagulación obtenidos entre dietas A y C. También se ha encontrado
diferencias muy altamente significativas entre las medias de los tiempos de coagulación
obtenidos entre dietas D y C.

Se ha encontrado diferencias altamente significativas entre las medias de los tiempos de


coagulación obtenidos entre dietas D y B

Se encontrado diferencias significativa entre las medias de los tiempos de coagulación


obtenidos entre dietas A y B

No se ha encontrado diferencia a un nivel de significación del 10% entre las medias del
tiempo de coagulación obtenidos A y D. Tampoco se encontrado diferencias a un nivel
de significación del 10% entre las medias de los tiempos de coagulación obtenidos con
las dietas B y C

Con otro comando en R

> coag<-read.table("coag.txt",header=T)
> anva<-aov(Tiempo~dieta,data=coag)
> TukeyHSD(anva,"dieta")
Tukey multiple comparisons of means
95% family-wise confidence level

Fit: aov(formula = Tiempo ~ dieta, data = coag)

$dieta
diff lwr upr p adj
B-A 5.000000e+00 0.7245544 9.275446 0.0183283
C-A 7.000000e+00 2.7245544 11.275446 0.0009577
D-A -1.421085e-14 -4.0560438 4.056044 1.0000000
C-B 2.000000e+00 -1.8240748 5.824075 0.4766005
D-B -5.000000e+00 -8.5770944 -1.422906 0.0044114
D-C -7.000000e+00 -10.5770944 -3.422906 0.0001268

> Tiempo<-coag$Tiempo
> dieta<-coag$dieta
> yp<-tapply(Tiempo,dieta,mean)
> sort(yp)
A D B C
61 61 66 68

Si entereza seleccionar el conjunto de dietas que proporciona menores medias de


tiempos de coagulación se recomendaría las dietas A y D

Prueba de Dunnett (comparaciones de todas las medias de la variable respuesta,


excepto la de control, con la media de la variable respuesta obtenido con un tratamiento
control o testigo)

Tratamiento testigo o control: Es un tratamiento estándar, cuya efectividad es conocida.


Este tratamiento se usa cuando la efectividad de los tratamientos en estudio es no
conocido o cuando las efectividades de los tratamientos bajo estudio son conocidos,
pero no es consistente bajo todas las condiciones.

Ejemplo: En un experimento para comparar el efecto de tres nuevos aditivos para


gasolina, el tratamiento de control puede ser sin aditivo.

Procedimiento: Para realizar la comparación de todas las medias de la variable respuesta


al cual se aplicaron los tratamientos diferentes al testigo con la media de la variable
respuesta con el tratamiento testigo se usa la prueba de Dunnett. Para aplicar esta prueba
requiere:

a) Las comparaciones deben ser planeada


b) Los  ij sea una variable aleatoria independiente distribuida normalmente con
media cero y variancia común  2 .

H 0 : i  1
H a : i  1 , para i  2, ,t

Donde: 1 = es la media de la variable respuesta con el tratamiento testigo o de control

Nivel de significación 

Valor Crítico:
d   tDunnet  , t*, GLE  SYi Y1 , para i  2, ,t
Donde:

tDunnet  , t*, GLE  = t de Dunnett con un nivel de significación  .


t * = número de tratamiento a comparar sin incluir el testigo
GLE = Grados de libertad del error

1 1 
SYi Yi  CME   
 ni ni 

Se rechaza H 0 aun nivel de significación  , si

Yi  Y1  d  , para i  2, ,t
Ejemplo: Suponga que el tratamiento A es el testigo. Use la prueba de Dunnett para
realizar la comparación entre media de tratamiento testigo con el resto a un nivel de
significación   0.05 .

H 0 : i   A
H a : i   A , para i  B, C, D
  0.05

tDunnett  0.05,3, 20   2.54

Comparaciones Yi  Yi SYi Yi d   tDunnett  0.05,3,20  SYi YA


D-A 0 1.4491 3.6807 ns
C-A 7 1.5275 3.8799 *
B-A 5 1.5275 3.8799 *
*=significativo , ns= no significativo

Usando el paquete R

> library(multcomp)
> coag<-read.table("coag.txt",header=T)
> anva<-aov(Tiempo~dieta,data=coag)
> cdu <- glht(anva, linfct = mcp(dieta = "Dunnett"))
> summary(cdu)

Simultaneous Tests for General Linear Hypotheses

Multiple Comparisons of Means: Dunnett Contrasts

Fit: aov(formula = Tiempo ~ dieta, data = coag)

Linear Hypotheses:
Estimate Std. Error t value Pr(>|t|)
B - A == 0 5.000e+00 1.528e+00 3.273 0.00955 **
C - A == 0 7.000e+00 1.528e+00 4.583 < 0.001 ***
D - A == 0 -1.071e-14 1.449e+00 -7.39e-15 1.00000
---
Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
(Adjusted p values reported -- single-step method)

Asumiendo que el testigo es la dieta C

> Tiempo<-coag$Tiempo
> dieta<-coag$dieta
> dieta<-relevel(dieta,"C")
> anva<-aov(Tiempo~dieta)
> cdu <- glht(anva, linfct = mcp(dieta = "Dunnett"))
> summary(cdu)

Simultaneous Tests for General Linear Hypotheses

Multiple Comparisons of Means: Dunnett Contrasts

Fit: aov(formula = Tiempo ~ dieta)

Linear Hypotheses:
Estimate Std. Error t value Pr(>|t|)
A - C == 0 -7.000 1.528 -4.583 <0.001 ***
B - C == 0 -2.000 1.366 -1.464 0.351
D - C == 0 -7.000 1.278 -5.477 <0.001 ***
---
Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
(Adjusted p values reported -- single-step method)

Conclusión

Se ha encontrado diferencias muy altamente significativas entre la medias de los


rendimientos obtenidos entre los fertilizantes A y el control C. Similarmente, se ha
encontrado diferencias muy altamente significativas entre la medias de los rendimientos
obtenidos entre los fertilizantes A y el control C. A un nivel de significación del 10% no
se ha encontrado diferencia significativa entre las medias de los rendimientos obtenidos
con la dieta D y C.

Prueba de t y F con Contraste (solo caso balanceado)

Contraste: Son subconjunto de funciones lineales de los totales o de las medias


estimadas de la variable respuestas de todos los tratamientos. De esta manera si se tiene
t tratamiento, de modo que cada tratamiento está igualmente repetido n veces en el
experimento, entonces un contraste se define:

t t t
Q   CiYi.  nCiYi. , con C i 0
i 1 i 1 i 1

Contrastes Ortogonales:

t t t t
Dos contrastes: Q1   C1iYi.  n C1iYi. y Q2   C2 iYi.  n C2 iYi. son ortogonales
i 1 i 1 i 1 i 1
si

t t t

 C1i  0 ,
i 1
 C2i  0 y
i 1
C C
i 1
1i 2i 0

Nota: En un experimento con t tratamiento y dado un contraste base entonces se puede


formar t-1 contrastes ortogonales.
t t
Media y variancia de un contraste: Sea Q   CiYi. n CiYi. , entonces la media del
i 1 i 1
contraste está dado por:

 t   t  t t
E Q   E  CiYi.   E  n CiYi.   n Ci E Yi.   n Ci i
 i 1   i 1  i 1 i 1

t
E Q   n Ci i
i 1
y la variancia está dado por:

 t  2 2
t t 2 t
Var Q   Var n CiYi.   n  Ci Var Yi.    n Ci
2 2
 n Ci2 2
 i 1  i 1 i 1 n i 1
t
Var Q   n 2  Ci2
i 1
Distribución Muestral de un contraste:

Si los  ij sea una variable aleatoria independiente distribuida normalmente con media
cero y variancia común  2 , entonces

t t
 t t

Q   CiYi. n CiYi. ~ N  n Ci i , n Ci2 2 
i 1 i 1  i 1 i 1 

Luego

t t

 CiYi.   Ci i
Z i 1 i 1
~ N  0,1
2 
t 2

C
i 1
i
n

Además, se sabe que:

 GLE  CME ~  2
 GLE 
2
También se puede demostrar que para este caso las variables

t t

 CiYi.   Ci i  GLE  CME


Z i 1 i 1
~ N  0,1 y
t
2 2
C
i 1
i
2

Son variables aleatorias independientes. Entonces


Z
t ~ tGLE 
 2GLE 
GLE
Luego

t t

C Y  C 
i 1
i i.
i 1
i i

t
2 t t

 Ci2
i 1 n C Y  C 
i i. i i
t  i 1 i 1

 GLE  CME CME t 2


2
 Ci
n i 1
GLE

t t

C Y  C  i i. i i
t i 1 i 1
~ tGLE 
CME t 2
 Ci
n i 1

Para realizar la prueba de t y F que se dan a continuación se necesita las siguientes


condiciones:

a) Los contrastes deben ser planeados antes de realizar el experimento


b) Los  ij sea una variable aleatoria independiente distribuida normalmente con
media cero y variancia común  2 .
c) La prueba F en el ANVA resulte significativo

Prueba de t con contraste:

Suponga que se desea probar una de las siguientes Hipótesis

Caso Bilateral Unilateral a la derecha Unilateral a la izquierda


t t t t t
H 0 :  Ci i  k H 0 :  Ci i  k o H 0 :  Ci i  k H 0 :  Ci i  k o H 0 :  Ci i  k
i 1 i 1 i 1 i 1 i 1
t t t
H a :  Ci i  k H a :  Ci i  k H a :  Ci i  k
i 1 i 1 i 1

a un nivel de significación 

Estadística de Prueba

C Y i i. k
t i 1
~ tGLE  / H 0 es verdadera
CME t 2
 Ci
n i 1
Luego, se tiene los siguientes criterios de decisión

*Decisión Caso Bilateral Unilateral a la Unilateral a la


derecha izquierda
Se acepta H 0 t  
 tc  t  
tc  t1 ,GLE  tc  t ,GLE 
 ,GLE  1 ,GLE 
2   2 

Se rechaza H 0 tc  t  
o tc  t  
tc  t1 ,GLE  tc  t ,GLE 
 ,GLE  1 ,GLE 
2   2 

Ejemplo: Suponga que se tiene cuatro fertilizantes que se desea comparar, con tal
motivo se realizó un experimento bajo un DCA con cinco repeticiones por tratamiento,
de la cual se obtuvo los siguientes resultados:

Fertilizante
T1 T2 T3 T4
Yi. 73.8 74.2 69.0 71.8

10.4
SCE  10.4 Luego CME   0.65
16

Supóngase que se ha planeado realizar la siguiente prueba:

H 0 : 22  3  4  1
H1 : 22  3  4  1

2  74.2   69  71.8  1
tc   7.473028
0.65 2
5

2   1   1
2 2

> pvalue<-1-pt(tc,16)
> pvalue
[1] 6.634694e-07.

La prueba resultó muy altamente significativa, se puede afirmar que la media del
rendimiento obtenido con el fertilizante 2 supera en más de 0.5 unidad a la media de los
rendimientos obtenidos con los fertilizantes 3 y 4.

Prueba de F con contraste:

Suponga que se desea probar la Hipótesis

t
H 0 :  Ci i  0
i 1
t
H a :  Ci i  0
i 1
a un nivel de significación 

Estadística de Prueba:

2
 t 
n   CiYi. 
2
 i 1 
 t  t

  CiYi.  C 2
i
F  t 2   i 1 t   i 1
~ F1,GLE  / H 0
CME
 Ci2
CME
n i 1

Se sabe que t2GLE   F1,GLE  , entonces la prueba de t para este caso es equivalente a usar
la siguiente estadística

Si se hace

2
 t 
n   CiYi 
SCQ   i 1t  =Suma de cuadrado de contraste, entonces se puede usar la

 Ci2
i 1
siguiente estadística de prueba:

SCQ
Fc  ~ F1,GLE  / H 0 es verdadera
CME

Luego, se rechaza H o a un nivel de significación  , si Fc  F1 ,1,GLE 

Prueba de F con contrastes ortogonales

Si se planeado comparar t-1 funciones de medias de la variable respuestas con estos t


tratamientos resultante de t-1 contrastes ortogonales : Q1 , Q2 , , Qt 1 , se puede
demostrar que

SCTrat  SCQ1  SCQ2   SCQt 1


Luego se puede tener el siguiente cuadro de ANVA

Fuente de SC GL CM Fc
Variación
Entre Tratamiento SCTrat GLTrat CMTrat CMTrat / CME
Q1 SCQ1 1 SCQ1 SCQ1 / CME
Q2 SCQ2 1 SCQ2 SCQ2 / CME
. . . . .
. . . . .
. . . . .
Qt 1 SCQt 1 1 SCQt 1 SCQt 1 / CME
Dentro de SCE GLE CME
Tratamiento
Total SCTotal n.  1

Este cuadro de ANVA permite probar las siguientes pruebas de hipótesis:

t t
H 0 :  Cli i  0 versus H a :  Cli i  0 , para l  1, 2, , t 1
i 1 i 1
t t
donde: C
i 1
li 0 y C C
i 1
li l i  0 , para l  l  y l , l   1, 2, , t 1

para el cual se utiliza la siguiente estadística:

SCQl
Fcl  ~ F1,GLE  / H 0 , para l  1, 2, , t 1
CME

Ejemplo:

En el ejemplo del fertilizante se sabe además que los fertilizantes 3 y 4 poseen un


componente K que no poseen los fertilizantes 1 y 2. Se ha planeado antes de realizar el
experimento comparar ( T1 y T2 ) versus ( T3 y T4 ). Obtenga todos los contrastes
ortogonales. Realice las pruebas de hipótesis correspondientes a un nivel de
significación   0.05

Matriz de contraste

Fertilizante
Coeficientes T1 T 2 T3 T4
C1i -1 -1 1 1
C2i -1 1 0 0
C3i 0 0 -1 1
Contrastes ortogonales
Q1  Y1.  Y2.  Y3.  Y4.
Q2  Y1.  Y2.
Q3  Y3.  Y4.

Hipótesis:

( T1 y T2 ) versus ( T3 y T4 )
H 0 : 3  4  1  2  0 contra H a : 3  4  1  2  0

T1 versus T2
H 0 : 2  1  0 contra H a : 2  1  0

T3 versus T4
H 0 : 4  3  0 contra H a : 4  3  0

2
 t 
n   C1iYi. 
 5  73.8  74.2  69.0  71.8 
2

SCQ1   i 1    64.8
            
t 2 2 2 2

 C1i
2

i 1
1 1 1 1

2
 t 
n   C2iYi. 
 5  73.8  74.2 
2

SCQ2   i 1    0.4
     
t 2 2

 C2i
2

i 1
1 1

2
 t 
n   C3iYi. 
 5  69.0  71.8 
2

SCQ3   i 1    19.6
     
t 2 2

 C3i
2

i 1
1 1

Contraste SC GL CM Fc
( T1 y T2 ) versus ( T3 y T4 ) 64.80 1 64.80 99.69**
T1 versus T2 0.4 1 0.4 0.62 ns
T3 versus T4 19.6 1 19.6 30.15**
Residual 10.4 16 0.65
**= altamente Significativo, ns = no significativo F 0.90,1,16  3.05 , F 0.95,1,16  4.49 ,
F 0.99,1,16   8.53

> vp<-c(73.8,74.2,69,71.8)
> sce<-10.4
> r=5
> ct<-c(-1,-1,1,1)
> scc1<-r*((t(ct)%*%vp)^2)/(sum(ct^2))
> scc1
[,1]
[1,] 64.8
> ct2<-c(-1,1,0,0)
> scc2<-r*((t(ct2)%*%vp)^2)/(sum(ct2^2))
> scc2
[,1]
[1,] 0.4
> ct3<-c(0,0,-1,1)
> scc3<-r*((t(ct3)%*%vp)^2)/(sum(ct3^2))
> scc3
[,1]
[1,] 19.6
> tr<-4
> gle<-r*tr-tr
> gle
[1] 16
> cme<-sce/gle
> fuente<-c("Q1","Q2","Q3","Residuals")
> gl<-c(1,1,1,gle)
> SC<-c(scc1,scc2,scc3,sce)
> CM<-SC/gl
> Fc<-c(round(CM[1:3]/CM[4],4),"")
> Fc1<-as.numeric(Fc[1:3])
> pvalue1<-round(1-pf(Fc1,1,gle),4)
> pvalue<-c(pvalue1,"")
> data.frame(fuente,gl,SC,CM,Fc,pvalue)
fuente gl SC CM Fc pvalue
1 Q1 1 64.8 64.80 99.6923 0
2 Q2 1 0.4 0.40 0.6154 0.4442
3 Q3 1 19.6 19.60 30.1538 0
4 Residuals 16 10.4 0.65

Conclusiones
Se ha encontrado que existe diferencia muy altamente significativas entre las medias de
los rendimientos obtenido en forma conjunta con los fertilizantes (T1 y T2) versus las
medias de los rendimientos obtenidas en forma conjunta con los fertilizantes (T3 y T4).
También se encontrados diferencias muy altamente significativas entre la media de los
rendimientos obtenidos con los fertilizantes T3 y T4. No se ha encontrado diferencias a
un nivel de significación del 10% entre las medias de los rendimientos obtenidos entre
los fertilizantes T1 y T2.

Prueba de Scheffe

Es una prueba que permite realizar pruebas sobre cualquier función estimable de
medias de la variable respuesta de los tratamientos. Esto quiere decir que se puede
realizar infinitas pruebas simultáneas aunque en la práctica se realice un número finito
de pruebas simultáneas. Inclusive esta prueba es válida para comparaciones sugeridas
por los datos. Luego, las hipótesis son sobre las siguientes funciones lineales de
parámetros:
t t
L   Ci i donde C i 0
i 1 i 1

Para aplicar esta prueba se requiere que los  ij son variables aleatorias independientes
distribuidas normalmente con media cero y variancia común  2 .

Para probar las siguientes hipótesis

t
H 0 :  Ci i  0 contra
i 1
t
H a :  Ci i  0
i 1

Nivel de significación 

Se utiliza el siguiente valor crítico de la prueba

VCS  S Lˆ  t  1 F1 ,t 1,GLE 


donde:

t
Lˆ   CiYi.
i 1

Ci2
k
S Lˆ  CME 
i 1 ni

t = número de tratamientos

Se acepta H 0 , si
L̂  VCS

Se rechaza H 0 , si
L̂  VCS

Ejemplo: Con los datos de tiempo de coagulación, pruebe:

H 0 :  A  B  C  D  0 contra la alternativa H a :  A  B  C  D  0

  0.05

A B C D
Yi. 61 66 68 61
ni 4 6 6 8
Ci 1 1 -1 -1
CME  5.6 , F 0.95,4,20  3.10
4
Lˆ   CiYi.  1 61  1 66    1 68    1 61  2
i 1

4
C2  12 12  12  12 
S Lˆ  CME  i   5.6        1.991649
i 1 ni  4 6 6 8 

VCS  SLˆ  4 1 F1 ,t 1,GLE   1.991649 33.1  6.072138

Como Lˆ  2  VCS  6.072138 , se acepta H 0

Usando R

> tiempo<-coag[,1]
> dieta<-coag[,2]
> yp<-tapply(tiempo,dieta,mean)
> ci<-c(1,1,-1,-1)
> lab<-abs(t(ci)%*%yp)
> lab
[,1]
[1,] 2
> re<-tapply(tiempo,dieta,length)
> mod<- lm(tiempo~dieta)
> cme<-deviance(mod)/df.residual(mod)
> sdl<-sqrt(cme*(sum(ci^2/re)))
> vcs5<-sdl*sqrt(3*qf(0.95,3,20))
> vcs5
[1] 6.072138
> vcs10<-sdl*sqrt(3*qf(0.9,3,20))
> vcs10
[1] 5.321939

A un nivel de significación del 10% no se ha encontrado diferencias entre las medias de


los tiempos de coagulación obtenido en forma conjunta con las dietas A y B versus la
medias de los rendimientos obtenidos en forma conjunta con las dietas C y D.

Prueba de Comparaciones Múltiple con el Mejor

El objetivo de esta prueba es seleccionar el conjunto de tratamientos o un sólo


tratamiento (si es posible) que proporcione el resultado más deseable. El procedimiento
de comparaciones múltiple con el mejor (CMM) permite al investigador clasificar los
tratamientos de manera que la mejor población esté incluida en subconjunto con un
nivel de confianza dado. Existen dos casos:

a) Elección de subconjunto con la media más grande


b) Elección de subconjunto con la media más pequeña

a) Elección de subconjunto con la media más grande

En este caso los parámetros de interés son:


i .  máx  j , para i  1, 2, ,t
j i

donde: máx  j es la media máxima sin incluir i . Si i .  máx  j  0 , entonces el


j i j i

tratamiento i es el mejor. Por otro lado, si i .  máx  j  0 , entonces el tratamiento i


j i

no es el mejor.

Los intervalos de confianza simultáneos (ICS) de las CMM para i .  máx  j tiene la
j i

restricción de incluir el cero con la perspectiva de que a la larga dos tratamientos nunca
tienen promedio idénticos. El intervalo de confianza CMM restringido establece que el
tratamiento i es uno de los mejores si el intervalo para i .  máx  j incluye el cero o el
j i

cero es su límite inferior. Por el contrario, si el límite superior del intervalo para
i .  máx  j es cero, entonces el tratamiento i no es el mejor. El procedimiento para
j i

construir los intervalos de confianza simultáneos se da a continuación:

1.- Se calcula la diferencia, Di  yi  máx  y j  , para i  1, 2, , t . Esto es entre cada


j i

media de la variable respuesta de estos tratamientos, yi , y con la mayor media de la


variable respuesta de los tratamientos restantes, máx  y j 
j i

2CME
2.- La cantidad M  d ,t 1, gle , donde d ,t 1, gle es el estadístico tabulado para las
r
comparaciones de un lado en la Tabla IV del apéndice del texto Diseños de
Experimentos de Robert Kuehl para una tasa experimental de  , t  1 comparaciones y
gle grados de libertad del error experimental.
3.- Encontrar los intervalos de confianza restringidos. El límite inferior del intervalo de
confianza restringido para i .  máx  j es:
j i

 D  M , Si Di  M  0
L i
0 de otra manera

y el límite superior de confianza para i .  máx  j es:


j i

 D  M , Si Di  M  0
U  i
0 de otra manera

4.- Para obtener el mejor tratamiento o el conjunto de los mejores de tratamientos con
una tasa de error experimental de  se selecciona a aquellos tratamientos cuyo límite
superior cumple con la regla: Di  M  0

b) Elección de subconjunto con la media más pequeña

En este caso los parámetros de interés son:


i .  min  j , para i  1, 2, ,t
j i

donde: min  j es la media mínima sin incluir i . Si i .  min  j  0 , entonces el


j i j i

tratamiento i es el mejor. Por otro lado, si i .  min  j  0 , entonces el tratamiento i


j i

no es el mejor.

El procedimiento para construir los intervalos de confianza simultáneos se da a


continuación:

1.- Se calcula la diferencia, Di  yi  min  y j  , para i  1, 2, , t ; esto es entre medias


j i

de la variable respuesta para dos tratamientos, yi , y la menor media de la variable


respuesta obtenido con los tratamientos restantes, min  y j 
j i

2CME
2.- La cantidad M  d ,t 1, gle , donde d ,t 1, gle es el estadístico tabulado para las
r
comparaciones de un lado en la Tabla IV del apéndice del texto Diseños de
Experimentos de Robert Kuehl para una tasa experimental de  , t  1 comparaciones y
gle grados de libertad del error experimental.
3.- Encontrar los intervalos de confianza restringidos. El límite inferior del intervalo de
confianza restringido para i .  min  j es:
j i

 D  M , Si Di  M  0
L i
0 de otra manera

y el límite superior de confianza para i .  min  j es:


j i

 D  M , Si Di  M  0
U  i
0 de otra manera

4.- Para obtener el mejor tratamiento o el conjunto de los mejores de tratamientos con
una tasa de error experimental de  se selecciona a aquellos tratamientos cuyo límite
inferior cumple con la regla: Di  M  0

Observación: Hsu (1996) desarrolló su metodología para el caso balanceado donde las
variancias de la diferencia de media de la variable respuesta de tratamientos son todos
iguales. Por otro lado, para el caso del Diseño completamente aleatorizado
desigualmente repetido, recomienda algunas aproximaciones basadas en desigualdades
de probabilidad, que paquetes como el Minitab ha incorporado

Ejemplo: Un ingeniero de desarrollo de producto le interesa determinar si el porcentaje


de algodón en una fibra sintética afecta la tensión, y ha llevado a cabo un experimento
completamente aleatorizado con 5 niveles del peso porcentual de algodón y cinco
réplicas. Los resultados sobre resistencia en lb/pulg2 del experimento se muestra a
continuación:
> algodon
Resistencia Porcentajes
1 7 15
2 7 15
3 15 15
4 11 15
5 9 15
6 12 20
7 17 20
8 12 20
9 18 20
10 18 20
11 14 25
12 18 25
13 18 25
14 19 25
15 19 25
16 19 30
17 25 30
18 22 30
19 19 30
20 23 30
21 7 35
22 10 35
23 11 35
24 15 35
25 11 35

ANOVA de un solo factor: Resistencia vs. Porcentajes

Método

Hipótesis nula Todas las medias son iguales


Hipótesis alterna Por lo menos una media es diferente
Nivel de significancia α = 0.05

Se presupuso igualdad de varianzas para el análisis.

Información del factor

Factor Niveles Valores


Porcentajes 5 15, 20, 25, 30, 35

Análisis de Varianza

Fuente GL SC Ajust. MC Ajust. Valor F Valor p


Porcentajes 4 475.8 118.940 14.76 0.000
Error 20 161.2 8.060
Total 24 637.0

Resumen del modelo

R-cuad. R-cuad.
S R-cuad. (ajustado) (pred)
2.83901 74.69% 69.63% 60.46%

Medias

Porcentajes N Media Desv.Est. IC de 95%


15 5 9.80 3.35 ( 7.15, 12.45)
20 5 15.40 3.13 ( 12.75, 18.05)
25 5 17.600 2.074 (14.952, 20.248)
30 5 21.60 2.61 ( 18.95, 24.25)
35 5 10.80 2.86 ( 8.15, 13.45)

Desv.Est. agrupada = 2.83901

Comparaciones múltiples con el mejor (MCB) de HSU

Pruebas simultáneas de Hsu para la media de nivel - La mayor de las medias de


otros niveles

Diferencia
Diferencia de las EE de Valor p
de niveles medias diferencia IC de 95% Valor T ajustado
15 - 30 -11.80 1.80 (-15.94, 0.00) -6.57 0.000
20 - 30 -6.20 1.80 (-10.34, 0.00) -3.45 0.004
25 - 30 -4.00 1.80 ( -8.14, 0.14) -2.23 0.058
30 - 25 4.00 1.80 ( -0.14, 8.14) 2.23 0.058
35 - 30 -10.80 1.80 (-14.94, 0.00) -6.01 0.000

Nivel de confianza individual = 96.80%

IC de 95% simultáneas de Hsu

Gráfica de intervalos de Resistencia vs. Porcentajes


Gráfica de intervalos de Resistencia vs. Porcentajes
95% IC para la media
25

20
Resistencia

15

10

5
15 20 25 30 35
Porcentajes
La desviación estándar agrupada se utilizó para calcular los intervalos.

En este caso el conjunto de los tratamientos con mejores resistencia promedio está dado
por los tratamientos con los porcentajes de algodón 25 y 30

En el caso del tiempo de coagulación, si estuviéramos interesados en determinar con


cuales de las dietas se obtienen las menores medias de los tiempos de coagulación,
aplicando la prueba de Hsu se tiene:

————— 18/04/2018 12:45:34 p.m. ————————————————


————

Bienvenido a Minitab, presione F1 para obtener ayuda.

ANOVA de un solo factor: Tiempo vs. dieta

Método

Hipótesis nula Todas las medias son iguales


Hipótesis alterna Por lo menos una media es diferente
Nivel de significancia α = 0.05

Se presupuso igualdad de varianzas para el análisis.

Información del factor

Factor Niveles Valores


dieta 4 A, B, C, D

Análisis de Varianza

Fuente GL SC Ajust. MC Ajust. Valor F Valor p


dieta 3 228.0 76.000 13.57 0.000
Error 20 112.0 5.600
Total 23 340.0
Resumen del modelo

R-cuad. R-cuad.
S R-cuad. (ajustado) (pred)
2.36643 67.06% 62.12% 53.46%

Medias

dieta N Media Desv.Est. IC de 95%


A 4 61.000 1.826 (58.532, 63.468)
B 6 66.00 2.83 ( 63.98, 68.02)
C 6 68.000 1.673 (65.985, 70.015)
D 8 61.000 2.619 (59.255, 62.745)

Desv.Est. agrupada = 2.36643

Comparaciones múltiples con el mejor (MCB) de HSU

Pruebas simultáneas de Hsu para la media de nivel - la menor de las medias de


otros niveles

Diferencia
Diferencia de las EE de Valor p
de niveles medias diferencia IC de 95% Valor T ajustado
A - D 0.00 1.45 (-3.21, 3.21) 0.00 0.778
B - A 5.00 1.53 ( 0.00, 8.39) 3.27 0.005
C - A 7.00 1.53 ( 0.00, 10.39) 4.58 0.000
D - A 0.00 1.45 (-3.21, 3.21) 0.00 0.778

Nivel de confianza individual = 96.17%

IC de 95% simultáneas de Hsu

Gráfica de intervalos de Tiempo vs. dieta


Gráfica de intervalos de Tiempo vs. dieta
95% IC para la media

70.0

67.5
Tiempo

65.0

62.5

60.0

A B C D
dieta
La desviación estándar agrupada se utilizó para calcular los intervalos.

En este caso el conjunto de los tratamientos con menores medias de tiempos de


coagulación está dado por las dietas A y D

Varias Muestras Independientes (La prueba de Kruskal - Wallis)

Cuando no se cumple el supuesto de Normalidad de los errores, una alternativa es usar


Métodos no paramétricos, como la pruebas de Kruskal-Wallis. Para realizar esta prueba
se sigue el siguiente procedimiento.
Datos: Los datos consisten de k muestras aleatorias, posiblemente de tamaños
diferentes. La i-ésima muestra aleatoria de tamaño ni se denota por X i1 , X i 2 ,  , X ini .
Entonces, los datos pueden ser arreglados en columna:

Muestra1 Muestra 2 ... Muestra k


X11 X21 Xk1
X12 X22 Xk2
. . .
. . .
. . .
X 1n1 X 2n 2 X kn k

Sea N que denota el número total de observaciones

k
N  ni (1)
i 1

Asignar el rango 1 al más pequeño de la totalidad de N observaciones, rango 2 al


segundo más pequeño, y así sucesivamente hasta el más grande de todas las
observaciones, al cual se le asigna rango N. Sea R(Xij) que representa el rango asignado
a Xij. Sea Ri la suma de rango asignado a la i-ésima muestra

 R X ij 
ni
Ri  i=1, 2, ..., k (2)
j 1

Calcule Ri para cada muestra.

En caso de que existan empates, asignar el promedio de los rangos a cada una de las
observaciones empatadas.

Asunciones:

1.- Todas las muestras son muestras aleatorias de sus respectivas poblaciones

2.- Las muestras son mutuamente independientes.

3.- La escala de medida es al menos ordinal.

4.- Las k poblaciones tienen funciones de distribución idénticas, o algunas de las


poblaciones tiende a producir valores más grandes que otras poblaciones.

Hipótesis:

H0: Las k poblaciones tienen funciones de distribución idénticas.

H1: Al menos una de las k poblaciones tiende a producir observaciones más grandes que
las restantes.

Nota: La prueba de Kruskal - Wallis está diseñado para ser más sensitivo contra la
diferencia entre medias en k poblaciones, por esta razón, algunas veces la hipótesis
alternativa se expresa como sigue:

H1: Las k poblaciones no tienen medias idénticas.

Estadístico de Prueba: Se usa el siguiente estadístico

1  k Ri2 N  N  1 
2

T  2    (3)
S  i 1 ni 4 
donde

1  N  N  1 
 
2

 R X ij
2
S2    (4)
N  1  i, j 4 

N  N  1
2
2
si no hay empates S se simplifica a y el estadístico de prueba se reduce a
4
12 k
Ri2
T   3 N  1
N  N  1 i 1 ni
(5)

Si hay pocos empates (número de empates moderado) de manera que los valores
obtenidos con la ecuación (3) y (5) son muy próximos, entonces se prefiere usar
ecuación (5).

Regla de decisión:
Si k=3, todos los tamaños de muestras son 5 o menos y no hay empates, el cuantil
exacto puede ser obtenido de la tabla A8. Tabla más completa pueden ser obtenidos de
Iman Quade y Alexander (1975). Cuando hay empates o cuando tablas exactas no son
disponibles, entonces se puede usar la aproximación

T  2k 1 | H0 es cierta


Se rechaza H0 si T  21 ,k 1
Comparaciones Múltiples:

Si y solamente si la hipótesis nula es rechazada, se puede usar el siguiente


procedimiento para determinar cuales de los pares de poblaciones tiende a ser
diferentes. Así, para ver si existe diferencia entre las poblaciones i y j a un nivel de
significación  se compara:

Ri R j

ni n j
con

1/ 2
 S 2  N  1  T  1 1 
t 1  , N  k     
 2  N k  ni n j  

Así si
1/ 2
Ri R j  S 2  N  1  T  1 1 
  t 1  , N  k     
ni n j  2  N k  ni n j  

Existe diferencia entre las funciones de distribución de las poblaciones i y j a un nivel


de significación .

Ejemplo No 1: Para comparar tres métodos de enseñanza de programación en cierto


lenguaje en computadora, en donde:

El método A: instrucción directa con la computadora


El método B: instrucción de teoría y práctica en computadora
El método C: instrucción solo de clase teóricas

Se extraen de grandes grupos de alumnos instruidas por uno de los métodos en forma
aleatoria: 4 alumnos del método A, 6 del método B y 5 del método C. Luego se les tomó
una prueba. Los puntajes obtenidos se dan a continuación:
Métodos
A B C
73 91 72
77 90 76
67 81 79
71 83 77
84 78
83

H0: Los tres métodos producen puntajes que se ajustan a la misma distribución en la
pruebas.
H1: Algunos métodos de enseñanza tienen puntajes más altos que otros.

Métodos
A B C
Observ. Rango Observ. Rango Observ. Rango
73 4 91 15 72 3
77 6.5 90 14 76 5
67 1 81 10 79 9
71 2 83 11.5 77 6.5
84 13 78 8
83 11.5
Ri 13.5 75 31.5
ni 4 6 5

N=15

1  N  N  1   1   15 15  1 
2 2

 R  X ij  
2
S 
2
   1239    19.92857
N  1  i , j 4   15  1   4 
1  k R 2 N  N  12  1  15 15  1 
2

T 2  i
   1181.513    11.11535
S  i 1 ni 4  19.92857  4 

> pvalue<-1-pchisq(11.11535,2)
> pvalue
[1] 0.003857735
La prueba resulto altamente significativa, se rechaza H0 de que los tres métodos de
enseñanza no producen puntajes que se ajustan a la misma distribución

Como se rechazó H0 en la prueba anterior, entonces se prosigue con las comparaciones


múltiples para determinar entre que métodos existe diferencias en los rendimientos:
t 0.975,11  2.201

Comparaciones Ri R j  S 2  N  1  T   1 1 
1/ 2

 t1  , N k      
ni n j 2
 N k  ni n j  

A y B 9.125 3.078296*
A y C 2.925 3.199059ns
B y C 6.2 2.887698*

> curso<-read.table("calif.txt",T)
> calificación<-curso[,1]
> método<-curso[,2]
> library(agricolae)
> kw<-kruskal(calificación,método)
> kw
$statistics
Chisq p.chisq
11.11532 0.003857788

$parameters
Df ntr t.value alpha test name.t
2 3 2.178813 0.05 Kruskal-Wallis método

$means
rank calificación std r Min Max
a 3.375 72.00000 4.163332 4 67 77
b 12.500 85.33333 4.131182 6 81 91
c 6.300 76.40000 2.701851 5 72 79

$comparison
NULL

$groups
trt means M
1 b 12.500 a
2 c 6.300 b
3 a 3.375 b

> kw1<-kruskal(calificación,método,group=FALSE)
> kw1

Study:
Kruskal-Wallis test's
Ties or no Ties

Value: 11.11532
degrees of freedom: 2
Pvalue chisq : 0.003857788

método, means of the ranks

calificación replication
a 3.375 4
b 12.500 6
c 6.300 5

Comparison between treatments mean of the ranks

Difference pvalue sig LCL UCL


a - b -9.125 0.000032 *** -12.203296 -6.0467039
a - c -2.925 0.069606 . -6.124059 0.2740591
b - c 6.200 0.000534 *** 3.312302 9.0876977

H 0 : i  i
H1 : i  i

Conclusiones

Se ha encontrado diferencias altamente significativas entre las medias de los rendimientos obtenidos con
los métodos de enseñanza a y b. También entre las medias de los rendimientos obtenidos con los métodos
de enseñanza b y c Por último, solo se obtuvo diferencia a un nivel de significación del 10% entre las
medias de los rendimientos obtenidos a y c

También podría gustarte