0% encontró este documento útil (0 votos)
52 vistas14 páginas

Comparación de Medias: Métodos Estadísticos

El documento describe diferentes métodos estadísticos para realizar comparaciones múltiples entre tratamientos después de un análisis de varianza (ANOVA). Estos métodos incluyen la prueba de rango mínimo significativo (LSD), el método de Tukey, el método de Duncan y el método de Dunnett para comparar tratamientos con un control. Explica cómo aplicar cada método y cómo interpretar los resultados para determinar si las diferencias entre tratamientos son estadísticamente significativas.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
52 vistas14 páginas

Comparación de Medias: Métodos Estadísticos

El documento describe diferentes métodos estadísticos para realizar comparaciones múltiples entre tratamientos después de un análisis de varianza (ANOVA). Estos métodos incluyen la prueba de rango mínimo significativo (LSD), el método de Tukey, el método de Duncan y el método de Dunnett para comparar tratamientos con un control. Explica cómo aplicar cada método y cómo interpretar los resultados para determinar si las diferencias entre tratamientos son estadísticamente significativas.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd

Comparaciones o pruebas de Rango multiple

CAPITULO 3

Método LSD

Ecuación (3.10)

Una vez que se rechazo Ho en el ANNOVA, el problema es la igualdad de todos los


posibles

Ho: μ i=μ j

H 1: μi ≠ μ j

Donde:

Ho= Hipotesis Nula

H1= Hipotesis Alternativa

Ecuación (3.11)

| ý i .− ý J .|>t a ,N −k
2 √ CME
( n1 + n1 )=LSD
i j

Donde:

N-K= Grados de libertad

C M E= Cuadrado medio del error

Ni= número de observaciones para el tratamiento i

Nj= número de observaciones para el tratamiento i

| ý i .− ý J .| = diferencia del valor absoluto entre medias muestrales


N= número de tratamientos de n

K= número de tratamientos k
LSD= differencia mínima

La diferencia mínima que debe existir entre dos medias muestrales para considerar que
los tratamientos correspondientes son significativamente diferentes.

Ecuación 3.12

LSD=t a √ 2C M E I n
, N−k
2

C M E = Cuadrado medio del error

LSD= differencia mínima

In= Logaritmo natural

tα = prueba T students

N-K = grados de libertad

N= número de tratamientos de n

K= número de tratamientos k

EJEMPLO 3.4

Ilustremos esta prueba continuando con el ejemplo 3.3 en el cual ANNOVA se rechazó
la hipotesis Ho: μ A=μ B ¿ μ C=μ y se acepta al menos un par de medias de tratamientos
D

(métodos de ensamble) son diferentes entre sí. Para investigar cuales pares de medias
son estadísticamente diferentes pruebas los seis posibles pares de hipótesis.

Ecuación 3.13

Ho: μ A=μ B VS H A : μ A ≠ μB

Ho: μ A=μ c VS H A : μ A ≠ μc

Ho: μ A=μ D VS HA :μA ≠ μD

Ho: μ B=μ C VS H A : μ B ≠ μC

Ho: μ H =μ D VS H A :: μ H ≠ μ D
Ho: μ C =μ D VS H A :: μC ≠ μ D

LSD=t a √ 2C M E ∈¿ ¿ = 2 x 46
2
, N−k
√ 4
¿ 2.42

DONDE:

LDS= 42

APLICACIÓN de la prueba LSD a los métodos de ensamble

Los intervalos en la gráfica de medias con le método LSD

C ME
ý i . ±>t α , N −k
√ ni

DONDE:

∝= nivel de significancia prefijado

C M E = Cuadrado medio del error

Ni = número de observaciones del tratamiento i

C ME
√ ni
= Error estándar o desviacion que corresponde a la media muestral

(N-K) = Diferencia entre los numerous de tratamientos

tα = prueba T students

Ni= número de tratamiento i

Método de Turkey

Un método mas conservador para comparar las medias de tratamientos es el método


Turkey
T ∝=q∝ (k , N−k) √ C M E L ni

∝= nivel de significancia prefijado

√ C M E L ni= error estandarizado


(N-K) = grados de libertad

tα = prueba T students

q ∝( k , N −k )= porcentaje de la distribución del rango

T ∝=¿ Valor absoluto

Ejemplo 3.5

Para aplicar el método de Tukey al ejemplo de los métodos de ensamble, a partir del
ANOVA de la tabla 3.6, se toma la información pertinente y de las tablas del rango
estudentizado dadas en el apéndice, para a = 0.05, se obtiene q 0.05(4, 12) = 4.20, de
manera que el valor crítico es:

C ME 2.46
T 0.05=q 0,0,5 ( 4,12).
√ ni √
∈¿ 4,20 x
4
=3.27

Diferencia poblacional Diferencia muestral en valor absoluto Decisión


 No
  μ A =μB  1.25<2.42 significativa
 Significativ
  μ A =μc  5.50<2.42 a
 Significativ
μ A =μ D  3.25>2.42 a
 Significativ
  μ B=μC  4.25< 2.42 a
 No
  μ H =μ D  2.00<2.42 Significativa
 No
  μC =μ D  2.25<2.42 Significativa

Obervaciones que esta prueba no encuentra diferencia entre los métodos de ensamble A
y D, se detectó con el método LSD.

MÉTODO DE DUNCAN

En este método para la comparación de medias, si las k muestras son de igual tamaño,
los

k promedios se acomodan en orden ascendente y el error estándar de los promedios se


estima

k
n AR = k

∑ n1
i =1 i

Donde:

K= número de observaciones

Ni= número de observaciones i

∑ n1 = sumatoria total de las observaciones


i=1 i

n R=rα ( p ,l ) S Ý i.; ; P 2, 3, k
Ejemplo 3.6

De nuevo, supongamos que interesa probar las seis hipótesis dadas en (3.13) para los

cuatro métodos de ensamble. En la tabla de ANOVA (tabla 3.6) se lee que CME =2.46,
lo cual se basa en 12 grados de libertad. Así, el error estándar de cada promedio

R2=r 0.05 ( 2,12 ) S r=¿ (3.08) (0.78 )¿ =2.40

R3=r 0.05 ( 3,12 ) S r=¿ (3.23) (0.78 )¿ =2.52

R4 =r 0.05 ( 4,12 ) S r=¿ ( 3.08) (0.78 )¿ =2.60

Diferencia poblacional Diferencia muestral en valor absoluto Decisión


  μ A =μB  1.25−7.25=5.5 >2.60 = R1 significativa
 Significativ
  μ A =μc  12.75−8.50=3,27> 2.52= R3 a
 No
μ A =μ D  12.75−10.50=2.25<2.40= R2 Significativa
 Significativ
  μ B=μC  10.50−7.25= 3.25<2.40= R3 a
 No
  μ H =μ D  10.50−8.50 = 2.0 >2.60= R3 Significativa
 No
  μC =μ D  2.25<2.42= 1.25< 2.40= R2 Significativa

COMPARACIÓN DE TRATAMIENTOS CON UN CONTROL (MÉTODO DE


DUNNET)

Una vez que se rechaza Ho con el ANNOVA, en ocasiones unos de los tratamientos k a
comprar llamado tratamiento de control por facilidad, denotemos como tratamiento
control al k-ésimo tratamiento, hacer comparaciones con respecto al control implica
probar las k – 1 hipótesis dadas

Por:
Ho: μ i=μ j

H 1: μi ≠ μ j

Donde:

Ho= Hipotesis Nula

H1= Hipotesis Alternativa

l ´y 1 1
i∗¿ ý jl∗Dσ (K −1 , 1) √ C M E ( + )¿
¿ nk

DONDE:

(K-1)= grados de libertad

∝= nivel de significancia prefijado

C M E = Cuadrado medio del error

Ni= número de observaciones i

Nk= número de observaciones k

Al usar el CME para estimar a s2 y Yi• para =1 estimar a la media mi, se puede ver que
un intervalo al 100(1 – a) % de confianza para el contraste C está dado por:

k
tα CME k
c
∑ i ij 2 n
j=1
¿ − ^
ý ± N −k
ni ∑
j=1
ci

Donde:


−k = Punto porcentual de la distribucción T
2n

(N-K)= grados de libertad

∑ ¿ Sumatoria total
j=1

∝= nivel de significancia prefijado


C M E = Cuadrado medio del error

Ni= número de observaciones i

∑ ci = sumatoria total para el tratamiento de confianza


j=1

Ci= intervalo de confianza

CONTRASTES ortogonales

En el caso de un diseño balanceado, dos contrastes:

a a
c i=¿ ∑ C 2=¿ ∑ ¿
i i

a a
c i=¿ ∑ ¿ 0C 2=¿ ∑ ¿ 0 ¿
i i

Contrastes
C1 C2 C3 Ortogonales
2 -1 -1  2   μ A −μB −μc
0 1 -1   μ B−μc
1 1 1 μ A + μ B + μc −3 μ D 

(2X0)+ (-1X1) + (-1X-1) + (0X0) = 0

MÉTODO DE SHEFFÉ

Este método está diseñado para probar todos los contrastes de medias que pudieran

Interesadas al experimentador

Ecuación 3.14

Ho= 2 μ A =μB + μC

HA= 2 μ A ≠ μ B+ μC
DONDE:

Ho= Hipotesis Nula

Ha= Hipotesis Alternativa

Varianza estimada

Ecuación 3.15

V¿

DONDE:

C M E = Cuadrado medio del error

Ci= intervalo de confianza

∑ = sumatoria total de los tratamientos


i

Ni= número de tratamientos i

VERIFICACIÓN DE LOS SUPUESTO DEL MODELO

Modelos de los datos DCA

y ij=¿¿ μ A +τI +∈ IJ

DONDE

I= datos del tratamiento i

J= datos del tratamiento j

τI = efecto del tratamiento I y ∈ IJ


μ A =¿¿ medida global estimada de A

y IJ=τI +∈ IJ

Donde:

I= datos del tratamiento i

J= datos del tratamiento j

τI = efecto del tratamiento I y ∈ IJ

μ A =¿¿ medida global estimada de A

MODELO DE TRABAJO

Ecuación 3.16

^y ij =^μ + ^τ i

DONDE:

μ¿ medida global estimada

τI = efecto del tratamiento I

EL MODELO AJUSTADO DCA SE PUEDE ESCRIBIR COMO:

Ecuación 3.17

^y ij =l ´y i∗¿¿

DONDE:

ý i=¿¿Residuo asociado a la observacion ý ij

Gráfica de probabilidad en papel normal

Consideremos los N residuos que resultan del análisis de una varianza, o cualquier
conjunto de N datos de los cuales se quiere verificar su procedencia de una distribución
normal los pasos en la construcción de la gráfica de probabilidad normal para los
residuos son los siguientes:

Dato ri Rango i (i-0.5)/ N Zi= (I) (((I-0.5)/n


39.9 1 0.05 -1,64
41.7 2 0.15 -1,03
43.9 3 0.25 -0,67
46.5 4 0.35 -0,38
48.6 5 9.5 0
48.6 6 0.5 0
48.8 7 0.65 0,38
50.4 8 0.75 0,67
50.6 9 0.85 1,03
51.5 10 0.95 1,64

GRÁFICA DE PROBALIDAD NORMAL EN PAPEL ORDINARIO

A falta de papel de probalidad normal tambien se puede hacer en papel ordinario con
escalas equivalents en ambos ejes.

(i−0.5)
=P ( Z < Zi ) =∅ ( Zi)
N

DONDE:

∅ ( Zi) = distribucción normal estándar acumulada en Zi

N= número de tratamientos

PRUEBA DE SHAPIRO-WILKS PARA NORMALIDAD

Consideremos una muestra aleatoria de datos x1, x2… xn que proceden de cierta
distribución desconocida denotada por F(x):

H0 : Los datos proceden de una distribución normal (F(x) es normal).

HA : Los datos no proceden de una distribución normal (F(x) no es normal).


La varianza es S2 = 15.72

( X (n-i+1)- ai(X(n-i-1)-
i ai X(j)) X(i))
1 0,5739 51,5-39,9=11,6 6,66
2 0,3291 50,6-41,7=8,9 2,93
3 0,2141 50,4-43,9=6,5 1,39
4 0,1224 48,8-46,5=2,3 0,28
5 0,0399 48,6-48,6=0 0

Con el tamaño de muestra n= 10, en la tabla de valores críticos dada el cuantil 95 WI=
0.987.

Prueba de Shapiro-Wilks para normalidad

k 2

W=
1
(n−1) S2 [∑
i=1
ai ( X (n−i +1)− X(i) ) ]
Donde:

S2= Varianza muestral

x= variable aleatoria discreta

K= número de observaciones

(n-1) = grados de libertad

Entonces:

1 2
W= 2
[ 11,26 ] 00.896
(10−1)15.72

La prueba de Shapiro Wills, en conjunto con la formula de varianza demuestran,

(W¿ W 1−α ) como resultado se acepta que los datos proceden de una distribución
normal.

Prueba de Bartlett para homogeneidad de varianza


k

∑ ( ni−1 ) S2i
Ssp= i=1
N−k

Donde:

S2i = Varianza muestral del tratamiento

k= número de observaciones

ni = número de observaciones i

∑ n1 = sumatoria total
i=1 i

Hipótesis de igualdad de varianzas

H o :σ 21=σ 22=... σ 2k =σ 2

H A :σ i2 ≠ σ 2j para algún i≠ j

Donde:

H o= hipótesis nula

H A =Hipótesis alterna

σ = sigma

Hipótesis nula, igualdad de varianza

q
x 20=
c

Donde:

x 20= Estadístico con distribución ji-cuadrada

x= variable aleatoria discreta


q= variable dependiente

c= constante

k
2 2
q=(N-k)log 10 S p−∑ ( ni−1 ) log 10 S i
i=1

Donde:

S2i = varianza muestral del tratamiento

q= estadístico q

( n−1 )= grados de libertad

k
1
× ∑ ( x ) = media aritmética
n i=1 i

k= número de tratamientos

1
c=1+ ¿
3(k −1)

Donde:

k
N=∑ ni= total de las observaciones
i=1

k= número de observaciones

( n−1 )= grados de libertad

También podría gustarte