0% encontró este documento útil (0 votos)
99 vistas16 páginas

Guía de ANOVA para Análisis Estadístico

El documento describe el Análisis de Varianza (ANOVA), un método estadístico para comparar varias medias y determinar si son significativamente diferentes. ANOVA compara la variación entre grupos con la variación dentro de los grupos para determinar si los factores explican una parte significativa de la variabilidad total. Requiere que las muestras sean aleatorias, provengan de distribuciones normales con igual varianza, e independientes. ANOVA permite comparar múltiples medias simultáneamente y evitar errores tipo I.

Cargado por

Marcelo Flores
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
99 vistas16 páginas

Guía de ANOVA para Análisis Estadístico

El documento describe el Análisis de Varianza (ANOVA), un método estadístico para comparar varias medias y determinar si son significativamente diferentes. ANOVA compara la variación entre grupos con la variación dentro de los grupos para determinar si los factores explican una parte significativa de la variabilidad total. Requiere que las muestras sean aleatorias, provengan de distribuciones normales con igual varianza, e independientes. ANOVA permite comparar múltiples medias simultáneamente y evitar errores tipo I.

Cargado por

Marcelo Flores
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd

El Análisis de la Varianza (ANOVA):

Los modelos de ANOVA (ANalysis Of VAriance) son técnicas de Análisis


Multivariante de dependencia, que se utilizan para analizar datos procedentes de diseños
con una o más variables independientes cualitativas y una variable dependiente
cuantitativa. En este contexto, las variables independientes se suelen denominar factores
y la variable dependiente se conoce como respuesta.

Los modelos ANOVA permiten, básicamente, comparar los valores medios que toma la
variable dependiente en J poblaciones en las que los niveles de factores son distintos,
con la finalidad de determinar si existen diferencias significativas según dichos niveles
o si, por el contrario, la respuesta en cada población es independiente de los niveles de
factores. Se trata, por tanto, de un contraste paramétrico que extiende al caso de J
poblaciones el contraste de la igualdad de medias entre dos poblaciones independientes.

Suposiciones en el análisis de la varianza (ANOVA)

La distribución F se usa para el análisis de la técnica de la varianza, en el cual se


comparan tres o mas medias poblacionales para determinar si pueden ser iguales. Para
usar el ANOVA se considera lo siguiente:

1. Las poblaciones siguen la distribución normal.


2. Las poblaciones tienen desviaciones estándares iguales.
3. Las poblaciones son independientes.

Cuando se cumplen estas condiciones, F se emplea como la distribución del estadístico


de prueba. ANOVA le permite comparar las medias de tratamiento de forma simultanea
y evitar el error de tipo I.

Es el análisis de varianza que comparan tres o más medias poblacionales para


determinar si son iguales.

VARIACIÓN TOTAL

 Es la suma de las diferencias entre cada observación y la media global elevadas


al cuadrado, luego se divide esta variación total en dos componentes:
 La que se debe a los tratamientos y la que es aleatoria, para encontrar estos dos
componentes, se determina la media de cada tratamiento, la primera fuente de
variación se debe a los tratamientos.

Ejemplo variación total

Joyce K. es gerente de un centro financiero regional y desea comparar la productividad,


medida por el número de clientes atendidos, de tres empleados. Selecciona cuatro días
en forma aleatoria y registra el número de clientes que atendió cada empleado. Los
resultados son:

Wolf Whit Koros


e e a
55 66 47
54 76 51
59 67 46
56 71 48

El gerente desea determinar si hay una diferencia entre los números medios de
clientes atendidos.

1) Determinar la media global de las 12 observaciones

 (55+54+59+56+66+76+67+71+47+51+46+48) /12=58

2) De cada una de las observaciones, se deberá encontrar la diferencia entre el valor


particular y la media global (cada una de las diferencias se deberá sumar y elevar al
cuadrado)

(55−58)2 +(54−58)2 +(59−58)2 +(56−58)2+(66−58)2+

(76−58)2+(67−58)2 +(71−58)2+( 47−58)2 +(51−58)2 +(46−58)2+(48−58)2=1082

Variación de tratamiento

 La variación debida a los tratamientos es la suma de las diferencias entre la


media de cada tratamiento y la media total o global elevadas al cuadrado.

 Si existe una variación considerable entre las medias de los tratamientos, es


lógico que este término sea grande, si las medias son similares, este término será
un valor bajo, el valor más bajo es cero.
 Esto ocurrirá cuando todas las medias de los tratamientos sean iguales.

Para calcular:

 1) Se deberá hallar la media de cada uno de los tres tratamientos

Wolfe White Korosa

55 66 47

54 76 51

59 67 46

56 71 48

MEDIA=5 MEDIA=7 MEDIA=4


6 0 8

 2) La suma de los cuadrados debida al tratamiento es:

4 (56−58)2+ 4 (70−58)2 +4 (48−58)2=992

Variación aleatoria

 Es la suma de las diferencias entre cada observación y su media de tratamiento


elevadas al cuadrado.

 El estadístico de prueba, que es la razón de las dos estimaciones de la varianza


poblacional, se determina a partir de la siguiente fórmula.

Estimaciónde la varianza poblacional basada en las diferencias entre las medias muestrales
Estimacion de la varianza poblacional basada en la variación dentro de la muestra

Wolfe White Korosa

(55−56)2 (66−70)2 ( 47−48)2

(54−56)2 (76−70)2 (51−48)2


(59−56)2 (67−70)2 ( 46−48)2

(56−56)2 (71−70)2 ( 48−48)2

14 + 62 + 14 =

=90

1) La primera estimación de la varianza poblacional parte de los tratamientos (diferencia


entre las medias)

992
F=
2

Se divide para dos por la formula (n-1) = (3-1)

90
2)La estimación de la varianza dentro de los tratamientos es ¿
(12−3)

90
(9)

3) Ultimo paso es tomar la razón de estas dos estimaciones

992/2
F= 90/9 =49,6

LA RAZÓN F

Cuando las medias poblacionales son diferentes, el efecto del tratamiento está presente
y las desviaciones entre las muestras serán grandes comparadas con la desviación del
error dentro de una muestra. Por lo tanto, el valor F aumentará, los cual es una razón
de la variación del tratamiento y de la variación del error.

TRATAMIENTO E INFERENCIAS SOBRE PARES MEDIAS


Los intervalos de confianza y las pruebas de significación para la media µ de una
población normal se basan en la media muestral x¯. La media de la distribución de x¯ es
µ. Es decir, x¯ es un estimador insesgado de la µ desconocida. La dispersión de x¯
depende del tamaño de la muestra y de la desviación típica poblacional σ. En el capítulo
anterior hicimos el supuesto, poco realista, de que conocíamos el valor de σ. En la
práctica, σ es desconocida. Por tanto, tenemos que estimar σ a partir de los datos,
incluso si nuestro principal interés es µ. La necesidad de estimar σ cambia algunos
detalles de las pruebas de significación y de los intervalos de confianza para µ, pero no
su interpretación. He aquí los supuestos de los que partimos al hacer inferencia para la
media poblacional.

SUPUESTOS DE LA INFERENCIA PARA LA MEDIA

Nuestros datos son una muestra aleatoria simple de tamaño n de una población. Este
supuesto es muy importante.

Las observaciones proceden de una población que tiene una distribución normal con
media µ y desviación típica σ. En la práctica, a no ser que la muestra sea muy pequeña,
es suficiente con que la población sea simétrica y con un solo pico. Tanto µ como σ son
parámetros desconocidos.

En esta situación, la media muestral x́tiene una distribución normal con media µ y

σ
desviación típica . Debido a que no conocemos σ, la estimaremos a partir de la
√n
desviación típica muestral s. A continuación, estimaremos la desviación típica de x́ a

s
partir de . Este valor se llama error típico de la media muestral x́. (Gosset, 2002)
√n
ERROR TÍPICO

Cuando la desviación típica del estadístico se estima a partir de los datos, el resultado se

s
llama error típico del estadístico. El error típico de la media muestral x́ es .
√n
Cuando se rechaza la hipótesis nula al aplicar el procedimiento ANOVA, se concluye
que todas las medias de tratamiento no son iguales. Algunas veces esta conclusión sería
satisfactoria, pero otras se desea conocer cuáles medias de tratamiento difieren.
La distribución T- Student sirve como base para obtener el factor en que difieren las
medias; Este valor común de la población es el error medio cuadrático, o MSE, y se
determina mediante:

SSE
MSE=
(N− K)

Un intervalo de confianza de la diferencia entre dos poblaciones se obtiene mediante:

INTERVALO DE CONFIANZA DE LA DIFERENCIA ENTRE LAS MEDIAS


DE TRATAMIENTO

donde:

 es la media de la primera muestra.

 es la media de la segunda muestra.


 t: se obtiene del apéndice B.2. Los grados de libertad son iguales a n – k.
 MSE: es el error medio cuadrático que se obtuvo de la tabla ANOVA [SSE/(n –
k)].
 n1: es el número de observaciones en la primera muestra.
 n2: es el número de observaciones en la segunda muestra

Si el intervalo de confianza incluye al cero no hay diferencia entre las medias de


tratamiento y si tienen el mismo signo es decir no incluye al cero si hay una diferencia
significativa entre las dos medias de tratamiento.

Gosset, W. S. (2002). Nferencia para medias y desviaciones típicas. 481–562.


Análisis de la varianza

El análisis de la varianza (o Anova: Analysis of variance) es un método para comparar


dos o más medias, que es necesario porque cuando se quiere comparar más de dos
medias es incorrecto utilizar repetidamente el contraste basado en la t de Student. por
dos motivos:

 En primer lugar, y como se realizarían simultánea e independientemente varios


contrastes de hipótesis, la probabilidad de encontrar alguno significativo por
azar aumentaría. En cada contraste se rechaza la H0 si la t supera el nivel crítico,
para lo que, en la hipótesis nula, hay una probabilidad a. Si se realizan m
contrastes independientes, la probabilidad de que, en la hipótesis nula, ningún
estadístico supere el valor crítico es (1 - ∞)m, por lo tanto, la probabilidad de que
alguno lo supere es 1 - (1 - ∞) m, que para valores de ∞ próximos a 0 es
aproximadamente igual a ∞m. Una primera solución, denominada método de
Bonferroni, consiste en bajar el valor de ∞, usando en su lugar ∞/m, aunque
resulta un método muy conservador.

 Por otro lado, en cada comparación la hipótesis nula es que las dos muestras
provienen de la misma población, por lo tanto, cuando se hayan realizado todas
las comparaciones, la hipótesis nula es que todas las muestras provienen de la
misma población y, sin embargo, para cada comparación, la estimación de la
varianza necesaria para el contraste es distinta, pues se ha hecho en base a
muestras distintas.

El método que resuelve ambos problemas es el anova, aunque es algo más que esto: es
un método que permite comparar varias medias en diversas situaciones; muy ligado, por
tanto, al diseño de experimentos y, de alguna manera, es la base del análisis
multivariante.

Análisis de la varianza de dos factores o dos vias

Es un diseño de anova que permite estudiar simultáneamente los efectos de dos fuentes
de variación. Las condiciones necesarias para que un ANOVA de dos vías sea válido,
así como el proceso a seguir para realizarlo son semejantes al ANOVA de una vía. Las
únicas diferencias son:

Hipótesis: El ANOVA de dos vías con repeticiones combina 3 hipótesis nulas, que las
medias de las observaciones agrupadas por un factor son iguales, que las medias de las
observaciones agrupadas por el otro factor son iguales; y que no hay interacción entre
los dos factores.

Requiere calcular la la Suma de Cuadrados y Cuadrados Medios para ambos factores.


Es frecuente encontrar que a un factor se le llama “tratamiento” y al otro “bloque o
block”

Es importante tener en cuenta que el orden en el que se multiplican los factores no


afecta al resultado del ANOVA únicamente si el tamaño de los grupos es igual (modelo
equilibrado) de lo contrario sí importa. Por esta razón es muy recomendable que el
diseño sea equilibrado. El estudio de la interacción de los dos factores solo es posible si
se dispone varias observaciones para cada una de las combinaciones de los niveles.

Ejemplo 1

Se quiere evaluar la eficacia de distintas dosis de un fármaco contra la hipertensión


arterial, comparándola con la de una dieta sin sal. Para ello se seleccionan al azar 25
hipertensos y se distribuyen aleatoriamente en 5 grupos. Al primero de ellos no se le
suministra ningún tratamiento, al segundo una dieta con un contenido pobre en sal, al
tercero una dieta sin sal, al cuarto el fármaco a una dosis determinada y al quinto el
mismo fármaco a otra dosis. Las presiones arteriales sistólicas de los 25 sujetos al
finalizar los tratamientos son:
Como F0,05(4,20) =2,87 y 11,24>2,87 rechazamos la hipótesis nula y concluimos que los
resultados de los tratamientos son diferentes.

En el ejemplo 1, en el que se estudiaban diversos tratamientos para la hipertensión


arterial, se podría plantear que, quizás, la evolución de la misma fuera diferente para los
hombres y las mujeres, en cuyo caso, y si el número de hombres y mujeres en cada
muestra no fuera el mismo, podría ocurrir que una parte del efecto atribuido a los
tratamientos fuera debido al sexo.

En cualquier caso, el investigador puede estar interesado en estudiar si hay, o no,


diferencia en la evolución según el sexo. En un anova de dos vías se clasifica a los
individuos de acuerdo a dos factores (o vías) para estudiar simultáneamente sus efectos.
En este ejemplo se harían cinco grupos de tratamiento para los hombres y otros cinco
para las mujeres, en total diez grupos; en general, si el primer factor tiene a niveles y el
segundo tiene b, se tendrán ab muestras o unidades experimentales, cada una con n
individuos o repeticiones.

Una observación individual se representa como:

El primer subíndice indica el nivel del primer factor, el segundo el nivel del segundo
factor y el tercero la observación dentro de la muestra. Los factores pueden ser ambos
de efectos fijos (se habla entonces de modelo I), de efectos aleatorios (modelo II) o uno
de efectos fijos y el otro de efectos aleatorios (modelo mixto). El modelo matemático de
este análisis es:

[Link]

ANOVA DE DOS VÍAS CON INTERACCIÓN

Cuando se emplea ANOVA de dos vías para estudiar la interacción, en lugar de emplear
los términos tratamientos y bloques, ahora a las dos variables se les denominan factores.
Por lo tanto, en este método hay un factor, la ruta, y otro factor, el conductor, además de
la interacción entre ambos factores.

La interacción tiene lugar si la combinación de dos factores ejerce algún efecto sobre la
variable en estudio, además de hacerlo en cada factor por sí mismo. A la variable en
estudio se le llama variable de respuesta. Un ejemplo cotidiano de interacción es el
efecto de dieta y ejercicio sobre el peso. En general, se acepta que el peso de una
persona (la variable de respuesta) se controla mediante dos factores, dieta y ejercicio.
Las investigaciones demuestran que una dieta, por sí sola, afecta al peso de una persona,
y también que el solo ejercicio tiene un efecto sobre el peso. Sin embargo, el método
recomendado para controlar el peso se fundamenta en el efecto combinado o en la
interacción entre dieta y ejercicio.

INTERACCIÓN. - El efecto de un factor sobre una variable de respuesta difiere según


el valor de otro factor.

Gráficas de interacción

Una manera de estudiar la interacción es al graficar medias de factores en una gráfica


denominada de interacción.

Ejemplo:
Tomando el ejemplo del libro estadisitica aplicada a los negocios. “La gerencia de
WARTA, Warren Area Regional Transit Authority, desea estudiar el tiempo de
recorrido medio de rutas y conductores distintos.” Para completar el estudio, también
debe explorar la posible interacción entre el conductor y la ruta. El trazo de la gráfica se
inicia con la colocación de los puntos que representan los tiempos de recorrido medios
de cada ruta por cada conductor y la conexión de tales puntos. Se calculan los tiempos
de recorrido medios de Deans por cada ruta y se trazan en una gráfica de tiempos de
recorrido medios contra la ruta. Este proceso se repite con cada conductor. La siguiente
es la gráfica de interacción:

Con esta gráfica se comprende mejor la interacción entre los efectos de los conductores
y las rutas sobre el tiempo de recorrido. Si los segmentos de recta de los conductores
son casi paralelos, tal vez no haya interacción. Por otro lado, si los segmentos de recta
no parecen ser paralelos o se cruzan, esto sugiere una interacción entre los factores.

En la gráfica anterior se sugiere una interacción porque:

• Los segmentos de recta de Zollaco y Filbeck se cruzan entre sí.

• El segmento de recta de Snaverly de la carretera 6 a West End cruza tres segmentos de


recta.

Estas observaciones sugieren una interacción entre el conductor y la ruta.

ANOVA de una vía para datos independientes


El ANOVA de una vía, ANOVA con un factor o modelo factorial de un solo factor es el
tipo de análisis que se emplea cuando los datos no están pareados y se quiere estudiar si
existen diferencias significativas entre las medias de una variable aleatoria continua en
los diferentes niveles de otra variable cualitativa o factor. Es una extensión de los t-test
independientes para más de dos grupos.

Las hipótesis contrastadas en un ANOVA de un factor son:

H 0: No hay diferencias entre las medias de los diferentes grupos:  μ1=μ 2… ….. μK =μ

H 0: Al menos un par de medias son significativamente distintas la una de la otra.

Otra forma de plantear las hipótesis de un ANOVA es la siguiente. Si se considera μ 


 como el valor esperado para una observación cualquiera de la población (la media de
todas las observaciones sin tener en cuenta los diferentes niveles), y αi el efecto
introducido por el nivel i. La media de un determinado nivel ( μi) se puede definir como:

μi=μ+αi

H 0 :Ningún nivel introduce un efecto sobre la media total: α 1=α 2=α k =0

H 0 :Al menos un nivel introduce un efecto que desplaza su media: Algún α i ≠ 0

Como se ha mencionado anteriormente, la diferencia entre medias se detecta a través del


estudio de la varianza entre grupos y dentro de grupos. Para lograrlo, el ANOVA
requiere de una descomposición de la varianza basada en la siguiente idea:

Variabilidad total = variabilidad debida a los diferentes niveles del factor +


variabilidad residual
lo que es equivalente a:

variabilidad explicada por el factor + variabilidad no explicada por el factor

lo que es equivalente a:

(varianza entre niveles) + (varianza dentro de los niveles)

Para poder calcular las diferentes varianzas en primer lugar se tienen que obtener las
Sumas de Cuadrados (SS o Sc):

Suma de Cuadrados Total o Total Sum of Squares (TSS): mide la variabilidad total


de los datos, se define como la suma de los cuadrados de las diferencias de cada
observación respecto a la media general de todas las observaciones. Los grados de
libertad de la suma de cuadrados totales es igual al número total de observaciones
menos uno (N-1).

Suma de cuadrados del factor o Sum of Squares due to Treatment (SST): mide la


variabilidad en los datos asociada al efecto del factor sobre la media (la diferencia de las
medias entre los diferentes niveles o grupos). Se obtiene como la suma de los cuadrados
de las desviaciones de la media de cada proveedor respecto de la media general,
ponderando cada diferencia al cuadrado por el número de observaciones de cada grupo.
Los grados de libertad correspondientes son igual al número niveles del factor menos
uno (k-1).

Suma de cuadrados residual/error o Sum of Squares of Errors (SSE): mide la


variabilidad dentro de cada nivel, es decir, la variabilidad que no es debida a variable
cualitativa o factor. Se calcula como la suma de los cuadrados de las desviaciones de
cada observación respecto a la media del nivel al que pertenece. Los grados de libertad
asignados a la suma de cuadrados residual equivale la diferencia entre los grados de
libertad totales y los grados de libertad del factor, o lo que es lo mismo (N-k). En
estadística se emplea el termino error o residual ya que se considera que esta es la
variabilidad que muestran los datos debido a los errores de medida. Desde el punto de
vista biológico tiene más sentido llamarlo Suma de cuadrados dentro de grupos ya que
se sabe que la variabilidad observada no solo se debe a errores de medida, si no a los
muchos factores que no se controlan y que afectan a los procesos biológicos.
TSS=SSE+ SST

Una vez descompuesta la suma de cuadrados se puede obtener la descomposición de la


varianza dividiendo la Suma de Cuadrados entre los respectivos grados de libertad. De
forma estricta, al cociente entre la Suma de Cuadrados y sus correspondientes grados de
libertad se le denomina Cuadrados Medios o Mean Sum of Squares y pueden ser
empleado como estimador de la varianza:

ANOVA se define como análisis de varianza, pero en un sentido estricto, se trata de un


análisis de la Suma de Cuadrados Medios.

TSS
S2T = :Cuadrados Medios Totales = Cuasivarianza Total (varianza muestral total)
N −1

SST
S2t = :Cuadrados Medios del Factor = Intervarianza (varianza entre las medias de
k −1
los distintos niveles).

SSE
S2E= :Cuadrados Medios del Error = Intravarianza (varianza dentro de los niveles,
N−k
conocida como varianza residual o de error).

Una vez descompuesta la estimación de la varianza, se obtiene el estadístico  F ratio


dividiendo la intervarianza entre la intravarianza:

2
Cuadrados medio del factor St intervarianza
F ratio= = = F
Cuadrados medios del Erros S2E intravarianza k−1 , N −k

Dado que por definición el estadístico F ratio sigue una distribución F Fisher-
Snedecor con k−1 y N−t grados de libertad, se puede conocer la probabilidad de obtener
valores iguales o más extremos que los observados.

Condiciones para ANOVA de una vía con datos independientes


Independencia: Las observaciones deben ser aleatorias. El tamaño total de la muestra
de cada grupo debe de ser < 10% de la población a la que representa. Los grupos
(niveles del factor) deben de ser independientes entre ellos.

Distribución normal de cada uno de los niveles o grupos: La variable cuantitativa


debe de distribuirse de forma normal en cada uno de los grupos, siendo menos estricta
esta condición cuanto mayor sea el tamaño de cada grupo. La mejor forma de verificar
la normalidad es estudiar los residuos de cada observación respecto a la media del grupo
al que pertenecen.

A pesar de que el ANOVA es bastante robusto aun cuando existe cierta falta de
normalidad, si la simetría es muy pronunciada y el tamaño de cada grupo no es muy
grande, se puede recurrir en su lugar al test no paramétrico prueba H de Kruskal-Wallis.
En algunos libros recomiendan mantenerse con ANOVA a no ser que la falta de
normalidad sea muy extrema.

Los datos atípicamente extremos pueden invalidar por completo las conclusiones de un
ANOVA. Si se observan residuos extremos hay que estudiar con detalle a que
observaciones pertenecen, siendo aconsejable recalcular el ANOVA sin ellas y
comparar los resultados obtenidos.

Varianza constante entre grupos (homocedasticidad): La varianza dentro de los


grupos debe de ser aproximadamente igual en todos ellos. Esto es así ya que en la
hipótesis nula se considera que todas las observaciones proceden de la misma
población, por lo que tienen la misma media y también la misma varianza.

Esta condición es más importante cuanto menor es el tamaño de los grupos.

El ANOVA es bastante robusto a la falta de homodedasticidad si el diseño es


equilibrado (mismo número de observaciones por grupo).

En diseños no equilibrados, la falta de homocedasticidad tiene mayor impacto. Si los


grupos de menor tamaño son los que presentan mayor desviación estándar, aumentará el
número de falsos positivos. Si por el contrario los grupos de mayor tamaño tienen
mayor desviación estándar aumentarán los falsos negativos.

Si no se puede aceptar la homocedasticidad, se recurre a lo que se conoce como


ANOVA heterodástica que emplea la corrección de Welch (Welch test), en R su función
es [Link]().
ANOVA con variables dependientes

Una variable dependiente representa una cantidad cuyo valor depende de cómo se
modifica la variable independiente, partiendo de esto se requiere un ANOVA especifico
que pueda realizar comparaciones considerando que los datos llegan a ser pareados,
también se le conoce como ANOVA de medidas repetidas, como por ejemplo hemos
podido ver en los t-test pareados para llegar a comparar más de dos grupos.

La esfericidad es la única condición que se debe cumplir para poder aplicar este tipo de
análisis, ya que implica que la varianza de las diferencias entre todos los pares de
variables a comparar sea igual, por ejemplo, si a través de un Nova se busca la comparar
la media de una variable cuantitativa entre niveles que en este caso sería (A, B, C), se
llegará aceptar la esfericidad si la varianza de las diferencias son iguales entre sí, A – B
= A – C = B – C.

El test de Mauchly permite que la esfericidad se pueda analizar, cuya hipótesis nula es
que si existe esfericidad, en el caso de que se llegue a incumplir la condición de
esfericidad, se puede aplicar dos tipos de correlaciones los cuales son la correlación de
Greenhouse-Geisser y la de Huynh-Feldt con la finalidad de seguir adelante con el
ANOVA, el test de Friedman también puede utilizarse como otra alternativa.

 La función aov( ): Permite realizar ANOVA de medidas repetidas, pero es


incompleta, no permite comprobar la esfericidad ni incorporar correlaciones.
 La función Anova( ): Es completa, obtiene los resultados partiendo de los
diferentes Test de esfericidad de Mauchly, las correlaciones de Greenhouse-
Geisser y la de Huynh-Feldt.

También podría gustarte