52
UNIDADE 6 - ANÁLISE DE VARIÂNCIA
Há muitas situações em que um pesquisador deseja comparar mais de dois grupos experimentais
com relação a uma variável quantitativa.
A técnica correta para fazer esta comparação consiste em utilizar a análise de variância, cujo
objetivo é comparar todos os grupos de uma só vez e identificar a existência de pelo menos dois
grupos que diferem entre si, se houver diferença entre eles.
Caso a diferença seja estatisticamente significativa, aplica-se posteriormente uma das várias
técnicas existentes de comparações múltiplas de médias.
A análise de variância (ou ANOVA, de ANalysis Of VAriance) é uma poderosa metodologia estatística
desenvolvida pelo estatístico, biólogo evolutivo ou evolucionista e geneticista inglês Sir Ronald A.
Fisher (1890-1962) e pelo matemático e estatístico americano George Waddel Snedecor (1881-
1974).
Snedecor (1934) designou a razão entre a variância entre os grupos (𝑠𝐸2 ) e a variância dentro dos
grupos (𝑠𝐷2 ) pela letra F, em homenagem a Fisher.
Esta técnica consiste em decompor, a partir de um material heterogêneo, o número de graus de
liberdade e a variância total em duas partes: uma parte atribuída a causas conhecidas e
independentes (fatores controlados) e a outra, uma porção residual de origem desconhecida e de
natureza aleatória (fatores não controlados).
Um dos modelos mais simples de análise de variância é o que analisa os dados de um delineamento
inteiramente casualizado ou análise de variância unifatorial (one-way ANOVA).
Neste modelo de análise de variância (anova unifatorial),
a variação total é subdividida em duas frações:
A primeira fração é a variação dentro observada entre as
unidades experimentais dentro do mesmo grupo ou tratamento, com relação à média desse grupo:
tratam-se das diferenças individuais, ou aleatórias, nas respostas.
A variação dentro do mesmo tratamento é estimada pela média das variâncias de cada grupo e é
por isso chamada variância média dentro dos grupos ou simplesmente variância dentro. Como ela
representa também a fração da variabilidade que não é explicada pelo efeito dos tratamentos, é
também chamada de variância residual ou ainda variância do erro experimental.
A variação ao acaso entre as observações feitas com indivíduos submetidos à mesma condição é
considerada uma variação homogênea e aleatória, dentro do grupo, medida por uma variância
dentro, que deve ser pequena, pois as observações tendem a se agrupar em torno das respectivas
médias.
A outra fração é a variação entre as médias dos vários grupos ou tratamentos, quando comparadas
com a média geral de todos os indivíduos do experimento. Essa variação representa o efeito dos
diferentes tratamentos.
53
A variação entre grupos experimentais ou tratamentos é estimada pela variância entre os
tratamentos ou simplesmente variância entre.
A variação entre as observações obtidas de indivíduos submetidos a diferentes condições; variação
explicada pelos tratamentos é considerada uma variação heterogênea e não-aleatória, entre
grupos, medida por uma variância entre, que deve ser relativamente grande, pois neste caso as
observações tendem a se agrupar em torno de médias distintas e diferenciadas pela intensidade do
fator causal nos diversos tratamentos aplicados aos respectivos grupos.
TIPOS DE VARIAÇÃO
A variância (𝑠 2 ) é por definição a soma dos quadrados dos desvios dividida pelo número de graus
de liberdade:
2 (∑ 𝑥𝑖 )2
𝑆𝑄 ∑(𝑥 − 𝑥̅ ) 2 ∑ 𝑥 −
𝑠2 = =
𝑖
=
𝑖 𝑛
𝐺𝐿 𝑛−1 𝑛−1
Assim, a variância total (𝑠𝑇2 ) é calculada por:
𝑆𝑄 𝑆𝑄𝐷 +𝑆𝑄𝐸
𝑠𝑇2 = 𝐺𝐿 𝑇 = em que:
𝑇 𝐺𝐿𝐷 +𝐺𝐿𝐸
A soma dos quadrados total (𝑆𝑄𝑇 ) corresponde ao quadrado do somatório dos desvios entre cada
uma das N observações da variável (𝑥𝑖𝑗 ) e sua média geral (𝑥̅ ), ou seja, 𝑆𝑄𝑇 mede a variabilidade
total das observações (𝑥𝑖𝑗 ) em relação à média geral (𝑥̅ ).
2
(∑ ∑ 𝑥𝑖𝑗 )
2
𝑆𝑄𝑇 = ∑ ∑ 𝑥𝑖𝑗 −
𝑁
O número de graus de liberdade total (𝐺𝐿𝑇 ) corresponde ao número de todas as observações feitas
(N), considerando todos os k grupos, menos 1.
𝐺𝐿𝑇 = 𝑁 − 1
Então:
2
(∑ ∑ 𝑥𝑖𝑗 )
2
∑ ∑ 𝑥𝑖𝑗 −
𝑠𝑇2 = 𝑁
𝑁−1
A variância dentro (𝑠𝐷2 ) do tratamento ou residual corresponde aos desvios ou diferenças entre as
observações (𝑥𝑖 ) e a média dos tratamentos (𝑥̅𝑖 ), sendo calculada por:
𝑆𝑄𝐷
𝑠𝐷2 = em que:
𝐺𝐿𝐷
54
A soma dos quadrados dentro (𝑆𝑄𝐷 ) corresponde à adição dos somatórios dos quadrados dos
desvios entre as observações (𝑥𝑖 ) e sua média (𝑥̅𝑖 ), dentro de cada um dos k grupos, ou seja, 𝑆𝑄𝐷
mede a homogeneidade interna dos tratamentos.
(∑ 𝑥𝑖 )2
𝑆𝑄𝐷 = ∑ [∑ 𝑥𝑖2 − ]
𝑛𝑖
O número de graus de liberdade dentro (𝐺𝐿𝐷 ) corresponde ao número de todas as observações
feitas (N), considerando todos os k grupos, menos o número de grupos (k).
𝐺𝐿𝐷 = 𝑁 − 𝑘
Então:
(∑ 𝑥𝑖 )2
∑ [∑ 𝑥𝑖2 −
𝑛𝑖 ]
𝑠𝐷2 =
𝑁−𝑘
A variância entre (𝑠𝐸2 ) os tratamentos corresponde ao desvio das médias dos tratamentos (𝑥̅𝑖 ) em
relação à média geral (𝑥̅ ).
𝑆𝑄𝐸
𝑠𝐸2 = em que:
𝐺𝐿𝐸
A soma dos quadrados entre (𝑆𝑄𝐸 ) corresponde ao somatório do quadrado dos desvios entre a
média (𝑥̅𝑖 ) das ni observações, em cada um dos k grupos, e a média geral (𝑥̅ ) das N observações,
multiplicado pelo número de observações em cada grupo ou tratamento (𝑛𝑖 ), ou seja, 𝑆𝑄𝐸 mede a
variabilidade entre as médias dos tratamentos.
2
(∑ 𝑥𝑖 )2 (∑ ∑ 𝑥𝑖𝑗 )
𝑆𝑄𝐸 = ∑ [ ]−
𝑛𝑖 𝑁
O número de graus de liberdade entre (𝐺𝐿𝐸 ) corresponde ao número de grupos (k), menos 1.
𝐺𝐿𝐸 = 𝑘 − 1
Então:
2
(∑ 𝑥𝑖 )2 (∑ ∑ 𝑥𝑖𝑗 )
∑[ ] −
𝑛𝑖 𝑁
𝑠𝐸2 =
𝑘−1
DISTRIBUIÇÃO 𝑭 DE SNEDECOR
A distribuição 𝐹 de Snedecor, também conhecida como distribuição de 𝐹 de Fisher ou distribuição
𝐹 de Fisher-Snedecor, é uma distribuição de probabilidade contínua, frequentemente utilizada na
inferência estatística para análise da variância.
55
A distribuição 𝐹 de Snedecor depende de dois parâmetros denominados também de graus de
liberdade. O primeiro (𝑛) é o grau de liberdade do numerador e o segundo (𝑚), do denominador.
Na estatística, a distribuição 𝐹 de Snedecor é caracterizada como o quociente de duas variâncias e,
portanto, de duas distribuições qui-quadrado. Cada parâmetro é associado ao tamanho amostral
menos um.
Uma variável aleatória contínua 𝑥 tem distribuição 𝐹 de Snedecor com 𝑛 graus de liberdade no
numerador e 𝑚 graus de liberdade no denominador se sua função densidade de probabilidade é
definida por:
𝑚
𝑚+𝑛 𝑚 2 𝑚
Γ [ 2 ](𝑛) 𝑥 2 −1
𝑓(𝑥) = 𝑚+𝑛 𝑥 ∈ [0, ∞)
𝑚 𝑛 𝑚 2
Γ [ 2 ] Γ [2] [( 𝑛 ) 𝑥 + 1]
Representação gráfica da função densidade da distribuição 𝐹 de Snedecor com diferentes
parâmetros 𝑛 (graus de liberdade no numerador) e 𝑚 (graus de liberdade
no denominador)
A aplicação da análise de variância, que é um teste da Estatística Paramétrica, pressupõe a
obediência a algumas exigências ou pré-requisitos: (1) a variável contínua deve ter distribuição
normal; (2) as variâncias amostrais são conhecidas e não devem apresentar diferença
estatisticamente significativa - homocedasticidade; e (3) os dados ou observações devem ser
independentes. (Ver páginas 47-48)
TIPOS DE ANÁLISE DE VARIÂNCIA
Os diferentes tipos de análise de variância dependem do número de fatores a serem analisados.
Existem três situações para se usar a análise de variância:
1) Análise de análise unifatorial - experimentos com delineamento inteiramente casualizado.
Mais comum em laboratório (bioensaio).
Material estudado e local de execução apresentam a maior homogeneidade possível.
Em função da homogeneidade, não existe controle local.
Neste caso, todas as parcelas da unidade estão sujeitas às mesmas variações (não perceptíveis).
2) Análise de variância em blocos - experimentos com delineamento em blocos casualizados.
Mais usado em trabalhos de campo.
Vantagem: maior precisão experimental (formação de blocos que isolam uma variação que não
seria controlada).
Desvantagem: se o controle local for dispensável, o delineamento perde em eficiência em
virtude do GLD ser menor.
Há necessidade de se estimar a parcela perdida.
56
3) Análise de variância fatorial - experimentos com delineamento ou esquema fatorial.
Representa as possíveis combinações dos tratamentos ou fatores de um tratamento que podem
interagir entre si.
Vantagem: permite conclusões mais generalizadas e eficientes.
Desvantagem: cada novo fator que se incorpora no estudo, aumenta significativamente o
número de tratamentos.
ETAPAS PARA APLICAÇÃO DA ANÁLISE DE VARIÂNCIA UNIFATORIAL
1o passo: Enunciar as hipóteses
𝐻0 : 𝑥̅𝐴 = 𝑥̅𝐵 = 𝑥̅𝐶
𝐻𝑎 : 𝑝𝑒𝑙𝑜 𝑚𝑒𝑛𝑜𝑠 𝑑𝑢𝑎𝑠 𝑚é𝑑𝑖𝑎𝑠 𝑠ã𝑜 𝑑𝑖𝑓𝑒𝑟𝑒𝑛𝑡𝑒𝑠 𝑒𝑛𝑡𝑟𝑒 𝑠𝑖
2o passo: Estabelecer o nível de significância () e calcular o número de graus de liberdade entre e
dentro.
𝛼 = 5% 𝐺𝐿𝐸 = 𝑘 − 1 𝐺𝐿𝐷 = 𝑁 − 𝐾
3o passo: Calcular a variável 𝐹
𝑆𝑄𝐸
𝑠𝐸2 ⁄𝐺𝐿
𝐸
𝐹= 2=
𝑠𝐷 𝑆𝑄𝐷⁄
𝐺𝐿𝐷
A comparação das variâncias de duas amostras entre si é feita pela divisão da variância maior (𝑠𝐸2 )
pela variância menor (𝑠𝐷2 ), simplesmente por causa da existência de tabelas com os valores críticos
de F 1, de acordo com diferentes níveis de significância () e graus de liberdade (𝐺𝐿).
4o passo: Obter o valor de 𝐹 crítico ou 𝐹 tabelado para comparar com o valor de 𝐹 calculado
5o passo: Regra de decisão – aceitar ou rejeitar H0
Se 𝐹 calculado < 𝐹 crítico aceita-se H0 não há diferença estatisticamente
significativa entre as médias testadas para o nível de significância
a análise está concluída.
Se 𝐹 calculado > 𝐹 crítico rejeita-se H0 pelo menos duas das médias
testadas diferem entre si para o nível de significância a análise não
está concluída.
Importante!
Os resultados da análise de variância são sempre apresentados em uma tabela que resume a
sequência de operações numéricas necessárias para se chegar ao valor da variável 𝐹 calculada.
57
Fonte de Grau de Soma de quadrados Quadrados médios
Fcal
variação (FV) liberdade (GL) (SQ) (QM)
2
(∑ 𝑥𝑖 )2 (∑ ∑ 𝑥𝑖𝑗 ) 𝑆𝑄𝐸
Entre 𝐺𝐿𝐸 = 𝑘 − 1 𝑆𝑄𝐸 = ∑ [ ]− 𝑠𝐸2 =
𝑛𝑖 𝑁 𝐺𝐿𝐸
𝑠𝐸2
(∑ 𝑥𝑖 )2 𝑆𝑄𝐷 𝐹=
Dentro 𝐺𝐿𝐷 = 𝑁 − 𝑘 𝑆𝑄𝐷 = ∑ [∑ 𝑥𝑖2 − ] 𝑠𝐷2 = 𝑠𝐷2
𝑛𝑖 𝐺𝐿𝐷
2
(∑ ∑ 𝑥𝑖𝑗 ) 𝑆𝑄𝑇
Total 𝐺𝐿 𝑇 = 𝑁 − 1 2 𝑠𝑇2 =
𝑆𝑄𝑇 = ∑ ∑ 𝑥𝑖𝑗 − 𝐺𝐿 𝑇
𝑁
Se o valor de 𝐹 calculado < 𝐹 crítico RAH0 coloca-se NS sobrescrito do lado direito do valor de
𝐹 calculado, indicando que não há diferença estatisticamente significativa entre os grupos.
Se o valor de 𝐹 calculado > 𝐹 crítico RRH0 coloca-se * ou ** sobrescrito do lado direito do valor de
𝐹 calculado, indicando que há diferença estatisticamente significativa entre os grupos ao nível de
significância de 5% ou 1%, respectivamente. Nesse caso, é preciso testar as médias duas a duas,
usando o teste de Tukey.
As informações sobre as notações utilizadas devem ser colocadas no rodapé da tabela.
A análise de variância é considerada um teste de significância inconclusivo, porque na rejeição de
H0 não sabemos quais médias diferem entre si.
Para concluir a análise de variância, é preciso identificar diferenças particulares entre médias,
tomando-as duas a duas, usando-se um dos vários testes existentes que permitem Comparações
Múltiplas entre Médias.
Estes testes são semelhantes ao teste 𝑡 de Student, com a diferença de que controlam o nível de
significância ao levar em conta o número de comparações feitas no experimento.
Dentre os testes de Comparações Múltiplas entre Médias, três são mais usados: o teste de Tukey, o
teste de Student-Newman-Keuls (SNK) e o teste de Bonferroni, os quais devem ser aplicados sob a
condição sine qua non de que 𝐹 seja estatisticamente significativo, ou seja, o valor de 𝐹 se encontre
na região de rejeição de H0.
Dentre eles, o teste de Tukey se destaca por ser poderoso ao fazer comparações entre todos os
pares e também por ser de fácil aplicação.
O teste de Tukey foi desenvolvido pelo estatístico americano John Wilder Tukey (1915-2000) e
publicado no artigo titulado Comparing Individual Means in the Analysis of Variance em 1949
(Biometrics, v. 5, n. 2, p. 99-114, 1949 - JSTOR 3001913).
Quando os tamanhos amostrais dos grupos são iguais, o teste de Tukey é um teste exato, ou seja,
para o conjunto de todas as comparações par a par, a taxa de erro do conjunto dos testes é
exatamente (nível de significância) e o intervalo de confiança é também exatamente 1 – .
58
Quando os tamanhos amostrais dos grupos são diferentes, o teste de Tukey ainda pode ser usado.
Apesar de não ser mais um teste exato, é um teste aproximado. Vale ressaltar que testes de
comparações múltiplas exatos são raros, uma vez que a maioria não controla o nível de significância
adotado.
O teste de Tukey consiste em comparar todos os possíveis pares de médias e se baseia na diferença
mínima significativa (DMS), considerando os percentis do grupo.
No cálculo da DMS utiliza-se também a distribuição da amplitude estudentizada (valor de qα), o
quadrado médio dos resíduos da ANOVA (𝑠𝐷2 ) e o tamanho amostral dos grupos (𝑛).
Para realizar o teste de Tukey, devem ser levadas em conta as seguintes suposições:
1) As observações são independentes dentro e entre os grupos.
2) Os grupos devem ser normalmente distribuídos.
3) A variância dentro do grupo deve ser constante.
TESTE DE TUKEY
O teste de Tukey é um procedimento que complementa a ANOVA e visa identificar quais as médias
que, tomadas duas a duas, diferem significativamente entre si.
O teste de Tukey protege contra um aumento no nível de significância devido ao grande número de
𝑘(𝑘−1)
comparações efetuadas. Note que se forem usados k grupos experimentais, é possível realizar 2
comparações de médias duas a duas.
Por exemplo, se 4 grupos experimentais (A, B, C e D) devem ser comparados, o número de
comparações de médias duas a duas será:
4(4 − 1) 4 × 3
= = 6 𝑐𝑜𝑚𝑝𝑎𝑟𝑎çõ𝑒𝑠
2 2
Para a aplicação do teste de Tukey, inicialmente deve-se calcular a diferença mínima significativa
(DMS), pela fórmula:
𝑠2 1 1
𝐷𝑀𝑆 = 𝑞𝛼 × √ 2𝐷 × (𝑛 + 𝑛 ) em que:
𝐴 𝐵
q = valor crítico obtido na Tabela 7, levando em consideração o nível de significância (), o número
de graus de liberdade dentro (𝐺𝐿𝐷 = 𝑁 − 𝑘) e o número de grupos ou tratamentos (𝑘).
𝑠𝐷2 = variância dentro
nA = representa o número de observações do primeiro conjunto
nB = representa o número de observações do segundo conjunto
A unidade de medida da DMS será a mesma das médias.
Em seguida, calcular as diferenças, em módulo, entre as médias dos grupos duas a duas e apresentá-
las como mostrado a seguir:
59
̅𝑨
𝒙 ̅𝑩
𝒙 𝒙̅𝑪 ̅𝑫
𝒙
̅𝑨
𝒙 - |𝑥̅𝐴 − 𝑥̅𝐵 | |𝑥̅𝐴 − 𝑥̅𝐶 | |𝑥̅𝐴 − 𝑥̅𝐷 |
̅𝑩
𝒙 - - |𝑥̅𝐵 − 𝑥̅ 𝐶 | |𝑥̅𝐵 − 𝑥̅𝐷 |
̅𝑪
𝒙 - - - |𝑥̅𝐶 − 𝑥̅𝐷 |
̅𝑫
𝒙 - - - -
Finalmente, comparar as diferenças em módulo das médias duas a duas com a DMS calculada.
Se a diferença, em módulo, entre as médias for menor do que a DMS calculada, não há diferença
estatisticamente significativa para o nível de significância () adotado. Neste caso, usa-se a notação
NS, sobrescrita do lado direito do valor da diferença em módulo das médias duas a duas.
Se a diferença, em módulo, entre as médias for maior ou igual a DMS calculada, as médias serão
significativamente diferentes para o nível de significância () adotado. Neste caso, usa-se a notação
* ou **, também sobrescritos do lado direito do valor da diferença em módulo das médias duas a
duas, se o tiver sido 5% ou 1%, respectivamente.
Os resultados do teste de Tukey são apresentados em uma tabela em que as médias dos grupos são
colocadas em ordem decrescente e estão acompanhadas por letras minúsculas, sobrescritas do lado
direito delas.
Grupos Médias
B 45,69a
D 44,98a
C 35,21b
A 19,58c
√𝑠𝐷2
𝐶𝑉(%) = × 100%
∑ ∑ 𝑥𝑖𝑗
𝑁
As médias que não apresentarem diferença estatisticamente significativa recebem letras
minúsculas iguais.
As médias que apresentarem diferença estatisticamente significativa recebem letras minúsculas
diferentes.
As informações sobre as notações utilizadas devem ser colocadas no rodapé da tabela.
O coeficiente de variação é uma medida relativa do grau de dispersão, que vai informar a variação
existente entre todas as observações feitas em todos os tratamentos. A dispersão será considerada
baixa (CV ≤ 15%), média 15% < CV < 30%) ou alta (CV ≥ 30%).
Para aplicação da análise de variância, é preciso que os pré-requisitos de normalidade,
homocedasticidade e independência dos dados sejam obedecidos.
Se os pré-requisitos da análise de variância não forem atendidos, existe um teste correspondente
na Estatística Não-Paramétrica, o teste de Kruskal-Wallis por postos ou teste H de Kruskal-Wallis.
60
Este teste, nomeado em homenagem aos estatísticos americanos William Henry Kruskal (1919-
2005) e Wilson Allen Wallis (1912-1998), é uma extensão do teste de Mann-Whitney (para dados
independentes), e é utilizado para comparar três ou mais populações.
Ele é usado para testar a hipótese nula (H0) de que todas as populações possuem funções de
distribuição sem diferença significativa contra a hipótese alternativa (Ha) de que ao menos duas das
populações possuem funções de distribuição significativamente diferentes.
A aplicação do teste de Kruskal-Wallis requer cuidado com amostras pequenas e atenção com os
empates.