0% acharam este documento útil (0 voto)
14 visualizações20 páginas

Testes Paramétricos: Fundamentos e Aplicações

Enviado por

Vitoria Santos
Direitos autorais
© © All Rights Reserved
Levamos muito a sério os direitos de conteúdo. Se você suspeita que este conteúdo é seu, reivindique-o aqui.
Formatos disponíveis
Baixe no formato PDF, TXT ou leia on-line no Scribd
0% acharam este documento útil (0 voto)
14 visualizações20 páginas

Testes Paramétricos: Fundamentos e Aplicações

Enviado por

Vitoria Santos
Direitos autorais
© © All Rights Reserved
Levamos muito a sério os direitos de conteúdo. Se você suspeita que este conteúdo é seu, reivindique-o aqui.
Formatos disponíveis
Baixe no formato PDF, TXT ou leia on-line no Scribd

Testes Paramétricos_________________________________________________________________________ 31

Capítulo 3 – Testes Paramétricos

3.1 Requisitos para a utilização de testes paramétricos


3.2 Testes com distribuição Normal
3.3 Teste para a média populacional: teste T-Student
3.4 Comparação de duas médias populacionais: teste T-Student
3.4.1 Amostras independentes
3.4.2 Amostras emparelhadas
3.5 Comparação de médias de mais de duas populacões : ANOVA

________________________________________________________________________________

Maria Clara Rocha


Testes Paramétricos_________________________________________________________________________ 32

3.1 REQUISITOS PARA A UTILIZAÇÃO DE TESTES PARAMÉTRICOS

Existem três requisitos para a utilização de testes paramétricos:

(a) Os resultados experimentais são medidos numa escala intervalar ou de razão,


para que seja possível levar a cabo operações numéricas nos dados experimentais.
(b) Os resultados da variável dependente são normalmente distribuídos.
A elaboração de um histograma de todos os resultados dar-nos-á a indicação se
há um traço característico das distribuições normais : tendência para os
resultados se concentrarem mais no centro do que nas margens do histograma e a
forma é aproximadamente simétrica.
Outra forma de verificar a Normalidade é utilizar o teste de Kolmogorov-Smirnov
para n>50 ou em alternativa o SPSS produz também o teste de Shapiro-Wilk
quando n≤50 (H0: a variável dependente X segue uma distribuição Normal).
(c) A variabilidade dos resultados deve ser aproximadamente a mesma, ou seja,
deve haver homogeneidade da variância caso se esteja a comparar duas ou mais
do que duas populações.
Se for considerado o mesmo número de sujeitos em cada situação experimental,
a homogeneidade da variância não é importante.
Para testar a homogeneidade das variâncias o teste de Levene é um dos mais
potentes (H0: σ21=σ
σ22).

Para testar estes pressupostos é essencial que os resultados dos sujeitos sejam
medidos de uma forma numérica, ainda que nem sempre baseados numa escala intervalar
“natural”. De facto, é frequente serem atribuídos números a todos os tipos de escalas, para
as quais é simplesmente suposto que existem intervalos iguais entre os pontos duma escala
contínua.

Se os dados experimentais diferem bastante de qualquer um destes pressupostos


paramétricos tem que se utilizar um teste não-paramétrico equivalente.
Os testes paramétricos apresentam a vantagem de se poder detectar diferenças muito
subtis entre as variáveis estudadas, porém, a sua aplicabilidade é limitada devido à
necessidade de se comprovar que todos os pressupostos estão de facto satisfeitos. Já os não-
β ) inferior à dos testes paramétricos ( i.e. a probabilidade
paramétricos têm uma potência (1-β
de rejeitar correctamente H0 é maior nos testes paramétricos) , mas podem ser aplicados a
um conjunto muito mais amplo de casos.

________________________________________________________________________________

Maria Clara Rocha


Testes Paramétricos_________________________________________________________________________ 33

________________________________________________________________________________
Exercício 1*

"Estudos efectuados com recém-nascidos sugerem que as características sensoriais se desenvolvem com
ritmos diferentes. Por exemplo, enquanto que a visão de formas bem definidas ocorre apenas a partir das 4-8
semanas de vida, o olfacto encontra-se completamente desenvolvido ao fim da 1ª semana. Para testar a influência do
olfacto no sono dos recém-nascidos, um investigador efectuou um estudo em que mediu o tempo que bebés com 1
semana, de três maternidades diferentes da capital, demoram a adormecer e a duração da sesta após terem sido
amamentados pela mãe. Num 1º grupo colocou-se no berço uma peça de roupa utilizada pela mãe e no 2° grupo foi
colocada no berço uma peça de roupa utilizada por outra parturiente que não a mãe. Os resultados obtidos foram os
seguintes:
Maternidade Peça de roupa da mãe Tempo demorado a Duração da Sesta (min)
adormecer (min)
Alf.Costa Sim 2 240
Alf.Costa Sim 5 230
Alf.Costa Sim 4 223
Alf.Costa Sim 6 243
Alf.Costa Sim 5 235
Alf.Costa Não 9 200
Alf.Costa Não 7 225
Alf.Costa Não 5 245
Alf.Costa Não 6 198
Alf.Costa Não 5 201
Amad.Sintra Sim 3 250
Amad.Sintra Sim 6 235
Amad.Sintra Sim 6 255
Amad.Sintra Sim 5 265
Amad.Sintra Sim 5 242
Amad.Sintra Não 9 232
Amad.Sintra Não 7 199
Amad.Sintra Não 5 255
Amad.Sintra Não 6 222
Amad.Sintra Não 5 123
Estefânia Sim 9 245
Estefânia Sim 7 240
Estefânia Sim 7 251
Estefânia Sim 4 268
Estefânia Sim 5 235
Estefânia Não 9 159
Estefânia Não 9 200
Estefânia Não 8 196
Estefânia Não 9 238
Estefânia Não 7 189

*
Maroco J.( 2003), Análise Estatística Com utilização do SPSS, 1ª edição, Edições Sílabo, pág.115
________________________________________________________________________________

Maria Clara Rocha


Testes Paramétricos_________________________________________________________________________ 34

Pretende-se saber se Tempo demorado a adormecer segue uma distribuição normal e se as variâncias nos dois
grupos de bebés – com e sem peça de roupa da mãe – são ou não iguais.

Resolução
Utilizando o SPSS , temos
1º introduzir as variáveis no editor de dados e codificar as variáveis nominais em variáveis quantitativas:
Maternidade Peça de roupa da mãe
-1 : Alf.Costa -1 : Sim
0 : Amad.Sintra 1 : Não
1 : Estefânia
2º determinar os testes de Kolmogorov-Smirnov e de Levene:
Analyse → Descriptive Statistics →Explore
dentro do Explore temos:
Dependent List : tempo demorado a adormecer
Factor List : Peça de roupa da mãe (var. independente)
Plots
→ Normality plots whith tests (realiza o teste de Kolmogorov-Smirnov )
→ Spread vs. Level with Levene test→
→Untransformed
(realiza o teste de Levene )
3º analisando o 3º quadro do output obtemos o teste K-S para o Tempo demorado a adormecer nas duas amostras da
variável roupa da mãe “Sim” e “Não” com p-value (sig.) de 0,200 e 0,073 respectivamente.
4º concluímos com uma probabilidade de erro de 5% que o Tempo demorado a adormecer nas duas amostras tem
uma distribuição Normal ( p-value (sig.) > α (0,05) )
5º analisando o 4º quadro do output obtemos o teste de Levene. Podemos concluir que as variâncias populacionais
estimadas a partir das duas amostras são homogéneas ( p-value (sig.) > α (0,05) )

_________________________________________________________________________________

3.2 TESTES COM DISTRIBUIÇÃO NORMAL

Admita-se que, sob uma certa hipótese, a distribuição amostral de uma estatística X é
normal, com a média µ e o desvio padrão σ. Então, a distribuição da variável reduzida (ou

X -µ
valores z), dado por Z= é a distribuição normal reduzida (com média 0 e variância 1).
σ

Podemos estimar a proporção de observações com valores compreendidos num


intervalo especificado, consultando uma tabela estatística da distribuição Normal (ver em
anexo a tabela Normal).

________________________________________________________________________________

Maria Clara Rocha


Testes Paramétricos_________________________________________________________________________ 35

Figura 1

Para um nível de significância do teste de 5%, a área total "sombreada" da Figura 1 é


0,05. Ela representa assim a probabilidade de ser cometido um erro do Tipo I.

Os valores –1,96 e 1,96 são ditos valores críticos (zc ) para o nível de significância
0,05.

O conjunto dos valores z, situados fora do intervalo de -1,96 a 1,96, constitui a


denominada região crítica da hipótese, região de rejeição da hipótese ou de significância.
Região Crítica (RC) = ]-oo; -1,96 [∪]1,96; +oo[
O conjunto dos valores z, compreendidos no intervalo de -1,96 a 1,96 é denominado
região de aceitação da hipótese, região de admissão da hipótese ou de não-significância.
Região Admissão (RA)=[–1,96 ;1,96].

Baseada nas observações acima, pode ser formulada a seguinte regra de decisão:
 Rejeição da hipótese no nível de significância 0,05, quando o valor z da estatística Z se
situa fora do intervalo de -1,96 a 1,96. Isso equivale a dizer que a estatística amostral
observada é significativa no nível 0,05.
 Aceitação da hipótese Quando o valor z da estatística Z se situar dentro do intervalo de
–1,96 a 1,96.

O valor da estatística Z é geralmente denominado z prático e escreve-se

abreviadamente z .
p

________________________________________________________________________________

Maria Clara Rocha


Testes Paramétricos_________________________________________________________________________ 36

O teste estudado acima, em que a rejeição é feita a partir dos valores extremos z
para cada um dos lados é bilateral ou bicaudal. Para certos casos em que interessa rejeitar
apenas a partir de valores extremos para um dos lados (testes unilaterais, ou unicaudais)
temos a zona de rejeição apenas de um dos lados, como está representada na Figura 5.

Figura 5- Região de rejeição de H0 para testes unilaterais

Na Tabela 1 estão representados os valores críticos de z em testes unilaterais e


bilaterais para os níveis de significância mais usados. Valores críticos de z para outros níveis de
significância podem ser encontrados usando a tabela da curva normal padronizada (ver tabela 1
em Anexo).

α 0,1 0,05 0,01 0,005 0,002


Valores críticos de z para -1,28 ou 1,28 -1,645 ou -2,33 ou 2,33 -2,58 ou 2,58 -2,88 ou 2,88
testes unilaterais 1,645
Valores críticos de z para -1,645 e 1,645 -1,96 e 1,96 -2,58 e 2,58 -2,81 e 2,81 -3,08 e 3,08
testes bilaterais

Tabela 1
Como o valor z representa um papel tão importante nos testes de hipóteses e na
significância, ele é também denominado estatística do teste.

 A área sob a curva correspondente à ou às abas da distribuição definida pelo valor de z


associado à estatística Z tem o nome de probabilidade de significância (p-value) do valor de
z .O p-value corresponde ao menor α que pode ser assumido para rejeitar a H0. Na maioria do
“Software” estatístico existente, nomeadamente o “SPSS”, para cada teste de hipóteses

________________________________________________________________________________

Maria Clara Rocha


Testes Paramétricos_________________________________________________________________________ 37

calcula-se um valor de p-value a partir do qual é “seguro” rejeitar H0. Para um determinado
α, a regra geral é
 Rejeitar de H0 se p-value ≤ α
Por exemplo, quando p-value = 0,0001 rejeita-se H0, pois este valor é muito inferior
aos níveis de significância usuais. Por outro lado, se p=0,048 pode haver dúvida pois, embora
o valor seja inferior, ele está muito próximo do nível usual de 5%.

3.3 TESTE PARA A MÉDIA POPULACIONAL : TESTE T-STUDENT

Para testar se uma média populacional é ou não igual a um determinado valor k à


custa da estimativa obtida de uma amostra aleatória pode ser utilizado um teste T-Student
(diz-se T de Student).

Formulação das hipóteses :


Teste Bilateral : H0 : µ = k
H1 : µ ≠ k
Teste Unilateral : H0 : µ = k
H1 : µ > k (ou µ < k)
_________________________________________________________________________________

Exercício1... continuação

Sabendo que num estudo semelhante efectuado no Porto se obteve uma média populacional do tempo
demorado a adormecer nos bebés de 5,1 minutos, será que a estimativa do tempo médio demorado a
adormecer dos bebés da capital deste estudo é significativamente diferente do tempo médio demorado
a adormecer dos bebés do Porto ?
Resolução
Teste Bilateral : H0 : µ = 5,1
H1 : µ ≠ 5,1
Recorrendo ao SPSS:
Analyse → Compare Means →One Sample T-test...
dentro do One Sample T-test... temos:
Test variable(s) : tempo demorado a adormecer
Test value : 5,1
O segundo quadro dos resultados obtidos apresenta p-value (sig.) =0,004. Concluímos que se rejeita H0
pois p-value < α (0,05), ou seja, com uma probabilidade de erro de 5%, a nossa média é
significativamente diferente de 5,1.
__________________________________________________________________________________________

________________________________________________________________________________

Maria Clara Rocha


Testes Paramétricos_________________________________________________________________________ 38

Tabela 2

Dimensão Distribuição amostral Estatística do teste

n< 30 tn-1 −
2 X −µ
σ conhecido
σ n

n≥30 N(0,1) 2 X −µ
σ desconhecido
s n

_________________________________________________________________________________
Exemplo 1 O Ministério da Saúde afirma que, com os meios agora postos à disposição dos
hospitais civis, o número médio de dias de internamento é mais de oito. Quem o afirmou
baseou-se em estudos recentes com um conjunto de 225 doentes onde se observou que o
número médio de dias de internamento tinha sido de nove e desvio padrão um. Quer
comentar?

1º PASSO - Formulação das hipóteses:

H0 : µ = 8 (o número médio de dias de internamento é de oito)


H1 : µ > 8 (o número médio de dias de internamento é mais de oito)

Se, no teste, não for possível provar que µ = 8 , e, portanto rejeitar H0, então a média
amostral de 9 dias de internamento será a melhor estimativa possível, condicionada ao erro
tipo I que se poderá ter cometido.
Se H0 não for rejeitada, pode-se afirmar que é provavelmente verdadeira, embora
podendo ter-se cometido um erro tipo II.

2º PASSO - Fixação do nível de significância

Consideremos α=5%.

3º PASSO - Escolha da estatística a usar e estabelecimento da regra de decisão

Conforme o tipo de população, o conhecimento da respectiva variância e a dimensão


da amostra, assim será utilizada a estatística adequada e a correspondente distribuição
amostral (ver tabela 2).

________________________________________________________________________________

Maria Clara Rocha


Testes Paramétricos_________________________________________________________________________ 39


X −µ
Estatística: ~ N (0, 1)
σ n

Para o nível de significância de 0,05 e, sendo o teste unilateral à direita, o valor

critico para z será zc = 1,645 (ver tabela 1) podendo estabelecer-se a seguinte região

crítica unilateral (direita):

x -µ 9 −8
O valor z da estatística será dado por zp = = = 15
σ 1
n 225
Região Crítica (RC) = [ 1,645; +oo[
Região Admissão (RA) = ]–oo ;1,645]

Regra de decisão : Se o valor zp pertencer a RA, aceita-se a hipótese nula

Ou seja z < z ⇒ z ∈ RA ⇒ Aceitar H ;


p c p 0
Se o valor zp pertencer a RC rejeita-se hipótese nula

Ou seja z > z ⇒ z ∈ Rc ⇒ regeitar H


p c p 0

4º PASSO - Tomada de decisão

Como z = 15,9 > 1,645 = z , decide-se rejeitar H0 , isto é rejeita-se que o número
p c
médio de dias de internamento é de oito.
_________________________________________________________________________________

________________________________________________________________________________

Maria Clara Rocha


Testes Paramétricos_________________________________________________________________________ 40

3.4 COMPARAÇÃO DE DUAS MÉDIAS POPULACIONAIS : TESTE T- STUDENT

3.4.1 AMOSTRAS INDEPENDENTES

Um teste de t-Student para amostras independentes, é utilizado quando queremos


verificar se o facto da variável em estudo pertencer a um grupo em vez de outro influencia o
seu comportamento. Queremos portanto verificar se existe uma diferença significativa entre
as médias de dois grupos independentes.
De uma forma geral, as variâncias populacionais não são conhecidas pois geralmente
são utilizadas amostras. Assim, o teste t-student geralmente utilizado é para variâncias
populacionais desconhecidas.

Formulação das hipóteses :


Teste Bilateral : H0 : µ1 = µ2
H1 : µ1 ≠ µ2
Teste Unilateral : H0 : µ1 = µ2
H1 : µ1 > µ2 (ou µ1 < µ2)

Tabela 3

Universos Dimensões σ12 e σ22 Estatística do teste e distribuição amostral


_________________________________________________________________________________
Exemplo1... n1 ≤ 30 e n2 ≤ 30
Normais continuação x1 − x 2 ~ t (n1+n2-2)
t=
σ12 = σ22 ( n1 − 1)s12 + ( n 2 − 1)s 22 1 1
Pretende-se saber se existem diferenças entre os tempos médios demorados ×
a adormecer +
n1 > 30 e n2 >30 (T.Levene) n + n − 2 n n 2 pelos bebés
Quaisquer 1 2
em cujo berço foi colocada uma peça de roupa da mãe (grupo1) e pelos bebés em cujo berço foi
1
~ N(0,1)
colocada uma peça de roupa de outra parturiente (grupo2).
Normais n1 ≤ 30 e n2 ≤ 30 x1 − x 2 ~ tv
Resolução t=
2σ1 ≠σ2
2
s12 s 22
Teste Bilateral : H0 : µ1 = µ2 +
Quaisquer n1 > 30 e n2 >30 (T.Levene)
H1 : µ1 ≠ µ2 n1 n 2
~ N(0,1)

2
 s 21 s 22 
 + 
 n1 n 2 
com v =  
2 2 2
1  s1  1  s 22 
×  + × 
n1 − 1  n1  n 2 − 1  n 2 

__________________________________________________________________________________________
Exemplo 2 Num ensaio clínico comparou-se dois anorexígenos e registaram-se as perdas de peso.
Pretende-se testar se a diferença observada nas duas amostras é estatisticamente significativa,
assumindo-se α de 1%.
________________________________________________________________________________

Maria Clara Rocha


Testes Paramétricos_________________________________________________________________________ 41

Vamos supor que a distribuição não é Normal mas há homogeneidade das variâncias.
Grupo A Grupo B
Média 2 6
Variância 0.784 1.52
n 6 7 Hipóteses a testar: H0: µA=µB
H1: µA‡µB

x1 − x 2 6−2
t= ⇔ t= = 6, 603
2 2
( n1 − 1)s + ( n 2 − 1)s
1 2 1 1 0, 606
× +
n1 + n 2 − 2 n1 n 2

tc=3,106 (graus de liberdade :6+7-2) –t 0 t


c c

Conclusão: Como t > tc, rejeita-se H0 e aceita-se que as diferenças são estatísticamente significativas.
__________________________________________________________________________________________

_________________________________________________________________________________
Exemplo 3(SPSS) Foram medidas as desitometrias ósseas (medição da densidade mineral
óssea) de indivíduos com e sem fractura do colo do fémur, estando indicadas as médias de
densidade mineral óssea (BMD) para os dois grupos na Tabela. Perante este resultado
poderemos afirmar que os indivíduos que fracturam o colo do fémur têm um BMD mais baixo
do que os indivíduos sem fractura?

n
_ s
x
não fracturado 1981 0.96 0.17

fracturado 33 0.70 0.16

Resolução com o SPSS:

________________________________________________________________________________

Maria Clara Rocha


Testes Paramétricos_________________________________________________________________________ 42

________________________________________________________________________________

Maria Clara Rocha


Testes Paramétricos_________________________________________________________________________ 43

Exemplo Num ensaio clínico compararam-se dois anorexígenos e registaram-se as perdas de


peso. Pretende-se testar se a diferença observada nas duas amostras é estatisticamente
Hipótese estatística para
significativa, assumindo-se α de 1%. Vamos supor que a distribuição não é Normal mas há
o t. Levene
homogeneidade das variâncias. 2 2
H0: σ nãofract =σ fract
Grupo A Grupo B
2 2
Média 2 6 H1 : σ ≠ σ
não fract fract
Variância 0.784 1.52
n 6 7

H0: µA=µ
µB x1 − x 2 6−2
t= ⇔ t= = 6, 603
H1: µA‡µ
µB 2 2
( n1 − 1)s + ( n 2 − 1)s
1 2
×
1 1
+
0, 606
n1 + n 2 − 2 n1 n 2

tc=3,106 para (6+7-2) graus de liberdade

CONCLUSÃO: Como t > tc, rejeita-se H0 e aceita-se que as diferenças são estatísticamente significativas.

_____________________________________________________________________________________

3.4.2 AMOSTRAS EMPARELHADAS

_________________________________________________________________________________

_________________________________________________________________________________
Exercício1... continuação
Como foi visto anteriormente, as condições de aplicabilidade de testes paramétricos foram verificadas
logo o teste t-student pode aplicar-se. Recorrendo ao SPSS:
Analyse → Compare Means →Independent Samples T-test
dentro do Independent Samples T-test temos:
________________________________________________________________________________

Maria Clara Rocha


Testes Paramétricos_________________________________________________________________________ 44

Test variable(s) : tempo demorado a adormecer


Grouping-variable : Peça de roupa da mãe
Define Groups…(define dois grupos a comparar)
→ Use specified values
Group1 : -1 ( com roupa da mãe)
Group2 : 1 ( sem roupa da mãe)
Relembremos que a variável Peça de roupa da mãe foi codificada anteriormente com os valores –1 e 1
para “Sim” e “Não” respectivamente.

O segundo quadro dos resultados obtidos apresenta p-value (sig.) =0,007. Concluímos que se rejeita H0
pois p-value < α (0,05), ou seja, os tempos médios para adormecer são significativamente diferentes
nos dois grupos de bebés.
_________________________________________________________________________________

3.4.2 AMOSTRAS EMPARELHADAS

Um teste de t-Student para amostras emparelhadas (t-paired test) é utilizado quando


queremos estudar o comportamento de uma variável avaliada em cenários diferentes mas
com o mesmo grupo de sujeitos.
Considere-se uma amostra emparelhada que fornece pares de observações (X1i, X2i).
Seja d= X1i- X2i a diferença de valores entre cada par de observações.

Formulação das hipóteses :


Teste Bilateral : H0 : µd = 0
H1 : µd ≠ 0
Teste Unilateral : H0 : µd = 0
H1 : µd > 0 (ou µd < 0)
Estatística do teste:
d − µd
T= ' ∩ t n -1 com d=
∑d i '
;s =
∑ (d i − d )2
d
sd / n n n −1
onde d e sd' são a média e desvio padrão de d

_________________________________________________________________________________
Exemplo 4 Um hipnótico foi aplicado num grupo de pacientes que de tinham submetido
anteriormente a um tratamento padrão. Foi observado o número de horas de sono de cada
paciente nos dois momentos. Deseja-se testar se a diferença média observada é não nula,
considerando-se um nível de significância de 5%.

________________________________________________________________________________

Maria Clara Rocha


Testes Paramétricos_________________________________________________________________________ 45

Horas de sono
Di
D = 0, 433, S D = 0, 27 →
Paciente Droga Trat. Padrão

EPM D = 0, 27
1 8.6 8.2 0.4
2 8.8 8.3 0.5
= 0, 09
9
3 8.1 7.6 0.5
4 9.8 9.4 0.4
5 9.7 8.9 0.8 0, 433
t= =4,81 e gl = 8
6 8.0 7.2 0.8 0, 09
7 8.4 8.5 -0.1
8 9.5 9.3 0.2 → tc 2,5% = 2,30 ⇒ Rejeita-se H 0
9 9.5 9.1 0.4

H 0 : µD = 0 H A : µD ≠ 0
_________________________________________________________________________________

____________________________________________________________
Exemplo 5 (SPSS)

A tabela seguinte refere-se aos dados para uma amostra de 12 casais relativamente ao número de filhos
que tem e o número de filhos que desejavam ter por ocasião do seu casamento.

Filhos por casal 4 3 0 4 3 4 0 4 3 1 3 1


Filhos desejados 3 3 0 2 2 3 0 3 2 1 3 2

Pretende-se saber se existem diferenças significativas do número médio de filhos por casal e
do número médio de filhos desejados.

1.º Escolher Menu Analyse – Compare Means – Paired-Samples T Test…

2.ºSeleccionar as variáveis que deseja analisar

________________________________________________________________________
_________________________________________________________________________________
________________________________________________________________________________

Maria Clara Rocha


Testes Paramétricos_________________________________________________________________________ 46

Exemplo 6 (SPSS) Para avaliar o estado de saúde de trabalhadores (floricultores) quanto ao


estado de irritação das mucosas nasais e dificuldades de respiração devido ao uso de
determinado insecticida, foi medido a “Colinesterase Sérica”. Para tal, foram feitas duas
colheitas de sangue em cada pessoa: uma antes da aplicação do agente químico (insecticida)
e outra após 24 horas. Os resultados obtidos estão apresentados na tabela abaixo:

1. Avaliar pressupostos

Test of Homogeneity of Variances


número de anos que fuma

Levene Statistic df1 df2 Sig.


,702 4 101 ,592

2. Analisar resultados

Conclusão: Rejeita-se a hipótese nula, para um erro máximo de 5% (p=0,001< 0.05)

_________________________________________________________________________________

3.5 COMPARAÇÃO DE MÉDIAS DE MAIS DO QUE DUAS POPULAÇÕES : ANOVA

A comparação de médias de duas ou mais populações de onde foram extraídas


amostras aleatórias e independentes pode fazer-se através da Análise de Variância (
abreviadamente ANOVA do inglês “Analysis of Variances”).
Por exemplo, voltando ao exemplo 1, poderia ser analisado se o tempo médio da
duração da sesta dos bebés é ou não idêntica entre as três maternidades do estudo.

________________________________________________________________________________

Maria Clara Rocha


Testes Paramétricos_________________________________________________________________________ 47

Para testar a igualdade de médias, a ANOVA recorre à análise das variâncias: compara
a proporção relativa da variância dentro das amostras ou grupos populacionais ( variância
residual ) com a variância entre as amostras ou grupos populacionais ( variância do factor ).
Se a variância residual for significativamente inferior à variância do factor, então as médias
populacionais estimadas a partir das amostras, são significativamente diferentes.

Se existir apenas um factor em estudo (i.e. uma variável independente) a análise de


variância designa-se por ANOVA One-way (ou "a um factor"). Se existir mais do que um
factor, a análise de variância designa-se por ANOVA factorial. Neste último caso estuda-se
não só o efeito de cada um dos factores sobre a variável dependente mas também a possível
influência que cada um dos factores pode exercer sobre a resposta da variável dependente ao
outro factor.

Se as variáveis independentes (factores) são fixas à partida pelo investigador a ANOVA


designa-se por ANOVA tipo I. Caso a(s) variável(eis) independente(s) seja(m) aleatória(s), a
ANOVA designa-se por ANOVA tipo II. Finalmente, se existirem variáveis independentes em que
uma(s) fixa(s) pelo investigador e outra(s) aleatória(s) então temos uma ANOVA tipo III.
Por exemplo, no exemplo1 para a variável independente maternidade o investigador
fixou as maternidades onde irá efectuar o estudo. Assim, para analisar se o tempo médio da
duração da sesta dos bebés é ou não idêntica entre as três maternidades do estudo, utiliza-se
uma ANOVA tipo I. Mas, caso as maternidades fossem escolhidas aleatoriamente da “lista das
maternidades nacionais”, então tinha-se o caso duma ANOVA tipo II.

 ANOVA a um factor ( One-way )

Na ANOVA one-way o comportamento da variável de medida é, supostamente,


influenciado apenas por um factor (variável independente) cujos k níveis foram aplicados em
k amostras ou grupos populacionais. Pretende-se testar se k ≥ 2 médias populacionais (
estimadas a partir de k amostras aleatórias ) são ou não iguais, ou se k amostras provêm ou
não da mesma população.

Formulação das hipóteses :


H0 : µ1 = µ2 =...= µk
H1 : ∃ i,j : µi ≠ µj

Quando na ANOVA se rejeita H0, pode-se concluir que existe pelo menos uma média
populacional que é significativamente diferente das restantes. No entanto, a ANOVA não

________________________________________________________________________________

Maria Clara Rocha


Testes Paramétricos_________________________________________________________________________ 48

indica qual ou quais as médias diferentes. Assim, temos que testar à posteriori qual ou quais
os pares de médias diferentes.
O procedimento para comparar k médias, duas a duas, designa-se por “Comparação
múltipla de médias”. De entre vários testes existentes para comparar k médias, um dos mais
utilizados é o teste de Tukey.

_________________________________________________________________________________
Exercício 1 … continuação

Pretende-se saber se existem diferenças significativas entre o tempo médio que os bebés demoram a
adormecer nas três maternidades estudadas.

Resolução com o SPSS:


O teste ANOVA a um factor encontra-se no menu
Analyse → Compare Means → One-Way ANOVA
Dependent List : tempo demorado a adormecer
Factor : maternidade (var. independente)
Options (faz o teste de homogeneidade das variâncias)
Post Hoc ( faz a comparação múltipla de médias) :
o Tukey ( se as variâncias deram iguais)
o Seleccionar um qualquer teste se as variâncias não
deram iguais.
Pelo 1º quadro do output concluímos, com uma probabilidade de erro de 5%, que existem pelo menos
duas maternidades com médias de tempo demorado pelos bebés a adormecer significativamente
diferentes ( p-value (sig.) = 0,033 < α (0,05) logo rejeita-se H0 )

Pelo 2º quadro do output concluímos, com uma probabilidade de erro de 5%, que apenas as
maternidades Alf.Costa e Estefânia têm médias significativamente diferentes ( sig = 0,04 ).
__________________________________________________________________________________________

__________________________________________________________________________________________
Exercício 7 Pretende-se estudar se existe relação entre o número de anos que um individuo adulto fuma
e as suas habilitações literárias. Os resultados obtidos estão na Tabela abaixo.

________________________________________________________________________________

Maria Clara Rocha


Testes Paramétricos_________________________________________________________________________ 49

Descriptives
número de anos que fuma

95% Confidence Interval for


Mean

N Mean Std. Deviation Std. Error Lower Bound Upper Bound Minimum Maximum
1.º Ciclo 11 23,18 7,373 2,223 18,23 28,14 14 40
2.º Ciclo 10 15,80 10,465 3,309 8,31 23,29 4 35
3.º Ciclo 27 13,89 7,433 1,431 10,95 16,83 2 30
Ensino Secundário 39 12,13 7,331 1,174 9,75 14,50 2 35
Licenciatura 19 11,89 8,755 2,009 7,67 16,11 3 32
Total 106 14,03 8,490 ,825 12,39 15,66 2 40

1.º Analyse – Compare Means –


One-Way ANOVA…

2.º Seleccionar as variáveis que deseja analisar: Número de anos de


consumo de tabaco para a janela “Dependent List”, e Habilitações Literárias
“Factor”

4.º Escolher o teste de comparações múltiplas (Post- Hoc).

Resultados:
________________________________________________________________________________

Maria Clara Rocha


Testes Paramétricos_________________________________________________________________________ 50

Test of Homogeneity of Variances


número de anos que fuma

Levene Statistic df1 df2 Sig.


,702 4 101 ,592

ANOVA
número de anos que fuma

Sum of Squares df Mean Square F Sig.


Between Groups 1180,864 4 295,216 4,668 ,002
Within Groups 6388,051 101 63,248
Total 7568,915 105

Coeficiente de Determinação: R2 =Sum of squares between groups/ Total sum of squares

= 1180,864/7568,915=o,156

Apenas 15,6% do nº anos que se fuma é explicado pelas habilitações literárias.

________________________________________________________________________________

Maria Clara Rocha

Você também pode gostar