0% acharam este documento útil (0 voto)
40 visualizações23 páginas

Estatistica Aplicada

O documento aborda a importância dos testes paramétricos na análise estatística, detalhando suas premissas, tipos e aplicações, como o teste t e ANOVA. Ele descreve a metodologia utilizada, objetivos gerais e específicos, e fornece exemplos práticos para facilitar a compreensão. Além disso, discute as vantagens e limitações dos testes paramétricos em comparação com os não paramétricos.
Direitos autorais
© © All Rights Reserved
Levamos muito a sério os direitos de conteúdo. Se você suspeita que este conteúdo é seu, reivindique-o aqui.
Formatos disponíveis
Baixe no formato DOCX, PDF, TXT ou leia on-line no Scribd
0% acharam este documento útil (0 voto)
40 visualizações23 páginas

Estatistica Aplicada

O documento aborda a importância dos testes paramétricos na análise estatística, detalhando suas premissas, tipos e aplicações, como o teste t e ANOVA. Ele descreve a metodologia utilizada, objetivos gerais e específicos, e fornece exemplos práticos para facilitar a compreensão. Além disso, discute as vantagens e limitações dos testes paramétricos em comparação com os não paramétricos.
Direitos autorais
© © All Rights Reserved
Levamos muito a sério os direitos de conteúdo. Se você suspeita que este conteúdo é seu, reivindique-o aqui.
Formatos disponíveis
Baixe no formato DOCX, PDF, TXT ou leia on-line no Scribd

INDICE

INTRODUCAO..............................................................................................................................................4
OBJECTIVOS.................................................................................................................................................5
GERAIS.....................................................................................................................................................5
Especificos...............................................................................................................................................5
Metodologia................................................................................................................................................6
Teste parametricos......................................................................................................................................7
Tipos de Testes Paramétricos......................................................................................................................9
O teste T para amostras independentes..................................................................................................9
Amostras Independentes..............................................................................................................................9
Antes e depois.......................................................................................................................................11
Grupos pareados...................................................................................................................................11
Análise de variância - ANOVA....................................................................................................................13
A Análise de Variância – ANOVA............................................................................................................13
Pressupostos:........................................................................................................................................13
Análise de variância simples..................................................................................................................14
Inferir sobre causas...............................................................................................................................14
Tipo de teste post hoc:..............................................................................................................................21
Tukey.....................................................................................................................................................21
Bonferroni:............................................................................................................................................22
Como calcular a correção de Bonferroni...............................................................................................22
Objectivo dos testes post hoc....................................................................................................................23
Exploração de padrões não previstos....................................................................................................23
Finalidade dos testes post hoc..................................................................................................................23
Controle da taxa de erro Tipo I..............................................................................................................23
Ajustes em comparações múltiplas...........................................................................................................23
Geração de hipóteses exploratórias..........................................................................................................23
Visão geral do processo de teste post hoc na ANOVA...........................................................................23
CONCLUSAO..............................................................................................................................................25
REFERENCIAS.............................................................................................................................................26
4

INTRODUCAO

A estatística desempenha um papel fundamental na análise e interpretação de dados em diversas


áreas do conhecimento, permitindo que decisões sejam tomadas com base em evidências
quantitativas. Entre as ferramentas estatísticas mais utilizadas, destacam-se os testes
paramétricos, que são procedimentos inferenciais baseados em suposições sobre a distribuição
dos dados, normalmente assumindo uma distribuição normal.

Esses testes são especialmente úteis quando se deseja comparar médias entre grupos ou avaliar o
impacto de determinadas variáveis, desde que as premissas básicas sejam atendidas, como a
normalidade, homogeneidade das variâncias e independência das observações. Ferramentas
como o teste t (para uma amostra, amostras independentes e amostras pareadas), ANOVA
(análise de variância) e os testes post hoc (como Tukey e Bonferroni) compõem o arsenal
estatístico disponível para pesquisadores e profissionais em diversas áreas, desde a saúde até a
agronomia.

Este trabalho tem como propósito apresentar, de forma clara e aplicada, os principais testes
paramétricos, suas condições de uso, vantagens e limitações, complementando com exemplos
práticos que facilitam a compreensão do seu funcionamento e interpretação.
5

OBJECTIVOS

 Gerais

Apresentar e aplicar os principais testes paramétricos da estatística inferencial,


destacando suas premissas, formas de cálculo e interpretação, por meio de exemplos
práticos e contextualizados.

 Especificos

Explicar os conceitos fundamentais dos testes paramétricos, incluindo suas premissas e


aplicações.
Apresentar o teste t em suas diferentes formas (uma amostra, amostras independentes e amostras
pareadas).
Demonstrar a aplicação da ANOVA (análise de variância) para comparação de três ou mais
médias.
Explorar os testes post hoc, como Tukey e Bonferroni, para identificar diferenças específicas
entre grupos.
Analisar os resultados dos testes por meio de exemplos práticos e interpretar suas implicações
estatísticas.
Discutir as vantagens e limitações dos testes paramétricos em relação aos testes não
paramétricos.

Metodologia
6

Para a realização do presente trabalho deu-se através de uma pesquisa bibliográfica, com a
finalidade de buscar a interpretação e compreensão do tema em estudo, por tanto acentuo-se na
pesquisa bibliográfica que consiste na procura de módulos e outras fontes já publicadas para dar
acesso ao tema em estudo.
7

Teste parametricos:

São testes estatísticos que baseiam-se em pressupostos sobre a distribuição da população dos
dados que estão a ser analisados, geralmente assumindo uma distribuição normal ou
aproximadamente normal.

Estes testes são mais poderosos quando as suas premissas são satisfeitas e são frequentemente
usados para comparar médias ou outras características de grupos.

No entanto, se as premissas forem violadas, os resultados podem não ser confiáveis.

Principais Premissas dos Testes Paramétricos

Normalidade dos dados


Os dados devem seguir uma distribuição normal (ou aproximadamente normal). Essa suposição é
crucial para testes como o t de Student e a ANOVA. A verificação pode ser feita por meio de
testes estatísticos como Shapiro-Wilk ou Kolmogorov-Smirnov, além de inspeções visuais como
histogramas e gráficos Q-Q.

Homogeneidade das variâncias (homocedasticidade)


As variâncias dos grupos comparados devem ser iguais. Essa condição é especialmente relevante
em testes como a ANOVA. O teste de Levene é comumente utilizado para verificar essa
premissa.

Independência das observações


Cada observação deve ser independente das demais. Isso significa que a ocorrência de um
resultado não deve influenciar ou estar relacionada à ocorrência de outro. Essa premissa é
fundamental para garantir a validade dos testes estatísticos.

Escala de medida adequada


As variáveis analisadas devem ser medidas em escalas intervalares ou de razão. Essas escalas
8

possuem propriedades que permitem operações matemáticas significativas, como cálculo de


médias e desvios padrão.

Exemplo:

Um fabricante afirma que a duração média da bateria de seus celulares é de 180 horas. Para
verificar essa afirmação, uma amostra de 30 aparelhos foi testada, resultando em uma média de
120 horas e um desvio padrão de 16 horas.

Determinar se a média observada difere significativamente da média alegada pelo fabricante,


utilizando um nível de confiança de 95%.

Dados

μ=180 Ho: μ=180

H1: μ≠180

x−μ
x=120 t=
s/√n

n=36

s=16

1-α =95

z=1 , 96

120−180 −60 −60


t= = = =-23.01
16/ √ 36 16/6 2.6

Ao nível de significância rejeitamos a hipótese nula.

Tipos de Testes Paramétricos:

Alguns exemplos de testes paramétricos incluem o teste t, ANOVA (Análise de Variância) e


análise de regressão.
9

Vantagens:

Os testes paramétricos são mais poderosos estatisticamente e mais interpretáveis do que os


testes não paramétricos, especialmente quando as suas premissas são atendidas.

Desvantagens:

Se as premissas dos testes paramétricos não forem atendidas, os resultados podem ser
imprecisos ou incorretos. .

O teste T para amostras independentes é um teste estatístico utilizado para determinar se


existe diferença significativa entre as médias de duas populações independentes, com base em
amostras dessas populações. O objetivo é verificar se as diferenças observadas entre as médias
amostrais são provavelmente devidas a diferenças reais entre as populações, ou se são apenas
devidas ao acaso.

Amostras Independentes:

As amostras são independentes quando os valores de uma amostra não estão relacionados com os
valores da outra amostra.

As amostras são selecionadas aleatoriamente para que as observações não dependam das outras

Exemplo

Verificar se há diferença significativa na altura média das médias produzidas por dois viveiros.

Dados coletados:

Viveiro 1 (Alturas em cm): 12, 14, 13, 15, 14, 13, 16, 14, 15, 13

Viveiro 2 (Alturas em cm): 10, 11, 9, 12, 11, 10, 9, 12, 11, 10

Dados
10

Viveiro 1 Viveiro 2 Ho:μ₁ = μ₂

X1=13,9 cm x2=10,5 cm H1: μ₁ ≠ μ₂

S1=1,29 cm S2=1,05 cm

n=10

x 1−x 2

√ √
2 2 2 2
sp= ( n1−1 ) s +(n 2−1)s = (10−1)1, 29 +(10−1)1 , 05 =
tcal=
sp
√2
n
n 1+n 2−2 10+10−2

√ 20−2 √ 18 √
9.1,664+9.1 .1025 = 14,976 +9,9225 = 24,8985 =
18
√ 1 ,38 325=1,176

13 , 9−10 , 5
3, 4 3,4
tcal=
1,176

2 = 1,176.0,316 = 0,556 =6,11
20

ttab=(n-1;α ¿=(10-1;0,05)

ttab=(9;0,05)

ttab=1,833

Ao α ; reijatmos a HO nula, isto é, existe diferença significativa dos dois viveiros

Teste t para amostras pareadas

O teste t para amostras pareadas (também conhecido como teste t para amostras dependentes) é
um teste utilizado para comparar as médias de duas amostras que estão relacionadas, ou seja, são
medidas no mesmo grupo de indivíduos ou em grupos pareados.

Este teste é usado para determinar se há uma diferença significativa entre as médias das duas
amostras.

Em resumo: O teste t para amostras pareadas verifica se há uma diferença estatisticamente


significativa entre as médias de duas amostras relacionadas.

Quando usar o teste t para amostras pareadas


11

Antes e depois:

Para comparar as medidas do mesmo grupo de indivíduos antes e depois de uma intervenção
ou tratamento.

Grupos pareados:

Para comparar as medidas de dois grupos de indivíduos que foram pareados com base em
alguma característica relevante.

Formula:

D
t=
Sd / √ n

D: média das diferenças entre os valores (por exemplo, diferença entre medições pós e pré-
tratamento)

Sd: desvio padrão das diferenças

n: número de pares de observações

Exemplo:

Um estudo pode querer verificar se um novo medicamento melhora a pressão arterial de 5


pacientes. As medições antes e depois são as seguintes:

N Antes(mmhg) Depois(mmhg)

1 150 140

2 145 138

3 160 150

4 155 149

5 148 140
12

D1=150-140=10

D2=145-138=7

D3=160-150=10

D4=155-149=6

D5=148-140=8

D=
∑ di = 10+ 7+10+6+ 8 = 41 =8 , 2
n 5 5

S d 2=
∑ (di−d 2 )=¿ ¿ 12, 8 =2,56
n 5

Sd=√ 2 ,56 =1,6

8,2 8,2
tcal= =
1, 6 / √ 5 1, 6 /2, 23

8,2
tcal= =12 ,97
0,632

Importante:

O teste t para amostras pareadas assume que as diferenças entre as medidas dos pares são
normalmente distribuídas.

Se as diferenças não forem normalmente distribuídas, um teste não paramétrico, como o teste de
Wilcoxon para amostras pareadas, pode ser considerado
13

Análise de variância - ANOVA


A Análise de Variância – ANOVA (Analysis of Variance) – foi introduzida pelo Sr. Ronald
Fisher, com aplicações iniciais no domínio da agronomia e biologia, derivando daí grande parte
da terminologia utilizada.

A ANOVA é uma técnica que permite analisar dados que são afetados por várias condições
externas (fatores) que podem ou não operar em simultâneo.

Designa-se por fator a característica que permite distinguir os diferentes grupos. Desta forma, a
cada grupo corresponde um nível do fator, tendo um fator 𝐾 níveis.

Quando se pretende comparar mais de duas médias, poder-se-ia testar a igualdade entre todos os
pares de médias através dos testes 𝑡, por exemplo, no entanto, esta não é a melhor solução uma
vez que aumenta consideravelmente o erro de tipo I. A Análise de Variância constitui assim o
procedimento adequado para comparar mais de duas médias.

Pressupostos:

▪ As amostras têm de ser aleatórias para se garantir a independência;

▪ As populações têm distribuição Normal;

▪ As populações têm a mesma variância (homocedasticidade).

▪ A ANOVA é robusta ao pressuposto de Normalidade, desde que a distribuição populacional


seja aproximadamente simétrica e mesocúrtica;

▪ A ANOVA é robusta a violações de homocedasticidade quando o número de observações em


cada grupo é igual ou aproximadamente igual.

Análise de variância simples

Aplica-se a análise de variância simples, ou a 1 fator, quando os valores amostrais estão


separados em grupos segundo uma só característica (fator).
14

Objetivo: Testar a igualdade de três ou mais médias populacionais, isto é, testar se para um
determinado fator a média é igual para todos os seus níveis.

Determinar se há diferenças significativas entre as médias de vários grupos.

Analisar variabilidade:

Examina como a variabilidade dentro de cada grupo se compara à variabilidade entre os grupos.

A análise de variância compara médias de diferentes populações para verificar se essas


populações possuem médias iguais ou não. Assim, essa técnica permite que vários grupos sejam
comparados a um só tempo.

Em outras palavras, a análise de variância é utilizada quando se quer decidir se as diferenças


amostrais observadas são reais (causadas por diferenças significativas nas populações
observadas) ou casuais (decorrentes da mera variabilidade amostral). Portanto, essa análise parte
do pressuposto que o acaso só produz pequenos desvios, sendo as grandes diferenças geradas por
causas reais. Considerando uma variável de interesse com média μ e variância temos dois
estimadores da variância:

F= SB2/ SW2

SB2= dispersão entre os grupos (B ~ between) e SW2= dispersão dentro dos grupos (W ~ within)

Com K-1 K-1graus de liberdade no numerador e N-K no denominador. Sendo K o número de


fatores ou grupos e N o número de observações, e N-1 = (K-1) + (N-K)

Inferir sobre causas:

Permite testar se os fatores (tratamentos, grupos, etc.) exercem influência sobre uma variável
dependente.

Como funciona a ANOVA:

1. Hipótese:
15

A ANOVA testa a hipótese de que as médias dos grupos são iguais (hipótese nula) contra a
hipótese de que pelo menos uma das médias é diferente.

Digamos que temos 6 métodos de ensino aplicados a 30

crianças cada e gostaríamos de fazer uma comparação

entre os métodos. Com as seguntes hipoteses

H0: μ1 = μ2 = ... = μi

H1: μ 1≠ μ 2≠ … μ Na tabela a seguir apresenta-se os métodos de ensino

A, B, C, D, E e F. Apresenta-se também, a média, o

desvio padrão, o n° de crianças em cada método e o

respectivo grau de liberdade – gl = δ = N – 1.

A B C D E F

X 75 72 76 79 82 72

S2 173,2 168,7 170,1 169,8 172 167,6

N 30 30 30 30 30 30

Gl 29 29 292 29 29 29

Uma análise de variância permite que vários grupos sejam

comparados a um só tempo, utilizando variáveis contínuas.

O teste é paramétrico (a variável de interesse deve ter

distribuição normal) e os grupos devem ser independentes.


16

2
SB
F¿ 2
SW

A variância das médias amostrais é calculada por

2
S =∑ x i −¿ ¿ ¿ ¿
2
x

∑ x i= 75 + 72 + 76 + 79 + 82 + 72 = 456
(∑ xi ¿ ² = (456)²

∑ xi ² = 752 + 722 + 762 + 792 + 822 + 722 = 34734

Como K=6

(456)²
2 34,732−
S = 6 =15,6
x
5

Pela distribuição amostral das médias temos:

2 S2 2 2
S = ⇒ S²= S . N ⟺ S =¿ (15,6).(30)
x N x

S² = 468

Mas S² = S E ², onde S² = N . S x ²

S E ² = N ⦋ ∑ x i 2−¿ ¿ ¿ ¿ 2
S E = 468 K-1 = 5 gl

Determinando o S D2 :

S ( N 1−1 ) S12+ ( N 2−1 ) S22+…+(N k−1 )Sk 2


2
D =¿ ¿
( N 1−1 )+ ( N 2−1 )+ ( N 3−1)+…+(N k −1)
17

( 30−1 )( 173 , 2 ) + ( 30−1 )( 168 , 7 ) +…+(30−1)(167 ,6)


SD =
2
180−6

2
S D = 170,2 com 174 graus de liberdade.

Aplicando se o teste, temos:

SE ² 468
F= = =2 , 75
S D ² 170 ,2

Utilizando-se a estatística tabelada F a 5% tem-se que F(5,174 %) =¿ 2,21;

onde F calc > F tab onde a hipótese


H 0 é rejeitada ,isto é , existe pelo menos1 média diferente das demais .

Teste de Post hoc de ANOVA

Testes post-hoc são testes estatísticos que são realizados após o teste de ANOVA para identificar
as diferenças significativas entre as médias de diferentes grupos. Eles ajudam a determinar onde
as diferenças reais estão localizadas, permitindo que os pesquisadores explorem ainda mais suas
descobertas.

Exemplo: Supunhamos que testamos 3 métodos de conservação de manga, e medimos a


qualidade ( de 0 a 10) após 10 dias.

Métodos Valores ( qualidade)

Secagem 9; 8; 10; 9; 8

Refrigeração 6; 5; 7; 5; 6

Conserva 4; 5; 3; 4; 4

[Link] a média:

9+8+10+ 9+8 44
Secagem: x = = = 8,8
5 5
18

6+5+7+ 5+6 29
Refrigeração: x = = = 5,8
5 5

4+ 5+3+4 + 4 20
Conserva: x = = = 4.
5 5

II. Fazer a ANOVA

Calcular a variância dentro dos grupos: MS dentro ( também chamada de MSE).

SQ dentro
MS dentro =
gl

k ¿
SQ dentro = ∑ ∑ ¿ ¿ ¿- x )²
i=1 j=1

Secagem: ⇒(9 - 8,8)² + (8 – 8,8)² + (10 - 8,8)² + (9 – 8,8)² + (8 – 8,8)²

⇒ 0,04 + 0,64 + 1,44 + 0,04 + 0,64

⇒ 2,8

Refrigeração: ⇒ (6 – 5,8)² + (5 – 5,8)² + (7 – 5,8)² + (5 – 5,8)² + (6 – 5,8)²

⇒0,04 + 0,64 + 1,44 + 0,64 + 0,04

⇒ 2,8

Conserva: ⇒ (4 – 4)² + (5 – 4)² + (3 -4)² + (4 – 4)²+ (4 – 4)²

⇒0+1+1+0+0

⇒2

Substituindo:

k ¿
SQ dentro = ∑ ∑ ¿ ¿ ¿- x )²
i=1 j=1

⇒ 2,28 + 2,28 + 2
19

⇒ 6,56

1. Dentro¿ ¿ = N- k)

gl dentro = 15 – 3

gl dentro = 12

2. Entre os grupos:

gl entre= K – 1

gl entre= 3 -1= 2

gl total:

gl total= N - 1

gl total= 15 – 1= 14 Escreva umaequação aqui.

Substituindo a fórmula de MS dentro, teremos:

SQdentro
MS dentro=
gl

6 ,56
MS dentro=
14

MS dentro= 0,4668

Valor de q ao nível de significância de 5%:

k=3 q = (3,14,0,05)

gl = 14 q=10,346

α =0,05
20

HSD = q.
√ MS dentro
n √
= 10,346.
0,4668
5
=10,346.√ 0,09336

HSD = 10,346×0,305

HSD = 3,155

Comparar as diferença
Comparação Diferença É > HSD (3,155)? Conclusão

Secagem vs 8,8-5,8 = 3 Não Sem


Refrigeração diferença

Secagem vs 8,8-4=4,8 Sim Diferença


conserva

Refrigeração 5,8-4=1,8 Não Sem


vs conserva diferença

Conclui-se que apenas o método de conservação por secagem difere significativamente do


método conserva, indicando que esses dois métodos tem efeitos distintos sobre a variável
analisada. Já os métodos de refrigeração e conserva, bem como secagem e refrigeração, não
diferem significativamente entre si.

Tipo de teste post hoc:


Tukey: Este teste é aplicável a três ou mais grupos e pressupõe que as variâncias dos grupos são
iguais. Melhor usado quando o número de comparações é alto.

Quando os tamanhos amostrais dos grupos são iguais, o Teste de Tukey é considerado um testo
exato. Isso significa que, para o conjunto de todas as comparações par a par, a taxa de erro do
conjunto dos testes é exatamente igual a α (nível de significância), e os intervalos de confiança
são igualmente precisos, com confiança de 1 – α. Vale destacar que testes exatos para
comparações múltiplas são raros, já que a maioria não controla adequadamente o nível de
significância adotado.
21

O Teste de Tukey consiste em comparar todos os possíveis pares de médias, baseando-se na


Diferença Mínima Significativa (D.M.S.), que considera os percentis do grupo. No cálculo da
D.M.S., utiliza-se a distribuição da amplitude estudentizada, o quadrado médio dos resíduos da
ANOVA e o tamanho amostral dos grupos.

Fórmula para o Teste de Tukey (D.M.S)

DMS=q*
√ QMR
n

Onde:

DMS =Difference mínima significativa

q= representa o valor crítico de Tukey para o número de grupos e o número total de observações

QMR= é o quadrado médio do resíduo obtido na análise de variância;

n =indica o tamanho amostral de cada grupo.

Exemplo: queremos comparar três turmas (que representam o nº de grupos) de 12 alunos cada.
Somando os três grupos, o número total de alunos é 36, e para calcular os graus de liberdade do
erro, usamos a seguinte regra: pegamos o total de alunos e subtraímos pelo número de grupos.
Ou seja, 36 – 3 = 33. Esse é o número de graus de liberdade do erro porque estamos analisando a
variação dentro de cada grupo e precisamos descontar o número de categorias (neste caso, os
professores) da contagem total de dados disponíveis.

Dados

q= 3,49
QMR = 18,97
n = 12

DMS=q*
√ QMD
n

DMS=3,49.
√ 18 , 97
12
DMS=3,49.√ 1 ,58
22

DMS=3,49.1,26
DMS=4,39

Bonferroni: Este teste é aplicável a três ou mais grupos e é conservador, o que significa
que ele é menos propenso a erros tipo I (falso positivo), mas também é menos poderoso.
Melhor usado quando o número de comparações é baixo.

Como calcular a correção de Bonferroni

Com a correção de Bonferroni, vamos ter um novo valor de significância (o valor alfa, α) que
leva em consideração a quantidade de testes realizados. Ou seja, compararemos o nosso valor
de p com um αajustado, e não mais com o αoriginal. Com isso, precisaremos de evidências mais
surpreendentes para rejeitarmos a hipótese nula. Calcular o valor ajustado é simples:

Objectivo dos testes post hoc


Os testes post hoc servem para comparar todos os pares possíveis de médias de grupos,
apontando exatamente quais delas divergem após um F-teste significativo

Exploração de padrões não previstos

Além de confirmar diferenças já esperadas, esses testes permitem descobrir padrões ocultos ou
relações não incluídas nas hipóteses iniciais do estudo

Finalidade dos testes post hoc

Controle da taxa de erro Tipo I

Quando realizamos múltiplas comparações, cresce a chance de rejeitar incorretamente hipóteses


nulas verdadeiras. Os testes post hoc aplicam correções (como Bonferroni ou HSD de Tukey)
para manter o nível global de significância (α) sob controle

Ajustes em comparações múltiplas

Métodos como Bonferroni, Tukey, Scheffé e Games-Howell reavaliam os valores-p


considerando o número total de testes, reduzindo falsos positivos sem comprometer demais o
poder estatístico.
23

Geração de hipóteses exploratórias

Resultados post hoc podem inspirar novas hipóteses para investigações subsequentes, desde que
sejam tratados como exploratórios e não confundidos com análises pré-planejadas

Visão geral do processo de teste post hoc na ANOVA

O envolvimento com o teste post hoc sempre ocorre após a obtenção de um resultado
significativo de um teste ANOVA omnibus - daí seu nome retrospetivo. Imagine esse processo
consistindo basicamente de:

Selecção do teste post hoc apropriado: Dependendo das especificidades do projeto e da


tolerância da taxa de erro.

Ajuste dos valores de p: Correção de riscos inflados associados à realização de


comparações múltiplas.

CONCLUSAO

Este trabalho abordou os principais testes paramétricos utilizados na comparação de médias em


pesquisas com dados quantitativos, especialmente relevantes nas Ciências da Saúde. Entre os
testes explorados, destacaram-se:

 Teste t para amostras independentes, usado para comparar médias entre dois grupos
distintos;
 Teste t pareado, utilizado quando os mesmos participantes são avaliados em dois
momentos ou condições diferentes;
 ANOVA de um fator, empregado para comparar mais de dois grupos simultaneamente;
 Testes post-hoc (como Tukey), aplicados quando a ANOVA encontra diferença
significativa, para identificar onde exatamente essas diferenças ocorrem.
24

A escolha do teste adequado depende do tipo de dado, da estrutura do experimento (grupos


independentes ou relacionados) e do número de grupos comparados. Além disso, é essencial
garantir que as suposições dos testes paramétricos sejam atendidas, como normalidade e
homogeneidade das variâncias.

REFERENCIAS

Field, A. (2013). Discovering Statistics Using IBM SPSS Statistics (4th ed.). SAGE
Publications

Dancey, C. P., & Reidy, J. (2017). Estatística sem Matemática para Psicologia (7ª ed.). Penso
Editor.

Pagano, R. R. (2010). Estatística para as Ciências do Comportamento (8ª ed.). Cengage


Learning.

UCLA Institute for Digital Research and Education:


[Link]

Laerd Statistics – Independent t-test:


[Link]
25

Você também pode gostar