Estatística Descritiva
Média, mediana e moda → tabela gerada após inserir as variáveis
Histograma → gráficos de distribuição após inserir as variáveis
Teste de normalidade (Shapiro-wilk) → Estatísticas → marcar teste de Shapiro-wilk
Outra forma de ver normalidade → gráfico Q-Q → quanto mais próximo da
reta, está mais próximo de uma distribuição normal
IMPORTANTE!!
→ Teste de Shapiro-Wilk → p > 0,05 = distribuição normal
p < 0,05 = distribuição não normal
Testes Paramétricos (variáveis ordinais ou intervalares, com distribuição normal e
variâncias semelhantes)
Teste T pareado (duas amostras relacionadas)
→ Sempre gerar estatísticas descritivas antes.
→ Teste T → Teste T de amostras dependentes → Passar as variáveis para
a caixa “variáveis pareadas” → marcar tamanho de localização e tamanho de
efeitos (ambos 95%).
→ observar o valor-p (“queremos p<0,05”), observar o intervalo de confiança
(não “deve” passar pelo zero).
Teste T independente (duas amostras independentes)
→ Sempre gerar estatísticas descritivas antes.
→ Teste T → Teste T de amostras independentes → passar as variáveis
dependentes para a caixa “variáveis dependentes”, e a variável de
agrupamento (geralmente chamada de grupo), para a caixa “variável de
agrupamento”.
→ Marcar tamanho de efeito (d de Cohen). E descritivas.
→ observar o valor-p (“queremos p<0,05”), observar o valor do d de Cohen
(quanto maior, melhor = maior efeito), observar o intervalo de confiança, (não
“deve” passar pelo zero).
Anova de medidas repetidas (mais de duas amostras relacionadas)
(acho que não aprendemos, não vi nos slides)
Anova de grupos independentes (mais de duas amostras independentes)
→ Sempre gerar estatísticas descritivas antes.
→ ANOVA → ANOVA → passar a variável dependente para a caixa “variável
dependente” e a variável grupo para a caixa “fatores fixos”.
→ Em testes Post Hoc → Marcar a caixa correção e selecionar os nomes →
na aula foi usado o Bonferroni, mas já vi Tukey também.
→ Observar na saída: valor F (não interpretado), valor-p (“queremos”
p<0,05). O p post hoc (bonferroni ou tukey), mostra onde houve diferença
entre os grupos (p < 0,05).
Testes não paramétricos (nominal, ordinal ou intervalar, sem distribuição normal)
Qui-quadrado (X2) (uma amostra, nominal)
→ Sempre gerar estatísticas descritivas antes.
→ Frequências → Teste multinomial.
→ Passar a variável nominal para a caixa “fator”. → Selecionar “custom
expected proportions (X2)” → Selecionar “descritivas” → exibir “contagem”
(proporções indica a porcentagem).
→ Observar valor p (p < 0,05).
Qui-quadrado (X2) (duas amostras independentes, nominal)
→ Sempre gerar estatísticas descritivas antes.
→ Frequências → Tabelas de contingência.
→ Passar a variável dependente para a caixa “linha” e a variável
independente para a caixa “coluna”.
→ Aba estatística → selecionar (X2).
→ Aba células → selecionar em contagem: observed; em porcentagem:
colunas; em margin: show totals.
→ Aba opções → Selecionar ascendente dos dois lados.
→ Observar valor p (p < 0,05)
Mann-Whitney (duas amostras independentes, ordinal ([Link]: likert), ou quando
não há distribuição normal)
→ Sempre gerar estatísticas descritivas antes.
→ Teste T → Teste T de amostras independentes.
→ Passar todas as variáveis para a caixa “variáveis dependentes”, passar a
variável grupo para a caixa “variável de agrupamento”.
→ Em “testes”, selecione apenas Mann-Whitney.
→ Não marcar “descritivas” nessa página.
→ Na interface inicial dos dados no JASP, selecionar Descritivas →
Estatísticas Descritivas.
→ Na aba Estatísticas, selecionar em tamanho da amostra: válidos; em
tendência central: mediana; em dispersão: IQR, máximo, mínimo.
→ Observar valor-p (p < 0,05).
Kruskal-Wallis (Mais de duas amostras independentes, ordinal ou numérica
(sem distribuição normal))
→ Sempre gerar estatísticas descritivas antes.
→ variável dependente na caixa “variável dependente”, variável grupo na
caixa “fatores fixos”.
→ Aba não paramétricos → Teste Kruskal-Wallis → Passar a variável grupo
para a caixa a direita.
→ Gerar descritivas na interface de dados do JASP (com válidos, mediana e
IQR (máximo e mínimo)).
→ Observar mediana e IQR.
Correlação e Regressão
Correlação (Spearman (ordinal ou numéricas não normalmente distribuídas)
ou Pearson (distribuição normal, numéricas))
→ Regressão → Correlação.
→ Selecionar Pearson ou Spearman a partir das características dos dados.
→ Selecionar “reportar significância”, “exibir em pares”e “tamanho de efeito”.
→ Hipótese alternativa, selecionar correlacionados.
→ Gráficos → Selecionar: gráficos de dispersão, densidade para as variáveis
e estatísticas.
→ Selecionar Shapiro Wilk para normalidade bivariada (p > 0,05).
→ Observar a tabela gerada (estará marcado quais têm valores p
significativos, p< 0,05)
→ Reportar o R ou rho.
Regressão Linear
→ Regressão → Regressão Linear.
→ Inserir variável dependente na caixa “variável dependente”. Para
regressão linear simples, usa-se apenas uma variável independente, que
deverá ser inserida no quadro covariável.
→ Na aba modelo, deixe como está.
→ Selecionar Estimativas, Intervalos de confiança, estatísticas descritivas,
estatísticas residuais, Teste Durbin-Watson, Diagnósticos caso a caso,
distância de cook maior que 1, histogramas com resíduos padronizados e
Q-Q.
→ Na saída Model Summary, observar o R2 e R2 ajustado (mais
conservador). Multiplicar por 100 para ver quantos por cento do modelo
proposto explica a variância da variável dependente.
→ Na saída Coefficients, observar a H1, em standardized (que é o tamanho
de efeito) e o valor-p (p <0,05).
→ Correspondência a cruzamento (Unstandardized e H1) + cruzamento
(unstandardized e variável independente * cada mil de X).