0% acharam este documento útil (0 voto)
15 visualizações3 páginas

Prova Quanti

Enviado por

Lucas Neves
Direitos autorais
© © All Rights Reserved
Levamos muito a sério os direitos de conteúdo. Se você suspeita que este conteúdo é seu, reivindique-o aqui.
Formatos disponíveis
Baixe no formato PDF, TXT ou leia on-line no Scribd
0% acharam este documento útil (0 voto)
15 visualizações3 páginas

Prova Quanti

Enviado por

Lucas Neves
Direitos autorais
© © All Rights Reserved
Levamos muito a sério os direitos de conteúdo. Se você suspeita que este conteúdo é seu, reivindique-o aqui.
Formatos disponíveis
Baixe no formato PDF, TXT ou leia on-line no Scribd

Estatística Descritiva

​ Média, mediana e moda → tabela gerada após inserir as variáveis


​ Histograma → gráficos de distribuição após inserir as variáveis
​ Teste de normalidade (Shapiro-wilk) → Estatísticas → marcar teste de Shapiro-wilk
Outra forma de ver normalidade → gráfico Q-Q → quanto mais próximo da
reta, está mais próximo de uma distribuição normal

​ IMPORTANTE!!
​ → Teste de Shapiro-Wilk → p > 0,05 = distribuição normal
​ ​ ​ ​ p < 0,05 = distribuição não normal

Testes Paramétricos (variáveis ordinais ou intervalares, com distribuição normal e


variâncias semelhantes)
​ Teste T pareado (duas amostras relacionadas)
​ ​ → Sempre gerar estatísticas descritivas antes.
→ Teste T → Teste T de amostras dependentes → Passar as variáveis para
a caixa “variáveis pareadas” → marcar tamanho de localização e tamanho de
efeitos (ambos 95%).
→ observar o valor-p (“queremos p<0,05”), observar o intervalo de confiança
(não “deve” passar pelo zero).
​ Teste T independente (duas amostras independentes)
​ ​ → Sempre gerar estatísticas descritivas antes.
→ Teste T → Teste T de amostras independentes → passar as variáveis
dependentes para a caixa “variáveis dependentes”, e a variável de
agrupamento (geralmente chamada de grupo), para a caixa “variável de
agrupamento”.
→ Marcar tamanho de efeito (d de Cohen). E descritivas.
→ observar o valor-p (“queremos p<0,05”), observar o valor do d de Cohen
(quanto maior, melhor = maior efeito), observar o intervalo de confiança, (não
“deve” passar pelo zero).
​ Anova de medidas repetidas (mais de duas amostras relacionadas)
​ ​ (acho que não aprendemos, não vi nos slides)
​ Anova de grupos independentes (mais de duas amostras independentes)
​ ​ → Sempre gerar estatísticas descritivas antes.
→ ANOVA → ANOVA → passar a variável dependente para a caixa “variável
dependente” e a variável grupo para a caixa “fatores fixos”.
→ Em testes Post Hoc → Marcar a caixa correção e selecionar os nomes →
na aula foi usado o Bonferroni, mas já vi Tukey também.
→ Observar na saída: valor F (não interpretado), valor-p (“queremos”
p<0,05). O p post hoc (bonferroni ou tukey), mostra onde houve diferença
entre os grupos (p < 0,05).

Testes não paramétricos (nominal, ordinal ou intervalar, sem distribuição normal)


Qui-quadrado (X2) (uma amostra, nominal)
→ Sempre gerar estatísticas descritivas antes.
→ Frequências → Teste multinomial.
→ Passar a variável nominal para a caixa “fator”. → Selecionar “custom
expected proportions (X2)” → Selecionar “descritivas” → exibir “contagem”
(proporções indica a porcentagem).
→ Observar valor p (p < 0,05).
​ Qui-quadrado (X2) (duas amostras independentes, nominal)
​ ​ → Sempre gerar estatísticas descritivas antes.
​ ​ → Frequências → Tabelas de contingência.
→ Passar a variável dependente para a caixa “linha” e a variável
independente para a caixa “coluna”.
​ → Aba estatística → selecionar (X2).
→ Aba células → selecionar em contagem: observed; em porcentagem:
colunas; em margin: show totals.
​ → Aba opções → Selecionar ascendente dos dois lados.
​ → Observar valor p (p < 0,05)
Mann-Whitney (duas amostras independentes, ordinal ([Link]: likert), ou quando
não há distribuição normal)
​ → Sempre gerar estatísticas descritivas antes.
​ → Teste T → Teste T de amostras independentes.
→ Passar todas as variáveis para a caixa “variáveis dependentes”, passar a
variável grupo para a caixa “variável de agrupamento”.
→ Em “testes”, selecione apenas Mann-Whitney.
→ Não marcar “descritivas” nessa página.
→ Na interface inicial dos dados no JASP, selecionar Descritivas →
Estatísticas Descritivas.
→ Na aba Estatísticas, selecionar em tamanho da amostra: válidos; em
tendência central: mediana; em dispersão: IQR, máximo, mínimo.
→ Observar valor-p (p < 0,05).
Kruskal-Wallis (Mais de duas amostras independentes, ordinal ou numérica
(sem distribuição normal))
​ → Sempre gerar estatísticas descritivas antes.
→ variável dependente na caixa “variável dependente”, variável grupo na
caixa “fatores fixos”.
→ Aba não paramétricos → Teste Kruskal-Wallis → Passar a variável grupo
para a caixa a direita.
→ Gerar descritivas na interface de dados do JASP (com válidos, mediana e
IQR (máximo e mínimo)).
→ Observar mediana e IQR.

Correlação e Regressão
Correlação (Spearman (ordinal ou numéricas não normalmente distribuídas)
ou Pearson (distribuição normal, numéricas))
​ ​ → Regressão → Correlação.
​ ​ → Selecionar Pearson ou Spearman a partir das características dos dados.
​ ​ → Selecionar “reportar significância”, “exibir em pares”e “tamanho de efeito”.
​ ​ → Hipótese alternativa, selecionar correlacionados.
→ Gráficos → Selecionar: gráficos de dispersão, densidade para as variáveis
e estatísticas.
→ Selecionar Shapiro Wilk para normalidade bivariada (p > 0,05).
→ Observar a tabela gerada (estará marcado quais têm valores p
significativos, p< 0,05)
→ Reportar o R ou rho.
​ Regressão Linear
​ ​ → Regressão → Regressão Linear.
→ Inserir variável dependente na caixa “variável dependente”. Para
regressão linear simples, usa-se apenas uma variável independente, que
deverá ser inserida no quadro covariável.
→ Na aba modelo, deixe como está.
→ Selecionar Estimativas, Intervalos de confiança, estatísticas descritivas,
estatísticas residuais, Teste Durbin-Watson, Diagnósticos caso a caso,
distância de cook maior que 1, histogramas com resíduos padronizados e
Q-Q.
→ Na saída Model Summary, observar o R2 e R2 ajustado (mais
conservador). Multiplicar por 100 para ver quantos por cento do modelo
proposto explica a variância da variável dependente.
→ Na saída Coefficients, observar a H1, em standardized (que é o tamanho
de efeito) e o valor-p (p <0,05).
→ Correspondência a cruzamento (Unstandardized e H1) + cruzamento
(unstandardized e variável independente * cada mil de X).

Você também pode gostar