Pruebas para el análisis de datos en SPSS
Coeficiente de Pearson.- se utiliza en los estudios correlacionales, es una medida
estadística que cuantifica la relación lineal entre dos variables cuantitativas, se relacionan
las puntuaciones recolectadas de una variable con las puntuaciones obtenidas de la otra,
con los mismos participantes o casos. Una correlación negativa perfecta se expresa A mayor
X, menor Y.
Valor de significancia p.- también conocido como nivel alfa, es un umbral que se utiliza
para determinar si el resultado de un estudio es estadísticamente significativo, se define
como la probabilidad de rechazar la hipótesis nula cuando es verdadera considerando los
valores entre 1 y 0. En una prueba no paramétrica un valor menor de 0.05 significa que hay
evidencia estadística para rechazar la hipótesis nula y cuando el valor es mayor de 0.05 se
acepta la hipótesis nula.
Regresión lineal.- es un modelo matemático que se utiliza para predecir el valor de una
variable sobre el valor de otra variable. La variable que desea predecir se llama variable
dependiente. La variable que está utilizando para predecir el valor de la otra variable se
llama variable independiente. La regresión lineal se asocial al coeficiente r de Pearson.
Prueba t de student.- es una herramienta estadística utilizada para determinar si hay una
diferencia significativa entre las medias de una variable de dos grupos de datos.
Análisis de varianza.- El análisis de la varianza (ANOVA) es un método estadístico utilizado
para comparar medias entre dos o más grupos.
Análisis de Varianza Unidireccional.- Es un método estadístico utilizado para comprobar
si existen diferencias significativas entre las medias y varianzas de tres o más grupos de
datos.
Prueba t de student.- es una herramienta para evaluar las medias de uno o dos grupos
mediante pruebas de hipótesis. Permite comparar muestras, N ≤ 30 y/o establece la
diferencia entre las medias de las muestras.
Grados de libertad.- se refieren al número máximo de valores usados para calcular el valor
estadístico y que pueden variar de forma independiente en una muestra de datos.
Prueba de Kolmogorov Smirnov.- es una prueba no paramétrica que determina la bondad
de ajuste de dos distribuciones de probabilidad entre sí.
Prueba de Shapiro Wilk.- se usa para contrastar la normalidad de un conjunto de datos.
Prueba de Kruskal Wallis.- es una prueba no paramétrica basada en el rango que puede
utilizarse para corroborar si existen diferencias relevantes a nivel estadístico entre dos o
más grupos de una variable independiente en una variable dependiente ordinal o continua.
Evaluación de la fiabilidad del instrumento
Fiabilidad de un instrumento.- La fiabilidad de un instrumento se refiere a la consistencia
o estabilidad de los resultados, siendo un factor clave de la fiabilidad la consistencia de los
resultados que se aplican a lo largo del tiempo o en diferentes momentos.
Alfa de Cronbach.- El coeficiente alfa de Cronbach es una medida comúnmente utilizada
para evaluar la fiabilidad interna de un instrumento o escala. Los valores son los siguientes:
mayor que 90 confiabilidad alta, de 0.70 a 0.89 confiabilidad aceptable y menor de 0.70
confiabilidad baja. Un valor por encima de 0.90 indica que los ítems del instrumento son
redundantes, lo que afecta su eficacia.
Prueba piloto.- es una estrategia útil para detectar problemas en el instrumento y mejorar
su fiabilidad.
Análisis de medidas de tendencia central y dispersión
Medidas de tendencia central.- es un número ubicado hacia el centro de la distribución de
los valores de una serie de observaciones (medidas), en la que se encuentra ubicado el
conjunto de los datos. La elección de la medida de tendencia central adecuada depende del
nivel de medición de la variable. En una investigación médica el objetivo es identificar el
valor que represente de manera adecuada el centro o promedio de los datos.
Media.- es el valor obtenido por la suma de todos sus valores dividida entre el número de
observaciones, también conocida como promedio.
Mediana.- es el valor de la variable que ocupa la posición central, cuando los datos se
disponen en orden de magnitud, es una medida de tendencia central propia de los niveles
de medición ordinal, por intervalos y de razón, no tiene sentido con variables nominales y
es útil cuando hay valores extremos en la distribución
Moda.- se define como el valor de la variable que más se repite.
Medidas de dispersión.- también conocidas como medidas de variabilidad, entregan
información sobre la variación o dispersión de los datos de la variable, es decir pretenden
resumir en un solo valor la dispersión que tiene un conjunto de datos.
Rango de variación.- se define como la diferencia entre el mayor valor de la variable y el
menor valor de la variable.
Coeficiente de variación.- se define como la desviación estándar de la muestra expresada
como porcentaje de la media muestral.
Varianza.- es el promedio de las distancias al cuadrado que van desde las observaciones
a la media.
Desviación estándar.- es la raíz cuadrada del promedio de las distancias al cuadrado que
van desde las observaciones a la media.
Estadística inferencial
Estadística inferencial.- es una rama de la estadística que se encarga de hacer
deducciones y conclusiones sobre una población a partir de una muestra de datos. En este
tipo de análisis, se utilizan técnicas estadísticas para hacer inferencias o generalizaciones
a partir de una muestra de datos a una población más amplia. Esto incluye pruebas de
hipótesis, análisis de varianza, regresiones y pruebas de correlación, entre las que se
encuentran T de student, Chi cuadrada, ANOVA, entre otras.
Hipótesis.- es una explicación tentativa o predicción sobre un fenómeno que se basa en
hechos y que requiere de más investigación para comprobarse.
Hipótesis descriptivas.- establecen la relación entre las variables que están siendo
estudiadas, sin preocuparse por sus causas y sin establecer comparaciones entre ellas.
Hipótesis correlacionales.- proponen una correlación entre las variables estudiadas, o
sea, plantean el modo y el grado en que una afecta a la otra.
Hipótesis causales.- exploran la relación casua-efecto entre las variables estudiadas.
Hipótesis estadísticas.- se refieren a conjuntos de variables y expresan sus relaciones en
términos porcentuales o proporcionales, en vez de términos absolutos.
Prueba de hipótesis.- es una regla que especifica si se puede aceptar o rechazar una
hipótesis o afirmación acerca de una población dependiendo de la evidencia proporcionada
por una muestra de datos.
Intervalo de confianza.- rango de valores que, con una probabilidad determinada, contiene
el valor real de una variable, se usa para expresar la incertidumbre en torno a una estimación
de un parámetro poblacional, como la media, es decir ofrecen una estimación razonable
dentro del cual es probable que se encuentre el parámetro poblacional, en lugar de un solo
valor puntual.
Porcentajes de confianza.- los dos porcentajes más utilizados son 95% y 99% con un
nivel de confianza de 0.05 y 0.01 respectivamente.
Análisis de correlación en SPSS.- la ruta a seguir a través de los menús es analizar,
correlaciones, bivariadas, se eligen las variables y se determina si se emplea Pearson o
Sperman.
Transformación de variables en SPSS.- la ruta a seguir a través de los menús es
transformar, recodificar en distinta variables, elegir variable, establecer nuevos datos.
Determinar Alpha de Cronbach en SPSS.- la ruta a seguir a través de los menús es
analizar, escala, análisis de fiabilidad.