UNIVERSIDAD NACIONAL DEL CENTRO DEL PERÚ
FACULTAD DE CIENCIAS APLICADAS
CARRERA PROFESIONAL DE ADMINISTRACION DE
EMPRESAS
ESPECIALIDAD DE ADMINISTRACION DE NEGOCIOS
COMENTARIO
VIDEOS DE JOSE SUPO SPSS
CATEDRA:
Tesis ll
CATEDRÁTICO:
MARCO ANTONIO, Paredes Pérez
PRESENTADA POR:
CASTILLO TORRES, Wendy Paola
ESPECIALIDAD: ADMINISTRACION DE NEGOCIOS
TARMA – PERÚ
2019
I. CÓMO CREAR UNA MATRIZ DE DATOS EN EL PROGRAMA SPSS
Al abrir SPSS se observan dos ventanas: Vista de datos y Vista de
variables
[Link] de variables
Al abrir esta ventana se observa que en las filas aparecen las variables o
campos de ese cuestionario y en las columnas aparecen las
características o atributos de esa variable.
Primeramente, crearemos variables en esta ventana siguiendo los
siguientes pasos:
Crear variable y dar nombre Debemos definir y enumerar el cuestionario
y crear variables de identificación. En la columna nombre insertamos las
diferentes variables. Cada vez que creamos una variable por defecto
aparecerán datos en ella que deberemos modificar. Modificar los datos de
la variable:
Tipo
Anchura; Podemos enumerar la anchura según el número de dígitos
vayamos a meter.
Decimales; Podemos poner decimales según la variable numérica. En
este caso daremos valores 0 a los decimales.
Etiqueta; Podemos poner etiquetas que sería la pregunta completa sin
embargo el nombre puede ser una frase corta
Valores; Si las variables son numéricas no se toman valores y deberá
aparecer “Ninguno” pero si son de carácter nominal tenemos que
identificar los valores.
Perdidos
Columnas
Alineación
Medida; Se distinguen tres medidas: Escala, ordinal y nominal. En caso
de que la variable sea de tipo numérica y no tenga valores asignados, la
medida será escala, pero si por el contrario la variable tiene valores
asignados será de tipo nominal.
[Link] de datos
En esta ventana aparecen los datos y es la opción en la cual grabaremos
los datos de la tabla. En la vista de datos los atributos ya están
constituidos, en las columnas aparecen las variables y en las filas los
datos de estudio.
1. Volver a la ventana vista de variables y clicar sobre la primera
variable que en nuestro caso sería “Edad”, una vez seleccionada
toda la fila clicamos con el botón derecho del ratón y creamos una
nueva variable. Modificamos así la matriz de datos e insertamos un
número para cada caso.
2. Volvemos a la ventana vista de datos e insertamos los datos y
automáticamente en las variables con valores asignados
aparecerán las etiquetas asignadas.
EXPORTAR A EXCEL
El programa Excel no es un buen generador de matrices de datos pero si
nos ayuda a hacer otras cosas como son: gráficas, cálculos básicos
matemáticos…es un programa más versátil. Se puede perder información
al exportar de SPSS a Excel como puede serla codificación de los valores.
Los pasos a seguir para exportar una matriz de datos a Excel son los
siguientes:
3. En la pestaña de SPSS arriba a la izquierda clicamos sobre
“Archivo” 2. En la ventana que se despliega clicamos “Guardar
como” y seleccionamos el formato Excel 97 – 2003.
II. CÓMO DESCRIBIR UNA VARIABLE CATEGÓRICA
La variable categórica es una variable que puede tomar uno de un número
limitado, y por lo general fijo, de posibles valores, asignando a cada
unidad individual u otro tipo observación a un grupo en particular o
categoría nominal sobre la base de alguna característica cualitativa.
Una variable categórica que puede tomar dos valores se denomina una
variable binaria o una variable dicotómica; un caso especial importante es
la variable de Bernoulli. Las variables categóricas con más de dos valores
posibles se denominan variables politómicas; las variables categóricas a
menudo se supone que son politómicas menos que se especifique lo
contrario. La discretización es el tratamiento de los datos continuos como
si fuera categórica. La dicotomización es el tratamiento de los datos
continuos o variables politómicos como si fueran variables binarias. El
análisis de regresión trata a menudo pertenencia a una categoría como
cuantitativa variable ficticia. En una versión simplificada, las variables
categóricas son datos que se pueden ver en un gráfico.
La manera de describir cuáles serán las variables categóricas de un
proyecto será hará detectando a través de los valores finales. Donde los
números representan a sus categorías, gracias a las etiquetas de valor ya
que tienen un tipo numérico.
Luego vamos a la opción analizar, estadísticos descriptivos y frecuencias.
Al realizar estos pasos aparecerá una tabla donde exista frecuencia,
porcentaje, porcentaje válido y porcentaje acumulado cada uno con sus
respectivos valores para una buena interpretación.
III. CÓMO DESCRIBIR UNA VARIABLE NUMÉRICA
Si bien existen diversas formas de hallar la variable numérica, estas son
algunas: Medidas de tendencia central, Medidas de forma, Medidas de
dispersión, Medidas de posición. Cada uno cuenta con indicadores a
continuación algunos:
Medidas de tendencia central:
Media: Llamada también medida aritmética, se obtiene sumando los datos
y dividiéndolos por el número de ellos.
Mediana: Hace referencia al 50%, es decir la medida divide a la población
exactamente en dos.
Moda: Valor que aparece con mayor frecuencia, útil como medida
resumen para las variables.
Medidas de dispersión:
Desviación estándar: Es una medida que informa sobre la media de
distancias que tienen los datos respecto de su aritmética.
La varianza: Es el valor de la desviación estándar al cuadrado, su utilidad
radica en que su valor es requerido para todos los procedimientos
estadísticos.
Error típico: Se refiere a una medida de variabilidad de la media, sirve
para calcular cuan dispersa estaría la media de realizar un nuevo cálculo.
Medidas de posición:
Percentiles: Son 99 valores que dividen en cien partes iguales el conjunto
de datos ordenados de menor a mayor.
Cuartiles: Son los tres valores que dividen al conjunto de datos ordenados
en cuatro partes iguales, son un caso particular de los percentiles.
Deciles: Son los nueve valores que dividen al conjunto de datos
ordenados en diez partes iguales, son también un caso particular de los
percentiles.
Medidas de forma:
Asimetría: El coeficiente de asimetría de Pearson: Positivo cuando existe
asimetría a la derecha y negativo cuando existe asimetría en la izquierda.
Apuntamiento o Curtosis: Se mide con el coeficiente de apuntamiento o
curtosis: Positivo cuando es leptocúrtica y negativo cuando es platicúrtica.
IV. CÓMO CREAR UNA TABLA DE CONTINGENCIA
Una tabla de contingencia es una de las formas más comunes de resumir
datos categóricos. En general, el interés se centra en estudiar si existe
alguna asociación entre una variable denominada fila y otra variable
denominada columna y se calcula la intensidad de dicha asociación. De
manera formal, se consideran X e Y dos variables categóricas con I y J
categorías respectivamente. Una observación puede venir clasificada en
una de las posibles I × J categorías que existen. Cuando las casillas de la
tabla contienen las frecuencias observadas, la tabla se denomina tabla de
contingencia, término que fue introducido por Pearson en 1904. Una tabla
de contingencia (o tabla de clasificación cruzada), con I filas y J columnas
se denomina una tabla I × J.
Llamadas también tablas cruzadas o tablas de doble entrada, en la cual
existen dos variables para realizarlo una de ellas es el análisis bivariado,
que es correspondiente al nivel de investigación relacional, es decir
relacionar dos variables con naturaleza categórica.
Existe un orden convencional para presentar una tabla de contingencia:
La consecuencia va en las columnas y la variable independiente va en las
filas. Esto se hace para poder comparar los dos grupos.
V. CÓMO CALCULAR Y RECODIFICAR VARIABLES
En algunas ocasiones los datos de las variables cuentan con valores muy
dispersos que nos dificultan su interpretación o sencillamente no se
pueden analizar estadísticamente. Para subsanar estos inconvenientes,
se tiene la opción Recodificar, el cual nos permite transformar los datos
de una o varias variables numéricas o de cadena, ya sea reasignando los
números representativos de cada categoría o agrupando en rangos los
valores de las variables existentes, según sean las necesidades del
análisis. El cuadro de diálogo Recodificar en distintas variables no permite
pues reasignar los valores de las variables existentes o agrupar rangos
de valores existentes en nuevos valores. Por ejemplo, podríamos agrupar
las notas en categorías que sean rangos de notas. Podemos recodificar
las variables numéricas y de cadena. Si seleccionamos múltiples
variables, todas deben ser del mismo tipo. No se pueden recodificar juntas
las variables numéricas y de cadena.
Muchas veces se necesita presentar como valor final a una variable que
se obtiene del cálculo de otras variables. Es por ello que se rellenara con
valores dependiendo del tema a estudiar y de ahí los resultados se
obtendrán con mayor facilidad. Luego de realizado estos pasos nos
dirigiremos en analizar, estadísticos descriptivos, frecuencias. Teniendo
como resultado una tabla donde haya frecuencia, porcentaje, porcentaje
válido y porcentaje acumulado cada uno con sus respectivos valores para
una buena interpretación.
VI. QUÉ ES EL TEST DE CHI CUADRADO Y CUANDO SE UTILIZA
Una prueba de chi-cuadrada es una prueba de hipótesis que compara la
distribución observada de los datos con una distribución esperada de los
datos. El CHI CUADRADO es un test o una prueba estadística que nos
permite reconocer la asociación entre dos variables categóricas ya sean
dicotómicas o politómicas. Donde se concluye que el nivel de significancia
o alfa debe ser menor de un 5% para que existe una relación.
Existen varios tipos de pruebas de chi-cuadrada:
Prueba de bondad de ajuste de chi-cuadrada
Utilice este análisis para probar qué tan bien una muestra de datos
categóricos se ajusta a una distribución teórica.
Pruebas de chi-cuadrada de asociación e independencia
Los cálculos para estas pruebas son iguales, pero la pregunta que se está
tratando de contestar puede ser diferente.
Prueba de asociación: Utilice una prueba de asociación para determinar
si una variable está asociada a otra variable. Por ejemplo, determine si las
ventas de diferentes colores de automóviles dependen de la ciudad donde
se venden.
Prueba de independencia: Utilice una prueba de independencia para
determinar si el valor observado de una variable depende del valor
observado de otra variable.
VII. QUÉ ES EL TEST DE TEST DE MCNEMAR Y CUANDO SE UTILIZA
La prueba de Mc Nemar se utiliza para decidir si puede o no aceptarse
que determinado “tratamiento” induce un cambio en la respuesta de los
elementos sometidos al mismo, y es aplicable a los diseños del tipo
“antes-después” en los que cada elemento actúa como su propio control.
También nos permite identificar modificaciones en una variable categórica
a través del tiempo, por lo que será necesario obtener dos medidas de lo
que sucedió anteriormente y lo que sucederá después y en el medio
puede ver una manipulación la cual sería considerada como un
experimento o un periodo de observación. Siendo considerado como un
estudio longitudinal ya que tiene dos medidas como mínimo. Y para ver si
existe una modificación significativa entre una u otra evaluación, se
utilizará el ritual de la significancia estadística, planteando:
La formulación de hipótesis: H0: Hipótesis nula o hipótesis de trabajo y el
H1: Hipótesis alterna o hipótesis del investigador
Nivel de significancia: 5% = 0.05
Estadístico e prueba: El test de Mc Nemar
Estimación del p-valor
Toma de decisión: p>0.05 entonces rechazamos la hipótesis nula nos
quedamos con la hipótesis del investigador
VIII. QUÉ ES EL ÍNDICE KAPPA DE COHEN Y COMO SE INTERPRETA
El Coeficiente kappa de Cohen es una medida estadística que ajusta el
efecto del azar en la proporción de la concordancia observada1 para
elementos cualitativos (variables categóricas). En general se cree que es
una medida más robusta que el simple cálculo del porcentaje de
concordancia, ya que κ tiene en cuenta el acuerdo que ocurre por azar.
Algunos investigadores2 han expresado su preocupación por la tendencia
de κ a dar por seguras las frecuencias de las categorías observadas, lo
que puede tener el efecto de subestimar el acuerdo para una categoría de
uso habitual; por esta razón, κ se considera una medida de acuerdo
excesivamente conservadora.
Otros discuten la afirmación de que kappa "tiene en cuenta" la posibilidad
de acuerdo. Para hacerlo con eficacia se requeriría un modelo explícito
de cómo afecta el azar a las decisiones de los observadores. El llamado
ajuste por azar del estadístico kappa supone que, cuando no están
absolutamente seguros, los evaluadores simplemente aventuran una
respuesta (un escenario muy poco realista). Mide el grado de acuerdo
entre dos mediciones de las cuales pueden corresponder a dos
evaluadores o a dos instrumentos de medición, para ello será necesario
que realicemos el ritual de KAPPA DE COHEN:
La formulación de hipótesis: H0: Hipótesis nula o hipótesis de trabajo y el
H1: Hipótesis alterna o hipótesis del investigador
Nivel de significancia: 5% = 0.05
Estadístico e prueba:
Estimación del p-valor
Toma de decisión: p>0.05 entonces rechazamos la hipótesis nula nos
quedamos con la hipótesis del investigador
IX. CUANDO SE UTILIZA LA CORRECCIÓN DE YATES
La corrección de Yates se aplica a la prueba ji-cuadrado cuando al menos
el valor de una frecuencia esperada es menor que 5.
Chi-cuadrado corregida:
En general, se aplica la corrección de Yates o también corrección por
continuidad cuando se aproxima una variable discreta a una distribución
continua. La corrección consiste en añadir y substraer 0,5 a la variable en
cuestión. Por ejemplo, obtener 3 caras al lanzar una moneda es una
medida discreta (nominal) que se ajusta a la distribución binomial.
Mientras que si la aproximáramos a la distribución normal, su valor
oscilará entre 2,5 y 3,5.
También denominado corrección por continuidad, esto se aplica cuando
se realiza el chi cuadrado donde las frecuencias esperadas son muy
bajas, entonces el estimador del chi cuadrado ya no es tan conservador
implicando mayor cantidad de error.
X. CUANDO DE UTILIZA EL TEST EXACTO DE FISHER
El Test exacto de Fisher es un contraste de hipótesis muy interesante por
sus muchas aplicaciones y porque es un muy útil escenario para aprender
la lógica interna de un contraste de hipótesis.
Se aplica en las siguientes situaciones: 1) En la comparación de dos
grupos respecto a una variable dicotómica. 2) En la valoración de la
relación entre dos variables cualitativas dicotómicas cada una de ellas.
En ambos casos, que son equivalentes (son dos formulaciones distintas
de lo mismo), los datos pueden organizarse en una tabla de contingencias
de 2×2 ó mediante dos porcentajes a comparar, uno de cada grupo.
El primer caso se resuelve habitualmente con un Test de comparación de
dos proporciones (Ver Herbario de técnicas y ver también el Tema
dedicado a la comparación de dos poblaciones), el segundo caso se
resuelve con un Test de la ji-cuadrado de tablas de contingencias. El
problema que tienen ambos test es que necesitan de tamaños muestrales
relativamente grandes.
El Test de comparación de proporciones, para funcionar bien, requeriría
un tamaño muestral mínimo de 30 por grupo y que el producto del tamaño
muestral por el tanto por uno esperado bajo la hipótesis nula del suceso
que se analiza sea superior o igual a 5 en ambas muestras (esto último
suele enunciarse como que el valor esperado por grupo es de 5
observaciones del suceso analizado, como mínimo). Un ejemplo:
Tenemos una muestra de 50 por cada uno de los dos grupos. En una
muestra tenemos sólo un caso del suceso analizado y en la otra tenemos
4 casos. Si la hipótesis nula fuera cierta esperaríamos ver 5 casos de cada
100 y los mismos en cada grupo; o sea, un 0.05 por uno. Si multiplicamos
este 0.05 por 50 nos da 2.5 sucesos esperados por grupo. Como es menor
que 5 estamos fuera de las condiciones de aplicación de este Test de
comparación de proporciones y deberíamos aplicar el Test exacto de
Fisher.
El Test de la ji-cuadrado en una tabla 2×2 requiere que las cuatro celdillas
tengan más de 5 observaciones esperadas. Ambos Test utilizan un
estadístico de test cuya distribución, bajo la Hipótesis nula, es la que
suponemos que es, siempre y cuando se cumplan estos requerimientos
en cuanto al tamaño muestral. Por lo tanto, si tenemos muestras
pequeñas, muestras que no cumplen estos requerimientos muestrales,
tanto en un caso como en el otro, debemos decantarnos por la alternativa
que nos ofrece este Test exacto de Fisher.
XI. PRUEBA DE T PARA MUESTRAS INDEPENDIENTES
Se hace para comparar dos grupos donde una de ellas es una variable
numérica se piensa en realizar una prueba de t para muestras
independientes. Se habla de muestras independientes porque se tratan
de dos grupos que no tienen relación entre ellos.
El procedimiento Prueba T para muestras independientes debe utilizarse
para comparar las medias de dos grupos de casos, es decir, cuando la
comparación se realice entre las medias de dos poblaciones
independientes (los individuos de una de las poblaciones son distintos a
los individuos de la otra) como por ejemplo en el caso de la comparación
de las poblaciones de hombres y mujeres. Lo ideal es que para esta
prueba los sujetos se asignen aleatoriamente a dos grupos, de forma que
cualquier diferencia en la respuesta sea debida al tratamiento (o falta de
tratamiento) y no a otros factores. A continuación, el ritual de t de student
para muestras independientes:
La formulación de hipótesis: H0: Hipótesis nula o hipótesis de trabajo y el
H1: Hipótesis alterna o hipótesis del investigador
Nivel de significancia: 5% = 0.05
Estadístico e prueba:
Estimación del p-valor
Toma de decisión: p>0.05 entonces rechazamos la hipótesis nula nos
quedamos con la hipótesis del investigador
XII. PRUEBA DE T PARA MUESTRAS RELACIONADAS
La Prueba T de Student para datos relacionados (muestras
dependientes). La prueba estadística t de Student para muestras
dependientes es una extensión de la utilizada para muestras
independientes. De esta manera, los requisitos que deben satisfacerse
son los mismos, excepto la independencia de las muestras; es decir, en
esta prueba estadística se exige dependencia entre ambas, en las que
hay dos momentos uno antes y otro después. Con ello se da entender
que, en el primer período, las observaciones servirán de control o testigo,
para conocer los cambios que se susciten después de aplicar una variable
experimental. Con la prueba t se comparan las medias y las desviaciones
estándar de grupo de datos y se determina si entre esos parámetros las
diferencias son estadísticamente significativas o si sólo son diferencias
aleatorias. Consideraciones para su uso El nivel de medición, en su uso
debe ser de intervalo o posterior. El diseño debe ser relacionado. Se
deben cumplir las premisas paramétricas. En cuanto a la homogeneidad
de varianzas, es un requisito que también debe satisfacerse y una manera
práctica es demostrarlo mediante la aplicación de la prueba ji cuadrada
de Bartlett. Este procedimiento se define por medio de la siguiente
fórmula:
La media aritmética de las diferencias se obtiene de la manera siguiente:
La desviación estándar de las diferencias se logra como sigue:
Pasos:
1. Ordenar los datos en función de los momentos antes y después, y
obtener las diferencias entre ambos.
2. Calcular la media aritmética de las diferencias.
3. Calcular la desviación estándar de las diferencias.
4. Calcular el valor de t por medio de la ecuación.
5. Calcular los grados de libertad (gl) gl = N - 1.
6. Comparar el valor de t calculado con respecto a grados de libertad
en la tabla respectiva, a fin de obtener la probabilidad.
7. Decidir si se acepta o rechaza la hipótesis.
XIII. ANÁLISIS DE LA VARIANZA CON UN FACTOR ANOVA
Se lleva a cabo cuando se quiere comparar dos grupos y la variable a
contrastar es una variable numérica se utilizará el t de student para
muestras independientes, el punto serio que al momento de comparar
aparecen más de dos valores a comparar. Entonces se tendría que
realizar el análisis de la varianza con un factor anova denominado también
análisis de la varianza de una sola vía.
El análisis de la varianza permite contrastar la hipótesis nula de que las
medias de K poblaciones (K >2) son iguales, frente a la hipótesis
alternativa de que por lo menos una de las poblaciones difiere de las
demás en cuanto a su valor esperado. Este contraste es fundamental en
el análisis de resultados experimentales, en los que interesa comparar los
resultados de K 'tratamientos' o 'factores' con respecto a la variable
dependiente o de interés. El Anova requiere el cumplimiento los siguientes
supuestos:
Las poblaciones (distribuciones de probabilidad de la variable
dependiente correspondiente a cada factor) son normales.
Las K muestras sobre las que se aplican los tratamientos son
independientes.
Las poblaciones tienen todas igual varianza (homocedasticidad).
El ANOVA se basa en la descomposición de la variación total de los datos
con respecto a la media global (SCT), que bajo el supuesto de que H0 es
cierta es una estimación de obtenida a partir de toda la información
muestral, en dos partes:
Variación dentro de las muestras (SCD) o Intragrupo, cuantifica la
dispersión de los valores de cada muestra con respecto a sus
correspondientes medias.
Variación entre muestras (SCE) o Inter grupos, cuantifica la dispersión de
las medias de las muestras con respecto a la media global.
XIV. PRINCIPALES USOS DE LA CORRELACIÓN DE PEARSON
En estadística, el coeficiente de correlación de Pearson es una medida
lineal entre dos variables aleatorias cuantitativas. A diferencia de la
covarianza, la correlación de Pearson es independiente de la escala de
medida de las variables.
USOS:
Dicho cálculo es el primer paso para determinar la relación entre las
variables.
Reporta un valor de correlación cercano a 0 como un indicador de que no
hay relación lineal entre 2 variables.
Reporta un valor de correlación cercano a 1 como un indicador de que
existe una relación lineal positiva entre las 2 variables. Un valor mayor a
cero que se acerque a 1 da como resultado una mayor correlación positiva
entre la información. Usos del Coeficiente de Correlación de Pearson.
Consiste en la posibilidad de calcular su distribución muestral y así poder
determinar su error típico de estimación.
XV. REGRESIÓN LINEAL SIMPLE
La Regresión Lineal es una técnica paramétrica utilizada para predecir
variables continuas, dependientes, dado un conjunto de variables
independientes. Es de naturaleza paramétrica porque hace ciertas
suposiciones basadas en el conjunto de datos. Si el conjunto de datos
sigue esas suposiciones, la regresión arroja resultados increíbles, de lo
contrario, tiene dificultades para proporcionar una precisión convincente.
Es considerado una regresión cuando previamente se ha demostrado que
existe relación entre dos variables, no solamente una relación aleatoria
sino una relación causal.
Se plantea el ritual de t de student para muestras independientes:
La formulación de hipótesis: H0: Hipótesis nula o hipótesis de trabajo y el
H1: Hipótesis alterna o hipótesis del investigador
Nivel de significancia: 5% = 0.05
Estadístico e prueba:
Estimación del p-valor
Toma de decisión: p>0.05 entonces rechazamos la hipótesis nula nos
quedamos con la hipótesis del investigador
Donde:
y – es la variable dependiente o la variable a predecir.
x – es la variable independiente o la variable que usamos para hacer una
predicción.
a – es la pendiente o el valor que debe ser determinado, se le conoce
como coeficiente y es una especie de magnitud de cambio que pasa por
y cuando x cambia.
b – es la constante que debe ser determinada, se le conoce como
intercepto porque cuando x es igual a 0, entonces y = b.
Esta es la ecuación de Regresión Lineal Simple. Se llama simple porque
solo hay una variable independiente involucrada, que vendría siendo “x”.
XVI. PRUEBA DE NORMALIDAD KOLMOGOROV-SMIRNOV
En estadística, la prueba de Kolmogórov-Smirnov (también prueba K-S)
es una prueba no paramétrica que determina la bondad de ajuste de dos
distribuciones de probabilidad entre sí.
En el caso de que queramos verificar la normalidad de una distribución, la
prueba de Lilliefors conlleva algunas mejoras con respecto a la de
Kolmogórov-Smirnov; y, en general, el test de Shapiro–Wilk o la prueba
de Anderson-Darling son alternativas más potentes.
Conviene tener en cuenta que la prueba Kolmogórov-Smirnov es más
sensible a los valores cercanos a la mediana que a los extremos de la
distribución. La prueba de Anderson-Darling proporciona igual
sensibilidad con valores extremos.
Se plantea el ritual de t de student para muestras independientes:
La formulación de hipótesis: H0: Hipótesis nula o hipótesis de trabajo y el
H1: Hipótesis alterna o hipótesis del investigador
Nivel de significancia: 5% = 0.05
Estadístico e prueba:
Estimación del p-valor
Toma de decisión: p>0.05 entonces rechazamos la hipótesis nula nos
quedamos con la hipótesis del investigador
XVII. HOMOGENEIDAD DE VARIANZAS TEST DE LEVENE
En estadística, la prueba de Levene1 es una prueba estadística inferencial
utilizada para evaluar la igualdad de las varianzas para una variable
calculada para dos o más grupos. Algunos procedimientos estadísticos
comunes asumen que las varianzas de las poblaciones de las que se
extraen diferentes muestras son iguales. La prueba de Levene evalúa
este supuesto. Se pone a prueba la hipótesis nula de que las varianzas
poblacionales son iguales (llamado homogeneidad de varianza ú
homocedasticidad). Si el P-valor resultante de la prueba de Levene es
inferior a un cierto nivel de significación (típicamente 0.05), es poco
probable que las diferencias obtenidas en las variaciones de la muestra
se hayan producido sobre la base de un muestreo aleatorio de una
población con varianzas iguales. Por lo tanto, la hipótesis nula de igualdad
de varianzas se rechaza y se concluye que hay una diferencia entre las
variaciones en la población.
Algunos de los procedimientos que asumen normalmente
homocedasticidad, para lo cual uno puede utilizar las pruebas de Levene,
incluyen análisis de varianza y pruebas t. La prueba de Levene se utiliza
a menudo antes de que una comparación de medias. Cuando la prueba
de Levene muestra significación, se debe cambiar a pruebas
generalizadas (pruebas no paramétricas), libre de supuestos de
homocedasticidad. La prueba también puede ser utilizada como una
prueba principal para responder a una pregunta independiente de si dos
submuestras en una población dada tienen varianzas iguales o diferentes.
Se plantea el ritual de test de levene:
La formulación de hipótesis: H0: Hipótesis nula o hipótesis de trabajo y el
H1: Hipótesis alterna o hipótesis del investigador
Nivel de significancia: 5% = 0.05
Estadístico e prueba:
Estimación del p-valor
Toma de decisión: p>0.05 entonces rechazamos la hipótesis nula nos
quedamos con la hipótesis del investigador
XVIII. U DE MANN-WITHNEY PARA VARIABLES ORDINALES
En estadística la prueba U de Whitney, también llamada de Mann-
Whitney-Wilcoxon, prueba de suma de rangos Wilcoxon, o prueba de
Wilcoxon-Mann-Whitney, es una prueba no paramétrica con la cual se
identifican diferencias entre dos poblaciones basadas en el análisis de dos
muestras independientes, cuyos datos han sido medidos al menos en una
escala de nivel ordinal. La prueba calcula el llamado estadístico U, cuya
distribución para muestras con más de 20 observaciones se aproxima
bastante bien a la distribución normal.
Se plantea la prueba estadística de U de Mann Whitney:
La formulación de hipótesis: H0: Hipótesis nula o hipótesis de trabajo y el
H1: Hipótesis alterna o hipótesis del investigador
Nivel de significancia: 5% = 0.05
Estadístico e prueba:
Estimación del p-valor
Toma de decisión: p>0.05 entonces rechazamos la hipótesis nula nos
quedamos con la hipótesis del investigador
XIX. PRUEBA DE LOS RANGOS CON SIGNO DE WILCOXON
El test no paramétrico prueba de los rangos con signo de Wilcoxon,
también conocido como Wilcoxon signed-rank test, permite comparar
poblaciones cuando sus distribuciones (normalmente interpretadas a
partir de las muestras) no satisfacen las condiciones necesarias para otros
test paramétricos. Es una alternativa al t-test de muestras dependientes
cuando las muestras no siguen una distribución normal (muestran
asimetría o colas) o cuando tienen un tamaño demasiado reducido para
poder determinar si realmente proceden de poblaciones normales.
A la hora de elegir entre t-test o Wilcoxon signed-rank test, es importante
tener en cuenta que, el problema de las muestras pequeñas, no se
soluciona con ninguno de los dos. Si el tamaño de las muestras es
pequeño, también lo es la calidad de la inferencia que se puede hacer con
ellas. Ahora bien, existen dos situaciones en las que, a priori, se puede
recomendar utilizar un Wilcoxon signed-rank test antes que un t-test:
Si el tamaño de las muestras es suficientemente grande para determinar
que la distribución de las poblaciones a comparar no es de tipo normal,
en tal caso, los t-test no son adecuados, por lo que mejor emplear un
Wilcoxon signed-rank test.
Si el tamaño de las muestras no permite determinar con seguridad si las
poblaciones de las que proceden se distribuyen de forma normal, y no se
dispone de información que pueda orientar sobre la naturaleza de las
poblaciones de origen, entonces es más apropiado el Wilcoxon signed-
rank test ya que no requiere asumir la normalidad de las poblaciones.
XX. ARCHIVO SINTAXIS COMO UNIDAD DE PRODUCCIÓN
Existen dos formas de trabajar con el SPSS: seleccionando las tareas a
realizar mediante el sistema de ventanas, o indicando las operaciones a
efectuar mediante la sintaxis del programa (lenguaje de comandos).
La sintaxis de SPSS funciona a través de comandos, a los que se puede
acceder desde los menús y cuadros de diálogo. Sin embargo, en
ocasiones algunas de las posibilidades del SPSS solo están accesibles a
través de la sintaxis. La ventaja que presenta trabajar con este lenguaje
es que los archivos de sintaxis pueden guardarse y volver a ser
ejecutados en sesiones diferentes.
Un archivo de sintaxis SPSS es simplemente un archivo de texto que
contiene comandos. Aunque es posible abrir una ventana de sintaxis y
escribir los comandos (Archivo – Nuevo - Sintaxis), suele ser más sencillo
construir un archivo de sintaxis mediante uno de los siguientes métodos:
Pegando la sintaxis de comandos desde los cuadros de diálogo. La
mayor parte de los cuadros de diálogo a los que podemos acceder
a través del menú de ventanas del SPSS incluyen un botón llamado
“Pegar”. Dicho botón nos permite, una vez seleccionadas en el
cuadro todas las opciones que nos interesan, pegar en un archivo
la correspondiente sintaxis del comando.
Copiando la sintaxis desde las anotaciones de los resultados. Es
posible configurar SPSS para que la sintaxis correspondiente al
procedimiento que realizamos aparezca en el visor junto con los
resultados del mismo. Para ello solo hay que seleccionar la opción
“Mostrar comandos en anotaciones” en la configuración del Visor
(menú Edición, Opciones, pestaña Visor) antes de ejecutar el
procedimiento.
Copiando la sintaxis desde el archivo diario. Por defecto, todos los
comandos que se han ejecutado durante una sesión se graban en
un archivo de diario denominado [Link].