ESTADÍSTICA
APLICADA A
LA EDUCACIÓN
INTEGRANTES DEL GRUPO
Mariesther Veli Sarela Gutierrez Isabel Epifanía
Nayelie Quioto Yanelie Quioto
Regresión
lineal simple
¿Por qué es
¿Qué es? importante ?
Es una técnica de análisis Los modelos de regresión lineal
de datos que predice el son relativamente simples y
proporcionan una fórmula
valor de datos
matemática fácil de interpretar
desconocidos mediante el para generar predicciones. La
uso de otro valor de datos regresión lineal es una técnica
relacionado y conocido. estadística establecida y se
Modela matemáticamente aplica fácilmente al software y a
la variable desconocida o la computación. Las empresas
lo utilizan para convertir datos
dependiente y la variable
sin procesar de manera
conocida o independiente confiable y predecible en
como una ecuación lineal. inteligencia empresarial y
conocimiento práctico.
¿Cómo podemos aplicarlo?
La regresión lineal se emplea en diversas disciplinas
como la sociología, la biomedicina, las ingenieras, la
economía, entre otras., están estrechamente
relacionadas comprendiendo una forma de
estimación, se suelen utilizar para resolver una gran
cantidad de problemas, mientras que la regresión se
encarga de la relación que hay entre variables.
La ecuación tiene la
siguiente forma:
Y = β₀ +
β₁X + ε,
Donde:
1. Y es la variable independiente.
2. β₀ y β₁ son dos constantes desconocidas que
representan el punto de intersección y la
pendiente respectivamente.
3. ε (epsilon) es la función de pérdida.
Usos:
Permite predecir el Se usa para la
identificación de relaciones
comportamiento de una
potencialmente causales o
variable (dependiente o
bien, cuando no existen
predicha) a partir de dudas sobre su relación
Tiene presunciones
otra (independiente o causal, para predecir una
como la linearidad de la
predictora). variable a partir de la otra.
relación, la normalidad,
la aleatoridad de la
muestra y
homogeneidad de las
varianzas.
Ejemplo:
Ejemplo:
Correlación de
Pearson
¿Por qué es
¿Qué es? importante ?
Se define en estadística Tiene una gran importancia
estadística, debido a que, busca trazar
como la medida de la
una línea a través de los datos de dos
fuerza de la relación entre variables para mostrar su relación.
dos variables y su Esta relación lineal puede ser positiva
o negativa.
asociación con cada una
de ellas. Por ejemplo:
Relación lineal positiva: En la
mayoría de los casos,
En otras palabras, el universalmente, los ingresos de
una persona aumentan a medida
coeficiente de correlación
que aumenta su edad.
de Pearson calcula el
efecto del cambio en una Relación lineal negativa: Si el
vehículo aumenta su velocidad, el
variable cuando la otra tiempo de viaje disminuye, y
variable cambia. viceversa.
¿Cómo podemos aplicarlo?
El coeficiente de correlación de Pearson se utiliza para estudiar la relación (o correlación) entre
dos variables aleatorias cuantitativas (escala mínima de intervalo); por ejemplo, la relación entre el
peso y la altura.
Es una medida que nos da información acerca de la intensidad y la dirección de la relación.
En otras palabras, se trata de un índice que mide el grado de covariación entre distintas variables
relacionadas linealmente.
Debemos tener clara la diferencia entre relación, correlación o
covariación entre dos variables (= variación conjunta) y causalidad
(también llamada pronóstico, predicción o regresión), ya que son
conceptos diferentes.
La fórmula del coeficiente de correlación de Pearson
La fórmula del coeficiente de correlación descubre la relación entre las variables.
Dónde:
N = Número de valores o elementos
Σxy = la suma de los productos de las puntuaciones emparejadas
Σx = la suma de puntuaciones x
Σy = la suma de puntuaciones y
Σx2 = Suma de cuadrados Puntuación x
Σy2 = Suma de cuadrados Puntuación y
Usos:
Tiene el objetivo
de indicar cuántos
asociados se
Se utiliza para encuentran dos
Permite conocer con
estudiar la relación variables entre sí. exactitud el grado de
(o resultados) entre dispersión de los
dos variables valores de una variable
aleatorias en relación con un
cuantitativas. medio para dicha
variable.
Ejemplo: Gran correlación positiva
La figura anterior muestra una
correlación positiva.
La correlación es superior a +0,8
pero inferior a 1+.
Muestra un patrón lineal
ascendente bastante fuerte.
Un ejemplo de una correlación
positiva media sería: A medida que
el número de automóviles
aumenta, también aumenta la
demanda en la variable
combustible.
Ejemplo: Correlación positiva media
La figura anterior muestra una correlación de
casi +1.
Los gráficos de dispersión están casi
trazados en línea recta.
La pendiente es positiva, lo que significa que
si una variable aumenta, la otra variable
también aumenta, mostrando una línea lineal
positiva.
Esto denota que un cambio en una variable
es directamente proporcional al cambio en la
otra variable.
Un ejemplo de una gran correlación positiva
sería: A medida que los niños crecen,
también lo hacen sus tallas de ropa y
zapatos.
PRUEBA
CHI-CUADRADO
PRUEBA DE CHI-CUADRADO
2
Chi cuadrado (X es el nombre de
una prueba de hipótesis que
determina si dos variables están
relacionadas o no.
TABLA DE CONTINGENCIA
Contiene los datos obtenidos contados y
organizados.
EJEMPLO:
FORMULACIÓN DE HIPÓTESIS
NULA (H ): Es aquella en la que se asegura que los
°
dos parámetros analizados son independientes uno
del otro.
ALTERNATIVA (H ): Es aquella en la que se asegura
1
que los dos parámetros analizados sí son
dependientes.
EJEMPLO:
Melisa conjetura que el uso de cinturón de
seguridad, en los conductores, está relacionado con
el género.
H : El uso de cinturón de seguridad es independiente
°
del género.
H1 : El uso del cinturón de seguridad no es
independiente del género.
CHI- CUADRADO CALCULADO
Para obtener el valor de Chi-Cuadrado calculado se
tiene la fórmula.
NIVEL DE SIGNIFICANCIA
Es el error que se puede cometer al rechazar la
hipótesis nula siendo verdadera.
Por lo general se trabaja con un nivel de significancia
de 0.05, que indica que hay una probabilidad del
0.95 de que la hipóteisis nula sea verdadera.
EJEMPLO
Melisa conjetura que el uso de cinturón de seguridad, en los
conductores, está relacionado con el género. Los datos se
muestran en la tabla inferior. Melisa realiza la prueba de su
conjetura usando chi-cuadrado con un nivel de significancia
del 1%.
Entonces se tiene un nivel de significancia del 0.01
COMPARACIÓN ENTRE LOS VALORES DEL
CHI-CUADRADO CALCULADO Y EL CRÍTICO.
Si el valor del Chi-Cuadrado calculado es menor o igual que el
chi-cuadrado crítico entonces se acepta la hipótesis nula,
caso contrario no se la acepta.
Ejemplo:
Entonces se acepta la hipótesis nula, la cual es "El uso del
cinturón de seguridad es independiente del género".
ANÁLISIS DE CORRELACIÓN
DE SPEARMAN
Es una técnica estadística utilizada para evaluar la relación entre
dos variables, especialmente cuando los datos no siguen una
distribución normal o cuando se trata de variables ordinales, el
análisis de correlación de Spearman se basa en el rango de los
datos y calcula la correlación entre las clasificaciones de las
variables.
USOS Cuando las variables no siguen una
1 Relaciones
no lineales relación lineal, se evalua la asociación
entre ellas.
2 Datos Cuando las variables se miden en una
ordinales escala ordinal.
Es útil cuando los datos no cumplen los
3
Datos no
paramétricos supuestos de normalidad requeridos para el
análisis de correlación de Pearson.
4 Análisis de
rankings
Evalúa la asociación entre los rankings y
determina si existe una relación entre ellos.
5 Puede utilizarse para comparar la consistencia o
Comparaciones de
diferentes métodos de
medición
concordancia entre diferentes métodos de
medición
APLICACIONES EN
INVESTIGACIONES
INVESTIGACIÓN INVESTIGACIÓN CIENCIAS SOCIALES Y ESTUDIOS DE
EDUCATIVA MÉDICA Y DE SALUD: PSICOLOGÍA MERCADO
En estudios educativos, el El análisis de correlación de Se utiliza para examinar la Se utiliza para examinar la
análisis de correlación de Spearman es útil en estudios relación entre variables no relación entre variables
Spearman se utiliza para médicos y de salud para métricas o variables ordinales, como las
analizar la relación entre analizar la relación entre ordinales. Por ejemplo, se preferencias de productos,
variables ordinales, como variables ordinales o no puede utilizar para evaluar la las clasificaciones de
los puntajes de exámenes, paramétricas, como la relación entre las satisfacción del consumidor
el rendimiento académico y gravedad de los síntomas, las calificaciones de satisfacción y los factores que influyen
los factores puntuaciones de calidad de de los participantes y las en las decisiones de
socioeconómicos. vida y los factores de riesgo. variables demográficas. compra.
EJEMPLO
Se desea saber si existe relación
entre la actitud hacia el psicólogo y la
actitud hacia la psicoterapia, en un
grupo de padres de familia. La actitud
es evaluada como sigue: 1 = muy
desfavorable hasta 7 = muy favorable.
SPEARMAN
Decisiones para seleccionar el coeficiente de correlación de Spearman •
Es un problema de Asociación •
V1: actitud hacia el psicólogo •
V2: actitud hacia la psicoterapia 2 variables medidas a nivel ordinal •
Ho: No hay relación lineal entre la actitud hacia el psicólogo y la actitud
hacia la psicoterapia, en padres de familia (r = 0) •
Prueba estadística: coeficiente de correlación de Spearman •
Regla de decisión: Si p ≤ 0.05 se rechaza Ho
Nota: El nivel de significancia que se establece en ciencias sociales y en
psicología normalmente es 0.05, este puede variar en la regla de decisión
a 0.01 y 0.001 si se requiere mayor certeza en la prueba de hipótesis.
SPEARMAN EN SSPS
SPEARMAN EN SSPS
SPEARMAN EN SSPS
PRUEBA DE WILCOXON
Es una prueba no paramétrica para comparar el rango medio de dos muestras
relacionadas y determinar si existen diferencias entre ellas. Se utiliza como alternativa a
la prueba t de Student cuando no se puede suponer la normalidad de dichas muestras.
Usa más bien el nivel ordinal de la
Debe su nombre a Frank
variable dependiente. Se utiliza
Wilcoxon, que la publicó en 1945, Se utiliza cuando la
para comparar dos mediciones
asimismo es una prueba no variable subyacente es
relacionadas y determinar si la
paramétrica de comparación de continua pero no se
diferencia entre ellas se debe al
dos muestras relacionadas y por presupone ningún tipo de
azar o no (en este último caso,
lo tanto no necesita una distribución particular.
que la diferencia sea
distribución específica.
estadísticamente significativa).
EJEMPLO:
Se desea estudiar la efectividad de cierta dieta y para ello se toma una muestra aleatoria de 12
mujeres adultas en el grupo de edad de 35-40 años. Se toma el peso (peso en libras) antes de iniciar
la prueba y al mes de encontrarse realizando la dieta. Los resultados se muestran a continuación:
Hipótesis:
H0: No hay diferencias entre el peso de las mujeres
antes de iniciar la dieta y el peso un mes después.
H1: El peso al mes de realizar la dieta es inferior al
peso inicial.
Se introducen así los
datos en el programa
SPSS en la Vista de
datos.
Vista de variables:
Resultados:
Interpretación:
En la tabla titulada “Rangos” vemos que
se analizaron 12 pares (las 12 mujeres
que se estudiaron).
Hubo siete rangos negativos, cuatro
positivos y un empate.
En la tabla titulada “Estadísticos de
contrastes” se observa la fila Sig.
asintót. (biateral) y su valor de 0,045.
Podemos decir que, como el valor de p
(Sig. asintót. (biateral)) es menor que
0,05, entonces se rechaza la hipótesis
nula y se concluye que hay evidencias
suficientes para plantear que la dieta es
efectiva en la reducción del peso con un
nivel de significación del 5%.
Definición: ¿Cómo funciona?
Es una prueba no paramétrica alternativa a la
Prueba
prueba t de muestras independientes. La prueba U de Mann-Whitney realiza una
comparación estadística de la media y
Add a Umain
La prueba point se utiliza para
de Mann-Whitney
determina si existe una diferencia en la
comparar dos medias muestrales que
variable dependiente para dos grupos
U de
provienen de la misma población, así como
para probar si dos medias muestrales son
independientes.
iguales o no.
La prueba U de Mann-Whitney, también La prueba U de Mann-Whitney funciona a
Mann-
conocida como prueba de Mann-Whitney- partir de clasificar todos los valores
Wilcoxon y como prueba de suma de rangos dependientes en orden ascendente, donde el
Wilcoxon, forma parte del grupo más grande valor más bajo recibe una puntuación de uno,
de pruebas de dependencia. Las pruebas de y posteriormente utiliza la suma de los rangos
Whitney
dependencia suponen que las variables del
de cada grupo en el cálculo de la estadística de
análisis pueden dividirse en variables
la prueba.
independientes y dependientes.
EJEMPLO:
Se desea conocer si los niveles de excreción urinaria de Sodio/Potasio varían en relación a la presencia de la
enfermedad X, para lo cual se seleccionaron dos muestras aleatorias, una constituida por 16 pacientes con esta
enfermedad y la otra por 12 personas sin ella. Pruebe la hipótesis de que los niveles de excreción urinaria de
Sodio/Potasio difieren en ambos grupos. Use α = 0.05.
Hipótesis:
H0: Medenf = Mednoenf
H1: Medenf ≠ Mednoenf
En donde: Medenf: mediana de los enfermos
Mednoenf: mediana de los no enfermos.
Abrimos el programa SPSS e introducimos los
datos. Utilizaremos dos columnas pues
tenemos dos variables; en la primera columna
pondremos los grupos que codificaremos
como 1 para la muestra de enfermos de la
enfermedad X (son 16 pacientes en esta
muestra) y 2 para la muestra de los no
enfermos (son 12 pacientes en esta muestra).
Interpretación:
Resultados:
Como puede apreciarse el
estadígrafo de U de Mann-
Whitney fue de 42,000 y el
valor de p (Sig. asintót.
(bilateral)) es 0,012 por lo que
se rechaza la hipótesis nula y
se concluye que el nivel de
excreción urinaria de
Sodio/Potasio difiere entre
enfermos de X y no enfermos,
con un nivel de significación
del 5%.
ANÁLISIS DE CORRELACIÓN TAU-
B DE KENDALL Y TAU-C DE KENDAL
El Análisis de correlación Tau-b de Kendall y Tau-c de Kendall son métodos de
estadística no paramétrica utilizados para medir la asociación o relación entre dos
variables ordinales o nominales. Estos métodos evalúan si dos variables están
relacionadas y en qué medida.
La correlación Tau-b de Kendall se utiliza para medir la asociación
1 entre dos variables ordinales, es decir, aquellas que pueden
clasificarse en un orden lógico o jerarquía. Por ejemplo, una escala
del 1 al 5 que mide el grado de satisfacción de un cliente.
2
Por otro lado, la correlación Tau-c de Kendall se utiliza para medir la
asociación entre dos variables nominales, es decir, aquellas que no
tienen un orden lógico. Por ejemplo, el género de una persona o el
color favorito.
EJEMPLO - TAU-B DE KENDALL
Los impuestos tienen la capacidad de provocar fuertes respuestas en muchas personas, algunos
piensan que son demasiado altos, mientras que otros piensan que deberían ser más altos. Un
investigador realizó un estudio simple en el que presentó a los participantes la declaración: "Los
impuestos son demasiado altos en este país", y les preguntó cuánto estaban de acuerdo con esta
declaración. Tenían cuatro opciones de cómo responder: "Muy en desacuerdo", "En desacuerdo",
"De acuerdo" o "Muy de acuerdo". Estas respuestas ordenadas fueron las categorías de la variable
dependiente, tax_too_high . El investigador también pidió a los participantes que indicaran si tenían
ingresos "bajos", "medios" o "altos", donde cada una de estas categorías tenía rangos de ingresos
específicos (p. ej., un ingreso bajo era cualquier ingreso inferior a £ 18,000 por año)..
Por lo tanto, en la Vista de Variables de SPSS Statistics se crearon dos
variables ordinales para poder ingresar los datos recopilados: ingresos
(income) e impuesto_demasiado_alto (tax_too_high ). A continuación, los
datos de 24 participantes se ingresaron en la vista de datos de SPSS
Statistics.
Se le presentará el cuadro de
diálogo Correlaciones bivariadas ,
como se muestra a continuación:
Asegúrese de desmarcar la casilla de verificación Pearson
(está seleccionada de forma predeterminada en SPSS
Statistics) y marque la casilla de verificación tau-b de K endall
en el área –Coeficientes de correlación– , como se muestra a
continuación:
RESULTADO
La tabla Correlaciones presenta la
correlación tau-b de Kendall, su valor
significativo y el tamaño de la muestra en
el que se basó el cálculo. En este ejemplo,
podemos ver que el coeficiente de
correlación tau-b de Kendall, τ b , es 0,535
y que esto es estadísticamente
significativo ( p = 0,003).
Interpretación
Hubo una fuerte correlación positiva entre el nivel de ingresos y la
opinión de que los impuestos eran demasiado altos, lo que fue
estadísticamente significativo ( τ b = .535, p = .003).
EJEMPLO - TAU-C DE KENDALL ¿Las empresas con mejor desempeño
en 2014 son las mismas que en 2015 y
otros años? ¿O tenemos “ganadores”
completamente diferentes de un año a
otro?
Si tuviéramos los ingresos anuales
exactos, podríamos haber optado por
la correlación de Pearson entre años y
tal vez proceder con algunos análisis
de regresión.
Sin embargo, nuestros datos contienen
solo categorías de ingresos y estas son
variables ordinales. Esto nos deja con
2 opciones: podemos inspeccionar
Correlaciones de rango de Spearman o
Tau de Kendall .
Aunque ambos estadísticos son
apropiados, nos decantaremos por la
tau de Kendall: su error estándar y su
distribución muestral son más
conocidas y esta última converge a una
distribución normal más rápido.
RESULTADO
Para realizar un análisis de correlación de Tau-c de Kendall en SPSS, sigue estos pasos:
1. Abre el archivo de datos en SPSS.
2. Ve al menú Analizar y selecciona Correlaciones.
3. En la ventana que aparece, selecciona las variables que deseas analizar y da clic en la flecha para moverlas al
cuadro de Variables seleccionadas.
4. En la sección de Correlación, selecciona Tau-c de Kendall y da clic en Aceptar.
5. SPSS generará una tabla de resultados que incluye el valor de Tau-c de Kendall, su significancia y el número de
pares de datos analizados.
Recuerda que para obtener resultados precisos, es necesario que las variables analizadas sean numéricas o
ordinales. Además, es importante interpretar cuidadosamente los resultados y tener en cuenta otras variables que
puedan influir en el análisis de correlación.
RACIAS
G