0% encontró este documento útil (0 votos)
25 vistas35 páginas

Correlación y Asociación entre Variables

El documento describe diferentes tipos de correlación y asociación entre variables, incluyendo descriptiva, predictiva y explicativa. También explica cómo representar y analizar la relación entre dos variables numéricas usando diagramas de dispersión y el coeficiente de correlación de Pearson.

Cargado por

Leonardo Guevara
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
25 vistas35 páginas

Correlación y Asociación entre Variables

El documento describe diferentes tipos de correlación y asociación entre variables, incluyendo descriptiva, predictiva y explicativa. También explica cómo representar y analizar la relación entre dos variables numéricas usando diagramas de dispersión y el coeficiente de correlación de Pearson.

Cargado por

Leonardo Guevara
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

 La asociación es entendida como la medida

del grado en que una variable da información


sobre la otra, y cómo estas cambian o varían
conjuntamente.
 En síntesis se dice que hay asociación entre
variables o que éstas están correlacionadas
cuando una puede dar información acerca de
la otra debido a que hay algún patrón de
comportamiento conjunto de las mismas.
 Descriptivo, cuando se busca establecer si existe relación o
asociación entre dos o más variables y de ser así, medir el
grado de la misma, su magnitud y dirección.
 Predictivo examina las correlaciones entre variables para
predecir o prever algún fenómeno o evento a partir de la
ocurrencia de otro evento.
 Explicativos miden las asociaciones entre variables, con el
fin de desarrollar o probar una teoría sobre un fenómeno
para proponer explicaciones acerca de cómo y por qué
ocurre.
 A la derecha tenemos una posible manera de recoger los Altura Peso
datos obtenido observando dos variables en varios en cm. en Kg.
individuos de una muestra.
162 61

▪ En cada fila tenemos los datos de un individuo 154 60


180 78
▪ Cada columna representa los valores que toma una variable 158 62
sobre los mismos.
171 66

▪ Las individuos no se muestran en ningún orden particular. 169 60


166 54
 Dichas observaciones pueden ser representadas en un 176 84
diagrama de dispersión (‘scatterplot’). En ellos, cada
163 68
individuos es un punto cuyas coordenadas son los valores de
las variables. ... ...

 Nuestro objetivo será intentar reconocer a partir del mismo


si hay relación entre las variables, de qué tipo, y si es posible
predecir el valor de una de ellas en función de la otra.
Tenemos las alturas y los pesos de 30 individuos representados en un diagrama de dispersión.

100
90
Pesa 76 kg.
80
70

Mide 187 cm.


60 Pesa 50 kg.
50
Mide 161 cm.
40
30
140 150 160 170 180 190 200
100
90
80
70
60
50
40
30
140 150 160 170 180 190 200
Aparentemente el peso aumenta 10Kg por cada 10 cm de altura... o sea,
el peso aumenta en una unidad por cada unidad de altura.
100
90
80
70
10 kg.
60
50
10 cm.
40
30
140 150 160 170 180 190 200
Diagrama de dispersión
Permite explorar un posible
100 patrón de covariación entre
las variables
80
Permite identificar
los rangos de las
Valores de la variable y

60 variables en los
que se agrupan los
datos.
40
Muestra los posible
valores extremos o
20 outlier

0
0 20 40 60 80 100
Valores de la variable x
330 100

280 Incorrelación 90 Fuerte relación


80 directa.
230
70
180
60
130
50
80 40
30 30
140 150 160 170 180 190 200 140 150 160 170 180 190 200

Para valores de X por encima de la


•Para los valores de X mayores que la media le
media tenemos valores de Y por
corresponden valores de Y mayores también.
encima y por debajo en proporciones
similares. Incorrelación. •Para los valores de X menores que la media le
corresponden valores de Y menores también.
80
70 Cierta relación
60 inversa •Esto se llama relación directa.
50
40
30
20 Para los valores de X mayores que la
10 media le corresponden valores de Y
0
140 150 160 170 180 190 200
menores. Esto es relación inversa o
decreciente.
 La covarianza entre dos variables, Sxy, nos indica si la
posible relación entre dos variables es directa o
inversa.
1
▪ Directa: Sxy >0
▪ Inversa: Sxy <0
S xy =  ( xi − x )( yi − y )
▪ Incorreladas: Sxy =0
n i

 El signo de la covarianza nos dice si el aspecto de la


nube de puntos es creciente o no, pero no nos dice
nada sobre el grado de relación entre las variables.
 La naturaleza y número de las variables
estudiadas.
 El tipo de relación que se supone existe entre
las mismas
 El objetivo de la investigación.
Dos variables numéricas: Correlación

• Son medidas de la fuerza y la dirección de la asociación entre dos variables


numéricas
• Puede verse como el grado en que las variables covarian juntas o el grado en
que una puede dar información sobre la otra.
• Son medidas de asociación lineal, si las variables tienen otro tipo de asociación
está no se reflejará en el valor de correlación.
• Sólo toman valores entre –1 y 1. El valor absoluto informa sobre la fuerza de
asociación y el signo infoma sobre la dirección de la misma
• Valores negativos indican cambio de las variables en sentido inverso: aumento
en una se asocia con disminución en la otra.
• Valores positivos indican covariación de las variables en el mismo sentido
• Valores cercanos a 0 indican independencia o no asociación entre las variables
• La significancia depende del tamaño de muestra.
• No dan información sobre relación de causalidad entre las variables.
• SPSS prueba la hipótesis de ausencia de asociación o correlación igual a 0
El signo que se obtenga en el
coeficiente de correlación nos indica la
dirección de la relación (positiva o
negativa, directa e inversa
respectivamente) y la magnitud del
valor (la distancia desde cero) la fuerza
de la relación. La significación daría
cuenta de si la relación se debe solo al
azar o no.
Correlación-Escala de Medición de
las variables

Variable 1 Variable 2 Coeficiente


Intervalar Intervalar Pearson
Razón Razón
Ordinal Ordinal Spearman
Intervalar o
razón
Intervalar Nominal Punto biserial
Razón
Nominal Fi
Coeficiente de Pearson

El coeficiente más comúnmente


utilizado es el de Correlación de
Pearson. Este coeficiente es una
medida de la forma en que las
parejas de datos ocupan
posiciones iguales u opuestas
dentro de sus propias
distribuciones (Pagano, 1999).
Supuestos Coeficiente de Pearson

Para emplear este algoritmo es


importante tener en cuenta las
siguientes condiciones:

• Las puntuaciones han sido obtenidas


en pares independientes
• Las dos variables son cuantitativas
(intervalar/razón)
Supuestos Coeficiente de Pearson

• La relación entre las dos variables


es rectilínea (se determina por
observación en el diagrama de
dispersión).
Lineal No Lineal

100 70
90 65
80 60
70 55
60 50
50 45
40 40
40 50 60 70 80 90 100 40 50 60 70 80 90 100
Supuestos Coeficiente de Pearson

• Las dos variables tienen


una distribución normal.

• Los datos de las dos


variables provienen de
muestras aleatorias.
 El coeficiente de Spearman es una
correlación entre los rangos (número de
orden) de los valores de las variables. Es útil
cuando no se tienen distribuciones normales.
Coeficiente de
correlación fi )
(

ad − cb
r ( ) =
(a + b)(c + d )(a + c)(b + d )

a= número de personas que puntúan 1 en X y 1 en Y.


b= número de personas que puntúan 0 en X y 1 en Y.
c= número de personas que puntúan 1 en X y 0 en Y.
d= número de personas que puntúan 0 en X y 0 en Y.
La Universidad Nacional quiere saber si el
programa de bono alimenticio tiene algún
efecto en el desempeño académico de los
estudiantes. Para ello busca la información
de quienes hacen parte del programa y mira
si su promedio es superior a 4 en el
semestre en el cual hace parte del
programa. Los resultados que obtiene los
presenta a continuación:

1 0

Bono No Bono
alimenticio alimenticio
1 Promedio superior a
Y 4.0 50(a) 60(b)
0
Promedio inferior a 4.0 80(c) 10(d)
50∗10−60∗80
𝑟𝜙(𝜙) = =
(50+60)(80+10)(50+80)(60+10)

500−4800
𝑟𝜙(𝜙) =
ad − cb
=
(110)(90)(130)(70)

r ( ) =
−4300
𝑟𝜙(𝜙) = 9491.5= (a + b)(c + d )(a + c)(b + d )
𝑟𝜙 𝜙 = −0.45
 Instrumento por excelencia del análisis de datos
 Se especifica una hipótesis nula y se derivan las
probabilidades de los datos bajo tal hipótesis.
 Ho Correlación: El coeficiente de correlación vale
cero en la población, Las variables son
independientes (independencia lineal).

Ho: rxy = 0
 Tamaño del efecto: ¿Cuál es la magnitud de la
asociación?(significación práctica). Tamaños de muestra
pequeños pueden ocultar efectos estadísticos importantes,
mientras que amplios tamaños de muestra pueden generar
hallazgos estadísticamente significativos, pero su efecto
práctico es muy pequeño o poco significativo.
 Tamaño de la muestra: Cuando n es grande los coeficientes
de correlación pequeños pueden ser significativos.
 Nivel de significación (α=0.05, ó α=0.01) : Probabilidad de
rechazar erróneamente la hipótesis nula. Probabilidad de
Error Tipo I.
En correlación… Probabilidad de que la asociación entre las
variables sea producto del azar o de la casualidad.
 Desde SPSS: Si p<0.05 (significación),existe
una asociación significativa entre las
variables.
 Cálculo manual-Manejo de tabla de valores
críticos: Comparación del valor observado
con el valor crítico. La r calculada debe ser
IGUAL O EXCEDER el valor (crítico) de la
tabla para tener significación al nivel
mostrado.
 1. Correlación al cuadrado como porcentaje de la varianza
de una variable explicable mediante la varianza de la otra;
 2. Cohen (1988): correlaciones de alrededor de 0,1 deben
interpretarse como tamaño del efecto pequeño, valores
alrededor de 0,3 indicarían mediana magnitud y valores por
encima de 0,5 indicarían un efecto grande.
 3. Coolican (1997) también propone tres categoría además
de los dos extremos (0, ausencia de relación y 1 correlación
perfecta). Valores absolutos entre 0.1 y 0.3 serían
correlaciones débiles, entre 0.4 y 0.6 tamaño moderados; de
0.7 a 0.9 fuertes.
33
 Causalidad: Con alguna frecuencia se confunde asociación con causalidad y se
cree que la correlación puede siempre atribuirse a una relación causal. Frente a
este punto cabe señalar que si bien la correlación denota asociación, la asociación
no equivale a causalidad (Kenny, 2004).
 Determinismo: Con alguna frecuencia se espera que las variables
correlacionadas estén ligadas a una función matemática tal como una proporción
o función de poder.
 Local: Una tendencia común en algunos investigadores es usar sólo parte de la
información proporcionada por los datos, sobre todo centrando la atención en la
significancia estadística..
 Unidireccionalidad: Muchas veces se percibe la asociación sólo cuando el signo
es positivo y se considera una correlación negativa como indicador de
independencia entre las variables.
 Correlaciones espurias.
 Baron, J. (s.f). Estadística descriptiva bivariante y regresión lineal.
 Cohen, J. (1992). A power primer. Psychological Bulletin, 112(1), 155-159.
 Herrera, A. (2001). Notas de boestadìstica. Universidad Nacional de
Colombia.
 Herrera, A. N., & Santana, A. C. (2011). Estudios correlacionales. En P.
Páramo (Compilador). La investigación en ciencias sociales: estrategias de
investigación (pp- 65- 82). Bogotá: Universidad Piloto de Colombia.
 Ríus, F, Barón, J., Sánchez Font, E. &amp; y Parras, L. (1997).
Bioestadística: Métodos y aplicaciones. España: Universidad de Málaga.
Servicio de publicaciones e intercambio científico.
 Rojas, M., Barrios, O., Fajardo, S., Pérez, E., & Santana, A. (2004).
Construcción y análisis psicométrico de la prueba de agresividad en el
ámbito escolar PAAE. Avances en Medición, 2(1), 62-88.

También podría gustarte