REGRESION LINEAL
Y CORRELACION
PALACION PALACIOS, Daniel
SANCHEZ HUAMAN, Henry
OSORIO TELLO , Jonathan
CUBA ATENCIO, Misael
MINAYA ALAYA ,Luis
Diagramas de dispersión y
curvas de regresión
El diagrama de dispersión se obtiene representando cada
observación
(xi, yi) como un punto en el plano cartesiano XY.
El diagrama de dispersión puede presentar
formas diversas:
Ejemplo de las alturas y los
pesos
Consideremos las
observaciones de los pesos
y alturas de un conjunto de
10 personas: el
individuo 1 tiene 161 cm de
altura y 63 kg de peso, el
individuo 2 tiene 152 cm de
altura
y 56 kg de peso, etc., tal
como se ve en la tabla
siguiente:
Regresión Lineal
La regresión es un método de análisis de los datos de la realidad
económica que sirve para poner en evidencia las relaciones que
existen entre diversas variables.
Una línea recta denominado regresión lineal, que se usa en el
laboratorio en varias situaciones:
Para calcular la velocidad en una experiencia de movimiento
rectilíneo .
Para calcular la constante elástica de un muelle, colocando pesas
en un platillo que cuelga de su extremo libre y midiendo la
deformación del muelle .
ETC.
Regresión Lineal
En estadística la regresión lineal o ajuste lineal es un método
matemático que modeliza la relación entre una variable
dependiente Y, las variables independientes Xi y un término
aleatorio ε. Este modelo puede ser expresado como:
Donde :
β0 es la intersección o término "constante",
Las βi son los parámetros respectivos a cada variable
independiente.
P es el número de parámetros independientes a tener en cuenta
en la regresión. La regresión lineal puede ser contrastada con la
regresión no lineal.
Formulas Empleadas
Regresión Lineal Simple
Ahora asum irem os que si hay una relación de causalidad de la
variable X (causa) hacia la variable Y (efect o). Adem ás, se sabe
que esa relación es de t ipo lineal, dent ro del rango de los dat os.
Est ablecerem os un m odelo para explicar la caiisa (Y) en t érm inos
el efect o (X), del t ipo siguient e:
Donde:
para t = 1,2,..., n
En que B1 y B2 son dos cantidades fijas (parámetros del modelo) y los Ut son
cantidades aleatorias que representan las diferencias entre lo que postula el
modelo a y lo que realmente se observa,
Por esa razón a los e los llamaremos "errores" o "errores aleatorios". Se
asume que tienen valor esperado 0 y desviación standard común σ
Ejemplo 1
Continuemos con el anterior ejemplo de las alturas y pesos de un grupo de diez
personas.
Para determinar la recta de regresión, calculamos la covarianza maestral Sxy, la
varianza maestral y las medias y
Diagrama de
Dispersión
Ejercicio 2:
Para hacer un modelo de regresión necesitamos lápiz (o bolígrafo),
folios y una calculadora
elemental. Nada mas.
En las pr¶acticas era su¯ciente con introducir los datos relativos a x
y a y. Sin embargo, para
hacer las cosas sin ordenador hay que trabajar un poquito
m¶as. Por ese motivo vamos a hacer
ejercicios con pocos datos.
X =Media de x
Solución: Y =Media de y
Sxy = Sumatoria de XY =Sxy/n – X*Y
2 2
Sx2= Sumatoria de X =Sx /n-x
Ejercicio 3:
El departamento de personal de una empresa informática dedicada a la introducción de
datos ha llevado a cabo un programa de formación inicial del personal. La tabla siguiente
indica el progreso en pulsaciones por minuto (p.p.m.)
obtenido en mecanografía de ocho estudiantes que siguieron el programa y el
número de semanas que hace que lo siguen:
Diagrama de dispersión:
El diagrama de dispersión nos muestra que la relación entre las dos
variables es lineal con pendiente positiva, de manera que cuantas más
semanas pasan, mayor es la ganancia de velocidad. Por tanto, tiene
sentido buscar la recta de regresión.
A partir de la tabla de cálculos siguiente:
ANALISIS DE
REGRESIóN Y DE
CORRELACIóN
Regresión y Correlación
Análisis de regresión y correlación
Relación entre variables
Ajuste de curvas
El método de los mínimos cuadrados:
Relaciones lineales y no lineales
Error típico de estimación
Coeficiente de Correlación
Regresión y Correlación
Recta de regresión y el coeficiente de
correlación lineal
DIAGRAMA DE DISPERSIÓN
CURVA DE APROXIMACIÓN
RELACIÓN LINEAL
RELACIÓN NO LINEAL
Ajuste de curvas
Diagrama de dispersión
Curva de aproximación
Relación lineal
Relación no lineal
Curva de ajuste
Ecuaciones de curvas de
aproximación
Linea recta
Parábola
Curva cúbica
Curva cuártica
Curva de grado n
Hipérbola
Exponencial
Geométrica
El método de los mínimos cuadrados:
Y=mX+b
COEFICIENTE DE
CORRELACIóN
Medidas de Correlación
Cualitativa ( observación directa sobre el
diagrama de dispersión)
Cuantitativa ( dispersión de los datos
alrededor de las curvas o rectas)
¿Qué relación hay entre LxA
de una hoja con su area?
Relación entre LxA y el área de las hojas
del árbol A
16
14
Area de la hoja
12
10
8
6
4
2
0
4 6 8 10 12 14 16 18 20 22 24 26
Largo x Ancho de la hoja
Examina la relación
Relacion entre LxA y el area de las
hojas del arbol A
16
14
xi − x
- +
12 yi − y
Area de la hoja
++
10
8 y
6
4 - - + -
2
0
x
4 6 8 10 12 14 16 18 20 22 24 26
Largo x Ancho de la hoja
Coeficiente de correlación
Si la p e n d ie n t e d e la n
re ct a e s p osit iva
e sp e r a m os q u e : ∑ (x
i =1
i − x )( y i − y ) > 0
n
∑( x i − x ) ( yi − y )
ya que m= i =1
n >0
∑ i
( x − x
i =1
) 2
Coe f icie n t e d e
∑ (x i − x )( y i − y )
s xy
corr e la ción r= i =1
=
n n sx s y
∑ (x
i =1
i − x) 2
∑ (y
i =1
i − y) 2
Significado de la
correlación
n n
∑ (x i − x )( y i − y ) ∑ (x
i =1
i − x) 2
r= i =1
=m
n n n
∑ i
( x
i =1
− x ) 2
∑ i
( y − y ) 2
i =1
∑ i
( y
i =1
− y ) 2
El coeficient e de correlación y la
pendient e t ienen el m ism o signo.
r es una m edida de la dependencia
est adíst ica (num érica) lineal de la
variables x, y.
Ejemplos de correlación
r> 0
r cerca de 0
r< 0
No hay relación lineal
Propiedades de r
r > 0 si y solo si m > 0
-1 = < r <= 1
r cerca de 1 indica dependencia lineal
crecient e fuert e
r cerca de 0 indica no hay dependencia
est adíst ica lineal
r cerca de -1 indica dependencia lineal
decrecient e fuert e
Propiedades de r
x, y pueden estar correlacionadas, pero no
quiere decir que x causa y o que y causa
a x.
x, y pueden ser dependientes, pero su
coeficiente de correlación puede ser 0:
Ejemplo:
◦ x = -1, 0, 1 y = x2 r=0
◦ (la dependencia entre x , y NO es lineal)
Dependientes pero no
correlacionadas
Y
-1 0 1 X
n u m e r a d or d e r = ( -1 ) . 3 3 + ( 0 ) 0 + ( 1 ) . 3 3 = 0
Coeficiente de correlación
Es la raíz cuadrada del coeficiente de
determinación:
SSR SST − SSE
r= R = 2
=
SST SST
Referencias
Mann: Sec. 13. 6, 13.7
◦ probs: 59-67, 75-77, 80, 81,
Weiss: Sec. 13.4
◦ probs: 75, 77, 79, 82, 85
◦
Datos en hoja de Excel
Correlacion formula
r=1 (ó 0,99<r<=1) Dependencia funcional directa Exacta
0< r< 1 Dependencia aleatoria directa Muy fuerte r de 0,9 a 0,99
Fuerte r de 0,7 a 0,9
Moderada r de 0,4 a 0,7
Débil r de 0,2 a 0,4
Muy Débil r de 0 a 0,2
r=0 X,Y aleatoriamente Nula
independientes
-1 < r < 0 Dependencia aleatoria inversa Muy Débil r de -0,2 a 0
entre X, Y Débil r de -0,4 a -0,2
Moderada r de -0,7 a -0,4
Fuerte r de -0,9 a -0,7
Muy Fuerte r de -0,99 a -0,9
r=-1 (ó -1<=r < -0,99) Dependencia funcional Inversa Exacta
Ejercicio
Matemáticas 2 3 4 4 5 6 6 7 7 8 10 10
Física 1 3 2 4 4 4 6 4 6 7 9 10
xi yi x i ·y i x i 2 yi2
2 1 2 4 1
3 3 9 9 9
4 2 8 16 4
4 4 16 16 16
5 4 20 25 16
6 4 24 36 16
6 6 36 36 36
7 4 28 49 16
7 6 42 49 36
8 7 56 64 49
10 9 90 100 81
10 10 100 100 100
72 60 431 504 380
ANáLISIS DE DATOS
EN SPSS
Datos Iniciales
Notas C.Int
Horas
Partimos de la información obtenida de una
muestra de 10 elementos de una 8 120 4
determinada distribución. Las variables
7 125 3
sometidas a observación son:
6 100 3
• Notas Obtenidas
8 115 4
• Coeficiente de Inteligencia
7 120 4
• Horas de Estudio
4 95 2
3 80 2
1 80 1
6 100 3
5 90 3
Objetivos Iniciales:
¿ Entendemos que las notas que saca un estudiante
depende de las horas de estudio de dedicación a la
asignatura o del Coeficiente de Inteligencia que tenga ? Ó
¿ de Ambas variables ?
A partir de aquí nos
planteamos, en primer
lugar, realizar un
análisis de regresión.
r el análisis por el método introducir las dos variables simultáneamente
Matriz de Correlación
Correlaciones
Planteamiento de que
NOTAS CI HORAS
existe o no asociación
Correlación NOTAS 1,000 ,900 ,959 lineal entre las
de Pearson CI ,900 1,000 ,819 variables
HORAS ,959 ,819 1,000
Sig. NOTAS , ,000 ,000 Ho : el coeficiente de
(unilateral) CI ,000 , ,002
HORAS ,000 ,002 , correlación lineal es
N NOTAS 10 10 10 cero.
CI 10 10 10
HORAS 10 10 10
Si el p-valor asociado es
menor que α σ ε
ρ ε χ ηαζ α λ α
η ι π . Νυ λ α
b
Variables introducidas/eliminadas
Variables Variables
Nos indica las variables Modelo introducidas eliminadas Método
1 HORAS, CIa , Introducir
introducidas y el método utilizado a. Todas las variables solicitadas introducidas
b. Variable dependiente: NOTAS
Análisis de la Varianza
Raíz cuadrada de la
Resumen del modelo varianza residual
R Error típ.
R cuadrado de la
Modelo R cuadrado corregida estimación
1 ,979a ,959 ,947 ,5244
a. Variables predictoras: (Constante), HORAS, CI
Coeficiente de determinación
corregido. Depende del numero
de variables y numero de
K-1 SCR= Suma de los cuadrados de la regresión elementos.
n-k
ANOVAb
Suma de Media
Modelo cuadrados gl cuadrática F Sig. SCR /(k − 1)
1 Regresión 44,575 2 22,287 81,036 ,000a F=
Residual 1,925 7 ,275 SCE /( n − k )
Total 46,500 9
La Hipótesis nula: La ecuación de
a. Variables predictoras: (Constante), HORAS, CI regresión muestral no explica un
b. Variable dependiente: NOTAS porcentaje significativo de la varianza de
la variable
Cuanto mayor sea F mas se
n-1 SCE= Suma de los cuadrados de los errores explica que se queda por
explicar
Coeficientes Notas = −3,81 + 1,53horas + 0,047C.I
Coeficientesa
Coeficient
es
Coeficientes no estandari
estandarizados zados
Modelo
1 (Constante)
B
-3,815
Error típ.
1,261
Beta t
-3,025
Sig.
,019
Al igual que
CI 4,731E-02 ,018 ,348 2,594 ,036 en otros
HORAS 1,540
a. Variable dependiente: NOTAS
,307 ,674 5,023 ,002
contrastes se
rechazara la
Coeficientes de regresión estandarizado variable si se
Coeficientes Valor t acepta que el
B/error típico coeficiente es
β = β1
Sx Cuanto mayor sea igual a cero.
Sy mas se explica de la
variable dependiente
Ganancias
R2 = 96 %
4%
COEF. INTEL
15% 4%
81%
77%
HORAS
92%
¿Que aporta cada una de los regresores a
la explicación de la variable dependiente?
Ganancias
Mét odo Int roducir por bloques 1º horas, 2º C.Int .
Resumen del modelo
R Error típ.
R cuadrado de la
Modelo R cuadrado corregida estimación
1 ,959a ,919 ,909 ,6870
2 ,979b ,959 ,947 ,5244
a. Variables predictoras: (Constante), HORAS
b. Variables predictoras: (Constante), HORAS, CI
ANOVAc
Suma de Media
Modelo cuadrados gl cuadrática F Sig.
1 Regresión 42,725 1 42,725 90,536 ,000a
Residual 3,775 8 ,472
Total 46,500 9
2 Regresión 44,575 2 22,287 81,036 ,000b
Residual 1,925 7 ,275
Total 46,500 9
a. Variables predictoras: (Constante), HORAS
b. Variables predictoras: (Constante), HORAS, CI
c. Variable dependiente: NOTAS
Coeficientesa
Coeficient
es
Coeficientes no estandari
estandarizados zados
Modelo B Error típ. Beta t Sig.
1 (Constante) -,854 ,702 -1,216 ,259
HORAS 2,191 ,230 ,959 9,515 ,000
2 (Constante) -3,815 1,261 -3,025 ,019
HORAS 1,540 ,307 ,674 5,023 ,002
CI 4,731E-02 ,018 ,348 2,594 ,036
a. Variable dependiente: NOTAS
Mét odo Int roducir por bloques 1º C.Int , 2º Horas.
Resumen del modelo
R Error típ.
R cuadrado de la
Modelo R cuadrado corregida estimación
1 ,900a ,809 ,786 1,0527
2 ,979b ,959 ,947 ,5244
a. Variables predictoras: (Constante), CI
b. Variables predictoras: (Constante), CI, HORAS
ANOVAc
Suma de Media
Modelo cuadrados gl cuadrática F Sig.
1 Regresión 37,634 1 37,634 33,960 ,000a
Residual 8,866 8 1,108
Total 46,500 9
2 Regresión 44,575 2 22,287 81,036 ,000b
Residual 1,925 7 ,275
Total 46,500 9
a. Variables predictoras: (Constante), CI
b. Variables predictoras: (Constante), CI, HORAS
c. Variable dependiente: NOTAS
Coeficientesa
Coeficient
es
Coeficientes no estandari
estandarizados zados
Modelo B Error típ. Beta t Sig.
1 (Constante) -7,045 2,178 -3,234 ,012
CI ,122 ,021 ,900 5,827 ,000
2 (Constante) -3,815 1,261 -3,025 ,019
CI 4,731E-02 ,018 ,348 2,594 ,036
HORAS 1,540 ,307 ,674 5,023 ,002
a. Variable dependiente: NOTAS
Método por Pasos
• Método que se utiliza para la obtención semiautomatica del
modelo de regresión. A través de la selección de cada una de
las variables
• Se irán introduciendo las variables a partir de aquella que
tenga mayor correlación.
• Se establece criterios de entrada y salida
• PIN probabilidad de entrada
• POUT probabilidad de salida (siempre es mayor que la
probabilidad de entrada
• El criterio de aceptación de la variable es que se rechace la
hipótesis nula de que el coeficiente sea igual a cero
e s u m e n d e lm o
R c E u ro a rtíp d .d a
r ed
R c c u e M oR a s o re d tim d g a
r a e id d c lo a o ió
,
9 ,
9 5 ,6 ,9 1 19 8 0 9 a 7 9 0
Método por Pasos ,9 ,9 7 ,5 ,9 5 29 2 4 9 b 4 7 4
a V . a ria b le
b V . a ria b le
d u c id a a s /e lim in a d a s
ria a b ria le b s le s C o e fic ie a n te s
uM in co a iddM d aeé a slo
t s d o
1 P o rp a C s o o e s ic
f ( e
c i r n
ite r t
io
H O R, A S
< = ,
0 5 0 ,P e ro s b a b
2 CP ob o e rp fic a e ie s s n o ta t s n
e s (c d n rite a o rio ri
le C s I e , x c l
u id a s
e < s = t
a ,0 n 5 d z 0 a a ,P riz d ro a o b d s a o b s
a VE . as riata bd leís Mdtic oeo EB dps Bro eed e rtíp lone ta. St d ig ie . n
C c o o re lin la e -,8 c 1 a,75 ió (C -1 lid0 4n o ,2 a 2 n ,21 d s 56 ta 9 n te
taM do edT pS t neo aig 2 trolole rc. ,1 ra ia ,29 Hn 9l ,931 Oc ,5 5 0 Ria ,01 9 A 05 S 0
5 41 C
,0
9 8 I3
47, a 60 ,3 -3 0 2 1,8 9 2 ,2 1 (C -3 65 o ,0 1 n ,02 s 15 ta 9 n te
a V . a ria b 1 le 5
, s 3
, 4 H p 5 6
, 00 O re,0 7 7 R ,d 02 4 A 0ic3 S 2
to ra s
b V 4 . a 7 , ria 3 b 1 le E d ,0-0 C e2 ,312 I p,5 4 8 e ,09 8 3n4 d6 ie n
a V . a ria b le d e
Indicador de la colinealidad Tolerancia = ( 1-R2)
existente
entre las variables. Si el valor de la tolerancia
es próximo a 0, la variable
será casi una combinación
lineal de las restantes.