REPÚBLICA BOLIVARIANA DE VENEZUELA UNIVERSIDAD
NACIONAL EXPERIMENTAL SIMÓN RODRÍGUEZ
NÚCLEO BARQUISIMETO
ADMINISTRACIÓN MENCIÓN RECURSOS
HUMANOS
REGRESION
Autor: Gladys Yustiz
Prof.:
Sección:
Barquisimeto, Noviembre de 2023
Introducción
Desde los comienzos de la civilización han existido formas
sencillas de estadísticas, pues ya se utilizaban representaciones
gráficas y otros símbolos en pieles, rocas, palos de madera y
paredes de cuevas para contar el número de personas, animales o
ciertas cosas. Hacia el año 3000 A.C. los babilonios usaban ya
pequeñas tablillas de arcilla para recopilar datos en tablas sobre la
producción agrícola y de los géneros vendidos o cambiados
mediante trueque. En China existían registros numéricos similares
con anterioridad al año 2000 A.C. Los griegos clásicos realizaban
censos cuya información se utilizaba hacia el año 594 A.C. para
cobrar impuestos.
La estadística es una rama de las matemáticas que te permite
recopilar, organizar y analizar datos según la necesidad que tengas,
por ejemplo: obtener un resultado, comparar información, tomar
mejores decisiones, entre muchas cosas más.
En este orden de ideas, la estadística contiene el análisis de
regresión que es una técnica que permite comprobar la hipótesis de
que una variable depende de otra u otras variables. Además, el
análisis de regresión brinda una estimación de la magnitud del
impacto de un cambio en una variable sobre otra. Por supuesto, esta
última característica es de vital importancia para predecir los valores
futuros.
El análisis de regresión se basa en una relación funcional
entre variables y supone, además, que la relación es lineal. Esta
suposición de linealidad es necesaria porque, en su mayor parte, las
propiedades estadísticas teóricas de la estimación no lineal no están
aún bien elaboradas por los matemáticos y econometristas. A
continuación se realizara una investigación con todo lo relacionado
en esta materia.
PROBLEMA DE INTERDEPENDENCIA O COVARIACION
La covarianza es un valor que indica el grado de variación
conjunta de dos variables aleatorias respecto a sus medias. Es el
dato básico para determinar si existe una dependencia entre ambas
variables y además es el dato necesario para estimar otros
parámetros básicos, como el coeficiente de correlación lineal o la
recta de regresión. El signo de la covarianza, por lo tanto, expresa la
tendencia en la relación lineal entre las variables.
La magnitud requiere un esfuerzo adicional de interpretación:
La versión normalizada de la covarianza, el coeficiente de
correlación indica la magnitud de la especificidad de la relación
lineal. Se debe distinguir entre:
(1) La covarianza de dos variables aleatorias, parámetro estadístico de
una población considerado una propiedad de la distribución conjunta.
(2) La covarianza muestral que se emplea como un valor
estadísticamente estimado es una de las principales causas o motivos de
la covarianza.
ECUACION DE LA FUNCION LINEAL
La función lineal se define por la ecuación f(x) = mx + b ó y =
mx + b llamada ecuación canónica, en donde m es la pendiente de
la recta y b es el intercepto con el eje Y. Por ejemplo, son funciones
lineales f(x) = 3x + 2 g(x) = - x + 7 h(x) = 4 (en esta m = 0 por lo que
0x no se pone en la ecuación).
CONCEPTO DE AJUSTE Y REGRESION
En estadística, la regresión lineal o ajuste lineal es un modelo
matemático usado para aproximar la relación de dependencia entre
una variable dependiente, variables independientes con y un
término aleatorio. Este método es aplicable en muchas situaciones
en las que se estudia la relación entre dos o más variables o predecir
un comportamiento, algunas incluso sin relación con la tecnología.
En caso de que no se pueda aplicar un modelo de regresión a un
estudio, se dice que no hay correlación entre las variables
estudiadas.
La regresión lineal es una técnica de análisis de datos que
predice el valor de datos desconocidos mediante el uso de otro valor
de datos relacionado y conocido. Modela matemáticamente la
variable desconocida o dependiente y la variable conocida o
independiente como una ecuación lineal.
La bondad de ajuste de un modelo estadístico describe lo bien
que se ajusta un conjunto de observaciones. Las medidas de bondad
en general resumen la discrepancia entre los valores observados y
los valores esperados en el modelo de estudio.
METODOS DE LOS MINIMOS CUADRADOS
El método de los mínimos cuadrados se utiliza para calcular la
recta de regresión lineal que minimiza los residuos, esto es, las
diferencias entre los valores reales y los estimados por la recta. Se
revisa su fundamento y la forma de calcular los coeficientes de
regresión con este método. En concreto, el método de los mínimos
cuadrados consiste en minimizar la suma de los cuadrados de los
residuos, o dicho de otro modo, se basa en minimizar la suma de los
cuadrados de las diferencias entre los valores predichos por el
modelo de regresión y los valores observados. Más abajo veremos
detalladamente cómo se ajusta un modelo de regresión por el criterio
de mínimos cuadrados.
La principal característica del método de los mínimos
cuadrados es que se minimizan las distancias más largas entre los
valores observados y la función de regresión. A diferencia de otros
criterios de regresión, el método de los mínimos cuadrados
considera más importante minimizar los residuos grandes que los
residuos pequeños, pues el cuadrado de un número grande es
mucho mayor que el cuadrado de un número pequeño.
ECUACIONES NORMALES
Pues bien, la llamada "ecuación normal" nos devuelve los
valores del vector W que minimizan esta ecuación:
Las ecuaciones normales
son un conjunto de ecuaciones lineales que se utilizan para resolver
los coeficientes de un modelo de regresión lineal. Estas ecuaciones
se derivan estableciendo el gradiente de la suma de errores
cuadrados en cero, lo que da como resultado un sistema de
ecuaciones que se pueden resolver para los coeficientes. Las
ecuaciones normales son particularmente útiles cuando la cantidad
de características en los datos es relativamente pequeña y los datos
no son demasiado grandes.
ECUACIONES DE REGRESION
Es una representación algebraica de la línea de regresión.
Ingrese el valor de cada predictor en la ecuación para calcular el
valor de respuesta medio. A diferencia de la regresión lineal, una
ecuación de regresión no lineal puede tomar muchas formas
diferentes.
COEFICIENTE DE REGRESION
Es el valor asociado a cada variable explicativa en un modelo de
regresión. Es decir, los coeficientes de regresión son los valores que
multiplican a las variables explicativas en una ecuación de regresión, de
manera que a cada variable explicativa le corresponde un coeficiente de
regresión. Por ejemplo, si la ecuación resultante de un modelo de
regresión es y=3+2x1-7x2, los coeficientes de regresión del modelo son 3,
2 y -7. Fíjate que la constante de la ecuación (3) también se considera un
coeficiente de regresión, aunque no multiplique a ninguna variable.
ERROR DE ESTIMACION
Es una medida de la precisión de las predicciones.
Recordemos que la línea de regresión es la línea que minimiza la
suma de las desviaciones cuadradas de predicción (también llamada
el error de suma de cuadrados). Mide la desviación en una muestra
valor poblacional. Es decir, el error estándar de estimación mide las
posibles variaciones de la media muestral con respecto al verdadero
valor de la media poblacional. El error estándar de estimación se
puede calcular para todas las medidas que se obtienen en las
muestras (por ejemplo, error estándar de estimación de la media o
error estándar de estimación de la desviación estándar) y mide el
error que se comete al estimar la verdadera medida poblacional a
partir de su valor muestral.
A partir del error estándar de estimación se construye el
intervalo de confianza de la medida correspondiente.
INTERVALO DE CONFIANZA DE UNA ESTIMACION
El intervalo de confianza representa una técnica de estimación
que se utiliza en el campo de la inferencia estadística. En él se
permite acotar uno o diversos pares de valores, entre los cuales está
la estimación puntual indagada. Esto dentro de una determinada
probabilidad. Consiste en determinar un posible rango de valores o
intervalo, en los que pueda precisarse –con una determinada
probabilidad– que el valor de un parámetro se encuentra dentro de
esos lımites.
REGRESION NO LINEAL
Es un método para encontrar un modelo no lineal para la
relación entre la variable dependiente y un conjunto de variables
independientes. A diferencia de la regresión lineal tradicional, que
está restringida a la estimación de modelos lineales, la regresión no
lineal puede estimar modelos con relaciones arbitrarias entre las
variables independientes y las dependientes. Esto se lleva a cabo
usando algoritmos de estimación iterativos. Tenga en cuenta que
este procedimiento no es necesario para modelos polinomiales
simples de la forma Y = A + BX**2. Al definir W = X**2, obtenemos
un modelo lineal simple, Y = A + BW, que se puede estimar
utilizando métodos tradicionales como el procedimiento de
Regresión lineal.
Conclusión
En estadística, el análisis de la regresión es un proceso
estadístico para entender cómo una variable depende de otra
variable. Por ejemplo, si se requiere entender cómo la edad de una
persona afecta a su salario, se puede usar la regresión para
encontrar una relación entre las dos variables. En términos simples,
la regresión es una línea que se traza en un gráfico que muestra la
relación entre dos variables. La línea se ajusta a los puntos de datos
para mostrar la tendencia general entre las dos variables. Por
ejemplo, si la edad y el salario están relacionados, la línea de
regresión mostrará cómo el salario aumenta a medida que la edad
de una persona aumenta. La regresión es una herramienta valiosa
porque permite a los científicos de datos entender cómo dos
variables están relacionadas y predecir valores futuros. Por ejemplo,
si tienes la edad de una persona, puedes usar la línea de regresión
para predecir su salario futuro.
Incluye muchas técnicas para el modelado y análisis de
diversas variables, cuando la atención se centra en la relación entre
una variable dependiente y una o más variables independientes (o
predictoras). Más específicamente, el análisis de regresión ayuda a
entender cómo el valor de la variable dependiente varía al cambiar el
valor de una de las variables independientes, manteniendo el valor
de las otras variables independientes fijas. En todos los casos, el
objetivo de la estimación es una función de las variables
independientes llamada la función de regresión.
Bibliografía
Aguilar Ibagué, J. E. (2010).
Estadística para todos.
Estadística descriptiva-Intro-
ducción a las probabilidades.
Cali: Poemia, tercera edición.
Behar, G. R. & Yees A. M.
(1996). Estadística, un
enfoque descriptivo. Feriva
S.A.
Cali. Pág. 13.
Behar, R. & Grima, C. P. (s.
f.). 55 respuestas a dudas de
estadística. Ed. Díaz de
Santos S.A. Madrid. España.
Bejarano B., H. (2013).
Estadística aplicada.
Universidad EAN. Quinta
impresión.
Chao, L. (1994). Introducción
a la estadística. CECSA.
México.
Gamero Burón, C. (2017).
Estadística I. Elementos de
estadística descriptiva y de
teoría de la probabilidad. Ed.
Universidad de Málaga.
García Pérez, A. (2014).
Interpretación de los datos.
Una introducción a la estadís-
tica aplicada. Ed. UNED.
Aguilar Ibagué, J. E. (2010).
Estadística para todos.
Estadística descriptiva-Intro-
ducción a las probabilidades.
Cali: Poemia, tercera edición.
Behar, G. R. & Yees A. M.
(1996). Estadística, un
enfoque descriptivo. Feriva
S.A.
Cali. Pág. 13.
Behar, R. & Grima, C. P. (s.
f.). 55 respuestas a dudas de
estadística. Ed. Díaz de
Santos S.A. Madrid. España.
Bejarano B., H. (2013).
Estadística aplicada.
Universidad EAN. Quinta
impresión.
Chao, L. (1994). Introducción
a la estadística. CECSA.
México.
Gamero Burón, C. (2017).
Estadística I. Elementos de
estadística descriptiva y de
teoría de la probabilidad. Ed.
Universidad de Málaga.
García Pérez, A. (2014).
Interpretación de los datos.
Una introducción a la estadís-
tica aplicada. Ed. UNED.
Aguilar Ibagué, J. E. (2010).
Estadística para todos.
Estadística descriptiva-Intro-
ducción a las probabilidades.
Cali: Poemia, tercera edición.
Behar, G. R. & Yees A. M.
(1996). Estadística, un
enfoque descriptivo. Feriva
S.A.
Cali. Pág. 13.
Behar, R. & Grima, C. P. (s.
f.). 55 respuestas a dudas de
estadística. Ed. Díaz de
Santos S.A. Madrid. España.
Bejarano B., H. (2013).
Estadística aplicada.
Universidad EAN. Quinta
impresión.
Chao, L. (1994). Introducción
a la estadística. CECSA.
México.
Gamero Burón, C. (2017).
Estadística I. Elementos de
estadística descriptiva y de
teoría de la probabilidad. Ed.
Universidad de Málaga.
García Pérez, A. (2014).
Interpretación de los datos.
Una introducción a la estadís-
tica aplicada. Ed. UNED.
1. CAMACHO, J. (2000) Estadística con SPSS versión 9 para
Windows. Madrid: Ra-Ma.
2. DIAZ de RADA, V. (1999) Técnicas de análisis de datos para
investigadores sociales: aplicaciones prácticas con SSPS
para Windows. Madrid: Ra-Ma
3. FERRAN, E. (1996) SPSS para Windows. Programación y análisis
estadístico. Madrid: MacGraw-Hill.
4. FOSTER, J. (1998) Data Analysis using SPSS for Windows: A
Beginner's Guide. London: SAGE.
5. GREEN, S et al. (1997) Using SPSS for Windows: Analyzing and
Understanding Data. Upper Saddle River: Prentice Hall.
6. HOWITT, D. y CRAMER, D. (1997) A Guide to Computing
Statistics with SPSS for Windows. London: Prentice-Hall.
7. LIZASOAIN, L. y JOARISTI, L. (1999) SPSS para
Windows. Madrid: Paraninfo.