0% encontró este documento útil (0 votos)
311 vistas18 páginas

Regresión Lineal en la Industria

Este documento describe los conceptos de regresión lineal simple y múltiple. Explica que la regresión lineal simple se usa para explicar una variable dependiente continua en función de una variable independiente continua. También cubre temas como pruebas de hipótesis, calidad de ajuste, estimación por intervalos y uso de software estadístico en la regresión lineal simple y múltiple.

Cargado por

Jair Rivera
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
311 vistas18 páginas

Regresión Lineal en la Industria

Este documento describe los conceptos de regresión lineal simple y múltiple. Explica que la regresión lineal simple se usa para explicar una variable dependiente continua en función de una variable independiente continua. También cubre temas como pruebas de hipótesis, calidad de ajuste, estimación por intervalos y uso de software estadístico en la regresión lineal simple y múltiple.

Cargado por

Jair Rivera
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd

REGRESION LINEAL

SIMPLE Y MULTIPLE

Gael Coronado Manares


Jair Jacob Rivera Cruz

1
Contenido
INTRODUCCION.............................................................................................................................3
5.1 REGRESIÓN LINEAL SIMPLE.....................................................................................................4
5.1.1 PRUEBA DE HIPÓTESIS EN LA REGRESIÓN LINEAL SIMPLE...................................................5
5.1.2 CALIDAD DEL AJUSTE EN REGRESIÓN LINEAL SIMPLE..........................................................8
5.1.3 ESTIMACIÓN Y PREDICCIÓN POR INTERVALO EN REGRESIÓN LINEAL.................................9
5.1.4 USO DE SOFTWARE ESTADÍSTICO.........................................................................................9
5.2 REGRESIÓN LINEAL MÚLTIPLE...............................................................................................11
5.2.2 PRUEBAS DE HIPÓTESIS EN LA REGRESIÓN MÚLTIPLE.......................................................12
5.2.3 INTERVALOS DE CONFIANZA Y PREDICCIÓN EN REGRESIÓN MÚLTIPLE............................12
5.2.4 USO DE SOFTWARE ESTADÍSTICO.......................................................................................13
5.3 REGRESIÓN NO LINEAL..........................................................................................................15
DEFINICIONES..............................................................................................................................15
CONCLUSION................................................................................................................................16
REFERENCIAS...............................................................................................................................17

2
INTRODUCCION.
En la industria con mucha frecuencia es necesario resolver problemas que
implican conjuntos de variables, cuando se sabe que existe alguna relación
inherente entre ellas. A partir de lo anterior, es necesario establecer modelos que
expliquen dicha relación.
Cuando, simultáneamente, contemplamos dos variables continuas, aunque por
extensión se pueden emplear para variables discretas cuantitativas, surgen
preguntas y problemas específicos. Esencialmente, se emplearán estadísticos
descriptivos y técnicas de estimación para contestar esas preguntas, y técnicas de
contraste de hipótesis específicos para resolver dichos problemas. La mayoría de
estos métodos están encuadrados en las técnicas regresión y correlación.
En forma más especifica el análisis de correlación y regresión comprende el
análisis de los datos muestrales para saber qué es y cómo se relacionan entre si
dos o más variables en una población. El análisis de correlación produce un
número que resume el grado de la fuerza de relación entre dos variables; y el
análisis de regresión da lugar a una ecuación matemática que describe dicha
relación.
La técnica de regresión lineal simple está indicada cuando se pretende explicar
una variable respuesta cuantitativa en función de una variable explicativa
cuantitativa también llamada variable independiente, variable regresora o variable
predictora. Por ejemplo, se podría intentar explicar el peso en función de la altura.
El modelo intentaría aproximar la variable respuesta mediante una función lineal
de la variable explicativa.
A partir de la presente investigación, se pretende mostrar la aplicación práctica de
la regresión y correlación lineal simple y múltiple en la industria. Ya que la
aplicación de las técnicas estadísticas contribuye a la optimización de los
procesos.

3
5.1 REGRESIÓN LINEAL SIMPLE
Si sabemos que existe una relación entre una variable denominada dependiente y
otras denominadas independientes (como por ejemplo las existentes entre: la
experiencia profesional de los trabajadores y sus respectivos sueldos, las
estaturas y pesos de personas, la producción agraria y la cantidad de fertilizantes
utilizados, etc.), puede darse el problema de que la dependiente asuma
múltiples valores para una combinación de valores de las independientes.

La dependencia a la que hacemos referencia es relacional matemática y no


necesariamente de causalidad. Así, para un mismo número de unidades
producidas, pueden existir niveles de costo, que varían empresa a empresa.

Si se da ese tipo de relaciones, se suele recurrir a los estudios de regresión en los


cuales se obtiene una nueva relación, pero de un tipo especial denominado
función, en la cual la variable independiente se asocia con un indicador de
tendencia central de la variable dependiente. Cabe recordar que, en términos
generales, una función es un tipo de relación en la cual para cadavalor de la
variable independiente le corresponde uno y sólo un valor de la variable
dependiente.

La Regresión y la correlación son dos técnicas estadísticas que se pueden utilizar


para solucionar problemas comunes en los negocios.

Muchos estudios se basan en la creencia de que es posible identificar y cuantificar


alguna Relación Funcional entre dos o más variables, donde una variable depende
de la otra variable.

Se puede decir que, Y depende de X, en donde Y y X son dos variables


cualesquiera en un modelo de Regresión Simple.

"Y es una función de X" 

Y = f(X) 

Como Y depende de X,

4
Y es la variable dependiente, y

X es la variable independiente.

En el Modelo de Regresión es muy importante identificar cuál es la variable


dependiente y cuál es la variable independiente.

En el Modelo de Regresión Simple se establece que Y es una función de sólo una


variable independiente, razón por la cual se le denomina también Regresión Di
variada porque sólo hay dos variables, una dependiente y otra independiente y se
representa así:

Y = f (X) 

"Y está regresando por X" 

La variable dependiente es la variable que se desea explicar, predecir. También se


le llama REGRESANDO o VARIABLE DE RESPUESTA.

La variable Independiente X se le denomina VARIABLE EXPLICATIVA ó


REGRESOR y se le utiliza para EXPLICAR Y.

5.1.1 PRUEBA DE HIPÓTESIS EN LA REGRESIÓN LINEAL SIMPLE


Para probar hipótesis acerca de la pendiente y la ordenada en el origen del
modelo de regresión, debe hacerse la suposición adicional de que término del
error εi esta normalmente distribuido. Por lo tanto, se supone que los errores εi son
NID (0, σ2). Después se pueden probar es suposiciones mediante el análisis de
residuos. Supongamos que el experimentador desea probar la hipótesis de que la
pendiente es igual a un cierto valor, por ejemplo, β1,0. Las hipótesis apropiadas
son:

5
En donde se ha especificado la hipótesis alterna de dos extremos. Ahora bien,
como las εi son NID(0, σ2) se concluye que las yi son NID(β0 + β σ2). Por lo tanto,
es una combinación lineal de variables aleatorias independientes normalmente
distribuidas. En consecuencia, es N(σ2/Sxx). Además, es independiente de MSE.
Entonces, como resultado de la suposición de normalidad, la estadística:

Tiene una distribución t con n – 2 grados de libertad si H0: β1 = β1,0 es verdadera.


Se rechaza H0: β1 = β1,0 si:

En donde t0 se calcula usando la Ecuación. Puede utilizarse un procedimiento


para probar hipótesis acerca de la ordenada en el origen. Para probar:

Y se rechaza la hipótesis nula sí.


Un caso especial muy importante de la hipótesis es:

Esta hipótesis se relaciona con la significación de la regresión. No rechazar H0: β1


= 0 equivale a concluir que no existe una relación lineal entre y. En otras palabras,

6
el mejor estimador de yi para cualquier valor de xj es ŷj =. En muchos casos esto
puede indicar que no hay una relación causal entre x y y, o que la relación real no
es lineal. El procedimiento para probar H0β1 = 0 se puede deducir usando dos
enfoques. El primero consiste en descomponer la suma total de cuadrados
corregida de y:

Los dos componentes de Syy miden, respectivamente, la variabilidad de yi


explicada por la recta de regresión y la variación residual, no explica por la recta
de regresión.

se conoce como la suma de cuadrados del error o


residual

Y Denomina suma de cuadrados de regresión. Por lo


tanto, la Ecuación se transforma en:

Syy = SSR + SSE (1-29)

De la Ecuación se obtiene que la fórmula para calcular SSR

es:

7
5.1.2 CALIDAD DEL AJUSTE EN REGRESIÓN LINEAL SIMPLE

En la sección anterior estudiamos pruebas de hipótesis para verificar que hay una
relación significativa entre y; sin embargo, no hemos visto si tal relación permite
hacer estimaciones con una precisión aceptable. Por ejemplo, es de interés saber
qué tanta de la variabilidad presente en fue explicada por el modelo, además si se
cumplen los supuestos de los residuos.

Coeficiente de determinación. Un primer criterio para evaluar la calidad del ajuste


es observar la forma en que el modelo se ajustó a los datos. En el caso de la
regresión lineal simple esto se distingue al observar si los puntos tienden a
ajustarse razonablemente bien a la línea recta (véase la figura 1.3). Pero otro
criterio más cuantitativo es el que proporciona el coeficiente de determinación, el
cual está definido por:

En general se interpreta como la proporción de la variabilidad en los datos (Y ) que


es explicada por el modelo. En el caso de los datos de la resistencia de la pulpa
(tabla 1.1) tenemos

Por lo tanto, podemos decir que 93% de la variación observada en la resistencia


es explicada por el modelo (línea recta), lo cual nos dice que la calidad del ajuste

8
es satisfactoria, y que por ello, la relación entre es descrita adecuadamente por
una línea recta.

5.1.3 ESTIMACIÓN Y PREDICCIÓN POR INTERVALO EN REGRESIÓN LINEAL

Una de las aplicaciones más importantes en un análisis de regresión es hacer


estimaciones de la respuesta media para un valor dado de X. En el caso particular
de la regresión lineal simple, sabemos que un estimador puntual de la respuesta
media lo da la recta de regresión:

Además de esto, en ocasiones es de interés obtener una estimación por intervalos


para a partir de cualquier valor de X, para lo cual aplicamos la siguiente ecuación:

5.1.4 USO DE SOFTWARE ESTADÍSTICO


Excel
En la hoja de cálculo de Excel se incluye la regresión lineal simple y múltiple; para
ello, es necesario realizar la siguiente secuencia de opciones:

Generalmente Excel no trae instalado la herramienta de análisis de datos esta


debe instalarse con la siguiente secuencia:

9
1.- En la hoja de cálculo de Excel (pantalla principal) hacer clic con el puntero en el
símbolo del sistema localizado en el extremo superior izquierdo

2.- De la ventana desplegada hacer clic en opciones de Excel (parte inferior)

3.- De la ventana desplegada hacer clic en complementos

10
4.- De la ventana desplegada hacer clic en ir
5.- De esta ventana activar la casilla de herramientas para análisis (palomearla) y
dar clic en aceptar. De esta manera hemos activado la opción de análisis de datos.

5.2 REGRESIÓN LINEAL MÚLTIPLE


En muchas situaciones prácticas existen varias variables independientes que se
cree que influyen o están relacionadas con una variable de respuesta Y, y por lo
tanto será necesario tomar en cuenta si se quiere predecir o entender mejor el
comportamiento de Y. Por ejemplo, para explicar o predecir el consumo de
electricidad en una casa habitación tal vez sea necesario considerar el tipo de
residencia, el número de personas que la habitan, la temperatura promedio de la
zona, etcétera.
Sea variables X 1 , X 2 , … … . X K independientes o regresoras, y sea Y una variable de
respuesta, entonces el modelo de regresión lineal múltiple con K variables
independientes es el polinomio de primer orden:

11
Para encontrar los coeficientes de regresión múltiple por el método de mínimos
cuadrados aplicamos el siguiente sistema de ecuaciones normales:

5.2.2 PRUEBAS DE HIPÓTESIS EN LA REGRESIÓN MÚLTIPLE


Las hipótesis sobre los parámetros del modelo son equivalentes a las realizadas
para regresión lineal simple, pero ahora son más necesarias porque en regresión
múltiple tenemos más parámetros en el modelo; sin embargo, por lo general es
necesario evaluar su verdadera contribución a la explicación de la respuesta.
También requerimos de la suposición de que los errores se distribuyen en forma
normal, independientes, con media cero y varianza.
La hipótesis global más importante sobre un modelo de regresión múltiple consiste
en ver si la regresión es significativa. Esto se logra probando la siguiente hipótesis:

12
Aceptar significa que ningún término o variable en el modelo tiene una
contribución significativa al explicar la variable de respuesta. Mientras que
rechazar implica que por lo menos un término en el modelo contribuye de manera
significativa a explicar. El procedimiento para probar esta hipótesis es una
generalización del procedimiento utilizado para probar la hipótesis equivalente en
regresión lineal simple.

5.2.3 INTERVALOS DE CONFIANZA Y PREDICCIÓN EN REGRESIÓN


MÚLTIPLE
En los modelos de regresión múltiple con frecuencia es conveniente construir
estimaciones de intervalos de confianza para los coeficientes de regresión. Por
ejemplo, a partir de la tabla 1.6 es claro que un estimador por intervalos de cada
coeficiente en lo individual está dado por:

También es posible obtener un intervalo de confianza con respecto a la respuesta


media en un punto particular, digamos X 10 , X 20, … … . X K está dado por:

13
5.2.4 USO DE SOFTWARE ESTADÍSTICO
Para capturar la tabla de datos para el análisis de regresión lineal múltiple,
primeramente, capturamos los datos en la hoja de cálculo, posteriormente
activamos Datos seguido de Análisis de datos y seleccionamos Regresión, y
aceptar.

En la ventana de captura se solicitará el rango de celdas donde se encuentran los


datos para la variable dependiente Rango Y de entrada y para la(s) variable(s)
regresora(s) Rango de entrada (para los datos de X1 y X2, se sombrean ambos
simultáneamente con el ratón, en este caso a partir de la columna 2).

14
Activamos la casilla de rótulos, por default está indicado en una hoja nueva,
seleccionamos además cualquiera de las opciones de residuos, grafica de
residuales, y curva de regresión ajustada y aceptar y tendremos el resultado.

5.3 REGRESIÓN NO LINEAL


Si las dos variables X y Y se relacionan según un modelo de línea recta, se habla
de regresión lineal simple.

Cuando las variables X y Y se relacionan según una línea curva, se habla de


regresión no lineal o curvilínea. Aquí se puede distinguir entre regresión
parabólica, exponencial, potencial etc.

Supongamos que al hacer la representación gráfica correspondiente la distribución


bidimensional, hemos obtenido la figura 6.1c. Se observa una clara relación entre
las dos variables, pero desde luego, esa relación no es lineal.

15
Por tanto, debemos buscar la función que ha de describir la dependencia entre las
dos variables.

Nos limitaremos al estudio de las más utilizadas: la función parabólica, la


logarítmica, la exponencial y la potencial.

DEFINICIONES
ANÁLISIS DE CONTINGENCIA. - Es el estudio que se realiza con las tablas de
contingencia y consiste en analizar el grado de asociación o dependencia entre
dos variables cualitativas; para medir el grado de dependencia se utiliza el
coeficiente de contingencia. (Ver coeficiente de contingencia).
ANÁLISIS DE VARIANZA. - Es un método para comparar dos o más medias (Ver
media) de «n» grupos analizando la varianza de los datos, tanto entre «n» grupos
como dentro de ellos.
COEFICIENTE DE CONTINGENCIA Chi-Cuadrado. - Es un número que mide el
grado de asociación o dependencia de las clasificaciones en una tabla de
contingencia (h x k).
CONTRASTE DE HIPÓTESIS. - Conocido también como dócima o prueba de
hipótesis, es el proceso estadístico que se sigue para la toma de decisiones a
partir de la información de la muestra. Comparando el valor del estadístico
experimental con el valor teórico, se rechaza o acepta la hipótesis nula (H 0). Lo
contrario a la hipótesis nula se llama hipótesis alterna (H 1).
DISTRIBUCIÓN NORMAL O CURVA NORMAL. - Llamada también como
distribución de Gauss, es la distribución de probabilidad más utilizada en
estadística y teoría de probabilidad.
ESTADÍSTICA INFERENCIAL. - Rama de la ciencia estadística que proporciona
métodos y procedimientos que permiten obtener conclusiones para una población
a partir del estudio de una o más muestras representativas.
HIPÓTESIS ESTADÍSTICA. - Es una afirmación respecto a alguna característica
de la población en estudio que se formula para ser sometida a la denominada
prueba de hipótesis, para ser aceptada o rechazada

16
CONCLUSION.
La Regresión y la correlación son dos técnicas estadísticas que se pueden utilizar
para solucionar problemas comunes en los negocios. Se puede decir que, Y
depende de X, en donde Y y X son dos variables cualesquiera en un modelo de
regresión.

X es la variable independiente. La variable dependiente es la variable que se


desea explicar, predecir. También se le llama REGRESANDO o VARIABLE DE
RESPUESTA, Para probar hipótesis acerca de la pendiente y la ordenada en el
origen del modelo de regresión, debe hacerse la suposición adicional de que
término del error i esta normalmente distribuido Supongamos que el
experimentador desea probar la hipótesis de que la pendiente es igual a un cierto
valor, por ejemplo, β1,0, En donde t0 se calcula usando la Ecuación. Puede
utilizarse un procedimiento para probar hipótesis acerca de la ordenada en el
origen y Denomina suma de cuadrados de regresión.

Si las dos variables X y Y se relacionan según un modelo de línea recta, se habla


de regresión lineal simple. Cuando las variables X y Y se relacionan según una
línea curva, se habla de regresión no lineal o curvilínea. Se observa una clara
relación entre las dos variables, pero desde luego, esa relación no es lineal. Por
tanto, debemos buscar la función que ha de describir la dependencia entre las dos
variables.

REFERENCIAS

- UNKNOW. (2010). Regresión lineal simple. 26/11/2020, de HALWEB Sitio web:


[Link]
f
- Jesús María Hernández. (2013). Unidad 1 Regresión lineal simple y múltiple
estadística inf II. 26/11/2020, de PREZI Sitio web:

17
[Link]
multiple-estadistica-inf-II
- UNKNOW. (2015). REGRESIÓN Y CORRELACIÓN LINEAL. 26/11/2020, de
INSTITUTO POLITECNICO NACIONAL Sitio web:
[Link]
- UNKNOW. (2015). UNIDAD 5. REGRESIÓN LINEAL SIMPLE. 26/11/2020, de
BLOGSPOT Sitio web: [Link]

18

También podría gustarte