0% encontró este documento útil (0 votos)
169 vistas14 páginas

Regresión Lineal y No Lineal Explicada

Este documento describe diferentes tipos de regresión para predecir una variable dependiente a partir de una o más variables independientes. Explica la regresión lineal múltiple para predecir una variable utilizando varios predictores. Luego, introduce la regresión no lineal cuando la relación entre variables no es lineal, requiriendo funciones como parábolas, logarítmicas o exponenciales. Finalmente, se enfoca en la regresión parabólica, encontrando los parámetros de la función cuadrática que minimizan la suma de los errores al ajustarse

Cargado por

zulema
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
169 vistas14 páginas

Regresión Lineal y No Lineal Explicada

Este documento describe diferentes tipos de regresión para predecir una variable dependiente a partir de una o más variables independientes. Explica la regresión lineal múltiple para predecir una variable utilizando varios predictores. Luego, introduce la regresión no lineal cuando la relación entre variables no es lineal, requiriendo funciones como parábolas, logarítmicas o exponenciales. Finalmente, se enfoca en la regresión parabólica, encontrando los parámetros de la función cuadrática que minimizan la suma de los errores al ajustarse

Cargado por

zulema
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd

1.2.

Regresión lineal múltiple


En muchas situaciones prácticas existen varias variables independientes que se cree que
influyen o están relacionadas con una variable de respuesta Y , y por lo tanto será necesario
tomar en cuenta si se quiere predecir o entender mejor el comportamiento de Y. Por ejemplo,
para explicar o predecir el consumo de electricidad en una casa habitación tal vez sea necesario
considerar el tipo de residencia, el número de personas que la habitan, la temperatura
promedio de la zona, etcétera.

Para encontrar los coeficientes de regresión múltiple por el método de mínimos cuadrados
aplicamos el siguiente sistema de ecuaciones normales:
Al sustituir las sumatorias calculadas en las ecuaciones normales, se obtiene

La solución manual aplicando el sistema de tres ecuaciones lineales con tres incógnitas (3x3)
pudiera ser aplicando el método de eliminación de Gauss o bien el método de Cramer. Para este
tipo de planteamiento se recomienda el método de Cramer el cual consiste en la siguiente
secuencia:
Sustituyendo los valores tendremos
Dado que el valor encontrado en formula es mayor al punto crítico en base al nivel de
significancia por lo que rechazamos la hipótesis nula y aceptamos la alterna lo cual implica que
por lo menos un término en el modelo contribuye de manera significativa a explicar
Activamos la casilla de rótulos, por default está indicado en una hoja nueva, seleccionamos
además cualquiera de las opciones de residuos, grafica de residuales, y curva de regresión
ajustada y aceptar y tendremos el resultado.

Utilizando Minitab
En Minitab la secuencia de captura para la regresión lineal simple o múltiple en la hoja de
cálculo una vez capturada las columnas de datos seleccionamos Estadísticas luego Regresión
seguida de Regresión nuevamente.

De la ventana desplegada en respuesta indicamos la variable de respuesta, en este caso es


resistencia y en predictor indicamos porcentaje de fibra activando también cualquiera de las
opciones posibles, terminando en aceptar.
Nota: De la ventana de captura aparecen automáticamente en el cuadro de la izquierda la
información de la tabla, en respuesta , se indica con un clic del ratón en peso y este
automáticamente se manifiesta, en predictores de igual manera se da un clic a cada uno y estos
se manifiestan en el recuadro.
1.3. Regresión no lineal
Si las dos variables X y Y se relacionan según un modelo de línea recta, se habla de regresión
lineal simple.

Cuando las variables X y Y se relacionan según una línea curva, se habla de regresión no lineal
o curvilínea. Aquí se puede distinguir entre regresión parabólica, exponencial, potencial etc.

Supongamos que al hacer la representación gráfica correspondiente la distribución


bidimensional, hemos obtenido la figura 6.1c. Se observa una clara relación entre las dos
variables, pero desde luego, esa relación no es lineal.

Por tanto, debemos buscar la función que ha de describir la dependencia entre las dos variables.
Nos limitaremos al estudio de las más utilizadas: la función parabólica, la logarítmica, la
exponencial y la potencial.

Parábola de Regresión
En muchos casos, es una función de segundo grado la que se ajusta lo suficiente a la situación
real dada.
La expresión general de un polinomio de 2º grado es:

donde a, b y c son los parámetros.

El problema consiste, por tanto, en determinar dichos parámetros para una distribución dada.
Seguiremos para ello, un razonamiento similar al que hicimos en el caso del modelo de
regresión lineal simple, utilizando el procedimiento de ajuste de los mínimos cuadrados, es
decir, haciendo que la suma de los cuadrados de las desviaciones con respecto a la curva de
regresión sea mínima:
Para encontrar los valores de a, b y c que hacen mínima la expresión anterior, deberemos
igualar las derivadas parciales de D con respecto a dichos parámetros a cero y resolver el
sistema resultante. Las ecuaciones que forman dicho sistema se conocen como ecuaciones
normales de Gauss (igual que en el caso de la regresión lineal simple).

También podría gustarte