0% encontró este documento útil (0 votos)
156 vistas5 páginas

Regresión Ridge: Definición y Aplicación

El documento describe el método de regresión Ridge. Ridge penaliza la suma de los coeficientes elevados al cuadrado para reducir la varianza y evitar el overfitting. A diferencia de Lasso, Ridge no elimina predictores del modelo, sino que reduce su influencia. Ridge es útil cuando hay muchos predictores correlacionados o más predictores que observaciones. El documento también incluye un capítulo sobre aplicar Ridge en R y concluye resumiendo las ventajas de este método alternativo a la regresión lineal clásica.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
156 vistas5 páginas

Regresión Ridge: Definición y Aplicación

El documento describe el método de regresión Ridge. Ridge penaliza la suma de los coeficientes elevados al cuadrado para reducir la varianza y evitar el overfitting. A diferencia de Lasso, Ridge no elimina predictores del modelo, sino que reduce su influencia. Ridge es útil cuando hay muchos predictores correlacionados o más predictores que observaciones. El documento también incluye un capítulo sobre aplicar Ridge en R y concluye resumiendo las ventajas de este método alternativo a la regresión lineal clásica.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd

UNIVERSIDAD ESAN

METODO DE REGRESIÓN RIDGE

Curso : Análisis Multivariado

Profesor : Carlos López de Castilla Vásquez

Sección : S-001

Fecha : 05/07/2022

INTEGRANTES:

Emerson Joel Vilcatoma Chuchon

Gabriel Gonzalo Ramos Gabriel

Martín García Collahuaso

Lima – Perú

2022
CONTENIDO
Capítulo I: Introducción y definición......................................................................................................1
1.1. Definición de regresión lineal....................................................................................................1
1.2. Definición del método de regresión Ridge.................................................................................1
1.3. Comparación entre otros modelos............................................................................................1
1.4. Ventajas.....................................................................................................................................2
1.5. Desventajas...............................................................................................................................2
Capítulo II: Aplicación en R....................................................................................................................2
2.1. Modelo de regresión en R..........................................................................................................2
Conclusiones..........................................................................................................................................2
Bibliografía............................................................................................................................................2
1

Capítulo I: Introducción y definición

1.1. Definición de regresión lineal

La regresión lineal o también conocida como regresión contraída o Tikhonov


regularization es un método estadístico que trata de modelar la relación entre una
variable continua y una o más variables independientes mediante el ajuste de una
ecuación lineal. Tres de las limitaciones que aparecen en la práctica al tratar de
emplear este tipo de modelos (ajustados por mínimos cuadrados ordinarios) son:

 Se ven perjudicados por la incorporación de predictores correlacionados.

 No realizan selección de predictores, todos los predictores se incorporan en


el modelo, aunque no aporten información relevante. Esto suele complicar la
interpretación del modelo y reducir su capacidad predictiva.

 No pueden ajustarse cuando el número de predictores es superior al número


de observaciones.
Una forma de atenuar el impacto de estos problemas es utilizar estrategias de
regularización como Ridge, Lasso o Elastic Net, que fuerzan a que los coeficientes
del modelo tiendan a cero, minimizando así el riesgo de overfitting, reduciendo
varianza, atenuado el efecto de la correlación entre predictores y reduciendo la
influencia en el modelo de los predictores menos relevantes.
1.2. Definición del método de regresión Ridge

La regularización Ridge penaliza la suma de los coeficientes elevados al cuadrado

( || | )
p
¿ β ¿ =∑ β 2j  .A esta penalización se le conoce como l2 y tiene el efecto
2
2
j=1

de reducir de forma proporcional el valor de todos los coeficientes del modelo pero
sin que estos lleguen a cero. El grado de penalización está controlado por el
hiperparámetro λ. Cuando λ=0, la penalización es nula y el resultado es equivalente
al de un modelo lineal por mínimos cuadrados ordinarios (OLS). A medida
que λ aumenta, mayor es la penalización y menor el valor de los predictores.

1.3. Comparación entre otros modelos


2

La principal diferencia práctica entre lasso y ridge es que el primero consigue que algunos


coeficientes sean exactamente cero, por lo que realiza selección de predictores, mientras que
el segundo no llega a excluir ninguno. Esto supone una ventaja notable de lasso en
escenarios donde no todos los predictores son importantes para el modelo y se desea que los
menos influyentes queden excluidos.

1.4. Ventajas

La principal ventaja de aplicar ridge frente al ajuste por mínimos cuadrados


ordinarios (OLS) es la reducción de varianza. Por lo general, en situaciones en las
que la relación entre la variable respuesta y los predictores es aproximadamente
lineal, las estimaciones por mínimos cuadrados tienen poco margen de error, pero
aún pueden sufrir alta varianza (pequeños cambios en los datos de entrenamiento
tienen mucho impacto en el modelo resultante). Este problema se acentúa conforme
el número de predictores introducido en el modelo se aproxima al número de
observaciones de entrenamiento, llegando al punto en que, si p>n, no es posible
ajustar el modelo por mínimos cuadrados ordinarios. Empleando un valor adecuado
de λ, el método de ridge es capaz de reducir varianza sin apenas aumentar el margen
de error, consiguiendo así un menor error total.
1.5. Desventajas

La desventaja del método ridge es que, el modelo final, incluye todos los


predictores. Esto es así porque, si bien la penalización fuerza a que los coeficientes
tiendan a cero, nunca llegan a ser exactamente cero (solo si λ=∞). Este método
consigue minimizar la influencia sobre el modelo de los predictores menos
relacionados con la variable respuesta, pero, en el modelo final, van a seguir
apareciendo. Aunque esto no supone un problema para la precisión del modelo, sí lo
es para su interpretación.

Capítulo II: Aplicación en R

2.1. Modelo de regresión en R

Adjuntado:
3

Conclusión

Este método nos muestra métodos alternativos para estimar los parámetros de un
modelo lineal de manera diferente al modelo clásico, el modelo de regresión Ridge
escogen las estimaciones de los parámetros en el modelo lineal mediante una
penalización de sus valores, además

Bibliografía

 Amat Rodrigo, J. (2020, 11 noviembre). Regularización ridge, Lasso y Elastic Net


con Python y Scikitlearn. cienciadedatos. Recuperado 5 de julio de 2022, de
https://www.cienciadedatos.net/documentos/py14-ridge-lasso-elastic-net-python.html

También podría gustarte