0% encontró este documento útil (0 votos)
18 vistas22 páginas

Métodos de Ajuste de Curvas en Datos

Cargado por

celio silva
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
18 vistas22 páginas

Métodos de Ajuste de Curvas en Datos

Cargado por

celio silva
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

Ajuste de curvas

Motivación

• Los datos a menudo son dados para valores discretos a lo largo de


un continuo

• Sin embargo, se puede requerir una estimación en puntos entre los


valores discretos

• En este tema se describirán métodos numéricos para el ajuste de


curvas a tales datos para obtener estimaciones intermedias

• Además, se puede requerir una versión simplificada de una función


en un número de valores discretos dentro de un intervalo de interés.
A partir del ajuste a estos valores se puede obtener una función
más simple que la función original
Motivación

• Existen dos procedimientos generales para el ajuste de curvas,


cuya aplicación depende del grado de error asociado con los datos

1. Cuando los datos exhiben un grado significativo de error o ruido, se


prefiere ajustar una curva que representa la tendencia general de
los datos (método APROXIMANTE)

2. Cuando los datos son muy precisos, se ajusta una curva o serie de
curvas que pasen por cada uno de los puntos (método
INTERPOLANTE)
La estimación de valores entre puntos discretos bien conocidos es
llamada interpolación
Métodos empleados antes de la era de las
computadoras
• El método más simple para ajustar una curva es ubicar los puntos y
después dibujar una línea que visualmente se ajusta a los datos
• Los resultados dependen del punto de vista subjetivo de la persona

Regresión por mínimos Interpolación lineal Interpolación curvilínea


cuadrados
Conocimientos previos
• Estadística básica
Media aritmética:
y=
∑ y i

n
i = 1,K, n
Desviación estándar:

St
Sy = ∑ y − (∑ y )
2 2
/n
n −1 S 2
y = i i

n −1
S t = ∑ ( yi − y ) 2
Conocimientos previos
Varianza:

S y2 =
∑ i
( y − y ) 2

n −1

Coeficiente de correlación:

Sy
c.v. = 100%
y
Ajuste de curvas y práctica de la
ingeniería
• Determinar valores intermedios a partir de datos tabulados
• Desarrollo de relaciones predictivas a partir de datos
experimentales
– Análisis de tendencia: se usan para predecir valores de la variable
dependiente. Ya sea, extrapolación más allá de los límites de los datos
observados o interpolación dentro del rango de los datos
– Prueba de hipótesis: aquí, un modelo matemático existente se compara
con los datos medidos. Si se desconocen los coeficientes del modelo,
se determinan los valores que mejor ajusten a los datos observados. Si
se dispone de los coeficientes del modelo se comparan las
predicciones del modelo con las observaciones para probar que tan
adecuado es
– Derivar funciones simples con el fin de aproximar funciones
complicadas
Regresión por mínimos cuadrados

• Cuando los datos exhiben un grado significativo de error, se ajusta


una curva que represente la tendencia general de los datos

• Una forma de hacerlos es determinando la curva que minimice la


diferencia entre los puntos y la curva
Regresión por mínimos cuadrados
lineales
• El análisis de regresión es una metodología que estudia la
asociación cuantitativa entre una variable dependiente y, con otras
m+1 variables de predicción zj (funciones base); donde se supone la
existencia de n valores de la variable dependiente yi, observadas
bajo un conjunto de condiciones experimentales xi, que forman las
variables de predicción.

• Para cada observación i se formula una ecuación lineal de la forma


m
yi = ∑ β j z i j + ε i E (ε i ) = 0 V (ε i ) = σ 2
j =0

donde los errores εi son independientes con valor esperado igual a


cero y varianza σ2.
Regresión por mínimos cuadrados
lineales
• Bajo el esquema dado, el conjunto de n ecuaciones lineales puede
escribirse en forma matricial como sigue:

{Y } = [Z ]{β }+ {ε }
[Z ] − matriz de los valores de las funciones base en los
valores medidos de la variable independie nte
{Y}− vector de los valores medidos de la variable dependient e
{β }− vector de los coeficientes desconocidos
{ε }− vector de los errores

• Recordemos:
yi = β 0 z 0i + β1 zi1 + β 2 zi2 + L + β m zim + ε i , i = 1,2,..n
z 0 , z 1 , K , z m son las m + 1 funciones base
Regresión por mínimos cuadrados
lineales
• La suma de los cuadrados de los errores se define como:
2
n ⎛ m ⎞
S r = ∑ ⎜⎜ yi − ∑ β j zi ⎟⎟
j

i =1 ⎝ j =0 ⎠
Se puede demostrar que esta suma tiene un unico valor en las
variables βi en el cual se alcanza el valor mínimo de dicha suma;
valores que se obtienen resolviendo el sistema de ecuaciones
lineales que se genera derivando parcialmente respecto a cada βi e
igualando a cero. La estructura de este sistema de ecuaciones es de
la forma:
[Z ][Z ]{β } = [Z ]{Y }
T T

el cual recibe el nombre de ecuaciones normales.


Regresión por mínimos cuadrados
lineales
• Si las columnas de la matriz Z son independientes, ZTZ es invertible
y la solución está dada por

{β } = (Z T
Z ) −1
Z T {y}

• Para toda nueva observación, znew, su predicción es simplemente,

{ynew } = znewT {β }
• Una vez estimados los βj, pueden hallarse los valores ypi estimados
por el modelo, asociados al conjunto de valores zij de las variables
de predicción
{yp} = Z {β } = Z (Z T
Z )
−1
Z T {y} = P{y}
Regresión por mínimos cuadrados
lineales
• El mínimo de la suma de cuadrados de los errores es
= y − yp = y T (I − P ) y
2 2
SSE = y − Zβ

• El estimador de la varianza σ2 está dado por el promedio de los


errores, el error cuadrático medio, MSE
SSE
MSE = σ 2 =
n−m
donde se divide por n - m para obtener una estimación insesgada
de σ2

La matriz de covarianza del estimador βˆ es, COV (β ) = (Z T Z ) σ 2


−1

La varianza de cada parámetro individual se encuentra en la


diagonal de COV (β )
Regresión por mínimos cuadrados
lineales
• Los indicadores de ajuste global del modelo de regresión son:
– Error cuadrático medio, MSE
– El coeficiente de determinación (R2)
– El coeficiente de determinación ajustado (Adj R2)

• El MSE es el estimador insesgado de la varianza del modelo, y su


ráiz cuadrada, RMSE, es el estimador de la desviación estándar, σ,
del modelo

MSE = σ 2 =
SSE
=
y T
(I − P ) y RMSE = MSE
n−m n−m

cuanto más pequeños sean estos estimadores mejor es el modelo


Regresión por mínimos cuadrados
lineales
• El coeficiente de determinación, R2, explica la relación entre la
suma de cuadrados que expresa el modelo y la suma de cuadrados
total
SSM SSE
R2 = = 1−
SST SST

donde, la suma de cuadrados total corregida de las observaciones


respecto de la media esta dada por,
2 2
SST = y − y = y − ny 2

• Este indicador tiene el defecto de no penalizar el exceso de


variables, ya que cada vez que se agrega una nueva variable al
modelo, el R2 crece sin que esto signifique que la nueva variable
aporte algo al modelo
• Se cumple que 0 ≤ R2 ≤ 1, cuando el modelo aproxima bien, R2 es
próximo a 1
Regresión por mínimos cuadrados
lineales
• El coeficiente de determinación ajustado, AdjR2, penaliza el
aumento del número m de variables

SSE
m −1
AdjR 2 = 1 − n − m = R 2 −
SST n−m
( 1− R2 )
n −1

• Cuando el modelo ajusta bien, el AdjR2, debe ser próximo a 1


Regresión por mínimos cuadrados
lineales
• Ejemplo: Regresion por minimos cuadrados
2.6
Lineal
2.4 Cuadratico
Ajuste de modelos lineal, Cubico
2.2
cuadrático y cúbico a datos de
Hermite por regresión por 2

mínimos cuadrados 1.8

f(x)
1.6

1.4

Lineal Cuadrático Cúbico 1.2

MSE 0.2869 0.1390 0.1494 1

R2 0.0059 0.5719 0.5974


0.8
AdjR2 0.0059 0.5184 0.4824
-4 -3 -2 -1 0 1 2 3 4
x
Regresión por mínimos cuadrados
lineales
Regresion por minimos cuadrados
2.6
Lineal
2.4 Cuadratico
Ajustando un modelo más Cubico
2.2
complejo se logra mejor ajuste quinto

2
de los datos
1.8

f(x)
1.6

1.4
Quinto orden
1.2
MSE 0.0566
1
R2 0.8911
0.8
AdjR2 0.8040

-4 -3 -2 -1 0 1 2 3 4
x
Casos particulares
• Si las funciones base son polinomicas:
z 0 = x 0 = 1, z1 = x1 , z 2 = x 2 ,..., z m = x m
las ecuaciones normales son de la forma:

⎡ n n n
⎤ ⎧ n 0⎫
⎢∑ i ( x )0
∑ (x ) i
1
L ∑ (xi ) ⎥
m
⎪ ∑ yi ( xi ) ⎪
⎢ i =n1 i =1 i =1
⎥ ⎧β 0 ⎫ ⎪ i =1 ⎪
⎢ ( x )1
n n
m +1 ⎥ β⎪ ⎪ n
⎪⎪ y ( x )1 ⎪⎪
⎢∑ i (
∑ ix )2
L ∑ ( xi ) ⎥


1 ⎪
⎬ = ⎨ ∑ i i

i =1 i =1 i =1 M⎪ ⎪ i =1
⎢ M M L M ⎥ ⎪ M ⎪
⎢ n n n ⎥⎪ ⎪ ⎪ n
2 m ⎩β 0 ⎭

⎢∑ ( xi ) (
∑ i ) ∑ (xi ) ⎥ ⎪∑ yi ( xi ) ⎪
m m +1 m
x L
⎢⎣ i =1 i =1 i =1 ⎥⎦ ⎪⎩ i =1 ⎪⎭
Casos particulares
• Ajuste mediante una linea recta: y = β 0 + β1 x
⎡ n
⎤ ⎧ n ⎫
⎢ n ∑ xi ⎥
⎧β 0 ⎫ ⎪⎪ ∑
y i ⎪

⎢ n i =1
⎥ ⎨ ⎬ ⎨n = i =1

2 ⎥ ⎩ β1 ⎭
n
⎢ x
⎢⎣∑ ∑ (xi ) ⎥ ⎪∑ yi xi ⎪
i =1
i
i =1 ⎦ ⎪⎩ i =1 ⎪⎭

• Ajuste mediante una funcion lineal de dos variables:


z 0 = 1, z1 = x, z 2 = y, w = β 0 + β1 x + β 2 y
⎡ n n
⎤ ⎧ n ⎫
⎢ n ∑ xi ∑ yi ⎥ ⎪ ∑ wi ⎪
⎢ n i =1 i =1
⎥ ⎧ β 0 ⎫ ⎪ i =1

⎢ x
n n
⎥ ⎪ ⎪ ⎪ n

⎢∑ i ∑ (x i ) ∑ x i yi ⎥ ⎨ β1 ⎬ = ⎨∑ wi x i ⎬
2

⎢n
i =1 i =1 i =1
⎥ ⎪ β ⎪ ⎪ i =1 ⎪
2 ⎩
n n 2⎭ n
⎢ ∑ y i ∑ x i yi ∑ ( y i ) ⎥ ⎪ wy ⎪
⎢⎣ i =1 i =1 i =1 ⎥

⎪∑
⎩ i =1
i i⎪

Casos no lineales
• El termino mínimos cuadrados lineales refiere a la linealidad en
los parámetros βi a determinar. Bajo esta premisa el siguiente
caso:
y = β 0 + β1 cos(ωx) + β 2 sen(ωx)

es considerado lineal, mientras los casos:

y = β 0 e β1x , y = β 0 x β1
se consideran no lineales. Si bien el concepto de mínimos
cuadrados es aun valido para el caso no lineal, su aplicación
conduciría al planteamiento de un sistema de ecuaciones no
lineales el cual de manera general consumiría una gran cantidad
de tiempo de computo.
Casos no lineales
• Se estila linealizar previamente el modelo escogido,

y = β 0 e β1x , ln( y ) = ln(β 0 ) + β1 x

haciendo v = ln( y ), K 0 = ln (β 0 ), K 1= β 1 , u = x
se obtiene v = K 0 + K 1u
al cual se le aplica el metodo de los minimos cuadrados lineales
para obtener K0 , K1 y posteriormente hacer
β0 = eK , β1 =K1
0

En el otro caso
y = β 0 x β1 , ln ( y ) = ln (β 0 ) + β1 ln ( x )
v = ln ( y ), u = ln ( x ), K 0 = ln (β 0 ), K1 = β1
v = K 0 + K1v → minimos cuadrados → K 0 , K1 → β 0 , β1

También podría gustarte