0% encontró este documento útil (0 votos)
81 vistas10 páginas

Ajuste de Curvas e Interpolación en Métodos Numéricos

Este documento presenta un resumen de la unidad 4 de Métodos Numéricos sobre ajuste de curvas e interpolación. Explica los conceptos básicos de interpolación lineal y cuadrática, así como los métodos de interpolación de Lagrange y diferencias divididas de Newton. También introduce los conceptos de regresión lineal y cuadrática por mínimos cuadrados.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
81 vistas10 páginas

Ajuste de Curvas e Interpolación en Métodos Numéricos

Este documento presenta un resumen de la unidad 4 de Métodos Numéricos sobre ajuste de curvas e interpolación. Explica los conceptos básicos de interpolación lineal y cuadrática, así como los métodos de interpolación de Lagrange y diferencias divididas de Newton. También introduce los conceptos de regresión lineal y cuadrática por mínimos cuadrados.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd

ALUMNO:

 GOMEZ GUERRERO LUIS ALBERTO

MATERIA:
 METODOS NUMERICOS

ESCUELA:
 INSTITUTO TECNOLOGICO DE BOCA DEL RIO

SEMESTRE:
 4to SEMESTRE

No. CONTROL:
 19990430

ACTIVIDAD:
 UNIDAD 4
UNIDAD 4: AJUSTE DE CURVAS E INTERPOLACION.
4.1 Interpolación: Lineal y cuadrática.

El problema de interpolación consiste en encontrar el valor de la función F(x),


de la cual sólo se conocen algunos puntos, para un valor de x que se encuentre
entre dos valores consecutivos conocidos. En pocas palabras podriamos decir
que:

"La interpolación consiste en hallar un dato dentro de un intervalo en el que


conocemos los valores en los extremos".

El problema general de la interpolación se nos presenta cuando nos dan una


función de la cual solo conocemos una serie de puntos de la misma:

(xo, yo), (x1, y1),........., (xn, yn)

y se pide hallar el valor de un punto x (intermedio de x 0 y xn) de esta función.

 Interpolación. Elección de la interpolación más adecuada.

Consideremos una función de la cual solo conocemos una serie de puntos de


la misma:

(xo, yo), (x1, y1), .............., (xn, yn)

Deseamos encontrar la expresión analítica de dicha función para poder


estudiarla en otros puntos.

Ahora bien, por n+1 puntos pasan infinitas funciones, ¿con cuál de ellas nos
quedamos? Lo más lógico es recurrir a la más sencilla. La familia de funciones
más sencillas es la de los polinomios, por tanto buscaremos el polinomio de
menor grado que pase por los n+1 puntos dados.

La función polinómica de menor grado que pasa por los puntos es en principio
de grado n:   y= anxn+............+a1x+ao

Y se obtiene resolviendo el sistema de n+1 ecuaciones con n+1 incógnitas


(sistema que tiene solución única ya que el determinante de la matriz de los
coeficientes es de Vandermonde y por lo tanto distinto de cero)

Se le llama polinomio interpolador correspondiente a esos puntos. Una vez


obtenida su expresión dando valores en él se pueden encontrar nuevos puntos
de la función. Los resultados obtenidos son naturalmente estimaciones
aproximadas.

La interpolación se dirá lineal cuando sólo se tomen dos puntos

y cuadrática cuando se tomen tres. 

La interpolación lineal es un caso particular de la Interpolación general


de Newton.

Con el polinomio de interpolación de Newton se logra aproximar un valor de


la función f(x) en un valor desconocido de x. El caso particular, para que una
interpolación sea lineal es en el que se utiliza un polinomio de interpolación de

grado 1, y se denota de la siguiente manera:

Como dijimos, cuando las variaciones de la función son proporcionales (o casi


proporcionales) a los de la variable independiente se puede admitir que dicha
función es lineal y usar para estimar los valores la interpolación lineal..

Sean dos puntos (xo, yo), (x1, y1), la interpolación lineal consiste en hallar una
estimación del valor y, para un valor x tal que x0<x<x1.

CUADRÁTICA. 

Cuando el polinomio que conviene es de 2º grado la interpolación recibe el


nombre de cuadrática. El polinomio interpolador es único, luego como se
encuentre da igual. sin embargo, a veces los cálculos son muy laboriosos y es
preferible utilizar un método que otro. A la vista de los datos se decide.

4.2 Polinomios de interpolación: Diferencias divididas de Newton y de


LaGrange.

El problema de la interpolación tiene propiamente tres cuestiones:

  ·         Saber si tiene solución o no.


 ·         En caso de tenerla, ¿dicha solución es ´única o existen varias?
 ·         Y finalmente métodos de cálculo lo más eficientes posibles.

 A este respecto en interpolación polinómica tenemos el siguiente resultado:

 Teorema 1. Supongamos conocido el valor de una función f(x) en un conjunto


de puntos distintos dos a dos x0, x1, . . . , xn. Entonces, existe un único
polinomio P(x) 2 <n[x] (esto es, polinomios de grado menor o igual que n) que
interpola a la función en esos puntos, es decir,P(xi) = f(xi) con i = 0, . . . , n.

 La prueba más directa (con el coste de unos leves conocimientos de ´algebra)
consiste en plantear el sistema lineal de ecuaciones (ahora las incógnitas son
los coeficientes del polinomio P buscado) y darse cuenta de que es un sistema
compatible determinado al tener matriz de coeficientes de tipo Van der Monde
(con los xi distintos dos a dos) y por tanto invertible.

Otra forma inmediata de ver la unicidad de solución al problema consiste en


imaginar la existencia de dos polinomios P y Q de grado n satisfaciendo la tesis
del teorema.

 Entonces

P − Q es otro polinomio de grado n con n + 1 ceros, y eso conduce


inevitablemente a que

P − Q _ 0.

 Completamos este razonamiento con dos respuestas (en las siguientes


secciones) de existencia de solución, ambas constructivas.

 Interpolación de Lagrange.

Este método es el más explicito para probar existencia de solución ya que la


construye.

Sin embargo su utilidad se reduce a eso: a dar una respuesta formal y


razonada, pues no es eficiente en términos de cálculo (requiere muchas
operaciones y tiene limitaciones técnicas que después nombraremos).

 Para calcular el polinomio interpolador P(x) asociado a una tabla de datos (xi,
fi) con i =

0, . . . , n podemos plantearnos una simplificación previa: ¿qué ocurre si


construimos polinomios

 li(x) de grado n que valgan 1 en el nodo xi y 0 en el resto?

li(xk) = _ik = _ 1 si i = k, 0 si i 6= k.

 Es inmediato que con esto se resuelve el problema original, tomando la suma
de esa n + 1 polinomios de grado n (con coeficientes adecuados):

 P(x) = Pn k=0 fk · lk(x).

¿Es posible encontrar tales li(x)? Si damos el polinomio facto izado para que
tenga en cada nodo xj (con j 6= i) una raíz, el candidato es:
 (x − x0)(x − x1) ·. . . · (x − xi−1)(x − xi+1) · . . . · (x − xn) = n Yj=0 j6=I (x − xj).

 Polinomios de interpolación con diferencias divididas de Newton.

 Cualquier polinomio de <n[x] se puede expresar en forma única como una


combinación lineal de los monomios {1, x, x2, . . . , xn}, pues son
evidentemente sistema generador y además linealmente independientes (luego
forman una base del espacio vectorial), la más simple de hecho, la base
canoníca.

 Esta base, que es adecuada para algunas manipulaciones inmediatas de


polinomios como nombrábamos en la sección anterior (derivación e integración
por ejemplo), no es, sin embargo, la más adecuada para construir en principio
el polinomio interpolador.

 Vimos que resultaba útil incluir los propios nodos del problema en los
polinomios a construir, de modo que en este parágrafo adoptamos una solución
intermedia:

 Expresaremos el polinomio P(x) que interpola a las abscisas x0, x1, . . . ,


xn, como una combinación lineal del siguiente conjunto de
polinomios {             0(x),      1(x), . . . ,            n(x)} siendo:

             0(x) = 1,

                1(x) = (x − x0),

                2(x) = (x − x0)(x − x1),

                3(x) = (x − x0)(x − x1)(x − x2),

                n(x) = (x − x0)(x − x1)(x − x2) · · · (x − xn−1)

 Este conjunto es otra base del espacio de <n[x] por tener n + 1 elementos
linealmente independientes (obsérvese que con este método cada problema
requiere una base distinta, en función de los nodos xi que nos dan, y que el
cálculo de cada sirve para el siguiente.)

4.3 Regresión por mínimos cuadrados: Lineal y Cuadrática.


MÉTODO DE CUADRADOS MÍNIMOS – REGRESIÓN LINEAL. Hemos
enfatizado sobre la importancia de las representaciones gráficas y hemos visto
la utilidad de las versiones linealizadas de los gráficos (X, Y) junto a las
distintas maneras de llevar a cabo la linealización. A menudo nos confrontamos
con situaciones en las que existe o suponemos que existe una relación lineal
entre las variables X e Y.

Surge de modo natural la pregunta: ¿cuál es la relación analítica que mejor se


ajusta a nuestros datos? El método de cuadrados mínimos es un procedimiento
general que nos permite responder esta pregunta. Cuando la relación entre las
variables X e Y es lineal, el método de ajuste por cuadrados mínimos se
denomina también método de regresión lineal.

Observamos o suponemos una tendencia lineal entre las variables y nos


preguntamos sobre cuál es la mejor recta:

y(x) = a x + b

Que representa este caso de interés. Es útil definir la función:

Que es una medida de la desviación total de los valores observados yi respecto


de los predichos por el modelo lineal a x + b. Los mejores valores de la
pendiente a y la ordenada al origen b son aquellos que minimizan esta
desviación total, o sea, son los valores que remplazados en la Ec.(1) minimizan
la función 2 . Ec.(2). Los parámetros a y b pueden obtenerse usando técnicas
matemáticas que hacen uso del cálculo diferencial. Aplicando estas técnicas, el
problema de minimización se reduce al de resolver el par de ecuaciones:

Actualmente, la mayoría de los programas de análisis de datos y planillas de


cálculo, realizan el proceso de minimización en forma automática y dan los
resultados de los mejores valores de a y b, o sea los valores indicados por las
ecuaciones.

Gráfico de datos asociados a un modelo lineal. La cantidad yi - y(xi)


representa la desviación de cada observación de yi respecto del valor predicho
por
el modelo y(x).

El criterio de mínimos cuadrados reemplaza el juicio personal de quien mire los


gráficos y defina cuál es la mejor recta. En los programas como Excel, se
realiza usando la herramienta “regresión lineal” o “ajuste lineal”. Los resultados
se aplican en el caso lineal cuando todos los datos de la variable dependiente
tienen la misma incertidumbre absoluta y la incertidumbre de la variable
independiente se considera despreciable.

REGRESIÓN MÍNIMO-CUADRÁTICA

Consiste en explicar una de las variables en función de la otra a través de un


determinado tipo de función (lineal, parabólica, exponencial, etc.), de forma que
la función de regresión se obtiene ajustando las observaciones a la función
elegida, mediante el método de Mínimos-Cuadrados (M.C.O.).

Elegido el tipo de función ¦ ( ) la función de regresión concreta se obtendrá


minimizando la expresión:

 (yj - ¦ (xi ) ) 2. nij en el caso de la regresión de Y/X

 (xi - ¦ (yj ) ) 2. nij en el caso de la regresión de X/Y

Puede probarse que es equivalente ajustar por mínimos cuadrados la totalidad


de las observaciones (toda la nube de puntos) que realizar el ajuste de los
puntos obtenidos por la regresión de la media; de forma que la regresión
mínimo-cuadrática viene ser, en cierto modo, la consecución de una expresión
analítica operativa para la regresión en sentido estricto.

Coeficientes de regresión.

Se llama coeficiente de regresión a la pendiente de la recta de regresión:

en la regresión Y/X : b = Sxy / Sx2

en la regresión X/Y b' = Sxy / Sy2

El signo de ambos coincidirá con el de la covarianza, indicándonos la tendencia


(directa o inversa a la covariación).Es interesante hacer notar que b.b'= r2

BONDAD DEL AJUSTE (Varianza residual, varianza de la regresión y


coeficiente de determinación)

Por bondad del ajuste hay que entender el grado de acoplamiento que existe
entre los datos originales y los valores teóricos que se obtienen de la regresión.
Obviamente cuanto mejor sea el ajuste, más útil será la regresión a la
pretensión de obtener los valores de la variable regresando a partir de la
información sobre la variable regresora .

Obtener indicadores de esta bondad de ajuste es fundamental a la hora de


optar por una regresión de un determinado tipo u otro.

Puesto que la media de los residuos se anula, el primer indicador de la bondad


del ajuste (no puede ser el error medio) será el error cuadrático medio, o
varianza del residuo, o varianza residual :

Considerando la regresión Y/X:


Que será una cantidad mayor o igual que cero.De forma que cuanto más baja
sea mejor será el grado de ajuste.Si la varianza residual vale cero el ajuste
será perfecto (ya que no existirá ningún error ).

Del hecho de que yi=y*i+ei ,y de que las variables y* ý e están


incorrelacionadas se tiene que:

Donde S2y* es la llamada varianza de la regresión y supone la varianza de la


variable regresión:

Igualdad fundamental anterior de la que se deduce que la varianza total de la


variable y puede descomponerse en dos partes una parte explicada por la
regresión( la varianza de la regresión) y otra parte no explicada (la varianza
residual).

Considerando que la varianza nos mide la dispersión de los datos este hecho
hay que entenderlo como que la dispersión total inicial queda, en parte
explicada por la regresión y en parte no.Cuanto mayor sea la proporción de
varianza explicada (y menor la no explicada) tanto mejor será el ajuste y tanto
más útil la regresión.

A la proporción de varianza explicada por la regresión se le llama coeficiente de


determinación ( en nuestro caso lineal):

que evidentemente estará siempre comprendido entre 0 y 1 y, en


consecuencia, da cuenta del tanto por uno explicado por la regresión.

Una consecuencia importante en la práctica es que la varianza residual será


obviamente:

Es sencillo probar que en el caso lineal que nos ocupa el coeficiente de


determinación coincide con el cuadrado del coeficiente de correlación: R2 = r2

Con lo cual la varianza residual y la varianza debida a la regresión pueden


calcularse a partir del coeficiente de correlación:

REGRESIÓN MÍNIMO CUADRÁTICA NO-LINEAL

La regresión mínimo-cuadrática puede plantearse de forma que la función de


ajuste se busca no sea una función lineal. El planteamiento general sería
similar, aunque obviamente habría que minimizar el cuadrado de los residuos
entre los datos originales y los valor teóricos obtenibles a través de la función
no-lineal considerada.

Regresión parabólica .Desarrollaremos someramente la regresión Y/X y debe


quedar claro que la regresión X/Y resultaría análoga.

Supongamos para simplificar que los datos no están agrupados por


frecuencias.

En tal caso, obtener la función parabólica y* = a0+a1x+a2 x2 se llevará a cabo


determinado los valores de los tres parámetros a0,a1,a2 que minimicen :

y (a0,a1,a2)=S (yi- (a0+a1x+a2 x2)) 2

Igualando a cero las tres derivadas parciales se obtendrá las ecuaciones


normales, que convenientemente manipuladas acaban siendo:

 yj =N a0 + a1  xi + a2 xi2

yjxi = a0  xi + a1  xi2 + a2  xi3

 yjxi2 = a0   xi2 + a1  xi3 + a2  xi4

Sistema de ecuaciones del que se pueden despejar los valores de los


coeficientes de regresión.
4.4 Aplicaciones.
Se puede utilizar en el cálculo de estructuras, instalaciones eléctricas,
hidráulicas y sanitarias, en cálculos de carreteras, topografía y hasta en diseño
de las estructuras, no en todos los casos pero principalmente cuando hay mala
toma de datos o haya datos faltantes.

En el subcampo matemático del análisis numérico, un spline es una curva


diferenciable definida en porciones mediante polinomios.

En los problemas de interpolación, se utiliza a menudo la interpolación


mediante splines porque da lugar a resultados similares requiriendo solamente
el uso de polinomios de bajo grado, evitando así las oscilaciones, indeseables
en la mayoría de las aplicaciones, encontradas al interpolar mediante
polinomios de grado elevado.

Para el ajuste de curvas, los splines se utilizan para aproximar formas


complicadas. La simplicidad de la representación y la facilidad de cómputo de
los splines los hacen populares para la representación de curvas en
informática, particularmente en el terreno de los gráficos por ordenado.
 Tenemos los siguientes 3:
· Interpolación Segmentaría Lineal
· Interpolación Segmentaría Cuadrática
· Interpolación Segmentaría Cúbica

También podría gustarte