0% encontró este documento útil (0 votos)
46 vistas22 páginas

Métodos para Solucionar Ecuaciones

Este documento describe varios métodos para resolver ecuaciones, incluyendo el método de bisección, el cual divide repetidamente un intervalo en la mitad para encontrar una raíz, y el método de aproximaciones sucesivas que genera sucesiones convergentes hacia una solución.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
46 vistas22 páginas

Métodos para Solucionar Ecuaciones

Este documento describe varios métodos para resolver ecuaciones, incluyendo el método de bisección, el cual divide repetidamente un intervalo en la mitad para encontrar una raíz, y el método de aproximaciones sucesivas que genera sucesiones convergentes hacia una solución.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd

Unidad II: Métodos de solución de ecuaciones

2.1 Métodos de intervalo


Los siguientes métodos requieren que las funciones sean diferenciales, y por lo tanto
continuas, en un intervalo donde se apliquen aquéllas, por lo tanto, estos tipos de
métodos son llamados "Métodos de Intervalos". También se puede intentar utilizarlos
para funciones no diferenciales o discontinuas en algunos puntos, pero en este caso el
llegar al resultado dependerá, aleatoriamente, de que durante la aplicación del método
no se toquen esos puntos.

El problema de obtener las soluciones o raíces de una ecuación algebraica o trascendente


de la forma F(x)=0 se representa frecuentemente dentro el campo de la ingeniería.

Se puede definir a la raíz de una ecuación como el valor de x que hace a f(x) = 0.

Así, que un método simple para obtener a la raíz de la ecuación f(x)=0, consiste en graficar
la función y observar donde cruza el eje x. Por eso estos tipos de métodos, son
llamados "Métodos gráficos"

Debido a ello, el desarrollo de métodos que nos permiten solucionarlo es amplio; en


esta unidad presentamos algunos para determinar las raíces reales o complejas de
ecuaciones de este tipo, tales como:

2.2 Método de bisección

El método de la bisección o también llamado Método de Bolzano, parte de una función


F(x) y un intervalo [x1,x2] tal que F(x1) y F(x2) tienen signos contrarios. Si la función es
continua en este intervalo, entonces existe una raíz de F(x) entre x1 y x2.
Una vez determinado el intervalo [x1,x2] y asegura la continuidad de la función en dicho
intervalo, se valúa ésta en el punto medio xm del intervalo.

Si F(xm) y F(x1) tiene signos contrarios, se reducirá el intervalo de x1 a xm, ya que dentro
de estos valores se encuentra la raíz buscada. Al repetir este proceso, hasta lograr
que la diferencia entre los dos últimos valores de xm sea menor que una tolerancia
prefijada, el último valor xm será una buena aproximación de la raíz.

Pasos:

1. Elija valores iniciales inferior x1, y superior de x2, que encierren a la raíz, de forma
que la función cambie el signo en el intervalo. Esto se verifica comprobando que
f(x1) f(x2) <0
2. Una aproximación de la raíz se determina mediante: Xr= x1 + x2 / 2
3. Realice las siguientes evaluaciones para determinar en qué subintervalo ésta la
raíz:

 Si f(x1) f(Xr)<0, entonces la raíz se encuentra dentro del subintervalo inferior o


izquierdo. Por tanto, haga X2 = Xr y vuelva al paso 2.
 Si f(x1) f(Xr)>0, entonces la raíz se encuentra dentro del subintervalo superior o
derecho. Por tanto, haga X1 = Xr y vuelva al paso 2.
 Si f(x1) f(Xr) =0, entonces la raíz se igual a Xr; y termina el cálculo.
Referencia: Burden 2.1 p48, Chapra 5.2 p124, Rodríguez 3.1 p36

El método se basa en el teorema del valor intermedio, conocido como método de la


bisección, búsqueda binaria, partición de intervalos o de Bolzano.
Es un tipo de búsqueda incremental en el que:

 el intervalo se divide siempre en la mitad.


 Si la función cambia de signo sobre un intervalo, se evalúa el valor de la función en el
punto medio.
 La posición de la raíz se determina en el punto medio del sub-intervalo, izquierdo o
derecho, dentro del cual ocurre un cambio de signo.
 el proceso se repite hasta obtener una mejor aproximación

La gráfica muestra el proceso en forma animada, observe la forma en que progresivamente


se acercan los puntos [a,b], donde se mantienen valores con signo diferente entre f(a) y f(b).

Observamos la gráfica para una sola iteración y asi describir mejor el método.
Para la primera iteración se tiene como procedimiento que la función tiene un cambio de
signo en el intervalo [a,b].

En intervalo se divide en la mitad, representado por el punto c, obteniendo el sub-intervalo


izquierdo [a,c] o sub-intervalo derecho [c,b].
El sub-intervalo que contiene la función con un cambio de signo, se convierte en el nuevo
intervalo a ser analizado en la siguiente iteración

Cota de Error

Referencia: Teorema 2.1 Burden 9Ed. p,51.

Suponga que f ∈ C[a,b] y f(a)*f(b)<0, f es una función en el intervalo [a,b] y que presenta un
cambio de signo.

cantidad de iteraciones

Referencia: Ejemplo 2 Burden 9Ed. p.52/pdf.62

Determine la cantidad de iteraciones necesarias para resolver

f(x)=x3+4x2−10=0

con exactitud de 10 – 3 en el intervalo [1,2].


2.3 Método de aproximaciones sucesivas

El método de aproximaciones sucesivas consiste en generar funciones convergentes bajo


un esquema iterativo partiendo de la función original, lo cual se soporta con el siguiente
teorema:

El método de las aproximaciones sucesivas es uno de los procedimientos más


importantes y más sencillos de codificar. Supongamos la ecuación

f(x)=0

donde f(x) es una función continua que se desea determinar sus raíces reales. Se
sustituye f(x) por la ecuación equivalente

x=φ(x)

Se estima el valor aproximado de la raíz x0, y se sustituye en el segundo miembro de la


ecuación para obtener x1.

x1=φ(x0)

Poniendo x1 como argumento de φ(x), obtendremos un nuevo número x2, y así


sucesivamente. Este proceso se puede sintetizar en la fórmula.

xn=φ(xn-1) (1)

Si esta secuencia es convergente es decir, tiende hacia un límite, la solución es

El método de iteración se explica geométricamente mediante el gráfico de la figura. Se


dibuja la curva y=φ(x), y la recta y=x, bisectriz del primer cuadrante. La abscisa ξ del punto
de intersección es la raíz buscada.
Un ejemplo típico es la de encontrar la raíz de la ecuación

x=cos(x)

Para encontrar la raíz, se comienza en el punto cualquiera de abscisa x0 dentro del


intervalo (0, π/2), y se traza la línea vertical hasta que interseca la curva, luego, desde
este punto, se traza una línea horizontal hasta que se alcanza la recta bisectriz, este
punto tendrá por abscisa x1. Se traza de nuevo, una línea vertical hasta encontrar a la
curva, y otra línea horizontal hasta encontrar la línea recta, el punto de intersección tiene
de abscisa x2 , y así sucesivamente. Como podemos apreciar en la figura, la sucesión x1, x2,
x3... tiende hacia la raíz ξ de la ecuación buscada.

Tal como nos sugiere la representación gráfica de la función en la figura, la raíz buscada
está en el intervalo 0 a π/2. Tomamos una aproximación inicial a la raíz x0, en dicho
intervalo y aplicamos la fórmula (1). Su codificación no presenta grandes dificultades.

double x=0.5;
while(true){
x=[Link](x);
}

La condición de finalización

Primero, introducimos el valor inicial x, la primera aproximación, calculamos el valor del


coseno de x, el valor devuelto (segunda aproximación), lo guardamos de nuevo en la
variable x, y repetimos el proceso indefinidamente. El código aunque correcto, necesita
terminarse en algún momento, cumpliendo una determinada condición. Cuando el valor
absoluto del cociente entre la diferencia de dos términos consecutivos de la sucesión y
uno de los términos, sea menor que cierta cantidad ε.

Este criterio, no es completamente riguroso, pero es un buen punto de partida para el


estudio de este método. Volvemos a escribir el código incluyendo la condición de
terminación y dentro de una función denominada raiz, a la que se le pasa el valor inicial y
que devuelve la raíz buscada

final double ERROR=0.001;


double raiz(double x0){
double x1;
while(true){
x1=[Link](x0);
if([Link]((x1-x0)/x1)<ERROR) break;
x0=x1;
}
return x0;
}

En primer lugar, fijamos el valor de la constante ε o ERROR. Introducimos la primera


aproximación a la raíz, y la guardamos en la variable x0, calculamos su coseno y
obtenemos la segunda aproximación, la guardamos en la variable x1Verificamos si se
cumple la condición de terminación. En el caso de que no se cumpla, x0 toma el valor
de x1 y se repite el proceso. En el momento en que se cumpla la condición de
terminación, se sale del bucle y la función devuelve la raíz buscada. Como podemos
observar las variables x0 y x1 guardan dos términos consecutivos de la sucesión que tiende
hacia la raíz de la función.

La clase que describe el procedimiento

Queremos que el procedimiento numérico sea independiente de la función f(x) cuya raíz
deseamos averiguar. Para ello, creamos una clase base abstracta
denominada Ecuacion con una función miembro raiz que defina el procedimiento
numérico, y que deje sin definir la función f(x), declarándola abstracta, dejando a las
clases derivadas de Ecuacion la definición de la función f(x) particular.

public abstract class Ecuacion {


protected static final double ERROR=0.001;

public double raiz(double x0){


double x1;
while(true){
x1=f(x0);
if([Link](x1-x0)<ERROR) break;
x0=x1;
}
return x0;
}

abstract public double f(double x);


}

En la clase derivada denominada Funcion se define la función f(x)

public class Funcion extends Ecuacion{


public double f(double x){
return [Link](x);
}
}
Creamos un objeto de la clase derivada y llamamos desde ellos a la función raiz que
describe el procedimiento numérico

public class Aplicacion {


public static void main(String[] args) {
Funcion f1=new Funcion();
[Link]("solucion "+[Link](0.5));
[Link]("solucion1 "+[Link](0.9));
}
}

En las dos primeras llamadas a la función raiz comprobamos que la solución buscada no
depende del valor inicial de partida x0, que en el primer caso es 0.5 y en el segundo caso
es 0.9.

El criterio de convergencia

No todas las ecuaciones pueden resolverse por este método, solamente si el valor
absoluto de la derivada de la función φ(x) en la vecindad de la raíz ξ es menor que la
unidad (la pendiente de la recta bisectriz del primer cuadrante es uno). En la figura,
podemos ver como es imposible encontrar la solución marcada por un puntito negro en
la intersección entre la curva y la recta bisectriz del primer cuadrante, ya que la
sucesión xi diverge.

Por ejemplo, la ecuación

x3-x-1=0

tiene una raíz en el intervalo (1, 2) ya que f(1)=-1<0 y f(2)=5>0. Esta ecuación puede
escribirse de la forma

x=x3-1
En este caso,

φ(x)= x3-1 y su derivada es φ'(x)= 3x2

y por tanto,

φ'(x)≥3 para 1≤x≤2

en consecuencia, no se cumplen las condiciones de convergencia del proceso de


iteración. Si escribimos la ecuación en la forma

como podrá verificar fácilmente el lector, cumple las condiciones de convergencia,


obteniéndose rápidamente un valor aproximado de la raíz buscada.

El método de las aproximaciones sucesivas es uno de los procedimientos más


importantes y más sencillos de codificar. Supongamos la ecuación

f(x)=0

donde f(x) es una función continua que se desea determinar sus raíces reales. Se
sustituye f(x) por la ecuación equivalente

x=φ(x)

Se estima el valor aproximado de la raíz x0, y se sustituye en el segundo miembro de la


ecuación para obtener x1.

x1=φ(x0)

Poniendo x1 como argumento de φ(x), obtendremos un nuevo número x2, y así


sucesivamente. Este proceso se puede sintetizar en la fórmula.

xn=φ(xn-1) (1)

Si esta secuencia es convergente es decir, tiende hacia un límite, la solución ξ es

ξ=limn→∞xn�=lim⁡�→∞��
El método de iteración se explica geométricamente mediante el gráfico de la figura. Se
dibuja la curva y=φ(x), y la recta y=x, bisectriz del primer cuadrante. La abscisa ξ del punto
de intersección es la raíz buscada.

Un ejemplo típico es la de encontrar la raíz de la ecuación

x=cos(x)

Para encontrar la raíz, se comienza en el punto cualquiera de abscisa x0 dentro del


intervalo (0, π/2), y se traza la línea vertical hasta que interseca la curva, luego, desde
este punto, se traza una línea horizontal hasta que se alcanza la recta bisectriz, este
punto tendrá por abscisa x1. Se traza de nuevo, una línea vertical hasta encontrar a la
curva, y otra línea horizontal hasta encontrar la línea recta, el punto de intersección tiene
de abscisa x2 , y así sucesivamente. Como podemos apreciar en la figura, la sucesión x1, x2,
x3... tiende hacia la raíz ξ de la ecuación buscada.

Tal como nos sugiere la representación gráfica de la función en la figura, la raíz buscada
está en el intervalo 0 a π/2. Tomamos una aproximación inicial a la raíz x0, en dicho
intervalo y aplicamos la fórmula (1). Su codificación no presenta grandes dificultades.

double x=0.5;
while(true){
x=[Link](x);
}

La condición de finalización

Primero, introducimos el valor inicial x, la primera aproximación, calculamos el valor del


coseno de x, el valor devuelto (segunda aproximación), lo guardamos de nuevo en la
variable x, y repetimos el proceso indefinidamente. El código aunque correcto, necesita
terminarse en algún momento, cumpliendo una determinada condición. Cuando el valor
absoluto del cociente entre la diferencia de dos términos consecutivos de la sucesión y
uno de los términos, sea menor que cierta cantidad ε.

Este criterio, no es completamente riguroso, pero es un buen punto de partida para el


estudio de este método. Volvemos a escribir el código incluyendo la condición de
terminación y dentro de una función denominada raiz, a la que se le pasa el valor inicial y
que devuelve la raíz buscada

final double ERROR=0.001;


double raiz(double x0){
double x1;
while(true){
x1=[Link](x0);
if([Link]((x1-x0)/x1)<ERROR) break;
x0=x1;
}
return x0;
}

En primer lugar, fijamos el valor de la constante ε o ERROR. Introducimos la primera


aproximación a la raíz, y la guardamos en la variable x0, calculamos su coseno y
obtenemos la segunda aproximación, la guardamos en la variable x1Verificamos si se
cumple la condición de terminación. En el caso de que no se cumpla, x0 toma el valor
de x1 y se repite el proceso. En el momento en que se cumpla la condición de
terminación, se sale del bucle y la función devuelve la raíz buscada. Como podemos
observar las variables x0 y x1 guardan dos términos consecutivos de la sucesión que tiende
hacia la raíz de la función.

La clase que describe el procedimiento

Queremos que el procedimiento numérico sea independiente de la función f(x) cuya raíz
deseamos averiguar. Para ello, creamos una clase base abstracta
denominada Ecuacion con una función miembro raiz que defina el procedimiento
numérico, y que deje sin definir la función f(x), declarándola abstracta, dejando a las
clases derivadas de Ecuacion la definición de la función f(x) particular.

public abstract class Ecuacion {


protected static final double ERROR=0.001;

public double raiz(double x0){


double x1;
while(true){
x1=f(x0);
if([Link](x1-x0)<ERROR) break;
x0=x1;
}
return x0;
}

abstract public double f(double x);


}

En la clase derivada denominada Funcion se define la función f(x)

public class Funcion extends Ecuacion{


public double f(double x){
return [Link](x);
}
}

Creamos un objeto de la clase derivada y llamamos desde ellos a la función raiz que
describe el procedimiento numérico

public class Aplicacion {


public static void main(String[] args) {
Funcion f1=new Funcion();
[Link]("solucion "+[Link](0.5));
[Link]("solucion1 "+[Link](0.9));
}
}

En las dos primeras llamadas a la función raiz comprobamos que la solución buscada no
depende del valor inicial de partida x0, que en el primer caso es 0.5 y en el segundo caso
es 0.9.

El criterio de convergencia

No todas las ecuaciones pueden resolverse por este método, solamente si el valor
absoluto de la derivada de la función φ(x) en la vecindad de la raíz ξ es menor que la
unidad (la pendiente de la recta bisectriz del primer cuadrante es uno). En la figura,
podemos ver como es imposible encontrar la solución marcada por un puntito negro en
la intersección entre la curva y la recta bisectriz del primer cuadrante, ya que la
sucesión xi diverge.
Por ejemplo, la ecuación

x3-x-1=0

tiene una raíz en el intervalo (1, 2) ya que f(1)=-1<0 y f(2)=5>0. Esta ecuación puede
escribirse de la forma

x=x3-1

En este caso,

φ(x)= x3-1 y su derivada es φ'(x)= 3x2

y por tanto,

φ'(x)≥3 para 1≤x≤2

en consecuencia, no se cumplen las condiciones de convergencia del proceso de


iteración. Si escribimos la ecuación en la forma

como podrá verificar fácilmente el lector, cumple las condiciones de convergencia,


obteniéndose rápidamente un valor aproximado de la raíz buscada.
Teorema de convergencia

La raíz de cualquier sub función extraída de una función f(x) obtenida por una iteración
convergente, es también una raíz de f(x).

Ejemplo de aplicación del teorema

Sea f(x) =5senx - 3x, la subfunción sen(x) tiene como raíz x=0, la cual resulta ser también la
raíz de la función f(x).

En este método se requiere de una regla, formula o sub función g(x), con la que se
calculan los términos sucesivos junto con un valor de partida esto produce una
sucesión de valores { } obtenida mediante el proceso iterativo .

2.4 Métodos de interpolación

En el subcampo matemático del análisis numérico, se denomina interpolación a la


obtención de nuevos puntos partiendo del conocimiento de un conjunto discreto de
puntos.
En ingeniería y algunas ciencias es frecuente disponer de un cierto número de puntos
obtenidos por muestreo o a partir de un experimento y pretender construir una función
que los ajuste.
Otro problema estrechamente ligado con el de la interpolación es la aproximación de una
función complicada por una más simple. Si tenemos una función cuyo cálculo resulta
costoso, podemos partir de un cierto número de sus valores e interpolar dichos datos
construyendo una función más simple. En general, por supuesto, no obtendremos los
mismos valores evaluando la función obtenida que si evaluásemos la función original, si
bien dependiendo de las características del problema y del método de interpolación usado
la ganancia en eficiencia puede compensar el error cometido.

Los diferentes métodos de interpolación desarrollados pueden dividirse en dos


tipos fundamentales:

1. Métodos globales, utilizan toda la muestra para estimar el


valor en cada nuevo punto.
2. Métodos locales, utilizan solo los puntos de muestreo más
cercanos.
3.1 Métodos globales
Los métodos globales asumen la dependencia de la variable a interpolar de
otras variables de apoyo. Pueden darse dos situaciones en función del tipo de
variable de apoyo que se utilice:

3.1.1 Métodos de clasificación


La variable de apoyo es cualitativa (usos del suelo, tipos de suelo o roca, etc).
En este caso se asume que la variable adopta en cada punto el valor medio
correspondiente al valor de la variable de apoyo en ese punto. Por ejemplo si se
trata de interpolar el contenido en arcilla de los suelos, puede utilizarse el tipo de
suelo como variable de apoyo y asignar a cada suelo su contenido medio de arcilla
(figura 53). Estos métodos se basan en una serie de premisas que no se cumplen
necesariamente:

1. Las variaciones de Z dentro de las diferentes clases de V son


aleatorias y no autocorrelacionadas espacialmente.
2. Z está normalmente distribuida en cada clase y su media y
varianza es la misma en todas las manchas de una misma clase.
3. Los cambios en la variable Z en las fronteras entre clases se
producen de forma brusca.
El resultado es equivalente a una reclasificación que produce un mapa en el
que los diferentes valores de V se transforman en valores de Z

3.1.2 Métodos de regresión


Implican, como su nombre indica, un análisis de regresión previo a partir del
cual se genera un modelo de interpolación de tipo polinómico. Generalmente se
utilizan X e Y (longitud y latitud) como variables de apoyo ya que no necesitan de
ninguna medición, y también alguna variable cuantitativa V espacialmente
distribuida, un ejemplo habitual es la altitud, y otras variables topográficas
derivadas, por su facilidad de medida, su evidente relación con casi todos los
procesos ambientales y por las posibilidades que un SIG ofrece en cuanto al
tratamiento de la elevación e información derivada. No resulta recomendable
utilizar polonómios de grado mayor que 3 ya que, a pesar de un ajuste cada vez
mejor, se hacen cada vez más sensibles a los valores extremos con lo que cualquier
error en los datos podría generar distorsiones importantes en el resultado final.
Figura 53: Modelos de regresión y clasificación del contenido en arcilla

Figura 54: Interpolación por regresión de la temperatura respecto a la altitud


En ambos casos (clasificación y regresión) se requiere una análisis estadístico
previo para determinar que los datos se ajustan al modelo estadístico implicado.
En el caso de la clasificación que las medias de las diferentes clases son
significativamente diferentes y que las desviaciones típicas dentro de las clases son
pequeñas (figura 53). En el caso de la regresión es necesario verificar que el
coeficiente de correlación es significativamente elevado (figura 54).

El problema de los métodos globales es que sólo consiguen modelizar una


componente a escala global de la estructura de variación, pero no las
componentes a escala más detallada, por tanto se utilizan para filtrar esa
componente global y eliminarla de los valores medidos para, posteriormente,
estimar tan sólo la componente local mediante métodos locales.

3.2 Métodos locales basados en medias ponderadas


Los métodos locales se basan en la utilización de los puntos más cercanos
al punto de interpolación para estimar la variable Z en este, llamaremos al
conjunto de puntos más cercanos conjunto de interpolación. Asumen
autocorrelación espacial y estiman los valores de Z como una media ponderada de
los valores de un conjunto de puntos de muestreo cercanos. Exigen tomar una
serie de decisiones:

o
Figura 57: Interpolación por kriggeado
Uno de los problemas más importantes de los métodos basados en medias
ponderadas es que, como su propio nombre indica, interpolan basándose en el
valor medio de un conjunto de puntos situados en las proximidades, por tanto
nunca se van a obtener valores mayores o menores que los de los puntos
utilizados para hacer la interpolación. En consecuencia no se van a interpolar
correctamente máximos o mínimos locales y además los puntos de muestreo
aparecen en el mapa final como máximos y mínimos locales erroneos. En la
figura 58 se muestra un ejemplo en una sola dimensión tratando de interpolar el
valor de Z en el punto de coordenada X = 7, como puede verse el método de media
ponderada por inverso de la distancia genera un valor poco razonable entorno a
15 (la X roja) dada la tendencias observada en los puntos.

3.3 Interpolación local por splines


El método de los splines ajusta funciones polinómicas en las que las variables
independientes son X e Y. Es similar a una interpolación global mediante regresión,
pero ahora esta interpolación se lleva a cabo localmente. En general producen
resultados muy buenos con la ventaja de poder modificar una serie de parámetros
en función del tipo de distribución espacial de la variable.

La técnica de splines consiste en el ajuste local de ecuaciones polinómicas en


las que las variables independientes son X e Y. La forma de la superficie final va a
depender de un parámetro de tensión que hace que el comportamiento de la
superficie interpolada tienda a asemejarse a una membrana más o menos tensa o
aflojada qure pasa por los puntos de observación.
La ventaja fundamental del método de splines respecto a los basados en
medias ponderadas es que, con estos últimos, los valores interpolados nunca
pueden ser ni mayores ni menores que los valores de los puntos utilizados para
interpolar. Por tanto resulta imposible interpolar correctamente máximos y
mínimos. En la figura 58 podemos ver como el método de splines genera en este
caso una estimación mucho mejor, el valor de la curva a su paso por X=7, al menos
visualmente, que da un valor en torno a 18.

3.4 Interpolación local mediante TIN


Las Redes Irregulares de Triángulos (TIN son las iniciales en inglés) se generan a
partir de valores puntuales tratando de conseguir triángulos que maximicen la
relación área/perímetro, el conjunto de todos los triángulos forma un objeto
geométrico denominado conjunto convexo. Suelen utilizarse como método para
representar modelos de elevaciones (y producen resultados visualmente muy
buenos) sin embargo a la hora de integrarlos con el resto de la información raster
es necesario interpolar una capa raster a partir de los triángulos (figuras 61 y 62).
Esta interpolación se basa en que cada uno de los tres vértices de los triángulos
tienen unos valores X, Y y Z a partir de los cuales puede obtenerse un modelo de
regresión Z = AX + BY + C que permite interpolar la variable Z en cualquier punto
del rectángulo. En definitiva puede asimilarse a un método de media ponderada
por inverso de la distancia ya que el resultado siempre va estar acotado por los
valores máximo y mínimo de Z en los vértices del triángulo y será más parecido al
del vértice más cercano. En el resultado final de una interpolación TIN no aparecen
artefactos circulares, como en los de inverso de la distancia puros, pero si
aparecen artefactos triangulares.

Figura 61: Interpolación dentro de uno de los triángulos de un TIN


En el ejemplo de la figura 55 el punto de interpolación estaría en el triángulo
formado por los puntos 3,4 y 5, lo que significa que sus coeficientes de
ponderación serían (aplicando la ecuación 35 con k = 1): W3 = 0.395, W4 =
0.237, W5 = 0.367 Z = 45.1.

Figura 62: Interpolación mediante Red Irregular de Triángulos


El conjunto convexo así generado tiene otra utilidad, define el área en la que es
razonable interpolar dada la muestra de puntos disponible.
2.5 Aplicaciones

También podría gustarte