UNIVERSIDAD LAICA “ELOY ALFARO” DE MANABÍ
NOMBRE:
BARRE MUÑOZ ROBERTH ALEXANDER
CURSO:
4° “A”
MATERIA:
MÉTODOS NUMÉRICOS
PROFESOR(A):
ING, ADRIANA VIRGINIA MACIAS ESPINALES
2019(2)
Métodos
1. Método de Jacobi
La forma más conveniente de expresar estos métodos es usar la notación matricial. La matriz A
se divide en tres partes, correspondientes a los tres conjuntos de coeficientes. La ecuación AX = B
será (L D+ + U X) = B donde L es una matriz triangular inferior con ceros en la diagonal, D es la
matriz diagonal que contiene los elementos de la diagonal de A, y U es una matriz triangular
superior con ceros en la diagonal (Gutiérrez, Olmos, & Casillas, 2010).
El método de Jacobi para la r-ésima iteración se escribe como sigue
El método de Jacobi converge para matrices A que son diagonalmente dominantes, en el sentido
que es matemáticamente preciso. Para determinar si el método es convergente, si se tiene que la
matriz de iteración
además de un término aditivo, D B−1 , mapea un conjunto de X en el siguiente. Esta matriz de
iteración tiene valores propios, cada uno de los cuales refleja el factor por el que se suprime durante
una iteración el valor propio particular de algún residual no deseado. Es evidente que estos factores
tienen un módulo menor que 1. Con módulo menor que uno. La rapidez de convergencia de este
método está dada por la rapidez de disminución del valor propio más lento: es decir, el factor con
el módulo más grande. El módulo de este factor está, por consiguiente, entre 0 y 1, y se le llama
radio espectral del operador de relajación (p). El número de iteraciones (r) necesarias para reducir
el error total por un factor (10-p) se estima por:
En el límite, cuando (ρs) tiende a 1, el sistema está en el punto de ruptura. Aquí puede o no
converger, dependiendo de las condiciones iniciales. La idea de iterar se puede aplicar fácilmente
a ecuaciones simultáneas lineales. Esto se ilustra mediante un ejemplo numérico. El código
desarrollado en Matlab de este método se proporciona en la sección 4.6.10.
Planteamiento del problema. Mediante el método de Jacobi, resolver el conjunto de ecuaciones
lineales dadas por:
Despejando de la primera ecuación la primera variable y así sucesivamente, se obtiene
Si las primeras aproximaciones son x1 = 0, x2 = 0 y x3 = 0 entonces la siguiente iteración es
y las iteraciones sucesivas son
La sustitución de los valores x1 = 2, x2 =1 y x3 = 3 en el sistema inicial demuestra que el proceso
está convergiendo rápidamente a la solución verdadera. Si se utiliza la ecuación (4.51) y la ecuación
(4.52), se tiene que el radio espectral y el número de iteraciones para reducir el error total por un
factor 10−3 () son, respectivamente (ρs = 0.0755) y (r = 3). Es claro que las iteraciones pueden ser
un método muy útil de solución. Se demuestra ahora que éste también puede ser un método
inapropiado en ciertas circunstancias. Las ecuaciones del ejemplo 4.9 se pueden tomar en un orden
diferente, por ejemplo
Con este acomodo, el radio espectral del sistema es (ρs = 27 7802.), lo cual lo hace divergente.
Si se calcula el número de iteraciones con la ecuación (4.52), se obtiene un número negativo, lo
cual no tiene sentido. A continuación se muestra que esta forma de ordenar las ecuaciones es
divergente, resolviendo el sistema numéricamente. Despejando de la primera ecuación la primera
variable y así sucesivamente, se obtiene
Utilizando los valores x1 = 0, x2 = 0 y x3 = 0 para la primera aproximación, se obtienen las
aproximaciones sucesivas
y no hay posibilidad de que esta secuencia converja a los valores x1 = 2, x2 =1 y x3 = 3. Por
tanto, es crucial obtener algún conocimiento para que se pueda asegurar que las iteraciones
converjan. El método anterior, conocido como método de Jacobi, rara vez se usa porque existen
varias mejoras que se pueden utilizar para elevar la rapidez de convergencia. Sin embargo, si se
cuenta con una computadora que efectúe cálculos en paralelo, se recomienda este método por ser
altamente paralelizable.
2. Método de Gauss-Seidel
Los métodos iterativos constituyen una alternativa a los métodos de eliminación descritos
hasta ahora, para aproximar la solución. Tales métodos son similares a las técnicas
que se desarrollaron en el capítulo 6 para obtener las raíces de una sola ecuación. Aquellos
métodos consistían en suponer un valor y luego usar un método sistemático para
obtener una aproximación mejorada de la raíz. Como esta parte del libro trata con un
problema similar (obtener los valores que simultáneamente satisfagan un conjunto de
ecuaciones). Entonces se esperaría que tales métodos aproximados fuesen útiles en este
contexto (Chapra & Canal, 2007).
El método de Gauss-Seidel es el método iterativo más comúnmente usado. Suponga que se da
un sistema de n ecuaciones:
[A]{X} = {B}
Suponga que se limita a un conjunto de ecuaciones de 3 × 3. Si los elementos de la diagonal no
son todos cero, la primera ecuación se puede resolver para x1, la segunda para
x2 y la tercera para x3, para obtener
Ahora, se puede empezar el proceso de solución al escoger valores iniciales para
las x. Una forma simple para obtener los valores iniciales es suponer que todos son cero.
Estos ceros se sustituyen en la ecuación (11.5a), la cual se utiliza para calcular un nuevo
valor x1 = b1/a11. Después, se sustituye este nuevo valor de x1 junto con el valor previo
cero de x3 en la ecuación (11.5b) y se calcula el nuevo valor de x2. Este proceso se repite
con la ecuación (11.5c) para calcular un nuevo valor de x3. Después se regresa a la primera
ecuación y se repite todo el procedimiento hasta que la solución converja suficientemente cerca
a los valores verdaderos. La convergencia se verifica usando el criterio
para todas las i, donde j y j – 1 son las iteraciones actuales y previas, respectivamente.
Planteamiento del problema. Use el método de Gauss-Seidel para obtener la solución
del sistema usado en el ejemplo 11.1:
Recuerde que la verdadera solución es x1 = 3, x2 = –2.5 y x3 = 7.
Solución. Primero, despeje la incógnita sobre la diagonal para cada una de las ecuaciones.
Suponiendo que x2 y x3 son cero, se utiliza la ecuación (E11.3.1) para calcular
Este valor, junto con el valor de x3 = 0, se sustituye en la ecuación (E11.3.2) para calcular
La primera iteración termina al sustituir los valores calculados para x1 y x2 en la ecuación
(E11.3.3) para dar
En la segunda iteración, se repite el mismo proceso para calcular
El método es, por lo tanto, convergente hacia la verdadera solución. Es posible aplicar
iteraciones adicionales para mejorar los resultados. Sin embargo, en un problema real, no se
podría saber a priori el resultado correcto. En consecuencia, la ecuación (11.6) nos da un medio
para estimar el error. Por ejemplo, para x1,
Para x2 y x3, los errores estimados son ⎪ea,2⎪ = 11.8% y ⎪ea,3⎪ = 0.076%. Observe que,
como cuando se determinaron las raíces de una sola ecuación, las formulaciones como la
ecuación (11.6) usualmente ofrecen una valoración conservativa de la convergencia. Así,
cuando éstas se satisfacen, aseguran que el resultado se conozca con, al menos, la tolerancia
especificada por Es.
3. Interpolación por polinomios de Newton
Hay ocasiones en las que resulta útil construir varios polinomios aproximantes P1(x), P2(x), ...,
PN(x) y, después, elegir el más adecuado a nuestras necesidades. Si usamos los polinomios de
interpolación de Lagrange, uno de los inconvenientes es que no se pueden utilizar los cálculos
realizados en la construcción de PN-1(x) para la de PN(x); cada polinomio debe construirse
individualmente y para calcular polinomios de grado elevado es necesario hacer muchas
operaciones. Vamos a seguir ahora un camino de construcción distinto, en el cual los polinomios
de interpolación, que se llamaron de Newton, se calculan mediante un esquema recursivo:
El polinomio PN(x) se obtiene a partir de PN-1(x) usando la recurrencia:
El polinomio PN(x) calculado así es el polinomio de interpolación de Newton (Rodrigo, 2008).
4. Diferenciación numérica
Euler
Una de las técnicas más simples para aproximar soluciones de una ecuación diferencial es el
método de Euler o de las rectas tangentes.
Este se obtiene de considerar una aproximación lineal a la para la solución exacta Y (x) del
problema de valor inicial.
La aproximación lineal de Y 0(x) se representa como:
de donde, despejando Y (x + h) obtenemos:
Denotando Y (x+h) como yn+1 y f[x, y(x)] por f(xn, yn) obtenemos la fórmula del método de
Euler (Itzel, 2013).
Referencias
Chapra, S., & Canal, R. (2007). Métodos numéricos para ingenieros(Quinta edición). México:
McGRAW-HILL/INTERAMERICANA EDITORES, S.A. DE C.V.
Gutiérrez, J., Olmos, M., & Casillas, J. (2010). Análisis numérico. México: McGRAW-
HILL/INTERAMERICANA EDITORES, S.A. DE C.V.
Itzel, C. (2013). Obtenido de
[Link]
[Link]?response-content-
disposition=inline%3B%20filename%3DMETODOS_NUMERICOS.pdf&X-Amz-
Algorithm=AWS4-HMAC-SHA256&X-Amz-
Credential=AKIAIWOWYYGZ2Y53UL3A%2F20200202%2Fus-east-1%2Fs3%2Fa
Rodrigo, R. (2008). Obtenido de
[Link]