Métodos Numéricos: Unidad 1
Métodos Numéricos: Unidad 1
Métodos numéricos
Unidad 1
Cifras significativas: Las cifras significativas de un número son aquellas que pueden usarse de
manera confiable. Las cifras significativas pueden usarse como criterio para especificar qué tan
confiables son los resultados que nos da un método numérico.
Exactitud: Se refiere a qué tan cercano está el valor calculado o medido del valor verdadero.
Precisión: Se refiere a qué tan cercanos se encuentran, unos de otros. Diversos valores calculados
o medidos.
Inexactitud o Sesgo: Se define como una desviación sistemática del valor verdadero.
Definiciones de Error
Errores de redondeo: Se producen cuando se usan números que tienen un límite de cifras
significativas para representar números exactos.
(𝑒𝑟𝑟𝑜𝑟 𝑣𝑒𝑟𝑑𝑎𝑑𝑒𝑟𝑜)
Error relativo porcentual verdadero: 𝜀𝑡 = ∗ 100
𝑣𝑎𝑙𝑜𝑟 𝑣𝑒𝑟𝑑𝑎𝑑𝑒𝑟𝑜
(𝑒𝑟𝑟𝑜𝑟 𝑎𝑝𝑟𝑜𝑥𝑖𝑚𝑎𝑑𝑜)
𝜀𝑎 = ∗ 100
𝑣𝑎𝑙𝑜𝑟 𝑎𝑝𝑟𝑜𝑥𝑖𝑚𝑎𝑑𝑜
(𝑎𝑝𝑟𝑜𝑥𝑖𝑚𝑎𝑐𝑖ó𝑛 𝑎𝑐𝑡𝑢𝑎𝑙−𝑎𝑝𝑟𝑜𝑥𝑖𝑚𝑎𝑐𝑖ó𝑛 𝑎𝑛𝑡𝑒𝑟𝑖𝑜𝑟)
𝜀𝑎 = ∗ 100, para métodos
𝑎𝑝𝑟𝑜𝑥𝑖𝑚𝑎𝑐𝑖𝑜𝑛 𝑎𝑐𝑡𝑢𝑎𝑙
iterativos.
|𝜀𝑎 | < 𝜀𝑠
𝜀𝑠 = (0.5 ∗ 102−𝑛 )%
Binario
Punto Flotante
Forma en la que representa la computadora las cantidades fraccionarias, está lo hace con una
parte fraccionaria llamada mantisa (𝒎) y una parte entera llamada exponente (𝒆).
𝑚 ∗ 𝑏𝑒
*La mantisa es normalizada si tiene primero cero dígitos (esto permite guardar más cifras
significativas). Por Ej: 0,1234 ∗ 10−1 en vez de 0,0123 ∗ 100, usando base 10.
Esto nos permite que tanto fracciones como números muy grandes puedan ser representados. El
uso de representación de punto flotante introduce error de redondeo, ya que la mantisa conserva
un número finito de cifras significativas (que depende de la cantidad de bits que se disponga).
Ej: número positivo de punto flotante más pequeño posible con 7 bits de base 2 utilizando los primeros dos
bits para los signos de la mantisa y el exponente, los siguientes dos para la magnitud del exponente y los
últimos tres para la magnitud de la mantisa normalizada.
El rango de cantidades que se puede representar es limitado. Hay números más grandes o
más chicos de los que pueden ser representados con la cantidad de bits que tenemos a mano,
overflow y underflow.
Existe un número finito de cantidades que puede representarse dentro de un rango. Cuando
se quiera guardar en un punto flotante un número que no puede ser representado
exactamente por el punto flotante en cuestión estos se guardaran como la cantidad más
cercana a esta que si pueda representarse, empleando redondeo o corte . Este error es
conocido como error de cuantificación.
*Corte: Para cualquier cantidad que esté dentro de un intervalo de longitud ∆𝑥, esta se
representara como la cantidad en el extremo inferior del intervalo.
*Redondeo: Cualquier cantidad en un intervalo ∆𝑥, se representara como la cantidad más
cercana permitida.
El intervalo entre dos cantidades que se pueden representarse en un punto flotante (∆𝒙)
aumenta a medida que estas crecen en magnitud.
Error de cuantificación: Este error es directamente proporcional a ∆𝑥. Tenemos dos casos:
|∆𝑥|
≤ ℰ
|𝑥|
|∆𝑥| ℰ
≤
|𝑥| 2
Errores de truncamiento
Serie de Taylor: Nos permite predecir el valor de una función (continua y diferenciable) en un
punto en términos del valor de la función y sus derivadas en otro punto.
Con residuo:
La expansión de la serie de Taylor de n-ésimo orden es exacta para un polinomio del mismo
orden. Para otro tipo de funciones se necesitaría un número infinitos de términos para qué la
expansión sea exacta.
Inconvenientes de la serie de Taylor: No se conoce ℰ con exactitud, solo que se encuentra entre
𝑥𝑖 y 𝑥𝑖+1 (por teorema de valor medio) y se requiere de la n-ésima primera derivada de 𝑓(𝑥). Por
lo tanto lo único que sabemos es que 𝑹𝒏 = 𝑶(𝒉𝒏+𝟏 )
*La “O” indica que una proporcionalidad directa con lo que hay en su argumento.
Error numérico total: Es la suma de los errores de truncamiento y de redondeo. La relación que
hay entre estos es que a medida que disminuye uno aumenta el otro, a estos los determina el
tamaño del paso (ℎ).
5
Unidad 2
Métodos cerrados
Son métodos que para encontrar una raíz se valen del cambio de signo que tiene una función en
la vecindad de esta. Para estos tipos de métodos se necesitan de dos valores iniciales qué deben
“encerrar” la raíz. Siempre generan aproximaciones cada vez más cercanas a la raíz, son métodos
convergentes.
Criterio: Si 𝑓(𝑥) es una función real y continúa en el intervalo delimitado por 𝑥𝑙 y 𝑥𝑢 , entonces sí:
Criterio de paro: Se utiliza como criterio de paro para detener los cálculos, cuando 𝜀𝑎 < 𝜀𝑠 ; donde
𝜀𝑠 es un valor prefijado. Siempre el 𝜺𝒂 es mayor a 𝜺𝒕 (error relativo porcentual verdadero). Por lo
tanto lo que estamos asegurando con este criterio es 𝜀𝑡 < 𝜀𝑠 que es lo que realmente buscamos.
Método de bisección
Es un método de búsqueda incremental, es decir el método repite el proceso hasta obtener una
mejor aproximación. La posición de la raíz (𝑥𝑟 ) se determina situándola en el punto medio del
subintervalo, dentro del cual ocurre un cambio de signo. Los pasos a seguir son:
Estimaciones de errores: para este método podemos el error relativo porcentual aproximado nos
queda:
𝑥𝑟𝑛𝑢𝑒𝑣𝑜 − 𝑥𝑟𝑎𝑛𝑡𝑒𝑟𝑖𝑜𝑟 𝑥𝑢 − 𝑥𝑙
𝜀𝑎 = | 𝑛𝑢𝑒𝑣𝑜 | ∗ 100 = | | ∗ 100
𝑥𝑟 𝑥𝑢 + 𝑥𝑙
Numero de iteraciones: La cantidad de iteraciones se puede calcular a priori, debido a que cada
iteración reduce el error asociado a la iteración cero (antes de ejecutar el método), ∆𝑥 0 , a la
mitad. La ecuación que relaciona el error y el número de iteraciones, n, es:
∆𝒙𝟎 ∆𝒙𝟎
𝑬𝒏𝒂 = 𝟐𝒏
, 𝑑𝑒 𝑑𝑜𝑛𝑑𝑒 𝑠𝑒 𝑑𝑒𝑠𝑝𝑒𝑗𝑎 𝒏 = 𝒍𝒐𝒈𝟐 ( 𝑬𝒏 )
𝒂
Pseudocodigo:
7
A este método se lo conoce también como “regula falsi” o como “método de interpolación lineal”.
Consiste en unir 𝑓(𝑥𝑙 ) y 𝑓(𝑥𝑢 ) con una recta
𝑓(𝑥𝑙 ) 𝑓(𝑥𝑢 )
=
𝑥𝑟 − 𝑥𝑙 𝑥𝑢 − 𝑥𝑟
Despejando:
𝑓(𝑥𝑢 )(𝑥𝑙 − 𝑥𝑢 )
𝑥𝑟 = 𝑥𝑢 −
𝑓(𝑥𝑙 ) − 𝑓(𝑥𝑢 )
Pseudocodigo:
8
Iteración 𝑥𝑙 𝑓(𝑥𝑙 ) Para poder generar B3 y los siguientes a él, deberemos emplear la
0 A1 B1 función “SI (condición; caso verdadero; caso falso)” de la siguiente
1 A2 B2 manera:
2 A3 B3
Donde:
Métodos abiertos
Son métodos que se basan en fórmulas que requieren de un valor inicial o dos que no
necesariamente encierran una raíz. En algunos casos divergen pero cuando convergen suelen
hacerlo mucho más rápido que los métodos cerrados.
𝑥 = 𝑔(𝑥)
Este método nos permite obtener una nueva aproximación a la raíz"𝑥", a partir de una
aproximación anterior:
𝒙𝒊+𝟏 = 𝒈(𝒙𝒊 )
𝒙𝒊+𝟏 −𝒙𝒊
Error relativo porcentual aproximado: 𝜺𝒂 = | 𝒙𝒊+𝟏
| ∗ 𝟏𝟎𝟎
Convergencia: El error relativo porcentual disminuye por un factor de 0,5 – 0,6 por cada iteración,
esto se lo conoce como convergencia lineal. Un método grafico para observar la convergencia o
divergencia consiste en graficar las curvas 𝑥 y 𝑔(𝑥). Los valores de 𝑥 correspondientes a las
intersecciones de estas curvas son las raíces de 𝑓(𝑥) = 0. La convergencia y divergencia pueden
ser:
𝑎) Convergencia
monótona
𝑏) Convergencia
oscilatoria
𝑐) Divergencia monótona
𝑑) Divergencia oscilatoria
11
*Notar que la convergencia ocurre cuando |𝒈´(𝒙)| < 𝟏 nos garantiza de que 𝜀𝑎 disminuya con
cada iteración. (Se puede llegar a esto restando, 𝑥𝑖+1 = 𝑔(𝑥𝑖+1 ) a 𝑥𝑟 = 𝑔(𝑥𝑟 ) y usando el TVM)
Método Newton-Raphson
Utiliza un valor inicial 𝑥𝑖 que utiliza para trazar una recta tangente desde el puntos [𝒙𝒊 , 𝒇(𝒙𝒊 )]
sobre la curva. Donde corta la recta tangente con el eje de abscisas (x), representa una
aproximación mejorada de la raíz.
𝑓´´(ℰ)
(𝑥 − 𝑥𝑖 )2
2!
Errores: Para calcular el error verdadero del método restamos la serie de Taylor de la función
valuada en su raíz 𝑓(𝑥𝑟 ), con su la aproximación (recta), 𝑓(𝑥𝑖+1 ). Queda:
12
𝑓´´(ℰ)
0 = 𝑓´(𝑥𝑖 )(𝑥𝑟 − 𝑥𝑖+1 ) + (𝑥𝑟 − 𝑥𝑖 )2
2!
𝒇´´(𝓔)
𝑬𝒕,𝒊+𝟏 = (𝑬 )𝟐
𝟐! 𝒇´(𝒙𝒊 ) 𝒕,𝒊
De esto se observa que el error es proporcional al cuadrado del error anterior, este tipo de error
Método de la secante
𝑓(𝑥𝑖−1 ) − 𝑓(𝑥𝑖 )
𝑓´(𝑥𝑖 ) ≅
𝑥𝑖−1 − 𝑥𝑖
𝒇(𝒙𝒊 )(𝒙𝒊−𝟏 − 𝒙𝒊 )
𝒙𝒊+𝟏 = 𝒙𝒊 −
𝒇(𝒙𝒊−𝟏 ) − 𝒇(𝒙𝒊 )
13
Diferencias con el método de la falsa posición: La diferencia que hay entre estos dos métodos es
que el método de la secante reemplaza las aproximaciones, 𝑥𝑖 𝑦 𝑥𝑖−1 , en una secuencia estricta.
Cuando el método de la falsa posición emplea el criterio de los métodos cerrados.
Utiliza un solo valor inicial para aproximar la derivada haciendo uso de un pequeño fraccionario
𝛿 en la variable independiente.
Raíces múltiples
𝑓(𝑥)
𝑢(𝑥) =
𝑓´(𝑥)
El uso 𝑢(𝑥) viene a resolver en el caso de raíces múltiples, donde 𝑓´(𝑥) tiende a aproximarse a
cero cerca de la raíz. Esto que genera una división por cero en los métodos de la secante y
𝑓(𝑥)
Newton-Raphson. Cómo 𝑓(𝑥) tiende a cero más rápido que 𝑓´(𝑥) el cociente 𝑓´(𝑥)
se vuelve cero
antes que se provoque la división por cero.
Raíces de Polinomios
Deflación polinomial
Es el proceso de eliminar una raíz ya encontrada de un polinomio lo que nos permite buscar las
demás raíces de este. Una forma de lograr esto es dividir nuestro polinomio de n-ésimo grado
entre un factor monomial 𝑥 − 𝑡, donde t es la raíz encontrada. Como solo se conoce la raíz de
forma aproximada, la deflación polinomial es sensible al error de redondeo.
Método de Müller
Construye una parábola haciendo uso de tres puntos, el método consiste en obtener los
coeficientes 𝑎, 𝑏 𝑦 𝑐 de la parábola. La parábola debe de pasar por los puntos
𝑓(𝑥0 ), 𝑓(𝑥1 ) 𝑦 𝑓(𝑥2 ), entonces:
15
Despejando:
𝛿 −𝛿
𝑎 = 𝑥1 −𝑥0 𝑏 = 𝛿0 − 𝑎(𝑥0 − 𝑥2 ) 𝑐 = 𝑓(𝑥2 )
1 0
Para hallar la raíz se utilizara una forma alternativa a la fórmula cuadrática (Bascara):
De las dos raíces se elige la raíz que coincida con el signo de 𝒃. Esta elección proporciona el
denominador más grande y por lo tanto una raíz estimada más cercana a 𝑥2 , lo cual disminuye el
error.
𝒙𝟑 −𝒙𝟐
Error relativo porcentual aproximado: 𝜺𝒂 = | 𝒙𝟑
|∗ 𝟏𝟎𝟎
Métodos de eliminación
Eliminación de Gauss: Es una técnica que implica combinación de ecuaciones para eliminar
incógnitas. Se analizaran sistemas de ecuaciones del tipo:
Solución para pequeños sistemas de ecuaciones (𝒏 ≤ 𝟑): Las formas de resolver estos sistemas
de ecuaciones sin el uso de una computadora son las siguientes:
Eliminación hacia adelante: Se multiplican las ecuaciones por escalares y se combinan hasta
obtener una matriz triangular superior o escalón reducida.
Por lo que para cada incógnita, 𝑥𝑖 , se la elimina desde la i-ésima primera hasta la n-ésima
ecuación; con 𝑖 = 1,2, … , 𝑛. Para lograr esto se resta la i-ésima ecuación multiplicada por 𝑎𝑗𝑖 /𝑎𝑖𝑖 a
la j-ésima ecuación, para 𝑗 = 𝑖 + 1, 𝑖 + 2, … , 𝑛. Obteniendo como resultado:
La i-ésima ecuación recibe el nombre de ecuación pivote y 𝑎𝑖𝑖 coeficiente o elemento pivote.
Sustitución hacia atrás: Se empiezan a despejar las incógnitas a partir de la n-ésima ecuación,
sustituyéndolas hacia atrás para despejar las demás. El proceso que se repite para evaluar las
incógnitas restantes es representado mediante la fórmula.
(𝑖−1) (𝑖−1)
𝑏𝑖 − ∑𝑛𝑗=𝑖+1 𝑎𝑖𝑗 𝑥𝑗
𝑥𝑖 = (𝑖−1)
; 𝑝𝑎𝑟𝑎 𝑖 = 𝑛 − 1, 𝑛 − 2, … , 1
𝑎𝑖𝑖
Donde el superíndice (i-1) indica la cantidad de modificaciones que se le han hecho al coeficiente
o término independiente.
Versión 1:
Versión 2
18
Versión 1
Versión 2
𝟐𝒏𝟑 𝒏𝟐 𝟐𝒏𝟑
Costo computacional: 𝐥𝐢𝐦𝒏→∞ [ + 𝑶(𝒏𝟐 ) + + 𝑶(𝒏)] = + 𝑶(𝒏𝟐 ) ; donde
𝟑 𝟐 𝟑
2𝑛3 𝑛2
3
+ 𝑂(𝑛2 ) corresponde al costo de la eliminación hacia adelante y 2
+ 𝑂(𝑛) a la sustitución
hacia atrás. Esto se calcula contando la cantidad de operaciones que se efectúan para llevar a cabo
la técnica.
*Nota: La cantidad de FLOP (operaciones de punto flotante) se utilizan para determinar el costo
computacional de la técnica. Estas comprenden la suma multiplicación, división, suma y resta.
Descomposición LU
Se usa para resolver sistemas de ecuaciones lineales, es una alternativa más eficiente que la
eliminación de Gauss cuando deben resolverse ecuaciones con los mismos coeficientes [A] pero
diferentes términos independientes, {B}. Separa el tiempo utilizado para en las eliminaciones de la
matriz [A] de las manipulaciones del lado derecho {B}, esto permite evaluar los múltiples vectores
{B} de manera eficiente una vez que se ha descompuesto [A].
[𝐴]{𝑋} = {𝐵}
Donde [𝑈] es una matriz triangular superior y [L] es una matriz triangular inferior de la forma:
𝟏 𝟎 𝟎
[𝑳] = 𝒍𝟐𝟏 𝟏 𝟎 ; Ej: para un sistema de 3 ecuaciones
𝒍𝟑𝟏 𝒍𝟑𝟐 𝟏
21
1 0 0
𝑓
𝐿 = 21 1 0
𝑓31 𝑓32 1
𝑎 𝑎 𝑎,
Donde 𝑓21 = 𝑎21 , 𝑓31 = 𝑎31 𝑦 𝑓32 = 𝑎32
, . De manera que [𝐿][𝑈] = [𝐴], esta matriz es
11 11 22
ligeramente diferente a la original debido a los errores de redondeo.
Una vez terminada la descomposición para generar una solución para un vector {B}
dado, primero debemos obtener la matriz {D} de [𝐿]{𝐷} = {𝐵} mediante la sustitución
hacia adelante usado:
𝑖−1
Finalmente se obtiene la matriz {𝑋} de la relación [𝑈]{𝑋} = {𝐷} mediante la sustitución hacia
atrás, usando:
(𝑖−1) (𝑖−1)
𝑏𝑖 − ∑𝑛𝑗=𝑖+1 𝑎𝑖𝑗 𝑥𝑗
𝑥𝑖 = (𝑖−1)
; 𝑝𝑎𝑟𝑎 𝑖 = 𝑛 − 1, 𝑛 − 2, … , 1
𝑎𝑖𝑖
Matriz inversa
La matriz inversa se puede calcular mediante la descomposición LU, usando como {B} a las
columnas de la matriz identidad. Donde {X} serán columnas de la matriz inversa. Para calcular la
primera columna de la inversa se utiliza la primera columna de la identidad el procedimiento es
exactamente igual para el resto de estas. EJ: una matriz 3x3, para calcular la primer columna:
−1
𝑎11 𝑎12 𝑎13 𝑎11 1
𝑎21 𝑎22 𝑎23 ∗ 𝑎−| = 0
21
𝑎31 𝑎32 𝑎33
𝑎31 0
−1
*Nota: Este pseudocodigo se construyó a partir del pseudocodigo de la eliminación de Gauss con
descomposición LU. Se resaltó en negrita el código agregado.
La matriz inversa puede utilizarse para determinar si los sistemas de ecuaciones simultáneas están
mal condicionados. Hay tres formas de detectar el mal funcionamiento:
Una norma es una función que toma valores reales, que nos da una medida del tamaño o
“longitud” de entidades formadas por múltiples elementos como los vectores y las matrices.
25
||𝑋||𝑒 y ||𝐴||𝑒 son normas euclidianas las cuales son la raíz cuadrada de la suma de los
cuadrados de los componentes de la matriz o vector respectivamente.
||𝑋||1 es la suma del valor absoluto de los elementos del vector.
||𝐴||1 conocida como norma columna-suma realiza sumatorias de los valores absolutos de los
elementos de cada columna de la matriz y la mayor de estas sumatorias se toma como norma.
||𝑋||∞ conocida como norma máxima la cual es igual al elemento de mayor valor absoluto.
||𝐴||∞ conocida como norma reglón-suma o matriz uniforme realiza sumatorias de los valores
absolutos de los elementos de cada reglón y la mayor de estas sumas se toma como norma.
Número de condición de una matriz: Este es igual a 𝑪𝒐𝒏𝒅[𝑨] = ||𝑨|| . ||𝑨−𝟏 || este número será
mayor o igual a uno. Es un producto punto entre los valores absolutos de los elementos de la
matriz y su inversa.
Matrices bandeadas
Algoritmo de Thomas
Descomposición de Cholesky
Utilizado para hallar una matriz triangular superior [𝐿] tal que [𝐴] = [𝐿] ∗ [𝐿]𝑇 , si 𝐴 es una
matriz simétrica. El resultado se expresa de forma simple mediante relaciones de recurrencia,
para el reglón k-ésimo:
𝑎𝑘𝑖 − ∑𝑖−1
𝑗=1 𝑙𝑖𝑗 𝑙𝑘𝑗
𝑙𝑘𝑖 = 𝑝𝑎𝑟𝑎 𝑖 = 1,2, … , 𝑘 − 1
𝑙𝑖𝑖
𝑘−1
2
𝑙𝑘𝑘 = √𝑎𝑘𝑘 − ∑ 𝑙𝑘𝑗
𝑗=1
*Nota: Esta matriz L no necesariamente tiene sus elementos de su diagonal principal igual a uno,
es de la forma:
𝑙11 0 0
𝑙21 𝑙22 0
𝑙31 𝑙32 𝑙33
27
Métodos iterativos
Son métodos que se basan en suponer un conjunto de valores que satisfagan un conjunto de
ecuaciones y luego usar un método sistemático para obtener una mejor aproximación.
Método de Gauss-Seidel
Sea un sistema de ecuaciones [𝐴]{𝑋} = {𝐵}, si fuese un conjunto de ecuaciones de 3x3. Si los
elementos de la diagonal no son todos cero, se obtiene:
Una forma simple de obtener los valores iniciales es suponer que todos son cero 𝑥1 , 𝑥2 , 𝑥3 = 0.
Se calcula 𝒙𝟏 con 𝑥2 y 𝑥3 iniciales, 𝒙𝟐 se calcula con el 𝑥1 calculado previamente y 𝑥3 inicial, 𝒙𝟑 se
calcula con 𝑥1 y 𝑥2 calculados previamente. Luego se vuelven a hacer todos los cálculos pero
tomando como valores iniciales los previamente calculados. Este proceso se repite hasta que la
solución converja lo suficientemente cerca de los valores verdaderos.
𝑏𝑖 − ∑𝑖−1 𝑛
𝑗=1 𝑎𝑖𝑗 𝑥𝑗 − ∑𝑗=𝑖+1 𝑎𝑖𝑗 𝑥𝑗
𝑥𝑖 = , 𝑐𝑜𝑛 𝑖 = 1,2, … , 𝑛
𝑎𝑖𝑖
28
𝑗 𝑗−1
𝑥𝑖 −𝑥𝑖
Error del método: El error relativo porcentual es |𝜀𝑎,𝑖 | = | 𝑗 | ∗ 100, la 𝑖 denota la incógnita y
𝑥𝑖
𝑥𝑖 como función. (Ver iteración de punto fijo). Ejemplos de convergencia y divergencia para un
sistema 2x2, donde la función 𝑢 𝑦 𝑣 son las funciones correspondientes a los despejes de 𝑥1 𝑦 𝑥2 :
*Nota: Los sistemas que cumplen el criterio de convergencia anterior reciben el nombre de
sistemas diagonalmente dominantes.
El método de Jacobi realiza aproximaciones de los valores que satisfacen el sistema (las X), solo
con los valores de la iteración anterior a la actual. A diferencia del método de Gauss-Seidel que usa
los valores de la iteración anterior y los de la actual.
*Nota: Aunque el método de Jacobi puede llegar a ser útil, el método de Gauss-Seidel da la mejor
aproximación.
Tipos de relajaciones:
Unidad 4: Optimización
La optimización es la búsqueda de un óptimo, el cual puede ser unidimensional o
multidimensional, dependiendo de si se involucran funciones de una variable o de más de una
variable respectivamente. Para los problemas unidimensionales y multidimensionales la
búsqueda del óptimo consiste en la búsqueda del mínimo o máximo o máximo.
Donde 𝑥 es un vector de diseño n-dimensional; 𝑓(𝑥) la función objetivo; 𝑑𝑖 (𝑥) son las
restricciones de desigualdad; 𝑒𝑖 (𝑥) son las restricciones de igualdad y 𝑎𝑖 , 𝑏𝑖 son constantes. Si
𝑝 + 𝑚 > 𝑛 se dice que el problema está sobrerestringido. Los problemas con estas restricciones
se conocen como problemas de optimización restringidos, de otra forma, se trata de un problema
de optimización no restringido.
Según la forma de 𝑓(𝑥) se clasifican los problemas de optimización como problemas de:
Es un que utiliza cuatro puntos dentro de un intervalo determinado por dos valores iniciales (los
primeros dos puntos) 𝒙𝒍 y 𝒙𝒖 , que contengan un máximo o mínimo. Se necesitan tres puntos y
sus valores en la función para detectar si hay máximo o mínimo en un intervalo. Una vez que se
determinan el tercer y cuarto punto, se hace la prueba para detectar el máximo o mínimo está
entre los primeros o últimos tres puntos.
El método minimiza las evaluaciones de la función reemplazando los valores anteriores con los
nuevos, esto se logra si se satisfacen las siguientes dos condiciones:
𝑙1 𝑙2
𝑙0 = 𝑙1 + 𝑙2 (1) 𝑦 = (2)
𝑙0 𝑙1
32
𝟏
=𝟏+𝑹
𝑹
Despejando 𝑅 de 0 = 𝑅 2 + 𝑅 − 1 se obtiene:
√5 − 1
𝑅 = 0,6183 … =
2
√𝟓 − 𝟏
𝑻𝒆𝒓𝒄𝒆𝒓 𝒑𝒖𝒏𝒕𝒐: 𝒙𝟏 = 𝒙𝒍 + 𝒅; 𝑪𝒖𝒂𝒓𝒕𝒐 𝒑𝒖𝒏𝒕𝒐: 𝒙𝟐 = 𝒙𝒖 − 𝒅; 𝒄𝒐𝒏 𝒅 = ∗ (𝒙𝒖 − 𝒙𝒍 )
𝟐
Después de cada iteración el intervalo que encierra el máximo o mínimo se reduce en un factor de
la razón dorada. Por lo tanto después de n iteraciones el intervalo se acorta a 𝑹𝒏 % de su valor
inicial.
Error: Se puede calcular un límite superior para el error de cada iteración. Al final de cada
iteración se obtienen un nuevo intervalo y un punto dentro de este (el óptimo), el máximo error
posible es igual al subintervalo más grande de este nuevo intervalo. El error relativo aproximado
queda:
33
𝒙𝒖 − 𝒙𝒍
𝓔𝒂 = (𝟏 − 𝑹) | | ∗ 𝟏𝟎𝟎
𝒙𝒐𝒑𝒕
Desventajas del método de la sección dorada: El método puede consumir mucho tiempo en la
evaluación de la función, si esta es compleja, ya que hace muchas evaluaciones por iteración.
Converge muy lentamente al extremo, necesita muchas iteraciones.
La interpolación cuadrática hace uso de un polinomio de segundo grado el cual es una buena
aproximación de 𝑓(𝑥) en las cercanías de un óptimo. Si se tienen tres puntos que contienen un
máximo o mínimo se ajusta una parábola a estos. Después se puede derivar e igualar el
resultado a cero para encontrar el óptimo quedaría:
𝑥3𝑎𝑐𝑡𝑢𝑎𝑙 −𝑥3𝑎𝑛𝑡𝑒𝑟𝑖𝑜𝑟
Error: El error relativo porcentual se calcula como ℰ𝑎 = | | ∗ 100
𝑥3𝑎𝑐𝑡𝑢𝑎𝑙
34
Desventajas del método: Su convergencia puede ser lenta, ya que puede ser que durante las
iteraciones solo se retenga un extremo del intervalo.
Es un método abierto. Este método define una función 𝑔(𝑥) = 𝑓´(𝑥), tal que para el 𝑥𝑜𝑝𝑡 :
𝑓´(𝑥𝑜𝑝𝑡 ) = 𝑔(𝑥𝑜𝑝𝑡 ) = 0
𝒇´(𝒙𝒂𝒏𝒕𝒆𝒓𝒊𝒐𝒓
𝒐𝒑𝒕 )
𝒙𝒂𝒄𝒕𝒖𝒂𝒍
𝒐𝒑𝒕 = 𝒙𝒂𝒏𝒕𝒆𝒓𝒊𝒐𝒓
𝒐𝒑𝒕 −
𝒇´´(𝒙𝒂𝒏𝒕𝒆𝒓𝒊𝒐𝒓
𝒐𝒑𝒕 )
*Nota: La función 𝑔(𝑥) se obtiene de la serie de Taylor de segundo orden para 𝑓(𝑥) igualando la
serie a cero.
Desventajas del método: Al ser un método abierto el método de Newton puede divergir,
dependiendo del comportamiento de la función y del valor inicial.
𝑥3𝑎𝑐𝑡𝑢𝑎𝑙 −𝑥3𝑎𝑛𝑡𝑒𝑟𝑖𝑜𝑟
Error: El error relativo porcentual se calcula como ℰ𝑎 = | | ∗ 100
𝑥3𝑎𝑐𝑡𝑢𝑎𝑙
35
Los generadores de números aleatorios dan números entre cero y uno, designando tal número
como 𝑟. Luego una fórmula para generar números para cualquier variable dentro de un intervalo
es: 𝒙 = 𝒙𝒍 + (𝒙𝒖 − 𝒙𝒍 ). 𝒓; con 𝑥 que es una variable cualesquiera y 𝑥𝑙 , 𝑥𝑢 son los extremos del
intervalo para esta variable.
*Nota: [1-2 (o 3-4; 5-6) y 2-4]; [2-3 (o 4-5) y 3-5] son direcciones conjugadas
dirección ℎ4 que se obtiene de la unión de los puntos 3 y 5. Se puede ver que ℎ3 y ℎ4 son
direcciones conjugadas. Así buscando desde el punto 5 por ℎ4 nos llevara al máximo.
Derivada direccional
Nos da la pendiente en una dirección arbitraria ℎ que forma un ángulo 𝜃con el eje 𝑥:
𝜕𝑓 𝜕𝑓
𝑔´(0) = cos(𝜃) + 𝑠𝑒𝑛(𝜃)
𝜕𝑥 𝜕𝑦
El gradiente
𝜕𝑓 𝜕𝑓
∇𝑓 = 𝒊+ 𝒋
𝜕𝑥 𝜕𝑦
El Hessiano
𝜕𝑓 𝜕𝑓
𝜕𝑥 2 𝜕𝑥𝜕𝑦
|𝐻| =
𝜕𝑓 𝜕
𝜕𝑦𝜕𝑥 𝜕𝑦 2
𝜕𝑓 𝜕𝑓
𝑥 = 𝑥𝑖 + ℎ; 𝑦 = 𝑦𝑖 + ℎ
𝜕𝑥 𝑖 𝜕𝑦 𝑖
𝜕2 𝑓
Si |𝐻|(𝐻𝑒𝑠𝑠𝑖𝑎𝑛𝑜) > 0 y 𝜕𝑥 2 < 0, entonces en 𝑓(𝑥𝑜𝑝𝑡 , 𝑦𝑜𝑝𝑡 ) se tiene un máximo.
𝑜𝑝𝑡
𝜕2 𝑓
Si |𝐻|(𝐻𝑒𝑠𝑠𝑖𝑎𝑛𝑜) > 0 y 𝜕𝑥 2 > 0, entonces en 𝑓(𝑥𝑜𝑝𝑡 , 𝑦𝑜𝑝𝑡 ) se tiene un mínimo.
𝑜𝑝𝑡
Desventajas del método de máxima inclinación: Tiende a converger muy lentamente cuando la
función presenta crestas largas y angostas, lo que le lleva a dar muchos pasos hasta llegar al
óptimo.
- Si los datos presentan mucho error se utiliza la regresión por mínimos cuadrados, esta
construye una curva que siga la tendencia de los puntos tomados como un grupo.
- Si los datos son muy precisos se coloca una curva o una serie de curvas que pasen por
cada uno de los puntos. La estimación de valores entre este tipo de datos se conoce como
interpolación.
Aplicaciones:
Regresión lineal
𝑦 = 𝑎0 + 𝑎1 𝑥 + 𝑒
𝑒 = 𝑦 − 𝑎0 − 𝑎1 𝑥
39
∑𝑛𝑖=1 𝑒𝑖 = ∑𝑛𝑖=1 𝑦𝑖 − 𝑎0 − 𝑎1 𝑥
Mejor criterio para el ajuste: Minimiza la suma de los cuadrados de los residuos entre la
𝑦𝑚𝑒𝑑𝑖𝑑𝑎 y 𝑦𝑚𝑜𝑑𝑒𝑙𝑜
𝑛 𝑛
𝑆𝑟 = ∑ 𝑒𝑖2 = ∑(𝑦𝑖 − 𝑎0 − 𝑎1 𝑥𝑖 )2
𝑖=1 𝑖=1
𝑛 ∑ 𝑥𝑖 𝑦𝑖 −∑ 𝑦𝑖 ∑ 𝑥𝑖
𝑎0 = (𝑦̅ − 𝑎1 𝑥̅ ) 𝑦 𝑎1 = 𝑛 ∑ 𝑥𝑖2 −(∑ 𝑥𝑖 )2
𝑟 𝑆
Error estándar del estimado: 𝑆𝑦/𝑥 = √𝑛−2 es el error para un valor
predicho de 𝑦 correspondiente a un valor particular de 𝑥. Este error
cuantifica la dispersión de los datos alrededor de la línea de regresión.
𝑺𝒕 −𝑺𝒓
Coeficientes de determinación y correlación: 𝒓𝟐 = 𝑦 𝑟 son los coeficientes de
𝑺𝒕
determinación y correlación, respectivamente. El coeficiente 𝑟 2 representa cuanto explica la línea
la variabilidad de los datos. Con 𝑺𝒕 = (𝒚𝒊 − 𝒚 ̅)𝟐 . La diferencia 𝑆𝑡 − 𝑆𝑟 cuantifica la mejora o
reducción del error y al dividir por 𝑆𝑡 esta se normaliza. El coeficiente de determinación 𝑟 2 toma
valores entre 0 y 1 representando la explicación del 100% y 0% de los datos respectivamente. El
coeficiente de correlación se puede expresar como:
Consiste en usar manipulaciones matemáticas para transformar funciones en las que la relación
entre su variable independiente y dependiente no es lineal, para que si lo sea. Después se utiliza la
regresión lineal para ajustar los datos.
41
Por ejemplo:
Regresión polinomial
La regresión polinomial consiste en ajustar polinomios a los datos. Se utiliza en los casos en el que
las variables independientes y dependientes de una función no presentan una relación lineal, al
igual que en el caso de las transformaciones.
Los coeficientes del polinomio utilizado para el ajuste se pueden obtener de la misma manera los
coeficientes de la regresión lineal. Ya que la regresión lineal puede considerarse como un ajuste
mediante un polinomio de grado uno.
Criterio para el ajuste: Minimiza la suma de los cuadrados de los residuos entre la
𝑦𝑚𝑒𝑑𝑖𝑑𝑎 y 𝑦𝑚𝑜𝑑𝑒𝑙𝑜
42
𝑛 𝑛
Se hacen las derivadas parciales de 𝑆𝑟 con respecto a cada uno de los coeficientes y se igualan a
cero, obteniéndose un sistema de ecuaciones, de donde se despejan los coeficientes.
𝜕𝑆𝑟
= −2 ∑[𝑥𝑖2 (𝑦𝑖 − 𝑎0 − 𝑎1 𝑥𝑖 − 𝑎2 𝑥𝑖2 )]
𝜕𝑎2
Se iguala a cero y se arma el siguiente sistema de ecuaciones, del cual se obtienen los
coeficientes:
𝑛 ∑ 𝑥𝑖 ∑ 𝑥𝑖2 ∑ 𝑦𝑖
𝑎0
∑ 𝑥𝑖 ∑ 𝑥𝑖2 ∑ 𝑥𝑖3 ∗ 𝑎1 = ∑ 𝑥𝑖 𝑦𝑖
𝑎2
∑ 𝑥𝑖2 ∑ 𝑥𝑖3 ∑ 𝑥𝑖4 ∑ 𝑥𝑖2 𝑦𝑖
𝒓 𝑺
Error estándar: 𝑆𝒚/𝒙 = √𝒏−(𝒎+𝟏) , donde 𝑚 es el grado del polinomio utilizado en el ajuste.
𝑆𝑡 −𝑆𝑟
Coeficiente de correlación: 𝑟 2 = 𝑆𝑡
, con 𝑆𝑡 = ∑(𝑦𝑖 − 𝑦̅)2 .
𝒓𝑺
Error estándar: 𝑆𝒚/𝒙 = √𝒏−(𝒎+𝟏)
𝑺𝒕 −𝑺𝒓
Coeficiente de determinación: 𝒓𝟐 = 𝑺𝒕
, con 𝑆𝑡 = (𝑦𝑖 − 𝑦̅)2 .
Interpolación
Se utiliza para la estimación entre datos intermedios entre datos que suelen ser datos definidos
por puntos. La interpolación polinomial, consiste en la determinación de un único polinomio de n-
ésimo grado que se ajusta a 𝑛 + 1 puntos. Este polinomio proporciona una forma de estimar los
valores intermedios. La interpolación polinomial es sensible al error de redondeo y a los puntos
lejanos.
Interpolación lineal: Consiste en unir dos puntos con una línea recta. Por triángulos semejantes se
obtiene:
44
Aprovechando el hecho de que 𝑓2 (𝑥0 ) = 𝑓(𝑥0 ), 𝑓2 (𝑥1 ) = 𝑓(𝑥1 ) y 𝑓2 (𝑥2 ) = 𝑓(𝑥2 ) se despejan los
coeficientes de la siguiente manera:
𝑓(𝑥1 )−𝑓(𝑥0 )
Evaluando 𝑥1 , 𝑓2 (𝑥1 ), reemplazando 𝑏0 y despejando, queda: 𝑏1 =
𝑥1 −𝑥0
Se puede observar que los dos primeros términos de (1) son semejantes a la interpolación lineal y
que 𝑏2 es similar a la aproximación en diferencias divididas de la segunda derivada. Al igual que en
la interpolación lineal conforme menor sea el intervalo entre los datos mejor será la estimación.
Donde las evaluaciones de la función puesta entre paréntesis son diferencias divididas finitas.
Luego la expresión:
𝑓 𝑛+1 (ℰ)
𝑅𝑛 = (𝑥 − 𝑥0 )(𝑥 − 𝑥1 ) … (𝑥 − 𝑥𝑛 )
(𝑛 + 1)!
Una fórmula alternativa que requiere conocer un punto más (𝑥𝑛+1 , 𝑓(𝑥𝑛+1 )), pero no necesita
conocer la función original es:
Es una reformulación del polinomio de interpolación de Newton, este evita el cálculo de las
diferencias divididas, se presenta como:
𝒏 𝒏
𝒙 − 𝒙𝒋
𝒇𝒏 (𝒙) = ∑ 𝑳𝒊 (𝒙)𝒇(𝒙𝒊 ) , 𝑐𝑜𝑛 𝑳𝒊 (𝒙) = ∏
𝒙𝒊 − 𝒙𝒋
𝒊=𝟎 𝒋=𝟎
𝒋≠𝒊
𝑹𝒏 ≅ 𝒇[𝒙𝒏+𝟏 , 𝒙𝒏 , 𝒙𝒏−𝟏 , … , 𝒙𝟎 ] ∏( 𝒙 − 𝒙𝒏 )
𝒊=𝟎
El polinomio de Newton es ventajoso cuando se desconoce el grado del polinomio, es decir para
cálculos exploratorios. Ya que al tener formulas recursivas, a la hora de generar un polinomio
puede reutilizar cálculos realizados para polinomios de menor grado. Esto permite hacer pruebas
con polinomios de diferentes grados con menor costo computacional.
El polinomio de Lagrange generalmente se usa cuando el grado del polinomio se conoce a priori.
Ya que aunque tiene un costo computacional semejante al polinomio de Newton y no necesita
almacenar diferencias divididas.
47
Los trazadores tienen mejor comportamiento que un polinomio de grado superior en funciones
que presentan un cambio abrupto cerca de la región de interés. Se puede observar desde la
figura 𝑎) a 𝑐) que a medida de que el grado del polinomio aumenta, se forman oscilaciones
bruscas cerca del cambio abrupto.
Trazadores lineales: Los trazadores de primer grado o lineales, se definen como un conjunto de
ecuaciones lineales:
𝑓(𝑥) = 𝑓(𝑥0 ) + 𝑚0 (𝑥 − 𝑥0 ), 𝑥0 ≤ 𝑥 ≤ 𝑥1
𝑓(𝑥) = 𝑓(𝑥1 ) + 𝑚1 (𝑥 − 𝑥1 ), 𝑥1 ≤ 𝑥 ≤ 𝑥2
∶ ∶ ∶ ∶
Con:
𝑓(𝑥𝑖+1 ) − 𝑓(𝑥𝑖 )
𝑚𝑖 =
𝑥𝑖+1 − 𝑥𝑖
Trazadores cuadráticos: Los trazadores cuadráticos son polinomios de segundo grado. Estos
tienen primeras derivadas continuas en todos los nodos (los extremos de su intervalo). No
aseguran derivadas iguales en los nodos.
- Los valores de los polinomios adyacentes deben ser iguales en los nodos interiores,
esto nos da 𝟐𝒏 − 𝟐 condiciones.
2
𝑎𝑖−1 𝑥𝑖−1 + 𝑏𝑖−1 𝑥𝑖−1 + 𝑐𝑖−1 = 𝑓(𝑥𝑖−1 )
2
𝑎𝑖 𝑥𝑖−1 + 𝑏𝑖 𝑥𝑖−1 + 𝑐𝑖 = 𝑓(𝑥𝑖−1 )
- La primera (i=1) y última función (i=n-1) deben pasar a través de los puntos extremos,
esto nos da 2 condiciones.
𝑎1 𝑥02 + 𝑏1 𝑥0 + 𝑐1 = 𝑓(𝑥0 )
𝑎𝑛−1 𝑥𝑛2 + 𝑏𝑛−1 𝑥𝑛 + 𝑐𝑛−1 = 𝑓(𝑥𝑛 )
- Las primeras derivadas en los nodos deben ser iguales, esto nos da 𝒏 − 𝟏 condiciones.
2𝑎𝑖−1 𝑥𝑖−1 + 𝑏𝑖−1 = 2𝑎𝑖 𝑥𝑖−1 + 𝑏𝑖
- Se supone que en el primer punto la segunda derivada es cero, última condición, de
donde queda: (en consecuencia los dos primeros puntos se unen con una línea recta)
2𝑎1 = 0 → 𝑎1 = 0
Trazadores cúbicos: Se basa en tener un polinomio de tercer grado por cada intervalo entre
nodos. Por lo tanto para 𝑛 + 1 datos se tienen 𝟒𝒏 incógnitas (𝑎, 𝑏, 𝑐 y 𝑑) y por lo tanto se
requieren la misma cantidad de ecuaciones o condiciones. Las primeras tres condiciones son
iguales a la de los trazadores cuadráticos y las restantes son:
Las segundas derivadas de los nodos deben ser iguales, esto nos da 𝒏 − 𝟏 condiciones.
6𝑎𝑖−1 𝑥𝑖−1 + 2𝑏𝑖−1 = 6𝑎𝑖 𝑥𝑖−1 + 2𝑏𝑖
Las segundas derivadas en los nodos extremos son cero, esto nos da las últimas 𝟐
condiciones. En consecuencia la función se vuelve una línea recta nodos extremos.
6𝑎0 𝑥0 + 2𝑏0 = 0
6𝑎𝑛−1 𝑥𝑛 + 2𝑏𝑛−1 = 0
En la última condición si las segundas derivadas no son cero en los nodos extremos se puede
utilizar como alternativa las siguientes dos condiciones:
6𝑎0 𝑥0 + 2𝑏0 ≠ 0
6𝑎𝑛−1 𝑥𝑛 + 2𝑏𝑛−1 ≠ 0
49
Trazadores cúbicos forma alternativa (𝒏 − 𝟏 incógnitas): Como cada par de nodos está unido por
un polinomio de tercer grado, la segunda derivada de este es una recta. Ahora para un intervalo
entre los nodos 𝑥𝑖−1 y 𝑥𝑖 , representando la recta con un polinomio de interpolación de Lagrange:
Está expresión une las derivadas segundas del primer nodo con los del segundo, luego integrando
dos veces obtenemos la función original:
La ventaja de representar el polinomio de segundo grado de esta manera, es que solo se deben
determinar dos coeficientes 𝑓𝑖´´ (𝑥𝑖−1 ) y 𝑓𝑖´´ (𝑥𝑖 ). Diferente de determinar 𝑎, 𝑏, 𝑐, y 𝑑 de un
polinomio convencional.
Derivando la última expresión para los intervalos (𝑖 − 1; 𝑖) y (𝑖; 𝑖 + 1), utilizando la condición
𝒇´𝒊−𝟏 (𝒙𝒊 ) = 𝒇´𝒊 (𝒙𝒊 ) y reordenando se llega a la siguiente expresión:
Esta ecuación es válida para todos los nodos interiores lo que nos da 𝑛 − 1 ecuaciones y 𝑛 + 1
coeficientes a determinar. Utilizando la condición de que las segundas derivadas en los nodos
extremos deben ser cero, 𝑓´´(𝑥0 ) = 𝑓´´(𝑥𝑛 ) = 0. Por lo que el problema se reduce a un sistema de
𝑛 − 1 ecuaciones y 𝑛 − 1 incognitas.
50
Generalmente las formas abiertas se utilizan para evaluar integrales definidas, sino integrales
impropias y E.D.O.
51
La integral de 𝑓(𝑥) se aproxima con el área debajo de la línea recta que une la función en
los dos extremos del intervalo.
𝑏
𝑓(𝑏) − 𝑓(𝑎) 𝒇(𝒂) + 𝒇(𝒃)
𝐼 ≅ ∫ 𝑓(𝑎) + (𝑥 − 𝑎)𝑑𝑥 → 𝑰 ≅ (𝒃 − 𝒂)
𝑎 𝑏−𝑎 𝟐
Error: El error de truncamiento local verdadero para una sola aplicación es:
1
𝐸𝑡 = − 𝑓´´(ℰ)(𝑏 − 𝑎)3 , 𝑐𝑜𝑛 ℰ𝜖(𝑎, 𝑏)
12
Y el error de truncamiento local aproximado es:
1
𝐸𝑎 = − ̅
𝑓´´(𝑥)(𝑏 − 𝑎)3
12
𝑏
∫𝑎 𝑓´´(𝑥)𝑑𝑥
̅
𝐶𝑜𝑛 𝑓 ´´(𝑥) = 𝑏−𝑎
Recordatorio
Primera diferencia dividida hacia adelante: Es una forma de estimar la derivada
𝑓(𝑥𝑖+1 ) − 𝑓(𝑥𝑖 ) ∆𝒇𝒊
𝑓´(𝑥𝑖 ) = + 𝑂(𝑥𝑖+1 − 𝑥𝑖 ) = + 𝑶(𝒉)
𝑥𝑖+1 − 𝑥𝑖 𝒉
Donde ℎ es el tamaño del paso. Se dice que es hacia adelante porque se usan los datos 𝑖
e 𝑖 + 1.
∆𝒇𝒊 = 𝑵𝒖𝒎𝒆𝒓𝒂𝒅𝒐𝒓 𝒅𝒆 𝒇[𝒙𝒊 , 𝒙𝒊+𝟏 ]
∆´´ 𝒇𝒊 = 𝑵𝒖𝒎𝒆𝒓𝒂𝒅𝒐𝒓 𝒅𝒆 𝒇[𝒙𝒊 , 𝒙𝒊+𝟏 , 𝒙𝒊+𝟐 ]
:
𝒏
∆ 𝒇𝒊 = 𝑵𝒖𝒎𝒆𝒓𝒂𝒅𝒐𝒓 𝒅𝒆 𝒇[𝒙𝒊 , 𝒙𝒊+𝟏 , 𝒙𝒊+𝟐 , 𝒙𝒊+𝟑 ]
Regla del trapecio (fórmula alternativa y ERROR): La regla del trapecio se puede
obtener integrando un polinomio de primer grado Newton-Gregory de interpolación hacia
adelante:
𝑏
𝒇´´ (𝓔) 𝟐
𝐼 = ∫ [ 𝑓(𝑎) + ∆𝑓(𝑎)𝜶 + 𝒉 𝛼(𝛼 − 1)]𝑑𝑥
𝑎 𝟐!
𝑑𝑥
Realizando un cambio de variable de 𝑥 por 𝜶, 𝑑𝜶 = ℎ
→ 𝑑𝑥 = 𝒉. 𝒅𝜶, entonces queda:
1
𝒇´´ (𝓔) 𝟐
𝐼 = ℎ ∫ [ 𝑓(𝑎) + ∆𝑓(𝑎)𝜶 + 𝒉 𝛼(𝛼 − 1)]𝑑𝜶
0 𝟐!
Donde:
𝒇(𝒂)+𝒇(𝒃)
𝟐
𝒉 es la regla del trapecio
𝒇´´(𝓔) 𝟑
− 𝒉 es el error de truncamiento verdadero
𝟏𝟐
𝑏−𝑎
ℎ=
𝑛
La integral de la función 𝑓 en el intervalo (𝑎, 𝑏) es:
53
𝑥1 𝑥2 𝑥𝑛
𝐼 = ∫ 𝑓(𝑥)𝑑𝑥 + ∫ 𝑓(𝑥)𝑑𝑥 + ⋯ + ∫ 𝑓(𝑥)𝑑𝑥
𝑥0 𝑥1 𝑥𝑛−1
(𝒃 − 𝒂)𝟑
𝑬𝒂 = − 𝒇̅´´
𝟏𝟐𝒏𝟐
Reglas de Simpson
Obtiene una estimación más exacta que la regla del trapecio haciendo uso de polinomios de grado
superior. Donde 𝑛 + 1 puntos se unirán con un polinomio de grado 𝑛. Las formulas resultantes de
tomar las integrales de estos polinomios se conocen como reglas de Simpson.
𝑏
𝐼 ≅ ∫ 𝑓2 (𝑥)𝑑𝑥
𝑎
integral queda:
𝑥2 (𝑥 − 𝑥1 )(𝑥 − 𝑥2 ) (𝑥 − 𝑥0 )(𝑥 − 𝑥2 )
𝐼≅∫ [ 𝑓(𝑥0 ) + 𝑓(𝑥1 )
𝑥0 (𝑥0 − 𝑥1 )(𝑥0 − 𝑥2 ) (𝑥1 − 𝑥0 )(𝑥1 − 𝑥2 )
(𝑥 − 𝑥0 )(𝑥 − 𝑥1 )
+ 𝑓(𝑥2 )]𝑑𝑥
(𝑥2 − 𝑥0 )(𝑥2 − 𝑥1 )
ℎ 𝑏−𝑎
𝐼≅ [𝑓(𝑥0 ) + 4𝑓(𝑥1 ) + 𝑓(𝑥2 )]; 𝑐𝑜𝑛 ℎ =
3 2
Otra forma de expresar la regla:
En esta última expresión el punto medio esta ponderado por dos tercios y los extremos están
ponderados por un sexto. La regla de Simpson 𝟏/𝟑 da resultados exactos para polinomios de
tercer grado o menores.
Error de la regla Simpson 1/3: El error se puede obtener con el mismo procedimiento que
aplicado para la regla del trapecio, utilizando un polinomio de interpolación de Newton-Gregory
hacia adelante de tercer grado con su respectivo residuo. Cambiando los límites de integración,
integrando, aplicando Barrow y reordenando se obtiene:
ℎ 1
𝐼= [𝑓(𝑥0 ) + 4𝑓(𝑥1 ) + 𝑓(𝑥2 )] − 𝑓´´(ℰ)ℎ5
⏟
3 ⏟ 90
𝑅𝑒𝑔𝑙𝑎 𝑆𝑖𝑚𝑝𝑠𝑜𝑛 1/3 𝑒𝑟𝑟𝑜𝑟 𝑑𝑒 𝑡𝑟𝑢𝑛𝑐𝑎𝑚𝑖𝑒𝑛𝑡𝑜
1
𝐸𝑡 = − 𝑓´´(ℰ)ℎ5
90
Y el error de truncamiento aproximado es:
2 𝐼𝑉 𝑥
(𝑥2 − 𝑥0 )5 ∫𝑥0 𝑓 (𝑥)𝑑𝑥 (𝑥2 − 𝑥0 )5 𝐼𝑉
𝐸𝑎 = − 5 ( )=− 𝑓 ̅ (ℰ)
2 ∗ 90 𝑥2 − 𝑥0 2880
𝑏−𝑎
ℎ= 𝑛
La integral queda:
𝑥2 𝑥4
𝐼 = ∫ 𝑓(𝑥)𝑑𝑥 + ∫ 𝑓(𝑥)𝑑𝑥 + ⋯
𝑥0 𝑥2
𝑥𝑛
+∫ 𝑓(𝑥)𝑑𝑥
𝑥𝑛−2
2ℎ 2ℎ
𝐼≅ [𝑓(𝑥0 ) + 4𝑓(𝑥1 ) + 𝑓(𝑥2 )] + [𝑓(𝑥2 ) + 4𝑓(𝑥3 ) + 𝑓(𝑥4 )] + ⋯
3 3
2ℎ
+ [𝑓(𝑥𝑛−2 ) + 4𝑓(𝑥𝑛−1 ) + 𝑓(𝑥𝑛 )]
3
Como cada subintervalo está formado por tres puntos los cuales están igualmente espaciados, su
ancho es de 2ℎ.
(𝒙𝟐 − 𝒙𝟎 )𝟓 ̅𝑰𝑽
𝑬𝒂 = − 𝒇 (𝓔)
𝟏𝟖𝟎𝒏𝟒
𝑥 𝐼𝑉
𝐼𝑉 ∫𝑥 2 𝑓 (𝑥)𝑑𝑥
̅ (ℰ) =
𝑐𝑜𝑛 𝑓 0
𝑥𝑛 − 𝑥0
Limitaciones de la regla Simpson 1/3 de aplicación múltiple: La primera limitación es que esté
método solo es válido para cuando se tienen valores equidistantes. La segunda limitación es solo
es válida cuando se tiene números impar de segmentos y un número impar de puntos.
Regla Simpson 3/8: Consiste en ajustar un polinomio de Lagrange de tercer grado a cuatro
puntos. Da resultado exactos para polinomios de grado 𝑛 ≤ 3. Es una regla útil para cuando se
tienen un número de intervalos impar.
𝑏
𝐼 ≅ ∫ 𝑓3 (𝑥)𝑑𝑥
𝑎
𝑥3 (𝑥
− 𝑥1 )(𝑥 − 𝑥2 )(𝑥 − 𝑥3 ) (𝑥 − 𝑥0 )(𝑥 − 𝑥2 )(𝑥 − 𝑥3 )
𝐼≅∫ [ 𝑓(𝑥0 ) + 𝑓(𝑥1 )
𝑥0 (𝑥0 − 𝑥1 )(𝑥0 − 𝑥2 )(𝑥0 − 𝑥3 ) (𝑥1 − 𝑥0 )(𝑥1 − 𝑥2 )(𝑥1 − 𝑥3 )
(𝑥 − 𝑥0 )(𝑥 − 𝑥1 )(𝑥 − 𝑥3 ) (𝑥 − 𝑥0 )(𝑥 − 𝑥1 )(𝑥 − 𝑥2 )
+ 𝑓(𝑥2 ) + 𝑓(𝑥2 )]𝑑𝑥
(𝑥2 − 𝑥0 )(𝑥2 − 𝑥1 )(𝑥2 − 𝑥3 ) (𝑥3 − 𝑥0 )(𝑥3 − 𝑥1 )(𝑥3 − 𝑥2 )
Para obtener:
𝟑𝒉 (𝑏 − 𝑎)
𝑰≅ [𝒇(𝒙𝟎 ) + 𝟑𝒇(𝒙𝟏 ) + 𝟑𝒇(𝒙𝟐 ) + 𝒇(𝒙𝟑 )], 𝑐𝑜𝑛 ℎ =
𝟖 3
Otra forma de expresar la ecuación como:
Los puntos interiores tienen un peso de tres octavos mientras que los puntos exteriores tienen un
peso de un octavo.
3 5 𝐼𝑉 (𝑏 − 𝑎)5 𝐼𝑉
𝐸𝑡 = − ℎ 𝑓 (ℰ) = − 𝑓 (ℰ)
80 6480
3ℎ 3ℎ
𝐼≅ [𝑓(𝑥0 ) + 3𝑓(𝑥1 ) + 3𝑓(𝑥2 ) + 𝑓(𝑥3 )] + [𝑓(𝑥3 ) + 3𝑓(𝑥4 ) + 3𝑓(𝑥5 ) + 𝑓(𝑥6 )] + ⋯
8 8
3ℎ
+ [𝑓(𝑥𝑛−3 ) + 3𝑓(𝑥𝑛−2 ) + 3𝑓(𝑥𝑛−1 ) + 𝑓(𝑥𝑛 )],
8
Reordenando queda:
𝒏−𝟏 𝒏−𝟑
𝟑𝒉
𝑰≅ [𝒇(𝒙𝟎 ) + 𝟑 ∑ 𝒇(𝒙𝒊 ) + 𝟐 ∑ 𝒇(𝒙𝒋 ) + 𝒇(𝒙𝒏 )]
𝟖
𝒊=𝟏,𝟐,𝟒,𝟓 𝒋=𝟑,𝟔,𝟗
Reemplazando ℎ:
59
*Nota: Para cuando se tiene una gran cantidad de segmentos predomina el error de redondeo.
Integración de ecuaciones
En la integración de ecuaciones a diferencia de la integración a través de datos tabulados, se
conoce la función, por lo que se pueden generar tantos valores de 𝑓(𝑥) como se requieran para
llegar alcanzar una exactitud aceptable.
Extrapolación de Richardson
Este método usa dos estimaciones de una integral para calcular una tercera más exacta. La
fórmula de la extrapolación de Richardson se obtiene de la regla del trapecio.
61
Se parte de la regla del trapecio de aplicación múltiple con su error correspondiente, expresado
en su fórmula general:
𝐼 = 𝐼(ℎ) + 𝐸𝑡 (ℎ)
(𝑏 − 𝑎) 2
𝐸𝑎 (ℎ) = − ̅
ℎ 𝑓´´; 𝑑𝑜𝑛𝑑𝑒 𝑓 ̅´´ 𝑒𝑠 𝑢𝑛𝑎 𝑐𝑜𝑛𝑠𝑡𝑎𝑛𝑡𝑒
12
𝐸𝑎 (ℎ2 ) ℎ2 2
=( )
𝐸𝑎 (ℎ1 ) ℎ1
Como 𝐸𝑎 ≅ 𝐸𝑡 , entonces:
𝐸𝑡 (ℎ2 ) ℎ2 2
≅( )
𝐸𝑡 (ℎ1 ) ℎ1
De donde se despeja:
ℎ1 2
𝐸𝑡 (ℎ1 ) ≅ ( ) 𝐸𝑡 (ℎ2 )
ℎ2
ℎ1 2 𝑰(𝒉𝟐 ) − 𝑰(𝒉𝟏 )
𝐼(ℎ1 ) + ( ) 𝐸𝑡 (ℎ2 ) ≅ 𝐼(ℎ2 ) + 𝐸𝑡 (ℎ2 ) → 𝑬𝒕 (𝒉𝟐 ) ≅
ℎ2 𝒉 𝟐
𝟏 − ( 𝟏)
𝒉𝟐
Luego
𝐼(ℎ2 ) − 𝐼(ℎ1 )
𝐼 ≅ 𝐼(ℎ2 ) +
ℎ 2
1 − ( 1)
ℎ2
𝟒 𝟏
𝑰≅ 𝑰(𝒉𝟐 ) − 𝑰(𝒉𝟏 )
𝟑 𝟑
𝟏𝟔 𝟏
𝑰≅ 𝑰𝒎 − 𝑰
𝟏𝟓 𝟏𝟓 𝒍
De manera similar con dos estimaciones de error 𝑂(ℎ6 ) se puede obtener una nueva estimación
de error 𝑶(𝒉𝟖 ), utilizando:
𝟔𝟒 𝟏
𝑰≅ 𝑰𝒎 − 𝑰
𝟔𝟑 𝟔𝟑 𝒍
El algoritmo de Romberg nos da una forma general de la ecuación de una aproximación por
extrapolación de Richardson de la integral, con un error 𝑂(ℎ2∗𝑘 ):
Donde:
𝐼1,𝑘 − 𝐼1,𝑘−1
|ℰ𝑎 | = | | ∗ 100
𝐼1,𝑘
|ℰ𝑎 | < ℰ𝑠
Integrales impropias
En esta sección se estudia integrales con límite inferior −∞ y/o límite superior +∞.
Este tipo de integrales se resuelve con un cambio de variable, que transforma el límite infinito en
1 1 1
uno finito. El cambio de variable es 𝑥 = 𝑡 → 𝑡 = 𝑥 𝑦 𝑑𝑥 = − (𝑡 2 ) 𝑑𝑡, entonces:
𝑏 1/𝑏
1 1
∫ 𝑓(𝑥)𝑑𝑥 = ∫ − 𝑓 ( ) 𝑑𝑡
𝑎 1/𝑎 𝑡2 𝑡
Esta ecuación es válida para si uno de los dos extremos es finito y el otro infinito; y 𝑎, 𝑏 > 0. Es
decir 𝑎, 𝑏 deben ser del mismo signo. En el caso que 𝑎, 𝑏 no sean del mismo signo, como 𝑎 = −∞
y 𝑏 > 0, se separa la integral.
𝑏 −𝐴 𝑏
∫ 𝑓(𝑥)𝑑𝑥 = ∫ 𝑓(𝑥)𝑑𝑥 + ∫ 𝑓(𝑥)𝑑𝑥
𝑎 −∞ −𝐴
Donde la integral impropia se resolverá con el cambio de variable anterior, utilizando una fórmula
abierta o semiabierta y la integral definida con alguna fórmula cerrada de Newton Cotes:
Formulas abiertas: Evita evaluar la integral en los límites donde puede haber un punto singulars
Formula semiabiertas: Son usadas cuando uno u otro extremo del intervalo es cerrado, la
preferida:
𝑥𝑛
∫ 𝑓(𝑥)𝑑𝑥 = ℎ[𝑓(𝑥1/2 ) + 𝑓(𝑥3/2 ) + ⋯ + 𝑓(𝑥𝑛−3/2 ) + 𝑓(𝑥𝑛−1/2 )]
𝑥0
Esta fórmula se conoce como regla extendida del punto medio. Se basa en límites de integración
que están ℎ/2 después y antes del último dato respectivamente.
Diferenciación numérica
Se obtendrán aproximaciones de las derivadas por diferencias divididas de alta exactitud
utilizando los términos de la serie de Taylor.
64
𝑓´´(𝑥𝑖 ) 2
𝑓(𝑥𝑖+1 ) = 𝑓(𝑥𝑖 ) + 𝑓´(𝑥𝑖 )(ℎ) + ℎ +⋯ (1)
2!
De donde se despeja:
𝑓´´(𝑥𝑖 )
𝑓(𝑥𝑖+2 ) = 𝑓(𝑥𝑖 ) + 𝑓´(𝑥𝑖 )(2ℎ) + (2ℎ)2 + ⋯ ; 𝑐𝑜𝑛 2ℎ = (𝑥𝑖+2 − 𝑥𝑖 )
2!
Reordenando queda:
Esta es una aproximación de la primera derivada por diferencias divididas hacia adelante. Las
aproximaciones por diferencias divididas hacia atrás y centrada:
65
Extrapolación de Richardson
La extrapolación de Richardson usa dos estimaciones de la derivada para obtener una tercera más
exacta.
La extrapolación de Richardson tiene una fórmula similar a la del caso de las integrales, para las
integrales era:
4 1
𝐼 ≅ 𝐼(ℎ2 ) − 𝐼(ℎ1 )
3 3
Para la derivada:
𝟒 𝟏
𝑫≅ 𝑫(𝒉𝟐 ) − 𝑫(𝒉𝟏 )
𝟑 𝟑
Para aproximaciones por diferencias centradas de error 𝑂(ℎ2 ), la aplicación de esta fórmula dará
una nueva estimación de error 𝑂(ℎ4 ).
𝑫(𝒉𝟐 ) − 𝑫(𝒉𝟏 )
𝑫 ≅ 𝑫(𝒉𝟐 ) +
𝒉 𝒏
( 𝟏) − 𝟏
𝒉𝟐
Una manera de obtener derivadas con datos irregularmente espaciados consiste en primero
ajustar un polinomio de interpolación de Lagrange de segundo grado a cada conjunto de tres
puntos adyacentes:
Esta ecuación nos permite estimar la derivada en cualquier punto dentro de un intervalo
determinado por tres puntos y su error es de 𝑶(𝒉𝟐 ).
66
𝑑𝑣 𝑐
=𝑔− 𝑣
𝑑𝑡 𝑚
𝑑2 𝑥 𝑑𝑥
𝑚 2
+𝑐 + 𝑘𝑥 = 0
𝑑𝑡 𝑑𝑡
𝒅𝒙
𝒚= (𝟏)
𝒅𝒕
Reemplazando y despejando:
𝑑𝑦 𝒅𝒚 𝒄𝒚 + 𝒌𝒙
𝑚 + 𝑐𝑦 + 𝑘𝑥 = 0 → =− (𝟐)
𝑑𝑡 𝒅𝒕 𝒎
Donde (1) y (2) forman un sistema de ecuaciones diferenciales de primer orden, equivalente a la
ecuación original de segundo orden.
Si bien la algunas EDO se puede resolver de forma analítica, hay muchas EDO para las cuales no
están disponibles soluciones exactas.
𝑑𝑛 𝑦
𝑎𝑛 (𝑥)𝑦 𝑛 + ⋯ + 𝑎1 (𝑥)𝑦´ + 𝑎0 𝑦 = 𝑓(𝑥), 𝑐𝑜𝑛 𝑦 𝑛 =
𝑑𝑥 𝑛
𝑑2 𝜃 𝑔
( 2 ) + 𝑠𝑒𝑛(𝜃) = 0
𝑑𝑡 𝑙
𝑑2 𝜃 𝑔
( 2 )+ 𝜃 = 0
𝑑𝑡 𝑙
Métodos Runge-Kutta
Los métodos Runge-Kutta se dedican a dar soluciones a las EDO de la forma:
𝑑𝑦
= 𝑓(𝑥, 𝑦)
𝑑𝑥
𝑦𝑖+1 = 𝑦𝑖 + ∅ℎ
Método de Euler
∅ = 𝑓(𝑥𝑖 , 𝑦𝑖 )
𝑦𝑖+1 = 𝑦𝑖 + 𝑓(𝑥𝑖 , 𝑦𝑖 ) ∗ ℎ
68
Esta ecuación predice un nuevo valor de "𝑦" usando la pendiente, para extrapolar linealmente
sobre el tamaño de paso ℎ. La estimación obtenida del método de Euler es exacta si la función que
se quiere estimar el lineal, de ahí que se diga que es un método de primer orden.
Error método de Euler: Analizamos primero el error de truncamiento local, por serie de Taylor:
𝑓´(𝑥𝑖 , 𝑦𝑖 ) 2 𝑓 𝑛 (𝑥𝑖 , 𝑦𝑖 ) 𝑛
𝑦𝑖+1 = 𝑦𝑖 + 𝑓(𝑥𝑖 , 𝑦𝑖 )ℎ + ℎ + ⋯+ ℎ + 𝑂(ℎ𝑛+1 )
2! 𝑛!
𝑦𝑖+1 = 𝑦𝑖 + 𝑓(𝑥𝑖 , 𝑦𝑖 ) ∗ ℎ
𝑓´(𝑥𝑖 , 𝑦𝑖 ) 2
𝐸𝑡 = ℎ + ⋯ + 𝑂(ℎ𝑛+1 )
2!
Para un tamaño del paso lo suficientemente pequeño los términos de mayor grado pierden peso y
se obtiene:
𝐸𝑎 = 𝑂(ℎ2 )
Método de Heun
𝑗 𝑗−1
𝑦𝑖+1 − 𝑦𝑖+1
|ℰ𝑡 | = | 𝑗
| ∗ 100
𝑦𝑖+1
*Nota: j (iteración actual del corrector), y j-1 (iteración anterior del corrector).
Este es un método de segundo orden, por lo tanto es exacto para funciones cuadráticas.
Error del método de Heun: Hay una estrecha relación entre la regla del trapecio y el método de
Heun, la regla del trapecio se define como:
𝑥𝑖+1
𝑓(𝑥𝑖 ) + 𝑓(𝑥𝑖+1 )
∫ 𝑓(𝑥)𝑑𝑥 ≅ ℎ
𝑥𝑖 2
𝑥𝑖+1
𝑦𝑖+1 = 𝑦𝑖 + ∫ 𝑓(𝑥)𝑑𝑥
𝑥𝑖
En conclusión el error truncamiento del método de Heun está dado por la regla del trapecio:
𝑓´´(ℰ) 3
𝐸𝑡 = − ℎ
12
Esta técnica utiliza el método de Euler para calcular un valor de y en el punto medio del intervalo.
70
ℎ
𝑦𝑖+1/2 = 𝑦𝑖 + 𝑓(𝑥𝑖 , 𝑦𝑖 )
2
,
𝑦𝑖+1/2 = 𝑓 (𝑥 1, 𝑦 1)
𝑖+ 𝑖+
2 2
Está pendiente la utiliza el método como una aproximación a la pendiente promedio de todo el
intervalo. Luego está pendiente se utiliza para extrapolar linealmente de 𝑥𝑖 hasta 𝑥𝑖+1 :
𝑦𝑖+1 = 𝑦𝑖 + 𝑓 (𝑥 1, 𝑦 1) . ℎ
𝑖+ 𝑖+
2 2
Se puede observar que al no estar el término 𝑦𝑖+1 en cada miembro de la ecuación no se puede
aplicarse de manera iterativa esta ecuación para mejorar la aproximación.
Error del método del punto medio: Al ser la pendiente una aproximación centrada tiene un error
de truncamiento local de 𝑂(ℎ2 ) y en consecuencia los errores local y global del método son 𝑂(ℎ2 )
y 𝑂(ℎ3 ), respectivamente.
Hay muchos métodos Runge-Kutta de cuarto orden el que se muestra a continuación es el método
clásico RK de cuarto orden:
𝟏
𝒚𝒊+𝟏 = 𝒚𝒊 + (𝒌𝟏 + 𝟐𝒌𝟐 + 𝟐𝒌𝟑 + 𝒌𝟒 )𝒉
𝟔
Donde:
- 𝑘1 = 𝑓(𝑥𝑖 , 𝑦𝑖 )
1 1
- 𝑘2 = 𝑓(𝑥𝑖 + 2 ℎ, 𝑦𝑖 + 2 𝑘1 ℎ)
1 1
- 𝑘3 = 𝑓(𝑥𝑖 + 2 ℎ, 𝑦𝑖 + 2 𝑘2 ℎ)
- 𝑘4 = 𝑓(𝑥𝑖 + ℎ, 𝑦𝑖 + 𝑘3 ℎ)
Este método utiliza múltiples estimaciones de la pendiente para obtener una mejor aproximación
de la pendiente promedio en el intervalo. La anterior ecuación representa una recta cuya
pendiente es el promedio ponderado de las pendientes 𝑘1 , 𝑘2 , 𝑘3 , 𝑘4.
Error del método RK de cuarto orden: El error de truncamiento local del método es 𝑂(ℎ5 ) y el
global 𝑂(ℎ6 ).
71
Sistemas de ecuaciones
𝑑𝑦1 (𝑥)
= 𝑓1 (𝑥, 𝑦1 , 𝑦2 , … , 𝑦𝑛 )
𝑑𝑥
𝑑𝑦2 (𝑥)
= 𝑓2 (𝑥, 𝑦1 , 𝑦2 , … , 𝑦𝑛 )
𝑑𝑥
𝑑𝑦𝑛 (𝑥)
= 𝑓𝑛 (𝑥, 𝑦1 , 𝑦2 , … , 𝑦𝑛 )
𝑑𝑥
La resolución de sistemas de ecuaciones consiste en aplicar la técnica elegida por ecuación antes
de proceder con la siguiente. Para el caso de que la técnica elegida sea el método clásico RK de
cuarto orden este se resuelve de la siguiente manera:
Los cuales se utilizan para calcular los primeros valores de 𝑦1 y 𝑦2 en el punto medio del intervalo:
ℎ ℎ
𝑦1 𝑖+1/2 = 𝑦1 𝑖 + 𝑘11 𝑦 𝑦2 𝑖+1/2 = 𝑦2 𝑖 + 𝑘12
2 2
ℎ ℎ
𝑘21 = 𝑓1 (𝑥𝑖 + , 𝑦1 1 , 𝑦2 1 ) 𝑦 𝑘22 = 𝑓2 (𝑥𝑖 + , 𝑦1 1 , 𝑦2 1 )
2 𝑖+
2
𝑖+
2 2 𝑖+
2
𝑖+
2
Los cuales se utilizan para obtener una mejor aproximación de los valores de 𝑦1 y 𝑦2 en el punto
medio del intervalo:
ℎ ℎ
𝑦1 𝑖+1/2 = 𝑦1 𝑖 + 𝑘21 𝑦 𝑦2 𝑖+1/2 = 𝑦2 𝑖 + 𝑘22
2 2
ℎ ℎ
𝑘31 = 𝑓1 (𝑥𝑖 + , 𝑦1 1 , 𝑦2 1 ) 𝑦 𝑘32 = 𝑓2 (𝑥𝑖 + , 𝑦1 1 , 𝑦2 1 )
2 𝑖+
2
𝑖+
2 2 𝑖+
2
𝑖+
2
Que se utiliza para calcular el último conjunto de pendientes al final del intervalo, 𝑖 + 1:
𝟏
𝒚𝟏 𝒊+𝟏 = 𝒚𝟏 (𝒙𝒊 + 𝒉) = 𝒚𝟏 (𝒙𝒊 ) + (𝒌𝟏𝟏 + 𝟐𝒌𝟐𝟏 + 𝟐𝒌𝟑𝟏 + 𝒌𝟒𝟏 )𝒉
𝟔
𝟏
𝒚𝟐 𝒊+𝟏 = 𝒚𝟐 (𝒙𝒊 + 𝒉) = 𝒚𝟐 (𝒙𝒊 ) + (𝒌𝟏𝟐 + 𝟐𝒌𝟐𝟐 + 𝟐𝒌𝟑𝟐 + 𝒌𝟒𝟐 )𝒉
𝟔
Caso General
𝑑5 𝑦
= 𝑓(𝑥, 𝑦 𝐼 , 𝑦 𝐼𝐼 , 𝑦 𝐼𝐼𝐼 , 𝑦 𝐼𝑉 )
𝑑𝑥 5
Defino:
𝒛𝟏 ≜ 𝒚𝑰𝑽
Entonces:
𝒅𝒛𝟐
𝒛𝟐 ≜ 𝒚𝑰𝑰𝑰 → 𝒛𝟏 =
𝒅𝒙
𝒅𝒛𝟑
𝒛𝟑 ≜ 𝒚𝑰𝑰 → 𝒛𝟐 =
𝒅𝒙
𝒅𝒛𝟒
𝒛𝟒 ≜ 𝒚𝑰 → 𝒛𝟑 =
𝒅𝒙
𝒅𝒛𝟓
𝒛𝟓 ≜ 𝒚 → 𝒛𝟒 =
𝒅𝒙
Luego:
𝑑𝑧1
= 𝑓1 (𝑥, 𝑧5 , 𝑧4 , 𝑧3 , 𝑧2 , 𝑧1 )
𝑑𝑥
𝑑𝑧2
= 𝑧1 = 𝑓2 (𝑥, 𝑧5 , 𝑧4 , 𝑧3 , 𝑧2 , 𝑧1 )
𝑑𝑥
𝑑𝑧3
= 𝑧2 = 𝑓3 (𝑥, 𝑧5 , 𝑧4 , 𝑧3 , 𝑧2 , 𝑧1 )
𝑑𝑥
𝑑𝑧4
= 𝑧3 = 𝑓4 (𝑥, 𝑧5 , 𝑧4 , 𝑧3 , 𝑧2 , 𝑧1 )
𝑑𝑥
73
𝑑𝑧5
= 𝑧4 = 𝑓5 (𝑥, 𝑧5 , 𝑧4 , 𝑧3 , 𝑧2 , 𝑧1 )
𝑑𝑥