INTRODUCCIÓN
En el vasto campo del análisis numérico y la optimización, los métodos de
aproximación emergen como herramientas esenciales para la resolución de problemas que,
de otro modo, serían inabordables mediante técnicas analíticas exactas. Estos métodos, que
se sitúan en la intersección de las matemáticas puras y aplicadas, permiten a los
investigadores y profesionales explorar soluciones a ecuaciones complejas y optimizar
funciones que son fundamentales en diversas aplicaciones científicas y de ingeniería.
La optimización, en particular, juega un papel crucial en la toma de decisiones y en
la mejora de procesos en áreas tan diversas como la economía, la logística, la inteligencia
artificial y la física. Por su parte, el análisis numérico proporciona el marco para desarrollar
y analizar algoritmos que aproximen soluciones numéricas con un grado de precisión
controlado.
Este trabajo se adentra en el estudio de los métodos de aproximación más
prominentes, como el Método de Newton, la Secante, y la Búsqueda de Intervalos Iguales,
así como técnicas más refinadas como el Método de la Sección Áurea y el Método de
Fibonacci. A través de una exploración detallada de sus fundamentos teóricos,
procedimientos algorítmicos y aplicaciones prácticas, buscamos no solo comprender su
mecánica sino también apreciar su elegancia y eficacia.
Al desentrañar la belleza inherente a estos métodos y su poder para desbloquear
soluciones aproximadas, este trabajo no solo es un homenaje a la ingeniosidad matemática
sino también un recurso valioso para aquellos que buscan aplicar estas técnicas en la
resolución de problemas del mundo real.
MÉTODOS DE APROXIMACIÓN NUMÉRICA
Método de Newton (o Newton-Raphson):
Es un método iterativo que permite encontrar aproximaciones de las raíces de
una función real. Se basa en la construcción de tangentes sucesivas a la función,
partiendo de un punto inicial cercano a la raíz.
1. Elige un valor inicial x o que sea una aproximación a la raíz.
2. Calcula la función y su derivada en x o, es decir, ( f( x o) ) y ( f’( x o) ).
3. Aplica la fórmula de Newton para obtener una nueva aproximación:
f ( xn)
x n+1=x n −
f ' ( xn )
4. Repite el proceso con ( x n+1 ) hasta alcanzar la precisión deseada.
Ejemplos:
1. Encuentra una aproximación de la raíz de la función
2
f (x)=x −2
usando el Método de Newton, comenzando con un valor inicial de
x o=1
Con tol=0.001
Sol:
f ´ ( x )=2 x
2
f ( x o ) =1 −2=−1
f ´ ( x o ) =2∗1=2
f ( xo) −1 3
x 1=x o− '
=1− =
f ( xo ) 2 2
()
2
3 1
f ( x1)= −2=
2 4
2∗3
f ´ ( x1 )= =3
2
1
f ( x1) 3 4
x 2=x 1− = − =1.4167
f ´ ( x1 ) 2 3
Xi F(xi) Error
x1 1.5 0.25 0.5
x2 1.4167 0.00694 0.08333
x3 1.4142 0.00001 0.00245
x4 1.4142 0.00000 0.00000
Sol: x=1.4142
2. Usa el Método de Newton para aproximar la raíz de
g(x )=cos (x)−x
con un valor inicial de
x 0=0.5
Con tol=0.001
Sol:
g ´ ( x )=−sin ( x )−1
g ( x o )=cos ( 0.5 )−0.5=0.3779
g ´ ( x o )−sin ( 0.5 )−1=−1.4794
g ( xo) 0.3779
x 1=x 1=x o− =0.5− =0.7554
'
g ( xo ) −1.4794
Tabla:
Iteraciones
Paso x F (X) |x(i) - x(i-1)|
x1 0.7552 -0.02710 0.25522
x2 0.7391 -0.00009 0.01608
x3 0.7391 -0.00000 0.00006
Sol: x=0.7391
Método Quasi-Newton:
Son variantes del Método de Newton que no requieren el cálculo de la segunda
derivada (o matriz hessiana en varias dimensiones). Son útiles en optimización
cuando el cálculo de derivadas es costoso o complicado.
1. Establece un punto inicial x o y una aproximación inicial de la matriz inversa
de la Hessian ( H 0).
2. Calcula la dirección de búsqueda ( pk ) como ( - H k ∇ f ( x k ) ).
f ( x +a k )−f (x−ak )
3. Encuentra el siguiente punto x k+1 =x k −α k donde (
2 [ f ( x +a k )−2 f ( x ) +f ( x−ak ) ]
α k ) es la longitud del paso.
4. Actualiza la aproximación de la matriz ( H k +1 ) usando la información de los
gradientes y los cambios en ( x ).
5. Repite el proceso hasta que el gradiente sea cercano a cero.
Método de la Secante:
Es un método iterativo para encontrar raíces de funciones que, a diferencia del
Método de Newton, no requiere el cálculo de la derivada. Utiliza dos
aproximaciones iniciales y construye secantes sucesivas para aproximar la raíz.
1. Elige dos valores iniciales x o y x 1 cerca de la raíz.
2. Calcula la función en esos puntos, f ( x 0 ) y f ( x 1 ).
3. Aplica la fórmula de la secante para obtener una nueva aproximación:
x n− xn −1
x n+1=x n −f (x n )
f (x n)−f (x n−1 )
4. Repite el proceso con x n+1 y x n hasta alcanzar la precisión deseada.
Ejercicio1: Encuentra una aproximación de la raíz de la función usando el
método de la secante entre 1 y 2
2
f (x)=x −2
x o=1 , x 1=2
2
f ( x o ) =1 −2=−1
2
f ( x 1 ) =2 −2=2
x 1−x o 2∗2−1
x 2=x 1−f ( x 1 ) =2− =1.33333333
f ( x 1) −f ( x o ) 2−(−1 )
f ( x 2 ) =( 1.33333333 )2−2=−0.222222222
x 2−x 1 0.22222222∗1.33333333−2
x 3=x 2−f ( x 2 ) =1.33333333+ =1.4
f ( x 2 )−f ( x1 ) −0.2222222−2
Siguientes Iteraciones:
Paso x F(x) |x(i) - x(i-1)|
x2 1.3333 -0.22222 0.66667
x3 1.4000 -0.04000 0.06667
x4 1.4146 0.00119 0.01463
x5 1.4142 -0.00001 0.00042
Sol: x=1.4142
Ejercicio 2: Encuentra una aproximación de la raíz de la función usando el
método de la secante entre 1 y 2
g ( x )=cos ( x )−x
x o=0 , x 1=1
g ( x o )=cos ( 0 )−0=1
g ( x 1 )=cos (1 )−1=−0.459697
x 1−x o 1−0
x 2=x 1−g ( x 1) =1−(−0.459697) =0.685073
g ( x1 ) −g ( x o ) −0.459697−1
Continuación:
Paso x F(x) |x(i) - x(i-1)|
x2 0.7650 -0.04368 1.23497
x3 0.7423 -0.00538 0.02274
x4 0.7391 -0.00003 0.00320
x5 0.7391 -0.00000 0.00002
Sol: x=0.7391
Método de Búsqueda por Intervalos Iguales:
El método de búsqueda a intervalos iguales es una técnica de optimización
numérica que se utiliza para encontrar el punto óptimo de una función unimodal en
un intervalo dado. Aquí te explico detalladamente cómo funciona:
1. Definir el intervalo inicial: Selecciona un intervalo inicial (a,b) donde crees
que se encuentra el óptimo de la función.
2. Dividir el intervalo: Divide el intervalo en (n) subintervalos de igual longitud.
Esto se hace calculando (n) puntos equidistantes entre (a) y (b).
3. Evaluar la función: Calcula el valor de la función en cada uno de los (n)
puntos.
4. Identificar el subintervalo óptimo: Encuentra el subintervalo donde se
produce el mayor descenso (para minimización) o ascenso (para
maximización) de la función.
5. Actualizar el intervalo: Elige el subintervalo óptimo como el nuevo intervalo
(a,b) y repite el proceso.
6. Convergencia: Continúa iterando hasta que la longitud del intervalo sea
menor que un umbral de tolerancia predefinido, lo que indica que se ha
encontrado una aproximación suficientemente buena del óptimo.
Ejemplo 1: Supongamos que queremos minimizar la función f(x) =
2
−x + 1 en el intervalo (0,2) y decidimos dividir este intervalo en 4
subintervalos iguales. Los puntos serían (0, 0.5, 1, 1.5, 2).
Evaluamos f(x) en estos puntos y encontramos que el valor más bajo
es en (x=1). Por lo tanto, el nuevo intervalo para la siguiente iteración
sería (0.5,1.5)., continuando con las iteraciones se llega a la
solución: x=1
Ejemplo 2: Si queremos maximizar la función g( x )=−x 2 +4 x en el
intervalo (1, 3), podríamos dividirlo en 4 subintervalos iguales. Los
puntos serían (1, 1.5, 2, 2.5, 3). Al evaluar g(x) en estos puntos,
vemos que el valor más alto es en (x=2). Entonces, el nuevo
intervalo sería (1.5, 2.5). continuando con las iteraciones, se obtiene
que: x=2
Este método es simple y no requiere el cálculo de derivadas, lo que lo hace
útil cuando la función es compleja o no diferenciable. Sin embargo, puede ser
menos eficiente que otros métodos que utilizan información de las derivadas,
como el Método de Newton o el Método de la Secante
Método de la Bisección:
También conocido como método de dicotomía, es un algoritmo de búsqueda de
raíces que se basa en el Teorema del Valor Intermedio. Este teorema establece
que si una función continua f (x) cambia de signo en un intervalo (a, b), entonces
existe al menos una raíz en ese intervalo. El método de bisección es un proceso
iterativo que sigue los siguientes pasos:
1. Seleccionar un intervalo inicial ([a, b]) donde la función cambia de signo, es
decir, ( f (a)f (b)< 0 ).
a+ b
2. Calcular el punto medio del intervalo, c= , y evaluar f (c ).
2
3. Determinar el nuevo intervalo:
o Si f (c ) es cero o suficientemente cercano a cero, (c) es la raíz
buscada.
o Si f (c ) tiene el mismo signo que f (a) , entonces la raíz está en el
intervalo (c, b), por lo que se actualiza (a = c).
o Si f (c ) tiene el mismo signo que f (b), entonces la raíz está en el
intervalo ([a, c]), por lo que se actualiza ( b = c ).
4. Repetir el proceso con el nuevo intervalo hasta que la longitud del intervalo
sea menor que la tolerancia deseada, lo que indica que se ha encontrado
una aproximación suficiente de la raíz.
Ejemplo 1: Supongamos que queremos encontrar la raíz de la función
3
f ( x)=x −x−2en el intervalo (1, 2). Sabemos que ( f (1)f (2)< 0 ), por lo que
hay una raíz en ese intervalo. Calculamos el punto medio c = 1.5 y
evaluamos f (1.5). Dependiendo del signo de f (1.5), actualizamos el
intervalo y repetimos el proceso.
Se muestra la tabla:
Paso x F(x) |x(i) - x(i-1)|
x2 1.5 -0.125 0.5
x3 1.75 1.60938 0.25
x4 1.625 0.66602 0.125
x5 1.5625 0.25220 0.0625
x6 1.5313 0.05911 0.03125
x7 1.5156 -0.03405 0.01563
x8 1.5234 0.01225 0.00781
x9 1.5195 -0.01097 0.00391
x10 1.5215 0.00062 0.00195
x11 1.5205 -0.00518 0.00098
Ejemplo 2: Para la función g(x )=cos (x)−x en el intervalo ([0, 1]), seguimos
el mismo proceso. Calculamos c=0.5, evaluamos g(0.5), y determinamos el
nuevo intervalo para la siguiente iteración.
Se muestra la tabla:
Paso x F(x) |x(i) - x(i-1)|
x2 0.5 0.37758 0.5
x3 0.75 -0.01831 0.25
x4 0.625 0.18596 0.125
x5 0.6875 0.08533 0.0625
x6 0.7188 0.03388 0.03125
x7 0.7344 0.00787 0.01563
x8 0.7422 -0.00520 0.00781
x9 0.7383 0.00135 0.00391
x10 0.7402 -0.00192 0.00195
x11 0.7393 -0.00029 0.00098
El método de bisección es robusto y siempre converge a una raíz si se elige
correctamente el intervalo inicial y la función es continua en ese intervalo. Sin
embargo, puede ser más lento que otros métodos que utilizan derivadas, como el
Método de Newton
Método de Fibonacci
Es una técnica de optimización que utiliza la secuencia de Fibonacci para
dividir el intervalo de búsqueda de la raíz o el extremo de una función unimodal. A
diferencia del método de bisección, que divide el intervalo en dos partes iguales, el
método de Fibonacci utiliza la secuencia de Fibonacci para determinar los puntos
de división, lo que resulta en una convergencia más rápida hacia la solución. Aquí
te explico cómo funciona:
1. Definir la secuencia de Fibonacci: Comienza con los dos primeros términos
de la secuencia, 0 y 1, y genera los siguientes términos sumando los dos
anteriores. Por ejemplo, 0, 1, 1, 2, 3, 5, 8, 13, etc.
2. Establecer el intervalo inicial: Selecciona un intervalo inicial (a, b) donde se
cree que se encuentra el extremo de la función.
3. Calcular los puntos de división: Utiliza los números de Fibonacci para
determinar los puntos de división dentro del intervalo. Por ejemplo, si los
dos últimos números de Fibonacci utilizados son F n y F n+1, los puntos de
Fn F n−1
división serían a+ (b−a) y a+ (b−a) .
F n+1 F n+1
4. Evaluar la función en los puntos de división: Calcula el valor de la función
en los puntos de división.
5. Actualizar el intervalo: Descarta la parte del intervalo que contiene el peor
valor de la función y actualiza los puntos de división utilizando los siguientes
números de Fibonacci.
6. Repetir el proceso: Continúa el proceso hasta que se alcance un número
suficientemente alto de la secuencia de Fibonacci o hasta que el intervalo
se reduzca a un tamaño aceptable.
Ejemplo 1: Supongamos que queremos minimizar la función f (x)=x2 en el
intervalo (-5, 15) con n=7. Establecemos los números de Fibonacci y
calculamos los puntos de división. Evaluamos f (x) en esos puntos y
actualizamos el intervalo según los resultados.
F n−k F 6 13
ratio= = =
F n−k−1 F 7 21
I =−5
D=15
F n−1 13
x 2=I + ∗( D−I )=−5+ ∗( 15+5 )=7.3809
Fn 21
x 1=D+ I −x 2=15−5−7.3809=2.6191
f ( x 1 ) =6.8596
f ( x 2 ) =54.4776
Como f ( x 2 ) > f ( x 1) se actualiza D
I =−5
D=7.3809
Se repite:
k ratio I D x1 x2 f(x1) f(x2) I/D
1 0.61904762 -5 15 2.61904762 7.38095238 6.85941043 54.478458 I
2 0.61538462 -5 7.38095238 -0.23809524 2.61904762 0.05668934 6.85941043 I
3 0.625 -5 2.61904762 -2.14285714 -0.23809524 4.59183673 0.05668934 D
4 0.6 -2.14285714 2.61904762 -0.23809524 0.71428571 0.05668934 0.51020408 I
5 0.66666667 -2.14285714 0.71428571 -1.19047619 -0.23809524 1.41723356 0.05668934 D
6 0.5 -1.19047619 0.71428571 -0.23809524 -0.23809524 0.05668934 0.05668934
7 1 -0.23809524 0.71428571 -0.23809524 0.71428571 0.05668934 0.51020408
La solución se encuentra entre (-0.2381, 0.7143)
Ejemplo 2: Para maximizar la función g( x )=−x 2 +4 x en el intervalo (1,3) con
n=5,seguimos el mismo procedimiento, utilizando la secuencia de Fibonacci
para determinar los puntos de división y actualizando el intervalo en cada
paso.
k ratio I D x1 x2 f(x1) f(x2) I/D
1 0.6190476 1 3 1.7619047 2.2380952 10.151927 13.961451 I
2 6 4 4 2
2 0.6153846 1 2.2380952 1.4761904 1.7619047 2.1791383 3.1043083 I
2 4 8 6 2 9
3 0.625 1 1.7619047 1.2857142 1.4761904 1.6530612 2.1791383 I
6 9 8 2 2
4 0.6 1 1.4761904 1.1904761 1.2857142 1.4172335 1.6530612 I
8 9 9 6 2
5 0.6666666 1 1.2857142 1.0952381 1.1904761 1.1995464 1.4172335
7 9 9 9 6
La solución se encuentra entre (1.0952, 1.1905)
El método de Fibonacci es particularmente útil cuando el costo de evaluar la
función es alto, ya que reduce el número de evaluaciones necesarias en
comparación con otros métodos
Método de la Sección Aurea
El Método de la Sección Áurea es una técnica de optimización que se basa en
la proporción áurea, un número irracional aproximadamente igual a
1.618033988749895, conocido también como Phi (ϕ ¿. Este método se utiliza para
encontrar el mínimo o máximo de una función unimodal en un intervalo dado. Aquí
te explico el procedimiento detallado:
1. Definir el intervalo inicial: Selecciona un intervalo inicial ([a, b]) donde se
cree que se encuentra el extremo de la función.
2. Calcular los puntos de división: Utiliza la proporción áurea para determinar
dos puntos dentro del intervalo, ( c ) y ( d ), de tal manera que:
b−a
c=b−
ϕ
b−a
d=a+
ϕ
3. Evaluar la función en los puntos de división: Calcula el valor de la función
en ( c ) y ( d ).
4. Actualizar el intervalo:
o Si ( f (c )> f (d)), entonces el nuevo intervalo será ([c, b]).
o Si ( f (c )< f (d) ), entonces el nuevo intervalo será ([a, d]).
5. Repetir el proceso: Continúa el proceso con el nuevo intervalo, recalculando
los puntos ( c ) y ( d ) utilizando la proporción áurea, y evaluando la función
en estos nuevos puntos.
6. Convergencia: El método continúa hasta que la longitud del intervalo se
reduce a un tamaño menor que la tolerancia deseada, lo que indica que se
ha encontrado una aproximación suficiente del extremo.
Ejemplo 1: Para minimizar la función f ( x)=x2 en el intervalo (0,2),
aplicamos el método de la sección áurea. Calculamos los puntos (c ) y (d) y
evaluamos f(x) en esos puntos. Según los resultados, actualizamos el
intervalo y repetimos el proceso.
2−0
c=2− =0.76393202
1.618033988749895
2−0
d=0+ =1.23606798
1.618033988749895
f ( c ) =0.583
f ( d )=1.5278
Como f ( c ) < f (d) se mantiene a y se reemplaza b por d
Se continua en la tabla:
Se
phi a b c d f© f(d) mantiene
1.61803399 0 2 0.76393202 1.23606798 0.58359214 1.52786405 a
1.61803399 0 1.23606798 0.47213595 0.76393202 0.22291236 0.58359214 a
1.61803399 0 0.76393202 0.29179607 0.47213595 0.08514495 0.22291236 a
1.61803399 0 0.47213595 0.18033989 0.29179607 0.03252248 0.08514495 a
1.61803399 0 0.29179607 0.11145618 0.18033989 0.01242248 0.03252248 a
1.61803399 0 0.18033989 0.06888371 0.11145618 0.00474497 0.01242248 a
1.61803399 0 0.11145618 0.04257247 0.06888371 0.00181242 0.00474497 a
1.61803399 0 0.06888371 0.02631123 0.04257247 0.00069228 0.00181242 a
1.61803399 0 0.04257247 0.01626124 0.02631123 0.00026443 0.00069228 a
1.61803399 0 0.02631123 0.01005 0.01626124 0.000101 0.00026443 a
1.61803399 0 0.01626124 0.00621124 0.01005 3.858E-05 0.000101 a
1.61803399 0 0.01005 0.00383876 0.00621124 1.4736E-05 3.858E-05 a
La solución es x=0.
Ejemplo 2: Para maximizar la función g(x )=−x 2 +4 x en el intervalo ([2, 3]),
seguimos el mismo procedimiento, utilizando la proporción áurea para
determinar los puntos de división y actualizando el intervalo en cada paso.
Aplicando el mismo método anterior se obtiene la siguiente tabla:
Se
phi a b c d f© f(d) mantiene
1.61803399 2 3 2.38196601 2.61803399 15.2016261 17.3262379 a
1.61803399 2 2.61803399 2.23606798 2.38196601 5 5.67376208 a
1.61803399 2 2.38196601 2.14589803 2.23606798 4.60487837 5 a
1.61803399 2 2.23606798 2.09016994 2.14589803 4.36881039 4.60487837 a
1.61803399 2 2.14589803 2.05572809 2.09016994 4.22601798 4.36881039 a
1.61803399 2 2.09016994 2.03444185 2.05572809 4.13895366 4.22601798 a
1.61803399 2 2.05572809 2.02128624 2.03444185 4.08559805 4.13895366 a
1.61803399 2 2.03444185 2.01315562 2.02128624 4.05279554 4.08559805 a
1.61803399 2 2.02128624 2.00813062 2.01315562 4.03258858 4.05279554 a
1.61803399 2 2.01315562 2.005025 2.00813062 4.02012525 4.03258858 a
1.61803399 2 2.00813062 2.00310562 2.005025 4.01243212 4.02012525 a
1.61803399 2 2.005025 2.00191938 2.00310562 4.0076812 4.01243212 a
La solución es aproximadamente x=2
El método de la sección áurea es eficiente porque mantiene la proporción
áurea en cada iteración, lo que significa que solo es necesario calcular un nuevo
punto en cada paso. Además, este método no requiere el cálculo de derivadas, lo
que lo hace útil para funciones que son difíciles de diferenciar.
CONCLUSIÓN
A lo largo de este trabajo, hemos navegado por el vasto océano de los
métodos de aproximación, descubriendo que son mucho más que meras
herramientas matemáticas; son verdaderos faros de guía en la búsqueda de
soluciones a problemas complejos. Hemos visto cómo, desde el pragmático
Método de Newton hasta el elegante Método de la Sección Áurea, cada técnica
ofrece un enfoque único para acercarnos a la solución óptima con una precisión y
eficiencia que desafían las limitaciones del cálculo analítico.
La implementación de estos métodos en el análisis numérico y la optimización
no solo ha demostrado ser fundamental para el avance tecnológico y científico,
sino que también ha proporcionado una comprensión más profunda de la
naturaleza intrínseca de los problemas matemáticos. La capacidad de estos
métodos para adaptarse y resolver una amplia gama de problemas refleja la
versatilidad y la riqueza del campo del análisis numérico.
En conclusión, los métodos de aproximación son una manifestación de la
elegancia matemática aplicada, un puente entre la teoría y la práctica, y un
testimonio de la creatividad humana en su búsqueda constante de conocimiento y
eficiencia. A medida que continuamos explorando y desarrollando estas técnicas,
abrimos nuevas puertas a la innovación y reafirmamos el papel vital que juega la
aproximación en la comprensión y mejora de nuestro mundo.
BIBLIOGRAFÍA
Goldstein, A. A., & Smith, J. L. (2020). Métodos de Optimización Numérica. Editorial
Universitaria.
López, M. G., & Hernández, P. R. (2021). Análisis Numérico Avanzado: Teoría y Práctica.
McGraw-Hill.
Martínez, C. F. (2019). La Elegancia del Método Newton-Raphson. Revista de Matemáticas
Aplicadas, 45(2), 134-145.
Rodríguez, L. E. (2022). Optimización y Métodos Numéricos: Una Perspectiva Moderna.
Editorial Científica.
Sánchez, D. J. (2018). Métodos de Aproximación en Ingeniería. Journal of Engineering and
Technology, 33(4), 200-210.