Apuntes Calculo Numerico
Apuntes Calculo Numerico
x = d1 d2 d3 , d4 d5 d6 d7 . . .
Siendo d la cantidad de dígitos del sistema de numeración elegido para representar dicho
i
Notación Científica
Otra forma de expresar ese número es moviendo la parte entera al lado de los
decimales, haciendo que la parte entera sea nula, quedando de la siguiente forma:
e
x = b .0, d 1 d 2 d 3 d 4 d 5 d 6 d 7
Al usar la computadora, se usa el sistema binario, donde b = 2, y las cifras o dígitos en esa
base de este sistema numérico compuesta por el conjunto {0, 1} se denominan “bits”
En donde:
ε representa el signo.
b la base del sistema numérico.
e un exponente entero.
t el número de dígitos significativos.
δ1 δ2 δ3 δ4 … δt la parte fraccionaria significativa.
Cotas de Error
Cota de Truncamiento
–
x − x −t+1
| | ≤ 10
x
En donde:
x es el valor real.
–
x es su aproximación.
t la cantidad de dígitos significativos.
Cálculo de Errores
Las cotas de error son valores que indican cuánto puede desviarse el resultado de una
aproximación o medición del valor verdadero o exacto. En este caso, las cotas de error de
redondeo serán:
Error Absoluto: E a
= f l(x) − x, que con su valor absoluto nos queda |E a
| ≤ 0, 5.10
e−t
.
Error Relativo: E r =
Ea
x
, que con su valor absoluto nos queda |E r| ≤ 0, 5.10
−t
.
Error Verdadero
Error relativo f raccional =
Valor Verdadero
ó
Aproximaci n Actual − Aproximaci n Previa ó
Ea = .100
ó
Aproximaci n Actual
Error de Truncamiento
Se refiere al error que se comete cuando se utiliza una versión simplificada o truncada de
un proceso matemático que, de otra forma, sería más complejo o incluso infinito en
naturaleza. En el ejemplo de las series de Taylor, el error de truncamiento aparece cuando
utilizamos solo un número fijo de términos de la serie para realizar la aproximación. Esto
quiere decir que a mayor cantidad de términos utilicemos para la aproximación menor será
el error en su aproximación.
Cuando se aproxima una función f (x) por su serie de Taylor alrededor de un punto a, solo
se utilizan los primeros n términos, y la serie de Taylor se convierte en un polinomio de
Taylor de grado n. La diferencia entre el valor real de la función f (x) y el valor del polinomio
de Taylor de grado n es lo que llamamos error de truncamiento. Este error es estimado
utilizando la siguiente fórmula:
(n+1)
f (ξ)
n+1
Rn = (x − a)
(n + 1)!
Propagación de Errores
Los errores de los números pueden propagarse a través de las funciones matemáticas. Por
ejemplo, cuando multiplicamos dos números que tienen error, nos gustaría saber el error de
ese producto.
Sea función de la variable independiente . Si consideramos que es una
–
f (x) x x
–
–
Δf (x) = |f (x) − f (x)|
–
f (x) f (x) condiciones, usamos la serie de Taylor para calcular cerca de .
′′ (n)
f (x̄) f (x̄)
′ 2 n
f (x) = f (x̄) + f (x̄) ⋅ (x − x̄) + ⋅ (x − x̄) + ⋯ + ⋅ (x − x̄) + Rn
2! n!
–
f (x) Si nos quedamos con los dos primeros términos del desarrollo y pasamos al primer
miembro, queda la expresión:
–
–
–
–
–
– ′
f (x) − f (x) ≅ f (x)(x − x) = Δf (x) ≅ |f (x)|. |(x − x)|
–
Δx = |x − x| Que representa una estimación del error de la función y representa una
estimación del error de x. La fórmula anterior proporciona la capacidad de aproximar el error
de una función, mediante la derivada de la función y una estimación del error de la variable
independiente.
Error de Redondeo
Estos errores resultan de representar en forma aproximada números exactos, dependen de
la computadora o de quien realice los cálculos. Si se realizan las operaciones algebraicas a
mano se deben tener en cuenta las reglas de redondeo.
Reglas de Redondeo
Este tipo de error suele ocurrir cuando se calculan series infinitas, donde el término
inicial es grande en comparación con los términos sucesivos, de manera tal que
después de sumar pocos términos, estamos en esta situación. Se puede tratar de
solucionar, sumando en sentido inverso, es decir, en forma ascendente.
3. La cancelación por resta surge cuando dos números casi iguales se restan, y el
resultado es un número mucho más pequeño con menos dígitos significativos de
precisión que los números originales. Imaginemos que tenemos A = 0,1234 y B =
0,1233. Al restar B de A, el resultado es 1. Sin embargo, este '1' solo tiene un dígito de
precisión, mientras que los números originales tenían 4 dígitos significativos. La
diferencia resultante, por lo tanto, tiene mucha menos precisión que los números
originales. Esto se puede mitigar utilizando algoritmos numéricos que están diseñando
para minimizar este efecto, utilizando una representación de doble precisión o
reestructurando los cálculos para evitar restar números cercanos.
4. Para la multiplicación y la división el redondeo es tal que la cantidad de cifras
significativas del resultado es igual al número que contenga menos cifras significativas.
Por ejemplo sí multiplicamos 4.56 y 2.1, el resultado crudo podría ser 9.576, sin
embargo, este resultado termina siendo 9.6, ya que 2.1 tiene solo dos cifras
significativas.
5. En el caso de operaciones combinadas se ejecutan las operaciones entre paréntesis y
el resultado se redondea antes de proceder con la otra operación.
Si los cálculos se realizan utilizando una computadora se debe considerar que la mayoría
de ellas guardan un número finito de cifras significativas durante un cálculo y resultan
críticos en dos casos:
Análisis Numérico
Se pueden definir a los métodos numéricos como las técnicas mediante las cuales es
posible formular problemas de manera que puedan resolverse utilizando operaciones
aritméticas, o también como el grupo de conocimientos matemáticos relacionados con el
diseño y análisis de algoritmos necesarios para resolver problemas de ciencia e ingeniería.
Estos métodos se caracterizan porque permiten dar más importancia a la formulación e
interpretación de la solución, los cálculos involucrados están relacionados con cantidades
discretas, permiten obtener resultados aproximados y ayudan a identificar, cuantificar y
minimizar los errores.
En el ejercicio de la profesión y en la vida diaria, se presentan diferentes problemas, que no
tienen una solución matemática exacta, pero que es imprescindible resolver como:
Modelos Matemáticos
UNIDAD 2
Los sistemas de ecuaciones pueden ser de dos tipos, incompatibles los cuales no admiten
solución y los compatibles los cuales admiten solución. Un sistema de ecuaciones se dice
compatible y determinado si solo admite una única solución, mientras que un sistema de
ecuaciones es compatible e indeterminado si admite más de una solución.
Teorema de Rouchè-Frobenius
Métodos Directos
Estos métodos se caracterizan por tener una cantidad exacta de pasos, las cuales va a
variar de acuerdo al tamaño de la matriz que se esté resolviendo.
Las técnicas para resolver sistemas lineales, necesitan considerar, además del espacio
requerido para almacenamiento, el error de redondeo y el tiempo de procesamiento
necesario para completar los cálculos, que dependen del número de operaciones
aritméticas que se necesitan para resolver un problema rutinario.
Métodos Iterativos
Al contrario que los métodos directos que nos dan un resultado concreto luego de realizar
una determinada cantidad de pasos, los métodos iterativos lo que hacen en buscar una
aproximación aplicando un número desconocido de pasos.
también lo es, cabe aclarar que el tamaño de una matriz no está relacionado con su
orden, sino que se utiliza las normas de las matrices para denotar su tamaño.
Estas normas pueden ser columna-suma o fila-suma denotada como ||A|| , en la cual
1
se calcula la suma de los calores absolutos de las columnas o filas y el mayor de esos
resultados representaría el tamaño de matriz, otra norma utilizada es la norma de
magnitud máxima que toma como tamaño de la matriz el mayor número de la matriz en
su valor absoluto. La norma de Fröbenius es otra medida del tamaño de las matrices y
se consigue al sumar todos los elementos de la matriz al cuadrado y luego al resultado
aplicarle una raíz cuadrada.
Mientras más cercano a 1 sea este término mejor condicionada estará la matriz. Esta
medida se puede utilizar para medir el error relativo, de la siguiente forma:
||ΔX|| ||ΔA||
≤ k(A) ⋅
||X|| ||A||
Método de Jacobi
Si se considera un sistema de ecuaciones algebraicas, que puede escribirse en forma
matricial como A ⋅ X = C y que A = D + R, donde D es una matriz diagonal. Entonces
puede escribirse que:
−1 −1
(D + R) ⋅ X = C → DX = C − RX → X = D ⋅ C − D ⋅ RX
Para aplicar este método, se considera una primera aproximación al valor de las incógnitas
x , que se denomina X . Se sustituye esa primera aproximación en los demás miembros
(0)
de la ecuación y así sucesivamente, por ejemplo, en una situación trivial, dado una matriz y
teniendo lista la ecuación, todos los x pueden ser reemplazados por 0 para obtener la
i
Este método es muy poco utilizado debido a que el método de Gauss-Seidel converge
más rápidamente a la solución y además lo hace cuando no se logra que el método de
Jacobi converja.
La condición suficiente para que el método de Jacobi converja es que la matriz de
coeficientes sea diagonal dominante, es decir que cada elemento de la diagonal
principal es mayor en valor absoluto que la suma del resto de los elementos de la
misma fila en la que se encuentra el elemento en cuestión.
Método de Gauss-Seidel
Es un método iterativo que disminuye el error de redondeo, se denomina también de
desplazamientos sucesivos o de iteraciones parciales. Sí, se tiene un conjunto de n
ecuaciones. La convergencia se puede verificar usando el criterio de error relativo. Este
método se diferencia del de Jacobi, puesto que una vez que se calcula una aproximación a
una incógnita se utiliza esta aproximación en la misma iteración para calcular las siguientes
incógnitas.
Las condiciones suficientes para que el método de Gauss-Seidel converja es que la matriz
de coeficientes sea diagonal dominante o bien que la matriz de coeficientes sea simétrica y
definida positiva.
Para saber cuando dejar de iterar, por lo general se emplea el criterio de error relativo.
En pocas palabras se calcula el error relativo de las aproximaciones de cada una de
las aproximaciones obtenidas y se comprueba que estos errores sean menores a un
error máximo soportado, el cual es fijado de forma arbitraria. La fórmula del cálculo es
la siguiente:
(k) (k−1)
xn − xn
| | ⋅ 100
(k)
xn
Condición de Convergencia
UNIDAD 3
Conceptos Básicos:
El objetivo es encontrar valores de x tales que f (x) = 0 para una función dada f (x). Las
ecuaciones pueden ser algebraicas o trascendentales, dependiendo de la naturaleza de la
función f (x).
Existen diversos métodos para hallar estas raices o ceros, dentro de esos métodos
encontramos:
Métodos Gráficos: Se utilizan para obtener una primera aproximación visual de las
raíces. Involucran graficar la función y observar los puntos donde cruza el eje x.
Métodos Cerrados o de Intervalo: Utilizan el cambio de signo de la función en un
intervalo para asegurar la presencia de una raíz. El Método de la Bisección.
Métodos Abiertos: No requieren que la raíz esté encerrada entre dos puntos. Ejemplos
incluyen el Método de Newton-Raphson y el Método de la Secante, que pueden
converger más rápidamente, pero a veces son susceptibles a la divergencia.
2
.
3. Evaluación: Si f (m) = 0, entonces m es la raíz. Si no, decide si la raíz está en
[a, m] o [m, b] basándote en el signo de f (m).
4. Iteración: Repite el proceso utilizando el nuevo intervalo que contiene la raíz.
Este método, al igual que el siguiente, solo pueden encontrar una raíz dado un
intervalo, en caso de que en dicho intervalo exista más de una sola raíz se deberá
partir dicho intervalo en intervalos más pequeño y encontrar cada una de estas raíces
aplicando dicho método de forma independiente.
Ventajas Desventajas
Siempre La convergencia es muy lenta.
converge
Si existen más de una raíz en el intervalo, el método no las podrá
calcularlo porque solo te permite hallar una sola raíz
f (b)−f (a)
, que es el punto donde la
línea que conecta (a, f (a)) y (b, f (b)) cruza el eje x.
3. Evaluación y Selección del Intervalo: Similar al método de bisección, usa el
signo de f (x) para decidir el nuevo intervalo.
4. Iteración: Repite utilizando el intervalo actualizado.
Este método tiende a converger más rápido que la bisección, pero puede estancarse
en ciertas condiciones.
Ventajas Desventajas
Converge más rápido que Si existen más de una raíz en el intervalo, el método no
el método de la bisección las podrá calcularlo porque solo te permite hallar una sola
raíz.
Siempre converge
Ventajas Desventajas
Converge más rápido que cualquiera de La convergencia de este método va a
los métodos analizados anteriormente depender de la naturaleza de la función.
No es un método conveniente si se tienen
raíces múltiples.
Puede alejarse del área de interes si f ′
(x i )
tiende a cero.
Esté método tiene la particularidad de que puede ser calculado de 3 formas diferentes:
1. Método Gráfico: Se puede obtener la fórmula de Newton-Raphson a partir de un
enfoque gráfico donde dibujas la tangente a la curva de la función en el punto
inicial y encuentras la intersección de esta tangente con el eje x.
2. Método de Newton de Segundo Orden: Si en lugar de considerar los dos
primeros términos de la serie de Taylor se consideran los tres primeros términos la
aproximación utilizando la siguiente función para ser calculada:
f (x i )
x i+1 = x i −
f (x i )
f ′ (x i ) − ′
. f ′′ (x i )
2.f (x i )
3. Método de la Secante o Newton Lagrange: surge como una variación del método
de Newton-Raphson, en lugar de tomar la tangente se toma la secante. En este
método, la derivada se aproxima por una diferencia dividida, por lo que la formula
para aproximar a la raíz tiene la siguiente forma:
x i−1 . f (x i ) − x i . f (x i+1 )
x i+1 ≅
f (x i ) − f (x i−1 )
2. Método de Müller: Este método se utiliza para encontrar raíces de ecuaciones con
raíces múltiples, y consiste en obtener los coeficientes de la parábola que pasa por tres
puntos elegidos. Dichos coeficientes son sustituidos en la fórmula cuadrática para
obtener el valor donde la parábola intersecta al eje x; es decir, la raíz estimada. Este
método consta de los siguientes pasos:
1. Inicialización: Selecciona tres puntos iniciales, x , x , y x . 0 1 2
⎣ 2 ⎦ ⎣c ⎦ ⎣
f (x 2 )
⎦
x x2 1
2
Al resultado de esa ecuación se reemplaza los coeficientes de la ecuación cuadrática de
la siguiente manera → ax + bx + c y se encuentran las raíces de esa ecuación se
2
reemplaza el punto más antiguo por ese nuevo valor y se vuelve a calcular el sistema
nuevamente, y viceversa.
Aclaración
UNIDAD 4
Interpolación
La interpolación es un método utilizado para estimar valores desconocidos que se
encuentran dentro del rango de un conjunto discreto de puntos de datos conocidos. Se
utiliza principalmente para construir nuevos puntos de datos dentro del rango de un
conjunto de puntos de datos conocidos. La interpolación se utiliza en diversos campos
como la ingeniería, gráficos por computadora y análisis de datos para predecir valores
intermedios, suavizar datos y completar puntos de datos faltantes. Utiliza polinomios para
interpolar los puntos de datos. La forma más común es la interpolación de Lagrange.
x − xj
n n
P (x) = Σ i=0 y i Π j=0, j≠i
xi − xj
En la práctica supongamos que tenemos 4 puntos (1, 2), (3, 4), (5, 6), (7, 8), entonces nuestro
polinomio tendrá la siguiente duerma:
1. L 0
(x) = 2 ⋅
(x−3)(x−5)(x−7)
(1−3)(1−5)(1−7)
= 2 ⋅
(x−3)(x−5)(x−7)
48
2. L
(x−1)(x−5)(x−7) (x−1)(x−5)(x−7)
1
(x) = 4 ⋅ = 4 ⋅
(3−1)(3−5)(3−7) 16
3. L 2
(x) = 6 ⋅
(x−1)(x−3)(x−7)
(5−1)(5−3)(5−7)
= 6 ⋅
(x−1)(x−3)(x−7)
−16
4. L 3 (x) = 8 ⋅
(x−1)(x−3)(x−5)
(7−1)(7−3)(7−5)
= 8 ⋅
(x−1)(x−3)(x−5)
64
Los datos deben estar dentro del rango de los puntos de datos conocidos.
El método elegido depende de la suavidad deseada y la eficiencia computacional.
Regresión
m (x k )
⎢⎥
La regresión es un método estadístico utilizado para modelar y analizar las relaciones entre
una variable dependiente y una o más variables independientes. Se utiliza para predecir el
valor de la variable dependiente en función de los valores de las variables independientes.
La regresión se utiliza ampliamente en economía, biología, ingeniería y ciencias sociales
para predicción, pronóstico y determinación de relaciones causales.
Una forma de análisis de regresión en la que la relación entre la variable independiente x y
la variable dependiente y se modela como un polinomio de grado n. Construyendo un
sistema de ecuaciones lineales de la siguiente forma:
Donde P
1
1
x0
x1
x2
xn
x1
xn
2
0
2
2
Σ
n
k=0
⋯
⋯
x
xn
m
0
m
1
m
2
m⎦
⎤
(P m (x k ) − y k )
a0
a1
a2
am
⎤
2
=
El grado de los polinomios va a depender del tipo de regresión que deseemos realizar. La
forma de resolver esta matriz, teniendo en cuenta que es un sistema del tipo A ⋅ X
consta de los siguientes pasos:
2. Se resuelve la multiplicación de A
3. Se resuelve la multiplicación de A
t
t
A
⋅ A
⋅ B
t
⋅ A ⋅ X = A
t
⋅ B
⎡
⎣
yn
H ⋅ X = Y
y0
y1
y2
t
⎤
= B
Donde el resultado de resolver ese sistema de ecuaciones va a ser un vector X cuyas
componentes son los coeficientes de la función de regresión.
UNIDAD 5
La derivación numérica es un método utilizado en cálculo numérico para aproximar el valor
de las derivadas de una función. Es especialmente útil cuando la función no tiene una forma
analítica simple para su derivada o cuando se dispone de datos experimentales o de tablas
de valores en lugar de una expresión algebraica de la función.
Concepto Básico
La derivada de una función f (x) en un punto x se define como el límite del cociente
0
′
f (x 0 + h) − f (x 0 )
f (x 0 ) = lim
h→0 h
′
f (x 0 + h) − f (x 0 )
f (x 0 ) ≈
h
f (x 0 ) − f (x 0 − h)
′
f (x 0 ) ≈
h
Error de Truncamiento
El error en el método de diferencia finita hacia adelante y hacia atras son del orden
O(h), lo que indica que el error disminuye linealmente conforme se reduce h.
3. Diferencias Finitas Centradas: Este método toma un promedio de las diferencias hacia
adelante y hacia atrás, utilizando los valores de la función en x + h y x − h:
0 0
f (x 0 + h) − f (x 0 − h)
′
f (x 0 ) ≈
2h
El error en este método es del orden O(h ), lo que significa que es más preciso que las
2
fórmula:
f (x 0 + h) − 2f (x 0 ) + f (x 0 − h)
′′
f (x 0 ) ≈
2
h
Este método también se puede extender a derivadas de orden superior y diferencias hacia
adelante y hacia atrás.
Las derivadas de orden superior también se pueden calcular usando diferencias finitas. Por
ejemplo, la derivada cuarta de una función f (x) en un punto x puede aproximarse usando 0
la siguiente fórmula:
f (x 0 − 2h) − 4f (x 0 − h) + 6f (x 0 ) − 4f (x 0 + h) + f (x 0 + 2h)
(4)
f (x 0 ) ≈
4
h
Las fórmulas de diferencias finitas de orden superior se pueden generalizar para derivadas
de cualquier orden n utilizando combinaciones lineales de los valores de la función en
varios puntos. Para una derivada de orden k en el punto x , la fórmula de diferencias finitas 0
Extrapolación de Richardson
La extrapolación de Richardson es una técnica avanzada utilizada para mejorar la
precisión de los métodos numéricos, especialmente en la derivación numérica y la
integración numérica. La idea central detrás de esta técnica es combinar múltiples
aproximaciones con diferentes valores de h (el paso) para cancelar el error de truncamiento
y obtener una mejor estimación de la derivada.
Supongamos que queremos aproximar la derivada de una función f (x) en un punto x . 0
Utilizando una fórmula de diferencias finitas, podemos calcular la derivada aproximada D(h)
para un cierto valor de h:
′ p p+1
D(h) = f (x 0 ) + Ch + O(h )
Donde f ′
(x 0 ) es la derivada exacta que queremos estimar, C es una constante, p es el
orden del método, y O(h p+1
) representa el término del error de truncamiento.
Posteriormente, se utiliza otro paso h/2, se obtiene una segunda estimación:
p p+1
h ′
h h
D( ) = f (x 0 ) + C( ) + O (( ) )
2 2 2
p h
2 D( ) − D(h)
2
R(h) =
p
2 − 1
Aquí, R(h) es la nueva estimación mejorada de la derivada, donde el error de truncamiento
ahora es del orden O(h p+1
, lo que significa que la precisión de la estimación ha aumentado.
)
En términos prácticos primero se calcula una aproximación inicial con nuestro valor de h
elegido, posteriormente se realiza una segunda estimación con paso h/2, una vez
realizadas ambas aproximaciones, solo queda reemplazar los valores correspondientes en
R(h) y ya obtendremos la nueva aproximación.
Ventajas:
Mejora de la Precisión: La técnica permite mejorar la precisión de las
aproximaciones numéricas sin necesidad de reducir el paso h a niveles muy
pequeños, lo que podría introducir errores de redondeo.
Aplicabilidad General: Aunque se utiliza comúnmente en derivación
numérica, la extrapolación de Richardson también se puede aplicar a otros
problemas numéricos, como la integración numérica y la solución de
ecuaciones diferenciales.
Desventajas:
Costo Computacional: La extrapolación de Richardson requiere cálculos
adicionales, ya que implica evaluar la función en más puntos. Esto puede
aumentar el costo computacional, especialmente si la función es costosa de
evaluar.
Elección de h: Aunque la técnica mejora la precisión, es crucial elegir un
valor de h adecuado para evitar que el error de redondeo domine cuando h es
muy pequeño.
1. Precisión Necesaria: Si necesitas una alta precisión en tus cálculos, los métodos de
orden superior, como las diferencias finitas centradas o la extrapolación de Richardson,
suelen ser preferibles debido a su menor error de truncamiento.
2. Disponibilidad de Datos: Los métodos más avanzados, como las diferencias finitas de
orden superior, requieren más puntos de datos alrededor del punto de interés. Si solo
tienes datos en un rango limitado o solo en un lado del punto, podrías estar limitado a
métodos más básicos como las diferencias hacia adelante o hacia atrás.
3. Costo Computacional: Los métodos de orden superior y la extrapolación de
Richardson requieren más cálculos, lo que puede aumentar significativamente el tiempo
de procesamiento.
4. Error de Redondeo: A medida que reduces el tamaño del paso h, el error de redondeo
puede volverse significativo debido a las limitaciones de precisión en los cálculos
numéricos. Es importante equilibrar el tamaño del paso h para minimizar tanto el error
de truncamiento como el error de redondeo.
5. Naturaleza de la Función: Ciertas funciones pueden tener comportamientos
particulares, como discontinuidades o regiones donde la función cambia rápidamente.
6. Orden de la Derivada: El orden de la derivada que necesitas calcular también influye
en la elección del método. Por ejemplo, si estás interesado en derivadas de segundo o
tercer orden, necesitarás utilizar fórmulas de diferencias finitas de orden superior.
7. Simetría de la Función: En casos donde la función es simétrica o casi simétrica
alrededor del punto de interés, las diferencias finitas centradas suelen ser más precisas
y se prefieren sobre otros métodos.
8. Combinación de Métodos: En muchos casos, se pueden combinar métodos para
obtener una aproximación medianamente buena a un coste bajo.
9. Condiciones de Contorno: Si trabajas con problemas donde las condiciones de
contorno son críticas, como en ecuaciones diferenciales, puede que prefieras métodos
que respeten mejor estas condiciones, como las diferencias finitas centradas o hacia
atrás.