0% encontró este documento útil (0 votos)
38 vistas22 páginas

Apuntes Calculo Numerico

El documento aborda la representación de números en diferentes sistemas de numeración, destacando la notación científica y la importancia de la mantisa en el almacenamiento computacional. Se discuten los errores de truncamiento y redondeo, así como sus efectos en cálculos numéricos, y se presentan métodos numéricos para resolver problemas matemáticos complejos. Además, se enfatiza la necesidad de modelos matemáticos precisos para reproducir la realidad y minimizar errores en las soluciones.

Cargado por

Santi Ocampo
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
38 vistas22 páginas

Apuntes Calculo Numerico

El documento aborda la representación de números en diferentes sistemas de numeración, destacando la notación científica y la importancia de la mantisa en el almacenamiento computacional. Se discuten los errores de truncamiento y redondeo, así como sus efectos en cálculos numéricos, y se presentan métodos numéricos para resolver problemas matemáticos complejos. Además, se enfatiza la necesidad de modelos matemáticos precisos para reproducir la realidad y minimizar errores en las soluciones.

Cargado por

Santi Ocampo
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

UNIDAD 1

Supongamos que x es un número real, para expresarlo en un sistema de numeración de


base b, se lo puede describir de la siguiente manera.

x = d1 d2 d3 , d4 d5 d6 d7 . . .

Siendo d la cantidad de dígitos del sistema de numeración elegido para representar dicho
i

número, algunos de los más utilizados son el binario, el hexadecimal y el decimal.

Notación Científica

Un número puede ser representado de diversas maneras, por ejemplo, supongamos


que queremos expresar el número 3,5643. Este mismo podría ser representado de la
siguiente forma:
1 −1 −2 −3 −4
3, 5643 = 10 .3 + 10 .5 + 10 .6 + 10 .410 .3

Otra forma de expresar ese número es moviendo la parte entera al lado de los
decimales, haciendo que la parte entera sea nula, quedando de la siguiente forma:
e
x = b .0, d 1 d 2 d 3 d 4 d 5 d 6 d 7

Donde b es la base del sistema de numeración elegido, e el exponente que representa


la cantidad de veces que se desplaza la coma. Al resto de números que se encuentran
por detrás de la coma se los denomina mantisa.

Al usar y almacenar estos números en la computadora, las cifras de la mantisa no pueden


ser infinitas, debido a las limitaciones físicas que poseen las computadoras. En
consecuencia, hay que cortar la mantisa, y este corte se hace a los t-dígitos.
e
x = b .0, δ 1 δ 2 δ 3 δ 4 … δ t

Al usar la computadora, se usa el sistema binario, donde b = 2, y las cifras o dígitos en esa
base de este sistema numérico compuesta por el conjunto {0, 1} se denominan “bits”

1. Para representar números enteros tradicionalmente, se usan dos bytes para


representar los números de simple precisión, 4 bytes para la doble precisión. En ambos
casos el primer bit se reserva para el signo. Debido a las propiedades de las potencias
de 2, en algunos ordenadores los números negativos se representan como el
complemento a 2, es decir, x ⟶ x + 2 − 2 . 16

2. Para representar números reales, se lo puede hacer de dos formas:


1. Punto Fijo -> Se considera un número fijo n de decimales, cortando esa cantidad
en t-dígitos, tal que t < n. Por Ej.: n = 6 y t = 4, el mayor número en este caso
sería el 99,9999 mientras que el menor sería 0,0004.
2. Punto Flotante -> La representación de punto flotante se corresponde con la
notación científica normalizada, dada por la siguiente expresión:
e
x = ε 0, δ 1 δ 2 δ 3 δ 4 … δ t . b

En donde:

ε representa el signo.
b la base del sistema numérico.
e un exponente entero.
t el número de dígitos significativos.
δ1 δ2 δ3 δ4 … δt la parte fraccionaria significativa.

Si la computadora admite solo t cifras significativas, el redondeo se hace al número más


próximo. Dado el número:
e
x = ε 0, δ 1 δ 2 δ 3 … δ t δ t+1 δ t+2 .10

El redondeo para ese número utilizando el punto flotante f l(x) es:


e
f l(x) = x = 0.δ 1 δ 2 δ 3 … δ n 10 si δ n+1 < 5
{ e
f l(x) = x = 0.δ 1 δ 2 δ 3 … (δ n + 1) 10 si δ n+1 ≥ 5

Cotas de Error
Cota de Truncamiento

x − x −t+1
| | ≤ 10
x

Cota de Redondeo Simétrico



x − x −t
| | ≤ 5 ⋅ 10
x

En donde:

x es el valor real.

x es su aproximación.
t la cantidad de dígitos significativos.

Cálculo de Errores
Las cotas de error son valores que indican cuánto puede desviarse el resultado de una
aproximación o medición del valor verdadero o exacto. En este caso, las cotas de error de
redondeo serán:

Error Absoluto: E a
= f l(x) − x, que con su valor absoluto nos queda |E a
| ≤ 0, 5.10
e−t
.
Error Relativo: E r =
Ea

x
, que con su valor absoluto nos queda |E r| ≤ 0, 5.10
−t
.

El error se aplica para indicar la inexactitud y la imprecisión de las mediciones. El error


numérico es igual a la diferencia entre el valor verdadero y el aproximado:

E v = Valor verdadero − Valor aproximado

El error relativo fraccional resulta de normalizar el error respecto al valor verdadero:

Error Verdadero
Error relativo f raccional =
Valor Verdadero

El error relativo porcentual de aproximación está dado por:

ó
Aproximaci n Actual − Aproximaci n Previa ó
Ea = .100
ó
Aproximaci n Actual

De acuerdo con Scarborough, se tiene la seguridad de que el resultado es correcto en al


menos t cifras significativas si se cumple el siguiente criterio:
2−t
∈ s = (o, 5.10 )%

En donde ∈ es la tolerancia prefijada.


s

Errores en la Resolución Numérica


Cuando utilizamos métodos numéricos para resolver problemas matemáticos, las
respuestas que obtenemos no son exactas, debido a que existe incertidumbre en los datos,
además de realizar simplificaciones en le modelo real, o errores de truncamiento y
redondeo.

Error de Truncamiento

Se refiere al error que se comete cuando se utiliza una versión simplificada o truncada de
un proceso matemático que, de otra forma, sería más complejo o incluso infinito en
naturaleza. En el ejemplo de las series de Taylor, el error de truncamiento aparece cuando
utilizamos solo un número fijo de términos de la serie para realizar la aproximación. Esto
quiere decir que a mayor cantidad de términos utilicemos para la aproximación menor será
el error en su aproximación.

Cuando se aproxima una función f (x) por su serie de Taylor alrededor de un punto a, solo
se utilizan los primeros n términos, y la serie de Taylor se convierte en un polinomio de
Taylor de grado n. La diferencia entre el valor real de la función f (x) y el valor del polinomio
de Taylor de grado n es lo que llamamos error de truncamiento. Este error es estimado
utilizando la siguiente fórmula:
(n+1)
f (ξ)
n+1
Rn = (x − a)
(n + 1)!

Propagación de Errores

Los errores de los números pueden propagarse a través de las funciones matemáticas. Por
ejemplo, cuando multiplicamos dos números que tienen error, nos gustaría saber el error de
ese producto.
Sea función de la variable independiente . Si consideramos que es una

f (x) x x

aproximación de x, tratemos de evaluar el efecto de la discrepancia, entre el uso de x y su


aproximación x, o sea, queremos estimar



Δf (x) = |f (x) − f (x)|

El problema es que se desconoce el valor de y se tiene su aproximación . Este problema



x x

se supera, si x está cerca de x y f (x) es continua y diferenciable. Si se satisfacen las



f (x) f (x) condiciones, usamos la serie de Taylor para calcular cerca de .
′′ (n)
f (x̄) f (x̄)
′ 2 n
f (x) = f (x̄) + f (x̄) ⋅ (x − x̄) + ⋅ (x − x̄) + ⋯ + ⋅ (x − x̄) + Rn
2! n!


f (x) Si nos quedamos con los dos primeros términos del desarrollo y pasamos al primer
miembro, queda la expresión:





– ′
f (x) − f (x) ≅ f (x)(x − x) = Δf (x) ≅ |f (x)|. |(x − x)|


Δx = |x − x| Que representa una estimación del error de la función y representa una
estimación del error de x. La fórmula anterior proporciona la capacidad de aproximar el error
de una función, mediante la derivada de la función y una estimación del error de la variable
independiente.

Error de Redondeo
Estos errores resultan de representar en forma aproximada números exactos, dependen de
la computadora o de quien realice los cálculos. Si se realizan las operaciones algebraicas a
mano se deben tener en cuenta las reglas de redondeo.

Reglas de Redondeo

1. Se conservan las cifras significativas y el resto se descarta. El último dígito que se


conserva se aumenta en 1 si el primer dígito descartado es mayor que 5. De otra
manera se deja igual. Si el primer dígito descartado es 5 o es 5 seguido de ceros,
entonces el último dígito retenido se incrementa en 1 solo si es impar.
2. En la suma y la resta el redondeo se lleva a cabo de manera que el último dígito
retenido en la respuesta corresponda al último dígito más significativo de los números
que están sumando o restando. Un dígito en la columna de las centésimas es más
significativo que en las milésimas.

Error de Redondeo en las Series

Este tipo de error suele ocurrir cuando se calculan series infinitas, donde el término
inicial es grande en comparación con los términos sucesivos, de manera tal que
después de sumar pocos términos, estamos en esta situación. Se puede tratar de
solucionar, sumando en sentido inverso, es decir, en forma ascendente.

3. La cancelación por resta surge cuando dos números casi iguales se restan, y el
resultado es un número mucho más pequeño con menos dígitos significativos de
precisión que los números originales. Imaginemos que tenemos A = 0,1234 y B =
0,1233. Al restar B de A, el resultado es 1. Sin embargo, este '1' solo tiene un dígito de
precisión, mientras que los números originales tenían 4 dígitos significativos. La
diferencia resultante, por lo tanto, tiene mucha menos precisión que los números
originales. Esto se puede mitigar utilizando algoritmos numéricos que están diseñando
para minimizar este efecto, utilizando una representación de doble precisión o
reestructurando los cálculos para evitar restar números cercanos.
4. Para la multiplicación y la división el redondeo es tal que la cantidad de cifras
significativas del resultado es igual al número que contenga menos cifras significativas.
Por ejemplo sí multiplicamos 4.56 y 2.1, el resultado crudo podría ser 9.576, sin
embargo, este resultado termina siendo 9.6, ya que 2.1 tiene solo dos cifras
significativas.
5. En el caso de operaciones combinadas se ejecutan las operaciones entre paréntesis y
el resultado se redondea antes de proceder con la otra operación.

Si los cálculos se realizan utilizando una computadora se debe considerar que la mayoría
de ellas guardan un número finito de cifras significativas durante un cálculo y resultan
críticos en dos casos:

1. Ciertos métodos requieren cantidades extremadamente grandes para obtener una


respuesta, además los cálculos dependen entre sí, por lo tanto, los cálculos posteriores
son dependientes de los anteriores y en consecuencia el efecto de acumulación en el
transcurso de una gran cantidad de cálculos resulta significativo.
2. Sí se realizan operaciones algebraicas con números muy pequeños y muy grandes al
mismo tiempo.

Otros Tipos de Error


Errores por Equivocación: Son errores por torpeza o por equivocación, son
debidos por lo general a errores humanos. Las equivocaciones ocurren en
cualquier etapa del proceso de modelado matemático y pueden contribuir con las
otras componentes del error.
Errores de Formulación: Estos errores se generan en un modelo matemático
incompleto y si se está usando un modelo deficiente, ningún método numérico
generará resultados adecuados.
Incertidumbre en los Datos: Algunas veces se introducen errores en un análisis
debido a la incertidumbre de los datos físicos sobre los que se basa el modelo. Son
errores que muestran inexactitud e imprecisión.

Análisis Numérico
Se pueden definir a los métodos numéricos como las técnicas mediante las cuales es
posible formular problemas de manera que puedan resolverse utilizando operaciones
aritméticas, o también como el grupo de conocimientos matemáticos relacionados con el
diseño y análisis de algoritmos necesarios para resolver problemas de ciencia e ingeniería.
Estos métodos se caracterizan porque permiten dar más importancia a la formulación e
interpretación de la solución, los cálculos involucrados están relacionados con cantidades
discretas, permiten obtener resultados aproximados y ayudan a identificar, cuantificar y
minimizar los errores.
En el ejercicio de la profesión y en la vida diaria, se presentan diferentes problemas, que no
tienen una solución matemática exacta, pero que es imprescindible resolver como:

Raíces de ecuaciones, que está relacionado de una variable o un parámetro que


satisface una ecuación lineal o no lineal.
Sistemas de ecuaciones algebraicas lineales, donde se busca un conjunto de valores
que satisfaga simultáneamente un conjunto de ecuaciones algebraicas lineales.
Optimización, donde se trata de determinar el valor o los valores de la variable
independiente que corresponden al “mejor” o al valor óptimo de la función, es decir, se
considera la obtención de los máximos y mínimos.
Ajuste de curvas, donde se ajustan curvas a un conjunto de datos representados por
puntos, donde los datos provienen de la experimentación. Las técnicas son la regresión
y la interpolación. La primera (regresión) se usa cuando hay un significativo grado de
error asociado a los datos, entonces se halla la curva que represente la tendencia
general de los datos. La segunda, permite determinar valores intermedios, entre datos
que están relativamente libres de errores, y la información está tabulada.
Integración: que consiste básicamente en determinar el área bajo la curva.
Derivación que sirve para obtener aproximaciones de derivadas de cualquier orden,
con datos discretos.
Ecuaciones diferenciales ordinarias, ya que muchas leyes físicas que rigen los
problemas, están expresadas en términos de la razón de cambio de una cantidad, y
esas ecuaciones muchas veces no tienen solución matemática.
Ecuaciones en derivadas parciales, que permite obtener soluciones numéricas para
ecuaciones diferenciales en derivadas parciales, que describen muchos problemas
físicos, donde una cantidad se expresa en términos de su razón de cambio respecto de
dos o más variables independientes.

Modelos Matemáticos

El objetivo de un modelo consiste en reproducir la realidad de la forma más fiel posible,


tratando de entender cómo se comporta el mundo real y obteniendo las respuestas que
pueden esperarse de determinadas acciones. Su selección es una etapa crucial para
obtener una solución satisfactoria a un problema real. Las estructuras matemáticas
asociadas no son arbitrarias, sino una consecuencia de la realidad misma.
Un modelo mental puede definirse como una representación de la realidad en la que se
consideran los aspectos más relevantes, es decir el modelo representa una parte de la
realidad.
Un modelo matemático es una formulación o ecuación que expresa las características
fundamentales de un sistema o proceso físico en términos matemáticos. Los modelos
pueden estar constituidos por simples ecuaciones algebraicas hasta grandes y complicados
sistemas de ecuaciones diferenciales. Sus características son:

1. Describe un sistema o proceso natural en términos matemáticos.


2. Representa una idealización y una simplificación de la realidad.
3. Conduce a resultados predecibles y, en consecuencia, puede utilizarse para propósitos
de predicción.

La generación de un modelo matemático involucra dos etapas fundamentales, la de


conceptualización y la de formulación. En la primera se debe caracterizar el contexto del
problema real, definir claramente el propósito y los límites del modelo, identificar y
establecer relaciones entre las variables; en la segunda etapa se deben determinar las
ecuaciones asociadas al modelo y seleccionar y estimar los parámetros del modelo.
El objetivo del modelo es aplicarlo para obtener alguna información del problema o
fenómeno que se estudia. Frecuentemente, sufre modificaciones y a veces es descartado y
aunque contenga errores, puede poner en evidencia componentes esenciales de una
realidad compleja.

Clasificación de Modelos Matemáticos

En función del tratamiento de la incertidumbre


Determinístico: Se conoce de manera puntual la forma del resultado, ya que no
hay incertidumbre. Además, los datos utilizados para alimentar el modelo son
completamente conocidos y determinados.
Estocástico: Probabilístico, no se conoce el resultado esperado, sino su
probabilidad y existe, por lo tanto, incertidumbre.
En función del origen de la información utilizada para construirlos
Modelos Heurísticos: Son aquellos basados en las explicaciones sobre las
causas o mecanismos naturales que dan lugar al fenómeno estudiado.
Modelos Empíricos: Son los que utilizan las observaciones directas o los
resultados de experimentos del fenómeno estudiado.
En función de su campo de aplicación
Modelos Conceptuales: Son los que reproducen mediante fórmulas y algoritmos
matemáticos más o menos complejos los procesos físicos que se producen en la
naturaleza.
Modelo Matemático de Optimización: Son ampliamente utilizados en diversas
ramas de la ingeniería para resolver problemas que por su naturaleza son
indeterminados, es decir presentan más de una solución posible.
En función del factor tiempo
Modelos Estáticos: Son independientes del tiempo, consideran situaciones
estacionarias.
Modelos Dinámicos: Son los que describen el comportamiento del sistema en
estudio en función del tiempo.

UNIDAD 2
Los sistemas de ecuaciones pueden ser de dos tipos, incompatibles los cuales no admiten
solución y los compatibles los cuales admiten solución. Un sistema de ecuaciones se dice
compatible y determinado si solo admite una única solución, mientras que un sistema de
ecuaciones es compatible e indeterminado si admite más de una solución.

Teorema de Rouchè-Frobenius

Si el rango de ρ(A) de la matriz de coeficientes A, es igual al rango de su matriz


ampliada ρ(A) entonces A ⋅ X = C es compatible.
Un sistema compatible será determinado si el rango de la matriz de coeficientes es
igual el número de incógnitas ρ(A) = n y será indeterminado si el rango de la matriz de
coeficientes es menor que el número de incógnitas ρ(A) < n.

La solución de un sistema de ecuaciones compatible de la forma A ⋅ X = C permanecen


invariantes ante las siguientes situaciones:

1. Intercambio o permutación de filas o columnas.


2. Multiplicación de una fila o columna por un escalar λ cualquiera distinto de cero.
3. Sumarle a una fila o columna otra línea multiplicada por un escalar λ cualquiera.
Solución de los Sistemas Lineales
Para la resolución de Sistemas de ecuaciones algebraicas lineales se utilizan dos tipos de
métodos, los métodos directos y los métodos iterativos.
Los métodos directos son aquellos que obtiene la solución exacta, salvo errores de
redondeo en los cálculos, luego de un número finito de operaciones elementales.

Métodos Directos
Estos métodos se caracterizan por tener una cantidad exacta de pasos, las cuales va a
variar de acuerdo al tamaño de la matriz que se esté resolviendo.

Método de Reducción de Gauss


El método de eliminación de Gauss se explica mejor en un video del profe Alex lo que hay
en las filminas solo es confuso y solo es útil si se desea realizar una solución por
computadora.
Una de las desventajas de este método es que durante el proceso en las fases de
eliminación y sustitución es posible que ocurra una división entre cero. Por ello se ha
desarrollado una estrategia del pivoteo que evita parcialmente estos problemas, y se
recomienda usar doble precisión.
El pivoteo tiene dos finalidades: primero, superar la dificultad que presentan los coeficientes
nulos de la diagonal, segundo, decrecer los errores de redondeo.

Consideraciones a Tener en Cuenta

Las técnicas para resolver sistemas lineales, necesitan considerar, además del espacio
requerido para almacenamiento, el error de redondeo y el tiempo de procesamiento
necesario para completar los cálculos, que dependen del número de operaciones
aritméticas que se necesitan para resolver un problema rutinario.

El tiempo requerido para una multiplicación o división es aproximadamente el


mismo, y es considerablemente mayor que el tiempo de una suma o resta.
La suma o resta insumen el mismo tiempo.
Las diferencias reales de tiempo de ejecución, dependen del sistema de cómputo
usado.

Método de Reducción de Gauss-Jordan


El método de eliminación de Gauss-Jordan también está explicado de mejor manera un
video del profe Alex, lo que está en el material de clases es sobre todo para plantear un
algoritmo.
En general, a nivel computacional, este método no se utiliza mucho, ya que requiere mucho
más cálculos, lo que resulta en más errores de redondeo.
Factorización Triangular
Si el procedimiento de eliminación Gaussiana, puede aplicarse a un sistema A ⋅ X = C , sin
intercambio de renglones, entonces la matriz A puede factorizarse como el producto de una
matriz triangular inferior L con una matriz triangular superior U . La forma de calcular estas
matrices se explican con más claridad en este video.
Esta descomposición de la matriz A en las matrices L y U , existe cuando se puede resolver
de manera única el sistema A ⋅ X = C , por eliminación gaussiana, sin intercambio de
columnas o renglones.
El sistema L ⋅ U ⋅ X = A ⋅ X = C , puede transformarse en el sistema U ⋅ X = L
−1
⋅ C ,y
como U es triangular superior, se aplica sustitución hacia atrás. Las formas específicas de
las matrices L y U se pueden obtener por eliminación gaussiana, pero lo deseable es hacer
una sola sustitución hacia delante y otra hacia atrás.

Métodos Iterativos
Al contrario que los métodos directos que nos dan un resultado concreto luego de realizar
una determinada cantidad de pasos, los métodos iterativos lo que hacen en buscar una
aproximación aplicando un número desconocido de pasos.

Norma de Vectores y Matrices

Al realizar aproximaciones para calcular el valor de los coeficientes de una matriz se


debe saber si dicho error es grande, en un sistema de ecuaciones lineales de la forma
⋅ C , el error es grande si la matriz inversa lo es, y es pequeña si dicha matriz
−1
X = A

también lo es, cabe aclarar que el tamaño de una matriz no está relacionado con su
orden, sino que se utiliza las normas de las matrices para denotar su tamaño.
Estas normas pueden ser columna-suma o fila-suma denotada como ||A|| , en la cual
1

se calcula la suma de los calores absolutos de las columnas o filas y el mayor de esos
resultados representaría el tamaño de matriz, otra norma utilizada es la norma de
magnitud máxima que toma como tamaño de la matriz el mayor número de la matriz en
su valor absoluto. La norma de Fröbenius es otra medida del tamaño de las matrices y
se consigue al sumar todos los elementos de la matriz al cuadrado y luego al resultado
aplicarle una raíz cuadrada.

Número de Condición de una Matriz


El número de condición de una matriz es una medida que proporciona información
sobre la sensibilidad de la solución de un sistema de ecuaciones lineales a cambios en
los términos independientes o en los elementos de la matriz. En términos más
específicos, este número ayuda a entender cómo el error en los datos de entrada se
amplifica en el resultado debido a las operaciones numéricas realizadas durante la
solución del sistema. Este término se calcula de la siguiente forma:
−1
k(A) = ||A|| ⋅ ||A ||

Mientras más cercano a 1 sea este término mejor condicionada estará la matriz. Esta
medida se puede utilizar para medir el error relativo, de la siguiente forma:

||ΔX|| ||ΔA||
≤ k(A) ⋅
||X|| ||A||

Método de Jacobi
Si se considera un sistema de ecuaciones algebraicas, que puede escribirse en forma
matricial como A ⋅ X = C y que A = D + R, donde D es una matriz diagonal. Entonces
puede escribirse que:
−1 −1
(D + R) ⋅ X = C → DX = C − RX → X = D ⋅ C − D ⋅ RX

Para aplicar este método, se considera una primera aproximación al valor de las incógnitas
x , que se denomina X . Se sustituye esa primera aproximación en los demás miembros
(0)

de la ecuación y así sucesivamente, por ejemplo, en una situación trivial, dado una matriz y
teniendo lista la ecuación, todos los x pueden ser reemplazados por 0 para obtener la
i

primera aproximación de las incógnitas. El procedimiento se repite hasta que la solución


converja cerca de los valores reales, con la diferencia que para la aproximación de primer
grado X (1)
, se utilizaran las anteriores aproximaciones. La convergencia se puede verificar
usando el criterio de error relativo.

Utilización del Método de Jacobi

Este método es muy poco utilizado debido a que el método de Gauss-Seidel converge
más rápidamente a la solución y además lo hace cuando no se logra que el método de
Jacobi converja.
La condición suficiente para que el método de Jacobi converja es que la matriz de
coeficientes sea diagonal dominante, es decir que cada elemento de la diagonal
principal es mayor en valor absoluto que la suma del resto de los elementos de la
misma fila en la que se encuentra el elemento en cuestión.

Método de Gauss-Seidel
Es un método iterativo que disminuye el error de redondeo, se denomina también de
desplazamientos sucesivos o de iteraciones parciales. Sí, se tiene un conjunto de n
ecuaciones. La convergencia se puede verificar usando el criterio de error relativo. Este
método se diferencia del de Jacobi, puesto que una vez que se calcula una aproximación a
una incógnita se utiliza esta aproximación en la misma iteración para calcular las siguientes
incógnitas.
Las condiciones suficientes para que el método de Gauss-Seidel converja es que la matriz
de coeficientes sea diagonal dominante o bien que la matriz de coeficientes sea simétrica y
definida positiva.

Criterio de Error Relativo

Para saber cuando dejar de iterar, por lo general se emplea el criterio de error relativo.
En pocas palabras se calcula el error relativo de las aproximaciones de cada una de
las aproximaciones obtenidas y se comprueba que estos errores sean menores a un
error máximo soportado, el cual es fijado de forma arbitraria. La fórmula del cálculo es
la siguiente:
(k) (k−1)
xn − xn
| | ⋅ 100
(k)
xn

En donde k indica el número de aproximaciones, para la primera aproximación X (0)


, no
se calcula el error relativo, se hace desde la segunda aproximación en adelante.

Condición de Convergencia

Al igual que el método de Jacobi, el método de Gauss-Seidel requieren que la matriz


sea diagonal dominante, ya que puede que el método no converja adecuadamente o
directamente no converja.

Mejora de las Soluciones


Por lo general, el remedio más simple para el mal condicionamiento es emplear más cifras
significativas en los cálculos. Eso es posible, si la computadora lo permite, reducirá el
problema, pero habrá que gastar más recursos y tiempo, en memoria y en cálculos.
En el caso del pivoteo, se debe evitar que en la diagonal principal aparezca algún 0, para
lograr eso antes de normalizar cada renglón, resulta conveniente determinar coeficiente
más grande disponible en la columna debajo del elemento pivote. Los renglones se pueden
intercambiar, de forma que el elemento más grande sea el elemento pivote; esto se conoce
como pivoteo parcial.

UNIDAD 3
Conceptos Básicos:
El objetivo es encontrar valores de x tales que f (x) = 0 para una función dada f (x). Las
ecuaciones pueden ser algebraicas o trascendentales, dependiendo de la naturaleza de la
función f (x).
Existen diversos métodos para hallar estas raices o ceros, dentro de esos métodos
encontramos:
Métodos Gráficos: Se utilizan para obtener una primera aproximación visual de las
raíces. Involucran graficar la función y observar los puntos donde cruza el eje x.
Métodos Cerrados o de Intervalo: Utilizan el cambio de signo de la función en un
intervalo para asegurar la presencia de una raíz. El Método de la Bisección.
Métodos Abiertos: No requieren que la raíz esté encerrada entre dos puntos. Ejemplos
incluyen el Método de Newton-Raphson y el Método de la Secante, que pueden
converger más rápidamente, pero a veces son susceptibles a la divergencia.

Métodos de Partición de Intervalos


1. Método de la Bisección: es uno de los más sencillos y se utiliza cuando se conoce que
la función cambia de signo entre dos valores, es decir, f (a) y f (b) tienen signos
opuestos. Este método utiliza el teorema del valor medio y el teorema de Bolzano para
encontrar las raíces de una ecuación. El método consta de los siguientes pasos:
1. Inicialización: Selecciona dos puntos a y b tal que f (a) ⋅ f (b) < 0.
2. Partición: Se calcula el punto medio m = a+b

2
.
3. Evaluación: Si f (m) = 0, entonces m es la raíz. Si no, decide si la raíz está en
[a, m] o [m, b] basándote en el signo de f (m).
4. Iteración: Repite el proceso utilizando el nuevo intervalo que contiene la raíz.

Consideraciones a tener en Cuenta

Este método, al igual que el siguiente, solo pueden encontrar una raíz dado un
intervalo, en caso de que en dicho intervalo exista más de una sola raíz se deberá
partir dicho intervalo en intervalos más pequeño y encontrar cada una de estas raíces
aplicando dicho método de forma independiente.

Ventajas Desventajas
Siempre La convergencia es muy lenta.
converge
Si existen más de una raíz en el intervalo, el método no las podrá
calcularlo porque solo te permite hallar una sola raíz

2. Método de Regula Falsi o Falsa Posición: Es similar al de la bisección, pero en lugar


de tomar el punto medio, usa una interpolación lineal para estimar la raíz. Este método
consta de los siguientes pasos:
1. Inicialización: Igual que en la bisección, selecciona a y b donde f (a) ⋅ f (b) < 0.
2. Interpolación Lineal: Calcula x = b − f (b) × a−b

f (b)−f (a)
, que es el punto donde la
línea que conecta (a, f (a)) y (b, f (b)) cruza el eje x.
3. Evaluación y Selección del Intervalo: Similar al método de bisección, usa el
signo de f (x) para decidir el nuevo intervalo.
4. Iteración: Repite utilizando el intervalo actualizado.

Consideraciones a tener en Cuenta

Este método tiende a converger más rápido que la bisección, pero puede estancarse
en ciertas condiciones.

Ventajas Desventajas
Converge más rápido que Si existen más de una raíz en el intervalo, el método no
el método de la bisección las podrá calcularlo porque solo te permite hallar una sola
raíz.
Siempre converge

Métodos de Iteración de Punto Fijo


1. Método de Newton-Raphson: Se basa en la idea de que una curva se puede
aproximar localmente como una línea recta y que la intersección de esta línea recta
(tangente) con el eje x proporciona una mejor aproximación de la raíz que el punto de
partida. Los pasos que sigue este método son los siguientes:
1. Inicio: Selecciona un valor inicial x que esté cerca de la raíz esperada.
0

2. Iteración: Usa la siguiente fórmula para encontrar una mejor aproximación de la


raíz: x n+1 = xn −
f (x n )

f (x n )
donde f ′(x n) es la derivada de f (x) en x ​.
n

3. Repetición: Repite el paso 2 utilizando el nuevo valor de x hasta que la diferencia


entre iteraciones sucesivas sea menor que un umbral de tolerancia o hasta que se
alcance un número máximo de iteraciones.

Ventajas Desventajas
Converge más rápido que cualquiera de La convergencia de este método va a
los métodos analizados anteriormente depender de la naturaleza de la función.
No es un método conveniente si se tienen
raíces múltiples.
Puede alejarse del área de interes si f ′
(x i )

tiende a cero.

Formas de Calcular las Raíces a Través del Método de Newton-Raphson.

Esté método tiene la particularidad de que puede ser calculado de 3 formas diferentes:
1. Método Gráfico: Se puede obtener la fórmula de Newton-Raphson a partir de un
enfoque gráfico donde dibujas la tangente a la curva de la función en el punto
inicial y encuentras la intersección de esta tangente con el eje x.
2. Método de Newton de Segundo Orden: Si en lugar de considerar los dos
primeros términos de la serie de Taylor se consideran los tres primeros términos la
aproximación utilizando la siguiente función para ser calculada:

f (x i )
x i+1 = x i −
f (x i )
f ′ (x i ) − ′
. f ′′ (x i )
2.f (x i )

3. Método de la Secante o Newton Lagrange: surge como una variación del método
de Newton-Raphson, en lugar de tomar la tangente se toma la secante. En este
método, la derivada se aproxima por una diferencia dividida, por lo que la formula
para aproximar a la raíz tiene la siguiente forma:

x i−1 . f (x i ) − x i . f (x i+1 )
x i+1 ≅
f (x i ) − f (x i−1 )

Estimación de Error del Método Newton-Raphson

El Método de Newton-Raphson tiene una propiedad importante llamada convergencia


cuadrática. Esto significa que bajo ciertas condiciones, el número de dígitos correctos
en la aproximación se duplica aproximadamente con cada iteración. Para estimar el
error en cada iteración, podemos usar varias técnicas:
4. Error Absoluto: Es el valor absoluto de la diferencia entre la nueva aproximación
calculada y la aproximación actual.
5. Error Relativo: Es el error absoluto, dividido por el valor absoluto de la nueva
aproximación calculada.

2. Método de Müller: Este método se utiliza para encontrar raíces de ecuaciones con
raíces múltiples, y consiste en obtener los coeficientes de la parábola que pasa por tres
puntos elegidos. Dichos coeficientes son sustituidos en la fórmula cuadrática para
obtener el valor donde la parábola intersecta al eje x; es decir, la raíz estimada. Este
método consta de los siguientes pasos:
1. Inicialización: Selecciona tres puntos iniciales, x , x ​, y x ​. 0 1 2

2. Iteración: Evalúa la función f en los tres puntos y se construye un sistema de


ecuaciones lineales de la siguiente forma.
2
x x0 1
⎡ 0 ⎤ ⎡a ⎤ ⎡
f (x 0 )

2
x x1 1 b = f (x 1 )
1

⎣ 2 ⎦ ⎣c ⎦ ⎣
f (x 2 )

x x2 1
2
Al resultado de esa ecuación se reemplaza los coeficientes de la ecuación cuadrática de
la siguiente manera → ax + bx + c y se encuentran las raíces de esa ecuación se
2

evaluan en la función original, si f (x ) es mayor que f (x ) se descarta x y se


a b b

reemplaza el punto más antiguo por ese nuevo valor y se vuelve a calcular el sistema
nuevamente, y viceversa.

Aclaración

Las raíces que se encuentran de la solución de la ecuación cuadrática se evaluan en la


función original, no en la cuadrática

UNIDAD 4
Interpolación
La interpolación es un método utilizado para estimar valores desconocidos que se
encuentran dentro del rango de un conjunto discreto de puntos de datos conocidos. Se
utiliza principalmente para construir nuevos puntos de datos dentro del rango de un
conjunto de puntos de datos conocidos. La interpolación se utiliza en diversos campos
como la ingeniería, gráficos por computadora y análisis de datos para predecir valores
intermedios, suavizar datos y completar puntos de datos faltantes. Utiliza polinomios para
interpolar los puntos de datos. La forma más común es la interpolación de Lagrange.

x − xj
n n
P (x) = Σ i=0 y i Π j=0, j≠i
xi − xj

En la práctica supongamos que tenemos 4 puntos (1, 2), (3, 4), (5, 6), (7, 8), entonces nuestro
polinomio tendrá la siguiente duerma:

P (x) = y 0 ⋅ L 0 (x) + y 1 ⋅ L 1 (x) + y 2 ⋅ L 2 (x) + y 3 ⋅ L 3 (x)

Donde cada L estará compuesta de la siguiente manera de acuerdo a la fórmula seguida:


i

1. L 0
(x) = 2 ⋅
(x−3)(x−5)(x−7)

(1−3)(1−5)(1−7)
= 2 ⋅
(x−3)(x−5)(x−7)

48

2. L
(x−1)(x−5)(x−7) (x−1)(x−5)(x−7)
1
(x) = 4 ⋅ = 4 ⋅
(3−1)(3−5)(3−7) 16

3. L 2
(x) = 6 ⋅
(x−1)(x−3)(x−7)

(5−1)(5−3)(5−7)
= 6 ⋅
(x−1)(x−3)(x−7)

−16

4. L 3 (x) = 8 ⋅
(x−1)(x−3)(x−5)

(7−1)(7−3)(7−5)
= 8 ⋅
(x−1)(x−3)(x−5)

64

Criterios para la Aplicación de la Interpolación

Los datos deben estar dentro del rango de los puntos de datos conocidos.
El método elegido depende de la suavidad deseada y la eficiencia computacional.
Regresión

m (x k )

⎢⎥
La regresión es un método estadístico utilizado para modelar y analizar las relaciones entre
una variable dependiente y una o más variables independientes. Se utiliza para predecir el
valor de la variable dependiente en función de los valores de las variables independientes.
La regresión se utiliza ampliamente en economía, biología, ingeniería y ciencias sociales
para predicción, pronóstico y determinación de relaciones causales.
Una forma de análisis de regresión en la que la relación entre la variable independiente x y
la variable dependiente y se modela como un polinomio de grado n. Construyendo un
sistema de ecuaciones lineales de la siguiente forma:

métodos tiene el siguiente error:

Donde P
1

1
x0

x1

x2

xn

Error del Método de Mínimos Cuadrados


x

x1

xn
2
0

2
2

Σ
n
k=0


x

xn
m
0

m
1

m
2

m⎦

Generalmente el método presentado es el método de mejor ajuste o de mínimos


cuadrados y se utiliza para calcular regresiones de cualquier grado, este tipo de

(P m (x k ) − y k )
a0

a1

a2

am

2
=

es el valor de y predicho por la fuención de regresión calculada a partir


de los datos conocidos.

El grado de los polinomios va a depender del tipo de regresión que deseemos realizar. La
forma de resolver esta matriz, teniendo en cuenta que es un sistema del tipo A ⋅ X
consta de los siguientes pasos:

1. Se multiplica por la transpuesta de A a ambos lados de la igualdad:

2. Se resuelve la multiplicación de A
3. Se resuelve la multiplicación de A
t

t
A

⋅ A

⋅ B
t
⋅ A ⋅ X = A
t
⋅ B


yn

, lo que nos deja con una matriz cuadrada.


para obtener el nuevo resultado.
4. Una vez teniendo que se convierte la matriz del lado derecho en cuadrada se resuelve el
sistema de ecuaciones de manera normal. Supongamos que A ⋅ A = H (sabiendo que H
es una matriz cuadrada) y que A ⋅ B = Y es un resultado intermedio, entonces se resuelve
t

la siguiente matriz con el método que resulta más conveniente:

H ⋅ X = Y
y0

y1

y2

t

= B
Donde el resultado de resolver ese sistema de ecuaciones va a ser un vector X cuyas
componentes son los coeficientes de la función de regresión.

Criterios para la Aplicación de la Regresión

En regresión múltiple, es importante que las variables independientes no sean


linealmente dependientes entre sí.
Para que una regresión sea significativa, debe haber suficiente variabilidad en los
datos. Si todos los puntos de datos son muy similares o idénticos, la regresión no
podrá capturar ninguna relación significativa entre las variables.
Aunque no es un requisito que todos los puntos sean únicos, tener puntos de datos
idénticos puede afectar la capacidad del modelo para ajustarse adecuadamente a
los datos.
Hay varios supuestos que deben cumplirse para que los resultados de una
regresión sean válidos, como la linealidad, la independencia de los errores, la
homocedasticidad (varianza constante de los errores) y la normalidad de los
errores.

UNIDAD 5
La derivación numérica es un método utilizado en cálculo numérico para aproximar el valor
de las derivadas de una función. Es especialmente útil cuando la función no tiene una forma
analítica simple para su derivada o cuando se dispone de datos experimentales o de tablas
de valores en lugar de una expresión algebraica de la función.

Concepto Básico

La derivada de una función f (x) en un punto x se define como el límite del cociente
0

incremental cuando h tiende a cero:


f (x 0 + h) − f (x 0 )
f (x 0 ) = lim
h→0 h

En la derivación numérica, este límite se aproxima mediante una expresión algebraica


con un valor pequeño pero finito de h.

Análisis del Error


El error en la derivación numérica puede dividirse en dos componentes:

1. Error de Truncamiento: Proviene de la aproximación de la derivada utilizando


diferencias finitas en lugar del límite exacto. Es función del tamaño del paso h y del
método utilizado.
2. Error de Redondeo: Surge debido a la precisión finita en las operaciones numéricas en
la computadora. Este error se vuelve significativo cuando h es muy pequeño.

Métodos Comunes de Derivación Numérica


La derivación numérica se basa en aproximaciones de las derivadas utilizando valores
discretos de la función en puntos específicos. A continuación se describen los métodos más
comunes, junto con sus fórmulas matemáticas.

1. Diferencias Finitas hacia Adelante: Este método estima la derivada en un punto x 0

utilizando el valor de la función en x y en un punto cercano hacia adelante x


0 0
+ h :


f (x 0 + h) − f (x 0 )
f (x 0 ) ≈
h

2. Diferencias Finitas hacia Atrás: Este método utiliza el valor de la función en x y en un


0

punto cercano hacia atrás x 0


− h para estimar la derivada:

f (x 0 ) − f (x 0 − h)

f (x 0 ) ≈
h

Error de Truncamiento

El error en el método de diferencia finita hacia adelante y hacia atras son del orden
O(h), lo que indica que el error disminuye linealmente conforme se reduce h.

3. Diferencias Finitas Centradas: Este método toma un promedio de las diferencias hacia
adelante y hacia atrás, utilizando los valores de la función en x + h y x − h:
0 0

f (x 0 + h) − f (x 0 − h)

f (x 0 ) ≈
2h

Error de Truncamiento en Diferencias Finitas Centradas

El error en este método es del orden O(h ), lo que significa que es más preciso que las
2

diferencias hacia adelante o hacia atrás. El error disminuye cuadráticamente al reducir


h.

Diferencias Finitas de Orden Superior


Para obtener una mejor aproximación de la derivada, se pueden utilizar diferencias finitas
de orden superior. Estas fórmulas involucran más puntos alrededor de x . Por ejemplo, para
0

aproximar la segunda derivada de una función f (x) en un punto x , se utiliza la siguiente


0

fórmula:
f (x 0 + h) − 2f (x 0 ) + f (x 0 − h)
′′
f (x 0 ) ≈
2
h

Este método también se puede extender a derivadas de orden superior y diferencias hacia
adelante y hacia atrás.
Las derivadas de orden superior también se pueden calcular usando diferencias finitas. Por
ejemplo, la derivada cuarta de una función f (x) en un punto x puede aproximarse usando 0

la siguiente fórmula:

f (x 0 − 2h) − 4f (x 0 − h) + 6f (x 0 ) − 4f (x 0 + h) + f (x 0 + 2h)
(4)
f (x 0 ) ≈
4
h

Las fórmulas de diferencias finitas de orden superior se pueden generalizar para derivadas
de cualquier orden n utilizando combinaciones lineales de los valores de la función en
varios puntos. Para una derivada de orden k en el punto x , la fórmula de diferencias finitas 0

de orden p se puede escribir como:


m
1
(k)
f (x 0 ) ≈ ∑ c i f (x 0 + ih)
k
h
i=−m

Donde c son los coeficientes determinados a partir de la expansión en serie de Taylor y m


i

depende del orden de la derivada y del nivel de precisión deseado.

Extrapolación de Richardson
La extrapolación de Richardson es una técnica avanzada utilizada para mejorar la
precisión de los métodos numéricos, especialmente en la derivación numérica y la
integración numérica. La idea central detrás de esta técnica es combinar múltiples
aproximaciones con diferentes valores de h (el paso) para cancelar el error de truncamiento
y obtener una mejor estimación de la derivada.
Supongamos que queremos aproximar la derivada de una función f (x) en un punto x . 0

Utilizando una fórmula de diferencias finitas, podemos calcular la derivada aproximada D(h)
para un cierto valor de h:
′ p p+1
D(h) = f (x 0 ) + Ch + O(h )

Donde f ′
(x 0 ) es la derivada exacta que queremos estimar, C es una constante, p es el
orden del método, y O(h p+1
) representa el término del error de truncamiento.
Posteriormente, se utiliza otro paso h/2, se obtiene una segunda estimación:
p p+1
h ′
h h
D( ) = f (x 0 ) + C( ) + O (( ) )
2 2 2

La extrapolación de Richardson combina estas dos estimaciones para eliminar el término de


error Ch , proporcionando una estimación de mayor precisión:
p

p h
2 D( ) − D(h)
2
R(h) =
p
2 − 1
Aquí, R(h) es la nueva estimación mejorada de la derivada, donde el error de truncamiento
ahora es del orden O(h p+1
, lo que significa que la precisión de la estimación ha aumentado.
)

En términos prácticos primero se calcula una aproximación inicial con nuestro valor de h
elegido, posteriormente se realiza una segunda estimación con paso h/2, una vez
realizadas ambas aproximaciones, solo queda reemplazar los valores correspondientes en
R(h) y ya obtendremos la nueva aproximación.

Ventajas y Desventajas de la Extrapolación de Richardson

Ventajas:
Mejora de la Precisión: La técnica permite mejorar la precisión de las
aproximaciones numéricas sin necesidad de reducir el paso h a niveles muy
pequeños, lo que podría introducir errores de redondeo.
Aplicabilidad General: Aunque se utiliza comúnmente en derivación
numérica, la extrapolación de Richardson también se puede aplicar a otros
problemas numéricos, como la integración numérica y la solución de
ecuaciones diferenciales.
Desventajas:
Costo Computacional: La extrapolación de Richardson requiere cálculos
adicionales, ya que implica evaluar la función en más puntos. Esto puede
aumentar el costo computacional, especialmente si la función es costosa de
evaluar.
Elección de h: Aunque la técnica mejora la precisión, es crucial elegir un
valor de h adecuado para evitar que el error de redondeo domine cuando h es
muy pequeño.

Fórmula Utilizada en Clase

Cuando aplicamos la extrapolación de Richarson en clases utilizamos solo una en


concreto, la cual es la siguiente:
h
4D ( ) − D(h)
2
R(h) =
3

Elección del Método


Cuando decides qué método de derivación numérica aplicar, es importante considerar
varios factores clave para asegurar que el método elegido sea el más adecuado para la
situación específica. Aquí tienes algunas de las consideraciones fundamentales:

1. Precisión Necesaria: Si necesitas una alta precisión en tus cálculos, los métodos de
orden superior, como las diferencias finitas centradas o la extrapolación de Richardson,
suelen ser preferibles debido a su menor error de truncamiento.
2. Disponibilidad de Datos: Los métodos más avanzados, como las diferencias finitas de
orden superior, requieren más puntos de datos alrededor del punto de interés. Si solo
tienes datos en un rango limitado o solo en un lado del punto, podrías estar limitado a
métodos más básicos como las diferencias hacia adelante o hacia atrás.
3. Costo Computacional: Los métodos de orden superior y la extrapolación de
Richardson requieren más cálculos, lo que puede aumentar significativamente el tiempo
de procesamiento.
4. Error de Redondeo: A medida que reduces el tamaño del paso h, el error de redondeo
puede volverse significativo debido a las limitaciones de precisión en los cálculos
numéricos. Es importante equilibrar el tamaño del paso h para minimizar tanto el error
de truncamiento como el error de redondeo.
5. Naturaleza de la Función: Ciertas funciones pueden tener comportamientos
particulares, como discontinuidades o regiones donde la función cambia rápidamente.
6. Orden de la Derivada: El orden de la derivada que necesitas calcular también influye
en la elección del método. Por ejemplo, si estás interesado en derivadas de segundo o
tercer orden, necesitarás utilizar fórmulas de diferencias finitas de orden superior.
7. Simetría de la Función: En casos donde la función es simétrica o casi simétrica
alrededor del punto de interés, las diferencias finitas centradas suelen ser más precisas
y se prefieren sobre otros métodos.
8. Combinación de Métodos: En muchos casos, se pueden combinar métodos para
obtener una aproximación medianamente buena a un coste bajo.
9. Condiciones de Contorno: Si trabajas con problemas donde las condiciones de
contorno son críticas, como en ecuaciones diferenciales, puede que prefieras métodos
que respeten mejor estas condiciones, como las diferencias finitas centradas o hacia
atrás.

También podría gustarte