0% encontró este documento útil (0 votos)
11 vistas9 páginas

Anã - Lisis Numã - Rico

El documento presenta un esquema del curso de análisis numérico, que abarca desde conceptos elementales hasta métodos para resolver ecuaciones, sistemas lineales, ajuste de curvas, diferenciación e integración numérica, y ecuaciones diferenciales ordinarias. Se enfatiza la importancia de los métodos numéricos en la ingeniería moderna, así como las limitaciones y errores inherentes al uso de computadoras en estos métodos. Además, se introducen definiciones clave como dígitos, cifras significativas, error, exactitud y precisión, que son fundamentales para el estudio de los métodos numéricos.

Cargado por

bottinoagustina
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
11 vistas9 páginas

Anã - Lisis Numã - Rico

El documento presenta un esquema del curso de análisis numérico, que abarca desde conceptos elementales hasta métodos para resolver ecuaciones, sistemas lineales, ajuste de curvas, diferenciación e integración numérica, y ecuaciones diferenciales ordinarias. Se enfatiza la importancia de los métodos numéricos en la ingeniería moderna, así como las limitaciones y errores inherentes al uso de computadoras en estos métodos. Además, se introducen definiciones clave como dígitos, cifras significativas, error, exactitud y precisión, que son fundamentales para el estudio de los métodos numéricos.

Cargado por

bottinoagustina
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

ANÁLISIS NUMÉRICO

ESQUEMA REDUCIDO DEL CURSO


1.- Introducción

2.- Conceptos elementales

3.- Raíces de ecuaciones

3.1.- Presentación del problema

3.2.- Método de bisección

3.3.-Método de Punto fijo

3.4.- Método de Newton Raphson

3.5.- Método de la secante

4.- Sistema de ecuaciones lineales

4.1.- Presentación del problema

4.2.- Método de eliminación Gaussiana

4.3.- Método de Gauss Seidel

4.4.- Método de LU

5.- Ajuste de curvas

5.1.- Presentación del problema


5.2.- Regresión Lineal

5.3.- Polinomio de Newton o Diferencias Divididas

5.4.- Polinomio de Lagrange

5.5.- Interpolación segmentaria (Spline)

6.- Diferenciación Numérica

6.1.- Presentación del problema

6.2.- Fórmulas de tres puntos

6.3.- Fórmulas de cinco puntos

7.- Integración Numérica

7.1.- Presentación del problema

7.2.- Regla de los Trapecios

7.3.-Regla de Simpson

8.- Ecuaciones Diferenciales Ordinarias

8.1.- Presentación del problema

8.2.- Método de Euler

8.3.- Método de Hunn

8.4.- Métodos de Runge Kutta

8.5.- Métodos predictivos – correctivos


1.- Introducción

En las últimas décadas el progreso en el desarrollo de las computadoras,


trajo grandes cambios en el ejercicio de la ingeniería, ya que los métodos numéricos,
preexistentes desde varios siglos, toman auge a medida que las computadoras se
desarrollan en capacidad y velocidad.

Antiguamente los métodos numéricos eran usados pero de manera muy


limitada y a casos excepcionales, debido al tedioso trabajo de usarlos a mano. Tenían más
protagonismos los métodos gráficos y modelos empíricos por la facilidad y comodidad de
su uso.

Hoy las computadoras debido a la capacidad y velocidad que han adquirido


son una HERRAMIENTA fundamental en el ejercicio de la ingeniería. Pero es una
HERRAMIENTA. Tiene grandes prestaciones, pero tienen grandes limitantes. Esas
limitantes surgen de la asociación “computadora – métodos numéricos”.

Las computadoras son herramientas que pueden almacenar una cantidad


enorme de datos, realizar operaciones básicas de aritmética y reconocer un lenguaje y
nada más.

Por lo tanto, aquí trataremos de estudiar esa simbiosis, computadora –


métodos numéricos, que puede sernos de mucha utilidad o un gran inconveniente. Y ahí
es donde debe estar el ingeniero, para verificar que esa combinación sea de utilidad.

¿Y por qué esta combinación puede ser un inconveniente?. Las razones son
muchas, veamos cuales:

1.- Las computadoras NO trabajan en un universo infinito. Nuestra mente sí, los números
reales, y recordemos que estos tienen ciertas propiedades que dan base y sustento al
álgebra. Ellas son: a) entre un punto y otro hay infinitos puntos, b) no tiene principio ni fin.
Estas dos propiedades son el basamento de nuestra álgebra. Éstas las podíamos graficar
en la recta real:

N (N+1)

R
Nuestros números pueden tener un número infinito de dígitos, solo pensemos en el
número π o en el número e.
2.- Las computadoras, trabajan internamente con el sistema binario (0 y 1) y los números
tienen un espacio “finito” de dígitos:

El primero representa el signo del número, los siguientes representan la


mantisa del mismo. La cantidad de dígitos dependerá del fabricante. Y los tres últimos,
representan el exponente con su signo.

Por otro lado, trabajan con el sistema de punto flotante, es decir con la
mantisa y un exponente, veamos un ejemplo en nuestro sistema decimal:

X= 123,78 X= 0,12378 x 103

Esto conlleva a que el universo de trabajo de la computadora es discreto:

m M

o sea que entre punto y punto no hay nada, tiene un número que es el más chico que
puede representar (m) y otro que es el máximo (M), es decir, tiene principio y fin!!!!.

En consecuencia en las computadoras no tenemos el sustento para


desarrollar el álgebra con sus propiedades, tal cual la conocemos.

3.- Los métodos numéricos se basan en su mayoría en formulaciones teóricas muy


complejas, como por ejemplo el desarrollo de Taylor:

( ) ( )
( ) ( ) ( )( ) ( ) ( )
En nuestra mente puede tener infinitos términos, pero en la práctica tomaremos tantos
como lo requiera el problema objeto de estudio. Al tomar cierta cantidad de términos,
estaremos descartando los subsiguientes, cometiendo un error….

La suma de todas estas singularidades, hacen que en muchas ocasiones los


resultados obtenidos no sean representativos de la realidad, y es ahí donde debe estar el
ingeniero, garantizando que el proceso sea adecuadamente correcto y que los errores
sean razonables al fin estudiado.

2.- Conceptos elementales:

Para adentrarnos en el estudio de los métodos numéricos, definiremos


algunos conceptos elementales para hablar un mismo lenguaje.

Dígito: es la unidad elemental en la representación de un número.

Número: conjunto de dígitos que conforman un elemento.

Cifras: cantidad de dígitos.

Cifras significativas: es la cantidad de dígitos que posee un valor confiable. Para entender
esto veamos el ejemplo del velocímetro:

Podemos ver que el vehículo se está desplazando entre 134 y 135 MPH,
dependiendo del observador, alguno podrá decir que va a 134,30 MPH, y otro dirá que va
a 134,50 MPH. Observen que en los tres primeros dígitos se tiene certeza de su valor, pero
el cuarto dígito está sujeto a la interpretación del observador, es decir en ese dígito no no
se tiene certeza de su valor, por lo tanto en esta medición tendremos tres cifras
significativas.
Error: diferencia entre un valor real y un valor próximo al real.

Exactitud: es la aproximación de un número a su valor verdadero, mientras más cerca esté


del valor real, más exacto es.

Precisión: la precisión está relacionada al grado de dispersión entre los valores


aproximados. .

El ejemplo del tirador al blanco es muy ilustrativo:


Nos detendremos más en detalle en una de estas definiciones, por su
importancia en el uso de los métodos numéricos. El error.

ERRORES:
Definimos al error en una aproximación numérica a la diferencia entre el
valor real (verdadero) y su aproximación:

Este se conoce como el error absoluto o total. En muchas ocasiones


trabajaremos con el error relativo que se define como:
Suele también usarse el error relativo porcentual, que es este último
expresado en porcentaje (%):

En la práctica el valor verdadero no se conoce, por lo tanto trabajaremos


con una aproximación de los errores, en especial con los métodos recurrentes, quedando
estas cantidades de las siguientes maneras:

En la mayoría de los casos el error se toma en valor absoluto, ya que no


importa si es de más o de menos, si no cuan próximo está.

Como las computadoras trabajan con un universo discreto, cada operación


matemática que realiza entre dos números, es probable que dé como resultado un valor
que no puede representar, entonces deberá optar por un valor inferior o superior de
acuerdo a su cercanía. Esto lo hace usando la técnica de redondeo.

Este error es inherente al funcionamiento interno de la computadora.


Existe otro error debido al método numérico, que en ciertas expresiones (Taylor) debemos
cortar y descartar desde un determinado término. Esto es conocido como error de corte o
truncamiento.

La suma de todos estos errores da lugar al error total que se comete al


utilizar la combinación computadora – métodos numéricos.
El problema se presenta cuando hay una gran cantidad de operaciones
matemáticas ya que en cada una de estas se comete un error de redondeo, acumulándose
sucesivamente, este fenómeno se conoce como “acarreo del error”, con la consiguiente
pérdida de dígitos significativos, dando lugar a errores incompatibles con el problema que
se estudia. En este curso aprenderemos a “controlar” el acarreo del error.

También podría gustarte