0% encontró este documento útil (0 votos)
43 vistas9 páginas

Métodos Numéricos: Soluciones Aproximadas

Los métodos numéricos son una serie de operaciones matemáticas utilizadas para encontrar soluciones aproximadas a problemas que no pueden resolverse de forma exacta. Estos métodos se implementan mediante algoritmos que especifican pasos para obtener soluciones aproximadas valiéndose de cálculos aritméticos y lógicos.

Cargado por

Jose Garcia
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
43 vistas9 páginas

Métodos Numéricos: Soluciones Aproximadas

Los métodos numéricos son una serie de operaciones matemáticas utilizadas para encontrar soluciones aproximadas a problemas que no pueden resolverse de forma exacta. Estos métodos se implementan mediante algoritmos que especifican pasos para obtener soluciones aproximadas valiéndose de cálculos aritméticos y lógicos.

Cargado por

Jose Garcia
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd

Concepto de métodos numéricos.

Los métodos numéricos son una sucesión de operaciones


matemáticas utilizadas para encontrar una solución numérica
aproximada a un problema determinado. Es decir, se trata de una
serie de cálculos para acercarnos lo más posible a una solución
numérica con una precisión razonablemente buena. Los métodos
numéricos son utilizados en ingeniería para facilitar la resolución
de problemas que conllevan una enorme cantidad de cálculos, lo
que permite ahorrar tiempo.

Por lo general, los métodos numéricos se utilizan en ordenadores,


dispositivos electrónicos o software especializados en ingeniería, los
cuales, ya tienen incluidos los métodos numéricos en sus algoritmos
de resolución, siendo vitales en el área de simulación de procesos y
para dar respuestas rápidas donde una solución analítica se vuelve
compleja. En este artículo definiremos los métodos numéricos, el
análisis numérico y los usos del análisis numérico.

Un método numérico es una serie de pasos (procedimiento) que se


plantean para obtener una solución aproximada de un problema. Para
lograr este objetivo, se utilizan cálculos puramente aritméticos y
lógicos.

Entendiéndose como cálculos aritméticos a las operaciones


aritméticas básicas, cálculos de funciones, consultas de tablas de
datos, etc, podemos decir entonces, que los métodos numéricos son
una lista finita de instrucciones precisas, las cuales requieren una
secuencia de operaciones algebraicas y lógicas (algoritmo). Dichas
secuencias dan como resultado una solución aproximada a un
problema determinado.

Objetivo principal de los métodos numéricos

objetivo es la resolución numérica de problemas que carecen de expresión


analítica para su resolución exacta. Estos procedimientos se expresan, en general,
mediante algoritmos que especifican la secuencia de operaciones lógicas y
aritméticas que conducen a la solución (normalmente aproximada) del problema
planteado.

Los métodos numéricos se implementan usualmente mediante lenguajes de


programación para su ejecución en un sistema computacional. Este sistema puede
estar formado por un único ordenador, o por múltiples ordenadores conectados en
red. Cualquiera que sea el caso, los sistemas computacionales tienen limitaciones
inherentes que deben ser tenidas en cuenta en el diseño de los algoritmos.

Por ejemplo, los números irracionales como 2–√2, π� o e� tienen un desarrollo


de infinitas cifras decimales, por lo que no pueden representarse exactamente en
la memoria de un ordenador.

Importancia del análisis de los métodos numéricos

Los métodos numéricos son un vehículo eficiente para aprender a


servirse de las computadoras y son técnicas mediante las cuales es
posible formular problemas matemáticos de tal forma que puedan
resolverse usando operaciones aritméticas.

La importancia de los métodos numéricos es que son herramientas muy


poderosas para la solución de problemas. Por lo tanto aumentan la
habilidad de quien los estudia para resolver problemas.

El conocimiento y la comprensión son prerrequisitos para la aplicación


eficaz de cualquier herramienta.

Las computadoras y los métodos numéricos ofrecen una alternativa para


los cálculos complicados. Aunque las soluciones analíticas aun son muy
valiosas, tanto para resolver problemas como para brindar una mayor
comprensión, los métodos numéricos representan opciones que
aumentan, en forma considerable, la capacidad para enfrentar y resolver
los problemas; como resultado, se dispone de más tiempo para
aprovechar las habilidades creativas personales.
Con que objetivo fueron diseñado los métodos
numéricos

Los métodos numéricos fueron diseñados con el objetivo de calcular


numéricamente soluciones aproximadas a problemas matemáticos que no pueden
resolverse de manera exacta o analítica. Estos métodos permiten llevar a cabo la
manipulación y cálculos de operaciones matemáticas complejas con números en
una computadora o calculadora, lo que facilita la resolución de problemas
prácticos en diversas áreas de la ciencia, la ingeniería y la industria

Cuales son las soluciones que ofrecen los métodos


numéricos.

Los métodos numéricos ofrecen soluciones aproximadas a problemas


matemáticos que no tienen una solución exacta o que son difíciles de calcular.
Algunas de las soluciones que ofrecen son:

1 Aproximación de raíces de ecuaciones: los métodos numéricos pueden


encontrar aproximaciones de las raíces de una ecuación, es decir, los valores para
los cuales la ecuación se hace cero.

2 Interpolación y extrapolación: los métodos numéricos pueden estimar un valor


desconocido utilizando datos conocidos cercanos. Esto es útil en situaciones
donde solo se tienen datos limitados y se necesita estimar valores adicionales.
3 Aproximación de integrales: los métodos numéricos pueden calcular el valor
aproximado de una integral definida, que representa el área debajo de una curva.
Esto es útil cuando la integral no puede ser calculada analíticamente.

4 Solución de sistemas de ecuaciones lineales: los métodos numéricos pueden


resolver sistemas de ecuaciones lineales, que son un conjunto de ecuaciones con
múltiples variables. Estas soluciones son útiles en aplicaciones de ciencias e
ingeniería.

5 Métodos de optimización: los métodos numéricos pueden encontrar la solución


óptima para un problema, como el máximo o mínimo de una función. Esto tiene
aplicaciones en la optimización de recursos y toma de decisiones.
En general, los métodos numéricos ofrecen soluciones prácticas y eficientes para
problemas matemáticos complejos o que no tienen una solución exacta.

Concepto de cimbra significativa

Las cifras significativas son los dígitos en un número que se consideran confiables o
relevantes. Estos son los dígitos que se utilizan para expresar la precisión de una
medición o cálculo y son importantes porque indican cuánta confianza se puede tener en
el valor numérico.

En general, las reglas para determinar las cifras significativas en un número son las
siguientes:

 Todos los dígitos diferentes de cero son siempre significativos. Por ejemplo, en el
número 345, los tres dígitos son significativos.

 Los ceros entre dos cifras diferentes de cero también son significativos. Por
ejemplo, en el número 506, los tres dígitos son significativos.

 Los ceros a la izquierda del primer dígito diferente de cero no son significativos.
Por ejemplo, en el número 0.0567, solo hay tres cifras significativas.
 Los ceros a la derecha del último dígito diferente de cero son significativos si hay
un punto decimal presente. Por ejemplo, en el número 120.00, todos los ceros son
significativos.
Estas reglas ayudan a garantizar que los resultados de las operaciones matemáticas sean
consistentes y precisos. Al utilizar las cifras significativas, se puede estimar la
incertidumbre asociada con los datos y los cálculos realizados.

Concepto de precisión
La precisión se refiere a la capacidad de un instrumento, sistema o método para
proporcionar resultados exactos y consistentes. Es la medida de cuán cerca están los
valores medidos o calculados de un valor verdadero o de referencia.

En el contexto de la medición, la precisión se refiere a la cantidad de dígitos significativos


o decimales correctos en un resultado. Por ejemplo, si se mide una longitud con una regla
graduada en centímetros y se obtiene un resultado de 12.3 cm, se puede decir que la
medida tiene una precisión de una décima de centímetro.

En el contexto de los sistemas informáticos, la precisión se refiere a la capacidad de un


algoritmo o modelo para predecir o clasificar correctamente los datos. Por ejemplo, en un
sistema de reconocimiento facial, la precisión se refiere a la capacidad del sistema para
identificar correctamente a una persona en una imagen.

En resumen, la precisión es una medida de la exactitud y consistencia de los resultados


en la medición o predicción de datos.

Concepto de exactitud

La exactitud es la medida de cuán cercano está un valor medido al valor real o verdadero.
En otras palabras, se refiere a qué tan acertada es una medición o aproximación en
relación a la cantidad exacta o el estándar establecido.
En el contexto de la investigación científica y la estadística, la exactitud se puede evaluar
comparando los resultados obtenidos con los valores reales conocidos. Un resultado
preciso está cerca del valor verdadero, mientras que uno inexacto está lejos de él.

Es importante tener en cuenta que la exactitud se diferencia de la precisión. Mientras que


la exactitud se refiere a qué tan cerca está un valor medido al valor verdadero, la precisión
se refiere a qué tan consistente o reproducible es un conjunto de mediciones.

En resumen, la exactitud es un concepto fundamental en la medición y la evaluación de


resultados científicos, ya que permite determinar qué tan confiables y cercanas a la
realidad son las mediciones realizadas.

Concepto de la aproximación numérica

La aproximación numérica es un método utilizado para obtener un valor cercano o una


estimación de un número o resultado matemático cuando no se puede calcular de manera
exacta. Se basa en utilizar cálculos y técnicas que permiten encontrar una solución que se
acerque lo más posible al valor real.

Esta técnica es ampliamente utilizada en diversos campos, como la física, la ingeniería,


las finanzas y la estadística, donde es común encontrarse con situaciones en las que no
es posible obtener una respuesta exacta debido a la complejidad del problema o la falta
de datos precisos.

Existen diferentes métodos de aproximación numérica, como el método de aproximación


lineal, el método de interpolación, el método de regresión, entre otros. Estos métodos se
basan en diferentes principios y técnicas matemáticas que permiten obtener una solución
cercana al valor real, pero no necesariamente exacta.

Es importante tener en cuenta que la aproximación numérica puede introducir un margen


de error en los cálculos, por lo que es necesario evaluar la precisión y la exactitud de los
resultados obtenidos. En algunos casos, es posible utilizar métodos de refinamiento de la
aproximación para reducir este margen de error y obtener una solución más precisa.

Concepto de incertidumbre
La incertidumbre es una estimación del rango entre ambos, que representa la fiabilidad
de la medición.
La principal diferencia entre los errores y las incertidumbres es que un error es la
diferencia entre el valor real y el valor medido, no es una estimación. En este caso,
la incertidumbre absoluta será la diferencia entre el valor mayor y el menor.

También puede expresarse como el valor de la semi-amplitud de un intervalo alrededor


del valor resultante de la medida, que se entiende como el valor convencionalmente
verdadero. El carácter convencional, y no real de tal valor, es consecuencia de que el
intervalo se entiende como una estimación adecuada de la zona de valores entre los que
se encuentra el valor verdadero del mensurando, y que en términos tanto teóricos como
prácticos es imposible de hallar con seguridad o absoluta certeza: teóricamente porque se
necesitaría una sucesión infinita de correcciones, y en términos prácticos por no ser útil
continuar con las correcciones una vez que la incertidumbre se ha reducido lo suficiente
como para no afectar técnicamente al objeto al que va a servir la medida.

Concepto de sesgo

El sesgo es la diferencia entre el valor verdadero y el promedio de


mediciones en muchas determinaciones obtenidas por el mismo sistema
de medición. Como el valor verdadero no es accesible, en sentido estricto
solo es posible hablar sobre sesgo relativo entre laboratorios, analistas o
sistemas de medición.
En cualquier tipo de medición analítica se puede distinguir entre dos
tipos de error: error sistemático y error aleatorio. Estas dos fuentes de
error se identifican con los términos de sesgo y precisión

Ejemplo 1: Diferencia entre el error sistemático (Sesgo) y el error aleatorio


(Precisión)

Imaginemos que se quiere introducir un nuevo método de medición más


rápido, de una determinada cualidad de un material, en una empresa que
tiene cinco plantas de producción diferentes con un laboratorio de
medición en cada una de ellas. Se organiza un ensayo inter-laboratorio
para comprobar la calidad de medición con el nuevo sistema en todos los
laboratorios de la empresa. Cada laboratorio realiza la medición del
material estándar cinco veces. Por otro lado, la cualidad del material
estándar se ha determinado por el método antiguo, lento y caro, en 100
unidades. Los resultados del ensayo inter-laboratorio se pueden observar
en la Figura 1.

Observando la Figura 1 podemos ver que los laboratorios difieren en los


resultados de sus mediciones. Podemos ver diversos ‘tipos de
diferencias’. Por una parte, unos laboratorios están ‘sesgados’ unos
respecto a los otros, y algunos con respecto a la determinación estándar
de 100 unidades. Pero, además, los laboratorios presentan diferencias
unos con otros en la distancia entre sus propias determinaciones
(amplitud de sus mediciones). Vamos a utilizar este ejemplo para
describir la diferencia entre el sesgo y la precisión.

Cual es el principal ventaja de los metodos


numéricos.
Ventajas y Desventajas de los métodos numéricos

Dentro de las ventajas de los métodos numéricos tenemos los siguientes:

Mediante un soware como podría ser Matlab podemos encontrar las solucionesde una
manera más rápida.

Ulizando de una manera correcta algún soware nos permite obtener las grafcas de
los problemas matemácos.

Los métodos numéricos pueden manejar un gran número de ecuaciones y variables sin
errores de operaciones.
Dentro de las desventajas de los métodos numéricos tenemos los siguientes:

Todos los problemas no siempre se pueden resolver mediante métodos numéricos.

En ocasiones las computadoras suelen ser muy lentas al ulizar algún soware.

No es preciso.

Teniendo que procesar cada uno de los casos parculares, no encontramossoluciones


generales

• Convergencia lenta.
Concepto de error

También podría gustarte