INFORME 3
Presentado a:
Carlos Valdés Jiménez
Presentado por:
Leidy Marcela Espitia Segura
Kristian Hernando Legro Salazar
Jefferson Steven Vargas Bastidas
Wilfer Estevens Diaz Blanco
Eduar Alfonso Perdomo Arias
30 de septiembre de 2020.
Universidad del Tolima
Modelos Numéricos G-2
Ingeniería de Sistemas
1
CONTENIDO
ÍNDICE PÁGINAS
1. INTRODUCCIÓN…………………………………………………...………... 3
2. OBJETIVO…………………………………………………………………….. 4
2.1 GENERAL…………………………………………………………………… 4
2.2 ESPECIFICOS ……………………………………………………………. 4
3. DESARROLLO………………………………………………………………. 5
3.1 ECUACIONES ALGEBRAICAS LINEALES…………………………… 5
ELIMINACION DE GAUSS 5
3.1.1 Solución de sistemas pequeños de ecuaciones…………………. 5-8
3.1.2 Eliminación de Gauss simple……………………………………… 8-10
3.1.3 Dificultades en los métodos de eliminación………………………. 10-11
3.1.4 Técnicas para mejorar las soluciones…………………………….. 12-13
3.1.5 Sistemas complejos………………………………………………….
3.1.6 Sistema de ecuaciones no lineales…………………………………
3.1.7 Gauss – Jordán……………………………………………………….
3.2 MATRICES ESPECIALES Y EL METODO DE GAUSS – SEIDEL
3.2.1 Matrices especiales…………………………………………………
3.2.2 Gauss – Seidel……………………………………………………….
3.2.3 Ecuaciones lineales con paquetes de software……………………
4. CONCLUSIONES…………………..………………………………………….
5. BIBLIOGRAFÍA……………………………………………………………..
6. ANEXOS (EJERCICIOS) …………………………………………………
2
1. INTRODUCCION
Los sistemas de ecuaciones lineales son el problema central del álgebra lineal.
Asimismo, las definiciones del álgebra lineal, como independencia y dependencia
lineal, requieren de la formulación y resolución de sistemas de ecuaciones lineales.
Estos últimos, además, tienen aplicación en distintas áreas de conocimiento, como la
ingeniería o la computación; y desde luego, en áreas de la matemática, como la
geometría analítica o la investigación de operaciones.
En consecuencia, el estudio y la enseñanza de los sistemas de ecuaciones lineales son
esenciales y necesarios en la formación de estudiantes. Es por ello que en este trabajo
hablaremos de los siguientes métodos; eliminación de Gauuss Simple, Gauss – Jordán,
Jacobi, Gauss – Seidel, los cuales nos sirven para resolver problemas aplicados a la
vida cotidiana y a nivel profesional.
2. OBJETIVOS
3
2.1. GENERAL
Obtener conocimientos sobre los conceptos y comprender El Método de Solución de
Eliminación de Gauuss Simple, Gauss – Jordán, Jacobi, Gauss – Seidel para
solucionar sistemas de Ecuaciones Lineales y encontrar métodos para plantear, discutir
y resolver este tipo de sistemas.
2.2. ESPECIFICO
Entender el método de solución Eliminación de Gauuss Simple, Gauss –
Jordán, Jacobi, Gauss – Seidel para solucionar sistemas de Ecuaciones
Lineales.
Entender cual es la diferencia mas importante entre el método de Eliminación
de Gauuss Simple, Gauss – Jordán, Jacobi, Gauss – Seidel
Comprender y aplicar los métodos para resolver un sistema de ecuaciones
lineales implementando un lenguaje de programación.
Desarrollo de ejercicios prácticos
3. DESARROLLO
4
3.1 ECUACIONES ALGEBRAICAS LINEALES
ELIMINACION DE GAUSS
Las ecuaciones algebraicas lineales simultáneas que en general se representan como:
donde las a son los coeficientes constantes y las b son los términos constantes. A esto se le
conoce como la eliminación de Gauss, ya que implica una combinación de ecuaciones para
eliminar las incógnitas. Aunque éste es uno de los métodos más antiguos para resolver
ecuaciones lineales simultáneas, continúa siendo uno de los algoritmos de mayor
importancia, y es la base para resolver ecuaciones lineales en muchos paquetes de software
populares.
3.1.1 Solución de sistemas pequeños de ecuaciones
Antes de analizar los métodos computacionales, describiremos algunos métodos que son
apropiados en la solución de pequeños sistemas de ecuaciones simultáneas (n menos o igual
que 3) que no requieren de una computadora. Éstos son el método gráfico, la regla de
Cramer y la eliminación de incógnitas
Método gráfico
Para dos ecuaciones se puede obtener una solución al graficarlas en coordenadas
cartesianas con un eje que corresponda a x1 y el otro a x2. Debido a que, en estos sistemas
lineales, cada ecuación se relaciona con una línea recta, lo cual se ilustra fácilmente
mediante las ecuaciones generales.
En ambas ecuaciones se puede despejar x2:
5
De esta manera, las ecuaciones ahora están en la forma de líneas rectas; es decir, x2 =
(pendiente) x1 + intercepto. Tales líneas se grafican en coordenadas cartesianas con x2
como la ordenada y x1 como la abscisa. Los valores de x1 y x2 en la intersección de las
líneas representa la solución.
Solución gráfica de un conjunto de dos ecuaciones algebraicas lineales simultáneas. La
intersección de las líneas representa la solución.
Determinantes y la regla de Cramer
La regla de Cramer es otra técnica de solución adecuada para un sistema pequeño de
ecuaciones. Antes de hacer una descripción de tal método, se mencionará en forma breve el
concepto de determinante que se utiliza en la regla de Cramer. Además, el determinante
tiene relevancia en la evaluación del mal condicionamiento de una matriz.
Determinantes El determinante se puede ilustrar para un sistema de tres ecuaciones
simultáneas:
6
El determinante D de este sistema se forma, a partir de los coeficientes de la ecuación, de la
siguiente manera:
Aunque el determinante D y la matriz de coeficientes [A] se componen de los mismos
elementos, son conceptos matemáticos completamente diferentes. Por esto, para
distinguirlos visualmente se emplean corchetes para encerrar la matriz y líneas rectas
verticales para el determinante. En contraste con una matriz, el determinante es un simple
número. Por ejemplo, el valor del determinante de segundo orden.
En el caso del determinante de tercer orden [ecuación (9.2)], el determinante, que es un
simple valor numérico, se calcula así
donde a los determinantes de 2 por 2 se les llama menores.
Regla de Cramer
Esta regla establece que cada incógnita de un sistema de ecuaciones lineales algebraicas
puede expresarse como una fracción de dos determinantes con denominador D y con el
numerador obtenido a partir de D, al reemplazar la columna de coeficientes de la incógnita
en cuestión por las constantes b1, b2, …, bn. Por ejemplo, x1 se calcula como
La eliminación de incógnitas
La eliminación de incógnitas mediante la combinación de ecuaciones es un método
algebraico que se ilustra con un sistema de dos ecuaciones simultáneas:
7
La estrategia básica consiste en multiplicar las ecuaciones por constantes, de tal forma que
se elimine una de las incógnitas cuando se combinen las dos ecuaciones. El resultado es una
sola ecuación en la que se puede despejar la incógnita restante. Este valor se sustituye en
cualquiera de las ecuaciones originales para calcular la otra variable.
La eliminación de incógnitas se puede extender a sistemas con más de dos o tres
ecuaciones. Sin embargo, los múltiples cálculos que se requieren para sistemas más grandes
hacen que el método sea extremadamente tedioso para realizarse a mano
3.1.2 Eliminación de Gauss simple
El método de eliminación Gaussiana para la solución de sistemas de ecuaciones lineales
consiste en convertir a través de operaciones básicas llamadas operaciones de renglón un
sistema en otro equivalente más sencillo cuya respuesta pueda leerse de manera directa. El
método de eliminación Gaussiana es el mismo para sistemas de ecuaciones 2×2, 3×3, 4×4 y
así sucesivamente siempre y cuando se respete la relación de al menos una ecuación por
cada variable.
Antes de ilustrar el método con un ejemplo, es necesario primeramente conocer las
operaciones básicas de renglón las cuales son presentas a continuación:
1. Ambos miembros de una ecuación pueden multiplicarse por una constante diferente de
cero.
2. Los múltiplos diferentes de cero de una ecuación pueden sumarse a otra ecuación
3. El orden de las ecuaciones es intercambiable.
Una vez conocidas las operaciones que en mi afán por resolver un sistema de ecuaciones
puedo realizar procedo a ilustrar el método con un ejemplo:
1. Resolver el siguiente sistema de ecuaciones:
x + 2y + 3z = 1
4x + 5y + 6z= −2
7x + 8y + 10z = 5
Donde cada ecuación representa un renglón y las variables iguales de las 3 ecuaciones
representan las columnas 1, 2 y 3 respectivamente.
8
Usando el método de eliminación Gaussiana.
Solución:
Para simplificar las operaciones se retiran las variables y se mantienen exclusivamente los
coeficientes de cada una, el signo de igual también es eliminado, pero se mantienen los
datos del lado derecho de la ecuación.
Quedando como sigue:
Diagonal principal
La diagonal principal de la matriz busca quede conformada por solo unidades (1) la parte
inferior a la diagonal debe quedar en ceros. Esto se hace utilizando las operaciones básicas
de renglón para las ecuaciones, de arriba hacia abajo y de izquierda a derecha.
Multiplico la ecuación 1 por −4 y el resto de la ecuación 2, de igual forma la multiplico por
−7 y se restó de la 3 obteniendo.
Después divido la ecuación 2 (renglón 2) entre −3 para hacer el componente de la diagonal
principal 1 quedando como sigue:
Multiplico la ecuación 2 (renglón 2) por 6 y lo sumo a la ecuación 3 (renglón 3).
Una vez lograda la diagonal principal formada por unidades y los datos por debajo de la
diagonal principal ceros reintegro las variables en cada ecuación y también el signo igual de
las ecuaciones obteniendo:
Donde el valor de z= 10 y al sustituir este valor en la ecuación resultante 2, tendríamos
y + 2z = 2 al sustituir el valor de z obtenemos que:
y + 2(10) = 2
y + 20 = 2
y = 2- 20
y = −18
Al sustituir estos valores en la ecuación resultante 1 se tiene:
1x + 2y + 3z = 1
9
Si z= 10 y y=−18, entonces el valor de x será:
1x + 2y + 3z = 1
x + 2(−18) + 3(10) = 1
x – 36 + 30 = 1
x–6=1
x=1+6
x=7
La solución del sistema de ecuaciones sería x= 7, y= −18, y z= 10.
El sistema de eliminación gaussiana es el mismo no importando si es un sistema de
ecuaciones lineales del tipo 2×2, 3×3, 4×4 etc. siempre y cuando se respete la relación de al
menos tener el mismo número de ecuaciones que de variables.
3.1.3 Dificultades en los métodos de eliminación
Mientras que hay muchos sistemas de ecuaciones que se pueden resolver con la eliminación
de Gauss simple, existen algunas dificultades que se deben analizar, antes de escribir un
programa de cómputo general donde se implemente el método.
División entre cero
La razón principal por la que se le ha llamado simple al método anterior se debe a que
durante las fases de eliminación y sustitución hacia atrás es posible que ocurra una división
entre cero. Por ejemplo, si se utiliza el método de eliminación de Gauss simple para
resolver
en la normalización del primer renglón habrá una división entre a11 = 0. También se
pueden presentar problemas cuando un coeficiente está muy cercano a cero. La técnica de
pivoteo se ha desarrollado para evitar en forma parcial estos problemas.
Errores de redondeo
El problema de los errores de redondeo llega a volverse particularmente importante cuando
se trata de resolver un gran número de ecuaciones. Esto se debe al hecho de que cada
resultado depende del anterior. Por consiguiente, un error en los primeros pasos tiende a
propagarse, es decir, a causar errores en los siguientes pasos. Resulta complicado
especificar el tamaño de los sistemas donde los errores de redondeo son significativos, ya
que depende del tipo de computadora y de las propiedades de las ecuaciones. Una regla
10
generalizada consiste en suponer que los errores de redondeo son de importancia cuando se
trata de sistemas de 100 o más ecuaciones. En cualquier caso, siempre se deben sustituir los
resultados en las ecuaciones originales y verificar si ha ocurrido un error sustancial. No
obstante, las magnitudes de los mismos coeficientes pueden influir en la aceptación de si
una de estas pruebas de error asegura un resultado confiable.
Sistemas mal condicionados
Los sistemas mal condicionados son aquellos en donde pequeños cambios en los
coeficientes generan grandes cambios en la solución. Otra interpretación del mal
condicionamiento es que un amplio rango de resultados puede satisfacer las ecuaciones en
forma aproximada. Debido a que los errores de redondeo llegan a provocar pequeños
cambios en los coeficientes, estos cambios artificiales pueden generar grandes errores en la
solución de sistemas mal condicionados.
Sistemas singulares
Sería útil tener una forma de detectar la singularidad de manera automática. La respuesta a
este problema está claramente dada por el hecho de que el determinante de un sistema
singular es cero. Esta idea, a su vez, puede relacionarse con la eliminación gaussiana
reconociendo que después del paso de eliminación, el determinante se evalúa como el
producto de los elementos de la diagonal Así, un algoritmo de computadora puede efectuar
una prueba para discernir si se crea un cero en la diagonal durante la etapa de la
eliminación. Si se descubre uno, el cálculo se puede terminar inmediatamente y en la
pantalla aparecerá un mensaje de alerta. Se mostrarán más tarde.
3.1.4 Técnicas para mejorar las soluciones
El remedio más simple para el mal condicionamiento consiste en emplear más cifras
significativas en los cálculos. Si la computadora tiene la capacidad para usar más cifras,
esta característica reducirá enormemente el problema.
Pivoteo
Cuando un elemento pivote es cero surgen problemas, ya que el paso de normalización
origina una división entre cero. También llegan a surgir problemas cuando el elemento
pivote es cercano a 0, más aún que sea exactamente igual a 0, debido a que, si la magnitud
del elemento pivote es pequeña comparada con los otros elementos, entonces se pueden
introducir errores de redondeo. Por lo tanto, antes de normalizar cada renglón, resulta
conveniente determinar el coeficiente más grande disponible en la columna debajo del
elemento pivote. Los renglones se pueden intercambiar de manera que el elemento más
grande sea el elemento pivote; esto se conoce como pivoteo parcial. Al procedimiento,
donde tanto en las columnas como en los renglones se busca el elemento más grande y
luego se intercambian, se le conoce como pivoteo completo, el cual se usa en muy raras
ocasiones debido a que al intercambiar columnas se cambia el orden de las x y, en
consecuencia, se agrega complejidad significativa y usualmente injustificada al programa
de computadora.
11
Escalamiento
escalamiento podía ser útil para la estandarización del tamaño determinante. Más allá de
esta aplicación, tiene utilidad en la minimización de los errores de redondeo, en aquellos
casos en los que algunas de las ecuaciones de un sistema tienen coeficientes mucho más
grandes que otros. Tales situaciones se encuentran con frecuencia en la práctica de la
ingeniería, al usar unidades muy diferentes en el desarrollo de ecuaciones simultáneas. Por
ejemplo, en problemas de circuitos eléctricos, los voltajes desconocidos se pueden expresar
en unidades que varían desde microvoltios hasta kilovoltios. Existen ejemplos similares en
todos los campos de la ingeniería. Mientras cada una de las ecuaciones sea consistente, el
sistema será técnicamente correcto y susceptible de ser resuelto. Sin embargo, el uso de
unidades tan diversas puede llevar a que los coeficientes difieran ampliamente en magnitud.
Esto, a su vez, puede tener un impacto sobre el error de redondeo, ya que afecta el pivoteo.
Algoritmo para la eliminación gaussiana
Eliminación hacia adelante, sustitución hacia atrás y pivoteo.
Las ecuaciones no están escaladas, pero los valores escalados de los elementos se
usan para determinar si se debe usar el pivoteo.
El término diagonal se vigila durante la fase del pivoteo para detectar ocurrencias de
valores cercanos a cero y con esto indicar si el sistema es singular. Si devuelve un
valor de er = –1, se ha detectado una matriz singular y el cálculo debe terminar. El
usuario da a un parámetro tol, un número pequeño para detectar ocurrencias
cercanas a cero.
3.1.5 Sistemas complejos
3.1.6 Sistema de ecuaciones no lineales
Es un conjunto de dos o más ecuaciones que comparten dos o más incógnitas. Las
soluciones de un sistema de ecuaciones son todos los valores que son válidos para todas
las ecuaciones, o los puntos donde las gráficas de las ecuaciones se intersectan.
Podemos resolver un sistema de ecuaciones lineales graficando, por sustitución y por
combinación lineal. Los sistemas de funciones no lineales, como ecuaciones
cuadráticas o exponenciales,
12
Ahora vamos a resolver el mismo sistema usando sustitución. Cuando resolvemos por
sustitución, seguimos los siguientes pasos:
1. Seleccionar una ecuación y despejar una variable. (Escoger una ecuación y una
variable que sea fácil de despejar).
2. Sustituir la expresión resultante por una variable en la otra ecuación, cada vez que
esta variable aparezca.
13
3. Resolver la segunda variable en la segunda ecuación.
4. Sustituir la solución del paso 3 en la expresión del paso 1, para encontrar la otra
variable
14
3.1.7 Gauss – Jordán
El método de Gauss-Jordan utiliza operaciones con matrices para resolver sistemas
de ecuaciones de n número de variables.
Para aplicar este método solo hay que recordar que cada operación que se realice se
aplicara a toda la fila o a toda la columna en su caso.
El objetivo de este método es tratar de convertir la parte de la matriz donde están los
coeficientes de las variables en una matriz identidad.
Esto se logra mediante simples operaciones de suma, resta y multiplicación
El procedimiento es el siguiente:
Primero se debe tener ya el sistema de ecuaciones que se quiere resolver y que
puede ser de n número de variables por ejemplo:
15
16
3.2 MATRICES ESPECIALES Y EL METODO DE GAUSS – SEIDEL
MATRICES ESPECIALES
Al trabajar con matrices, nos toparemos de forma recurrente con algunas matrices que
tienen ciertas características muy particulares, a este tipo de matrices se les conocen
como matrices especiales y a continuación las listaremos junto con algunas de sus
propiedades respecto a las operaciones con otras matrices y su determinante.
Matriz Cero
La Matriz Cero es una matriz cuadrada tal que cada uno de sus elementos es igual a cero,
se denota con un cero en negrita para diferenciarla del escalar cero. Formalmente
decimos que para todo y la expresamos de la siguiente manera:
17
Si es una matriz, entonces .
Si es una matriz, entonces .
Su determinante es igual a cero, es decir, .
Las siguientes matrices son matrices cero del tamaño correspondiente:
Matriz Identidad
La Matriz Identidad es una matriz cuadrada tal que cada uno de sus elementos es igual a
cero, salvo los elementos de su diagonal que son todos iguales a uno, se denota con .
Formalmente decimos que para todo y para todo , y la
expresamos de la siguiente manera:
Si es una matriz, entonces .
Su determinante es igual a uno, es decir, .
Las siguientes matrices son matrices identidad del tamaño correspondiente:
18
Matriz Diagonal
Una matriz cuadrada es Matriz Diagonal si cada uno de sus elementos fuera de la diagonal
es igual a cero, en ocasiones se denotan con . Formalmente decimos que $[D]_{ij} = 0$
para todo $i \neq j$ y la expresamos de la siguiente manera:
Su determinante es el producto de todos los elementos de su diagonal, es
decir, .
Las siguientes matrices son matrices diagonales del tamaño correspondiente:
También podemos definir matrices diagonales que no sean cuadradas pero en esos casos, no
podemos calcular su determinante.
Matriz Triangular Superior
Una matriz cuadrada es una Matriz Triangular Superior si todos los elementos que están
por debajo de la diagonal, son iguales a cero, en ocasiones se denotan con .
Formalmente decimos que si y la expresamos de la siguiente manera:
Su determinante es el producto de todos los elementos de su diagonal, es
decir, .
Las siguientes matrices son matrices diagonales del tamaño correspondiente:
19
También podemos definir matrices triangulares superiores que no sean cuadradas pero en
esos casos, no podemos calcular su determinante.
Matriz Triangular Inferior
Una matriz cuadrada es una Matriz Triangular Inferior si todos los elementos que están por
encima de la diagonal, son iguales a cero, en ocasiones se denotan con . Formalmente
decimos que si y la expresamos de la siguiente manera:
Su determinante es el producto de todos los elementos de su diagonal, es
decir,
Las siguientes matrices son matrices diagonales del tamaño correspondiente:
También podemos definir matrices triangulares inferiores que no sean cuadradas pero en
esos casos, no podemos calcular su determinante.
METODO DE GAUSS – SEIDEL
El Método de Gauss-Seidel consiste en hacer iteraciones, a partir de un vector inicial, para
encontrar los valores de las incógnitas hasta llegar a una tolerancia deseada, la diferencia
radica en que cada vez que se desee encontrar un nuevo valor de una xi, además de usar los
valores anteriores de las x, también utiliza valores actuales de las x encontradas antes
(desde x0 hasta xi-1). La ecuación es la siguiente:
20
El método de Gauss-Seidel recorta sustancialmente el número de iteraciones a realizar para
obtener una cierta precisión en la solución. Evidentemente los criterios de convergencia son
similares a los de Jacobi.
Este criterio no solo se aplica a las ecuaciones lineales que se resuelven con el método de
Gauss-Seidel sino también para el método iterativo del punto fijo y el método de jacobi. Por
tanto, al aplicar este criterio sobre las ecuaciones de Gauss-Seidel y evaluando con respecto
a cada una de las incógnitas, obtenemos la expresión siguiente:
El valor absoluto de las pendientes en la ecuación, deben ser menor que la unidad para
asegurar la convergencia.
Es decir, el elemento diagonal debe ser mayor que el
elemento fuera de la diagonal para cada reglón de ecuaciones. La generalización del criterio
anterior para un sistema de n ecuaciones es:
El método de Gauss-Seidel está basado en el concepto de punto fijo, es
decir ( xi = gi (x), i = 1.. n), para resolver sistemas de ecuaciones [Link] garantizar la
convergencia se debe de cumplir que el sistema tenga una diagonal dominante, es decir que
se cumpla la desigualdad siguiente, si se cambió el orden de las ecuaciones esta puede
divergir.
21
Resolver el siguiente sistema de ecuación por el método Gauss-Seidel utilizando un
ξ= 0.001.
0.1 X1 + 7.0 X2 – 0.3 X3 = -19.30
3.0 X1 – 0.1 X2 – 0.2 X3 = 7.85
0.3 X1 – 0.2 X2 – 10.0 X3 = 71.40
SOLUCIÓN:
Primero ordenamos las ecuaciones, de modo que en la diagonal principal esten los
coeficientes mayores para asegurar la convergencia.
3.0 X1 – 0.1 X2 – 0.2 X3 = 7.85
0.1 X1 + 7.0 X2 – 0.3 X3 = -19.30
0.3 X1 – 0.2 X2 – 10.0 X3 = 71.40
Despejamos cada una de las variables sobre la diagonal:
Suponemos los valores
iniciales X2 = 0 y X3 = 0 y calculamos X1
22
Este valor junto con el de X3 se puede utilizar para obtener X2
La primera iteración se
completa sustituyendo los valores de X1 y X2 calculados obteniendo:
En la segunda iteración, se repite el mismo procedimiento:
Comparando los valores calculados entre la primera y la segunda iteración
Como podemos observar, no se cumple la condición
Entonces tomamos los valores
calculados en la última iteración y se toman como supuestos para la siguiente iteración. Se
repite entonces el proceso:
23
Comparando de nuevo los valores obtenidos
Como se observa todavía no se cumple la condición
Así que hacemos otra iteración
Comparando los valores obtenidos
24
Dado que se cumple la condición, el resultado es:
X1 = 3.0
X2 = -2.5
X3 = 7.0
3.2.1 Ecuaciones lineales con paquetes de software
Muchos problemas de cómputo en ingeniería pueden ser divididos en pedazos de cálculos
bien conocidos, como solución de sistemas de ecuaciones lineales, transformada rápida de
Fourier, etc. Por consecuencia, frecuentemente el programador sólo tiene que escribir una
rutina pequeña (driver) para el problema particular que tenga, porque el software para
resolver las subtareas se encuentra ya disponible. De esta forma la gente no tiene que
reinventar la rueda una y otra vez.
El mejor software para un tipo particular de problema debería ser adquirido de una
compañia comercial, pero para álgebra lineal y algunos otros cómputo numéricos básicos
hay software de calidad gratis (a través de Netlib).
Netlib
Netlib (NET LI Brary) es una colección grande de software, documentos, bases de datos
gratis que son de interes para las comunidades científicas y de métodos numéricos.
Paquetes de software comercial para cómputo numérico general:
NAG
El Grupo de Algoritmos numéricos (Numerical Algorithms Group) (NAG) ha desarrollado
una biblioteca de Fortran conteniendo alrededor de 1000 subrutinas accesibles al usuario
para resolver problemas generales de matemáticas aplicadas, incluyendo: ecuaciones
diferenciales ordinarias y parciales, transformada rápida de Fourier, cuadratura, álgebra
lineal, ecuaciones no lineales, ecuaciones integrales, y más.
25
NUMERICAL RECIPES
Los libros de Numerical Recipes in C/Fortran son muy populares entre los ingenieros
porque pueden ser usados como libro de cocina donde se puede encontrar una “receta
(recipe)” para resolver algún problema a mano. Sin embargo, el software correspondiente
de Numerical Recipes no es comparable en alcance o calidad al dado por NAG o IMSL.
MATLAB
Es un programa de cálculo numérico, orientado a matrices y vectores. Por tanto desde el
principio hay que pensar que todo lo que se pretenda hacer con él, será mucho más rápido y
efectivo si se piensa en términos de matrices y vectores.
Derive
Es un potente programa para el cálculo matemático avanzado: variables, expresiones
algebraicas, ecuaciones, funciones, vectores, matrices, trigonometría, etc. También tiene
capacidades de calculadora científica, y puede representar funciones gráficas en dos y tres
dimensiones en varios sistemas coordenados.
La potencia de Derive es enorme y no resulta complicado de manejar, máxime teniendo en
cuenta la gran cantidad de posibilidades que ofrece. Es fácil navegar a través de él y
consultar la ayuda online y la tabla de contenidos. El usuario también puede personalizar
menús, barras de herramientas y atajos de teclado.
26
CONCLUSIONES
27