UNIDAD 3
SISTEMA DE ECUACIONES LINEALES ALGEBRAICAS
3.1 Método de eliminación Gaussiana
El método de eliminación
gaussiana es una técnica
fundamental en álgebra lineal
utilizada para resolver sistemas
de ecuaciones lineales. El
objetivo principal es convertir el
sistema original en uno
equivalente más simple,
generalmente una forma
triangular superior, mediante
una serie de operaciones elementales. Estas operaciones incluyen intercambiar
filas, multiplicar una fila por una constante y sumar o restar un múltiplo de una fila
a otra fila.
El proceso general de eliminación gaussiana puede describirse en los siguientes
pasos:
Formar una matriz aumentada: Tomando el sistema de ecuaciones lineales,
se escribe una matriz aumentada que incluye los coeficientes de las
variables y los términos constantes.
Convertir la matriz a forma triangular superior: Se realiza una serie de
operaciones elementales para eliminar los coeficientes por debajo de la
diagonal principal. Esto se hace mediante el uso de pivotes, que son los
elementos principales en cada columna.
Sustitución hacia atrás: Una vez que la matriz está en forma triangular
superior, se resuelve el sistema mediante sustitución hacia atrás,
comenzando desde la última ecuación.
La eliminación gaussiana es especialmente útil para resolver sistemas de
ecuaciones con un gran número de incógnitas, ya que simplifica el proceso de
encontrar la solución. Sin embargo, es importante tener en cuenta que puede
haber casos en los que la matriz del sistema sea singular o numéricamente
inestable, lo que puede requerir técnicas adicionales como pivoteo parcial o el uso
de descomposición LU.
3.2 METODO DE GAUSS-JORDAN
En métodos numéricos, el método de Gauss-Jordan se utiliza principalmente para
resolver sistemas de ecuaciones lineales y para calcular la inversa de una matriz.
Es una herramienta poderosa para estos propósitos debido a su capacidad para
llevar una matriz
aumentada a su
forma
escalonada
reducida por
filas, lo que
facilita la
identificación de soluciones únicas o múltiples y la determinación de la inversa de
una matriz.
-Formación de la matriz aumentada: Se comienza con una matriz aumentada que
contiene los coeficientes de las variables y los términos constantes del sistema de
ecuaciones lineales.
-Eliminación gaussiana: Se aplican operaciones elementales para reducir la matriz
aumentada a una forma triangular superior. Esto implica utilizar pivotes y
operaciones de fila para eliminar los coeficientes por debajo de la diagonal
principal.
-Reducir la matriz a forma escalonada reducida por filas: Después de obtener la
forma triangular superior, se aplican más operaciones elementales para llevar la
matriz a su forma
escalonada reducida por
filas. En esta forma, cada
fila tiene un 1 en la posición
del pivote y todos los
elementos por encima y por
debajo de los pivotes son
cero.
-Identificación de soluciones: Si se está resolviendo un sistema de ecuaciones
lineales, la forma escalonada reducida por filas facilita la identificación de
soluciones únicas o múltiples del sistema.
-Cálculo de la inversa: Si se está calculando la inversa de una matriz, una vez que
la matriz original se ha transformado en la matriz identidad, la matriz que
acompañaba originalmente se convierte en su inversa.
El método de Gauss-Jordan es ampliamente utilizado en métodos numéricos
debido a su eficacia y precisión en la resolución de sistemas de ecuaciones
lineales y en el cálculo de la inversa de matrices. Sin embargo, es importante tener
en cuenta que el método puede volverse computacionalmente costoso para
matrices grandes debido al número de operaciones elementales necesarias. En
tales casos, pueden emplearse técnicas de optimización y algoritmos
especializados para mejorar la eficiencia computacional.
3.3 ESTRATEGIA DE PIVOTEO
En métodos numéricos, el pivoteo es una estrategia fundamental utilizada durante
la eliminación gaussiana para evitar problemas como la pérdida de precisión
numérica y la posible división por cero. Hay varias estrategias de pivoteo que se
utilizan para mejorar la estabilidad y la precisión de los métodos de resolución de
sistemas de ecuaciones lineales. Algunas de las estrategias más comunes son:
-Pivoteo parcial: En el
pivoteo parcial, en cada
paso de la eliminación
gaussiana, se elige
como pivote el
elemento de mayor
magnitud (en valor
absoluto) en la columna
actual. Esto ayuda a
minimizar los errores de
redondeo y a reducir la posibilidad de división por números muy pequeños.
-Pivoteo completo: En el pivoteo completo, se busca el elemento de mayor
magnitud no solo en la columna actual, sino en toda la submatriz restante. Esto
puede aumentar la estabilidad numérica, pero también puede ser
computacionalmente costoso.
-Pivoteo escalado: En el pivoteo escalado, antes de comenzar la eliminación
gaussiana, se normalizan las filas de la matriz dividiendo cada elemento de la fila
por el máximo valor absoluto de la fila. Esto ayuda a evitar la amplificación de
errores numéricos durante el proceso de eliminación.
-Pivoteo diagonal: En el pivoteo diagonal, se selecciona como pivote el elemento
de la diagonal principal en cada paso de la eliminación gaussiana. Esto puede ser
útil cuando se trabaja con matrices simétricas o con una estructura particular que
hace que los elementos diagonales sean los más estables.
-Pivoteo roto (pivoting con umbral): En el pivoteo roto, se establece un umbral por
debajo del cual un elemento de la diagonal se considera demasiado pequeño y se
intercambia por otro elemento de la misma columna que tenga una magnitud
mayor. Esto puede ayudar a evitar la división por números muy pequeños y a
mejorar la estabilidad numérica.
Estas estrategias de
pivoteo son herramientas
importantes para mejorar
la estabilidad y la
precisión de los métodos
numéricos para resolver
sistemas de ecuaciones
lineales, especialmente
cuando se trabaja con matrices mal condicionadas o con problemas
numéricamente sensibles. La elección de la estrategia de pivoteo adecuada
depende del problema específico y de las características de la matriz involucrada.
3.4 METODO DE DESCOMPOSICION LU
El método de descomposición LU (Lower-Upper) es una técnica importante en
métodos numéricos que se utiliza
para resolver sistemas de
ecuaciones lineales. Consiste en
descomponer una matriz de
coeficientes en dos matrices
triangulares: una matriz triangular
inferior (L) y una matriz triangular
superior (U). Esta
descomposición permite resolver
eficientemente sistemas de
ecuaciones lineales y calcular la inversa de la matriz original.
1. Descomposición LU: Dada una matriz de coeficientes 𝐴 de un sistema de
ecuaciones lineales, se descompone en dos matrices 𝐿 y 𝑈 de la forma: 𝐴=𝐿𝑈
donde 𝐿 es una matriz triangular inferior con unos en la diagonal principal, y 𝑈 es
una matriz triangular superior.
2. Resolver el sistema de ecuaciones lineales: Una vez que se ha realizado la
descomposición LU, se resuelve el sistema de ecuaciones lineales original 𝐴𝑥=𝑏
utilizando las matrices 𝐿 y 𝑈. Primero, se resuelve el sistema triangular inferior
𝐿𝑦=b mediante sustitución hacia adelante, y luego se resuelve el sistema
triangular superior 𝑈𝑥=y mediante sustitución hacia atrás.
3. Obtener la inversa de la matriz: Si se necesita calcular la inversa de la matriz
original 𝐴, se puede usar la descomposición LU. La inversa de 𝐴 se puede
encontrar resolviendo 𝐴𝑋=I, donde 𝐼 es la matriz identidad y 𝑋 es la matriz que
queremos encontrar. Esto se puede hacer resolviendo sucesivamente sistemas de
ecuaciones lineales 𝐴𝑋𝑖=𝐼𝑖, donde 𝐼𝑖 son las columnas de la matriz identidad.
Esto se hace utilizando las matrices 𝐿 y 𝑈 previamente calculadas.
La descomposición LU es útil porque una vez que se ha realizado la
descomposición, la solución de múltiples sistemas de ecuaciones lineales con la
misma matriz de coeficientes 𝐴 se vuelve más eficiente, ya que solo requiere la
sustitución hacia adelante y hacia atrás, evitando el cálculo repetitivo de la
descomposición. Además, facilita el cálculo de la inversa de 𝐴 si es necesario.
3.5 MÉTODO DE GAUSS-SEIDEL
Es una técnica
iterativa que se
utiliza en métodos
numéricos para
resolver sistemas
de ecuaciones
lineales. Funciona
mejor cuando se
trata de sistemas de
ecuaciones bien condicionados y simétricos. La idea básica detrás del método de
Gauss-Seidel es actualizar las soluciones aproximadas de las variables una por
una, utilizando las soluciones ya actualizadas para mejorar las siguientes
aproximaciones.
[Link]ón del sistema de ecuaciones: Se comienza con un sistema de
ecuaciones lineales de la forma Ax=b, donde A es una matriz de coeficientes, x es
el vector de incógnitas y b es el vector de términos constantes.
2. Descomposición de la matriz: La matriz A se descompone en una matriz
diagonal (D), una matriz triangular inferior (L), y una matriz triangular superior (U),
de acuerdo a la fórmula A=D−L−U. 𝐷D contiene los elementos diagonales de A, L
contiene los elementos por debajo de la diagonal principal, y U contiene los
elementos por encima de la diagonal principal.
3. Iteración: Se parte de una estimación inicial de la solución, x (0). Luego, se
utiliza la siguiente fórmula iterativa para actualizar cada componente de x:
4. donde 𝑎𝑖𝑗 son los elementos de la matriz A, bi es el término constante
correspondiente y 𝑛n es el número de incógnitas.
Convergencia: Se repiten las iteraciones hasta que se alcanza una condición de
convergencia, como una diferencia pequeña entre dos iteraciones consecutivas o
un número máximo de iteraciones predefinido.
El método de Gauss-Seidel puede converger más rápido que el método de Jacobi
porque utiliza las soluciones actualizadas tan pronto como están disponibles en
cada iteración, en lugar de esperar a que se completen todas las iteraciones. Esto
puede resultar en una convergencia más rápida, especialmente para sistemas de
ecuaciones bien condicionados. Sin embargo, es importante tener en cuenta que
el método de Gauss-Seidel no siempre converge y su convergencia puede
depender de la matriz 𝐴A en cuestión. En algunos casos, pueden ser necesarias
técnicas de precondicionamiento para mejorar la convergencia.
3.6 MÉTODO DE KRYLOV
El método de Krylov es una familia de métodos iterativos utilizados para resolver
sistemas de ecuaciones lineales, especialmente cuando la matriz involucrada es
grande y dispersa (sparse). Estos métodos se basan en la construcción de una
secuencia de vectores generados por la matriz del sistema y un vector inicial.
1. Formulación del sistema de ecuaciones lineales: Se comienza con un sistema
de ecuaciones lineales de la forma Ax=b, donde A es una matriz de coeficientes, x
es el vector de incógnitas y b es el vector de términos constantes.
2. Generación de la secuencia de Krylov: Se elige un vector inicial x0 y se
construye una secuencia de vectores de Krylov {r0,Ar0,A2r0,…,Ak−1r0}, donde r0
=b−Ax0 es el residuo inicial.
3. Mínimización del residuo: encontrar un vector xk que minimice el residuo rk
=b−Axk en el subespacio de Krylov generado por {r0,Ar0,A2r0,…,Ak−1r0}. Esto se
hace utilizando el método de Gradiente Conjugado, que actualiza xk en cada
iteración para minimizar el residuo.
4. Convergencia: Se repiten las iteraciones hasta que se alcanza una condición de
convergencia, como una diferencia pequeña entre dos iteraciones consecutivas o
un número máximo de iteraciones predefinido.
3.7 OBTENCION DE EIGENVALORES Y EIGENVECTORES
En métodos numéricos, la obtención de eigenvalores y eigenvectores de una
matriz se puede realizar utilizando diferentes técnicas, siendo algunas de las más
comunes:
1. Método de la potencia: Este método iterativo encuentra el eigenvalor dominante
(el de mayor magnitud) y su eigenvector correspondiente de una matriz cuadrada.
Se comienza con un vector aleatorio, se multiplica sucesivamente por la matriz y
se normaliza para converger al eigenvector dominante. El eigenvalor se aproxima
tomando la razón entre dos elementos consecutivos del eigenvector.
2. Método de la potencia inversa: Similar al método de la potencia, pero en lugar
de iterar con la matriz original, se itera con la inversa de la matriz menos un valor
constante 𝜇μ, para obtener el eigenvalor más pequeño y su eigenvector asociado.
Esto puede ser útil cuando se busca el eigenvalor de menor magnitud.
3. Método de la potencia con deflación: Después de encontrar un par eigenvalor-
eigenvector, se elimina su contribución de la matriz original mediante la deflación,
y luego se repite el proceso para encontrar el siguiente par, y así sucesivamente.
4. Método QR: Este método descompone iterativamente la matriz en una matriz
triangular superior y una matriz ortogonal (es decir, A=QR), donde Q es una matriz
ortogonal y R es una matriz triangular superior. Los eigenvalores se pueden
extraer de la matriz triangular superior R, y los eigenvectores se pueden calcular a
partir de las columnas de la matriz Q.
5. Descomposición de Schur: Este método transforma la matriz original en una
forma triangular superior, es decir, A=QTQT, donde Q es una matriz ortogonal y T
es una matriz triangular superior. Los eigenvalores se encuentran directamente en
la diagonal de T, y los eigenvectores se pueden calcular a partir de las columnas
de Q.