MATRICES
Una matriz es un arreglo rectangular de elementos ubicados en filas y columnas y
agrupados por paréntesis o corchetes.
[ ]
Notación. Las matrices son representadas por letras mayúsculas y sus elementos por
letras minúsculas.
Una forma alternativa de representar una matriz:
[ ]
Dónde:
Igualdad de Matrices
Sean dos matrices rectangulares o cuadradas, son iguales si cumplen las siguientes
condiciones.
1. Que tengan el mismo tamaño.
2. Que sus elementos sean iguales posición a posición respetando ley de signos.
Matriz Cuadrada
Es aquella matriz en el cual se advierte una igualdad entre el número de filas y
columnas.
[ ]
Traza de una Matriz
La traza de una matriz se define en matrices cuadradas, donde se puede identificar la
diagonal principal, por lo tanto la traza de una matriz es igual a la sumatoria de los
elementos de la diagonal principal respetando ley de signos.
Notación. Traza de A = Tr(A)
Matriz Transpuesta
Es aquella matriz que se obtiene de una original al intercambiar filas por columnas o
columnas por filas respetando su orden.
Notación.
Matriz transpuesta de
Matrices Especiales
Matriz Nula o Matriz Cero
Es aquella matriz cuadrada o rectangular en la que todos los sus elementos tienen un
valor igual a cero.
tal que:
Matriz Diagonal
Es aquella matriz cuadrada que tiene elementos distintos de 0 y 1 en la diagonal
principal y en todas las demás posiciones toman un valor de 0.
Matriz Escalar
Es aquella matriz cuadrada en la que los elementos de la diagonal principal son
iguales y en todas las demás posiciones toman un valor de cero.
Matriz Identidad
Es aquella matriz cuadrada en la que todos los elementos de la diagonal principal
toman un valor igual a la unidad y las demás posiciones toman un valor igual a
cero.
Matriz Idemponte
Es aquella matriz cuadrada que al multiplicarla por su misma matriz da como
resultado la misma matriz.
Matriz Involutiva
Es aquella matriz cuadrada que al multiplicarla por su misma matriz da como
resultado la matriz identidad.
Matriz simétrica
Es aquella matriz cuadrada en la que la matriz original es igual a su transpuesta.
Matriz Antisimetrica
Es aquella matriz cuadrada en la que la matriz original es igual a la opuesta de su
transpuesta.
Matriz Ortogonal
Es aquella matriz cuadrada en la que la inversa de esta matriz es igual a su
transpuesta.
Matriz Periódica
Es aquella matriz cuadrada en la que se verifica lo siguiente:
Se denomina matriz periódica de periodo K, donde .
Matriz Nilpotente
Es aquella matriz cuadrada que multiplicándola por la misma matriz n veces da
como resultado una matriz nula.
Matriz Permutable o Conmutativa
Es definida en producto de matrices es decir que:
Debe de tomarse en cuenta que el producto de matrices no es conmutativa a
excepción en casos especiales como en este tipo de matrices.
Matriz Anti conmutativa
Es definida en producto de matrices es decir que:
Al igual que en el caso anterior pero en este caso es igual a su opuesto.
Matriz Singular
Es aquella matriz cuadrada en la que el valor de su determinante es igual a 0, es
decir que no existe inversa.
| |
Operaciones con Matrices
Existen tres operaciones con matrices en la teoría matricial, las cuales son las
siguientes:
1. Suma de matrices.
La operación de la suma (resta caso especial de la suma) es válida si las matrices a
sumar cumplen una condición. Necesariamente deben ser del mismo tamaño ya
sean cuadradas o rectangulares.
Operativamente sumar matrices implica sumar sus elementos posición a posición
respetando ley de signos.
Sea:
[ ]
[ ]
=[ ] [ ]
[ ]
[ ]
2. Producto por un Escalar
El multiplicar una constante, un escalar o un número a una matriz implica
multiplicar ese número a cada uno de los elementos de la matriz ya sea cuadrada
o rectangular.
Sea:
[ ]
[ ]
[ ]
[ ]
3. Producto de Matrices
Para multiplicar dos matrices se debe cumplir una condición importante la cual
es identificar el número de columnas de la primera matriz a multiplicar el cual
debe ser necesariamente igual al número de filas de la segunda matriz a
multiplicar. Si esta condición preliminar no se cumpliera entonces el producto no
está definido es decir no existe. El resultado del producto tendrá un tamaño
igual al número de filas de la primera matriz a multiplicar por el número de
columnas de la segunda matriz a multiplicar.
Es importante mencionar que el producto de matrices no es conmutativo salvo
para las matrices especiales denominadas matrices conmutativas; o cualquier
matriz multiplicada por la matriz identidad, ya sea por la izquierda o por la
derecha. Por lo tanto se puede afirmar que la matriz identidad es el neutro en el
producto de matrices.
Operativamente la multiplicación de matrices implica multiplicar los elementos
respetando posiciones parcialmente de una de las filas de la primera matriz con
una de las columnas de la segunda matriz para finalmente esos productos
parciales sumarlos respetando ley de signos.
Sea:
[ ]
[ ]
[ ]
Dónde:
Nota.- No existe división de matrices.
Operaciones Elementales
En algebra lineal se conocen tres operaciones elementales en matrices.
Además que se debe de tomar en cuenta que cuando se realizan las operaciones
elementales a la fila se la denota por la letra “L” y a las columnas por la letra “C”.
Estas operaciones son válidas para filas y columnas las mismas son las siguientes.
1. Se puede intercambiar filas en una matriz.
2. Se puede multiplicar por una constante diferente de cero a cualquier fila de
una matriz.
3. Se puede multiplicar una constante a cualquier fila y sumarla a otra.
MÉTODOS DE LA MATRIZ INVERSA
La notación de una matriz es la siguiente:
Se debe recalcar que solamente las matrices cuadradas pueden ser invertidas.
Algunas matrices no tienen inversa; a esas matrices se las denomina matriz singular,
una matriz que no tenga inversa necesariamente el valor de su determinante es igual
a 0.
Método de Gauss-Jordan
Este método consiste en ensamblar una matriz aumentada donde en el lado
izquierdo de la matriz aumentada se ubica la matriz a invertir; y en el lado derecho
de la matriz aumentada se ubica la matriz identidad del mismo tamaño de la matriz
a invertir.
Generada la matriz aumentada se debe transformar mediante operaciones
elementales la parte de la matriz a invertir en una matriz identidad; como las
operaciones se hacen a las filas de la matriz aumentada del proceso anterior
automáticamente en el lado derecho de la matriz aumentada se genera la matriz
inversa de la matriz.
[ ] Mediante operaciones elementales llegar hasta [ ]
Método de la Adjunta
Este método de cálculo es factible para matrices 3x3 no se recomienda aplicar el
mismo a matrices de orden mayor a tres debido a que el cálculo se hace extenso.
| |
= Matriz Adjunta
| | = Determinante
Para obtener la matriz adjunta de una matriz cuadrada se debe tener primero la
matriz de menores posteriormente la matriz de cofactores, finalmente la matriz
adjunta será la transpuesta de la matriz de cofactores.
Matriz de Menores
Es aquella conformada por todos los menores de cada uno de los elementos de la
matriz original
Matriz de cofactores
Es aquella matriz que se obtiene a partir de la matriz de menores, y cada uno
multiplicado por el signo correspondiente.
Método de Orlado
Este método consiste en particionar la matriz.
Sea una matriz cuadrada M de orden 3:
[ ]
Particionando la matriz:
[ ]
Dónde: [ ] [ ]
[ ]
Se busca la matriz
[ ]
[ ][ ] [ ]
Se obtiene las siguientes igualdades:
Hallando [ ]
Teorema de Cayley – Hamilton
Este método consiste en hallar el polinomio característico, el mismo está dado por el
determinante de | | , es decir multiplicar lambda ( ) que es un escalar, por
la matriz identidad del mismo tamaño de la matriz A y restarla con la matriz A, una
vez realizado estas operaciones se halla el determinante e igualarla a cero.
El polinomio característico de una matriz cuadrada esta dado por:
Si se reemplaza en la matriz A se verifica que .
Al realizar la operación anterior, se expresa el polinomio característico en términos
de la matriz A, se debe despejar la matriz identidad y luego post – multiplicar por la
Matriz Inversa .
Determinantes
Se debe advertir que solo las matrices cuadradas poseen determinante, existen
matrices cuyo valor del determinante es igual a 0, este tipo de matrices son
especiales y es denominada matriz singular.
Notación.
Determinante de | | det(A)
Propiedades de Determinantes
1. Si una matriz cuadrada contiene una fila o columna completa de ceros
entonces el determinante es igual a 0, es decir | |
2. Si un determinante tiene dos filas o columnas iguales entonces el
determinante es igual a cero.
3. Si un determinante tiene una fila o columna es múltiplo de la otra entonces el
determinante es igual a cero.
4. Si un determinante es multiplicada por una constante , el determinante se
multiplica por su inverso.
5. Si un determinante se obtiene a partir de otro por el intercambio de filas o
columnas entonces el determinante queda multiplicado por un signo
negativo.
6. Si un determinante resulta a partir de otro de sumarle el múltiplo de una fila
o columna a otro entonces no se requiere ninguna consideración adicional.
7. Si la el determinante de una matriz triangular (superior o inferior), entonces
el determinante será igual al producto de los elementos que conforman la
diagonal principal respetando ley de signos.
8. | | | | | |
9. | | | || |
10. | | | |
11. | | | |
12. | | | |
Métodos de Calculo
Método de kramer
Este método es aplicable para matrices de orden 2.
[ ]
El determinante de A:
| | | |
| |
Método de desarrollo por cofactores
Para calcular el determinante de una matriz cuadrada por el desarrollo de cofactores
se debe elegir una fila o columna cualquiera de la matriz y calcular los
correspondientes menores de los elementos de la fila o columna elegida y
multiplicarlos por los mismos elementos afectando con el signo correspondiente a la
posición a la que pertenece dicho elemento; para finalmente esos productos
parciales sumarlos.
| | ∑ | |
Método de Chío
Este método es una combinación del método de desarrollo por cofactores y
operaciones elementales.
Se debe proceder de la siguiente manera:
1. Se debe identificar una fila o columna que contenga un 1 y si no hubiese
ninguna, cualquier elemento de la fila o columna elegida se debe volver en 1.
2. La elección de la fila o columna al paso anterior, se tiene que considerar
además que sea la fila o columna con mayor cantidad de ceros.
3. Con ese 1 del primer paso mediante operaciones elementales ya sean en filas
o columnas se debe de eliminar o transformar todos los elementos excepto
ese 1 en cero.
4. Después de la anterior transformación se debe aplicar el desarrollo de
cofactores para el cálculo para un determinante en esa fila o columna
elegida. Este proceso se debe repetir para reducir el orden del determinante
hasta obtener un determinante de fácil cálculo para un orden menor.
SISTEMA DE ECUACIONES LINEALES
Sea el siguiente Sistema de Ecuaciones Lineales, con m ecuaciones lineales y n
incógnitas (variables) cuya forma general es:
Aplacando la igualdad de matrices:
[ ] [ ]
Por definición de productos de matrices:
[ ][ ] [ ]
Donde:
A= Matriz de Coeficientes
X= Matriz den Variable
B= Matriz de Constantes
[ ]
[ ] [ ]
Tipos de solución
En este tipo de sistema se puede esperar tres tipos de respuesta.
1. Unica Solución (Consistente).
2. Infinitas soluciones (consistente indeterminado).
3. No existencia de soluciones (inconsistente).
Métodos de Solución
Método de la Matriz Inversa
Este método se aplica a matrices cuadradas, es decir:
Multiplicando por la izquierda
Donde es la matriz de variables, es la inversa de la Matriz de Coeficientes
multiplicada por la matriz B, la matriz de constantes.
Método de Gauss – Jordán
Este método consiste en ensamblar una matriz aumentada donde en el lado
izquierdo de la matriz aumentada se ubica la matriz de coeficientes y en el lado
derecho de la matriz aumentada se ubica la matriz de constantes.
Generada la matriz aumentada se debe transformar mediante operaciones
elementales la parte de la matriz A en una matriz identidad; como las operaciones
se hacen a las filas de la matriz aumentada del proceso anterior automáticamente en
el lado derecho de la matriz aumentada se genera las soluciones del sistema.
[ ] Mediante operaciones elementales llegar hasta [ ].
Dónde: =solución del sistema
Método de Eliminación Gaussiana
Este método consiste en ensamblar una matriz aumentada donde en el lado
izquierdo de la matriz aumentada se ubica la matriz de coeficientes y en el lado
derecho de la matriz aumentada se ubica la matriz de constantes.
Generada la matriz aumentada se debe transformar mediante operaciones
elementales la parte de la matriz A en una Matriz Triangular Superior, [ ]
mediante operaciones elementales llegar hasta [ ]. Donde Matriz Triangular
Superior y de esta manera determinar los valores de la solución del sistema,
haciendo cumplir la igualdad de matrices.
Método de Factorización LU
Este método es aplicable a Matrices Cuadradas de orden 3 debido a que si la Matriz
A (Matriz de coeficientes) es mayor a 3 el cálculo se hace extenso.
Este método consiste en expresar la matriz de coeficientes como el producto de dos
matrices es decir, , donde la L es una Matriz Triangular Inferior y U una
matriz triangular superior, ambas son matrices cuadradas del mismo orden de la
Matriz A.
Sea la Matriz A de orden 3.
[ ]
[ ]
[ ]
Se debe verificar que:
[ ][ ]
Multiplicando LU:
[ ]
Luego de este procedimiento se debe cumplir A=LU, la igualdad de matrices, para
hallar los valores de a, b, c, d, e y f.
Para luego resolver el sistema:
…. (1)
Donde: [ ]
Y finalmente la solución del sistema estará dado por:
…. (2)
[ ]
Sistemas Homogéneos
Se denomina sistema homogéneo si la matriz de constantes es una matriz nula.
Aplacando la igualdad de matrices:
[ ] [ ]
Por definición de productos de matrices:
[ ][ ] [ ]
Donde:
A= Matriz de Coeficientes
X= Matriz den Variable
B= Matriz Nula
[ ]
[ ] [ ]
Nota. En este tipo de ecuaciones se debe de tomar en cuenta es que queda
descartada la opción de no existencia de solución (este tipo de sistema siempre tiene
solución). El primer tipo de solución es la única solución o solución trivial; el
segundo tipo de solución es la de infinitas soluciones.
Métodos de Solución
Método de la Matriz Inversa
Este método se aplica a matrices cuadradas, es decir:
Pre-multiplicando por
Donde es la matriz de variables, es la inversa de la Matriz de Coeficientes
multiplicada por la matriz B, la matriz nula, se puede observar que al multiplicar
ambas matrices se obtiene el primer tipo de solución de este tipo de sistemas es
decir la única solución o solución trivial
Espacios Vectoriales
Un espacio vectorial es un conjunto de elementos (vectores en el plano, vectores en
el espacio, vectores en el espacio n dimensional, funciones continuas, polinomios,
matrices, etc.), que cumplen 10 axiomas.
Sea ⃑ ⃑ ⃑⃑⃑
1. Clausura para la Suma
⃑ ⃑
2. Propiedad Conmutativa
⃑ ⃑ ⃑ ⃑
3. Propiedad de Asociatividad
⃑ ⃑ ⃑⃑⃑ ⃑ ⃑ ⃑⃑
4. Existencia del neutro aditivo
⃑ ⃑ ⃑
5. La inversa del neutro aditivo
⃑ ⃑⃑⃑ ⃑
6. Clausura para el producto por un escalar
⃑
7. Asociatividad en el producto
⃑ ⃑
8. Primera propiedad distributiva referida a la suma de escalares por un vector
⃑ ⃑ ⃑
9. Segunda propiedad distributiva referida al producto de un escalar por la
suma de vectores
⃑ ⃑ ⃑ ⃑
10. Existencia del neutro en el producto
⃑ ⃑
Sub espacios Vectoriales
Es aquel conjunto que cumple con 2 axiomas.
Sea ⃑ ⃑ ⃑⃑⃑
1. Clausura para la Suma
⃑ ⃑
2. Clausura para el producto por un escalar
⃑
Nota. Cualquier sub espacio vectorial es considerado también un espacio vectorial.
Combinación Lineal
Se puede afirmar que existe una combinación lineal en un conjunto o en un espacio
vectorial; cuando uno de sus elementos se puede expresar como la igualdad de la
sumatoria de algunos elementos del espacio vectorial multiplicados por constantes
que pertenecen a los números reales.
Sea: {⃑ ⃑ ⃑ ⃑ }
⃑ ⃑ ⃑ ⃑ ⃑
Si la anterior igualdad es válida entonces existe combinación lineal, de caso
contrario no existe combinación lineal.
Conjunto Generador (Sub espacio Generado)
Se dice que un conjunto es generador de su espacio vectorial si un vector genérico
del espacio vectorial se puede escribir o expresar como una combinación lineal del
conjunto de análisis.
Independencia Lineal
Se dice que un sub conjunto de un espacio vectorial es linealmente independiente si
el mismo se puede expresar como combinación lineal del vector nulo del espacio
vectorial en cuestión.
Dependencia Lineal
Se dice que un sub conjunto de un espacio vectorial es linealmente dependiente si el
mismo no se puede expresar como combinación lineal del vector nulo del espacio
vectorial en cuestión.
Base y Dimensión
Se considera base a un conjunto si y solo si cumple las siguientes condiciones.
1. Que el conjunto sea linealmente independiente.
2. Que el conjunto sea generador del espacio.
La dimensión estará determinada por el número de elementos que conforman las
combinaciones lineales correspondientes que demuestran las anteriores 2
condiciones.
Transformación Lineal
Para que un conjunto sea considerado transformación lineal debe de cumplir los
siguientes teoremas de linealidad:
1.
2.
Si ambas se cumplen el conjunto es considerado transformación lineal.
Sea:
El núcleo estará definido de la siguiente manera:
{ }
La imagen estará definida de la siguiente manera:
{ }
El teorema de la dimensión estará determinado por el conjunto de partida, es decir:
Diagonalización
Para diagonalizar una matriz la misma debe de ser cuadrada, debido al mismo
concepto de una matriz diagonal.
Los pasos que se deben de desarrollar para diagonalizar una matriz son tres, los
cuales son:
Sea: A la matriz a diogonalizar
Autovalores
Este paso consiste en hallar los valores propios de la matriz a diagonalizar, descrita
de la siguiente forma:
| |
Autovectores
Para hallar los vectores propios se debe de resolver sistemas de ecuaciones
homogéneas correspondientes a cada valor propio.
Una vez que se hallaron los vectores propios se procede a conformar la matriz de
transición P.
[ ]
Dónde: , son los vectores propios
Diagonalización
Diagonalización Ortogonal
Para diagonalizar una matriz ortogonalmente el mismo debe de ser necesariamente
una matriz simétrica, en caso de no serla no se puede diagonalizar ortogonalmente.
Los pasos para diagonalizar ortogonalmente una matriz son similares a la anterior
diagonalizacion, a diferencia de que los vectores propios deben de ser
ortonormalizados por el proceso de Gram-Schmidt.
Autovalores
Este paso consiste en hallar los valores propios de la matriz a diagonalizar, descrita
de la siguiente forma:
| |
Autovectores
Para hallar los vectores propios se debe de resolver sistemas de ecuaciones
homogéneas correspondientes a cada valor propio.
La matriz de transición estará conformada por los vectores propios
ortonormalizados, es decir:
[ ]
Dónde: , son los vectores propios ortonormalizados
Diagonalización
Debemos de tener en cuenta que la matriz P al conformarla con los vectores propios
ortonormalizados, la matriz P es una matriz ortogonal, es decir que .
BIBLIOGRAFIA
1. Armando O. Rojo, “ALGEBRA II”. 10ma edición. Editorial El Ateneo 1987.
2. Howard Anton. “INTRODUCCION AL ALGEBRA LINEAL”.
3. Gilbert Strang, “ALGEBRA LINEAL Y SUS APLICACIONES” Addison-Wesley
Iberoamericana 1986.
4. Stanley I. Grossman “ALGEBRA LINEAL CON APLICACIONES”. 4ta Edición,
McGraw-Hill 1991.
5. V. Bolgov, B. Demidovich, V. Efimenko, “PROBLEMAS DE LAS
MATEMATICAS SUPERIORES” ALGEBRA LINEAL Y BASES DEL ANALISIS
MATEMATICO. Editorial MIR 1983.