0% encontró este documento útil (0 votos)
37 vistas30 páginas

Teoría Matricial

El documento proporciona una explicación detallada sobre matrices, incluyendo su definición, notación, tipos, operaciones y métodos para calcular la inversa y determinantes. Se describen diferentes tipos de matrices como la matriz identidad, diagonal, simétrica, y singular, así como operaciones elementales y métodos para resolver sistemas de ecuaciones lineales. Además, se presentan métodos específicos para calcular determinantes y resolver sistemas homogéneos e inhomogéneos.

Cargado por

isaacguillen279
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
37 vistas30 páginas

Teoría Matricial

El documento proporciona una explicación detallada sobre matrices, incluyendo su definición, notación, tipos, operaciones y métodos para calcular la inversa y determinantes. Se describen diferentes tipos de matrices como la matriz identidad, diagonal, simétrica, y singular, así como operaciones elementales y métodos para resolver sistemas de ecuaciones lineales. Además, se presentan métodos específicos para calcular determinantes y resolver sistemas homogéneos e inhomogéneos.

Cargado por

isaacguillen279
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

MATRICES

Una matriz es un arreglo rectangular de elementos ubicados en filas y columnas y


agrupados por paréntesis o corchetes.

[ ]

Notación. Las matrices son representadas por letras mayúsculas y sus elementos por
letras minúsculas.

Una forma alternativa de representar una matriz:

[ ]

Dónde:

Igualdad de Matrices

Sean dos matrices rectangulares o cuadradas, son iguales si cumplen las siguientes
condiciones.

1. Que tengan el mismo tamaño.


2. Que sus elementos sean iguales posición a posición respetando ley de signos.

Matriz Cuadrada

Es aquella matriz en el cual se advierte una igualdad entre el número de filas y


columnas.
[ ]

Traza de una Matriz

La traza de una matriz se define en matrices cuadradas, donde se puede identificar la


diagonal principal, por lo tanto la traza de una matriz es igual a la sumatoria de los
elementos de la diagonal principal respetando ley de signos.

Notación. Traza de A = Tr(A)

Matriz Transpuesta

Es aquella matriz que se obtiene de una original al intercambiar filas por columnas o
columnas por filas respetando su orden.

Notación.

Matriz transpuesta de

Matrices Especiales

Matriz Nula o Matriz Cero

Es aquella matriz cuadrada o rectangular en la que todos los sus elementos tienen un
valor igual a cero.

tal que:

Matriz Diagonal
Es aquella matriz cuadrada que tiene elementos distintos de 0 y 1 en la diagonal
principal y en todas las demás posiciones toman un valor de 0.

Matriz Escalar

Es aquella matriz cuadrada en la que los elementos de la diagonal principal son


iguales y en todas las demás posiciones toman un valor de cero.

Matriz Identidad

Es aquella matriz cuadrada en la que todos los elementos de la diagonal principal


toman un valor igual a la unidad y las demás posiciones toman un valor igual a
cero.

Matriz Idemponte

Es aquella matriz cuadrada que al multiplicarla por su misma matriz da como


resultado la misma matriz.

Matriz Involutiva

Es aquella matriz cuadrada que al multiplicarla por su misma matriz da como


resultado la matriz identidad.

Matriz simétrica
Es aquella matriz cuadrada en la que la matriz original es igual a su transpuesta.

Matriz Antisimetrica

Es aquella matriz cuadrada en la que la matriz original es igual a la opuesta de su


transpuesta.

Matriz Ortogonal

Es aquella matriz cuadrada en la que la inversa de esta matriz es igual a su


transpuesta.

Matriz Periódica

Es aquella matriz cuadrada en la que se verifica lo siguiente:

Se denomina matriz periódica de periodo K, donde .

Matriz Nilpotente

Es aquella matriz cuadrada que multiplicándola por la misma matriz n veces da


como resultado una matriz nula.

Matriz Permutable o Conmutativa

Es definida en producto de matrices es decir que:


Debe de tomarse en cuenta que el producto de matrices no es conmutativa a
excepción en casos especiales como en este tipo de matrices.

Matriz Anti conmutativa

Es definida en producto de matrices es decir que:

Al igual que en el caso anterior pero en este caso es igual a su opuesto.

Matriz Singular

Es aquella matriz cuadrada en la que el valor de su determinante es igual a 0, es


decir que no existe inversa.

| |

Operaciones con Matrices

Existen tres operaciones con matrices en la teoría matricial, las cuales son las
siguientes:

1. Suma de matrices.

La operación de la suma (resta caso especial de la suma) es válida si las matrices a


sumar cumplen una condición. Necesariamente deben ser del mismo tamaño ya
sean cuadradas o rectangulares.

Operativamente sumar matrices implica sumar sus elementos posición a posición


respetando ley de signos.

Sea:
[ ]

[ ]

=[ ] [ ]

[ ]

[ ]

2. Producto por un Escalar

El multiplicar una constante, un escalar o un número a una matriz implica


multiplicar ese número a cada uno de los elementos de la matriz ya sea cuadrada
o rectangular.

Sea:

[ ]
[ ]

[ ]

[ ]

3. Producto de Matrices

Para multiplicar dos matrices se debe cumplir una condición importante la cual
es identificar el número de columnas de la primera matriz a multiplicar el cual
debe ser necesariamente igual al número de filas de la segunda matriz a
multiplicar. Si esta condición preliminar no se cumpliera entonces el producto no
está definido es decir no existe. El resultado del producto tendrá un tamaño
igual al número de filas de la primera matriz a multiplicar por el número de
columnas de la segunda matriz a multiplicar.

Es importante mencionar que el producto de matrices no es conmutativo salvo


para las matrices especiales denominadas matrices conmutativas; o cualquier
matriz multiplicada por la matriz identidad, ya sea por la izquierda o por la
derecha. Por lo tanto se puede afirmar que la matriz identidad es el neutro en el
producto de matrices.
Operativamente la multiplicación de matrices implica multiplicar los elementos
respetando posiciones parcialmente de una de las filas de la primera matriz con
una de las columnas de la segunda matriz para finalmente esos productos
parciales sumarlos respetando ley de signos.

Sea:

[ ]

[ ]

[ ]

Dónde:
Nota.- No existe división de matrices.

Operaciones Elementales

En algebra lineal se conocen tres operaciones elementales en matrices.

Además que se debe de tomar en cuenta que cuando se realizan las operaciones
elementales a la fila se la denota por la letra “L” y a las columnas por la letra “C”.

Estas operaciones son válidas para filas y columnas las mismas son las siguientes.

1. Se puede intercambiar filas en una matriz.

2. Se puede multiplicar por una constante diferente de cero a cualquier fila de


una matriz.

3. Se puede multiplicar una constante a cualquier fila y sumarla a otra.


MÉTODOS DE LA MATRIZ INVERSA

La notación de una matriz es la siguiente:

Se debe recalcar que solamente las matrices cuadradas pueden ser invertidas.

Algunas matrices no tienen inversa; a esas matrices se las denomina matriz singular,
una matriz que no tenga inversa necesariamente el valor de su determinante es igual
a 0.

Método de Gauss-Jordan

Este método consiste en ensamblar una matriz aumentada donde en el lado


izquierdo de la matriz aumentada se ubica la matriz a invertir; y en el lado derecho
de la matriz aumentada se ubica la matriz identidad del mismo tamaño de la matriz
a invertir.

Generada la matriz aumentada se debe transformar mediante operaciones


elementales la parte de la matriz a invertir en una matriz identidad; como las
operaciones se hacen a las filas de la matriz aumentada del proceso anterior
automáticamente en el lado derecho de la matriz aumentada se genera la matriz
inversa de la matriz.

[ ] Mediante operaciones elementales llegar hasta [ ]

Método de la Adjunta

Este método de cálculo es factible para matrices 3x3 no se recomienda aplicar el


mismo a matrices de orden mayor a tres debido a que el cálculo se hace extenso.

| |
= Matriz Adjunta

| | = Determinante

Para obtener la matriz adjunta de una matriz cuadrada se debe tener primero la
matriz de menores posteriormente la matriz de cofactores, finalmente la matriz
adjunta será la transpuesta de la matriz de cofactores.

Matriz de Menores

Es aquella conformada por todos los menores de cada uno de los elementos de la
matriz original

Matriz de cofactores

Es aquella matriz que se obtiene a partir de la matriz de menores, y cada uno


multiplicado por el signo correspondiente.

Método de Orlado

Este método consiste en particionar la matriz.

Sea una matriz cuadrada M de orden 3:

[ ]

Particionando la matriz:

[ ]

Dónde: [ ] [ ]

[ ]
Se busca la matriz

[ ]

[ ][ ] [ ]

Se obtiene las siguientes igualdades:

Hallando [ ]

Teorema de Cayley – Hamilton

Este método consiste en hallar el polinomio característico, el mismo está dado por el
determinante de | | , es decir multiplicar lambda ( ) que es un escalar, por
la matriz identidad del mismo tamaño de la matriz A y restarla con la matriz A, una
vez realizado estas operaciones se halla el determinante e igualarla a cero.

El polinomio característico de una matriz cuadrada esta dado por:

Si se reemplaza en la matriz A se verifica que .

Al realizar la operación anterior, se expresa el polinomio característico en términos


de la matriz A, se debe despejar la matriz identidad y luego post – multiplicar por la
Matriz Inversa .
Determinantes

Se debe advertir que solo las matrices cuadradas poseen determinante, existen
matrices cuyo valor del determinante es igual a 0, este tipo de matrices son
especiales y es denominada matriz singular.

Notación.

Determinante de | | det(A)

Propiedades de Determinantes

1. Si una matriz cuadrada contiene una fila o columna completa de ceros


entonces el determinante es igual a 0, es decir | |
2. Si un determinante tiene dos filas o columnas iguales entonces el
determinante es igual a cero.
3. Si un determinante tiene una fila o columna es múltiplo de la otra entonces el
determinante es igual a cero.
4. Si un determinante es multiplicada por una constante , el determinante se
multiplica por su inverso.
5. Si un determinante se obtiene a partir de otro por el intercambio de filas o
columnas entonces el determinante queda multiplicado por un signo
negativo.
6. Si un determinante resulta a partir de otro de sumarle el múltiplo de una fila
o columna a otro entonces no se requiere ninguna consideración adicional.
7. Si la el determinante de una matriz triangular (superior o inferior), entonces
el determinante será igual al producto de los elementos que conforman la
diagonal principal respetando ley de signos.
8. | | | | | |
9. | | | || |
10. | | | |
11. | | | |

12. | | | |

Métodos de Calculo

Método de kramer

Este método es aplicable para matrices de orden 2.

[ ]

El determinante de A:

| | | |

| |

Método de desarrollo por cofactores

Para calcular el determinante de una matriz cuadrada por el desarrollo de cofactores


se debe elegir una fila o columna cualquiera de la matriz y calcular los
correspondientes menores de los elementos de la fila o columna elegida y
multiplicarlos por los mismos elementos afectando con el signo correspondiente a la
posición a la que pertenece dicho elemento; para finalmente esos productos
parciales sumarlos.

| | ∑ | |

Método de Chío

Este método es una combinación del método de desarrollo por cofactores y


operaciones elementales.
Se debe proceder de la siguiente manera:

1. Se debe identificar una fila o columna que contenga un 1 y si no hubiese


ninguna, cualquier elemento de la fila o columna elegida se debe volver en 1.
2. La elección de la fila o columna al paso anterior, se tiene que considerar
además que sea la fila o columna con mayor cantidad de ceros.
3. Con ese 1 del primer paso mediante operaciones elementales ya sean en filas
o columnas se debe de eliminar o transformar todos los elementos excepto
ese 1 en cero.
4. Después de la anterior transformación se debe aplicar el desarrollo de
cofactores para el cálculo para un determinante en esa fila o columna
elegida. Este proceso se debe repetir para reducir el orden del determinante
hasta obtener un determinante de fácil cálculo para un orden menor.
SISTEMA DE ECUACIONES LINEALES

Sea el siguiente Sistema de Ecuaciones Lineales, con m ecuaciones lineales y n


incógnitas (variables) cuya forma general es:

Aplacando la igualdad de matrices:

[ ] [ ]

Por definición de productos de matrices:

[ ][ ] [ ]

Donde:

A= Matriz de Coeficientes

X= Matriz den Variable

B= Matriz de Constantes

[ ]
[ ] [ ]

Tipos de solución

En este tipo de sistema se puede esperar tres tipos de respuesta.

1. Unica Solución (Consistente).


2. Infinitas soluciones (consistente indeterminado).
3. No existencia de soluciones (inconsistente).

Métodos de Solución

Método de la Matriz Inversa

Este método se aplica a matrices cuadradas, es decir:

Multiplicando por la izquierda

Donde es la matriz de variables, es la inversa de la Matriz de Coeficientes


multiplicada por la matriz B, la matriz de constantes.
Método de Gauss – Jordán

Este método consiste en ensamblar una matriz aumentada donde en el lado


izquierdo de la matriz aumentada se ubica la matriz de coeficientes y en el lado
derecho de la matriz aumentada se ubica la matriz de constantes.

Generada la matriz aumentada se debe transformar mediante operaciones


elementales la parte de la matriz A en una matriz identidad; como las operaciones
se hacen a las filas de la matriz aumentada del proceso anterior automáticamente en
el lado derecho de la matriz aumentada se genera las soluciones del sistema.

[ ] Mediante operaciones elementales llegar hasta [ ].

Dónde: =solución del sistema

Método de Eliminación Gaussiana

Este método consiste en ensamblar una matriz aumentada donde en el lado


izquierdo de la matriz aumentada se ubica la matriz de coeficientes y en el lado
derecho de la matriz aumentada se ubica la matriz de constantes.

Generada la matriz aumentada se debe transformar mediante operaciones


elementales la parte de la matriz A en una Matriz Triangular Superior, [ ]
mediante operaciones elementales llegar hasta [ ]. Donde Matriz Triangular
Superior y de esta manera determinar los valores de la solución del sistema,
haciendo cumplir la igualdad de matrices.

Método de Factorización LU

Este método es aplicable a Matrices Cuadradas de orden 3 debido a que si la Matriz


A (Matriz de coeficientes) es mayor a 3 el cálculo se hace extenso.
Este método consiste en expresar la matriz de coeficientes como el producto de dos
matrices es decir, , donde la L es una Matriz Triangular Inferior y U una
matriz triangular superior, ambas son matrices cuadradas del mismo orden de la
Matriz A.

Sea la Matriz A de orden 3.

[ ]

[ ]

[ ]

Se debe verificar que:

[ ][ ]

Multiplicando LU:

[ ]

Luego de este procedimiento se debe cumplir A=LU, la igualdad de matrices, para


hallar los valores de a, b, c, d, e y f.

Para luego resolver el sistema:

…. (1)
Donde: [ ]

Y finalmente la solución del sistema estará dado por:

…. (2)

[ ]

Sistemas Homogéneos

Se denomina sistema homogéneo si la matriz de constantes es una matriz nula.

Aplacando la igualdad de matrices:

[ ] [ ]

Por definición de productos de matrices:

[ ][ ] [ ]

Donde:

A= Matriz de Coeficientes
X= Matriz den Variable

B= Matriz Nula

[ ]

[ ] [ ]

Nota. En este tipo de ecuaciones se debe de tomar en cuenta es que queda


descartada la opción de no existencia de solución (este tipo de sistema siempre tiene
solución). El primer tipo de solución es la única solución o solución trivial; el
segundo tipo de solución es la de infinitas soluciones.

Métodos de Solución

Método de la Matriz Inversa

Este método se aplica a matrices cuadradas, es decir:

Pre-multiplicando por

Donde es la matriz de variables, es la inversa de la Matriz de Coeficientes


multiplicada por la matriz B, la matriz nula, se puede observar que al multiplicar
ambas matrices se obtiene el primer tipo de solución de este tipo de sistemas es
decir la única solución o solución trivial
Espacios Vectoriales

Un espacio vectorial es un conjunto de elementos (vectores en el plano, vectores en


el espacio, vectores en el espacio n dimensional, funciones continuas, polinomios,
matrices, etc.), que cumplen 10 axiomas.

Sea ⃑ ⃑ ⃑⃑⃑

1. Clausura para la Suma


⃑ ⃑
2. Propiedad Conmutativa
⃑ ⃑ ⃑ ⃑
3. Propiedad de Asociatividad
⃑ ⃑ ⃑⃑⃑ ⃑ ⃑ ⃑⃑
4. Existencia del neutro aditivo
⃑ ⃑ ⃑
5. La inversa del neutro aditivo

⃑ ⃑⃑⃑ ⃑
6. Clausura para el producto por un escalar

7. Asociatividad en el producto
⃑ ⃑
8. Primera propiedad distributiva referida a la suma de escalares por un vector
⃑ ⃑ ⃑
9. Segunda propiedad distributiva referida al producto de un escalar por la
suma de vectores
⃑ ⃑ ⃑ ⃑
10. Existencia del neutro en el producto
⃑ ⃑
Sub espacios Vectoriales

Es aquel conjunto que cumple con 2 axiomas.

Sea ⃑ ⃑ ⃑⃑⃑

1. Clausura para la Suma


⃑ ⃑

2. Clausura para el producto por un escalar


Nota. Cualquier sub espacio vectorial es considerado también un espacio vectorial.

Combinación Lineal

Se puede afirmar que existe una combinación lineal en un conjunto o en un espacio


vectorial; cuando uno de sus elementos se puede expresar como la igualdad de la
sumatoria de algunos elementos del espacio vectorial multiplicados por constantes
que pertenecen a los números reales.

Sea: {⃑ ⃑ ⃑ ⃑ }

⃑ ⃑ ⃑ ⃑ ⃑

Si la anterior igualdad es válida entonces existe combinación lineal, de caso


contrario no existe combinación lineal.

Conjunto Generador (Sub espacio Generado)

Se dice que un conjunto es generador de su espacio vectorial si un vector genérico


del espacio vectorial se puede escribir o expresar como una combinación lineal del
conjunto de análisis.
Independencia Lineal

Se dice que un sub conjunto de un espacio vectorial es linealmente independiente si


el mismo se puede expresar como combinación lineal del vector nulo del espacio
vectorial en cuestión.

Dependencia Lineal

Se dice que un sub conjunto de un espacio vectorial es linealmente dependiente si el


mismo no se puede expresar como combinación lineal del vector nulo del espacio
vectorial en cuestión.

Base y Dimensión

Se considera base a un conjunto si y solo si cumple las siguientes condiciones.

1. Que el conjunto sea linealmente independiente.


2. Que el conjunto sea generador del espacio.

La dimensión estará determinada por el número de elementos que conforman las


combinaciones lineales correspondientes que demuestran las anteriores 2
condiciones.
Transformación Lineal

Para que un conjunto sea considerado transformación lineal debe de cumplir los
siguientes teoremas de linealidad:

1.
2.

Si ambas se cumplen el conjunto es considerado transformación lineal.

Sea:

El núcleo estará definido de la siguiente manera:

{ }

La imagen estará definida de la siguiente manera:

{ }

El teorema de la dimensión estará determinado por el conjunto de partida, es decir:


Diagonalización

Para diagonalizar una matriz la misma debe de ser cuadrada, debido al mismo
concepto de una matriz diagonal.

Los pasos que se deben de desarrollar para diagonalizar una matriz son tres, los
cuales son:

Sea: A la matriz a diogonalizar

Autovalores

Este paso consiste en hallar los valores propios de la matriz a diagonalizar, descrita
de la siguiente forma:

| |

Autovectores

Para hallar los vectores propios se debe de resolver sistemas de ecuaciones


homogéneas correspondientes a cada valor propio.

Una vez que se hallaron los vectores propios se procede a conformar la matriz de
transición P.

[ ]

Dónde: , son los vectores propios

Diagonalización

Diagonalización Ortogonal
Para diagonalizar una matriz ortogonalmente el mismo debe de ser necesariamente
una matriz simétrica, en caso de no serla no se puede diagonalizar ortogonalmente.

Los pasos para diagonalizar ortogonalmente una matriz son similares a la anterior
diagonalizacion, a diferencia de que los vectores propios deben de ser
ortonormalizados por el proceso de Gram-Schmidt.

Autovalores

Este paso consiste en hallar los valores propios de la matriz a diagonalizar, descrita
de la siguiente forma:

| |

Autovectores

Para hallar los vectores propios se debe de resolver sistemas de ecuaciones


homogéneas correspondientes a cada valor propio.

La matriz de transición estará conformada por los vectores propios


ortonormalizados, es decir:

[ ]

Dónde: , son los vectores propios ortonormalizados

Diagonalización

Debemos de tener en cuenta que la matriz P al conformarla con los vectores propios
ortonormalizados, la matriz P es una matriz ortogonal, es decir que .
BIBLIOGRAFIA

1. Armando O. Rojo, “ALGEBRA II”. 10ma edición. Editorial El Ateneo 1987.


2. Howard Anton. “INTRODUCCION AL ALGEBRA LINEAL”.
3. Gilbert Strang, “ALGEBRA LINEAL Y SUS APLICACIONES” Addison-Wesley
Iberoamericana 1986.
4. Stanley I. Grossman “ALGEBRA LINEAL CON APLICACIONES”. 4ta Edición,
McGraw-Hill 1991.
5. V. Bolgov, B. Demidovich, V. Efimenko, “PROBLEMAS DE LAS
MATEMATICAS SUPERIORES” ALGEBRA LINEAL Y BASES DEL ANALISIS
MATEMATICO. Editorial MIR 1983.

También podría gustarte