UNIVERSIDAD LATINA DE PANAMÁ
SEDE SANTIAGO
Facultad de : Ingeniería
Carrera: Ingeniería Industrial
Asignatura: Álgebra de matrices y vectores.
Tema:
Conceptos básicos
Estudiante
Verónica Barría/9-757-2398
Grupo
2ª
Profesor:
Calixto Villareal
Fecha de Entrega:
25 de septiembre del 2019
1. QUE ES UNA MATRIZ.
En matemática, una matriz es un arreglo bidimensional de números.
Dado que puede definirse tanto la suma como el producto de matrices,
en mayor generalidad se dice que son elementos de un anillo. Una
matriz se representa por medio de una letra mayúscula (A,B, …) y sus
elementos con la misma letra en minúscula (a,b, …), con un doble
subíndice donde el primero indica la fila y el segundo la columna a la
que pertenece.
2. DIFERENTES TIPOS DE MATRICES
Matriz fila: matriz que solo tiene una fila
Matriz columna: matriz que solo tiene una columna
Matriz nula: todos sus elementos valen cero
Matriz cuadrada: igual número de filas que de columnas
Los siguientes tipos de matrices sólo son aplicables para
matrices cuadradas:
Matriz simétrica: una matriz cuadrada es simétrica cuando los
elementos a ambos lados de la diagonal principal son iguales.
Matriz antisimétrica (o hemisimétrica): matriz cuadrada en la que los
elementos a ambos lados de la diagonal principal son opuestos (iguales
pero con distinto signo). a_{ij}= -a_{ji} (los elementos de la diagonal
principal deben ser cero).
Matriz diagonal: matriz cuadrada donde los elementos que no están en
la diagonal principal son cero.
Matriz escalar: matriz cuadrada donde los elementos que no están en
la diagonal principal son cero y los elementos de la diagonal principal
son iguales.
Matriz identidad o unidad: matriz cuadrada donde los elementos de la
diagonal principal son unos y el resto ceros. Se representa por I_2 la
matriz identidad de orden 2, I_3 la identidad de orden 3, I_4 la de orden
4.
Matriz triangular superior: todos los elementos por debajo de la
diagonal principal son cero.
Matriz triangular inferior: todos los elementos por encima de la
diagonal principal son cero.
3. Cuáles son las operaciones con las que operan las matrices.
Las operaciones que se pueden hacer con matrices provienen de sus
aplicaciones, sobre todo de las aplicaciones en álgebra lineal. De ese
modo las operaciones, o su forma muy particular de ser implementadas,
no son únicas.
Suma o adición
Asociatividad
Conmutatividad
Existencia del elemento neutro aditivo
Existencia del inverso aditivoa esta matriz D se le denota por -
A.
4 Propiedades básicas de las matrices en las operaciones de suma
y multiplicación.
5. Cuáles son los campos de aplicación de las matrices.
Álgebra lineal:
1. En esta rama destaca la utilidad en la resolución de sistemas
de ecuaciones de la forma AX = B, mediante el cálculo de la matriz
inversa:
2. Estudio de las aplicaciones lineales entre dos espacios
vectoriales mediante la matriz asociada, que nos permite calcular el
núcleo y la imagen.
Geometría:
1. Para expresar la ecuación de un giro de ángulo α alrededor del
eje OZ:
Para representar las ecuaciones de las formas cuadráticas. Haciendo
el estudio de la matriz correspondiente podemos clasificar la
cuadrática en definida positiva, semidefinida positiva, definida negativa
o semidefinida negativa. La matriz asociada a la forma cuadrática
siempre es una matriz simétrica.
Análisis:
En la rama del análisis se utilizan las matrices jacobianas, que se usan
para expresar las derivadas parciales de una función en varias
variables
6. A que llamamos cofactor de una matriz
Sea AA una matriz de dimensión mxm. La matriz adjunta de AA, A∗A∗,
es una matriz de la misma dimensión. El elemento de la posición
fila ii y columna jj de la matriz adjunta de AA (llamado cofactor de la
posición (i,j)(i,j)) es
siendo la matriz AijAij la submatriz de AA obtenida al eliminar la fila ii y
columna jj de AA.
Explicación:
El factor (−1)i+j(−1)i+j es 1 si la suma de las posiciones fila y columna
es par, y -1 si es impar. Lo que hace este factor es determinar el signo.
Por ejemplo, si AA es de dimensión 2x2:
Y, si es de dimensión 3x3:
7. A que llamamos rango de una matriz y como se calcula.
El rango de una matriz es el número máximo de columnas (filas
respectivamente) que son linealmente independientes. El rango fila y el
rango columna siempre son iguales: este número es llamado
simplemente rango de A (prueba más abajo). Comúnmente se expresa
como rg(A). El número de columnas independientes de una matriz A de
m filas y n columnas es igual a la dimensión del espacio columna de A.
También la dimensión del espacio fila determina el rango. El rango de
A será, por tanto, un número no negativo, menor o igual que el mínimo
entre m y n.
8 Que es matriz inversa, ejemplifique.
1. Sólo tienen inversa algunas matrices cuadradas.
2. Una matriz tiene inversa si su determinante es distinto de 0.
3. Si una matriz tiene inversa, se dice que es invertible o regular. En
caso contrario, se dice que es irregular o singular.
4. La inversa de A se denota por A−1 y cumple
9 a que llamamos matriz adjunta.
Digamos que A = [ a ij ] es una matriz cuadrada de orden n . La
adjunta de una matriz A es la traspuesta de la matriz cofactor de A .
Esta denotada por adj A . La matriz adjunta es también llamada la
matriz conjugada.
Cofactor de 3
10 Que es un sistema de ecuaciones, ejemplifique
Un sistema de mm ecuaciones lineales
con nn incógnitas x1x1, x2x2,...,xnxn con coeficientes en un
cuerpo KK (como los reales o los complejos) es
siendo ai,j∈Kai,j∈K el coeficiente de la incógnita xjxj de la
ecuación ii y bi∈Kbi∈K el término independiente de la ecuación ii.
Se define la matriz de coeficientes del sistema anterior como
Y la matriz de incógnitas, xx, y de términos independientes, bb, como
11 Cronología sobre la evolución de las matrices.
Cronología 1
Año Acontecimiento
200 a.C. En China los matemáticos usan series de números.
1848 J. J. Sylvester introduce el término «matriz».
1858 Cayley publica Memorias sobre la teoría de matrices.
1878 Frobenius demuestra resultados fundamentales en álgebra matricial.
1925 Heisenberg utiliza la teoría matricial en la mecánica cuántica
Cronología
Año
Acontecimiento
II y III a.C.
Los orígenes de las matrices y determinantes se encuentran entre los
siglos II y III a.c. Su relación con el estudio de sistemas de ecuaciones
lineales. En escritos babilonios aparece, sobre el 300 a.c. enunciados
del tipo [1].
200-100
En China los matemáticos usan series de números.
Entre los años 200 y 100 a.C. aparece en China el libro "Nueve
Capítulos sobre el Arte Matemático”, escrito durante la dinastía Han,
que da el primer ejemplo conocido de método matricial.
1683 b.C
La idea de determinante aparece en Japón y Europa, más o menos, al
mismo tiempo.
1850 b.C
En primer lugar, el japonés Seki[2], en 1683, escribe "Método para
resolver los problemas disimulados" que contiene métodos escritos en
tablas matriciales.
12 Porque son importantes las matrices.
El tema de matrices es un tema muy importante ya que nos ayuda en el cálculo
numérico, en la resolución de sistemas de ecuaciones lineales, diferenciales y de
las derivadas parciales.
Es un tema importante ya que hoy en la actualidad los lenguajes de programación,
introducen sus datos en computadoras como tablas organizadas en "filas" y
"columnas".
Para resolver sistemas de ecuaciones se emplean matrices, y gracias
a ellas es como una máquina puede resolver grandes operaciones y
ecuaciones complejas en tiempo relativamente corto (dejando de lado
los grandes sistemas de simulaciones como los que se emplean para
simular los efectos del calentamiento global... que manejan grandes
ecuaciones, incógnitas y factores).