Matriz
Matriz
En matemática, una matriz es un arreglo bidimensional de números. Dado que puede definirse
tanto la suma como el producto de matrices, en mayor generalidad se dice que son elementos
de un anillo. Una matriz se representa por medio de una letra mayúscula (A,B, …) y sus
elementos con la misma letra en minúscula (a,b, …), con un doble subíndice donde el primero
indica la fila y el segundo la columna a la que pertenece.
A = ( a 11 a 12 ⋯ a 1 n a 21 a 22 ⋯ a 2 n ⋮ ⋮ ⋱ ⋮ a m 1 a m 2 ⋯ a m n ) {\displaystyle \mathbf
{A} ={\begin{pmatrix}a_{11}&a_{12}&\cdots &a_{1n}\\a_{21}&a_{22}&\cdots &a_{2n}\\\vdots
&\vdots &\ddots &\vdots \\a_{m1}&a_{m2}&\cdots &a_{mn}\\\end{pmatrix}}}
{\displaystyle \mathbf {A} ={\begin{pmatrix}a_{11}&a_{12}&\cdots
&a_{1n}\\a_{21}&a_{22}&\cdots &a_{2n}\\\vdots &\vdots &\ddots &\vdots
\\a_{m1}&a_{m2}&\cdots &a_{mn}\\\end{pmatrix}}}
Las matrices se utilizan para múltiples aplicaciones y sirven, en particular, para representar los
coeficientes de los sistemas de ecuaciones lineales o para representar transformaciones
lineales dada una base. En este último caso, las matrices desempeñan el mismo papel que los
datos de un vector para las aplicaciones lineales.
Pueden sumarse, multiplicarse y descomponerse de varias formas, lo que también las hace un
concepto clave en el campo del álgebra lineal.
Historia
Es larga la historia del uso de las matrices para resolver ecuaciones lineales. Un importante
texto matemático chino que proviene del año 300 a. C. a 200 a. C., Nueve capítulos sobre el
Arte de las matemáticas (Jiu Zhang Suan Shu), es el primer ejemplo conocido de uso del
método de matrices para resolver un sistema de ecuaciones simultáneas.3 En el capítulo
séptimo, "Ni mucho ni poco", el concepto de determinante apareció por primera vez, dos mil
años antes de su publicación por el matemático japonés Seki Kōwa en 1683 y el matemático
alemán Gottfried Leibniz en 1693.
Los "cuadrados mágicos" eran conocidos por los matemáticos árabes, posiblemente desde
comienzos del siglo VII, quienes a su vez pudieron tomarlos de los matemáticos y astrónomos
de la India, junto con otros aspectos de las matemáticas combinatorias. Todo esto sugiere que
la idea provino de China. Los primeros "cuadrados mágicos" de orden 5 y 6 aparecieron en
Bagdad en el año 983, en la Enciclopedia de la Hermandad de Pureza (Rasa'il Ihkwan al-Safa).2
Después del desarrollo de la teoría de determinantes por Seki Kowa y Leibniz para facilitar la
resolución de ecuaciones lineales, a finales del siglo XVII, Cramer presentó en 1750 la ahora
denominada regla de Cramer. Carl Friedrich Gauss y Wilhelm Jordan desarrollaron la
eliminación de Gauss-Jordan en el siglo XIX.
Fue James Joseph Sylvester quien utilizó por primera vez el término «matriz» en 1848/1850.
En 1853, Hamilton hizo algunos aportes a la teoría de matrices. Cayley introdujo en 1858 la
notación matricial, como forma abreviada de escribir un sistema de m ecuaciones lineales con
n incógnitas.
Cayley, Hamilton, Hermann Grassmann, Frobenius, Olga Taussky-Todd y John von Neumann
cuentan entre los matemáticos famosos que trabajaron sobre la teoría de las matrices. En
1925, Werner Heisenberg redescubre el cálculo matricial fundando una primera formulación
de lo que iba a pasar a ser la mecánica cuántica. Se le considera a este respecto como uno de
los padres de la mecánica cuántica.
Olga Taussky-Todd (1906-1995), durante la II Guerra Mundial, usó la teoría de matrices para
investigar el fenómeno de aeroelasticidad llamado fluttering.
Introducción
Definición
Una matriz es un arreglo bidimensional de números (llamados entradas de la matriz)
ordenados en filas (o renglones) y columnas, donde una fila es cada una de las líneas
horizontales de la matriz y una columna es cada una de las líneas verticales. A una matriz con
m filas y n columnas se le denomina «matriz m por n» (escrito m × n {\displaystyle m\times n}
{\displaystyle m\times n}) donde m , n ∈ N − { 0 } {\displaystyle m,n\in \mathbb {N} -\{0\}}
{\displaystyle m,n\in \mathbb {N} -\{0\}}. El conjunto de las matrices de tamaño m × n
{\displaystyle m\times n} {\displaystyle m\times n} se representa como M m × n ( K )
{\displaystyle {\mathcal {M}}_{m\times n}(\mathbb {K} )} {\displaystyle {\mathcal
{M}}_{m\times n}(\mathbb {K} )}, donde K {\displaystyle \mathbb {K} } {\mathbb {K}} es el
campo al cual pertenecen las entradas. El tamaño de una matriz siempre se da con el número
de filas primero y el número de columnas después.
Se dice que dos matrices son iguales si tienen el mismo tamaño y los mismos elementos en las
mismas posiciones. A la entrada de una matriz que se encuentra en la fila i − {\displaystyle
i-\,\!} i-\,\!ésima y la columna j − {\displaystyle j-\,\!} j-\,\!ésima se le llama entrada i , j
{\displaystyle i,j\,\!} i,j\,\! o entrada ( i , j ) {\displaystyle (i,j)\,\!} (i,j)\,\!-ésimo de la matriz. En
estas expresiones también se consideran primero las filas y después las columnas.
Para definir el concepto de matriz, el término "arreglo bidimensional" es útil, aunque poco
formal, pero puede formalizarse usando el concepto de función. De este modo, una matriz de
m filas y n columnas con entradas en un campo K {\displaystyle \mathbb {K} } {\mathbb {K}} es
una función cuyo dominio es el conjunto de los pares ordenados ( i , j ) {\displaystyle (i,j)\,\!}
(i,j)\,\!, donde 1 ≤ i ≤ m {\displaystyle 1\leq i\leq m} {\displaystyle 1\leq i\leq m} y 1 ≤ j ≤ n
{\displaystyle 1\leq j\leq n} {\displaystyle 1\leq j\leq n}, y cuyo contradominio es K
{\displaystyle \mathbb {K} } {\mathbb {K}}. Con esta definición, la entrada i , j {\displaystyle
i,j\,\!} i,j\,\! es el valor de la función en el par ordenado ( i , j ) {\displaystyle (i,j)\,\!} (i,j)\,\!.
Se denota a las matrices con letra mayúscula, mientras que se utiliza la correspondiente letra
en minúsculas para denotar a las entradas de las mismas, con subíndices que refieren al
número de fila y columna del elemento.4Por ejemplo, al elemento de una matriz A
{\displaystyle A} A de tamaño m × n {\displaystyle m\times n} {\displaystyle m\times n} que se
encuentra en la fila i − {\displaystyle i-\,\!} i-\,\!ésima y la columna j − {\displaystyle j-\,\!} j-\,\!
ésima se le denota como a i j {\displaystyle a_{ij}\,\!} a_{{ij}}\,\!, donde 1 ≤ i ≤ m {\displaystyle
1\leq i\leq m} {\displaystyle 1\leq i\leq m} y 1 ≤ j ≤ n {\displaystyle 1\leq j\leq n} {\displaystyle
1\leq j\leq n}.
Cuando se va a representar explícitamente una entrada la cual está indexada con un i
{\displaystyle i\,\!} i\,\! o un j {\displaystyle j\,\!} j\,\! con dos cifras se introduce una coma
entre el índice de filas y de columnas. Así por ejemplo, la entrada que está en la primera fila y
la segunda columna de la matriz A {\displaystyle A\,\!} A\,\! de tamaño 50 × 100 {\displaystyle
50\times 100} 50\times 100 se representa como a 1 , 2 {\displaystyle a_{1,2}\,\!} a_{{1,2}}\,\!
mientras que la entrada que está en la fila número 23 y la columna 100 se representa como a
23 , 100 {\displaystyle a_{23,100}\,\!} a_{{23,100}}\,\!.
Otra notación, en sí un abuso de notación, representa a la matriz por sus entradas, i.e. A := ( a i
j ) {\displaystyle A:=(a_{ij})\,\!} A:=(a_{{ij}})\,\! o incluso A := a i j {\displaystyle A:=a_{ij}\,\!}
A:=a_{{ij}}\,\!.
Como caso particular de matriz, se definen los vectores fila y los vectores columna. Un vector
fila o vector renglón es cualquier matriz de tamaño 1 × n {\displaystyle 1\times n} 1\times n
mientras que un vector columna es cualquier matriz de tamaño m × 1 {\displaystyle m\times 1}
m\times 1.
A las matrices que tienen el mismo número de filas que de columnas, se les llama matrices
cuadradas y el conjunto se denota M n ( R ) {\displaystyle {\mathcal {M}}_{n}(\mathbb {R} )}
{\displaystyle {\mathcal {M}}_{n}(\mathbb {R} )}
Ejemplo
A = [ 1 2 3 1 2 7 4 9 2 6 0 5 ] {\displaystyle
A={\begin{bmatrix}1&2&3\\1&2&7\\4&9&2\\6&0&5\\\end{bmatrix}}}
A={\begin{bmatrix}1&2&3\\1&2&7\\4&9&2\\6&0&5\\\end{bmatrix}}
R = [ 1 2 3 4 5 6 7 8 9 ] {\displaystyle
R={\begin{bmatrix}1&2&3&4&5&6&7&8&9\end{bmatrix}}}
R={\begin{bmatrix}1&2&3&4&5&6&7&8&9\end{bmatrix}}
Las operaciones que se pueden hacer con matrices provienen de sus aplicaciones, sobre todo
de las aplicaciones en álgebra lineal. De ese modo las operaciones, o su forma muy particular
de ser implementadas, no son únicas.
Suma o adición
[ 2 2 1 3 2 1 2 3 2 2 0 4 ] + [ 0 1 4 1 4 0 2 1 1 0 2 2 ] = [ 2 3 5 4 6 1 4 4 3 2 2 6 ] {\displaystyle
{\begin{bmatrix}2&2&1\\3&2&1\\2&3&2\\2&0&4\end{bmatrix}}\quad +\quad
{\begin{bmatrix}0&1&4\\1&4&0\\2&1&1\\0&2&2\end{bmatrix}}\quad =\quad
{\begin{bmatrix}2&3&5\\4&6&1\\4&4&3\\2&2&6\end{bmatrix}}}
{\begin{bmatrix}2&2&1\\3&2&1\\2&3&2\\2&0&4\end{bmatrix}}\quad +\quad
{\begin{bmatrix}0&1&4\\1&4&0\\2&1&1\\0&2&2\end{bmatrix}}\quad =\quad
{\begin{bmatrix}2&3&5\\4&6&1\\4&4&3\\2&2&6\end{bmatrix}}
[132100122]+[105750211]=[1+13+02+51+70+50+01+22+12+1]
= [ 2 3 7 8 5 0 3 3 3 ] {\displaystyle {\begin{bmatrix}1&3&2\\1&0&0\\1&2&2\end{bmatrix}}+
{\begin{bmatrix}1&0&5\\7&5&0\\2&1&1\end{bmatrix}}={\begin{bmatrix}1+1&3+0&2+5\\1+7
&0+5&0+0\\1+2&2+1&2+1\end{bmatrix}}={\begin{bmatrix}2&3&7\\8&5&0\\3&3&3\end{bma
trix}}} {\begin{bmatrix}1&3&2\\1&0&0\\1&2&2\end{bmatrix}}+
{\begin{bmatrix}1&0&5\\7&5&0\\2&1&1\end{bmatrix}}={\begin{bmatrix}1+1&3+0&2+5\\1+7
&0+5&0+0\\1+2&2+1&2+1\end{bmatrix}}={\begin{bmatrix}2&3&7\\8&5&0\\3&3&3\end{bma
trix}}
A la luz de estos ejemplos es inmediato ver que dos matrices se pueden sumar solamente si
ambas tienen el mismo tamaño. La suma de matrices, en el caso de que las entradas estén en
un campo, poseen las propiedades de asociatividad, conmutatividad, existencia de elemento
neutro aditivo y existencia de inverso aditivo. Esto es así ya que estas son propiedades de los
campos en los que están las entradas de la matriz.
Asociatividad
Demostración
Conmutatividad
( A + B ) = ( B + A ) {\displaystyle (A+B)=(B+A)\,\!} (A+B)=(B+A)\,\!
Demostración
Demostración
a esta matriz D {\displaystyle D\,\!} D\,\! se le denota por − A {\displaystyle -A\,\!} -A\,\!.
Demostración
En efecto, estas propiedades dependen del conjunto en el que estén las entradas, como se ha
dicho antes, aunque en las aplicaciones generalmente los campos usados son R
{\displaystyle \mathbb {R} } \mathbb{R} (los números reales) y C {\displaystyle \mathbb
{C} } \mathbb{C} (los números complejos).
Por como se definió la operación binaria adición se dice que ésta operación es una operación
interna por lo que se cumple intrínsecamente la propiedad de que M n × m ( K ) {\displaystyle
{\mathcal {M}}_{n\times m}(\mathbb {K} )} {\mathcal {M}}_{{n\times m}}({\mathbb {K}}) es
cerrado bajo adición. Con éstas propiedades se tiene que ( M n × m ( K ) , + ) {\displaystyle
({\mathcal {M}}_{n\times m}(\mathbb {K} ),+)} ({\mathcal {M}}_{{n\times m}}({\mathbb {K}}),+)
es un grupo abeliano.
En el caso en que el conjunto al que pertenecen las entradas de la matriz sea un anillo ( A , +
A , ⋅ A ) {\displaystyle (A,+_{A},\cdot _{A})} (A,+_{{A}},\cdot _{{A}}), la operación de adición de
matrices continúa dotando de estructura de grupo abeliano a ( M n × m ( A ) , + ) {\displaystyle
({\mathcal {M}}_{n\times m}(A),+)} ({\mathcal {M}}_{{n\times m}}(A),+), ya que bajo un anillo
( A , + A , ⋅ A ) {\displaystyle (A,+_{A},\cdot _{A})} (A,+_{{A}},\cdot _{{A}}) se tiene que ( A , + A )
{\displaystyle (A,+_{A})\,\!} (A,+_{{A}})\,\! es un grupo abeliano. En el caso de que las entradas
estén en un grupo ( G , + G ) {\displaystyle (G,+_{G})\,\!} (G,+_{{G}})\,\!, éste necesita ser un
grupo abeliano para que la adición de matrices siga dotando de estructura de grupo abeliano a
( M n × m ( G ) , + ) {\displaystyle ({\mathcal {M}}_{n\times m}(G),+)} ({\mathcal {M}}_{{n\times
m}}(G),+).
2 [ 1 8 − 3 4 − 2 6 ] = [ 2 ( 1 ) 2 ( 8 ) 2 ( − 3 ) 2 ( 4 ) 2 ( − 2 ) 2 ( 6 ) ] = [ 2 16 − 6 8 − 4 12 ]
{\displaystyle 2{\begin{bmatrix}1&\,\,\ \,8&-3\\4&-
2&\,\,\,6\end{bmatrix}}={\begin{bmatrix}2(1)&\,\,\,\,2(8)&2(-3)\\2(4)&2(-
2)&\,\,\,\,2(6)\end{bmatrix}}={\begin{bmatrix}2&\,16&-6\\8&-4&\,12\end{bmatrix}}}
{\displaystyle 2{\begin{bmatrix}1&\,\,\ \,8&-3\\4&-
2&\,\,\,6\end{bmatrix}}={\begin{bmatrix}2(1)&\,\,\,\,2(8)&2(-3)\\2(4)&2(-
2)&\,\,\,\,2(6)\end{bmatrix}}={\begin{bmatrix}2&\,16&-6\\8&-4&\,12\end{bmatrix}}}
También es inmediato observar que el producto por un escalar da como resultado una matriz
del mismo tamaño que la original. También el producto por un escalar dependerá de la
estructura algebraica en la que las entradas están. En el caso de que estén en un campo serán
dos distributividades (una respecto de suma de matrices y otra respecto de suma en el
campo), asociatividad y una propiedad concerniente al producto por el elemento neutro
multiplicativo del campo. A continuación se presentan las propiedades.
Propiedades del producto por un escalar
Asociatividad
Demostración
Demostración
Demostración
En el caso de que las entradas y los escalares no estén en un campo sino en un anillo entonces
no necesariamente existe el neutro multiplicativo. En caso de que exista, con lo cual el anillo es
un anillo con uno, se dice que M n × m ( A ) {\displaystyle {\mathcal {M}}_{n\times m}(A)}
{\mathcal {M}}_{{n\times m}}(A) es un módulo sobre A {\displaystyle A\,\!} A\,\!.
Demostración
Demostración
Demostración
Demostración
Este último resultado permite usar la notación − λ A {\displaystyle -\lambda A\,\!} -\lambda
A\,\! sin riesgo de ambigüedad.
Producto de matrices
Diagrama esquemático que ilustra el producto de dos matrices A {\displaystyle A\,\!} A\,\! y B
{\displaystyle B\,\!} B\,\! dando como resultado la matriz A B {\displaystyle AB\,\!} AB\,\!.
El producto de matrices se define de una manera muy peculiar y hasta caprichosa cuando no
se conoce su origen. El origen proviene del papel de las matrices como representaciones de
aplicaciones lineales. Así el producto de matrices, como se define, proviene de la composición
de aplicaciones lineales. En este contexto, el tamaño de la matriz corresponde con las
dimensiones de los espacios vectoriales entre los cuales se establece la aplicación lineal. De
ese modo el producto de matrices, representa la composición de aplicaciones lineales.
[ 102−131][312110]=[1(3)+0(2)+2(1)1(1)+0(1)+2(0)−1(3)+3(2)
+ 1 ( 1 ) − 1 ( 1 ) + 3 ( 1 ) + 1 ( 0 ) ] = [ 5 1 4 2 ] {\displaystyle {\begin{bmatrix}\,\,\ \,1&0&2\\-
1&3&1\end{bmatrix}}
{\begin{bmatrix}3&1\\2&1\\1&0\end{bmatrix}}={\begin{bmatrix}\,\,\,\,1(3)+0(2)+2(1)&\,\,\,\,
1(1)+0(1)+2(0)\\-1(3)+3(2)+1(1)&-
1(1)+3(1)+1(0)\\\end{bmatrix}}={\begin{bmatrix}5&1\\4&2\\\end{bmatrix}}} {\displaystyle
{\begin{bmatrix}\,\,\ \,1&0&2\\-1&3&1\end{bmatrix}}
{\begin{bmatrix}3&1\\2&1\\1&0\end{bmatrix}}={\begin{bmatrix}\,\,\,\,1(3)+0(2)+2(1)&\,\,\,\,
1(1)+0(1)+2(0)\\-1(3)+3(2)+1(1)&-
1(1)+3(1)+1(0)\\\end{bmatrix}}={\begin{bmatrix}5&1\\4&2\\\end{bmatrix}}}
Sin tomar en cuenta la motivación que viene desde las aplicaciones lineales, es evidente ver
que si ignoramos la definición de la función de producto de matrices y solo se toma en cuenta
la definición de las entradas, el producto no estará bien definido, ya que si A {\displaystyle
A\,\!} A\,\! no tiene el mismo número de columnas que B {\displaystyle B\,\!} B\,\! de filas
entonces no podremos establecer en donde acaba la suma: si la acabamos en el mayor de
éstos números habrá sumandos que no están definidos ya que una de las matrices no tendrá
más entradas, mientras que si tomamos el menor habrá entradas de alguna de las matrices
que no se tomen en cuenta. Así es necesario que A {\displaystyle A\,\!} A\,\! tenga el mismo
número de columnas que B {\displaystyle B\,\!} B\,\! de filas para que A B {\displaystyle AB\,\!}
AB\,\! esté definida.
Como se puede suponer también, las propiedades de ésta operación serán más limitadas en la
generalidad ya que además de las limitaciones impuestas por la naturaleza de las entradas está
esta limitación respecto a tamaño. Es claro, además, que el producto de matrices no siempre
es una operación interna.
El producto de las matrices A x B también puede realizarse sumando el producto de cada
columna de A por la correspondiente fila de B y expresarse utilizando el convenio de suma de
Einstein. La enésima columna del producto de las matrices A x B es combinación lineal de las
columnas de A siendo cada escalar en dicha combinación el elemento correspondiente de la
enésima columna de B. La enésima fila del producto de las matrices A x B es combinación lineal
de las filas de B siendo cada escalar en dicha combinación el elemento correspondiente de la
enésima fila de A.
Asociatividad
Demostración
Demostración
Demostración
Matriz traspuesta
entonces su traspuesta es
[ 1 4 8 − 2 − 3 6 ] {\displaystyle {\begin{bmatrix}\,\,\ \,1&\,\,\ \,4\\\,\,\ \,8&-2\\-
3&\,\,\,\,6\end{bmatrix}}} {\displaystyle {\begin{bmatrix}\,\,\ \,1&\,\,\ \,4\\\,\,\ \,8&-2\\-
3&\,\,\,\,6\end{bmatrix}}}
Así, informalmente podríamos decir que la traspuesta es aquella matriz que se obtiene de la
original cambiando filas por columnas. Las notaciones usuales para denotar la traspuesta de
una matriz son A T , A t {\displaystyle A^{T},A^{t}\,\!} A^{{T}},A^{{t}}\,\!.
( A T ) T = A , ( A + B ) T = A T + B T , ( A B ) T = B T A T , {\displaystyle
{\begin{aligned}&(A^{T})^{T}=A,\\&(A+B)^{T}=A^{T}
+B^{T},\\&(AB)^{T}=B^{T}A^{T},\\\end{aligned}}}
{\begin{aligned}&(A^{{T}})^{{T}}=A,\\&(A+B)^{{T}}=A^{{T}}
+B^{{T}},\\&(AB)^{{T}}=B^{{T}}A^{{T}},\\\end{aligned}}
Una matriz cuadrada es una matriz que tiene el mismo número de filas que de columnas. El
conjunto de todas las matrices cuadradas n-por-n junto a la suma y la multiplicación de
matrices, es un anillo que generalmente no es conmutativo.
M(n,R), el anillo de las matrices cuadradas reales, es un álgebra asociativa real unitaria. M(n,C),
el anillo de las matrices cuadradas complejas, es un álgebra asociativa compleja.
(left)
En este caso, B es la matriz inversa de A, identificada por A-1 . El conjunto de todas las matrices
invertibles n por n forma un grupo (concretamente un grupo de Lie) bajo la multiplicación de
matrices, el grupo lineal general.
Si λ es un número y v es un vector no nulo tal que Av = λv, entonces se dice que v es un vector
propio de A y que λ es su valor propio asociado. El número λ es un valor propio de A si y sólo si
A−λIn no es invertible, lo que sucede si y sólo si pA(λ) = 0, donde pA(x) es el polinomio
característico de A. pA(x) es un polinomio de grado n y por lo tanto, tiene n raíces complejas
múltiples raíces si se cuentan de acuerdo a su multiplicidad. Cada matriz cuadrada tiene
exactamente n valores propios complejos.
El algoritmo de eliminación gaussiana puede ser usado para calcular el determinante, el rango
y la inversa de una matriz y para resolver sistemas de ecuaciones lineales.
La traza de una matriz cuadrada es la suma de los elementos de la diagonal, lo que equivale a
la suma de sus n valores propios.
Una matriz de Vandermonde es una matriz cuadrada cuyas filas son las potencias de un
número. Su determinante es fácil de calcular.
Matriz Lógica
Una matriz lógica, matriz binaria, matriz de relación, matriz booleana o matriz (0,1) es una
matriz con entradas del dominio booleano B = { 0 , 1 } {\displaystyle B=\{0,1\}} {\displaystyle
B=\{0,1\}}. Tal matriz puede ser usada para representar una relación binaria entre un par de
conjuntos finitos.
Representación de una relación matricial
M i , j = { 1 ( x i , y j ) ∈ R 0 ( x i , y j ) ∉ R {\displaystyle M_{i,j}={\begin{cases}1&(x_{i},y_{j})\in
R\\0&(x_{i},y_{j})\not \in R\end{cases}}} {\displaystyle M_{i,j}={\begin{cases}1&(x_{i},y_{j})\in
R\\0&(x_{i},y_{j})\not \in R\end{cases}}}
Con el fin de designar los números de cada fila y columna de la matriz, los conjuntos X e Y
están ordenados con números enteros positivos: i va desde 1 hasta la cardinalidad (tamaño) de
X y j oscila entre 1 y la cardinalidad de Y.
Ejemplo
La relación binaria R en el conjunto {1, 2, 3, 4} se define de manera que aRb se lleva a cabo si y
sólo si a divide b uniformemente, sin resto. Por ejemplo, 2R4 satisface la relación porque 2
divide 4 sin dejar un resto, pero 3R4 no porque cuando 3 divide 4 hay un resto de 1. El
conjunto siguiente es el conjunto de pares para los que se mantiene la relación R.
{(1, 1), (1, 2), (1, 3), (1, 4), (2, 2), (2, 4), (3, 3), (4, 4)}.
( 1 1 1 1 0 1 0 1 0 0 1 0 0 0 0 1 ) . {\displaystyle
{\begin{pmatrix}1&1&1&1\\0&1&0&1\\0&0&1&0\\0&0&0&1\end{pmatrix}}.} {\displaystyle
{\begin{pmatrix}1&1&1&1\\0&1&0&1\\0&0&1&0\\0&0&0&1\end{pmatrix}}.}
Algunas Propiedades
El número de matrices binarias mxn distintas es igual a 2mn, y es, por consiguiente, finito.
Aplicaciones
Las matrices son utilizadas ampliamente en la computación, por su facilidad y liviandad para
manipular información. En este contexto, son una buena forma para representar grafos, y son
muy utilizadas en el cálculo numérico. En la computación gráfica, las matrices son
ampliamente usadas para lograr animaciones de objetos y formas.
El mundo de las matrices es muy amplio aunque parezca tan simple, programas como Matlab
pueden crear sistemas de matrices tan complejos que incluso al programa le es difícil
resolverlos. Aunque no lo parezca las matrices también se pueden aplicar al mundo de la
computación y programación.
Un ejemplo sencillo sería el campo aplicado a la programación en lo que viene relacionado con
la robótica ya que se utiliza en este caso el programa matlab para poder programar robots
como puede ser un brazo biónico. Un ejemplo sería el Lynx6.
Brazo Robótico
-El modelo FK consiste en encontrar una matriz de transformación homogénea T que relacione
la posición cartesiana (Px, Py, PZ) y los ángulos de Euler (φ,ψ,θ) Escogiendo adecuadamente el
sistema de coordenadas ligado a cada segmento es posible ir de un sistema referencial al
siguiente por medio de 4 transformaciones básicas.
-Matriz de transformación (1) Donde es la matriz resultante que relaciona el sistema de
referencia del segmento i-1 con el sistema de referencia del segmento ièsimo, Rotz(ϴ1) es la
rotación alrededor del eje Z i-1 con un valor de ϴ1, T (0,0, di) es una traslación de una distancia
di, a lo largo del eje Zi-1 , T (a1, 0,0) es una traslación de una distancia a1, a lo largo del eje Xi .
Y finalmente Rotx(αi) es la rotación alrededor del eje de Xi, con un valor de αi
Los resultados van a depender exclusivamente de las características geométricas del brazo
manipulador. En nuestro caso los parámetros físicos dependen de los valores de las
articulaciones y longitud conocidos en cada sistema de coordenadas, deben expresarse y
asignarse en términos de la convención D-H. Multiplicando las matrices individuales de la
ecuación (1) en el orden correcto, la matriz de transformación, que resuelve los valores de
posición y orientación en cada sistema de coordenadas es la ecuación (2 ) Los términos
individuales de las tres primeras columnas de la matriz (n, o, a) representan la orientación del
eje principal en el sistema de coordenadas. La última columna P indica la posición (x, y, z) del
origen. Cada uno de los términos de la matriz pueden calcularse a partir de las ecuaciones
siguientes :
Teoría de matrices
La teoría de matrices es una rama de las matemáticas que se centra en el estudio de matrices.
Inicialmente una rama secundaria del álgebra lineal, ha venido cubriendo también los temas
relacionados con la teoría de grafos, el álgebra, la combinatoria y la estadística.
Una matriz puede identificarse a una aplicación lineal entre dos espacios vectoriales de
dimensión finita. Así la teoría de las matrices habitualmente se considera como una rama del
álgebra lineal. Las matrices cuadradas desempeñan un papel particular, porque el conjunto de
matrices de orden n (n entero natural no nulo dado) posee propiedades de « estabilidad » de
operaciones.
En teoría de los grafos, a todo grafo etiquetado corresponde la matriz de adyacencia. Una
matriz de permutación es una matriz que representa una permutación; matriz cuadrada cuyos
coeficientes son 0 o 1, con un solo 1 en cada línea y cada columna. Estas matrices se utilizan en
combinatorio.
También existe otro tipo de matriz además de la matriz de adyacencia que es la conocida como
matriz de incidencia en la cual el grafo se muestra en una matriz de A (serían las aristas) por V
(serían los vértices), donde contiene la información de la arista (1 si está conectado y 0 no
conectado).
La matriz de adyacencia es una matriz booleana, como se ha dicho antes es una matriz que
solo puede contener 0 y 1.
/ V1 V2 V3 V4 V5
V1 0 1 0 0 0
V2 1 0 1 1 0
V3 1 1 0 1 0
V4 0 1 1 1 0
V5 0 0 1 0 0
La matriz de adyacencia se basa en las conexiones que se realizan entre los vértices del grafo
apareciendo así un 1 en los casos en los que dos vértices están conectados y un 0 en los casos
en los que no.
En algunos casos como el de la posición V3/V5 se observa un 0 debido a que la conexión entre
ellos muestra un sentido permitiendo el paso de flujo de V5 a V3 pero no al contrario, motivo
por el cual V5/V3 si presenta un 1.
Cabe decir que si se toma otra ordenación de los vértices la matriz de adyacencia será
diferente, pero todas las matrices de adyacencia resultantes de un mismo grafo están unidas
por una matriz de permutación P tal que P-1 C P = A (Siendo C y A dos matrices de adyacencia
distintas pero provenientes de un mismo grafo).
Análisis y geometría