0% encontró este documento útil (0 votos)
17 vistas17 páginas

El Matriz

Cargado por

grafixpro3
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
17 vistas17 páginas

El Matriz

Cargado por

grafixpro3
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

EL MATRIZ

En matemática, una matriz es un conjunto bidimensional de números. Dado que


puede definirse tanto la suma como el producto de matrices, en mayor
generalidad se dice que son elementos de un anillo. Una matriz se representa por
medio de una letra mayúscula y sus elementos con la misma letra en minúscula
con un doble subíndice donde el primero indica la fila y el segundo la columna a
la que pertenece:

Los elementos individuales de una matriz M x N, se denotan a menudo por aij,


donde el máximo valor de i de m, y el máximo valor de j es n. Siempre que la
matriz tenga el mismo número de filas y de columnas que otra matriz, estas se
pueden sumar o restar elemento por elemento.

Pueden sumarse, multiplicarse y descomponerse de varias formas, lo que


también las hace un concepto clave en el campo del álgebra lineal.
HISTORIA
El origen de las matrices es muy antiguo. Los cuadrados latinos y los cuadrados
mágicos se estudiaron desde hace mucho tiempo. Un cuadrado mágico, 3 por 3,
se registra en la literatura china hacia el 650 a. C.2​

Es larga la historia del uso de las matrices para resolver ecuaciones lineales. Un
importante texto matemático chino que proviene del año 300 a. C. a 200 a. C.,
Nueve capítulos sobre el Arte de las matemáticas (Jiu Zhang Suan Shu), es el
primer ejemplo conocido de uso del método de matrices para resolver un sistema
de ecuaciones simultáneas.3​En el capítulo séptimo, "Ni mucho ni poco", el
concepto de determinante apareció por primera vez, dos mil años antes de su
publicación por el matemático japonés Seki Kōwa en 1683 y el matemático
alemán Gottfried Leibniz en 1693.

Los «cuadrados mágicos» eran conocidos por los matemáticos árabes,


posiblemente desde comienzos del s. VII d. C., quienes a su vez pudieron
tomarlos de los matemáticos y astrónomos de la India, junto con otros aspectos
de la matemática combinatoria. Todo esto sugiere que la idea provino de China.
Los primeros «cuadrados mágicos» de orden 5 y 6 aparecieron en Bagdad en el
año 983, en la Enciclopedia de la Hermandad de Pureza (Rasa'il Ihkwan al-Safa).2​

Después del desarrollo de la teoría de determinantes por Seki Kowa y Leibniz


para facilitar la resolución de ecuaciones lineales, a finales del siglo XVII, Gabriel
Cramer presentó en 1750 la ahora denominada regla de Cramer. Carl Friedrich
Gauss y Wilhelm Jordan desarrollaron la eliminación de Gauss-Jordan en el siglo
XIX

Fue James Joseph Sylvester quien utilizó por primera vez el término «matriz» en
1848/1850.

En 1853, William Rowan Hamilton hizo algunos aportes a la teoría de matrices.


Cayley introdujo en 1858 la notación matricial, como forma abreviada de escribir
un sistema de m ecuaciones lineales con n incógnitas.

Cayley, Hamilton, Hermann Grassmann, Ferdinand Georg Frobenius, Olga


Taussky-Todd y John von Neumann cuentan entre los matemáticos famosos que
trabajaron sobre la teoría de las matrices. En 1925, Werner Heisenberg
redescubre el cálculo matricial fundando una primera formulación de lo que iba a
pasar a ser la mecánica cuántica. Se le considera a este respecto como uno de
los padres de la mecánica cuántica.
Olga Taussky-Todd (1906-1995), durante la II Guerra Mundial, usó la teoría de
matrices para investigar el fenómeno de inestabilidad aeroelástica llamado
flameo.

Año Acontecimiento

200 a. En China los matemáticos usan series de números.


C.

1848 J. J. Sylvester introduce el término «matriz».

1858 Cayley publica Memorias sobre la teoría de matrices.

1878 Frobenius demuestra resultados fundamentales en álgebra


matricial.

1925 Heisenberg utiliza la teoría matricial en la mecánica cuántica


DEFINICION

Definición de Matriz

Una matriz es una estructura matemática que consiste en una disposición


rectangular de números, símbolos o expresiones. Se organiza en filas y
columnas, y cada elemento dentro de la matriz se identifica por su posición,
denotada generalmente como (a_{ij}), donde (i) es el índice de la fila y (j) es el
índice de la columna.

Notación

Si una matriz tiene (m) filas y (n) columnas, se considera una matriz de
dimensiones (m \times n). Por ejemplo:

[ A = \begin{pmatrix} a_{11} & a_{12} & a_{13} \ a_{21} & a_{22} & a_{23} \ a_{31} &
a_{32} & a_{33} \end{pmatrix} ]

Este es un ejemplo de una matriz (3 \times 3) (3 filas y 3 columnas).

Tipos de Matrices

1. Matriz Fila: Tiene una sola fila, por ejemplo, (1 \times n).
2. Matriz Columna: Tiene una sola columna, por ejemplo, (m \times 1).
3. Matriz Cuadrada: Tiene el mismo número de filas y columnas, por ejemplo,
(n \times n).
4. Matriz Cero: Todos sus elementos son cero.
5. Matriz Identidad: Es una matriz cuadrada donde los elementos en la
diagonal principal son 1 y los demás son 0.

Operaciones con Matrices

1. Suma de Matrices: Se pueden sumar matrices que tienen la misma


dimensión sumando sus elementos correspondientes.
2. Multiplicación de Matrices: La multiplicación de matrices se realiza de
manera que se toma la fila de la primera matriz y se multiplica por la
columna de la segunda matriz.
3. Transposición: Cambia las filas por columnas. La transposición de una
matriz (A) se denota como (A^T).

Aplicaciones de las Matrices

● Sistemas de Ecuaciones: Las matrices se utilizan para resolver sistemas


de ecuaciones lineales a través de métodos como la eliminación de Gauss
o la regla de Cramer.
● Gráficos y Transformaciones: En gráficos por computadora, las matrices
se utilizan para realizar transformaciones como rotaciones, escalados y
traslaciones.
● Estadísticas y Ciencias de Datos: Se utilizan en el análisis de datos y en la
representación de relaciones entre diferentes variables.

Las matrices son fundamentales en diversas disciplinas, incluidas matemáticas,


física, ingeniería, economía y ciencias de la computación. Si necesitas
información más específica o un aspecto particular de las matrices, házmelo
saber.

EJEMPLO:

Dada la matriz A E M4x3 (K)

es una matriz de tamaño 4x3. La entrada a23 es 7.


Operaciones básicas entre matrices
Otros conceptos relacionados con matrices
Las matrices son una herramienta fundamental en matemáticas,
especialmente en álgebra lineal, pero también tienen aplicaciones en
diversas áreas como la física, la economía, la informática, entre otras. A
continuación, se presentan algunos conceptos relacionados con las
matrices:

1. Determinante:

El determinante de una matriz es un valor escalar que puede ser calculado a


partir de los elementos de la matriz. Es crucial en la resolución de sistemas
de ecuaciones lineales y en la determinación de la invertibilidad de una
matriz. Solo las matrices cuadradas (con el mismo número de filas y
columnas) tienen determinante.

● Si el determinante de una matriz es cero, la matriz no es invertible (es


singular).
● Si el determinante es distinto de cero, la matriz es invertible.

2. Matriz inversa:

La matriz inversa de una matriz AAA es otra matriz A−1A^{-1}A−1 tal que
A×A−1=IA \times A^{-1} = IA×A−1=I, donde III es la matriz identidad. No
todas las matrices tienen inversa, solo aquellas cuyo determinante no es
cero.

3. Matriz transpuesta:

La transpuesta de una matriz AAA se denota por ATA^TAT y se obtiene


intercambiando filas por columnas. Es decir, el elemento en la posición
(i,j)(i, j)(i,j) de la matriz original se coloca en la posición (j,i)(j, i)(j,i) en la
matriz transpuesta.

4. Matriz identidad:

La matriz identidad III es una matriz cuadrada en la que los elementos de la


diagonal principal son 1, y todos los demás elementos son 0. La matriz
identidad tiene la propiedad de que, cuando se multiplica por cualquier
otra matriz AAA, el resultado es la matriz AAA misma.

5. Matriz diagonal:
Una matriz diagonal es una matriz cuadrada en la que todos los elementos
fuera de la diagonal principal son cero. Es decir, solo hay valores no nulos
en la diagonal principal.

6. Matriz escalar:

Una matriz escalar es una matriz diagonal en la que todos los elementos de
la diagonal principal son iguales. Es un caso particular de matriz diagonal.

7. Rango de una matriz:

El rango de una matriz es el número máximo de columnas (o filas)


linealmente independientes de la matriz. El rango proporciona información
sobre la solución de sistemas de ecuaciones lineales asociados a la matriz.

8. Sistema de ecuaciones lineales:

Un sistema de ecuaciones lineales se puede representar usando matrices.


Un sistema de ecuaciones se puede escribir como Ax=bA \mathbf{x} =
\mathbf{b}Ax=b, donde AAA es una matriz de coeficientes, x\mathbf{x}x es
el vector de incógnitas y b\mathbf{b}b es el vector de términos
independientes.

9. Autovalores y autovectores:

Los autovalores y autovectores de una matriz cuadrada son conceptos


fundamentales en álgebra lineal. Un autovector de una matriz AAA es un
vector vvv tal que Av=λvA v = \lambda vAv=λv, donde λ\lambdaλ es el
autovalor asociado a ese autovector. Estos conceptos tienen aplicaciones en
la diagonalización de matrices, el análisis espectral y en muchos otros
campos.

10. Diagonalización:

La diagonalización de una matriz es el proceso de encontrar una matriz


diagonal DDD tal que A=PDP−1A = P D P^{-1}A=PDP−1, donde PPP es una
matriz invertible que contiene los autovectores de AAA como columnas, y
DDD es una matriz diagonal cuyos elementos son los autovalores
correspondientes.

11. Producto de matrices:


El producto de dos matrices AAA y BBB, denotado como A×BA \times
BA×B, se obtiene multiplicando las filas de la primera matriz por las
columnas de la segunda. El número de columnas de AAA debe ser igual al
número de filas de BBB para que el producto esté definido.

12. Matriz ortogonal:

Una matriz cuadrada AAA es ortogonal si su transpuesta es igual a su


inversa, es decir, AT=A−1A^T = A^{-1}AT=A−1. Las matrices ortogonales
tienen muchas propiedades útiles, como la preservación de la longitud de
los vectores bajo la multiplicación.

13. Matriz simétrica:

Una matriz cuadrada es simétrica si es igual a su transpuesta, es decir,


A=ATA = A^TA=AT. Las matrices simétricas son importantes en varios
campos, como la mecánica cuántica y la optimización.

14. Matriz adjunta:

La adjunta de una matriz es la matriz transpuesta de su matriz de


cofactores. Es útil, por ejemplo, en el cálculo de la matriz inversa mediante
la fórmula:

A−1=1det⁡(A)⋅adj(A)A^{-1} = \frac{1}{\det(A)} \cdot


\text{adj}(A)A−1=det(A)1​⋅adj(A)

donde adj(A)\text{adj}(A)adj(A) es la matriz adjunta de AAA.

15. Matriz de covarianza:

En estadística y probabilidad, la matriz de covarianza es una matriz que


describe la variabilidad y la relación entre dos o más variables aleatorias.
En el contexto de vectores de variables aleatorias, cada elemento de la
matriz de covarianza indica la covarianza entre dos variables.

16. Matriz de cambio de base:

Es una matriz que permite cambiar de una base a otra en un espacio


vectorial. La matriz de cambio de base convierte las coordenadas de un
vector con respecto a una base en las coordenadas de ese mismo vector con
respecto a otra base.
17. Matriz de transición:

En teoría de Markov y procesos estocásticos, una matriz de transición


describe cómo un sistema cambia de un estado a otro entre diferentes
momentos en el tiempo.

18. Matriz de Pearson (o matriz de correlación):

Es una matriz que mide la relación de correlación lineal entre diferentes


variables de un conjunto de datos. Se utiliza en estadísticas multivariantes.

19. Matriz nula:

Una matriz nula es una matriz en la que todos sus elementos son cero.
Tiene la propiedad de que, al multiplicarla por cualquier otra matriz
compatible, el resultado es la matriz nula.

20. Producto Hadamard:

Es el producto punto elemento a elemento de dos matrices del mismo


tamaño. A diferencia del producto estándar de matrices, el producto de
Hadamard no implica ninguna multiplicación de filas y columnas, sino que
simplemente multiplica cada par de elementos correspondientes de las dos
matrices.

21. Matriz bloque:

Una matriz bloque es una matriz que se organiza en submatrices (bloques).


Estas submatrices pueden ser más fáciles de manipular y permiten la
simplificación de cálculos en ciertos problemas, como la inversión de
matrices grandes.

Aplicaciones
Las matrices en la computación[editar]

Las matrices son utilizadas ampliamente en la computación, por su facilidad y


liviandad para manipular información. En este contexto, son una buena forma
para representar grafos, y son muy utilizadas en el cálculo numérico. En la
computación gráfica, las matrices son ampliamente usadas para lograr
animaciones de objetos y formas.

Ejemplo de brazo robótico[editar]

El mundo de las matrices es muy amplio aunque parezca tan simple, programas
como Matlab pueden crear sistemas de matrices tan complejos que incluso al
programa le es difícil resolverlos. Aunque no lo parezca las matrices también se
pueden aplicar al mundo de la computación y programación.

Un ejemplo sencillo sería el campo aplicado a la programación en lo que viene


relacionado con la robótica ya que se utiliza en este caso el programa matlab
para poder programar robots como puede ser un brazo biónico. Un ejemplo sería
el Lynx6.

El Lynx6 se considera un manipulador de 5 ejes de rotación (base, hombro, codo,


movimiento y rotación de la muñeca); este brazo mecánico entrega movimientos
rápidos, exactos y repetitivos, gracias a los servomotores que lleva
incorporados. Como paso previo se debe desarrollar una aplicación que obtiene
el modelo directo FK e inverso IK del brazo robótico.
Brazo Robótico

-El modelo FK consiste en encontrar una matriz de transformación homogénea T


que relacione la posición cartesiana (Px, Py, PZ) y los ángulos de Euler (φ,ψ,θ)
Escogiendo adecuadamente el sistema de coordenadas ligado a cada segmento
es posible ir de un sistema referencial al siguiente por medio de 4
transformaciones básicas.

-Matriz de transformación (1) Donde es la matriz resultante que relaciona el


sistema de referencia del segmento i-1 con el sistema de referencia del segmento
ièsimo, Rotz(ϴ1) es la rotación alrededor del eje Z i-1 con un valor de ϴ1, T (0,0,
di) es una traslación de una distancia di, a lo largo del eje Zi-1 , T (a1, 0,0) es una
traslación de una distancia a1, a lo largo del eje Xi. Y finalmente Rotx(αi) es la
rotación alrededor del eje de Xi, con un valor de αi

Los resultados van a depender exclusivamente de las características


geométricas del brazo manipulador. En nuestro caso los parámetros físicos
dependen de los valores de las articulaciones y longitud conocidos en cada
sistema de coordenadas, deben expresarse y asignarse en términos de la
convención D-H. Multiplicando las matrices individuales de la ecuación (1) en el
orden correcto, la matriz de transformación, que resuelve los valores de posición
y orientación en cada sistema de coordenadas es la ecuación (2) Los términos
individuales de las tres primeras columnas de la matriz (n, o, a) representan la
orientación del eje principal en el sistema de coordenadas. La última columna P
indica la posición (x, y, z) del origen. Cada uno de los términos de la matriz
pueden calcularse a partir de las ecuaciones siguientes:

La relación entre las matrices de transformación, forma la cadena cinemática de


las articulaciones y segmentos consecutivos del brazo robótico. Donde T es la
matriz de transformación homogénea buscada. Sustituyendo los parámetros de
la tabla 2 en las matrices de transformación se obtienen estas ecuaciones.
Calculando la multiplicación no conmutativa de la ecuación (17, se obtiene la
matriz de transformación homogénea: Donde (n, o, a) es una terna ortogonal que
representa la orientación y P es un vector (Px, Py, Pz) que representa la posición
del efector extremo del brazo. La solución obtenida para una posición en reposo
del brazo con Θ1= 0º , θ2= 90° , θ3 =0° , θ4= -90° y θ5=0°

Teoría de matrices[editar]

La teoría de matrices es una rama de las matemáticas que se centra en el estudio


de matrices. Inicialmente una rama secundaria del álgebra lineal, ha venido
cubriendo también los temas relacionados con la teoría de grafos, el álgebra, la
combinatoria y la estadística.

Matrices relacionadas con otros temas[editar]

Una matriz puede identificarse a una aplicación lineal entre dos espacios
vectoriales de dimensión finita. Así la teoría de las matrices habitualmente se
considera como una rama del álgebra lineal. Las matrices cuadradas
desempeñan un papel particular, porque el conjunto de matrices de orden n (n
entero natural no nulo dado) posee propiedades de « estabilidad » de
operaciones.

Los conceptos de matriz estocástica y matriz doblemente estocástica son


herramientas importantes para estudiar los procesos estocásticos, en
probabilidad y en estadística.

Las matrices definidas positivas aparecen en la búsqueda de máximos y mínimos


de funciones a valores reales, y a varias variables.

Es también importante disponer de una teoría de matrices a coeficientes en un


anillo. En particular, las matrices a coeficientes en el anillo de polinomios se
utilizan en teoría de mandos.

En matemáticas puras, los anillos de matrices pueden proporcionar un rico


campo de contraejemplos para conjeturas matemáticas.

Matrices en teoría de grafos[editar]

En teoría de los grafos, a todo grafo etiquetado corresponde la matriz de


adyacencia. Una matriz de permutación es una matriz que representa una
permutación; matriz cuadrada cuyos coeficientes son 0 o 1, con un solo 1 en
cada línea y cada columna. Estas matrices se utilizan en combinatorio.

También existe otro tipo de matriz además de la matriz de adyacencia que es la


conocida como matriz de incidencia en la cual el grafo se muestra en una matriz
de A (serían las aristas) por V (serían los vértices), donde contiene la información
de la arista (1 si está conectado y 0 no conectado).
CONCLUSION
Teoría de matrices[editar]

La teoría de matrices es una rama de las matemáticas que se centra en el estudio


de matrices. Inicialmente una rama secundaria del álgebra lineal, ha venido
cubriendo también los temas relacionados con la teoría de grafos, el álgebra, la
combinatoria y la estadística.

Matrices relacionadas con otros temas[editar]


Una matriz puede identificarse a una aplicación lineal entre dos espacios
vectoriales de dimensión finita. Así la teoría de las matrices habitualmente se
considera como una rama del álgebra lineal. Las matrices cuadradas
desempeñan un papel particular, porque el conjunto de matrices de orden n (n
entero natural no nulo dado) posee propiedades de « estabilidad » de
operaciones.

Los conceptos de matriz estocástica y matriz doblemente estocástica son


herramientas importantes para estudiar los procesos estocásticos, en
probabilidad y en estadística.

Las matrices definidas positivas aparecen en la búsqueda de máximos y mínimos


de funciones a valores reales, y a varias variables.

Es también importante disponer de una teoría de matrices a coeficientes en un


anillo. En particular, las matrices de coeficientes en el anillo de polinomios se
utilizan en teoría de mandos.

En matemáticas puras, los anillos de matrices pueden proporcionar un rico


campo de contraejemplos para conjeturas matemáticas.

Matrices en teoría de grafos[editar]

En teoría de los grafos, a todo grafo etiquetado corresponde la matriz de


adyacencia. Una matriz de permutación es una matriz que representa una
permutación; matriz cuadrada cuyos coeficientes son 0 o 1, con un solo 1 en
cada línea y cada columna. Estas matrices se utilizan en combinatorio.

También existe otro tipo de matriz además de la matriz de adyacencia que es la


conocida como matriz de incidencia en la cual el grafo se muestra en una matriz
de A (serían las aristas) por V (serían los vértices), donde contiene la información
de la arista (1 si está conectado y 0 no conectado).

También podría gustarte