Matemática 1 - Matrices
Matemática 1 - Matrices
2008
Aspectos Teóricos
Tema: MATRICES
1. Concepto
Las matrices son herramientas convenientes para la sistematización de cálculos
laboriosos, proveyendo una notación compacta para almacenar información y describir
relaciones complicadas. Su uso está sumamente extendido en distintas ramas de la ciencia y
aún en aplicaciones no tan científicas, como puede ser la tabla de posiciones de un
campeonato deportivo o un listado de precios.
2. Definición
En una forma simple podríamos decir simplemente que una matriz1 es un arreglo o
disposición rectangular de números, dispuestos en filas y columnas.
Una matriz A de m x n es un arreglo rectangular de m.n números dispuestos en m
filas y n columnas. Cada uno de los números que componen a una matriz se llaman elementos
de la matriz. Estos números pueden ser reales o complejos.
3. Notación
Las matrices se pueden indicar de muchas maneras, dependiendo en general del texto
o autor. Las más comunes son indicar la matriz con una letra mayúscula o minúscula, en
negrita, A o a. Por ejemplo:
⎡2 i 3 4 − 2i ⎤ ⎡1 0 0⎤
A= [a 3 −2 7] B =⎢ 1 ⎥ ⎢
I= 0 1 0
⎥
⎢6 0 ⎥ ⎢ ⎥
⎣ 3 ⎦ ⎢⎣0 0 1⎥⎦
En muchas oportunidades es necesario indicar en forma genérica una matriz, y usamos
la siguiente notación:
para indicar que la matriz A se forma a partir de un término genérico aij ,
A = [ ai j ] donde “i” indica la fila la y “j” la columna. Dicho de otra manera aij
indica el elemento de la matriz que está en la “i-ésima” fila y en la “j-
ésima” columna.
Así, una matriz genérica podía escribirse:
1
El término “matriz” fue introducido por primera vez por el matemático inglés James J. Sylvester (1814-1897)
con el propósito de distinguir entre matrices y determinantes. La idea era que matriz significaba madre de los
determinantes.
//SISTEMAS DINÁMICOS I Ing. Silvia Valdivia// Ing. Hugo A .García 1
⎡ a 11 " acolumna
a 12 j- ésima 1j " a 1n ⎤
⎢a a 22 " a 2 j " a 2n ⎥
⎢ 21 ⎥
⎢ # # # # # # ⎥
A= [ aij ] = ⎢ ⎥
⎢ a i1 a i 2 " a ij " a in ⎥ i- ésima fila
⎢ # # # # # # ⎥
⎢ ⎥
⎢⎣a m1 a m2 " a mj " a mn ⎥⎦
A={{2,3,4},{-I, 2-I, 3 }}
{{2, 3, 4}, {-I, 2 - I, 3 }}
MatrixForm[A]
2 3 4
-I 2 - I 3
La diferencia entre una opción y la otra es que en el segundo caso la salida transforma
a la matriz en un elemento “no operable”. Para evitar esto y además ver la matriz en forma
cómoda la opción sería:
M= Array[a,{m,n}]
⎡−2 9 0 −7⎤
si A = ⎢
8 −6 −1⎥⎦
entonces a24= - 1; a21 = 1; etc.
⎣1
a. Math
En el uso de Math la determinación de elementos de una matriz (o lista) es importante
y con muchas opciones. Por ejemplo podemos extraer una fila, o un elemento, o una
submatriz.
Definamos como ejemplo una matriz genérica de 3 filas y 4 columnas.
A= Array[a,{3,4}];MatrixForm[A]
a[1, 1] a[1, 2] a[1, 3] a[1, 4]
a[2, 1] a[2, 2] a[2, 3] a[2, 4]
a[3, 1] a[3, 2] a[3, 3] a[3, 4]
A[[1,3]]
a[1, 3]
Si deseamos una submatriz, por ejemplo la segunda y tercera fila, a partir de la tercera
columna utilizamos la siguiente estructura. La primera llave indica las filas a considerar y la
segunda las columnas.
A[[{2,3},{3,4}]]//MatrixForm
a[2, 3] a[2, 4]
a[3, 3] a[3, 4]
A[[{2},{2,4}]]//MatrixForm
a[2, 2] a[2, 4]
v[i_,j_]=N[i^2+ j]
2
i + j
V=Array[v,{2,3}]
{{2, 3, 4}, {5, 6, 7}}
V1=MatrixForm[V]
2 3 4
5 6 7
4. Matrices especiales
Es importante conocer algunas matrices especiales.
4.3.Matrices cuadradas
Cuando una matriz tiene el mismo número de filas y de columnas se llama cuadrada,
o sea toda matriz A(m x n ) tal que m = n o sea A(n x n ).
⎡ a 11 " a 1n ⎤
A= #
⎢ a 11 # ⎥⎥
⎢
⎢⎣a n1 " a nn ⎥⎦
a. Matrices triangulares
Algunos casos de matrices cuadradas tienen interés especial, como las llamadas
triangulares (superior e inferior):
⎡a 11 " a 1 j a 1n ⎤ Esta matriz se llama triangular superior, y su
⎢0 a " a 2n ⎥ característica principal es que todos los elementos que
A= ⎢ ⎥
22
se encuentran por debajo de la diagonal principal ( aij
⎢0 # # # ⎥ tales que i = j) valen 0. También se pueden definir
⎢ ⎥
⎣ 0 " 0 a nn ⎦ diciendo que son matrices:
A(n x n) = [ ai j ] / ai j = 0 si i > j
b. Matrices diagonales
Un caso especial de matrices triangulares son las diagonales. Se caracterizan por que
todos los elementos que están por encima y por debajo de la diagonal valen 0.
⎡a 11 0 " 0 ⎤ También se pueden definir diciendo que son matrices:
⎢ # a 0 ⎥ A(n x n) = [ ai j ] / ai j = 0 si i ≠ j
22 "
A= ⎢ ⎥
⎢0 # # # ⎥
⎢ ⎥
⎣ 0 " 0 a nn ⎦
c. Matrices escalares
Un caso especial de matrices diagonales son las escalares. Se caracterizan por ser una
matriz diagonal en la que todos los elementos de la diagonal son iguales.
⎡k 0 " 0⎤ También se pueden definir diciendo que son matrices:
⎢ # k " 0⎥ A(n x n) = [ ai j ] / ai j = 0 si i ≠ j y aij = k si i = j
A= ⎢ ⎥
⎢0 # # # ⎥
⎢ ⎥
⎣0 " 0 k⎦
d. Matrices identidad
Representan un caso particular de matrices escalares. Los elementos de la diagonal
valen 1.
⎡1 0 " 0⎤ También se pueden definir diciendo que son matrices:
⎢ # 1 " 0⎥ I(n x n) = [ ai j ] / ai j = 0 si i ≠ j y ai j = 1 si i = j
I= ⎢ ⎥
⎢0 # # # ⎥
⎢ ⎥
⎣0 " 0 1⎦
Math permite definir matrices identidad fácilmente, ya que son importante en el
álgebra de matrices.
El comando es el siguiente:
IdentityMatrix[n]
I1=IdentityMatrix[3];MatrixForm[I1]
1 0 0
0 1 0
0 0 1
En Math:
A={{a11,a12,a13},{a21,a22,a23}};MatrixForm[A]
At=Transpose[A];MatrixForm[At]
a11 a21
a12 a22
a13 a23
En el caso particular de usar Math, esta operación permite efectuar una tarea que en
otra forma sería engorrosa, y es el poder seleccionar una columna de una matriz. Esto se hace
fácilmente si en lugar de tomar la columna de una matriz, tomamos la fila correspondiente de
la transpuesta.
Así, si deseamos la primera columna de la matriz A:
Transpose[A][[1]]
{a11, a21}
Este resultado en realidad no es una matriz, sino un vector, pero conociendo el hecho
se puede utilizar sin problema.
A==B
False
B1={{2,3,1},{-2,1,4}};MatrixForm[B1]
2 3 1
-2 1 4
A==B1
True
6.2.Suma de matrices
La suma de matrices se puede realizar (o es conformable) sólo cuando ambas son del
mismo tamaño.
A(m x n ) = [aij] y B(m x n ) = [bij] ⇒ A + B = C / cij = aij + bij para todo i, j
A=Array[a,{2,3}];MatrixForm[A]
a[1, 1] a[1, 2] a[1, 3]
a[2, 1] a[2, 2] a[2, 3]
B=Array[b,{2,3}];MatrixForm[B]
b[1, 1] b[1, 2] b[1, 3]
b[2, 1] b[2, 2] b[2, 3]
S=A+B;MatrixForm[S]
a[1, 1] + b[1, 1] a[1, 2] + b[1, 2] a[1, 3] + b[1, 3]
a[2, 1] + b[2, 1] a[2, 2] + b[2, 2] a[2, 3] + b[2, 3]
Escrito simbólicamente:
a. Propiedades de la suma:
1. Asociativa
(A + B) + C = A + (B+C)
A=Array[a,{3,3}];
B=Array[b,{3,3}];
F=Array[f,{3,3}];
(A+B)+F==A+(B+F)
True
Nota: hemos usado F en lugar de C , D o E porque estos últimos símbolos están protegidos
para Math .
∀A(m x n) , ∃ 0(m x n ) / A + 0 = A
o = {{0,0,0},{0,0,0},{0,0,0}}
{{0, 0, 0}, {0, 0, 0}, {0, 0, 0}}
MatrixForm[o]
0 0 0
0 0 0
0 0 0
A+o//MatrixForm
a[1, 1] a[1, 2] a[1, 3]
a[2, 1] a[2, 2] a[2, 3]
a[3, 1] a[3, 2] a[3, 3]
Nota: hemos usado “o” en lugar de 0 porque este último símbolo está protegido para Math .
∀A(m x n) ∃B(m x n ) / A + B = 0
A + (-A) = 0
B= -A;MatrixForm[B]
-a[1, 1] -a[1, 2] -a[1, 3]
-a[2, 1] -a[2, 2] -a[2, 3]
-a[3, 1] -a[3, 2] -a[3, 3]
S=A+B;MatrixForm[S]
0 0 0
0 0 0
0 0 0
4. Conmutativa
A+B=B+A
A=Array[a,{3,3}];
B=Array[b,{3,3}];
A+B==B+A
True
A=Array[a,{3,3}];
P=k*A;MatrixForm[P]
k a[1, 1] k a[1, 2] k a[1, 3]
k a[2, 1] k a[2, 2] k a[2, 3]
k a[3, 1] k a[3, 2] k a[3, 3]
Nota:
Para indicar el producto en Math debe usarse el asterisco *, o espacio en blanco y no
el punto (en este caso la operación es otra, que ya veremos oportunamente).
Simbólicamente:
⎡a 11 a 12 a 13 ⎤ ⎡ k. a 11 k. a 12 k. a 13 ⎤
A = ⎢⎢a 21 a 22 a 23 ⎥⎥ ⇒ k ⋅ A = ⎢ k. a
⎢ 21 k. a 22 k. a 23 ⎥⎥
⎢⎣a 31 a 32 a 33 ⎥⎦ ⎢⎣ k. a 31 k. a 32 k. a 33 ⎥⎦
A=Array[a,{3,2}];
B=Array[b,{3,2}];
PE1=k*(A+B)//Expand;MatrixForm[PE1]
k a[1, 1] + k b[1, 1] k a[1, 2] + k b[1, 2]
k a[2, 1] + k b[2, 1] k a[2, 2] + k b[2, 2]
k a[3, 1] + k b[3, 1] k a[3, 2] + k b[3, 2]
PE2=k*A+k*B;MatrixForm[PE2]
k a[1, 1] + k b[1, 1] k a[1, 2] + k b[1, 2]
k a[2, 1] + k b[2, 1] k a[2, 2] + k b[2, 2]
k a[3, 1] + k b[3, 1] k a[3, 2] + k b[3, 2]
(k + m) A = k A + m A
A=Array[a,{3,2}];
PE=(k+l)*A; MatrixForm[PE]
(k + l) a[1, 1] (k + l) a[1, 2]
(k + l) a[2, 1] (k + l) a[2, 2]
(k + l) a[3, 1] (k + l) a[3, 2]
Expand[PE]//MatrixForm
k a[1, 1] + l a[1, 1] k a[1, 2] + l a[1, 2]
k a[2, 1] + l a[2, 1] k a[2, 2] + l a[2, 2]
k a[3, 1] + l a[3, 1] k a[3, 2] + l a[3, 2]
PE1=k*A+l*A;MatrixForm[PE1]
k a[1, 1] + l a[1, 1] k a[1, 2] + l a[1, 2]
k a[2, 1] + l a[2, 1] k a[2, 2] + l a[2, 2]
k a[3, 1] + l a[3, 1] k a[3, 2] + l a[3, 2]
3. Asociativa mixta
(k . m) A = k (m A )
A=Array[a,{3,2}];
PE=(k*l)*A;MatrixForm[PE]
k l a[1, 1] k l a[1, 2]
k l a[2, 1] k l a[2, 2]
k l a[3, 1] k l a[3, 2]
PE1=k*(l*A);MatrixForm[PE1]
k l a[1, 1] k l a[1, 2]
k l a[2, 1] k l a[2, 2]
k l a[3, 1] k l a[3, 2]
a. Definición
La definición establece en primer lugar que las dos matrices a multiplicar, para que
sean conformables para el producto no deben ser del mismo tamaño, sino que el número de
columnas de la primera sea igual al número de filas de la segunda. También se establece en
la definición que la matriz producto debe tener el mismo número de filas de la primera y el de
columnas de la segunda.
Esta definición, si bien parece absolutamente arbitraria y sin sentido tiene su origen en
un problema de transformaciones lineales (que no hacen al fondo de la cuestión). Fue
establecido por Cayley (1821-1895) en 1857, al igual que el resto del álgebra de matrices.
⎡ b 11 b 12 b13 "⎤
⎢ b 21 b 22 b 23 "⎥
⎢ ⎥
⎢ b 31 b 32 b 33 "⎥
⎢ ⎥
⎣ # # # # ⎦
⎡a 11 a 12 a 13 "⎤ ⎡c11 c12 c13 "⎤
⎢a a 22 a 23 "⎥ ⎢c c 22 c 23 "⎥
⎢ 21 ⎥ = ⎢ 21 ⎥
⎢a 31 a 32 a 33 "⎥ ⎢c 31 c 32 c 33 "⎥
⎢ ⎥ ⎢ ⎥
⎣# # # # ⎦ ⎣# # # # ⎦
Donde:
c11 = a11 . b11 + a12 . b21 + a13 .b31 c12 = a11 . b12 + a12 . b22 + a13 .b32 c13 = a11 . b13 + a12 . b23 + a13 .b33
A={{a11,a12},{a21,a22},{a31,a32}};MatrixForm[A]
a11 a12
a21 a22
a31 a32
//SISTEMAS DINÁMICOS I Ing. Silvia Valdivia// Ing. Hugo A .García 11
B={{b11,b12},{b21,b22}};MatrixForm[B]
b11 b12
b21 b22
P=A.B;MatrixForm[P]
a11 b11 + a12 b21 a11 b12 + a12 b22
a21 b11 + a22 b21 a21 b12 + a22 b22
a31 b11 + a32 b21 a31 b12 + a32 b22
A={{a11,a12,a13},{a21,a22,a23}};MatrixForm[A]
a11 a12 a13
a21 a22 a23
B={{b11,b12,b13},{b21,b22,b23}};MatrixForm[B]
b11 b12 b13
b21 b22 b23
A*B;MatrixForm[A*B]
a11 b11 a12 b12 a13 b13
a21 b21 a22 b22 a23 b23
A B;MatrixForm[A B]
a11 b11 a12 b12 a13 b13
a21 b21 a22 b22 a23 b23
A.B
Dot::dotsh:
Tensors {{a11, a12, a13}, {a21, a22, a23}} and
{{b11, b12, b13}, {b21, b22, b23}}
have incompatible shapes.
La respuesta indica que no puede resolver la operación indicada por no ser de “formas
compatibles”.
A={{-1,0},{2,7}};
B={{0,2,-9},{1,-2,-9}};
A.B;MatrixForm[A.B]
0 -2 9
7 -10 -81
c11= A[[1]].Transpose[B][[1]]
0
c12= A[[1]].Transpose[B][[2]]
-2
c13= A[[1]].Transpose[B][[3]]
9
Así sucesivamente.
b. Propiedades del producto
a- Asociativa
Sean las matrices A( m x n), B(n x r) y C( r x p ) entonces se verifica:
( A B ) C = A (B C)
Es obvio decirlo, pero para poder verificar la propiedad enunciada es necesario que B
tenga el mismo número de filas que columnas tiene A, y C el mismo número de filas que
columnas el producto de A por B, o sea el número de columnas de B en definitiva.
A=Array[a,{2,3}];MatrixForm[A]
B=Array[b,{3,2}];MatrixForm[B]
F=Array[f,{2,2}];MatrixForm[F]
a[1, 1] a[1, 2] a[1, 3]
a[2, 1] a[2, 2] a[2, 3]
b[1, 1] b[1, 2]
b[2, 1] b[2, 2]
b[3, 1] b[3, 2]
f[1, 1] f[1, 2]
f[2, 1] f[2, 2]
(A.B).F==A.(B.F)
True
No se han mostrado ambos miembros de la igualdad en virtud de que las expresiones
obtenidas son algo complicadas para visualizar lo que se desea. No obstante los interesados
podrán verificarlo manualmente o con Math.
Podemos ver un ejemplo.
A={{-1,2,3},{3,2,0}};MatrixForm[A]
B={{2},{-1},{2}};MatrixForm[B]
2
-1
2
-1 2 4
P1=A.B;MatrixForm[P1]
2
4
P1.F//MatrixForm
-2 4 8
-4 8 16
P2=B.F;MatrixForm[P2]
-2 4 8
1 -2 -4
-2 4 8
A.P2//MatrixForm
-2 4 8
-4 8 16
A.(B.F)==(A.B).F
True
A=Array[a,{2,3}];
B=Array[b,{3,3}];
F=Array[f,{3,3}];
(A.(B+F)//Expand)==(A.B+A.F//Expand)
True
Es necesario incorporar el comando Expand ya que en caso contrario no las
identifica como iguales.
c- Asociativa con respecto al producto por escalar
Esta propiedad es de simple demostración, por lo que se deja por cuenta del lector.
Por lo general A.B ≠ B.A. La causa es obvia. Si se puede realizar el producto A.B
implica que el número de filas de B es igual al número de columnas de A, pero en los
requerimientos para este producto no se establecen condiciones para el número de filas de A
ni las columnas de B. Por lo tanto, si intentamos el producto en sentido contrario no siempre
podrá realizarse, y es por esto que decimos que por lo general no se puede hacer.
A=Array[a,{2,2}];
B=Array[b,{2,2}];
P1=A.B;MatrixForm[P1]
a[1, 1] b[1, 1] + a[1, 2] b[2, 1] a[1, 1] b[1, 2] + a[1, 2] b[2, 2]
P2=B.A;MatrixForm[P2]
a[1, 1] b[1, 1] + a[2, 1] b[1, 2] a[1, 2] b[1, 1] + a[2, 2] b[1, 2]
Si comparamos los elementos de las dos matrices, veremos que no son iguales. Esto
también lo asegura Math, al no poder decir ni True, ni False, por no saber que valor pueden
tener estos elementos (verificarlo).
En definitiva, ¿ por qué razón no decimos entonces que nunca es conmutativa ?.
Porque hay algunos casos, muy especiales en los cuales el producto si es conmutativo (todos
ellos para matrices cuadradas). Uno de estos lo veremos en la propiedad siguiente, y los otros
más adelante.
e- Elemento neutro
Sin duda que en este producto tan especial es dado preguntarse si habrá elementos
neutros, esto es que exista alguna matriz que multiplicada por otra no la altere.
Para poder responder a esto debiéramos en primer lugar recordar algunas cosas sobre
otros neutros estudiados, como los de los numeros reales. En esos casos los neutros siempre
resultaron bilaterales, esto es que operados por derecha y por izquierda, actuaban como tales.
En el caso del producto de matrices, por su caracter no conmutativo esto parecería
difícil. Sin embargo analicemos esto un poco más.
Sea una matriz A( m x m), o sea cuadrada ¿ que sucederá ya que existe en ellas una cierta
posibilidad de conmutatividad ?. Veamos esto usando un comando de Math , LinearSolve
como recurso.
?LinearSolve
La ayuda nos dice que este comando permite hallar un “vector” (matriz para nosotros)
que multiplicado por derecha (o posmultiplicado ) de como resultado cierta matriz.
A=Array[a,{2,2}];MatrixForm[A]
a[1, 1] a[1, 2]
a[2, 1] a[2, 2]
n=LinearSolve[A,A];MatrixForm[n]
1 0
0 1
Este resultado es razonable, ya que hemos obtenido una matriz identidad. Veamos si al
multiplicar por izquierda este sigue siendo neutro.
n.A==A.n==A
True
En consecuencia podemos escribir que para matrices cuadradas, se verifica que para
toda A( m x m) existe una matriz I( m x m) tal que:
A.I = I. A = A
I1. A = A
A. I2= A
A=Array[a,{2,3}];
I1=IdentityMatrix[2]
{{1, 0}, {0, 1}}
P1=I1.A;MatrixForm[P1]
a[1, 1] a[1, 2] a[1, 3]
a[2, 1] a[2, 2] a[2, 3]
I2=IdentityMatrix[3]
{{1, 0, 0}, {0, 1, 0}, {0, 0, 1}}
P2=A.I2;MatrixForm[P2]
a[1, 1] a[1, 2] a[1, 3]
a[2, 1] a[2, 2] a[2, 3]
I1.A==A.I2
True
f- No es cancelativa
A=Array[a,{2,2}];
B=Array[b,{2,2}];
F=Array[f,{2,2}];
(A.F)[[1,1]]
a[1, 1] f[1, 1] + a[1, 2] f[2, 1]
Al analizar ambos elementos podemos decir que para que sean iguales, es cierto que
una posibilidad sería que los elementos de B fueran iguales a los de F, pero por tratarse de una
ecuación de tipo indeterminada, hay infinitas posibilidades además.
A={{1,0},{0,0}};MatrixForm[A]
B={{0,0},{1,0}};MatrixForm[B]
F={{0,0},{0,0}};MatrixForm[F]
1 0
0 0
0 0
1 0
0 0
0 0
A.B==A.F
True
Tal como se ve, no es cierto que B = F, a pesar de serlo los productos.
Esta propiedad, como todas las otras tiene sus características particulares. Debiéramos
preguntarnos si dada una matriz A( m x n ) es posible hallar una matriz que multiplicada por ella,
de por resultado el neutro, o sea la identidad.
Simbólicamente diríamos que dada una matriz A, su inversa será la matriz B que
satisfaga:
A.B=B.A =I
A={{2,2},{-2,3}}
{{2, 2}, {-2, 3}}
i=IdentityMatrix[2]
{{1, 0}, {0, 1}}
inv=LinearSolve[A,i];MatrixForm[inv]
3 1
-- -(-)
10 5
1 1
- -
5 5
Como vemos, hemos obtenido una matriz que satisface nuestro requisito:
A.inv==inv.A==i
True
La matriz hallada es la inversa de A:
inv = A-1
X={{x1,x2},{x3,x4}}
A.X = X.A = i
MatrixForm[A.X]==MatrixForm[i]
2 x1 + 2 x3 2 x2 + 2 x4 1 0
==
-2 x1 + 3 x3 -2 x2 + 3 x4 0 1
Por igualdad de matrices, esa igualdad será cierta si los elementos correspondientes
son iguales. Para resolver esto en realidad es necesario plantear dos sistemas de ecuaciones:
Los valores de las incógnitas que satisfagan a las ecuaciones, serán los elementos de
X. Esto podemos también resolverlo directamente con Math.
x1=inv1[[1,1,2]];x2=inv1[[1,2,2]];
x3=inv1[[1,3,2]];x4=inv1[[1,4,2]];
X;MatrixForm[X]
3 1
-- -(-)
10 5
1 1
- -
5 5
A.X
{{1, 0}, {0, 1}}
X.A
{{1, 0}, {0, 1}}
Inverse[A]//MatrixForm
3 1
-- -(-)
10 5
1 1
- -
5 5
B={{1,-2},{2,-4}};MatrixForm[B]
1 -2
2 -4
Clear[X,x1,x2,x3,x4]
X={{x1,x2},{x3,x4}}
{{x1, x2}, {x3, x4}}
inv2=Solve[B1.X==I2,{x1,x2,x3,x4}]
{}
Inverse[B]
LinearSolve[B,i]
LinearSolve::nosol:
Linear equation encountered which has no solution.
Como vemos, por ninguno de los métodos antes usados hemos logrado el resultado
esperado, por lo que debemos suponer que la matriz B no admite inversa. ¿Por qué...? veamos
algunas características de ella.
Det[B]
0
El determinante de la matriz vale 0. recordando lo que dijéramos cuando se habló de
sistemas de ecuaciones lineales, esto implica que una fila es múltiplo o combinación lineal de
otra u otras. en nuestro caso sólo puede ser la primera. Si observamos la matriz B, vemos que
efectivamente, una fila es múltiplo de la otra.
¿ En qué afecta esto a la obtención de la inversa ? Si planteamos de nuevo la ecuación
matricial observaremos la aparición de sistemas de ecuaciones incompatibles.
MatrixForm[B.X]==MatrixForm[i]
x1 - 2 x3 x2 - 2 x4 1 0
==
2 x1 - 4 x3 2 x2 - 4 x4 0 1
A es matriz ortogonal ⇔ A - 1 = A t
O se debe cumplir que q por su transpuesta debe ser igual a la matriz identidad
Matriz nilpotente
A es nilpotente si es de n x n y si Ak = (0) para algún entero K≥ 1
Matriz idempotente:
A es idempotente si es de n x n y si A2 = A
Conjunto Linealmente Independiente
Un conjunto de vectores es linealmente independiente sí y solo sí la única combinación lineal
entre los mismos (cuyo resultado sea el vector nulo) tiene como solución, la solución trivial.
Matriz No Singular
Es aquella matriz cuyo determinante es distinto de cero. O cuando sus vectores filas o
columnas son linealmente independientes
Matriz Involutiva
A es matriz involutiva si es de n x n y si su cuadrado es la identidad de n x n.
Operaciones elementales
Son operaciones elementales aquellas que se realizan en una matriz, obteniendo como
resultado matrices llamadas equivalentes. Ellas son las la siguientes:
a) Permutación de dos filas o columnas entre sí.
b) Adición de una fila a otra o adición de una columna a otra.
c) Multiplicación de una fila o columna por un escalar
Estas operaciones elementales no modifican el rango de la matriz.
Matrices elementales
Una matriz elemental E de n x n es elemental si se puede obtener a partir de la matriz
identidad (de n x n ) mediante una sola operación de renglón.
Método de Gauss-Jordan
Este método basado en operaciones elementales entre filas únicamente permite:
a) Determinar el rango de una matriz
b) Obtener la matriz inversa
c) Analizar y resolver sistemas de ecuaciones lineales
⎡1 0 − 1 ⎤
Por ejemplo si se desea obtener la matriz inversa de A= ⎢⎢1 2 − 2⎥⎥
⎢⎣2 − 1 3 ⎥⎦
Se aplica el procedimiento (las mismas transformaciones) a ambas matrices la A y a
continuación la identidad del mismo tamaño
⎡1 0 − 1⎤ ⎡1 0 0⎤
⎢1 2 − 2⎥⎥ ⎢0 1 ⎥
⎢ ⎢ ⎥
⎢⎣2 − 1 3 ⎥⎦ ⎢⎣0 0 1⎥⎦
⎡1 0 − 1⎤ ⎡ 1 0 0⎤
⎢0 2 − 1⎥⎥ ⎢ − 1 1 0⎥
⎢ ⎢ ⎥
⎢⎣0 − 1 3 ⎥⎦ ⎢⎣− 2 0 1⎥⎦
El transformado de 3 es :
(−1)(−1) 1 5
3− = 3− =
2 2 2
1
El transformado de a 25 = es
2
−1 1
( )( )
1 1 1 3
− 2 2 = + =
2 5 2 10 5
2