Sistemas Lineales de Ecuaciones
Definición: un sistema lineal de m ecuaciones y n incógnitas es un problema de la siguiente forma:
𝑎1,1 𝑥1 + 𝑎1,2 𝑥2 + ⋯ + 𝑎1,𝑛 𝑥𝑛 = 𝑏1
𝑎2,1 𝑥1 + 𝑎2,2 𝑥1 + ⋯ + 𝑎2,𝑛 𝑥𝑛 = 𝑏2
(𝑆 ) :
⋮ ⋮ ⋱ ⋮ ⋮
{𝑎𝑚,1 𝑥1 + 𝑎𝑚,2 𝑥1 + ⋯ + 𝑎𝑚,𝑛 𝑥𝑛 = 𝑏𝑛
Donde:
• ai,j son los coeficientes del sistema
o i : índice de la fila o de ecuaciones (1 ≤ i ≤ m)
o j : índice de la columna o de incógnitas (1 ≤ j ≤ n)
• x1 … xn son las incógnitas del sistema
• bi son los términos independientes del sistema
Una solución del sistema (S) es cualquier n-upla (α1, … , αn) que cumple las ecuaciones del sistema. Cada una de las soluciones forman
un conjunto, denominado “conjunto solución de (S)”, el cual se denota como: 𝑆𝑜𝑙 (𝑆) = {(𝛼1, … , 𝛼𝑛 ) ∶ 𝑠𝑒𝑎𝑛 𝑠𝑜𝑙𝑢𝑐𝑖ó𝑛 𝑑𝑒 𝑆}
Por lo tanto, resolver un sistema consiste en hallar el conjunto solución de este.
Clasificación de sistemas
Los sistemas lineales de ecuaciones se pueden clasificar de acuerdo con la cantidad de soluciones que tenga, de la siguiente manera:
(1) Sistema Compatible Determinado (SCD) : si tiene una única solución.
(2) Sistema Compatible Indeterminado (SCI) : si tiene varias soluciones.
(3) Sistema Incompatible (SI) : si no tiene solución.
Clasificación de los conjuntos solución
Un conjunto solución puede ser:
(A) TRIVIAL: si todas las incógnitas del sistema toman el valor de 0.
(B) NO TRIVIAL: si existen algunas incógnitas del sistema que tomen algún valor distinto de cero.
Transformaciones elementales
Dado un sistema lineal con m ecuaciones y n incógnitas (m,n ≥ 1), se le llaman transformaciones elementales a las siguientes
operaciones:
(1) Intercambiar de lugar dos ecuaciones. (Fi ↔ Fj)
(2) Multiplicar una ecuación por un número α ≠ 0. (Fi ← αFi)
(3) Sumar a una ecuación un múltiplo de otra. (Fi ← Fi + αFj)
Proposición: si en un sistema lineal de ecuaciones (S) se efectúa una transformación elemental (o bien, una sucesión finita de
transformaciones elementales), entonces el sistema resultante (S’) es equivalente al sistema original (S).
Se dice que un sistema es equivalente a otro si y solo si ambos comparten el mismo conjunto solución, es decir; 𝑆𝑜𝑙 (𝑆) = 𝑆𝑜𝑙(𝑆 ′).
Representación de Sistemas Lineales de Ecuaciones con Matrices
Definición (Matriz): una matriz de m filas y n columnas (o matriz de tamaño mxn), es un ordenamiento rectangular de números con m
filas y n columnas.
𝑎1,1 𝑎1,2 ⋯ 𝑎1,𝑛
𝑎2,1 𝑎2,2 ⋯ 𝑎2,𝑛 𝑖=1…𝑛
(
⋮
) 𝐴 = (𝑎𝑖,𝑗 )𝑗=1..𝑚 𝑜 𝐴 = (𝑎𝑖,𝑗 ) (sucesión de los coeficientes ai,j)
⋮ ⋮ ⋱
𝑎𝑚,1 𝑎𝑚,2 ⋯ 𝑎𝑚,𝑛
El conjunto de las matrices reales se escribe 𝑀𝑚𝑥𝑛 (𝑀𝑚𝑥𝑛 (𝑘) → son las matrices con coeficientes en K)
Dadas dos matrices A = (ai,j) y B = (bi,j), se dice que éstas son iguales cuando:
1. Tienen el mismo tamaño mxn
2. ∀i ∈ {1, … , m} y ∀j ∈ {1, … , n}, ai,j = bi,j
Vocabulario:
• Matriz fila: matriz de tamaño 1xn
• Matriz columna: matriz de tamaño mx1
• Matriz cuadrada: matriz de tamaño nxn, (donde m=n)
Dado un sistema (S), se llaman:
❖ Matriz del Sistema a la matriz de los coeficientes del sistema
𝑎1,1 𝑎1,2 ⋯ 𝑎1,𝑛
𝑎2,1 𝑎2,2 ⋯ 𝑎2,𝑛
𝐴=( )
⋮ ⋮ ⋱ ⋮
𝑎𝑚,1 𝑎𝑚,2 ⋯ 𝑎𝑚,𝑛
❖ Columna de los Términos Independientes a la matriz columna con dichos números
𝑏1
𝑏
𝑏 = ( 2)
⋮
𝑏𝑚
❖ Matriz Ampliada del Sistema (S) a la siguiente matriz
𝑎1,1 𝑎1,2 ⋯ 𝑎1,𝑛 𝑏1
𝑎2,1 𝑎2,2 ⋯ 𝑎2,𝑛 𝑏2
(𝐴|𝑏) = ( | )
⋮ ⋮ ⋱ ⋮ ⋮
𝑎𝑚,1 𝑎𝑚,2 ⋯ 𝑎𝑚,𝑛 𝑏𝑚
Método de Escalerización
Se dice que una matriz está escalerizada cuando;
(1) Todas las filas salvo quizá la primera comienzan con una sucesión de ceros.
(2) Cada fila que sigue una fila nula tiene al principio al menos un cero más que la fila anterior, y cada fila que tiene una fila nula
es nula.
Además, se dice que la matriz está de forma reducida cuando;
(3) La primera entrada no nula de una fila es un “1”.
(4) La columna que corresponde a la primera entrada no nula de una fila tiene el resto de las entradas nulas.
Teorema: toda matriz puede ser transformada en una matriz escalerizada (o escalerizada reducida) mediante la utilización de una
cantidad finita de transformaciones elementales.
Escalones: si (E) es una matriz escalerizada, se llama número de escalones de (E) al número de filas no nulas.
Proposición: si una matriz A tiene dos formas escalerizadas E1 y E2, entonces E1 y E2 tienen el mismo número de escalones.
Rango: el rango de una matriz (A) es el número de escalones de cualquier forma escalerizada de (A).
Teorema de Rouché-Frobenius:
Sea (S) un sistema lineal de m ecuaciones y n incógnitas, con matriz ampliada (A│b). Sean p = el rango de A y p’ = el rango de (A│b).
Entonces;
(1) (S) es compatible si y solo si p = p’
(2) Si (S) es compatible, entonces:
a) (S) es determinado si y solo si p = n
b) (S) es indeterminado si y solo si p < n
Obs: en el caso p < n (compatible indeterminado). Se expresan las soluciones en función de n·p parámetros (grados de libertad)
Se dice que el sistema tiene n – p grados de libertad.
RANGO DEL SISTEMA + GRADOS LIBERTDAD = NÚMEROS DE INCÓGNITAS
Sistemas Homogéneos
Se dice que un sistema (S) es homogéneo cuando todos sus términos independientes son nulos; bi = 0.
Propiedades:
(1) Un sistema homogéneo siempre es compatible, ya que X1 = X2 = … = Xn = 0 es solución del sistema.
(2) Durante el proceso de Escalerización, la última columna de la matriz ampliada (términos independientes), siempre es nula.
(3) En particular, los rangos de (A) y (A│b) son iguales: p = p’.
Operaciones con Matrices:
Suma (adición) de Matrices
Dadas dos matrices A = (ai,j) y B = (bi,j) del mismo tamaño mxn, se define la suma A + B como la matriz C=(ci,j) dada por:
𝐶𝑖,𝑗 = 𝑎𝑖,𝑗 + 𝑏𝑖,𝑗 (𝑝𝑎𝑟𝑎 𝑡𝑜𝑑𝑜 𝑖𝑗 ∈∈ [1,…,𝑚]
[1,…,𝑛]
)
Propiedades: la operación (+): 𝑀𝑚𝑥𝑛 x 𝑀𝑚𝑥𝑛 → 𝑀𝑚𝑥𝑛
(1) (A + B) + C = A + (B + C) (asociativa)
(2) A + B = B + A (conmutativa)
(3) A + O = O + A = A (tiene un elemento neutro: la matriz 𝑂𝑚𝑥𝑛)
(4) A + (-A) = (-A) + A = O (toda matriz tiene una matriz opuesta: −𝐴 = (−𝑎𝑖,𝑗 ))
Producto de Números por Matrices
Dados un número real; λ e R y una matriz A = (ai,j) de tamaño mxn, se define la matriz: λ·A como la matriz C=(ci,j) definida por:
𝐶𝑖,𝑗 = λ ∙ 𝑎𝑖,𝑗 (𝑝𝑎𝑟𝑎 𝑡𝑜𝑑𝑜 𝑖𝑗 ∈∈ [1,…,𝑚]
[1,…,𝑛]
)
Propiedades: la operación (·): R x 𝑀𝑚𝑥𝑛 → 𝑀𝑚𝑥𝑛
(1) O · A = O
(2) 1 · A = A
(3) (-1) · A = -A
(4) (λ · μ) · A = λ · (μ · A)
(5) (λ + μ) · A = (λ · A) + (μ · A)
(6) λ · (A + B) = (λ · A) + (λ · B)
(7) (λ + μ) · (A + B) = (λ · A) + (λ · B) + (μ · A) + (μ · B)
Producto de Matrices
Dadas dos matrices: A = (ai,j) de tamaño mxp , B = (bi,j) de tamaño pxn
Se define el producto A · B como la matriz C = (ci,j) de tamaño mxn definida por:
𝑝
𝐶𝑖,𝑗 = ∑𝑘=1 𝑎𝑖,𝑗 ∙ 𝑏𝑘,𝑗 (𝑝𝑎𝑟𝑎 𝑡𝑜𝑑𝑜 𝑖𝑗 ∈∈ [1,…,𝑚]
[1,…,𝑛]
)
OBS: solo se puede realizar el producto A · B si y solo sí; #columnas(A) = #filas(B), y se tiene que
#filas(AB) = #filas(A) y #columnas(AB) = #columnas(B)
Procedimiento:
Suponiendo que; A = (ai,j) de tamaño mxp , B = (bi,j) de tamaño pxn
𝑛 𝑐𝑜𝑙𝑢𝑚𝑛𝑎𝑠
𝑏1,1 𝑏1,2 ⋯ 𝑏1,𝑗 ⋯ 𝑏1,𝑛
𝑏2,1 𝑏2,2 ⋯ 𝑏2,𝑗 ⋯ 𝑏2,𝑛
𝑝 𝑓𝑖𝑙𝑎𝑠
⋮ ⋮ ⋮ ⋮
𝑏 𝑏𝑝,2 ⋯ 𝑏𝑝,𝑗 ⋯ 𝑏𝑝,𝑛 }
( 𝑝,1 )
𝐵
𝐴
𝑎1,1 𝑎1,2 ⋯ 𝑎1,𝑝 ⋮
𝑎2,1 𝑎2,1 ⋯ 𝑎2,𝑝 ⋮
⋮ ⋮ ⋮ ⋮ 𝑚 𝑓𝑖𝑙𝑎𝑠
𝑚 𝑓𝑖𝑙𝑎𝑠 𝑎𝑖,1 𝑎𝑖,2 ⋯ 𝑎𝑖,𝑝 ⋯ ⋯ ⋯ 𝑐𝑖,𝑗
⋮ ⋮ ⋮
( )}
{(𝑎𝑚,1 𝑎𝑚,2 ⋯ 𝑎𝑚,𝑝 )
𝑛 𝑐𝑜𝑙𝑢𝑚𝑛𝑎𝑠
𝑝 𝑐𝑜𝑙𝑢𝑚𝑛𝑎𝑠
𝐶𝑖,𝑗 = (𝑎𝑖,1 ∙ 𝑏1,𝑗 ) + (𝑎𝑖,2 ∙ 𝑏2,𝑗 ) + ⋯ + (𝑎𝑖,𝑝 ∙ 𝑏𝑝,𝑗 )
Propiedades:
(1) AB ≠ BA
(2) (A · B) · C = A · (B · C)
(3) (A + B) · C = A · C + B · C
(4) C · (A + B) = C · A + C · B
(5) A · O = O · A = O
(6) λ · (AB) = (λ · A) · B = A · (λ · B)
Producto de Matrices por Columnas y Filas
(1) Matriz x Columna = Columna (mxp , px1 → mx1)
(2) Fila x Matriz = Fila (1xp , pxn → 1xn)
Obs:
a) Si una fila de A es nula, en el producto A · B, la fila correspondiente será nula.
b) Si una columna de B es nula, en el producto de A · B, la columna correspondiente será nula.
c) En cambio, con la columna de A y la fila de B, en el producto A · B no sucede lo mismo.
Obs:
a) Si se intercambia una fila de A, en el producto A · B, se intercambia la fila correspondiente.
b) Si se intercambia una columna de B, en el producto A · B, se intercambia la columna correspondiente.
c) En cambio, con la columna de A y la fila de B, en el producto A · B no sucede lo mismo.
Producto por BLOQUES
Suponiendo que A es de tamaño mxp y B es tamaño pxn, M ≔ M1 + M2 , P ≔ P1 + P2 , N ≔ N1 + N2
B
P1 B1,1 B1,2
P2 B2,1 B2,2
P1 P2
A1,1 · B1,1 + A1,1 · B1,2 +
M1 A1,1 A1,2 M1
A1,2 · B2,1 A1,2 · B2,2
M
A2,1 · B1,1 + A2,1 · B1,2 +
M2 A2,1 A2,2 M1
A2,2 · B2,1 A2,2 · B2,2
A N1 N2
N
Se define, 𝐶𝑖,𝑗 = ∑2𝑘=1 𝐴𝑖,𝑘
∙ 𝐵𝑘,𝑗
𝑀1 𝑥 𝑁1
𝑀1 𝑥 𝑁2
Donde: 𝑀2 𝑥 𝑁1
} 𝑆𝑜𝑛 𝑠𝑢𝑏𝑚𝑎𝑡𝑟𝑖𝑐𝑒𝑠 𝑑𝑒 𝑀𝑥𝑁
𝑀2 𝑥 𝑁2
Productos Notables con Matrices
• (𝑨 + 𝑩)𝟐 = (𝐴 + 𝐵) ∙ (𝐴 + 𝐵) = 𝐴 ∙ (𝐴 + 𝐵) + 𝐵 ∙ (𝐴 + 𝐵) = 𝑨𝟐 + 𝑨𝑩 + 𝑩𝑨 + 𝑩𝟐
• (𝑨 − 𝑩)𝟐 = (𝐴 − 𝐵) ∙ (𝐴 − 𝐵) = 𝐴 ∙ (𝐴 − 𝐵) + 𝐵 ∙ (𝐴 − 𝐵) = 𝑨𝟐 − 𝑨𝑩 − 𝑩𝑨 + 𝑩𝟐
• (𝑨 + 𝑩) ∙ (𝑨 − 𝑩) = 𝑨𝟐 − 𝑨𝑩 + 𝑩𝑨 − 𝑩𝟐
Matriz Traspuesta
Dada una matriz A = (ai,j) ∈ 𝑀𝑚𝑥𝑛, se llama traspuesta de A a la matriz At = (ai,j) ∈ 𝑀𝑛𝑥𝑚 definida por:
𝑖 ∈ [1,…,𝑛]
𝑎𝑖,𝑗 = 𝑎𝑗,𝑖 (𝑝𝑎𝑟𝑎 𝑡𝑜𝑑𝑜 𝑗 ∈ [1,…,𝑚] )
Obs:
a) Las filas de la matriz traspuesta son las columnas de la matriz inicial.
b) Las columnas de la matriz traspuesta son las filas de la matriz inicial.
Propiedades:
(1) (A + B)t = At + Bt , Ot = O , (-A)t = -(At)
(2) (λ · A)t = λ · (A)t
(3) (A · B)t = Bt · At
(4) (At)t = A
Se dice que una matriz cuadrada A ∈ 𝑀𝑛𝑥𝑛, es:
a. Simétrica: cuando se cumple que At = A
b. Antisimétrica: cuando se cumple que At = -A
➢ Para que sea antisimétrica la matriz debe tener en su diagonal todas las entradas nulas.
▪ Toda matriz A ∈ 𝑀𝑛𝑥𝑛 se puede escribir como A = A1 + A2. (descomposición única)
o Donde: A1 es simétrica y A2 es antisimétrica
Traza de una Matriz
Sea A una matriz cuadrada. Se define la traza tr(A) de la matriz A como la suma de todos los elementos de su diagonal.
Entonces, si A = (ai,j) es una matriz de tamaño nxn se tiene que: 𝑡𝑟(𝐴) = ∑𝑛𝑖=1 𝑎𝑖,𝑖 = 𝑎1,1 + 𝑎2,2 + ⋯ + 𝑎𝑛,𝑛
Propiedades:
1. tr(A + B) = tr(A) + tr(B)
2. tr(A · B) = tr(B · A)
3. tr(λ · A) = λ · tr(A)
4. tr(At) = tr(A)
Ecuaciones matriciales
𝑎1,1 𝑥1 + 𝑎1,2 𝑥2 + ⋯ + 𝑎1,𝑛 𝑥𝑛 = 𝑏1
𝑎 𝑥 + 𝑎2,2 𝑥1 + ⋯ + 𝑎2,𝑛 𝑥𝑛 = 𝑏2
Proposición: cada sistema lineal (𝑆) : 2,1 1 ⋱
⋮ ⋮ ⋮ ⋮
{𝑎𝑚,1 𝑥1 + 𝑎𝑚,2 𝑥1 + ⋯ + 𝑎𝑚,𝑛 𝑥𝑛 = 𝑏𝑛
es equivalente a la ecuación matricial
𝑎1,1 𝑎1,2 ⋯ 𝑎1,𝑛 𝑥1 𝑏1
𝑎2,1 𝑎2,2 ⋯ 𝑎2,𝑛 𝑥2 𝑏 2
( ) ( )
⋮ ⋮ ⋱ ⋮ × ⋮ = ( ⋮ ) ⇒ 𝐴𝑋 = 𝐵 ⇒ 𝑋 = 𝐴−1 ∙ 𝐵
𝑎𝑚,1 𝑎𝑚,2 ⋯ 𝑎𝑚,𝑛 𝑥𝑛 𝑏𝑚
𝐴 𝑋 𝐵
Matriz Identidad:
1 𝑠𝑖 𝑖 = 𝑗 1 ⋯ 0
Se define la matriz identidad de tamaño nxn a la matriz In = {δi,j} definida por δi,j = {0 𝑠𝑖 𝑖 ≠ 𝑗 𝐼𝑛 = ( ⋮ ⋱ ⋮)
0 ⋯ 1
Propiedad: para toda matriz A ∈ 𝑀𝑚𝑥𝑛, se cumple que Im · A = A · In = A
Matriz Invertible
Se dice que una matriz cuadrada A ∈ 𝑀𝑛𝑥𝑛 es invertible cuando existe una matriz B ∈ 𝑀𝑛𝑥𝑛 tal que A · B = B · A = In
Cuando es el caso; la matriz B es única y se le llama la inversa de A, y se denota como B = A-1.
Moraleja: Si la matriz A tiene una fila o una columna nula, entonces A no es invertible.
Obs: en el producto AB, si A tiene dos filas iguales o B tiene dos columnas iguales, A no es invertible, y en el otro caso, B no es invertible.
Propiedades de las Matrices Invertibles: Dadas A y B dos matrices invertibles;
(1) La matriz O no es invertible
(2) La matriz I es invertible, I-1 = I
𝟏
(3) Si λ ≠ 0, entonces λ · A es invertible, (λ · A)-1 = · A-1
𝛌
(4) El producto A · B es invertible, (A · B)-1 = B-1 · A-1
(5) La inversa de A es invertible, (A-1)-1 = A
(6) La traspuesta de A es invertible, (At)-1 = (A-1)t
Obs: Para verificar que B es la inversa de A se necesita verificar dos igualdades A · B = In y B · A = In.
Lema: Para todas matrices A, B ∈ 𝑀𝑛𝑥𝑛, se tiene que A · B = In si y solo si B · A = In.
Proposición: Todo sistema cuadrado A · X = B, cuya matriz de coeficientes A es invertible, se cumple que este sistema es compatible
determinado y Sol(S) = {A-1 · B}.
Obs: Cuando A no es invertible o no es cuadrada, NO se puede concluir nada.
Método para Calcular la Inversa de una Matriz
Dada una matriz A ∈ 𝑀𝑛𝑥𝑛
(1) Formar la matriz doble con la matriz A (izquierda) y la Identidad (derecha) (A | In)
(2) Aplicar el método de Escalerización de Rouché-Frobenius a la matriz doble (A | In) hasta que la parte izquierda esté en forma
escalerizada;
( A | In ) → ( E | B )
• Si la matriz E tiene n escalones, entonces A es invertible, y si además E está en forma reducida, se tiene que E=In y B=A-1.
• Si la matriz E tiene menos de n escalones, entonces A no es invertible.
Matrices Elementales
Proposición: Sea m ≥ 1, Para toda transformación elemental T (sobre matrices con m filas)
(1) Existe una matriz ET ∈ 𝑀𝑚𝑥𝑚 tal que T(A) = ET · A, para toda matriz A ∈ 𝑀𝑚𝑥𝑛.
(2) Además, la matriz E1 asociada a la transformación T está dada por; ET = T(Im).
Donde, ET se llama una matriz elemental.
Obs: una transformación elemental aplicada a una matriz A, es de la forma T(A) = E · A.
Donde E es la matriz elemental con la transformación elemental correspondiente.
Propiedad: Toda matriz elemental es invertible, y la inversa de cada matriz elemental es otra matriz elemental.
Propiedad: Sea A una matriz de tamaño mxn y A’ una forma escalerizada de A. Entonces, existe una secesión finita de E 1, E2, … , Ek
de matrices elementales tal que: A’ = Ek · … · E2 · E1 · A.
Corolario: Una matriz cuadrada A ∈ 𝑀𝑛𝑥𝑛 es invertible si y solo si es producto finito de matrices elementales: A = E1 · E2 · … · Ek
Determinantes
Matriz Adjunta: Sea A una matriz cuadrada de dimensión n ≥ 2. Dados índices i y j ∈ [1, … , n], se le llama matriz adjunta de A a la
matriz Ai,j (cuadrada) de dimensión n–1, obtenida eliminando la fila i y la columna j de A. Se denota como: Adj(A).
Definición (Determinante): El determinante |A| ∈ ℝ, se define por inducción sobre la dimensión de A de modo siguiente;
• Si n = 1 → |A| = a1,1 (la única entrada de la matriz A)
• Si n = 2 → |A| = ad – bc
• Si n ≥ 2 → |A| = ∑𝑛𝑖=1(−1)𝑖+1 ∙ 𝑎𝑖,1 ∙ |Adj(Ai,1 )|
= 𝑎1,1 ∙ |Adj(A1,1)|− 𝑎2,1 ∙ |Adj(A2,1 )| + ⋯ + (−1)n+1 ∙ 𝑎𝑛,1 ∙ |Adj(An,1 )|
Propiedad: Para toda matriz A cuadrada A ∈ 𝑀𝑛𝑥𝑛, con n ≥ 1
• |A| = ∑𝑛𝑖=1(−1)𝑖+𝑗 ∙ 𝑎𝑖,𝑗 ∙ |Adj(Ai,j )| → para cada índice de columna j ∈ [1, … , n]
• |A| = ∑𝑛𝑗=1(−1)𝑖+𝑗 ∙ 𝑎𝑖,𝑗 ∙ |Adj(Ai,j )| → para cada índice de columna i ∈ [1, … , n]
Propiedades:
Como el determinante no es una función lineal, en general; |A + B| ≠ |A| + |B|, |λ · A| ≠ λ · |A|
(1) Aditividad respecto a una fila
⋮ ⋮ ⋮ ⋮ ⋮ ⋮ ⋮ ⋮ ⋮
|𝑎1 + 𝑏1 𝑎2 + 𝑏2 ⋯ 𝑎𝑛 + 𝑏𝑛 | = |𝑎1 𝑎2 ⋯ 𝑎𝑛 | + |𝑏1 𝑏2 ⋯ 𝑏𝑛 |
⋮ ⋮ ⋮ ⋮ ⋮ ⋮ ⋮ ⋮ ⋮
(2) Homogeneidad respecto a una fila
⋮ ⋮ ⋮ ⋮ ⋮ ⋮
|α ∙ 𝑎1 α ∙ 𝑎2 ⋯ α ∙ 𝑎𝑛 | = αn ∙ |𝑎1 𝑎2 ⋯ 𝑎𝑛 | ⇒ det (α ∙ A) = |α ∙ A| = 𝛼𝑛 ∙ 𝐴
⋮ ⋮ ⋮ ⋮ ⋮ ⋮
(3) Intercambio de filas
𝑎1 𝑎2 ⋯ 𝑎𝑛 𝑏1 𝑏2 ⋯ 𝑏𝑛
⋮ ⋮ ⋮ ⋮ ⋮ ⋮
| ( )
𝑏1 𝑏2 ⋯ 𝑏𝑛 | = −1 ∙ |𝑎1 𝑎2 ⋯ 𝑎𝑛 |
⋮ ⋮ ⋮ ⋮ ⋮ ⋮
(4) Si existe al menos una fila nula ⇒ det(A) = |A| = 0
(5) Si existen 2 filas con las mismas entradas ⇒ det(A) = |A| = 0
(6) Si existen 2 filas que son proporcionales ⇒ det(A) = |A| = 0
(7) Si existe una fila que es combinación lineal de otras filas ⇒ det(A) = |A| = 0
(8) Si se realizan combinaciones lineales entre las filas, NO se afecta el determinante.
➢ Por lo tanto, si se escaleriza la matriz el determinante no se modifica.
(9) det(At) = |At| = |A| = det(A)
➢ Por lo tanto, todas las propiedades anteriores valen tanto para las filas como para las columnas.
(10) det(A · B) = det(A) · det(B)
(11) det(A-1) = det(A)-1 = det1(𝐴)
(12) Si det(A) ≠ 0 ⇔ A es invertible
(13) Determinante de una matriz triangular superior
𝛼1 ⋯ ∗
𝐴=( ⋮ ⋱ ⋮ ) ⇒ |A| = 𝛼1 ∙ … ∙ 𝛼𝑛
0 ⋯ 𝛼𝑛
➢ La propiedad también se cumple para una matriz triangular inferior y una matriz diagonal.
Condiciones para que una matriz sea Invertible: Sea A una matriz cuadrada tal que A ∈ 𝑀𝑛𝑥𝑛
• Existe una matriz B tal que A · B = In
• Existe una sucesión finita de matrices elementales (E1, E2, … , Ek) tal que A = E1 · E2 · … · Ek
• El rango(A) = n
• El det(A) ≠ 0
Regla de Cramer
Da una manera de clasificar y resolver sistemas de ecuaciones con determinantes.
(1) Si det(A) ≠ 0 ⇒ es invertible ⇒ el sistema A · X = b es compatible determinado, y la solución es
𝑥1
𝑥2 |𝐴𝑖 |
𝑋 = ( ) , 𝑋𝑖 =
⋮ |𝐴|
→ donde Ai es la matriz A donde en la columna “i” se aplica la columna b.
𝑥𝑛
(2) Si det(A) = 0 ⇒ no es invertible ⇒ el sistema A · X = b es incompatible, y además existe algún “i” tal que |Ai| ≠ 0.
Dependencia Lineal
Dado un conjunto A {a1, … , an} ℝm
• A es Linealmente Independiente (LI) si la ecuación λ1a1 + λ2a2 + … + λnan = 0 tiene una única solución (λ1 = λ2 = … = λn = 0).
• A es Linealmente Dependiente (LD) si la ecuación λ1a1 + λ2a2 + … + λnan = 0 tiene más de una solución.
Si existen λ1 , λ2 , … , λn NO todos nulos, tal que λ1a1 + λ2a2 + … + λnan = 0, A es LD.
Geometría
Definición: Dado n ≥ 1, se llama n-upla de reales a toda sucesión finita (x1, … , xn) donde x1, … , xn ∈ ℝ. Se dice que xi es la i-esima
componente de la n-upla. Se escribe ℝn el conjunto de las n-uplas de reales.
Se puede definir:
❖ Suma: (x1, … , xn) + (y1, … , yn) = (x1+y1, … , xn+yn)
❖ N-upla nula: → = (0, … , 0)
𝑂
❖ Opuesta: -(x1, … , xn) = (-x1, … , -xn)
❖ Producto de un número por una n-upla: λ · (x1, … , xn) = (λ · x1, … , λ · xn)
Propiedades de las n-uplas:
(1) (u + v) + w = u + (v + w) (6) 1 · u = u
(2) u + v = v + u (7) (-1) · u = -u
(3) u + → 𝑂
= →+u=u
𝑂
(8) (λ · μ) · u = λ · (μ · u)
(4) u + (-u) = (-u) + u = → 𝑂
(9) (λ + μ) · u = λ · u + μ · u
(5) → 𝑂
· u = →
𝑂
(10) λ · (u + v) = λ · u + λ · v
3
El espacio ℝ
El espacio ℝ3 se identifica como “espacio ambiental” que cuenta con 3 dimensiones, la cual es una terna de reales.
Cada 3-upla puede representar;
▪ un punto A ∈ ℝ3
▪ un vector u ∈ ℝ3 ( → 𝑢
)
Operaciones sobre ℝ 3 (operaciones geométricas sobre los puntos y los vectores)
• u+v (suma de 2 vectores)
• → = (0,0,0) (vector nulo)
𝑂
• -u (vector opuesto, cambiar el sentido del vector)
• λ·u (multiplicar un vector por un numero) (modifica la magnitud, y si es negativo, el sentido)
• A+u=B (suma de un punto más un vector = punto) (traslación)
• B – A = →AB (resta de dos puntos = vector) (construcción de un vector a partir de dos puntos)
Definición: (vector) Se define un vector como un segmento de recta orientado, que tiene magnitud, dirección y sentido.
o La magnitud de un vector es la distancia entre los extremos del segmento; Magnitud = d(A,B)
o La dirección de un vector es la recta a la cual pertenece.
o El sentido de un vector es hacia donde se dirige la flecha.
Vectores Colineales
Dos vectores u, v ∈ ℝ3 son colineales cuando existe un λ ∈ ℝ tal que u = λ · v o v = λ · u
Obs: el vector nulo es colineal a todo otro vector.
Obs: se dice que dos vectores son colineales cuando uno es múltiplo del otro, es decir; ambos tienen la misma dirección.
Puntos Alineados
Tres puntos A, B y C son alineados si cuando los vectores →AB y →AC son colineales.
Recta
Dados dos puntos A, B ∈ ℝ3 tales que A ≠ B, la recta R que pasa por A y B es el conjunto de los puntos X tales que A, B y X son
puntos alineados.
X ∈ ℝ ⇔ → y → son colineales.
AX AB
Ecuación Vectorial de la Recta R
𝑋 ∈ ℝ ⇔ 𝐗 = 𝐀 + 𝛌(𝐁 − 𝐀)
Ecuación Paramétrica de la Recta R
Escribiendo A = (a1, a2, a3) , B = (b1, b2, b3) y X = (x1, x2, x3)
𝒙𝟏 = 𝒂𝟏 + 𝛌(𝐛𝟏 − 𝐚𝟏 )
(𝑥1 , 𝑥2 , 𝑥3 ) ∈ ℝ ⇔ {𝒙𝟐 = 𝒂𝟐 + 𝛌(𝐛𝟐 − 𝐚𝟐 )
𝒙𝟑 = 𝒂𝟑 + 𝛌(𝐛𝟑 − 𝐚𝟑 )
Obs: el punto X = (x1, x2, x3) pertenece a la recta si y solo si el sistema es compatible determinado. Por lo tanto, como el sistema cuenta
con 3 ecuaciones y 1 incógnita, siempre es compatible determinado. Entonces el punto X pertenece a la recta cuando los valores de λ
son iguales en las 3 ecuaciones.
Definición: un vector director de una recta R es cualquier vector u de la forma u = →AB donde A, B ∈ R y A ≠ B.
Obs:
(1) Un vector director nunca es nulo.
(2) Todos los vectores directores de una misma recta son colineales entre sí.
(3) Si u es un vector director de R, entonces λ · u es un vector director de R para todo λ ≠ 0.
Obs: una recta también se puede definir a partir de un punto A y de un vector u ≠ 0.
Ecuación Vectorial : 𝐗= 𝐀+ 𝛌∙𝐮
𝒙𝟏 = 𝒂𝟏 + 𝛌 ∙ 𝐮𝟏
Ecuación Paramétrica : {𝒙𝟐 = 𝒂𝟐 + 𝛌 ∙ 𝐮𝟐
𝒙𝟑 = 𝒂𝟑 + 𝛌 ∙ 𝐮𝟑
Definición: dos rectas son paralelas cuando tienen los mismos vectores directores.
Obs:
(1) R // R’ ≺≝≻ dir(R) = dir(R’) ⇔ dir(R) ∧ dir(R’) ≠ 0
(2) Dos rectas paralelas que se encuentran en un punto son iguales.
Ecuación Implícita de la Recta R
La ecuación implícita surge de despejar λ de la ecuación paramétrica
𝒙𝟏 −𝒂𝟏 𝒙𝟐 −𝒂𝟐
=
𝒙𝟏 −𝒂𝟏 𝒙𝟐 −𝒂𝟐 𝒙𝟑 −𝒂𝟑 𝒖𝟏 𝒖𝟐
𝒖𝟏
= 𝒖𝟐
= 𝒖𝟑
⇒ { 𝒙𝟏 −𝒂 𝟏 𝒙𝟑 −𝒂𝟑
=
𝒖𝟏 𝒖𝟑
Obs:
(1) Para deducir una ecuación paramétrica de R a partir de la ecuación implícita, solo basta con resolver el sistema.
(2) Otro método para deducir una ecuación paramétrica de R a partir de la ecuación implícita consiste en hallar dos soluciones
distintas del sistema. A partir de dichas soluciones (que son 2 puntos distintos de R), se reconstruye fácilmente la ecuación
paramétrica.