RESUMEN ALGEBRA LINEAL
INGRESO IB
Temas
Algebra Lineal 2
1 Sistemas de ecuaciones lineales 2
1.1 Dos ecuaciones lineales con dos incógnitas 2
1.2 Metodo de eliminacion de Gauss-Jordan y gaussiana 3
2 Matrices 4
2.1 Definiciones de matrices 4
2.2 Operaciones y propiedades de las matrices 5
2.3 Matrices y sistemas de ecuaciones lineales 6
2.4 Matriz inversa, identidad, diagonal y triangular 7
3 Determinantes y rangos 9
3.1 Definiciones 9
3.2 Propiedades de los determinantes de una matriz 10
3.3 Método de la matriz adjunta para calculo de matriz inversa 11
3.4 Regla de Cramer 11
3.5 Rango de una matriz 12
3.6 Determinación del SEL por Teorema de Rouché-Fröbenius 12
3.7 Determinación del SEL por matriz inversa y determinantes 12
4 Autovalores, autovectores y diagonalización 12
4.1 Autovalores y autovectores 12
4.2 Propiedades de los autovalores y autovectores 14
4.3 Matrices semejantes y diagonalización 14
5 Espacios vectoriales 15
5.1 Definición 15
5.2 Subespacios vectoriales 15
5.3 Propiedades de los subespacios 15
5.4 Combinación lineal, espacio generado y conjunto generador 16
5.5 Independencia lineal 17
5.6 Bases y dimensión 17
5.7 Coordenadas y Cambio de bases 18
5.8 Espacio nulo, nulidad , imagen, espacio fila y espacio columna 19
6 Espacios vectoriales con producto interno 20
6.1 Bases ortonormales y proyecciones en R^n 20
6.2 Proceso de ortonormalizacion de Gram-Schmidt 21
6.3 Matriz ortogonal 22
7 Transformaciones lineales 23
Felipe Bellas Tolosa
Algebra Lineal
Ingreso Balseiro 1
7.1 Definición 23
7.2 Propiedades de las Transformaciones lineales : Núcleo e Imagen 23
7.3 Matriz asociada a una transformación lineal 24
7.4 Isomorfismo 25
7.5 Conceptos a tener en cuenta a la hora de hacer ejercicios 25
7.6 Aplicaciones geométricas de las transformaciones lineales 26
7.7 Relación entre transformaciones lineales y autovalores 28
8 Números complejos 28
8.1 Definición 28
8.2 Propiedades 29
8.3 Forma trigonométrica o polar 30
8.4 Forma exponencial o de Euler 30
8.5 Teorema de De Moivre 30
8.6 Raices n-ésimas 30
8.7 Logaritmo natural de un número complejo 31
Bibliografía: -Álgebra Lineal. Stanley Grossman
-Introducción al álgebra lineal. Howard Anton
- Apuntes teóricos cátedra AyGA UTN FRGP.
Algebra Lineal
1 Sistemas de ecuaciones lineales
1.1 Dos ecuaciones lineales con dos incógnitas
Considere el siguiente sistema de dos ecuaciones lineales con dos incógnitas x e y
donde 𝑎11, 𝑎12, 𝑎21, 𝑎22, 𝑏1 y 𝑏2 son números dados. Cualquier par de números (x,y) que
satisface el sistema de ecuaciones se denomina solución. Habrá que determinar si el sistema
tiene soluciones y de ser así, cuántas tiene.
Sistema compatible determinado (SCD): es aquel que tiene una única solución (figura a).
Sistema incompatible (SI): es aquel que no tiene solución (figura b).
Felipe Bellas Tolosa
Algebra Lineal
Ingreso Balseiro 2
Sistema compatible indeterminado (SCI): es aquel que tiene infinitas soluciones (figura c).
1.2 Metodo de eliminacion de Gauss-Jordan y gaussiana
Se describe un método para obtener todas las soluciones (si es que existen) de un sistema
de m ecuaciones con n incógnitas. Estos sistemas o bien tienen solución, tiene solución única o
un número infinito de soluciones.
Matrices y matriz de coeficientes
Para resolver los sistemas de ecuaciones es conveniente introducir el concepto de matriz,
que es un arreglo rectangular de números y, que simplifica la escritura de cada paso del
procedimiento.
Dado un sistema de ecuaciones
los coeficientes de las variables 𝑥1, 𝑥2 y 𝑥3 pueden escribirse como los elementos de una
matriz A, llamada matriz de coeficientes, escrita de la manera:
Esta es una matriz de 3x3, es decir, tiene 3 filas y 3 columnas. Definimos una matriz m x n
como la matriz que tiene m filas y n columnas.
Al usar la notación matricial, el sistema de ecuaciones puede escribirse como la matriz
aumentada:
Operaciones elementales por filas o renglones
Para resolver el sistema de ecuaciones, se aplican los siguientes procedimientos a las filas
de la matriz aumentada:
i) Multiplicar o dividir una fila por un número diferente de 0.
ii) Sumar un múltiplo de una fila a otra fila
iii) Intercambiar dos filas
Notación de operaciones elementales
1) 𝐹𝑖 → 𝑐. 𝐹𝑖 quiere decir reemplazar la fila i por esa misma fila i multiplicada por un
número c (distinto de 0).
2) 𝐹𝑗 → 𝐹𝑗 + 𝑐. 𝐹𝑖 quiere decir reemplazar la fila j por la suma de la fila j más la fila i
multiplicada por un número c (distinto de 0).
3) 𝐹 ↔ 𝐹 quiere decir intercambiar las filas i y j.
𝑖 𝑗
Felipe Bellas Tolosa
Algebra Lineal
Ingreso Balseiro 3
4) 𝐴 → 𝐵 indica que las matrices aumentadas A y B son equivalentes, por lo tanto,
tienen la misma solución.
Definición
Sistema de ecuaciones lineales inconsistentes: es aquel que no tiene solución.
Sistema de ecuaciones lineales consistente: es aquel que tiene al menos una solución.
Matriz en forma escalonada
Una matriz se encuentra en forma escalonada reducida por filas si se cumple:
● Todas las filas (si las hay) cuyos elementos sean todos 0 aparecen en la parte inferior
de la matriz.
● El primer número diferente de 0 (comenzando por la izquierda) en cualquier fila cuyos
elementos no todos son 0 es 1. Ese número se llamará principal y podría no ser 1.
● Si dos filas sucesivas con elementos distintos de 0, entonces el primer 1 en la fila de
abajo está más hacia la derecha que el primer 1 de la fila de arriba
Metodo de eliminacion gaussiana
Se reduce por fila la matriz de coeficientes a la forma escalonada reducida por renglones,
se despeja el valor de la última incógnita y después se usa la sustitución hacia atrás para
calcular las demás incógnitas.
Ejemplo
Se encuentra que 𝑥3 = 3 y luego se sustituye en las otras ecuaciones para obtener las
demás incógnitas.
Método de eliminación de Gauss Jordan
Se reduce por fila la matriz de coeficientes a la forma escalonada de manera que los
elementos de la matriz de coeficientes sean todos 1.
Sistema de ecuaciones lineales homogéneo
Un sistema de ecuaciones lineales homogéneo (SELH) es aquel en el cual los términos
independientes de las ecuaciones son 0, como se muestra :
Una solución a este tipo de sistemas es (0,0,...,0) denominada solución trivial, por lo tanto,
los SELH son siempre compatibles.
Teorema
Sea un sistema homogéneo de m x n donde m es la cantidad de ecuaciones y n la cantidad
de incógnitas. El sistema homogéneo tiene un número infinito de soluciones si 𝑛 > 𝑚.
Felipe Bellas Tolosa
Algebra Lineal
Ingreso Balseiro 4
2 Matrices
2.1 Definiciones de matrices
Una matriz es un arreglo rectangular de m x n números dispuestos en m filas y n columnas.
1) Matriz cuadrada: tiene misma cantidad de filas que de columnas, es decir, tiene m =
n.
2) Matriz rectangular: matriz con m filas y n columnas donde m≠n.
3) Matriz nula: aquella matriz de m x n en el que todas las componentes son 0.
4) Matriz identidad: aquella matriz en el que todos los elementos son 0, excepto los de
la diagonal que valen todos 1
5) Localización de componentes de una matriz: se utiliza la notación ij para localizar
un coeficiente 𝑎𝑖𝑗 en una matriz donde i es el número de fila y j es el número de
columna.
Ejemplo: dada la matriz
se pide encontrar 𝑎12. La notación para ubicar al componente indica que i=1 y que j=2. Por
ende el coeficiente buscado está en la primera fila y en la segunda columna, siendo 𝑎12 = 6.
2.2 Operaciones y propiedades de las matrices
Suma de matrices
Sean A(𝑎𝑖𝑗) y B(𝑏𝑖𝑗) dos matrices de m x n, entonces su suma está dada por:
Teorema
Sean A, B y C tres matrices de m x n y sean α y β dos escalares. Entonces
I) 𝐴 + 0 = 𝐴
II) 0.A = 0
III) 𝐴 + 𝐵 = 𝐵 + 𝐴…………………………....Ley conmutativa para la suma de matrices
IV) (𝐴 + 𝐵) + 𝐶 = 𝐴 + (𝐵 + 𝐶)……..Ley asociativa para la suma de matrices
V) α. (𝐴 + 𝐵) = α. 𝐴 + α. 𝐵…………...Ley distributiva de multiplicación por un escalar
VI) 1. 𝐴 = 𝐴
VII) (α + β). 𝐴 = α. 𝐴 + β. 𝐴
Transposición de matrices
𝑡
La matriz transpuesta 𝐴 de la matriz A es la matriz que se obtiene permutando filas por
columnas o viceversa.
Felipe Bellas Tolosa
Algebra Lineal
Ingreso Balseiro 5
Nótese que los elementos de la diagonal son los que quedan fijos
Propiedades de la transposición
𝑡 𝑡 𝑡
(𝐴 + 𝐵) = 𝐴 + 𝐵 ………………………Transposición de una suma
𝑡 𝑡
(𝑐. 𝐴 ) = 𝑐. 𝐴 ……………………………..Transposición de un producto escalar
𝑡 𝑡 𝑡
(𝐴. 𝐵) = 𝐵 . 𝐴 ……………………………Transposición de un producto matricial
Producto entre dos matrices
Sea A=𝑎𝑖𝑗 una matriz de m x n y B=𝑏𝑖𝑗 una matriz de n x p. Entonces el producto de A y B
es una matriz m x p, C=𝑐𝑖𝑗 donde
𝑐𝑖𝑗 = (𝑓𝑖𝑙𝑎 𝑖 𝑑𝑒 𝐴). (𝑐𝑜𝑙𝑢𝑚𝑛𝑎 𝑗 𝑑𝑒 𝐵)
Si el número de columnas de la matriz A es igual al número de filas de la matriz B,
entonces se dice que A y B son compatibles bajo la multiplicación.
Propiedades del producto de matrices
𝐴. (𝐵. 𝐶) = (𝐴. 𝐵). 𝐶……………Propiedad asociativa de la multiplicación entre matrices
𝐴. 𝐼 = 𝐼. 𝐴 ………………………Elemento neutro de la multiplicación entre matrices
𝐴. (𝐵 + 𝐶) = 𝐴. 𝐵 + 𝐴. 𝐶……..Propiedad distributiva
(𝐴 + 𝐵). 𝐶 = 𝐴. 𝐶 + 𝐵. 𝐶……..Propiedad distributiva
𝐴.N = N = N.A……………………..Multiplicación por la matriz nula
A.B≠B.A………………………...No se cumple la propiedad conmutativa
Potenciación de una matriz cuadrada
𝑘
𝐴 = multiplicar A k veces.
Aplicación: Cadena de Markov
Una cadena de Markov es un proceso estocástico(relativo al azar) a tiempo discreto sin
memoria, es decir, que el futuro del proceso únicamente depende del estado actual en el que se
encuentre, sin importar cómo se llegó allí.
𝑥𝑘+1 = 𝑃𝑥𝑘
P = matriz de transición (la suma de sus columnas es igual a 1).
𝑥𝑘 = representado el estado en el tiempo actual
𝑥𝑘+1 = representa el estado en el tiempo siguiente
ADEUDO ENTENDER EL TEMA
2.3 Matrices y sistemas de ecuaciones lineales
Dado un sistema de ecuaciones lineales de m ecuaciones con n incógnitas
Felipe Bellas Tolosa
Algebra Lineal
Ingreso Balseiro 6
su matriz de coeficientes será
También pueden escribirse
Al ser A una matriz de m x n, y el vector x es una matriz de n x 1, el producto matricial
A.x es una matriz de m x 1. Por lo tanto un sistema de ecuaciones lineales se puede representar
matricialmente como
𝐴.x = b
También podemos decir que A es la matriz de coeficientes, x es la matriz columna de
incógnitas y b es la matriz columna de los términos independientes.
2.4 Matriz inversa, identidad, diagonal y triangular
Matriz identidad
La matriz identidad 𝐼𝑛 de n x n (siempre cuadrada) es una matriz de n x n cuyos elementos
de la diagonal principal son iguales a 1 y todos los demás son 0. Esto quiere decir que la
matriz tendrá valores 1 cuando i=j y tendrá valores 0 cuando i ≠ 𝑗.
Se muestran dos matrices identidad para pueda notarse con facilidad:
Teorema 1
Sea A una matriz cuadrada de n x n, entonces
𝐴. 𝐼𝑛 = 𝐼𝑛. 𝐴 = 𝐴
Esto quiere decir que 𝐼𝑛 conmuta con cualquier matriz de n x n y la deja sin cambio
después de la multiplicación por derecha o por la izquierda.
Inversa de una matriz
Felipe Bellas Tolosa
Algebra Lineal
Ingreso Balseiro 7
Sean A y B dos matrices cuadradas de n x n. Suponga que
𝐴. 𝐵 = 𝐵. 𝐴 = 𝐼
−1
Entonces B es la inversa de A y se denota por 𝐴 . Entonces se tiene
−1 −1
𝐴. 𝐴 = 𝐴 .𝐴 = 𝐼
Si A tiene inversa, entonces se dice que A es invertible o regular.
Una matriz cuadrada que no es invertible se denomina singular o no invertible.
Teorema 2
Si una matriz A es invertible, entonces su inversa es única.
Demostración: Suponga que B y C son dos inversas de A tal que 𝐴. 𝐵 = 𝐵. 𝐴 = 𝐼 y
𝐴. 𝐶 = 𝐶. 𝐴 = 𝐼. Entonces
𝐵 = 𝐵. 𝐼 = 𝐵(𝐴. 𝐶) = (𝐵. 𝐴). 𝐶 = 𝐼. 𝐶 = 𝐶
Propiedades de las matrices invertibles
Sean A y B matrices cuadradas de n x n
−1 −1 −1
(𝐴 ) = 𝐴………………Si A es invertible. 𝐴 también es invertible.
−1 1 −1
(𝑐. 𝐴) = 𝑐
. 𝐴 ………...Si A es invertible y c es un escalar no nulo, c.A es invertible.
−1 −1 −1
(𝐴. 𝐵) = 𝐵 . 𝐴 ……...Si A y B son invertibles, A.B es invertible
𝑡 −1 −1 𝑡 𝑡
(𝐴 ) = (𝐴 ) …………Si A es invertible, 𝐴 es invertible
𝑘 −1 −1 𝑘 𝑘
(𝐴 ) = (𝐴 ) ………...Si A es invertible, 𝐴 es invertible. Siendo k un número natural.
Teorema 3
Si la matriz A es invertible, el sistema de ecuaciones A.x=b tiene una única solución que
−1
está dada por x=𝐴 .b
Procedimiento para encontrar matriz inversa
1) Se escribe la matriz aumentada (A|I).
2) Se utiliza la reducción por filas para poner la matriz A como una matriz identidad I.
3) Se decide si A es invertible. Hay dos casos posibles.
a) Si la forma escalonada reducida por filas (Gauss-Jordan) de A es la matriz identidad I,
−1
entonces 𝐴 es la matriz que se forma a la derecha de la barra vertical.
b) Si la reducción de A conduce a un renglón de ceros a la izquierda de la barra vertical,
entonces A no es invertible.
Teorema 4
Sea A una matriz de 2 x 2 dada por
y su determinante está dado por
𝐷𝑒𝑡𝑒𝑟𝑚𝑖𝑛𝑎𝑛𝑡𝑒 𝑑𝑒 𝐴 = 𝑑𝑒𝑡 𝐴 = 𝑎11. 𝑎22 − 𝑎12. 𝑎21
Entonces
i) A es invertible (regular) si y sólo si 𝑑𝑒𝑡 𝐴 ≠ 0.
ii) Si 𝑑𝑒𝑡 𝐴 ≠ 0, entonces
Felipe Bellas Tolosa
Algebra Lineal
Ingreso Balseiro 8
Matriz diagonal
Una matriz cuadrada de n x n es diagonal si todos los elementos fuera de la diagonal
principal son 0.
Ejemplo:
La traza de una matriz es la suma de los elementos de la diagonal principal. En el caso
del ejemplo la traza sería 2+3+4=9.
Matriz triangular
Una matriz se denomina triangular superior si todos sus elementos abajo de la diagonal
principal son 0. Por ejemplo:
Una matriz se denomina triangular inferior si todos sus elementos arriba de la diagonal
principal son 0. Por ejemplo:
Matriz elemental
Una matriz (cuadrada) E de n x n se denomina matriz elemental si se puede obtener a
partir de la matriz identidad 𝐼𝑛 de n x n a partir de una sola operación elemental.
Ejemplo:
Teorema de las matrices elementales
Toda matriz elemental E es invertible. El inverso de una matriz elemental es una matriz
del mismo tipo.
Matriz simétrica
𝑡
Se cumple que 𝐴 = 𝐴 .
Matriz antisimétrica
Felipe Bellas Tolosa
Algebra Lineal
Ingreso Balseiro 9
𝑡
Se cumple que 𝐴 =− 𝐴 . Todos los elementos de la diagonal deben ser 0 para que se
cumpla.
3 Determinantes y rangos
3.1 Definiciones
La función determinante asigna a cada matriz cuadrada A un único número real.
Determinante de una matriz 1 x 1.
Si 𝐴 = [𝑎11], se define det (A)=𝑎11.
Determinante de una matriz 2 x 2
Si A está dada por
se define det (A)=𝑎11. 𝑎22 − 𝑎12. 𝑎21.
Determinante de una matriz n x n
Cuando 𝑛 > 2 se usa la regla de Laplace. Observemos la siguiente matriz de 3 x 3.
Para calcular el determinante es importante determinar los cofactores 𝑐𝑖𝑗. Estos se calculan
de la siguiente manera:
El término (-1) está siempre elevado a la suma de la fila i y la columna j donde se calcula el
cofactor 𝑐𝑖𝑗. Por ejemplo, el cofactor 𝑐11 es el resultado de eliminar la fila i=1 y la columna j=1
de manera que quede una matriz cuadrada de orden 2 x 2. Una vez obtenida la matriz de 2 x 2,
𝑖+𝑗 1+1
se calcula su determinante y se multiplica por (− 1) , que en este caso sería (− 1) = 1.
Finalmente para obtener el determinante de A, se multiplica cada cofactor 𝑐𝑖𝑗 por el factor
𝑎𝑖𝑗 correspondiente.
Teorema
Sea A una matriz es triangular superior o inferior o es una matriz diagonal. Entonces
𝑑𝑒𝑡 (𝐴) = 𝑎11. 𝑎22. 𝑎33.... 𝑎𝑛𝑛
Felipe Bellas Tolosa
Algebra Lineal
Ingreso Balseiro 10
Esto implica que el determinante es el producto de los elementos de la diagonal.
3.2 Propiedades de los determinantes de una matriz
Sean A y B matrices cuadradas de n x n:
𝑡
1) det(𝐴 ) = det(A)
𝑛
2) 𝑑𝑒𝑡(𝑘. 𝐴) = 𝑘 . 𝑑𝑒𝑡(𝐴)
3) 𝑑𝑒𝑡(𝐴. 𝐵) = 𝑑𝑒𝑡(𝐴). 𝑑𝑒𝑡(𝐵) → El determinante del producto es el producto de
determinantes.
−1 1
4) 𝑑𝑒𝑡(𝐴 ) = 𝑑𝑒𝑡(𝐴)
→ Si la matriz A es invertible, el determinante de la inversa es
su inverso multiplicativo.
5) El determinante de una matriz con alguna fila o columna de ceros es 𝑑𝑒𝑡(𝐴) = 0.
6) Si se cambia el orden de una fila o una columna, el determinante cambia de signo tal
que 𝑑𝑒𝑡(𝐵) =− 𝑑𝑒𝑡(𝐴).
7) Si se le reemplaza a A una fila o columna por la suma de esta con otra línea de A
paralela a ella multiplicado por un 𝑘 ≠ 0, el determinante de la nueva matriz es igual
al de A tal que 𝑑𝑒𝑡(𝐵) = 𝑑𝑒𝑡(𝐴).
8) Si A es una matriz triangular entonces 𝑑𝑒𝑡(𝐴) = 𝑎11. 𝑎22. 𝑎33... 𝑎𝑛𝑛.
3.3 Método de la matriz adjunta para calculo de matriz inversa
−1
Otra forma de calcular la matriz inversa 𝐴 de una matriz cuadrada A de n x n es el
método de la matriz adjunta que se denota como 𝑎𝑑𝑗 (𝐴).
Pasos para calcular la matriz adjunta
1) Se calculan los cofactores 𝑐𝑖𝑗 de una matriz A cuadrada de n x n.
2) Se arma una matriz C con dichos cofactores ordenándolos como indica su subíndice ij
en la nueva matriz C.
𝑡
3) Se transpone la matriz C para obtener la matriz adjunta 𝐶 = 𝑎𝑑𝑗 (𝐴).
4) Se calcula el determinante de la matriz original A.
−1
5) Se calcula la matriz inversa 𝐴 con la siguiente expresión:
con 𝑑𝑒𝑡(𝐴) ≠ 0.
3.4 Regla de Cramer
Este método permite resolver sistemas de ecuaciones de n ecuaciones con n incógnitas.
Dado un SEL de n ecuaciones con n incógnitas de la forma:
que vimos que podía escribirse de la forma A.x=b.
Felipe Bellas Tolosa
Algebra Lineal
Ingreso Balseiro 11
−1
Se había visto que si 𝑑𝑒𝑡(𝐴) ≠ 0, el sistema tiene una única solución dada por x=𝐴 .b.
Se verá que la regla de Cramer permite resolver el SEL sin necesidad realizar métodos de
eliminación o encontrando la matriz inversa.
Llamemos al 𝑑𝑒𝑡(𝐴) = 𝐷. Si reemplazamos cada columna de A por b, obtenemos nuevas
matrices de la forma:
Llamaremos 𝑑𝑒𝑡(𝐴1) = 𝐷2 al determinante de la matriz 𝐴1, 𝑑𝑒𝑡(𝐴2) = 𝐷2 al determinante
de la matriz 𝐴2 y 𝑑𝑒𝑡(𝐴𝑛) = 𝐷𝑛 al determinante de la matriz 𝐴𝑛.
Teorema
Sea A una matriz cuadrada de n x n con 𝑑𝑒𝑡(𝐴) ≠ 0. Entonces la solución única al SEL
dado por A.x=b está dada por:
𝐷1 𝐷2 𝐷𝑛
𝑥1 = 𝐷
; 𝑥2 = 𝐷
; ................; 𝑥𝑛 = 𝐷
o
𝐷1 𝐷2 𝐷𝑛
𝑥1 = 𝑑𝑒𝑡(𝐴)
; 𝑥2 = 𝑑𝑒𝑡(𝐴)
; ................; 𝑥𝑛 = 𝑑𝑒𝑡(𝐴)
3.5 Rango de una matriz
𝑛𝑥𝑛
El rango de una matriz A ∈ ℜ , denotado como Rg(A), es la cantidad de filas no nulas
de una matriz triangular. Se busca hacer 0 todos los elementos debajo de la diagonal principal
mediante operaciones elementales. Puede usarse el método de eliminación gaussiana.
Ejemplo
El rango de esta matriz es rg (A)=2, ya que la matriz triangular final tiene 2 filas no nulas.
3.6 Determinación del SEL por Teorema de Rouché-Fröbenius
El teorema permite clasificar un SEL de la forma A.x=b y se basa en el análisis de los
rangos de las matrices de coeficientes y la aumentada.
Sea A la matriz de coeficientes y [A|b] la matriz aumentada se clasifica a los sistemas
según:
● Si Rg(A)=Rg(A|b)⇒ SEL compatible
i) Si 𝑅𝑔(𝐴) = 𝑐𝑎𝑛𝑡𝑖𝑑𝑎𝑑 𝑑𝑒 𝑖𝑛𝑐ó𝑔𝑛𝑖𝑡𝑎𝑠 = 𝑛 → SEL compatible determinado.
ii) Si 𝑅𝑔(𝐴) < 𝑐𝑎𝑛𝑡𝑖𝑑𝑎𝑑 𝑑𝑒 𝑖𝑛𝑐ó𝑔𝑛𝑖𝑡𝑎𝑠 = 𝑛 → SEL compatible indeterminado.
● Si 𝑅𝑔(𝐴) ≠ 𝑅𝑔(𝐴|b) → SEL incompatible
Felipe Bellas Tolosa
Algebra Lineal
Ingreso Balseiro 12
3.7 Determinación del SEL por matriz inversa y determinantes
−1 −1
i) Si 𝑑𝑒𝑡(𝐴) ≠ 0 ↔ ∃𝐴 → x=𝐴 .b → 𝑆𝐸𝐿𝐶𝐷.
−1
ii) Si 𝑑𝑒𝑡(𝐴) = 0 ↔ No existe matriz inversa 𝐴 → 𝑆𝐸𝐿𝐶𝐼 𝑜 𝑆𝐸𝐿𝐼.
−1
iii) Si 𝐴.x=N y 𝑑𝑒𝑡(𝐴) = 0 ↔ No existe matriz inversa 𝐴 → 𝑆𝐸𝐿𝐶𝐼.
4 Autovalores, autovectores y diagonalización
4.1 Autovalores y autovectores
𝑛
Si A es una matriz de n x n, entonces se dice que un vector diferente de cero v en ℜ es un
autovector (o eigenvector) de A si A.v es un múltiplo escalar de v, es decir,
A.v=λ.v
para algún escalar λ. El escalar λ se denomina autovalor (o eigenvalor) de la matriz A y se
dice que v es un autovector (o eigenvector) correspondiente a λ.
Podemos reescribir la ecuación anterior como
(A-λ.I).v=0
El sistema tendría una solución trivial si v=0, pero esto no cumple el enunciado que dice
que v≠0. Si det (A-λ.I)≠0 el sistema tiene una única solución, que es la trivial. Por ende
debemos imponer que
𝑑𝑒𝑡(A-λ.I)=0
para que el SEL sea compatible indeterminado. A la ecuación anterior se la conoce como
ecuación característica de A y los valores de λ que la satisfacen son los autovalores de A. Al
desarrollar el determinante dado, se forma un polinomio del tipo
p(λ)=𝑑𝑒𝑡(A-λ.I)
que se denomina polinomio característico de A.
La matriz A tendrá tantos autovalores como dimensiones dim(A) tenga la matriz A. Si A es
una matriz de 3x3, tendrá 3 valores.
Multiplicidad algebraica de un autovalor
Es la cantidad de veces que se repite un autovalor λ𝑖. Se denota como 𝑚𝑎( λ𝑖)
Multiplicidad geométrica de un autovalor
Es la cantidad de autovectores linealmente independientes asociados a cada autovalor λ𝑖.
Se denota como 𝑚𝑔(λ𝑖) y se cumple que
𝑚𝑔(λ𝑖)=dim(𝐸λ )
𝑖
donde 𝐸 es el autoespacio generado por λ𝑖.
λ𝑖
Siempre se cumple la siguiente expresión para cualquier autovalor λ𝑖:
1 ≤ 𝑚𝑔(λ𝑖) ≤ 𝑚𝑎(λ𝑖)
Dependencia e independencia lineal
Se dice que v es una combinación lineal de vectores A de la forma
Felipe Bellas Tolosa
Algebra Lineal
Ingreso Balseiro 13
si v puede obtenerse mediante
Linealmente independiente: se cumple que es posible hallar el vector 0 de la forma
únicamente si los escalares λ𝑖 son todos cero.
Linealmente dependiente: se cumple si la combinación lineal igualada al vector 0 es
posible con algún λ𝑖 ≠ 0.
Espectro de una matriz: es el conjunto de los autovalores
Conjunto de autovectores: estos deberán ser linealmente independientes. Para verificar que
sean LI se arma una matriz cuya columna sean los autovectores y se aplican operaciones
elementales llevándola a una matriz asociada triangular y se verifica que no haya filas nulas.
Siendo la base de vectores un conjunto de vectores a partir del cual se pueden encontrar
todos los demás.
4.2 Propiedades de los autovalores y autovectores
Sea λ un autovalor de A asociado al autovector v y sea α un escalar:
1) α. λ es un autovalor de α.A con autovector v.
−1 −1
2) Si A es regular, entonces λ es un autovalor de 𝐴 con autovector v.
3) A es regular, si y sólo si ninguno de sus autovalores es 0.
4) A es singular, si y sólo si existe un autovalor 0.
𝑘 𝑘
5) λ es autovalor de 𝐴 con autovector v y λ ∈ ℜ.
𝑡 𝑡
6) λ es autovalor de 𝐴 (A y 𝐴 tienen los mismos valores).
7) Si A es triangular, sus autovalores son los elementos de la diagonal principal.
𝑡
8) Si A es simétrica (A=𝐴 ), con elementos reales, entonces sus autovalores son números
reales y los autovectores (asociados a diferentes autovalores) son ortogonales.
4.3 Matrices semejantes y diagonalización
Matrices semejantes
Se dice que dos matrices A y B de n x n son semejantes si existe una matriz invertible C de
n x n tal que
−1
𝐵 = 𝐶 . 𝐴. 𝐶
o también, si multiplicamos por C a la izquierda en ambos miembros, se cumple
𝐶. 𝐵 = 𝐴. 𝐶
que implica que A y B representan la misma transformación lineal.
Teorema
Felipe Bellas Tolosa
Algebra Lineal
Ingreso Balseiro 14
𝑛𝑥𝑛 𝑛𝑥𝑛
Si A∈ ℜ y sea B∈ ℜ son semejantes, entonces A y B tienen la misma ecuación
característica, el mismo polinomio característico y por ende, los mismos autovalores.
Matriz diagonalizable
Una matriz A de n x n es diagonalizable si existe una matriz diagonal D tal que A es
semejante a D tal que
−1
𝐷 = 𝐶 . 𝐴. 𝐶 𝑜 𝐶. 𝐷 = 𝐴. 𝐶
Una matriz es diagonalizable si y sólo si las multiplicadores algebraicas y geométricas
coinciden para cada autovalor λ𝑖 tal que
𝑚𝑎(λ𝑖) = 𝑚𝑔(λ𝑖)
Teorema
Una matriz A de n x n es diagonalizable si y sólo si tiene n autovectores . En tal caso, la
matriz diagonal D semejante a A está dada por una matriz cuya diagonal son los autovalores
de A.
Corolario: Si la matriz A de n x n tiene n autovalores diferentes, entonces A es
diagonalizable.
La diagonal D está formada por cada autovalor λ𝑖 y cada columna de C corresponde a cada
𝑣𝑖. Los autovectores tienen que estar en la misma columna C que en la columna D donde se
encuentra su autovalor correspondiente.
Propiedades
1) det(D)=det(A)
𝑘 𝑘 −1
2) Si k∈ 𝑁, 𝐴 = 𝐶. 𝐷 . 𝐶 . Donde la matriz diagonal elevada a la potencia k, es
simplemente los términos de la diagonal elevados a la k.
5 Espacios vectoriales
5.1 Definición
Un espacio vectorial V es un conjunto de objetos, denominados vectores, junto con dos
operaciones binarias llamadas suma “+” o ley de composición interna y una multiplicación
por un escalar “.” denominada ley de composición externa, y además existe un conjunto K
que tenga estructura de cuerpo ( por ejemplo: el conjunto de números reales o complejos) que
termina de formar la cuaterna (V, S, +, ,). El espacio vectorial debe satisfacer diez axiomas.
Axiomas: sea V un espacio vectorial, sean u, v y w ∈ 𝑉 y sean α y β escalares ∈ 𝐾.
1) u + v = v + u
2) (u + v) + w = u +(v + w)
3) 0 + u = u + 0 = u
4) -u + u = u + (-u) = 0
5) (α + β).u = α.u + β.u
6) α.(u + v) = α.u + α.v
7) α. (β.u) = (α. β).u
8) 1.u = u
9) Ley de composición interna: u, v ∈ 𝑉 ⇒u + v ∈ 𝑉.
10)Ley de composición externa: α ∈ 𝐾, u ∈ 𝑉 ⇒ (α.u) ∈ 𝑉
Felipe Bellas Tolosa
Algebra Lineal
Ingreso Balseiro 15
Si un conjunto V viola aunque sea un axioma, este no es un espacio vectorial.
5.2 Subespacios vectoriales
Se dice que S es un subespacio vectorial de V si S es un subconjunto no vacío de V, y S es
un espacio vectorial, junto con las operaciones de suma entre vectores y multiplicación por un
escalar definidas para V. Además existe el conjunto cuerpo K que forma la cuaterna dada por
(S, K ,+, .). El subespacio vectorial debe satisfacer las siguientes condiciones:
1) Todo subespacio vectorial de V contiene al 0.
2) Ley de composición interna u, v ∈ 𝑆 ⇒ u + v ∈ 𝑆
3) Ley de composición externa α ∈ 𝐾, u ∈ 𝑆 ⇒ (α.u) ∈ 𝑆.
5.3 Propiedades de los subespacios
Sean U y W dos subespacios del mismo espacio vectorial V:
1) Sea U = gen {𝑢1, 𝑢2,.., 𝑢𝑛} y W = gen {𝑤1, 𝑤2,.., 𝑤𝑛}, entonces
U + W = gen {𝑢1, 𝑢2,.., 𝑢𝑛,𝑤1, 𝑤2,.., 𝑤𝑛}
donde {𝑢1, 𝑢2,.., 𝑢𝑛,𝑤1, 𝑤2,.., 𝑤𝑛} es el conjunto generador de la suma que puede ser
LI o LD. Si es LI se encontró una base de la suma. Si es LD podemos extraer una base
de la suma eliminando los vectores que sobran.
2) Teorema de la dimensión de la suma:
𝑑𝑖𝑚(𝑈 ⊕ 𝑊) = 𝑑𝑖𝑚(𝑈) + 𝑑𝑖𝑚(𝑊) − 𝑑𝑖𝑚(𝑈⋂ 𝑊)
3) Suma directa: Es suma directa si U ⋂W ={0}, es decir, la intersección de los
subespacios es el vector nulo 0. Se denota como U ⊕W y se cumple lo siguiente
𝑑𝑖𝑚(𝑈 ⊕ 𝑊) = 𝑑𝑖𝑚(𝑈) + 𝑑𝑖𝑚(𝑊).
5.4 Combinación lineal, espacio generado y conjunto generador
Combinación lineal
Sean v1, v2,..vn vectores de un espacio vectorial V. Entonces cualquier vector de la forma
𝑎1.v1 + 𝑎2.v2 + … + 𝑎𝑛.vn
donde 𝑎1, 𝑎2,.., 𝑎𝑛 son escalares se denomina combinación lineal de v1, v2,..., vn.
Generadores y conjunto generador
El subespacio S de todas las combinaciones lineales de n vectores de un subconjunto A, de
un espacio vectorial V, se llama subespacio generado por A. Es decir ∨ u ∈ 𝑆 y siendo el
subconjunto A= {v1,v2,...,vn}se verifica que
u = 𝑎1.v1 + 𝑎2.v2 + … + 𝑎𝑛.vn
Se dice que el subconjunto A es un conjunto generador de S, ya que a través de todas las
combinaciones lineales posibles, genera todos los elementos de S. Es decir:
S = gen {v1,v2,...,vn}
Se muestra un diagrama de subconjuntos donde V es el espacio vectorial, S es el subespacio
y A es el subconjunto generador.
Felipe Bellas Tolosa
Algebra Lineal
Ingreso Balseiro 16
Determinación del conjunto generador
Se quiere saber si un conjunto de vectores A={v1,v2,...,vn} es realmente un conjunto
generador de un subespacio S. Se deben seguir los siguientes pasos:
1) Igualar la combinación lineal de A con ciertos parámetros escalares a la expresión
general de subespacio⇒ (𝑥, 𝑦, 𝑧) = α.v1+ β.v2... + γ.vn. Cuando se realiza la
igualdad de vectores recordar que x, y y z son datos y no incognitas!!
2) Si se obtienen valores de los parámetros escalares (pueden ser genéricos) y satisfacen
la ecuación, entonces el conjunto A es un conjunto generador.
5.5 Independencia lineal
Ya se ha visto la definición de combinación lineal así como de dependencia e
independencia lineal. Ahora se enumeran una serie de definiciones y teoremas que ayudan a
identificar fácilmente estos conceptos.
Teorema 1
𝑚
Un conjunto de n vectores en ℜ es siempre linealmente dependiente si n > 𝑚. Esto viene
del teorema de los SEL homogéneos (buscar en principio de apunte).
Definición
𝑛
Un conjunto de vectores linealmente independientes en ℜ contiene como máximo n
vectores.
Teorema 2
𝑛
Sean v1,v2,...,vn, n vectores en ℜ y sea A una matriz de n x n cuyas columnas sean los
vectores v1,v2,...,vn. Entonces los vectores v1,v2,...,vn son linealmente independientes si y
sólo si la única solución al sistema homogéneo A.x = 0 es x = 0. También puede decirse que se
cumple si el rango de la matriz es igual al número de vectores para que estos sean LI.
Teorema 3
Sea A una matriz de n x n. Entonces 𝑑𝑒𝑡(𝐴) ≠ 0 si y sólo si las columnas de A son
𝑡
linealmente independientes. También aplica a los renglones de A ya que 𝑑𝑒𝑡(𝐴) = 𝑑𝑒𝑡(𝐴 ).
5.6 Bases y dimensión
Base
Sea V un espacio vectorial. Decimos que subconjunto de vectores B = {𝑣1, 𝑣2,.., 𝑣𝑛} es una
base de V si y sólo si
● B={𝑣1, 𝑣2,.., 𝑣𝑛} es linealmente independiente
● B={𝑣1, 𝑣2,.., 𝑣𝑛} es generador de V.
Base canónica
Felipe Bellas Tolosa
Algebra Lineal
Ingreso Balseiro 17
Es un conjunto E en el que cada vector aporta únicamente un único valor ( valor 1) para la
combinación lineal
Por el Teorema 3 de la sección 5.4 el determinante de la matriz conformada por cada 𝑒𝑖
como columna debe ser distinto de 0 ya que las columnas son linealmente independientes.
Dimensión
Es la cantidad de vectores de la base B y se denota como dim (B).
Consideraciones
● Si S es un subespacio del espacio de dimensión finita V, entonces 𝑑𝑖𝑚(𝑆) ≤ 𝑑𝑖𝑚(𝑉).
● Si 𝑑𝑖𝑚(𝑆) = 𝑑𝑖𝑚(𝑉), entonces S=V.
● Si 𝑑𝑖𝑚(𝑉) = 𝑛 y existe un conjunto m de vectores LI en V, 𝑚 ≤ 𝑛.
5.7 Coordenadas y Cambio de bases
Relación entre la base y las coordenadas
Si B={b1,b2,..,bn} es una base de V, entonces todo vector v ∈ 𝑉 se puede expresar como:
v = 𝑐1.b1 + 𝑐2.b2 +.....+ 𝑐𝑛.bn
donde los coeficientes c son las coordenadas de v relativas a la base B.
Vector de coordenadas de v relativo a base B: (v) = (𝑐 ,𝑐 ,..,𝑐 )
𝐵 1 2 𝑛
Matriz de coordenadas de v relativo a la base B
Cambio de base
El cambio de base consiste en representar un vector en una base 𝐵1 a partir de otra base 𝐵2
del mismo espacio vectorial V. Es como cambiarle el idioma al vector.
Sea w un vector dado, sea (w)𝐵1 el vector w expresado en términos de la base 𝐵1 y sea
(w)𝐵2 el vector w expresado en términos de la base 𝐵2, entonces para todo w ∈ 𝑉 se tiene
(w)𝐵2 = 𝑀𝐵1𝐵2.(w)𝐵1
Felipe Bellas Tolosa
Algebra Lineal
Ingreso Balseiro 18
donde A representa una matriz de transición de la base 𝐵1 a la base 𝐵2. Esta matriz de
transición es tal que si la multiplicas por las coordenadas respecto de una base da como
resultado las coordenadas respecto a la otra base. Con coordenadas nos referimos a los
números escalares por los que se multiplican los vectores de una base. Las columnas de la
matriz son los vectores de la base 𝐵1 que se multiplican por las coordenadas del vector w
respecto de la base 𝐵1 y como resultado se obtiene 𝐵2.
Cálculo
Supongase que ahora se quiere obtener la matriz transición 𝑀𝐵2𝐵1 para hallar las
coordenadas en la 𝐵1. Entonces se puede hallar la matriz de transición 𝑀𝐵2𝐵1 a partir de la
matriz inversa de 𝑀𝐵1𝐵2 aplicando el método de Gauss-Jordan.
Propiedades
1) Todas las matrices 𝑀𝐵1𝐵2 son cuadradas de orden n, donde dim(V)=n (tiene tantas
dimensiones como columnas ya que al ser base los vectores son LI).
−1
2) Toda 𝑀𝐵1𝐵2 es invertible y 𝑀𝐵1𝐵2 = (𝑀𝐵2𝐵1) .
3) La matriz 𝑀𝐵𝐵 es la matriz identidad.
Ejemplo: Se tiene una base B={(1,1),(-1,2)} y la base canónica C={(1,0),(0,1)}. La matriz
cambio de base de B a C dada por 𝑀𝐵𝐶 queda
qué son los vectores de la base B puestos en columnas.
IMPORTANTE: Recordar que el vector que se pone en columnas es del cual se quiere
pasar al otro.
Ahora bien, tenemos un vector (w)𝐵 cuyas coordenadas respecto de la base B son (3,1). Se
pide encontrar las coordenadas de este vector w respecto de la base canónica C. La ecuación a
resolver es
𝑀𝐵𝐶.(w)𝐵=(w)𝐶
de manera que la expresión queda (w)
𝐶
Alternativamente, se podría haber deducido de la siguiente manera: (w)𝐶=(3,1) implica que
las coordenadas del vector son (3,1) que significa que el vector w es 3 veces el primer
elemento de la base B más una vez el segundo elemento de la base B. De modo que:
w=3.(1,1) + 1.(-1,2) = (3,3) + (-1,2) = (2,5)
Sin embargo este método sirve sólo porque se pasa a una base canónica.
5.8 Espacio nulo, nulidad , imagen, espacio fila y espacio
columna
Espacio nulo de una matriz
Felipe Bellas Tolosa
Algebra Lineal
Ingreso Balseiro 19
Se ha visto que si una matriz A de n x n es invertible, entonces las filas y columnas de la
matriz forman conjuntos de vectores linealmente independientes. Sin embargo, si A no es
invertible (𝑑𝑒𝑡(𝐴) = 0), o si A no es cuadrada, entonces esto no dice nada sobre el número de
filas o columnas linealmente independientes de A.
Sea A una matriz de n x n el espacio nulo (o kernel) de la matriz A está dado por
𝑛
𝑁𝐴 = {v ∈ ℜ : 𝐴.v=0}
Por decirlo de otra manera, el espacio nulo está dado por aquellos vectores v que al
multiplicarse por la matriz A dan como resultado el vector nulo 0.
Se denomina nulidad a la dimensión del espacio nulo de A.
ν(𝐴) = 𝑑𝑖𝑚(𝑁𝐴)
Si 𝑁𝐴 solo contiene al vector 0, entonces ν(𝐴) = 0.
Imagen
Sea A una matriz de m x n. Entonces la imagen de A es un subespacio S, denotada por
Im(A), está dada por:
𝑚 𝑚
𝐼𝑚(𝐴) = {w ∈ ℜ : 𝐴.v=w para alguna v ∈ ℜ }
● El rango de una matriz es la cantidad de filas no nulas de una matriz triangular y está
dado por⇒Rg(A)=ρ(𝐴) = 𝑑𝑖𝑚(𝐼𝑚(𝐴)) es el rango de la matriz A.
● Para A se cumple que ν(𝐴) + ρ(𝐴) = n. Siendo n el número de columnas de A.
● A es invertible si ν(𝐴) = 0 y ρ(𝐴) = n ya que sería LI.
Espacio fila o espacio renglón y espacio columna
Sea A una matriz de m x n, sean {r1,r2,.,rm}las filas o renglones de A y sean
{c1,c2,.,cn}las columnas de A. Entonces se define
𝑅𝐴 = espacio de los renglones de A = gen {r1,r2,..rm}
𝐶𝐴 = espacio de las columnas de A = gen {c1,c2,..cn}
Los espacio renglón y espacio columna son subespacios generados por los renglones y
por las columnas de la matriz A respectivamente. Para hallar estos espacios hay que ver la
matriz reducida después de haber empleado el método de eliminación Gauss-Jordan o
eliminación gaussiana y ver qué renglones o columnas son linealmente independientes. Los
renglones/columnas que sean LI en la forma reducida darán a entender que esas mismas
renglones/columnas en la matriz original A, serán los espacios renglón o columna.
Teorema
Para cualquier matriz A, el espacio columna 𝐶𝐴 es igual a la imagen de dicha matriz, es
decir, se cumple que:
𝐶𝐴 = 𝐼𝑚(𝐴)
6 Espacios vectoriales con producto interno
6.1 Bases ortonormales y proyecciones en R^n
𝑛
Conjunto ortonormal en ℜ
𝑛
Se dice que un conjunto de vectores de S={𝑢1, 𝑢2,.., 𝑢𝑛} en ℜ es un conjunto ortonormal
si
Felipe Bellas Tolosa
Algebra Lineal
Ingreso Balseiro 20
𝑢𝑖. 𝑢𝑗 = 0 𝑠𝑖 𝑖 ≠ 𝑗
𝑢𝑖. 𝑢𝑖 = 1
Si solo se satisface que 𝑢𝑖. 𝑢𝑗 = 0 se dice que el conjunto es ortogonal. Se puede enunciar
de la siguiente manera: Un conjunto de vectores es ortonormal si cada par de ellos es
ortogonal (orto) y cada uno tiene norma igual a 1 (normales).
Proyeccion ortogonal
𝑛 𝑛
Sea S un subespacio de ℜ con base ortonormal {𝑢1, 𝑢2,.., 𝑢𝑛}. Si v ∈ ℜ , entonces la
proyección ortogonal de v sobre S, denotada por 𝑝𝑟𝑜𝑦𝑆v, está dada por:
w1 = 𝑝𝑟𝑜𝑦𝑆v= (v. 𝑢1).𝑢1+ (v. 𝑢2).𝑢2+...........+ (v. 𝑢𝑛).𝑢𝑛
Observe que 𝑝𝑟𝑜𝑦𝑆v ∈ 𝑆.
Componente de v ortogonal a S
⊥
El complemento ortogonal del subespacio S, que denotamos como 𝑆 , es el conjunto de
vectores de V que son ortogonales a cada uno de los vectores de S.
Teorema de proyección
𝑛 𝑛
Sea S un subespacio de ℜ y sea v ∈ ℜ . Entonces existe un único par de vectores w1 y
⊥
w2 tales que w1 ∈ 𝑆 y w2 ∈ 𝑆 y v = w1 + w2. Donde w1 = 𝑝𝑟𝑜𝑦𝑆v y w2 = 𝑝𝑟𝑜𝑦 ⊥
v, de
𝑆
manera que
v = w1 + w2 = 𝑝𝑟𝑜𝑦𝑆v + 𝑝𝑟𝑜𝑦 ⊥
v
𝑆
6.2 Proceso de ortonormalizacion de Gram-Schmidt
𝑛
Este proceso permite convertir cualquier base en ℜ en una base ortonormal. Lo que hace
el método es restar proyecciones para ir siempre obteniendo vectores ortogonales.
Sea B = {𝑣1, 𝑣2,..., 𝑣𝑛} una base de S. Se realizan los siguientes pasos para obtener una base
ortonormal:
Paso 1: Elección del primer vector unitario
𝑣1
𝑢1 = |𝑣1|
Paso 2: Elección de un segundo vector ortogonal a 𝑢1.
Para ello hay que recordar una propiedad vectorial:
𝑢.𝑣
𝑤=𝑢− 2 . 𝑣 es ortogonal a 𝑣.
|𝑣|
En la siguiente figura se puede observar mejor:
Felipe Bellas Tolosa
Algebra Lineal
Ingreso Balseiro 21
De manera que en nuestro caso ocurre, al ser la norma del vector unitario 1, la siguiente
expresión
𝑣.𝑢1
|𝑢1|
. 𝑢1 = (𝑣. 𝑢1). 𝑢1
para cualquier vector v. De esta manera la expresión
𝑣2´ = 𝑣2 − (𝑣2. 𝑢1). 𝑢1
donde 𝑣2´ es siempre ortogonal a 𝑢1.
Paso 3: Elección del segundo vector unitario
Como ya tenemos un vector 𝑣2´ ortogonal a 𝑢1, si hacemos que sea unitario tendremos un
vector unitario 𝑢2 ortogonal a 𝑢1. De esta manera se determina
𝑣2´
𝑢2 = |𝑣2´|
Evidentemente {𝑢1, 𝑢2} es un conjunto ortonormal.
Paso 4: Continuación del proceso
𝑣𝑘+1´ = 𝑣𝑘+1 − (𝑣𝑘+1. 𝑢1). 𝑢1 − (𝑣𝑘+1. 𝑢2). 𝑢2 −..... − (𝑣𝑘+1. 𝑢𝑘). 𝑢𝑘
Así, el conjunto {𝑢1, 𝑢2,..., 𝑢𝑘, 𝑣´𝑘+1} es un conjunto LI, ortogonal y 𝑣´𝑘+1 ≠ 0.
Paso 5: Elección del k+1-ésimo vector unitario
𝑣´𝑘+1
𝑢𝑘+1 = |𝑣´𝑘+1|
Esto forma un conjunto ortogonal {𝑢1, 𝑢2,..., 𝑢𝑘, 𝑢𝑘+1}.
6.3 Matriz ortogonal
Una matriz Q de n x n se llama ortogonal si Q es invertible y
−1 𝑡
𝑄 =𝑄
Esto quiere decir que la inversa de Q es igual a la traspuesta de Q. Para verificar si esto se
cumple, podemos multiplicar por Q a ambos lados de la igualdad
−1 𝑡
𝑄 .𝑄 = 𝑄 .𝑄
de modo que
Felipe Bellas Tolosa
Algebra Lineal
Ingreso Balseiro 22
𝑡
𝑄 .𝑄 = 𝐼
Entonces si el producto de la matriz Q por su traspuesta da como resultado la matriz
identidad, se verifica que Q es ortogonal.
Teorema
La matriz Q de n x n es ortogonal si y sólo si las columnas de Q forman una base
𝑛
ortonormal para ℜ .
7 Transformaciones lineales
7.1 Definición
Sean V y W espacios vectoriales reales. Una transformación lineal T de V en W es una
función que asigna a cada vector v ∈ 𝑉 un vector único T.v ∈ 𝑊 y que satisface, para cada u
y v en V y cada escalar α,
● T(0𝑉) = 0𝑊 → La transformación del vector nulo en V es el vector nulo en W.
● T(u + v) = T(u) + T(v)
● T(α.v) = α.T(v)
Notación
Se puede escribir indistintamente T(v) o Tv y ambas se leen “T de v”. Esto es análogo a la
notación funcional para f(x) que se lee “f de x”.
Se escribe T:𝑉 → 𝑊 para indicar que T toma el espacio vectorial real V y lo lleva al
espacio vectorial real W. Podemos enunciar lo siguiente:
“Una transformación lineal T:𝑉 → 𝑊 es una función con V como su dominio y un
subconjunto de W como su imagen.”
7.2 Propiedades de las Transformaciones lineales : Núcleo e
Imagen
Propiedades
Sea T:𝑉 → 𝑊 una transformación lineal, entonces
1) T(0) = 0
2) T(u - v) = T(u) - T(v)
3) T(α1.v1 + α2.v2 + …+ α𝑛.vn) = α1.T(v1) + α2.T(v2) ….+ α𝑛.Tvn)
Núcleo e Imagen
Sean V y W dos espacios vectoriales y sea T:𝑉 → 𝑊 una transformación lineal:
i) El núcleo de T, denotado por Nu(T), está dado por
𝑁𝑢(𝑇) = {v ∈ 𝑉 : 𝑇.v = 0}
Se tiene interés en encontrar otros vectores en V que “se transformen en 0”.
ii) La imagen de T, denotado por Im(T), está dado por
Felipe Bellas Tolosa
Algebra Lineal
Ingreso Balseiro 23
𝐼𝑚(𝑇) = {w ∈ 𝑊 : w = 𝑇.v para alguna v ∈ 𝑉}
Teorema
Si T:𝑉 → 𝑊 es una transformación lineal, entonces
i) Nu(T) es un subespacio de V.
ii) Im(T) es un subespacio de W.
Nulidad y rango
Si T es un transformación lineal de V en W, entonces se define
Nulidad de T = ν(𝑇) = 𝑑𝑖𝑚(𝑁𝑢(𝑇))
Rango de T = ρ(𝑇) = 𝑑𝑖𝑚(𝐼𝑚(𝑇))
7.3 Matriz asociada a una transformación lineal
𝑛 𝑚
Sea T:ℜ → ℜ una transformación lineal. Existe entonces una matriz única de m x n, 𝐴𝑇
tal que
T(v) = 𝐴𝑇.v
A esta matriz se la conoce como matriz de transformación correspondiente a T o
representación matricial de T. Esta matriz permite describir qué le pasa a todo el espacio a
partir de saber qué le pasa a los vectores de la base (que suele ser la canónica). Cada columna
de esta matriz es la imagen del vector v.
Caso I: Matriz estándar
𝑛 𝑚
Si ℜ tiene la base canónica E y ℜ tiene el conjunto de vectores
T(E)={T(𝑒1) +T(𝑒2) +... + 𝑇(𝑒𝑛)}
que solo puede ser base si m=n.
𝑛 𝑚 𝑛
Con T:ℜ → ℜ y la base canónica de ℜ es E={e1,e2,...,en}, la matriz asociada a la TL
T:𝑉 → 𝑊/ T(v)= 𝐴𝑇.(v)𝐸= T:𝑉 → 𝑊/ T(v) = 𝐴𝑇.v
Tiene por columnas a las imágenes de los vectores de E
Caso II: Metodo mas facil
𝑛 𝑚
ℜ tiene base 𝐵1 = {u1,u2,..un} y ℜ tiene los vectores T(𝐵1)={T(u1),T(u2),..,T(un)}
La matriz asociada a la TL dada por T:𝑉 → 𝑊/ T(v)= 𝐴𝑇.(v)𝐸= T:𝑉 → 𝑊/ T(v) = 𝐴𝑇.v
Se puede obtener como
𝑚𝑥𝑛
𝐴𝑇 ∈ ℜ = [ 𝑇(u1)| 𝑇(u2)|... | 𝑇(un)].𝑀𝐵1𝐸
Esto funciona en este caso porque
𝑀𝐵1𝐸 = [ [e1]𝐵1|[e2]𝐵1|.., |[en]𝐵1]
Teorema
Sean V y W espacios vectoriales de dimensión finita con dim(V) = n. Sea T:𝑉 → 𝑊 una
transformación lineal y sea 𝐴𝑇 una representación matricial respecto a las bases 𝐵1 en V y 𝐵2
en W. Entonces
1) ρ(𝑇) = ρ(𝐴𝑇)
2) ν(𝐴) = ν(𝐴𝑇)
Felipe Bellas Tolosa
Algebra Lineal
Ingreso Balseiro 24
3) ν(𝐴) + ρ(𝑇) = 𝑛
Teorema de la existencia y unicidad
● Sean V y W espacios vectoriales de dimensión finita.
● Sea 𝐵 = {v1,v2,..,vn} la base de V.
● Sea A = {w1,w2,..,wn} un conjunto de n vectores de W.
La transformación lineal existe y es única si
𝑇: 𝑉 → 𝑊/ 𝑇(𝑣𝑖) = 𝑤𝑖 para todo i = 1, 2,.., n
7.4 Isomorfismo
Monomorfismo, transformación inyectiva o uno a uno
Sea Sea T:𝑉 → 𝑊 una transformación lineal, entonces T es uno a uno o inyectiva si
𝑇.v1= 𝑇.v2 implica que v1 = v2 ⇔ 𝑁𝑢(𝑇) = {0} ⇔ 𝑑𝑖𝑚 𝑁𝑢(𝑇) = 0
Es decir, T es uno a uno si y sólo si todo vector w en la imagen de T es la imagen de
exactamente un vector en V. Que dim Nu(T) sea 0 es para que solo haya un elemento en el
conjunto de partida que le corresponda al vector nulo 0 en el conjunto de llegada ya que la
única forma de que haya varios elementos del conjunto de partida que correspondan al mismo
valor de llegada, es el núcleo Nu(T).
Epimorfismo, transformación sobre o sobreyectiva
Sea Sea T:𝑉 → 𝑊 una transformación lineal, entonces T es sobre o sobreyectiva si para
todo w ∈ 𝑊 existe al menos una v ∈ 𝑉 tal que T.v = w y dim Im(T) = dim(W).
Es decir T es sobreyectiva si y sólo si Im(T) = W. Esto se justifica ya que las funciones
sobreyectivas son aquellas donde todo los valores del conjunto de llegada (codominio) son
imagen de al menos un elemento del conjunto de partida (dominio).
Isomorfismo
Teorema
Sea T:𝑉 → 𝑊 una transformación lineal y suponga que dim (V) = dim (W).
I) Si T es inyectiva, entonces T es sobreyectiva.
II) Si T es sobreyectiva, entonces T es inyectiva.
Si la transformación lineal T:𝑉 → 𝑊 es inyectiva y sobreyectiva, entonces T es un
isomorfismo o biyectiva. Se dice que dos espacios vectoriales son isomorfos si existe un
isomorfismo T de V sobre W.
Teorema de la dimensión
Sea T:𝑉 → 𝑊 una transformación lineal, se verifica que
𝑑𝑖𝑚(𝑁𝑢(𝑇)) + 𝑑𝑖𝑚(𝐼𝑚(𝑇)) = 𝑑𝑖𝑚(𝑉)
Transformación inversa
Si T:𝑉 → 𝑊 es un isomorfismo, entonces existe un isomorfismo S:𝑊 → 𝑉 tal que
S(T.v) = v
−1
Aquí S se llama transformación inversa de T y se denota con 𝑇 .
7.5 Conceptos a tener en cuenta a la hora de hacer ejercicios
3 3
En estos ejemplos hago transformaciones lineales T:ℜ → ℜ , pero aplica para cualquier
sea el caso.
Ejercicio tipo I: Se pide hallar una TL a partir de su imagen Im(T) y de su núcleo Nu(T).
Felipe Bellas Tolosa
Algebra Lineal
Ingreso Balseiro 25
1) Se debe identificar si los vectores del Nu(T) son linealmente independientes, y si eso
ocurre, forman una base. Se suelen dar datos de vectores ya transformados y se sabe
que el transformado del núcleo es el vector 0, de esta manera
𝑇(𝑣1) = 𝑤1 ; 𝑇(𝑣2) = 𝑤2 ; 𝑇(𝑣3) = 𝑤3 ; 𝑇(𝑁𝑢(𝑇)) = 0
2) De esta manera, puedo expresar cualquier vector genérico (x,y,z) del espacio como
combinación lineal de una base de vectores v={𝑣1, 𝑣2, 𝑣3}
(x,y,z)= α. 𝑣1 + β. 𝑣2 + γ. 𝑣3
3) Se distribuyen los coeficientes α, β y γ en cada uno de los términos y luego se realiza
la suma de vectores. Dicha suma provee un sistema de ecuaciones donde habrá que
despejar α, β y γ, expresándose en función de x,y y z.
4) Se aplica el transformado de ambos lados de la ecuación
T((x,y,z))= 𝑇(α. 𝑣1 + β. 𝑣2 + γ. 𝑣3)
Aplicando propiedades de las TL, se encuentra una expresión reducida
T((x,y,z))= α. 𝑇(𝑣1) + β. 𝑇(𝑣2) + γ. 𝑇(𝑣3)
5) Sabiendo los datos de 𝑇(𝑣1) = 𝑤1 ; 𝑇(𝑣2) = 𝑤2 ; 𝑇(𝑣3) = 𝑤3, se reemplaza en la
ecuación anterior, al igual que los valores de α, β y γ, de manera que se pueda obtener
una expresión general para T(x,y,z).
Ejercicio tipo II: Si sólo se sabe Nu(T) y se dio Im(T), ya sea en forma de vector o en
forma de subespacio.
1) Establecer la base de vectores que conforman la imagen Im(T).
2) Sabiendo que Im(T) ya es un transformado, hay que buscar el vector que al
transformarse da la imagen. Para ello debemos elegir vectores LI, que suelen ser
elementos de la base canónica. Debe comprobarse que sean LI dichos vectores de la
base canónica.
3) Se obtienen datos del tipo 𝑇(𝑒1) = 𝑤1 ; 𝑇(𝑒2) = 𝑤2 ; 𝑇(𝑒3) = 𝑤3 ; 𝑇(𝑁𝑢(𝑇)) = 0,
donde 𝑤1, 𝑤2 y/o 𝑤3 Son los vectores que conforman la base de Im(T).
4) Con dichos datos, se aplica el mismo procedimiento que para el caso I, hasta obtener
la expresión general de T(x,y,z).
Ejercicio tipo III: Se pide hallar una matriz asociada a la TL respecto de una base de
partida, que suele ser la base canónica E y a la base B= {𝑏1, 𝑏2, 𝑏3} de llegada.
1) Identificar los espacios de partida y de llegada. Si n es la dimensión del espacio V de
partida y m es la dimensión del espacio W de llegada. La matriz será de m x n.
2) Se reemplazan los términos de la base E en la TL para hallar sus transformados.
3) Se buscan las coordenadas del vector transformado en la base B de llegada expresando
los transformados de la base canónica E como combinación lineal de los elementos de
la base B de llegada:
T((1,0,0))= α1. 𝑏1 + β1. 𝑏2 + γ1. 𝑏3
T((0,1,0))= α2. 𝑏1 + β2. 𝑏2 + γ2. 𝑏3
T((0,0,1))= α3. 𝑏1 + β3. 𝑏2 + γ3. 𝑏3
4) Se despejan los términos α, β y γ de cada ecuación. Estos términos son las
coordenadas. Cada uno de estos términos forma una matriz de coordenadas del
transformado respecto a la base B.
Felipe Bellas Tolosa
Algebra Lineal
Ingreso Balseiro 26
[𝑇[𝑒1]𝐵 ; [𝑇[𝑒2]𝐵 ; 𝑇[𝑒3]𝐵
Estos términos, en forma de columna, componen la matriz de transformación.
Ejercicio Tipo IV: Se pide hallar la matriz asociada a la transformación lineal respecto de
una base de partida cualquiera A y la base de llegada B. El procedimiento es idéntico al
ejercicio tipo III, pero la base de partida A es distinta de la base canónica.
7.6 Aplicaciones geométricas de las transformaciones lineales
2 2
Rotación en el plano: Para T:ℜ → ℜ . La rotación hace girar cada punto del plano
alrededor del origen hasta describir un ángulo θ descrito en sentido antihorario.
Su matriz de transformación es
Rotación en el espacio: Hace girar cada punto del espacio alrededor de un eje hasta
describir un ángulo θ descrito en sentido antihorario. Cuando los ejes son x, y o z, su matriz de
transformación es
IMPORTANTE: Las rotaciones no cambian la norma de los vectores, es decir, el vector
que se quiere transformar y su transformado tienen la misma norma. En otras palabras, para
que la transformación lineal sea una rotación se debe cumplir ||𝑇(𝑣)|| = ||𝑣||.
Reflexión en el plano: A cada punto del plano le hace corresponder su imagen espejada
respecto de una recta l.
Reflexión respecto a eje x e y respectivamente
Reflexión respecto de una recta y=x
Felipe Bellas Tolosa
Algebra Lineal
Ingreso Balseiro 27
Expansión y compresión en el plano: Sucede si la transformación lineal multiplica una
o ambas coordenadas por un escalar k.
En dirección de x
En dirección de x e y
Corte
Deslizamiento cortante en dirección x
Deslizamiento cortante en dirección y
7.7 Relación entre transformaciones lineales y autovalores
Recordando que T(v) = 𝐴𝑇.v :
Felipe Bellas Tolosa
Algebra Lineal
Ingreso Balseiro 28
Un autovalor de una transformación lineal T:𝑉 → 𝑊 si T(v) = λ.v siendo v el autovector
para λ.
● Los autovalores de T son los mismos que los de 𝐴𝑇.
● v es un autovector de T correspondiente a λ𝑖 si [v]𝐵 es un autovector de A
correspondiente a λ𝑖. La existencia de un λ = 0, significa que existen vectores no
nulos que forman el núcleo Nu(T).
● Si los autovectores de una transformación lineal y los autovalores son distintos,
entonces, los autovectores son independientes (no vale el recíproco).
● Si dim(V)=n, T:𝑉 → 𝑉 tiene por lo menos n autovalores diferente. Si T tiene n
autovalores distintos, entonces, sus autovectores correspondientes forman una base
para V y la matriz de T relativa a esa base es una matriz diagonal formada por los
autovalores como elementos de la diagonal.
● Un autovector o vector propio es aquel que mantiene su dirección luego de una
transformación lineal.
● Un autovalor es un escalar que afecta el tamaño de los autovectores luego de una
transformación lineal.
8 Números complejos
8.1 Definición
Para el cálculo de autovalores λ surgía un problema al buscar raíces utilizando la formula
resolvente
2
−𝑏± 𝑏 −4.𝑎.𝑐
λ= 2.𝑎
2
cuando 𝑏 − 4. 𝑎. 𝑐 < 0. Para manejar este caso, se introduce la unidad imaginaria i de
modo que:
𝑖= − 1
Un número complejo es una expresión de la forma
𝑧 = 𝑎 + 𝑏. 𝑖
donde a y b son números reales, a se denomina parte real de z y se denota Re(z); b se
denomina parte imaginaria de z y se denota por Im(z). Esta representación es la binomial o
rectangular del número complejo.
Plano complejo o de Argand
Conjugado de un número complejo
Sea 𝑧 = 𝑎 + 𝑏. 𝑖 su conjugado está dado por:
Felipe Bellas Tolosa
Algebra Lineal
Ingreso Balseiro 29
𝑧 = 𝑎 − 𝑏. 𝑖
Módulo o magnitud de un número complejo
Sea 𝑧 = 𝑎 + 𝑏. 𝑖 su módulo o magnitud está dado por
2 2
|𝑧| = 𝑎 +𝑏
8.2 Propiedades
8.3 Forma trigonométrica o polar
Si 𝑟 = |𝑧| la forma trigonométrica o polar de un número complejo está dada por
𝑧 = |𝑧|. (𝑐𝑜𝑠(θ) + 𝑖. 𝑠𝑒𝑛(θ)) 𝑜 𝑧 = |𝑧| |θ
donde θ es el argumento de z y es el ángulo entre el semieje Re(z) y el vector r.
8.4 Forma exponencial o de Euler
La forma exponencial o de Euler para expresar un número complejo está dada por
𝑖θ
𝑧 = |𝑧|. 𝑒
Se definen las siguientes operaciones para esta forma:
Multiplicación
Felipe Bellas Tolosa
Algebra Lineal
Ingreso Balseiro 30
𝑖(θ+ϕ)
𝑧. 𝑤 = |𝑧|. |𝑤|. 𝑒
División
𝑧 |𝑧| 𝑖(θ−ϕ)
𝑤
= |𝑤|
.𝑒
Potenciación
𝑛 𝑛 𝑖.(𝑛θ)
𝑧 = |𝑧| . 𝑒
8.5 Teorema de De Moivre
Si 𝑧 = |𝑧|. (𝑐𝑜𝑠(θ) + 𝑖. 𝑠𝑒𝑛(θ)) y n es un número entero positivo, entonces
𝑛 𝑛
𝑧 = |𝑧| . (𝑐𝑜𝑠(𝑛. θ) + 𝑖. 𝑠𝑒𝑛(𝑛. θ))
de modo que el módulo de z se eleva a la n-ésima y el argumento se multiplica por n.
8.6 Raices n-ésimas
Sea 𝑧 = |𝑧|. (𝑐𝑜𝑠(θ) + 𝑖. 𝑠𝑒𝑛(θ)) y sea n un número entero positivo. Entonces z tiene n
raíces distintas n-ésimas
1
𝑛 θ+2𝑘π θ+2𝑘π
𝑤𝑘 = |𝑧| . [𝑐𝑜𝑠( 𝑛
) + 𝑖. 𝑠𝑒𝑛( 𝑛
)]
donde k=0,1,2,..., n-1.
Consideraciones
Todas las raíces 𝑤𝑘 están dispuestas como vértices de un polígono regular de n lados
acotados por un círculo con centro en el origen del plano complejo.
Sea
θ+2𝑘π
φ𝑘 = 𝑛
el argumento de cada raíz 𝑤𝑘. Separemos este término en dos partes:
θ 2𝑘π
φ𝑘 = 𝑛
+ 𝑛
θ 2𝑘π
El término representa el argumento de primer raiz 𝑤0. Mientras que el término
𝑛 𝑛
representa la n-esima fracción de giro. Si k=n volveríamos a obtener la primer raíz 𝑤0 ya que
se correría θ + 2π, volviéndola a dejar en el mismo ángulo pero rotado 2π. Podemos concluir
que las raíces están igualmente espaciadas en ángulo.
Algunos ejemplos de raíces y cómo se distribuyen asimétricamente:
Felipe Bellas Tolosa
Algebra Lineal
Ingreso Balseiro 31
8.7 Logaritmo natural de un número complejo
𝑖(θ+2𝑘π)
Sean dos números complejos 𝑧 = |𝑧|. 𝑒 y 𝑤 = 𝑎 + 𝑏. 𝑖 tales que 𝑧 ≠ 0, θ ∈ ℜ
y k pertenece al conjunto de números enteros. El número complejo w es logaritmo natural de z
si y sólo si el número e elevado a la w es igual a z, es decir, se cumple que
𝑤
𝑤 = 𝑙𝑛(𝑧) ⇔ 𝑒 = 𝑧
Si se opera esta ecuación se tiene
Cuando se igualan las partes reales Re(z) e imaginarias Im(z) se llega a la siguiente
expresión
De modo que se concluye
Felipe Bellas Tolosa
Algebra Lineal
Ingreso Balseiro 32