100% encontró este documento útil (1 voto)
914 vistas159 páginas

Resolución de Ejercicios en Álgebra Lineal

Este documento presenta un resumen de tres oraciones de un libro introductorio sobre álgebra lineal. En la primera oración se indica que el libro presenta los conceptos básicos de álgebra lineal divididos en seis capítulos que cubren temas como matrices, determinantes, sistemas de ecuaciones lineales, espacios vectoriales y transformaciones lineales. La segunda oración menciona que el libro está dirigido a estudiantes de economía y fue revisado por pares académicos. La tercera oración señala que la intenc

Cargado por

mikisaur
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
100% encontró este documento útil (1 voto)
914 vistas159 páginas

Resolución de Ejercicios en Álgebra Lineal

Este documento presenta un resumen de tres oraciones de un libro introductorio sobre álgebra lineal. En la primera oración se indica que el libro presenta los conceptos básicos de álgebra lineal divididos en seis capítulos que cubren temas como matrices, determinantes, sistemas de ecuaciones lineales, espacios vectoriales y transformaciones lineales. La segunda oración menciona que el libro está dirigido a estudiantes de economía y fue revisado por pares académicos. La tercera oración señala que la intenc

Cargado por

mikisaur
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

Un primer curso

de Álgebra Lineal
Los textos presentados en este volumen fueron revisados y dictaminados por pares académicos
expertos en el tema y externos a nuestra Universidad, a partir del sistema doble ciego por
el Comité editorial de la División de Ciencias Sociales y Humanidades, de la Universidad
Autónoma Metropolitana, Unidad Xochimilco.

Un primer curso de Álgebra Lineal


Notas introductorias

Primera edición: 7 de agosto de 2022

D.R. © Universidad Autónoma Metropolitana


Universidad Autónoma Metropolitana, Unidad Xochimilco
Calzada del Hueso 1100, Colonia Villa Quietud, Coyoacán,
Ciudad de México. C.P. 04960
Sección de Publicaciones de la División de Ciencias Sociales y Humanidades.
Edificio A, 3er piso. Teléfono 54 83 70 60
pubcsh@[Link] / pubcsh@[Link]
[Link]
[Link]
[Link]

ISBN: 978-607-28-2403-4 (impreso)


ISBN: 978-607-28-2384-6 (digital)
Impreso en México / Printed in Mexico
Un primer curso
de Álgebra Lineal
Notas introductorias

Manuel García Álvarez

U N I V E R S I D A D A U T Ó N O M A M E T R O P O L I TA N A
UNIDAD XOCHIMILCO División de Ciencias Sociales y Humanidades
UNIVERSIDAD AUTÓNOMA METROPOLITANA
Rector general, José Antonio de los Reyes Heredia
Secretaria general, Norma Rondero López

UNIVERSIDAD AUTÓNOMA METROPOLITANA-XOCHIMILCO


Rector de Unidad, Francisco Javier Soria López
Secretaria de Unidad, Angélica Buendía Espinosa

DIVISIÓN DE CIENCIAS SOCIALES Y HUMANIDADES


Directora, Dolly Espínola Frausto
Secretaria académica, Silvia Pomar Fernández
Jefe de la sección de publicaciones, Miguel Ángel Hinojosa Carranza

CONSEJO EDITORIAL
Jerónimo Luis Repoll (presidente)
Gabriela Dutrénit Bielous
Álvaro Fernando López Lara

Asesor del Consejo Editorial: Miguel Ángel Hinojosa Carranza

COMITÉ EDITORIAL DEPARTAMENTAL


Araceli Soní Soto (Presidente)
Aleida Azamar Alonso / María del Pilar Berrios Navarro / Joel Flores Rentería
Alfonso León Pérez / Abigail Rodríguez Nava /
Araceli Margarita Reyna Ruiz / Gonzalo Varela Petito

Asistente editorial: Varinia Cortés Rodríguez


Para mi querida esposa y Samuel
Arantxa y Cristóbal
ÍNDICE

PREFACIO 11

CAPÍTULO 1. MATRICES

ANTECEDENTES 13
1.1 Concepto y orden de una matriz 15
1.2 Matrices Cuadradas y diagonal principal 16
1.3 Traza 16
1.4 Operaciones con Matrices 17
1.5 Matriz renglón 27
1.6 Matriz columna 27
1.7 Matriz nula 28
1.8 Matriz triangular superior 28
1.9 Matriz triangular inferior 28
1.10 Matriz diagonal 29
1.11 Matriz escalar 29
1.12 Matriz identidad 30

¶7
1.13 Matrices elementales 31
1.14 Matriz transpuesta 32
1.15 Matriz simétrica 32
1.16 Matriz antisimétrica 33
1.17 Propiedades de las matrices 34
1.18 Operaciones elementales sobre los renglones de una matriz 34
1.19 Matriz escalonada 35
1.20 Rango de una matriz 37
1.21 Matriz inversa 38
1.22 Matriz Singular 39

CAPÍTULO 2. DETERMINANTES

ANTECEDENTES 45
2.1 Concepto de determinante de una matriz 48
2.1 Determinantes de orden dos 49
2.2 Determinantes de orden tres 50
2.3 Regla de Zarrus para la solución de determinantes
de orden tres 50
2.4 Menores y cofactores 52
2.5 Propiedades de los determinantes 55
2.6 Matriz de cofactores 57
2.7 Matriz adjunta 57
CAPÍTULO 3. SISTEMAS DE ECUACIONES LINEALES

ANTECEDENTES 61
3.1 Concepto de ecuación lineal 63
3.2 Solución de un sistema de ecuaciones lineales
por Gauss-Jordan 64
3.3 Solución de un sistema de ecuaciones por el método
de la matriz inversa 71
3.4 Sistemas de ecuaciones lineales homogéneos 73
3.5 Solución de un sistema de ecuaciones por el método
de Cramer 76

CAPÍTULO 4. ESPACIOS VECTORIALES

ANTECEDENTES 79
4.1 Espacio vectorial 80
4.2 Subespacios vectoriales 83
4.3 Combinación lineal 84
4.4 Conjuntos generadores 87
4.5 Vectores linealmente independientes 90
4.6 Base y Dimensión 93
4.7 Cambio de base 100
CAPÍTULO 5. TRANSFORMACIONES LINEALES

ANTECEDENTES 111
5.1. Transformaciones lineales 112
5.2 Propiedades de las transformaciones lineales 114
5.3 Representación matricial de una transformación lineal 114
5.4 Cálculo de una transformación lineal 116
5.5 Núcleo e imagen de una transformación lineal 118
5.6 Rango y nulidad de una transformación lineal 121

CAPÍTULO 6. VALORES, VECTORES CARACTERÍSTICOS


Y DIAGONALIZACIÓN

ANTECEDENTES 131
6.1. Valores y vectores característicos 133
6.2 Procedimiento para obtener los valores y vectores propios 135
6.3 Diagonalización 140
6.4 Procedimiento para diagonalizar una matriz 140

BIBLIOGRAFÍA 153
PREFACIO

Este libro está basado en los programas propuestos para la carrera de economía
en diferentes instituciones públicas y sobre todo en los contenidos programáti-
cos de la carrera de Economía que se imparte en la UAM unidad Xochimilco.
Surgen además, como parte de diferentes propuestas bibliográficas utiliza-
das a lo largo de los últimos veinte años de docencia y sobre todo del curso de la
Maestría de Economía de la UNAM, en la cual, mi asesor de tesis el Dr. Martín
Puchet Anyul y el profesor Horacio Catalán, me adentraron en estos temas.
Sin duda, que las notas y las clases de esa época han sido parte trascenden-
tal para proponer la forma y estructura de los contenidos propuestos. Dicho
sea de paso, he pensado no sólo como docente sino también como alumno,
con todo el sesgo que esto conlleva, que ésta es la mejor estructura de conte-
nidos para acercar los temas e ir articulando conceptualmente cada unidad te-
mática. Al mismo tiempo, las definiciones, conceptos y teoremas que integran
los capítulos, posibilitan resolver diferentes ejercicios con grados de dificultad
creciente y posibilitan a los estudiantes normalizar un lenguaje natural de un
curso introductorio de álgebra lineal.
El objetivo principal del libro es capacitar al estudiante para comprender,
formular y resolver ejercicios correspondientes al campo del álgebra lineal,
de manera que al cursar diferentes unidades de enseñanza, les permita con
mayor soltura comprender y aplicar los temas del álgebra lineal a cada una de
las problemáticas.
Sin duda, este libro puede ser utilizado en diferentes ciencias con mayor
o menor profundidad, para ello, serán indispensables las aplicaciones a la

¶ 11
12 Prefacio

economía, la administración, la política y la gestión social, sociología, o cual-


quier otra ciencia que requiera el aprendizaje de estos temas. Pero sobre todo
de las aplicaciones que cada profesor pueda ofrecer a sus estudiantes.
La idea de presentar los temas a partir de su forma general, tiene la finali-
dad de permitir que las aplicaciones sean abordadas por cada área del conoci-
miento y profesorado de la manera más adecuada para cumplir con sus obje-
tivos, es decir, es una forma de generalizar y entender los temas que tendrán
aplicación e interpretación para cada disciplina sin dejar de lado, que en la
aplicaciónse asumen conceptos y soltura para la resolución de los problemas.
Este material ha sido presentado a los estudiantes de la carrera de Eco-
nomía y sobra decir que con sus comentarios en clase y fuera de ella han
mejorado y aportado ejercicios que se han incluido para que sea más sencillo
y comprensible el texto.
El libro está pensado para que pueda ser utilizado en un curso que inicie
con el capítulo de matrices y termine con el capítulo de diagonalización, o
bien, como un texto que presente de manera independiente cada tema y sub-
tema del contenido general.
Deseo este libro cumpla su objetivo y agradezco a cada una de las personas
que intervinieron a lo largo del proceso hasta esta su primera presentación,
iniciaré con Elvia Angélica y Danae Syboney de la Facultad de Economía de
la UNAM y en estos días de pandemia a Yazmín Abigal de la UAM Xochi-
milco. También a mi gran amigo Eduardo por siempre escuchar mis proyectos
e incentivarme a llevarlos a cabo. Lui, gracias por motivarme a la presenta-
ción de esta primera edición del libro.
Mi más grande agradecimiento por la amistad, revisión, corrección e ideas
de Alexis Ayala y Gerardo Trejo para la elaboración de estas simples notas
de clase, durante nuestros cursos en la Facultad de Economía de la UNAM y
en la UAM Xochimilco, en los últimos cinco años; así como a la Dra. Mar-
tha Elena Márquez por la revisión del texto. Y sobre todo, a cada uno de los
alumnos que formaron parte de las clases impartidas con este material y que
coadyuvaron a mejorar el contenido.
Termino diciendo que este libro es resultado de la paciencia y tiempo que
me ha dedicado mi asesor de tesis Doctoral, el Dr. Martín Puchet Anyul, en
estos temas y particularmente agradezco estos más de veinte años de amistad.

Ciudad de México
CAPÍTULO 1

MATRICES

“Las matemáticas son la música de la razón”


James Joseph Sylvester

Antecedentes

El concepto de matriz y determinante tiene sus inicios en el siglo II a.C, aun-


que hay ideas desde el siglo IV a.C. Sin embargo, no fue hasta finales del si-
glo XVII que las ideas reaparecieron y fueron madurando.
El uso de matrices y determinantes surgen del estudio de sistemas de ecua-
ciones lineales. Los babilonios estudiaron problemas que conducen a ecuacio-
nes lineales simultáneas como la tableta de arcilla que data de alrededor del
300 a.C.
También los chinos entre los 200 a.C. y 100 a.C., se aproximaron más a la
definición de matriz de los babilonios. De hecho, en el texto “Nueve capítulos
sobre el arte matemático” escrito durante la dinastía Han presenta el primer
ejemplo conocido de métodos matriciales, el cual es similar al ejemplo babi-
lónico.
Para finales de los años 20 los métodos propuestos establecían que se ten-
drían que escribir las ecuaciones lineales como las filas de la matriz en lugar de
las columnas, pero por supuesto, el método es idéntico.
Muchos resultados estándar de la teoría de matrices elementales aparecie-
ron por primera vez mucho antes de que las matrices fueran objeto de investi-
gación matemática. Por ejemplo, de Witt en “Elementos de curvas”, publicado

¶ 13
14 Un primer curso de Álgebra Lineal

como parte de los comentarios sobre la versión latina de 1660 de la “Géomé-


trie” de Descartes, mostraba cómo una transformación de los ejes reduce una
ecuación dada para una forma cónica a canónica. Esto equivale a diagonalizar
una matriz simétrica, pero De Witt nunca pensó en estos términos.
En 1826, Cauchy, en el contexto de formas cuadráticas en n variables, usó
el término ‘cuadro’ para la matriz de coeficientes, también introdujo la idea
de matrices similares (pero no el término) y mostró que si dos matrices son
similares tienen la misma ecuación característica. También, de nuevo en el
contexto de las formas cuadráticas, demostró que toda matriz simétrica real es
diagonalizable.
El primero en usar el término ‘matriz’ fue Sylvester en 1850. Sylvester definió
una matriz como una disposición de términos alargada y la vio como algo que
llevó a varios determinantes a partir de matrices cuadradas contenidas en ella.
En 1858 publicó “Memorias sobre la teoría de matrices” el cual contiene
la primera definición abstracta de una matriz. Mostró que las matrices de co-
eficientes estudiadas anteriormente para formas cuadráticas y para transfor-
maciones lineales son casos especiales de su concepto general. Cayley dio un
álgebra matricial que define la suma, la multiplicación, la multiplicación escalar
y los inversos. Construyó de forma explícita el inverso de una matriz en
términos del determinante de la matriz. Asimismo, demostró que, en el caso
de matrices 2 × 2, una matriz satisface su propia ecuación característica.
Declaró que había comprobado el resultado para matrices 3 × 3.
El que una matriz satisfaga su propia ecuación característica se llama teorema
de Cayley-Hamilton, quien probó un caso especial del teorema, el caso 4 × 4,
en el curso de sus investigaciones sobre los cuaterniones. En 1896, Frobenius se
dio cuenta de la “Memoria” de 1858 de Cayley sobre la teoría de las matrices y
después de esto comenzó a usar el término matriz.
Finamente, Weierstrass utilizó una definición axiomática de un determi-
nante en sus conferencias y, después de su muerte, se publicó en 1903 en la
nota “Sobre la teoría de los determinantes”. En el mismo año, también se
publicaron las conferencias de Kronecker sobre los determinantes, nueva-
mente después de su muerte. Con estas dos publicaciones, la teoría moderna
de los determinantes estaba en su lugar, pero la teoría matricial tardó un poco
más en convertirse en una teoría plenamente aceptada. Un texto inicial im-
portante que llevó las matrices a su lugar adecuado dentro de las matemáticas
fue “Introducción al álgebra superior” por Bôcher en 1907. Turnbull y Aitken
Capítulo 1. Matrices 15

escribieron textos influyentes en los años 1930 y Mirsky, en una “Introduc-


ción al álgebra lineal” en 1955, la teoría matricial alcanzó su actual papel
principal como uno de los temas de matemáticas más importantes para los
estudiantes universitarios.

1.1 Concepto y orden de una matriz

Una matriz es un conjunto de números arreglados de forma rectangular,


llamados elementos de la matriz. Este arreglo puede estar entre paréntesis rec-
tangulares o paréntesis angulares. Nosotros utilizaremos los paréntesis rectan-
gulares. Las matrices las representaremos por las letras mayúsculas de nuestro
alfabeto.
Al conjunto de las matrices se les representa con el símbolo Mmxn donde m
indica el número de renglones y n el número de columnas de las matrices que
pertenecen a tal conjunto. El símbolo mxn nos indica el tamaño o el orden de
una matriz en términos de su número de renglones y columnas.
En caso de que los elementos de una matriz A no se especifiquen en forma
explícita o numérica, serán especificados por el término general aij que repre-
senta el elemento de la matriz A ubicado en el renglón i-ésimo y la columna
j-ésima de A. La notación abreviada para una matriz A con m renglones y n
columnas es la siguiente,

que se representa en el siguiente arreglo:


16 Un primer curso de Álgebra Lineal

1.2 Matrices Cuadradas y diagonal principal


Son matrices cuadradas aquellas donde el número de renglones es igual al nú-
mero de columnas, es decir, m = n. La forma general de una matriz cuadrada
es la siguiente:

La matriz cuadrada se puede representar como An.


Definimos la diagonal principal de una matriz cuadrada como la línea
diagonal en la matriz A que va de izquierda a derecha, de arriba hacia abajo
formada por los elementos a11, a22, a33, …, ann; de manera simplificada pode-
mos definirla como: {𝒂𝒊𝒋|𝒊 = 𝒋}, que de forma matricial se observa en la matriz
siguiente (remarcada en negro).

1.3 Traza
La traza de la matriz A, representada por Tr(A) es la suma de los elementos
de la diagonal principal de An, dada por:

Ejemplo 1. Dada la matriz

Encuentre su traza
Capítulo 1. Matrices 17

1.4 Operaciones con Matrices

1.4.1 Igualdad de matrices

Si son dos matrices del mismo orden, se dice que son igua-
les, si sus elementos correspondientes son iguales, esto es:

por lo tanto, A = B, si

1.4.2 Producto de una matriz por un escalar

Definición de producto escalar. Dada una matriz A de orden m × n y k un


escalar, el producto de k por A se obtiene multiplicando el escalar k por cada
uno de los elementos de la matriz A.
Definición de escalar. Un escalar es una magnitud que quedan totalmente
determinada por un sólo número real, una unidad de medida o magnitud, pero
no dirección.

Ejemplo 2. Dada la matriz

, encuentre 2A
18 Un primer curso de Álgebra Lineal

Solución

2A = 2

1.4.3 Suma de Matrices

Definición de suma de matrices. Sean A y B dos matrices del mismo orden, la


suma de A + B es la matriz C, que se obtiene de sumar los elementos corres-
pondientes de A y B, queda representado como:

De lo cual, se deriva

A + B = [aij ]+[bij ] = Sean A

Es importante hacer notar que matrices de orden diferente no se pueden


sumar.
Capítulo 1. Matrices 19

Ejemplo 3. Dadas las matrices

Encuentre A + B

Ejemplo 4. Dadas las matrices

encuentre 2A + 3B + C
20 Un primer curso de Álgebra Lineal

1.4.4 Resta de matrices

Definición. Sean A y B dos matrices del mismo orden, La resta de A-B es la


matriz C que se obtiene de restar a los elementos de A, a los elementos corres-
pondientes de B y se define como A – B = A + (–B) = A + (–1) B.

Lo que se deriva como

Ejemplo 5. Dadas las matrices A y B del ejemplo 3, encuentre A – B

Solución

Ejemplo 6. Considere las matrices A, B, C del ejemplo 4, encuentre 2A – 3B + C


Capítulo 1. Matrices 21

Solución

Ejemplo 7. Dadas las matrices

Si 2A + 4B – C = 0, encuentre la matriz C
22 Un primer curso de Álgebra Lineal

como 2A + 4B – C=0, entonces:

1.4.5 Producto de matrices


Para que el producto de la matriz A con la matriz B exista, se debe cumplir
que el número de las columnas de A sea igual al número de renglones de B.
Otra forma de determinar si el producto está definido consiste en poner el
orden de las matrices y si los números interiores son iguales entonces el pro-
ducto existe, como se presenta a continuación:

Se puede ver que los números interiores k son iguales.


El producto de la matriz A con la matriz B una vez que se comprobó que
está definido, se efectúa multiplicando los renglones de A por las columnas
de B, de la siguiente manera:

Dm×n = AB = aij bij = dij,


Capítulo 1. Matrices 23

en donde

para toda
de forma más explícita, se presenta a continuación:

entonces

Obteniéndose la fórmula

Como se ve el renglón y columna remarcadas.


Ejemplo 8. Dadas las matrices

encuentre A×B=(A)B.
24 Un primer curso de Álgebra Lineal

Solución
Como el número de columnas de A es igual al número de renglones de B el
producto existe y lo efectuamos de la manera siguiente:

Ejemplo 9. Dadas las matrices

Encuentre 2AC – 4AB+3BC.


Solución
Capítulo 1. Matrices 25

Ejemplo 10. Dadas las matrices

Encuentre 2A2 – 3AB + BC – 5B


26 Un primer curso de Álgebra Lineal

Solución
Capítulo 1. Matrices 27

1.5 Matriz renglón

Una matriz que tiene un solo renglón y n columnas (1 x n) se llama matriz


renglón.

Ejemplo 11.

1.6 Matriz columna

Una matriz columna es aquella que contiene m renglones y una columna (m x 1).

Ejemplo 12.
28 Un primer curso de Álgebra Lineal

1.7 Matriz nula

Una matriz nula o cero, es aquella cuya totalidad de elementos es cero.


Ejemplo 13.

1.8 Matriz triangular superior

Se llama matriz triangular superior a una matriz cuadrada que debajo de la


diagonal principal tiene solamente ceros. Que se denota por 𝒂𝒊𝒋 = 𝟎 𝒑𝒂𝒓𝒂 𝒊 > 𝒋.
Ejemplo 14.

1.9 Matriz triangular inferior

Una matriz triangular inferior es una matriz cuadrada que arriba de la dia-
gonal principal tiene solamente ceros. Que se denota por 𝒂 𝒊𝒋 = 𝟎 𝒑𝒂𝒓𝒂 𝒊 < 𝒋.
Ejemplo 15.
Capítulo 1. Matrices 29

1.10 Matriz diagonal

Una matriz es diagonal si es triangular superior y triangular inferior simultá-


neamente. La siguiente matriz cumple con estas condiciones

en donde se puede ver que sus elementos dij = 0 para i ≠ j


Ejemplo 16.

1.11 Matriz escalar

Si en una matriz diagonal los elementos aii son iguales a un escalar o número real
k para toda i, es decir, aii = ki para toda i = 1,2,3, ...., donde si k1 = k2 = ....= kn = k,
entonces la matriz resultante es llamada matriz escalar, de la siguiente forma
aij={k para i = j y 0 para i ≠ j}.

Ejemplo 17.
30 Un primer curso de Álgebra Lineal

1.12 Matriz identidad

Si en una matriz escalar k = 1, la matriz resultante es llamada matriz identi-


dad y se le denota por I. Denotada por:

Ejemplo 18. Sea f (x) = 2x3– 3x2 + 4x – 5I, encuentre f(A), si

Solución
Capítulo 1. Matrices 31

1.13 Matrices elementales

Las matrices elementales son aquellas matrices cuadradas que se pueden ob-
tener a partir de una matriz que en su diagonal principal contiene unos y el
resto de los elementos en la matriz son cero, mediante una sola operaci6n
elemental en los renglones.
Ejemplo 19.
32 Un primer curso de Álgebra Lineal

1.14 Matriz transpuesta

La matriz transpuesta resulta de intercambiar los renglones por columnas de


una matriz dada A, es llamada la matriz transpuesta de A y se denota por At.
Ejemplo 20. Dada la matriz

encuentre At

1.15 Matriz simétrica

Una matriz simétrica, es una matriz cuadrada A = [aij] que es igual a su trans-
puesta, tal que aij = aji.
Para una matriz simétrica A, se cumple que
. A = At
Una matriz simétrica B se puede obtener a partir de la matriz A, si cumple
con la relación B = A + At.
Ejemplo 21. Dada la matriz

encuentre una matriz simétrica.

Solución
Capítulo 1. Matrices 33

Esta matriz es simétrica como se comprueba a continuación:

Por lo tanto, se cumple que B = Bt

1.16 Matriz antisimétrica

Una matriz antisimétrica es una matriz cuadrada A = [aij] que es igual a


menos su transpuesta, tal que aij = -a ji.
Para una matriz antisimétrica A, se cumple que A = -At.
Una matriz antisimétrica B se puede obtener a partir de la matriz A, con la
relación B = A – At
Ejemplo 22. Dada la matriz

encuentre una matriz antisimétrica.

Solución

Por lo tanto B = -Bt y se comprueba que la matriz B es antisimétrica.


34 Un primer curso de Álgebra Lineal

1.17 Propiedades de las matrices

Sean las matrices A, B, C, de forma tal que las operaciones indicadas se pue-
dan realizar y sean k, r escalares, entonces se pueden establecer las siguientes
propiedades del álgebra de matrices:
A+B=B+A Propiedad conmutativa
A(B + C) = AB + AC Propiedad distributiva
(B + C)A = BA + CA Propiedad distributiva para la suma
A(B – C) = AB – AC = (B – C)A = BA –CA Propiedad distributiva
A + (B + C) = (A +B) + C Propiedad asociativa para la suma
A(BC) = (AB)C Propiedad asociativa para el producto
A + (–A) = 0 Propiedad recíproco o inverso aditivo
IA = A Propiedad de la matriz identidad
1A = A1 =A Propiedad de la matriz identidad
kA = Ak Producto escalar

La resta de matrices no es conmutativa, es decir, A ̶ B ≠ B ̶ A


La conmutatividad para el producto de matrices por lo general no se cum-
ple; ya que existen matrices A y B tales que: AB ≠ BA
BA.
Se deja al alumno comprobar las propiedades propuestas con matrices no
cuadradas.

1.18 Operaciones elementales sobre


los renglones de una matriz

Las operaciones que se realizan en una matriz son las siguientes:


1. Se puede multiplicar un renglón por un escalar diferente de cero
2. Se pueden intercambiar dos renglones
3. Se puede sumar un múltiplo de un renglón a otro.
Capítulo 1. Matrices 35

1.19 Matriz escalonada


Una matriz A se dice que está en su forma escalonada si es una matriz trian-
gular como se verifica en la siguiente matriz A

Propiedades

1. En la matriz A, arriba de cada escalón debes encontrar un uno, los cua-


les llamaremos pivotes (uno principal), debajo de cada pivote se encuen-
tran solamente ceros.
2. También se puede observar que en dos renglones sucesivos el pivote del
renglón de arriba está a la izquierda del pivote del renglón de abajo.
3. Cualquier renglón que conste de ceros exclusivamente se colocará en la
parte inferior de la matriz.
4. Si arriba y abajo de los pivotes todos los elementos son ceros entonces
decimos que la matriz A fue llevada a su forma escalonada reducida.

El proceso para llevar un matriz a su forma escalonada es conocido como


el proceso de Gauss y el proceso para llevarla a su forma escalonada reduci-
da se le llama el proceso de Gauss-Jordan.
Este proceso de escalonamiento se realiza con las operaciones elementales,
por ello, es importante establecer un método para obtenerlo. Al realizar una
operación entre renglones el último renglón que se presenta en la operación,
es el que se transforma, es decir, si indicamos la operación 2R1+ R2 el renglón
que cambia es R2, el renglón R1 no se modifica, al renglón R1 le llamaremos
renglón pivotal y al uno principal de este renglón le llamamos como se men-
cionó antes pivote.
36 Un primer curso de Álgebra Lineal

Se presenta a continuación el proceso de escalonamiento a detalle.


Ejemplo 24. Dada la siguiente matriz

llevarla a su forma escalonada.

Solución:

Se puede observar que la última matriz está ya en su forma escalonada.


Capítulo 1. Matrices 37

A continuación, llevaremos ahora esta matriz a su forma escalonada re-


ducida

Se observa que la propiedad cuatro se cumple, por lo tanto, la matriz ya


esta en su forma escalonada reducida.

1.20 Rango de una matriz

Sea una matriz A, si esta matriz es llevada a su forma escalonada, los renglo-
nes diferentes de cero definen el rango de la matriz y éste será igual al número
de renglones diferentes de cero.
También el rango de una matriz es el mayor de los órdenes de los menores
no nulos que podemos encontrar en la matriz. Por tanto, el rango no puede ser
mayor al número de filas o de columnas.
Ejemplo 25. Calculemos el rango de la siguiente matriz:
38 Un primer curso de Álgebra Lineal

Solución.
En el primer paso usamos como pivote el elemento a11:

La última matriz de A, muestra en cada renglón no nulo hay una entrada


no nula tal que todas las entradas por debajo de ésta (en la misma columna)
son cero. El rango de B, decimos es incompleto, e igual el número de sus ren-
glones no nulos: r(B) = 2.

1.21 Matriz inversa

Una matriz cuadrada A, tiene inversa si existe A-1 cumpliéndose que,

A-1 A = AA-1 = I
Donde A-1 es la matriz inversa de la matriz A.
Propiedades de la matriz inversa (A-1)
1. La inversa de una matriz invertible es única
2. Si A y B son invertibles AB es invertible y (AB)-1 = B-1A-1
3. Si A es una matriz cuadrada y k es un entero positivo, entonces, Ak = A
A A....A,
A....A con k factores.
4. Si A-1 existe, entonces A-n = A-1 A-1 A-1 ...... A-1, con k factores
5. (A-1)-1 = A
6.
Capítulo 1. Matrices 39

La utilidad de las matrices elementales y la técnica de eliminación de


Gauss-Jordan proporcionan un método general para calcular la matriz inver-
sa de una matriz invertible.

Método

1) Coloque la matriz A con la matriz identidad I del mismo orden de A


como se ve a continuación y la llamaremos matriz ampliada
[A | I ]
2) Realizar operaciones elementales en los renglones de la matriz amplia-
da, utilizando el método de Gauss-Jordan; de tal forma que en donde
está A quede la identidad I y en donde está I quedará una matriz que
llamaremos matriz inversa (A-1) esto es,

[ I | A -1]
Si en el proceso de eliminación, resulta un renglón compuesto exclusiva-
mente de ceros, entonces la matriz A no tiene inversa y se detiene el proceso.

1.22 Matriz Singular

Definición de matriz singular. Una matriz A se denomina singular si no tiene


inversa.
Ejemplo 26. Dada la matriz

; encuentre su matriz inversa, si es que existe.

Solución
Para encontrar la inversa de A, se le adjunta la matriz identidad I, esto es
[A | I ], se encuentra su matriz escalonada reducida, de tal forma que en don-
de está A se obtendrá la identidad I y en donde está I obtendremos la matriz
inversa (A-1)
40 Un primer curso de Álgebra Lineal
Capítulo 1. Matrices 41

Comprobamos que AA-1=I


42 Un primer curso de Álgebra Lineal

Ejemplo 27. Dada la matriz

, encuentre su inversa si ésta existe.

Solución
[A | I ]

Como un renglón se hace cero, la matriz A no tiene inversa. La matriz A al


no tener inversa es una matriz singular.
Capítulo 1. Matrices 43

Ejercicios propuestos

1. Escriba un ejemplo de una matriz de orden 2x2 que cumpla con las si-
guientes condiciones:
a) Antisimétrica.
b) Triangular inferior, no diagonal.
c) Simétrica y escalar.
d) Simétrica, escalar y no diagonal.
e) Triangular inferior y escalar.
2) Dadas las matrices A3x4; B4x4; C3x3; D4x5; E3x1; F2x4; sin hacer uso de la
forma desplegada, determine cuáles de las siguientes operaciones están
definidas. En el caso de que la operación esté definida indique el orden de
la matriz resultante.
3) Obtenga la matriz inversa de B utilizando el método de Gauss-Jordan

4) Dada la matriz

se pide lo siguiente:
a. Calcule Z-1
b. Calcule la expresión Z2 ̶ 5Z + 2I

Encuentre los valores de t, para los cuales la matriz A no tiene inversa.


CAPÍTULO 2

DETERMINANTES

“Se vería que mis convicciones son el resultado,


no de prejuicios de nacimiento,
sino de un examen profundo”.
Augustin Louis Cauchy

Antecedentes1

No es sorprendente que los comienzos de matrices y determinantes surjan a


través del estudio de sistemas de ecuaciones lineales. Cardano, en “Ars Magna”
(1545), da una regla para resolver un sistema de dos ecuaciones lineales que lla-
ma “regula de modo” y que llama “madre de reglas”. Esta regla resuelve como
la regla de Cramer un sistema cuadrado de orden dos, pero no alcanza la defi-
nición de un determinante; de cualquier manera su método lleva a la definición.
La idea de un determinante se conoce inicialmente en Japón antes de que
se conociera en el continente europeo. En 1683, Seki escribió el “Método” de
resolver los problemas que contienen métodos matriciales escritos en tablas
exactamente de la manera en que se construyeron los métodos chinos. Sin
tener ninguna palabra que corresponda a “determinante”, Seki introdujo de-
terminantes y dio métodos generales para calcularlos basándose en ejemplos.
Utilizando sus “determinantes”, pudo encontrar determinantes de matrices
cuadradas de orden dos a cinco.

1 Véase De Gracia, R., y Santos, J. (2019).

¶ 45
46 Un primer curso de Álgebra Lineal

Una década después se conoce en Europa el concepto de determinante en


la carta que Leibniz escribió a de l’Hôpital. Estaba convencido de que la bue-
na notación matemática era la clave para el progreso, por lo que experimentó
con diferentes notaciones para los sistemas de coeficientes. Sus manuscritos
no publicados contienen más de 50 formas diferentes de escribir sistemas de
coeficientes en los que trabajó durante un período de 50 años a partir de 1678.
Sólo dos publicaciones (1700 y 1710) contienen resultados sobre sistemas de
coeficientes y utilizan la misma notación que en su carta a de l’Hôpital.
Leibniz usó la palabra “resultante” para ciertas sumas combinatorias de
términos de un determinante. Probó varios resultados sobre los resultados,
incluida la regla de Cramer. También sabía que un determinante podía ex-
pandirse usando cualquier columna, lo que hoy se conoce como la expansión
de Laplace. Además de estudiar los sistemas de coeficientes de ecuaciones
que lo llevaron al cálculo de los determinantes, también estudió los sistemas
de coeficientes de formas cuadráticas que condujeron naturalmente hacia la
teoría de matrices.
En la década de 1730, Maclaurin escribió el “Tratado de Álgebra”, aunque no
se publicó hasta 1748, dos años después de su muerte. Éste, contiene los prime-
ros resultados publicados sobre determinantes que prueban la regla de Cramer
para sistemas cuadrados de orden dos y tres, e indican cómo funcionaría el caso
de matrices cuadradas de orden 4. Cramer estableció la regla general para los
sistemas de orden n, en el artículo “Introducción al análisis de curvas algebrai-
cas” (1750).
Cramer explicó con precisión cómo se calculan estos términos como pro-
ductos de ciertos coeficientes en las ecuaciones y cómo se determina el sig-
no. También explica cómo los n numeradores de las fracciones se pueden
encontrar al reemplazar ciertos coeficientes en este cálculo por términos
constantes del sistema.
El trabajo sobre los determinantes ahora comenzó a aparecer regularmente.
En 1764, Bezout dio métodos para calcular los determinantes, como lo hizo
Vandermonde en 1771. En 1772, Laplace afirmó que los métodos introducidos
por Cramer y Bezout no eran prácticos y, en un artículo en el que estudió las ór-
bitas de los planetas internos, analizó la solución de los sistemas de ecuaciones
lineales sin realmente calcularlas, mediante el uso de determinantes. Sorpren-
dentemente, Laplace usó la palabra “resultante” para lo que ahora llamamos el
determinante: sorprendente, ya que es la misma palabra utilizada por Leibniz,
Capítulo 2. Determinantes 47

sin embargo, Laplace debe haber desconocido el trabajo de Leibniz. Laplace


desarrolló la expansión de un determinante, que ahora lleva su nombre.
Lagrange, en un artículo de 1773, estudió las identidades de los determi-
nantes funcionales de matrices cuadradas de orden tres. Sin embargo, este
comentario se hace en retrospectiva ya que el mismo Lagrange no vio ningu-
na conexión entre su trabajo, el de Laplace y Vandermonde. Este documento
de 1773 es referente a mecánica, sin embargo, contiene lo que ahora consi-
deramos como la interpretación del volumen de un determinante, de manera
primigenia.
El término “determinante” fue introducido por primera vez por Gauss en
“Disquisitiones Arithmeticae” (1801) al discutir formas cuadráticas. Utilizó
el término porque el determinante permite establecer las propiedades de la
forma cuadrática. Sin embargo, el concepto no es el mismo que el concepto
actual de determinante. En el mismo trabajo, Gauss establece los coeficientes
de sus formas cuadráticas en matrices rectangulares. Describe la multipli-
cación de matrices (que él considera una composición, por lo que aún no ha
alcanzado el concepto de álgebra matricial).
Fue Cauchy en 1812, quien usó el concepto de “determinante” en su senti-
do moderno. Este trabajo es el más completo de los primeros sobre determi-
nantes. Probó y discrepó los resultados anteriores y dio sus propios resultados
en menores y adjuntos. En el documento de 1812, el teorema de multiplicación
para determinantes se probó por primera vez, aunque en la misma reunión
del Instituto de Francia, Jacques Philippe Marie Binet, también leyó un docu-
mento que contenía una prueba del teorema de multiplicación, pero fue menos
satisfactorio que el de Cauchy.
Arthur Cayley, en 1841, publicó la primera contribución inglesa a la teoría
de los determinantes. En este documento, usó dos líneas verticales a cada
lado de la matriz para denotar el determinante, una notación que ahora se ha
convertido en estándar.
Weierstrass utilizó una definición axiomática de un determinante en sus
conferencias y, después de su muerte, se publicó en 1903, la nota sobre “Teo-
ría de los determinantes”. En ese mismo año, también se publicaron las con-
ferencias de Kronecker sobre los determinantes, nuevamente después de su
muerte. Con estas dos publicaciones, se establece de manera formal, la teoría
moderna de los determinantes, pero la teoría matricial tardó un poco más en
convertirse en una teoría plenamente aceptada.
48 Un primer curso de Álgebra Lineal

2.1 Concepto de determinante de una matriz

Definición de determinante. Un determinante es una función que asigna un


número real a una matriz cuadrada.
La interpretación geométrica a partir de una matriz cuadrada de orden dos
es la siguiente:

y
Se de forma general una matriz de
2×2 E D
F
5 4

G B
Teniéndose los elementos numéricos 6
3
siguientes: C
J

1 2
x
A H I

Se asume que las columnas de la matriz A2, conforman los pares ordenados en
al plano cartesiano (x,y), lo que permite su representación geométrica.
Se pueden establecer entonces áreas definidas para los cuadrados (l2) y
triángulos (½ bh) que se definen como:
P1 = área de AHC = ½ (2)(1) =1
P2 = área de HIJC = (1)(1) = 1
P3 = área de CDJ = ½ (2)(1) = 1
P4 = área de EBD = ½ (2)(1) = 1
P5 = área de EBFG = (1)(1) = 1
P6 = área de AGB = ½ (2)(1) = 1
PT = área AIDF = (3)(3) = 9
Capítulo 2. Determinantes 49

Definimos como el área del rombo (Pr) al área total (AT) menos la suma
del resto de las áreas obtenidas ( P1 a P6), definido como:

Por lo tanto, el determinante de la matriz A será Pr.


Sea A una matriz cuadrada de cualquier orden, se representa simbólica-
mente al determinante de A como |A| o det (A)
La diferencia entre una matriz y un determinante consiste, en que mientras
la matriz es un arreglo rectangular de números en filas y columnas, el deter-
minante es un número perfectamente definido y asignado a una matriz.

2.1 Determinante de orden dos

Sea una matriz cuadrada de orden dos, entonces su determinan-


te queda definido por:

Se puede observar que el producto de arriba abajo de izquierda a dere-


cha es positivo y que el producto de derecha a izquierda de arriba abajo es
negativo.
Ejemplo 1. Sea la matriz , calcule el |A|
Solución

Ejemplo 2. Sea la matriz , calcule el |B|


Solución
50 Un primer curso de Álgebra Lineal

2.2 Determinantes de orden tres

En los determinantes de orden tres existen varias formas de calcularlos, uno


de los métodos consiste en repetir las dos primeras columnas a la derecha del
determinante, otro en repetir los dos primeros renglones en la parte inferior
del determinante, otro método es el llamado del triángulo; estos métodos se
les conoce como el método de Zarrus y por último el método de menores y
cofactores. Es importante remarcar que los métodos de solución señalados
anteriormente sólo son válidos para determinantes de orden tres, con excep-
ción del método por menores y cofactores que es un método general aplicable
a determinantes de cualquier orden.

2.3 Regla de Zarrus para la solución de determinantes


de orden tres

Dada la matriz ; para encontrar el determinante

asociado por el método de Zarrus se pueden utilizar las siguientes técnicas.

2.3.1 Solución por el método de repetir columnas

Este método consiste en repetir las dos primeras columnas, después de la


tercera columna como se ve a continuación

Se puede observar que a partir de la diagonal principal existen tres para-


lelas de tres elementos cada una a las cuales se les asocia un signo positivo y
Capítulo 2. Determinantes 51

a las diagonales a partir de la segunda diagonal principal se les asigna signo


negativo, como se ve en la representación de arriba quedando el determinante
como:

2.3.2 Solución por el método del triangulo

Este método consiste en multiplicar la diagonal principal, luego se le suma


una de las diagonales secundarias multiplicada por el extremo opuesto, luego
se le suma la otra diagonal secundaria multiplicada por el extremo opuesto,
todos estos sumandos son positivos salvo que algún numero en estas diagona-
les no los cambie. Esto se puede ver a continuación

Los números negativos se obtienen de forma semejante con la segunda


diagonal principal como se muestra a continuación

Por lo tanto

El cual es la misma solución que de repetir columnas. El método de repe-


tir renglones consiste en repetir los dos primeros renglones debajo del tercer
renglón, formándose ternas semejantes al método de repartir columnas y al
método del triangulo
52 Un primer curso de Álgebra Lineal

Ejemplo 3. Calcule el determinante de la matriz siguiente:

Solución por el método del triángulo

Solución por el método de repetir columnas

2.4 Menores y cofactores


Este método es un método general para calcular determinantes para matrices
cuadradas de cualquier orden.
Definición de determinante. Si tenemos la matriz cuadrada ,
definimos entonces el determinante, de la siguiente forma:

donde |Mij | es un determinante menor que resulta de eliminar el renglón i y la


columna j; por otra parte aij = – (-1)i+j Mij,a aij, se le conoce como el cofactor
del elemento aij.
Aplicando este método a las matrices de orden tres, como la siguiente ma-
triz A:
Capítulo 2. Determinantes 53

Dada la definición anterior, obtenemos

Ejemplo 4. Dada la matriz , encuentre el |A|, por el método


de menores y cofactores
Solución
Fijaremos el primer renglón y sustituiremos las columnas empezando por
la columna uno.

El determinante es el mismo que el obtenido en el problema 3.


Es conveniente aclarar que el determinante se puede obtener fijando el
renglón o la columna que se quiera, teniendo cuidado de poner el signo que le
corresponda a cada menor. El cual se obtiene de la manera siguiente:

El método de menores y cofactores puede hacerse muy largo de trabajar so-


bre todo cuando el orden de los determinantes es de cuatro o más. La solución
se puede simplificar aplicando las operaciones elementales entre renglones y
columnas.
Ejemplo 5. Encuentre el determinante de la matriz
54 Un primer curso de Álgebra Lineal

Solución
1. Se selecciona, bien sea, un renglón o una columna (si no lo hay se obtie-
ne con operaciones entre renglones o columnas)
2. Seleccionemos el uno que se encuentra en el primer renglón

3. Se aplica el método de cofactores

Obteniéndose el mismo resultado que el ejemplo 4.


También se puede encontrar la solución de un determinante utilizando la
matriz triangular.
Teorema 1. Si A es una matriz triangular de orden n, el det(A) es el produc-
to de los elementos de la diagonal principal, esto es, det(A) = a11 a22……ann.
Ejemplo 6. Encuentre el determinante de la matriz A, utilizando el teorema 1

Solución
Se reduce la matriz A aplicando operaciones elementales a fin de obtener
la forma escalonada
Capítulo 2. Determinantes 55

Aplicando el teorema obtenemos

Podemos también realizar la siguientes operaciones

Teorema 2. El determinante de una matriz cuadrada A es igual a cero, si y


sólo si, la matriz A es singular.

det (A) = 0  A es singular

Teorema 3. Una matriz cuadrada A es invertible, si y sólo si, el determinan-


te de la matriz A es diferente de cero

det (A) ≠ 0

2.5 Propiedades de los determinantes

Sean A y B dos matrices cuadradas, entonces las siguientes propiedades se


cumplen.
i. Si en la matriz A existe un renglón o una columna de ceros, el det (A) = 0

ii. Si en la matriz A existen dos renglones (o columnas) iguales o proporcio-


nales, entonces det (A) = 0
56 Un primer curso de Álgebra Lineal

iii. Si en una matriz A se intercambian dos renglones o columnas entonces el


det (A) se multiplica por (–1)

Se puede observar que en el segundo determinante se intercambiaron los


renglones con respecto al primer determinante.
iv. El determinante de la matriz A es igual al determinante de su transpuesta,
esto es, det (A) = det (A')

v. Si una matriz A tiene un renglón o columna el cual es un múltiplo escalar


k diferente de cero, éste se pude factorizar del determinante de A.

vi. Dada una matriz cuadrada A de orden n y k un escalar, se cumple que,


(kA)) = kndet (A)
det (kA
Sea A una matriz cuadrada de orden 4, si |A| = 4, obtenga |3A|
|3A| = 34|A| =3 4(A) = 324
[Link] A y B, el determinante del producto de A y B es igual al producto de
los determinantes de A y B, esto es, det (AB) = det (A) det (B)
Sea A , se cumple que

det(A) det(B) = (1)(3) = 3


Capítulo 2. Determinantes 57

Se cumple que el det(A) det(B) = det (AB)


viii. El determinante de la matriz identidad (I) es igual a uno
det (I) = 1

ix. El determinante de una matriz triangular superior o inferior es igual al


producto de los elementos de la diagonal principal
x. Una matriz cuadrada A es invertible si y sólo si el det (A) ≠ 0

2.6 Matriz de cofactores

Definición de matriz de cofactores. Sea A una matriz cuadrada de orden n y si


es cofactor del elemento de la matriz A, entonces la matriz resultante se llama
matriz de cofactores de A

2.7 Matriz adjunta

Definición de matriz adjunta. La matriz adjunta de A es la matriz transpuesta


de cofactores de A, Adj(A) = (Cof A)’
58 Un primer curso de Álgebra Lineal

Una vez que hemos estudiado los determinantes y definido la matriz ad-
junta calcularemos la matriz inversa de una matriz A con el siguiente teorema.
Teorema 4. Si A es una matriz cuadrada de cualquier orden invertible,
decimos que la matriz inversa de A, es igual a la matriz adjunta de A entre su
determinante.

Sea A una matriz cuadrada de orden dos, dada por A = para ob-
tener su inversa por el método de la matriz adjunta, realizan los siguientes
pasos:
1. Calcular el determinante de A

2. Se obtiene la matriz adjunta

3. Aplicando el teorema 4, se obtiene

Esta relación nos permite calcular en una forma rápida la inversa de una
matriz cuadrada de orden dos.

Ejemplo 7. Dada la matriz


A= , encuentre su matriz inversa.
Capítulo 2. Determinantes 59

Solución

Comprobación

Ejemplo 8. Dada la matriz A = , encuentre su inversa.


Solución

A-1 no existe ya que se presenta una indeterminación

Ejemplo 8. Dada la matriz A = , encuentre su matriz inversa.


Solución
1. Se calcula el determinante de la matriz A, para ver si tiene inversa.

Como el determinante es diferente de cero la matriz tiene inversa


2. La matriz adjunta de A es la matriz de cofactores de A transpuesta

De las matrices calculadas, obtenemos


60 Un primer curso de Álgebra Lineal

Por lo tanto, podemos calcular la inversa de la matriz A

Ejemplo 9. Dada la matriz A = , encuentre su matriz inversa.


Solución

La matriz A no tiene inversa ya que su determinante es igual a cero

Ejercicios propuestos

1. Calcule el rango de la siguiente matriz

2. Calcule el determinante de la siguiente matriz

3. Calcule el determinante de la siguiente matriz utilizando el teorema del


cálculo del determinante por matriz escalonada

4. Obtenga la matriz inversa de A utilizando la fórmula Adj(A)


CAPÍTULO 3

SISTEMAS DE ECUACIONES LINEALES

Dios hace aritmética


Karl Friedrich Gauss

Antecedentes2

Los babilonios sabían cómo resolver problemas concretos que involucraban


ecuaciones de primer y segundo grado, usando complementación de cuadra-
dos o sustitución, así como también ecuaciones cubicas y bicuadráticas, y
sistemas de ecuaciones lineales y no lineales.
Por su parte, los matemáticos chinos durante los siglos III y IV a.C. conti-
nuaron la tradición de los babilonios y nos legaron los primeros métodos del
pensamiento lineal.
Por ejemplo, en el tratado “Nueve capítulos sobre el Arte Matemático”,
publicado durante la Dinastía Han, así como un método para su resolución,
conocido como la regla “fan-chen”, la cual, en esencia, es el conocido método
de eliminación gaussiana de nuestros días. Es interesante recordar el proble-
ma que dio origen a este sistema lineal, el cual es similar al planteado por los
babilonios.
Luego vendrían los aportes de los matemáticos islámicos y europeos, quie-
nes siguieron cultivando el pensamiento lineal. Por ejemplo, Leonardo de Pisa

2 Véase “Divulgaciones Matemáticas”, vol. 14, núm. 2(2006).

¶ 61
62 Un primer curso de Álgebra Lineal

(1180-1250), mejor conocido como Fibonacci, en su obra “Liber Quadratorum”


publicada en 1225.
Los sistemas de ecuaciones lineales comenzaron a ser estudiados siste-
máticamente por Leibniz y Cramer a mediados del siglo XVIII. Este último
matemático, expuso lo que hoy conocemos como regla de Cramer para los
sistemas de orden tres. A mediados del siglo XIX fue Cayley, al estudiar
las matrices, quien dedujo la fórmula general de la regla de Cramer y quien
expuso claramente la condición necesaria y suficiente para que un sistema
cuadrado de ecuaciones lineales tuviera solución única, a saber, que la matriz
de los coeficientes del sistema fuera invertible.
Frobenius introdujo la noción de rango de una matriz en 1879, aunque en
relación con los determinantes. Esta definición permitió generalizar el teore-
ma que hoy conocemos como teorema de Rouche-Frobenius.
Gauss dedujo a principios del siglo XIX un método que permite resolver
cualquier sistema de ecuaciones lineales. Este método cayó en el olvido pues
es más engorroso que la presentación matricial hecha por Cayley y por Fro-
benius. Jordan dedujo un algoritmo alternativo a la fórmula presentada por
Cayley para calcular la inversa de una matriz. Hoy conocemos este método
como el algoritmo de Gauss-Jordan.
A medida que en otras disciplinas científicas se iba encontrando que los
problemas se podían plantear en términos de sistemas de ecuaciones lineales
los matemáticos se empezaron a preocupar de aspectos como el número de
operaciones en un algoritmo. Pronto se dieron cuenta que la fórmula para el
cálculo de la inversa es muy costosa por el número de operaciones, mientras
que el método de Gauss exigía un número considerablemente menor.
Un problema muy complicado es el siguiente: ¿De qué forma contribuyen
los errores de redondeo individuales al error total? Fue atacado por primera
vez por Von Neumann, si bien sólo encontró estimaciones muy complicadas.
Actualmente se utiliza el método de la pivotación parcial, una ligera variante
del método de Gauss, para intentar que los errores parciales sean los menores
posibles. En 1948, el matemático inglés Alan Turing desarrolló la factoriza-
ción LU.
Capítulo 3. Sistemas de ecuaciones lineales 63

3.1 Concepto de ecuación lineal

Definición de una ecuación lineal. Una ecuación lineal es una igualdad donde
intervienen una o más variables o incógnitas a la primera potencia por deter-
minar.

a1x1 + a2x2 +…+ anxn = b

Todos los valores que al ser substituidos en las variables de la ecuación li-
neal, satisfacen dicha ecuación y son llamados: solución de la ecuación lineal
o conjunto solución (C.S)
Ejemplo 1. Dada la ecuación lineal 2x + 4 = 0 encuentre su conjunto so-
lución.
Solución
4x - 8 = 0; x = 2
C.S. = {2}
dado que 4(2) - 8 = 0

Ejemplo 2. Encuentre el conjunto solución de la ecuación 5x + y = 19


Solución
y = 19 – 5x
5x

Para cada valor de x, se obtendrá un valor de y, generalizando podemos


parametrizar la variable x. Si x = t entonces y = 19 – 5t;
5t donde t ∈ .
Por lo tanto, su C.S. = {(x, y) / x= t, y = 19-5t, t ∈ R}
R}. Se observa que existe
un número infinito de soluciones.
En general se puede encontrar el conjunto solución de una ecuación lineal
en n-variables.
Un conjunto de ecuaciones lineales en las variables x1, x2,…….,
,…….,xxn es un
conjunto finito de ecuaciones lineales en dichas variables.
64 Un primer curso de Álgebra Lineal

Un sistema de ecuaciones lineales con m ecuaciones y n variables está


dado por:
a11 x1+a12x2+ … +a1n xn = b1
a21 x1+a22x2+ … +a2n xn = b2

am1 x1+am2 x2+ … +amm xn = bm


Determinamos que las aij son constantes y son los coeficientes de las va-
riables del sistema de ecuaciones, los bn son constantes, x1, x2,……., xn son
las incógnitas de la ecuación lineal. Las constantes con doble subíndice aij
se interpretan de la siguiente manera: el primer subíndice (i) nos indica la
ecuación en que se encuentran y el segundo subíndice (j) nos indica a que
incógnita está aplicado.

3.2 Solución de un sistema de ecuaciones


lineales por Gauss-Jordan

La solución del sistema de ecuaciones lineales se puede obtener trasforman-


do el sistema de ecuaciones en un sistema equivalente que resulta más fácil
de resolver, lo que permite obtener un mismo conjunto solución. Este nuevo
sistema se obtiene aplicando las operaciones elementales sobre los renglones
para obtener una matriz escalonada reducida.
Los sistemas de ecuaciones lineales pueden no tener solución, solución
única, o solución múltiple.
Ejemplo 3. Encontrar el conjunto solución del sistema de ecuaciones.
x + 5y
5y + 3z
3z = 7
3x + 2y
2y + 4z
4z = 2
5x – 3y
3y – 4z
4z = 4|
Solución:
Se resta 3 veces la primera ecuación a la segunda y se resta 5 veces la pri-
mera ecuación a la tercera.
x + 5y
5y + 3z
3z = 7
3x + 2y
2y + 4z
4z = 2
5x – 3y
3y – 4z
4z = 4
Capítulo 3. Sistemas de ecuaciones lineales 65

Se multiplica – la segunda ecuación


x + 5y
5y + 3z
3z = 7
–13yy – 5z
–13 5z = –10
–28yy – 19z
–28 19z = –31
Se suma 28 veces la segunda ecuación a la tercera y se resta 5 veces la
segunda ecuación a la primera.
x + 5y
5y + 3z
3z = 7
y + 5/3z
5/3z = 10/13
–28yy – 5z
–28 5z = 23
Se multiplica la tercera ecuación por – y se resta veces la tercera
ecuación a la segunda

Se resta 17/13 veces la tercera ecuación a la primera

Obteniéndose como resultado


66 Un primer curso de Álgebra Lineal

Por lo tanto, su conjunto solución está dado por: C.S.= { (x, y, z)/ x =2, y = 1,
1
z =-3}; como se puede ver en este sistema tiene una solución única
Un sistema de m ecuaciones lineales y n incógnitas también se puede ex-
presar matricialmente por medio de la ecuación equivalente:
AX = B
Por lo tanto,

Como se puede observar A representa la matriz de coeficientes aij, X re-


presenta la matriz columna de incógnitas, B representa la matriz columna de
términos constantes bm.
Un sistema de ecuaciones lineales se puede expresar en forma matricial
con la que llamaremos matriz aumentada.

La solución de un sistema de ecuaciones lineales se puede encontrar a par-


tir de los siguientes pasos:
a) Obtener la matriz aumentada del sistema de ecuaciones
b) Resolver el sistema de ecuaciones aplicando la eliminación de Gauss o
de Gauss-Jordan.
Ejemplo 4. Encontrar el conjunto solución del sistema de ecuaciones
x + y + 3z
3z = 7
3x + 2y
2y + 4z
4z = 2
5x – 3y
3y – 4z = 4
Capítulo 3. Sistemas de ecuaciones lineales 67

Solución
Escribimos una matriz aumentada de este sistema de ecuaciones

Se encuentra la matriz escalonada reducida

C.S. ={ (x, y,z)/ x = ,y= ,z= }


Como se puede ver en este sistema tiene una solución única.
Ejemplo 5. Encontrar el conjunto solución del sistema de ecuaciones
x + 3y
3y – 4z
4z = –1
2x – y + 3z
3z = 4
3x + 2y
2y – z = 3
Solución
Escribimos una matriz aumentada de este sistema de ecuaciones
68 Un primer curso de Álgebra Lineal

Se encuentra la matriz escalonada reducida

Se puede ver que es un sistema con dos ecuaciones y tres incógnitas, por
lo tanto, tendrá múltiples soluciones.
Parametrizando: Si z = a

C.S. = {(x, y, z)/ x = – a+ ,y= a– z = a, con a ∈ R}

Ejemplo 6. Encontrar el conjunto solución del sistema de ecuaciones


y – 4z
4z = 8
2x – 3y
3y + 2z
2z = 1
5x – 8y
8y + 7z
7z = 1
Solución
Escribimos una matriz aumentada de este sistema de ecuaciones
Capítulo 3. Sistemas de ecuaciones lineales 69

Se encuentra la matriz escalonada reducida

Se puede observar que el sistema presenta una inconsistencia, por lo tanto,


no tiene solución, ya que es imposible que 0z = 5/2
Ejemplo 7. Encontrar el conjunto solución del sistema de ecuaciones
x – y = –6
y+z=3
z + 2w
2w = 4
2x – 3w
3w = 5
70 Un primer curso de Álgebra Lineal

Se encuentra la matriz escalonada reducida

x = 31
y = –37
z = –34
w = 19
La solución asociada al sistema de ecuaciones es una solución única. Y su
conjunto solución asociado es: C.S. = {(x, y, z)/ x =31
=31,, y = –37, z = –34 ˄w=19}
Ejemplo 8. En qué condiciones el siguiente sistema de ecuaciones es com-
patible o consistente:
x – 2y
2y + 4z
4z = a
2x – 3y
3y + 5
5zz = b
–3xx + 5y
–3 5y – 9z = c
Solución
Una solución
Determinados

Complatibles

Indeterminados
Sistemas
Infinitas
Soluciones
Incomplatibles

Sin solución
Capítulo 3. Sistemas de ecuaciones lineales 71

De acuerdo con el cuadro anterior, deberemos considerar que la solución


del sistema de ecuaciones resultante es determinado y con una única solución o
bien indeterminado con múltiples soluciones.
Escribimos la matriz aumentada de este sistema de ecuaciones.

Escribimos el sistema de ecuaciones


x – 2y
2y + 4 z = a
y – 3z
3z = –2a + b
0=a+b+c
Para que el sistema sea consistente se debe cumplir
0=a+b+c
Para ello disponemos de una incógnita en función de las restantes, pode-
mos utilizar la que sea más sencilla de despejar
a = –b –c;
–c con b, c ∈ R
con esto, aseguramos que el sistema tendrá una solución múltiple.
Por otro lado, al obtener la matriz resultante determinamos que no hay
solución única. El sistema será incompatible o inconsistente si:
a+b+c≠0
obteniéndose que el sistema de ecuaciones, no tiene solución.

3.3 Solución de un sistema de ecuaciones


por el método de la matriz inversa

Consideremos la ecuación matricial AX = B, donde A es una matriz cuadra,


despejando se obtiene:
X = A-1 B
72 Un primer curso de Álgebra Lineal

Ejemplo 9. Dado el siguiente sistema de ecuaciones lineales encuentre el


conjunto solución usando la matriz inversa.
3–y+z=1
x + 2z – z = 2
–2x + y – 3z = 1
Solución
Se escribe la matriz de coeficientes del sistema A

La matriz A tiene inversa si su determinante es diferente de cero.

Se calcula la inversa A, en este problema utilizaremos el método de


Gauss-Jordan a partir de: [A|I]

Una vez obtenida la matriz inversa se multiplica por la matriz columna de


constantes
Capítulo 3. Sistemas de ecuaciones lineales 73

Determinamos ahora el conjunto solución del sistema de ecuaciones

Si la inversa de la matriz A, no existe, no significa que el sistema no tenga


solución, recuerde, que el sistema puede tener solución múltiple.

3.4 Sistemas de ecuaciones lineales homogéneos

Definición de un sistema de ecuaciones lineales homogéneas. Un sistema de


ecuaciones lineales es homogéneo si todos los términos constantes son cero y
la ecuación matricial equivalente es AX = 0

Los sistemas de ecuaciones lineales homogéneos siempre tienen solución,


y se conoce como solución trivial, si existen otras soluciones se dice que son
soluciones no triviales, la inconsistencia nunca se presenta. La solución trivial
ocurre cuando todas las incógnitas son cero.
El conjunto solución de un sistema de ecuaciones homogéneo, se obtiene
de la misma forma en que se encontró el conjunto solución de los sistemas de
ecuaciones no homogéneos.
Ejemplo 10. Dado el siguiente sistema de ecuaciones homogéneo, encuen-
tre su conjunto solución.

2x – 3y + z = 0
x + y – 2z = 0
3x + y + 2z = 0
74 Un primer curso de Álgebra Lineal

Solución
Escribimos la matriz aumentada de este sistema de ecuaciones

Se encuentra la matriz escalonada.

El conjunto solución obtenido es: C.S. = {(x, y, z) /x = 0, y = 0, z = 0}.


0} El
sistema de ecuaciones homogéneo, como se puede ver, sólo tiene la solución
trivial.
Ejemplo 11. Dado el siguiente sistema de ecuaciones homogéneo, encuen-
tre su conjunto solución.
2x1 + 2x2 – x3 + x5 = 0
–x1 – x2 + 2x3 – 3x4 + x5 = 0
x1 + x2 – 2x3 – x5 = 0
x3 + x4 + x 5 = 0
Solución
Escribimos la matriz aumentada de este sistema de ecuaciones y resolve-
mos por el método de Gauss
Capítulo 3. Sistemas de ecuaciones lineales 75

Se encuentra la matriz reducida.

Se escribe el sistema equivalente

Despejamos las variables en función de x5

Parametrizando x5

Por lo tanto, el conjunto solución es:

y el sistema es compatible con múltiples soluciones


76 Un primer curso de Álgebra Lineal

3.5 Solución de un sistema de ecuaciones


por el método de Cramer

Dado un sistema de n ecuaciones lineales con n incógnitas de la forma AX =


B, una matriz cuadrada A que representa la matriz de coeficientes aij, X re-
presenta la matriz columna de incógnitas, B representa la matriz columna de
términos independientes b. Es importante recordar que si el determinante de
A es diferente de cero, entonces el sistema tiene solución única.
La solución para el sistema de ecuaciones por el método de Cramer, se
obtiene a partir del siguiente cociente de determinantes de las matrices A y Aj
representado la ecuación matricial de la siguiente forma:

Aj, es la matriz que resulta al reemplazar la i–ésima columna de A por la


matriz de B.
Ejemplo 12. Resuelva el siguiente sistema de ecuaciones por la regla de
Cramer si es posible.
2x + y – z = 1
+2y + z = 2
x + 2z =3
Capítulo 3. Sistemas de ecuaciones lineales 77

Solución
Llamaremos ∆S al determinante del sistema de ecuaciones, con la finali-
dad de sustituir en

Por lo tanto, el conjunto solución es C.S. , lo


que nos indica que el sistema de ecuaciones posee una solución única.
78 Un primer curso de Álgebra Lineal

Ejercicios propuestos

1. Dado el siguiente sistema de ecuaciones lineales


x – 6y – 8z = 4
–2x + 3y + 5z = –5
x + 2y + (k2–15)z = k + 13
Hallar los valores de k para los cuales el sistema de ecuaciones lineales,
permita obtener:
a) Solución múltiple
b) No tenga solución
c) Solución única
2. Encontrar el conjunto solución del sistema de ecuaciones siguiente:
X1 + 2X
2 X3 + 3X
3X4 – X5 = 0
X2 – 2X
2 X3 + X4 + 3X
3X5 = 0
–2X1 + X2 – X4 + 4X5 = 0
–X1 + 3X2 + X3 + X5 = 0
3X1 + 2X2 + X4 = 0
3. Encontrar el conjunto solución del sistema de ecuaciones siguiente por el
método de la matriz inversa.
X1 + 2X
2 X3 + 3X
3X4 – X5 = –1
X2 – 2X
2 X3 + X4 + 3X
3X5 = 7
–2X
–2 X1 + X2 – X4 + 4X
4X5 = 3
–X1 + 3X
3X2 + X3 + X5 = 2
3X1 + 2X
2 X2 + X4 = 4
4. Del ejercicio anterior encuentre su solución por el método de Cramer
CAPÍTULO 4

ESPACIOS VECTORIALES

“Un gran descubrimiento resuelve un gran problema,


pero en la solución de todo problema, hay un cierto descubrimiento.
El problema que se plantea puede ser modesto: pero, si pone a prueba la
curiosidad que induce a poner en juego las facultades inventivas”
George Pólya

Antecedentes3

A finales del siglo XVII fueron redescubiertas y desarrolladas las ideas origi-
nales de los babilonios, y principalmente de los chinos, sobre el pensamiento
lineal. Recordemos que hasta el siglo XVIII el álgebra era, esencialmente,
el arte de resolver ecuaciones de grado arbitrario. El matemático y filósofo
francés, y uno de los iniciadores de la Enciclopedia, D’Alembert descubre que
las soluciones de un sistema Ax = b forman una variedad lineal. Asimismo,
Euler, Lagrange y el propio D’Alembert se dan cuenta que la solución general
del sistema homogéneo Ax = 0 es una combinación lineal de algunas solucio-
nes particulares.
En 1843, el matemático irlandés sir William Rowan Hamilton (1805-1865)
descubre los Quaternions como el primer y único anillo de división no con-
mutativo sobre los números reales ([19]-[20]), la unicidad fue probada por
Georg Frobenius (1849-1917) en 1879. Años antes, en 1863, Karl Weierstrass

3 Véase “Divulgaciones Matemáticas”, vol. 14, núm. 2(2006).

¶ 79
80 Un primer curso de Álgebra Lineal

(1815-1897) había probado que el cuerpo de los números complejos es el único


cuerpo conmutativo sobre los números reales.
En esa época aparecen con Hamilton, Arthur Cayley (1821-1895) y Her-
mann Gunter Grassmann (1809-1877) las nociones de vector y de espacio
vectorial, como una axiomatización de la idea de “vector” manejada por los
estudiosos de la Mecánica desde fines del siglo XVII, un hecho que repre-
sentó la génesis del Cálculo vectorial y de la Matemática moderna. Además,
considerado el maestro del álgebra lineal, Grassmann introduce el producto
geométrico y lineal, siendo el primero de estos equivalente a nuestro pro-
ducto vectorial. Asimismo, introduce las nociones de independencia lineal de
un conjunto de vectores, así como el de dimensión de un espacio vectorial,
y prueba la clásica identidad: dim(U + W) = dim(U) + dim(W) − dim(U ∩ W)
para cada par de subespacios U y W de un espacio vectorial.

4.1 Espacio vectorial

Definición de espacio vectorial. Sea V un conjunto de vectores, sobre el que


están definidas dos operaciones: la adición y el producto por un escalar.

4.1.1 Propiedades de un espacio vectorial

Si los siguientes axiomas se cumplen para todo vector u, v y w en V y todo


escalar k, t, entonces V se llama espacio vectorial.
1. Si u y v ϵ V entonces u + v ϵ V…………………Cerradura bajo la adición
2. u + v = v + u………………………………………Propiedad conmutativa
3. u + (v + w) = (u + v) + w con w ϵ V……………Propiedad asociativa
4. Existe 0 ϵ V tal que……………………………….Neutro aditivo.
u + 0 = 0 + u para todo u en V
5. Para todo u ϵ V, existe –u V………………………Inverso aditivo
u + (−u) = (−u) + u = 0
6. Si k ∈ R y u ϵ V, entonces……………………………Cerradura bajo la mul-
tiplicación escalar k u ϵ V
Capítulo 4. Espacios vectoriales 81

7. k (u + v ) = k u + k v…………………………………Propiedad distributiva
8. (k + t) u = k u + t u……………………………………Propiedad distributiva
9. k (t u ) = (k t) u………………………………………..Propiedad asociativa
10. 1u = u
Ejemplo 1. Demuestre que el conjunto de puntos en 2 que se encuentran
sobre una recta que pasa por el origen es un espacio vectorial.
Solución
Para que 2 sea un espacio vectorial se deben cumplir los axiomas. La
ecuación general de la recta se representa por y = mx + b. Al pasar por el
origen b = 0, por lo tanto, y = mx con pendiente m.
Sea V ={(x,y) | y = mx , m un escalar, x ϵ }
La comprobación de los axiomas se presenta a continuación:
Dados x = (x1, y1), y = (x2, y2), y z = (x3, y3), 0 = (0, 0) los cuales pertenecen
a V, por lo tanto,
y1 = mx1, y2 = mx2, y3 = mx3
x = (x1,mx1 ) ϵ V
y = (x2, mx2 ) ϵ V
z = (x3, mx3 ) ϵ V
0 = [0, m(0)] ϵ V
1. x + y = (x1, mx1) + (x2,mx2) = (x1 + x2, mx1 + mx2) = [(x1 + x2 ),m (x1 + x2)] ∈ V
Se cumple la cerradura para la suma.
2. x + y = (x1, mx1) + (x2 ,mx2) = (x1 + x2 , mx1 + mx2) = (x2 + x1,mx2 +, mx1) =
(x2 + mx2) + (x1, mx1), = x + y
3. x + y + z = [(x1,mx1) + (x2 ,mx2)] + (x3,mx3) = (x1 + x2,mx1 + mx2) + (x3,mx3) =
(x2 + x1 + x3 mx1 + mx2 + mx3) = (x1, mx1) + [(x2, mx2) + (x3,mx3) = x + y+ z)]
4. y + 0 = (x2,mx2) + (0,0) = (x2 + 0,mx2 + 0) = (x2,mx2) = y
5. -x = (-x1,-mx1) = x+ (-x ) = (x1,mx1) + (-x1,-mx1) = (x1,-x1,mx1-mx1) = (0,0 ) = 0
82 Un primer curso de Álgebra Lineal

6. Si k, t ∈ R, entonces k x = k (x1,mx1) = (kx1,k mx1) = (kx1,m(kx1)) ∈ V, es


cerrado bajo el producto de un escalar por un vector.
7. k(x + y) = k(x1+x2 ,mx1+mx2) = (kx1 + kx2 ,k mx1 + kmx2) = (kx1,k mx1 ) +
(kx2,k mx2) = k (x1,mx1) + k (x2,mx2) = kx + ky
8. (k + t)x = (k + t)(x1,mx1) = ((k + t)x1,(k + t)mx1)=((kx1 + tx1),(k mx1 + t
mx1)=(kx1,kmx1) + (tx1, tmx1) = k(x1,mx1) + t(x1,mx1)=ku + tu
9. t(kx) = t(k(x1,mx1)) = t (kx1,kmx1) = (t kx1,t kmx1) = t k (x1,mx1) = t kx
10. 1x = 1(x1,mx1 ) = ((1) x1,(1)mx1) = (x1,mx1 ) = x
Se satisfacen los diez axiomas, por lo tanto, el conjunto de puntos en 2
que se encuentran sobre una recta que pasa por el origen es un espacio vacío
vectorial.
Ejemplo 2. Demuestre que el conjunto de todas las matrices m x n es un
espacio vectorial
El conjunto de las matrices (Mmxn) es un espacio vectorial. Se deja al alum-
no su desarrollo y solución.
Los siguientes ejemplos cumplen con todos los axiomas de espacio vecto-
rial, por lo tanto, son espacios vectoriales.
- El espacio de todos los números reales
- El espacio bidimensional 2 de todo los pares ordenados de números
reales
- El espacio tridimensional 3 de todas las ternas de números reales
- El espacio n-dimensional n de todas las n-adas ordenadas de números
reales
- El espacio de todas las matrices m x n.
- El espacio de todas las matrices n x n.
- El conjunto de todas las funciones continuas definidas sobre la recta real
- El espacio Pn de todos los polinomios de grado ≤ n.
Capítulo 4. Espacios vectoriales 83

Ejemplo 3. Demuestre si el conjunto de puntos en 2 que se encuentra so-


bre una línea recta que no pasa por el origen, es un espacio vectorial.
Solución
No es un espacio vectorial ya que el axioma uno no se cumple, por lo tanto,
no es un espacio cerrado bajo la suma de dos vectores.
Es primordial mencionar que, al no cumplirse con alguno de los diez axio-
mas, se establece que no cumple con ser un espacio vectorial.

4.2 Subespacios vectoriales

Definición de un subespacio vectorial. Un conjunto de vectores W de un es-


pacio vectorial V, es un subespacio del espacio vectorial V, si se cumplen los
axiomas de cerradura bajo la suma de dos vectores para cualesquier u y v ϵ W
y la cerradura bajo el producto de un escalar con k ϵ y un vector u en W.
Es decir, un subconjunto W no vacío de un espacio vectorial V se llamará
subespacio vectorial de V si satisface los siguientes axiomas:
i. Si u y v ϵ W entonces u + v ϵ W
ii. Si k y u ϵ W entonces k u ϵW
Se establecen dos conjuntos importantes, el primero de ellos, el llamado
conjunto vacío {0}, seguido del espacio vectorial V, los cuales se llamarán
subespacios triviales de V.
Ejemplo 4. Sea V = 3, determine si W es un subespacio de V si:
w = {(x1,x2,x3 |x1,x2 = x1 + x3,x3 ϵ R|}
Solución
Sean u y v ϵ W
u = (u1,u2,u3) = (u1, u1 + u3,u3) ϵ W
v = (v1,v3,v3) = (v1,) v1 + v3,v3) ϵ W
84 Un primer curso de Álgebra Lineal

i) u + v = (u1, u1 + u3, u3) + (v1, v1 + v3, v3) = (u1 + v1, (u1, u3) + (v1, v3), u3 + v3)
(u1 + v1, (u
= (u (u1 + v1) + (u
(u3 + v3 ), u3 + v3) ϵ W
Por lo tanto, se cumple la condición de cerradura de W bajo la suma
ii) ku = k (u1, u1 + u3,u3) = (ku1, k(u1 + u3), ku3 ϵ W
Se cumple la condición de cerradura de W bajo la multiplicación por un
escalar, por lo tanto, determinamos que W es un subespacio de V = 3
Ejemplo 5. Sea V = M2, determine si S, el conjunto de todas las matrices
de la forma es un subespacio de V.
Solución
Dado A = ,B= ϵW

i) A + B = + W
No se cumple el axioma de la cerradura bajo la suma. Por lo tanto, W no
es un subespacio de V.

4.3 Combinación lineal

Definición de combinación lineal. Dado un conjunto de vectores u1,u3,u3, … …. un


en el espacio vectorial V y sea v un vector cualquiera de V, entonces V es una
combinación lineal del conjunto de vectores u1,u3,u3 … …. un si se puede expresar
como:
v = k1 u1 + k 2 u2 + k3 u3,……., knun
con k1, k 2, k3, ….., kn ϵ
Ejemplo 6. Considere los vectores u1 = (1,–1,2), u2 = (2,3,–2),u3 = (–2,1,–1),,
determine si el vector v = (1, 7,−4), puede escribirse como una combinación
lineal de vectores u1, u2 , u3.
Capítulo 4. Espacios vectoriales 85

Solución
Planteamos la ecuación, que representa una combinación lineal:
v = k1u1 + k 2u2 + k3u3
Sustituimos los vectores en la ecuación anterior:
(1,7,–4) = k1 (1,–1,2) + k 2 (2,3,–2) + k3 (–2, 1,–1)
(k1,–
(1,7,–4) = (k ,–kk1, 2k
2k1) + (2k
(2k 2, 3k
3k 2 – 2k
2k 2) + (–2k
(–2k3, k3 – k3)
(k1 + 2k
(1,7,–4) = (k 2k 2 –2
–2kk3 ,–
,–kk1 + 3k
3k 2 + k3, 2k
2k1 – 2k
2k 2 – k3)
Se representa este sistema de ecuaciones en forma matricial
k1 + 2k 2 – 2k
2k3 = 1
–k1 + 3k 2 + k3 = 7
2k1 – 2k
2k 2 – k3 = –4
Se puede observar que la matriz de coeficientes de este sistema de ecuacio-
nes está conformada por los vectores u1, u2 , u3 transpuestos respectivamente
y la columna aumentada es el vector v transpuesto. Resolviendo este sistema
de ecuaciones por el método Gauus-Jordan, se obtiene:

Transformando a un sistema de ecuaciones, obtenemos:


k1 = 1
k2 = 2
k3 = 2
86 Un primer curso de Álgebra Lineal

El vector v se puede escribir como una combinación lineal de los vectores


u1, u2 , u3 de la siguiente forma:
v = u1 + 2u2 + 22uu3
Ejemplo 7. Dados los vectores u1 = (2,–1,5),u2 = (1,–3,2), u3 = (3,–4,7), de-
termine si el vector v = (8,1,–2) puede escribirse como una combinación lineal
de los vectores u1, u2 , u3.
Solución
Planteamos le ecuación, que representa una combinación lineal:
v = k1u1 + k 2 u2 + k3u3
Sustituimos los vectores en la ecuación anterior
(8,1,–2) = k1 (2,–1,5) + k2 (1,–3,2) + k3 (3,–4,7)
Se representa este sistema de ecuaciones en forma matricial
2k1 + k 2 + 3k
3k3 = 8
–k1 – 3k
3k 2 – 4k
4k3 = 1
5k1 + 2k
2k 2 + 7k
7k3 = –2
Resolviendo este sistema de ecuaciones matricialmente por el método de
Gauss-Jordan

Transformando el resultado a un sistema de ecuaciones, obtenemos:


k1 + 3k
3k 2 + 4k
4k3 = 5
k2 + k3 = –2
00kk3 = –23
Capítulo 4. Espacios vectoriales 87

Se puede ver, en la tercera ecuación, que no existe un valor de k 3 que mul-


tiplicado por cero sea igual a –23, es decir, 0 • k3 ≠ –23
Por lo tanto, podemos concluir que los vectores u1, u2 , u3 no se pueden
representar como una combinación lineal con el vector v.

4.4 Conjuntos generadores

Si cualquier vector u de un espacio vectorial V se puede expresar como una


combinación lineal de vectores en un conjunto W, entonces W es un conjunto
generador de V.
Definición de conjunto generador. Si W = {u1, u2 , u3,…., un} es un con-
junto de vectores de un espacio vectorial V, W es generador de V si cualquier
vector de V es combinación lineal de u1, u2 , u3,……., un. Como se muestra a
continuación:
v = k1 u1 + k 2u2 + k3u3, … , knun
Ejemplo 8. Sea W el subespacio en 3, generado por los vectores u1 =
(1,–1,1), u2 = (–2,2,1). Determine cuál de los siguientes vectores vi, pertenecen
aW
i) v1 = (2,–2,1); ii) v2 = (1,–3–2); iii)v
iii)v3 = (3,–1,1)
Solución
Los vectores propuestos de W generaran 3, si estos vectores se pueden
establecer en una combinación lineal con cualquier vector en 3.
Sea cualesquiera vector, v = {a, b, c} y el espacio generador k1,u1, + k2u2 = v
Sustituyendo y desarrollando se tiene el siguiente sistema de ecuaciones
lineales:
k1 – 2k
2k 2 = a
–k1 + 2k
2k 2 = b
k1 – k 2 = c
88 Un primer curso de Álgebra Lineal

Resolviendo este sistema de ecuaciones matricialmente, por el método


Gauss, obtenemos:

El sistema sólo será consistente en el caso de que: a + b = 0


Los vectores en estudio se sustituyen en el subespacio generado
a) En el caso de v1 = (2,–2,1), sustituyendo en a + b = 0, obtenemos que:
2–2 = 0, concluimos que si pertenece a W.
b) Para v2 = (1,–3,2), sustituyendo en a + b = 0, obtenemos que: 1−3 ≠ 0,
concluimos que no pertenece a W.
c) En el caso de v3 = (3,–1,1) sustituyendo en a + b = 0, obtenemos que:
3−1 ≠ 0, concluimos que no pertenece a W.
Por lo tanto, concluimos que sólo el vector del inciso i) pertenece a W.
Ejemplo 9. Determine si el conjunto W genera a 4, de no generarlo, en-
cuentre dos vectores que pertenezcan a W si:
W = {(5, 4,−3, −1), ( −4, −3, 2, 1), (2,1, −1,1)}
Solución
Los vectores propuestos de W generan 4, sí se pueden establecer como
una combinación lineal con cualquier vector 4.
Sea v = (a,b,c,d) ϵ 4

k1u1 + k 2u2 + k3u3 = v


Sustituyendo y desarrollando se tiene el siguiente sistema de ecuaciones.
5k1 – 4k
4k 2 + 2k
2k3 = a
4k1 – 3k 2 + k3 = b
–3kk1 + 2k
–3 2k 2 – k3 = c
–k1 + k 2 + k3 = d
Capítulo 4. Espacios vectoriales 89

Transformando el resultado a un sistema de ecuaciones, obtenemos:


x1 ––xx2 ++xx3 = –d
x2 + 5x
5x3 = b + 4d
4d
x3 = b + c + d
0 = a – 33bb – 2c – d
El sistema será consistente cuando a−3b − 2c − d = 0,
0 por lo tanto, W no
genera a 4
Para encontrar vectores que pertenezcan al subespacio generado, es nece-
sario colocar una de las incógnitas en función del resto y asignarles valores.
A partir de b + c + d = 0,
0 se despeja “d”, obteniéndose:
d = −b − c
Sabemos que a no interviene en el conjunto generado por lo que puede ser
cualquier número real, si a =1, b = −2, c = 1 entonces el valor obtenido es d = 1.
De esta manera, un vector que pertenece al conjunto dado es: (1, −2, 1, 1)
De la misma forma calculamos el segundo vector, a partir de b + c + d =
0. Si a = 2, b = 3, c = −2
d = −b − c = −1
El segundo vector que pertenece al conjunto dado es: (2, 3, −2, −1)
90 Un primer curso de Álgebra Lineal

4.5 Vectores linealmente independientes

Definición de un vector linealmente independiente. Los vectores de un espa-


cio vectorial V, son linealmente independientes, si se puede poner en combi-
nación lineal con el vector cero, esto es,
k1u1 + k 2u2 + ……… + knun = 0
Además de los escalares k1 = k 2 = …= kn = 0, si existe algún k≠ 0 entonces
los vectores son linealmente dependientes.
Teorema 2. Sea un conjunto V con dos o más vectores, entonces es:
i) Linealmente dependiente, si y sólo si, por lo menos un vector de V puede
expresarse como una combinación lineal de los demás vectores de V.
ii) Linealmente independiente, si y sólo si, ningún vector en V se puede
expresar como una combinación lineal de los demás vectores de V.
Ejemplo 10. Dadas las matrices M2

Determine si son linealmente independientes.


Solución
Planteamos la combinación lineal
k1A1 + k 2B2 + k3C3 = 0
Desarrollamos la combinación lineal
Capítulo 4. Espacios vectoriales 91

obteniéndose el sistema de ecuaciones:


2k1 + 2k 2 =0
–2kk1
–2 – 2k3 =0
3k1 + 3k3 =0
– 3k 2 + 3k3 =0
Resolviendo este sistema de ecuaciones matricialmente, por el método
Gauss-Jordan:

Transformando el resultado a un sistema de ecuaciones, obtenemos:


k1 + k3 = 0
22kk 2 – k3 = 0
Despejando k1 y k2 del sistema anterior, obtenemos:
k1 = – k 3
k2 = k3
Se puede observar que las k, tienen una solución múltiple por lo que las
matrices dadas son linealmente dependientes. Dado el teorema 2, se deter-
mina que

Por lo tanto, las matrices son linealmente dependientes.


Ejemplo 11. El conjunto de vectores {e1 = (1,0,0),e2 = (0,1,0),e3 = (0,0,1)} ∈ R3
son linealmente independientes y se llaman vectores canónicos de R3.
La demostración se deja a los alumnos.
92 Un primer curso de Álgebra Lineal

Ejemplo 12. Dados los vectores v1 = (1,–3,2,5),v2 = (-2,1,0,4),v3 =(1,0,4,2),


determine si son linealmente independientes.
Solución
Planteamos la combinación lineal
k1v1 + k 2v2 + k3v3 = 0
Desarrollamos la combinación lineal
k1 (1,-3,2,5) + k 2 (-2,1,0,4) + k3 (1,0,4,2) = 0
(k1,–3
,–3kk1, 2k
2k1, 5k
5k1 ) + (–2k
(–2k 2, k 2, 0, 4k
4k 2 ) + (k
(k3,0, 4k
4k3, 2k
2k3) = 0
obteniéndose el sistema de ecuaciones:
2k1 – 2k 2 + k3 = 0
–3kk1
–3 + k2 = 0
2k1 4k3 = 0
5k1 + 4k 2 + 2k3 = 0
Resolviendo este sistema de ecuaciones matricialmente, por el método de
Gaus

La solución obtenida del sistema es k1 = k 2 = k 3 = 0, por lo tanto, conclui-


mos que los vectores son linealmente independientes.
Teorema 2. Sea W = {u1 ,u2, u3, …, ur} un conjunto 3, es decir, 0 n , si r > n,
entonces W es linealmente dependiente.
Corolario 1. Un conjunto linealmente independiente en n puede tener
cuando más n vectores.
Capítulo 4. Espacios vectoriales 93

4.6 Base y Dimensión

A partir de los conceptos de conjunto de vectores generadores y de vectores


linealmente independientes, podemos definir la base y la dimensión de un
espacio vectorial V.
Definición de base y dimensión. Un conjunto de vectores W = {v1,v2, .., vn}
de un espacio vectorial V se llama una base de V si W es linealmente inde-
pendiente y genera a V. La dimensión de la base es el número de vectores que
hay en ella.
Ejemplo 13. Dado el siguiente conjunto de vectores
{e1 = (1, 0 ,0), e2 = (0
W = {e (0 ,1, 0 ), e3 = ( 0, 0 , 1)}.
1)}
Determine si W es una base de 3.

Solución
Para que los vectores de W sean una base, deben ser linealmente inde-
pendientes y generadores de 3. En el ejemplo de los vectores canónicos, se
estableció que los vectores de W son linealmente independientes, por lo que
es necesario probar que son generadores.
Para demostrar que los vectores de W son generadores de 3, se debe de-
mostrar que cualquier vector u = (a, b, c) ϵ 3, se puede expresar como una
combinación lineal de los vectores de W.
k1e1 + k 2e2 + k3e3 = u
Sustituyendo y desarrollando, se tiene el siguiente sistema de ecuaciones
k1 = a
k2 = b
k3 = c
el sistema es consistente, entonces los vectores de W son generadores y, por
lo tanto, podemos afirmar que W es una base de 3.
94 Un primer curso de Álgebra Lineal

Ejemplo 14. Dado el siguiente conjunto de vectores


W = {v1, v2, v3}, con v1 = (2, –1, 3), v2 = (1,3,1), v3 = (–1, –1, 1)
Compruebe si W forma una base de 3.

Solución
Para que los vectores de W sean una base, debe cumplirse que sean lineal-
mente independientes y que sean generadores de 3.
i) El conjunto de vectores W es linealmente independientes si:
k1 v1 + k 2 v2 + k3 v3 = 0
sólo tiene solución trivial, esto es:

k1= k2 = k3 = 0

Sustituyendo y desarrollando se obtiene el siguiente sistema de ecuaciones


2k1 + k 2 – k3 = 0
–k1 + 3k 2 – k3 = 0
3k1 + k 2 + k3 = 0
Resolviendo este sistema de ecuaciones matricialmente, por el método de
Gauss

La solución al sistema de ecuaciones es


k1= k2 = k3 = 0
Capítulo 4. Espacios vectoriales 95

Por lo tanto, los vectores son linealmente independientes.


ii) Para probar que W={v1, v2, v3) genera a 3 se tiene que demostrar que
cualquier vector u = (a, b, c) ϵ 3, se puede expresar como una combi-
nación lineal de los vectores de W
k1 v1 +
+kk 2 v2 +
+kk3 v3 = u
Sustituyendo y desarrollando se tiene el siguiente sistema de ecuaciones
2k1 + k 2 – k3 = a
–k1 + 3k 2 – k3 = b
3k1 + k 2 + k3 = c
Resolviendo este sistema de ecuaciones matricialmente, por el método de
Gauss

Como se puede ver el sistema es consistente, entonces W es generador y,


por lo tanto, podemos afirmar que es una base de 3 que también es lineal-
mente independiente como se probó anteriormente.
Este método de prueba es muy interesante, pero poco práctico ya que es
posible probar simultáneamente que W es linealmente independiente y que
genera a 3 así:
Observando el sistema homogéneo
2k1 + k 2 – k3 = 0
–k1 + 3k 2 – k3 = 0
3k1 + k 2 + k3 = 0
96 Un primer curso de Álgebra Lineal

Y el sistema no homogéneo
2k1 + k 2 – k3 = a
–k1 + 3k 2 – k3 = b
3k1 + k 2 + k3 = c
Se puede ver que tienen la misma matriz de coeficientes, si esta matriz tie-
ne inversa se cumple la condición de independencia lineal y además el sistema
no homogéneo tiene una solución para cualquier vector u de 3.
La matriz de coeficientes está dada por la siguiente matriz:

La matriz A tiene inversa si su determinante es diferente de cero

Se concluye A tiene inversa W es una base para 3.

En el caso de que la matriz de coeficientes no sea cuadrada, se debe probar


que son linealmente independientes y que son generadores por la definición.
Ejemplo 15. Dado el siguiente conjunto de vectores
W = {v1 ,v2 , v3} con v1 = (-3, 0, 1). v2 = (0, 3, 2), v3 = (2, 1, 0)
a) Pruebe si i) W forma una base para 3; ii) Si su respuesta es negativa,
¿Qué genera el conjunto de vectores?
Solución
Para que W sea una base deben cumplirse que generan a todo 3 y que son
linealmente independientes los vectores dados. Sea u = (a, b, c) ∈ 3, entonces
k1 u1 + k 2 u2 + k3 u3 = 0
y
k1 u1 + k 2 u2 + k3 u3 = u
Capítulo 4. Espacios vectoriales 97

los sistemas de ecuaciones que ambos generan tienen la misma matriz de


coeficientes.

Ambas condiciones se cumplen si |A| ≠ 0 ya que existiría A-1

Les vectores dados no forman una base para 3 ya que no son linealmente
independientes y generan a todo 3.
Se establece el conjunto de vectores W en combinación lineal con el vector u.
k1 u1 + k 2 u2 + k3 u3 = u
Sustituyendo y desarrollando se tiene el siguiente sistema de ecuaciones:
–3kk1
–3 + 2k3 = a
33kk1 + k3 = b
k1 + 2k 2 =c

Resolviendo este sistema de ecuaciones matricialmente. Por el método de


Gauss

Los vectores que generan el subespacio se establecerán a partir de:


a – 2b + 3c = 0.
Definición de dimensión. Si un espacio vectorial V tiene une base con n
elementos, se dice que V es de dimensión finita y n es la dimensión de V
Dim ((V
V) = n
98 Un primer curso de Álgebra Lineal

La dimensión del espacio cero { 0 }, se define como cero. La dimensión de


n =n
Ejemplo 16. Encuentre una base y la dimensión del conjunto solución W
del siguiente sistema de ecuaciones homogéneo
–x + 3y – 3z + 2w = 0
2x – 7y + 5z + 2w = 0
2x – 8y + 3z – 12w = 0
Solución

Si z = a y w = b
x = – 6a + 20b
y = – a + 6b
El vector solución es: (x, y, z, w) = (−6a + 20b, −a + 6b, a, b)
De acuerdo con el número de escalares que tenga el vector resultante será
el número de vectores en que se descompone. En este caso tenemos a y b, por
lo tanto, se descompone en dos vectores uno para a y otro para b, como se ve
a continuación:
(x, y, z. w) = (−6a, –a, a, 0) +(20, 6b, 0, b) = a( 6, −1, 1, 0) + b(20,6, 0,1)
Una base es: {(−6,−1, 1, 0 ), (20, 6, 0, 1)} y la dimensión es 2
Capítulo 4. Espacios vectoriales 99

Ejemplo 17. Encuentre una base y la dimensión del conjunto solución W


del siguiente sistema de ecuaciones homogéneo.
4x –6y – z –2w = 0
–6x +3y – 3z +5w = 0
–2x – 2y – 4z +3w = 0
Solución

Si z = a y w = b, el vector solución es:

Una base es: {(−1,−1,1,0),(19,8,0,18)}y la dimensión es 2


100 Un primer curso de Álgebra Lineal

4.7 Cambio de base

Un espacio vectorial de dimensión finita distinto de {0} tiene varias bases,


veremos cuál es la relación que existe entre las componentes de un vector
respecto a dos bases diferentes.
Definición de base. Sea V un espacio vectorial de dimensión finita con base
B = {v1,v2 ,..,v n} para cada v en V, existen escalares únicos k1, k2,…, kn tales
que k1 v 1 + k2 v2 +…+ knvn.
El vector cuyas componentes son los coeficientes de v, denotado por {v}B se
llama vector de coordenadas de V con respecto a B, [v]B = (k1, k2,…, kn )
La matriz de coordenadas de v con respecto a B es

Ejemplo 18. Dada la base B = {(3, −1), (1, −2)} de y el vector v = ( −1 , −3 )


i) Encuentre [ v ] B
ii) Calcule el vector w si [w]u =
Solución

Obteniéndose el siguiente sistema de ecuaciones

Resolviendo este sistema de ecuaciones, obtenemos:


Capítulo 4. Espacios vectoriales 101

i i) Pa r a calcular el vector w si [w]u =


se sustituye de la siguiente manera:

De manera general podemos establecer el procedimiento para realizar un


cambio de base:
Sean B1 ={u1, u2} y B2 = {v1,v2} dos bases de 2. Cualquier vector r ∈ 2 se
puede expresar como una combinación lineal de B1 por ser ésta una base con
el vector r, de la siguiente manera:

Para cambiar la base de B1 a la base B2, se establecen los vectores de B1 en


combinación lineal con los vectores de B2

Sustituyendo las ecuaciones (2) y (3) en la ecuación (1)

factorizando v1 y v2

Los escalares (k1a + k2c) y (k1b + k2d) son los vectores de coordenadas de
r con respecto a la base B2 esto es,

Descomponiendo esta matriz obtenemos:


102 Un primer curso de Álgebra Lineal

Se puede ver entonces que [r]B2 se obtiene por el producto de la matriz


y la matriz de coordenadas de [r]B1
La matriz por se le representa por P y se llama la matriz de transi-
ción de la base B1 a la base B2, por lo tanto, [r]B2 = p[r]B1
Ejemplo 19. Dadas las bases B1 = {(3,– 2),(1,– 1)} y B2 = {(– 3,– 1),(– 2,– 1)}
a) Encuentre la matriz de transición P de B1 a B2
b) Encuentre su matriz de coordenadas con respecto a B2 si v = (2,−3)
Solución
a) Sean:
u1 = av1 + bv2 (1)
u2 = cv1 + dv2 (2)
Resolviendo (1)

La solución de este sistema de ecuaciones es a = −7, b = 9


Resolviendo (2)

La solución de este sistema de ecuaciones es c = −3, d = 4


La matriz P solicitada es:

b) La matriz de coordenadas del vector v con respecto a la base B2 utilizan-


do la matriz de transición P, está dada por [v]B2 = P[v]B1
Capítulo 4. Espacios vectoriales 103

Encontremos primeramente la matriz de coordenadas [v]B1. La calculamos


a partir de:
v = k1 u1 + k 2 u2

Obteniéndose el siguiente sistema de ecuaciones


3k1 + k 2 = 2
–2kk1 – k 2 = –3
–2
Resolviendo el sistema matricialmente por el método Gauss-Jordan

Obteniendose como solución

De k1 y k2 obtenemos

Por lo tanto,

Otro método para encontrar la matriz de transicion P de la base B1 a la base


B2 es el que se presenta a continuacion, sean:
104 Un primer curso de Álgebra Lineal

Generándose los sistemas de ecuaciones siguientes:

En cada uno de estos sistemas tiene la misma matriz de coeficientes, por lo


tanto, se puede representar matricialmente de la siguiente manera:

La matriz obtenida en el lado derecho, es precisamente la matriz P de tran-


sición obtenida anteriormente.

De manera general se establece que la matriz aumentada se establece de la


siguiente forma.
a) Sea la matriz de transicion P de la base B1 a la base B2 entonces [B2 |B1]
b) Sea la matriz de transicion P de la base B2 a la base B1 entonces [B1 |B2]
Si P es la matriz de transición de la base B1 a la base B2, entonces P1 es la
matriz de transición de a base B2 a la base B1 y se representa por Q.
Para hallar la matriz de transición de la base B2 a la base B1 partimos de la
relación

Haciendo un razonamiento similar al cálculo de P, podemos calcular a Q.


Ejemplo 20. Considere las bases B1 = {(3, – 2), (1, – 1)} y B2 ={(– 3,– 1),(– 2,– 1)},
encuentre:
Capítulo 4. Espacios vectoriales 105

a) La matriz de transición Q = P –1 de la base B2 a la base B1


b) Su matriz de coordenadas con respecto a B1 si v = (2, −3)
Solución
a) La matriz de transición se obtiene a partir de [B1 |B2 ]:

Por lo tanto,

b) Para encontrar [v]B1, encontremos primeramente la matriz de coordena-


das [v]B2 , la cual se calcula a partir de

Obteniéndose el siguiente sistema de ecuaciones


– 3k1 – 2k 2 = 2
– 3k1 – k 2 = –3
Resolviendo el sistema matricialmente por el método de Gauss-Jordan

Los valores obtenidos son los siguientes:


k2 = –8
k2 = 11
La matriz de coordenadas [v]B1, obtenida es:
106 Un primer curso de Álgebra Lineal

Ejemplo 21. Dadas las bases, B1={u1,u2 ,u3} y B2 {v1,v2 ,v3}, donde tenemos

los vectores ;
encuentre:
a) La matriz de transición P de B1 a B2
b) [v]B2 utilizando la matriz P si [v] B1 =
Solución
Calculemos la matriz P utilizando:

La matriz solicitada es:

Por lo tanto,
Capítulo 4. Espacios vectoriales 107

Ejemplo 22. Dadas las bases B1 = {u1,u2 ,u3} y B2 = {v1,v2 ,v3}, donde los vec-

tores son ;
encuentre
a) La matriz de transición de Q de B2 a B1
b) [v] B1 utilizando la matriz Q si [v] B =
2
c) La matriz de transición P de B1 a B2
Solución
Calculemos la matriz Q utilizando

La matriz pedida es:

b) Calculamos [v] H utilizando la matriz Q


1

La matriz calculada es
108 Un primer curso de Álgebra Lineal

c) Calculamos la matriz de transición P, a partir de [B2 |B1]:

La matriz solicitada es:


Capítulo 4. Espacios vectoriales 109

Ejercicios propuestos

1. Determine si el conjunto de los números enteros es un espacio vectorial.


2. Determine que el conjunto de las matrices Mmxn es un espacio vectorial
3. Considere los vectores u1 = (1,–2,1),u2 = (3,2,-2),u3 = (–2,1,–1), determine si
el vector v = (1, −7,−4), puede escribirse como una combinación lineal de
vectores u1, u2, u3.
4. Dado el siguiente conjunto de vectores
W = {v1, v2, v3}, con v1 = (3, –1, 2), v2 = (2,3,1), v3 = (1, –1, –1)
Compruebe si W forma una base de R3.
CAPÍTULO 5

TRANSFORMACIONES LINEALES

“El resultado lo conozco hace tiempo;


lo que todavía no sé es el camino para llegar a él”
F. Gauss

Antecedentes

El concepto de transformación lineal, es una conceptualización evolucionada


que requirió un gran desarrollo en la matemática, en la que se incorporan
nociones como función, linealidad, dependencia e independencia lineal, es-
pacios vectoriales, entre otros.
A fines del siglo XVII fueron desarrolladas ideas sobre la linealidad pro-
venientes de los babilonios y de los chinos. Un exponente de ello es Cramer,
quien formaliza la escritura para los sistemas de ecuaciones lineales; en su
libro Introduction à l’Analyse des Lignes Courbes Algébriques, presenta un
método para la resolución de sistemas de ecuaciones lineales que poseen el
mismo número de ecuaciones que de incógnitas mediante el uso de determi-
nantes. Es así que hasta el siglo XVIII el álgebra lineal era en esencia el arte
de resolver ecuaciones. D’Alembert descubre que las soluciones de un sistema
Ax = b forman una variedad lineal; así mismo, Lagrange y D’Alembert se
dan cuenta de que la solución general del sistema homogéneo Ax = 0 es una
combinación lineal de algunas soluciones particulares. Es la interpretación
matricial la que toma posición explícita durante este siglo, y es Frobenius, en
su obra Sobre sustituciones lineales y formas bilineales, quien hace una va-

¶ 111
112 Un primer curso de Álgebra Lineal

liosa contribución a la teoría de matrices y aporta al desarrollo del concepto


de transformación lineal, que venía evolucionando desde el siglo XVIII con
los trabajos de Cauchy, Weierstrass y Kronecker, entre otros, y que gracias a
Weil adoptaría su forma actual.
Son Hamilton, Cayley y Grassmann los responsables de la axiomatización
de las nociones de vector y de espacio vectorial propuestas por físicos de fines
del siglo XVII. Además, Grassmann introduce, entre otras, las nociones de
producto vectorial y de dimensión de un espacio vectorial, que son algunas
de las nociones fundamentales del álgebra lineal como hoy la conocemos. En
cuanto a las funciones en la linealidad, es Euler en el siglo XVIII quien pro-
pone una notación cercana a la actual —f(x)—, pero Haenkel en el siglo XIX
establece su definición en forma explícita. En el siglo XX, Klein unifica la
geometría, afirmando que ésta es el estudio de un espacio junto con un grupo
de transformaciones y de las estructuras que permanecen invariantes en ese
grupo. El rol del concepto transformación cambia, constituyéndose en un eje
unificador.4

5.1. Transformaciones lineales


Concepto de transformación lineal. Sea T una función que efectúa una trans-
formación del espacio vectorial V al espacio vectorial W, la cual se expresa
como T: V → W, donde V es el dominio de T y W es el rango de T.
Definición de transformación lineal. La función T es una transformación
lineal si para todo u, v ϵ V y k ϵ R, se cumple:
i) T(u + v) =T(u) + T(v)
ii) T(ku) = kT(u)
De acuerdo con la definición de la transformación T, se le llama también fun-
ción o mapeo lineal de un espacio vectorial V a un espacio vectorial W, le
asigna a cada elemento de V un solo elemento de W, como se observa en la
Figura 1:

4 Véase Maturana, I. (2015).


Capítulo 5. Transformaciones lineales 113

Ejemplo 1. Sea T: una transformación definida como T(x, y) = (2x, y). Deter-
mine si T es una transformación lineal
Solución
La función T será una transformación lineal, si se prueba que las dos con-
diciones de la definición se cumplen.
Sean u, v ϵ R2 con u = (u1,u2) y v = (v1,v2)
i) T(u + v) = T(u) + T(v)
Calculamos T(u) + T(v)

T(u) + T(v) = T(u1,u2) + T(v1,v2) = (2u1,u2)+ (2v1,v2)


= (2u1 + 2v1, u2+ v2 ) … (1)

T(u + v) = T[(u1,u2) + (v1,v2)] = T(u1 + v1,u2 + v2 = (2(u1 + v1), (u2+ v2 )

= (2u1 + 2v1, u2+ v2) … (2)


Comparando (1) y (2) se puede observar que se cumple T(u + v) = T(u) + T(v)
ii) T(ku) = kT(u)
T(ku) = T[k(u1,u2)] = T(ku1,ku2) = (2(ku1),ku2) = 2(ku1,ku2)
Factorizando k, obtenemos
k(2u1,ku2) = kT(u)
Se ha comprobado que ambas condiciones se satisfacen, por lo tanto, pode-
mos concluir que T es una transformación lineal.
114 Un primer curso de Álgebra Lineal

5.2 Propiedades de las transformaciones lineales

i) T(0) = 0
ii) T(−v) = −T(v) para todo v ϵ V
iii) T(v − w) = T(v) − T(w) para todo v, w ϵ V

5.3 Representación matricial de una transformación


lineal

Sea T: Rn → Rm una transformación lineal, decimos que toda transformación


lineal se puede representar matricialmente, por medio de T(x)= Ax; donde A
es una matriz basada en la transformación línea de orden m x n. La matriz A
también es conocida como matriz estándar. Toda transformación matricial es
lineal.
Ejemplo 2. Sea T: R3 → R2 una transformación definida por la siguiente
expresión:
; encuentre su matriz asociada

Solución

La matriz asociada es:

Ejemplo 3. Sea T: R3 → R2 una transformación definida por:


T(xx, y, z) = (x
T( (x + 2y
2y − zz,, −2x
−2x − 4y
4y + 2 zz))
i) Determine si T es una transformación lineal.
ii) Encuentre la matriz asociada a T con respecto a las bases canónicas de
R3 → R 2
Capítulo 5. Transformaciones lineales 115

Solución
i) Sean u, v ϵ R3 con u = (u
(u1, u2, u3 ) y v = (v
(v1, v2, v3)
a) Verificamos si
i) T(u + v)
v) = T(
T(u) + T(
T(v)
Calculemos primero T(u) + T(v)
T(u) + T(
T(v) = (u
(u1 + 2u
2u2 – u3, – 2u1 – 4u
4u2 + 2u
2u3) + (v
(v1 + 2v
2v2 – v3, – 2v1 – 4v
4v2 + 2v
2v3)
= u1 + v1 + 2u
2u2 + 2v
2v2 – u3 – u3 – 2u
2u1 – 2v
2v1 – 4u
4u2 – 4v
4v2 + 2u
2u3 + 2v2v3 … (1)
Calculemos en segundo lugar T(u+ v)
T(u + v)
v) = T[(
[(uu1u2u3) + v1v2 v3)] =
= T[([(uu1+ v1), (u
(u2 + v2), (u
(u3 + v3)]
[(u1+ v1) + 2(u
= [(u 2(u2 + v2) – (u
(u3 + v3) – 2(u
2(u1 + v1) – 4(u
4(u2 + v2) + 2(u
2(u3 + 2v
2v3)] … (2)
Comparando (1) y (2) se puede observar que se cumple T(u + v) = T(u) + T(v)
b) T(ku) = kT(u)
T(ku
ku)) = T[k
T[k((u1,u2,u3,)] = T(ku1,ku2,ku3,)
(ku1 + 2ku
= (ku 2ku2 – ku3,) – 2ku
2ku1 – 4ku
4ku2 + 2ku
2ku3
factorizando k, obtenemos
= k(u1 + u2 – u3 – 2u
2u1 – 4u
4u2 + 2u
2u3) = kT
kT((u)
Por lo tanto, se cumple que T(ku) = kT(u)
Dado que ambas condiciones se satisfacen, podemos concluir que T es una
transformación lineal.
ii) Para encontrar la matriz asociada a la transformación T, se sustituye la
base canónica en la transformación matricialmente, los vectores resul-
tantes forman la matriz asociada.
116 Un primer curso de Álgebra Lineal

Ejemplo 4. Sea T: M22 → M22 una función definida por: T ;


determine si T es una transformación lineal.
Solución
Sean A = ϵ M2x2
Calculemos primero T(A)+T(B)
T(A)+T(B) = T =

… (1)

Calculemos seguidamente T(A+B)

Comparando (1) y (2) se puede concluir que T(u + v) ≠ T(u) + T(v), es decir,
y , por lo tanto, T no es una transformación lineal.

5.4 Cálculo de una transformación lineal

Consideremos la transformación lineal T con base v1,v2,v3 en el espacio vec-


torial V y los vectores u1,u2,u3 ϵ W, obtenidos bajo esta transformación, calcu-
laremos una expresión para T. Se obtendrá realizando una combinación lineal
de un vector v cualesquiera del espacio vectorial V con los vectores dados de
V, esto es:
v = k1v1 + k2v2 + … + knvn con k ϵ W … (1)
A continuación, aplicamos a (1) una transformación lineal y obtenemos:
T((v) = k1T(v1) + k2T (v2) + … … + knT(vn)
T … (2)
Capítulo 5. Transformaciones lineales 117

Dada la expresión (2) se obtiene una expresión para T. Los T(v) son reem-
plazados por los vectores u1,u2,u3…, un, de esta manera las únicas incógnitas
son las kn las cuales se obtienen a partir de la expresión (1)
Ejemplo 5. Sea T: R3 → R2 una transformación matricial y considere que:
T ; encuentre una expresión para T

Solución
Sabemos que v = k1v1 + k2v2 + k3v3 y T(v) = k1T(v1) + k2T(v2) + k3T(v3), con
v = (x
(x,y,z).
Calculamos k1,k2,k3 a partir de la combinación lineal siguiente:

Obteniéndose el siguiente sistema de ecuaciones

Se resuelve el sistema matricial obtenido por el método Gauss-Jordan1


118 Un primer curso de Álgebra Lineal

Del resultado anterior se obtienen los valores para cada una de la ki:
k1 = 2x – y + 2z

k3 =

k3 =

La expresión para T es

Comprobación:
Capítulo 5. Transformaciones lineales 119

5.5 Núcleo e imagen de una transformación lineal

Existen dos subespacios, el núcleo (Nt) o kernel (ker(T)) y la imagen (Img(T))


o recorrido (RT), asociados a una transformación lineal. Estos subespacios
proporcionan información acerca de las transformaciones lineales, espacios
vectoriales y matrices.
Definición de núcleo. Sea T una transformación lineal de un espacio vec-
torial V a un espacio vectorial W, es decir, T:V → W, entonces al conjunto de
todos los vectores de V que bajo la transformación T son iguales al vector cero
en W, es llamado núcleo, kernel o espacio nulo de la transformación T, esto es,
NT = {v ϵ V | T (v)=0 ϵ W}.
Toda transformación lineal T : V→W tiene otro conjunto asociado conoci-
do como imagen o recorrido.
Definición de imagen. Sea un vector v ϵ V que bajo la transformación T da
como resultado un conjunto de vectores u ϵ W que son sus imágenes, a este con-
junto se le conoce como la imagen de T, es decir, ImT = {u ϵ W | v ϵ V T(v) = u}
Definición de la dimensión o rango. La dimensión de la imagen se re-
presenta por Dim(ImT) y es igual al número de vectores que hay en la base,
excepto cuando sólo está el vector cero, en este caso la dimensión será cero.
Definición de la dimensión o nulidad del núcleo. La nulidad del núcleo
Dim(NT) es igual al número de vectores que hay en la base, excepto cuando
sólo está el vector cero el cual no es base, en este caso la dimensión es cero.
Ejemplo 6. Sea T: R3 → R2 una transformación matricial definida por
T ; encuentre

a) Núcleo de T
b) Una base para el núcleo de T
c) La nulidad de T
Solución

a) T =0
De a) se obtiene el siguiente sistema de ecuaciones
120 Un primer curso de Álgebra Lineal

Se resuelve matricialmente el sistema homogéneo por el método de


Gauss-Jordan

Obtenemos el sistema de ecuaciones lineales siguiente:

Resolviendo el sistema de ecuaciones lineales, obtenemos el conjunto so-


lución:

Parametrizando, si z = a, obtenemos

Obtenemos el vector

Por lo tanto, el núcleo es

b) Con el vector x anteriormente calculado, que representa el núcleo, obte-


nemos una base para el núcleo de T:
x = (12a, 5a, a) = a(12, 5, 1) como a ϵ R, una base para el NT es:
BNT = {(12, 5, 1)}
c) La dimensión Dim(NT) = 1
Capítulo 5. Transformaciones lineales 121

Ejemplo 7. Encuentre el recorrido y la dimensión para la transformación


lineal T : R3 → R2 definida por:

T
Solución
Para calcular el recorrido de T, se deben encontrar todos los vectores u ϵ R2
de forma que bajo la transformación se cumpla T =u

Sea u = (a,b) la transformación se establece como T = , al sustituir,


la transformación se representa como:

De la transformación se obtiene el siguiente sistema de ecuaciones

Resolviendo este sistema de ecuaciones lineales matricialmente por el mé-


todo Gauss-Jordan

El sistema de ecuaciones lineales obtenido se representa como:

El sistema es consistente, por lo tanto, el recorrido es un subespacio bidi-


mensional en R 2, con RT = R2 y la Dim RT = 2
122 Un primer curso de Álgebra Lineal

5.6 Rango y nulidad de una transformación lineal

Es importante resaltar que si T: V→ W es una transformación lineal:


a) El núcleo de T es un subespacio de V
b) El recorrido T es un subespacio de W
Definición de rango y nulidad. Sea T:V → W una transformación li-
neal, la dimensión del recorrido de T se llama Rango de T y se denota con
Ran(T) = Dim(Rt)
La dimensión del núcleo de T se llama, Nulidad de T y se representa por
NU (T)=Dim(NT)
Teorema 1. Si T:V→ W es una transformación lineal de un espacio vectorial
V de n―dimensiones a un espacio vectorial W, entonces, el Ran(T) + NU (T) = n,
esto es, Dim(RT) + Dim(NT) = n
Ejemplo 8. Sea T: R3 → R3 una transformación lineal definida por:
T(x, y, z) = (x + 2y − z, 2x − 3y + z, 5x − 4y + z); encuentre
a) Una base y la dimensión para el núcleo T
b) Una base y la dimensión para el recorrido de T
Solución
a) Para calcular una base para el núcleo se debe cumplir T = 0, es decir,

T =
Planteamos entonces el siguiente sistema de ecuaciones homogéneo a par-
tir de T(x, y, z)
Capítulo 5. Transformaciones lineales 123

Resolviendo el sistema homogéneo matricialmente por el método de


Gauss-Jordan

El sistema es consistente y los valores obtenidos del sistema de ecuaciones


son:

Parametrizando, si z = a, tenemos que:

El núcleo de T está dado por

Del núcleo de la transformación se pueden obtener infinito número de


bases:

La base obtenida será (NT) = {(1,3,7)} y la dimensión DT = 1


124 Un primer curso de Álgebra Lineal

b) Se calcula, en primer lugar, el recorrido; para obtenerlo se deben encon-


trar todos los vectores u ϵ R3 de tal forma que bajo la transformación T
= u; sea u = (a,b,c)

entonces T = , esto es,


x + 2y
2y – z = a
2x – 33yy + z = b
5x – 4y
4y + z = c
La imagen estará dada por todos los vectores u ϵ R3 que permiten que el
sistema de ecuaciones lineales sea consistente.
Resolviendo este sistema de ecuaciones lineales matricialmente por el mé-
todo Gauss-Jordan

El sistema será consistente si a + 2b – c = 0


Para determina el rango de T, se considera la ecuación resultante –a – 2b + c
y despejamos a, obteniendose a = –2b + c. Parametrizando, si b = s y c = t
obtenemos:

Una base para el recorrido se puede obtener de:

La base obtenida es (NT)= {s(–2, 1, 0) + t(1, 0, 1)} y la dimensión (DT) es 2


Ejemplo 9. Sea T : R4 → R3 una función definida por:
; encuentre
a) una base y la dimensión para el recorrido de T
b) una base y la dimensión para el núcleo de T
Capítulo 5. Transformaciones lineales 125

Solución
a) Para el cálculo del recorrido, debemos encontrar todos los vectores u ϵ R3 y

que bajo la transformación T = u. Sea u = (a, b, c), entonces T = ,


esto es

33xx –2y
–2y + z –w
–w = a
–2x +3
–2x +3yy + z +4w
+4w = b
66xx –5–5yy + z –3w
–3w = c
Recordando, la forma del sistema de ecuaciones es Ax = B y su represen-
tación queda formalizada de la siguiente manera:

Por lo tanto, la matriz asociada está dada por la siguiente matriz:

A=

La base de la imagen estará dada por todos los vectores u ϵ R3 que hacen
que el sistema de ecuaciones anterior sea consistente.
Resolviendo este sistema de ecuaciones lineales matricialmente por el mé-
todo de Gauss-Jordan:
126 Un primer curso de Álgebra Lineal

El sistema de ecuaciones será consistente si se cumple que: =0


Despejando a de la ecuación anterior, obtenemos a =
Parametrizando, si b = s y c = t, obtenemos a = , obtenemos el
recorrido de T

Una base para la imagen se puede obtener de la manera siguiente

La base calculada para (RT) ={ (3,8,0), (5,0,8)} y la dimensión (DT) es 2.

b) Para calcular la base para el núcleo se debe cumplir que: T = 0, es decir,

= , lo que permite confirmar el siguiente sistema de ecuaciones


homogéneo

33xx – 2y
2y + z – w = 0
2x + 3y
– 2x 3y + z + 4w
4w = 0
66xx – 5y
5y + z – 3w
3w = 0
Este sistema de ecuaciones homogéneo comparte la misma matriz asocia-
da A del sistema no homogéneo de la imagen. La diferencia radica en que la
matriz aumentada generada por el sistema homogéneo, sustituye la matriz
columna de las constantes, por un vector cero.
Resolviendo este sistema homogéneo matricialmente por el método de
Gauss-Jordan

x + z + w =0
y + z + 2w
2w = 0
Capítulo 5. Transformaciones lineales 127

Despejando las variables x e y del sistema anterior obtenemos:


x=−z−w
y = − z – 2w
2w
Parametrizamos, si z = t y w = q entonces el vector x, y:
x=−t−q
y = −t
−t − 2q
2q
De esta forma, el núcleo estará dado por
NT = {(x,y,z,w) = (–t–q,–t–2q,t,q
(–t–q,–t–2q,t,q)}
)}
Una base para el núcleo estará dada por:
(x,y,z,w)=(–t–q,,–t–2q
)=(–t–q –t–2q,,t,q) = t(–1,
1,––1,1
1,1–– 0) + q(–1,
1,––1,1,0)
La base obtenida será BN(T) = {(–1,–1,1–0), (–1,–1,1–0)} y la dimensión (DT) es 2.
Teorema 2. Si T:V→ W es una transformación lineal de un espacio vec-
torial V de dimensión finita a un espacio vectorial W, entonces la Dim(V) =
Dim(Im(T)) + Dim(NT))
a) Apliquemos el Teorema 2, al sistema de ecuaciones homogéneo:
x + 2y2y – z = 0
22xx – 33yy + z = 0
55xx – 4y
4y + z = 0
b) Como punto de partida, encontraremos una base para el núcleo y para

esto se debe cumplir que T = 0, es decir, = , lo que permite

confirmar el siguiente sistema de ecuaciones homogéneo


x + 2y2y – z = 0
2x – 33yy + z = 0
2x
55xx – 4y
4y + z = 0
128 Un primer curso de Álgebra Lineal

Resolviendo este sistema de ecuaciones homogéneo matricialmente por el


método de Gauss-Jordan

a)

El sistema es consistente y nos permite obtener las soluciones:

Parametrizando, si z = a, tenemos que:

El núcleo de T está dado por


NT =
Del núcleo de la transformación se obtienen las bases:

La base obtenida es (NT) = {(1,3,7)} y la dimensión DT es 1.


b) Utilizando el teorema de la dimensión
Dim(V) = Dim(R(T)) + Dim(NT)
De lo cual deducimos
Dim(R(T)) = Dim(V) − Dim(NT) = 3 – 1 = 2
Por lo tanto, la dimensión de la imagen será: Dim(R(T)) = 2. Es decir, el
recorrido es un subespacio bidimensional de R3.
Capítulo 5. Transformaciones lineales 129

Una base para el recorrido de T se obtiene de forma general a partir del


siguiente procedimiento:
De acuerdo con la dimensión de la imagen, la cual es n, una base tendrá n
vectores en Rn. Se obtienen del sistema de ecuaciones homogéneo que permite
obtener el núcleo, para lo cual se considera la primera columna como el primer
vector, seguida de la segunda columna como el siguiente vector, es importante
mencionar que estos vectores deben cumplir con ser linealmente independien-
tes, si dichos vectores no son independientes, se considerará la siguiente colum-
na y se verifica nuevamente su independencia y así sucesivamente.

En el caso de nuestro ejemplo, la dimensión de la imagen es 2, por lo cual, una


base tendrá dos vectores en R3, obteniéndose la Base(R(T)) = {(1,2,5),(2,-3-4)}

Ejercicios propuestos

1. Sea T: R3 → R2 una transformación definida por la siguiente expresión:

T ; encuentre su matriz asociada

2. Sea T: R3 → R una transformación definida como: T (x,y,z) = ;


determine si T es una transformación lineal.

3. Sea T: R3 → R2 una transformación matricial y considere que:

; encuentre la expresión para T

4. Sea T: R3 → R2 una transformación matricial definida por

; encuentre

a) Núcleo de T
b) Una base para el núcleo de T
c) La nulidad de T
CAPÍTULO 6

VALORES, VECTORES CARACTERÍSTICOS


Y DIAGONALIZACIÓN

Un matemático que no es también algo de poeta


nunca será un matemático completo.
Karl Weierstrass

Antecedentes5

El problema de la determinación algebraica de valores propios surgió en el


siglo XVIII a partir del estudio de sistemas mecánicos discretos.
El tema de los valores propios apareció cuando Euler, en el primer ter-
cio del siglo XVIII, estudió sistemáticamente la ecuación general de segundo
grado en dos y tres variables en el plano y en el espacio respectivamente.
Demuestra que existen unos ejes perpendiculares donde la expresión de la có-
nica o cuádrica es especialmente sencilla. Posteriormente en 1760 en su libro
Recherches sur la courbure des surfaces, al estudiar las secciones normales
de una superficie en un punto encuentra que hay dos planos mutuamente or-
togonales cuyas secciones proporcionan las curvas de máxima y mínima cur-
vatura. Posteriormente se vio que estas dos situaciones son casos particulares
del hecho de que una matriz simétrica sea ortogonalmente diagonalizable. La
noción de polinomio característico aparece explícitamente en el trabajo de

5 Véase Benítez, J. (2007).

¶ 131
132 Un primer curso de Álgebra Lineal

Lagrange sobre sistemas de ecuaciones diferenciales en 1774 y en el trabajo


de Laplace (1749-1827) en 1775.
Su aparición, sin embargo, no resulta sorprendente ya que el estudio de
formas cuadráticas existía desde la segunda mitad del siglo XVII; Leibniz
había mostrado un gran interés en el estudio de sistemas de ecuaciones y sis-
temas de formas cuadráticas y estos temas son los que eventualmente darían
lugar a una teoría de matrices. Desde mediados del siglo XVIII, el surgimien-
to de esta teoría era ya claro, especialmente en los trabajos de D’Alembert
y Lagrange dedicados a la resolución de ecuaciones diferenciales ordinarias
vinculadas al conocido problema de la cuerda vibrante 1. Sin embargo, los
métodos matemáticos relacionados con estos problemas permanecieron su-
bordinados al aspecto mecánico de estos durante algún tiempo. Fue hacia la
segunda mitad del siglo XVIII, que tanto Lagrange como Laplace se vieron
obligados −siempre motivados por la teoría física− a profundizar en el estudio
matemático de los valores propios. Estos trabajos tuvieron una gran influencia
sobre el trabajo de Cauchy.
Cauchy reconoció el problema del valor propio en la obra de Euler, Lagran-
ge y Laplace. En 1826 tomó el problema de la reducción de la forma cuadrática
en tres variables y demostró que la ecuación característica es invariante para
cualquier cambio en los ejes rectangulares, en lenguaje moderno, si A es una ma-
triz cuadrada y si S es invertible, entonces det(A − λI) = det(SAS−1 − λI). En 1829
Cauchy prueba que los valores propios de una matriz simétrica son reales. Las
matrices hermíticas (A = At) fueron introducidas por Hermite (1822-1901).
Frobenius en 1878 prueba la diagonalizabilidad de las matrices ortogonales,
extendiendo en 1883 la demostración a matrices unitarias (AAt = I). El teorema
espectral para matrices normales (AAt = AtA) se debe a Toeplitz (1881-1940).
Jacobi (1804-1851) dio la solución del sistema de ecuaciones diferenciales
Y0 = AY, siendo A una matriz diagonalizable. Jordán resolvió el caso no dia-
gonalizable usando los conceptos de matrices similares (dos matrices A y B
se dicen similares si existe una matriz invertible S tal que A = (SBS−1) y de
ecuación característica). En el libro Traité des substitutions (1870) demostró que
una matriz puede ser transformada a una forma canónica hoy llamada forma
canónica de Jordán. Un paso simultáneo hacia el concepto de valor y vector pro-
pio en un espacio vectorial abstracto lo dieron Sturm y Liouville al estudiar las
ecuaciones que hoy llevan su nombre. Observaron que si φ es cierto operador
Capitulo 6. Valores, vectores característicos y diagonalizacion 133

diferencial, entonces existe una sucesión de valores λn tales que existen funcio-
nes yn no nulas ortogonales entre sí verificando φ (yn) = λnyn.

6.1. Valores y vectores característicos

De manera general, la imagen de un vector bajo una transformación de un


espacio vectorial en sí mismo no es un vector paralelo al vector inicial, exis-
ten vectores especiales para los cuales la acción de la transformación es muy
sencilla: el vector y su imagen tienen la misma dirección. Estos vectores es-
peciales se le conoce con el nombre de vectores propios y permiten un análisis
sencillo de la transformación puesto que en la dirección de ellos, la transfor-
mación sólo se “encogen” o “expanden” los vectores.
y

Los valores y vectores propios son una herramienta que permite obtener la
diagonalización de matrices, son utilizados en algunas aplicaciones como: los
modelos de crecimiento económico, crecimiento de la población y en diversas
áreas como la ingenieria y la física, entre otras.
Definición de valores y vectores propios. Sea A una matriz cuadrada de
orden n, entonces un vector diferente de cero x ϵ Rn es un vector propio de A
si Ax es un multiplo escalar de x esto es:
Ax = λx
λx
A la letra griega lambda (λ) se le llama valor propio de A. Resulta impor-
tante establecer que se plantean valores propios, pertenecientes al conjunto
de los números reales. Los valores y vectores propios son también llamados
valores y vectores característicos y del alemán eingen valor y eigen vector,
respectivamente (eigen significa propio).
134 Un primer curso de Álgebra Lineal

Para determinar los valores propios y vectores propios de una matriz cua-
drada de orden n, se parte de la ecuación:
Ax = λx
λx
Esta ecuación se puede expresar
Ax = λIx
λI x
Igualando a cero y factorizando x se obtiene:
(λI – A)x = 0 o (A – λI)x = 0
La solución de este sistema homogéneo permite obtener soluciones dife-
rentes de cero, si y sólo si, la matriz de coeficientes (λI – A) no es invertible,
o con soluciones no nulas, lo cual sucede si:
det (A – λI)x
λI)x = 0
Teorema 1. Sea A una matriz cuadrada
1. Un escalar λ es un valor propio de A, si y sólo si
det (λI – A) = 0 y, λ ϵ R
2. Un vector x es un vector propio de A asociado a un valor propio de λ, si y
sólo si, x es una solución no trivial del sistema
(λI – A) x = 0

La ecuación (λI – A) x = 0 se llama ecuación caradterística de A. El polino-


mio que se obtiene de resolver el determinante de esta ecuación, se le conoce
como polinomio característico de A, el cual se representa como:
P (λ) = det (λI – A)x = 0
Esto quiere decir, que los valores propios de una matriz cuadrada An co-
rresponden a las raíces del polinomio caracteristico de la matriz A.
Teorema 2. Una matriz A es invertible, si y sólo si, 0 no es un valor propio
de A.
Capitulo 6. Valores, vectores característicos y diagonalizacion 135

6.2 Procedimiento para obtener


los valores y vectores propios

Dada A una matriz cuadrada de orden n,


Paso 1. Se resuelve la ecuación caracerística de grado n en la variable λ
P (λ) = det (λI – A)x = 0
Paso 2. Se determinan las raíces reales de la ecuación característica, que
llamaremos valores propios
λ1 λ2 λ3……… λn de A
Paso 3. Se resuelve el sistema homogéneo para cada λ y se calculan los
vectores característicos
A)x = 0
(λI – A)x
Ejemplo 1. Dada la matriz
A=
Paso 1. Se resuelve la ecuación caracerística: det(λI – A)x = 0

Paso 2. Se determinan las raíces reales o valores propios


λ=4
λ=2
Paso 3. Se resuelve el sistema homogéneo para encontrar los vectores pro-
pios y se calcula el espacio solución de
(λII – A)x = 0

¶ 135
136 Un primer curso de Álgebra Lineal

Con el primer valor característico obtenido, λ=4, calculamos (A – λI)


λI – A = 4I – A =
con la matriz obtenida evaluamos el sistema (λI – A)x = 0, =0
el sistema de ecuaciones resultante es:

Resolviendo este sistema de ecuaciones lineales matricialmente por el mé-


todo de Gauss-Jordan

obtenemos los valores correspondientes a las variables x


x1 = x2
dado que es un sistema linealmente dependiente, parametrizamos asignan-
do cualesquiera valor a la variable independiente
si x2 = а
Obtenemos
x1 = а
de esta forma, obtenemos el valor propio asociado
x = (x
(x1 x2) = (а
(а,а) = а(1,1)
p2=
Con el segundo valor característico obtenido, λ = 2, calculamos (A – λI)
λI – A = 2I – A

con la matriz obtenida evaluamos el sistema (λI – A)x = 0, =0


el sistema de ecuaciones resultante es:
Capitulo 6. Valores, vectores característicos y diagonalizacion 137

Resolviendo este sistema de ecuaciones lineales matricialmente por el mé-


todo de Gauss-Jordan

obtenemos los valores correspondientes a las variables x


x1 = –x
–x2
dado que es un sistema linealmente dependiente, parametrizamos asignan-
do cualesquiera valor a la variable independiente
si x2 = –а
–а
obtenemos
x1 = –а
–а
de esta forma, obtenemos el vector propio asociado
x = (x
(x1,x2) = (–а
(– а,а) = а(–1,1)
p2 =
Ejemplo 2. Dada la matriz

A= , encuentre los valores y vectores propios.

Solución
i) Cálculo de valores propios, a partir de det(λI – A) = 0
138 Un primer curso de Álgebra Lineal

Los valores propios calculados son:


λ=0
λ=2
Cálculo de vectores propios, a partir del espacio solución de (λI – A)x = 0

λI – A =

Con la primer componente obtenida, λ = 0


λI – A = 0I – A =

Igualando a cero, obtenemos (λI – A)x = 0

del sistema de ecuaciones resultante, obtenemos los valores correspon-


dientes a las variables
–7xx3 = 0
–7
99xx3 = 0
–2xx3 = 0
–2
Resolviendo este sistema de ecuaciones homogéneo matricialmente por el
método Gauss-Jordan

obtenemos
x3 = 0
si x1 = а y x2 = b
entonces
x =(
=(xx1,x2,x3) = (а,b,0) = а(1,0,0) + b(0,1,0)
Capitulo 6. Valores, vectores característicos y diagonalizacion 139

los vectores propios asociados:

p1 = , p2 =

Con la segunda componente obtenida, λ=2

λI – A = 2I – A =

Igualndo a cero, obtenemos (λI – A)x = 0

el sistema de ecuaciones resultante, obtenemos los valores correspondien-


tes a las variables
2x1 7x3 = 0
– 7x
22xx2 + 9x
9x3 = 0
Resolviendo este sistema de ecuaciones homogéneo matricialmente por el
método Gauss-Jordan

Obtenemos de la primera ecuación

Parametrizando x3 = c

Obtenemos de la segunda ecuación


140 Un primer curso de Álgebra Lineal

Obtenemos entonces

y el vector propio asociado es:

p2 =

6.3 Diagonalización
Definición de diagonalización. Dada una matriz A es diagonalizable, si y sólo
si, existe una matriz diagonal D semejante a la matriz A. Existe una matriz P
invertible y D una matriz diagonal, tal que se cumpla AP = PD, es decir, que
se cumple que P –1 AP = D.
Al procedimiento para encontrar la matriz diagonal invertible P y la ma-
triz D, lo llamamos proceso de diagonalización y diremos que ambas matri-
ces diagonalizan a la matriz A.
Teorema 3. Sea A una matriz cuadrada de orden n,
a) A es diagonalizable, si y sólo si, tiene n vectores propios linealmente
independientes
b) Si A es diagonalizable con P –1 AP = D entonces las columnas de P son
vectores propios, lo cual se representa de la siguiente forma:

c) P = [P1,P2……P3 ] y D=

6.4 Procedimiento para diagonalizar una matriz

1. Obtener los valores propios a partir de la ecuación característica


P (λ) = det(λI – A)x = 0
2. Obtener los vectores propios correspondiente a cada valor propio
3. Construir la matriz P de vectores propios
4. Comprobar que P es invertible
5. Obtener D utilizando la relación D = P–1 AP
Capitulo 6. Valores, vectores característicos y diagonalizacion 141

Ejemplo 3. Encuentre una matriz P que diagonalice la matriz A y verifique


que en efecto D = P –1 AP, es una matriz diagonal para:
A=
Solución
Obtenemos los valores propios, resolviendo la ecuación característica
det(λI – A) = 0

Se resuelve la ecuación característica


(λ – 4)2 = 0
El valor propio calculado es:
λ=4
Sólo existe un valor propio, sin embargo, un valor propio puede tener aso-
ciado más de un vector propio.
Se obtienen los vectores propios correspondientes a cada valor propio.
Si λ = 4
λI – A = 4I – A =
Ahora de (λI – A)x = 0
λI – A =
142 Un primer curso de Álgebra Lineal

Resolviendo este sistema de ecuaciones homogéneo matricialmente por el


método Gauss-Jordan

entonces x1,x2 ϵ R.
Parametrizando obtenemos:
Si x1 = а, x2 = b
x = (x
(x1 x2 ) = (а, b) = а(1,0) + а(0,1)
Los vectores propios son:
P1 = , p2 =
Construimos la matriz P de vectores propios
P=
La matriz P es igual a la matriz identidad (P = I)
De esta manera, encontramos la matriz D, utilizando la relación P –1AP y
las propiedades de la matriz inversa
D = P –1AP = I –1 AI = A =
Ejemplo 4. Determine si la matriz A es diagonalizable

A=
Solución
Se calculan los valores propios
λI – A = λ

det(λI – A) = =

λ(λ – 1)(λ + 2) = 0
λ=0
λ=1
λ = –2
Capitulo 6. Valores, vectores característicos y diagonalizacion 143

Los valores caracerísticos obtenidos son diferentes entre sí y de acuerdo


con el Teorema 3, podemos concluir que la matriz A es diagonalizable. Otro
punto a resaltar, es que si la matriz A es triangular, los valores propios serán
los valores que se encuentran en la diagonal principal.
Ejemplo 5. Encuentre una matriz P que diagonalice la matriz A y verifique
que D = P-1 AP es una matriz diagonal para:

A=
Solución
De acuerdo con la definición de matriz diagonal, observamos que la matriz
A, cumple con esas características, por lo tanto, sus valores propios son los
elementos que están en su diagonal principal

Se encuentran los vectores propios correspondientes a cada valor propio,


calculando el espacio solución de (λI – A)x = 0
Con el primer valor característico, λ=0, obtenemos el primer vector carac-
terítico

λI – A = λ

=0
144 Un primer curso de Álgebra Lineal

Resolviendo este sistema de ecuaciones homogéneo matricialmente por el


método Gauss-Jordan

Obtenemos el sistema de ecuaciones siguiente:

Los componentes del vector x = (x1,x2, x3) son:

Parametrizando, si x2 = а entonces x1 = –3а, de lo cual obtenemos:


x = (x
(x1,x2, x3) = (–3а,а,0)
Por lo tanto, el vector característico asociado es
p1 =
Para el segundo valor caracteístico, λ=1, obtenmos el segundo eigenvector
λI – A=
(λI – A)x = 0

=0
Obteniendose el siguiente sistema de ecuaciones

Resolviendo este sistema de ecuaciones homogéneo matricialmente por el


método Gauss-Jordan
Capitulo 6. Valores, vectores característicos y diagonalizacion 145

Parametrizando si x1 = a

Obtenemos

p2 =

Para el tercer eigenvalor, λ= -2, obtenemos el tercer eigenvector

Obteniendose el siguiente sistema de ecuaciones

Resolviendo este sistema de ecuaciones homogéneo matricialmente por el


método Gauss-Jordan

Transformando el resultado, obtenemos el sistema de ecuaciones siguiente:


146 Un primer curso de Álgebra Lineal

Obtenemos los componentes del vector x = (x1,x2,x3)

Paramatrizando x3 = а, obtenemos

Se construye la matriz P, a partir de los vectores propios obtenidos

Se calcula la matriz inversa de la matriz P


Capitulo 6. Valores, vectores característicos y diagonalizacion 147

La matriz D obtenida es:


D=

Ejemplo 6. Encuentre una matriz P (si existe) que diagonalice la matriz A


y verifique que en efecto D = P-1 AP es una matriz diagonal si:

A=

Solución
Como A es una matriz triangular, los valores propios son los elementos de
la diagonal principal

Se encuentran los vectores propios correspondientes a cada valor propio,


calculando el espacio solución de (λI – A)x = 0
Para el primer valor característico, λ = 7, obtenemos el primero y segundo
eigenvector
λI – A = λ

=0

Obtenemos el sistema de ecuaciones siguiente


148 Un primer curso de Álgebra Lineal

Resolviendo este sistema de ecuaciones lineales matricialmente por el mé-


todo Gauss-Jordan

Obtenemos los componentes del vector x = (x1,x2,x3)

Los vectores propios asociados son

Para el segundo valor característico, λ = 2, obtenemos el tercer vector ca-


racterístico
Capitulo 6. Valores, vectores característicos y diagonalizacion 149

Resolviendo este sistema de ecuaciones lineales matricialmente por el mé-


todo Gauss-Jordan

Parametrizando x3 = а, obtenemos los componentes del vector x = (x1,x2,x3)

El valor propio asociado es

Se forma la matriz P de vectores propios


150 Un primer curso de Álgebra Lineal

Se calcula la matriz inversa de la matriz P

De esta forma obtenemos la matriz D:


Capitulo 6. Valores, vectores característicos y diagonalizacion 151

Ejercicios propuestos

1. Dada la matriz A = , encuentre los valores y vectores propios

2. Encuentre una matriz P que diagonalice la matriz A y verifique que


D = P–1 AP es una matriz diagonal si:

A=

3. Encuentre una matriz P (si existe) que diagonalice la matriz A y verifique


que en efecto D = P–1 AP es una matriz diagonal si:

A=

4. Determine si la matriz A es diagonalizable

A=
BIBLIOGRAFÍA

Anton, H. (1994); “Elementary Linear Algebra. Elementary Linear Algebra


Applications (Applications Version)”. 7ª edición. John Wiley & Sons Ltd.
Anton, H. (1994); “Elementary Linear Algebra. Elementary Linear Algebra
Applications (Solution Students)”. 7ª edición. John Wiley & Sons Ltd.
Anton, H. (1994); “Elementary Linear Algebra. Elementary Linear Algebra
Applications”. 7ª edición. John Wiley & Sons Ltd.
Banchoff, T., Wermer, J. (1993); “Linear Algebra Thourgh Geometry”. 2ª ed.
Springer-Verlag.
Barbolla, R., Sanz, P. (1998); “Álgebra lineal y Teoría de Matrices”. Prentice
Hall.
Barrios, J., González, C., Moreno, J. (1993); “Álgebra Matricial para Econo-
mistas”. Editorial AC.
Blanco, S., García, P., Del Pozo, E. (2002); “Matemáticas empresariales I. Vol.
1 Álgebra Lineal”. Editorial AC.
Brickell. (1974); “Matrices y espacios vectoriales”. Limusa. Selección de pro-
blemas resueltos Serie Limusa, nº 8.
Bugrov, Y., Nikolski, S. (1984); “Matemáticas Superiores. Elementos de Álge-
bra Lineal y Geometría Analítica”. Mir Moscú.
Bundick, F. (1990); “Matemáticas Aplicadas para Administración, Economía
y Ciencias Sociales”; Edit. McGraw Hill, 3ª Edición, 6.
Cancelo, J., López, J., González, C., Montero, J. (1987); “Problemas de Álge-
bra Lineal para economistas I”. Tebar Flores, Madrid.
Cancelo, J., López, J., González, C., Montero, J. (1987); “Problemas de Álge-
bra Lineal para economistas II”. Tebar Flores, Madrid.

¶ 153
154 Bibliografía

Cardano, G. (1545), “Artis Magnae, sive de regulis algebraicis”, Núremberg,


Petreius.
Cauchy, A. (1815); “Mómoire sur les fonctions qui ne peuvent obtenir que
deux valeurs &gales et de signes contraires par suite des transpositions...,”
Jl. EC. Poly. [Link], cah.17 = Oeuvres (2)1, 91-169.
Cramer, G. (1750). “Introduction à L’analyse des Lignes Courbes Algébri-
ques”. F Cramer & Cl Philibert.
Criado, R., Bujosa, A., Hernández, M. (1993); “Álgebra Lineal. Método, fun-
damentos y algoritmos”. Editorial AC.
Curtis, C. (1993); “Linear Algebra; An Introductory Approach”. 4ª edición.
Springer-Verlag.
De Gracia, R., Santos, J. (2019). “Evolución histórica y conceptual de las ma-
trices”. Trabajo monográfico de Licenciatura. Facultad de ciencias natu-
rales, exactas y tecnología. Escuela de docencia en matemática. Changui-
nola, Bocas del Toro.
Divulgaciones Matemáticas Vol. 14 No. 2 (2006), pp. 153–170
Dorf. (1988); “Introducción al álgebra de matrices”. Limusa, Trillas.
D´Alembert, J. (1751-1772). Encyclopedie o Dictionaire raisonné des sciences,
des arts et des metiers.
Díaz, J. (1991); “Matrices. Diagonalización. Formas Canónicas”. Tebar Flores.
Díaz, J. (2001); “Espacios Vectoriales y Estructuras Fundamentales del Álge-
bra”. Tebar Flores.
Edwards, C., Penney, E. (1988); “Elementary Linear Algebra”. Prentice Hall
International Paperback. 13-258245-7.
Filloy. (1970); “Introducción al álgebra lineal”. Limusa, Trillas.
Freidberg, H., Insel, J., Spence, E. (1990); “Linear Algebra”. 2ª ed. Prentice
Hall International Paperback. 13-536855-3.
Cramer, G. (1750), “Introduction à l’analyse des lignes courbes algébriques”,
Universidad de Lausanne
García, J., López, M. (1992); «Álgebra lineal y geometría». 8ª edición. Marfil,
Alcoy.
Gauss, C. (1801). “Disquisitiones Arithmeticae”. Lipsiae (Leipzig), Germania
(Alemania): Commissis apud Gerh. Fleische.
Gerber, H. (1992); “Álgebra Lineal”. Díaz de Santos.
Golovina. (1974); “Álgebra Lineal y alguna de sus aplicaciones”. Mir Moscú.
Golubitsky, M., Dellhitz, M. (2001); “Álgebra lineal y ecuaciones diferencia-
les con uso de Matlab”. Thomson.
Bibliografía 155

Goode, S. (1991); “Introduction to Differential Equations and Linear Alge-


bra”. Prentice Hall International Paperback Edition.
Granero, F., Rebollo, C., Hormaza, M. (2001); “Álgebra Lineal”. Prentice Hall.
Griffel, D. (1989); “Linear Algebra and Its Applications. Volume 1”. Ellis Hor-
wood. 13-538646-2.
Griffel, D. (1989); “Linear Algebra and Its Applications. Volume 2”. Ellis
Horwood. 13-538661-6.
Grossman, S. (2012). Álgebra Linear. 7ma. Ed. Trad. Español por Flores, G.J.
Mc Graw Hill: Universidad Iberoamericana.
Guerrero, F., Vázquez, M. (1998); “Manual de Álgebra Lineal para la Econo-
mía y la Empresa”. Pirámide, Madrid.
Gutiérrez, S. (1993); “Álgebra lineal para la Economía”. 2ª edición. Editorial
AC.
Gutiérrez, A., García, F. (1990); “Álgebra lineal”. Tomo 2. Pirámide, Madrid.
Heras, A., Vilar, J. (1988); “Problemas de Álgebra Lineal para la Economía”.
Editorial AC.
Herstein, I., Winter. (1989); “Álgebra lineal y teoría de matrices”. Díaz de
Santos.
Hoffmann, L., Gerald, L. (1994); “Calculo Aplicado para la Administración,
Contaduría y Ciencias Sociales”; 5ª Edición, Edit. McGraw Hill; Colom-
bia; 2.
Ikrámov, J. (1990); “Problemas de Álgebra Lineal”. Mir Moscú.
James, D. (1973); “Introduction to Quantitative Methods in Economics”; John
Wiley & Sons, Australasia [Link]. Australia 1993 4.
Klein, F. (1996); “On the mathematical character of space-intuition and the
relation of pure mathematics to the applied sciences”. In: Ewald, W. (Ed.).
Kolman, B. (1999); “Álgebra Lineal con MATLAB”. Prentice Hall.
Kostrikin. (1983); “Introducción al Álgebra”. Mir Moscú.
Landesman, E., Hestenes, M. (1992); “Linear Algebra”. Prentice Hall Interna-
tional Paperback. 13-534967-2.
Lang, S. (1993); “Introduction to Linear Algebra”. 2ª edición. Springer-Verlag.
Lang, S. (1993); “Linear Algebra”. 3ª edición. Springer-Verlag.
Laplace. (1772) “Recherches sur le Calcul Intégral et sur le Systeme du Mon-
de”, Mém. Acad. Paris, 1772 part 2 (1776), pp.267-376
Larson, R. (2004); “Álgebra lineal”. Pirámide.
Lay, D. (2001); “Álgebra Lineal y sus aplicaciones”. Prentice Hall.
156 Bibliografía

Leibniz, G. (1684) “Nova Methodus pro Máxima et Minimus”. Acta Erudi-


torum, 467-473.
León, S. (1993); “Álgebra Lineal con aplicaciones”.
Lütkepohl, H. (1996); “Handbook of Matrices”. John Wiley & Sons Ltd.
Martínez, F. (2015). Curso de Álgebra Linear, Teoría con aplicaciones a la
Economía. 2da. Ed. México: UNAM.
Maturana, I. (2015). “Transformaciones Lineales: Un Estudio Desde la Teoría
APOE. Tesis de doctorado. Valparaíso, CHILE”.
Meyer, C., Plemmons, R. (1993); “Linear Algebra, Markov Chains, and Queu-
eing Models”.
Muñoz, F., Devesa, J., Mocholí, M., Guerra, J. (1988); “Manual de Álgebra
Lineal”. Ariel Economía, Barcelona.
Nakos, G., Joyner, D. (1999); “Álgebra lineal con aplicaciones”. Thomson.
Noble, B., James, D. (1989); “Álgebra Lineal Aplicada”; 3ª Edición; Edit.
Prentice Hall; México; 11.
Noble, B., James, W. (1987); “Applied Linear Algebra”. 3ª ed. Prentice Hall
International Paperback.
O’Connor, J., Robertson, E., Stefan, B. (2000). “MacTutor History of Math-
ematics”. University of St Andrews, Scotland. [Link]
[Link]/Biographies/Banach
Poole, D. (2004); “Álgebra lineal. Una introducción moderna”. International
Thompson Publishi.
Proskuriakov. (1986); “Problemas de Álgebra Lineal”. Mir Moscú.
Rorres. (1979); “Aplicaciones del álgebra lineal”. Limusa, Trillas.
Swokowsky, E. (1986); “Matrices y determinantes”. Díaz de Santos.
Sydsaeter, K., Hammond, P. (1995). Mathematics for Economic Analysis.
Pearson Education: New Jersey.
Vavilov, V., otros. (1993); “Problemas de Matemáticas. Álgebra”. Mir Moscú.
Voevodin. (1986); “ Álgebra Lineal”. Mir Moscú.
Weber, J. (1984); Matemáticas para Administración y Economía; 4ª Edición;
Edit. Harla; México; 9.
Weierstrass, K. (1894); “Mathematische Werke”, 7 Vols., Berlin (Mayer und
Muller)
Un primer curso de Álgebra Lineal. Notas introductorias, se
terminó de imprimir el 1 de septiembre de 2022, la
edición estuvo al cuidado de los talleres de DocuMaster,
Av. Coyoacán 1450, Col. Del Valle, Benito Juárez, C.P.
03220, Ciudad de México, la edición consta de 500
ejemplares más sobrantes para reposición.

También podría gustarte