0% encontró este documento útil (0 votos)
79 vistas304 páginas

VF 2ºcuat2022

Este documento presenta el material correspondiente al curso de Álgebra Lineal de las carreras de Ingeniería de la Universidad Nacional de Rosario. Se divide en siete capítulos que cubren los temas fundamentales de sistemas de ecuaciones lineales, matrices, determinantes, espacios vectoriales, producto interno, transformaciones lineales, autovalores y autovectores. El objetivo es ordenar y focalizar los conceptos clave de esta disciplina requerida en diferentes áreas de la Ingeniería.

Cargado por

juanixgeno
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
79 vistas304 páginas

VF 2ºcuat2022

Este documento presenta el material correspondiente al curso de Álgebra Lineal de las carreras de Ingeniería de la Universidad Nacional de Rosario. Se divide en siete capítulos que cubren los temas fundamentales de sistemas de ecuaciones lineales, matrices, determinantes, espacios vectoriales, producto interno, transformaciones lineales, autovalores y autovectores. El objetivo es ordenar y focalizar los conceptos clave de esta disciplina requerida en diferentes áreas de la Ingeniería.

Cargado por

juanixgeno
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

Facultad de Ciencias Exactas, Ingenierı́a y Agrimensura

Universidad Nacional de Rosario

ÁLGEBRA LINEAL

Adriana Mateu - José Semitiel

Departamento de Matemática - Escuela de Formación Básica

MATERIAL DE USO INTERNO - 2022


Presentación

El Álgebra Lineal es una rama de la Matemática requerida por diferentes áreas de la Ingenierı́a, que
facilita la modelización y simplifica los cálculos, en el estudio del comportamiento de algunos sistemas
complejos. El principal objetivo de un curso de esta disciplina, en carreras de ingenierı́a, es brindar a
los estudiantes los conocimientos básicos que aplicarán posteriormente en las diferentes especialidades.
En el Álgebra Lineal se conjugan dos facetas fundamentales de la Matemática: la abstracción y la
aplicación. En nuestro curso el énfasis está puesto en la comprensión de los conceptos, mientras que
las aplicaciones se dejan prioritariamente para el ciclo superior, donde los conceptos son utilizados
desde diferentes perspectivas, atendiendo a las necesidades de cada especialidad.
Este texto contiene el material mı́nimo correspondiente a la asignatura Álgebra Lineal de las
carreras de Ingenierı́a (Plan 2014) de la Facultad de Ciencias Exactas, Ingenierı́a y Agrimensura de
la Universidad Nacional de Rosario. Fue escrito principalmente con el objetivo de ordenar, focalizar
y hacer más accesible, en un mismo texto, los temas principales de esta disciplina correspondientes al
programa vigente de la asignatura. Cabe aclarar que éste no es un trabajo finalizado y que se encuentra
en proceso revisión. Debe considerarse como borrador y material de uso interno para la cátedra.
Este material de estudio está organizado en siete capı́tulos. Los capı́tulos 1, 2 y 3 corresponden
a sistemas de ecuaciones lineales y matrices que son temas fundamentales para el Álgebra Lineal a
partir de los cuales se desarrolla este curso. Los capı́tulos 4, 5 , 6 y 7 constituyen el corazón de la
asignatura: espacios vectoriales, espacios con producto interno transformaciones lineales, autovalores
y autovectores y diagonalización.
Cada capı́tulo de este texto se divide en diferentes secciones. Al final de cada una de éstas se presen-
ta la ejercitación correspondiente y se indican recuadrados los ejercicios y problemas que consideramos
una práctica mı́nima para la comprensión de los diferentes temas.

Adriana Mateu y José Semitiel

Material de uso interno Mateu-Semitiel 2


Índice general

1. SISTEMAS DE ECUACIONES LINEALES 5


1.1. Ecuaciones lineales con n incógnitas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2. Sistemas de ecuaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.3. Eliminación gaussiana y de Gauss-Jordan . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.4. Resolución de sistemas lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
1.5. Introducción a Scilab . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37

2. MATRICES 40
2.1. Vectores de Rn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
2.2. Operaciones matriciales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
2.3. Matriz inversa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66

3. DETERMINANTES 79
3.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
3.2. Propiedades de los determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
3.3. La inversa a través de la adjunta. La regla de Cramer . . . . . . . . . . . . . . . . . . 97

4. ESPACIOS VECTORIALES 103


4.1. Espacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
4.2. Subespacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
4.3. Combinación lineal y espacio generado . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
4.4. Independencia lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128
4.5. Base y dimensión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135
4.6. Coordenadas y cambio de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 148
4.7. Rango y nulidad de una matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 169

5. ESPACIOS VECTORIALES CON PRODUCTO INTERNO 188


5.1. El espacio euclidiano Rn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 188
5.2. Producto interno . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 197
5.3. Bases ortogonales y ortonormales. Proceso de Gram-Schmidt . . . . . . . . . . . . . . 207

6. TRANSFORMACIONES LINEALES 225


6.1. Transformaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 225
6.2. Núcleo y recorrido de una transformación lineal . . . . . . . . . . . . . . . . . . . . . . 235
6.3. Transformaciones lineales de Rn en Rm . . . . . . . . . . . . . . . . . . . . . . . . . . . 240
6.4. Matriz de una transformación lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . 247

Material de uso interno Mateu-Semitiel 3


ÍNDICE GENERAL

7. AUTOVALORES Y AUTOVECTORES 265


7.1. Autovalores y autovectores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 265
7.2. Diagonalización . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 278

Respuestas a los Ejercicios 290

Bibliografı́a 303

Material de uso interno Mateu-Semitiel 4


Capı́tulo 1

SISTEMAS DE ECUACIONES
LINEALES

1.1. Ecuaciones lineales con n incógnitas

Definición (Ecuación lineal). Una ecuación lineal en las n variables o incógnitas x1 , x2 ,...,
xn es una ecuación que puede escribirse en la forma

a1 x1 + a2 x2 + ... + an xn = b, (1.1)

llamada forma canónica o estándar de la ecuación lineal, donde a1 ,a2 ,...,an y b son constantes
reales. Los ai con i = 1, 2, ..., n son los coeficientes de la ecuación y b es el término constante.
Si b = 0 la ecuación se denomina homogénea.
Considerando las variables ordenadas de izquierda a derecha, la primer variable cuyo co-
eficiente es distinto de cero, recibe el nombre de variable delantera o principal. Las demás
variables se llaman variables libres.

Ejemplo 1.1. La ecuación

1 + 2x1 + x2 − x3 + 3x4 = 2x1 + 2 + x3 ,

es lineal no homogonéa en cuatro variables x1 , x2 , x3 y x4 . Su forma canónica o estándar es:

0x1 + x2 − 2x3 + 3x4 = 1.

Los coeficientes (en orden) son 0, 1, −2 y 3 y el término constante es 1. La variable delantera es


x2 y x1 , x3 y x4 son las variables libres.◀

Ejemplo 1.2. Las ecuaciones



2xy + 2x = 3 , x2 − y = 1 , x + y − 3 = 0,

no son lineales.◀

Material de uso interno Mateu-Semitiel 5


CAPÍTULO 1. SISTEMAS DE ECUACIONES LINEALES

Ejemplo 1.3. La ecuación


2x + 3y − z = 0,
es lineal homogénea en las variables x, y, z. Los coeficientes (en orden) son 2, 3 y −1 y el término
constante es 0. La variable delantera es x y las variables libres son y, z. Notemos que esta es la ecuación
de un plano que contiene al origen de coordenadas.

En general, toda ecuación lineal en tres variables

ax + by + cz = d,

con al menos un coeficiente no nulo, es la ecuación de un plano en el espacio.◀

Ejemplo 1.4. Toda ecuación lineal en dos variables

ax + by = c,

con al menos uno de los coeficientes no nulos, es la ecuación de una recta en el plano.◀

Definición (Solución de una ecuación lineal). Una solución (particular) de la ecuación


lineal
a1 x1 + a2 x2 + ... + an xn = b,
es una n− upla odenada de números reales (c1 , c2 , ..., cn ) tales que cuando se sustituye xi por
ci para todo i = 1, 2, ..., n la ecuación se convierte en una identidad.
El conjunto de todas las soluciones de la ecuación lineal se llama conjunto solución.
Resolver una ecuación lineal es hallar su conjunto solución. Para obtenerlo se despeja la
variable delantera en función de las variables libres, haciendo que cada variable libre asuma
cualquier valor real. Con esto se llega a un elemento genérico del conjunto solución que es la
solución general de la ecuación.

Ejemplo 1.5. Una solución de la ecuación lineal del Ejemplo 1.1

0x1 + x2 − 2x3 + 3x4 = 1,

es (1, 5, 2, 0). Es más, cualquier 4−upla ordenada de la forma (a, 5, 2, 0) es solución.

Para obtener todas las soluciones, despejando x2 de la ecuación se obtiene

x2 = 1 + 0x1 + 2x3 − 3x4 .

Las variables libres pueden tomar cualquier valor real, ası́ podemos considerar x1 = t, x3 = s y
x4 = r. Por consiguiente la solución general se expresa como:

x1 = t, x2 = 1 + 0t + 2s − 3r = 1 + 2s − 3r, x3 = s y x4 = r, para todo t, s, r ∈ R,

o en forma de 4-upla
(t, 1 + 2s − 3r, s, r)

Material de uso interno Mateu-Semitiel 6


CAPÍTULO 1. SISTEMAS DE ECUACIONES LINEALES

para todo t, s, r ∈ R. Las letras t, s y r reciben el nombre de parámetros.

El conjunto solución es
{(t, 1 + 2s − 3r, s, r) : t, s, r ∈ R} . ◀

Actividad 1.1. Obtenga el conjunto solución de la ecuación lineal


−3x1 + 2x2 − x3 = −x1 + x4 − 1.

Definición (Ecuaciones consistentes). Una ecuación lineal se dice consistente si tiene al


menos una solución y es inconsistente si no tiene solución.

La ecuación del ejemplo anterior es consistente.

Ejemplo 1.6. Ecuación lineal homogénea. Una ecuación lineal homogénea


a1 x1 + a2 x2 + ... + an xn = 0,
siempre es consistente, tiene al menos la llamada solución trivial x1 = x2 = ... = xn = 0.◀

Ejemplo 1.7. Sea la ecuación lineal homogénea 2x + 3y = 0. La solución general es x = − 32 t, y = t


con t ∈ R. Su conjunto solución es
  
3
− t, t : t ∈ R . ◀
2

Ejemplo 1.8. La ecuación lineal 37 x1 +2x2 −5 = 73 x1 +2x2 −5 se satisface para cualquier par ordenado
de números reales. Su forma canónica es
0x1 + 0x2 = 0,
y su conjunto solución es {(x1 , x2 ) : x1 , x2 ∈ R}.◀

Ejemplo 1.9. Claramente, la ecuación x1 + 2x2 − 5x3 = 8 + x1 + 2x2 − 5x3 es inconsistente. Su forma
canónica es
0x1 + 0x2 + 0x3 = 8.
Ninguna terna de números reales la satisface y por lo tanto su conjunto solución es vacı́o.◀

En la ecuación del ejemplo anterior, se observa que todos los coeficientes son iguales a cero mientras
que el término constante es distinto de cero. Se verá que ésta es la forma que tienen las ecuaciones
lineales inconsistentes.

Teorema 1.1 (Inconsistencia de una ecuación lineal). Una ecuación lineal en n variables

a1 x1 + a2 x2 + ... + an xn = b,

es inconsistente si y sólo si b ̸= 0 y a1 = a2 = ... = an = 0.

Material de uso interno Mateu-Semitiel 7


CAPÍTULO 1. SISTEMAS DE ECUACIONES LINEALES

Demostración. En efecto: 0x1 + 0x2 + ... + 0xn = b con b ̸= 0 es inconsistente.


Recı́procamente:

Si b = 0 la ecuación es homogénea y por lo tanto es consistente cualesquiera sean los coeficientes.

Si algún coeficiente es distinto de cero, la ecuación es consistente cualquiera sea b puesto que
habrá una variable delantera que podrá “despejarse”.

Nota: Una ecuación lineal en una variable ax = b tiene una única solución, infinitas soluciones o es
inconsistente. Si la ecuación lineal tiene dos o más variables, es inconsistente o bien tiene un número
infinito de soluciones.

Actividad 1.2. Encuentre para qué valores de a y b, la ecuación lineal en una variable ax = b, tiene
una única solución, infinitas soluciones o ninguna solución.

Ejercicios 1.1

1. Para cada una de las siguientes ecuaciones:

a) 2x − 5 = x − 3y + z c) x1 − 2x2 + 3 = x2 + 5x3 − x4 + 3
b) xy − 4x + y = 0 d ) x1 + x2 − x3 = x1 + x2 − x3 + 9

determine si es o no lineal. En caso de ser lineal, indique: si es homogénea, sus coeficientes, su


término constante, la variable delantera, las variables libres y obtenga su conjunto solución.

2. Determine todos los valores de a de modo que cada una de las ecuaciones: (i) tenga única
solución, (ii) tenga infinitas soluciones, (iii) no tenga solución.

a) a2 x − 4 = 16x + a c) a2 (x + y) − x − y = a − 1
b) ax1 − a2 x2 = 2a d ) a(x + y) − x − y − a + 1 = 0

1.2. Sistemas de ecuaciones lineales


Muchos problemas en Matemática, Ingenierı́a, Economı́a, Fı́sica y otras ciencias se reducen a resolver
sistemas de ecuaciones lineales. Un ejemplo sencillo de un sistema lineal se presenta en el siguiente
problema:
Un dı́a una tienda vendió 45 camisetas. Las lisas tenı́an un precio de venta de $110 mientras que
las estampadas $135. Ese dı́a se recaudó un total de $5575 en ventas de camisetas. ¿Cuántas camisetas
estampadas y cuántas lisas se vendieron?

Material de uso interno Mateu-Semitiel 8


CAPÍTULO 1. SISTEMAS DE ECUACIONES LINEALES

Llamando x al número de camisetas lisas y y al número de camisetas estampadas, el problema


consiste en hallar los valores de x y y que satisfacen simultáneamente las ecuaciones lineales:
x + y = 45
110x + 135y = 5575
El conjunto formado por estas dos ecuaciones lineales recibe el nombre de ssistema lineal. Más
precisamente:

Definición (Sistema lineal). Un sistema lineal de m ecuaciones con n incógnitas o variables


x1 , x2 ,..., xn es un conjunto de m ecuaciones lineales en dichas incógnitas. Su forma canónica
o estándar es: 

 a11 x1 + a12 x2 + a13 x3 + ... + a1n xn = b1

 a21 x1 + a22 x2 + a23 x3 + ... + a2n xn = b2
.. (1.2)

 .


am1 x1 + am2 x2 + am3 x3 + ...amn xn = bm
Los números aij con i = 1, 2, .., m y j = 1, 2, ..., n son los coeficientes del sistema y bi con
i = 1, 2, ..., m son los términos constantes.
Si bi = 0 para todo i = 1, 2, ..., m el sistema lineal se denomina homogéneo.
Una única ecuación lineal es un sistema lineal (m = 1).

Ejemplo 1.10. El sistema 


 x1 − 2x2 + x3 = x4 + 2
2x1 = x3 − 2x4

−x2 + x3 − x4 = 1
es lineal no homogéno de 3 ecuaciones con 4 incógnitas x1 , x2 , x3 y x4 . Su forma canónica o estándar
es: 
 x1 −2x2 +x3 −x4 = 2
2x1 +0x2 −x3 +2x4 = 0

0x1 −x2 +x3 −x4 = 1
aunque suelen omitirse los términos con coeficientes cero escribiéndose:

 x1 −2x2 +x3 −x4 = 2
2x1 −x3 +2x4 = 0

−x2 +x3 −x4 = 1
Los coeficientes son: a11 = 1, a12 = −2, a13 = 1, a14 = −1, a21 = 2, a22 = 0, a23 = −1, a24 = 2,
a31 = 0, a32 = −1, a33 = 1 y a34 = −1. Los términos constantes son b1 = 2, b2 = 0 y b3 = 1.◀

Definición (Solución de un sistema lineal). Una solución (particular) del sistema lineal
(1.2) es una n−upla ordenada de números reales (c1 , c2 , ..., cn ) que es solución de todas las
ecuaciones del sistema. El conjunto de todas las soluciones se llama conjunto solución.
Resolver un sistema lineal es hallar su conjunto solución. Un elemento genérico del conjunto
solución es una solución general del sistema.

Material de uso interno Mateu-Semitiel 9


CAPÍTULO 1. SISTEMAS DE ECUACIONES LINEALES

Ejemplo 1.11. La 4-upla (−3, −4, 0, 3) es una solución del sistema del Ejemplo 1.10. En efecto,

 −3 − 2(−4) + 0 − 3 = 2
2(−3) + 0 + 0 + 2(3) = 0

0 − (−4) + 0 − 3 = 1

Entonces dicho sistema tiene al menos una solución, ¿será la única solución o admitirá más solu-
ciones?. Para cualquier t ∈ R, la 4-upla (−t, −1 − t, 0, t) es una solución del sistema (verifı́quelo) y por
lo tanto este tiene infinitas soluciones. Puede observarse que si t = 3 se obtiene la solución particular
previamente considerada.◀

Definición (Sistemas consistentes). Un sistema lineal se dice consistente si tiene al menos


una solución e inconsistente si no tiene solución.

Nota: Se puede probar que un sistema lineal puede tener una, infinitas o ninguna solución. En la
sección 1.4 se profundizarán estas ideas.

Ejemplo 1.12. Sistemas lineales de dos ecuaciones con dos incógnitas.

Figura 1.1: Resolución gráfica

Los sistemas lineales:


  
x+y =2 x+y =2 x+y =2
y
−x + y = 0 2x + 2y = 4 x+y =4

son: consistente con única solución, consistente con infinitas soluciones e inconsistente, respectivamen-
te. En efecto, si se recurre a la Geometrı́a Analı́tica, gráficamente el conjunto solución de cada uno de
estos sistemas es el conjunto de puntos del plano que pertenecen a ambas rectas como se observa en
la Figura 1.1◀

Material de uso interno Mateu-Semitiel 10


CAPÍTULO 1. SISTEMAS DE ECUACIONES LINEALES

Ejemplo 1.13. Sistema lineal homogéneo. Un sistema lineal homogéneo




 a11 x1 + a12 x2 + a13 x3 + ... + a1n xn = 0

 a21 x1 + a22 x2 + a23 x3 + ... + a2n xn = 0
..

 .


am1 x1 + am2 x2 + am3 x3 + ...amn xn = 0

siempre es consistente. En efecto: x1 = x2 = .... = xn = 0 siempre es una solución, es la llamada


solución trivial o solución cero. Cualquier otra solución es una solución no trivial.
Por ejemplo, x = 1, y = 1 es una solución no trivial del sistema homogéneo

x−y =0
.
−2x + 2y = 0

y x = 0, y = 0 es la solución trivial del mismo.◀

Resolviendo un sistema de ecuaciones lineales


Claramente un sistema lineal que tiene una ecuación sin solución (0x1 + 0x2 + ... + 0xn = b, b ̸= 0)
es un sistema inconsistente. En estos casos se detecta a simple vista la inconsistencia del sistema,
pero ésta no es la forma usual en la que se presenta un sistema inconsistente. Por lo general todas las
ecuaciones que componen un sistema lineal tienen solución y por lo tanto no se detecta rápidamente
si el sistema es o no consistente.
Hay sistemas de ecuaciones lineales en los que, por su forma, se hace evidente la consistencia o
inconsistencia de los mismos y que, si son consistentes, son simples de resolver. Éstos son los llamados
sistemas escalonados o triangulares. En ellos la variable delantera de cada ecuación se presenta
más a la derecha de la variable delantera de la ecuación anterior (inmediata superior).
En un sistema escalonado se llama variable delantera del sistema a una variable que es de-
lantera en alguna ecuación. Es decir, son variables delanteras aquellas que son las primeras cuyos
coeficientes son distintos de cero. Las restantes variables se llaman variables libres.

Por ejemplo, el sistema lineal



 x1 −2x2 +x3 −x4 = 2
4x2 −3x3 +4x4 = −4 (1.3)
 1
4 x3 = 0

es escalonado, sus variables delanteras son x1 , x2 y x3 , la variable x4 es libre.


El sistema 
2x1 +x2 −5x3 +x4 −2x5 = 2
3x3 +6x5 = 12
es triangular. Sus variables delanteras son x1 y x3 , mientras que x2 , x4 y x5 son las variables libres.
Un sistema escalonado que no tiene ecuaciones inconsistentes es siempre un sistema consistente
como lo muestra el método llamado método de sustitución hacia atrás que conduce a la solución
general de un sistema escalonado.
Este método de resolución comienza en la última ecuación y avanza hacia arriba. Se comienza
despejando la variable delantera de la última ecuación en término de las libres (si las hay) y las

Material de uso interno Mateu-Semitiel 11


CAPÍTULO 1. SISTEMAS DE ECUACIONES LINEALES

constantes. Luego se sustituye la expresión encontrada para dicha variable en la ecuación anterior y
se despeja la variable delantera de dicha ecuación. Ası́, continuando de este modo, hasta despejar la
variable delantera de la primera ecuación.
Ejemplo 1.14. En el sistema escalonado (1.3), de la última ecuación se observa que necesariamente
x3 = 0.
Sustituyendo este valor en la ecuación anterior se obtiene 4x2 +4x4 = −4 por lo cual necesariamente
es x2 = −1 − x4 pudiendo tomar x4 cualquier valor real. Ası́
x4 = t, t ∈ R,
y
x2 = −1 − t.
Reemplazando en la primera ecuación x2 = −1−t, x3 = 0 y x4 = t, se tiene que x1 −2(−1−t)−t = 2
es decir
x1 = −t.
Por consiguiente la solución general del sistema lineal (1.3) se expresa como:
x1 = −t, x2 = −1 − t, x3 = 0 y x4 = t para todo t ∈ R,
o en forma de 4-upla
(−t, −1 − t, 0, t) para todo t ∈ R,
por lo cual el sistema es consistente con infinitas soluciones.
El conjunto solución
{(−t, −1 − t, 0, t) : t ∈ R} ,
es uniparamétrico infinito. ◀

 2x1 − x2 + x3 = 0
Actividad 1.3. Resuelva el sistema lineal escalonado: 3x2 − x3 = 1 .

2x3 = 4

El sistema lineal del Ejemplo 1.10 no es escalonado. Si bien es posible resolverlo haciendo apropiadas
sustituciones, es más sencilla su resolución hallando un sistema escalonado que sea equivalente a él.

Definición (Sistemas equivalentes). Dos sistemas lineales son equivalentes si tienen el


mismo conjunto solución.

Un sistema lineal puede transformarse en un sistema equivalente mediante ciertas operaciones entre
ecuaciones:

Operaciones elementales en ecuaciones


Las operaciones elementales en ecuaciones de un sistema lineal son:

Intercambio. Intercambia ecuaciones: Ei ↔ Ej .

Escalamiento. Multiplica una ecuación por una constante c ̸= 0: cEi → Ei .

Eliminación. Suma a una ecuación un múltiplo escalar de otra ecuación: Ei + cEj → Ei .

Material de uso interno Mateu-Semitiel 12


CAPÍTULO 1. SISTEMAS DE ECUACIONES LINEALES

Teorema 1.2 (Operaciones que conducen a sistemas equivalentes). La aplicación de cual-


quier operación elemental en ecuaciones de un sistema lineal da como resultado un sistema
equivalente.

Demostración. Claramente si se intercambian dos ecuaciones de un sistema no se alteran las soluciones


del mismo.
También, si se multiplica una ecuación por una constante distinta de cero, se obtiene una ecuación
equivalente y por lo tanto no se alteran las soluciones del sistema.
Se deja como ejercicio probar que una operación de eliminación no cambia las soluciones del sistema
(Ejercicio 4).

Una apropiada aplicación de estas operaciones permite encontrar un sistema escalonado equivalente a
uno dado. En la sección siguiente se justificará la existencia de un sistema lineal escalonado equivalente
a uno dado.

Ejemplo 1.15. Para resolver el sistema lineal (no escalonado) del Ejemplo 1.10 se usará la técnica
de eliminación para transformarlo en uno escalonado equivalente. Para ello, se eliminan algunas de las
incógnitas sumando un múltiplo de una ecuación a otra ecuación.

 x1 −2x2 +x3 −x4 = 2 (E1 )
2x1 −x3 +2x4 = 0 (E2 )

−x2 +x3 −x4 = 1 (E3 )
Si se sustituye la ecuación E2 por E2 menos dos veces la ecuación E1 (E2 + (−2)E1 → E2 ) se
elimina x1 de la segunda ecuación, quedando el sistema equivalente:

 x1 −2x2 +x3 −x4 = 2 (E1 )
4x2 −3x3 +4x4 = −4 (E2 )

−x2 +x3 −x4 = 1 (E3 )
1
Para eliminar la variable x2 de la tercera ecuación, se sustituye la ecuación E3 por E3 más 4 de la
ecuación E2 E3 + 14 E2 → E3 . Se obtiene ası́ el sistema escalonado equivalente:

 x1 −2x2 +x3 −x4 = 2
4x2 −3x3 +4x4 = −4
 1
4 x3 = 0

que fue resuelto en el Ejemplo 1.14 y su conjunto solución es:

{(−t, −1 − t, 0, t) : t ∈ R} . ◀

Ejemplo 1.16. Un sistema inconsistente. El sistema lineal



 2x +3y +z = 2
8x +4y +3z = 4

12x +10y +5z = 12

Material de uso interno Mateu-Semitiel 13


CAPÍTULO 1. SISTEMAS DE ECUACIONES LINEALES

es inconsistente. En efecto, llevándolo a uno escalonado equivalente:


 
 2x +3y +z = 2 (E1 ) −−−−−−−−−−−−−−→  2x + 3y + z = 2 (E1 )
8x +4y +3z = 4 − 4E1 → E2
(E2 ) EE32 − − 8y − z = −4 (E2 ) →
 6E1 → E3

12x +10y +5z = 12 (E3 ) − 8y − z = 0 (E3 )

 2x +3y +z = 2 (E1 )
−−−−−−−−−−−−−→
E3 − E2 → E3 −8y −z = −8 (E2 )

0z = 4 (E3 )
Observemos que todas las ecuaciones, tanto las del sistema original como las del que le sigue, son
consistentes pero el sistema no lo es; con algo de atención, en el segundo sistema se ve la inconsistencia
ya que las ecuaciones E2 y E3 no tienen una solución común. La inconsistencia es evidente en el último
sistema equivalente (que es escalonado) pues su última ecuación no tiene solución.◀

Como ya se ha visto, un sistema lineal escalonado es consistente si y solo si todas sus ecuaciones son
consistentes, es decir, si y solo si no tiene una ecuación de la forma

0x1 + 0x2 + ... + 0xn = b, b ̸= 0.

Con respecto a la consistencia de los sistemas lineales en general, se tiene el siguiente resultado:

Teorema 1.3. Un sistema lineal es consistente si y solo cualquier sistema equivalente en


forma escalonada no tiene una ecuación de la forma

0x1 + 0x2 + ... + 0xn = b, b ̸= 0.

Ejercicios 1.2

1. Escriba el sistema lineal 



 −3x1 + x2 = −x3 + x4 + 3

2x1 − x4 + 9 = 0

 x 2 + x3 = x4 − 3 − x2

2x1 − x2 + 5 = x3 + x4 − 1
en forma canónica (estándar) y verifique que la 4−upla (−3, 3, −6, 3) es una solución.

2. Obtenga los valores de a y b de manera que la terna (1, 1, 1) sea una solución del sistema lineal

ax − y + 2z = b
.
x + by + z = 3a

a11 x + a12 y = 0
3. Considere el sistema homogéneo
a21 x + a22 y = 0

a) Demuestre que si (x0 , y0 ) es una solución para tal sistema entonces también lo es (kx0 , ky0 )
para cualquier k constante.

Material de uso interno Mateu-Semitiel 14


CAPÍTULO 1. SISTEMAS DE ECUACIONES LINEALES

b) Demuestre que si (x0 , y0 ) y (x1 , y1 ) son soluciones del sistema lineal homogéneo entonces
(x0 + x1 , y0 + y1 ) también es solución.

4. Demuestre que el sistema lineal que se obtiene al reemplazar una ecuación por ella misma más
un múltiplo escalar de otra tiene las mismas soluciones que el sistema original (Teorema 1.2).

5. Resuelva el problema planteado al inicio de esta sección.

6. Resuelva los siguientes sistemas:


 
 −x + 2y + z = 1  x + 3y − z = 0
a) y − 3z = 0 c) 2y + 9z = 0
 
−2z = 16 3z = 0

 x1 − 3x2 + 5x3 + x4 − 1 = 0 
b) 2x2 = x3 + 9 x1 − x2 + x3 − x4 − 5 = 0
 d)
−x4 = 0 x3 = 8 − x4

7. Demuestre que los sistemas lineales


 
 x1 +2x2 −x3 +x4 = 0  −x1 −2x2 +x3 −x4 = 0
2x1 −x2 +x3 −x4 = 1 y x2 + 2 x3 + 12 x4 = 1
1
 
2x2 +x3 +x4 = 2 −5x2 +3x3 −3x4 = 1

son equivalentes.

8. Indique cuáles son las operaciones elementales realizadas que permiten obtener los sucesivos
sistemas equivalentes. Resuelva el sistema original.
  
 2x −y +z = 4  x +y −2z = 0  x +y −2z = 0
x +y −2z = 0 → 2x −y +z = 4 → −3y +5z = 4 →
  
−x +y +z = 2 −x +y +z = 2 2y −z = 2

 
 x +y −2z = 0  x +y −2z = 0
→ −3y +5z = 4 → −3y +5z = 4 .
 7 14 
3z = 3 7z = 14

1.3. Eliminación gaussiana y de Gauss-Jordan


En la sección anterior introducimos un método para la solución de sistemas lineales. Se estudiará este
procedimiento con mayor profundidad comenzando con la noción de matriz.

Material de uso interno Mateu-Semitiel 15


CAPÍTULO 1. SISTEMAS DE ECUACIONES LINEALES

Definición (Matriz). Si m y n son enteros positivos, una matriz A de m × n es un arreglo


rectangular de mn números dispuestos en m renglones (o filas) y n columnas.
 
a11 a12 a13 . . . a1n
 a21 a22 a23 . . . a2n 
 
A= . .. .. .. .. 
 . . . . . . 
am1 am2 am3 . . . amn

El número aij es el elemento o componente de A que está en el renglón i, columna j. Una


matriz de m renglones y n columnas es de tamaño u orden m × n.

Si m = n la matriz es cuadrada de orden n, los elementos a11 , a22 ,...,ann son los elementos de la
diagonal principal.
En este texto los elementos aij serán números reales salvo otra indicación.
Se usan letras mayúsculas imprentas como A, B, C, etc. para denotar una matriz. También pueden
denotarse mediante un elemento genérico escrito entre corchetes, por ejemplo: [aij ], [bij ], etc. Ası́, para
abreviar la escritura, la matriz A puede denotarse simplemente por

A = [aij ]

indicando además que es de tamaño m × n.

Por ejemplo:
     
1 −2 5 1   2 73
A= , B= , C= −1 2 4 y D= .
3 1 6 3 3 8

A es una matriz 2 × 3, sus elementos son a11 = 1, a12 = −2, a13 = 5, a21 = 3, a22 = 1 y a23 = 6. B
es una matriz 2 × 1 y se dice que es una matriz columna o un vector columna. C es una matriz
de 1 × 3, es una matriz renglón. Se suelen utilizar letras minúsculas negritas para denotar matrices
columna o renglón. Por ejemplo:  
1
b= .
3
Un renglón cero de una matriz solo incluye ceros. Un renglón no cero tiene al menos un
elemento distinto de cero. El primer elemento no cero de un renglón no cero se denomina elemento
delantero o principal. Si el elemento delantero es un 1 se lo llama 1-delantero. Por ejemplo, la
matriz de 4 × 5:  
1 2 4 0 1
 0 0 3 1 1 
 
 −8 0 0 2 5 
0 0 0 0 0
tiene el último renglón cero. Sus elementos delanteros son 1, 3 y −8.

Mediante el uso de matrices, se puede abreviar la escritura de un sistema lineal anotando solo sus
coeficientes y/o términos constantes, siempre que están especificados los nombres y el orden de las
variables. Consideremos el sistema lineal

Material de uso interno Mateu-Semitiel 16


CAPÍTULO 1. SISTEMAS DE ECUACIONES LINEALES



 a11 x1 + a12 x2 + a13 x3 + ... + a1n xn = b1

 a21 x1 + a22 x2 + a23 x3 + ... + a2n xn = b2
..

 .


am1 x1 + am2 x2 + am3 x3 + ...amn xn = bm
El arreglo rectangular de los coeficientes del sistema es la matriz de coeficientes:
 
a11 a12 a13 . . . a1n
 a21 a22 a23 . . . a2n 
 
A= . .. .. .. ..  .
 .. . . . . 
am1 am2 am3 . . . amn

Si a esta matriz se le agrega como última columna el vector de las constantes


 
b1
 b2 
 
b= . 
 .. 
bn

se obtiene la llamada matriz aumentada o ampliada del sistema:


 
a11 a12 a13 . . . a1n b1
 a21 a22 a23 . . . a2n b2 
 
 .. .. .. .. .. ..  .
 . . . . . . 
am1 am2 am3 . . . amn bm

Para hacer énfasis de que se trata de una matriz aumentada, se la suele representar de la siguiente
manera:  
a11 a12 a13 . . . a1n : b1
 a21 a22 a23 . . . a2n : b2 
 
[A : b] =  . .. .. .. .. ..  .
 .. . . . . . 
am1 am2 am3 . . . amn : bm

Ejemplo 1.17. Para el sistema lineal del Ejemplo 1.10



 x1 −2x2 +x3 −x4 = 2
2x1 −x3 +2x4 = 0

−x2 +x3 −x4 = 1

la matriz de coeficientes es  
1 −2 1 −1
A= 2 0 −1 2 
0 −1 1 −1
y su matriz aumentada es  
1 −2 1 −1 : 2
[A : b] =  2 0 −1 2 : 0 . ◀
0 −1 1 −1 : 1

Material de uso interno Mateu-Semitiel 17


CAPÍTULO 1. SISTEMAS DE ECUACIONES LINEALES

 
1 −2 : 1
 2 0 : −1 
Actividad 1.4. Escriba el sistema lineal cuya matriz aumentada es 
 0 −1 :
.
1 
1 1 : 0

Como la matriz aumentada de un sistema lineal es una representación abreviada del mismo, se puede
ahorrar tiempo y trabajar en forma mas eficiente si se utiliza esta notación en el proceso de resolución
del mismo.
Las tres operaciones de ecuaciones que se pueden utilizar en un sistema lineal para generar un
sistema equivalente, se corresponden con ciertas operaciones entre renglones de la matriz aumentada
del sistema.

Definición (Operaciones elementales de renglón). Las operaciones elementales de


renglón de una matriz son las siguientes:

Intercambio. Intercambia renglones: Ri ↔ Rj .

Escalamiento. Multiplica un renglón por una constante c ̸= 0: cRi → Ri .

Eliminación. Suma a un renglón un múltiplo escalar de otro renglón: Ri + cRj → Ri .

Ejemplo 1.18. Retomando el sistema lineal del Ejemplo 1.15 se muestra a la derecha su resolución
trabajando en forma abreviada con la matriz aumentada del sistema, haciendo uso de las operaciones
elementales de renglón correspondientes a las operaciones en ecuaciones realizadas:
  
 x1 −2x2 +x3 −x4 = 2 1 −2 1 −1 : 2
2x1 −x3 +2x4 = 0  2 0 −1 2 : 0 

−x2 +x3 −x4 = 1 0 −1 1 −1 : 1

E2 − 2E1 → E2 R2 − 2R1 → R2
  
 x1 −2x2 +x3 −x4 = 2 1 −2 1 −1 : 2
4x2 −3x3 +4x4 = −4  0 4 −3 4 : −4 

−x2 +x3 −x4 = 1 0 −1 1 −1 : 1

E3 + 41 E2 → E3 R3 + 14 R2 → R3
  
 x1 −2x2 +x3 −x4 = 2 1 −2 1 −1 : 2
4x2 −3x3 +4x4 = −4  0 4 −3 4 : −4 
 1 1
4 x3 = 0 0 0 4 0 : 0

y su conjunto solución (véase Ejemplo 1.15) es

{(−t, −1 − t, 0, t) : t ∈ R} . ◀

Material de uso interno Mateu-Semitiel 18


CAPÍTULO 1. SISTEMAS DE ECUACIONES LINEALES

Una operación elemental de renglón aplicada a la matriz aumentada de un sistema lineal produce
la matriz aumentada de un sistema lineal equivalente. Esto, y dado que toda matriz es la matriz
aumentada de un sistema lineal, da origen a la siguiente definición:

Definición (Matrices equivalentes por renglones). Dos matrices A y B son equivalentes


por renglones y se denota
A∼B
si una de ellas puede obtenerse a partir de la otra mediante una sucesión finita de operaciones
elementales entre renglones.

Por simplicidad, a lo largo de este texto llamaremos simplemente matrices equivalentes a las ma-
trices equivalentes por renglones.

Ejemplo 1.19. Las matrices


   
1 −2 1 1 1 −2 1 1
A =  −1 3 1 −1  y B= 0 1 2 0 
4 2 −6 0 2 1 −3 0
son equivalentes. En efecto: B se obtiene de A mediante una operación de eliminación seguida por un
escalamiento.
     
1 −2 1 1 1 −2 1 1 1 −2 1 1
A =  −1 3 1 −1  −−R−2−−+−R−−1−→
−−−−→ 
2 0  21 R3 → R3  0 1 2 0  = B. ◀
−−−−−−−−−−→
R2 0 1
4 2 −6 0 4 2 −6 0 2 1 −3 0

Las operaciones elementales de renglón son revertibles, o inversibles, en el sentido de que cada operación
elemental tiene una operación elemental inversa que revierte el resultado.

Actividad 1.5. Verifique que la matriz A del ejemplo anterior puede obtenerse a partir de la matriz
B revirtiendo la sucesión de operaciones elementales.
Actividad 1.6. ¿Cuál es la operación elemental inversa de cRi → Ri (c ̸= 0)?. ¿Y cuál es la operación
elemental inversa de Ri + cRj → Ri ?

Se han resuelto sistemas lineales llevándolos a uno escalonado equivalente. Los sistemas escalonados
son aquellos cuya matriz aumentada es de forma escalonada. Precisamente:

Definición (Matrices en forma escalonada por renglones y en forma escalonada


por renglones reducida). Una matriz está en forma escalonada por renglones si verifica
las siguientes condiciones:

Todos los renglones cero (si los tiene) están en la parte inferior de la matriz.

El elemento delantero de cada renglón no cero después del primero está a la derecha
del elemento delantero del renglón anterior.

La matriz está en forma escalonada por renglones reducida si además verifica las dos siguientes
condiciones:

El elemento delantero de cada renglón no cero es 1 (1-delantero).

Toda columna que contiene un 1-delantero, tiene ceros en sus restantes posiciones.

Material de uso interno Mateu-Semitiel 19


CAPÍTULO 1. SISTEMAS DE ECUACIONES LINEALES

Por simplicidad diremos que una matriz está en “forma escalonada” o en “forma escalonada reducida”
para indicar que está en forma escalonada por renglones o en forma escalonada por renglones reducida,
respectivamente.
Por ejemplo, sean las matrices:
   
  1 2 3 0 2 2 4  
1 2 5   1 3
A= , B =  0 1 0 9 , C= 0 1 0 , D= ,
0 1 1 0 0
0 2 1 1 0 0 −1
 
1 0 3 0    
 0 1 0 0 0 2 5
1 2 0   
E=
 0
, F = 0 1 0 , G= 1 2 5 y H= 0 0 1 .
0 0 1 
0 0 1 0 0 0
0 0 0 0
Las matrices A, C, D E, F G y H están en forma escalonada y se han recuadrado sus elementos
delanteros. La matriz B no está en forma escalonada. Las matrices D, E, F y G están en forma
escalonada reducida.

Teorema 1.4. Toda matriz es equivalente a una matriz en forma escalonada.

Demostración. La prueba de este teorema es el algoritmo de Gauss o de eliminación gaussiana.

El algoritmo de Gauss o método de eliminación (o reducción) gaussiana es un procedimiento que permi-


te convertir cualquier matriz en una equivalente en forma escalonada. El método indica las operaciones
elementales de renglón que deben ir aplicándose sucesivamente. Los pasos son los siguientes:

Algoritmo de eliminación gaussiana

1. Vaya a la columna no cero extremo izquierda.

2. Si el primer renglón tiene un cero en la columna del paso 1, intercámbielo con uno que
tenga un elemento no cero en la misma columna. Se obtiene ası́ una matriz equivalente
con el primer renglón no cero cuyo elemento delantero está en la primera columna no
cero.

3. Obtenga ceros abajo de dicho elemento delantero sumando múltiplos adecuados del
primer renglón a los renglones debajo de él.

4. Cubra (o ignore) el renglón superior y repita el mismo procedimiento comenzando con


el paso 1 aplicado a la matriz resultante.

Ejemplo 1.20. Para obtener una matriz en forma escalonada equivalente a la matriz
 
0 2 3 3 0
 1 1 2 −1 1 
A=  2 0 1

0 12 
3 1 3 −1 13

Material de uso interno Mateu-Semitiel 20


CAPÍTULO 1. SISTEMAS DE ECUACIONES LINEALES

se procede, siguiendo el algoritmo de eliminación gaussiana, de la siguiente manera:

     
0 2 3 3 0 1 1 2 −1 1 1 1 2 −1 1
 1 1 2 −1 1   0 2 3 3 0  −−−−−−−−−−−−−−→  0 2 3 3 0 
  R1 ↔ R 2 

− −−−−−−−→  R4 − 3R1 → R4  →
 2 0 1 0 12   2 0 1 0 12  R3 − 2R1 → R3  0 −2 −3 2 10 
3 1 3 −1 13 3 1 3 −1 13 0 −2 −3 2 10
   
1 1 2 −1 1 1 1 2 −1 1
−−−−−−−−−−−−−→  0 2 3 3 0   0 2 3 3 0 
R4 + R2 → R4   −−R−4−−−−R−−3−→
−−−−→  .
R3 + R2 → R3    0 5 10 
R4
0 0 0 5 10 0 0
0 0 0 5 10 0 0 0 0 0
La matriz obtenida  
1 1 2 −1 1
 0 2 3 3 0 
E=
 0
,
0 0 5 10 
0 0 0 0 0
está en forma escalonada.◀

Teorema 1.5. Toda matriz es equivalente a una matriz en forma escalonada reducida.

Demostración. Su prueba es el algoritmo de Gauss-Jordan.

El algoritmo de Gauss-Jordan continúa el proceso de eliminación gaussiana hasta obtener una matriz
equivalente en forma escalonada reducida. Se procede de la siguiente manera:

Algoritmo de Gauss-Jordan

I. Si la matriz está en forma escalonada pase al paso II. Si la matriz no está en forma
escalonada aplique los pasos 1, 2, 3 y 4 del algoritmo de Gauss hasta obtener una forma
escalonada y luego continúe con el paso II.

II. Comenzando con el último renglón no cero, se avanza hacia arriba del siguiente modo:

i. Vaya al último renglón no cero y, si el elemento delantero no es un 1, multiplique


dicho renglón por un apropiado escalar para obtener un 1-delantero.
ii. Obtenga ceros arriba del 1−delantero sumando múltiplos adecuados de este último
renglón a los renglones arriba de él.
iii. Cubra el último renglón no cero y aplique el mismo procedimiento comenzando
con el paso i. a la matriz restante.

Ejemplo 1.21. Para obtener una matriz en forma escalonada reducida equivalente a la matriz A del
ejemplo anterior, se continúa con el algoritmo de Gauss-Jordan a partir de la matriz E:

Material de uso interno Mateu-Semitiel 21


CAPÍTULO 1. SISTEMAS DE ECUACIONES LINEALES

     
1 1 2 −1 1 1 1 2 −1 1 1 1 2 0 3
 0 2 3  
3 0  −−1−−−−−−−−→  0 2 3  −−−−−−−−−−−−−−→ 
3 0  R2 − 3R3 → R2  0 2 3 0 −6 
 →
 0 0 0 5 10 
R → R3
5 3  0 0 0 1 2  R 1 + R3 → R1  0 0 0 1 2 
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
   1 
1 1 2 0 3 1 0 2 0 6

−−−−−−−−−−→  0 1 3  
0 −3  −−−−−−−−−−−−−→  0 1 3
0 −3 
2 2 
 0 2   0 2 
1R → R R1 − R 2 → R1
2 2 2
0 0 1 0 0 1
0 0 0 0 0 0 0 0 0 0
La matriz obtenida  1 
1 0 2 0 6
 0 1 3
0 −3 
R=
 0
2 
0 0 1 2 
0 0 0 0 0
está en forma escalonada reducida y es equivalente a la matriz A.◀

Observación 1.1. Pueden obtenerse 1-delanteros en el paso 3 del algoritmo de Gauss aunque esta
práctica tenderı́a a introducir fracciones en una etapa temprana del cálculo si los elementos son enteros.

Observación 1.2. Debe tenerse en cuenta que una vez que se hayan hecho ceros abajo (o arriba) del
elemento delantero de un renglón debe comenzarse otra vez con el primer paso aplicado a la matriz
que resulta de haber eliminado dicho renglón. Esto es ası́ para no “arruinar” los ceros que ya se habı́an
hecho. Por ejemplo: el paso siguiente en la conversión de la matriz
 
2 −1 0
 0 1 −1 
0 1 0

es hacer cero el elemento en la posición (3, 2). El algoritmo de Gauss indica cubrir el renglón 1 (no se
tiene en cuenta el renglón 1) y hacer R3 − R2 → R3 para obtener:
 
2 −1 0
 0 1 −1  .
0 0 1

Nótese que se hubiese logrado un cero en la posición (3, 2) con la operación R3 + R1 → R3 , pero
esto hubiese conducido a la matriz  
2 −1 0
 0 1 −1 
2 0 1
“arruinando” el cero que ya se habı́a obtenido en la posición (3, 1).

Observación 1.3. En este texto se hará uso de expresiones tales como “llevar la matriz A a una
forma escalonada”, que significa obtener una matriz en forma escalonada equivalente a la matriz A.

Material de uso interno Mateu-Semitiel 22


CAPÍTULO 1. SISTEMAS DE ECUACIONES LINEALES

Nota: Una matriz no cero es equivalente a infinitas matrices en forma escalonada pero solo a una en
forma escalonada reducida. Se aceptará sin demostrar el siguiente teorema:

Teorema 1.6 (Unicidad de la forma escalonada reducida). Toda matriz es equivalente a una
y solo una matriz escalonada reducida.

Si A, E y R son tres matrices equivalentes tales que E está en forma escalonada y R en forma
escalonada reducida, se dice que E es una forma escalonada de A y que R es la forma escalonada
reducida de A.
En cualquier forma escalonada de una matriz A los elementos delanteros se encuentran en las
mismas posiciones, a dichos elementos delanteros se los llama pivotes. Se llaman posiciones pivote
(o de pivoteo) de una matriz A a las posiciones de los pivotes de una (cualquiera) forma escalonada
de A.
Las columnas de A que contienen una posición pivote se llaman columnas pivote de A. Debe
notarse que para determinar cuáles son las columnas pivote de una matriz A que no está en forma
escalonada debe primero llevársela a una forma escalonada para conocer cuáles son las posiciones
pivote.

Ejemplo 1.22. Las matrices


       
2 2 3 2 2 3 2 2 3 1 0 0
B= 0 4 2 , C =  0 2 1 , D= 0 1 1 
2 y I =  0 1 0 ,
0 0 −5 0 0 −5 0 0 −1 0 0 1
son formas escalondas de la matriz  
2 2 3
A =  4 8 8 .
6 6 4
La matriz I (esta matriz es la matriz identidad de orden 3) es la forma escalonada reducida de
A (también es la forma escalonada reducida de B, C y D).
Las posiciones pivote de las matrices A, B, C, D y I son (1, 1), (2, 2) y (3, 3), y sus columnas
pivote son las columnas 1, 2 y 3. Los pivotes de B son 2, 4 y −5, los de C son 2, 2 y −5, los de D son
2, 1 y −1, y los pivotes de I son 1, 1 y 1.◀

Actividad 1.7. Considere las matrices A, B, C, D y I del Ejemplo 1.22. Verifique que las matrices
B, C, D y I son formas escalonadas de la matriz A y que la matriz I es su forma escalonada reducida.
 
1 −1 2 3
 −2 2 −4 −6 
 
Actividad 1.8. Dada la matriz A = 
 2 −1 6 8 
 , halle su forma escalonada reducida y
 1 0 4 5 
0 0 0 1
exhiba sus columnas pivote.

Actividad 1.9. ¿Cuántas matrices cuadradas de orden 3 escalonadas reducidas tienen exactamente
2 pivotes?, ¿cuántas tienen exactamente 3 pivotes?

Material de uso interno Mateu-Semitiel 23


CAPÍTULO 1. SISTEMAS DE ECUACIONES LINEALES

Ejercicios 1.3

1. Escriba la matriz de coeficientes y la matriz aumentada asociada al sistema lineal




 x +y +z −w = −1


 2x +y −z = 0
y +z −w = 1 .



 x +y +z +w = 4

2x −z +w = 0

2. Teniendo en cuenta la Actividad 1.6 demuestre que si A, B y C son matrices m × n entonces se


verifican las siguientes propiedades:

a) A ∼ B ⇒ B ∼ A
b) Si A ∼ B y B ∼ C, entonces A ∼ C.

3. Indique cuáles de las siguientes matrices están en forma escalonada y cuáles de éstas en forma
escalonada reducida. Recuadre los pivotes de cada matriz que están en forma escalonada e indique
sus columnas pivote.
 
      1 0 0 9 0
1 −2 1 1 1 0 1 1 3  0 0 1 3 0 
A= 0 5 −2 1  , B =  0 5 0  , C =  1 2  , D =   0 0 0 0 1 ,

0 0 0 2 0 0 0 0 0
0 0 0 0 0

7    
 0    1 0 0 1 0 0 5 0 0
E= 
 0 , F = 1 6 0 0 1 , G =  0 1 0 , H =  0 1 3 0 0 0 .
0 0 1 0 0 0 0 0 1
0

4. Sean A y B dos matrices de m × n, y A′ y B ′ sus respectivas formas escalonadas reducidas.


Demuestre que: A ∼ B si y solo si A′ = B ′ .
Nota: Dos matrices son iguales si tienen el mismo tamaño y los elementos que ocupan las mismas
posiciones son iguales.

5. Determine en cada caso si las matrices A y B son equivalentes.


   
1 2 −1 2 1 0 − 32 21
a) A =  −1 2 2 1 , B =  0 4 1 3 
0 4 1 3 0 0 0 0
   
1 2 3 1 1 −1
b) A = ,B=
0 1 1 0 1 1
   
2 1 −1 3 1 0 0 0
 4 0 1 −1    0 1 0 0 
c) A = 
 0 2 ,B= 
0 2   0 0 1 0 
1 1 −1 3 0 0 0 1

Material de uso interno Mateu-Semitiel 24


CAPÍTULO 1. SISTEMAS DE ECUACIONES LINEALES

6. Demuestre que si a11 a22 − a12 a21 ̸= 0 entonces


   
a11 a12 1 0
∼ .
a21 a22 0 1

7. En cada caso obtenga la forma escalonada reducida para cada matriz A. Indique las columnas
pivote de A.
     
1 −1 −1 3 2 −1 5 0 1 3 2 −2

a) A = 1 −1 0 1  
b) A = −3 0 2 1  c) A =  2 6 4 −4 
0 2 1 −1 1 −2 12 1 3 9 6 −6

8. Sea A una matriz de 15 × 18. ¿Es posible que el número de posiciones pivote de A sea 19?, ¿y
que sea 16?. ¿Cuál es el número máximo de posiciones pivote de A?.

9. Justifique que si A es una matriz de m × n entonces el número de posiciones pivote de A es


menor o igual al mı́nimo entre m y n.

1.4. Resolución de sistemas lineales


Dada la identificación entre un sistema lineal y su matriz aumentada, y habiéndose demostrado que
toda matriz es equivalente a alguna matriz en forma escalonada y a una (y solo una) en forma
escalonada reducida, el mismo resultado se aplica a los sistemas de ecuaciones lineales. Esto es, todo
sistema de ecuaciones lineales es equivalente a alguno escalonado.
En esta sección se verá cómo emplear la eliminación gaussiana y la de Gauss-Jordan para resolver
un sistema lineal. Cualquiera de estos procedimientos se aplica a la matriz aumentada del sistema para
producir una matriz en forma escalonada equivalente. El sistema correspondiente a esta última matriz
es equivalente al original y como es escalonado es fácil de resolver, o es evidente su inconsistencia.

Eliminación gaussiana con sustitución hacia atrás


El procedimiento es el siguiente:

1. Escriba la matriz aumentada del sistema lineal.

2. Utilice el algoritmo de eliminación gaussiana para llevar la matriz a una forma esca-
lonada. Si durante cualquier
 estapa de este
 proceso se encuentra una matriz con un
renglón de la forma 0 0 ... 0 : b con b ̸= 0, deténgase, en este caso el sistema
es inconsistente. De lo contrario continúe con 3).

3. Escriba el sistema de ecuaciones lineales escalonado correspondiente a la matriz obte-


nida en 2) sin tener en cuenta los renglones cero (si los tiene).

4. Para el sistema escalonado obtenido, distinga las variables delanteras de las libres y
aplique el método de sustitución hacia atrás para encontrar la solución del sistema.

Material de uso interno Mateu-Semitiel 25


CAPÍTULO 1. SISTEMAS DE ECUACIONES LINEALES

Con respecto al paso 3, cuando se llega a una matriz en forma escalonada, si ésta tiene renglones
cero, las ecuaciones lineales correspondientes son de la forma 0x1 + 0x2 + ... + 0xn = 0. Este tipo de
ecuaciones se satisfacen para cualquier n-upla de números reales, por lo tanto no aportan soluciones
al sistema y se descartan del mismo. En estos casos el sistema escalonado equivalente tendrá menos
ecuaciones que el sistema original.

Ejemplo 1.23. La matriz  


0 2 3 3 0
 1 1 2 −1 1 
 
 2 0 1 0 12 
3 1 3 −1 13
del Ejemplo 1.20 es la matriz aumentada del sistema lineal


 2x2 +3x3 +3x4 = 0

x1 +x2 +2x3 −x4 = 1

 2x1 +x3 = 12

3x1 +x2 +3x3 −x4 = 13
Aplicando eliminación gaussiana se obtuvo la siguiente forma escalonada de su matriz aumentada
 
1 1 2 −1 1
 0 2 3 3 0 
 
 0 0 0 5 10 
0 0 0 0 0
Como esta matriz tiene un renglón cero,
 se descarta la ecuación correspondiente. Además no hay un
renglón de la forma 0 0 ... 0 : b con b ̸= 0, por lo tanto el sistema escalonado correspondiente
es consistente. Este sistema es

 x1 +x2 +2x3 −x4 = 1
2x2 +3x3 +3x4 = 0

5x4 = 10
Las variables delanteras son x1 , x2 y x4 , que son las que corresponden a las columnas pivote 1◦ , 2◦
y 4◦ de la matriz de coeficientes. La variable x3 (que corresponde a una columna no pivote) es libre,
por lo que toma cualquier valor. Sea
x3 = t, t ∈ R.

Se aplica ahora el método de sustitución hacia atrás. De la última ecuación


x4 = 2.
Sustituyendo x4 y x3 en la ecuación anterior se tiene 2x2 + 3t + 3(2) = 0 y despejando x2
3
x2 = − t − 3.
2

Reemplazando ahora x4 , x3 y x2 en la primera ecuación se tiene x1 + − 23 t − 1 + 2t − 2 = 1 y
depejando x1 se obtiene
1
x1 = − t + 6.
2
El sistema lineal tiene infinitas soluciones y su solución general es
1 3
x1 = − t + 6, x2 = − t − 3, x3 = t, x4 = 2 para todo t ∈ R. ◀
2 2

Material de uso interno Mateu-Semitiel 26


CAPÍTULO 1. SISTEMAS DE ECUACIONES LINEALES

La eliminación de Gauss-Jordan para la resolución de sistemas, encuentra un sistema lineal equivalente


al dado que es escalonado reducido, esto es, su matriz aumentada está en forma escalonada reducida.

Eliminación de Gauss-Jordan
Los pasos a seguir son los siguientes:

1. Escriba la matriz aumentada del sistema lineal.

2. Emplee el método de eliminación de Gauss-Jordan para obtener la forma escalonada


reducida de la matriz. Si en alguna etapa (temprana) del  proceso se encuentra una
matriz con un renglón de la forma 0 0 ... 0 : b con b ̸= 0, deténgase. El
sistema es inconsistente. De lo contrario continúe con el paso 3).

3. Escriba el sistema de ecuaciones lineales escalonado “reducido” correspondiente a la


matriz obtenida en 2) sin tener en cuenta los renglones cero.

4. Distinga las variables delanteras de las libres (si las hay) y despeje la variable delantera
de cada ecuación en función de las libres, de las constantes o de ambas.

Observación 1.4. En un sistema escalonado reducido la variable delantera de cada ecuación “no
aparece” en otra ecuación, en particular no aparece en las ecuaciones anteriores, y por lo tanto no se
requiere aplicar sustitución hacia atrás para resolverlo.
Ejemplo 1.24. Retomando el ejemplo anterior, se puede resolver el sistema


 2x2 +3x3 +3x4 = 0

x1 +x2 +2x3 −x4 = 1

 2x 1 +x3 = 12

3x1 +x2 +3x3 −x4 = 13
llevándolo al escalonado reducido.
Aplicando eliminación gaussiana se obtuvo la siguiente forma escalonada de su matriz aumentada:
 
1 1 2 −1 1
 0 2 3 3 0 
 .
 0 0 0 5 10 
0 0 0 0 0
Ahora, en lugar de usar sustitución hacia atrás para resolver el sistema escalonado correspondiente,
se continúa con la eliminación de Gauss-Jordan hasta obtener la forma escalonada reducida. El Ejemplo
1.21 muestra la matriz escalonada reducida que se obtuvo:
 
1 0 12 0 6
 0 1 3 0 −3 
 2 .
 0 0 0 1 2 
0 0 0 0 0
El sistema escalonado reducido correpondiente es

 x1 + 21 x3 = 6
x2 + 23 x3 = −3

x4 = 2

Material de uso interno Mateu-Semitiel 27


CAPÍTULO 1. SISTEMAS DE ECUACIONES LINEALES

La variable x3 es libre, puede tomar cualquier valor. Si x3 = t, despejando la variable delantera de


cada ecuación en función de t y las constantes se obtiene directamente la solución general del sistema,
a saber: 

 x1 = 6 − 12 t

x2 = −3 − 32 t
para todo t ∈ R.

 x = t
 3
x4 = 2
Observe que el trabajo que se agrega al completar el proceso para obtener la forma escalona-
da reducida de la matriz aumentada, se compensa con la resolución directa del sistema reducido
equivalente.◀

Ejemplo 1.25 (Sistema consistente con única solución). Para resolver el sistema lineal

 x1 −x2 −x3 = 0
−x1 +x2 −x3 = −6

2x1 −x2 −x3 = 1

aplicando el algoritmo de eliminación de Gauss-Jordan, procedemos ası́:


     
1 −1 −1 : 0 −−−−−−−−−−−−−−→ 1 −1 −1 : 0 1 −1 −1 : 0
 −1 1 −1 : −6  RR32−+2R R1 → R2  0 0 −2 : −6  −−R−− →
−−−−−
3 ↔ R2 0 1 1 : 1 →
1 → R3
2 −1 −1 : 1 0 1 1 : 1 0 0 −2 : −6
   
1 −1 −1 : 0 1 −1 0 : 3
−−−− −−−− −−−−−→

−−−−−−−−−−−
−1 R
2 3
→ R

3
 0 1 1 : 1  R 1 + R 3 → R1 
0 1 0 : −2  →
R2 − R 3 → R2
0 0 1 : 3 0 0 1 : 3
 
1 0 0 : 1
−−−−−−−−−−−−−→ 
R1 + R2 → R1 0 1 0 : −2  .
0 0 1 : 3
El sistema escalonado reducido equivalente al dado es:

 x1 = 1
x2 = −2

x3 = 3

Todas las variables del sistema son delanteras (no posee variables libres). La solución es única y se
lee directamente: x1 = 1, x2 = −2 y x3 = 3. Su conjunto solución es {(1, −2, 3)}. ◀

Ejemplo 1.26 (Sistema consistente con infinitas soluciones). Considere el sistema lineal

 2x1 −x2 +x3 −x4 = 0
x1 +3x2 +x3 −x4 = 1

−3x1 +5x2 −x3 +x4 = 1

Para resolver el sistema aplicando eliminación gaussiana, procedemos como sigue:


   
2 −1 1 −1 : 0 1 3 1 −1 : 1
 1 3 1 −1 : 1  −−R−− →
−−−−−
1 ↔ R2 2 −1 1 −1 : 0  →
−3 5 −1 1 : 1 −3 5 −1 1 : 1

Material de uso interno Mateu-Semitiel 28


CAPÍTULO 1. SISTEMAS DE ECUACIONES LINEALES

   
−−−−−−−−−−−−−−→
1 3 1 −1 : 1 1 3 1 −1 : 1
R2 − 2R1 → R2   −−−−−−−−−−−−−−→ 
R3 + 3R1 → R3 0 −7 −1 1 : −2 R3 + 2R2 → R3 0 −7 −1 1 : −2 
0 14 2 −2 : 4 0 0 0 0 : 0
(observe que en el primer paso se intercambiaron los renglones R1 con R2 para usar como pivote el 1,
ya que de esta forma se evita introducir fracciones en una etapa temprana del proceso).
Un sistema escalonado equivalente al dado es

x1 +3x2 +x3 −x4 = 1
−7x2 −x3 +x4 = −2

Las variables x1 y x2 son delanteras, x3 y x4 son libres pudiendo tomar cualquier valor real. As,́

x4 = t, t ∈ R,

y
x3 = s, s ∈ R.
Se aplica ahora el método de sustitución hacia atrás. Despejando x2 en función de s y t se obtiene
2 1 1
x2 = − s + t.
7 7 7
Sustituyendo ahora x2 en la primera ecuación y despejando x1 en función de s y t se tiene
1 4 4
x1 = − s + t.
7 7 7
El sistema es consistente con infinitas soluciones y su conjunto solución es
  
1 4 4 2 1 1
− s + t, − s + t, s, t : t, s ∈ R . ◀
7 7 7 7 7 7

Ejemplo 1.27 (Sistema inconsistente). Sea el sistema lineal



 x −2y +z = 1
2x +y = 3 .

x +3y −z = 0

Si se aplica eliminación gaussiana a su matriz aumentada


     
1 −2 1 : 1 −−−−−−−−−−−−−−→ 1 −2 1 : 1 1 −2 1 : 1
 2 −−−−→  
1 0 : 3  RR23 −−2R 1 → R2 
R1 → R3 0 5 −2 : 1  −−R−3−−−−R−−2−→ R3  0 5 −2 : 1 
1 3 −1 : 0 0 5 −2 : −1 0 0 0 : −2
 
se llega a una matriz escalonada equivalente cuyo último renglón, 0 0 0 : −2 corresponde a
la ecuación inconsistente 0z = −2 por lo que el sistema no tiene solución. ◀

Material de uso interno Mateu-Semitiel 29


CAPÍTULO 1. SISTEMAS DE ECUACIONES LINEALES

Soluciones de un sistema lineal


Se han visto ejemplos de sistemas lineales que tienen una única solución, infinitas soluciones o son
inconsistentes. También se han establecido criterios para determinar la consistencia o inconsistencia
de los mismos.
Se obtendrán ahora resultados importantes que permiten determinar la “cantidad” de soluciones
de un sistema lineal.
El siguiente resultado ya ha sido demostrado (Teorema 1.3). Ahora se agrega el enunciado equiva-
lente referido a su matriz aumentada:

Teorema 1.7. (Consistencia de un sistema lineal).

Un sistema lineal es consistente si y solo si En término de matrices:


cualquier sistema escalonado equivalente no
Un sistema lineal es consistente si y solo si
tiene una ecuación de la forma
cualquier forma escalonada de la matriz au-
mentada no tiene un renglón de la forma
 
0x1 + 0x2 + ... + 0xn = b 0 0 ... 0 : b

con b ̸= 0, es decir, la última columna de la


con b ̸= 0. matriz aumentada no es una columna pivote.

Con respecto a los sistemas consistentes se tiene el teorema que sigue. Dado que las variables delanteras
corresponden a columnas pivote de la matriz aumentada y las variables libres corresponden a columnas
no pivote, se agrega el enunciado equivalente referido a su matriz aumentada:

Teorema 1.8. (Sistemas consistentes: número de soluciones).

Un sistema lineal consistente tiene única so- En término de matrices:


lución si y solo si no tiene variables libres, es
Un sistema lineal consistente tiene una úni-
decir, todas sus variables son delanteras.
ca solución si y solo si cada columna de la
matriz aumentada, excepto la última, es una
Un sistema lineal consistente tiene infinitas
columna pivote (la última columna no debe
soluciones si y solo tiene variables libres.
ser columna pivote ya que el sistema es con-
sistente).

Un sistema lineal consistente tiene infinitas


soluciones si y solo si su matriz aumentada
tiene otras columnas no pivote además de la
última (la última columna no debe ser colum-
na pivote ya que el sistema es consistente).

Demostración. Para resolver un sistema lineal consistente las variables delanteras de un sistema esca-
lonado equivalente se despejan en función de las libres (si las tiene) y de las constantes. Si el sistema
tiene variables libres entonces no tiene una única solución, más aún tiene infinitas soluciones ya que las
variables libres asumen cualquier valor real. Si no tiene variables libres entonces cada variable asume
un único valor y por lo tanto el sistema tendrá solución única.

Material de uso interno Mateu-Semitiel 30


CAPÍTULO 1. SISTEMAS DE ECUACIONES LINEALES

Dado que un sistema de ecuaciones lineales tiene variables libres o no las tiene, los teoremas 1.7 y 1.8
implican el siguiente:

Teorema 1.9 (Cantidad de soluciones de un sistema lineal). Para cualquier sistema


lineal una y solo una de las tres propiedades siguientes es válida:

El sistema no tiene soluciones (inconsistente).

El sistema tiene solo una solución.

El sistema tiene infinitas soluciones.

Actividad 1.10. ¿Qué puede asegurar respecto a las soluciones de los sitemas lineales cuyas matrices
aumentadas son equivalentes a las siguientes formas escalonadas?
   
1 a b d g   1 a b d f
 0 2 c e h  1 a b c e  
A=   , B =  0 0 2 d f ; C =  0 2 c e g 
0 0 5 f i   0 0 0 0 3 
0 0 0 3 0
0 0 0 3 j 0 0 0 0 0
donde a, b, c, d, e, f , g, h, i y j son constantes reales.

Para los sistemas lineales homogéneos se tienen los siguientes resultados:

Teorema 1.10. (Soluciones de un sistema lineal homogéneo).

1. Un sistema lineal homogéneo tiene solo la solución trivial o bien un número infinito de
soluciones.

2. Si un sistema lineal homogéneo tiene más incógnitas que ecuaciones entonces tiene
infinitas soluciones.

Demostración. 1. Todo sistema lineal homogéneo es consistente, ya que tiene al menos la solución
trivial, luego, de acuerdo al Teorema 1.9 tiene una única solución o infinitas soluciones. Si tiene
solo una solución, ésta será la solución trivial y si no, tendrá un número infinito de soluciones.
2. Si un sistema tiene más incógnitas (variables) que ecuaciones entonces tiene variables libres,
ya que el número de variables delanteras no puede exceder al número de ecuaciones. Como el
sistema es consistente (dado que es homogéneo) y tiene variables libres, entonces tiene infinitas
soluciones de acuerdo al Teorema 1.8.

Observación 1.5. Cuando se dice que un sistema lineal homogéneo tiene soluciones no triviales debe
entenderse que tiene otras (infinitas) soluciones, además de la trivial.

Actividad 1.11. Determine si los siguientes sistemas homogéneos tienen soluciones no triviales:

 x1 +x2 +x3 = 0 

  x1 + x2 + x3 = 0 

 2x1 −x2 −x3 = 0 
  x1 +x2 +x3 +5x4 = 0
2x1 − x2 − x3 = 0
x1 +2x2 −x3 = 0 , , 2x1 −x2 −x3 +20x4 = 0 .

 
 5x1 + x2 − x3 = 0 

 4x1 −x2 +x3 = 0  77x1 +6x2 +45x3 −x4 = 0
 4x1 − x2 + x3 = 0
2x1 +3x2 = 0

Material de uso interno Mateu-Semitiel 31


CAPÍTULO 1. SISTEMAS DE ECUACIONES LINEALES

Se terminará la sección considerando el siguiente ejemplo:

Ejemplo 1.28. Sean los sistemas lineales


 
x + 2y + 3z = 2 x + 2y + 3z = 2
y
2x + 4y + 6z = 4 2x + 4y + 6z = 5

que tienen la misma matriz de coeficientes.


El primer sistema es consistente mientras que el segundo no lo es. Las correspondientes matrices
aumentadas se reducen a las siguientes formas escalonadas:
   
1 2 3 : 2 1 2 3 : 2
y ,
0 0 0 : 0 0 0 0 : 1

respectivamente.
 
1 2 3
La matriz de coeficientes de ambos sistemas, A = , no tiene una posición pivote en
2 4 6
el segundo renglón, entonces cualquiera sea el vector de constantes
 b el último renglón de cualquier
forma escalonada de [A : b] será de la forma 0 0 0 : c para algún c ∈ R. El sistema lineal será
consistente o inconsistente dependiendo del valor de c: si c = 0 el sistema es consistente mientras que
es inconsistente si c ̸= 0.◀

El ejemplo anterior despierta una inquietud: dada una matriz A ¿podrá suceder que un sistema lineal
con dicha matriz de coeficientes sea siempre consistente?. Es claro que para que esto ocurra las formas
escalonadas de A no deben tener renglones ceros, es decir A debe tener un pivote por renglón. Se tiene
ası́ el siguiente teorema:

Teorema 1.11. Sea A una matriz de m × n. El sistema lineal de matriz aumentada [A : b]


es consistente para todo b ∈ Rm si y solo si ninguna forma escalonada de A tiene un renglón
cero; esto es A tiene m posiciones pivote (un pivote por cada renglón).

Obsérvese que si una matriz A de m × n tiene m posiciones pivote necesariamente el número de


renglones, m, debe ser menor o igual al número de columnas, n. Es decir, el número de ecuaciones del
sistema no debe exceder al número de incógnitas.

Actividad 1.12. ¿Cuáles de las siguientes matrices son matrices de coeficientes de sistemas lineales
que siempre resultan consistentes?
 
    1 2 3 0  
1 2 1 2 3  3  1 1 1 0
4 −1 1 
 3 4  ,  −1 0 1 ,   0 −1 ,  1 1 0 1 .
2 2 
−1 3 2 1 −2 1 0 1 2
4 6 2 1

Ejercicios 1.4

1. Resuelva los siguientes sistemas de ecuaciones lineales:

Material de uso interno Mateu-Semitiel 32


CAPÍTULO 1. SISTEMAS DE ECUACIONES LINEALES

 

 x1 +x3 +x4 = −5 
 x1 +2x2 +3x3 +4x4 = 0
 

x1 −x3 +x4 = −1  2x1 +2x2 +3x3 +4x4 = 0
a)

 x 1 +x 2 +x3 +x4 = −3 d) 3x1 +3x2 +3x3 +4x4 = 0
 

2x1 +2x3 = −2 
 4x1 +4x2 +4x3 +4x4 = 0

 x1 +x2 +x3 −2x4 = 0
 y −z +t = 5 

  −x2 −2x4

 x −t = −2  2x1

= 3

 x1 −2x2 +x3 −x4 = 1
b) −y +z −t = −5

 e) 2x1 −x2 −x3 +x4 = 0

 y −z +t = 5 

  3x1
 −3x2 = 1
−y −w = −1 
x1 +x2 −x3 −x4 = 2
 
 2y −3z = 9  −x +y −3z +w = 9
c) −x +3y +4z = −2 f) 2x −5y +z +9w = 0
 
3x −5y −18z = 0 −4x +7y −7z −7w = 18

2. El problema de los celulares. Una fábrica de celulares elabora cuatro modelos de teléfonos
móviles: AA1, AA2, AA3 y B1. Una vez fabricados, se requiere de la inspección de los mismos
en algunos de los sectores S1, S2, S3 y S4. El modelo AA1 requiere de 5 horas de inspección en
el sector S1, 4 horas en S2, 1 hora en S3 y 3 horas en S4. El modelo AA2 requiere de 2 horas de
inspección en cada uno de los cuatro sectores. El modelo AA3 requiere de 3 horas en el sector
S2, 1 hora en S3 y 5 horas en S4. Por último, el modelo más nuevo B1 requiere de 1 hora en S1,
7 horas en S2 y 10 horas en S3. Si el sector S1 dispone de 230 horas semanales de trabajo, S2
de 369 horas, S3 de 299 horas y S4 de 231 horas, ¿cuántos celulares de cada modelo se pueden
inspeccionar por semana?

3. Elaboración de una dieta. Por lo general, el empaque de un cereal indica el número de calorı́as
y las cantidades de proteı́nas, carbohidratos y grasa contenidas en una porción del producto.
Para dos marcas de cereales, se dan las cantidades en el Cuadro 1.1.

Nutriente Cereal X Cereal Y


Calorı́as 110 130
Proteı́nas (g) 4 3
Carbohidratos (g) 20 18
Grasa (g) 2 5

Cuadro 1.1: Cantidades de nutrientes de cada cereal

Suponga que se preparará una mezcla de esos cerales, de manera que contenga exactamente 295
calorı́as, 9g de proteı́nas, 48g de carbohidratos y 8g de grasa. Determine si es posible preparar
la mezcla deseada de los dos cereales.

4. Flujo de redes. Los sitemas de ecuaciones lineales son utilizados también para estudiar el flujo
de alguna cantidad a través de una red. Por ejemplo, los planificadores urbanos y los ingenieros
de tráfico monitorizan el patrón de flujo de tránsito en una rejilla de las calles de una ciudad.

Una red consiste en un conjunto de puntos llamados nodos, con lı́neas o arcos llamados ramas,
que conectan algunos o todos los nodos. Se indica la dirección y el sentido de flujo en cada rama,
y la cantidad de flujo (o tasa) se denota con una variable.

Material de uso interno Mateu-Semitiel 33


CAPÍTULO 1. SISTEMAS DE ECUACIONES LINEALES

Figura 1.2: Nodo y ramas

La suposición básica en el flujo de red es que el flujo total en la red es igual al flujo total de
salida de la red, y que el flujo total en un nodo es igual al flujo total de salida en dicho nodo.
Por ejemplo, la Figura 1.2 muestra 30 unidades que fluyen por una rama hacia una unión; x1 y
x2 denotan los flujos de salida del nodo a través de otras ramas.

Como el flujo se “conserva” en cada unión, entonces x1 + x2 = 30. En forma similar, el flujo
en cada nodo se describe mediante una ecuación lineal. El problema de análisis de redes es
determinar el flujo en cada rama cuando se tiene información parcial (como el flujo de entrada
y salida de la red).

a) La red de la Figura 1.3 representa el flujo de tránsito (en vehı́culos por hora) en varias calles
de un solo sentido en el centro de Baltimore en un dáa común, poco después del mediodı́a.

Figura 1.3: Red de tránsito (Baltimore)

Para determinar el patrón de flujo general para la red, se escriben las ecuaciones que
describen el flujo. En cada intersección de las calles (nodos) se iguala el flujo de entrada al
de salida como se muestra en el Cuadro 1.2.

Intersección Flujo de entrada Flujo de salida


A 300 + 500 = x1 + x2
B x2 + x4 = 300 + x3
C 100 + 400 = x4 + x5
D x1 + x5 = 600

Cuadro 1.2: Flujos en intersecciones

Material de uso interno Mateu-Semitiel 34


CAPÍTULO 1. SISTEMAS DE ECUACIONES LINEALES

También, el flujo total de entrada en la red (500 + 300 + 100 + 400) es igual al flujo total
de salida (300 + x3 + 600), que se simplifica a x3 = 400.
Escriba el sistema de ecuaciones lineales que modeliza el problema y encuentre su solución
para determinar el patrón de flujo general para la red. Determine el posible rango de las
variables del problema.
Nota: Un flujo negativo en una rama de la red corresponde a un flujo en el sentido opuesto al
indicado en el modelo. Como las calles en este problema son de un solo sentido, ninguna de las
variables puede ser negativa.

b) Encuentre el patrón de flujo general de la red que se ilustra en la Figura 1.4.

Figura 1.4: Red de tránsito

Suponiendo que todos los flujos son no negativos, ¿cuál es el valor más pequeño posible
para x4 ?

5. ¿Para qué valores de a, b y c el sistema lineal



 −x +2y −z = a
3x +y +2z = b

5x −3y +4z = c

admite al menos una solución?

6. Determine para qué valores de λ y µ el sistema lineal



 2x −λy +µz = 4
x +z = 2

x +y +z = 2

es (a) inconsistente, (b) consistente con infinitas soluciones, (c) consistente con única solución.

7. Halle el o los valores de α para los cuales el sistema de ecuaciones lineales



 x +3y +z = α
−x +y +αz = −1

2x +αy −z = α+1

admite (a) única solución, (b) infinitas soluciones, (c) ninguna solución. Si existe un único valor
de α para el cual el sistema tiene única solución, resuelva el sistema. Idem en el caso de infinitas
soluciones.

Material de uso interno Mateu-Semitiel 35


CAPÍTULO 1. SISTEMAS DE ECUACIONES LINEALES

8. Analice la consistencia del sistema lineal según los valores de a y b.



 2x1 + x2 + 2x3 = 1
x1 + x2 + x3 = a

2x1 + 3x2 + bx3 = −1

9. ¿Para qué valores de λ ∈ R los sistemas homogéneos:



(λ − 5) x − y = 0
a)
−x + (λ − 5) y = 0

 (λ − 1) x1 − 3x3 = 0
b) −x1 + (λ + 1) x2 − 2x3 = 0

x1 − x2 + (λ + 2) x3 = 0
tienen soluciones no triviales?

10. Resolución simultánea de sistemas lineales que tienen la misma matriz de coeficien-
tes. Es frecuente en la práctica tener que resolver sistemas lineales que tienen la misma matriz
de coeficientes pero distintos términos independientes. Por ejemplo, los sistemas:

x −2y +3z = −2
(1.4)
−x +4y +5z = 7
y 
u −2v +3w = 1
(1.5)
−u +4v +5w = −4
 
1 −2 3
tienen la misma matriz de coeficientes y vectores de términos independientes
−1 4 5
   
−2 1
y .
7 −4

En lugar de resolver cada sistema por separado, se los puede resolver simultáneamente aplicando
el algoritmo de eliminación gaussiana, o el de Gauss-Jordan, a la matriz ampliada que tiene en
el lado derecho las dos columnas que corresponden a los términos independientes. Si se aplica
Gauss-Jordan a esta matriz se obtiene su forma escalonada reducida y en consecuencia los dos
sistemas escalonados reducidos equivalentes a los originales.
   
1 −2 3 : −2 1 −−−−−−−−−−−−−→ 1 −2 3 : −2 1 −−1−−−−−−−−→
R2 + R 1 → R2 R → R2
−1 4 5 : 7 −4 0 2 8 : 5 −3 2 2

   
1 −2 3 : −2 1 −−−−−−−−−−−−−−→ 1 0 11 : 3 −2
→ R1 + 2R2 → R1 .
0 1 4 : 5
2 − 3
2 0 1 4 : 5
2 − 32

Rápidamente se obtienen las soluciones:

Para el sistema (1.4) 


 x = 3 − 11s
y = 52 − 4s , s ∈ R,

z = s

Material de uso interno Mateu-Semitiel 36


CAPÍTULO 1. SISTEMAS DE ECUACIONES LINEALES

y para el sistema (1.5) 


 u = −2 − 11t
v = − 32 − 4t , t ∈ R.

w = t
En el caso de k sistemas lineales de n ecuaciones con n incógnitas cuya matriz de coeficientes
tiene n pivotes, los k sistemas tienen solución única y la solución del i-ésimo sistema se lee
directamente en la (n + i)-ésima columna de la matriz ampliada reducida equivalente.

Resuelva simultáneamente los sistemas:


  
 2x +y = 5  2x +y = 5  2x +y = −1
a) −x +3y = 1 , −x +3y = 1 y −x +3y = 4
  
x +4y = 6 x +4y = 0 x +4y = 3
  
 x +2y +z = 1  x +2y +z = 1  x +2y +z = 0
b) x +y +3z = 2 , x +y +3z = 0 y x +y +3z = 1
  
2x +y +3z = 3 2x +y +3z = 1 2x +y +3z = −1
 
 x1 −2x2 +x3 = 1  x1 −2x2 +x3 = 1
c) x1 +x2 −x3 = 0 y x1 +x2 −x3 = 1
 
2x1 −x2 = 1 2x1 −x2 = 0

11. Demuestre el Teorema 1.11.

1.5. Introducción a Scilab


SCILAB es un software libre que puede ser descargado de su página oficial [Link]
Para introducir matrices, los elementos de un renglón se separan por espacios y/o comas, y las columas
se separan con un punto y coma.
Por ejemplo,

A = [1 2 − 5; 3 2 0; −9 1 8; 0 0 − 3] y b = [1; 3; 0; 0]

produce la matriz  
1 2 −5
 3 2 0 
A=
 −9
,
1 8 
0 0 −3
y el vector columna 
1
 3 
b= 
 0 ,
1
respectivamente. Hay que tener en cuenta que SCILAB distingue mayúsculas de minúsculas.
La notación A(2, 3) produce
0

Material de uso interno Mateu-Semitiel 37


CAPÍTULO 1. SISTEMAS DE ECUACIONES LINEALES

que es el elemento en la posición (2, 3) de la matriz A. La notación A(2, :) produce

3 2 0

que son los elementos del segundo renglón de la matriz A. Y la notación A(:, 3) produce

−5
0
8
−3

que son los elementos de la tercera columna de la matriz A.


La notación B = [A b] produce la matriz aumentada
 
1 2 −5 1
 3 2 0 3 
B=  −9 1
.
8 0 
0 0 −3 1

Las operaciones elementales entre renglones de una matriz A se indican de la siguiente manera:

Intercambio: para intercambiar los renglones i y j se utiliza la notación

A([i j], :) = A([j i], :).

Escalamiento: para multiplicar el renglón i por una constante no nula c se utiliza la notación

A(i, :) = c ∗ A(i, :).

Eliminación: para sumarle al renglón i el renglón j multiplicado por la constante c se indica

A(i, :) = A(i, :) + c ∗ A(j, :).

El comando “rref” produce la forma escalonada reducida de una matriz. Por ejemplo, si quisiéramos
determinar la forma escalonada reducida de la matriz A de nuestro ejemplo, lo indicamos con rref(A)
y produce  
1 0 0
 0 1 0 
 
 0 0 1 .
0 0 0

Ejercicios 1.5

1. Sean      
0 −3 −6 4 9 3
 −1 −2 −1 3   1   2 
A=
 −2 −3
, b=  y c= 
0 3   −1   5 
1 4 5 −9 −7 3

Material de uso interno Mateu-Semitiel 38


CAPÍTULO 1. SISTEMAS DE ECUACIONES LINEALES

a) Ingrese la matriz A y los vectores columna b y c.


b) Obtenga la forma escalonada reducida de cada una de las matrices aumentadas [A : b] y
[A : c]. Luego resuelva los sistemas lineales correspondientes que tienen a dichas matrices
como matrices aumentadas.
c) Verifique los resultados obtenidos en (b) haciendo uso del comando “rref”.

2. Use el comando “rref” para verificar las soluciones de los sistemas lineales de los ejercicios 1 y
10 de la sección 1.4.

3. Ajuste polinomial de curvas. Suponga que n puntos del plano xy

(x1 , y1 ) , (x2 , y2 ) , (x3 , y3 ) , ..., (xn , yn ) ,

representan un conjunto de datos y se desea hallar una función polinómica de grado n − 1:

p(x) = a0 + a1 x + a2 x2 + ... + an−1 xn−1

cuya gráfica contenga todos los puntos dados. El conjunto de datos permite calcular los coefi-
cientes de la función polinómica p.

Halle la curva que contiene a los puntos dados en la siguiente tabla:

x −1 −0, 5 0 0,5 1 1,5 2 2,5 3


y −5 −0,8 1 1,3 1 0,6 1 2,8 7

Material de uso interno Mateu-Semitiel 39


Capı́tulo 2

MATRICES

2.1. Vectores de Rn
En el capı́tulo anterior se describió una solución de un sistema lineal con n incógnitas como una n-upla
ordenada de números reales. Estas n-uplas son llamadas vectores.

Definición (Vector de n componentes). Un vector de n componentes es una n-upla


ordenada de n números. Puede representarse como un vector renglón o un vector columna.
Un vector renglón de n componentes se escribe de la siguiente manera:

(c1 , c2 , ..., cn ) ,

mientras que un vector columna se expresa:


 
c1
 c2 
 
 .. .
 . 
cn

En este texto las componentes de un vector serán números reales. En ambas expresiones c1 es la
primer componente, c2 la segunda,..., ck la k-ésima componente. Cualquier vector cuyas componentes
son todas cero, se denomina vector cero.
 
0
Ejemplo 2.1. (1, 0, 3, −7) es un vector renglón de 4 componentes,  1  es un vector columna de
−1
3 componentes y (0, 0, 0, 0, 0, 0) es el vector renglón cero de 6 componentes. ◀

A lo largo del texto los vectores se representarán con letras minúsculas negritas como u, v, a, b, c, x,
etcétera. Un vector cero se denota por 0.
Los vectores de n componentes que tienen un 1 en la i−ésima componente y 0 en el resto de las
componentes los simbolizamos ei , es decir

Material de uso interno Mateu-Semitiel 40


CAPÍTULO 2. MATRICES

 
0
 0 
 
 .. 
 . 
 
ei = 
 1  ← i-ésima componente.

 .. 
 . 
 
 0 
0
Por ejemplo, los vectores de 3 componentes e1 , e2 y e3 son, respectivamente:
     
1 0 0
 0 ,  1  y  0 .
0 0 1

Definición (El sı́mbolo Rn ). Al conjunto de todos los vectores de n componentes reales se


lo representa con Rn .

Los vectores de R2 y R3 pueden interpretarse geométricamente como puntos en el plano y como puntos
en el espacio, respectivamente.

Figura 2.1: Representación geométrica de un vector de dos componentes


u1
Cualquier vector de dos componentes u = ó u = (u1 , u2 ) puede representarse gráficamente
u2
con el punto P del plano cuyas coordenadas son (u1 , u2 ). También al vector u se lo considera como
la flecha que comienza en el punto origen (0, 0) y cuya punta es el punto P , como se observa en la
Figura 2.1. El vector cero de R2 geométricamente es el punto origen de coordenadas (0, 0).

Material de uso interno Mateu-Semitiel 41


CAPÍTULO 2. MATRICES

Similarmente se interpretan geométricamente a los vectores de R3 .

Definición (Igualdad de vectores). Dos vectores u y v con el mismo número de com-


ponentes son iguales, y se expresa u = v, si sus componentes respectivas son iguales. Los
vectores que tienen distinto número de componentes nunca son iguales.

Ejemplo 2.2. La igualdad    


1 a
 a + b   −1 
   
 c = 8 
3 c+d
es válida si y solo si a = 1, b = −2, c = 8 y d = −5. ◀

Suma de vectores y multiplicación por escalar

Definición (Suma de vectores de Rn ). La suma de dos vectores u y v de Rn es el vector


de Rn , expresado por u + v, que se obtiene de sumar las correspondientes componentes.
     
u1 v1 u1 + v1
 u2   v2   u2 + v2 
     
Ası́, si u =  ..  y v =  .. , entonces u + v =  .. . Análogamente:
 .   .   . 
un vn un + vn
Si u = (u1 , u2 , ..., un ) y v = (v1 , v2 , ..., vn ), entonces u + v = (u1 + v1 , u2 + v2 , ..., un + vn ) .
     
      1 0 1
1 −4 −3  2  +  −2  =  0 .
Por ejemplo, + = y
−1 2 1
3 4 7
La suma u + v de dos vectores de R2 o R3 se representa en forma geométrica como la flecha
diagonal del paralelogramo determinado por los vectores u y v como se observa en la Figura 2.2.

Figura 2.2: Suma de vectores

Material de uso interno Mateu-Semitiel 42


CAPÍTULO 2. MATRICES

Definición (Producto de un vector por un escalar). El producto de un vector u de Rn


por un escalar (número real) k es el vector de Rn , expresado por ku, cuyas componentes se
obtienen multiplicando por k las correspondientes componentes de u.

El vector ku se dice


 que es un múltiplo escalar del vector u.
u1
 u2 
 
Asi, si u =  .  la multiplicación por el escalar k es el vector
 .. 
un
 
ku1
 ku2 
 
ku =  .. .
 . 
kun

Análogamente si u = (u1 , u2 , ..., un ) la multiplicación por el escalar k es el vector

ku = (ku1 , ku2 , ..., kun ) .


   
    0 0
2 −6
Por ejemplo, (−3) = y 2  3  =  6 .
−1 3
−1 −2
 
v1
 v2 
 
El vector (−1)v se llama opuesto de v y se representa −v. Entonces si v =  .. , el vector
 . 
vn
opuesto de v es    
(−1)v1 −v1
 (−1)v2   −v2 
   
−v = (−1)v =  .. = .. .
 .   . 
(−1)vn −vn
   
2 −2
Por ejemplo, si u =  −3  entonces −u =  3  .
0 0

 deR , se define la diferencia u − v como la operación u + (−v). Entonces


Dados n
 u y v vectores
u1 v1
 u2   v2 
   
si u =  .  y v =  .. , la diferencia u − v es
 ..   . 
un vn
       
u1 −v1 u1 + (−v1 ) u1 − v1
 u2   −v2   u2 + (−v2 )   u2 − v2 
       
u − v = u + (−v) =  .. + .. = .. = .. .
 .   .   .   . 
un −vn un + (−vn ) un − vn

Material de uso interno Mateu-Semitiel 43


CAPÍTULO 2. MATRICES

     
2 3 −1
Por ejemplo  −1  −  −5  =  4  .
0 −2 2

Geométricamente la multiplicación ku de un vector de R2 o R3 por el escalar k es la flecha escalada


por el factor k. Si k > 0 entonces la flecha ku apunta en el mismo sentido que la flecha u, en cambio
si k < 0 la flecha apunta en sentido opuesto a la flecha u. Si k = 0 el vector ku es el vector cero. Si
|k| > 1 entonces la flecha ku es una expansión de la flecha u. Si 0 < |k| < 1 entonces la flecha ku es
una contracción de la flecha u. Observe la Figura 2.3.

Figura 2.3: Multiplicación de un vector por un escalar

La suma de vectores y la multiplicación por un escalar, satisfacen algunas propiedades fundamentales


que se resumen en el siguiente teorema:

Teorema 2.1. Sean u, v y w cualesquiera vectores de Rn y sean a y b dos escalares cuales-


quiera. Entonces se satisfacen las siguientes propiedades:

1. u + v = v + u [Conmutativa]

2. (u + v) + w = u + (v + w) [Asociativa]

3. u + 0 = 0 + u = u [Elemento neutro o identidad]

4. u + (−u) = (−u) + u = 0 [Existencia de elementos opuestos]

5. a (u + v) = au + av [Distributiva]

6. (a + b) u = au + bu [Distributiva]

7. a (bu) = (ab) u = b (au)

8. 1u = u

Demostración. solo comprobaremos la propiedad 6. Se dejan las demás demostraciones como ejercicio.

Material de uso interno Mateu-Semitiel 44


CAPÍTULO 2. MATRICES

Sean el vector u = (u1 , u2 , ..., un ) y los escalares a y b. Entonces:

(a + b) u = ((a + b) u1 , (a + b) u2 , ..., (a + b) un ) = (au1 + bu1 , au2 + bu2 , ..., aun + bun ) =


= (au1 , au2 , ..., aun ) + (bu1 , bu2 , ..., bun ) = au + bu.

Actividad 2.1. Demuestre las siguientes propiedades:

1. 0u = 0 para todo vector u de Rn .

2. − (au) = (−a) u para todo vector u de Rn y escalar a.

El teorema anterior pueda aplicarse para resolver ciertas ecuaciones que involucran vectores. Por
ejemplo, sean v y u dos vectores de Rn y se desea determinar el vector x que satisface la ecuación
2x + 4v = 3u. Entonces:

2x + 4v = 3u,
(2x + 4v) + (− (4v)) = 3u + (− (4v)) ,
2x + (4v + (− (4v)) = 3u + (− (4v)) ,
2x + 0 = 3u + (−4) v,
2x = 3u + (−4) v,
1 1
(2x) = (3u − 4v) ,
2  2
1 1
2 x = (3u − 4v) ,
2 2
1
1x = (3u − 4v) ,
2
1
x = (3u − 4v) .
2
Actividad 2.2. Indique qué propiedades se aplicaron sucesivamente para resolver la ecuación anterior.

Matriz como sucesión de vectores columna


En algunas situaciones es de gran utilidad representar a una matriz como una sucesión de vectores.
Por ejemplo, la matriz A puede escribirse
 
−3 0 2 −5  
A =  0 −1 0 0  = a1 a2 a3 a4 ,
1 2 0 0
       
−3 0 2 −5
donde a1 =  0 , a2 =  −1 , a3 =  0  y a4 =  0 .
1 2 0 0

Material de uso interno Mateu-Semitiel 45


CAPÍTULO 2. MATRICES

En general, cualquier matriz A de tamaño m × n:


 
a11 a12 . . . a1n
 a21 a22 . . . a2n 
 
A= . .. .. .. ,
 .. . . . 
am1 am2 . . . amn

puede expresarse como la sucesión de los n vectores columna de m componentes a1 , a2 ,...an :


 
A = a1 a2 ... an ,
 
a1j
 a2j 
 
donde aj =  ..  para todo j = 1, 2, ..., n.
 . 
amj

En Álgebra y Geometrı́a Analı́tica se estudió que cualquier vector del plano puede escribirse como
combinación lineal de dos vectores no nulos ni paralelos. También, se probó que todo vector del espacio
se puede escribir como combinación lineal de tres vectores no nulos ni coplanares. Definiremos la noción
de combinación lineal para cualquier conjunto de vectores de Rn .

Definición (Combinación lineal). Una combinación lineal de los vectores u1 , u2 ,..., uk de


Rn es un vector de Rn de la forma

c1 u1 + c2 u2 + ... + ck uk ,

donde c1 , c2 ,..., ck son escalares cualesquiera que son llamados coeficientes de la combinación
lineal.

Ası́, un vector u de Rn es una combinación lineal de ciertos vectores u1 , u2 ,..., uk de Rn si y solo si


existen escalares c1 , c2 ,..., ck tal que

u = c1 u1 + c2 u2 + ... + ck uk .

     
−2 1 0
Ejemplo 2.3. El vector u = es combinación lineal de los vectores e1 = y e2 = .
3 0 1
En efecto,      
−2 1 0
= −2 +3 .
3 0 1
   
2 −3
Trivialmente u no es combinación lineal de los vectores v1 = y v2 = dado que no
0 0
existen escalares c1 y c2 tales que
     
2 −3 −2
c1 + c2 = .◀
0 0 3

Material de uso interno Mateu-Semitiel 46


CAPÍTULO 2. MATRICES

   
1 1
Ejemplo 2.4. Para determinar si u =  2  es combinación lineal de los vectores v1 =  1 ,
0 −1
     
−2 1 −4
v2 =  1 , v3 =  −3  y v4 =  1  debe analizarse si existen escalares c1 , c2 , c3 y c4 tales
5 −5 4
que satisfagan la siguiente ecuación en las incógnitas x1 , x2 , x3 y x4 :
x1 v1 + x2 v2 + x3 v3 + x4 v4 = u, (2.1)
esto es:          
1 −2 1 −4 1
x1  1  + x2  1  + x3  −3  + x4  1  =  2  .
−1 5 −5 4 0
Operando en el primer miembro se obtiene:
   
x1 − 2x2 + x3 − 4x4 1
 x1 + x2 − 3x3 + x4  =  2  ,
−x1 + 5x2 − 5x3 + 4x4 0
y, por igualdad de vectores, la ecuación (2.4) es equivalente al sistema lineal

 x1 −x2 +x3 −4x4 = 1
x1 +x2 −3x3 +x4 = 2

−x1 +5x2 −5x3 +4x4 = 0
con lo cual el problema se reduce a estudiar la consistencia de este sistema. Aplicando eliminación
gaussiana
 a la matriz aumentada se obtiene una forma escalonada que no tiene renglones de la forma
0 0 ... 0 : b con b ̸= 0:
   
1 −2 1 −4 : 1 −−−−−−−−−−−−−→ 1 −2 1 −4 : 1
 1 1 −3 1 : 2  RR23 − R1 → R2 
0 3 −4 5 : 1 →
+ R1 → R3
−1 5 −5 4 : 0 0 3 −4 0 : 1
 
1 −2 1 −4 : 1
−−−−−−−−−−−−−→  
R3 − R2 → R3  0 3 −4 5 : 1 .
0 0 0 −5 : 0
Luego, el sistema lineal es consistente por lo que el vector u resulta ser combinación lineal de los
vectores v1 , v2 , v3 y v4 . Más aún, el sistema tiene infinitas soluciones y por lo tanto hay una infinidad
de maneras de expresar al vector u como combinación lineal de dichos vectores.
La solución general del sistema es


 x1 = 35 + 53 t

x2 = 13 + 43 t
, t ∈ R.

 x =t
 3
x4 =0

Ası́, por ejemplo, si t = 0 se obtiene c1 = 53 , c2 = 31 , c3 = 0 y c4 = 0:


         
1 −2 1 −4 1
5  1    
1 + 1 + 0 −3 + 0 1 = 2 .
 
3 3
−1 5 −5 4 0

Material de uso interno Mateu-Semitiel 47


CAPÍTULO 2. MATRICES

10
y si t = 1 se obtiene c1 = 3 , c2 = 53 , c3 = 1 y c4 = 0:
         
1 −2 1 −4 1
10  5
1  +  1  + 1  −3  + 0  1  =  2  .
3 3
−1 5 −5 4 0

En general, las infinitas maneras de escribir al vector u como combinación lineal de los vectores
v1 , v2 , v3 y v4 está dada por
         
  1   −2 1 −4 1
5 5  1 4
+ t 1 + + t  1  + t  −3  + 0  1  =  2  , t ∈ R. ◀
3 3 3 3
−1 5 −5 4 0

Ejercicios 2.1

1. Indique para qué valores de x, y y z los vectores


   
−x − y + z 1
u =  2x + y  y v =  −2 
−y − 3z 3

son iguales.

2. Efectúe las siguientes operaciones, en el caso en que sea posible:


   
2 −3 d ) − 12 (−2, 3, 1, 5) + 2 (0, 0, 3, 4) − (−1, 2, 4, 0)
a)  −1  +  5     
3 0 2 0
b) (−1, 0, 3, 4) − (3, −4, 5, 0) e) −4  −1  + 5  −2 
  −3 4
1
 1 
c) −3   −1 
 f ) (−1, 3, 4) + 2 (0, 3)

0 g) −3 (0, 0, 1, −1, 5) + 0 (2, 3, 1, 8, −9)

3. Demuestre las restantes propiedades del Teorema 2.1.


     
1 2 −1
 −1   1   −1 
4. Sean a =      
 3 , b =  −1  y c =  0 . Obtenga, si es posible, el vector x tal que:
0 2 0
a) x = −2a + 21 b − c. c) 4x − 2b − c = 0
b) x + 2b − c = 2a d) 2a − 3 (−b + c) + x = x − c

5. Determine si el vector b es combinación lineal de los restantes vectores. En caso afirmativo, halle
coeficientes de la combinación lineal.

Material de uso interno Mateu-Semitiel 48


CAPÍTULO 2. MATRICES

       
2 1 0 5
a) b =  −1 ; a1 =  −2 , a2 =  1  y a3 =  −6 .
6 0 2 −8
       
4 1 2 3
b) b =  0 ; a1 =  −1 , a2 =  1  y a3 =  2 .
5 0 3 5
c) b = (4, 0, 4); a1 = (1, −1, 0), a2 = (2, 1, 3), a3 = (3, 2, 5) y a4 = (1, 1, 2).
       
−10 1 0 4
 −5   −1   0   1 
d) b =      
 17 ; a1 =  3 , a2 =  1  y a3 =  −2 .
 

−14 0 −1 −3
 
a
6. Calcule el o los valores de a de manera que el vector u =  −2  sea una combinación lineal de
0
   
0 1
los vectores v =  2  y w =  0 .
1 a

7. Sean v1 , v2 ,...,vk vectores de R3 y suponga que para cada j = 1, 2, ..., k un objeto con masa mj
está posicionado en el extremo del vector vj . En Fı́sica llaman masas puntuales a esos objetos.
La masa total del sistema de masas puntuales es m = m1 + m2 + ... + mk . El centro de gravedad
o (centro de masa) del sistema es
1
v= (m1 v1 + m2 v2 + ... + mk vk ) .
m
a) Calcule el centro de gravedad del sistema de cuatro masas puntuales cuyas posiciones y
masas son: v1 = (2, −2, 4) y m1 = 4g; v2 = (−4, 2, 3) y m2 = 2g; v3 = (4, 0, −2) y m3 = 3g;
v4 = (1, −6, 0) y m4 = 5g.
b) Una delgada placa triangular de densidad y grosor uniformes, tiene vértices en v1 = (0, 1),
v2 = (8, 1) y v3 = (2, 4). Si la masa total de la placa es de 6g, determine cómo distribuirla
en los tres vértices de manera que el centro de gravedad sea v = (2, 2).

2.2. Operaciones matriciales


Recordemos que una matriz A de orden o tamaño m × n es un arreglo rectangular de mn números
dispuestos en m filas o renglones y n columnas. Los números del arreglo son los elementos de la matriz.
 
a11 a12 . . . a1n
 a21 a22 . . . a2n 
 
A= . .. .. ..  = [aij ] .
 . . . . . 
am1 am2 . . . amn
Si todos los mn números son números reales, se dice que A es una matriz real. En este texto,
salvo indicación expresa, todas las matrices serán matrices reales.

Material de uso interno Mateu-Semitiel 49


CAPÍTULO 2. MATRICES

La matriz de m × n que tiene todos sus elementos ceros se denomina matriz cero y se simboliza
Om×n . Por ejemplo la matriz cero de 2 × 3 es
 
0 0 0
O2×3 = ,
0 0 0

y la matriz cero cuadrada de orden 4 se denota O4 y es


 
0 0 0 0
 0 0 0 0 
O4 =  0 0
.
0 0 
0 0 0 0

Cuando se sobreentiende el tamaño de la matriz, las matrices cero pueden denotarse simplemente
por O.
La matriz cuadrada de orden n que tiene solo unos en su diagonal principal y los restantes elementos
son ceros se llama matriz identidad y se simboliza In . Por ejemplo la matriz identidad de orden 3
es  
1 0 0
I3 =  0 1 0  .
0 0 1
Cuando se sobreentiende el tamaño de la matriz, una matriz identidad puede denotarse simplemente
por I.
Observe que la primera, segunda y tercera columnas de I3 son respectivamente
 los vectores
 e1 , e2
y e3 de R3 . En general In expresada en términos de sus columnas es In = e1 e2 ... en , donde
la j-ésima columna de In es el vector ej de Rn con j = 1, 2, ..., n.

Definición (Igualdad de matrices). Dos matrices A y B son iguales si tienen el mismo


tamaño y sus elementos correspondientes son iguales.

   
1 −2 1 −2
Ejemplo 2.5. A = yB= son iguales si y solo si a = 1 y b = 5.◀
1 0 a b−5

Suma de matrices y multiplicación de una matriz por un escalar

Definición (Suma de matrices). Sean A = [aij ] y B = [bij ] dos matrices de m × n. La suma


de A y B es la matriz de m × n, denotada por A + B, dada por

A + B = [aij + bij ] .

Es decir, A + B es la matriz de m × n que se obtiene de sumar los elementos correspondientes


de A y B.

     
−2 3 0 1 0 1 −1 3 1
Ejemplo 2.6. + = .◀
1 4 −1 −3 1 1 −2 5 0

Material de uso interno Mateu-Semitiel 50


CAPÍTULO 2. MATRICES

Definición (Producto de una matriz por un escalar). Sean A = [aij ] una matriz de m × n
y k un escalar. El producto de la matriz A por el escalar k es la matriz de m × n, denotada
por kA, dada por
kA = [kaij ] .
Es decir, kA es la matriz de m × n que se obtiene de multiplicar todos los elementos de A
por k.

La matriz kA se dice que es un múltiplo escalar de la matriz A.


   
−1 3 −3 9
Ejemplo 2.7. 3  −2 5  =  −6 15 .◀
0 1 0 3

La matriz (−1)A se llama opuesta de A y se representa por −A. Si A = [aij ] entonces


−A = (−1)A = [(−1)aij ] = [−aij ] .
   
−1 2 3 1 −2 −3
Por ejemplo, si A =  0 −4 1  entonces −A =  0 4 −1 .
2 −1 0 −2 1 0

Se define la diferencia A − B como la operación A + (−B). Si A = [aij ] y B = [bij ] son matrices


de m × n entonces
A − B = A + (−B) = [aij + (−bij )] = [aij − bij ] ,
es la matriz de m × n que se obtiene de restar a cada elemento de A el correspondiente elemento de
B. Por ejemplo:      
−1 2 3 0 1 1 −1 1 2
 0 −4 1  −  3 5 −1  =  −3 −9 2  .
2 −1 0 −4 0 2 6 −1 −2
A continuación se presentan propiedades de la suma de matrices y de la multiplicación de un
escalar por una matriz:

Teorema 2.2. Sean A, B y C matrices m × n y b y c escalares. Entonces se verifican las


siguientes propiedades:

1. A + B = B + A [Conmutativa]

2. A + (B + C) = (A + B) + C [Asociativa]

3. A + O = O + A = A [Elemento neutro o identidad]

4. A + (−A) = (−A) + A = O [Existencia de elementos opuestos]

5. c(A + B) = cA + cB [Distributiva]

6. (b + c)A = bA + cA [Distributiva]

7. b (cA) = (bc) A = c (bA)

8. 1A = A

Material de uso interno Mateu-Semitiel 51


CAPÍTULO 2. MATRICES

Demostración. Se probarán aquı́ las propiedades 1. y 5. Se dejan las demás demostraciones como
ejercicio.
Sean las matrices A = [aij ] y B = [bij ] de m × n. Entonces:

1. Por definición de suma de matrices y la conmutatividad de la suma en R:

A + B = [aij + bij ] = [bij + aij ] = B + A.

5. Por definición de suma de matrices, de producto de una matriz por un escalar y por la propiedad
distributiva del producto respecto a la suma en R:

c (A + B) = [c (aij + bij )] = [caij + cbij ] = [caij ] + [cbij ] = cA + cB.

Actividad 2.3. Sean A una matriz de m × n y k un escalar. Demuestre:

1. kA = O ⇔ k = 0 ó A = O.

2. − (kA) = (−k) A.

El teorema pueda aplicarse para resolver ciertas ecuaciones que involucran matrices. Por ejemplo, sean
A y B dos matrices de m × n y se desea determinar la matriz que satisface la ecuación 2X + 4B = 3A.

2X + 4B = 3A,
(2X + 4B) + (− (4B)) = 3A + (− (4B)) ,
2X + (4B + (− (4B)) = 3A − 4B,
2X + O = 3A − 4B,
2X = 3A − 4B,
1 1
(2X) = (3A − 4B) ,
2  2
1 1
2 X = (3A − 4B) ,
2 2
1
1X = (3A − 4B) ,
2
1
X = (3A − 4B) .
2
Actividad 2.4. Indique qué propiedades se aplicaron sucesivamente para resolver la ecuación anterior.

Producto punto y multiplicación de matrices

Definición (Producto punto). El producto punto o producto escalar de dos vectores de n


componentes u y v es el número real, denotado por u·v, que se obtiene sumando los productos
de las componentes correspondientes de dichos vectores.

Material de uso interno Mateu-Semitiel 52


CAPÍTULO 2. MATRICES

   
u1 v1
 u2   v2 
   
Ası́, si u =  .. yv= .. , o bien, si u = (u1 , u2 , ..., un ) y v = (v1 , v2 , ..., vn ), entonces
 .   . 
un vn

X
n
u · v = u1 v1 + u2 v2 + ... + un vn = ui vi .
i=1

Similarmente si uno de ellos es un vector columna y el otro un vector renglón:

X
n
u·v= ui vi .
i=1
   
1 2
 −2   3 
Ejemplo 2.8. Si u =   
 3  y v =  −1
, el producto punto de u y v es:

5 0
u · v = 1(2) + (−2)(3) + 3(−1) + 5(0) = −7. ◀

Nota: El producto punto es una operación importante que se retomará en el Capı́tulo 5 y ha sido
introducido en este momento por conveniencia ya que interviene en la multiplicación entre matrices.

Definición (Producto de matrices). Si A = [aik ] es una matriz de m × p y B = [bkj ] es una


matriz de p × n, el producto A por B, es la matriz de de m × n denotada por AB = [cij ]
donde
X
p
cij = ai1 b1j + ai2 b2j + ... + aip bpj = aik bkj . (2.2)
k=1

La ecuación (2.2) establece que el (i, j)-ésimo elemento de la matriz producto AB, es el producto
punto del vector cuyas componentes son las del renglón i-ésimo de A por el vector cuyas componentes
son las de la columna j-ésima de B.
  colj (B) ↓
a11 a12 ... a1p  
 .. .. ..  b11 b12 ... b1j ... b1n
 . . 
 . ...  b21 b22 ... b2j ... b2n 


reni (A) →  ai1 ai2 ... aip   .  .. . .. ..  =
..   . . 
 .. . . ... .. .
..
 . . ... .  b
p1 bp2 ... b pj ... b pn
am1 am2 ... amp
 
c11 c12 ... c1j ... c1n
 .. .. .. .. .. 
 . . ... . . . 
 

=  ci1 ci2 ... cij ... cin  
 . .. .. .. .. 
 .. . ... . . . 
cm1 cm2 ... cmj ... cmn
X
p
cij = reni (A) · colj (B) = ai1 b1j + ai2 b2j + ... + aip bpj = aik bkj .
k=1

Material de uso interno Mateu-Semitiel 53


CAPÍTULO 2. MATRICES

Observe que el producto AB está definido solo si el número de columnas de la matriz A es igual
al número de renglones de la matriz B:

Am× p B p ×n
= ABm×n

 
  −2 5
1 2 −1
Ejemplo 2.9. Dadas A = y B =  3 −4 . Como A es una matriz de 2 × 3 y B es
3 1 5
1 2
de 3 × 2 es posible efectuar AB y resultará una matriz de 2 × 2:
 
  −2 5
1 2 −1 
AB = 3 −4  =
3 1 5
1 2
 
1(−2) + 2(3) + (−1)(1) 1(5) + 2(−4) + (−1)(2)
= =
3(−2) + 1(3) + 5(1) 3(5) + 1(−4) + 5(2)
 
3 −5
= .◀
2 21
   
1 −2 3 2 3
Ejemplo 2.10. Sean las matrices A =  3 0 2  y B =  −1 0 .
2 −1 3 3 2
Para calcular el elemento (3, 2) de la matriz AB se debe efectuar el producto punto del vector
renglón 3 de la matriz A por el el vector columna 2 de la matriz B. Luego el elemento (3, 2) de AB es
2(3) + (−1)(0) + 3(2) = 12.◀

Una disposición práctica para efectuar el producto AB se visualiza en este ejemplo:


 
  −2 5
1 2 −1
Ejemplo 2.11. Sean las matrices A = y B =  3 −4 .
3 1 5
1 2
En el lado inferior izquierdo se ubican los elementos de la matriz A y en el lado superior derecho
los elementos de la matriz B. Haciendo el producto punto de cada vector renglón de A por la columna
j−ésima de B se obtiene la columna j−ésima de AB. La matriz AB es la obtenida en el lado inferior
derecho.
−2 5
AB 3 −4
1 2

1 2 −1 3 −5
3 1 5 2 21

 
3 −5
Luego, AB = .◀
2 21

Material de uso interno Mateu-Semitiel 54


CAPÍTULO 2. MATRICES

Nota: La suma de matrices se define de manera natural, sumando elemento a elemento. Esto hace
que la suma de matrices verifique las mismas propiedades que la suma de números reales.
La multiplicación de matrices requiere más cuidado que la suma, no está definida de la manera
natural que se hubiese esperado (multiplicar elemento a elemento), por lo cual ciertas propiedades del
producto de números reales no se verifican en el producto matricial. Para los números reales a y b
siempre se tiene que ab = ba, sin embargo en el caso de las matrices AB y BA no son por lo general
iguales.
Por definición, el producto AB se puede realizar solo si el número de columnas de A es igual al
número de renglones de B. Si A es una matriz de m × p y B es una matriz de p × n, AB es una matriz
de m × n y con respecto a BA pueden darse distintas situaciones:
Puede ocurrir que BA no esté definido. Por ejemplo, si A es de 2 × 3 y B es de 3 × 4, AB es una
matriz de 2 × 4 mientras que el producto BA no es posible.
En el caso en que BA también esté definido, pueden ocurrir dos situaciones:
• AB y BA son de distinto tamaño y por lo tanto son matrices distintas. Por ejemplo, si A
es de 2 × 3 y B es de 3 × 2 entonces AB es de orden 2 mientras que BA es de orden 3.
Trivialmente AB ̸= BA.
• AB y BA son del mismo orden (esto ocurre cuando A y B son matrices cuadradas de igual
orden). Sin embargo, en general, no resultan iguales.
   
1 0 0 2
Por ejemplo si A = yB= entonces
1 1 3 1
   
0 2 2 2
AB = y BA = .
3 3 4 1
Se ha visto que aunque ambos productos AB y BA estén definidos no tienen por qué ser iguales.
Puede concluirse entonces que el producto de matrices no es conmutativo.
Otras peculiaridades del producto de matrices son las siguientes:
Supongamos que A, B y C son matrices de tamaños tales que los productos matriciales que se
indican están definidos:
AB = O no implica A = O ó B = O (claramente, si A = O ó B = O entonces AB = O).
     
1 2 −2 −4 2 0 0 0
Por ejemplo, si A = yB= resulta AB = , siendo A y
2 4 1 2 −1 0 0 0
B matrices no cero.
CA = CB no implica A = B.
     
1 2 1 0 2 3 2 −4
Por ejemplo, para las matrices C = ,A= yB= , resulta
2 4 1 1 −3 0 0 0
 
3 2 −4
CA = CB = siendo las matrices A y B distintas.
6 4 −8
AC = BC no implica A = B.

Actividad 2.5. Proponga un ejemplo de tres matrices A, B y C tales que AC = BC y A ̸= B.

Material de uso interno Mateu-Semitiel 55


CAPÍTULO 2. MATRICES

Multiplicación de una matriz por un vector: el producto Ac


   
a11 a12 ... a1n c1
 a21 a22 ... a2n   c2 
   
Sea A =  .. .. ..  una matriz de m × n y sea c =  ..  un vector columna de n
 . ... . .   . 
am1 am2 ... amn cn
componentes.
Como A es una matriz de m × n y c es una matriz de n × 1, por definición de multiplicación de
matrices, el producto Ac es la siguiente matriz de m × 1:

      
a11 a12 ... a1n c1 ren1 (A) · c a11 c1 + a12 c2 + ... + a1n cn
 a21 a22 ... a2n  c2   ren2 (A) · c   a21 c1 + a22 c2 + ... + a2n cn 
      
Ac =  .. .. ..  .. = .. = .. .
 . .
... .  .   .   . 
am1 am2 ... amn cn renm (A) · c am1 c1 + am2 c2 + ... + amn cn

La última expresión encontrada de Ac puede escribirse como


     
a11 a12 a1n
 a21   a22   a2n 
     
c1  .  + c2  .  + ... + cn  . .
 ..   ..   .. 
am1 am2 amn

Es decir
Ac = c1 a1 + c2 a2 + ... + cn an ,
 
a1j
 a2j 
 
donde aj =  .  es la j-ésima columna de la matriz A. Entonces el producto de una matriz A de
 .. 
amj
m × n por un vector columna, c, de n componentes (matriz de n × 1) es una combinación lineal de las
columnas de A, cuyos coeficientes son las componentes (elementos) de c.

 
−1 3  
3
Ejemplo 2.12. Si A =  −2 5  y c = , el producto Ac dado como una combinación lineal
−1
0 1
de las columnas de A es
         
−1 3 −3 −3 −6
Ac = 3  −2  + (−1)  5  =  −6  +  −5  =  −11  . ◀
0 1 0 −1 −1

Ejemplo 2.13 (Producto de una matriz por un vector ek ). Si se multiplica una matriz A de
m × n por el vector (columna) ek de Rn se obtiene la k-ésima columna de A. Esto es:

Aek = ak ,

donde ak es la k-ésima columna de A. ◀

Material de uso interno Mateu-Semitiel 56


CAPÍTULO 2. MATRICES

Actividad 2.6. Pruebe el resultado del Ejemplo 2.13. Sugerencia: expresa Aek como una combinación
lineal de las columnas de A.

Ejemplo 2.14 (Producto de la matriz identidad In por un vector c de Rn ). Si I es la matriz


identidad de orden n y c es un vector columna de n componentes, entonces

Ic = c. ◀

Actividad 2.7. Pruebe el resultado del Ejemplo 2.14.

El producto AB como sucesión de productos de una matriz por un vector


Si A es una matriz de m×p y B es una matriz de p×n cuyas columnas son b1 , b2 ,..., bn , por definición
de multiplicación de matrices, el producto AB es
 
ren1 (A) · b1 ren1 (A) · b2 ... ren1 (A) · bn
 ren2 (A) · b1 ren2 (A) · b2 ... ren2 (A) · bn 
 
 .. .. .. 
AB =  . . ... . .
 
 renm (A) · b1 renm (A) · b2 ... renm (A) · bn 

Se observa que la primer columna de la matriz AB es el producto Ab1 , la segunda columna es


Ab2 , etc. Por lo tanto la matriz AB puede describirse en término de sus columnas como
 
AB = Ab1 Ab2 ... Abn .

Forma matricial de un sistema lineal


El sistema lineal de m ecuaciones con n incógnitas


 a11 x1 + a12 x2 + ... + a1n xn = b1

 a21 x1 + a22 x2 + ... + a2n xn = b2
..

 .


am1 x1 + am2 x2 + ... + amn xn = bm
puede escribirse en forma matricial como

Ax = b,
   
a11 a12 ... a1n x1
 a21 a22 ... a2n   x2 
   
donde A =  .. .. .. ..  es la matriz de coeficientes del sistema, x =  ..  es el vector
 . . . .   . 
am1 am2 . . . amn xn
 
b1
 b2 
 
de incógnitas y b =  .  el vector de términos constantes.
 .. 
bm

Material de uso interno Mateu-Semitiel 57


CAPÍTULO 2. MATRICES

En efecto,
    
a11 a12 ... a1n x1 a11 x1 + a12 x2 + ... + a1n xn
 a21 a22 ... a2n  x2   a21 x1 + a22 x2 + ... + a2n xn 
    
Ax =  .. .. .. ..  .. = .. .
 . . . .  .   . 
am1 am2 . . . amn xn am1 x1 + am2 x2 + ... + amn xn
Luego, por definición de igualdad de vectores:


 a11 x1 + a12 x2 + ... + a1n xn = b1

 a21 x1 + a22 x2 + ... + a2n xn = b2
Ax = b ⇔ ..

 .


am1 x1 + am2 x2 + ... + amn xn = bm
Esto muestra que resolver la ecuación matricial Ax = b equivale a resolver el sistema lineal de
matriz aumentada [A : b].
 
c1
 c2 
 
Una solución de la ecuación Ax = b es un vector c =  .  si y solo si la n−upla (c1 , c2 , ..., cn )
 .. 
cn
es una solución del sistema lineal de matriz aumentada [A : b].

2x +y −3z = 5
Ejemplo 2.15. El sistema lineal puede escribirse en forma matricial como
4x −5z = 8
 
  x  
2 1 −3   5
y = .◀
4 0 −5 8
| {z } z | {z }
A | {z } b
x

Sistemas lineales y combinaciones lineales


El producto Ax es la siguiente combinación lineal:
Ax = x1 a1 + x2 a2 + ... + xn an ,
donde a1 , a2 ,..., an son las sucesivas columnas de A y x1 , x2 ,..., xn son las componentes del vector x.
Luego,

Ax = b ⇔ x1 a1 + x2 a2 + ... + xn an = b.
Ası́, un sistema lineal de matriz aumentada [A : b] también puede escribirse como la ecuación

x1 a1 + x2 a2 + ... + xn an = b,
en las incógnitas x1 , x2 ,...,xn
 
Resumiendo: si A = a1 a2 ... an , resolver la ecuación Ax = b o bien la ecuación x1 a1 +
x2 a2 + ... + xn an = b, equivale a resolver un sistema lineal de matriz aumentada [A : b].

Material de uso interno Mateu-Semitiel 58


CAPÍTULO 2. MATRICES

Ejemplo 2.16. El sistema lineal del Ejemplo 2.15 se puede expresar como la ecuación:
       
2 1 −3 5
x +y +z = .◀
4 0 −5 8

Como consecuencia de las expresiones equivalentes para un sistema lineal, resulta el siguiente teorema:

Teorema 2.3. Sean A una matriz de m × n y b un vector columna de n componentes.


Entonces las siguientes afirmaciones son equivalentes:

1. El sistema lineal de matriz aumentada [A : b] es consistente.

2. La ecuación matricial Ax = b tiene solución.

3. Existen escalares c1 , c2 ,..., cn tales que b = c1 a1 + c2 a2 + ... + cn an , donde aj es la


j-ésima columna de A, j = 1, 2, ..., n.

4. b es una combinación lineal de las columnas de A.

Ejemplo 2.17. De acuerdo al teorema anterior, para determinar si el vector


 
5
b=
8
     
2 1 −3
es una combinación lineal de los vectores v1 = , v2 = y v3 = , se requiere estudiar
4 0 −5
la consistencia del sistema lineal de matriz aumentada
 
v1 v2 v 3 : b .

Aplicando eliminación gaussiana


  " #
2 1 −3 : 5 2 1 −3 : 5
∼ .
4 0 −5 : 8 0 −2 1 : −2
Como se observa, el sistema lineal es consistente por lo tanto b es una combinación lineal de las
columnas de A. Más aún, el sistema tiene infinitas soluciones por lo tanto hay infinitas maneras de
escribir al vector b como combinación lineal de los vectores v1 , v2 y v3 .

La solución general del sistema lineal viene dada por 2 + 45 t, 1 + 12 t, t entonces
         
5 5 2 1 1 −3
= 2+ t + 1+ t +t , t ∈ R.
8 4 4 2 0 −5

Por ejemplo, si t = 1:
       
5 13 2 3 1 −3
= + +1 .◀
8 4 4 2 0 −5

Material de uso interno Mateu-Semitiel 59


CAPÍTULO 2. MATRICES

Propiedades de la multiplicación de matrices


La multiplicación de matrices satisface algunas propiedades fundamentales que se resumen en el si-
guiente teorema:

Teorema 2.4. En cada ı́tem sea A una matriz de m × n y B, C y la matriz cero, O, de


tamaños tales que estén bien definidas las operaciones que se indican. Entonces se verifican
las siguientes propiedades:

1. A (BC) = (AB) C [Asociativa]

2. A (B + C) = AB + AC [Distributiva a izquierda]

3. (B + C) A = BA + CA [Distributiva a derecha]

4. a (BC) = (aB) C = B (aC), para todo a ∈ R

5. Im A = AIn = A

6. OA = O y AO = O

Demostración. Se probará aquı́ solo la propiedad 5.


Considere la matriz A y la matriz identidad In expresadas en término de sus columnas:
   
A = a1 a2 ... an y In = e1 e2 ... en .

Escribiendo los productos AIn y Im A en términos de sus columnas y teniendo en cuenta los
Ejemplos 2.13 y 2.14, se obtienen
   
AIn = Ae1 Ae2 ... Aen = a1 a2 ... an = A,

y    
Im A = Im a1 Im a2 ... Im an = a1 a2 ... an = A.

Nota: La propiedad asociativa permite eliminar paréntesis para la multiplicación de tres o más ma-
trices. Por ejemplo:
(AB) (CD) = A ((BC) D) = A (B (CD)) = ABCD.

Actividad 2.8. Verifique la propiedad 1. del teorema anterior para las matrices:
 
    0 −3 0 1
5 −3 1 0 −2
A= , B= y C= 1 2 5 −1  .
1 2 1 2 −3
2 0 −1 3

Observación 2.1. El producto de una matriz de m × n por un vector columna de n componentes es


un caso particular de la multiplicación de matrices. Por lo tanto:
Si A es una matriz de m × n, x y y vectores columna de n componentes y k un escalar, entonces

A (x + y) = Ax + Ay,

Material de uso interno Mateu-Semitiel 60


CAPÍTULO 2. MATRICES

A (kx) = k (Ax) .
En general si A es una matriz de m × n y x1 , x2 ,..., xk son k vectores columna de n componentes
entonces
A (c1 x1 + c2 x2 + ... + ck xk ) = c1 (Ax1 ) + c2 (Ax2 ) + ... + ck (Axk ) ,
para cualesquiera escalares c1 , c2 ,..., ck .

Definición (Matriz traspuesta). Sea A una matriz de m × n. La matriz traspuesta de A,


que se denota At , es la matriz de n × m cuyas columnas son los renglones de A en el mismo
orden.
   
  1 3 1 1
5 −3 2
Ejemplo 2.18. Dadas las matrices A = , B =  1 0 0  y C =  2 , entonces
8 0 −1
−1 2 1 0
   
5 8 1 1 −2  

A = −3
t  t 
0 , B = 3 0 2  y Ct = 1 2 0 . ◀
2 −1 1 0 1

Para la trasposición de matrices se tienen las siguientes propiedades que se enuncian sin demostración:

Teorema 2.5. En cada ı́tem, sea A una matriz de m × n, B una matriz de tamaño tal que
estén bien definidas las operaciones que se indican y c un escalar. Entonces se satisfacen las
siguientes propiedades:
t
1. At =A 3. (cA)t = cAt

2. (A + B)t = At + B t 4. (AB)t = B t At

Observación 2.2 (Transpuesta de un producto). La propiedad 4. del teorema anterior se puede


extender a un número finito de matrices. Si A1 , A2 ,..., Ak son matrices de tamaños tales que esté bien
definido el producto A1 A2 ...Ak−1 Ak entonces
(A1 A2 ...Ak−1 Ak )t = Atk Atk−1 ...At2 At1 .

Actividad 2.9. Verifique la propiedad 4. del teorema anterior para las matrices
 
  0 −3 0 1
1 0 −2
A= y B= 1 2 5 −1  .
1 2 −3
2 0 −1 3

Definición (Matriz simétrica). Una matriz A es simétrica si At = A.

De la definición anterior se deduce que necesariamente una matriz simétrica es cuadrada ya que si A
es de m × n entonces At es de n × m y por lo tanto si At = A debe ser n = m.

Material de uso interno Mateu-Semitiel 61


CAPÍTULO 2. MATRICES

 
9 0 −1  
  5 8
Ejemplo 2.19. La matriz 0 2 5 es simétrica mientras que no lo es.◀
−3 5
−1 5 3

Actividad 2.10. Pruebe que para toda matriz A las matrices AAt y At A están bien definidas y son
matrices simétricas.

Definición (Potenciación de matrices). Sea A una matriz cuadrada de orden n y k ∈ N. La


potencia k−ésima de A, que se denota por Ak , es la matriz cuadrada de orden n dada por
k-veces
z }| {
k
A = AAA...A .

Por conveniencia si A ̸= O se define A0 = I.

 
−1 2 0
Ejemplo 2.20. Sea la matriz A =  3 0 −1 . Para efectuar el cálculo de A3 primero se puede
0 −1 4
obtener A2
    
−1 2 0 −1 2 0 7 −2 −2
A2 = AA =  3 0 −1   3 0 −1  =  −3 7 −4  ,
0 −1 4 0 −1 4 −3 −4 17

para luego efectuar el producto A2 A:


    
7 −2 −2 −1 2 0 −13 16 −6
A3 = AAA = (AA) A = A2 A =  −3 7 −4   3 0 −1  =  24 −2 −23  . ◀
−3 −4 17 0 −1 4 −9 −23 72

Para la potenciación de matrices se tienen las siguientes propiedades:

Teorema 2.6. Si A es una matriz cuadrada y p y q son cualesquiera enteros positivos entonces

1. Ap Aq = Ap+q .

2. (Ap )q = Apq .

3. (cA)p = cp Ap , para todo escalar c.

Actividad 2.11. Demuestre el resultado del teorema anterior para p = 2 y q = 3.

Material de uso interno Mateu-Semitiel 62


CAPÍTULO 2. MATRICES

Ejercicios 2.2

1. Obtenga los valores x, y y z tales que las matrices A y B resulten iguales:


   
1 0 1 x 0 y−z
A= , B= .
0 −2 −5 x + y + 2z −2 −5

2. Calcule, si es posible, las siguientes operaciones. Si no es posible efectuar el cálculo, explique por
qué.
     
1 2 −4 3 1 2  
a) + 1 2 9
−3 −2 1 0 c)  3 0  +
3 2 0
1 4
   
  1 2 0 3 −2 −1
1 2 9 d) 2  −3 −2 1  − 4  1 0 1 
b) −3
3 2 −5 1 −1 4 0 −1 2

3. Demuestre las restantes propiedades del Teorema 2.2.

4. Dadas las matrices


     
3 2 0 1 −1 1 0 −2 −1
A= , B= y C= ,
0 3 1 2 3 4 2 0 1

determine la matriz X que satisfaga las siguientes ecuaciones:

a) 2X − A + B + 3C = O c) 2 (A − 2B) + 2X = 0C
b) −X + 1
2A − 3C = 4X + B d ) X − 12 B = C + 4X
   
3 −1
5. Considere los vectores u = (−1, 2, −2, 1), v = (4, −2, 5, 3), a =  1  y b =  0 . Calcule
2 5
los siguientes productos punto:

a) u · v c) a · b
b) u · (2u − v) d ) −b · 2a
  
a −2
 0   
6. Sean u =   y v =  1 . Halle el valor de a de manera que u · v = 3.
 −2   3 
3 −1

7. Calcule, si están definidos, los siguientes productos de matrices:


   
−2    −2
 b) 1 2
a)  1  4 0 2 1
3

Material de uso interno Mateu-Semitiel 63


CAPÍTULO 2. MATRICES

     
1 −2 4 0 2 1 2 0 4
c) e)
−3 0 1 −1 5 −1 1 −3 3
  
   1 2 −1 0 1 2
4 0 2 1 −2 f)  1 2 0   2 −2 0 
d)
1 −1 5 −3 0 −1 0 −2 1 4 0
  
2 −1 1 3
8. Obtenga el elemento (2, 2) de .
2 0 4 −5

9. Encuentre la 3er columna de AB siendo


 
  0 1 −1
1 2 −1 0  −1 1 0 
A= 1 2 0 2  y B=
 2
.
0 −2 
−1 0 −2 −5
4 −2 3

10. Una matriz cuadrada A = [aij ] es una matriz diagonal si aij = 0 si i ̸= j. Demuestre que el
producto de dos matrices diagonales de orden n es también una matriz diagonal de orden n y
enuncie una regla para multiplicar dos matrices diagonales.

11. Efectúe el producto Ac siendo


   
0 1 −1 2
a) A =  −1 1 0  y c =  2 .
2 0 −2 −3
 
−1 1 1 2  
 1 −1  −2
 1 3   3 
b) A =   3 1 −2 0  
 y c =  −1
.

 1 −1 0 2 
1
0 0 −3 4
12. Escriba los siguientes sistemas en la forma Ax = b:
 
 2x −4y = 1  x1 −4x2 −x3 = 0
a) x +y = 0 b) 2x1 +x2 3x3 = 1
 
−x −3y = 4 −x1 +x2 +2x3 = 2
      
−2 0 2 4
13. Sean los vectores a1 =    
3 , a2 = 1 , a3 =   
1 y b = 1 . Exprese la ecuación
−1 1 −1 2

xa1 + ya2 + za3 = b,

como un sistema de ecuaciones lineales y resuélvalo.

14. Determine si el vector b es combinación lineal de las columnas de la matriz A siendo:


   
1 2 3 4 0
a) A =  1 −1 0 0  y b =  −1 .
2 1 3 4 −1

Material de uso interno Mateu-Semitiel 64


CAPÍTULO 2. MATRICES

   
1 3 2
b) A = yb= .
−2 −1 1
   
1 −1 1 3

c) A = 1 0 5 y b = 3 .
 
3 −2 7 0
15. Demuestre que si x1 y x2 son soluciones del sistema Ax = b, entonces x1 − x2 es una solución
del sistema homogéneo asociado Ax = 0.
t
16. Obtenga la matriz X que satisfaga la ecuación (2X)t − 2AB t = BAt siendo
   
1 1 1 0 −1 1
A= 1 0 3  y B= 0 0 1 .
2 −1 2 −1 1 2

17. Indique cuáles de las siguientes matrices son simétricas, justifique:


 
  1 −1 1 4  
1 −1 1  −1 2 0 0
0 5 0 
A =  −1 0 5 , B =   2
 , O4 , y C= 0 3 0 
3 7 −2 
1 5 7 0 0 7
4 0 0 0

18. Una matriz A es antisimétrica si At = −A.

a) Indique cuáles de las siguientes matrices son antisimétricas:


 
  1 −1 1 4
0 −1 −2  
 −1 0 5 0  0 2
A= 1 0 5 , B =   2
 , O4 , y C=
3 7 −2  −2 0
2 −5 0
4 0 0 0

b) Demuestre que si A es una matriz tanto simétrica como antisimétrica, entonces A = O.


   
1 1 0 0 −1 1
19. Dadas las matrices A =  2 1 0 yB= 2 3 0 . Halle las matrices:
0 1 −1 1 0 1

a) (2A)3 c) (−AB)3
b) (A + B)2 − I 4 d ) (0A)3 + O15 + 2I

20. Halle, si existe, una matriz A cuadrada de orden 2 tal que:

a) A2 = O y A ̸= O.
b) A2 = I siendo A ̸= I y A ̸= −I.
   
1 2 2 −1
21. Dadas las matrices A = yB = . ¿Es cierto que (A + B)2 = A2 +2AB+B 2 ?.
3 4 −3 −2
Justifique su respuesta.

22. Sean A y B matrices cuadradas de orden n. Determine si las siguientes proposiciones son ver-
daderas o falsas. Justifique.

Material de uso interno Mateu-Semitiel 65


CAPÍTULO 2. MATRICES

a) A2 − B 2 = (A − B) (A + B).
b) (AB)2 = A2 B 2 .
c) (A + B)2 = A2 + 2AB + B 2 ⇔ AB = BA
d ) Si A y B conmutan, es decir AB = BA, entonces (AB)2 = A2 B 2 .
e) Si A es simétrica entonces la matriz 2A2 BB t es simétrica.

2.3. Matriz inversa

Definición (Matriz invertible). Una matriz cuadrada A de n×n es es invertible, o no singular,


si existe una matriz B de n × n, llamada inversa de A, tal que

AB = I y BA = I.

Si no existe tal matriz B, la matriz A es una matriz singular o no invertible.

   
1 2 3 −1
Ejemplo 2.21. Sean A = yB= 1 . Puede verificarse que AB = BA = I, por lo
2 6 −1 2
tanto A es invertible y B es una inversa de A.◀

¿Existirá otra matriz C, distinta de B, tal que AC = CA = I?. El teorema que sigue muestra que
esto no puede suceder.

Teorema 2.7. Una matriz invertible tiene una única inversa.

Demostración. Sean A una matriz invertible y B y C dos matrices inversas de A, es decir

AB = BA = I y AC = CA = I.

Entonces:
B = BI = B (AC) = (BA) C = IC = C.
Dado que B = C queda probado que una matriz invertible no puede admitir más que una matriz
inversa.

Observación 2.3. A la matriz inversa de una matriz A invertible se la denota A−1 . Ası́, para una
matriz A invertible:
AA−1 = A−1 A = I.

Debido a la unicidad de la matriz inversa, si A y B son dos matrices de n×n tales que AB = BA = I
se puede concluir que A es invertible y que B es su inversa, es decir A−1 = B.

Ejemplo 2.22. Retomando el Ejemplo 2.21 puede concluirse que la matriz B es la inversa de A, esto
es: A−1 = B.◀

Material de uso interno Mateu-Semitiel 66


CAPÍTULO 2. MATRICES

Ejemplo 2.23 (Inversa de la matriz identidad). Como II = I (= II), la matriz identidad I es


invertible y I −1 = I.◀

Los siguientes son dos ejemplos de matrices no invertibles (singulares):


Ejemplo 2.24. La matriz cero, On , es singular. ¿Por qué?.◀
 
1 2
Ejemplo 2.25. La matriz A = es singular.
3 6
En efecto, si A fuera invertible, deberı́a existir una matriz B tal que AB
 = I (y BA = I). Por lo
x11 x12
tanto la ecuación AX = I deberı́a tener solución. Siendo X = :
x21 x22
    
1 2 x11 x12 x11 + 2x21 x12 + 2x22
AX = = ,
3 6 x21 x22 3x11 + 6x21 3x12 + 6x22
luego    
x11 + 2x21 x12 + 2x22 1 0
AX = I ⇔ = .
3x11 + 6x21 3x12 + 6x22 0 1
Por igualdad de matrices, se obtienen los siguientes sistemas lineales
 
x11 +2x21 = 1 x12 +2x22 = 0
y .
3x11 +6x21 = 0 3x12 +6x22 = 1
Es fácilmente comprobable que estos sistemas son inconsistentes, luego AX = I no tiene solución
y por lo tanto A no es invertible.◀

Algunas propiedades de las matrices invertibles son las siguientes:

Teorema 2.8. Sean A y B matrices invertibles de n × n y c un escalar distinto de cero.


Entonces A−1 , cA, At y el producto AB son matrices invertibles. Además:
−1 −1 t
1. A−1 = A. 3. At = A−1 .

2. (cA)−1 = 1c A−1 . 4. (AB)−1 = B −1 A−1 .

Demostración. Probaremos aquı́ las propiedades 3. y 4. Las matrices A y B son invertibles, entonces
AA−1 = A−1 A = I y BB −1 = B −1 B = I.
t
3. Las matrices At y A−1 son ambas cuadradas de orden n,
t t t t
At A−1 = A−1 A = I t = I y A−1 At = AA−1 = I t = I.
t −1 t
De la Observación 2.3, At es invertible y su inversa es A−1 es decir At = A−1 .
4. Las matrices AB y B −1 A−1 son ambas cuadradas de orden n. Dado que:
    
(AB) B −1 A−1 = A B B −1 A−1 = A BB −1 A−1 = A IA−1 = AA−1 = I, y
   
B −1 A−1 (AB) = B −1 A−1 (AB) = B −1 A−1 A B = B −1 (IB) = B −1 B = I,
se deduce, de la Observación 2.3, que AB es invertible y que su inversa es el prodcuto B −1 A−1
es decir
(AB)−1 = B −1 A−1 .

Material de uso interno Mateu-Semitiel 67


CAPÍTULO 2. MATRICES

Inversa del producto


La propiedad 4. del teorema anterior puede generalizarse para k matrices invertibles. Si A1 , A2 ,..., Ak
son matrices invertibles de igual tamaño, también lo es el producto A1 A2 ...Ak−1 Ak . Su inversa es

(A1 A2 ...Ak−1 Ak )−1 = A−1 −1 −1 −1


k Ak−1 ...A2 A1 .

Observación 2.4. La suma de matrices invertibles no es, en general, una matriz invertible. No es
cierto que (A + B)−1 sea igual que A−1 + B −1 (Véase Ejercicio 2.3.a).

Actividad 2.12. Pruebe las propiedades 1. y 2. del Teorema 2.8.

−1 3
Actividad 2.13. Pruebe que si A es invertible, A3 es invertible y A3 = A−1 .

El resultado de la actividad anterior puede generalizarse: Si k ∈ N y A es una matriz invertible entonces


Ak es invertible y
 −1 k
Ak = A−1 .

Es más, este resultado permite definir un nuevo concepto: potenciación de matrices de exponente
negativo:

Definición (Potencia de matrices de exponente negativo). Sea A una matriz invertible y


k
k ∈ N. La potencia −k de A, que se denota A−k , se define por A−k = A−1 .

Se puede generalizar el Teorema 2.2 para la potenciación de matrices con cualquier exponente entero
y se tiene el siguiente resultado:

Teorema 2.9. Si A es una matriz invertible, p y q enteros cualesquiera y c un escalar,


entonces
p
1. (Ap )−1 = A−1 . 3. (Ap )q = Apq .

2. Ap Aq = Ap+q . 4. (cA)p = cp Ap (si p ≤ 0 debe ser c ̸= 0).

Actividad 2.14. Verifique las propiedades anteriores para p = −2 y q = 3.

Recuerde que, en general, si AC = BC no es válida la cancelación de la matriz C en ambos miembros.


Sin embargo, esto es posible si la matriz C es invertible:

Teorema 2.10. Si C es una matriz invertible y en cada caso A y B son matrices de tamaños
apropiados entonces

1. CA = CB ⇒ A = B.

2. AC = BC ⇒ A = B.

Material de uso interno Mateu-Semitiel 68


CAPÍTULO 2. MATRICES

Demostración. Se probará la proposición 1. La 2. se demuestra en forma análoga.

1. Dada la existencia de C −1 se tiene


 
CA = CB ⇒ C −1 (CA) = C −1 (CB) ⇒ C −1 C A = C −1 C B ⇒ IA = IB ⇒ A = B.

Ecuaciones con productos de matrices


Las propiedades de las operaciones matriciales nos permiten resolver algunas ecuaciones que involucran
matrices (ecuaciones matriciales).
Es importante tener en cuenta que el producto de matrices no es conmutativo. Por lo tanto cuando
se multiplica a ambos miembros de una ecuación por una matriz se debe usar la multiplicación por la
izquierda, o por la derecha, en ambos miembros. Ası́, para matrices C y D de tamaños apropiados,

A = B ⇒ CA = CB,
y
A = B ⇒ AD = BD,
mientras que A = B no implica que CA = BC.
Por ejemplo, considere la ecuación matricial CXA − B = O donde A y C son invertibles y todas
las matrices son de tamaños compatibles.
Se puede despejar X (matriz incógnita) de la siguiente manera:

CXA − B = O,
CXA = B,
(CXA) A−1 = BA−1 ,

CX AA−1 = BA−1 ,
CXI = BA−1 ,
CX = BA−1 ,

C −1 (CX) = C −1 BA−1 ,

C −1 C X = C −1 BA−1 ,
IX = C −1 BA−1 ,
X = C −1 BA−1 .

En lo que sigue se proveen algunos resultados que permitirán hallar la inversa de una matriz invertible
o probar que es singular.
De acuerdo a la Observación 2.3, una matriz B es la inversa de una matriz A si AB = I y BA = I.
En general para dos matrices A y B de n × n, AB no es igual a BA pero en el caso en que AB = I el
siguiente teorema, cuya demostración se omitirá en este texto, muestra que también BA = I.

Teorema 2.11. Si A y B son matrices de n × n y AB = I, entonces BA = I.

Material de uso interno Mateu-Semitiel 69


CAPÍTULO 2. MATRICES

Una consecuencia inmediata de este teorema es el siguiente importante resultado:

Corolario 2.1. Sea A una matriz de n × n. Entonces:

A es invertible si y solo si la ecuación matricial AX = I tiene única solución.

Demostración. En un sentido es trivial ya que si A es invertible entonces AA−1 = I, y por lo tanto


A−1 es solución de AX = I.
Recı́procamente, si AX = I tiene solución entonces existe una matriz B tal que AB = I, por el
Teorema 2.11 también BA = I por lo cual A es una matriz invertible y B = A−1 .

 
1 4
Ejemplo 2.26. De acuerdo al corolario anterior, para determinar si la matriz A = es
−1 −3
invertible, debe analizarse si la ecuación AX = I tiene solución. En caso afirmativo, la (única) solución
de dicha ecuación es la matriz inversa de A.
 
x11 x12
Siendo X = la matriz incógnita,
x21 x22
    
1 4 x11 x12 1 0
AX = I ⇔ = ,
−1 −3 x21 x22 0 1
   
x11 + 4x21 x12 + 4x22 1 0
⇔ = .
−x11 − 3x21 −x12 − 3x22 0 1

Por igualdad de matrices, se obtienen los dos sistemas lineales de matrices aumentadas [A : e1 ] y
[A : e2 ]:
 
x11 +4x21 = 1 x12 +4x22 = 0
y .
−x11 −3x21 = 0 −x12 −3x22 = 1
Puede verificarse que ambos sistemas tienen solución única. La solución del primer sistema es
x11 = −3 y x21 = 1 que son los elementos de la primer columna de la matriz X. De manera similar,
resolviendo el segundo sistema, se obtienen los elementos de la segunda columna de la matriz incógnita,
x12 = −4 y x22 = 1. Se obtiene ası́ la matriz
 
−3 −4
B=
1 1

tal que AB = I y por lo tanto (Corolario 2.1) A es invertible y B = A−1 .◀

Actividad 2.15. Verifique, en el ejemplo anterior, que también BA = I.

Cálculo de la inversa de una matriz: método de Gauss-Jordan


Se puede generalizar el procedimiento empleado en el Ejemplo 2.26 para encontrar la inversa de una
matriz o probar que no es invertible.

Material de uso interno Mateu-Semitiel 70


CAPÍTULO 2. MATRICES

Sabemos que una matriz cuadrada, A, de orden n es invertible si y solo si la ecuación matricial
AX = I tiene solución (en cuyo caso la única solución es A−1 ). Si las sucesivas columnas de la matriz
incógnita X son x1 , x2 ,..., xn :
 
AX = Ax1 Ax2 ... Axn .
 
Dado que I = e1 e2 ... en , por definición de igualdad de matrices:

AX = I ⇔ Ax1 = e1 , Ax2 = e2 , ..., Axn = en .

Luego, la ecuación AX = I equivale a resolver los n sistemas lineales Axj = ej , j = 1, 2, ..., n. Estos
n sistemas lineales tienen la misma matriz, A, de coeficientes y por lo tanto pueden resolverse en forma
simultánea (véase Ejercicio 10, Sección 1.4) aplicando el método de eliminación de Gauss-Jordan a la
matriz aumentada:  
A : e1 e2 ... en = [A : I] .

Si en algún momento del proceso se llega a una matriz escalonada [H : J] (H es una forma esca-
lonada de A) donde H no tiene renglones cero, entonces todos los sistemas lineales Axj = ej tienen
solución y por lo tanto AX = I tiene solución y A es invertible.
Dado que A es de n × n y tiene n posiciones pivote, el proceso de Gauss-Jordan conduce a la forma
escalonada reducida [I : B] siendo la j-ésima columna de B la solución del sistema Axj = ej . Ası́, la
matriz B es la solución de AX = I y por lo tanto B = A−1 .
Supongamos que en algún momento del proceso se llega a una matriz [C : D] donde C tiene un
renglón cero. Debe tenerse en cuenta que en cualquier etapa del proceso, la matriz de la derecha no
tiene renglones cero ya que es equivalente por renglones a la matriz original I identidad. Esto significa
que alguno de los sistemas Axj = ej es inconsistente (¿ por qué?) y por lo tanto AX = I no tiene
solución de lo que se deduce que A no es invertible.
Todo lo anterior se puede resumir en el siguiente algoritmo:

Algoritmo para invertir una matriz A

1. Escriba la matriz de n × 2n, [A : I].

2. Aplique eliminación de Gauss-Jordan a la matriz del paso 1 para encontrar su forma


escalonada reducida. Si en algún momento del proceso se encuentra una matriz [C : D]
donde C tiene un renglón cero, deténgase: la matriz A no es invertible.
 De lo contrario
A es invertible y la forma escalonada reducida de [A : I] es I : A−1 .

 
−1 1 0
Ejemplo 2.27. Para determinar la inversa de A =  1 0 −2 , si existe, utilizamos el algoritmo
2 −1 0
anterior. Se comienza aplicando el proceso de eliminación de Gauss-Jordan a la matriz [A : I]:
   
−1 1 0 : 1 0 0 −−−−−−−−−−−−−−→ −1 1 0 : 1 0 0
[A : I] =  1 0 −2 : 0 1 0  RR32 ++2R R1 → R2
1 → R3
 0 1 −2 : 1 1 0  −−R−3−−−−R−−2−→ −−−−→
R3

2 −1 0 : 0 0 1 0 1 0 : 2 0 1

Material de uso interno Mateu-Semitiel 71


CAPÍTULO 2. MATRICES

   
−1 1 0 : 1 0 0 −1 1 0 : 1 0 0
→  0 1 −2 : 1 1 0  21 R3 → R3  0 1 −2 : 1
−−−−−−−−−−→
1 0  −−R−2−−+−2R
−−−−−−−−→
3 → R2

0 0 2 : 1 −1 1 0 0 1 : 12 − 12 12
   
−1 1 0 : 1 0 0 −1 0 0 : −1 0 −1
→ 0 1 0 : 2 0 1  −−R−1−−−−R−−2−→
−−−−→ 
R1 0 1 0 : 2 0 1  −−−R −−−−−−−−→
1 → R1

0 0 1 : 1
2 − 1
2
1
2 0 0 1 : 1
2 − 1
2
1
2
 
1 0 0 : 1 0 1
→ 0 1 0 : 2 0 1  = [I : B] .
0 0 1 : 2 − 12 12 1

Se completó el proceso de eliminación de Gauss-Jordan.


 La forma
 escalonada reducida de [A : I]
1 0 1
es [I : B] por lo tanto A es invertible y A−1 = B =  2 0 1 .◀
2 −2
1 1 1
2
 
1 0 1 2
 2 1 1 −1 
Ejemplo 2.28. Sea la matriz A =   3 1 2
. Como en el ejemplo anterior, para determinar
1 
−1 5 0 0
−1
A , si ésta existe, se comienza aplicando el proceso de eliminación de Gauss-Jordan a la matriz [A : I]:
   
1 0 1 2 : 1 0 0 0 1 0 1 2 : 1 0 0 0
 2 1 1 −1 : 0 1 0 0  −−R−2−−−−2R −−−−−−−−→ 
0 1 −1 −5 : −2 1 0 0 
[A : I] =   R3 − 3R11 →
→ R3  →
R2
 3 1 2 1 : 0 0 1 0  R4 + R 1 → R4  0 1 −1 −5 : −3 0 1 0 
−1 5 0 0 : 0 0 0 1 0 5 1 2 : 1 0 0 1
 
1 0 1 2 : 1 0 0 0
−−−−−−−−−−−−−−→  0 1 −1 −5 : −2 1 0 0 
R3 − R 2 → R3  .
R4 − 5R2 → R4 
0 0 0 0 : −1 −1 1 0 
0 0 5 27 : 11 −5 0 1
En este momento se detiene el procedimiento ya que se ha llegado a una matriz equivalente [C : D]
donde C tiene un renglón cero. Luego, A no es invertible.◀

Debe observarse que para determinar A−1 no es necesrio saber de antemano si existe o no. Simplemente
se inicia el procedimiento indicado y se obtiene A−1 o se concluye que A es singular.
El siguiente teorema da a conocer diferentes caracterizaciones de matrices invertibles.

Teorema 2.12. Sea A una matriz de n × n. Entonces las siguientes proposiciones son equi-
valentes:

1. A es invertible.

2. Ax = b es consistente con única solución para todo b ∈ Rn .

3. Ax = 0 tiene única solución la trivial.

4. A tiene n posiciones pivote.

5. A es equivalente (por renglones) a la matriz identidad I.


Es decir, la forma escalonada reducida de A es la matriz identidad, I.

Material de uso interno Mateu-Semitiel 72


CAPÍTULO 2. MATRICES

Demostración. Se seguirá el siguiente orden en las implicancias (1) ⇒ (2) ⇒ (3) ⇒ (4) ⇒ (5).
Probando luego que (5) ⇒ (1) se tendrán demostradas todas las equivalencias.
(1) ⇒ (2) Sea b un vector columna de Rn . El vector A−1 b es solución de Ax = b ya que
 
A A−1 b = AA−1 b = Ib = b.
Por lo tanto Ax = b es consistente para todo b ∈ Rn . Además A−1 b es la única solución de
Ax = b puesto que si y es una solución de Ax = b resulta:

Ay = b ⇒ A−1 (Ay) = A−1 b ⇒ A−1 A y = A−1 b ⇒ Iy = A−1 b ⇒ y = A−1 b.

(2) ⇒ (3) Si Ax = b tiene única solución para todo b ∈ Rn , esto vale, en particular, si b es el vector
cero. Por lo tanto Ax = 0 tiene única solución, la trivial.
(3) ⇒ (4) Si Ax = 0 tiene única solución, entonces cada columna de la matriz A es una columna
pivote y por lo tanto A tiene n posiciones pivote.
(4) ⇒ (5) Sea Q la forma escalonada reducida de A. Como A tiene n posiciones pivote, Q tiene
un pivote en cada renglón, las posiciones pivote de Q serán (1, j1 ), (2, j2 ),...., (n, jn ) donde
1 ≤ j1 < j2 < ... < jn ≤ n. Luego, necesariamente j1 = 1, j2 = 2,..., jn = n es decir las
posiciones pivote de Q son (1, 1), (2, 2),...., (n, n). Dado que Q es escalonada reducida los pivotes
son unos y en cada columna donde hay un pivote el resto de los elementos son ceros. Ası́, las
columnas de Q son los vectores e1 , e2 ,..., en y por lo tanto Q = I.
(5) ⇒ (1) Si la forma escalonada reducida de A es I entonces ninguna forma escalonada de A
tiene un renglón cero y por lo tanto todo sistema que tiene a A como matriz de coeficientes es
consistente. En particular, los sistemas Axj = ej , j = 1, 2, ..., n son consistentes y por lo tanto
la ecuación AX = I tiene solución lo que prueba que A es invertible.

Observación 2.5. La equivalencia (1) ⇔ (2) es el siguiente resultado importante en relación a los
sistemas lineales cuadrados:

El sistema lineal cuadrado Ax = b tiene única solución si y solo si A es invertible. Dicha


solución es x = A−1 b.

Ejemplo 2.29. Considere el sistema lineal cuadrado



x + 4y = 2
−x − 3y = 1
cuya forma matricial es     
1 4 x 2
= .
−1 −3 y 1
   
1 4 −1 −3 −4
Su matriz de coeficientes A = es invertible y su inversa es A = (véase
−1 −3 1 3
Ejemplo 2.26). Luego el vector solución es
   −1       
x 1 4 2 −3 −4 2 −10
= = = ,
y −1 −3 1 1 1 1 3
por consiguiente la única solución del sistema es x = −10, y = 3.◀

Material de uso interno Mateu-Semitiel 73


CAPÍTULO 2. MATRICES

Ejercicios 2.3

1. Halle la inversa de A o bien determine que es singular.


   
−2 3 1 −2 4 5
a) A =  1
4 1 2 3 0 
  f) A = 
 1

3 −1 1 3 0 
b) A = −1 0 1 2
−6 2
   
1 −2 3 1 2 −1
c) A =  1 2 0  g) A =  4 5 1 
0 2 −3 0 0 0
   
2 −2 4 1 −1 0 1
d) A =  3 2 3   1 0 3 0 
h) A = 
 0

7 −2 11 1 3 0 
 
1 0 0 0 0 1 2

e) A = 0 −8 0 
0 0 13
 
2 2
2. Halle la inversa de 10A si A−1 = .
−3 3
 
−2 0 1
3. Halle las matrices A2 , A3 y, si es posible, A−2 y A−3 siendo A =  1 3 0 .
0 1 0

4. Calcule todos los valores de a de modo que la siguiente matriz sea no singular:
 
1 1 −1
 0 1 1 .
−1 2 a

5. En caso de ser posible resuelva los sistemas lineales calculando primero la inversa de la matriz
de coeficientes.
 
 x − y − z = 1  −x + y + z = b
a) x −z = 4 b) −x + z = b2
 
x − 2y − z = 0 y − z = b3

6. Demuestre la propiedad 2. del Teorema 2.10.

7. En caso de ser posible, obtenga la matriz X de las siguientes ecuaciones matriciales:


   
t 2 −2 3 −1
a) XA + B = X siendo A = yB= .
1 1 1 0
 
1 0  
  1 −1
b) 2X − A = BX siendo A = 1 −1 y B =
t .
0 1
2 3

Material de uso interno Mateu-Semitiel 74


CAPÍTULO 2. MATRICES

   
1 0 −1 3 3 −2

c) (X + 2F ) G = X siendo F = 0 2 −2 y G = 0   0 −3 .
0 1 3 0 0 2
   
2 3 1 2 1 0
d ) XB −1 = C t siendo B −1 =  0 1 0 yC= 0 1 1 .
3 −2 1 −1 2 −1
 
1 2
e) N t − N X = 2X siendo N = .
−1 4
8. Demuestre que una matriz cuadrada que tiene una columna o una fila de ceros es una matriz
singular.

9. Sea A = [aij ] una matriz diagonal. Demuestre que si los elementos de la diagonal a11 , a22 ,..., ann
son distintos de cero, entonces A es invertible y A−1 es una matriz diagonal cuyos elementos de
la diagonal son a111 , a122 ,..., ann
1
.

10. La ecuación real a2 = 1 tiene exactamente dos soluciones. Encuentre al menos cuatro matrices
de 2 × 2 que son autoinversas, es decir, A2 = I (busque entre las matrices diagonales).

11. Sean A y B matrices cuadradas de orden n. Determine si las siguientes proposiciones son ver-
daderas o falsas. Justifique su respuesta:

a) Si A y B son invertibles, entonces (A + B)−1 = A−1 + B −1 .


b) Si A es invertible y AB = O, entonces B = O.
c) Si A2 = O entonces I − A es invertible y su inversa es A + I.
d ) Si A y B son invertibles entonces (2AB)−1 = 12 A−1 B −1 .
e) Si A2 + 2A − I = O entonces A es invertible y A−1 = A + 2I.

12. Scilab. Las operaciones suma, multiplicación y potencia se indican con “+”, “∗” y “∧”, respecti-
vamente. La transpuesta de A se obtiene mediante el comando “A’ ”. Para calcular la inversa de
una matriz A es posible utilizar el comando “inv(A)” o bien simplemente ingresando “A∧ − 1”.
En el caso en que A no es invertible, devuelve “!–error 19 Problem is singular”. También es po-
sible determinar si una matriz A es invertible usando eliminación de Gauss-Jordan aplicando el
comando “rref” a la matriz ampliada [A : I] que devuelve su forma escalonada reducida [C : D],
si C = I entonces D = A−1 mientras que si C ̸= I entonces A no es invertible.

Sean las matrices  


0,1 2 3 4 −1 2 2
 1 −0,2 2 −1 5 4 −1 
 
 0 0 −1,2 4 2 0 −1 
 
A=
 0,1 3 2 −0,1 4 2 1,3 
,
 1 0,1 2 0,1 0 0 2 
 
 1 0,4 3 0,1 5 6 7 
−0,1 1 0,2 4 1 6 0

Material de uso interno Mateu-Semitiel 75


CAPÍTULO 2. MATRICES

 
0,3 1 0 0,2 −1 1 1
 −0,1 0,2 0 1 −2 0,2 1 
 
 1 1 1,2 −0,3 2 0 1 
 
B=
 0,1 3 2 −0,1 0,4 2 1 ,

 2 0,3 0,22 0,1 0 0 2 
 
 1 0,4 3 0,1 1,5 −0,2 −2,1 
1 1 0,2 4 1 6 0
 
0,1
 0,2 
 
 1 
 
y el vector b = 
 1,1 . Calcule si es posible:

 2 
 
 0 
−1

a) 2At − AB
b) A−1
c) (10A)−1 B
d ) Ab
e) A−3
3
f ) 2A−1 B 2 − B
g) La solución del sistema lineal Ax = b, hallando previamente la inversa de A.
h) ¿Admite soluciones no triviales el sistema lineal Bx = 0?

13. Análisis de insumos-producción. El ganador del Premio Nobel, W. Leontief (1906-1999), es


famoso por su modelo de una economı́a basada en insumos y producción. Una de las suposiciones
del modelo es que todo cuanto se produce se consumirá. La demanda de los productos de una
industria puede provenir de dos fuentes: (1) demanda de industrias diferentes y (2) demanda
de otras fuentes que no sean las industrias. Por ejemplo, las compañı́as de electricidad generan
energı́a que (a) se necesita para operar sus propias plantas, (b) se requiere para satisfacer las
necesidades eléctricas de otras empresas, y (c) se necesita para satisfacer las exigencias de los
consumidores en general.
Los dos primeros (a) y (b) son ejemplos de la demanda interindustrial y el tercero (c) de la de-
manda no industrial. El objeto del análisis de insumos-producción consiste en determinar cuánto
producirá una industria, para que ambos tipos de la demanda queden exactamente satisfechos.
Es decir determinar cuánto se deberá producir a fin de alcanzar un equilibrio entre oferta y
demanda.

La demanda interindustrial suele sintetizarse en una matriz tecnológica o de insumos-producción.


Por ejemplo, suponga que la producción de una industria se mide en dólares y la matriz
 
0,3 0,3 0,2
A =  0,1 0,2 0,3 
0,2 0,1 0,4

es la matriz de insumos-producción. El elemento general aij representará la cantidad de produc-


ción requerida de la industria i para generar un dólar en la producción de la industria j. Esta

Material de uso interno Mateu-Semitiel 76


CAPÍTULO 2. MATRICES

matriz representa una situación de tres industrias. Por ejemplo, el elemento a12 = 0,3 indica que
por cada dólar de producción en la industria 2, el 30 % es aportado por la industria 1.
Sea xj la producción de la industria j (en dólares) y sea dj la demanda no industrial (en dólares)
de la producción de la indsutria j. En nuestro ejemplo,j = 1, 2, 3. Puede formularse un conjun-
to de ecuaciones simultáneas que, al resueltas, determinen los niveles de producción de xj en
los cuales la oferta y la demanda totales estarán en equilibrio. Las ecuaciones de este sistema
presentarán la forma general:

Producción de la industria = demanda interindustrial + demanda no industrial.

En este ejemplo de tres industrias, el sistema es:

demanda interindustrial demanda no industrial


z }| { z}|{
x1 = 0,3x1 + 0,3x2 + 0,2x3 + d1
x2 = 0,1x1 + 0,2x2 + 0,3x3 + d2
x3 = 0,2x1 + 0,1x2 + 0,4x3 + d3

Llamando x al vector columna:  


x1
x =  x2 
x3
cuyos elementos son los niveles de equilibrio de producción, y d al vector columna:
 
d1
d =  d2 
d3

cuyos elementos son los niveles de las demandas no industriales, el sistema anterior puede ex-
presarse matricialmente de la forma
x = Ax + d.
Si la matriz de insumos-producción es cuadrada, como en nuestro ejemplo, y la matriz I − A es
invertible, es posible despejar x y obtener el vector de niveles de equilibrio de producción:

x = (I − A)−1 d

conociendo el vector demanda no industrial d. En nuestro ejemplo de las tres industrias, verifique
usando Scilab que:  
1,837 0,816 1,020
(I − A)−1 =  0,490 1,551 0,939  .
0,694 0,531 2,163
Supongamos además que los niveles de las demandas no industriales son:

d1 = $50000000,

d2 = $30000000,
y
d3 = $60000000,

Material de uso interno Mateu-Semitiel 77


CAPÍTULO 2. MATRICES

entonces verifique usando Scilab que en nuestro ejemplo, los niveles de equilibrio son:
 
177530000
x =  127370000  ,
180410000

es decir la industria 1 deberı́a generar una producción con un valor de 177530000 dólares, la
industria 2 una producción con un valor de 127370000 dólares y la industria 3 una producción
con un valor de 180410000 dólares.

a) (Scilab) La matriz tecnológica para un modelo de insumos-producción de tres industrias


es  
0,5 0 0,2
 0,2 0,8 0,12  .
1 0,4 0
Si la demanda no industrial de la producción de las industrias mencionadas es d1 = 5
millones de dólares, d2 = 3 millones de dólares y d3 = 4 millones de dólares, determine los
niveles de producción de las tres industrias.
b) (Scilab) La siguiente matriz de insumos-producción para una economı́a de seis industrias
es:  
0,180 0,005 0 0,003 0 0,010
 0,005 0,290 0,020 0,002 0,004 0,015 
 
 0,030 0,170 0,450 0,008 0,010 0,006 
 
 0,035 0,040 0,020 0,040 0,010 0,050  .
 
 0,010 0,001 0,040 0,250 0,360 0,250 
0,120 0,080 0,100 0,120 0,180 0,230
Si el vector de las demandas no industriales está dada por:
 
20000
 10000 
 
 30000 
d=  5000  ,

 
 12000 
30000

i) determine los niveles de la producción para las seis industrias.


ii) las demandas interindustriales en las seis industrias.

Material de uso interno Mateu-Semitiel 78


Capı́tulo 3

DETERMINANTES

En este capı́tulo se estudiará uno de los conceptos más importantes del Álgebra Lineal. A cada matriz
cuadrada se le puede asignar cierto número real llamado determinante de la misma, el cual tiene
diversas aplicaciones en esta asignatura, como por ejemplo el cálculo del polinomio caracterı́stico para
encontrar los valores y vectores propios de una matriz, la regla de Cramer para resolver ciertos sistemas
lineales, el cálculo de una matriz inversa, etc.

3.1. Introducción
Se utilizará un método de recurrencia para la definición de determinante, esto es, el determinante
de una matriz de cuadrada de orden n se define en términos de determinantes de matrices de orden
menor.
Se debe tener en cuenta, como en el caso de la inversa de una matriz, que el concepto de determi-
nante es aplicable solo a matrices cuadradas.

Definición (Determinante). Dada una matriz A = [aij ] cuadrada de orden n, el determinante


de A, que simbolizamos det(A) o |A|, es el número que se obtiene, recursivamente, de la
siguiente manera:

i. Si n = 1, es decir A = [a11 ], det(A) = a11 .

ii. Si n ≥ 2,

det(A) = (−1)1+1 a11 det(A1,1 ) + (−1)1+2 a12 det(A1,2 ) + ... + (−1)1+n a1n det(A1,n )
Xn
= (−1)1+j a1j det(A1,j ),
j=1

donde A1,j es la matriz cuadrada de orden n − 1 que se obtiene al eliminar la fila 1 y


la columna j de la matriz A.

Ejemplo 3.1. Si A = [−3], una matriz cuadrada de orden n = 1, por definición (parte i.) es det(A) =
−3. ◀

Material de uso interno Mateu-Semitiel 79


CAPÍTULO 3. DETERMINANTES

Determinante de una matriz 2 × 2


Para cualquier matriz cuadrada de orden 2
 
a11 a12
A= ,
a21 a22
por definición (de acuerdo a ii.) es:
det(A) = (−1)1+1 a11 det(A1,1 ) + (−1)1+2 a12 det(A1,2 ) =
= (−1)2 a11 det ([a22 ]) + (−1)3 a12 det ([a21 ]) =
= a11 a22 − a12 a21 .
Luego:

 
a11 a12
Si A = entonces det(A) = |A| = a11 a22 − a12 a21 .
a21 a22

Nota: En este texto det(A) y |A| se usan indistintamente para representar el determinante de una
matriz cuadrada A. Es práctica común eliminar los corchetes de una matriz y escribir por ejemplo
 
a11 a12 a11 a12
en lugar de .
a21 a22 a21 a22

   
−2 4 3 −2
Ejemplo 3.2. Sean la matrices A = yB= , entonces:
−3 21 −6 4
 
−2 4 1
|A| = = (−2) − 4(−3) = 11,
−3 21 2
y

3 −2
|B| = = 3 (4) − (−2)(−6) = 0. ◀
−6 4

Determinante de una matriz 3 × 3


Para cualquier matriz cuadrada de orden 3
 
a11 a12 a13
A =  a21 a22 a23  ,
a31 a32 a33

det(A) = (−1)1+1 a11 det(A1,1 ) + (−1)1+2 a12 det(A1,2 ) + (−1)1+3 a13 det(A1,3 ) =
a22 a23 a21 a23 a21 a22
= (−1)2 a11 + (−1)3 a12 + (−1)4 a13 =
a32 a33 a31 a33 a31 a32
= a11 (a22 a33 − a23 a32 ) − a12 (a21 a33 − a23 a31 ) + a13 (a21 a32 − a31 a22 ) =
= a11 a22 a33 − a11 a23 a32 − a12 a21 a33 + a12 a23 a31 + a13 a21 a32 − a13 a31 a22
= a11 a22 a33 + a12 a23 a31 + a13 a21 a32 − a31 a22 a13 − a32 a23 a11 − a33 a21 a12 .

Material de uso interno Mateu-Semitiel 80


CAPÍTULO 3. DETERMINANTES

Hay un artificio para memorizar esta fórmula, llamado regla de Sarrus, que se ilustra a conti-
nuación:

Se agregan las dos primeras columnas a la derecha de la matriz A. Se suman los productos de los
elementos que indican las flechas que con el signo ⊕ y se restan los productos de los elementos que
indican las flechas con el signo ⊖.

Desarrollo de un determinante por cofactores


En la definición de determinante de una matriz A de orden n intervienen los determinantes de n
matrices de un orden menor, las matrices A1,j , j = 1, 2, ..., n, que son aquellas que resultan de eliminar
el renglón 1 y la columna j de la matriz A. En lo que sigue de esta sección se verá que el determinante
de A se puede calcular también tomando en cuenta otro renglón o cualquier otra columna. Para ello
se dará la siguiente definición:

Definición (Menores y Cofactores). Sea A = [aij ] una matriz cuadrada de orden n, n ≥ 2.

i. El menor del elemento aij , o simplemente el menor (i, j), Mij , es el determinante de la
matriz cuadrada de orden n − 1, Ai,j , que resulta de eliminar el renglón i y la columna
j de la matriz A. Esto es: Mij = det(Ai,j ).

ii. El cofactor del elemento aij de A, o simplemente el cofactor (i, j), es el número denotado
Cij y dado por Cij = (−1)i+j Mij .

 
−1 0 1
Ejemplo 3.3. Si A =  2 3 2  el menor (2, 3) es el determinante de la matriz que se obtiene
1 −1 1
−1 0
de eliminar al renglón 2 y la columna 3 de A. Ası́, M23 = det(A2,3 ) = = 1. El cofactor
1 −1
(2, 3) es C23 = (−1)2+3 M23 = (−1)5 (1) = −1. ◀

Dado que det(A1,j ) = M1j , en términos de menores y cofactores, la definición dada de determinante
de una matriz A cuadrada de orden n ≥ 2 se reescribe de la siguiente manera
X
n
det(A) = |A| = (−1)1+j a1j M1j .
j=1

O bien:
X
n
det(A) = |A| = a1j C1j .
j=1

Sea A = [aij ] una matriz cuadrada de orden n (n ≥ 2).


Para cada renglón i puede calcularse el número:
X
n
∆reni = aij Cij = ai1 Ci1 + ai2 Ci2 + ... + ain Cin ,
j=1

Material de uso interno Mateu-Semitiel 81


CAPÍTULO 3. DETERMINANTES

y para cada columna j el número:

X
n
∆colj = aij Cij = a1j C1j + a2j C2j + ... + anj Cnj ,
i=1

donde Cij es el cofactor del elemento aij .


X
n
Nótese que el número ∆ren1 = a1j C1j es el determinante de la matriz A.
j=1
 
2 0 −1
Por ejemplo, si A =  −1 1 0  entonces:
3 2 1

X
3
∆ren1 = det(A) = a1j C1j = a11 C11 + a12 C12 + a13 C13 = 2(−1)1+1 M11 + 0(−1)1+2 M12 +
j=1

1 0 −1 1
+(−1)(−1)1+3 M13 = 2 +0− = 2(1) − (−5) = 7.
2 1 3 2
X
3
∆ren2 = a2j C2j = a21 C21 + a22 C22 + a23 C23 = (−1)(−1)2+1 M21 + 1(−1)2+2 M22 +
j=1

0 −1 2 −1
+0(−1)2+3 M23 = 1 +1 + 0 = 1(2) + 1(5) = 7.
2 1 3 1
X
3
∆ren3 = a3j C3j = a31 C31 + a32 C32 + a33 C33 = 3(−1)3+1 M31 + 2(−1)3+2 M32 +
j=1

0 −1 2 −1 2 0
+1(−1)3+3 M33 = 3 + (−2) +1 = 3(1) +
1 0 −1 0 −1 1
+(−2)(−1) + 1(2) = 7.
X3
∆col1 = ai1 Ci1 = a11 C11 + a21 C21 + a31 C31 = 2(−1)1+1 M11 + (−1)(−1)2+1 M21 +
i=1
1 0 0 −1 0 −1
+3(−1)3+1 M31 = 2 + (−1)(−1) +3 = 2(1) +
2 1 2 1 1 0
+1(2) + 3(1) = 7.
X3
∆col2 = ai2 Ci2 = a12 C12 + a22 C22 + a32 C32 = 0(−1)1+2 M12 + 1(−1)2+2 M22 +
i=1
2 −1 2 −1
+2(−1)3+2 M32 = 0 + 1 + 2(−1) = 1(5) + (−2)(−1) = 7.
3 1 −1 0

X
3
∆col3 = ai3 Ci3 = a13 C13 + a23 C23 + a33 C33 = (−1)(−1)1+3 M13 + 0(−1)2+3 M23 +
i=1
−1 1 2 0
+1(−1)3+3 M33 = (−1) +0+1 = (−1)(−5) + 1(2) = 7.
3 2 −1 1

Material de uso interno Mateu-Semitiel 82


CAPÍTULO 3. DETERMINANTES

Obsérvese que todos estos números son iguales e iguales al determinante de A. Esto no es casualidad
sino el resultado de un teorema más general que se enuncia a continuación y que no se demostrará en
este texto:

Teorema 3.1. Sea A una matriz cuadrada de orden de n (n ≥ 2). Entonces:

1. ∆reni = ∆renk para todo i = 1, 2, ..., n y k = 1, 2, ..., n.

2. ∆colj = ∆colh para todo j = 1, 2, ..., n y h = 1, 2, ..., n.

3. ∆reni = ∆colj para todo i = 1, 2, ..., n y j = 1, 2, ..., n.

Dado que det(A) = ∆ren1 y, por el teorema anterior, ∆ren1 = ∆reni = ∆colj para todo i = 1, 2, ..., n
y j = 1, 2, ..., n, se tiene el siguiente resultado que muestra que el determinante de una matriz puede
calcularse empleando cualquier renglón o cualquier columna. Más precisamente:

Corolario 3.1. Sea A = [aij ] una matriz cuadrada de orden de n (n ≥ 2). Entonces:
X
n
1. det(A) = aij Cij = ai1 Ci1 + ai2 Ci2 + ... + ain Cin , para cualquier i = 1, 2, ..., n.
j=1

X
n
2. det(A) = aij Cij = a1j C1j + a2j C2j + ... + anj Cnj , para cualquier j = 1, 2, ..., n.
i=1

En el caso 1. se dice que el determinante se ha desarrollado por cofactores respecto al renglón


i y en el caso 2. que se ha desarrollado por cofactores respecto a la columna j.

Es evidente que el cálculo de un determinante puede ser muy tedioso. Por ejemplo, para calcular un
determinante de orden 4 deben calcularse 4 determinantes de orden 3 y para calcular un determinante
de orden 5, debe calcularse 5 determinantes de orden 4.
Sabiendo ahora que det(A) puede calcularse desarrollándolo por cualquier renglón o cualquier
columna, es claro que para simplificar el cálculo es conveniente elegir una fila o columna que tenga el
máximo número de ceros. Ası́ se evita el cálculo de algunos de los menores.
 
−1 3 0 1
 4 2 2 5 
Ejemplo 3.4. Si A =  
 0 6 3 4  para calcular el determinante de A conviene desarrollarlo
2 1 0 1
por la tercera columna. Luego:
X
4 0
z}|{ z}|{
0
|A| = ai3 Ci3 = a13 C13 + a23 C23 + a33 C33 + a43 C43 =
i=1
−1 3 1 −1 3 1
= 2(−1)5 M23 + 3(−1)6 M33 = −2 0 6 4 +3 4 2 5 ,
2 1 1 2 1 1

y calculando los determinantes de orden 3 indicados se obtiene (verifı́quelo): |A| = 43. ◀

Material de uso interno Mateu-Semitiel 83


CAPÍTULO 3. DETERMINANTES

Ya se ha dicho que obtener el determinante de una matriz puede convertirse en un trabajo que requiere
una gran cantidad de cálculos a menos que la matriz sea pequeña o que tenga muchos ceros. En la
sección siguiente se verán procedimientos que ayudan a minimizar dichos cálculos. Pero además existen
algunas matrices que aunque sean grandes sus determinantes se pueden evaluar fácilmente. Se dará la
siguiente definición:

Definición (Matrices triangulares). Una matriz cuadrada es triangular superior si todos


sus elementos debajo de la diagonal principal son ceros. Es triangular inferior si todos sus
elementos por encima de la diagonal principal son ceros. Una matriz cuadrada es diagonal si
todos sus elementos fuera de la diagonal principal son ceros.
Es decir, la matriz cuadrada A = [aij ] es triangular superior si aij = 0 para todo i > j, es
triangular inferior si aij = 0 para todo i < j y es diagonal si aij = 0 para todo i ̸= j.

 
−1 3 00  
 0  1 2 1
1 25 
Ejemplo 3.5. Las matrices A = 
 0 y B =  0 0 5  son triangulares superiores,
0 34 
0 0 3
0 0 01
   
1 0 0   1 0 0
2 0
C= 2 1 0 yD= son triangulares inferiores y E =  0 −4 0  es diagonal.◀
2 1
−1 0 8 0 0 3

Ejemplo 3.6 (Determinante de una matriz triangular). La matriz


 
a11 a12 a13 a14
 0 a22 a23 a24 
A=  0

0 a33 a34 
0 0 0 a44
es triangular superior. Desarrollando det(A) por cofactores con respecto a la primer columna:
det(A) = a11 C11 + 0C21 + 0C31 + 0C41 = a11 C11 = a11 (−1)2 M11 =
a22 a23 a24
a33 a34
= a11 0 a33 a34 = a11 a22 = a11 a22 a33 a44 .
0 a44
0 0 a44

Para una matriz A triangular inferior, se obtendrı́a el mismo resultado: det(A) = a11 a22 a33 a44 (en
este caso convendrı́a elegir la última columna o el primer renglón para desarrollarlo). ◀

El ejemplo dado puede generalizarse:

Teorema 3.2. Si A = [aij ] es una matriz triangular de orden n entonces

det(A) = a11 a22 ...ann .

Es decir, el determinante de una matriz triangular es el producto de los elementos de la


diagonal principal.

Material de uso interno Mateu-Semitiel 84


CAPÍTULO 3. DETERMINANTES

Claramente el determinante de una matriz triangular es cero si y solo si en la diagonal principal hay
al menos un elemento cero.
Nótese que dado que una matriz diagonal es una matriz triangular (superior e inferior), entonces
su determinante es el producto de los elementos de la diagonal principal.

Ejemplo 3.7. Para las matrices A, B, C, D y E del Ejemplo 3.5 se tiene:

det(A) = (−1)(1)(3)(1) = −3,


det(B) = (1)(0)(3) = 0,
det(C) = (1)(1)(8) = 8,
det(D) = (2)(1) = 2,
det(E) = (1)(−4)(3) = −12. ◀

Ejercicios 3.1

 
1 −2 3
1. Dada la matriz A =  0 4 2 .
−2 1 −1

a) Calcule todos los cofactores de A.


b) Obtenga det(A) desarrollando por cofactores respecto a cada una de las columnas y cada
uno de los renglones de A.

2. Calcule los determinantes siguientes:

4 −3 4 −2 5
a)
2 5 g) 1 4 4
√ √ −2 1 −2
2 − 2
b)
1 −3 1 2 0 −1
2 1 2 2
3 −5 h)
0 1 0 1
c)
−6 10 2 −2 1 −3
0 2 −1
d) 1 1 3 2 0 0 1
4 −2 3 3 −3 0 0
i)
2 1 5 0
2 3 1 3 2 1 −1
e) −1 2 4
0 0 −2 2 3 −1 8 2
0 3 1 −1 4
0 −2 1 j) 0 0 5 0 −9
f) 1 4 2 0 0 0 −1 12
0 3 −2 0 0 0 0 1

Material de uso interno Mateu-Semitiel 85


CAPÍTULO 3. DETERMINANTES

4 0 0 0 0 −3 0 0 0 0
0 −3 0 0 0 0 −3 0 0 0
k) 0 0 2 0 0 l) 0 0 −3 0 0
0 0 0 −1 0 0 0 0 −3 0
0 0 0 0 5 0 0 0 0 −3

3. Obtenga el o los valores de x, si existen, que satisfacen las siguientes ecuaciones:


2x −3
a) =0
4 −3
2−x 0 0
b) 1 −3 + x 0 =0
2 1 4 − 6x
x 0 2 x−1 1 0
c) 2 0 −6 + x = 3 0 x−2
0 x−3 −1 −2 x − 7 0

3.2. Propiedades de los determinantes


Los determinantes tienen muchas propiedades las cuales se pueden emplear con el fin de reducir el
trabajo en el cálculo de los mismos.

Teorema 3.3. Si cualquier renglón o columna de una matriz A es el vector cero entonces
|A| = 0.

Demostración. Basta con desarrollar el determinante por cofactores con respecto al renglón o columna
que contiene solo ceros.
1 0 2
Ejemplo 3.8. −3 0 5 = 0, dado que la segunda columna contiene solo ceros.◀.
8 0 3

Material de uso interno Mateu-Semitiel 86


CAPÍTULO 3. DETERMINANTES

Teorema 3.4. Si el i−ésimo renglón o la j−ésima columna de una matriz A = [aij ] se


multiplica por la constante c entonces el determinante de la nueva matriz B es el producto
de c por el determinante de A. Esto es:
a11 a12 ... a1n a11 a12 ... a1n
a21 a22 ... a2n a21 a22 ... a2n
.. .. .. .. .. ..
. .... . . . ... .
1. |B| = =c = c |A|.
cai1 cai2 ... cain ai1 ai2 ... ain
.. .. .. .. .. ..
. . ... . . ... . .
an1 an2 ... ann an1 an2 ... ann

a11 a12 ... ca1j ... a1n a11 a12 ... a1j ... a1n
a21 a22 ... ca2j ... a2n a21 a22 ... a2j ... a2n
2. |B| = .. .. .. =c .. .. = c |A|.
. . ... ... . . . ... ... ...
an1 an2 ... canj ... ann an1 an2 ... anj ... ann

Demostración. Se probará aquı́ 1. Dado que las matrices A y B difieren solo en el i-ésimo renglón,
entonces los cofactores de los elementos del renglón i de A, Ci1 , Ci2 ,..., Cin , son respectivamente iguales
a los cofactores correspondientes al renglón i de B. Considerando el desarrollo de los determinantes
de ambas matrices, A y B, respecto al i-ésimo renglón es:

|B| = (cai1 )Ci1 + (cai2 )Ci2 + ... + (cain )Cin = c (ai1 Ci1 + ai2 Ci2 + ... + ain Cin ) = c |A| .

La demostración de 2. es análoga (se considera el desarrollo de los determinantes de A y B con


respecto a la j-ésima columna).

Observación 3.1. Esta propiedad establece que en un determinante se permite “extraer” un factor
común de un renglón o columna del mismo.

 
2 0 −1
Ejemplo 3.9. Supongamos que se quiere calcular el determinante de la matriz B =  −1 1 0 .
15 10 5
 
2 0 −1

Sea A = −1 1 0  la matriz que se obtiene de dividir entre 5 (multiplicar por 15 ) el último
3 2 1
renglón de B, es decir,
 la matriz A se obtiene de realizar una operación elemental de renglón a la
matriz B 5 R3 → R3 . Por el teorema anterior la relación entre |B| y |A| es:
1

1
|A| = |B| o |B| = 5 |A| .
5
De esta manera se puede simplificar el cálculo de |B| calculando un determinante más fácil de
resolver. Dado que |A| = 7 entonces

|B| = 5 |A| = 5(7) = 35.

En la práctica se procede “sacando factor común” 5 en el último renglón:

Material de uso interno Mateu-Semitiel 87


CAPÍTULO 3. DETERMINANTES

2 0 −1 2 0 −1
−1 1 0 = 5 −1 1 0 = 5(7) = 35. ◀
15 10 5 3 2 1

El siguiente es un ejemplo de un resultado general muy interesante:

Ejemplo 3.10. Sea la matriz 5A donde A es la matriz del ejemplo anterior. Extrayendo sucesivamente
el factor común 5 en cada columna:
10 0 −5 5(2) 5(0) 5(−1) 2 5(0) 5(−1)
|5A| = −5 5 0 = 5(−1) 5(1) 5(0) = 5 −1 5(1) 5(0) =
15 10 5 5(3) 5(2) 5(1) 3 5(2) 5(1)
2 0 5(−1) 2 0 −1
= 5(5) −1 1 5(0) = 52 (5) −1 1 0 =
3 2 5(1) 3 2 1

= 53 |A| = 53 (7) = 875.

El mismo resultado se hubiese obtenido extrayendo sucesivamente factor común 5 en cada renglón.◀

La aplicación reiterada del resultado del Teorema 3.4 permite demostrar el siguiente:

Corolario 3.2. Si A es una matriz cuadrada de orden n y c es un escalar, entonces

|cA| = cn |A| .

Otra propiedad se demuestra en el siguiente teorema:

Teorema 3.5. Al intercambiar dos renglones o dos columnas cualesquiera de una matriz
A, el determinante de la matriz B obtenida, es el opuesto del determinante de A. Esto es:
|B| = − |A|.

Demostración. La prueba se hará para el intercambio de dos renglones (análogamente se demuestra


para el intercambio de dos columnas).
Es fácil verificar este resultado para matrices cuadradas de orden 2 ó 3.
 
a11 a12
Supongamos que A es de orden 2 y se intercambian sus renglones. Esto es: A = y
a21 a22
 
a21 a22
B= entonces
a11 a12

|B| = a21 a12 − a11 a22 = − (a11 a22 − a21 a12 ) = − |A| .

Supongamos ahora que A es de orden 3 y se intercambian dos renglones obteniéndose la matriz


B. Las matrices A y B coinciden en el renglón l que no fue intercambiado. Los menores (de orden
2) correspondientes a los elementos del renglón l de ambas matrices son opuestos (¿por qué?). Los

Material de uso interno Mateu-Semitiel 88


CAPÍTULO 3. DETERMINANTES

términos del desarrollo del determinante de B por cofactores correspondiente al renglón l resultan
entonces opuestos a los términos del desarrollo del determinante de A por dicho renglón. De este
modo, |B| = − |A|.
El mismo razonamiento permite generalizar este resultado para una matriz A de orden mayor.

   
1 3 5 2 5 3 1 2
 0 −1 3 4   3 −1 0 4 
Actividad 3.1. Dadas las matrices A =   2
yB= . Compruebe, sin
1 9 6   9 1 2 6 
3 2 4 8 4 2 3 8
hacer cálculos, que |B| = − |A|. Halle luego |A| y por consiguiente |B|.

Corolario 3.3. Si A tiene dos renglones o columnas iguales entonces |A| = 0.

Demostración. Se probará para el caso de dos renglones iguales (análogamente se demuestra para dos
columnas iguales).
Supongamos que los renglones h y k de la matriz A son iguales. La matriz B que se obtiene de
intercambiar los renglones h y k es la misma matriz A, por lo tanto

|B| = |A| . (3.1)

Por otro lado, dado que B se obtiene de A por un intercambio de renglones entonces del teorema
anterior
|B| = − |A| . (3.2)
De (3.1) y (3.2) resulta |A| = − |A| y ası́ |A| = 0.

2 2 2 9
−1 1 −1 8
Ejemplo 3.11. = 0 dado que la primer y tercer columnas son iguales.◀
3 3 3 6
4 2 4 8

Teorema 3.6. Si a un renglón, o columna, de una matriz A se le suma un múltiplo de


otro renglón, o columna, de A, entonces el determinante de la nueva matriz B es igual al
determinante de A.

Demostración. Sean Rh y Rk dos renglones arbitrarios de la matriz A = [aij ].


Sea B la matriz que es igual a A exceptuando el renglón k−ésimo el cual es la suma del Rk más c
veces Rh es decir,

Material de uso interno Mateu-Semitiel 89


CAPÍTULO 3. DETERMINANTES

   
a11 a12 ... a1n a11 a12 ... a1n
 .. .. ..   .. .. .. 
 . . ... .   . . ... . 
   
 ah1 ah2 ... ahn   ah1 ah2 ... ahn 
   
 ..   
A =  ... ..
. ... .  y B= .
.. ..
. ...
..
. .
   
 ak1 ak2 ... akn   ak1 + cah1 ak2 + cah2 ... akn + cahn 
   
 .. .. ..   .. .. .. 
 . . ... .   . . ... . 
an1 an2 ... ann an1 an2 ... ann
Dado que A y B difieren solo en el k-ésimo renglón entonces los cofactores de los elementos de
dicho renglón de A, Ck1 , Ck2 ,..., Ckn son iguales a los cofactores del k-ésimo renglón de B.
Desarollando el determinante de B por el k-ésimo renglón:

|B| = (ak1 + cah1 ) Ck1 + (ak2 + cah2 ) Ck2 + ... + (akn + cahn ) Ckn =
= (ak1 Ck1 + ak2 Ck2 + ... + akn Ckn ) + c (ah1 Ck1 + ah2 Ck2 + ... + ahn Ckn ) .

El primer término de la suma es el determinante de A desarrollado por el k-ésimo renglón. El


segundo término es 0 puesto que ah1 Ck1 + ah2 Ck2 + ... + ahn Ckn es el determinante, desarrollado por
el k-ésimo renglón, de la matriz
 
a11 a12 ... a1n
 .. .. .. 
 . . ... . 
 
 ah1 ah2 ... ahn 
 
 .. 
A′ =  ... ..
. ... . 
 
 ah1 ah2 ... ahn 
  ← k-ésimo renglón.
 .. .. .. 
 . . ... . 
an1 an2 ... ann
que se obtiene de la matriz A al reemplazar el renglón k por el renglón h. Dado que A′ tiene dos
renglones iguales entonces |A′ | = 0. Ası́,

|B| = |A| + 0 = |A| .

Análogamente se demuestra que si a una columna se le suma un múltiplo escalar de otra columna,
el determinante no varı́a.

 
3 2 1
Ejemplo 3.12. Sea la matriz A =  2 −1 0 . Se observa rápidamente que si el 3◦ renglón se le
6 4 3
 
3 2 1
resta dos veces el 1◦ se obtiene la matriz B =  2 −1 0  cuyo determinante es −7.
0 0 1
Ası́ por propiedad enunciada en el teorema anterior es |A| = |B| = −7.◀

Material de uso interno Mateu-Semitiel 90


CAPÍTULO 3. DETERMINANTES

Operaciones elementales de renglón y determinantes


De acuerado al Teorema 3.4 si se aplica una operación de escalamiento a un renglón de una matriz
(cRi → Ri ), el determinante de la matriz original es 1c por el determinante de la matriz nueva. De
los teoremas 3.5 y 3.6 se sabe que una operación de intercambio (Ri ↔ Rj ) cambia el signo del
determinante y que una operación de eliminación (Ri + cRj → Ri ) no cambia el determinante.
El siguiente ejemplo muestra cómo aplicar operaciones elementales de renglón a una matriz A de
modo que el cálculo de su determinante involucre el determinante de una matriz triangular el cual,
como se sabe, es de cálculo directo.

2 3 4 4 1 −2 3 4 1 −2 3 4
−1 5 0 −1 −1 5 0 −1 0 3 3 3
|A| = = − = − =
1 −2 3 4 R1 ↔R3 2 3 4 4 R2 + R1 → R2 0 7 −2 −4
R3 − 2R1 → R3
1 −1 1 0 1 −1 1 0 R4 − R1 → R4 0 1 −2 −4

1 −2 3 4 1 −2 3 4
0 1 1 1 0 1 1 1
= −3 = −3 =
1
R →R2
3 2
0 7 −2 −4 R3 − 7R2 → R3 0 0 −9 −11
R4 − R2 → R4
0 1 −2 −4 0 0 −3 −5
1 −2 3 4 1 −2 3 4
0 1 1 1 0 1 1 1
= −3(−9) = 27 =
− 19 R3 →R3 0 0 1 11
9 R4 +3R3 →R4 0 0 1 11
9
0 0 −3 −5 0 0 0 − 43

 
4
= 27 − = −36.
3

En este ejemplo, se llegó a una matriz triangular equivalente haciendo uso de las tres operacio-
nes elementales de renglón (intercambio, escalamiento y eliminación), pero siempre es posible llevar
una matriz cuadrada a una forma triangular usando únicamente operaciones de eliminación y de in-
tercambio. Por lo tanto si B es una matriz triangular equivalente a A obtenida sin escalamientos, es
det(A) = det(B) o det(A) = − det(B) y, como el determinante de una matriz triangular es el producto
de los elementos de la diagonal principal, se tiene entonces el siguiente resultado:

Teorema 3.7. Sea A una matriz cuadrada de orden n y B = [bij ] una matriz triangular
obtenida de A a partir de operaciones elementales de renglón sin escalamientos. Entonces

|A| = (−1)k |B| = (−1)k b11 b22 ...bnn ,

donde k es el número de operaciones de intercambios entre renglones realizadas.

Actividad 3.2. Aplique el Teorema 3.7, es decir use solo operaciones de eliminación e intercambio,
para llevar la matriz A del ejemplo anterior a una matriz triangular equivalente, B. Muestre que
|A| = (−1)k |B| siendo k es el número de intercambios realizados.

Material de uso interno Mateu-Semitiel 91


CAPÍTULO 3. DETERMINANTES

El teorema anterior permite concluir una importante caracterización de matrices invertibles.

Corolario 3.4. Una matriz A es invertible si y solo si det(A) ̸= 0

Demostración. Sea A una matriz cuadrada de orden n y B = [bij ] una forma escalonada de A (por
lo tanto triangular) obtenida mediante operaciones de renglón sin escalamientos. De acuerdo con el
teorema anterior:
det(A) = (−1)k b11 b22 ...bnn , (3.3)
donde k es el número de intercambios de renglones realizados.
Según el Teorema 2.12, A es invertible si y solo si tiene n posiciones pivote. Esto es, A es invertible
si y solo si en cualquier (toda) forma escalonada de A los elementos de la diagonal principal son
distintos de cero. Luego, A es invertible si y solo si bii ̸= 0 para todo i = 1, 2, ..., n que, por (3.3),
equivale a det(A) ̸= 0.
 
1 −1 2
Ejemplo 3.13. La matriz A =  3 1 4  es invertible ya que det(A) = 16 ̸= 0.◀
0 −2 5

Otras propiedades de los determinantes

Teorema 3.8 (Determinante de la transpuesta). Sea A una matriz cuadrada de orden n.


Entonces |A| = At .

Demostración. Es fácil verificar este resultado para el caso n = 2:

a11 a12
|A| = = a11 a22 − a12 a21 ,
a21 a22
y
a11 a21
At = = a11 a22 − a21 a12 = a11 a22 − a12 a21 = |A| .
a12 a22
Para el caso n = 3, dado que el primer renglón de A es igual a la primera columna de At ,
desarrollando el determinante de At por la primera columna:

′ ′ ′
At = a11 M11 − a12 M21 + a13 M31 ,
donde Mi1′ es el menor (i, 1) de la matriz At , i = 1, 2, 3. Desarrollando el determinante de A por el

primer renglón:

|A| = a11 M11 − a12 M12 + a13 M13 ,


donde M1i es el menor (1, i) de la matriz A, i = 1, 2, 3.
′ para todo i = 1, 2, 3.
Para probar que |A| = At basta verificar que M1i = Mi1
El menor M1i es el determinante de la matriz A1,i que resulta de suprimir el renglón 1 y la columna i
′ es el determinante de la matriz A′ que resulta de suprimir el renglón
de A, mientras que el menor Mi1 i,1

Material de uso interno Mateu-Semitiel 92


CAPÍTULO 3. DETERMINANTES

i y la columna 1 de At . Es fácil ver que A′i,1 = (A1,i )t y, dado que son matrices cuadradas de orden 2,
′ para todo i = 1, 2, 3.
es |A1,i | = (A1,i )t , es decir M1i = Mi1
Este mismo razonamiento se puede generalizar para una matriz de orden n > 3.

 
1 −1 2 
Actividad 3.3. Sea A =  3 1 4 . Verifique que det At = det(A) = 16.
0 −2 5

A continuación enunciaremos, sin probar, el siguiente importante resultado:

Teorema 3.9 (Determinante del producto). Sean A y B matrices cuadrada de orden n.


Entonces
|AB| = |A| |B| .

En general, si A1 , A2 ,..., Ak son k matrices cuadradas de orden n, entonces

|A1 A2 ...Ak | = |A1 | |A2 | ... |Ak | .

   
1 −1 2 0 2 0
Actividad 3.4. Sean A =  3 1 4  y B =  −5 0 0 . Compruebe que |AB| = |A| |B|.
0 −2 5 0 0 1

Nota: No debe inferirse un resultado similar al del teorema anterior para la suma de matrices. No es
cierto que determinante de una suma es la suma de los determinantes.
   
1 2 1 1
En efecto, sean las matrices A = yB= .
2 3 1 2
2 3
|A + B| = = 1,
3 5
mientras que
1 2 1 1
|A| + |B| = + = −1 + 1 = 0.
2 3 1 2
Ası́,
|A + B| ̸= |A| + |B| .

El Teorema 3.9 proporciona la relación que existe entre el determinante de una matriz invertible y el
de su inversa.

1
Corolario 3.5. Si A es una matriz invertible entonces |A| ̸= 0 y A−1 = .
|A|

Material de uso interno Mateu-Semitiel 93


CAPÍTULO 3. DETERMINANTES

Demostración. Como la matriz A es invertible entonces AA−1 = I. Luego,

AA−1 = |I| = 1,

y por el Teorema 3.9,


AA−1 = |A| A−1 ,
de donde
|A| A−1 = 1.
1
De la última igualdad se deduce que |A| ̸= 0 y A−1 = .
|A|

   
0 2 0 0 − 15 0
Ejemplo 3.14. La matriz A =  −5 0 0  es invertible. Su inversa es A−1 =  21 0 0 
0 0 1 0 0 1
 
−1 1 1
(verifı́quelo). Puede comprobarse que |A| = 10 (̸= 0) y que A = = .◀
10 |A|

El Corolario 3.4 agrega un resultado a los del Teorema 2.12 visto en el capı́tulo 2:

Teorema 3.10. Sea A una matriz A de n × n. Entonces las siguientes proposiciones son
equivalentes:

1. |A| ̸= 0.

2. A es invertible.

3. Ax = b es consistente con única solución para todo b ∈ Rn .

4. Ax = 0 tiene única solución la trivial.

5. A tiene n posiciones pivote.

6. A es equivalente (por renglones) a la matriz identidad I.

Demostración. Del Teorema 2.12 se sabe que 2., 3., 4., 5. y 6. son equivalentes. El Teorema 3.4 agrega
la equivalencia entre 1. y 2.
Por lo tanto, 1., 2., 3., 4., 5. y 6. son equivalentes.

De la equivalencia (1) ⇔ (4) se deduce el siguiente resultado importante en relación a los sistemas
lineales cuadrados homogéneos:

El sistema lineal homogéneo cuadrado Ax = 0 tiene soluciones no triviales si y solo si |A| = 0.

Material de uso interno Mateu-Semitiel 94


CAPÍTULO 3. DETERMINANTES

Ejemplo 3.15. Sean los sistemas homogéneos


 
 2x − 3y + z = 0  2x1 + 3x2 + x3 = 0
4x − 2z = 0 y x1 − x2 + 2x3 = 0
 
3x − y − 3z = 0 x1 + 4x2 − x3 = 0

2 −3 1
Dado que 4 0 −2 = −26 ̸= 0 entonces el primer sistema tiene única solución x = y = z = 0
3 −1 −3
(solución trivial).
2 3 1
En cambio 1 −1 2 = 0 por lo cual el segundo sistema tiene soluciones no triviales.◀
1 4 −1

Ejercicios 3.2

1. Sin efectuar cálculos, explique por qué los siguientes determinantes son cero:

−1 3 0 1 −1 3 1 4 1 2 1 −4
2 9 0 5 2 9 1 −1 3 −1 1 2
a) b) c)
1 2 0 4 −1 3 1 4 1 0 1 0
2 3 0 −1 0 2 5 −1 0 2 1 −4

2. Calcule los siguientes determinantes de las siguientes matrices aplicando operaciones elementales
de renglón:
     
1 3 1 1 2 1 0 1 1 −1 0 0
 2 2 1 0   0 −2 1 1   2 3 4 0 
a)  −1 1 1

 b) 


 c) 

1 1 1 3 −1 1 1 1 1 
0 2 2 −1 1 3 0 −2 −2 2 1 −1

3. Sea A una matriz cuadrada de orden n y k un número entero positivo. Teniendo en cuenta el
Teorema 3.9, pruebe que
Ak = |A|k .

Además, demuestre que si A es invertible entonces

A−k = A−1
k
.

4. Sea A una matriz cuadrada de orden 4 tal que det(A) = −3, y sean las matrices:

B, obtenida de intercambiar el 1◦ y 3◦ renglón de A.


C, obtenida de sumarle a la 3◦ columna de A, la 2◦ columna de A multiplicada por 5.
D, obtenida multiplicando por −2 el 4◦ renglón de A.
E = 2A.

Material de uso interno Mateu-Semitiel 95


CAPÍTULO 3. DETERMINANTES

Calcule los determinantes de las matrices: B, C, D, E, F = (−A)5 , G = 2A−3 y H = 3At B −1 .

a b c
5. Sea d e f = −2. Calcule los siguientes determinantes:
g h i

a d g g h i
a) b e h d) d e f
c f i −a −b −c
a b c g 2a d
b) d e f e) h 2b e
−2g −2h −2i i 2c f
3a 3b 3c a b c − 2a
c) 3d 3e 3f f) d e f − 2d
3g 3h 3i g h i − 2g

6. Analice si las siguientes matrices son invertibles.


 
2 3
a) A =
−4 5
 
2 3 −1
b) B =  1 4 0 
0 2 1
 
2 0 0 0
 1 −2 0 0 
c) C =   0

3 4 0 
1 2 5 10
 
1 −1 1
d) D =  2 0 −3 
4 −2 −1
7. Determine si existe algún valor de a de manera que la matriz A resulte invertible.
   
a −1 3 a −1 a
a) A =  2 1 a  b) A =  1 −3 4 
−2a 1 2 2 −a 0

8. Sean A, B, C y D matrices cuadradas de orden 4 tal que det(A) = −2, det(C) = 3, det(D) = 0
y  
2 −1 3 5
 1 3 1 0 
AB t C −1 = 
 2
.
1 −1 4 
1 0 −2 1

a) Determine si la matriz B es invertible.


b) Calcule, si es posible, los determinantes de las matrices: 2B t , ABC, DA + DB, −A4 y
(−3A)2 .

Material de uso interno Mateu-Semitiel 96


CAPÍTULO 3. DETERMINANTES

9. Analice para qué valores de λ el sistema lineal homogéneo



 (λ − 2)x − y = 0
x + λy − z = 0

−x − 3y + (λ − 1)z = 0

admite soluciones no triviales.

10. Sean A y B matrices cuadradas de orden n. Demuestre que:

a) det (AB) = det (BA).


b) AAt = |A|2 .

c) Si B es invertible entonces det B −1 AB = det (A).
d ) ||A| A| = |A|n+1 .

3.3. La inversa a través de la adjunta. La regla de Cramer


En esta sección se verá cómo calcular la inversa de una matriz empleando determinantes. También
se desarrollará un método de resolución de sistemas lineales cuadrados con matrices de coeficientes
invertibles.

Definición (Matriz de cofactores y matriz adjunta). Dada una matriz A = [aij ] cuadrada de
orden n ≥ 2. La matriz de cofactores de A, que se simboliza Cof(A), es la matriz cuadrada
de orden n cuyo elemento (i, j)-ésimo es el cofactor Cij de la matriz A.
La matriz transpuesta de la matriz de cofactores de A es la matriz adjunta de A y se simboliza
Adj(A). Es decir:  
C11 C21 ... Cn1
 C12 C22 ... Cn2 
 
Adj(A) = (Cof(A))t =  .. .. ..  .
 . . ... . 
C1n C2n ... Cnn

 
2 −3 1
Ejemplo 3.16. Sea la matriz A =  4 0 −2 . Los cofactores de A son: C11 = −2, C12 = 6,
3 −1 −3
C13 = −4, C21 = −10, C22 = −9, C23 = −7, C31 = 6, C32 = 8 y C33 = 12, por lo cual
   
−2 6 −4 −2 −10 6
Cof(A) =  −10 −9 −7  y Adj(A) =  6 −9 8  . ◀
6 8 12 −4 −7 12

A continuación se establece un resultado que nos permitirá deducir un teorema aún más importante
para obtener la inversa de una matriz:

Material de uso interno Mateu-Semitiel 97


CAPÍTULO 3. DETERMINANTES

Lema 3.1. Sea A = [aij ] una matriz cuadrada de orden n.


X
n
1. Si h ̸= k entonces ahj Ckj = 0.
j=1

X
n
2. Si l ̸= t entonces ail Cit = 0.
i=1

Esto es, la suma de los productos de los elementos de un renglón (o columna) de A por los
cofactores correspondientes a los elementos de otro renglón (o columna) de A es igual a cero.

Demostración. Se probará 1. (similar demostración para 2.).


Considere la matriz, B, que se obtiene de la matriz A al reemplazar el renglón k por el renglón h:
 
a11 a12 ... a1n
 .. .. .. 
 . . ... . 
 
 ah1 ah2 ... ahn 
 
 .. 
B =  ... ..
. ... . 
 
 ah1 ah2 ... ahn 
  ← renglón k
 .. .. .. 
 . . ... . 
an1 an2 ... ann
Dado que las matrices A y B difieren solo en el k-ésimo renglón, los cofactores correspondientes
a dicho renglón en la matriz A, Ck1 , Ck2 ,..., Ckn , son iguales a los cofactores del k-ésimo renglón en
Xn
la matriz B. Luego la suma ahj Ckj es el determinante de B (desarrollado por el k-ésimo renglón).
j=1
Como B tiene dos renglones iguales entonces su determinante es cero. Por lo tanto

X
n
ahj Ckj = 0.
j=1

Este lema es utilizado en la demostración del teorema que sigue. Primero, veamos el siguiente ejemplo:

Ejemplo 3.17. Sea la matriz A del ejemplo anterior. Observemos la matriz que se obtiene de hacer
el producto de la matriz A por su adjunta:
      
2 −3 1 −2 −10 6 −26 0 0 1 0 0
A Adj(A) =  4 0 −2   6 −9 8  =  0 −26 0  = (−26)  0 1 0  =
3 −1 −3 −4 −7 12 0 0 −26 0 0 1
= (−26)I.

Puede verificarse fácilmente que −26 es el determinante de la matriz A. Por lo tanto

A Adj(A) = |A| I. ◀

Material de uso interno Mateu-Semitiel 98


CAPÍTULO 3. DETERMINANTES

Lo obtenido en el ejemplo anterior no es casual ya que se verifica para cualquier matriz cuadrada:

Teorema 3.11. Sea A = [aij ] una matriz cuadrada de orden n. Entonces

A Adj(A) = |A| I.

Demostración. Sea D = [dij ] la matriz producto de A por su adjunta:


  
a11 a12 ... a1n C11 C21 ... Cn1
 a21 a22 ... a2n   C12 C22 ... Cn2 
  
D = A Adj(A) =  .. .. ..   .. .. .. .
 . . ... .  . . ... . 
an1 an2 ... ann C1n C2n ... Cnn

Por definición de producto de matrices:

dij = ai1 Cj1 + ai2 Cj2 + ... + ain Cjn . (3.4)

Si i = j la suma en (3.4) es |A| (desarrollado por el i-ésimo renglón) y si i ̸= j, por Lema 3.1, la
suma en (3.4) es igual a 0, es decir

|A| si i = j
dij = ,
0 si i ̸= j

luego  
|A| 0 ... 0
 0 |A| ... 0 
 
D = A Adj(A) =  .. .. ..  = |A| I.
 . . ... . 
0 0 ... |A|

El teorema anterior nos permite probar el siguiente importante resultado:

1
Teorema 3.12. Si A es una matriz invertible entonces A−1 = Adj(A).
|A|

Demostración. De acuerdo al teorema anterior:

AAdj(A) = |A| I.

Premultiplicando por A−1 ,


Adj(A) = |A| A−1 .
Dado que A es invertible, |A| ̸= 0 (Corolario 3.5). Por lo tanto:
1
A−1 = Adj(A).
|A|

Material de uso interno Mateu-Semitiel 99


CAPÍTULO 3. DETERMINANTES

 
2 −3 1
Ejemplo 3.18. Considere la matriz A =  4 0 −2  del Ejemplo 3.16. Su adjunta es
3 −1 −3
 
−2 −10 6
Adj(A) =  6 −9 8  .
−4 −7 12
Dado que |A| = −26 ̸= 0, A es invertible. Su inversa es:
   
−2 −10 6 1/13 5/13 −3/13
1 1  6 −9 8  =  −3/13
A−1 = Adj(A) = 9/26 −4/13  . ◀
|A| −26
−4 −7 12 2/13 7/26 −6/13

Nota: Para obtener la matriz Adj(A) se requiere calcular n2 cofactores, es decir n2 determinantes de
(n − 1) × (n − 1). Por ejemplo, si n = 10 hay que hallar 100 determinantes de orden 9 × 9 y esto lleva al
cálculo de 8100 determinantes de 8 × 8, y ası́ siguiendo. Debido a esta cantidad de cómputos casi no se
usa el Teorema 3.12 para el cálculo de A−1 , la reducción de la matriz aumentada [A : I] sigue siendo
el método a elegir. Sin embargo, el teorema es muy útil para demostrar propiedades de las inversas.
También para comprobar una fórmula para la solución de un sistema lineal cuadrado.

El siguiente teorema, denominado Regla de Cramer, es uno de los resultados más conocidos en la
historia de la Matemática. Durante muchos años fue fundamental en la enseñanza del Álgebra y de
la teorı́a de ecuaciones. Aunque se usa muy poco en la actualidad, debido al gran número de cálculos
requeridos, sigue siendo un resultado muy importante a los fines teóricos.

Teorema 3.13 (La regla de Cramer). Sea A una matriz cuadrada de orden n con deter-
minante distinto de cero. Entonces la única solución del sistema lineal Ax = b está dada
por
|A1 | |A2 | |An |
x1 = , x2 = , ... , xn =
|A| |A| |A|
donde Ai es la matriz que se obtiene al sustituir
 la i-ésima columna
 de A por el vector b. Es
decir, si en términos de sus columnas es A = a1 a2 ... an entonces
     
A1 = b a2 ... an , A2 = a1 b ... an , ... , An = a1 a2 ... b .

Demostración. Como |A| ̸= 0 la matriz A es invertible. Por consiguiente Ax = b tiene la solución


1
única: x = A−1 b. Por Teorema 3.12, A−1 = Adj(A). Ası́:
|A|
 n 
X
 Cj1 bj 
    j=1 
 
C11 C21 ... Cn1 b1  .. 
 .. ..   ..   
   .
..
 .   n . 
1 
. ... .    X 
x = A−1 b =
1
Adj(A) b =  C1i C2i ... Cni   bi  = 1   Cji bj 
.
|A| |A| 
 ..
 
..   ..  |A|  
 .
..  j=1 
. ... .  .   .. 
 
C1n C2n ... Cnn bn  n . 
 X 
 C b 
jn j
j=1

Material de uso interno Mateu-Semitiel 100


CAPÍTULO 3. DETERMINANTES

Dado que las matrices A y Ai difieren solo en la i-ésima columna, los cofactores correspondientes
a esta columna en la matriz A, C1i , C2i ,..., Cni , son iguales a los cofactores de la i-ésima columna en
la matriz Ai . Por lo tanto, desarrollado por la i-ésima columna, es:
X
n X
n
|Ai | = bj Cji = Cji bj .
j=1 j=1

Ası́, el vector solución es:  


|A1 |
 .. 
 . 
1  
 |Ai |  ,
x=
|A|  . 


 .. 
|An |
|A1 | |A2 | |An |
y en consecuencia la única solución del sistema está dada por x1 = , x2 = ,..., xn = .
|A| |A| |A|

 2x − 3y + z = 1
Ejemplo 3.19. Sea el sistema lineal 4x − 2z = 2 .

3x − y − 3z = 0
 
2 −3 1
La matriz de coeficientes del sistema es A =  4 0 −2  y como |A| = −26 ̸= 0, el sistema
3 −1 −3
puede resolverse mediante la regla de Cramer. Se pueden verificar los siguientes resultados:

1 −3 1 2 1 1 2 −3 1
|A1 | = 2 0 −2 = −22, |A2 | = 4 2 −2 = −12 y |A3 | = 4 0 2 = −6.
0 −1 −3 3 0 −3 3 −1 0

Entonces la única solución del sistema es


|A1 | −22 11 |A2 | −12 6 |A3 | −6 3
x= = = , y= = = , z= = = .◀
|A| −26 13 |A| −26 13 |A| −26 13

Ejercicios 3.3

1. Utilice la matriz adjunta para calcular la inversa, si existe, de cada una de las siguientes matrices:
   
2 3 1 −2
a) A = b) B =
1 −9 −2 4
   
1 1 1 2 1 −1
c) C =  −2 −1 1  d) D =  0 1 −1 
1 4 0 1 −1 2

2. Cuando sea posible, aplique la regla de Cramer para resolver los siguientes sistemas de ecuaciones
lineales:

Material de uso interno Mateu-Semitiel 101


CAPÍTULO 3. DETERMINANTES


2x − 9y = 6
a)
x + 3y = 7

 2x1 −x2 = 0
b) x1 +x2 −x3 = 1

3x1 −4x2 +3x3 = 2

 2x −y +3z = 1
c) x −y +2z = 0

3x −2y +5z = −3

 x1 +x2 +x3 = −5
d) x1 −x2 +x3 = −1

2x1 −x2 +3x3 = −3
3. Aplique la regla de Cramer para hallar la solución del sistema lineal:

cos θ x − sen θ y = a
sen θ x + cos θ y = b

4. Detemine el o los valores de a de manera que el sistema lineal



 ax1 +x2 −x3 = 1
2x2 +2x3 = −1

ax1 +3x2 −x3 = 0
se pueda resolver mediante la regla de Cramer.
5. Sea A una matriz cuadrada de orden n ≥ 2. Pruebe los siguientes resutados:
a) A es invertible si y solo si Adj(A) es invertible.
b) |Adj(A)| = |A|n−1 .
6. Scilab. Sea A una matriz cuadrada. Para calcular el determinante de A se usa el comando
“det(A)” una vez ingresada la matriz A.
Sean las matrices
   
0,1 −1 2,3 3 0 −1 2 3
 1 9 −1 0,2   1 9 −1 0,2 
A=
 1,1
 , B= 
8 1,3 3,2   1,1 8 0,5 3,2 
0 5 −1 9 0 5 −1 9
 1   
3 2 −41
0 1 1 −1 0
 1 −1 1 1   3 2 0,2 0,1 
C=
 1
3  , D =
 

2 0 −43
0 5 0,1 2 2 
1 −2 2 −1
1
1 −0,1 2 −0,5
a) Calcule los determinantes de cada una de las matrices dadas. ¿Cuáles de esas matrices son
invertibles?.
b) Calcule: A2 , −3AB t , |AB| − |CD|, |ABC| y D−2 .
 
0
 −1 
c) Aplique la regla de Cramer para resolver el sistema lineal Ax = b siendo b =  
 0,2 .
0,1

Material de uso interno Mateu-Semitiel 102


Capı́tulo 4

ESPACIOS VECTORIALES

4.1. Espacios vectoriales


En la sección 2.1, se definió el conjunto Rn , las operaciones suma y multiplicación por escalares y en
el Teorema 2.1 se establecieron las propiedades fundamentales de dichas operaciones. Estas mismas
propiedades se cumplen en muchos otros contextos. Por ejemplo la suma y la multiplicación por
escalares en el conjunto de las matrices de m × n (véase Teorema 2.2).
Se generalizará esta situación para definir un nuevo concepto. Cualquier conjunto de objetos jun-
tamente con dos operaciones que satisfacen las mismas propiedades que la suma y multiplicación por
escalares definidas en Rn se denomina espacio vectorial.
Los espacios vectoriales son el corazón del Álgebra Lineal y en este concepto se han sintetizado
varias aspectos fundamentales de la Matemática y otras disciplinas. La idea de dotar a ciertos conjuntos
con un tipo particular de estructura hizo posible la creación de esta noción matemática.

Material de uso interno Mateu-Semitiel 103


CAPÍTULO 4. ESPACIOS VECTORIALES

Definición (Espacio vectorial real). Sea V un conjunto y dos operaciones llamadas suma
y multiplicación por escalar. La suma es una regla que asocia a cada par de elementos u, v
de V un objeto, u + v, llamado suma de u y v. La multiplicación por un escalar es una regla
que asocia a cada par compuesto por un escalar real k y un elemento u de V un objeto, ku,
llamado producto de k por u.
El conjunto V juntamente con las dos operaciones conforman una estructura matemática
denominada espacio vectorial real si se verifican las diez propiedades siguientes llamadas
axiomas de un espacio vectorial:

(S1 ) u + v está en V, para todo u, v en V.

(S2 ) u + v = v + u, para todo u, v en V.

(S3 ) (u + v) + w = u + (v + w), para todo u, v, w en V.

(S4 ) Existe un elemento distinguido, 0, en V tal que para cualquier u en V,

u + 0 = 0 + u = u.

(S5 ) Para cada u en V, existe un elemento −u en V tal que

u + (−u) = (−u) + u = 0.

(M1 ) au está en V, para todo u en V y todo a en R.

(M2 ) a (u + v) = au + av, para todo u, v en V y todo a en R.

(M3 ) (a + b) u = au + bu, para todo u en V y todo a, b en R.

(M4 ) a (bu) = (ab) u, para todo u en V y todo a, b en R.

(M5 ) 1u = u, para todo u en V.

A los elementos del conjunto V se los llama vectores. El elemento 0 se denomina vector cero, o
simplemente el cero del espacio vectorial, y −u se llama vector opuesto de u. Se puede demostrar
que en un espacio vectorial hay un único 0 y que cada vector u de V, tiene un único opuesto (véase
Ejercicio 4).
(S1 ) y (M1 ) son las propiedades de cerradura para la suma y multiplicación por escalares,
respectivamente. También se dice que el conjunto V es cerrado bajo dichas operaciones.
(S2 ) y (S3 ) son las propiedades conmutativa y asociativa de la suma, respectivamente.
(M2 ) y (M3 ) son propiedades distributivas.
Debe observarse que en un espacio vectorial el conjunto de vectores V es no vacı́o ya que de acuerdo
a (S4 ) V debe contener, al menos, un elemento (el vector cero).
Si en la definición anterior los escalares son números complejos se tiene la definición de espacio
vectorial complejo. En este texto todos los escalares que se utilizan son números reales, por lo tanto
en lo que sigue un espacio vectorial será siempre un espacio vectorial real.
Debe tenerse presente que en la definición no se especifica la naturaleza de los llamados vectores
ni la de las operaciones. Cualquier clase de objetos puede “servir” como vector. Para comprobar que

Material de uso interno Mateu-Semitiel 104


CAPÍTULO 4. ESPACIOS VECTORIALES

un determinado conjunto V de objetos con dos operaciones, una entre elementos del conjunto (suma)
y otra entre un escalar y un elemento del conjunto (multiplicación por escalar) es un espacio vectorial,
lo único que se requiere es que se satisfagan los 10 axiomas.
Para la verificación de estos axiomas puede ser conveniente seguir el siguiente orden:
1. Verificar que ambas operaciones son cerradas en V: propiedades de cerradura (S1 ) y (M1 ).

2. Determinar la existencia de un elemento que actúe como cero: axioma (S4 ).

3. Verificar la existencia de un elemento opuesto para cada elemento de V: axioma (S5 ).

4. Comprobar la vigencia de los restantes axiomas.

Los ejemplos que siguen dan una idea de la diversidad de espacios vectoriales posibles. Los dos
primeros ejemplos son los modelos usados para tomar como axiomas, en la definición de espacio
vectorial, las propiedades que verifican las operaciones habituales de suma y multiplicación por un
escalar en dichos conjuntos.

Ejemplo 4.1. El espacio vectorial Rn (Casos especiales: R, R2 , R3 ).


El conjunto V = Rn con las operaciones habituales o estándar de suma y multiplicación por escalar
es un espacio vectorial. En efecto:
1. La suma de vectores y la multiplicación por escalar habituales en Rn son, por definición, opera-
ciones cerradas en Rn (véase la sección 2.1). Por lo tanto se satisfacen (S1 ) y (M1 ).

2. El vector cero de Rn es el cero de este espacio vectorial. Luego, se satisface (S4 ).

3. Para cada u de Rn , el vector −u es su vector opuesto. Por lo tanto se satisface (S5 ).

4. Todos los restantes axiomas se cumplen de acuerdo al Teorema 2.1.


Este espacio vectorial es el denominado espacio vectorial Rn o simplemente el espacio Rn . Debe
notarse que las operaciones estándar de suma y multiplicación por escalar en el espacio vectorial R,
son las habituales suma y multiplicación entre números reales.◀

Ejemplo 4.2. El espacio vectorial Mmn .


El conjunto V = Mmn de todas las matrices reales de m × n, con las operaciones estándar de suma y
multiplicación por escalar es un espacio vectorial. En efecto:

1. La suma de matrices y la multiplicación por escalar habituales en Mmn son, por definición,
operaciones cerradas en Mmn (véase la sección 2.2). Por lo tanto se satisfacen (S1 ) y (M1 ).

2. La matriz cero, Om×n , es el cero de este espacio vectorial. Luego, se satisface (S4 ).

3. Para cada matriz A de Mmn , la matriz −A es su matriz opuesta. Por lo tanto se satisface (S5 ).

4. Todos los restantes axiomas se cumplen de acuerdo al Teorema 2.2.

Este espacio vectorial es el denominado espacio vectorial Mmn o simplemente el espacio Mmn .
En este contexto, un “vector” es una matriz de m × n. En particular si m = n se denotará
simplemente Mn .◀

Material de uso interno Mateu-Semitiel 105


CAPÍTULO 4. ESPACIOS VECTORIALES

Ejemplo 4.3. El espacio vectorial Pn .


El conjunto V = Pn formado por el polinomio cero y todos los polinomios a coeficientes reales de grado
menor o igual a n, con las operaciones estándar de suma de polinomios y multiplicación por escalar
es un espacio vectorial.
Un polinomio genérico en Pn es de la forma

p = a0 + a1 x + ... + an−1 xn−1 + an xn ,

donde a0 , a1 , ..., an son números reales.


Las operaciones estándar de suma y multiplicación por escalar están definidas por:
Si p = a0 + a1 x + ... + an−1 xn−1 + an xn y q = b0 + b1 x + ... + bn−1 xn−1 + bn xn , entonces:
La suma de p y q es

p + q = (a0 + b0 ) + (a1 + b1 ) x + ... + (an−1 + bn−1 ) xn−1 + (an + bn ) xn .

El producto de un escalar c por el polinomio p es

cp = (ca0 ) + (ca1 ) x + ... + (can−1 ) xn−1 + (can ) xn

1. La suma de dos polinomios de Pn es un polinomio de Pn ya que p + q es de la forma c0 + c1 x +


c2 x2 + ... + cn xn donde ci = ai + bi es un número real, para todo i = 0, 1, ..., n.
También cp es un polinomio de Pn pues cp es de la forma d0 + d1 x + d2 x2 + ... + dn xn donde
di = cai es un número real, para todo i = 0, 1, ..., n.
Por lo tanto se verifican (S1 ) y (M1 ).

2. El polinomio cero, 0 = 0 + 0x + ... + 0xn es tal que p + 0 = 0 + p para todo p ∈ Pn . En efecto,


p + 0 = (a0 + 0) + (a1 + 0) x + ... + (an + 0) xn = a0 + a1 x + ... + an xn = p. Similarmente,
0 + p = p. Luego, se satisface el axioma (S4 ).

3. Es fácilmente comprobable que para cada polinomio p = a0 + a1 x + ... + an xn en Pn el polinomio


−p = (−a0 ) + (−a1 ) x + ... + (−an ) xn es un polinomio en Pn tal que p + (−p) = 0 = (−p) + p.
Por lo tanto se verifica el axioma (S5 ).

4. Probaremos el axioma (M3 ), dejando como ejercicio la prueba de los cinco restantes axiomas.
Sean a, b ∈ R y p = a0 + a1 x + ... + an xn un polinomio en Pn . Debe probarse que es válida la
siguiente igualdad: (a + b) p = ap + bp. En efecto:

(a + b) p = (a + b) (a0 + a1 x + ... + an xn ) = [Def. multiplicación por escalar]

= ((a + b) a0 ) + ((a + b) a1 ) x + ... + ((a + b) an ) xn = [Prop. distributiva en R]

= (aa0 + ba0 ) + (aa1 + ba1 ) x + ... + (aan + ban ) xn = [Def. suma de polinomios]

= (aa0 + aa1 x + ... + aan xn ) + (ba0 + ba1 x + ... + ban xn ) = [Def. multiplicación por escalar]

= a (a0 + a1 x + ... + an xn ) + b (a0 + a1 x + ... + an xn ) =


= ap + bp.

Este espacio vectorial es el denominado espacio vectorial Pn o simplemente el espacio Pn .


En este contexto, un polinomio p = a0 + a1 x + ... + an xn es un vector de este espacio vectorial.◀

Material de uso interno Mateu-Semitiel 106


CAPÍTULO 4. ESPACIOS VECTORIALES

Actividad 4.1. Demuestre los axiomas (S2 ), (S3 ), (M2 ), (M4 ) y (M5 ) del Ejemplo 4.3.

Ejemplo 4.4. El espacio vectorial P.


El conjunto V = P formado por todos los polinomios a coeficientes reales, con las operaciones estándar
de suma de polinomios y multiplicación por escalar, es un espacio vectorial.
Las operaciones estándar de suma y multiplicación por escalar están definidas de la siguiente
manera: si p = a0 + a1 x + ... + an xn y q = b0 + b1 x + ... + bm xm son dos polinomios de P entonces la
suma de p y q es:

p + q = (a0 + b0 ) + (a1 + b1 ) x + ... + (an + bn ) xn si m = n,


p + q = p′ + q si m ̸= n,
donde p′ = a0 + a1 x + ... + an xn + ... + 0xm−1 + 0xm , suponiendo m > n. El producto del escalar c
por el polinomio p es:
cp = (ca0 ) + (ca1 ) x + ... + (can ) xn .
Este espacio vectorial es el denominado espacio vectorial P o simplemente el espacio P. ◀

Ejemplo 4.5. El espacio vectorial F (D).


El conjunto V = F (D) de todas las funciones reales definidas en D donde D es un subconjunto de R
(por ejemplo, un intervalo [a, b] o el propio R) con las operaciones estándar de suma de funciones y
multiplicación por escalar, es un espacio vectorial.
Las operaciones estándar de suma y multiplicación por escalar están definidas del siguiente modo:
si f y g son funciones de F (D):
La suma de f y g es la función f + g tal que

(f + g) (x) = f (x) + g(x), para todo x ∈ D.

El producto de un escalar c por la función f es la función cf tal que

(cf ) (x) = cf (x), para todo x ∈ D.

1. Las funciones f + g y cf son funciones reales ya que f (x) + g(x) y cf (x) son números reales.
Además como f y g están definidas para todo x ∈ D, también f + g y cf están definidas en
D. Ası́, ambas operaciones son cerradas en F (D) y por lo tanto se verifican los axiomas (S1 ) y
(M1 ).

2. La función constante cero, O, cuya ley es O(x) = 0 para todo x ∈ D, es el vector cero de este
espacio vectorial. Puede verificarse fácilmente que f + O = O + f = f para todo f en F (D). En
efecto para todo x ∈ D,

(f + O) (x) = f (x) + O(x) = f (x) + 0 = f (x),

y similarmente
(O + f ) (x) = f (x).
Por lo tanto, se satisface el axioma (S4 ).

Material de uso interno Mateu-Semitiel 107


CAPÍTULO 4. ESPACIOS VECTORIALES

3. Es fácilmente comprobable que si f es una función en F (D) entonces la función −f cuya ley es

(−f ) (x) = −f (x),

es una función en F (D) tal que f + (−f ) = (−f ) + f = O. Luego, se satisface el axioma (S5 ).
La verificación de los restantes axiomas se deja como ejercicio.
Este espacio vectorial es el denominado espacio vectorial F(D) o simplemente el espacio F(D).
En este contexto, una función real definida en D es un vector de este espacio vectorial.◀

Ejemplo 4.6. El espacio vectorial cero {0}.


Sea V = {α}, un conjunto que consta del único objeto α. Las únicas operaciones suma y multiplicación
por escalar que se pueden dar de modo que sean cerradas en V son las definidas por:

α + α = α,

cα = α, para todo c ∈ R.
Claramente α es el vector cero y el opuesto de α es el mismo α. Los demás axiomas se verifican de
manera trivial. Por ejemplo: para probar el axioma (M4 ), dado que cα = α para todo c, se tiene que

a (bα) = aα = α,

y también
(ab) α = α.
Luego, a (bα) = (ab) α para todo a y b en R.
Los espacios vectoriales unitarios difieren solo en el único objeto que constituye el conjunto V. Este
objeto es trivialmente el cero de dicho espacio. Por esta razón se denomina espacio vectorial cero a
todo espacio vectorial unitario y a su único elemento se lo simboliza 0.◀

Ejemplo 4.7. El conjunto formado por el polinomio cero y todos los polinomios a coeficientes reales
de grado 2, con las operaciones estándar de suma de polinomios y multiplicación por escalar, no es un
espacio vectorial.
En efecto, la suma de dos polinomios de grado 2 no es necesariamente un polinomio de grado 2.
Por ejemplo: si p = 2 + 3x − 5x2 y q = x + 5x2 entonces p + q = 2 + 4x que no es un polinomio de
grado 2. Por lo tanto no se satisface el axioma de cerradura de la suma.◀

Ejemplo 4.8. El conjunto R2 con la suma habitual pero con la multiplicación por escalar definida
por
c (x, y) = (cx, 0) ,
no es un espacio vectorial.
Si bien se satisfacen los primeros seis axiomas: (S1 ), (S2 ), (S3 ), (S4 ), (S5 ) y (M1 ), ya que la suma
es la habitual en R2 y la multiplicación por escalar ası́ definida es cerrada, es fácilmente comprobable
que no se satisface el axioma (M5 ) ya que

1 (x, y) = (1x, 0) = (x, 0) ,

y por lo tanto si y ̸= 0 resulta 1 (x, y) ̸= (x, y).◀

Material de uso interno Mateu-Semitiel 108


CAPÍTULO 4. ESPACIOS VECTORIALES

Nota: Es importante observar, como la definición de espacio vectorial establece, que éste se compone
de un conjunto V de “vectores”, un conjunto de escalares y dos operaciones con ciertas propiedades
especiales.
Un mismo conjunto V puede ser el conjunto de objetos de dos espacios vectoriales distintos, es
decir, bajo operaciones diferentes. Cuando no hay posibilidad de confusión, en todo lo que sigue, se
denotará simplemente con V a un espacio vectorial arbitrario.

De los axiomas de la definición de espacio vectorial, se deducen las siguientes propiedades:

Teorema 4.1. Sean V un espacio vectorial, u un vector de V y c un escalar. Entonces:

1. 0u = 0 3. (−1)u = −u

2. c0 = 0 4. Si cu = 0 entonces c = 0 ó u = 0

Demostración. Se probará la propiedad 1. y quedará como ejercicio la prueba de las demás propiedades.
Sea u un vector de V. Como 0 + 0 = 0 entonces

0u = (0 + 0) u, (4.1)

y por el axioma (M3 )

(0 + 0) u = 0u + 0u. (4.2)

Luego, de (4.1) y (4.2) se tiene:

0u + 0u = 0u.

Por el axioma (S5 ), el vector 0u tiene un opuesto, −0u. Al sumar este vector a los dos miembros
de la igualdad anterior se obtiene:

(0u + 0u) + (−0u) = 0u + (−0u) ,

o bien por el axioma (S3 ):

0u + (0u + (−0u)) = 0u + (−0u) ,

por el axioma (S5 ):

0u + 0 = 0,

y por el axioma (S4 )

0u = 0.

Nota: Cabe la siguiente importante observación: En un espacio vectorial real el conjunto V consta de
un número infinito de vectores o bien de un único vector (véase Ejercicio 8).

Material de uso interno Mateu-Semitiel 109


CAPÍTULO 4. ESPACIOS VECTORIALES

Ejercicios 4.1

1. Demuestre lo enunciado en el Ejemplo 4.4.


2. Demuestre los restantes axiomas del Ejemplo 4.5.
3. Determine si el conjunto dado V con las operaciones indicadas es un espacio vectorial.

a) V es el conjunto formado por todos los vectores de R3 que tienen la tercera componente
cero (plano xy) con las operaciones habituales de suma y multiplicación por escalar en R3 .
b) V es el conjunto de las matrices de 2 × 2 invertibles, con las operaciones habituales de suma
y multiplicación por escalar definidas en M2 .
c) V es el conjunto de todos los polinomios a coeficientes reales con términos constantes no
negativos, con las operaciones de suma y multiplicación por escalar habituales en P.
d ) V es el conjunto R2 , con la suma habitual pero con la mutiplicación por escalar definida
por c (x, y) = (0, 0).
e) V es el conjunto de todas las funciones reales derivables en R, con las operaciones de suma
y multiplicación por escalar habituales en F (R).
4. Demuestre que en un espacio vectorial V, hay un único vector cero y para cada vector u de V,
hay un único opuesto.
5. Demuestre las restantes propiedades del Teorema 4.1.
6. Sea V un espacio vectorial y u, v y w vectores de V. Demuestre que si u + w = v + w entonces
u = v.
7. Sea V un espacio vectorial, u y v vectores de V y a un escalar. Demuestre que si au = av
entonces a = 0, o bien u = v.
8. Demuestre que el único espacio vectorial que tiene un número finito de vectores es el espacio
vectorial cero. Es decir, todo espacio vectorial (con escalares reales) contiene infinitos vectores o
solo el vector cero.

4.2. Subespacios vectoriales


Puede verificarse (Ejercicio 3.a) de la sección anterior) que el conjunto formado por todos los vectores
de R3 que tienen la tercera componente cero (plano xy) con la suma y multiplicación por escalar
habituales, satisface los diez axiomas de un espacio vectorial. Ası́ el plano xy es un subconjunto de R3
que es, a su vez, un espacio vectorial respecto a las mismas operaciones del espacio vectorial R3 . Se
dirá que el plano xy es un subespacio del espacio R3 .
Se tiene entonces la siguiente definición:

Definición (Subespacio vectorial). Sea V un espacio vectorial. Un subespacio vectorial, o


simplemente un subespacio de V es un subconjunto no vacı́o, W, de V que, con las mismas
operaciones de suma y multiplicación por escalar definidas en V es, también, un espacio
vectorial.

Material de uso interno Mateu-Semitiel 110


CAPÍTULO 4. ESPACIOS VECTORIALES

Ejemplo 4.9. Claramente Pn es un subespacio del espacio P ya que Pn está contenido en P y es un


espacio vectorial con las operaciones habituales de suma de polinomios y multiplicación por escalar.◀

Para probar que un conjunto W con dos operaciones, suma y multiplicación por escalar, es un espacio
vectorial, se deben verificar los 10 axiomas de la definición. Sin embargo, si W es parte de un conjunto
mayor V del que ya se sabe que es un espacio vectorial con esas mismas operaciones, entonces no es
necesario verificar ciertos axiomas para W porque se “heredan” de V. Por ejemplo no es necesario
verificar que u + v = v + u (axioma (S2 )) en W porque esto se cumple para todos los vectores en V y,
en consecuencia, para todos los vectores en W. Es fácil ver que los otros axiomas “heredados” por W
son: (S3 ), (M2 ), (M3 ), (M4 ) y (M5 ). Por lo tanto para demostrar que un conjunto W es un subespacio
de un espacio vectorial V solo es necesario verificar los axiomas (S1 ), (S4 ), (S5 ) y (M1 ), que son las
dos cerraduras, la existencia de un vector cero y la de los opuestos. El siguiente teorema hace ver que,
más aún, se puede omitir la verificación de los axiomas (S4 ) y (S5 ).

Teorema 4.2 (Caracterización de un subespacio). Si W es un subconjunto no vacı́o de un


espacio vectorial V, entonces W es un subespacio de V si y solo si W es cerrado bajo la suma
y bajo la multiplicación por escalar definidas en V. Es decir:

(a) Si u y v son vectores de W, entonces u + v está en W.

(b) Si u es un vector de W y k es un número real, entonces ku está en W.

Demostración. Si W es un subespacio de V entonces, por definición de subespacio, se satisfacen todos


los axiomas de un espacio vectorial; en particular se cumplen los axiomas (S1 ) y (M1 ), que son las
condiciones (a) y (b), respectivamente.
Recı́procamente: debe probarse que W es un subespacio de V sabiendo que se cumplen las condi-
ciones (a) y (b). Para ello, debe demostrarse que W satisface los 10 axiomas de espacio vectorial con
las operaciones suma y multiplicación por escalar definidas en V.
Los axiomas (S1 ) y (M1 ) se satisfacen por hipótesis ya que son las condiciones (a) y (b), respectiva-
mente. Los axiomas (S2 ), (S3 ), (M2 ), (M3 ), (M4 ) y (M5 ) se satisfacen inmediatamente en W dado que
“se heredan” de V. Por lo tanto, para completar la demostración basta con verificar que los axiomas
(S4 ) y (S5 ) se satisfacen en W.
Sea u un vector cualquiera en W (W es no vacı́o). Por la condición (b), tomando k = 0, el vector
0u está en W. Dado que u está en V y V es un espacio vectorial, por la propiedad 1 del Teorema 4.1,
resulta 0u = 0 (el cero de V). Luego, el 0 de V es un vector de W y como v + 0 = v = 0 + v para
todo v en W, resulta que el 0 de V es el vector cero de W. Por lo tanto el axioma (S4 ) se verifica en
W.
Dado cualquier vector u en W, por la condición (b), (−1) u está en W. Dado que u está en V y V
es un espacio vectorial, por la propiedad 3 del Teorema 4.1, (−1) u = −u. Luego, para todo u en W,
−u está en W y como u + (−u) = 0 = (−u) + u, resulta que −u es el opuesto de u en W. De esta
forma, se ha probado que se satiface el axioma (S5 ) en W.

La Figura 4.1 representa lo que establece el teorema de caracterización de un subespacio:

Material de uso interno Mateu-Semitiel 111


CAPÍTULO 4. ESPACIOS VECTORIALES

Figura 4.1: W es un subespacio de V

Un resultado inmediato de la definición de subespacio vectorial es el siguiente:

Todo subespacio de un espacio vectorial V contiene al vector cero de V.

En efecto, si W es un subespacio de V entonces W es no vacı́o y es cerrado bajo la multiplicación por


escalares, por lo tanto (como se probó en el teorema anterior), el vector cero de V está en W.
Este hecho con frecuencia facilita ver que un cierto subconjunto de V no es un subespacio. Es decir,
un subconjunto de un espacio vectorial V que no contiene al vector cero no es un subespacio.
Por ejemplo, el subconjunto W de R3 formado por todos los puntos (x, y, z) de R3 que satisfacen
la ecuación (un plano en el espacio):

x + 2y − 3z + 1 = 0,

no es un subespacio de R3 . En efecto, el vector cero de R3 , 0 = (0, 0, 0), no satisface la ecuación.


Es claro que la existencia del vector cero en el conjunto W no es condición suficiente para que W
sea un subespacio de V: ¡deben verificarse las dos cerraduras en W !
Sea, por ejemplo, el subconjunto W de R2 formado por todos los puntos (x, y) de R2 tales que

x2 − y 2 = 0.

Es fácil ver que el vector cero 0 = (0, 0) de R2 satisface la ecuación, por lo que 0 está en W . Pero
W no es cerrado bajo la suma. Si se consideran los elementos u = (1, −1) y v = (1, 1) de W , su suma
u + v = (2, 0) no es un elemento de W . Luego, W no es un subespacio de R2 .

Ejemplo 4.10. Subespacios triviales y subespacios propios


En todo espacio vectorial V el subconjunto unitario {0}, es un subespacio de V, ya que en él se verifican
las dos cerraduras (a) y (b) del Teorema 4.2: 0 + 0 = 0 y k0 = 0 para todo k real.

Material de uso interno Mateu-Semitiel 112


CAPÍTULO 4. ESPACIOS VECTORIALES

Es inmediato, por definición de subespacio, que el propio V es un subespacio de sı́ mismo.


Ası́, todo espacio vectorial V contiene los subespacios {0} y V (que coinciden si V = {0}). Dichos
subespacios son los llamados subespacios triviales de V.
Si V ̸= {0}, además de los subespacios triviales, hay otros subespacios más interesantes que son
llamados subespacios propios de V.◀

Nota: A menos que se indiquen otras operaciones, cuando se mencionen a los espacios vectoriales
Rn , P, Pn , Mmn o F(D) se entenderá que son los espacios vectoriales con respecto a las operaciones
habituales, como se definieron en la Sección 4.1.

Ejemplo 4.11. Todo plano que contiene al origen es un subespacio de R3 .


Sea W el conjunto de los puntos (x, y, z) de R3 que satisfacen la ecuación

ax + by + cz = 0,

donde a, b y c son constantes reales no todas cero.


Claramente W es un subconjunto no vacı́o de R3 dado que por ejemplo 0 = (0, 0, 0) está en W.
Por otro lado, sea un escalar k y dos puntos u = (x1 , y1 , z1 ) y v = (x2 , y2 , z2 ) del conjunto W, es
decir puntos que satisfacen la ecuación ax + by + cz = 0. Para demostrar que W es cerrado bajo la
suma, se debe probar que u + v = (x1 + x2 , y1 + y2 , z1 + z2 ) está en W. Dado que:

a (x1 + x2 ) + b (y1 + y2 ) + c (z1 + z2 ) = ax1 + ax2 + by1 + by2 + cz1 + cz2 =


= (ax1 + by1 + cz1 ) + (ax2 + by2 + cz2 ) =
= 0 + 0 = 0,

entonces u + v es un punto de W puesto que satisface la ecuación del plano.


De manera similar para probar que W es cerrado bajo la multiplicación por escalares, debe demos-
trarse que ku = (kx1 , ky1 , kz1 ) está en W. Como:

a (kx1 ) + b (ky1 ) + c (kz1 ) = k (ax1 ) + k (by1 ) + k (cz1 ) = k (ax1 + by1 + cz1 ) = k (0) = 0,

entonces ku satisface la ecuación del plano y por lo tanto es un punto de W.


Ası́, W es cerrado bajo la suma y la multiplicación por escalares y por lo tanto es un subespacio
de R3 .◀

Actividad 4.2. Pruebe que toda recta en el espacio que contiene al origen de coordenadas es un
subespacio de R3 .

Actividad 4.3. Pruebe que toda recta en el plano que contiene al origen de coordenadas es un
subespacio de R2 .

Material de uso interno Mateu-Semitiel 113


CAPÍTULO 4. ESPACIOS VECTORIALES

Ejemplo 4.12. El conjunto solución de un sistema lineal homogéneo de m ecuaciones con


n incógnitas es un subespacio de Rn .
Se facilitará la demostración utilizando la forma matricial del sistema, Ax = 0, donde A es la matriz
de m × n de coeficientes y x es el vector de incógnitas.
Claramente, el conjunto solución de Ax = 0 es no vacı́o ya que el vector 0 de Rn es solución del
sistema. Por otro lado, sean x1 y x2 soluciones de Ax = 0 y c un escalar, es decir Ax1 = 0 y Ax2 = 0.
Entonces:
A (x1 + x2 ) = Ax1 + Ax2 = 0 + 0 = 0,
lo que prueba que x1 + x2 es también solución del sistema. Además:

A (cx1 ) = c (Ax1 ) = c0 = 0,

por lo que cx1 es solución del sistema. Se ha probado que el conjunto solución de Ax = 0 es cerrado
bajo la suma y la multiplicación por escalares y por lo tanto es un subespacio de Rn .◀

Actividad 4.4. ¿Es el conjunto de soluciones de un sistema lineal consistente de m ecuaciones con n
incógnitas, Ax = b con b ̸= 0, un subespacio de Rn ?

Ejemplo 4.13. Sea V un espacio vectorial y u un vector fijo de V. Se mostrará que el conjunto W
de todos los múltiplos escalares de u:

W = {cu : c ∈ R}

es un subespacio de V.
En efecto, W no es vacı́o puesto que si c = 0 entonces 0u = 0 es un elemento de W.
Por otro lado, sea k un escalar y dos vectores v y w del conjunto W es decir v = au y w = bu
con a y b en R. Para demostrar que W es cerrado bajo la suma, se debe probar que v + w está en W.
Dado que:
v + w = au + bu = (a + b) u,
entonces v + w es un múltiplo escalar de u. De manera similar para probar que W es cerrado bajo la
multiplicación por escalar, debe demostrarse que kv está en W. Como:

kv = k (au) = (ka) u,

entonces kv es un múltiplo escalar de u. Ası́, W es cerrado bajo la suma y la multiplicación por


escalares, por lo cual es un subespacio de V.
Nótese que las rectas en el plano o en el espacio que contienen al origen de coordenadas, constituyen
un caso particular de este ejemplo para V = R2 o R3 , respectivamente. ◀

Ejemplo 4.14. Sea W el conjunto de los polinomios p = a + bx + cx2 de P2 tales que a + 2b = c. Se


mostrará que W es un subespacio de P2 .
Es fácil ver que W es un subconjunto no vacı́o de P2 . Por ejemplo, el polinomio cero de P2 ,
O = 0 + 0x + 0x2 , pertenece a W ya que satisface la condición requerida: 0 + 2(0) = 0. Otros
polinomios de W son, por ejemplo: 2 − 5x − 8x2 y 1 + x2 .

Material de uso interno Mateu-Semitiel 114


CAPÍTULO 4. ESPACIOS VECTORIALES

Por otro lado, sea k un escalar, y dos polinomios p = a1 + b1 x + c1 x2 y q = a2 + b2 x + c2 x2 de


W , es decir polinomios tales que a1 + 2b1 = c1 y a2 + 2b2 = c2 . Para verificar si W es cerrado bajo la
suma, debe analizarse si el polinomio p + q = (a1 + a2 ) + (b1 + b2 ) x + (c1 + c2 ) x2 satisface la condición
requerida. Dado que:

(a1 + a2 ) + 2 (b1 + b2 ) = a1 + a2 + 2b1 + 2b2 = (a1 + 2b1 ) + (a2 + 2b2 ) = c1 + c2 ,

se concluye que p + q es un polinomio de W .


Además, debe verificarse que W es cerrado bajo la multiplicación por escalares. Para ello, se debe
analizar si kp = (ka1 ) + (kb1 ) x + (kc1 ) x2 , es un polinomio de W . Como:

ka1 + 2 (kb1 ) = k (a1 + 2b1 ) = kc1 ,

entonces kp está en W .
Se ha probado que el conjunto W es un subespacio de P2 .◀

  
a −b 0
Ejemplo 4.15. W = : a, b ∈ R es un subespacio de M23 .
b 0 2a
En efecto, la matriz cero O de M23 está en W (a = b = 0) por lo que W es un subconjunto no
vacı́o de M23 . Otras matrices de W son, por ejemplo:
   √ 
2 − 12 0 − 3 −2 0√
y .
1
2 0 4 2 0 −2 3
   
a1 −b1 0 a2 −b2 0
Sean dos matrices A = y B = de W y un número real k.
b1 0 2a1 b2 0 2a2
Entonces:
     
a1 −b1 0 a2 −b2 0 a1 + a2 −b1 − b2 0+0
A+B = + = =
b1 0 2a1 b2 0 2a2 b1 + b2 0+0 2a1 + 2a2
 
a1 + a2 − (b1 + b2 ) 0
= ,
b1 + b2 0 2 (a1 + a2 )

por lo que A + B tiene la forma de las matrices de W.


En cuanto a la multiplicación por escalares,
     
a1 −b1 0 k (a1 ) k (−b1 ) k (0) ka1 − (kb1 ) 0
kA = k = = ,
b1 0 2a1 k (b1 ) k (0) k (2a1 ) kb1 0 2 (ka1 )

y por lo tanto kA es una matriz de W.


Luego, W es cerrado bajo la suma y la multiplicación por escalares por lo cual es un subespacio
de M23 .◀

Ejemplo 4.16. El conjunto C [a, b] formado por todas las funciones reales continuas en el intervalo
cerrado [a, b], es un subespacio de F [a, b].
En efecto, la función constante cero, O, de F [a, b], O(x) = 0 para toda x ∈ [a, b], es una función
continua. Por lo tanto, O es una función de C [a, b].

Material de uso interno Mateu-Semitiel 115


CAPÍTULO 4. ESPACIOS VECTORIALES

Por otro lado, sean f y g funciones de C [a, b] y k un número real. Del Cálculo se sabe que la suma
de funciones continuas en un conjunto es una función continua en dicho conjunto, por lo que f + g
está en C [a, b].
Además, el producto de una constante k por una funnción continua f en un conjunto es una función
continua en dicho conjunto, de lo que se tiene que kf está en C [a, b].
Ası́, C [a, b] es cerrado bajo la suma y la multiplicación por escalares por lo cual es un subespacio
de F [a, b] . ◀

Nota: Como se probó anteriormente, el conjunto



W = (x, y) ∈ R2 : x2 − y 2 = 0

no es un subespacio de R2 . Para ello, se mostró un par de elementos de W cuya suma no está en W .


En general, para probar que un subconjunto W de un espacio vectorial V no es un subespacio de
V basta mostrar una de las siguientes:
que el 0 de V no está en W ,

un par de elementos u y v de W cuya suma u + v no esté en W (no se cumple la cerradura de


W bajo la suma),

un elemento u de W y un escalar k, cuyo producto ku no esté en W (no se cumple la cerradura


de W bajo la multiplicación por escalares).

Los siguientes son ejemplos de subconjuntos de espacios vectoriales que no son subespacios:

Ejemplo 4.17. W = {A ∈ M2 : det(A) = 0} no es un subespacio de M2 .


   
1 −1 2 2
W no es cerrado bajo la suma. En efecto, para las matrices A = yB= de
−2 2 1 1
 
3 1
W es A + B = y det(A + B) = 10 ̸= 0, por lo que A + B no está en W .◀
−1 3


Ejemplo 4.18. W = a + bx + cx2 + dx3 ∈ P3 : d ≥ 0 no es un subespacio de P3 .
No se verifica la cerradura de W bajo la multiplicación por escalares. En efecto, si se considera un
polinomio p con d > 0, por ejemplo, p = 1 + x + 5x3 y un número k < 0, por ejemplo k = −2, entonces
el producto kp = (−2)p = −2 − 2x − 10x3 no está en W puesto que el coeficiente de x3 es negativo.◀

Ejercicios 4.2

1. Determine si el conjunto W es un subespacio del espacio V indicado:

a) W es el conjunto de todos los puntos (x, y) de R2 tal que y = 0; V = R2 .


b) W es el conjunto de todos los puntos (x, y) de R2 tal que xy = 0; V = R2 .

Material de uso interno Mateu-Semitiel 116


CAPÍTULO 4. ESPACIOS VECTORIALES

c) W es el conjunto de todos los puntos (x, y, z) de R3 tal que x = y; V = R3 .


d ) W es el conjunto de todos los puntos (x, y, z) de R3 tal que −x + 2y = z; V = R3 .
e) W es el conjunto de todos los puntos (x, y, z) de R3 tal que x2 + y 2 = z; V = R3 .
f ) W es el conjunto de todos los polinomios a + bx + cx2 de P2 tal que a + b + c = 0; V = P2 .
g) W es el conjunto de todos los polinomios a + bx + cx2 de P2 tal que abc = 0; V = P2 .
h) W es el conjunto de los polinomios de P3 de la forma a − ax + bx2 − 2bx3 , a, b ∈ R; V = P3 .
i ) W es el conjunto de todas las matrices A de M2 tal que A es invertible; V = M2 .
 
a 0
j ) W es el conjunto de todas las matrices de M2 de la forma con a, b ∈ R; V = M2 .
b 2a
k ) W es el conjunto de todas las matrices A de Mn tal que A es simétrica; V = Mn .
l ) W = {X ∈ M2 : AX = XA} donde A es una matriz fija de M2 ; V = M2 .
m) W = Dn es el conjunto de las matrices diagonales de orden n; V = Mn .
n) W es el conjunto de todas las funciones polinómicas de R en R; V = F (R).

2. En el espacio F (R) considere los subconjuntos de funciones pares e impares de F (R):

Wp = {f : f (−x) = f (x)} ,
Wi = {f : f (−x) = −f (x)} ,

respectivamente. Pruebe que Wp y Wi son subespacios de F (R).

3. Considere el espacio C [a, b] de las funciones continuas en un intervalo cerrado [a, b]. Determine
si el subconjunto W es un subespacio de C [a, b] siendo:

a) W es el conjunto de las funciones f de C [a, b] tal que f (a)f (b) < 0.


b) W es el conjunto de las funciones f de C [a, b] tal que f (a) = f (b).

c) W es el conjunto formado por las funciones derivables en [a, b].


d ) W es el conjunto formado por las funciones integrables en [a, b].
 Z b 
a) W = f ∈ C [a, b] : f (x) dx = 0 .
a

4. Sean U y W dos subespacios de un espacio vectorial V. Demuestre que U ∩ W es un subespacio


de V. ¿U ∪ W es un subespacio de V?.

4.3. Combinación lineal y espacio generado


En la Sección 2.1 se definió el concepto de combinación lineal de vectores de Rn . Se estableció que
una combinación lineal de los vectores u1 , u2 ,..., uk de Rn es un vector de Rn de la forma

c1 u1 + c2 u2 + ... + ck uk ,

donde c1 , c2 ,..., ck son escalares cualesquiera, llamados coeficientes de la combinación lineal. Es posible
extender este concepto a un espacio vectorial cualquiera:

Material de uso interno Mateu-Semitiel 117


CAPÍTULO 4. ESPACIOS VECTORIALES

Definición (Combinación lineal). Sea V un espacio vectorial. Una combinación lineal de


los vectores u1 , u2 ,..., uk de V es un vector de V de la forma

c1 u1 + c2 u2 + ... + ck uk ,

donde c1 , c2 ,..., ck son escalares cualesquiera, llamados coeficientes de la combinación lineal.

Ası́, un vector u de V es una combinación lineal de ciertos vectores u1 , u2 ,..., uk de V si y solo si


existen escalares c1 , c2 ,..., ck tal que

u = c1 u1 + c2 u2 + ... + ck uk .

   
−2 1
Ejemplo 4.19. En el espacio R2 , el vector u = es combinación lineal de los vectores e1 =
3 0
     
0 2 −3
y e2 = pero no es una combinación lineal de los vectores v1 = y v2 = .◀
1 0 0

  
1 1
Ejemplo 4.20. En el espacio R3 , u =  2  es combinación lineal de los vectores v1 =  1 ,
0 −1
     
−2 1 −1
v2 =  1 , v3 =  −3  y v4 =  1 . En el Ejemplo 2.4 se mostró que hay una infinidad de
5 −5 4
maneras de expresar al vector u como combinación lineal de los vectores v1 , v2 , v3 y v4 .◀

Ejemplo 4.21. En el espacio P2 , sean los polinomios p = 1 + 3x − x2 , q1 = 1 + x + 2x2 , q2 = 1 − x2


y q3 = 2 − x + 3x2 . Para determinar si p es una combinación lineal de q1 , q2 y q3 , debe analizarse si
existen escalares c1 , c2 y c3 tales que

p = c1 q1 + c2 q2 + c3 q3 .

Esto es equivalente a estudiar la consistencia de la siguiente ecuación en las variables y1 , y2 y y3 :

y1 q1 + y2 q2 + y3 q3 = p.

es decir   
y1 1 + x + 2x2 + y2 1 − x2 + y3 2 − x + 3x2 = 1 + 3x − x2 .
Operando en el primer miembro se obtiene:

(y1 + y2 + 2y3 ) + (y1 − y3 ) x + (2y1 − y2 + 3y3 ) x2 = 1 + 3x − x2 ,

y, por igualdad de polinomios, se llega al sistema lineal:



 y1 +y2 +2y3 = 1
y1 −y3 = 3

2y1 −y2 +3y3 = −1

Material de uso interno Mateu-Semitiel 118


CAPÍTULO 4. ESPACIOS VECTORIALES

El problema se reduce entonces a estudiar la consistencia de dicho sistema lineal. Aplicando elimi-
nación gaussiana a la matriz aumentada:

     
1 1 2 : 1 −−−−−−−−−−−−−−→ 1 1 2 : 1 1 1 2 : 1
 1    −−−−−−−−−−−−−−→  
0 −1 : 3 R2 − R1 → R 2
R3 − 2R1 → R3
0 −1 −3 : 2 R3 − 3R2 → R3  0 −1 −3 : 2 .
2 −1 3 : −1 0 −3 −1 : −3 0 0 8 : −9

Puede observarse que el sistema es consistente. Luego el polinomio p es combinación lineal de los
8 , y2 = 8 y y3 = − 8 , hay una
polinomios q1 , q2 y q3 . Como el sistema tiene única solución, y1 = 15 11 9

única manera de expresar al polinomio p como combinación lineal de q1 , q2 y q3 . Los coeficientes de


8 , c2 = 8 y c3 = − 8 :
la combinación lineal son c1 = 15 11 9

15  11  9 
1 + x + 2x2 + 1 − x2 − 2 − x + 3x2 = 1 + 3x − x2 . ◀
8 8 8

Ejemplo 4.22. En el espacio F (R), sean las funciones f , g y h definidas por f (x) = sen2 x, g(x) = 3
y h(x) = cos2 x, para todo x ∈ R.
Puede comprobarse fácilmente que g = 3f + 3h. En efecto,

3f (x) + 3h(x) = 3 sen2 x + 3 cos2 x = 3 sen2 x + cos2 x = 3 = g(x),

para todo x ∈ R. Ası́, g es combinación lineal de f y h.◀

La noción de combinación lineal permite definir el siguiente importante concepto:

Definición (Generado). Sea V un espacio vectorial y S = {u1 , u2 , ..., uk } un subconjunto


de V. El conjunto formado por todas las combinaciones lineales de los vectores u1 , u2 ,..., uk
es un subconjunto de V llamado generado por S, y se lo denota gen(S):

gen(S) = gen {u1 , u2 , ..., uk } = {c1 u1 + c2 u2 + ... + ck uk : c1 , c2 , ..., ck ∈ R} .

Ası́, un vector v de V está en gen(S) si y solo si existen escalares c2 ,..., ck tales que

v = c1 u1 + c2 u2 + ... + ck uk .

Observación 4.1. A partir de esta definición puede notarse que:

1. El vector 0 está en gen(S). En efecto, el vector cero, 0, es combinación lineal de cualquier


colección de vectores de V ya que una combinación lineal que tiene todos sus coeficientes cero
dá como resultado el vector cero: 0 = 0u1 + 0u2 + ... + 0uk .

2. S ⊂ gen(S). En efecto, todo vector ui de S puede escribirse como combinación lineal de los
vectores de S de la siguiente manera:

ui = 0u1 + 0u2 + ... + 0ui−1 + 1ui + 0ui+1 + ... + 0uk .

Por lo tanto todo vector de S está en gen(S). La Figura 4.2 muestra un diagrama de la situación.

Material de uso interno Mateu-Semitiel 119


CAPÍTULO 4. ESPACIOS VECTORIALES

Figura 4.2: S ⊂ gen(S) ⊂ V

Ejemplo 4.23. En el espacio R2 , sea el conjunto unitario S = {(1, 2)}. El generado por S es el
conjunto
gen(S) = {c(1, 2) : c ∈ R} = {(c, 2c) : c ∈ R} .
Nótese que éste es el conjunto de todos los múltiplos escalares del vector u = (1, 2) que es un
subespacio de R2 (Ejemplo 4.13). Geométricamente representa la recta en el plano que contiene al
origen de coordenadas y tiene la dirección de u como se observa en la Figura 4.3.◀

Figura 4.3: Recta generada por el vector u


Ejemplo 4.24. En el espacio P2 , sea el conjunto S = 1 − x2 , x . El generado por S es el conjunto
  
gen(S) = c1 1 − x2 + c2 x : c1 , c2 ∈ R = c1 + c2 x − c1 x2 : c1 , c2 ∈ R ,

Material de uso interno Mateu-Semitiel 120


CAPÍTULO 4. ESPACIOS VECTORIALES

es decir son los polinomios de P2 que tienen el coeficiente de x2 opuesto al término constante (el
coeficiente de x es cualquier número real). Por ejemplo, 2 + x − 2x2 , −5 + 3x + 5x2 , −9x son polinomios
de gen(S) mientras que 3 + x + 3x2 no está en gen(S).◀

     
1 3 1 2 0 2
Ejemplo 4.25. En el espacio M2 , sean las matrices A = ,B= yC= .
0 −2 −1 0 1 1
Por definición,
       
1 3 1 2 0 2
gen {A, B, C} = c1 + c2 + c3 : c1 , c2 , c3 ∈ R =
0 −2 −1 0 1 1
  
c1 + c2 3c1 + 2c2 + 2c3
= : c1 , c2 , c3 ∈ R .
−c2 + c3 −2c1 + c3
 
a b
Entonces una matriz está en gen {A, B, C} si y solo si, existen escalares c1 , c2 y c3 tales
c d
que
   
c1 + c2 3c1 + 2c2 + 2c3 a b
= .
−c2 + c3 −2c1 + c3 c d
Esto conduce a estudiar la consistencia del sistema lineal:


 x1 +x2 = a

3x1 +2x2 +2x3 = b

 −x2 +x3 = c

−2x1 +x3 = d
Aplicando eliminación gaussiana a la matriz aumentada:

     
1 1 0 : a 1 1 0 : a 1 1 0 : a
 3 2 2 : b   0 −1 2 : b − 3a   0 −1 2 : b − 3a 
   → →
 0 −1 1 : c  →  0 −1 1 : c   0 0 −1 : c − b + 3a 
−2 0 1 : d 0 2 1 : d + 2a 0 0 5 : d + 2b − 4a
 
1 1 0 : a
 0 −1 2 : b − 3a 
→ 0
.

0 −1 : c − b + 3a
0 0 0 : d + 5c − 3b + 11a
Este sistema es consistente si y solo si d + 5c − 3b + 11a= 0. Por
 lo tanto, el espacio generado por
a b
las matrices A, B y C está formado por todas las matrices de M2 cuyos elementos satisfacen
c d
la relación d + 5c − 3b + 11a = 0. Entonces,
  
a b
gen {A, B, C} = ∈ M2 : d + 5c − 3b + 11a = 0 .
c d

Al tener explicitada la forma de los elementos de gen {A, B, C} se puede determinar


 rápidamente

3 2
si una matriz de M2 está o no en dicho conjunto. Por ejemplo, la matriz D = está en
−4 −7
 
4 1
gen {A, B, C} mientras que E = no está en gen {A, B, C}.◀
4 −1

Material de uso interno Mateu-Semitiel 121


CAPÍTULO 4. ESPACIOS VECTORIALES

Por definición, el conjunto gen(S) es un subconjunto de V. Si gen(S) = V entonces todo vector de V


es una combinación lineal de los vectores de S. Al respecto se tiene:

Definición (Conjunto Generador). Se dice que un conjunto S = {u1 , u2 , ..., uk } de un


espacio vectorial V genera al espacio V si todo vector de V es combinación lineal de los
vectores de S. Si S genera a V se dice que S es un generador de V, o que V está generado
por S, o que los vectores u1 , u2 , ..., uk generan a V.

La Figura 4.4 aclara este concepto:

Figura 4.4: Conjunto generador

       
 1 2 3 −2 
Ejemplo 4.26. Sea el conjunto S =  0  ,  1  ,  2  ,  4  del espacio R3 .
 
0 0 1 5
Para determinar si S es un generador de R3 , se debe analizar si todo vector b de R3 es una 
b1
combinación lineal de los vectores de S. Es decir, debe analizarse si cualquiera sea el vector b =  b2 
b3
de R , la ecuación
3
       
1 2 3 −2
x1  0  + x2  1  + x3  2  + x4  4  = b,
0 0 1 5
tiene solución. Operando en el primer miembro y por igualdad de vectores se llega al sistema lineal

 x1 +2x2 +3x3 −2x4 = b1
x2 +2x3 +4x4 = b2

x3 +5x4 = b3

Material de uso interno Mateu-Semitiel 122


CAPÍTULO 4. ESPACIOS VECTORIALES

El problema se reduce a estudiar la consistencia de este sistema. Es inmediato que es consistente,


y con infinitas soluciones, para todo b1 , b2 y b3 . Luego, cualquier vector b de R3 puede escribirse como
combinación lineal de los vectores de S (más aún, hay infinitas maneras de hacer ésto). Por lo tanto,
S genera a R3 .◀


Ejemplo
 4.27. El conjunto S = 1 − x2 , x del Ejemplo 4.24 no genera a P2 . En efecto, gen(S) =
c + bx + ax ∈ P2 : a = −c que trivialmente no es todo P2 .◀
2

Ejemplo 4.28. El conjunto {A, B, C} de las matrices de M2 dadas en el Ejemplo 4.25, no genera a
M2 . Como se vió en el ejemplo, la matriz E de M2 no está en gen {A, B, C}.◀

Los siguientes son ejemplos de conjuntos generadores de los espacios vectoriales que se utilizan más a
menudo:

Ejemplo 4.29. El conjunto {e1 , e2 , e3 } genera a R3 .


En efecto, todo vector x = (x1 , x2 , x3 ) se puede escribir como combinación lineal de los vectores
e1 , e2 , e3 de la siguiente manera:
x = (x1 , x2 , x3 ) = x1 (1, 0, 0) + x2 (0, 1, 0) + x3 (0, 0, 1) = x1 e1 + x2 e2 + x3 e3 . ◀

Generalizando el ejemplo anterior se tiene:

Ejemplo 4.30. El conjunto {e1 , e2 , ..., en } genera a Rn .◀


Ejemplo 4.31. El conjunto 1, x, x2 genera a P2 .
En efecto, todo polinomio p = a + bx + cx2 de P2 se puede escribir como combinación lineal de los
polinomios 1, x, x2 de la siguiente manera:

p = a + bx + cx2 = a (1) + b (x) + c x2 . ◀

Generalizando el ejemplo anterior:



Ejemplo 4.32. El conjunto 1, x, x2 , ..., xn genera a Pn .◀

Ejemplo 4.33. El conjunto {E11 , E12 , E13 , E21 , E22 , E23 } genera a M23 , donde Eij es la matriz de 
0 0 1
2 × 3 que tiene un 1 en la posición (i, j) y 0 en las otras posiciones, por ejemplo: E13 = .
0 0 0
 
a11 a12 a13
En efecto, toda matriz A = se puede escribir como combinación lineal de las
a21 a22 a23
matrices E11 , E12 , E13 , E21 , E22 , E23 de la siguiente manera:
       
a11 a12 a13 1 0 0 0 1 0 0 0 1
A= = a11 + a12 + a13 +
a21 a22 a23 0 0 0 0 0 0 0 0 0
     
0 0 0 0 0 0 0 0 0
+ a21 + a22 + a23 =
1 0 0 0 1 0 0 0 1

= a11 E11 + a12 E12 + a13 E13 + a21 E21 + a22 E22 + a23 E23 . ◀

Material de uso interno Mateu-Semitiel 123


CAPÍTULO 4. ESPACIOS VECTORIALES

Generalizando este ejemplo:

Ejemplo 4.34. El conjunto {E11 , E12 , ..., E1n ; E21 , E22 , ..., E2n ; ...; Em1 , Em2 , ..., Emn } genera a Mmn ,
donde Eij es la matriz de m × n que tiene un 1 en la posición (i, j) y 0 en las otras posiciones.◀

Teorema 4.3 (Espacio generado). Si S = {u1 , u2 , ..., uk } es un subconjunto de un espacio


vectorial V entonces:

1. gen(S) es un subespacio de V. Se lo llama espacio generado por S.

2. gen(S) es el subespacio más pequeño de V que contiene al conjunto S, en el sentido de


que cualquier otro subespacio de V que contenga a S debe contener a gen(S).

Demostración. 1. Nótese primero que gen(S) es un subconjunto no vacı́o de V ya que S ⊂ gen(S)


y S ̸= ∅. Se aprobará ahora que gen(S) es cerrado bajo la suma y la multiplicación por escalares.

Sean v y w vectores de gen(S). Luego, existen escalares c1 , c2 , ..., ck y d1 , d2 , ..., dk tal que

v = c1 u1 + c2 u2 + ... + ck uk ,
w = d1 u1 + d2 u2 + ... + dk uk .

Entonces:

v + w = (c1 u1 + c2 u2 + ... + ck uk ) + (d1 u1 + d2 u2 + ... + dk uk ) =


= (c1 + d1 ) u1 + (c2 + d2 ) u2 + ... + (ck + dk ) uk ,

por lo que v + w es combinación lineal de los vectores de S y por lo tanto está en gen(S).

Por otro lado, la multiplicación de un escalar a por el vector v es

av = a (c1 u1 + c2 u2 + ... + ck uk ) =
= (ac1 ) u1 + (ac2 ) u2 + ... + (ack ) uk ,

por lo que av es combinación lineal de los vectores de S y luego está en gen(S).

Ası́, gen(S) es cerrado bajo la suma y multiplicación por escalares y por lo tanto es un subespacio
de V.

2. Se sabe que gen(S) es un subespacio de V que contiene a S.

Sea W un subespacio de V que contenga a los vectores u1 , u2 ,..., uk de S. Dado que W es cerrado
bajo la suma y multiplicación por escalares, entonces debe contener a todas las combinaciones
lineales c1 u1 + c2 u2 + ... + ck uk . Por lo tanto W contiene a todos los vectores de gen(S), es decir
gen(S) ⊂ W.

Luego, gen(S) es el subespacio “más pequeño” (en el sentido de inclusión) que contiene a S
(véase Figura 4.5).

Material de uso interno Mateu-Semitiel 124


CAPÍTULO 4. ESPACIOS VECTORIALES

Figura 4.5: S ⊂ gen(S) ⊂ W ⊂ V

Con frecuencia se demuestra que un conjunto es un subespacio de un espacio vectorial V mostrando


que es el espacio generado por algún subconjunto de V. Los siguientes ejemplos muestran cómo utilizar
ésto:

Ejemplo 4.35. Sea W el conjunto de todos los vectores de R4 de la forma (a + 2b, 2b, a − b, b) donde
a y b son escalares arbritrarios, es decir

W = {(a + 2b, 2b, a − b, b) : a, b ∈ R} .

Por definición de suma y multiplicación por escalares, un vector genérico de W puede expresarse
de la siguiente manera:

(a + 2b, 2b, a − b, b) = (a, 0, a, 0) + (2b, 2b, −b, b) = a (1, 0, 1, 0) + b (2, 2, −1, 1) .

Entonces todo vector de W se escribe como combinación lineal de los vectores u1 = (1, 0, 1, 0) y
u2 = (2, 2, −1, 1). Luego,
W = gen {u1 , u2 } ,
y de acuerdo a la parte 1 del Teorema 4.3, W es un subespacio de R4 .◀

Ejemplo 4.36. El conjunto   


a+b c
W = : a, b, c ∈ R
−b 2a
es un subespacio de M2 . En efecto, cualquier matriz de W puede expresarse como
       
a+b c 1 0 1 0 0 1
=a +b +c
−b 2a 0 2 −1 0 0 0

Material de uso interno Mateu-Semitiel 125


CAPÍTULO 4. ESPACIOS VECTORIALES

para cualesquiera a, b, c ∈ R. Luego,


     
1 0 1 0 0 1
W = gen , , .◀
0 2 −1 0 0 0

Teorema 4.4 (Reducción de un conjunto generador). Sea S = {u1 , u2 , ..., uk } un subconjun-


to de un espacio vectorial V. Si un vector ui de S es una combinación lineal de los restantes
vectores de S, entonces gen(S) = gen(S ′ ), donde S ′ es el conjunto que resulta de eliminar de
S el vector ui .

Demostración. Sin perder generalidad, supóngase que uk es combinación lineal de los restantes vectores
u1 , u2 ,..., uk−1 de S. Es decir, existen escalares c1 , c2 ,..., ck−1 tales que

uk = c1 u1 + c2 u2 + ... + ck−1 uk−1 . (4.3)

Se tiene que probar que gen {u1 , u2 , ..., uk−1 } = gen {u1 , u2 , ..., uk−1 , uk }. Para ello debe verificarse
que todo vector de gen {u1 , u2 , ..., uk−1 } es un vector de gen {u1 , u2 , ..., uk−1 , uk } y recı́procamente.
Por un lado, cualquier vector de gen {u1 , u2 , ..., uk−1 } es un vector de gen {u1 , u2 , ..., uk−1 , uk }
(¿por qué?).
Por otra parte, si x es un vector de gen {u1 , u2 , ..., uk−1 , uk }, entonces

x = d1 u1 + d2 u2 + ... + dk−1 uk−1 + dk uk ,

para ciertos escalares d1 , d2 ,..., dk−1 , dk .


Sustituyendo en esta última igualdad, la expresión para uk dada en (4.3):

x = d1 u1 + d2 u2 + ... + dk−1 uk−1 + dk (c1 u1 + c2 u2 + ... + ck−1 uk−1 ) =


= (d1 + dk c1 ) u1 + (d2 + dk c2 ) u2 + ... + (dk−1 + dk ck−1 ) uk−1 .

Entonces, x es combinación lineal de los vectores u1 , u2 ,..., uk−1 y por lo tanto x está en
gen {u1 , u2 , ..., uk−1 }.

 
Ejemplo 4.37. Los conjuntos S = 1 + x, −1 + x2 , x + x2 y S ′ = 1 + x, −1 + x2 generan el
mismo subespacio de P2 . En efecto, el último polinomio de S es la suma de los dos primeros.◀

Ejercicios 4.3

1. Indique si el vector u puede expresarse como una combinación lineal de los vectores u1 , u2 , u3 ,
u4 y u5 de R4 . En caso afirmativo, exhiba alguna de estas combinaciones.
           
2 −1 1 2 0 3
 9   0   −1   1   4   1 
a) u =  
 7 ; u1 =        
 4 , u2 =  1 , u3 =  0 , u4 =  1 , u5 =  −2 .
 

3 1 0 0 1 2

Material de uso interno Mateu-Semitiel 126


CAPÍTULO 4. ESPACIOS VECTORIALES

           
−4 0 1 0 2 1
 1   1   1   1   1   1 
b) u =  
 3 ; u1 =         
 −1 , u2 =  −1 , u3 =  0 , u4 =  −1 , u5 =  1
.

1
0 2 0 1 3 1
           
1 1 1 1 0 1
 −1   2   1   1   2   −1 
c) u =  
 1 ; u1 =          
 3 , u2 =  0 , u3 =  1 , u4 =  1 , u5 =  1 .
−1 0 1 1 0 1

2. Sean los polinomios p1 = 1 + 3x − x2 , p2 = −3x + 2x2 , p3 = x2 y p4 = 4 − x2 de P2 . ¿Es p4


combinación lineal de los polinomios

a) p1 , p2 y p3 ? b) p1 y p2 ? c) p2 y p3 ?

3. Determine valores de a, b y c de modo que la matriz


 
a + b a + 2c
A =  −4 10 
11 2a − b

    
1 2 0 −1 1 1
sea combinación lineal de las matrices A1 =  −1 2 , A2 =  0 1  y A3 =  1 0 .
1 0 2 −1 0 2

4. Describa geométricamente el subespacio generado por los vectores u1 = (−1, 0, 3), u2 = (0, 1, −1)
y u3 = (−2, 3, 3) de R3 .
   
1 1 0 2
5. Explicite el espacio generado por las matrices A = yB= de M2 . Indique
−1 0 3 −4
tres matrices de M2 que estén en gen {A, B} y tres que no pertenezcan a dicho conjunto.

6. Sean los polinomios p1 = 1 − 2x + x2 , p2 = x − x2 , p3 = 2 − 3x + 2x2 y p4 = 2 − x − x2 de P2 .

a) ¿Está p4 en el gen {p1 , p2 , p3 }?


b) ¿Está p4 en el gen {p1 , p2 }?
c) Demuestre que gen {p1 , p2 , p3 } = P2 .
d ) Demuestre que gen {p1 , p2 , p3 , p4 } = gen {p1 , p2 , p3 }.

7. Indique si el conjunto:

a) {(1, 1, 2) , (3, −1, 4) , (0, 1, 3)} genera al espacio R3 .


       
 1 2 1 0 
b)      
−1 , 0 , −1 , 0  genera a R3 .
 
3 4 5 3

c) 1 + x, −3 + x2 genera a P2 .

d ) 1, 1 + x, 1 + x + x2 , 1 + x + x2 + x3 , 3 − x3 genera a P3 .
e) {E11 , E22 , E33 } genera al espacio D3 de las matrices diagonales de orden 3.

Material de uso interno Mateu-Semitiel 127


CAPÍTULO 4. ESPACIOS VECTORIALES

       
1 0 0 1 1 1 0 1
f) , , , genera a M2 .
0 1 1 0 1 0 1 1

8. Halle, si existen, el o lo valores de a de modo que el conjunto S = a, 1 + ax, −x + ax2 , genere
al espacio P2 .
9. Complete la demostración del Teorema 4.4: “cualquier vector de gen {u1 , u2 , ..., uk−1 } es un
vector de gen {u1 , u2 , ..., uk−1 , uk }”
10. En cada ı́tem, pruebe que W es un subespacio del espacio vectorial V que se indica mostrando
un conjunto generador de W.
a) W = {(2a, 0, b, −a − 3b + c) : a, b, c ∈ R}; V = R4 .
b) W es el conjunto solución de la ecuación x1 − x2 + x3 − x4 + 3x5 = 0; V = R5 .

c) W = a − bx + (a + b)x2 : a, b ∈ R ; V = P2 .
d ) W = {2a + b cos x : a, b ∈ R}; V = F(R).
  
2a b + c
e) W = : a, b, c ∈ R ; V = M2 .
−c 0

11. Indique si las siguientes proposiciones son verdaderas o falsas. Justifique su respuesta:
a) Dos vectores distintos de R2 generan R2 .
b) M3 puede ser generado por 10 matrices de 3 × 3.
c) Tres vectores distintos de cero de R3 generan R3 .
d ) gen {u, v, w} = gen {u, u + v, u + v + w}, para cualesquiera vectores u, v y w de un espa-
cio vectorial V.

4.4. Independencia lineal


Se sabe de la sección anterior que un espacio vectorial V está generado por un conjunto S = {u1 , u2 , ..., uk }
si cada vector de V es una combinación lineal de los vectores u1 , u2 ,...,uk .
Es posible estudiar un espacio vectorial V conociendo primero los vectores de un conjunto gene-
rador S y luego extendiendo los resultados al resto de los vectores de V. Conviene entonces que el
conjunto generador sea lo más pequeño posible. El problema de encontrar los conjunto generadores
“más pequeños” depende de la noción de independencia lineal.
Si S = {u1 , u2 , ..., uk } es un conjunto de vectores de un espacio vectorial V entonces la ecuación

x1 u1 + x2 u2 + ... + xk uk = 0,

tiene siempre la solución trivial


x1 = 0, x2 = 0, ..., xk = 0,
pero puede tener además otras soluciones.
Por ejemplo, en el conjunto S = {u1 , u2 , u3 } del espacio R3 donde u1 = (1, 3, −1) , u2 = (0, 1, −2)
y u3 = (1, 0, 5), el vector u1 puede expresarse como una combinación lineal de los otros dos vectores
de S de la siguiente manera:
u1 = 3u2 + u3 ,

Material de uso interno Mateu-Semitiel 128


CAPÍTULO 4. ESPACIOS VECTORIALES

o en forma equivalente
(1)u1 + (−3)u2 + (−1)u3 = 0.
Por lo tanto, la ecuación
x1 u1 + x2 u2 + x3 u3 = 0,
admite como solución, entre otras, a x1 = 1, x2 = −3 y x3 = −1.
En cambio, para el conjunto H = {v1 , v2 , v3 } del espacio R3 donde v1 = (1, 1, 1), v2 = (1, 1, 0) y
u3 = (1, 0, 0), si se resuelve la ecuación

x1 v1 + x2 v2 + x3 v3 = 0,

es decir
(x1 + x2 + x3 , x2 + x3 , x3 ) = (0, 0, 0) ,
se encuentra una única solución: x1 = 0, x2 = 0 y x3 = 0 (la trivial).
En general se tiene la siguiente, muy importante, definición:

Definición (Dependencia e independencia lineal). Sea V un espacio vectorial y


S = {u1 , u2 , ..., uk } un subconjunto de V. El conjunto S es linealmente independiente si la
ecuación

x1 u1 + x2 u2 + ... + xk uk = 0 (4.4)

tiene única solución: x1 = 0, x2 = 0, ..., xk = 0 (la trivial).


Si por el contrario, la ecuación (4.4) admite otras (infinitas) soluciones, el conjunto S es
linealmente dependiente.

De la definición anterior surge que:


El conjunto S es linealmente dependiente si y solo si existen escalares c1 , c2 ,..., ck , no todos ceros,
tales que c1 u1 + c2 u2 + ... + ck uk = 0.
En cambio, S es linealmente independiente si y solo si la única manera de obtener al vector cero
como combinación lineal de los vectores de S, es la trivial. Es decir, si c1 u1 + c2 u2 + ... + ck uk = 0
necesariamente c1 = 0, c2 = 0,..., ck = 0 (todos los coeficientes cero).
Retomando los ejemplos introductorios, S = {(1, 3, −1) , (0, 1, −2) , (1, 0, 5)} es un conjunto lineal-
mente dependiente en R3 , mientras que el conjunto H = {(1, 1, 1) , (1, 1, 0) , (1, 0, 0)} es linealmente
independiente.
     

 1 0 2 
   1   1 
 −2     
 ,  −1  ,  1  del espacio R . Para determinar si
Ejemplo 4.38. Sea el conjunto S =  4

 0 
 
1 0 1
S es linealmente dependiente o linealmente independiente, se debe analizar si la ecuación
       
1 0 2 0
 −2   1   1   0 
x1        
 0  + x2  −1  + x3  1  =  0  ,
1 0 1 0

Material de uso interno Mateu-Semitiel 129


CAPÍTULO 4. ESPACIOS VECTORIALES

tiene única solución (la trivial) o infinitas soluciones, lo cual es equivalente a determinar si el sistema
lineal homogéneo: 

 x1 +x3 = 0

−2x1 +x2 +x3 = 0

 −x2 +x3 = 0

x1 +x3 = 0
tiene solo la solución trivial o tiene infinitas soluciones.
Es fácilmente comprobable que el sistema tiene solo la solución trivial x1 = x2 = x3 = 0, y por lo
tanto S es linealmente independiente.◀


Ejemplo 4.39. El conjunto S = 1 − x, 2 + x2 , 1 − 3x − x2 del espacio P2 es linealmente depen-
diente. En efecto, al plantear la ecuación en las incógnitas c1 , c2 y c3 :
 
c1 (1 − x) + c2 2 + x2 + c3 1 − 3x − x2 = 0,

operando en el primer miembro se obtiene

(c1 + 2c2 + c3 ) + (−c1 − 3c3 ) x + (c2 − c3 ) x2 = 0 + 0x + 0x2 .

Por igualdad de polinomios la ecuación es equivalente al siguiente sistema lineal homogéneo



 c1 +2c2 +c3 = 0
−c1 −3c3 = 0

c2 −c3 = 0

Como la matriz, A, de coeficientes es cuadrada puede determinarse si el sistema tiene única o


infinitas soluciones por medio del determinante de la misma (Teorema 3.10). Rápidamente se obtiene
|A| = 0, por lo tanto el sistema tiene soluciones no triviales lo que prueba que S es linealmente
dependiente.◀

Los siguientes son ejemplos de conjuntos linealmente independientes de los espacios vectoriales que se
encuentran más a menudo:

Ejemplo 4.40. El conjunto {e1 , e2 , e3 } de R3 es linealmente independiente.


En efecto, dada la ecuación
x1 e1 + x2 e2 + x3 e3 = 0,
es decir
x1 (1, 0, 0) + x2 (0, 1, 0) + x3 (0, 0, 1) = (0, 0, 0) ,
operando en el primer miembro se tiene

(x1 , x2 , x3 ) = (0, 0, 0) ,

y por igualdad de vectores, la única solución es x1 = x2 = x3 = 0.◀

Generalizando el resultado anterior:

Ejemplo 4.41. El conjunto {e1 , e2 , ..., en } de Rn es linealmente independiente.◀

Material de uso interno Mateu-Semitiel 130


CAPÍTULO 4. ESPACIOS VECTORIALES


Ejemplo 4.42. El conjunto 1, x, x2 de P2 es linealmente independiente.
En efecto, 
c1 (1) + c2 (x) + c2 x2 = 0 = 0 + 0x + 0x2 ,
y por igualdad de polinomios, la única solución es c1 = c2 = c3 = 0.◀

Generalizando este resultado:



Ejemplo 4.43. El conjunto 1, x, x2 , ..., xn de Pn es linealmente independiente.◀

Ejemplo 4.44. El conjunto {E11 , E12 , E21 , E22 , E31 , E32 } de M32 es linealmente independiente.
En efecto, la ecuación

x1 E11 + x2 E12 + x3 E21 + x4 E22 + x5 E31 + x6 E32 = O,

queda
             
1 0 0 1 0 0 0 0 0 0 0 0 0 0
x1  0 0  + x2  0 0  + x3  1 0  + x4  0 1  + x5  0 0  + x6  0 0  =  0 0  ,
0 0 0 0 0 0 0 0 1 0 0 1 0 0

y operando en el primer miembro se obtiene


   
x1 x2 0 0
 x3 x4  =  0 0  .
x5 x6 0 0

Por igualdad de matrices, necesariamente x1 = x2 = x3 = x4 = x5 = x6 = 0.◀

Fácilmente puede generalizarse este resultado:

Ejemplo 4.45. El conjunto {E11 , E12 , ..., E1n ; E21 , E22 , ..., E2n ; ...; Em1 , Em2 , ..., Emn } de Mmn es li-
nealmente independiente.◀

El término linealmente dependiente sugiere que los vectores “dependen” entre ellos de alguna manera.
El conjunto S = {(1, 3, −1) , (0, 1, −2) , (1, 0, 5)}, dado en el ejemplo introductorio, es un conjunto
linealmente dependiente en R3 . Se mostró que, por ejemplo, el vector u1 = (1, 3, −1) es combinación
lineal de los otros dos vectores de S.
Al respecto, vale el siguiente teorema:

Teorema 4.5. Un conjunto S = {u1 , u2 , ..., uk } (k ≥ 2) de un espacio vectorial V es lineal-


mente dependiente si y solo si al menos uno de los vectores de S puede expresarse como
combinación lineal de los restantes vectores de S.

Material de uso interno Mateu-Semitiel 131


CAPÍTULO 4. ESPACIOS VECTORIALES

Demostración. Si el conjunto S = {u1 , u2 , ..., uk−1 uk } es linealmente dependiente, entonces existen


escalares c1 , c2 ,...,ck−1 ,ck , no todos ceros, tales que

c1 u1 + c2 u2 + ... + ck−1 uk−1 + ck uk = 0.

Sin pérdida de generalidad, supóngase ck ̸= 0, y despejando uk de la expresión anterior se tiene


     
c1 c2 ck−1
uk = − u1 + − u2 + ... + − uk−1 ,
ck ck ck

por lo que uk resulta combinación lineal de los restantes vectores, u1 , u2 ,...,uk−1 , de S.


Recı́procamente, supóngase que un vector de S es combinación lineal de los restantes vectores de
S. Sin pérdida de generalidad, sea uk combinación lineal de u1 ,u2 ,...,uk−1 . Es decir, existen escalares
d1 , d2 ,..., dk−1 tal que
uk = d1 u1 + d2 u2 + ... + dk−1 uk−1 ,
lo que es equivalente a
d1 u1 + d2 u2 + ... + dk−1 uk−1 + (−1)uk = 0.
Esta última relación muestra que se puede obtener el vector cero como una combinación lineal de
los vectores de S con no todos los coeficientes cero (el coeficiente que acompaña a uk es −1). Luego,
S es linealmente dependiente.

Nota: Dado un conjunto S = {u1 , u2 , ..., uk } de un espacio vectorial V se puede decir indistintamente
que S es linealmente dependiente (independiente) o que los vectores u1 , u2 ,..., uk son linealmente
dependientes (independientes).
     
1 −1 0 2 1 1
Ejemplo 4.46. En el espacio M2 , las matrices A = , B = , C = y
2 0 3 0 5 0
 
3 8
D = son linealmente dependientes. Es fácilmente comprobable que la matriz C se puede
4 1
escribir como combinación lineal de A, B y D. En efecto:

C = A + B = (1)A + (1)B + (0)D.

Observe que la matriz D no es combinación lineal de las restantes matrices, esto no contradice al
teorema anterior (Teorema 4.5). Dicho teorema no dice que cada vector de un conjunto linealmente
dependiente debe ser combinación lineal de los restantes sino que al menos uno de ellos debe serlo.◀

El Teorema 4.5 tiene un corolario que proporciona una prueba muy simple para determinar si dos
vectores de un espacio vectorial son linealmente dependientes o no.

Corolario 4.1. Sean u y v dos vectores distintos de un espacio vectorial V. Entonces u y v


son linealmente dependientes si y solo uno de ellos es un múltiplo escalar del otro.

Demostración. De acuerdo al Teorema 4.5, el conjunto S = {u, v} es linealmente dependiente si y


solo si uno de los vectores de S es combinación lineal del otro. Esto es: u = cv ó v = du, para algunos
escalares c y d.

Material de uso interno Mateu-Semitiel 132


CAPÍTULO 4. ESPACIOS VECTORIALES

Figura 4.6: Dos vectores en R3 linealmente dependientes

Figura 4.7: Dos vectores v1 y v2 de R3 linealmente independientes

Ejemplo 4.47. Se deduce del corolario anterior que dos vectores en R2 o en R3 son linealmente
dependientes si y solo si están sobre la misma recta que pasa por el origen. Observe las Figuras 4.6 y
4.7.◀

Actividad 4.5. Justifique que el espacio generado por dos vectores distintos cualesquiera en R3 es
un plano que pasa por el origen o una recta que pasa por el origen.

Material de uso interno Mateu-Semitiel 133


CAPÍTULO 4. ESPACIOS VECTORIALES

Ejemplo 4.48. Los polinomios p = 3−2x2 y q = −6+4x2 del espacio P2 son linealmente dependientes
dado que q = −2p (ó p = − 21 q).◀

En el siguiente teorema se agregan otros importantes criterios para determinar la dependencia o


independencia lineal de un subconjunto de un espacio vectorial. Queda como ejercicio la demostración
del mismo:

Teorema 4.6. Sea S un subconjunto finito no vacı́o de un espacio vectorial V.

1. Si S es un conjunto unitario, es decir S = {u}, entonces S es linealmente independiente


si y solo si u ̸= 0.

2. Si S contiene al vector cero, entonces S es linealmente dependiente.

3. Si S es linealmente independiente entonces todo subconjnunto no vacı́o de S es lineal-


mente independiente.

4. Si S es linealmente dependiente entonces todo conjunto que lo contiene es linealmente


dependiente.

Ejemplo 4.49. De acuerdo a la parte 4. del Teorema 4.6, el conjunto


       
3 1 1 2 −1 5 2 4
, , ,
0 4 0 0 −9 8 0 0
   
1 2 2 4
del espacio M2 es linealmente dependiente ya que contiene al conjunto S = ,
0 0 0 0
que es linealmente dependiente puesto que una de las matrices es mútiplo escalar de la otra. ◀

Ejercicios 4.4

1. Para cada conjunto S del espacio vectorial V indicado, determine si es linealmente independiente
o linealmente dependiente:

a) S = {(1, −1) , (2, 0) , (2, 1)}, V = R2 .


b) S = {(1, −1, 3) , (2, 0, −5) , (0, 1, 1)}, V = R3 .
c) S = {(0, 0, −1, 2) , (2, 2, −5, 1) , (4, 4, −21, 5)}, V = R4 .

d ) S = 1 + x + x2 , 3x2 , −5 + x , V = P2 .

e) S = x3 , 1 − 3x2 , 2 + x , V = P.
     
1 1 0 0 −2 −2
f) S = , , , V = M2 .
−1 0 0 3 2 1
       
1 1 0 0 0 0 1 0 1 2 1 1
g) S = , , , , V = M23 .
−1 0 2 0 3 1 1 0 −1 1 0 0

Material de uso interno Mateu-Semitiel 134


CAPÍTULO 4. ESPACIOS VECTORIALES

h) S = {ex , e−x , cosh x}, V = F (R).



i ) S = e2x , e−3x , V = F (R).

2. Determine para qué valores de a y b el subconjunto 1 + ax + ax2 , 1 + bx + bx2 , x2 del espacio
P2 es linealmente independiente.

3. Indique si las siguientes proposiciones son verdaderas o falsas. Justifique su respuesta:

a) Dos vectores distintos de un espacio vectorial son linealmente independientes.


b) Si {u1 , u2 , u3 } es un conjunto linealmente independiente en un espacio vectorial V, entonces
también lo es el conjunto {u1 + 2u2 , u1 + u2 + u3 , −u3 }.
c) Si tanto {u, v} como {v, w} son conjuntos linealmente independientes de un espacio vec-
torial V, entonces {u, w} es también linealmente independiente.

4. Demuestre el Teorema 4.6.

5. En cada ı́tem, dé un ejemplo de un subconjunto S de R4 tal que

a) contenga exactamente dos elementos y sea linealmente dependiente.


b) contenga exactamente dos elementos y sea linealmente independiente.
c) contenga exactamente tres elementos y sea linealmente independiente.
d ) contenga exactamente cuatro elementos y sea linealmente dependiente.
e) contenga exactamente cuatro elementos y sea linealmente independiente.

6. Repita el ejercicio anterior para subconjuntos S de P4 .

4.5. Base y dimensión


Por lo común se concibe a una recta como un espacio unidimensional, a un plano como uno bidimen-
sional y al espacio que lo rodea como a uno tridimensional.
En lo que sigue se precisará esta noción intuitiva de dimensión:

Definición (Base). Sea V un espacio vectorial distinto del espacio cero y S un subconjunto
finito no vacı́o de V. El conjunto S es una base de V si

1. S es linealmente independiente,

2. S genera a V.

Ejemplo 4.50. En el Ejemplo 4.40 se demostró que S = {e1 , e2 , e3 } es un conjunto linealmente


independiente en R3 . Además, en el Ejemplo 4.29 se probó que S es un generador de R3 . Por lo tanto,
S es una base. Esta base se conoce como la base estándar de R3 .◀

Material de uso interno Mateu-Semitiel 135


CAPÍTULO 4. ESPACIOS VECTORIALES

Ejemplo 4.51. Base estándar de Rn


El conjunto S = {e1 , e2 , ..., en } es una base de Rn . En los ejemplos 4.30 y 4.41 se mostró que
S es un conjunto generador y linealmente independiente de Rn . Esta base es conocida como la base
estándar, o canónica, de Rn .
Como caso especial, en el espacio vectorial R, el conjunto unitario S = {1} es trivialmente lineal-
mente independiente y como para todo x ∈ R, x = x(1), entonces S es un conjunto generador de R.
Luego, S es una base de R, la base estándar o canónica de R.◀


Ejemplo 4.52. El conjunto S = 1, x, x2 es una base del espacio P2 . Se mostró en los ejemplos
4.31 y 4.42 que S es un conjunto generador linealmente independiente en P2 . Esta base es la base
estándar del espacio vectorial P2 .◀

Ejemplo 4.53. Base estándar de Pn



El conjunto S = 1, x, x2 , ..., xn es una base de Pn . Se mostró que S es un conjunto generador y
linealmente independiente en Pn en los ejemplos 4.43 y 4.31. Esta base es la llamada base estándar o
canónica de Pn .◀

Ejemplo 4.54. Base estándar de Mmn


El conjunto S = {E11 , E12 , ..., E1n ; E21 , E22 , ..., E2n ; ...; Em1 , Em2 , ..., Emn } es una base del espacio
Mmn . Se vió en los ejemplos 4.34 y 4.45 que es un conjunto generador linealmente independiente de
Mmn . Esta base es la llamada base estándar o canónica del espacio Mmn .◀

Ejemplo 4.55 (Una base de R3 que no es la estándar). El conjunto S = {u1 , u2 , u3 } donde u1 =


(1, 2, 1), u2 = (−2, 3, 0) y u3 = (3, 3, 2) es una base de R3 .
Debe comprobarse que S genera a R3 y que es linealmente independiente.
Para demostrar que S genera a R3 , debe probarse que todo vector b de R3 es combinación lineal
de los vectores de S. Es decir, debe mostrarse que cualquiera sea el vector b = (b1 , b2 , b3 ) de R3 , la
ecuación
x1 u1 + x2 u2 + x3 u3 = b,
tiene solución.
Reemplazando, la ecuación anterior es

x1 (1, 2, 1) + x2 (−2, 3, 0) + x3 (3, 3, 2) = (b1 , b2 , b3 ) ,

y operando en el primer miembro e igualando las correspondientes componentes se obtiene el sistema


lineal 
 x1 −2x2 +3x3 = b1
2x1 +3x2 +3x3 = b2

x1 +2x3 = b3
el cual debe ser consistente cualesquiera sean b1 , b2 y b3 .
Para demostrar que S es linealmente independiente es necesario probar que la única solución de la
ecuación
x1 u1 + x2 u2 + x3 u3 = 0,

Material de uso interno Mateu-Semitiel 136


CAPÍTULO 4. ESPACIOS VECTORIALES

o bien
x1 (1, 2, 1) + x2 (−2, 3, 0) + x3 (3, 3, 2) = (0, 0, 0) ,
es la trivial: x1 = x2 = x3 = 0. La verificación de la independencia lineal se reduce a demostrar que el
sistema homogéneo: 
 x1 −2x2 +3x3 = 0
2x1 +3x2 +3x3 = 0

x1 +2x3 = 0
tiene únicamente la solución trivial.
Obsérvese que ambos sistemas tienen la misma matriz de coeficientes:
 
1 −2 3
A= 2 3 3 .
1 0 2

Es posible probar simultáneamente que S genera a R3 y que es linealmente independiente mos-


trando que det(A) ̸= 0. De acuerdo al Teorema 3.10 y como det(A) = −1 ̸= 0, entonces el sistema
Ax = b es consistente con única solución cualquiera sea el vector de términos constantes b, y el
sistema homogéneo Ax = 0 tiene únicamente la solución trivial. ◀

Dimensión de un espacio vectorial


Sea V un espacio vectorial distinto del espacio cero. Si V contiene un conjunto finito no vacı́o de
vectores que es una base de V, se dice que V es un espacio vectorial de dimensión finita o finito
dimensional. Si no existe un conjunto de este tipo se dice que V es de dimensión infinita o infinito
dimensional.
Casi todos los espacios vectoriales considerados en este texto son de dimensión finita. Por ejemplo,
los espacios Rn , Pn y Mmn son espacios vectoriales de dimensión finita.
Sin embargo, es conveniente notar que muchos espacios vectoriales de importancia son de dimensión
infinita. El espacio vectorial P es infinito dimensional ya que no es posible encontrar un conjunto
 Un conjunto generador de P es el conjunto infinito de la potencias de x, S =
finito que lo genere.
{xn : n ∈ N0 } = 1, x, x2 , x3 , ... ya que todo polinomio en P es una combinación lineal de polinomios
de S.

Actividad 4.6. Explique por qué no existe un conjunto generador de P que contenga un número
finito de elementos.

El siguiente teorema proporciona la clave hacia el concepto de dimensión de un espacio vectorial.


Basándose en este teorema, se obtienen algunos de los resultados más importantes del Álgebra Lineal.

Teorema 4.7. Si un espacio vectorial V tiene una base que consta de n vectores entonces
todo subconjunto de V que contiene más de n vectores es linealmente dependiente. Dicho de
otro modo, todo subconjunto linealmente independiente de V contiene a lo sumo n vectores.

Material de uso interno Mateu-Semitiel 137


CAPÍTULO 4. ESPACIOS VECTORIALES

Demostración. Sea S = {u1 , u2 , ..., un } una base del espacio vectorial V y H = {v1 , v2 , ..., vm } un
subconjunto de V que consta de m vectores, donde m > n.
Se probará que H es linealmente dependiente mostrando que la ecuación

x1 v1 + x2 v2 + ... + xm vm = 0, (4.5)

tiene soluciones no triviales.


Como S es una base de V entonces S genera a V. Ası́, cada vector de V puede expresarse como
una combinación lineal de los vectores de S. En particular, cada vi de H es una combinación lineal
de vectores de S, por lo tanto:

v1 = c11 u1 + c21 u2 + ... + cn1 un


v2 = c12 u1 + c22 u2 + ... + cn2 un
.. ..
. .
vm = c1m u1 + c2m u2 + ... + cnm un

Sustituyendo cada una de estas expresiones en la ecuación (4.5):

x1 (c11 u1 + c21 u2 + ... + cn1 un ) + x2 (c12 u1 + c22 u2 + ... + cn2 un ) + ...


... + xm (c1m u1 + c2m u2 + ... + cnm un ) = 0,

y operando y asociando en el primer miembro resulta

(c11 x1 + c12 x2 + ... + c1m xm ) u1 + (c21 x1 + c22 x2 + ... + c2m xm ) u2 + ...


... + (cn1 x1 + cn2 x2 + ... + cnm xm ) un = 0.

Dado que los vectores u1 , u2 ,...,un son linealmente independientes (S una base), entonces todos
los coeficientes de la expresión anterior son iguales a cero. Ası́, resolver la ecuación (4.5) equivale a
resolver el siguiente sistema lineal homogéneo en las incógnitas x1 , x2 ,..., xm :


 c11 x1 + c12 x2 + ... + c1m xm = 0

 c21 x1 + c22 x2 + ... + c2m xm = 0
..

 .


cn1 x1 + cn2 x2 + ... + cnm xm = 0

Como este sistema es homogéneo y el número de incógnitas (m) es mayor que el número de
ecuaciones (n), entonces tiene soluciones no triviales. Esto es, existen escalares d1 , d2 ,...,dm no todos
ceros que satisfacen la ecuación (4.5).
Luego, el conjunto H es linealmente dependiente.

Ejemplo 4.56. Dado que R3 tiene una base que consta de 3 vectores (la base estándar), cualquier
conjunto de R3 que consta de 4 ó más vectores es linealmente dependiente.
En general, en el espacio Rn , todo conjunto que consta de más de n vectores es linealmente
dependiente.◀

Material de uso interno Mateu-Semitiel 138


CAPÍTULO 4. ESPACIOS VECTORIALES

Ejemplo 4.57. En el espacio P2 todo conjunto que consta de 4 o más polinomios es linealmente
dependiente puesto que P2 tiene una base que consta de 3 polinomios (la base estándar 1, x, x2 ).
En general en el espacio Pn , todo conjunto que consta de más de n + 1 polinomios es linealmente
dependiente.◀
     
2 0 1 −3 2 1
Ejemplo 4.58. En el espacio M2 , el conjunto formado por las matrices , , ,
0 0 0 0 1 0
   
1 3 4 −1
, es linealmente dependiente. ¿Por qué?.◀
0 1 −2 1

Debe observarse que si {u1 , u2 , ..., un } es una base de un espacio vectorial V, entonces {cu1 , u2 , ..., un }
donde c ̸= 0 es también una base de V (Ejercicio 5). Esto muestra que todo espacio vectorial real,
distinto del espacio cero, tiene infinitas bases. A partir del teorema anterior, puede demostrarse que
todas las (infinitas) bases de un espacio vectorial finito dimensional, tienen el mismo número de
vectores.

Corolario 4.2. Si un espacio vectorial V tiene una base que consta de n vectores entonces
toda otra base de V consta también de n vectores.

Demostración. Sea S = {u1 , u2 , ..., un } una base del espacio vectorial V y H = {v1 , v2 , ..., vm } cual-
quier otra base de V.
Por el Teorema 4.7, dado que S es una base de V y H es linealmente independiente (H es una
base), entonces m ≤ n. Haciendo el mismo razonamiento, y cambiando los roles, puesto que H es una
base de V y S es linealmente independiente, entonces debe ser n ≤ m.
En consecuencia, m = n y por lo tanto ambas bases tienen el mismo número de vectores.

A partir de este corolario, puede notarse que si se conoce una base de un espacio vectorial V de
dimensión finita, una condición necesaria para que un conjunto S sea una base de V es que S tenga
el mismo número de elementos que la base conocida.

Actividad 4.7. Indique, por simple inspección, por qué los siguientes conjuntos no son una base de
los espacios vectoriales indicados:
1. {(1, −1, 3) , (2, 0, 5)} en R3 .

2. 1 + x, 5 − x + x2 , 3x2 , x + x2 en P2 .

El corolario anterior permite definir el concepto de dimensión de un espacio vectorial finito dimen-
sional:

Definición (Dimensión). Si un espacio vectorial V tiene una base que consta de n vectores,
a dicho número n se lo denomina dimensión de V y se denota dim(V) = n.

El espacio vectorial cero, V = {0}, está generado por el vector 0 pero {0} es un conjunto linealmente
dependiente, y por lo tanto no puede ser una base. Ya que el espacio cero no contiene un conjunto,
con al menos un elemento, que sea una base de él, se conviene en considerar que este espacio tiene
dimensión 0 y que es finito dimensional.
Al contar el número de elementos de las bases estándar de los espacios Rn , Pn y Mmn , se obtiene
la siguiente conclusión:

Material de uso interno Mateu-Semitiel 139


CAPÍTULO 4. ESPACIOS VECTORIALES

dim (Rn ) = n

dim (Pn ) = n + 1

dim (Mmn ) = mn

El espacio vectorial P es infinito dimensional (no existe un conjunto finito de polinomios que lo
genere). Similarmente, el espacio F(R) es de dimensión infinita ya que contiene un subespacio, el
espacio de todas las funciones polinómicas, que es infinito dimensional (el Teorema 4.11 justifica esta
afirmación).
Dado que un subespacio de un espacio vectorial es en sı́ mismo un espacio vectorial, tiene sentido
hablar de la dimensión de un subespacio:

Ejemplo 4.59. Se vió en el Ejemplo 4.35 que el conjunto

W = {(a + 2b, 2b, a − b, −b) : a, b ∈ R}

es un subespacio de R4 mostrando que W = gen {u1 , u2 } donde u1 = (1, 0, 1, 0) y u2 = (2, 2, −1, 1).
El conjunto S = {u1 , u2 } es entonces un generador de W . S es linealmente independiente ya que
consta de dos vectores tales que ninguno de ellos es múltiplo escalar del otro. Ası́, S es una base de
W y dim(W ) = 2.◀

Ejemplo 4.60. En el Ejemplo 4.36 se probó que el conjunto


  
a+b c
W = : a, b, c ∈ R
−b 2a
     
1 0 1 0 0 1
es un subespacio de M2 mostrando que W = gen , , .
0 2 −1 0 0 0
     
1 0 1 0 0 1
Ası́, el conjunto S = , , es un generador de W . Puede probarse
0 2 −1 0 0 0
que S es linealmente independiente verificando que
       
1 0 1 0 0 1 0 0
a +b +c =
0 2 −1 0 0 0 0 0

solo si a = b = c = 0. Luego, S es una base de W y dim(W ) = 3.◀

Ejemplo 4.61. Si S es un conjunto linealmente independiente en un espacio V, trivialmente S es una


base para el espacio gen(S) (S es linealmente independiente y, por definición, genera a gen(S)).
Por ejemplo, el conjunto S = {(1, 2, −1) , (0, −1, 3)} de R3 es una base de gen(S) puesto que S es
linealmente independiente (¿por qué?). Geométricamente gen(S) es un plano que pasa por el origen.◀

Material de uso interno Mateu-Semitiel 140


CAPÍTULO 4. ESPACIOS VECTORIALES


Ejemplo 4.62. Sea el subconjunto S = 1 + x5 , 2 + x − 4x2 del espacio P. Entonces el generado
por S es el siguiente conjunto:
   
gen(S) = a 1 + x5 + b 2 + x − 4x2 : a, b ∈ R = (a + 2b) + bx − 4bx2 + ax5 : a, b ∈ R .

El conjunto S es linealmente independiente y trivialmente genera a gen(S), por lo que S es una


base de gen(S). Ası́, dim (gen(S)) = 2.◀

El teorema siguiente muestra que la dimensión, n, de un espacio vectorial V finito dimensional es el


número máximo de vectores que puede tener un conjunto linealmente independiente en V y el número
mı́nimo de vectores que debe tener un conjunto generador de V.

Teorema 4.8. Sea V un espacio vectorial no cero de dimensión n y S un subconjunto no


vacı́o de V con m elementos.

1. Si S es linealmente independiente entonces m ≤ n.

2. Si S genera a V entonces m ≥ n.

Demostración. 1. Dado que la dimensión de V es n entonces V tiene una base que consta de n
vectores. De acuerdo con el Teorema 4.7 cualquier conjunto linealmente independiente en V
tiene a lo sumo n vectores. Ası́, m ≤ n.

2. Si S es linealmente independiente y como, por hipótesis, S genera a V, entonces S es una base


de V y por lo tanto S consta también de n vectores. Ası́, m = n.
Si en cambio S es linealmente dependiente entonces uno de los vectores de S es combinación
lineal de los restantes, si se elimina este vector se obtiene un conjunto S1 que consta de m − 1
vectores y que, de acuerdo al Teorema 4.4, también genera a V. Si S1 es linealmente independiente
entonces S1 es una base de V y dado que dim(V) = n resulta m − 1 = n y por lo tanto m > n. Si
S1 es linealmente dependiente, se repite este procedimiento. La eliminación reiterada de vectores
de S se termina cuando se obtiene un subconjunto de S, Sk , que consta de m − k elementos y
que es linealmente independiente y generador de V. Este conjunto Sk es entonces una base de V
y por lo tanto debe ser m − k = n. Luego, m > n.
Ası́, si S genera a V resulta m ≥ n.

Actividad 4.8. Sea S un conjunto que consta de 10 vectores de Rn . ¿Qué puede asegurarse respecto
al número n en cada uno de los siguientes casos?

1. S es linealmente independiente.

2. S es generador de Rn .

3. S es una base de Rn .

En general, para demostrar que un conjunto de vectores S = {u1 , u2 , ..., un } de un espacio vectorial
V es una base de V, se tiene que demostrar que los vectores son linealmente independientes y que
generan a V. Sin embargo, si se conoce de antemano que V tiene dimensión n, de modo que S tiene el
número correcto de vectores para ser una base, el teorema siguiente (Teorema 4.9) asegura que basta

Material de uso interno Mateu-Semitiel 141


CAPÍTULO 4. ESPACIOS VECTORIALES

comprobar solo uno de los dos requisitos. El siguiente lema es clave para la demostración de dicho
teorema:

Lema 4.1. (Ampliación de un conjunto linealmente independiente) Si S es un subconjunto


linealmente independiente de un espacio vectorial V y w es un vector de V que no pertenece
al espacio generado por S, entonces el conjunto que se obtiene agregando el vector w a S es
también linealmente independiente.

Demostración. Sea S = {u1 , u2 , ..., uk } un subconjunto linealmente independiente de V y w un vector


de V que no pertenece al gen(S).
Para demostrar que S ′ = {u1 , u2 , ..., uk , w} es linealmente independiente debe probarse que la
única combinación lineal de vectores de S ′ que da como resultado el vector 0 es la trivial. Sean
entonces c1 , c2 ,..., ck , c, escalares tales que
c1 u1 + c2 u2 + ... + ck uk + cw = 0. (4.6)
Necesariamente c = 0 ya que de otro modo:
 c   c   c 
1 2 k
w= − u1 + − u2 + ... + − uk ,
c c c
y w estarı́a en gen(S) contradiciendo la hipótesis.
Dado que c = 0 entonces cw = 0 por lo cual la igualdad (4.6) se convierte en:
c1 u1 + c2 u2 + ... + ck uk = 0,
y como por hipótesis S es linealmente independiente, necesariamente c1 = c2 = ... = ck = 0.
Ası́, la igualdad dada en (4.6) se verifica solo si c1 = c2 = ... = ck = c = 0, que prueba que S ′ es
linealmente independiente.

Teorema 4.9. Sea V un espacio vectorial no cero de dimensión n y sea S un subconjunto


de V con n vectores.

1. Si S es linealmente independiente entonces S es una base de V.

2. Si S genera a V entonces S es una base de V.

Demostración. 1. Sea S = {u1 , u2 , ..., un } un subconjunto linealmente independiente de V. Si S no


genera a V entonces hay un vector w en V que no pertenece al gen(S). Por el lema anterior, el
conjunto S1 = {u1 , u2 , ..., un , w} es linealmente independiente. Dado que S1 tiene n+1 elementos
esto contradice la parte 1 del Teorema 4.8 (todo subconjunto linealmente independiente consta
a lo sumo de n vectores). Por lo tanto, S genera a V y por ser linealmente independiente, S es
una base de V.
2. Sea S = {u1 , u2 , ..., un } un conjunto generador de V. Si S no es linealmente independiente
entonces uno de los vectores de S es combinación lineal de los restantes. Si se elimina este vector
del conjunto S, se tiene un subconjunto con n − 1 elementos y que, de acuerdo al Teorema 4.4,
sigue generando a V. Esto contradice la parte 2 del Teorema 4.8 (todo subconjunto generador
de V consta al menos de n vectores). Luego, S es linealmente independiente y como genera a V,
entonces S es una base de V.

Material de uso interno Mateu-Semitiel 142


CAPÍTULO 4. ESPACIOS VECTORIALES

Ejemplo 4.63. El conjunto S = {(1, 1), (2, −4)} de R2 es linealmente independiente (¿por qué?) y
tiene 2 elementos. Como dim R2 = 2 entonces S es una base de R2 .◀

El teorema siguiente puede ser muy útil en la práctica. En él se afirma que en un espacio vectorial
finito dimensional, procediendo adecuadamente, se puede obtener una base agregando vectores a un
conjunto linealmente independiente o quitando vectores de un conjunto generador.

Teorema 4.10. Sea V un espacio vectorial no cero de dimensión n y S un subconjunto no


vacı́o de V que consta de m elementos.

1. Si S es linealmente independiente y m < n, entonces S puede ampliarse a una base de


V.

2. Si S genera a V y m > n, entonces S contiene una base de V.

Demostración. 1. Sea S = {u1 , u2 , ..., um } un subconjunto linealmente independiente de V con


m < n elementos. S no puede generar a V puesto que se requieren al menos n vectores para
generarlo (Teorema 4.8, parte 2). Por lo tanto hay un vector u en V que no pertenece al gen(S).
El conjunto S1 = {u1 , u2 , ..., um , u} consta de m + 1 elementos y, de acuerdo al Lema 4.1, es
linealmente independiente. Si m + 1 = n entonces, por Teorema 4.9 parte 1, S1 es una base de
V. Si m + 1 < n entonces S1 no genera a V y se repite este procedimiento con S1 en lugar de S
hasta llegar a un conjunto Sk que es linealmente independiente y consta de n vectores. Por el
Teorema 4.9 parte 1, Sk es una base de V y contiene a S. Por lo tanto, S puede ampliarse a una
base de V.

2. Sea S un conjunto generador de V que consta de m > n vectores. S es linealmente dependiente


ya que n es el número máximo de vectores que puede tener un subconjunto linealmente inde-
pendiente de V (Teorema 4.8, parte 1). Dado que n ≥ 1 entonces S tiene al menos dos vectores
distintos y, por ser linealmente dependiente, uno de los vectores de S es combinación lineal de
los restantes. Si se elimina este vector, se obtiene un subconjunto S1 de S que contiene m − 1
elementos y que, de acuerdo al Teorema 4.4, sigue generando a V. Si m − 1 = n entonces, por
Teorema 4.9 parte 2, S1 es una base de V. Si m − 1 > n entonces S1 es linealmente dependiente
y se repite el procedimiento con S1 en lugar de S hasta llegar a un subconjunto de S, Sk , que es
generador de V y que consta de n elementos. Por el Teorema 4.9 parte 2, Sk es una base de V.
Por lo tanto todo conjunto generador de V contiene una base de V.

Dado un conjunto finito, S, en un espacio vectorial V la parte 2 del teorema anterior provee un
procedimiento para encontrar un subconjunto de S que es una base para el espacio gen(S). El ejemplo
siguiente es ilustrativo de esta construcción. El método puede resultar tedioso puesto que cada vez
que se elimina un vector se debe analizar la dependencia lineal de los vectores restantes. En la Sección
4.7 se proporcionará un método que permite encontrar de una manera más directa un subconjunto de
S que sea una base para el gen(S).

Ejemplo 4.64. Sea el subconjunto S = {p1 , p2 , p3 , p4 , p5 } del espacio vectorial P3 donde p1 = 1 + x +


2x3 , p2 = x + x2 − x3 , p3 = 2 + 3x + x2 + 3x3 , p4 = −1 + x2 − 3x3 y p5 = 1 + x + x2 + x3 , y se desea
encontrar una base para el espacio W = gen(S).

Material de uso interno Mateu-Semitiel 143


CAPÍTULO 4. ESPACIOS VECTORIALES

Claramente S es linealmente dependiente ya que consta de 5 polinomios de P3 y dim (P3 ) = 4.


Se deduce entonces que uno de los polinomios de S es combinación lineal de los restantes. Si no se
descubre a simple vista uno de tales polinomios, debe resolverse la ecuación:
    
c1 1 + x + 2x3 +c2 x + x2 − x3 +c3 2 + 3x + x2 + 3x3 +c4 −1 + x2 − 3x3 +c5 1 + x + x2 + x3 = 0.

Operando se obtiene

(c1 + 2c3 − c4 + c5 )+(c1 + c2 + 3c3 + c5 ) x+(c2 + c3 + c4 + c5 ) x2 +(2c1 − c2 + 3c3 − 3c4 + c5 ) x3 = 0,

que conduce al sistema lineal homogéneo




 c1 + 2c3 − c4 + c5 = 0

c1 + c2 + 3c3 + c5 = 0
 c2 + c3 + c4 + c5 = 0


2c1 − c2 + 3c3 − 3c4 + c5 = 0

Aplicando Gauss-Jordan a la matriz aumentada del sistema, se llega a su forma escalonada reducida
(verifı́quelo):
 
1 0 2 −1 0 : 0
 0 1 1 1 0 : 0 
 
 0 0 0 0 1 : 0 
0 0 0 0 0 : 0
Las variables libres son c3 y c4 y la solución general del sistema esá dada por c1 = −2r + t,
c2 = −r − t, c3 = r, c4 = t, c5 = 0 con t, r ∈ R.
Por lo tanto se mantiene la siguiente relación de dependencia lineal entre los polinomios p1 , p2 , p3 ,
p4 y p5 :
(−2r + t) p1 + (−r − t) p2 + rp3 + tp4 + 0p5 = 0, r, t ∈ R. (4.7)
El polinomio p5 no es una combinación lineal de los polinomios restantes mientras que, tomando
por ejemplo t = 1:
p4 = (2r − 1)p1 + (r + 1)p2 − rp3 + 0p5 , r ∈ R.

Si se elimina p4 de S se obtiene el conjunto S1 = {p1 , p2 , p3 , p5 } que genera el mismo espacio, W,


que S. Resolviendo la ecuación d1 p1 + d2 p2 + d3 p3 + d4 p5 = 0, o bien tomando t = 0 en la ecuación
(4.7), puede comprobarse rápidamente que estos vectores verifican la siguiente relación de dependencia
lineal:
(−2r)p1 + (−r)p2 + rp3 + 0p5 = 0, r ∈ R,
que muestra que S1 es linealmente dependiente y que p3 puede expresarse como combinación lineal de
los restantes polinomios de S1 . Considerando r ̸= 0:

p3 = 2p1 + p2 + 0p5 .

Eliminando p3 se obtiene el conjunto S2 = {p1 , p2 , p5 } que genera el mismo espacio, W, que S.


Es fácil comprobar que S2 es linealmente independiente sin resolver ninguna ecuación dado que p1
y p2 son linealmente independientes y p5 no es combinación lineal de ellos. Ası́ S2 es una base para
W = gen(S) que está contenida en S. ◀

Material de uso interno Mateu-Semitiel 144


CAPÍTULO 4. ESPACIOS VECTORIALES

Actividad 4.9. Considere el subconjunto S = {u1 , u2 } del espacio R4 donde u1 = (1, 2, 1, 0) y


u2 = (−1, 1, −1, 1). Siguiendo la demostración de la parte 1 del teorema anterior, amplı́e el conjunto
S hasta obtener una base de R4 .

El siguiente teorema demuestra que todo subespacio de un espacio vectorial V finito dimensional es
(como es de esperar) también finito dimensional y que su dimensión no supera a la dimensión de V.

Teorema 4.11. Sea V un espacio vectorial no cero de dimensión n y W un subespacio del


mismo. Entonces:

1. W es finito dimensional y dim(W) ≤ n.

2. dim(W) = n si y solo si W = V

Demostración. 1. Si W = {0} entonces W es finito dimensional y dim(W) = 0. Dado que n ≥ 1


entonces dim(W) < n.
Supóngase W ̸= {0}. Debe probarse que W contiene un conjunto finito que es una base de W y
que dicha base no contiene más de n vectores.
Dado que W no es el subespacio cero entonces W contiene subconjuntos linealmente independien-
tes (para cualquier vector w ̸= 0 en W, el conjunto unitario {w} es linealmente independiente).
Sea S = {w1 , w2 , ..., wm } un subconjunto de W que es linealmente independiente. Dado que
dim(V) = n, S contiene a lo sumo n vectores, esto es: m ≤ n. Si S genera a W entonces S es
una base de W. Ası́, W es finito dimensional y dim(W) = m ≤ n.
Si S no genera a W, hay un vector w en W que no pertence a gen(S). Agregando el vector
w al conjunto S se obtiene un subconjunto S1 de W que, de acuerdo al Lema 4.1, es también
linealmente independiente y por lo tanto tiene a lo sumo n vectores. Si S1 genera a W entonces
S1 es una base de W y por lo tanto W es finito dimensional y dim(W) ≤ n. Si S1 no genera
a W, se repite el procedimiento con S1 en lugar de S, y en no más de n pasos se llega a un
subconjunto, Sk , de W que contiene a lo sumo n vectores y que es linealmente independiente y
generador de W. El conjunto Sk es una base de W, ası́ W es finito dimensional y dim(W) ≤ n.
2. Trivialmente, si W es el propio espacio V entonces dim(W) = n.
Recı́procamente, supóngase que dim(W) = n. Si S es una base de W entonces S es un conjunto
generador de W que consta de n vectores linealmente independientes. Dado que S es también
un subconjunto de V que es linealmente independiente y dim(V) = n, de acuerdo al Teorema
4.9, S es una base de V. Por lo tanto gen(S) = V, y como gen(S) = W, resulta V = W.

Ejemplo 4.65. Los subespacios de R2 son:


Subespacios de dimensión cero: hay uno solo, el subespacio trivial {0}.
Subespacios unidimensionales: hay infinitos, todas las rectas que pasan por el origen. Son del
tipo gen {u} con u ̸= 0.
Subespacios bidimensionales: hay uno solo, el mismo espacio R2 .

Actividad 4.10. Describa geométricamente todos los subespacios de R3 .

Material de uso interno Mateu-Semitiel 145


CAPÍTULO 4. ESPACIOS VECTORIALES

Ejercicios 4.5

1. Determine si los conjuntos dados son bases de R3 :

a) {(1, −1, 3), (0, 4, −1), (1, 1, 1)}


b) {(1, 1, 1), (0, −1, 5)}
c) {(0, 0, 1), (1, −1, 2), (1, 0, 0), (0, 1, −1)}
d ) {(1, −1, 2), (2, 0, 4), (1, −2, 2)}

2. Determine si los conjuntos dados son bases de M2 :


       
1 2 3 4 5 6 7 8
a) , , ,
1 2 3 4 5 6 7 8
     
1 1 0 0 1 0
b) , ,
0 0 1 1 0 1
       
1 0 2 1 1 −1 −2 3
c) , , ,
1 1 −1 0 1 0 1 0
3. Determine si los conjuntos dados son bases de P2 :

a) 1 + x + x2 , 2 − x, x + 3x2

b) 1, 1 + 2x, 1 + 2x + 3x2 , 1 − x2

c) 1 + x, x + x2

d ) 2 − x + x2 , 3 + x + x2 , 5 + 2x2
 
a b
4. Sea el subespacio V de M2 que consta de todas las matrices de la forma . Demuestre
c a−b
que {E11 + E22 , E12 − E22 , E21 } es una base de V.

5. Pruebe que si {u1 , u2 , ..., un } es una base de un espacio vectorial V y c ̸= 0, entonces {cu1 , u2 , ..., un }
es también una base de V.

6. En cada caso, halle la dimensión del subespacio W de V:

a) W = {(a − b, b, 2a + b) : a, b ∈ R}; V = R3 .
b) W = {(a, b, 0) : a, b ∈ R}; V = R3 .
c) W = {(2a, −b, a + b) : a, b ∈ R}; V = R3 .

d) W es el conjunto de todos los vectores de R4 con primera y última componentes iguales a


cero; V = R4 .
e) W = gen {(1, 2, −1, 0) , (0, 3, 1, 0) , (1, 1, 1, 1) , (2, 6, 1, 1)}; V = R4 .
  
a b
f) W = : a, b ∈ R ; V = M2 .
2b a − b
       
1 −1 0 0 1 1 3 −1
g) W = gen , , , ; V = M2 .
2 0 1 0 −1 1 2 1

Material de uso interno Mateu-Semitiel 146


CAPÍTULO 4. ESPACIOS VECTORIALES


h) W = a + bx − (a + b)x2 : a, b ∈ R ; V = P2 .

i W = gen 1 + x, 1 − x2 , 2 + x4 , x + x4 ; V = P.

7. Indique el valor de a de modo que el subespacio gen 1 + x, −1 + 2x + ax2 , 2 + x − x2 de P2
sea de dimensión 2.

8. Halle la dimensión del subespacio W = {a cos x + b sen x : a, b ∈ R} de F (R).



9. Encuentre una base para el subespacio gen ex , xex , x2 ex de F (R) y obtenga su dimensión.

10. Halle la dimensión del subespacio gen cos2 x, sen2 x, 1 de F (R).

11. En cada caso el conjunto S genera al espacio V. Reduzca S hasta obtener una base de V:
         
 1 2 6 −1 2 
a) S =  1  ,  −1  ,  3  ,  3  ,  3  , V = R3 .
 
0 3 3 4 1
b) S = {1 + x, −5x, 3 + 4x}, V = P1 .

12. En cada caso S es un conjunto linealmente independiente del espacio V. Amplı́e S hasta obtener
una base de V:

a) S = {(1, −1, 3)}; V = R3 .


   
1 2 −1 1
b) S = , ; V = M2 .
1 0 3 0

13. Responda verdadero o falso. Justifique adecuadamente su respuesta:

a) Todo conjunto unitario S = {a} con a ̸= 0, es una base del espacio vectorial R.
b) R10 tiene un subespacio de dimensión 9.
c) Un subespacio no cero de R10 puede tener dos bases con diferente número de elementos.
d ) Un subespacio no cero de P5 puede tener una base con 7 elementos.
e) Un subespacio no cero de P5 puede tener una base con 5 elementos.
f ) Si S = {u, v} es un conjunto linealmente independiente del espacio vectorial V de dimensión
2, entonces {u − v, u + v} es una base de V.
g) Sea V un espacio vectorial de dimensión 3. Si {u, v, w} es conjunto generador de V, entonces
{2u, u − v, u + v + w} es una base de V.
h) Si V es un espacio vectorial de dimensión n y k es un número entero tal que 0 ≤ k ≤ n,
entonces hay un subespacio W de V tal que dim(W) = k.
i ) Para cualesquiera u y v vectores del espacio V, dim (gen {u, v}) = dim (gen {u − v, u + v}).
j ) Un espacio vectorial V tal que dim(V) = 1 no tiene subespacios propios.
k ) Si W es un subespacio no trivial de un espacio vectorial V de dimensión n ≥ 2, entonces
toda base de W puede ampliarse a una base de V.
l ) Si W es un subespacio no trivial de un espacio vectorial V de dimensión n ≥ 2, entonces
toda base de V contiene una base de W.

Material de uso interno Mateu-Semitiel 147


CAPÍTULO 4. ESPACIOS VECTORIALES

4.6. Coordenadas y cambio de base


En esta sección se estudia la relación entre la noción de base y la de sistema de coordenadas.
En la geometrı́a del plano se asocia un par ordenado (a, b) de números reales a un punto P en el
plano aplicando dos ejes perpendiculares x e y llamados ejes de coordenadas, a es la coordenada de P
con respecto al eje x y b es la coordenada de P con respecto al eje y (véase Figura 4.8).

Figura 4.8: Coordenadas (a, b) del punto P en el plano

También se pueden introducir coordenadas utilizando vectores. Por ejemplo, véase Figura 4.9, los
versores fundamentales i y j forman una base para R2 y puede verse que al bajar rectas perpendiculares
desde P hacia los ejes x e y determinados por los vectores i y j se obtienen los vectores ai y bj, y que
−−→
OP = ai + bj.

Figura 4.9: Vector OP en el plano

Las coordenadas a y b de P se pueden concebir como los números (coeficientes) necesarios para
−−→
expresar al vector v = OP como combinación lineal de los vectores de la base {i, j}.

Material de uso interno Mateu-Semitiel 148


CAPÍTULO 4. ESPACIOS VECTORIALES

Esta noción de coordenadas se puede extender a espacios más generales. Para esto es necesario un
resultado preliminar:

Teorema 4.12. Si S = {u1 , u2 , ..., un } es una base para un espacio vectorial V entonces
todo vector v en V se puede expresar como combinación lineal de los vectores de S de una
única manera. Es decir, para cada v de V existen únicos escalares c1 , c2 ,...,cn tales que

v = c1 u1 + c2 u2 + ... + cn un .

Demostración. Dado que S genera a V, todo vector de V se puede expresar como una combinación
lineal de los vectores de S. Se verá que la independencia lineal de S asegura que esta manera es única.
Para ello, supóngase que un vector v se puede escribir como

v = c1 u1 + c2 u2 + ... + cn un ,

y también como
v = k1 u1 + k2 u2 + ... + kn un .
Por lo tanto:
c1 u1 + c2 u2 + ... + cn un = k1 u1 + k2 u2 + ... + kn un ,
y operando se obtiene:

(c1 − k1 ) u1 + (c2 − k2 ) u2 + ... + (cn − kn ) un = 0,

que muestra al vector cero como una combinación lineal de los vectores de S y dado que S es linealmente
independiente, necesariamente:

c1 − k1 = 0, c2 − k2 = 0, ..., cn − kn = 0,

es decir
c1 = k1 , c2 = k2 , ..., cn = kn .
Luego, no hay dos maneras distintas de escribir a un vector de V como combinación lineal de los
elementos de una base. Ası́, quedó probado el teorema.

Bases ordenadas y vector de coordenadas


Se conoce que si V es un espacio vectorial de dimensión finita, n, y los vectores u1 , u2 , ..., un conforman
un conjunto S que es una base de V, no importa el orden en que se los considere. Ası́, por ejemplo:

S = {u1 , u2 , ..., un } = {u2 , u1 , ..., un } = {un , un−1 , ..., u1 } .

En esta sección interesará el orden en que se toman los vectores de una base y se hablará de bases
ordenadas.
Una base ordenada B es una base B = {u1 , u2 , ..., un } juntamente con el orden dado. Cambiar
el orden en que están enlistados los elementos de una base ordenada produce una base ordenada
diferente. En este sentido B1 = {u2 , u1 , ..., un } es una base ordenada distinta a la base ordenada B.

Material de uso interno Mateu-Semitiel 149


CAPÍTULO 4. ESPACIOS VECTORIALES

Definición (Vector de coordenadas). Sea V un espacio vectorial finito dimensional de


dimensión n y B = {u1 , u2 , ..., un } un base ordenada de V. Dado que B es una base de V,
para cada vector v de V existen únicos escalares c1 , c2 , ..., cn tales que

v = c1 u1 + c2 u2 + ... + cn un .

Los coeficientes c1 , c2 , ..., cn de la combinación lineal se denominan coordenadas del vector v


respecto a la base ordenada B. El coeficiente ci , correspondiente al i-ésimo vector ui de la
base B, es la coordenada i-ésima del vector v (respecto a la base ordenada B).
El vector de coordenadas de v respecto a la base ordenada B se denota por [v]B y es el vector
columna de Rn definido por  
c1
 c2 
 
[v]B =  .  .
 .. 
cn

Observe que un cambio en el orden de los vectores del conjunto B conduce a un cambio en el orden
de las componentes del vector de coordenadas de v y por lo tanto a vectores de coordenadas distintos.
De ahı́ la necesidad de imponer algún orden a los vectores que forman una base B y considerar bases
ordenadas de modo que no se produzcan ambigüedades al definir la i-ésima coordenada de v.
Toda base a lo largo de esta sección se considera una base ordenada aún cuando no se lo explicite.
Vale aclarar que el vector de coordenadas se tomó como vector columna aunque bien podrı́a haber
sido expresado en la forma
(v)B = (c1 , c2 , ..., cn ) .
La notación como columna es solo por conveniencia ya que es útil cuando se procede a describir
qué le sucede a las coordenadas de un vector v cuando se cambia de una base ordenada a otra.

Correspondencia entre V y Rn
Debe observarse que fijada una base ordenada B = {u1 , u2 , ..., un } de un espacio vectorial V de
dimensión n, existe una correspondencia biunı́voca entre el conjunto V y el conjunto Rn .
En efecto: la asignación
v → [v]B ,
hace corresponder a cada vector v de V un único vector de Rn , el vector [v]B .
 
c1
 c2 
 
Recı́procamente, cada vector  .  de Rn es el vector de coordenadas, con respecto a la base B,
 .. 
cn
de un único vector v de V, a saber, el vector v = c1 u1 + c2 u2 + ... + cn un .

Ejemplo 4.66. Sean las siguientes bases (ordenadas) de R2 , la estándar E = {e1 , e2 } y la base
B = {u1 , u2 } donde u1 = (1, 2) y u2 = (3, 1), y el vector v = (11, 7).
Puede verificarse rápidamente que

v = (11, 7) = 2(1, 2) + 3(3, 1) = 2u1 + 3u2 ,

Material de uso interno Mateu-Semitiel 150


CAPÍTULO 4. ESPACIOS VECTORIALES

y ası́, 2 y 3 son la primera y segunda coordenada de v respecto de la base B, respectivamente. Luego,


 
2
[v]B = .
3

Por otra parte,


v = (11, 7) = 11(1, 0) + 7(0, 1) = 11e1 + 7e2 ,
luego  
11
[v]E = .
7
En la Figura 4.10 se muestra al vector v considerado como combinación lineal de e1 y e2 y como
combinación lineal de u1 y u2 .◀

Figura 4.10: Vector v como combinación lineal de los vectores de E y B

Ejemplo 4.67. Considere los vectores u1 , u2 y v del ejemplo anterior. La base ordenada S = {u2 , u1 }
de R2 difiere de la base B = {u1 , u2 } por el orden de sus elementos. Entonces dado que

v = (11, 7) = 2u1 + 3u2 (= 3u2 + 2u1 ) ,

resulta  
3
[v]S = ,
2
que es distinto al vector de coordenadas [v]B . ◀

Material de uso interno Mateu-Semitiel 151


CAPÍTULO 4. ESPACIOS VECTORIALES

Ejemplo 4.68. (Obtención de v a partir de [v]B )


Considere la base B = {u1 , u2 , u3 } de R3 donde u1 = (1, 0, 2), u2 = (2, 1, −3) y u3 = (3, 1, 0). Si el
vector de coordenadas de un vector v de R3 en la base B es
 
−1
[v]B =  2  ,
4

entonces el vector v es

v = (−1)u1 + 2u2 + 4u3 = (−1, 0, −2) + (4, 2, −6) + (12, 4, 0) = (15, 6, −8). ◀

Ejemplo 4.69. (Vector de coordenadas del vector 0)


Sea B = {u1 , u2 , ..., un } una base de un espacio vectorial V. El vector de coordenadas del cero de V
es el vector 0 de Rn . Esto es:  
0
 0 
 
[0]B =  .  ,
 .. 
0
ya que el vector 0 de V se escribe como combinación lineal de los vectores de B de la siguiente única
manera:
0 = 0u1 + 0u2 + ... + 0un . ◀

Ejemplo 4.70. Sea B = {u1 , u2 , ..., un } una base de un espacio vectorial V. Los vectores de coorde-
nadas de los vectores u1 , u2 ,..., un con respecto a la base B que los contiene, son los vectores de la
base estándar de Rn , e1 , e2 ,...,en . En efecto, para todo j = 1, 2, ..., n:

uj = 0u1 + 0u2 + ... + 0uj−1 + 1uj + 0uj+1 + ... + 0un ,

luego
 
0
 0 
 
 .. 
 . 
 
[uj ]B = 
 1  ← j-ésima coordenada.

 .. 
 . 
 
 0 
0

Ası́, [uj ]B = ej para todo j = 1, 2, ..., n.◀

Ejemplo 4.71. (Coordenadas de un vector x de Rn con respecto a la base estándar)


Las coordenadas de un vector x = (x1 , x2 , ..., xn ) de Rn con respecto a la base estándar coinciden con
las componentes de dicho vector.

Material de uso interno Mateu-Semitiel 152


CAPÍTULO 4. ESPACIOS VECTORIALES

En efecto, sea E = {e1 , e2 , ..., en } la base estándar ordenada de Rn . Dado que:

x = (x1 , x2 , ..., xn ) = x1 e1 + x2 e2 + ... + xn en ,

entonces,  
x1
 x2 
 
[x]E =  .. .
 . 
xn
Puede observarse que el vector de coordenadas [x]E es el mismo vector x, escrito como vector
columna.◀

Encontrar las coordenadas de un vector particular usualmente involucra resolver un sistema de ecua-
ciones lineales a menos que la base tenga algo especial como la base canónica o estándar, o las bases
ortogonales que se verán en secciones posteriores.

Ejemplo 4.72. Sean las siguientes bases (ordenadas) de P2 : la base canónica E = 1, x, x2 y la base
B = {p1 , p2 , p3 } donde p1 = 1 + x + x2 , p2 = x + 2x2 y p3 = 2 + 3x2 .
Se quiere hallar los vectores de coordenadas [p]E y [p]B del polinomio p = 3
2 + 72 x − 2x2 .
3

Es muy fácil hallar las coordenadas de p en la base canónica E ya que p = 2 (1) + 72 (x) + (−2) x2 .
Luego:  
3/2
[p]E =  7/2  .
−2
Para hallar [p]B deben encontrarse los números (únicos) c1 , c2 y c3 tales que

c1 p1 + c2 p2 + c3 p3 = p,

esto es
   3 7
c1 1 + x + x2 + c2 x + 2x2 + c2 2 + 3x2 = + x − 2x2 ,
2 2
operando
3 7
(c1 + 2c3 ) + (c1 + c2 ) x + (c1 + 2c2 + 3c3 ) x2 = + x − 2x2 ,
2 2
y por igualdad de polinomios 
 c1 +2c3 = 3/2
c1 +c2 = 7/2

c1 +2c2 +3c3 = −2
La solución de este sistema es: c1 = 92 , c2 = −1 y c3 = − 32 , y por lo tanto
 
9/2
[p]B =  −1  . ◀
−3/2

Ahora se trata el problema central de esta sección, el problema del cambio de base.

Material de uso interno Mateu-Semitiel 153


CAPÍTULO 4. ESPACIOS VECTORIALES

Matriz de transición o de cambio de base


Supóngase que B1 = {u1 , u2 , ..., un } y B2 = {v1 , v2 , ..., vn } son dos bases ordenadas de un espacio
vectorial V de dimensión n. Se examinará la relación que existe entre los vectores de coordenadas [v]B1
y [v]B2 de cualquier vector v de V.
Sea v un vector de V cuyo vector de coordenadas en la base B1 es
 
c1
 c2 
 
[v]B1 =  .  ,
 .. 
cn

entonces
v = c1 u1 + c2 u2 + ... + cn un . (4.8)
Si se quiere encontrar el vector de coordenadas de v con respecto a la base B2 , [v]B2 , deben hallarse
los coeficientes que permiten expresar al vector v como combinación lineal de los vectores de la base
B2 . Para ello se expresará cada vector ui de la base B1 como combinación lineal de los vectores de la
base B2 . Sean entonces:
u1 = a11 v1 + a21 v2 + ... + an1 vn
u2 = a12 v1 + a22 v2 + ... + an2 vn
.. (4.9)
.
un = a1n v1 + a2n v2 + ... + ann vn
de modo que      
a11 a12 a1n
 a21   a22   a2n 
     
[u1 ]B2 =  ..  , [u ]
2 B2 =  ..  , ..., [u ]
n B2 =  .. .
 .   .   . 
an1 an2 ann
Reemplazando las expresiones (4.9) en (4.8) y operando (verifique) se obtiene el vector v expresado
como combinación lineal de los vectores de la base B2 :

v = (c1 a11 + c2 a12 + ... + cn a1n ) v1 +(c1 a21 + c2 a22 + ... + cn a2n ) v2 +...+(c1 an1 + c2 an2 + ... + cn ann ) vn .

Los coeficientes que acompañan a los vectores v1 , v2 ,..., vn de la expresión anterior son las coor-
denadas del vector v con respecto a la base B2 . Ası́, y por definición de producto de matrices:
    
c1 a11 + c2 a12 + ... + cn a1n a11 a12 ... a1n c1
 c1 a21 + c2 a22 + ... + cn a2n   a21 a22 ... a2n   c2 
    
[v]B2 =  ..  =  .. .. ..   ..  .
 .   . . ... .  . 
c1 an1 + c2 an2 + ... + cn ann an1 an2 ... ann cn
 
c1
 c2 
 
Dado que  ..  = [v]B1 , y llamando P a la matriz que lo premultiplica, entonces:
 . 
cn

[v]B2 = P [v]B1 ,

Material de uso interno Mateu-Semitiel 154


CAPÍTULO 4. ESPACIOS VECTORIALES

donde  
a11 a12 ... a1n
 a21 a22 ... a2n 
 
P = .. .. .. .
 . . ... . 
an1 an2 ... ann

La igualdad anterior muestra que premultiplicando el vector de coordenadas de un vector v en la


base B1 por la matriz P , se obtiene el vector de coordenadas del mismo vector v en la base B2 .
Debe observarse que la matriz P tiene como columnas a los vectores de coordenadas de los vectores
de la base B1 con respecto a la base B2 es decir
 
P = [u1 ]B2 [u2 ]B2 ... [un ]B2 .

Se ha probado el siguiente teorema:

Teorema 4.13. Sea V un espacio vectorial de dimensión n y sean B1 = {u1 , u2 , ..., un } y


B2 = {v1 , v2 , ..., vn } dos bases ordenadas de V. Entonces existe una matriz , P , de n × n tal
que:
∀ v ∈ V, [v]B2 = P [v]B1 .
 
En términos de sus columnas, P = [u1 ]B2 [u2 ]B2 ... [un ]B2 .

La matriz P del teorema anterior es la única matriz tal que para cada v en V, [v]B2 = P [v]B1 (puede
verse una demostración al final de esta sección). Esta matriz es llamada matriz de transición o de
cambio de base de la base B1 a la base B2 .

Ejemplo 4.73. (Cálculo de una matriz de transición) En el espacio vectorial R2 , sean las bases
ordenadas B1 = {u1 , u2 } y B2 = {v1 , v2 } donde u1 = (2, 0), u2 = (1, 2), v1 = (6, 3) y v2 = (4, −1).
La matriz P de transición de la base B1 a la base B2 tiene por columnas los vectores de coordenadas
de los vectores de B1 con respecto a la base B2 , es decir
 
P = [u1 ]B2 [u2 ]B2 .

Material de uso interno Mateu-Semitiel 155


CAPÍTULO 4. ESPACIOS VECTORIALES

Para calcular [u1 ]B2 , se deben determinar los coeficientes (únicos) a1 y a2 tales que

a1 v1 + a2 v2 = u1 ,

es decir
a1 (6, 3) + a2 (4, −1) = (2, 0) ,
o bien 
6a1 + 4a2 = 2
.
3a1 − a2 = 0
Se trata entonces de encontrar la (única) solución del sistema lineal de matriz aumentada:
 
6 4 : 2  
= v 1 v 2 : u1 ,
3 −1 : 0
entendiendo que v1 , v2 y u1 están expresados como vectores columna.
Similarmente, para hallar [u2 ]B2 , se deben determinar los (únicos) coeficientes b1 y b2 tales que

b1 v1 + b2 v2 = u2 ,

es decir
b1 (6, 3) + b2 (4, −1) = (1, 2) ,
o bien 
6b1 + 4b2 = 1
3b1 − b2 = 2
Se tiene entonces que hallar la (única) solución del sistema lineal de matriz aumentada:
 
6 4 : 1  
= v 1 v 2 : u2 .
3 −1 : 2
Como la matriz de coeficientes de los dos sistemas es la misma,
 éstos se pueden resolver en forma
simultánea llevando la matriz aumentada v1 v2 : u1 u2 a su forma escalonada reducida.
Aplicando Gauss-Jordan:
     
  6 4 : 2 1 6 4 : 2 1 6 4 : 2 1
v1 v2 : u1 u2 = → → →
3 −1 : 0 2 0 −3 : −1 23 0 1 : 31 − 12
 2
  1 1

6 0 : 3 1 0 :
→ 3 → 9 2 ,
0 1 : 1
3 − 12 0 1 : 1
3 − 12
por lo cual, la solución del primer sistema es a1 = 91 , a2 = 31 es decir
 1 
[u1 ]B2 = 91 ,
3

y la solución del segundo sistema es b1 = 12 , b2 = − 12 es decir


 1 
[u2 ]B2 = 2 .
− 12
Ası́, la matriz de transición de la base B1 a la base B2 es
 1 1

P = 1 9 2 .◀
3 −2
1

Material de uso interno Mateu-Semitiel 156


CAPÍTULO 4. ESPACIOS VECTORIALES

Obsérvese del ejemplo anterior que la matriz P de transición de la base B1 a la base B2 se obtuvo al
aplicar eliminación de Gauss-Jordan a la matriz
 
6 4 : 2 1  
= v1 v2 : u1 u2
3 −1 : 0 2

donde v1 y v2 son los vectores de la base final, B2 , y u1 y u2 son los vectores de la base inicial, B1 .
La forma escalonada reducida de esta matriz es la matriz de 2 × 4 que tiene en el lado izquierdo a
la matriz identidad, I2 , y en el lado derecho a la matriz P de transición de B1 a B2 :
 
1 0 : 91 1
2 = [I : P ] .
0 1 : 13 − 12
 
Debe
 notarse
 que la forma escalonada reducida de la matriz v 1 v 2 es la matriz identidad
I = e1 e2 . Esto no es casual ya que siendo {v1 , v2 } una base de R hay una única manera de
2

expresar
 un vector de R2 como combinación lineal de v1 y v2 , luego cualquier sistema lineal que tiene
a v1 v2 como matriz de coeficientes tiene solución única, y por lo tanto la forma escalonada
reducida de esta matriz es la matriz identidad I.
El procedimiento visto puede generalizarse como manera práctica para calcular una matriz de
cambio de base cuando el espacio vectorial V es Rn .

Cálculo de una matriz de cambio de base en el espacio Rn


Si B1 = {u1 , u2 , ..., un } y B2 = {v1 , v2 , ..., vn } son dos bases ordenadas de Rn , entonces para
hallar la matriz P de transición de la base B1 a la base B2 , el procedimiento es el siguiente:

Forme la matriz de n × 2n donde las primeras n columnas son los vectores (ordenados)
de la base B2 y las siguientes n columnas son los vectores (ordenados) de la base B1 :
 
v1 v2 ... vn : u1 u2 ... un .

Aplique el proceso de eliminación de Gauss-Jordan a dicha matriz. La matriz escalonada


reducida que se obtiene tiene en el lado izquerdo a la matriz identidad, In , y en el lado
derecho a la matriz P de transición buscada:
 
e1 e2 ... en : [u1 ]B2 [u2 ]B2 ... [un ]B2 .

Ejemplo 4.74. Sean las bases B1 y B2 de R2 del ejemplo anterior, y el vector v = (7, 6).
Se comprobará la relación [v]B2 = P [v]B1 . Para ello, se obtendrá [v]B2 en forma directa y se
verificará que el mismo resultado se obtiene pre-multiplicando la matriz P por el vector de coordenadas
[v]B1 .
Para calcular [v]B2 en forma directa debe resolverse el sistema lineal que permite encontrar las
coordenadas del vector v respecto a la base B2 . Deben hallarse los coeficientes c1 y c2 tales que

c1 (6, 3) + c2 (4, −1) = (7, 6) ,

o bien 
6c1 + 4c2 = 7
3c1 − c2 = 6

Material de uso interno Mateu-Semitiel 157


CAPÍTULO 4. ESPACIOS VECTORIALES

Resolviendo el sistema se obtiene c1 = 31


18 y c2 = − 65 . Ası́,
 31

[v]B2 = 18 .
− 56

Se utilizará ahora la matriz de transición P . Puede comprobarse fácilmente que:


 
2
v = (7, 6) = 2 (2, 0) + 3 (1, 2) , por lo que [v]B1 = .
3

Teniendo calculada la matriz P de transición de la base B1 a la base B2 solo un producto de


matrices es necesario para obtener [v]B2 :
 1 1
    31 
2
P [v]B1 = 91 2 = 18 .
3 − 1
2 3 − 56
Ası́ se ha obtenido el vector [v]B2 de dos maneras distintas.◀

En el Ejemplo 4.73 se halló la matriz P de transición de la base B1 a la base B2 . Se puede también


preguntar por la matriz de transición de la base B2 a la base B1 , es decir se considera a B2 como la
base inicial (o vieja) y a B1 como la base final (o nueva). Por definición, esta matriz de transición
tendrá como columnas los vectores de coordenadas de los vectores de la base inicial, B2 , con respecto
a la base nueva, B1 . Teniendo en cuenta el procedimiento para hallar esta matriz se deberá aplicar
eliminación de Gauss-Jordan a la matriz:
 
  2 1 : 6 4
u1 u2 : v1 v2 = ,
0 2 : 3 −1

obtiéndose (verificar) su forma escalonada reducida:


 
1 0 : 94 9
4 = [I : Q] ,
0 1 : 23 − 12
 9 9

siendo Q = 4 4 la matriz de transición de la base B2 a la base B1 .
3
2 − 12
Esta matriz es la única que satisface la siguiente propiedad:

[v]B1 = Q [v]B2 , ∀v ∈ V.
 1 1
 9 9
  
9 2 4 4 1 0
Puede observarse que P Q = = = I, y por lo tanto P es invertible
1
3 − 12 3
2 − 21 0 1
y Q = P −1 . En general, se tiene el siguiente teorema:

Teorema 4.14. Sea V un espacio vectorial de dimensión n, B1 y B2 dos bases ordenadas de


V y P la matriz de transición de B1 a B2 . Entonces P es invertible y P −1 es la matriz de
transición de B2 a B1 .

Material de uso interno Mateu-Semitiel 158


CAPÍTULO 4. ESPACIOS VECTORIALES

Demostración. Sea Q la matriz de transición de la base B2 a la base B1 . Se probará que P Q = I y


en consecuencia se conluirá que P es invertible y Q = P −1 .
Supóngase que B1 = {u1 , u2 , ..., un } y que la matriz producto de P por Q, dada en términos de
sus columnas, es P Q = c1 c2 ... cn . Dado que P es la matriz de transición de B1 a B2 :
[v]B2 = P [v]B1 , ∀v ∈ V,
y como Q es la matriz de transición de B2 a B1 entonces
[v]B1 = Q [v]B2 , ∀v ∈ V.
Luego, 
[v]B2 = P [v]B1 = P Q [v]B2 = (P Q) [v]B2 , ∀v ∈ V,
y por lo tanto
(P Q) [v]B2 = [v]B2 , ∀v ∈ V.

En particular para los vectores vj de la base B2 se tiene (P Q) [vj ]B2 = [vj ]B2 , ∀j = 1, 2, ..., n.
Dado que [vj ]B2 = ej , j = 1, 2, ..., n (véase Ejemplo 4.70) resulta
(P Q) ej = ej , ∀j = 1, 2, ..., n.
y como
(P Q) ej = cj , ∀j = 1, 2, ..., n,
entonces cj = ej , ∀j = 1, 2, ..., n. Por lo tanto, las columnas de P Q son e1 , e2 ,..., en es decir
 
P Q = e1 e2 ... en = I.
Ası́, P es invertible y Q = P −1 .

Figura 4.11: Relación entre los vectores de coordenadas en dos bases distintas

El concepto de matriz de transición está definido para cualquier espacio vectorial de dimensión finita.
En los ejemplos anteriores se calcularon matrices de transición en el espacio vectorial Rn . En el siguiente
ejemplo se obtendrá una matriz de transición en el espacio vectorial P2 :

Material de uso interno Mateu-Semitiel 159


CAPÍTULO 4. ESPACIOS VECTORIALES

Ejemplo 4.75. En el espacio vectorial P2 , considere las bases ordenadas B1 = {p1 , p2 , p3 } donde
p1 = 1, p2 = 1 + x y p3 = 1 + x + x2 y B2 = {q1 , q2 , q3 } donde q1 = 3 + x − x2 , q2 = x, q3 = 1 − x2 ,.
La matriz P de transición de la base B1 a la base B2 es
 
P = [p1 ]B2 [p2 ]B2 [p3 ]B2 .

Para calcular [p1 ]B2 se deben determinar los coeficientes a1 , a2 y a3 tales que

a1 q1 + a2 q2 + a3 q3 = p1 ,

reemplazando q1 , q2 , q3 , p1 y operando se tiene

(3a1 + a3 ) + (a1 + a2 ) x + (−a1 − a3 ) x2 = 1,

y por igualdad de polinomios se obtiene:



 3a1 +a3 = 1
a1 +a2 = 0

−a1 −a3 = 0

Procediendo de forma similar, para calcular [p2 ]B2 deben hallarse los coeficientes b1 , b2 y b3 tales
que 
 3b1 +b3 = 1
b1 +b2 = 1

−b1 −b3 = 0
y para calcular [p3 ]B2 deben hallarse los coeficientes c1 , c2 y c3 tales que

 3c1 c3 = 1
c1 +c2 = 1

−c1 −c3 = 1

Hay que resolver entonces tres sistemas lineales que tienen la misma matriz de coeficientes y por lo
tanto conviene hacerlo en forma simultánea. Para ello, se aplica Gauss-Jordan a la matriz aumentada
 
3 0 1 : 1 1 1
 1 1 0 : 0 1 1 
−1 0 −1 : 0 0 1

obteniéndose su forma escalonada reducida:


 1 1

1 0 0 : 2 2 1
 0 1 0 : − 1 1
0 .
2 2
0 0 1 : − 21 − 12 −2

La solución del primer sistema es a1 = 21 , a2 = − 12 y a3 = − 12 y por lo tanto


 1

2
[p1 ]B2 =  − 12 .
− 12

Material de uso interno Mateu-Semitiel 160


CAPÍTULO 4. ESPACIOS VECTORIALES

La solución del segundo sistema es b1 = 12 , b2 = 1


2 y b3 = − 12 y ası́
 1

2
[p2 ]B2 =  1
2
.
− 12

Y la solución del último sistema es c1 = 1, c2 = 0 y c3 = 2 por lo que


 
1
[p3 ]B2 =  0  .
−2

Luego, la matriz de transición P de la base B1 a la base B2 es


 1 1

2 2 1
P =  − 12 1
2 0 . ◀
− 2 − 2 −2
1 1

Observación 4.2. En el ejemplo, la matriz P de transición de la base B1 a la base B2 se obtuvo a


partir de la matriz  
3 0 1 : 1 1 1
 1 1 0 : 0 1 1 .
−1 0 −1 : 0 0 1
Puede observarse que la matriz de 3 × 3 de la izquierda tiene como columnas los vectores de
coordenadas
 de los polinomios de la base nueva, B2 = {q1 , q2 , q3 }, con respecto a la base estándar
E = 1, x, x de P2 y la matriz de 3×3 de la derecha tiene como columnas los vectores de coordenadas
2

de los polinomios de la base vieja, B1 = {p1 , p2 , p3 }, también con respecto a la base estándar E. Esto
es:  
3 0 1 : 1 1 1  
 1 1 0 : 0 1 1  = [q1 ]E [q2 ]E [q3 ]E : [p1 ]E [p2 ]E [p3 ]E .
−1 0 −1 : 0 0 1
La forma escalonada reducida es
 1 1

1 0 0 : 2 2 1  
 0 1 0 : −2 1 1
0  = e1 e2 e3 : [p1 ]B2 [p2 ]B2 [p3 ]B2
2
0 0 1 : − 21 − 12 −2

y la matriz de transición P de la base B1 a la base B2 es la matriz de 3 × 3 de la derecha.


Este procedimiento puede generalizarse como método para obtener matrices de transición, por
ejemplo, en los espacios vectoriales Mmn y Pn teniendo cuenta sus bases estándar (véase Ejercicio
4.6).

El siguiente teorema nos permitirá aplicar resultados de los vectores de Rn a los vectores de cualquier
espacio vectorial de dimensión n.

Material de uso interno Mateu-Semitiel 161


CAPÍTULO 4. ESPACIOS VECTORIALES

Teorema 4.15. Sea B una base de un espacio vectorial V de dimensión n y sean v1 , v2 ,...,
vk vectores de V, entonces:

1. El vector de coordenadas de una combinación lineal es la misma combinación lineal de


los vectores de coordenadas:

[c1 v1 + c2 v2 + ... + ck vk ]B = c1 [v1 ]B + c2 [v2 ]B + ... + ck [vk ]B

para todo c1 , c2 ,..., ck en R.

2. v es un vector del espacio generado por {v1 , v2 , ..., vk } si y solo si [v]B está en el espacio
generado por {[v1 ]B , [v2 ]B , ..., [vk ]B }.

3. El conjunto {v1 , v2 , ..., vk } es linealmente independiente (en V) si y solo si


{[v1 ]B , [v2 ]B , ..., [vk ]B } es linealmente independiente (en Rn ).

Demostración. Al final de la sección se encuentra una prueba de la parte 1. Las demás se han dejado
como ejercicio.

El resultado siguiente es una consecuencia inmediata del teorema anterior:

Corolario 4.3. Sean V un espacio vectorial de dimensión n y B una base de V. Entonces el


conjunto {v1 , v2 , ..., vn } es una base de V si y solo si {[v1 ]B , [v2 ]B , ..., [vn ]B } es una base de
Rn .

Ejemplo 4.76. Para demostrar que el conjunto S = {A1 , A2 , A3 , A4 } donde


       
1 −1 0 2 2 1 3 0
A1 = , A2 = , A3 = y A4 = ,
1 1 2 1 4 2 −1 −2
es una base de M2 , de acuerdo al corolario anterior, basta con demostrar que los vectores de coorde-
nadas de las matrices de S respecto a una base cualquiera de M2 forman una base de R4 .
Si en particular se considera la base estándar E = {E11 , E12 , E21 , E22 } de M2 , entonces el problema
consiste en determinar si el conjunto
S ′ = {[A1 ]E , [A2 ]E , [A3 ]E , [A4 ]E } ,
es una base de R4 . Por considerarse la base estándar, los vectores de coordenadas con respecto a dicha
base se obtienen directamente:
       
1 0 2 3
 −1   2   1   0 
[A1 ]E =       
 1  , [A2 ]E =  2  , [A3 ]E =  4  y [A4 ]E =  −1  .

1 1 2 −2

Fácilmente se comprueba que S ′ es una base de R4 (verifı́quelo) y por lo tanto S es una base de
M2 .◀

Material de uso interno Mateu-Semitiel 162


CAPÍTULO 4. ESPACIOS VECTORIALES

Unicidad de la matriz P de transición


Demostración. Sean B1 = {u1 , u2 , ..., un } y B2 = {v1 ,v2 , ..., vn } dos bases ordenadas
 de un espacio
vectorial V y la matriz de transición de B1 a B2 , P = [u1 ]B2 [u2 ]B2 ... [un ]B2 .
Se probará que P es la única matriz que verifica:

[v]B2 = P [v]B1 , ∀v ∈ V.

Para ello, supóngase que A es una matriz de n × n tal que

[v]B2 = A [v]B1 ,

para todo v ∈ V. En particular esta última igualdad debe verificarse para los vectores uj de la base
B1 . Es decir,
A [uj ]B1 = [uj ]B2 , ∀j = 1, 2, ..., n.
De acuerdo al Ejemplo 4.70 , [uj ]B1 = ej , luego

Aej = [uj ]B2 , ∀j = 1, 2, ..., n.

Por otra parte, si a1 , a2 ,..., an son las sucesivas columnas de la matriz A, entonces

Aej = aj , ∀j = 1, 2, ..., n.

Ası́,
aj = [uj ]B2 , ∀j = 1, 2, ..., n.
 
Luego, A = [u1 ]B2 [u2 ]B2 ... [un ]B2 y por lo tanto la matriz A es la matriz P de transición
de la base B1 a la base B2 .

Teorema 4.15 1. Sea B una base de un espacio vectorial V finito dimensional y sean v1 ,
v2 ,..., vk vectores de V Entonces: [c1 v1 + c2 v2 + ... + ck vk ]B = c1 [v1 ]B + c2 [v2 ]B + ... + ck [vk ]B
para todo c1 , c2 ,..., ck en R
Demostración. Sea el vector
w = c1 v1 + c2 v2 + ... + ck vk (4.10)
Supongamos que los vectores de coordenadas de los vectores v1 , v2 ,..., vk con respecto a la base
B son los siguientes vectores de Rn :
     
a11 a12 a1k
 a21   a22   a2k 
     
[v1 ]B =  ..  , [v ]
2 B =  ..  , ..., [v ]
k B =  ..  ,
 .   .   . 
an1 an2 ank

por lo cual

v1 = a11 u1 + a21 u2 + ... + an1 un


v2 = a12 u1 + a22 u2 + ... + an2 un
.. (4.11)
.
vk = a1k u1 + a2k u2 + ... + ank un

Material de uso interno Mateu-Semitiel 163


CAPÍTULO 4. ESPACIOS VECTORIALES

Reemplazando las expresiones (4.11) en (4.10) y operando (verificar), se obtiene el vector w ex-
presado como combinación lineal de los vectores de la base B:

w = (c1 a11 + c2 a12 + ... + ck a1k ) u1 +(c1 a21 + c2 a22 + ... + ck a2k ) u2 +...+(c1 an1 + c2 an2 + ... + ck ank ) un .

Los coeficientes que acompañan a los vectores u1 , u2 ,..., un de la expresión anterior son las coor-
denadas del vector w con respecto a la base B. Ası́:
 
c1 a11 + c2 a12 + ... + ck a1k
 c1 a21 + c2 a22 + ... + ck a2k 
 
[c1 v1 + c2 v2 + ... + ck vk ]B =  .. 
 . 
c1 an1 + c2 an2 + ... + ck ank
     
a11 a12 a1k
 a21   a22   a2k 
     
= c1  .  + c2  .  + ... + ck  . 
 . 
.  . .  .. 
an1 an2 ank

= c1 [v1 ]B + c2 [v2 ]B + ... + ck [vk ]B .

Ejercicios 4.6

1. En el espacio R2 , sea u = (0, 4). Calcule el vector de coordenadas [u]B siendo B = {(−1, 3), (2, −2)}.

2. En cada caso, calcule el vector de coordendas, [p]B , con respecto a la base B en el espacio Pn
indicado:

a) B = 1 + 2x, −x2 , x + x2 base de P2 , p = −1 + 3x + 2x2
b) B = {1 + 2x, 2 − 3x} base de P1 , p = −1 − 4x

c) B = 1, 1 + x, 1 + x + x2 , 1 + x + x2 + x3 base de P3 , p = −2 + x − x2 + 4x3

3. Obtenga, a partir de la base B del espacio R3 y el vector de coordendas [x]B , el vector x.


 
2
a) B = {e2 , e1 , e3 }, [x]B =  1 
−5
 
−1
b) B = {e1 , e1 + e2 , e1 + e2 + e3 }, [x]B =  2 
5
 
1
c) B = {(−1, 2, 0), (0, 1, 1), (3, −1, −2)}, [x]B = 0 

3

4. Halle el polinomio p en cada caso, siendo B una base del espacio Pn y [p]B su vector de coorde-
nadas.

Material de uso interno Mateu-Semitiel 164


CAPÍTULO 4. ESPACIOS VECTORIALES

 
−2
a) B = {1 + 2x, −2 + x} una base de P1 , [p]B =
3
 
 1
b) B = x, x2 , 1 una base de P2 , [p]B =  2 
−3
 
0
  2 
c) B = 1 + x + x3 , x − x2 , 2 − 3x + x2 , x + x2 − x3 una base de P3 , [p]B = 
 3 

−4
       
1 1 2 0 1 2 −2 0
5. Sea B = , , , una base del espacio M22 .
0 0 −1 0 3 4 0 0
a) Obtenga la matriz A si (A)B = (4, 2, 6, −3).
 
−1 3
b) Halle el vector de coordenadas de la matriz con respecto a la base B.
1 2
6. Sea el subespacio finito dimensional W = {aex + be−x : a, b ∈ R} de F(R).
a) Obtenga una base para W y denomı́nela S.
b) Calcule el vector de coordenadas [f ]S siendo f (x) = cosh x, x ∈ R.
 1 
c) Halle g(x) si [g]S = 2
− 12
7. Demuestre el recı́proco del Teorema 4.12: Sea S = {u1 , u2 , ..., un } un subconjunto de un espacio
vectorial V. Si todo vector v de V puede escribirse de manera única como combinación lineal de
los vectores de S entonces S es una base de V.
8. Halle la matriz de transición de la base B1 a la base B2 del espacio V que se indica en cada caso:
a) V = R2 ; bases B1 = {u1 , u2 } y B2 = {v1 , v2 } donde u1 = (−2, 3), u2 = (1, −1),
v1 = (0, −2), v2 = (3, 2).
b) V = R3 ; bases B1 = {u1 , u2 , u3 } y B2 = {v1 , v2 , v3 } donde u1 = e2 , u2 = e3 , u3 = e1 ,
v1 = e1 , v2 = e2 , v3 = e3 .
c) V = P1 ; bases B1 = {p1 , p2 } y B2 = {q1 , q2 } donde p1 = 1, p2 = 2 + x, q1 = 2 − x,
q2 = 3 + 4x.
d ) V = M22 ; bases B1 = {A1 , A2 , A3 , A4 } y B2 = {C1 , C2 , C3 , C4 } donde
A1 = E11 C1 = E11
A2 = E11 + E12 C2 = E12
A3 = E11 + E12 + E21 C3 = E21
A4 = E11 + E12 + E21 + E22 C4 = E22

9. Considere las bases de R3 , B1 = {u1 , u2 , u3 } y B2 = {v1 , v2 , v3 }, donde u1 = (1, 1, 1), u2 =


(−1, 3, 0), u3 = (2, 0, 3), v1 = (0, 0, 2), v2 = (−1, 0, 0), v3 = (2, −1, 5).
a) Encuentre la matriz de transición, P , de la base B1 a la base B2 .
b) Halle la matriz de transición de la base B2 a la base B1 de dos maneras distintas:
i) utilizando la definición de matriz de transición.
ii) calculando la inversa de la matriz P .

Material de uso interno Mateu-Semitiel 165


CAPÍTULO 4. ESPACIOS VECTORIALES

10. (Rotación de los ejes coordenados) En muchos problemas se da un sistema de coordenadas


rectangulares XY y se obtiene un nuevo sistema de coordenadas X ′ Y ′ al hacer girar el sistema
XY en sentido contrario a las agujas del reloj alrededor del origen, un ángulo θ. Entonces cada
punto R en el plano tiene dos conjuntos de coordenadas, las coordenadas (x, y) con respecto
al sistema XY y las coordenadas (x′ , y ′ ) relativas al sistema X ′ Y ′ . Al introducir los vectores
unitarios (longitud 1) e1 y e2 a lo largo de los ejes X y Y positivos, y los vectores unitarios v1 ,
v2 a lo largo de los ejes X ′ y Y ′ positivos, esta rotación se puede considerar como un cambio de
base, de la base E = {e1 , e2 } a la base B = {v1 , v2 }.

Por tanto las nuevas coordenadas de R cumplen la relación


 ′   
x x
=P ,
y′ y

donde P es la matriz de cambio de base de E a B.


De la figura siguiente puede observarse que:

Material de uso interno Mateu-Semitiel 166


CAPÍTULO 4. ESPACIOS VECTORIALES

v1 = cos θ e1 + sen θ e2 ,
 π  π
v2 = cos θ + e1 + sen θ + e2 = − sen θ e1 + cos θ e2 .
2 2

Luego,    
cos θ − sen θ
[v1 ]E = y [v2 ]E =
sen θ cos θ
Ası́, la matriz Q de transición de B a E es
 
  cos θ − sen θ
Q= [v1 ]E [v2 ]E =
sen θ cos θ

y la matriz P de transición de E a B es
 
−1 cos θ sen θ  
P =Q = = [e1 ]B [e2 ]B .
− sen θ cos θ

Por lo tanto, se verifican las siguientes relaciones entre los vectores de coordenadas:
    ′ 
x cos θ − sen θ x
=
y sen θ cos θ y′
y     
x′ cos θ sen θ x
= .
y′ − sen θ cos θ y

Considere ahora una rotación de ángulo θ = π4 .

a) Si las coordenadas del punto R en el sistema XY son x = 2, y = 4, obtenga las coordenadas


de dicho punto en el sistema final X ′ Y ′ rotado.

b) Si las coordenadas del punto S en el sistema X ′ Y ′ rotado son x′ = 0, y ′ = 3 2 2 , halle las
coordenadas x, y de dicho punto en el sistema inicial XY .

11. En el espacio P3 , considere la base estándar E y la base B = 1, 2x, −2 + 4x2 , −12x + 8x3
(polinomios de Hermite).

a) Obtenga el vector de coordenadas del polinomio q = −1 + 2x + x2 − x3 con respecto a la


base B de manera directa.
b) Halle la matriz de transición, P , de la base E a la base B.
c) Encuentre el vector de coordenadas del polinomio q con respecto a la base B usando la
matriz obtenida en el ı́tem anterior.
d ) Verifique que P −1 [q]B = [q]E .

12. (Caso particular


 de la parte 1 del Teorema 4.15) Considere el espacio vectorial P2 y la
base B = 1, 1 + x, 1 + x + x2 . Para los polinomios p1 = 2x + x2 y p2 = 5 − 3x, verifique:

a) [p1 + p2 ]B = [p1 ]B + [p2 ]B


b) [cp1 ]B = c [p1 ]B , para todo c ∈ R

13. Pruebe los incisos 2 y 3 del Teorema 4.15.

Material de uso interno Mateu-Semitiel 167


CAPÍTULO 4. ESPACIOS VECTORIALES

14. Usando el Teorema 4.15 o su corolario pruebe que:


     
−1 3 1 0 0 1
a) Las matrices , y forman un conjunto linealmente indepen-
1 2 −1 5 1 1
diente de M22 .

b) gen 1 + x + x2 , −x − 4x2 , 1 + x + 2x2 , −1 + x + x2 = P2

c) El conjunto B = 1 + x − x2 + x3 , 2 − 3x + 4x2 , 1 − x2 + x3 , 2 + 3x + 5x3 es una base del
espacio P3 .

15. (Scilab) En el espacio vectorial M2 considere las siguientes bases:


       
1 1 1 1 1 1 1 0
B1 = , , , ,
1 1 1 0 0 0 0 0
       
1 1 0 2 −2 0 0 −12
B2 = , , , .
0 0 0 0 4 0 0 8

Teniendo en cuenta la Observación 4.2, para hallar la matriz de transición de la base B1 a la


base B2 se lleva la matriz
 
1 0 −2 0 : 1 1 1 1
 1 2 0 −12 : 1 1 1 0 
 
 0 0 4 0 : 1 1 0 0 
0 0 0 8 : 1 0 0 0

a su forma escalonada reducida. Las primera cuatro columnas de esta matriz son los vectores de
coordenadas con respecto a la base estándar de M2 , de las matrices de la base B2 y las cuatro
últimas columnas son los vectores de coordenadas también con respecto a la base estándar de
M2 , de las matrices de la base B1 .
Aplicando Gauss-Jordan se obtiene:
 
1 0 0 0 : 3/2 3/2 1 1
 0 1 0 0 : 1/2 −1/4 0 −1/2 
 .
 0 0 1 0 : 1/4 1/4 0 0 
0 0 0 1 : 1/8 0 0 0

La matriz 4 × 4 de la derecha es la matriz de transición de B1 a B2

a) Usando el comando “rref”, verifique el resultado anterior.


b) Halle la matriz de transición de la base B2 a la base B1 .

16. (Scilab) En el espacio vectorial P4 , considere las bases ordenadas:



B1 = 1 + x2 + x4 , 1 + x − x2 + x3 + x4 , 2 + 2x − 2x3 − 2x4 , 3 + 4x + 3x3 + 4x4 , −1 + x + x2 + 5x3 ,

B2 = 1 + x − x4 , −1 + 2x + 2x2 + 2x4 , 2x − x2 + 2x3 + 2x4 , 1 + x + x2 + x3 , 1 + x2 + 4x3 .
Obtenga las dos matrices de transición (de la base B1 a la base B2 y de la base B2 a la base B1 ).

Material de uso interno Mateu-Semitiel 168


CAPÍTULO 4. ESPACIOS VECTORIALES

4.7. Rango y nulidad de una matriz


En esta sección se estudiarán tres espacios vectoriales importantes asociados a una matriz: el espacio
de renglones, el espacio de columnas y el espacio nulo.

Definición (Espacios de renglones y columnas). Sea A una matriz de m × n,


 
a11 a12 . . . a1n
 a21 a22 . . . a2n 
 
A= . .. .. ..  .
 .. . . . 
am1 am2 . . . amn

Los vectores

r1 = (a11 , a12 , ..., a1n ) , r2 = (a21 , a22 , ..., a2n ) , ... , rm = (am1 , am2 , ..., amn ) ,

formados a partir de los renglones de A se conocen como vectores renglón de A, mientras que
los vectores      
a11 a12 a1n
 a21   a22   a2n 
     
a1 =  .  , a2 =  .  , ..., an =  .  ,
 . 
.  . 
.  . 
.
am1 am2 amn
son los vectores columna de A.
El espacio de renglones de A es el subespacio de Rn generado por los vectores renglón de A.
Se simboliza ren(A).
El espacio de columnas de A es el subespacio de Rm generado por los vectores columna de
A. Se simboliza col(A).

 
1 2 1
Ejemplo 4.77. Para la matriz A = , los espacios de columnas y de renglones de A son:
3 0 3
   
1 2
col(A) = gen , ,
3 0
y
ren(A) = gen {(1, 2, 1) , (3, 0, 3)} ,
respectivamente.◀

El objetivo de esta sección es proveer un método práctico para encontrar bases para el espacio generado
por un conjunto de vectores de Rn . Para ello, se tratará primero el problema de la obtención de bases
para los espacios de renglones y de columnas de una matriz.

Una base para el espacio de los renglones de una matriz


El lema siguiente es clave para la determinación de una base para el espacio de renglones de una
matriz.

Material de uso interno Mateu-Semitiel 169


CAPÍTULO 4. ESPACIOS VECTORIALES

Lema 4.2. Las operaciones elementales de renglones no cambian el espacio de renglones de


una matriz: si A y B son matrices equivalentes por renglones entonces ren(A) = ren(B).

Demostración. Para probar que ren(A) = ren(B), se mostrará que todo vector en ren(A) es un vector
de ren(B) y recı́procamente.
Dado que la matriz B se obtiene de la matriz A a través de una sucesión de operaciones elementales
de renglón (suma de vectores y multiplicación por escalares no cero), todo renglón de B es una
combinación lineal de los renglones de A. Como todo vector en ren(B) es una combinación lineal de
renglones de B y éstos a su vez son combinaciones lineales de renglones de A, entonces todo vector
en ren(B) es una combinación lineal de renglones de A. Esto prueba que todo vector en ren(B) es un
vector en ren(A).
Recı́procamente, invirtiendo las operaciones elementales que llevaron la matriz A a la matriz B
se obtiene A a partir de B, y por lo tanto todo vector de ren(A) es una combinación lineal de los
renglones de B, es decir, todo vector en ren(A) es un vector en ren(B).

Teorema 4.16. Los renglones no cero de una matriz en forma escalonada por renglones
forman una base para su espacio de renglones.

Una demostración de este teorema se encuentra al final de esta sección.

Teorema 4.17. Los renglones no cero de cualquier forma escalonada por renglones de una
matriz A forman una base para el espacio ren(A).

Demostración. Sea B una forma escalonada de A. Por el teorema anterior, los renglones no cero de
B forman una base para su espacio de renglones. Dado que ren(A) = ren(B) (Lema 4.2) entonces los
renglones no cero de B forman una base para el espacio ren(A).

Es inmediato el siguiente resultado:

Corolario 4.4. La dimensión del espacio de renglones de una matriz A es el número de


renglones no cero de una forma escalonada por renglones de A.

Estos resultados pueden ser aplicados para facilitar la búsqueda de una base para el espacio generado
por un conjunto de vectores de Rn .

Ejemplo 4.78. Supóngase que se quiere encontrar una base para el espacio generado por los siguientes
vectores de R5 : v1 = (1, −2, 0, 0, 3), v2 = (2, −5, −3, −2, 6), v3 = (0, 5, 15, 10, 0) y v4 = (2, 6, 18, 8, 6).
El espacio generado por el conjunto S = {v1 , v2 , v3 , v4 }, es el espacio de renglones de la matriz
 
1 −2 0 0 3
 2 −5 −3 −2 6 
A=  0
.
5 15 10 0 
2 6 18 8 6

Material de uso interno Mateu-Semitiel 170


CAPÍTULO 4. ESPACIOS VECTORIALES

Al llevar esta matriz a una forma escalonada se obtiene (verifı́quelo):


 
1 −2 0 0 3
 0 1 3 2 0 
B=  0
.
0 1 1 0 
0 0 0 0 0

Los vectores renglón diferentes de cero en esta matriz son: u1 = (1, −2, 0, 0, 3), u2 = (0, 1, 3, 2, 0) y
u3 = (0, 0, 1, 1, 0). Estos vectores forman una base para ren(A) = gen(S). Obsérvese que los vectores
u2 y u3 no son vectores de S.◀

El ejemplo anterior ofrece un método para encontrar una base del espacio generado por un conjunto
finito de vectores de Rn :

Cálculo de una base para gen(S)


Sea S = {u1 , u2 , ..., um } un subconjunto de Rn . Entonces se puede determinar una base para
gen(S) como sigue:

1. Forme la matriz A de m × n cuyos renglones son u1 , u2 ,...,um .

2. Reduzca A hasta una forma escalonada B.

3. Una base para gen(S) es el conjunto de los vectores renglón no cero de B.

Observación 4.3. Este método produce una base de gen(S) formada por vectores que, en general,
no son del conjunto S. La ventaja es que este método produce bases “simples” ya que se obtienen
vectores con varias componentes cero.

Una base para el espacio de las columnas de una matriz


Es evidente que, excepto por un cambio de notación vertical a horizontal, el espacio de columnas de
una matriz A es el mismo que el espacio de renglones de At . Por lo tanto, se puede encontrar una base
para col(A) hallando una base para ren(At ) y luego “volviendo” a la notación vertical.

Ejemplo 4.79. Se quiere hallar una base del espacio de columnas de


 
1 0 1 1
A= 3 2 5 1 .
0 4 4 −4

Al transponerla se obtiene  
1 3 0
 0 2 4 
At = 
 1
,
5 4 
1 1 −4

Material de uso interno Mateu-Semitiel 171


CAPÍTULO 4. ESPACIOS VECTORIALES

y llevando At a una forma escalonada se llega a (verifı́quelo):


 
1 3 0
 0 1 2 
 .
 0 0 0 
0 0 0

Por lo tanto, los vectores (1, 3, 0) y (0, 1, 2) forman una base para ren(At ) o, lo que es equivalente,
los vectores    
1 0
u1 =  3  y u2 =  1  ,
0 2
forman una base para col(A). Nótese que el vector u2 de la base obtenida no es una columna de A es
decir se obtuvo una base de col(A) que no está compuesta totalmente por columnas de dicha matriz.◀

En el ejemplo anterior se usó el hecho de que col(A) = ren(At ) y se aplicó la técnica del Ejemplo 4.78
a la matriz At para hallar una base de col(A).
A continuación se darán una serie de resultados que brindarán una forma alternativa de hallar una
base para el espacio de columnas de una matriz A que esté formada exclusivamente por columnas de
dicha matriz. Para ello se verá primero el siguiente ejemplo:

Ejemplo 4.80. Se aplicará una sucesión de operaciones elementales a una matriz A hasta obtener
una forma escalonada (eliminación gaussiana). Se mostrará que las columnas de todas las matrices del
proceso, satisfacen las mismas relaciones de dependencia lineal.

     
1 −2 2 3 0 1 −2 2 3 0 1 −2 2 3 0
A =  −1 2 −1 −2 1 →B= 0 0 1 1 1 →C= 0 0 1 1 1 .
3 −6 5 8 −1 0 0 −1 −1 −1 0 0 0 0 0
En la matriz escalonada C se vé rápidamente, por la forma en que están dispuestos los ceros,
que las columnas pivote c1 y c3 son linealmente independientes. Además se puede observar que las
otras columnas son combinaciones lineales de éstas dos: c2 = −2c1 , c4 = c1 + c3 , c5 = −2c1 + c3 .
Por lo tanto, reduciendo el conjunto generador, col(C) = gen {c1 , c2 , c3 , c4 , c5 } = gen {c1 , c3 }. Ası́ el
conjunto de las columnas pivote de C, {c1 , c3 } es linealmente independiente y generador de col(C), y
por lo tanto es una base de col(C).
Puede comprobarse también para la matriz B, que las correspondientes columnas verifican las
mismas relaciones: b1 y b3 son linealmente independientes y las otras columnas verfican también:
b2 = −2b1 , b4 = b1 + b3 , b5 = −2b1 + b3 . Ası́, {b1 , b3 } es una base de col(B).
Es más difı́cil ver las relaciones de dependencia lineal entre las columnas de la matriz A pero
puede verificarse que las columnas pivote, a1 y a3 , son linealmente independientes y las otras columnas
verifican también las relaciones: a2 = −2a1 , a4 = a1 + a3 , a5 = −2a1 + a3 . Por lo tanto, el conjunto
formado por las columnas pivote de A, {a1 , a3 }, es una base de col(A). ◀

Observación 4.4. Debe advertirse que el espacio generado por las columnas de una matriz varı́a,
en general, por operaciones elementales de renglón. Nótese del ejemplo anterior, que las columnas
pivote de la matriz C forman una base para col(C) pero no forman una base para el espacio col(A)
(col(A) ̸= col(C)).

Material de uso interno Mateu-Semitiel 172


CAPÍTULO 4. ESPACIOS VECTORIALES

Lo mostrado en el ejemplo no es casualidad. Los siguientes teoremas conducen al resultado principal:


las columnas pivote de una matriz forman una base para su espacio de columnas.

Lema 4.3. Si las matrices A y B son equivalentes por renglones, las columnas de A y B
verifican
 las mismas relaciones
 de dependencia lineal. Esto es, si A = a1 a2 ... an y
B = b1 b2 ... bn ,

c1 a1 + c2 a2 + ... + cn an = 0 ⇔ c1 b1 + c2 b2 + ... + cn bn = 0.

Demostración. Dado que una columna cero no se modifica por una operación elemental de renglón, la
misma sucesión de operaciones elementales que transforman la matriz A en la matriz B, transforman la
matriz aumentada [A : 0] en la matriz [B : 0]. Luego, estas dos matrices aumentadas son equivalentes
por renglones y en consecuencia los sistemas lineales homogéneos Ax = 0 y Bx = 0 tienen las mismas
soluciones. Entonces
Ac = 0 ⇔ Bc = 0.
Si las componentes del vector c son c1 , c2 ,..., cn , por definición de producto de una matriz por un
vector, la equivalencia anterior resulta

c1 a1 + c2 a2 + ... + cn an = 0 ⇔ c1 b1 + c2 b2 + ... + cn bn = 0.

Este lema indica que si A y B son matrices equivalentes por renglones, un conjunto de columnas de
A es linealmente dependiente (o independiente) si y solo si las correspondientes columnas de B son
linealmente dependientes (o independientes).
Por el momento nos restringiremos a las matrices que están en forma escalonada. Se verá que es
fácil encontrar una base para el espacio de columnas de tales matrices.

Teorema 4.18. Las columnas pivote de una matriz que está en forma escalonada por ren-
glones forman una base para su espacio de columnas.

Una demostración de este teorema se puede ver al final de esta sección. Pasemos ahora al caso general:

Teorema 4.19. Las columnas pivote de una matriz A forman una base para el espacio
col(A).

   
Demostración. Sea A = a1 a2 ... an una matriz de m × n, y B = b1 b2 ... bn una
forma escalonada de A.
Sean bl1 , bl2 ,..., blk las columnas pivote de B. Por el teorema anterior, éstas forman una base para
col(B) y por lo tanto son linealmente independientes y las restantes columnas de B son combinaciones
lineales de ellas.
De acuerdo al Lema 4.3 las columnas de A y B guardan las mismas relaciones de dependencia lineal.
Luego, las correspondientes columnas (pivotes) de A, al1 , al2 ,..., alk , forman un conjunto linealmente
independiente y las restantes columnas son combinaciones lineales de ellas. Por lo tanto,

col(A) = gen {a1 , a2 , ..., an } = gen {al1 , al2 , ..., alk } .

Material de uso interno Mateu-Semitiel 173


CAPÍTULO 4. ESPACIOS VECTORIALES

Ası́, el conjunto de las columnas pivote de A, {al1 , al2 , ..., alk }, es linealmente independiente y
generador de col(A), y por lo tanto es una base de col(A).

Corolario 4.5. La dimensión del espacio de columnas de una matriz A es el número de


columnas pivote de A.

Ejemplo 4.81. Como aplicación del teorema anterior, suponga que se pide encontrar un subconjunto
de S = {v1 , v2 , v3 , v4 } donde v1 = (1, −2, 0, 0, 3), v2 = (2, −5, −3, −2, 6), v3 = (0, 5, 15, 10, 0) y
v4 = (2, 6, 18, 8, 6), que sea una base para gen(S). Para ello se forma la matriz A cuyas columnas son
dichos vectores:
 
1 2 0 2
 
   −2 −5 5 6 
A = v1 v2 v3 v 4 =   0 −3 15 18  ,

 0 −2 10 8 
3 6 0 6
entonces gen(S) = col(A). De acuardo al Teorema 4.19 el conjunto de las columnas pivote de A forman
una base de col(A). Estas columnas se identifican llevando A a una forma escalonada para obtener las
posiciones pivote. Una forma escalonada de A es la matriz B (verifı́quelo):
 
1 2 0 2
 
 0 −1 5 10 
 
B= 0 0 0 1 .
 
 0 0 0 0 
0 0 0 0

Las posiciones pivote muestran que las columnas pivote son la 1era, la 2da y la 4ta. Por lo tanto, el
conjunto {v1 , v2 , v4 } es una base para col(A). Luego, ésta es una base de gen(S) formada por vectores
de S.◀

El ejemplo anterior ofrece un método para hallar una base del espacio generado por un conjunto finito,
S, de vectores de Rn que esté compuesta exclusivamente por vectores de S.

Cálculo de una base para gen(S) formada por vectores de S


Sea S = {v1 , v2 , ..., vm } un subconjunto de Rn . Se puede determinar un subconjunto de S
que es una base para gen(S) como sigue:

1. Forme la matriz A de n × m cuyas columnas son los vectores v1 , v2 ,...,vm .

2. Reduzca A hasta una forma escalonada B e identifique las columnas pivote de B, y en


consecuencia las correspondientes columnas pivote de A.

3. Una base para gen(S) es el conjunto de los vectores columna de A identificadas en el


item anterior.

Se han estado desarrollando métodos que permiten obtener bases para espacios generados por un sub-
conjunto S de Rn . Estos métodos también pueden emplearse con el mismo fin, en espacios vectoriales

Material de uso interno Mateu-Semitiel 174


CAPÍTULO 4. ESPACIOS VECTORIALES

que no son Rn teniendo en cuenta que todos los cálculos con vectores de un espacio vectorial V de
dimensión finita pueden hacerse de forma equivalente con sus vectores de coordenadas con respecto a
una base dada.
Teniendo en cuenta los resultados del Teorema 4.15, si B es una base de un espacio vectorial V
de dimensión n y S ′ es el conjunto de los vectores de coordenadas de los vectores de S con respecto a
la base B, entonces H es una base de gen(S) si y solo si el correspondiente conjunto de vectores de
coordenadas, H ′ , es una base de gen(S ′ ).
En el Ejemplo 4.64 se implementó un procedimiento para hallar una base del espacio generado
por un conjunto, S, de polinomios de P3 reduciendo el conjunto S hasta encontrar un subconjunto de
él linealmente independiente. Ésto resultó un trabajo tedioso pero teniendo en cuenta lo comentado
en el párrafo anterior un problema similar se puede resolver utilizando vectores de coordenadas y
trabajando en Rn lo que facilita los cálculos y el uso de sistemas computacionales. Al respecto veamos
el siguiente ejemplo:

Ejemplo 4.82. Al igual que en el Ejemplo 4.64, sea el subconjunto S = {p1 , p2 , p3 , p4 , p5 } del espacio
vectorial P3 donde p1 = 1 + x + 2x3 , p2 = x + x2 − x3 , p3 = 2 + 3x + x2 + 3x3 , p4 = −1 + x2 − 3x3 y
p5 = 1 + x + x2 + x3 . Se desea encontrar una base para el espacio gen(S) que esté contenida en S.
Para ello, basta con hallar una base para el subespacio de R4 generado por el conjunto S ′ de los
vectores de coordenadas
 de S respecto a una base cualquiera de P3 . Se elije como base de P3 a la base
estándar E = 1, x, x2 , x3 ya que no hay que resolver ningún sistema lineal para hallar vectores de
coordenadas con respecto a dicha base.
Entonces el problema se reduce a determinar una base para el espacio generado por

S ′ = {[p1 ]E , [p2 ]E , [p3 ]E , [p4 ]E , [p5 ]E } ,

que sea un subconjunto de S ′ . Los vectores de coordenadas se obtienen en forma directa:


         
1 0 2 −1 1
 1   1   3   0   1 
[p1 ]E =      
 0  , [p2 ]E =  1  , [p3 ]E =  1  , [p4 ]E =  1
 ,
 [p5 ]E =  
 1 .
2 −1 3 −3 1

Se forma la matriz A cuyas columnas son dichos vectores de coordenadas:


 
1 0 2 −1 1
 1 1 3 0 1 
A=  0
.
1 1 1 1 
2 −1 3 −3 1

El conjunto de las columnas pivote de A es una base para gen(S ′ ). Una forma escalonada de A es
la matriz  
1 0 2 −1 1
 0 1 1 1 0 
B=  0
.
0 0 0 1 
0 0 0 0 0
Las posiciones pivote indican que las columnas pivote de A son: [p1 ]E , [p2 ]E y [p5 ]E . Por lo tanto el
conjunto {[p1 ]E , [p2 ]E , [p5 ]E } es una base para gen(S ′ ) y el correspondiente conjunto en P3 , {p1 , p2 , p5 }
es una base para gen(S) (y está contenida en S).◀

Material de uso interno Mateu-Semitiel 175


CAPÍTULO 4. ESPACIOS VECTORIALES

Teorema 4.20. Para cualquier matriz A, dim (col(A)) = dim (ren(A)).

Demostración. La dimensión de col(A) es el número de columnas pivote de A que son aquellas que
contienen una posición pivote. Por lo tanto:

dim (col(A)) = número de pivotes de A.

La dimensión de ren(A) es el número de renglones no cero de una forma escalonada de A. Dado


que el número de renglones no cero es igual al número de pivotes:

dim (ren(A)) = número de pivotes de A.

Por lo tanto,
dim (col(A)) = dim (ren(A)) (= número de pivotes de A) .

Definición (Rango de una matriz). El rango de una matriz A de m × n es la dimensión


común de los espacios columna y renglón de A, se representa por rango(A) o ρ(A).

Nótese que, de acuerdo al Teorema 4.20, para calcular el rango de una matriz A se debe llevar a ésta
a una forma escalonada por renglones, B. El rango de A es el número de renglones no cero de B o, lo
que es lo mismo, el número de pivotes de B. Luego, si A es de m × n, ρ(A) ≤ mı́n {m, n}. Por ejemplo,
una matriz A de 5 × 7 no puede tener rango 6 pues ρ(A) ≤ 5.
Puede observarse además que ρ(A) = 0 ⇔ A = O.

Definición (Espacio nulo y nulidad de una matriz). El espacio nulo de una matriz A
de m × n, que se simboliza N (A), es el conjunto de todas las soluciones de Ax = 0. Es decir,

N (A) = {x ∈ Rn : Ax = 0} .

N (A) es un subespacio de Rn , su dimensión es llamada nulidad de A y se denota nulidad(A)


o ν(A).

Nota: En la Sección 4.2 se probó que N (A), el conjunto de todas las soluciones de Ax = 0, es un
subespacio de Rn .

Ejemplo 4.83. Para hallar el espacio nulo de la matriz


 
1 −2 3 4
 2 0 −1 1 
A=  0
,

1 1 −2
2 1 0 −1
se debe resolver el sistema lineal homogéneo


 x1 −2x2 +3x3 +4x4 = 0

2x1 −x3 +x4 = 0

 x2 +x3 −2x4 = 0

2x1 +x2 −x4 = 0

Material de uso interno Mateu-Semitiel 176


CAPÍTULO 4. ESPACIOS VECTORIALES

La forma escalonada reducida de la matriz ampliada del sistema es


 
1 0 0 5/11 : 0
 0 1 0 −21/11 : 0 
 
 0 0 1 −1/11 : 0  ,
0 0 0 0 : 0
y se observa que x4 es la única variable libre. La solución general del sistema viene dada por


 x1 = − 11 5
t
 21
x2 = 11 t
, t ∈ R.
 x3 = 11

1
t

x4 = t
Luego, el espacio nulo de la matriz A es
    

 −5/11 
 
 −5 
    
 21/11   21 
 .
N (A) =  t : t ∈ R = gen

 1/11  
 

 1 

   
1 11
 

 −5  
 
 21 
El conjunto unitario  es linealmente independiente, y por ser generador de N (A), es

 1  
 
11
una base de dicho espacio. Ası́, ν(A) = dim (N (A)) = 1.◀

 
2 3
Ejemplo 4.84. Sea la matriz A = . Como det(A) = −8 ̸= 0, el sistema lineal Ax = 0 tiene
0 −4
única solución, la trivial. Luego,  
0
N (A) = .
0
No se define base para N (A) ya que es el espacio cero. La dimensión de N (A) es ν(A) = 0.◀

Puede observarse en los ejemplos anteriores que la nulidad de la matriz A es igual al número de
variables libres del sistema lineal Ax = 0.

Teorema 4.21. La nulidad de una matriz A es el número de variables libres del sistema
lineal homogéneo que tiene a A como matriz de coeficientes.

Una demostración de este teorema se encuentra al final de esta sección.


El teorema siguiente relaciona el rango y la nulidad de una matriz. Es considerado uno de los
teoremas más importantes del Álgebra Lineal

Teorema 4.22 (del rango). Para toda matriz A de m × n, la suma del rango y la nulidad es
igual al número de columnas de A, es decir

ρ(A) + ν(A) = n.

Material de uso interno Mateu-Semitiel 177


CAPÍTULO 4. ESPACIOS VECTORIALES

Demostración. El rango de una matriz A es el número de columnas pivote de A. Por otra parte la
nulidad de A es el número de variables libres de Ax = 0. Como se tienen tantas variables libres como
columnas no pivote, la nulidad de A es igual a la cantidad de columnas no pivote. Dado que
número de columnas pivote + número de columnas no pivote = número de columnas,
entonces
ρ(A) + ν(A) = n.

Ejemplo 4.85. En el Ejemplo 4.83, ν(A) = 1. Por otro lado, el número de pivotes de A es 3, por lo
que ρ(A) = 3. Luego, ρ(A) + ν(A) = 3 + 1 = 4 que es el número de columnas de A, y ası́ se verifica el
teorema del rango.
En el Ejemplo 4.84, el número de pivotes de A es 2 por lo que ρ(A) = 2. Por otra parte, ν(A) = 0.
Luego, ρ(A) + ν(A) = 2 + 0 = 2 que es el número de columnas de A. ◀

Ejemplo 4.86. Si el sistema lineal Ax = 0 tiene 25 incógnitas y ρ(A) = 15, puede deducirse que A
tiene 25 columnas, que ν(A) = 10 y que el número m de renglones de A es m ≥ 15.◀

Las nociones desarrolladas en esta sección están relacionadas con los sistemas lineales. Dado que el
sistema lineal Ax = b es consistente si y solo si el vector b es combinación lineal de las columnas de
A, se tiene el siguiente teorema:

Teorema 4.23. Un sistema lineal Ax = b es consistente si y solo si b está en col(A).

Y en relación a los sistemas lineales y al rango de una matriz, se tiene el siguiente resultado:

Teorema 4.24. El sistema lineal Ax = b es consistente si y solo si ρ (A) = ρ ([A : b]).

Ejemplo 4.87. Sea Ax = b un sistema lineal de 20 ecuaciones con 25 incógnitas. Suponga que el
espacio nulo de A está generado por cinco vectores linealmente independientes. Se desea saber si el
sistema es consistente para cualquier vector b de R20 .
La matriz A es de 20 × 25. El espacio nulo de A tiene una base que consta de 5 vectores, luego
ν(A) = 5. Por el teorema del rango, ρ(A) = 25 − 5 = 20 es decir dim(col(A)) = 20. Esto indica que
col(A) = R20 y por lo tanto todo vector b de R20 está en col(A) es decir es una combinación de las
columnas de A. Esto prueba que Ax = b es consistente para todo b de R20 .◀

El siguiente teorema completa el Teorema 3.10 de equivalencias.

Material de uso interno Mateu-Semitiel 178


CAPÍTULO 4. ESPACIOS VECTORIALES

Teorema 4.25. Sea A una matriz de n × n. Entonces las siguientes proposiciones son equi-
valentes:

1. |A| ̸= 0.

2. A es invertible.

3. Ax = b es consistente con única solución para todo b ∈ Rn .

4. Ax = 0 tiene única solución la trivial.

5. A tiene n posiciones pivote.

6. A es equivalente (por renglones) a la matriz identidad I.

7. ν(A) = 0

8. ρ(A) = n

9. Los vectores renglón de A son linealmente independientes.

10. Los vectores columna de A son linealmente independientes.

11. col(A) = Rn .

12. ren(A) = Rn .

Demostración. Las equivalencias de (1) a (6) han sido probadas en el Teorema 3.10. Se probará aquı́
las equivalencias restantes. Para ello se seguirá el siguiente orden en las implicancias (6) ⇒ (7) ⇒
(8) ⇒ (9) ⇒ (10) ⇒ (11) ⇒ (12), probando luego que (12) ⇒ (6).

(6) ⇒ (7) Si A es equivalente por renglones a la matriz identidad, In , entonces las n columnas de
A son columnas pivote por lo cual Ax = 0 no tiene variables libres y ası́ ν(A) = 0.

(7) ⇒ (8) Es una consecuencia inmediata del teorema del rango.

(8) ⇒ (9) Si ρ(A) = n entonces el espacio de renglones de A es de dimensión n. Ya que los n


renglones de A generan el espacio ren(A) se concluye (Teorema 4.9) que los vectores renglón de
A forman una base para ren(A) y por lo tanto son linealmente independientes.

(9) ⇒ (10) Si los n renglones de A forman un conjunto linealmente independiente, como este conjun-
to es generador de ren(A), entonces forman una base para ren(A) y por lo tanto dim(ren(A)) = n.
Por el Teorema 4.20, también dim(col(A)) = n y dado que el conjunto de las n columnas de A es
generador de col(A) entonces (Teorema 4.9) las n columnas de A forman una base para col(A)
y por lo tanto son linealmente independientes.

(10) ⇒ (11) Las n columnas de A generan col(A) y dado que son linealmente independientes,
entonces forman una base para col(A). Ası́ dim(col(A)) = n y como col(A) es un subespacio de
Rn , entonces (Teorema 4.12) col(A) = Rn .

(11) ⇒ (12) Dado que dim(ren(A)) = dim(col(A)), si col(A) = Rn entonces dim(ren(A)) = n. Como
ren(A) es un subespacio de Rn , necesariamente (Teorema 4.12) ren(A) = Rn .

Material de uso interno Mateu-Semitiel 179


CAPÍTULO 4. ESPACIOS VECTORIALES

(12) ⇒ (6) Si ren(A) = Rn entonces dim(ren(A)) = n y por lo tanto A tiene n posiciones pivote.
Luego, la forma escalonada reducida de A es la matriz identidad, In .

Teorema 4.16: Los renglones no cero de una matriz en forma escalonada por renglones
forman una base para su espacio de renglones.
Demostración. Sea B = [bij ] una matriz de m×n en forma escalonada por renglones. Si k es el número
de renglones no cero de B, dado que B está en forma escalonada, éstos son los primeros k renglones,
mientras que los últimos m − k renglones son renglones cero.
Se probará que el conjunto S = {r1 , r2 , ..., rk } es una base de ren(B).
Los vectores r1 , r2 ,..., rk son todos no cero y como B está en forma escalonada, el elemento delantero
de cada renglón no cero está más a la derecha que el elemento delantero del renglón anterior. Esto
es, si bili es el elemento delantero del renglón i-ésimo debe ser l1 < l2 < ... < lk . Recordando que el
elemento delantero de un renglón no cero es la primera componente no cero de dicho vector, entonces
para cada ri es bili ̸= 0 mientras que bij = 0 para todo j < li . Ası́, por ejemplo, los renglones r1 y r2
son de la forma:

r1 = (0, 0, ..., 0, b1l1 , ×, ..., ×, ..., ×) ,


r2 = (0, 0, ..., 0, 0, ..., 0, b2l2 , ×, ..., ×) .

Para probar que S es linealmente independiente debe demostrarse que si c1 , c2 ,..., ck son escalares
tales que
c1 r1 + c2 r2 + ... + ck rk = 0,
necesariamente c1 = c2 = ... = ck = 0.
La componente en la posición l1 del vector c1 r1 + c2 r2 + ... + ck rk es c1 b1l1 y las anteriores compo-
nentes son ceros. Si este vector es el vector 0 necesariamente c1 b1l1 = 0 y dado que b1l1 ̸= 0 debe ser
c1 = 0. Entonces

c1 r1 + c2 r2 + ... + ck rk = 0 ⇔ c1 = 0 y c2 r2 + ... + ck rk = 0.

De manera similar, la componente en la posición l2 del vector c2 r2 + ... + ck rk es c2 b2l2 y las


anteriores componentes son ceros. Si este vector es el vector 0 necesariamente c2 b2l2 = 0 y dado que
b2l2 ̸= 0 debe ser c2 = 0. Ası́,

c1 r1 + c2 r2 + ... + ck rk = 0 ⇔ c1 = 0, c2 = 0 y c3 r3 + ... + ck rk = 0.

De esta manera se llega en k − 1 pasos a

c1 r1 + c2 r2 + ... + ck rk = 0 ⇔ c1 = 0, c2 = 0, ..., ck−1 = 0 y ck rk = 0,

y como rk ̸= 0 necesariamente ck = 0. Luego,

c1 r1 + c2 r2 + ... + ck rk = 0 ⇔ c1 = c2 = ... = ck = 0.

Material de uso interno Mateu-Semitiel 180


CAPÍTULO 4. ESPACIOS VECTORIALES

Es claro que el conjunto S es generador del espacio ren(B) ya que los últimos m − k renglones de
B son vectores cero y por lo tanto pueden eliminarse generando el mismo espacio. Esto es, ren(B) =
gen {r1 , r2 , ..., rk }.
Se ha probado entonces que los renglones no cero de una matriz en forma escalonada son linealmente
independientes y generan ren(B) y por lo tanto forman una base para el espacio de renglones de B.

Teorema 4.18: Las columnas pivote de una matriz que está en forma escalonada por
renglones forman una base para su espacio de columnas.
Demostración. Sea B = [bij ] una matriz de m × n que está en forma escalonada por renglones. Si k
es el número de renglones no cero de B, dado que B está en forma escalonada, éstos son los primeros
k renglones de B, mientras que los últimos m − k renglones son renglones cero.
Sean b1l1 , b2l2 ,...., bklk los elementos delanteros de los k renglones no cero de B. Entonces las
columnas pivote de B son bl1 , bl2 ,..., blk . Se probará que estas columnas forman una base para
col(B).
Para ello, consderemos la matriz U de m × k formada por las columnas pivote de B:
 
b1l1 × × ... ×
 0 b2l2 × ... × 
 
 0 0 b3l3 ... × 
 
 . .. .. .. 
   .. . . ... . 
U = bl1 bl2 ... blk =   0
 , donde bil ̸= 0.
 0 0 ... bklk  
i

 0 0 0 ... 0  

 . .. .. .. 
 .. . . ... . 
0 0 0 ... 0

Dado que todos los vectores columna de B tienen sus últimas m − k componentes iguales a cero,
todo vector b de col(B) tendrá sus últimas m − k componentes iguales a cero. Entonces para cualquier
b en col(B), el sistema lineal de matriz aumentada
 
b1l1 × × ... × : b1
 
 0 b2l2 × ... × : b2 
 
 0 × : b3 
 0 b3l3 ... 
 . .. 
 . .. .. .. 
[U : b] = 

. . . ... . : . ,

 0 0 0 ... bklk : bk 
 
 0 : 0 
 0 0 ... 0 
 . . . . . 
 . . .
. .
. ... .
. : . .
0 0 0 ... 0 : 0
es consistente y con única solución ya que la última columna de la matriz aumentada no es columna
pivote y todas las columnas de U son pivote. Esto quiere decir que todo vector b en col(B) puede
expresarse de manera única como combinación lineal de las columnas pivote de la matriz B. Esto
prueba que las columnas pivote de B forman una base de col(B).

Material de uso interno Mateu-Semitiel 181


CAPÍTULO 4. ESPACIOS VECTORIALES

Teorema 4.21: La nulidad de una matriz A es el número de variables libres del sistema
lineal homogéneo que tiene a A como matriz de coeficientes.
Demostración. Si B es cualquier forma escalonada de la matriz A, se conoce que los sistemas ho-
mogéneos Ax = 0 y Bx = 0 tienen las mismas soluciones, en particular si B es la forma escalonada
reducida de A.
Si ρ(A) = r y A es de m × n, entonces r ≤ m y r ≤ n. Si U es la forma escalonada reducida de A
entonces los primeros r renglones de U son distintos de cero.
Si r = n todas las columnas de U (y por lo tanto de A) son columnas pivote y entonces el sistema
Ax = 0 tiene única solución, la trivial. Luego, N (A) está formado únicamente por el vector cero y por
lo tanto su dimensión es cero, que es también el número de variables libres de Ax = 0.
Si r < n no se pierde generalidad si se supone que las columnas pivote son las r primeras columnas.
Más aún como los renglones cero de U (si los tiene) no contribuyen a la solución de U x = 0 estos
renglones pueden descartarse. De modo que las soluciones de Ax = 0 se obtienen del sistema U ′ x = 0
donde U ′ es la matriz de r × n formadas por los r renglones no cero de U . Ası́ las primers r columnas
de U ′ (pivotes) forman la matriz identidad de orden r y las últimas n − r son las columnas no pivote
es decir  
1 0 ... 0 c1 r+1 ... c1n
 0 1 ... 0 c2 r+1 ... c2n 
 
U′ =  . . . .. . .
 .. .. ... .. . ... .. 
0 0 ... 1 cr r+1 ... crn
 
x1
 .. 
 . 
 
 xr 

Siendo el vector de las incógnitas x =  , la forma estándar de U ′ x = 0 es
x 
 r+1 
 .. 
 . 
xn


 x1 + c1 r+1 xr+1 + c1 r+1 xr+1 + ... + c1n xn = 0

 x2 + c2 r+1 xr+1 + c2 r+1 xr+1 + ... + c2n xn = 0
..

 .


xr + cr r+1 xr+1 + cr r+1 xr+1 + ... + crn xn = 0

y despejando las r variables delanteras en función de las n − r libres se tiene




 x1 = −c1 r+1 xr+1 − c1 r+1 xr+1 − ... − c1n xn

 x2 = −c2 r+1 xr+1 − c2 r+1 xr+1 − ... − c2n xn
..

 .


xr = −cr r+1 xr+1 − cr r+1 xr+1 − ... − crn xn

Asignando valores arbitrarios s1 , s2 ,...,sr−n a las variables libres xr+1 , xr+2 ,...,xn , respectivamente, la

Material de uso interno Mateu-Semitiel 182


CAPÍTULO 4. ESPACIOS VECTORIALES

solución general para Ax = 0 está dada por:


   
x1 −c1 r+1 s1 − c1 r+1 s2 − ... − c1n sn−r
 x2   −c2 r+1 s1 − c2 r+1 s2 − ... − c2n sn−r 
   
 ..   .. 
 .   . 
   
 xr   −cr r+1 s1 − cr r+1 s2 − ... − crn sn−r 
x=    
 =  
 xr+1   s1 
 xr+2   s 
   2 
 .   .. 
 ..   . 
xn sn−r
     
−c1 r+1 −c1 r+1 −c1n
 −c2 r+1   −c2 r+1   −c2n 
     
 ..   ..   .. 
 .   .   . 
     
 −cr r+1   −cr r+1   −crn 
= s1    +s   +... + s  ,
1  2  0  n−r  0 
     
 0   1   0 
     
 ..   ..   . 
 .   .   .. 
0 0 1
| {z } | {z } | {z }
u1 u2 un−r

siendo s1 , s2 ,..., sn−r ∈ R.


Luego, x es una solución de Ax = 0 si y solo si x es una combinación lineal de los vectores u1 ,
u2 ,..., un−r es decir N (A) = gen {u1 , u2 , ..., un−r }. Fácilmente puede probarse que estos vectores son
linealmente independientes. En efecto s1 u1 + s2 u2 + ... + sn−r un−r = 0 si y solo si
   
−c1 r+1 s1 − c1 r+1 s2 − ... − c1n sn−r 0
 −c2 r+1 s1 − c2 r+1 s2 − ... − c2n sn−r   0 
   
 ..   .. 
 .   . 
   
 −cr r+1 s1 − cr r+1 s2 − ... − crn sn−r   0 
  =  ,
 s   0 
 1   
 s2   0 
   
 ..   . 
 .   .. 
sn−r 0

y por igualdad de vectores necesariamente s1 = s2 = ... = sn−r = 0.


Ası́ el conjunto {u1 , u2 , ..., un−r } es una base de N (A). Por lo tanto, dim (N (A)) = n − r que es el
número de variables libres de Ax = 0.

Ejercicios 4.7

1. Para cada matriz determine el rango y la nulidad. Halle además una base para su espacio de
renglones, una base para su espacio de columnas y, si es posible, una base para su espacio nulo.

Material de uso interno Mateu-Semitiel 183


CAPÍTULO 4. ESPACIOS VECTORIALES

   
  2 −3 5 3 −1 2 1
3 −2 8 2 1 4  0 0 8   0 −4 3 5 
a)  0 0 −8 5 0 −10  b) 
 0
 c)  
0 0   0 0 2 1 
0 0 0 0 0 2
0 0 0 0 0 0 10

2. Para cada matriz encuentre una base para su espacio de renglones, una base para su espacio de
columnas y, si es posible, una base para su espacio nulo. Determine además el rango y la nulidad
de cada matriz.
 
    3 2 −1
1 2 −3 0 2 −3 1 2  6 3 5 
a)  2 4 8  b)  0 −2 3 3 1  c) 
 3

1 6 
−1 −5 0 0 4 −6 6 7
0 1 −7
 
−1 1 1 2
3. Dada la matriz A =  2 2 2 4 .
0 1 1 2

a) Describa el espacio de renglones y el de columnas de A.


b) Halle una base para el espacio de renglones de A.
c) Teniendo en cuenta que col(A) = ren(At ), halle una base para el espacio col(A).
d ) Halle una base para el espacio de columnas de A que esté formada exclusivamente por
columnas de A.
e) Describa el espacio nulo de A y halle una base, si es posible, del mismo.
f ) Verifique el teorema del rango.
g) Indique cuáles de los vectores
    
1 3 2
a =  −2  , b= 5  y c =  −1 
0 1 3

están en el espacio de columnas de la matriz A. Si lo están expréselos como una combinación


lineal de columnas de A.

4. Obtenga una base para gen(S) siendo:


       
1 3 2 0
a) S = , , ,
−1 4 1 3
b) S = {(1, −1, 0), (1, 2, 1), (0, 1, 1)}
       

 1 3 −5 4 

       1 
2 1 1
c) S =       
 3  ,  4  ,  −4  ,  5



 
 
1 0 0 −1

5. Utilice vectores de coordenadas para determinar una base del subespacio gen(S) de V, siendo:

a) S = {1 − 3x, −3 + 9x, 4x, 1 − x}, V = P1 .

Material de uso interno Mateu-Semitiel 184


CAPÍTULO 4. ESPACIOS VECTORIALES


b) S = −1 + 2x2 , x − x2 , 2 − 4x2 , −1 + x + x2 , V = P2 .

c) S = 1 − 2x − 3x2 + x3 , x + 2x2 , 3 − 2x − x2 + 2x3 , V = P3 .

6. Utilice vectores de coordenadas para hallar una base de gen(S) siendo:


     
−1 0 1 −1 −1 1
a) S = , ,
1 0 0 0 1 0
         
1 1 1 1 1 1 1 0 1 1
b) S = , , , ,
1 1 1 0 0 0 0 0 3 −2
       
1 −2 1 0 −2 2 0 −2 2 0 0 0
c) S = , , ,
0 0 0 2 4 6 2 6 7 0 2 1

7. En cada caso, obtenga un subconjunto de S que sea una base del subespacio gen(S) de V.
         
 1 2 −1 0 1 
a) S =  3  ,  0  ,  1  ,  1  ,  1  , V = R3
 
1 −1 0 −1 1

b) S = 1 + 3x − x2 + x3 , 1 + x + x3 , 2 + x2 + x3 , −1 + x − x2 , x + x3 , V = P3
         
1 1 2 0 1 3 1 0 2 1
c) S = , , , , , V = M2
0 1 1 1 −1 1 0 1 1 1

8. (Ampliación de un subconjunto linealmente independiente de Rn a una base de Rn )


En el Teorema 4.10 se mostró que un subconjunto S linealmente independiente de un espacio
vectorial V de dimensión n, puede ampliarse a una base de V agregando uno a uno vectores
que no son combinaciones lineales de los anteriores hasta obtener un conjunto de n vectores
linealmente independientes. Esto puede resultar tedioso ya que en cada paso hay que verificar
que el vector que se agrega no pertenezca al espacio generado por los anteriores.

Un procedimiento más eficiente consiste en reducir un conjunto generador de V que contenga


al conjunto S. Si S = {u1 , u2 , ..., uk } es un conjunto linealmente independiente en Rn , k < n,
agregándole a S la base estándar, el conjunto S ′ = {u1 , u2 , ..., uk , e1 , e2 , ..., en } obtenido es
trivialmente generador de Rn . Para obtener una base de Rn que contenga a S, se forma la
matriz A cuyas columnas son los vectores de S ′ en el orden que se muestran:
 
A = u1 u2 ... uk e1 e2 ... en .

Luego, Rn = gen(S ′ ) = col(A).

Dado que S es linealmente


 independiente, entonces el sistema lineal homogéneo cuya matriz
de coeficientes es A1 = u1 u2 ... uk tiene solo la solución trivial y por lo tanto no hay
variables libres. Luego, las k columnas
 de A1 son columnas
 pivote y por lo tanto la forma
escalonada reducida de A1 es B1 = e1 e2 ... ek . Entonces la forma escalonada reducida
de la matriz A es  
B = e1 e2 ... ek v1 v2 ... vn .

Esto muestra que las k primeras columnas de A son columnas pivote y las restantes n − k
columnas pivote están entre las n últimas columnas. Ası́ el conjunto de las columnas pivote de
A contiene al conjunto S y es una base de Rn .

Material de uso interno Mateu-Semitiel 185


CAPÍTULO 4. ESPACIOS VECTORIALES

   

 1 1 
   
2 1
Por ejemplo, el conjunto S =    
 3  ,  −1  de R es linealmente independiente. Para
4

 
 
0 1
obtener una base de R4 que contenga a S, formamos la matriz
 
1 1 1 0 0 0
 2 1 0 1 0 0 
A=  3 −1 0 0 1 0  .

0 1 0 0 0 1

Claramente col(A) = R4 por lo que el conjunto de las columnas pivote de A formarán una base
para R4 . Una forma escalonada de A es la matriz
 
1 1 1 0 0 0
 
 0 1 2 −1 0 0 
B= 
 0 0 5 −4 1 0 
0 0 0 −3 2 5

que me indica que las primera, segunda, tercera y cuarta columna de A son las columnas pivote
de A. Luego, el conjunto
       

 1 1 1 0 
       
′  2   1   0   1 

S =  , , ,

 3 −1   0   0  
 
0 1 0 0

es una base para R4 que contiene al conjunto S.

a) Amplı́e el conjunto linealmente independiente S hasta obtener una base del espacio vectorial
V indicado en cada caso.
   

 1 0  
  1 
 −1   
 ,  1 , V = R
i) S =  4

 2 
 
3 −1
     

 1 1 0  

 
 1   1   0 
    


     
ii) S =  0  ,  1  ,  2  , V = R5

  0   1   2  

 

 
0 1 1
b) Utilice vectores de coordenadas para ampliar el conjunto linealmente independiente S hasta
obtener una base del espacio V.

i) S = 1 + x + x3 , −2 + x + x2 , x2 + x3 , V = P3 .
     
1 −2 0 −2 0 2
ii) S = , , , V = M2 .
0 0 2 4 0 1

9. Sea W el plano en R3 que contiene a la recta x = y, z = 0 y también al eje z.

Material de uso interno Mateu-Semitiel 186


CAPÍTULO 4. ESPACIOS VECTORIALES

a) Encuentre una base de W .


b) Extienda la base hallada a una base de R3 .
c) Sea B la base estándar de R3 . ¿Puede reducirse B a una base de W ?, explique.

10. Si el sistema lineal homogéneo Ax = 0 tiene 300 incógnitas y su espacio solución está generado
por 65 vectores linealmente independientes. ¿Cuál es el rango de A?

11. Demuestre los teoremas 4.23 y 4.24.

12. Demuestre que ρ(A) = ρ(At ) para toda matriz A de m × n.

13. Sea Ax = b un sistema lineal de 400 ecuaciones y 480 incógnitas. Si el conjunto solución del
sistema lineal homogéneo Ax = 0 está generado por 80 vectores linealmente independiente, ¿es
consistente el sistema Ax = b, para todo vector b ∈ R400 ?

Material de uso interno Mateu-Semitiel 187


Capı́tulo 5

ESPACIOS VECTORIALES CON


PRODUCTO INTERNO

5.1. El espacio euclidiano Rn


Se usan pares ordenados de números reales para localizar puntos en el plano y ternas de números
reales para localizar puntos en el espacio de tres dimensiones. Aún cuando la concepción geométrica
no se extiende más allá del espacio tridimensional, es posible extender muchas ideas conocidas más
allá de tal espacio trabajando con propiedades analı́ticas o numéricas de puntos y vectores en lugar
de las propiedades geométricas.

Figura 5.1: Punto P (a1 , a2 , a3 ) y vector u = (a1 , a2 , a3 ) en R3

Recordemos que una n-upla ordenada de números reales es una sucesión (a1 , a2 , ..., an ) de n núme-
ros reales. El conjunto de todas las n-uplas ordenadas de números reales se conocen como el espacio
n dimensional y se denota por Rn .
Si n = 2 ó n = 3, las n-uplas son pares ordenados o ternas ordenadas, respectivamente. Si n = 1
cada n-upla es un número real y por lo tanto R1 se concibe como el conjunto R de los números reales

Material de uso interno Mateu-Semitiel 188


CAPÍTULO 5. ESPACIOS VECTORIALES CON PRODUCTO INTERNO

y se escribe R en lugar de R1 .
En el estudio del espacio de dos dimensiones y de tres dimensiones, los sı́mbolos (a1 , a2 ) y (a1 , a2 , a3 )
tienen dos interpretaciones geométricas. Pueden interpretarse como puntos en el plano y en el espacio,
respectivamente, en cuyo caso (a1 , a2 ) y (a1 , a2 , a3 ) son las coordenadas de dichos puntos. También
pueden considerarse como vectores (o segmentos de recta dirigidos) en cuyo caso (a1 , a2 ) y (a1 , a2 , a3 )
son las componentes de dichos vectores (Figura 5.1).
Por lo tanto una n-upla de números reales (a1 , a2 , ..., an ) se puede concebir como un “vector
generalizado” o como un “punto generalizado”. Se tiene la libertad de describir a una n-upla de
números reales como un punto en Rn donde sus coordenadas son ai con i = 1, 2, ..., n o como un vector
donde las ai con i = 1, 2, ..., n son sus componentes.
Recordemos que el producto punto o producto escalar entre dos vectores u = (u1 , u2 , ..., un ) y
v = (v1 , v2 , ..., vn ) de Rn , es el número real dado por

u · v = u1 v1 + u2 v2 + ... + un vn ,

que es la generalización del producto escalar en R2 y R3 . Las propiedades fundamentales del producto
punto son:

Teorema 5.1. Si u, v y w son vectores de Rn y c es un escalar, entonces se cumplen las


siguientes propiedades:

1. u · v = v · u

2. u · (v + w) = u · v + u · w

3. c (u · v) = (cu) · v

4. u · u ≥ 0 y u · u = 0 si solo si u = 0

Demostración. Se probarán aquı́ las propiedades 1. y 4. dejando las restantes como ejercicio.
Sean u = (u1 , u2 , ..., un ) y v = (v1 , v2 , ..., vn ) entonces

1. u · v = u1 v1 + u2 v2 + ... + un vn = v1 u1 + v2 u2 + ... + vn un = v · u.

4. Dado que u2i ≥ 0 para todo i = 1, 2, ..., n entonces u · u = u21 + u22 + ... + u2n ≥ 0.

Además esta última expresión es cero si y solo si u1 = u2 = ... = un = 0 lo que equivale a decir
que u = 0.

Definición (Espacio euclidiano Rn ). El espacio vectorial Rn con el producto punto es el


espacio euclidiano Rn .

Los vectores de R2 o R3 pueden caracterizarse como segmentos de recta dirigidos con cierta longitud y
dirección. Se usará R2 (o R3 ) como modelo para extender a Rn los conceptos de longitud de un vector,
distancia y ángulo entre vectores.

Material de uso interno Mateu-Semitiel 189


CAPÍTULO 5. ESPACIOS VECTORIALES CON PRODUCTO INTERNO

Longitud o norma euclidiana


Recordemos la definición de longitud de un vector en R2 . p Sea u = (u1 , u2 ) un vector en el plano,
la longitud de u denotada por ∥u∥ se define como ∥u∥ = u21 + u22 . Esta definición corresponde al
concepto de longitud de la geometrı́a euclidiana. El vector u es considerado como la hipotenusa de un
triángulo rectángulo cuyos catetos tienen longitudes |u1 | y |u2 | como se ve en la Figura 5.2.

Figura 5.2: Longitud o norma del vector u

Similarmenteppara vectores en R3 , aplicando el Teorema de Pitágoras dos veces, si u = (u1 , u2 , u3 )


entonces ∥u∥ = u21 + u22 + u23 .
Nótese que la longitud o norma de un vector u de R2 ó R3 puede expresarse en términos del
producto punto del siguiente modo: √
∥u∥ = u · u,
o en forma equivalente
u · u = ∥u∥2 .

Tomando R2 y R3 como modelos, se define la longitud euclidiana o norma euclidiana de un vector


u de Rn de la siguiente manera:

Definición (Norma euclidiana). La norma euclidiana o longitud euclidiana de un vector


u = (u1 , u2 , ..., un ) de Rn está dada por
q √
∥u∥ = u21 + u22 + ... + u2n = u · u


Ejemplo 5.1. Las normas euclidianas de los vectores u = (2, −3, 0, 4, −1) y v = 2, −2, −2, −2
1 1 1 1
son:
p √
∥u∥ = 22 + (−2)2 + 02 + 42 + (−1)2 = 30,

Material de uso interno Mateu-Semitiel 190


CAPÍTULO 5. ESPACIOS VECTORIALES CON PRODUCTO INTERNO

y s   2  2  2
1 2 1 1 1
∥v∥ = + − + − + − = 1,
2 2 2 2
respectivamente. ◀

Los vectores que tienen norma euclidiana igual a 1, como el vector v del ejemplo anterior, se denominan
vectores unitarios.

Distancia euclidiana
En la Geometrı́a euclidiana la distancia d entre dos puntos en el plano (u1 , u2 ) y (v1 , v2 ) es
p
d = (u1 − v1 )2 + (u2 − v2 )2 .

En término de vectores esta distancia es la norma o longitud del vector u − v siendo u = (u1 , u2 )
y v = (v1 , v2 ) como se observa en la Figura 5.3.

Figura 5.3: Distancia entre u y v

En efecto: dado que u − v = (u1 − v1 , u2 − v2 ) entonces


p
(u1 − v1 )2 + (u2 − v2 )2 = ∥u − v∥ .

Por lo tanto, la distancia entre u y v, d (u, v), es


p
d (u, v) = ∥u − v∥ = (u1 − v1 )2 + (u2 − v2 )2 .

Similarmente la distancia entre dos vectores u = (u1 , u2 , u3 ) y v = (v1 , v2 , v3 ) de R3 ,


p
d (u, v) = ∥u − v∥ = (u1 − v1 )2 + (u2 − v2 )2 + (u3 − v3 )2 .

Material de uso interno Mateu-Semitiel 191


CAPÍTULO 5. ESPACIOS VECTORIALES CON PRODUCTO INTERNO

Se generaliza este concepto para vectores de Rn :

Definición (Distancia euclidiana). La distancia euclidiana entre los vectores de Rn ,


u = (u1 , u2 , ..., un ) y v = (v1 , v2 , ..., vn ), está dada por
p
d (u, v) = ∥u − v∥ = (u1 − v1 )2 + (u2 − v2 )2 + ... + (un − vn )2 .

Ejemplo 5.2. La distancia entre los vectores u = (1, 3, −2, 7) y v = (0, 7, 2, 2) es


p √
d (u, v) = ∥u − v∥ = (1 − 0)2 + (3 − 7)2 + (−2 − 2)2 + (7 − 2)2 = 58. ◀

Nota: Es fácil comprobar que la norma satisface las siguientes propiedades, para cualesquiera vectores
u y v de Rn y cualquier número real c:

1. ∥u∥ ≥ 0 y ∥u∥ = 0 ⇔ u = 0.

2. ∥cu∥ = |c| ∥u∥.

A partir de éstas, dado que d (u, v) = ∥u − v∥, se deducen las siguientes propiedades de la distancia
en el espacio euclidiano Rn :

1. d (u, v) ≥ 0 y d (u, v) = 0 ⇔ u = v.

2. d (u, v) = d (v, u) .

Actividad 5.1. Demuestre las propiedades de la norma y la distancia enunciadas, a partir de las
propiedades del producto punto en Rn .

Ángulo entre dos vectores


Recordemos que en R2 y en R3 , el ángulo entre dos vectores u y v diferentes de cero, es el único ángulo
θ tal que
u·v
cos θ = y 0 ≤ θ ≤ π.
∥u∥ ∥v∥
Para extender la noción de ángulo entre vectores de Rn , es decir usar la misma fórmula para el
cos θ que en R2 y R3 , debe mostrarse que está bien definida, vale decir que el cociente ∥u∥∥v∥
u·v
es un
número entre −1 y 1.
El siguiente teorema nos permite probar la desigualdad −1 ≤ u·v
∥u∥∥v∥ ≤ 1, necesaria para extender
la noción de ángulo entre vectores de Rn .

Teorema 5.2 (Desigualdad de Cauchy-Schwartz). Si u y v son vectores del espacio euclidiano


Rn entonces
|u · v| ≤ ∥u∥ ∥v∥ .
donde |u · v| es el valor absoluto de u · v. Además, la igualdad es válida si y solo si uno de
los vectores es un múltiplo escalar del otro.

Material de uso interno Mateu-Semitiel 192


CAPÍTULO 5. ESPACIOS VECTORIALES CON PRODUCTO INTERNO

Demostración. Si u = 0 entonces u · v = 0 · v = 0 y ∥u∥ = 0 por lo tanto ambos miembros son ceros


y se cumple la igualdad. Ası́ el teorema se verifica si u = 0.
Supongamos ahora que u ̸= 0 y consideremos el vector xu+v donde x es un número real cualquiera.
Por la propiedad 4. del Teorema 5.1

(xu + v) · (xu + v) ≥ 0. (5.1)

Por otra parte:

(xu + v) · (xu + v) = x2 (u · u) + 2x (u · v) + (v · v) = (u · u) x2 + 2 (u · v) x + (v · v) . (5.2)

De (5.1) y (5.2) se obtiene la siguiente desigualdad para todo x ∈ R:

(u · u) x2 + 2 (u · v) x + (v · v) ≥ 0.

u · u ̸= 0 ya que u ̸= 0, y por lo tanto el lado izquierdo de esta última desigualdad es un


polinomio de segundo grado en x: p(x) = ax2 + bx + c con a = u · u, b = 2 (u · v) y c = v · v. Como
a = u · u > 0, la gráfica de p(x) es una parábola con las ramas hacia arriba y dado que p(x) ≥ 0
para todo x ∈ R, entonces p(x) no tiene raı́ces reales, o tiene una raı́z real doble. Recordando que un
polinomio cuadrático tiene una raı́z real doble o no tiene raı́ces reales si y solo si ∆ = b2 − 4ac ≤ 0.
Entonces:
si u ̸= 0, 4 (u · v)2 − 4 (u · u) (v · v) ≤ 0,
o
(u · v)2 ≤ (u · u) (v · v) ,
que en términos de norma es
(u · v)2 ≤ ∥u∥2 ∥v∥2 .
Tomando raı́z cuadrada a ambos miembros que son no negativos queda probado:

|u · v| ≤ ∥u∥ ∥v∥ .

Se deja como ejercicio probar que vale la igualdad en la desigualdad de Cauchy-Schwartz si y solo
si uno de los vectores es un múltiplo escalar del otro.

Actividad 5.2. Verifique la desigualdad de Cauchy-Schwartz para u = (1, −2, 3, 0) y v = (0, 4, −2, 5).

Utilizaremos la desigualdad de Cauchy-Schwartz para definir el ángulo entre dos vectores no cero del
espacio euclidiano Rn . Si u y v son vectores no cero de Rn , de acuerdo a la desigualdad de Cauchy-
Schwartz
|u · v| ≤ ∥u∥ ∥v∥ ,
y por lo tanto
− ∥u∥ ∥v∥ ≤ u · v ≤ ∥u∥ ∥v∥ .
Ya que ∥u∥ ∥v∥ > 0, dado que u ̸= 0 y v ̸= 0, dividiendo entre ∥u∥ ∥v∥ se tiene
u·v
−1 ≤ ≤ 1.
∥u∥ ∥v∥

Material de uso interno Mateu-Semitiel 193


CAPÍTULO 5. ESPACIOS VECTORIALES CON PRODUCTO INTERNO

La desigualdad de Cauchy-Schwartz nos permite entonces dar por bien definida la noción de ángulo
entre dos vectores no cero de Rn como una extensión de la ya conocida noción de ángulo entre vectores
de R2 y R3 :

Definición (Ángulo entre vectores). Sean u y v vectores no cero del espacio euclidiano
Rn . El ángulo θ entre u y v es el único ángulo tal que
u·v
cos θ = y 0 ≤ θ ≤ π.
∥u∥ ∥v∥

Actividad 5.3. Encuentre el ángulo entre los vectores u y v de la actividad anterior.

Si u y v son vectores de Rn diferentes de cero tales que u · v = 0, de acuerdo a la definición de


ángulo entre vectores, cos θ = 0 y por lo tanto θ = π2 . En este caso decimos que los vectores son
perpendiculares u ortogonales. En base a esta terminologı́a daremos la siguiente definición:

Definición (Vectores ortogonales). Dos vectores u y v del espacio euclidiano Rn son


ortogonales si u · v = 0.

Aunque el ángulo entre el vector cero y otro vector no está definido, se conviene en extender la definición
de vectores ortogonales para incluir al vector cero. Ası́, el vector cero es ortogonal a cualquier otro
vector.

Ejemplo 5.3. Los vectores u = (3, 2, −1, 4) y v = (1, −1, 1, 0) son ortogonales ya que u · v = 0. ◀

La desigualdad de Cauchy-Schwartz se utiliza también para demostrar una conocida desigualdad, la


desigualdad triangular. Este nombre se deriva de la interpretación del teorema en R2 ilustrado en la
Figura 5.4 para los vectores u y v. Se considera que ∥u∥ y ∥v∥ son las longitudes de dos lados de un
triángulo y por lo tanto la longitud del tercer lado es ∥u + v∥.

Figura 5.4: Interpretación geométrica de la desigualdad triangular

Material de uso interno Mateu-Semitiel 194


CAPÍTULO 5. ESPACIOS VECTORIALES CON PRODUCTO INTERNO

La longitud de cualquier lado de un triángulo es menor que la suma de las longitudes de los otros
lados. En el siguiente teorema se muestra que esta desigualdad se puede generalizar para cualquier
par de vectores en el espacio euclidiano Rn :

Teorema 5.3 (Desigualdad triangular). Si u y v son vectores del espacio euclidiano Rn


entonces
∥u + v∥ ≤ ∥u∥ + ∥v∥ .

Demostración. Aplicando propiedades del producto punto:

∥u + v∥2 = (u + v) · (u + v)
= u·u+v·u+u·v+v·v
= ∥u∥2 + 2 (u · v) + ∥v∥2
≤ ∥u∥2 + 2 |u · v| + ∥v∥2 (ya que x ≤ |x|, para todo x ∈ R)
2 2
≤ ∥u∥ + 2 ∥u∥ ∥v∥ + ∥v∥ (desigualdad de Cauchy-Schwartz |u · v| ≤ ∥u∥ ∥v∥)
2
= (∥u∥ + ∥v∥) .

Entonces para todo u y v en Rn

∥u + v∥2 ≤ (∥u∥ + ∥v∥)2 ,

y tomando raı́z cuadrada en ambos miembros que son no negativos:

∥u + v∥ ≤ ∥u∥ + ∥v∥ .

Nota: En la desigualdad triangular vale el igual si y solo u = cv con c ≥ 0 (o v = ku con k ≥ 0).


(Ejercicio 5).

Concluiremos esta sección con la generalización de un conocido resultado, el llamado teorema de


Pitágoras.

Teorema 5.4 (de Pitágoras). Los vectores u y v del espacio euclidiano Rn son ortogonales
si y solo si
∥u + v∥2 = ∥u∥2 + ∥v∥2 .

Demostración. Ejercicio 6.

El nombre de teorema de Pitágoras se deriva de la interpretación del teorema para vectores de R2 . Se


considera que ∥u∥ y ∥v∥ son las longitudes de los catetos de un triángulo rectángulo y la longitud del
otro lado, la hipotenusa, es ∥u + v∥. Véase Figura 5.5.
El Teorema de Pitágoras asegura que el cuadrado de la longitud de la hipotenusa es igual a la suma
de los cuadrados de las longitudes de los catetos.

Material de uso interno Mateu-Semitiel 195


CAPÍTULO 5. ESPACIOS VECTORIALES CON PRODUCTO INTERNO

Figura 5.5: Interpretación geométrica del teorema de Pitágoras

Ejercicios 5.1

1. Sean los vectores


   
    2 0
−1 3  −2   −1 
a =  2  , b =  −5  , c =   3 
 y d= 
 2 .
2 1
0 1
 
c·d
Calcule: ∥a∥, ∥c∥, d (c, d), a · b, c · d y d.
d·d
2. Demuestre las restantes propiedades enunciadas en el Teorema 5.1.
3. Encuentre el ángulo que forman los vectores a y b, y, c y d del Ejercicio 1.

4. Determine qué pares de vectores son ortogonales:


a) u = (−1, 2, 3, 0), v = (0, −3, 2, 4)
b) u = (1, 1, 1), v = (−1, −1, 0)
c) u = (0, 0, 1, −1, 5), v = (1, 2, −1, −1, 0)
5. Demuestre que se verifica el igual en la desigualdad triangular si y solo si u = cv, c ≥ 0.
6. Demuestre el Teorema 5.4 (teorema de Pitágoras).
7. Demuestre la ley del paralelogramo:
∥u + v∥2 + ∥u − v∥2 = 2 ∥u∥2 + 2 ∥v∥2 ,
para todo u y v del espacio euclidiano Rn .

Material de uso interno Mateu-Semitiel 196


CAPÍTULO 5. ESPACIOS VECTORIALES CON PRODUCTO INTERNO

8. Sean u, v y w vectores del espacio euclidiano Rn . Determine la veracidad o falsedad de las


siguientes proposiciones, justifique.

a) Si la distancia de u a v es igual a la distancia de u a (−v), entonces u y v son ortogonales.


u
b) Si u ̸= 0 entonces es un vector unitario.
∥u∥

c) Si u y v forman un ángulo θ = π4 , u y u−v son ortogonales y ∥u∥ = 2, entonces ∥v∥ = 2 2.
d ) Si θ es el ángulo que forman los vectores u y v, entonces θ es también el ángulo que forman
los vectores cu y dv (c y d constantes no nulas).

5.2. Producto interno


En la sección anterior se estudió el producto punto o producto interior euclidiano sobre el espacio
vectorial Rn . En esta sección se introduce la noción de un producto interior sobre un espacio vectorial
arbitrario. Como consecuencia se podrán definir con todo significado las nociones de longitud, distancia
y ángulo en espacios vectoriales más generales.
En el Teorema 5.1 se mostraron las propiedades más importantes del producto punto. En un espacio
vectorial general, un producto interior se define aplicando estas propiedades como axiomas.

Definición (Producto interior o interno). Un producto interior, o producto interno, sobre


un espacio vectorial real V es una función que asigna a cada par de vectores u y v de V, un
número real que simbolizaremos ⟨u, v⟩ de tal manera que satisface los axiomas siguientes.
Para todos los vectores u, v y w en V y cualquier escalar c,

1. ⟨u, v⟩ = ⟨v, u⟩ (axioma de simetrı́a)

2. ⟨u + v, w⟩ = ⟨u, w⟩ + ⟨v, w⟩ (axioma de aditividad)

3. ⟨cu, v⟩ = c ⟨u, v⟩ (axioma de homogeneidad)

4. ⟨u, u⟩ ≥ 0, y ⟨u, u⟩ = 0 si y solo si u = 0 (axioma de positividad)

Todo espacio vectorial con un producto interior se llama espacio con producto interior o
espacio con producto interno.

Ejemplo 5.4. El espacio vectorial Rn con ⟨u, v⟩ = u · v satisface todos los axiomas de un producto
interior (Teorema 5.1). Por lo tanto el espacio euclidiano Rn es un espacio con producto interno. ◀

Las siguientes propiedades se deducen a partir de los cuatro axiomas del producto interno:

Material de uso interno Mateu-Semitiel 197


CAPÍTULO 5. ESPACIOS VECTORIALES CON PRODUCTO INTERNO

Teorema 5.5 (Propiedades del producto interno). Sean u, v y w vectores en un espacio


vectorial con producto interno y c cualquier escalar. Entonces:

1. ⟨u, 0⟩ = ⟨0, u⟩ = 0.

2. ⟨u, v + w⟩ = ⟨u, v⟩ + ⟨u, w⟩.

3. ⟨u, cv⟩ = c ⟨u, v⟩.

4. ⟨u − v, w⟩ = ⟨u, w⟩ − ⟨v, w⟩.

Demostración. Probaremos la propiedad 2. Se dejan las restantes como ejercicio (Ejercicio 4).

⟨u, v + w⟩ = ⟨v + w, u⟩ (por el axioma de simetrı́a)


= ⟨v, u⟩ + ⟨w, u⟩ (por el axioma de aditividad)
= ⟨u, v⟩ + ⟨u, w⟩ (por el axioma de simetrı́a)

Actividad 5.4. Verifique que en un espacio vectorial V con producto interno:

X
2 X
3
⟨c1 u1 + c2 u2 , d1 v1 + d2 v2 + d3 v3 ⟩ = ci dj ⟨ui , vj ⟩ ,
i=1 j=1

para cualesquiera u1 , u2 , v1 , v2 y v3 en V y c1 , c2 , d1 , d2 y d3 escalares.

Ejemplo 5.5. En el espacio vectorial R2 , si u = (u1 , u2 ) y v = (v1 , v2 ), la asignación

⟨u, v⟩ = 3u1 v1 + 2u2 v2 ,

define un producto interno. En efecto:

1. Como el producto en R es conmutativo,

⟨u, v⟩ = 3u1 v1 + 2u2 v2 = 3v1 u1 + 2v2 u2 = ⟨v, u⟩ ,

y se verifica entonces la simetrı́a.

2. Si w = (w1 , w2 ), entonces

⟨u + v, w⟩ = 3(u1 + v1 )w1 + 2(u2 + v2 )w2


= 3u1 w1 + 3v1 w1 + 2u2 w2 + 2v2 w2
= (3u1 w1 + 2u2 w2 ) + (3v1 w1 + 2v2 w2 )
= ⟨u, w⟩ + ⟨v, w⟩

lo cual establece el axioma de aditividad.

Material de uso interno Mateu-Semitiel 198


CAPÍTULO 5. ESPACIOS VECTORIALES CON PRODUCTO INTERNO

3. Si c es cualquier número real, entonces

⟨cu, v⟩ = 3(cu1 )v1 + 2(cu2 )v2


= c(3u1 v1 + 2u2 v2 )
= c ⟨u, v⟩ ,

y se probó entonces el axioma de homogeneidad.

4. Ya que el cuadrado de un número real es no negativo:

⟨u, u⟩ = 3u1 u1 + 2u2 u2 = 3u21 + 2u22 ≥ 0.

Además ⟨u, u⟩ = 3u21 + 2u22 = 0 si y solo si u1 = u2 = 0, es decir, si y solo u = (u1 , u2 ) = 0. Se


verifica entonces el axioma de positividad.◀

Ejemplo 5.6. El ejemplo anterior puede generalizarse al espacio vectorial Rn para demostrar que:
dados u = (u1 , u2 , ..., un ) y v = (v1 , v2 , ..., vn ) entonces

⟨u, v⟩ = c1 u1 v1 + c2 u2 v2 + ... + cn un vn

define un producto interno en Rn si y solo si ci > 0 para todo i = 1, 2, ..., n. (Ejercicio 1).◀

Ejemplo 5.7. La siguiente función no define un producto interno en R3 . Sean u = (u1 , u2 , u3 ),


v = (v1 , v2 , v3 ) y la asignación
⟨u, v⟩ = u1 v1 − 2u2 v2 + u3 v3 .
Observe que el axioma de positividad no se satisface. En efecto,

⟨u, u⟩ = u21 − 2u22 + u23 = (u12 + u23 ) − 2u22 ,

el cual se hace negativo para aquellos vectores u cuyas componentes son tales que u21 + u23 < 2u22 . Por
ejemplo, tomando u = (0, 1, 0) entonces ⟨u, u⟩ = −2 < 0.◀

Ejemplo 5.8. En el espacio vectorial P2 , si p = a0 + a1 x + a2 x2 y q = b0 + b1 x + b2 x2 , la asignación

⟨p, q⟩ = a0 b0 + a1 b1 + a2 b2 ,

define un producto interno (Ejercicio 2).◀

Ejemplo 5.9. El ejemplo anterior puede generalizarse al espacio vectorial Pn para demostrar que:
dados p = a0 + a1 x + ... + an xn y q = b0 + b1 x + ... + bn xn , entonces

⟨p, q⟩ = a0 b0 + a1 b1 + ... + an bn ,

define un producto interno que denominamos producto interno estándar o canónico en Pn .


Obsérvese que dicho producto interno es el producto punto entre los vectores de coordenadas de p
y q con respecto a la base estándar de Pn .◀

Material de uso interno Mateu-Semitiel 199


CAPÍTULO 5. ESPACIOS VECTORIALES CON PRODUCTO INTERNO

   
a11 a12 b11 b12
Ejemplo 5.10. En el espacio vectorial M2 , si A = yB= , la asignación
a21 a22 b21 b22
⟨A, B⟩ = a11 b11 + a12 b12 + a21 b21 + a22 b22 ,
define un producto interno (Ejercicio 3).◀

Ejemplo 5.11. En el espacio vectorial Mmn , si A = [aij ] y B = [bij ] entonces ⟨A, B⟩ definida como
la suma de los productos de los elementos de A por los homólogos de B, es un producto interno que
denominaremos producto interno estándar o canónico en Mmn .
Nótese que este producto interno es el producto punto entre los vectores de coordenadas de A y
B con respecto a la base estándar de Mmn .◀

Ejemplo 5.12. Sean f y g funciones del espacio vectorial C [a, b] que consta de las funciones reales
continuas en el intervalo cerrado [a, b], la asignación
Z b
⟨f, g⟩ = f (x)g(x) dx,
a
define un producto interno en dicho espacio. En efecto utilizando propiedades del Cálculo se verifican
los cuatro axiomas de la definición de producto interno.
Z b Z b
1. ⟨f, g⟩ = f (x)g(x) dx = g(x)f (x) dx = ⟨g, f ⟩
a a
b Z Z b
2. ⟨f + g, h⟩ = (f (x) + g(x)) h(x) dx = (f (x)h(x) + g(x)h(x)) dx =
Z b a Z b a

= f (x)h(x) dx + g(x)h(x) dx = ⟨f, h⟩ + ⟨g, h⟩


a a
Z b Z b
3. ⟨cf, g⟩ = cf (x)g(x) dx = c f (x)g(x) dx = c ⟨f, g⟩
a a

4. Ya que f 2 (x) = f (x)f (x) ≥ 0 para toda x ∈ [a, b] y la integral definida de una función continua
no negativa es no negativa:
Z b Z b
⟨f, f ⟩ = f (x)f (x) dx = f 2 (x) dx ≥ 0.
a a
Z b
Además ⟨f, f ⟩ = f 2 (x) dx = 0 si y solo si f 2 (x) = 0 para toda x ∈ [a, b] y esto es si y solo si
a
f (x) = 0 en [a, b] y por lo tanto f es la función cero en C [a, b].◀

La desigualdad de Cauchy-Schwartz permite introducir las nociones de norma (o longitud), distancia


y ángulo en cualquier espacio con producto interno:

Teorema 5.6 (Desigualdad de Cauchy-Schwartz). Si u y v son vectores de un espacio con


producto interno V, entonces
p p
|⟨u, v⟩| ≤ ⟨u, u⟩ ⟨v, v⟩

Material de uso interno Mateu-Semitiel 200


CAPÍTULO 5. ESPACIOS VECTORIALES CON PRODUCTO INTERNO

Demostración. Es análoga a la del Teorema 5.2.

Nota: La igualdad en la desigualdad de Cauchy-Schwartz se verifica si y solo si u y v son vectores


linealmente dependientes.

Longitud y ángulo en espacios con producto interno

Definición (Norma y distancia). Si V es un espacio con producto interno entonces la


norma o longitud de un vector u, se denota por ∥u∥, y es
p
∥u∥ = ⟨u, u⟩.

La distancia entre los vectores u y v, se denota por d (u, v), y está dada por
p
d (u, v) = ∥u − v∥ = ⟨u − v, u − v⟩.

Observación 5.1. Nótese que en términos de norma, la desigualdad de Cauchy-Schwartz puede


expresarse como:
|⟨u, v⟩| ≤ ∥u∥ ∥v∥ ,
para cualesquiera vectores u y v de un espacio V con producto interno.

   
1 −2 1 1
Ejemplo 5.13. Sean A = y B = matrices del espacio M2 con el producto
0 3 −1 2
interno estándar. Entonces, la norma de la matriz A es
p p √
∥A∥ = ⟨A, A⟩ = 1(1) + (−2)(−2) + 0(0) + 3(3) = 14,
y la distancia entre las matrices A y B es
p p √
d (A, B) = ∥A − B∥ = ⟨A − B, A − B⟩ = 0(0) + (−3)(−3) + 1(1) + 1(1) = 11. ◀

Ejemplo 5.14. Sea el espacio R2 con el producto interno ⟨u, v⟩ = 3u1 v1 + 2u2 v2 , analizado en el
Ejemplo 5.5. Si u = (1, 0) y v = (0, 1) entonces
p p √
∥u∥ = ⟨u, u⟩ = 3(12 ) + 2(02 ) = 3,
p √
∥v∥ = 3(02 ) + 2(12 ) = 2,
y p √
d (u, v) = ∥u − v∥ = ∥(1, −1∥ = 3(12 ) + 2(−1)2 = 5. ◀

Observación 5.2. Debe tenerse presente que la norma y la distancia definidas están inducidas por
un producto interior. Si se cambia el producto interior, las normas y distancias también cambian.
Por ejemplo, si en R2 se considera el producto punto,
√ la norma de u = (1, 0) es igual a la norma de
v = (0, 1), igual a 1, y la distancia entre u y v es 2 (véase ejemplo anterior).

Material de uso interno Mateu-Semitiel 201


CAPÍTULO 5. ESPACIOS VECTORIALES CON PRODUCTO INTERNO

Aunque las fórmulas con que se definen la norma y la distancia son imitaciones de las dadas en el
espacio euclidiano Rn , los resultados que se obtienen en el Ejemplo 5.14 pueden dar a lugar a dudas
acerca de lo adecuado
√ de estas definiciones, se√requiere mucha imaginación para afirmar que la longitud
del vector (1, 0) es 3 (y que la de (0, 1) es 2).
El argumento en apoyo de estas definiciones es que las fórmulas con que se definen norma y
distancia en un espacio con producto interno satisfacen las mismas propiedades que la longitud y
distancia euclidianas en Rn .

p
Teorema 5.7. Si V es un espacio con producto interno, entonces la norma ∥u∥ = ⟨u, u⟩, y
la distancia d (u, v) = ∥u − v∥, satisfacen las propiedades básicas de la norma y la distancia
euclidiana en Rn :

Propiedades básicas de la norma Propiedades básicas de la distancia


Para cualesquiera vectores u y v, c ∈ R: Para cualesquiera vectores u, v y w:
1. ∥u∥ ≥ 0 y ∥u∥ = 0 ⇔ u = 0. 1. d (u, v) ≥ 0 y d (u, v) = 0 ⇔ u = v.
2. ∥cu∥ = |c| ∥u∥.
2. d (u, v) = d (v, u) .
3. ∥u + v∥ ≤ ∥u∥ + ∥v∥ (desigualdad triangular) .
3. d (u, v) ≤ d (u, w) + d (w, v).

Demostración. Son análogas a las demostraciones de las mismas propiedades en el espacio euclidiano
Rn de la sección anterior.

Definición (Ángulo entre dos vectores). Sea V un espacio con producto interno, sean u
y v vectores no cero de V. El ángulo θ entre u y v, es el único ángulo tal que

⟨u, v⟩
cos θ = , y 0 ≤ θ ≤ π.
∥u∥ ∥v∥
⟨u,v⟩
La desigualdad de Cauchy-Schwartz garantiza que el cociente ∥u∥∥v∥ toma valores entre −1 y 1, y por
⟨u,v⟩
lo tanto θ = arc cos ∥u∥∥v∥ está bien definido.

Ejemplo 5.15. Para los vectores u = (1, −1) y v = (1, 1) de R2 con el producto punto, el coseno del
ángulo θ que forman los vectores u y v es

(1, −1) · (1, 1)


cos θ = = 0,
∥(1, −1)∥ ∥(1, 1)∥

por lo tanto θ = π2 .
En cambio, si se considera el producto interno ⟨u, v⟩ = 3u1 v1 + 2u2 v2 entonces el coseno del ángulo
θ entre ellos es
⟨(1, −1), (1, 1)⟩ 1 1
cos θ = =√ √ = ,
∥(1, −1)∥ ∥(1, 1)∥ 5 5 5
y por lo tanto θ = arc cos 15 ≃ 78, 5◦ .◀

Material de uso interno Mateu-Semitiel 202


CAPÍTULO 5. ESPACIOS VECTORIALES CON PRODUCTO INTERNO

Si u y v son vectores diferentes de cero tales que ⟨u, v⟩ = 0, se deduce de la definición de ángulo entre
vectores que cos θ = 0 y θ = π2 . Esto sugiere la siguiente definición:

Definición (Vectores ortogonales). En un espacio V con producto interno, dos vectores


u y v son ortogonales si ⟨u, v⟩ = 0.
Además si u es ortogonal a cada vector de un conjunto W de V se dice que u es ortogonal al
conjunto W .

Debe notarse que la ortogonalidad depende del producto interior. Dos vectores pueden ser ortogonales
con respecto a un producto interior y no con respecto a otro (véase Ejemplo 5.15).

Ejemplo 5.16. En el espacio C [−1, 1] de las funciones continuas en el intervalo cerrado [−1, 1], sea
Z 1
el producto interior ⟨f, g⟩ = f (x)g(x) dx analizado en el Ejemplo 5.12. Las funciones f y g tales
−1
que f (x) = x y g(x) = x2 son ortogonales. En efecto:
Z 1 Z 1
⟨f, g⟩ = 2
xx dx = x3 dx = 0.
−1 −1

Claramente f (x) = x es ortogonal al conjunto W formado por todas las funciones de la forma
g2n (x) = x2n con n ∈ N.◀

El siguiente teorema es una generalización de un conocido resultado:

Teorema 5.8 (de Pitágoras generalizado). Sea V un espacio con producto interno y u y v
vectores de V. Entonces u y v son ortogonales si y solo si ∥u + v∥2 = ∥u∥2 + ∥v∥2 .

Demostración. Es análoga a la del Teorema 5.4.

Proyecciones ortogonales en espacios con producto interno


−−→ −−→
Recordemos que geométricamente para vectores u = OP y v = OQ, v ̸= 0, del espacio euclidiano R2
(similarmente para vectores del espacio euclidiano R3 ), el vector proyección ortogonal de u sobre
−−→
v, es el vector OP ′ , que simbolizamos proyv u, donde P ′ es el punto de intersección de la recta sostén
de v y la perpendicular a ella que contiene al punto P (véase Figura 5.6).
En Álgebra y Geometrı́a Analı́tica, se vió que este vector está dado por
 
v v u·v
proyv u = u · o bien proyv u = v.
∥v∥ ∥v∥ v·v
El concepto de proyección ortogonal se extiende de manera natural a un espacio general con
producto interno.

Definición (Proyección ortogonal sobre un vector). Sea V un espacio con producto


interno, la proyección ortogonal de un vector u sobre un vector v no cero, es el vector

⟨u, v⟩
proyv u = v.
⟨v, v⟩

Material de uso interno Mateu-Semitiel 203


CAPÍTULO 5. ESPACIOS VECTORIALES CON PRODUCTO INTERNO

Figura 5.6: Proyección ortogonal de un vector sobre otro en R2

El vector proyección proyv u es un múltiplo escalar de v, por lo tanto es un vector del subespacio
gen {v}. Ası́, mas apropiadamente, a este vector se lo puede considerar como la proyección de u sobre
el subespacio generado por v. La proyección ortogonal de u sobre v goza de las siguientes propiedades:

1. Es el único vector w en gen {v} tal que u − w es ortogonal al espacio gen {v}.

2. Es el (único) vector de gen {v} “más próximo” al vector u.

Estas ideas se visualizan en la Figura 5.7 y se prueban en el siguiente teorema:

Figura 5.7: Proyección ortogonal sobre un vector

Material de uso interno Mateu-Semitiel 204


CAPÍTULO 5. ESPACIOS VECTORIALES CON PRODUCTO INTERNO

Teorema 5.9. Sea V un espacio con producto interno y u y v vectores de V con v ̸= 0.


Entonces:

1. ⟨u − proyv u, w⟩ = 0, para todo w ∈ gen {v}.

2. Si w ∈ gen {v} y w ̸= proyv u, entonces d (u, proyv u) < d (u, w).

Demostración. 1. Sea w un vector de gen {v}. Entonces, w = cv para algún  c ∈ R. Luego:
⟨u, v⟩
⟨u − proyv u, w⟩ = ⟨u − proyv u, cv⟩ = c ⟨u, v⟩ − c ⟨proyv u, v⟩ = c ⟨u, v⟩ − v, v =
⟨v, v⟩
 
⟨u, v⟩
= c ⟨u, v⟩ − ⟨v, v⟩ = c (⟨u, v⟩ − ⟨u, v⟩) = 0.
⟨v, v⟩
Es fácil probar que no existe otro vector en gen {v} que satisface esta propiedad.

2. La justificación de este hecho la proporciona el teorema generalizado de Pitágoras.


Sea w ∈ gen {v} y w ̸= proyv u. Probar que d (u, proyv u) < d (u, w), por definición de distancia,
significa mostrar que
∥u − proyv u∥ < ∥u − w∥ .
Para ello, sumando y restando proyv u al vector diferencia u − w se tiene:

u − w = (u − proyv u) + (proyv u − w) .

El vector proyv u−w es un vector de gen {v} por ser resta de dos vectores de gen {v}. Dado que el
vector u − proyv u es ortogonal a todo vector de gen {v}, entonces (u − proyv u) y (proyv u − w)
son ortogonales. En consecuencia, puede aplicarse el teorema generalizado de Pitágoras para
obtener:

∥u − w∥2 = ∥(u − proyv u) + (proyv u − w)∥2 = ∥(u − proyv u)∥2 + ∥(proyv u − w)∥2 .

Como w ̸= proyv u, entonces ∥proyv u − w∥2 > 0 y por lo tanto

∥u − w∥2 > ∥u − proyv u∥2 ,

y tomando raı́z cuadrada a ambos miembros

∥u − w∥ > ∥u − proyv u∥ ,

es decir
d (u, w) > d (u, proyv u) .

Ejercicios 5.2

1. Demuestre lo enunciado en el Ejemplo 5.6.

2. Demuestre lo enunciado en el Ejemplo 5.8

Material de uso interno Mateu-Semitiel 205


CAPÍTULO 5. ESPACIOS VECTORIALES CON PRODUCTO INTERNO

3. Demuestre lo enunciado en el Ejemplo 5.10.

4. Demuestre las restantes propiedades del Teorema 5.5.

5. Suponga que el espacio R2 tiene el producto interno definido en el Ejemplo 5.5, y sean los vectores
u = (1, 1) y v = (5, −1).

a) Calcule ∥u∥, ∥v∥, ⟨u, v⟩, la distancia entre u y v y el ángulo entre u y v.


b) Verifique la desigualdad de Cauchy-Schwartz para los vectores u y v.
c) Describa todos los vectores w = (w1 , w2 ) de R2 que son ortogonales a v.
d ) Determine la proyección ortogonal de u sobre v.

6. En el espacio P2 considere el producto interno estándar, y sean los polinomios p y q dados por
p(x) = 4 + x y q(x) = 3 − 2x + x2 .

a) Calcule ⟨p, q⟩, ∥p∥ y ∥q∥.


b) Halle el ángulo entre los polinomios p y q.
c) ¿Cuáles de los polinomios p y/o q es ortogonal al polinomio r? siendo r(x) = −1 + 4x + 5x2 .
d ) Determine la proyección ortogonal de q sobre p.
e) Halle el polinomio de gen {p} “más próximo” al polinomio q.

7. Sean x0 , x1 ,..., xn números reales distintos. En el espacio vectorial Pn , considere la función


definida por
⟨p, q⟩ = p(x0 )q(x0 ) + p(x1 )q(x1 ) + ... + p(xn )q(xn ),
donde p y q son polinomios de Pn .

a) Demuestre que dicha función es un producto interno en Pn .


b) Considere el espacio vectorial P2 con el producto interno definido siendo x0 = 1, x1 = 2 y
x3 = −1. Sean los polinomios p = 12x2 y q = −1 + 2x.
i) Calcule ⟨p, q⟩, ⟨q, q⟩, ∥p∥ y ∥q∥.
ii) Halle el ángulo entre p y q.
iii) Obtenga la proyección ortogonal de p sobre q.
iv) Encuentre un polinomio r que sea ortogonal a p.

8. En el espacio vectorial C [0, π], considere el producto interno definido en el Ejemplo 5.12, y sean
las funciones f , g y h dadas por f (x) = x, g(x) = ex y h(x) = sen x.

a) Obtenga las normas de las funciones f , g y h.


b) Calcule la distancia entre f y h.
c) Halle la proyección de f sobre g.
d ) ¿Es la función f ortgonal a la función g y/o h?, justifique su respuesta.

9. Sea V un espacio con producto interno. Demuestre que u es ortogonal al espacio gen {u1 , u2 , ..., uk }
si y solo si es ortogonal a cada uno de los vectores u1 , u2 , ..., uk .

10. Sea V un espacio con producto interno. Pruebe que el único vector de V que es ortogonal a cada
vector de V es el vector cero.

Material de uso interno Mateu-Semitiel 206


CAPÍTULO 5. ESPACIOS VECTORIALES CON PRODUCTO INTERNO

11. Sea V un espacio con


√producto interno, demuestre que si u y v son ortogonales y ∥u∥ = ∥v∥ = 1,
entonces d (u, v) = 2.

12. Sea u un vector de un espacio con producto interno V y sea W el conjunto de todos los vectores
de V que son ortogonales a u.

a) Pruebe que W es un subespacio de V.


b) Describa geométricamente el subespacio W en el caso en que V es el espacio euclidiano R2
o R3 y u ̸= 0.

13. Sean u y v vectores de un espacio con producto interno. Demuestre que


1 1
⟨u, v⟩ = ∥u + v∥2 − ∥u − v∥2 .
4 4

5.3. Bases ortogonales y ortonormales. Proceso de Gram-Schmidt


En muchos problemas referentes a espacios vectoriales la selección de una base se hace según la con-
veniencia. La mejor estrategia es elegir una base que simplifique la solución del problema en cuestión.
En los espacios con productos interiores el mejor procedimiento, a menudo, es elegir una base en
la que todos los vectores sean ortogonales entre sı́. En esta sección se verá cómo contruir tales bases.

Definición (Conjuntos ortogonales y ortonormales). Un conjunto de vectores en un


espacio V con producto interno es un conjunto ortogonal si todos los pares de vectores distintos
son ortogonales. Un conjunto ortogonal en el que cada vector tiene norma uno se conoce como
conjunto ortonormal.
Ası́ el conjunto {u1 , u2 , ..., uk } es ortogonal si ⟨ui , uj ⟩ = 0 para i ̸= j; y es ortonormal si
además ⟨ui , ui ⟩ = 1 para todo i = 1, 2, ..., k.

Ejemplo 5.17. En el espacio euclidiano R3 , el conjunto S = {u1 , u2 , u3 } donde u1 = (0, 1, 0),


u2 = ( √12 , 0, √12 ), u3 = ( √12 , 0, − √12 ) es un conjunto ortonormal ya que:

⟨u1 , u2 ⟩ = u1 · u2 = 0,

⟨u1 , u3 ⟩ = u1 · u3 = 0,
⟨u2 , u3 ⟩ = u2 · u3 = 0,
y además ∥u1 ∥ = ∥u2 ∥ = ∥u3 ∥ = 1.◀

Ejemplo 5.18. En el espacio M2 con el producto interno estándar, el conjunto S = {A, B, C} donde
     
1 −1 −2 −2 1 −1
A= , B= y C= ,
2 0 0 1 0 0

no es un conjunto ortogonal. En efecto: ⟨A, B⟩ = 0, ⟨B, C⟩ = 0 pero ⟨A, C⟩ = 2 ̸= 0.◀

Material de uso interno Mateu-Semitiel 207


CAPÍTULO 5. ESPACIOS VECTORIALES CON PRODUCTO INTERNO

Nota: Debe observarse que todo conjunto unitario, S = {v}, en un espacio con producto interno es
un conjunto ortogonal dado que no existen dos vectores distintos en S cuyo producto interno no sea
cero.

Ejemplo 5.19. En un espacio con producto interior, si v ̸= 0, entonces 1


∥v∥ v es un vector de norma
uno dado que
1 1
v = ∥v∥ = 1. ◀
∥v∥ ∥v∥

El proceso de multiplicar un vector v no cero por el recı́proco de su longitud para obtener un vector de
norma uno, se denomina normalización del vector v. Es claro que cualquier conjunto ortogonal de
vectores no ceros se transforma en un conjunto ortonormal si se normaliza cada vector del conjunto.
Los vectores ortogonales tienen muchas propiedades, la principal se dá en el siguiente teorema:

Teorema 5.10. Si S = {u1 , u2 , ..., uk } es un conjunto ortogonal de vectores no cero en un


espacio V con producto interno, entonces S es linealmente independiente.
En particular, todo conjunto ortonormal es linealmente independiente.

Demostración. Suponga que c1 , c2 ,..., ck son escalares tales que

c1 u1 + c2 u2 + ... + ck uk = 0. (5.3)

Para demostrar que S es linealmente independiente, debe probarse que c1 = c2 = ... = ck = 0.


Para cada ui de S, de acuerdo a (5.3):

⟨c1 u1 + c2 u2 + ... + ck uk , ui ⟩ = ⟨0, ui ⟩ = 0.

Desarrollando el producto interno del primer miembro se obtiene

c1 ⟨u1 , ui ⟩ + c2 ⟨u2 , ui ⟩ + ... + ck ⟨uk , ui ⟩ = 0.

Dado que S es un conjunto ortogonal ⟨uj , ui ⟩ = 0 si j ̸= i, por lo tanto la suma del primer miembro
se reduce al único término ci ⟨ui , ui ⟩ y la última igualdad se reduce a

ci ⟨ui , ui ⟩ = 0.

Dado que los vectores de S son no cero, por el axioma de positividad es ⟨ui , ui ⟩ > 0, y por lo
tanto ci = 0. Como esto se verifica para todo ui de S, entonces c1 = c2 = ... = ck = 0 y luego S es
linealmente independiente.
Se completa la prueba del teorema observando que todo conjunto ortonormal es un conjunto
ortogonal de vectores no cero y por lo tanto es linealmente independiente.

Corolario 5.1. Si V es un espacio con producto interno de dimensión n entonces todo


conjunto ortogonal de n vectores no cero es una base de V.

Actividad 5.5. Justifique la afirmación del corolario anterior.

Material de uso interno Mateu-Semitiel 208


CAPÍTULO 5. ESPACIOS VECTORIALES CON PRODUCTO INTERNO

Definición (Bases ortogonales y ortonormales). Una base ortogonal en un espacio V


con producto interno es un conjunto ortogonal que constituye una base del mismo. Si además
dichos vectores tienen norma uno, dicha base es una base ortonormal.

Ejemplo 5.20.
 El conjunto S del Ejemplo 5.17 es una base ortonormal del espacio euclidiano R3 ya
que dim R = 3 y S es un conjunto ortonormal que consta de 3 vectores.◀
3

El interés en encontrar bases ortonormales para espacios con producto interno está en parte motivado
por el teorema que sigue, el cual muestra que puede ser sencillo expresar un vector en términos de una
base ortogonal.

Teorema 5.11. Si S = {u1 , u2 , ..., un } es una base ortogonal para un espacio V con producto
interno y v es cualquier vector de V entonces

⟨v, u1 ⟩ ⟨v, u2 ⟩ ⟨v, un ⟩


v= u1 + u2 + ... + un .
⟨u1 , u1 ⟩ ⟨u2 , u2 ⟩ ⟨un , un ⟩

Si la base S es ortonormal entonces la expresión anterior se reduce a

v = ⟨v, u1 ⟩ u1 + ⟨v, u2 ⟩ u2 + ... + ⟨v, un ⟩ un .

Demostración. Sea v un vector de V. Dado que S es una base de V, existen únicos escalares c1 , c2 ,...,
cn tales que
v = c1 u1 + c2 u2 + ... + cn un . (5.4)
⟨v, ui ⟩
Se demostrará que ci = para cada i = 1, 2, ..., n.
⟨ui , ui ⟩
De acuerdo a (5.4) y por propiedades del producto interno, para cada vector ui en S:

⟨v, ui ⟩ = ⟨c1 u1 + c2 u2 + ... + cn un , ui ⟩ = c1 ⟨u1 , ui ⟩ + c2 ⟨u2 , ui ⟩ + ... + cn ⟨un , ui ⟩ .

Dado que S es un conjunto ortogonal, ⟨uj , ui ⟩ = 0 si j ̸= i. Por lo tanto la suma anterior se reduce
al único término ci ⟨ui , ui ⟩. Ası́
⟨v, ui ⟩ = ci ⟨ui , ui ⟩ .
Por ser S una base, ui ̸= 0, luego ⟨ui , ui ⟩ ̸= 0 por lo cual

⟨v, ui ⟩
ci = , para cada i = 1, 2, ..., n.
⟨ui , ui ⟩

Si S es una base ortonormal entonces ⟨ui , ui ⟩ = 1 y en este caso

ci = ⟨v, ui ⟩ , para todo i = 1, 2, ..., n.

Material de uso interno Mateu-Semitiel 209


CAPÍTULO 5. ESPACIOS VECTORIALES CON PRODUCTO INTERNO

 
Ejemplo 5.21. Los vectores u1 = (0, 1, 0), u2 = − 54 , 0, 35 y u3 = 3 4
5 , 0, 5 forman una base ortonor-
mal para el espacio euclidiano R3 (verifı́quelo).
Consideremos el vector v = (1, 1, 1). Por el teorema anterior, el vector v expresado en términos de
la base ortonormal es
v = (v · u1 ) u1 + (v · u2 ) u2 + (v · u3 ) u3 .
Se verifica que v · u1 = 1, v · u2 = − 51 y v · u3 = 75 . Ası́,
   
1 4 3 7 3 4 1 7
v = (1, 1, 1) = 1 (0, 1, 0) − − , 0, + , 0, = 1u1 − u2 + u3 . ◀
5 5 5 5 5 5 5 5

Es evidente la utilidad del teorema si se tiene presente que por lo general es necesario resolver un
sistema de ecuaciones lineales para expresar un vector en términos de una base que no es ortogonal.
Ahora se considera el problema de construir bases ortonormales. Para ello se deben considerar los
siguientes resultados preliminares:

Teorema 5.12. Sea V un espacio con producto interno y S = {u1 , u2 , ..., uk } un conjunto
ortogonal de vectores no cero en V. Si W = gen(S) entonces todo vector v en V se puede
expresar en la forma
v = w1 + w2 ,
donde w1 está en W y w2 = v − w1 es ortogonal a W siendo

⟨v, u1 ⟩ ⟨v, u2 ⟩ ⟨v, uk ⟩


w1 = u1 + u2 + ... + uk . (5.5)
⟨u1 , u1 ⟩ ⟨u2 , u2 ⟩ ⟨uk , uk ⟩

En particular w1 y w2 son ortogonales.

Demostración. Claramente w1 está en W ya que es una combinación lineal de vectores de S. Debe


probarse que w2 = v − w1 es ortogonal a W. Para ello, basta probar que w2 es ortogonal a cada uno
de los vectores de S (véase Ejercicio 9 de la sección anterior).
Sea ui un vector de S entonces

⟨v − w1 , ui ⟩ = ⟨v, ui ⟩ − ⟨w1 , ui ⟩
 
⟨v, u1 ⟩ ⟨v, u2 ⟩ ⟨v, uk ⟩
= ⟨v, ui ⟩ − u1 + u2 + ... + uk , ui
⟨u1 , u1 ⟩ ⟨u2 , u2 ⟩ ⟨uk , uk ⟩
 
⟨v, u1 ⟩ ⟨v, u2 ⟩ ⟨v, uk ⟩
= ⟨v, ui ⟩ − ⟨u1 , ui ⟩ + ⟨u2 , ui ⟩ + ... + ⟨uk , ui ⟩ .
⟨u1 , u1 ⟩ ⟨u2 , u2 ⟩ ⟨uk , uk ⟩

Como S es un conjunto ortogonal, ⟨uj , ui ⟩ = 0 si j ̸= i, y la expresión entre paréntesis se reduce a


⟨v,ui ⟩
⟨ui , ui ⟩ = ⟨v, ui ⟩. Por lo tanto:
⟨ui ,ui ⟩

⟨v − w1 , ui ⟩ = ⟨v, ui ⟩ − ⟨v, ui ⟩ = 0.

Queda probado que si w1 es la combinación lineal dada en la ecuación (5.5), entonces w2 = v − w1


es ortogonal a todo vector del espacio W. En particular w1 y w2 son ortogonales.

Material de uso interno Mateu-Semitiel 210


CAPÍTULO 5. ESPACIOS VECTORIALES CON PRODUCTO INTERNO

Figura 5.8: Interpretación geométrica en el espacio euclidiano R3 del Teorema 5.12

Con la motivación de la Figura 5.8, al vector w1 se le dá el nombre de proyección ortogonal de v sobre
W y se lo denota proyW v. El vector w2 se conoce como componente de v ortogonal a W. Se tiene
entonces la siguiente definición:

Definición. Sean v un vector de un espacio V con producto interno y W un subespacio de


V con una base ortogonal S = {u1 , u2 , ..., uk }. La proyección ortogonal de v sobre W es el
vector
⟨v, u1 ⟩ ⟨v, u2 ⟩ ⟨v, uk ⟩
proyW v = u1 + u2 + ... + uk .
⟨u1 , u1 ⟩ ⟨u2 , u2 ⟩ ⟨uk , uk ⟩
El vector diferencia v − proyW v se llama componente de v ortogonal a W.

Ejemplo 5.22. Sea el espacio euclidiano R3 y W el subespacio (el plano) generado por los vectores
ortonormales u1 = (0, 1, 0) y u2 = 54 , 0, 35 . La proyección ortogonal del vector v = (1, 1, 1) sobre W
es    
7 4 3 28 21
proyW v = (v · u1 ) u1 + (v · u2 ) u2 = 1 (0, 1, 0) + , 0, = , 1, .
5 5 5 25 25
La componente de v ortogonal a W es
   
28 21 3 4
v − proyW v = (1, 1, 1) − , 1, = − , 0, .
25 25 25 25

Obsérvese que v − proyW v es ortogonal tanto a u1 como a u2 , de manera que este vector es
ortogonal a cada vector en el espacio W, como debe ser.◀

Material de uso interno Mateu-Semitiel 211


CAPÍTULO 5. ESPACIOS VECTORIALES CON PRODUCTO INTERNO

Actividad 5.6. Pruebe que el conjunto S = {v1 , v2 } donde v1 = (0, 2, 0) y v2 = (4, 0, 3) es una
base ortogonal del subespacio W del ejemplo anterior. Y muestre que si calcula el vector proyección
de v = (1, 1, 1) sobre W usando la base S se obtiene el mismo vector que el del ejemplo anterior, que
fue calculado utilizando la base {u1 , u2 }.
Este no es casual, el cálculo de un vector proyección sobre un subespacio es independiente de la
base ortogonal considerada.

En la sección anterior se notó que el vector proyección de u sobre v es el vector del espacio gen {v}
más próximo al vector u (véase Figura 5.7). Similarmente, el vector proyW v tiene la misma interesante
propiedad. Es el vector en W más cercano a v, es decir, es la mejor aproximación de los vectores de
W al vector v (véase Figura 5.9).

Figura 5.9: La proyección ortogonal es el vector de W más cercano a v

Teorema 5.13. (de la mejor aproximación) Si W es un subespacio de dimensión finita de


un espacio V con producto interno, y si v es un vector en V, entonces proyW v es el vector de
W más cercano a v, esto es:
∥v − proyW v∥ < ∥v − w∥ ,
para todo vector w en W distinto de proyW v.
Ası́, ∥v − proyW v∥ representa la distancia del vector v al subespacio W.

Demostración. Para cualquier vector w en W se puede escribir

v − w = (v − proyW v) + (proyW v − w) .

El vector proyW v − w pertenece a W ya que es diferencia de dos vectores del espacio W. Por otra
parte, de acuerdo al Teorema 5.12, el vector v − proyW v es ortogonal a todo vector de W de modo

Material de uso interno Mateu-Semitiel 212


CAPÍTULO 5. ESPACIOS VECTORIALES CON PRODUCTO INTERNO

que los dos vectores del segundo miembro son ortogonales. Por el Teorema generalizado de Pitágoras:

∥v − w∥2 = ∥v − proyW v∥2 + ∥proyW v − w∥2 ,

o bien,
∥v − proyW v∥2 = ∥v − w∥2 − ∥proyW v − w∥2 .
Como ∥proyW v − w∥2 > 0 para todo w ̸= proyW v, entonces

∥v − proyW v∥2 < ∥v − w∥2 ,

y tomando raı́z cuadrada a ambos miembros

∥v − proyW v∥ < ∥v − w∥ .

El teorema de la mejor aproximación implica que la proyección ortogonal sobre un subespacio es única,
no depende de la base ortonormal que se usó para calcularla (Ejercicio 13).

Ahora se tienen los elementos necesarios para probar el resultado principal de esta sección: Todo
espacio con producto interno de dimensión finita tiene una base ortogonal. Este resultado se deduce co-
mo consecuencia de un teorema cuya demostración enseña a construir bases ortogonales para cualquier
espacio con producto interno de dimensión finita. Esta contrucción es el método de Gram-Schmidt, en
memoria de J. P. Gram (1850-1916) y E. Smith (1845-1921), que permite “ortogonalizar” cualquier
base S de un subespacio W finito dimensional de un espacio vectorial V con producto interno.

Teorema 5.14. (Proceso de Gram-Schmidt) Sea W un subespacio de dimensión finita de un


espacio vectorial V con producto interno. Si S = {v1 , v2 , ..., vk } es una base de W entonces
S ′ = {u1 , u2 , ..., uk } es una base ortogonal de W siendo

u1 = v1
⟨v2 , u1 ⟩
u2 = v2 − u1
⟨u1 , u1 ⟩
⟨v3 , u1 ⟩ ⟨v3 , u2 ⟩
u3 = v3 − u1 − u2
⟨u1 , u1 ⟩ ⟨u2 , u2 ⟩
..
.
⟨vk , u1 ⟩ ⟨vk , u2 ⟩ ⟨vk , uk−1 ⟩
uk = vk − u1 − u2 − ... − uk−1 .
⟨u1 , u1 ⟩ ⟨u2 , u2 ⟩ ⟨uk−1 , uk−1 ⟩

Una base ortonormal S ′′ de W se obtiene normalizando la base S ′ :


 
′′ u1 u2 uk
S = , , ..., .
∥u1 ∥ ∥u2 ∥ ∥uk ∥

Demostración. La prueba es constructiva, se construirá gradualmente la base S ′ deseada siguiendo los


siguientes pasos:
Paso 1. Se elige cualquier vector de S, podemos comenzar con v1 y hacemos

u1 = v 1 .

Material de uso interno Mateu-Semitiel 213


CAPÍTULO 5. ESPACIOS VECTORIALES CON PRODUCTO INTERNO

Claramente u1 ̸= 0 ya que v1 es parte de una base.


Paso 2. Seguidamente buscamos un vector u2 en W que sea ortogonal a u1 . Para ello, hacemos
que u2 sea la componente de v2 ortogonal al subespacio W1 = gen {u1 }. Ası́:

⟨v2 , u1 ⟩
u2 = v2 − proyW1 v2 = v2 − u1 .
⟨u1 , u1 ⟩

Claramente u2 es ortogonal a u1 y pertenece al subespacio W ya que es combinación lineal de los


vectores v2 y u1 = v1 del espacio W.
⟨v2 , u1 ⟩
Debe notarse que u2 ̸= 0 ya que de otro modo se tendrı́a v2 = u1 y serı́a v2 un múltiplo
⟨u1 , u1 ⟩
escalar de v1 contradiciendo la independencia lineal de los vectores de S.
Paso 3. Para construir un vector u3 que sea ortogonal tanto a u1 como a u2 , se toma u3 como la
componente de v3 ortogonal al subespacio W2 = gen {u1 , u2 }. Esto es:

⟨v3 , u1 ⟩ ⟨v3 , u2 ⟩
u3 = v3 − proyW2 v3 = v3 − u1 − u2 .
⟨u1 , u1 ⟩ ⟨u2 , u2 ⟩

El vector u3 pertenece a W ya que es combinación lineal de vectores de W. Además u3 ̸= 0 ya que


⟨v3 , u1 ⟩ ⟨v3 , u2 ⟩
en caso contrario se tendrı́a v3 = u1 + u2 y serı́a v3 una combinación lineal de v1 y
⟨u1 , u1 ⟩ ⟨u2 , u2 ⟩
v2 (a través de u1 y u2 ), contradiciendo la independencia lineal de los vectores de S.
Paso 4. De manera similar se obtiene el vector u4 de W que es ortogonal a u1 , u2 y u3 calculando
la componente de v4 ortogonal al subespacio W3 = gen {u1 , u2 , u3 }:

⟨v4 , u1 ⟩ ⟨v4 , u2 ⟩ ⟨v4 , u3 ⟩


u4 = v4 − proyW3 v4 = v4 − u1 − u2 − u3 .
⟨u1 , u1 ⟩ ⟨u2 , u2 ⟩ ⟨u3 , u3 ⟩

Otra vez la independencia lineal de S garantiza u4 ̸= 0.


Al continuar de esta manera se obtiene un conjunto ortogonal, S ′ = {u1 , u2 , ..., uk }, de k vectores
no cero en W. Dado que dim(W) = k y todo conjunto ortogonal de vectores no cero es linealmente
independiente, entonces S ′ es una base ortogonal de W.
Una base ortonormal S ′′ de W se obtiene normalizando los vectores de S ′ .

Nota 1: Puede comprobarse que en cada paso de este proceso los vectores u1 , u2 ,..., ul forman una
base ortogonal para el subespacio generado por los vectores v1 , v2 ,..., vl de la base original S.
Nota 2: Si la base S ya es ortogonal, el proceso de Gram-Schmidt “devuelve” la misma base S; esto
es u1 = v1 , u2 = v2 ,..., uk = vk .

En la Figura 5.10 se muestra una visualización geométrica del proceso de Gram-Schmidt en el espacio
euclidiano R3 . En [Link]
puede verse una construcción dinámica del mismo en dicho espacio.

Ejemplo 5.23. Sea el subespacio W = gen {v1 , v2 , v3 } donde v1 = (1, 1, 1, 1), v2 = (0, 1, 1, 1) y
v3 = (0, 0, 1, 1) del espacio euclidiano R4 .

Material de uso interno Mateu-Semitiel 214


CAPÍTULO 5. ESPACIOS VECTORIALES CON PRODUCTO INTERNO

Figura 5.10: Proceso de Gram-Schmidt en el espacio euclidiano R3

El conjunto S = {v1 , v2 , v3 } es linealmente independiente (y generador de W) por lo que constituye


una base para W. Claramente S no es una base ortogonal de W por lo que para hallar una base
ortonormal del mismo se aplica el proceso de Gram-Schmidt a la base S.
Primero, se obtendrá, a partir de la base (no ortogonal) S, la base ortogonal S ′ = {u1 , u2 , u3 } de
la siguiente forma:

u1 = v1 = (1, 1, 1, 1) ,
 
v 2 · u1 3 3 1 1 1
u2 = v 2 − u1 = (0, 1, 1, 1) − (1, 1, 1, 1) = − , , , ,
u1 · u1 4 4 4 4 4
 
v 3 · u1 v 3 · u2 2 1/2 3 1 1 1
u3 = v 3 − u1 − u2 = (0, 0, 1, 1) − (1, 1, 1, 1) − − , , , =
u1 · u1 u2 · u2 4 3/4 4 4 4 4
     
1 1 1 1 1 1 1 1 2 1 1
= (0, 0, 1, 1) − , , , − − , , , = 0, − , , .
2 2 2 2 2 6 6 6 3 3 3
√ √
 
′′ u1 u2 u3
Dado que ∥u1 ∥ = 2, ∥u2 ∥ = 2 y ∥u3 ∥ = 3 , el conjunto S =
3 6
, , donde
∥u1 ∥ ∥u2 ∥ ∥u3 ∥
 
u1 1 1 1 1 1
= (1, 1, 1, 1) = , , , ,
∥u1 ∥ 2 2 2 2 2
   
u2 2 3 1 1 1 3 1 1 1
= √ − , , , = − √ , √ , √ , √ ,
∥u2 ∥ 3 4 4 4 4 2 3 2 3 2 3 2 3
   
u3 3 2 1 1 2 1 1
= √ 0, − , , = 0, − √ , √ , √ ,
∥u3 ∥ 6 3 3 3 6 6 6

es una base ortonormal para el subespacio W.◀

Material de uso interno Mateu-Semitiel 215


CAPÍTULO 5. ESPACIOS VECTORIALES CON PRODUCTO INTERNO

Ejemplo 5.24. Sea el subespacio W = gen {f1 , f2 , f3 } siendo f1 (x) = 1, f2 (x) = x y f3 (x) = x2 ,
del espacio C [−1, 1] de las funciones continuas en el intervalo cerrado [−1, 1], con el producto interno
Z 1
dado por ⟨f, g⟩ = f (x)g(x) dx, donde f y g son funciones de C [−1, 1].
−1
El conjunto S = {f1 , f2 .f3 } es linealmente independiente y por lo tanto constituye una base para
W pero no es un conjunto ortogonal. En efecto:
Z 1 Z 1
2
⟨f1 , f3 ⟩ = 2
1(x ) dx = x2 dx = ̸= 0.
−1 −1 3
Se obtendrá, aplicando el proceso de Gram-Schmidt, una base ortogonal para W a partir de la
base S:
g1 = f1 ,
Z 1
x dx  
⟨f2 , g1 ⟩ 0
g2 = f2 − g1 = f2 − Z−11 g1 = f2 − g1 = f2 ,
⟨g1 , g1 ⟩ 2
dx
−1
Z 1 Z 1
2
x dx x3 dx
⟨f3 , g1 ⟩ ⟨f3 , g2 ⟩ −1
g3 = f3 − g1 − g2 = f3 − Z g1 − Z−1 g2 =
⟨g1 , g1 ⟩ ⟨g2 , g2 ⟩ 1 1
2
dx x dx
−1 −1
   
2/3 0 1
= f3 − g1 − g2 = f3 − g1 .
2 2/3 3
Por lo tanto el conjunto S ′ = {g1 , g2 , g3 } donde g1 (x) = 1, g2 (x) = x y g3 (x) = x2 − 31 , es una base
ortogonal para W.◀

Ejemplo 5.25. En el espacio euclidiano R4 , sea W = gen {w1 , w2 , w3 , w4 , w5 } donde w1 = (1, 1, 0, 2),
w2 = (0, 1, 1, −1), w3 = (2, 3, 1, 3), w4 = (−1, 0, 1, −3) y w5 = (1, 1, 1, 1). Se desea hallar el vector
proyección de v = (0, −1, 0, 1) sobre el subespacio W, la componente de v ortogonal a W y la distancia
del vector v al subespacio W.
Se debe obtener una base ortogonal para el subespacio W. Claramente {w1 , w2 , w3 , w4 , w5 } no es
una base de W (¿por qué?).
Para hallar una base de W, se forma la matriz A cuyos renglones son los vectores w1 , w2 , w3 , w4
y w5 :  
1 1 0 2
 0 1 1 −1 
 
A=  2 3 1 3 .

 −1 0 1 −3 
1 1 1 1
Los renglones no cero de cualquier forma escalonada de A forman una base para ren(A) = W. Una
forma escalonada de A es  
1 1 0 2
 0 1 1 −1 
 
B=  0 0 1 −1  .

 0 0 0 0 
0 0 0 0

Material de uso interno Mateu-Semitiel 216


CAPÍTULO 5. ESPACIOS VECTORIALES CON PRODUCTO INTERNO

Ası́, el conjunto S = {v1 , v2 , v3 } donde v1 = (1, 1, 0, 2), v2 = (0, 1, 1, −1) y v3 = (0, 0, 1, −1) es
una base para W. S no es una base ortogonal, aplicando el proceso de Gram-Schmidt a S se obtiene
una base ortogonal para W:

u1 = v1 = (1, 1, 0, 2) ,
   
v 2 · u1 −1 1 7 2
u2 = v 2 − u1 = (0, 1, 1, −1) − (1, 1, 0, 2) = , , 1, − ,
u1 · u1 6 6 6 3
   
v 3 · u1 v 3 · u2 −2 5/3 1 7 2
u3 = v 3 − u1 − u2 = (0, 0, 1, −1) − (1, 1, 0, 2) − , , 1, − =
u1 · u1 u2 · u2 6 17/6 6 6 3
 
4 6 7 1
= ,− , , ,
17 17 17 17

resultando S ′ = {u1 , u2 , u3 } una base ortogonal para W.


La proyección del vector v sobre el subespacio W es el vector
v · u1 v · u2 v · u3
proyW v = u1 + u2 + u3 =
u1 · u1 u2 · u2 u3 · u3
   
1 11 1 7 2 7 4 6 7 1
= (1, 1, 0, 2) − , , 1, − + ,− , , =
6 17 6 6 3 6 17 17 17 17
 
1 1 5
= , −1, − , .
3 6 6

La componente de v ortogonal a W es el vector

w = v − proyW v =
 
1 1 5
= (0, −1, 0, 1) − , −1, − , =
3 6 6
 
1 1 1
= − , 0, , .
3 6 6

La distancia del vector v al subespacio W es


r √
6 6
∥v − proyW v∥ = = .◀
36 6

Complemento ortogonal y teorema de la descomposición ortogonal


Se han visto vectores que son ortogonales a todos los vectores de un subespacio. Por ejemplo, para
cada vector v del espacio V, el vector v − proyW v es ortogonal al espacio W. El conjunto de todos
los vectores ortogonales a un espacio W es el llamado complemento ortogonal de W y se simboliza
W⊥ . Más precisamente:

Definición. (Complemento ortogonal) Sea W un subespacio de un espacio V con pro-


ducto interno. El conjunto de todos los vectores de V que son ortogonales a W, se designa
con W⊥ y se llama complemento ortogonal de W,

W⊥ = {v ∈ V : ⟨v, w⟩ = 0, para todo w ∈ W} .

Material de uso interno Mateu-Semitiel 217


CAPÍTULO 5. ESPACIOS VECTORIALES CON PRODUCTO INTERNO

Se deja como ejercicio la demostración del siguiente teorema:

Teorema 5.15. Sea W un subespacio de un espacio vectorial V con producto interno, en-
tonces:

1. W⊥ es un subespacio de V.

2. W ∩ W⊥ = {0}

Ejemplo 5.26. Complemento ortogonal de los subespacios triviales.


Si W = {0} entonces W⊥ = V ya que ⟨0, v⟩ = 0 para todo v ∈ V.
Si W = V entonces W⊥ = {0}. ◀

Ejemplo 5.27. Sea W el subespacio del espacio euclidiano R3 generado por los vectores linealmente
independientes u1 = (1, −2, 3) y u2 = (1, 2, 5). Geométricamente W es un plano que contiene al origen
de coordenadas.
Un vector v de R3 es ortogonal a W si y solo si es ortogonal a cada uno de los vectores de un
conjunto generador de W (véase Ejercicio 9 de la sección anterior).
Ası́, v = (v1 , v2 , v3 ) es ortogonal a W si y solo si u1 · v = 0 y u2 · v = 0. Esto es:

v1 − 2v2 + 3v3 = 0
v1 + 2v2 + 5v3 = 0

Por lo tanto W⊥ es el conjunto de soluciones del sistema homogéneo de matriz de coeficientes


 
1 −2 3
A= .
1 2 5

La solución general del sistema es



 v1 = −4t
v2 = − 21 t , t∈R

v3 = t

por lo cual el complemento ortogonal de W es


   
⊥ 1 1
W = (−4t, − t, t) : t ∈ R = gen −4, − , 1 ,
2 2

que geométricamente es una recta que contiene al origen de coordenadas.


Observe que dim(W) = 2, dim(W⊥ ) = 1 y dim(W) + dim(W⊥ ) = 3 = dim(R3 ).◀

El teorema de Gram-Schmidt asegura la existencia de bases ortogonales para un subespacio no cero


finito dimensional en un espacio con producto interno. Es posible ahora reenunciar el Teorema 5.12 y
“hacerlo más fuerte” ya que se puede aplicar a cualquier subespacio finito dimensional de un espacio
con producto interno.

Material de uso interno Mateu-Semitiel 218


CAPÍTULO 5. ESPACIOS VECTORIALES CON PRODUCTO INTERNO

Teorema 5.16. (Descomposición ortogonal) Si W es un subespacio de dimensión finita de


un espacio vectorial V con producto interno entonces todo vector v de V se puede expresar
de manera única como
v = w1 + w2 ,
donde w1 ∈ W y w2 ∈ W⊥ .

Demostración. Si W = {0} entonces W⊥ = V. En este caso, para todo v ∈ V:

v = 0 + v,

donde 0 ∈ W y v ∈ W⊥ , y ésta es la única manera de descomponer a v como suma de un vector de


W y otro de W⊥ .
Suṕongase ahora que W ̸= {0} y W es finito dimensional. La demostración se realiza en dos etapas.
La primera consiste en probar la existencia de dos vectores, w1 y w2 , con las propiedades enun-
ciadas. Por el proceso de Gram-Schmidt se sabe que existe una base ortogonal para W, entonces los
vectores w1 = proyW v y w2 = v − proyW v tienen las propiedades requeridas puesto que w1 ∈ W y,
por el Teorema 5.12, w2 es ortogonal a todo vector de W. Ası́:

v = w1 + w2 .

Para hacer ver que éstos son los únicos vectores con estas propiedades supóngase que también v
se puede descomponer:
v = w′1 + w′2 ,
donde w′1 ∈ W y w′2 ∈ W⊥ .
Ası́,
w1 + w2 = w′1 + w′2 ,
por lo tanto
w1 − w′1 = w′2 − w2 .
El vector w1 − w′1 ∈ W ya que es resta de dos vectores de W y éste es un subespacio. El vector
w′2 − w2 ∈ W⊥ ya que es resta de dos vectores de W⊥ y éste es un subespacio. Luego:

u = w1 − w′1 = w′2 − w2 ,

es un vector que está tanto en W como en W⊥ por lo cual, del Teorema 5.15 parte 2, u = 0 esto es
w1 = w′1 y w2 = w′2 .

Ejercicios 5.3

1. Halle el vector de coordenadas del vector v = (8, 2, −3) del espacio euclidiano R3 con respecto a
la base ortogonal B = {u1 , u2 , u3 } donde u1 = (4, −1, 1), u2 = (0, 1, 1) y u3 = − 21 , −1, 1 . (No
hay que resolver ningún sistema).

Material de uso interno Mateu-Semitiel 219


CAPÍTULO 5. ESPACIOS VECTORIALES CON PRODUCTO INTERNO

2. Compruebe que el conjunto formado por los vectores u1 y u2 es un conjunto ortogonal del espacio
euclidiano R3 . Luego encuentre la proyección de v sobre gen {u1 , u2 }, siendo:

a) v = (−1, 4, 3); u1 = (1, 1, 0) y u2 = (−1, 1, 0).


b) v = (6, 4, 1); u1 = (−4, −1, 1) y u2 = (0, 1, 1).

3. Sea W el subespacio del espacio euclidiano R4 generado por los vectores u1 , u2 y u3 . Escriba
el vector v como la suma de un vector de W y un vector ortogonal a W. Calcule además la
distancia del vector v al subespacio W:

a) u1 = (1, 1, 0, 1), u2 = (−1, 3, 1, −2), u3 = (−1, 0, 1, 1) y v = (4, 3, 3, −1).


b) u1 = (1, 1, 0, −1), u2 = (1, 0, 1, 1), u3 = (0, −1, 1, −1) y v = (3, 4, 5, 6).

4. Sea el subespacio W = gen {u1 , u2 } del espacio euclidiano R4 . Determine el vector del subespacio
W más cercano a v y calcule dicha distancia:

a) u1 = (3, 1, −1, 1), u2 = (1, −1, 1, −1) y v = (3, 1, 5, 1).


b) u1 = (1, −2, −1, 2), u2 = (−4, 1, 0, 3) y v = (3, −1, 1, 13).

5. Halle, en cada caso, una base ortonormal para el subespacio W del espacio euclidiano Rn corres-
pondiente:

a) W = gen {v1 , v2 }; v1 = (0, 4, 2), v2 = (8, 5, −6).


b) W = gen {v1 , v2 , v3 }; v1 = (3, 1, −1, 3), v2 = (−5, 1, 5, −7), v3 = (1, 1, −2, 8).

c) W = (a, a + b, −b) ∈ R3 : a, b ∈ R
 
1 3 5
 −1 −3 1 
d ) W = N (A) donde A =   2
.
6 16 
1 3 2
e) W = ren(A) donde A es la matriz del ı́tem d ).
f ) W = col(A) donde A es la matriz del ı́tem d ).
g) W es el espacio solución de la ecuación x1 − 2x2 + 3x3 − x4 = 0.

6. Halle una base ortogonal para el subespacio W del espacio V = Pn con el producto interno
estándar.

a) W = gen {p1 , p2 , p3 }; V = P3 ; p1 = 1 + x − x2 , p2 = 1 + x + x2 − x3 , p3 = 1 + x3 .

b) W = a + (a − b)x + bx2 ∈ P2 : a, b ∈ R ; V = P2 .

7. Halle una base ortogonal para el subespacio W del espacio Mmn correspondiente con el producto
interno estándar.
     
1 1 0 2 2 1 0 0 −1
a) W = gen {A1 , A2 , A3 }; A1 = , A2 = , A3 =
0 1 −1 1 1 1 1 1 1
  
 a b −b 
b) W =  0 a + b 0  ∈ M3 : a, b ∈ R .
 
0 0 −a

Material de uso interno Mateu-Semitiel 220


CAPÍTULO 5. ESPACIOS VECTORIALES CON PRODUCTO INTERNO

8. Halle una base ortogonal para el subespacio W del espacio C [0, 1] con el producto interno dado
Z 1
por ⟨f, g⟩ = f (x)g(x) dx, donde f y g son funciones continuas en el intervalo cerrado [0, 1].
0

a) W = gen {f1 , f2 }; f1 (x) = x, f2 (x) = ex .


b) W = gen {f1 , f2 , f3 }; f1 (x) = x, f2 (x) = 1 + 2x, f3 (x) = x5 .
c) W = {a sen x + b cos x : a, b ∈ R}.

9. Calcule la proyección del vector v sobre el subespacio W indicado en cada caso y la componente
de v ortogonal a W.

a) v = (1, 1, 1) y el subespacio W del Ejercicio 5.a.



b) v = (1, −1, 1, 1) y el subespacio W = (a, −b, a + b + c, c) ∈ R4 : a, b, c ∈ R del espacio
euclidiano R4 .

10. Descomponga el polinomio p como suma de un polinomio en W y otro en W⊥ .

a) p = 1 + x + x2 + x3 y el subespacio W del Ejercicio 6.a.



a) p = x−x2 y el subespacio W = a − bx + ax2 ∈ P2 : a, b ∈ R del espacio P2 con el producto
interno estándar.

11. Halle la matriz del subespacio W más cercana a la matriz A:


 
1 0 0
a) A = ; W el subespacio del Ejercicio 7.a.
0 0 1
 
1 −1 1
b) A =  1 0 0 ; W el subespacio del Ejercicio 7.b.
1 1 1

12. Obtenga la proyección de f (x) = 1 + x sobre el subespacio W del Ejercicio 8.a.

13. Sea V un espacio vectorial con producto interno y W un subespacio de dimensión finita. De-
muestre que la proyección ortogonal de un vector v sobre W es única.
Sugerencia: Utilice el teorema de la mejor aproximación para probar que no hay dos vectores
proyección de v sobre W distintos.

14. Demuestre el Teorema 5.15.

15. Sea A una matriz de m × n. Para los subespacios ren(A) y col(A) de los espacios euclidianos
Rn y Rm , respectivamente, se tienen las siguientes relaciones con respecto a sus complementos
ortogonales:
(ren(A))⊥ = N (A),
y dado que col(A) = ren(At ), resulta

(col(A))⊥ = N (At ).

a) Demuestre que (ren(A))⊥ = N (A) (un vector de Rn es ortogonal a cada uno de los renglones
de A si y solo si es un vector de N (A)).

Material de uso interno Mateu-Semitiel 221


CAPÍTULO 5. ESPACIOS VECTORIALES CON PRODUCTO INTERNO

b) Utilice el resultado del ı́tem anterior para probar que para todo subespacio W en el espacio
euclidiano Rn , dim(W) + dim(W⊥ ) = n.
c) Halle el complemento ortogonal y una base del mismo para los siguientes subespacios W
del espacio euclidiano V.
i) W = gen {(1, 1, 1), (2, 1, 3), (3, 2, 4)}; V = R3 .
ii) W = gen {(1, 0, 0, 1), (0, 1, 1, 1), (1, 1, 1, 2), (1, 2, 2, 3)}; V = R4 .
iii) W = gen {(1, 0, 0, 1), (0, 1, 1, 1), (1, 1, 1, 2), (1, 2, 2, 2)}; V = R4 .

16. Sea W un subespacio de dimensión finita de un espacio vectorial V con producto interno y v un
vector de V. Demuestre:

a) proyW v = v ⇔ v ∈ W.
b) proyW v = 0 ⇔ v ∈ W⊥ .

17. (Polinomios y series de Fourier) Con frecuencia las funciones continuas se aproximan me-
diante combinaciones lineales de funciones seno y coseno. Por ejemplo, una función continua
podrı́a representar una onda sonora, una señal eléctrica de algún tipo, el movimiento de un
sistema mecánico vibratorio, etc. Esta idea data de Euler, sin embargo, floreció con el trabajo
de Fourier (1768-1830).

Sea B el conjunto de las siguientes funciones trigonométricas definidas en el intervalo [−π, π].

B = {1, cos x, cos(2x), ..., cos(nx), sen x, sen(2x), ..., sen(nx)} .

Un polinomio trigonométrico de orden n es una combinación lineal de los elementos de B:

a0 + a1 cos x + a2 cos(2x) + ... + an cos(nx) + b1 sen x + b2 sen(2x) + ... + bn sen(nx), (5.6)

si an y bn no son cero simultáneamente.

Cualquier función f en C [−π, π] puede aproximarse mediante un polinomio trigonométrico. Por


aproximar queremos decir que f y algún polinomio trigonométrico “están cerca” con la norma
inducida por el producto interno integral definido en el Ejemplo 5.12 de la sección anterior.

Sea el subespacio gen(B) de C [−π, π] formado por todos los polinomios trigonométricos cuyo
orden es a lo sumo n.

a) Demuestre que B es una base ortogonal de gen(B). Para ello, pruebe que:
⟨1, cos(nx)⟩ = 0; n = 1, 2, 3, ...
⟨1, sen(nx)⟩ = 0; n = 1, 2, 3, ...
⟨cos(mx), cos(nx)⟩ = 0; si m ̸= n
⟨cos(mx), sen(nx)⟩ = 0; m, n = 1, 2, 3, ...
⟨sen(mx), sen(nx)⟩ = 0; si m ̸= n
√ √ √
b) Pruebe que ∥1∥ = 2π, ∥cos(kx)∥ = π y ∥sen(kx)∥ = π, k ≥ 1.

Material de uso interno Mateu-Semitiel 222


CAPÍTULO 5. ESPACIOS VECTORIALES CON PRODUCTO INTERNO

Sea f una función de C [−π, π]. Una aproximación de la función f mediante un polinomio
trigonométrico pn es
⟨f, 1⟩ ⟨f, cos x⟩ ⟨f, cos 2x⟩
f (x) ≃ pn (x) = proygen(B) f = 1+ cos x + cos 2x + ...
⟨1, 1⟩ ⟨cos x, cos x⟩ ⟨cos 2x, cos 2x⟩
⟨f, cos nx⟩ ⟨f, sen x⟩
+ cos nx + ... + sen x +
⟨cos nx, cos nx⟩ ⟨sen x, sen x⟩
⟨f, sen 2x⟩ ⟨f, sen nx⟩
+ sen 2x + ... + sen nx.
⟨sen 2x, sen 2x⟩ ⟨sen nx, sen nx⟩
c) Demuestre que los coeficientes de la aproximación anterior son:
Z π
⟨f, 1⟩ 1
a0 = = f (x) dx
⟨1, 1⟩ 2π −π
Z
⟨f, cos kx⟩ 1 π
ak = = f (x) cos kx dx k = 1, 2, ..., n
⟨cos kx, cos kx⟩ π −π
Z π
⟨f, sen kx⟩ 1
bk = = f (x) sen kx dx k = 1, 2, ..., n
⟨sen kx, sen kx⟩ π −π

Las fórmulas dadas en el ı́tem anterior se conocen como fórmulas de Euler que utilizó Fourier
para resolver la ecuación del calor.

Figura 5.11: Polinomios de Fourier p4 y p7 de f (x) = x, −π ≤ x ≤ π

El polinomio trigonométrico pn que aproxima a la función f definido por (5.6) y cuyos coeficientes
se obtienen de las fórmulas de Euler, se llama polinomio o aproximación de Fourier de orden n
de f en [−π, π].

d ) Pruebe que el polinomio de Fourier de orden n de la función dada por f (x) = x, x ∈ [−π, π]
está dado por:
2 2(−1)n+1
pn (x) = sen x − sen 2x + sen 3x + ... + sen nx.
3 n
En la Figura 5.11 se representan la función f y los polinomios de Fourier de orden 4, p4 y de
orden 7, p7 de f .

Material de uso interno Mateu-Semitiel 223


CAPÍTULO 5. ESPACIOS VECTORIALES CON PRODUCTO INTERNO

A medida que n crece, los polinomios pn se acercan cada vez más a la función f . Tomando el
lı́mite cuando n → +∞ se obtiene la serie

X
f (x) = a0 + (an cos(nx) + bn sen(nx)) ,
n=1

llamada serie de Fourier de la función f en el intervalo [−π, π].

Material de uso interno Mateu-Semitiel 224


Capı́tulo 6

TRANSFORMACIONES LINEALES

En este capı́tulo se estudiará un tipo particular de funciones denominadas transformaciones lineales


que se encuentran con frecuencia en el Álgebra Lineal y en otras áreas de la Matemática. Éstas poseen
una gran variedad de aplicaciones.

6.1. Transformaciones lineales


Recordemos que dados dos conjuntos no vacı́os, A y B, una función (mapeo, transformación o aplica-
ción) T de A en B, representada por T : A → B, es una ley o regla que asigna a cada elemento x de A
un único elemento y de B. El elemento y asignado a x es llamado imagen de x por la transformación
T y se denota y = T (x). El conjunto A recibe el nombre de dominio y el conjunto B de codominio.
El subconjunto de B formado por todas las imágenes de los elementos de A se llama recorrido de
T o conjunto imagen de A y se denota por R(T ). Estos es:

R(T ) = {y ∈ B : y = T (x), para algún x ∈ A} .

Una clase especial de funciones son las transformaciones lineales, las cuales son transformaciones
entre espacios vectoriales que “conservan” la suma y la multiplicación por escalares. Más precisamente:

Definición (Transformación lineal). Sean V y W espacios vectoriales. Una función T de


V en W, T : V → W, es una transformación lineal si

a) T (u + v) = T (u) + T (v), para todo u, v en V.

b) T (ku) = kT (u), para todo u en V y k en R.

Observe que, en a) de la definición anterior, el signo “+” en u + v se refiere a la operación suma en


V, mientras que el signo “+” en T (u) + T (v) es la operación suma en W.
De manera análoga, en b), el producto por escalar ku se refiere a la multiplicación por un escalar
en V mientras que el producto por escalar kT (u) se refiere a la multiplicación por un escalar en W.

Material de uso interno Mateu-Semitiel 225


CAPÍTULO 6. TRANSFORMACIONES LINEALES

Figura 6.1: Transformación lineal T de V en W

Ejemplo 6.1. Sea la transformación T : P2 → R2 definida por



T a + bx + cx2 = (a + b, c) .
T es la función que transforma cada polinomio p = a + bx + cx2 del espacio vectorial P2 en el único
vector (a + b, c) del espacio R2 . Por ejemplo, la imagen del polinomio p = −1 + 2x + 3x2 es el vector
T (p) = T (−1 + 2x + 3x2 ) = (1, 3) de R2 . Es fácil ver que la imagen del polinomio cero de P2 es el
vector cero de R2 . Puede comprobarse que el recorrido de T es R2 (R(T ) = R2 ).
Para determinar si T es una transformación lineal, deben verificarse a) y b) de la definición. Para
ello, sean p = a1 + b1 x + c1 x2 y q = a2 + b2 x + c2 x2 polinomios de P2 y k un escalar real. Dado que:

T (p + q) = T (a1 + b1 x + c1 x2 ) + (a2 + b2 x + c2 x2 )

= T (a1 + a2 ) + (b1 + b2 )x + (c1 +2 )x2
= ((a1 + a2 ) + (b1 + b2 ), c1 + c2 )
= ((a1 + b1 ) + (a2 + b2 ), c1 + c2 )
= (a1 + b1 , c1 ) + (a2 + b2 , c2 )
 
= T a1 + b1 x + c1 x2 + T a2 + b2 x + c2 x2
= T (p) + T (q),
entonces T cumple con a). De manera similar como:


T (kp) = T k(a1 + b1 x + c1 x2 )

= T (ka1 ) + (kb1 )x + (kc1 )x2
= (ka1 + kb1 , kc1 )
= (k(a1 + b1 ), k(c1 ))
= k (a1 + b1 , c1 )

= kT a1 + b1 x + c1 x2
= kT (p),
se verifica la parte b) de la definición.
Ası́, la transformación T es una transformación lineal.◀

Ejemplo 6.2 (Una transformación que no es lineal). Sea la transformación


T : R → R2 tal que T (x) = (x, x2 ).
Para probar que no es una transformación lineal, se deberá verificar que no se cumple a) o b)
de la definición. Para ello, basta con encontrar un par de elementos x, y en R tales que T (x + y) ̸=
T (x) + T (y) , o un escalar real k tal que T (kx) ̸= kT (x). Por ejemplo si x = −1, y = 1 se tiene
T (x + y) = T (−1 + 1) = T (0) = (0, 0),
mientras que
T (x) + T (y) = T (−1) + T (1) = (−1, 1) + (1, 1) = (0, 2),
por lo que no se satisface a) de la definición.

Material de uso interno Mateu-Semitiel 226


CAPÍTULO 6. TRANSFORMACIONES LINEALES

Ejemplo 6.3. Sea la transformación T : M2 → M2 tal que


   
a b a+b 0
T = .
c d 0 c+d
 
a b
Es claro que T es una función con dominio y codominio M2 que asigna a cada matriz de M2 ,
c d
 
a+b 0
la única matriz de M2 .
0 c+d
Para determinar si T es lineal,
 deben verificarsea) y b) de la definición de transformación lineal.
a1 b1 a2 b2
Sean las matrices A = yB= de M2 .
c1 d1 c2 d2
 
a1 + a2 b1 + b2
T (A + B) = T
c1 + c2 d1 + d2
 
(a1 + a2 ) + (b1 + b2 ) 0
=
0 (c1 + c2 ) + (d1 + d2 )

 
(a1 + b1 ) + (a2 + b2 ) 0
=
0 (c1 + d1 ) + (c2 + d2 )
   
a1 + b1 0 a2 + b2 0
= +
0 c1 + d1 0 c2 + d2
   
a1 b1 a2 b2
= T +T
c1 d1 c2 d2
= T (A) + T (B),

con lo que se satisface a) de la definición de transformación lineal. Además, para cualquier k ∈ R,


 
ka1 kb1
T (kA) = T
kc1 kd1
 
ka1 + kb1 0
=
0 kc1 + kd1
 
k(a1 + b1 ) 0
=
0 k(c1 + d1 )
 
a1 + b1 0
= k
0 c1 + d1
 
a1 b1
= kT
c1 d1
= kT (A),

entonces se satisface b) de la definición. Ası́, T es una transformación lineal.


Es claro que el recorrido de T es el conjunto de todas las matrices diagonales de M2 ya que
 la
d1 0
imagen de cualquier matriz de M2 es una matriz diagonal y toda matriz diagonal D = es
0 d2
imagen de alguna matriz de M2 , en particular D es imagen de sı́ misma, D = T (D).◀

Material de uso interno Mateu-Semitiel 227


CAPÍTULO 6. TRANSFORMACIONES LINEALES

Ejemplo 6.4 (La transformación lineal cero). Sean V y W espacios vectoriales. La transformación
constante cero, O : V → W, definida por

O(v) = 0, para todo v ∈ V,

es una transformación lineal. En efecto, si u y v son vectores de V y k es un escalar, entonces


O(u + v) = 0, O(u) = 0, O(v) = 0 y O(ku) = 0. Por lo tanto:

O(u + v) = 0 = 0 + 0 = O(u) + O(v),

O(ku) = 0 = k0 = kO(u).

Nótese que el recorrido de la transformación cero es R(O) = {0} . ◀

Actividad 6.1. Sean V y W espacios vectoriales. Pruebe que una transformación constante no cero,
esto es, T : V → W tal que T (x) = w donde w es un vector fijo no cero, no es una transformación
lineal.

Ejemplo 6.5 (La transformación lineal identidad). Sea V un espacio vectorial. La transformación
identidad definida por
I(v) = v, para todo v ∈ V,
es una transformación lineal del espacio V en sı́ mismo.
En efecto: sean u y v vectores de V y k un escalar, entonces I(u + v) = u + v, I(u) = u, I(v) = v
y I(ku) = ku. Por lo tanto:
I(u + v) = u + v = I(u) + I(v),
I(ku) = ku = kI(u).

Nótese que el recorrido de la transformación identidad es R(I) = V. ◀

Ejemplo 6.6. Considere los espacios vectoriales Mmn y Mnm y la transformación T : Mmn → Mnm
tal que
T (A) = At .
Esta transformación (transposición de matrices) es lineal. En efecto, por propiedades de la trans-
posición de matrices:
T (A + B) = (A + B)t = At + B t = T (A) + T (B),
T (kA) = (kA)t = kAt = kT (A),
para todo par de matrices A y B de m × n y para cualquier escalar k. ◀

Nota: Si como en los ejemplos 6.3, 6.5 y 6.6, T es una transformación lineal de un espacio vectorial
en sı́ mismo; esto es T : V → V, se dice que T es un operador lineal sobre V.

Las condiciones a) y b) que debe satisfacer una transformación para que sea lineal, pueden escribirse
de manera simultánea, por lo tanto la definición de transformación lineal puede expresarse como sigue:

Material de uso interno Mateu-Semitiel 228


CAPÍTULO 6. TRANSFORMACIONES LINEALES

Teorema 6.1. Sean V y W espacios vectoriales y una transformación T : V → W. Entonces

T es una transformación lineal si y solo si T (cu + kv) = cT (u) + kT (v),

para todo u y v en V y escalares reales c y k.

Demostración. Por un lado, si T es una transformación lineal, por la parte a) de la definición, se tiene
que si u y v son vectores de V y c y k escalares en R:

T (cu + kv) = T (cu) + T (kv), (6.1)

y por b)
T (cu) = cT (u) y T (kv) = kT (v). (6.2)
Reemplazando las expresiones de (6.2) en la expresión dada en (6.1) se obiene

T (cu + kv) = cT (u) + kT (v).

Recı́procamente, si T (cu + kv) = cT (u) + kT (v), tomando c = k = 1 se prueba la parte a) de la


definición de transformación lineal y tomando c = 0 se verifica b). Por lo tanto, T es una transformación
lineal.

Ejemplo 6.7 (Proyección de un vector sobre una recta que pasa por el origen). Sea u un
vector fijo distinto de cero del espacio euclidiano R3 . La transformación T : R3 → R3 definida por

T (v) = proyu v,

es una transformación lineal. En efecto:


v·u
proyu v = u,
u·u

(cv1 + kv2 ) · u cv1 · u + kv2 · u v1 · u v2 · u


T (cv1 + kv2 ) = u= u=c u+k u = cT (v1 ) + kT (v2 ),
u·u u·u u·u u·u
para todo v1 y v2 en R3 y c, k escalares.◀

Ejemplo 6.8 (Transformaciones matriciales: multiplicación  por


 una matriz). Sea, por ejem-
  x
1 −1 0
plo, la matriz A = . Para un vector cualquiera x =  y  de R3 , al efectuar el producto
1 1 1
z
Ax se obtiene el único vector de R2 :
 
  x  
1 −1 0   x−y
Ax = y = .
1 1 1 x+y+z
z

Se puede decir entonces que la matriz A define la transformación T : R3 → R2 tal que T (x) = Ax.

Material de uso interno Mateu-Semitiel 229


CAPÍTULO 6. TRANSFORMACIONES LINEALES

En general si A es una matriz de m × n y se utiliza la notación de vector columna para vectores


en Rn y Rm , entonces se puede definir una función T : Rn → Rm por medio de:

T (x) = Ax

ya que siendo x un vector de Rn (matriz de n × 1) y A una matriz de m × n, entonces Ax es una matriz


de m × 1 (vector de Rm ). Diremos que esta transformación es la multiplicación por A. Este tipo
de transformaciones se denominan transformaciones matriciales y la matriz A se llama matriz
estándar de T .
Las transformaciones matriciales son transformaciones lineales. En efecto, sea T una transforma-
ción matricial de matriz estándar A de m × n, y sean x1 , x2 vectores de Rn y k1 , k2 escalares reales,
entonces por propiedades del producto de matrices:

T (k1 x1 + k2 x2 ) = A (k1 x1 + k2 x2 ) = k1 (Ax1 ) + k2 (Ax2 ) = k1 T (x1 ) + k2 T (x2 ) . ◀

Son inmediatas las siguientes propiedades de las transformaciones lineales:

Teorema 6.2. Sea T : V → W una transformación lineal. Entonces:

1. T (0) = 0 (donde el 0 del primer miembro es el cero en V y el 0 del segundo miembro


es el cero en W).

2. T (−v) = −T (v), para todo v ∈ V

3. T (u − v) = T (u) − T (v), para todo u, v ∈ V

Demostración. Se probará la propiedad 1. Dado que 0v = 0 para cualquier vector v de V y de la parte


b) de la definición de transformación lineal se tiene:

T (0) = T (0v) = 0T (v) = 0.

Actividad 6.2. Demuestre las propiedades 2. y 3. del Teorema 6.2.

El teorema anterior dá condiciones necesarias para que una transformación T : V → W sea una
transformación lineal. Si alguna de éstas no se cumple, se puede afirmar que T no es una transformación
lineal. En particular es fácil verificar si T (0) es, o no, el cero de W.

Ejemplo 6.9 (Una transformación que no es lineal). Sea la transformación T : R2 → R3 tal que
T (x, y) = (x, y, x + 1). Dado que

T (0, 0) = (0, 0, 1) ̸= (0, 0, 0),

no se verifica la propiedad 1 del teorema anterior y por lo tanto T no es una transformación lineal.◀

Material de uso interno Mateu-Semitiel 230


CAPÍTULO 6. TRANSFORMACIONES LINEALES

Determinación de una transformación lineal conocidos sus valores sobre una base del
espacio dominio
El Teorema 6.1 puede generalizarse para un número finito de vectores. Esto es, si T es una transfor-
mación lineal de V en W,

T (k1 v1 + k2 v2 + ... + kn vn ) = k1 T (u1 ) + k2 T (v2 ) + ... + kn T (vn ), (6.3)

para todo v1 , v2 ,..., vn de V y k1 , k2 ,..., kn escalares reales.


Una función de un conjunto V en un conjunto W puede especificarse mediante una fórmula que
asigne a cada elemento de V un único elemento de W. También se puede especificar una función
indicando qué elemento de W se le asigna a cada elemento de V. Parece imposible describir de esta
última forma una transformación lineal T : V → W donde V ̸= {0} pues todo espacio vectorial
distinto del espacio cero tiene infinitos elementos. Sin embargo, la propiedad (6.3) permite determinar
la imagen T (v) para cada v del espacio V conociendo solo las imágenes de los vectores de una base
de V.
Al respecto vale el siguiente teorema cuya demostración es directa.

Teorema 6.3. Sea V un espacio vectorial de dimensión n y T una transformación lineal del
espacio V en un espacio W. Si B = {v1 , v2 , ..., vn } es una base de V y w1 , w2 ,,...,wn son las
imágenes de v1 , v2 ,...,vn , respectivamente, entonces para cada v en V,

T (v) = k1 w1 + k2 w2 + ... + kn wn ,

donde k1 , k2 , ..., kn son los (únicos) escalares tales que v = k1 v1 + k2 v2 + ... + kn vn .

Demostración. Sea v un vector del espacio V. Como B es una base de V, existen únicos escalares k1 ,
k2 ,..., kn tal que que
v = k1 v1 + k2 v2 + ... + kn vn .
Dado que T es una transformación lineal y T (vi ) = wi para todo i = 1, 2, ..., n, aplicando T a la
expresión anterior se obtiene:

T (v) = k1 T (v1 ) + k2 T (v2 ) + ... + kn T (vn ) = k1 w1 + k2 w2 + ... + kn wn

Ejemplo 6.10. Sea T : R2 → R2 la transformación lineal tal que

T (1, 0) = (2, 4) y T (1, 1) = (1, 3).

Para hallar la ley de T , es decir, T (x, y) para todo (x, y) de R2 , se escribe al vector genérico (x, y)
como combinación lineal de los vectores (1, 0) y (1, 1) que conforman una base de R2 . Esto es, se
buscan los (únicos) valores de k1 y k2 tales que

(x, y) = k1 (1, 0) + k2 (1, 1),

o bien
(x, y) = (k1 + k2 , k2 )

Material de uso interno Mateu-Semitiel 231


CAPÍTULO 6. TRANSFORMACIONES LINEALES

que resultan de resolver el sistema lineal



k1 + k2 = x
k2 = y

La solución es 
k1 = x − y
k2 = y
Ası́,
(x, y) = (x − y)(1, 0) + y(1, 1),
y dado que T es una transformación lineal se tiene

T (x, y) = T ((x − y)(1, 0) + y(1, 1))


= (x − y)T (1, 0) + yT (1, 1)
= (x − y)(2, 4) + y(1, 3)
= (2x − y, 4x − y). ◀

Actividad 6.3. Sea f : R → R una transformación lineal del espacio vectorial R en sı́ mismo. Suponga
que f (1) = a. Halle f (x) para todo x ∈ R.
Esto muestra que toda transformación lineal f de R en R es de la forma f (x) = ax para algún
a ∈ R.

Si no se dan los valores de T sobre una base no se puede determinar la imagen de cada elemento de
V. Si en el ejemplo anterior se dieran solo las imágenes del (1, 1) y (−3, −3) no se podrı́a calcular la
imagen, por ejemplo, del vector (2, 4) ya que no es combinación lineal de ellos.
En general, vale el siguiente teorema cuya demostración queda como ejercicio.

Teorema 6.4. Si S = {v1 , v2 , ..., vk } es un conjunto generador de un espacio vectorial V y


T : V → W es una transformación lineal, entonces T (S) = {T (vi ) : vi ∈ S} es un generador
del recorrido R(T ).

Una consecuencia inmediata es la siguiente:

Corolario 6.1. Si T : V → W es una transformación lineal y V es finito dimensional, entonces


el recorrido R(T ) es de dimensión finita y dim(R(T )) ≤ dim(V).

Ejercicios 6.1

1. Sea la transformación T que asigna a cada vector (x, y) de R2 , el vector (x − y, y, 0) de R3 .

a) Identifique el dominio y codominio de T .

Material de uso interno Mateu-Semitiel 232


CAPÍTULO 6. TRANSFORMACIONES LINEALES

b) Halle las imágenes de los vectores u = (−1, 3), v = (2, −1) y 0.


c) Determine todos los vectores del dominio que se aplican al vector cero de R3 .
d ) ¿Existe algún vector v en R2 tal que T (v) = (−1, 1, 1)?
e) Describa el recorrido de T .
f ) Pruebe que T es una transformación lineal.

2. Determine si la transformación T es lineal.

a) T : R2 → R2 , T (x, y) = (3x + y, x − 2y).


b) T : R3 → R, T (x, y, z) = xyz.
c) T : P1 → R2 , T (a + bx) = (a + b, 0).
d) T : R3 → P2 ,
T (a, b, c) = a + (b + c)x + cx2 .
 
a −b
e) T : P2 → M2 , T (a + bx + cx ) =
2 .
0 ac
f ) T : P2 → P1 , T (a + bx + cx2 ) = b + 2cx.
g) T : C(R) → R, T (f ) = lı́m f (x), donde a es un número real fijo.
x→a
h) T : M2 → R, T (A) = det(A).
i ) T : Mn → Mn , T (A) = P −1 AP , donde P es una matriz fija invertible de orden n.
j ) T : Rn → R, T (v) = v · u, donde u es un vector fijo de Rn .
k ) T : V → R, T (v) = ⟨u, v⟩, donde ⟨, ⟩ es un producto interno en el espacio V y u es un
vector fijo de V.
l ) T : R3 → R3 , T (v) = v × u, donde × indica el producto vectorial entre el vector v y un
vector fijo u de R3 .

3. Sea V un espacio vectorial de dimensión n y B = {v1 , v2 , ..., vn } una base de V. Considere la


transformación que asigna a cada vector v de V, su vector de coordenadas respecto a la base B.
Esto es:
T : V → Rn tal que T (v) = [v]B ,

a) Demuestre que T es una transformación lineal (véase demostración del Teorema 4.15, 1.)
b) Si V = M2 (n = 4) y B = {E 11 , E11 + E12 , E11 + E12 + E21 , E11 + E12 + E21 + E22 }, ob-
1 2
tenga la imagen de la matriz .
4 3
4. En cada caso sea T : Rn → Rm la transformación matricial de matriz estándar A. Halle n y m
y la imagen de un vector genérico x de Rn .
 
2 3
a) A =  −1 5 
0 4
 
b) A = 1 −2 5 3

5. Sea T la transformación lineal de R2 en R2 tal que T (−1, 1) = (5, 1) y T (1, 1) = (0, 2).

a) Determine la ley de T , es decir, T (x, y) para todo (x, y) de R2 .


b) Halle el recorrido de T .

Material de uso interno Mateu-Semitiel 233


CAPÍTULO 6. TRANSFORMACIONES LINEALES

6. Sea la transformación lineal T : R3 → R2 tal que

T (e1 + e2 + e3 ) = (−1, 3) , T (−e1 + e2 + e3 ) = (1, 1) , T (e1 − e2 + e3 ) = (0, 1) ,

halle T (x) para todo x ∈ R3 .

7. Sea T : P1 → P2 la transformación lineal tal que T (−1 + 3x) = 1 + x − x2 y T (2x) = x2 . Obtenga


la ley de T ; esto es, T (a + bx) para todo polinomio p = a + bx de P1 .

8. Sea T : P → P la transformación lineal tal que satisface


1
T (xn ) = xn+1 ,
n+1
para todo n ≥ 0. Calcule: T (1 + x + x2 ), T (−1 + x3 ) y T (2x).

9. Demuestre el Teorema 6.4 y su corolario (Corolario 6.1).

10. Indique si las siguientes proposiciones son verdaderas o falsas. Jusitifique sus respuestas.

a) Existe una transformación lineal T : R2 → R2 tal que T (−1, 1) = (0, 1) y T (2, −2) = (1, 4).
b) Si la transformación T : V → W es tal que T (0) = 0, entonces T es lineal.
c) Sea T : V → W una transformación lineal y {v1 , v2 } un subconjunto linealmente depen-
diente de V. Entonces {T (v1 ), T (v2 )} es un subconjunto linealmente dependiente de W.

11. Las siguientes son algunas de las transformaciones más utilizadas en el Cálculo. Estas transfor-
maciones están definidas en diferentes espacios vectoriales:

El espacio vectorial Ċ (R) de las funciones de R en R derivables con las operaciones habi-
tuales de suma y multiplicación por escalar definidas en F (R).
El espacio vectorial F(R3 ) de los campos escalares de R3 en R con las operaciones habituales
de suma y multiplicación por escalar.
El espacio vectorial Ḟ(R3 ) de los campos escalares de R3 en R tal que existen las deriva-
das parciales de primer orden con las operaciones habituales de suma y multiplicación por
escalar en F(R3 ).
El espacio vectorial F3 (R3 ) de los campos vectoriales de R3 en R3 con las operaciones
habituales de suma y multiplicación por escalar.
El espacio vectorial Ḟ3 (R3 ) de los campos vectoriales de R3 en R3 cuyas funciones compo-
nentes tienen derivadas parciales de primer orden con las operaciones habituales de suma
y multiplicación por escalar en F3 (R3 ).
n R +∞ o
El espacio vectorial A = f ∈ C [0, +∞) : 0 e−xt f (t) dt < ∞ con las operaciones ha-
bituales de suma y multiplicación por escalar definidas en F (R).

Demuestre que son transformaciones lineales:


Z b
a) (Integral) I : C [a, b] → R tal que I(f ) = f (x) dx.
a

b) (Derivada) D : Ċ (R) → F(R) tal que D(f ) = f ′ .


 
∂f ∂f ∂f
c) (Gradiente) ∇ : Ḟ(R ) → F (R ) tal que ∇f =
3 3 3 , , .
∂x ∂y ∂z

Material de uso interno Mateu-Semitiel 234


CAPÍTULO 6. TRANSFORMACIONES LINEALES

d ) (Rotacional) rot : Ḟ3 (R3 ) → F3 (R3 ) tal que rot(F) = ∇ × F.


e) (Divergencia) div : Ḟ3 (R3 ) → F(R3 ) tal que div(F) = ∇ · F.
Z +∞
f ) (Transformada de Laplace) L : A → F(R) tal que L {f (t)} = e−xt f (t) dt.
0

6.2. Núcleo y recorrido de una transformación lineal


En la sección anterior se definió el recorrido R(T ) de una transformación T : V → W como

R(T ) = {w ∈ W : w = T (v), para algún v ∈ V} .

En esta sección definiremos un subconjunto importante de V, denominado núcleo o kernel de T .

Definición (Núcleo o kernel). Sea T : V → W una transformación lineal. El núcleo o


kernel de T es el conjunto de los vectores v de V que tienen por imagen al vector 0 (de W).
Se lo denota ker(T ).
ker(T ) = {v ∈ V : T (v) = 0}

Se verá que los conjuntos ker(T ) y R(T ) son subespacios de V y W, respectivamente.

Figura 6.2: T : V → W, núcleo ker(T ) y recorrido R(T )

Teorema 6.5. Sea T : V → W una transformación lineal. Entonces:

1. ker(T ) es un subespacio de V.

2. R(T ) es un subespacio de W.

Demostración. Dado que T : V → W es una transformación lineal se sabe que T (0) = 0, luego el 0
de V está en ker(T ) y el 0 de W está en R(T ). Por lo tanto R(T ) y ker(T ) son subconjuntos no vacı́os
de V y W, respectivamente.

1. Sean u y v vectores de ker(T ) y k un número real. Como u y v están en ker(T ) entonces T (u) = 0
y T (v) = 0. Luego:
T (u + v) = T (u) + T (v) = 0 + 0 = 0,
y
T (ku) = kT (u) = k0 = 0.

Dado que T (u + v) = 0 y T (ku) = 0, entonces tanto u + v como ku están en ker(T ). Ası́,


ker(T ) es cerrado bajo la suma y la multiplicación por escalares definidas en V, lo que prueba
que ker(T ) es un subespacio de V.

Material de uso interno Mateu-Semitiel 235


CAPÍTULO 6. TRANSFORMACIONES LINEALES

2. Sean w1 y w2 vectores de R(T ) y k un escalar real. Debe probarse que w1 + w2 y kw1 están en
R(T ); esto es, que w1 + w2 y kw1 son imágenes de vectores de V.
Supuesto que w1 y w2 están en R(T ), entonces existen vectores u y v en V tales que T (u) = w1
y T (v) = w2 . Luego y dado que T es lineal:

w1 + w2 = T (u) + T (v) = T (u + v),

esto prueba que w1 + w2 está en R(T ) ya que es la imagen del vector u + v de V.

Además,
kw1 = kT (u) = T (ku),
por lo que el vector kw1 está en R(T ) ya que es la imagen del vector ku de V.

Ası́, R(T ) es cerrado bajo la suma y la multiplicación por escalares y por lo tanto es un subespacio
de W.

Definición (Rango y nulidad). Sea T : V → W una transformación lineal.


Si R(T ) es finito dimensional, a su dimensión se la llama rango de T y se representa por
rango(T ) o ρ(T ).
Si ker(T ) es finito dimensional, a su dimensión se la llama nulidad de T y se representa por
nulidad(T ) o ν(T ).


Ejemplo 6.11. Sea la transformación lineal T : P2 → R2 tal que T a + bx + cx2 = (a + b, c) del
Ejemplo 6.1. El núcleo de T es el siguiente subespacio de P2 :

ker(T ) = a + bx + cx2 ∈ P2 : T (a + bx + cx2 ) = (0, 0)

= a + bx + cx2 ∈ P2 : (a + b, c) = (0, 0)

= a + bx + cx2 ∈ P2 : a + b = 0, c = 0

= a + bx + cx2 ∈ P2 : a = −b, c = 0, b ∈ R
= {−b + bx ∈ P2 : b ∈ R}
= {b(−1 + x) : b ∈ R}
= gen {−1 + x}

El conjunto unitario {−1 + x} es linealmente independiente y generador de ker(T ) por lo tanto es


una base de ker(T ). Ası́, ν(T ) = dim(ker(T )) = 1.
Es fácil ver que el recorrido de T es todo el espacio R2 . Por ejemplo, el vector (3, 5) es la imagen del
polinomio 3 + 5x2 ya que T (3 + 5x2 ) = T (3 + 0x + 5x2 ) = (3 + 0, 5) = (3, 5), también es la imagen del
polinomio 1+2x+5x2 . En general, para cualquier vector (a, b) de R2 es (a, b) = T ((a−c)+cx+bx2 ) con
c ∈ R, por lo tanto todo vector de R2 es un vector de R(T ). Ası́, R(T ) = R2 y dado que dim(R2 ) = 2,
entonces ρ(T ) = 2.◀

Material de uso interno Mateu-Semitiel 236


CAPÍTULO 6. TRANSFORMACIONES LINEALES

Ejemplo 6.12. Para la transformación lineal cero O : V → W, dado que O(v) = 0 para todo v en V
su núcleo es el conjunto V. Su recorrido es el conjunto unitario {0} puesto que 0 es la única imagen.
Esto es:
ker(O) = V y R(O) = {0} .
Ası́, ρ(O) = 0 y, si V es de dimensión finita ν(O) = dim(V).
Para la transformación lineal identidad I : V → V dado que I(v) = v para todo v en V entonces el
único vector que se transforma en cero es el mismo cero, y todo vector v de V es imagen de sı́ mismo.
Por lo tanto
ker(I) = {0} y R(I) = V.
Ası́, ν(I) = 0 y, si V es finito dimensional ρ(I) = dim(V).◀

En el caso en que T es una transformación matricial, vale el siguiente resultado.

Teorema 6.6. Sea T : Rn → Rm una transformación matricial de matriz estándar A.


Entonces:

1. ker(T ) = N (A) 3. ρ(T ) = ρ(A)

2. R(T ) = col(A) 4. ν(T ) = ν(A)

Demostración. La transformación T es la multiplicación por la matriz A es decir T (x) = Ax para


todo x de Rn .

1. Recordando que el espacio nulo de una matriz A, N (A), es el conjunto de los x en Rn tal que
Ax = 0 y T (x) = Ax, resulta

x ∈ ker(T ) ⇔ T (x) = 0 ⇔ Ax = 0 ⇔ x ∈ N (A).

2. El espacio de las columnas de A, col(A), es el conjunto de todos los vectores de Rm que son
combinaciones lineales de las columnas de A. Ası́,

b ∈ R(T ) ⇔ b = T (x), para algún x ∈ Rn ⇔ b = Ax, para algún x ∈ Rn ⇔ b ∈ col(A).

3. Como ker(T ) = N (A) entonces ν(T ) = dim(ker(T )) = dim(N (A)) = ν(A).

4. ρ(A) = dim(col(A)) y como R(T ) = col(A) entonces ρ(T ) = dim(R(T )) = ρ(A).

Se sabe, por el teorema del rango, que para toda matriz A de m × n, la suma del rango y la nulidad
es igual al número de columnas de A (Teorema 4.22). Se tiene entonces el siguiente resultado.

Corolario 6.2. Si T : Rn → Rm es una transformación matricial entonces la suma del rango


de T y la nulidad de T es igual a n. Esto es:

ρ(T ) + ν(T ) = n.

Material de uso interno Mateu-Semitiel 237


CAPÍTULO 6. TRANSFORMACIONES LINEALES

Demostración. Sea A la matriz estándar de T . Entonces A es una matriz de m × n y por el teorema


del rango (Teorema 4.22):
ρ(A) + ν(A) = n.
Por el teorema anterior, ρ(T ) = ρ(A) y ν(T ) = ν(A), luego
ρ(T ) + ν(T ) = n.

 
1 1 0
Ejemplo 6.13. Sea T la transformación matricial de matriz estándar A = .
1 1 0
Entonces T : R3 → R2 y
   
x1   x1  
1 1 0  x1 + x2
T  x2  = x2  = .
1 1 0 x1 + x2
x3 x3
 
1 1 0
La forma escalonada reducida de A es la matriz B = . El número de pivotes da el
0 0 0
rango de A, ρ(A) = 1, luego ρ(T ) = 1. El número de columnas no pivotes de A es ν(A) = 3 − 1 = 2 y
ası́ ν(T ) = 2.
col(A) es el espacio generado por las columnas pivote de A, ası́
    
1 y1
R(T ) = col(A) = gen = ∈ R : y1 = y2 .
2
1 y2
El espacio nulo de A, N (A), es el conjunto de las soluciones del sistema Ax = 0 que es equivalente
a la ecuación x1 + x2 + 0x3 = 0. La solución general es

 x1 = −t
x2 = t , t, r ∈ R.

x3 = r
Ası́,       
 −t   −1 0 
ker(T ) = N (A) =  t  , t, r ∈ R = gen  1  ,  0  . ◀
   
r 0 1

El siguiente teorema, cuya demostración se omitirá en este momento, es uno de los más importantes
del Álgebra Lineal, y generaliza al Corolario 6.2.

Teorema 6.7 (de la dimensión). Sean V y W espacios vectoriales tal que V es finito dimen-
sional. Si T : V → W es una transformación lineal entonces

dim(R(T )) + dim(ker(T )) = dim(V).

Esto es: ρ(T ) + ν(T ) = dim(V).

Debe observarse que una de las hipótesis del teorema es que V es un espacio de dimensión finita. Esto
permite asegurar que ambos, ker(T ) (por ser un subespacio de V) y R(T ) (Teorema 6.4 y su Corolario
6.1), son de dimensión finita.

Material de uso interno Mateu-Semitiel 238


CAPÍTULO 6. TRANSFORMACIONES LINEALES

Ejercicios 6.2

1. Obtenga el núcleo (kernel) de las transformaciones lineales a), c), d ), f ) y i ) del Ejercicio 2 de
la Sección 6.1.

2. Para cada transformación lineal T , halle los subespacios ker(T ) y R(T ), determine bases (si es
posible) de los mismos y verifique el teorema de la dimensión.

a) T : R2 → R3 , T (x, y) = (x − y, 0, −2y).
b) T : R3 → R3 , T (x) = −3x.
c) T : P2 → P1 , T (a + bx + cx2 ) = (a + b + c)x.
   
a b d b+c
d ) T : M2 → M2 , T = .
c d 0 −a
e) T : P2 → R2 ,T (a + bx + cx2 ) = (a + b, a − c).
 
x−y 0 0
f) T : R → M23 , T (x, y, z) =
3 .
z 0 −z

3. Halle el rango y nulidad de la transformación lineal T : M2 → R2 tal que

T (E11 ) = e1 , T (E12 ) = 0, T (E21 ) = e1 + e2 , T (E22 ) = e2 .

4. Halle el núcleo y el recorrido de la transformación lineal T : P2 → P2 tal que T (p(x)) = p(1 − x).
Calcule el rango y nulidad de T .

5. Dada la transformación T : Mn → Mn tal que T (X) = AX − XA, donde A es una matriz


cuadrada fija de orden n.

a) Demuestre que T es una transformación lineal.


 
1 0
b) Considere n = 2 y A = . Indique el rango y la nulidad de T .
1 1
6. Halle el núcleo, el recorrido, el rango y la nulidad de la transformación matricial T : Rn → Rm
donde la matriz estándar, A, de T es:
   
1 1 1 0 −1
a) A =
−1 1 e) A =  2 1 −3 
 
1 −1 −1 −1 2
b) A =
−2 2  
  1 −1 2
1 −2 1 f ) A =  −2 2 −4 
c) A =
2 2 0 −1 1 −2
 
1 1  
d) A =  −2 2  1 0 −1 1
g) A =
1 −1 −1 0 −1 −1

7. Compruebe que ρ(T ) + ν(T ) = n donde T son las transformaciones matriciales del ejercicio
anterior.

Material de uso interno Mateu-Semitiel 239


CAPÍTULO 6. TRANSFORMACIONES LINEALES

8. En cada ı́tem utilice la información dada a fin de encontrar la nulidad de la siguiente transfor-


mación lineal.

a) T : R5 → R3 , ρ(T ) = 3.
b) T : P4 → P3 , ρ(T ) = 4.
   
0 −1 0 0 0 1
c) T : M2 → M23 tal que R(T ) = gen , .
1 0 0 0 1 1

9. Sea T : M2 → R4 una tranformación lineal tal que ν(T ) = 0. Encuentre el recorrido de T .

10. Sea T : V → W una transformación lineal donde dim(V) = dim(W) = n. Pruebe que

R(T ) = W ⇔ ker(T ) = {0}

11. Sea D : P2 → P1 la transformación lineal derivación; esto es, D(p) = p′ . Obtenga el núcleo de D.
Z 1
12. Sea J : P1 → R la transformación lineal integración dada por J(p) = p(x) dx. Obtenga su
−1
núcleo.

6.3. Transformaciones lineales de Rn en Rm


En la sección anterior se estudió un tipo particular de transformación lineal: las transformaciones
matriciales, que son aquellas transformaciones T de Rn en Rm tales que T (x) = Ax para alguna
matriz A de m × n.
En esta sección se demostrará que toda transformación lineal T : Rn → Rm es una transformación
matricial, es decir, se probará la existencia de una matriz A de m × n tal que la transformación T es
la multiplicación por A.
Debe tenerse en cuenta que en esta sección todos los vectores deben ser considerados como vectores
columna.

Teorema 6.8. Si T : Rn → Rm es una transformación lineal entonces T es una transforma-


ción matricial. Esto es, existe una matriz A de m × n tal que

T (x) = Ax, para todo x ∈ Rn .

Esta matriz A es la única matriz que satisface la igualdad enunciada.


 
x1
 x2 
 
Demostración. Sean B = {e1 , e2 , ..., en } la base estándar de Rn y x =  ..  un vector de Rn . Dado
 . 
xn
que B es la base estándar de Rn , entonces

x = x1 e1 + x2 e2 + ... + xn en .

Material de uso interno Mateu-Semitiel 240


CAPÍTULO 6. TRANSFORMACIONES LINEALES

Aplicando T a la expresión anterior y teniendo en cuenta que es una transformación lineal se


obtiene

T (x) = T (x1 e1 + x2 e2 + ... + xn T (en )


= x1 T (e1 ) + x2 T (e2 ) + ... + xn T (en ). (6.4)

Los n vectores T (e1 ), T (e2 ),..., T (en ) son vectores de Rm . Si se considera la matriz A cuyas
columnas son dichos vectores, y recordando el producto de una matriz por un vector:
 
x1
  
 x2 
Ax = T (e1 ) T (e2 ) · · · T (en )  .  = x1 T (e1 ) + x2 T (e2 ) + ... + xn T (en ). (6.5)
 .. 
xn

Ası́, comparando (6.4) y (6.5) se prueba que para todo x de Rn ,

T (x) = Ax,
 
donde A = T (e1 ) T (e2 ) · · · T (en ) .
Para probar
 que la matriz A hallada
 es la única matriz que satisface la igualdad requerida, supónga-
se que B = b1 b2 · · · bn es una matriz de m × n tal que T (x) = Bx, para todo x de Rn . En
particular esta igualdad se verifica para los vectores e1 , e2 ,..., en de la base estándar de Rn . Esto es

T (ej ) = Bej , j = 1, 2, ..., n

y dado que
Bej = bj , j = 1, 2, ..., n
entonces
bj = T (ej ), j = 1, 2, .., n.
Por lo tanto las columnas de B son las mismas que las de A. Ası́, B = A.

Definición
 (Matriz estándar). Sea T : Rn → Rm una transformación lineal, la matriz
A = T (e1 ) T (e2 ) · · · T (en ) del teorema anterior se llama matriz estándar de la trans-
formación T . Esta es la única matriz tal que T (x) = Ax, para todo x en Rn .

Toda transformación lineal T : Rn → Rm es entonces una transformación


 matricial, la multiplicación
por la matriz estándar A = T (e1 ) T (e2 ) · · · T (en ) . La matriz A proporciona toda la infor-
mación que se requiera de la transformación. Esto es muy útil porque trabajar con matrices facilita
los cálculos y permite el uso de herramientas computacionales. Se puede evaluar la imagen T (x) de
cualquier x de Rn mediante una simple multiplicación de matrices. Además dado que ker(T ) = N (A)
y R(T ) = col(A) (Teorema 6.6) se pueden encontrar bases para estos subespacios por los métodos ya
conocidos de obtención de bases para el espacio de columnas y el espacio nulo de una matriz.
De la definición de transformación matricial y del teorema anterior, se tiene el siguiente importante
resultado.

 Una transformación T : R  → R es una transformación lineal si yn solo si


Corolario 6.3. n m

la matriz A = T (e1 ) T (e2 ) · · · T (en ) satisface T (x) = Ax, para todo x de R .

Material de uso interno Mateu-Semitiel 241


CAPÍTULO 6. TRANSFORMACIONES LINEALES

 si una transformación T : R
 → R es, o no, lineal del
De acuerdo al corolario, puede comprobarse n m

siguiente modo: se obtiene la matriz A = T (e1 ) T (e2 ) · · · T (en ) y se realiza el producto Ax


para un x genérico de Rn . Si Ax = T (x) entonces T es una transformación lineal y A es su matriz
estándar, en caso contrario, T no es lineal.

Ejemplo 6.14. Sea la transformación T : R3 → R4 tal que T (x, y, z) = (x + y, 2y − z, z, x − y).


De acuerdo al comentario
 anterior, para comprobar
 si T es o no una transformación lineal, obten-
dremos la matriz A = T (e1 ) T (e2 ) T (e3 ) . De acuerdo a la ley de T :

T (e1 ) = T (1, 0, 0) = (1, 0, 0, 1), T (e2 ) = T (0, 1, 0) = (1, 2, 0, −1), T (e3 ) = T (0, 0, 1) = (0, −1, 1, 0).

En este momento debe aclararse que aunque se ha usado la notación horizontal en la definición de
T para los vectores de R3 y R4 , se hace necesario utilizar la notación vertical. Ası́,
 
1 1 0
   0 2 −1 
A = T (e1 ) T (e2 ) T (e3 ) =   0
.
0 1 
1 −1 0

Haciendo el producto Ax:


   
1 1 0   x+y
 0  x  2y − z 
2 −1
Ax = 
 0
 y  =  ,
0 1   z 
z
1 −1 0 x−y

se comprueba que Ax = T (x) y por lo tanto T es una transformación lineal de R3 en R4 (transformación


matricial) y A es su matriz estándar.◀

Actividad 6.4. Para la transformación matricial del ejemplo anterior, obtenga su recorrido, su núcleo,
el rango y la nulidad.

Geometrı́a de las transformaciones lineales de R2 en R2


A continuación se presentan algunas transformaciones matriciales geométricas del plano (de R2 en R2 )
que son muy interesantes: reflexiones, compresiones (expansiones) y rotaciones.

Ejemplo 6.15 (Reflexiones). Las reflexiones en el plano se definen respecto a cualquier recta. Las
más interesantes son las reflexiones respecto a los ejes coordenados y a la recta y = x. Éstas se definen
como sigue:

Reflexión con respecto al eje x:


     
x x 1 0
Tx = cuya matriz estándar es (verifı́quelo).
y −y 0 −1

Material de uso interno Mateu-Semitiel 242


CAPÍTULO 6. TRANSFORMACIONES LINEALES

Reflexión con respecto al eje y:


     
x −x −1 0
Ty = cuya matriz estándar es .
y y 0 1

Reflexión con respecto a la recta y = x:


     
x y 0 1
Tid = cuya matriz estándar es .
y x 1 0

Otra reflexión interesante es la reflexión respecto al origen o:


     
x −x −1 0
To = cuya matriz estándar es .
y −y 0 −1

Ejemplo 6.16 (Compresiones y expansiones). Las compresiones y expansiones son escalamientos


a lo largo de los ejes coordenados.

Material de uso interno Mateu-Semitiel 243


CAPÍTULO 6. TRANSFORMACIONES LINEALES

Escalamiento en la dirección de la coordenada x:


     
x cx c 0
T = cuya matriz estándar es ,
y y 0 1
donde c > 0. Si 0 < c < 1 se trata de una compresión en la dirección de la coordenada x, un
factor c, mientras que si c > 1 se trata de una expansión en la dirección de la coordenada x, un
factor c.
Escalamiento en la dirección de la coordenada y:
     
x x 1 0
T = cuya matriz estándar es ,
y dy 0 d
donde d > 0. Si 0 < d < 1 se trata de una compresión en la dirección de la coordenada y, un
factor d, mientras que si d > 1 se trata de una expansión en la dirección de la coordenada y, un
factor d.
Escalamiento en ambas direcciones:
     
x cx c 0
T = cuya matriz estándar es ,
y dy 0 d
donde c > 0 y d > 0. Esto puede resultar en una expansión o en una compresión en ambas
direcciones o bien en una expansión en una dirección y una compresión en la otra.

Material de uso interno Mateu-Semitiel 244


CAPÍTULO 6. TRANSFORMACIONES LINEALES

Figura 6.3: Escalamiento en la dirección de la coordenada x

Ejemplo 6.17 (Rotación). Como caso especial de una transformación matricial están las transfor-
maciones llamadas de rotación. Sea θ un ángulo fijo. Sea T : R2 → R2 la transformación matricial de
matriz estándar  
cos θ − sen θ
A= .
sen θ cos θ
 
x
Si x = entonces
y
    
cos θ − sen θ x x cos θ − y sen θ
T (x) = Ax = = .
sen θ cos θ y x sen θ + y cos θ

Se verá que T (x) es el vector que se obtiene si se hace rotar al vector x (respecto al origen) un
ángulo θ en sentido contrario a las agujas de reloj.
En efecto, si r denota la longitud del vector x y ϕ el ángulo que forma con el eje positivo de las
abscisas, entonces 
x = r cos ϕ
y = r sen ϕ
 ′ 
x
Si x′ = es el vector que se obtiene al hacer girar x un ángulo θ se demostrará que x′ = T (x).
y′
El vector x′ tiene la misma longitud que x y el ángulo que describe con el sentido positivo del eje
de las abscisas es ϕ + θ. Luego:  ′
x = r cos (ϕ + θ)
y ′ = r sen (ϕ + θ)

Material de uso interno Mateu-Semitiel 245


CAPÍTULO 6. TRANSFORMACIONES LINEALES

Figura 6.4: Rotación

Por lo tanto:
     
x′ r cos (ϕ + θ) r (cos ϕ cos θ − sen ϕ sen θ)
x′ = = =
y′ r sen (ϕ + θ) r (cos ϕ sen θ + sen ϕ cos θ)
 
(r cos ϕ) cos θ − r (sen ϕ) sen θ
=
(r cos ϕ) sen θ + (r sen ϕ) cos θ
 
x cos θ −y sen θ
=
x sen θ y cos θ
  
cos θ − sen θ x
=
sen θ cos θ y

= Ax = T (x).

Ejercicios 6.3

1. Para las siguientes transformaciones de Rn en Rm , identifique n y m, y para las que sean lineales
encuentre su matriz estándar.
   
  x2 x1  
x1 3x1 + x2 x3
a) T =  −x1  c) T  x2  =
x2 2x2
x1 + 3x2 x3
     
x x + 2y + 3 x1
b) T = d) T = 3x1
y x x2

Material de uso interno Mateu-Semitiel 246


CAPÍTULO 6. TRANSFORMACIONES LINEALES


  
x     0
 y  x + 2y − z + w x  0 
e) T   
 z = y+z  f) T  y  =  
 0 
−x z
w 0

2. Halle la matriz estándar para la transformación lineal en el plano T : R2 → R2 que aplica un


punto (x, y) en:

a) su reflexión con respecto a la recta y = −x.


b) su proyección ortogonal sobre el eje x.
c) su proyección ortogonal sobre el eje y.
d ) su proyección ortogonal sobre la recta que pasa por el origen y contiene al punto (1, 1).

Verifique las respuestas gráficamente situando los puntos (2, 1) y T (2, 1).

3. Halle la matriz estándar para la transformación lineal T de R2 en R2 que haga girar un punto
(x, y) alrededor del origen hasta describir un ángulo θ de:

a) 45◦ c) 90◦
b) 60◦ d ) −30◦

Verifique las respuestas gráficamente situando los puntos (2, 1) y T (2, 1).

4. Encuentre la matriz que escala un factor de:


1
a) 2 en la dirección del eje x.
b) 3 en la dirección del eje y.

5. En cada caso describa el efecto geométrico de la multiplicación por la matriz dada:


     
2 0 0 −1 0 0
a) c) e)
0 1 1 0 0 1
" √ √ #
   
0 1 1 0 √2
2
−√2
2
b) d) f ) 2 2
1 0 0 0 2 2

6.4. Matriz de una transformación lineal

 T : R → R es una transformación
Como se ha visto en la sección anterior toda transformación lineal n m

matricial, T (x) = Ax siendo A = T (e1 ) T (e2 ) · · · T (en ) .
Si V y W son espacios vectoriales cualesquiera de dimensión finita y T : V → W es una transfor-
mación lineal, también es posible “trabajar” esta transformación como una transformación matricial.
De hecho, las transformaciones matriciales son de Rn en Rm y V y W pueden ser otros espacios finito
dimensionales, por ejemplo V = P2 y W = M23 , y no se concibe la multiplicación de una matriz por
un polinomio. La idea es elegir bases ordenadas B y B ′ de V y W, respectivamente y trabajar con

Material de uso interno Mateu-Semitiel 247


CAPÍTULO 6. TRANSFORMACIONES LINEALES

los vectores de coordenadas con respecto a estas bases. Si dim(V) = n y dim(W) = m, entonces para
cada v de V, el vector de coordenadas [v]B es un vector de Rn y el vector de coordenadas de su
transformado, [T (v)]B ′ es un vector de Rm .
La asignación v → T (v) de V en W genera la transformación de Rn en Rm tal que [v]B → [T (v)]B ′ .
Se verá que existe una matriz A de m × n tal que [T (v]B ′ = A [v]B para todo v en V.
De esta manera la transformación lineal T : V → W se podrá trabajar indirectamente a través de
una transformación matricial. Al respecto se tiene el siguiente teorema.

Teorema 6.9. Sean V y W espacios vectoriales no cero de dimensiones finita n y m respec-


tivamente, y T : V → W una transformación lineal. Sea B = {v1 , v2 , ..., vn } una base de V y
B ′ = {w1 , w2 , ..., wm } una base de W. Entonces existe una matriz A de m × n tal que

[T (v)]B ′ = A [v]B ,

para todo v ∈ V. Más aún esta es la única matriz que satisface la igualdad anterior.

Demostración. Sea v un vector del espacio V. Como B = {v1 , v2 , ..., vn } es una base de V, existen
únicos escalares c1 , c2 ,..., cn tales que

v = c1 v1 + c2 v2 + ... + cn vn ,

es decir, el vector de coordenadas de v en la base B es


 
c1
 c2 
 
[v]B =  .  .
 .. 
cn

Por la linealidad de T , T (v) es el siguiente vector de W:

T (v) = c1 T (v1 ) + c2 T (v2 ) + ... + cn T (vn ) (6.6)

Para hallar el vector de coordenadas de T (v) con respecto a la base B ′ debe expresarse a este
vector como combinación lineal de los vectores w1 , w2 ,..., wm de la base B ′ . Dado que cada T (vj ) con
j = 1, 2, ..., n es un vector de W y B ′ = {w1 , w2 , ..., wm } es una base de W, entonces existen únicos
escalares a1j , a2j ,...,amj tales que

T (vj ) = a1j w1 + a2j w2 + ... + amj wm , (6.7)

es decir, los vectores de coordenadas de T (vj ) con respecto a la base B ′ son


 
a1j
 a2j 
 
[T (vj )]B ′ =  .  ,
 . 
.
amj

para todo j = 1, 2, ..., n.

Material de uso interno Mateu-Semitiel 248


CAPÍTULO 6. TRANSFORMACIONES LINEALES

Sustituyendo las expresiones dadas en (6.7) en la igualdad (6.6) y operando, se obtiene el vector
T (v) expresado como combinación lineal de los vectores de la base B ′ :
T (v) = c1 (a11 w1 + a21 w2 + ... + am1 wm ) + c2 (a12 w1 + a22 w2 + ... + am2 wm ) + ...
+cn (a1n w1 + a2n w2 + ... + amn wm )
= (c1 a11 + c2 a12 + ... + cn a1n ) w1 + (c1 a21 + c2 a22 + ... + cn a2n ) w2 + ...
+ (c1 am1 + c2 am2 + ... + cn amn ) wm .
Los coeficientes que acompañan a los vectores w1 , w2 ,..., wm son las coordenadas de T (v) en la
base B ′ . Ası́, y por definición del producto de una matriz por un vector, se tiene:
 
c1 a11 + c2 a12 + ... + cn a1n
 c1 a21 + c2 a22 + ... + cn a2n 
 
[T (v)]B ′ =  .. 
 . 
c1 am1 + c2 am2 + ... + cn amn
  
a11 a12 · · · a1n c1
 a21 a22 · · · a2n   c2 
  
=  .. .. .. ..   .. .
 . . . .  . 
am1 am2 · · · amn cn
Observe que [T (v)]B ′ es el producto de una matriz de m × n por un vector. Las columnas de la
matriz son los vectores de coordenadas [T (v1 )]B ′ , [T (v2 )]B ′ , ..., [T (vn )]B ′ y el vector es el vector de
coordenadas [v]B . Luego:
[T (v)]B ′ = A [v]B , para cada v ∈ V,
 
donde A = [T (v1 )]B ′ [T (v2 )]B ′ · · · [T (vn )]B ′ .
De esta forma se ha probado la existencia de una tal matriz A. La demostración de la unicidad es
análoga a la demostración de la unicidad de la matriz estándar del Teorema 6.8.

Definición (Matriz de una transformación lineal). Sean V y W espacios vectoriales no


cero de dimensiones n y m respectivamente y T : V → W una transformación lineal. Sea
B = {v1 , v2 , ..., vn } una base de V y B ′ = {w1 , w2 , ..., wm } una base de W. La matriz de T
con respecto a las bases B y B ′ es la matriz de m × n dada por
 
A = [T (v1 )]B ′ [T (v2 )]B ′ · · · [T (vn )]B ′ .

Esta es la única matriz tal que [T (v)]B ′ = A [v]B para todo v en V.


En el caso particular en que W = V (de modo que T es un operador lineal sobre V) es común
usar la misma base ordenada, esto es hacer B ′ = B, y se dice que la matriz A es la matriz de
T con respecto a la base B.

Nota: Debe notarse que las bases B y B ′ deben considerarse bases ordenadas ya que se está trabajando
con vectores de coordenadas.
Obsérvese que en general existen infinitas matrices para una transformación lineal T dado que
existen infinitas bases para los espacios V y W. Sin embargo, fijadas las bases ordenadas B y B ′ de V
y W, respectivamente, la matriz A es única.

Material de uso interno Mateu-Semitiel 249


CAPÍTULO 6. TRANSFORMACIONES LINEALES

Ejemplo 6.18. Considere la transformación lineal T : M2 → P2 tal que


 
a b
T = (a + 2b) − cx + dx2 ,
c d
   
1 1 1 1
y las bases (ordenadas) B = {A1 , A2 , A3 , A4 } de M2 donde A1 = , A2 = , A3 =
1 1 1 0
   
1 1 1 0 
y A4 = y B ′ = 1, x, x2 la base estándar de P2 .
0 0 0 0
La matriz de T con respecto a B y B ′ es
 
A = [T (A1 )]B ′ [T (A2 )]B ′ [T (A3 )]B ′ [T (A4 )]B ′ .

Los vectores de coordenadas de T (A1 ) = 3 − x + x2 , T (A2 ) = 3 − x, T (A3 ) = 3 y T (A4 ) = 1 con


respecto a la base B ′ se encuentran directamente ya que B ′ es la base estándar de P2 :
       
3 3 3 1
[T (A1 )]B ′ =  −1  , [T (A2 )]B ′ =  −1  , [T (A3 )]B ′ =  0  y [T (A4 )]B ′ =  0  .
1 0 0 0

Luego,  
3 3 3 1
A =  −1 −1 0 0  . ◀
1 0 0 0

Figura 6.5: Matriz de la transformación

El esquema de la Figura 6.5 muestra que dada la matriz A de la transformación lineal T con respecto
a las bases B y B ′ se puede hallar T (v) en tres pasos por medio del procedimiento indirecto que se
indica.
Dado un vector v de V:

(1) Hallar [v]B

(2) Premultiplicar [v]B por A para obtener [T (v)]B ′

Material de uso interno Mateu-Semitiel 250


CAPÍTULO 6. TRANSFORMACIONES LINEALES

(3) Obtener T (v) a partir de su vector de coordenadas [T (v)]B ′

Ejemplo 6.19. Sea T : P1 → P2 definida por T (p) = xp, es decir T (a + bx) = ax + bx2 .
Puede comprobarse rápidamente que T es una transformación lineal.
Considere las bases B = {p1 , p2 } y B ′ = {p1 , p2 , p3 } de P1 y P2 , respectivamente, siendo p1 = 1,
p 2 = 1 + x y p 3 = x2 .
Se desea:
1. Obtener la matriz, A, de T con respecto a las bases B y B ′ .
2. Si p = 2 − 5x, hallar T (p) de dos maneras distintas:
a) en forma directa (usando la ley de T ).
b) en forma indirecta (usando la matriz de A).
Solución:
 
1. Por definición, A = [T (p1 )]B ′ [T (p2 )]B ′ .

De acuerdo a la ley de T : T (p1 ) = T (1) = x(1) = x y T (p2 ) = T (1 + x) = x(1 + x) = x + x2 .

Para hallar [T (p1 )]B ′ y [T (p2 )]B ′ , se deben encontrar los coeficientes a1 , a2 , a3 y b1 , b2 , b3 tales
que:

a1 p1 + a2 p2 + a3 p3 = T (p1 ),
b1 p1 + b2 p2 + b3 p3 = T (p2 ).

Reemplazando p1 , p2 , p3 , T (p1 ) y T (p2 ), y operando se obtienen:

(a1 + a2 ) + a2 x + a3 x2 = x,
(b1 + b2 ) + b2 x + b3 x2 = x + x2 ,

y por igualdad de polinomios las ecuaciones anteriores se convierten en los siguientes sistemas
lineales:  
 a1 +a2 =0  b1 +b2 =0
a2 =1 y b2 =1
 
a3 = 0 b3 = 1
Estos sistemas tienen la misma matriz de coeficientes y pueden resolverse en forma simultánea.
En este caso las soluciones se encuentran directamente pues los sistemas están escalonados. Éstas
son:  
 a1 = −1  b1 = −1
a2 = 1 y b2 = 1
 
a3 = 0 b3 = 1
   
−1 −1
Por lo tanto, [T (p1 )]B ′ =  1  y [T (p2 )]B ′ =  1 . Luego, la matriz A buscada es
0 1
 
−1 −1
A= 1 1 .
0 1

Material de uso interno Mateu-Semitiel 251


CAPÍTULO 6. TRANSFORMACIONES LINEALES

2. Sea p = 2 − 5x, para hallar T (p):

a) De manera directa (usando la ley de T ):

T (p) = T (2 − 5x) = x(2 − 5x) = 2x − 5x2 .

b) De manera indirecta:
(1) Se halla [p]B . Para ello, se deben encontrar a1 y a2 tales que

a1 (1) + a2 (1 + x) = 2 − 5x,

y operando se obtiene a1 = 7 y a2 = −5. Ası́,


 
7
[p]B = [2 − 5x]B = .
−5

(2) Se utiliza la matriz A para hallar [T (p)]B ′ . Sabiendo que [T (p)]B ′ = A [v]B , entonces
   
−1 −1   −2
7
[T (p)]B ′ = [T (2 − 5x)]B ′ =  1 1  =  2 .
−5
0 1 −5
 
−2 
(3) [T (p)]B ′ = [T (2 − 5x)]B ′ =  2  y B ′ = 1, 1 + x, x2 , luego:
−5

T (p) = T (2 − 5x) = −2(1) + 2(1 + x) − 5(x2 ) = 2x − 5x2 . ◀

En lo que sigue se muestra que la matriz de una transformación lineal T : Rn → Rm con respecto a
las bases estándar de ambos espacios es precisamente la que fue llamada matriz estándar de T .

Ejemplo 6.20 (Matriz con respecto a las bases estándar). Si T : Rn → Rm es una transforma-
ción lineal y B y B ′ son las bases estándar para Rn y Rm , respectivamente,
 entonces la matriz de T
con respecto a estas bases es A = T (e1 ) T (e2 ) · · · T (en ) .
En efecto, la matriz de T con respecto a las bases estándar B y B ′ tiene como columnas a los
vectores de coordenadas [T (e1 )]B ′ , [T (e2 )]B ′ ,..., [T (en )]B ′ .
Como B ′ es la base estándar de Rm , entonces [T (ej )]B ′ = T (ej ), para todo j = 1, 2, ..., n.
Ası́, la matriz de T con respecto a estas bases es
 
A = T (e1 ) T (e2 ) · · · T (en ) ,

que es la matriz estándar de T definida en la sección anterior. Considerando esta matriz la imagen de
un vector v de Rn se obtiene directamente:

T (v) = Av. ◀

Material de uso interno Mateu-Semitiel 252


CAPÍTULO 6. TRANSFORMACIONES LINEALES

Ejemplo 6.21 (Obtención de la ley de T conocida una matriz que la representa). Sea
T : R3 → R2 la transformación lineal tal que la matriz de T con respecto a la base B y B ′ de R3 y
R2 , respectivamente es  
1 2 1
A= .
1 −1 1
Si tanto B como B ′ fueran las bases estándar, la matriz A serı́a la matriz estándar de la transfor-
mación. En dicho caso, la ley de T se obtendrı́a directamente, T (x) = Ax.
Supongamos, en cambio, B = {(1, −1, 1), (0, 1, 2), (0, 0 − 1)} y B ′ = {(1, −1), (0, 1)}. Para hallar
la ley de T usando la matriz A, es decir, teniendo en cuenta que

[T (x)]B ′ = A [x]B ,

debe calcularse primero el vector de coordenadas [x]B de un vector genérico x de R3 . Luego, efectuar el
producto A [x]B para ası́ obtener [T (x)]B . Por último, a partir de la definición de vector de coordenadas,
se determina T (x).

(1) Sea x = (x, y, z) un vector de R3 . Las coordenadas de x con respecto a la base B son los valores
de c1 , c2 y c3 tales que

x = c1 (1, −1, 1) + c2 (0, 1, 2) + c3 (0, 0, −1),

es decir
(x, y, z) = (c1 , −c1 + c2 , c1 + 2c2 − c3 ),
que por igualdad de vectores conduce al sistema lineal

 c1 = x
−c1 + c2 = y ,

c1 + 2c2 − c3 = z

de donde se obtiene 
 c1 = x
c2 = x + y

c3 = 3x + 3y − z
 
x
Por lo tanto, [x]B =  x+y .
3x + 2y − z
 
  x  
1 2 1   6x + 4y − z
(2) [T (x)]B ′ = A [x]B = x+y = .
1 −1 1 3x + y − z
3x + 2y − z

(3) Por último, se obtiene T (x) a partir de su vector de coordenadas, [T (x)]B ′ .

T (x) = (6x + 4y − z) (1, −1) + (3x + y − z) (0, 1) ,

resultando
T (x, y, z) = (6x + 4y − z, −3x − 3y) ,
que es la ley de T .◀

Material de uso interno Mateu-Semitiel 253


CAPÍTULO 6. TRANSFORMACIONES LINEALES

Se ha visto en el Teorema 6.6 y su Corolario que si T es una transformación lineal de Rn en Rm , y A


es la matriz estándar de T :

ker(T ) = N (A), R(T ) = col(A), ρ(T ) = ρ(A), ν(T ) = ν(A), ρ(T ) + ν(T ) = n = dim(Rn ).

El siguiente teorema generaliza este resultado:

Teorema 6.10. Sean V y W espacios vectoriales no cero de dimensiones finita n y m res-


pectivamente, y T : V → W una transformación lineal. Sea B una base de V y B ′ una base
de W. Si A es la matriz de T con respecto a las bases B y B ′ , entonces:

1. v ∈ ker(T ) ⇔ [v]B ∈ N (A)

2. w ∈ R(T ) ⇔ [w]B ′ ∈ col(A)

3. ν(T ) = ν(A)

4. ρ(T ) = ρ(A)

Demostración. Por ser A la matriz de T con respecto a las bases B y B ′ ,

[T (v)]B ′ = A [v]B

para cada v de V.

1. La equivalencia es válida porque:

v ∈ ker(T ) ⇔ T (v) = 0 (en W)


⇔ [T (v)]B ′ = [0]B ′ (en Rm )
⇔ A [v]B = 0 (en Rm )
⇔ [v]B ∈ N (A).

2. Análogamente esta equivalencia es válida ya que:

w ∈ R(T ) ⇔ existe v ∈ V : w = T (v)


⇔ existe v ∈ V : [w]B ′ = [T (v)]B ′
⇔ existe v ∈ V : [w]B ′ = A [v]B
⇔ el sistema lineal Ax = [w]B ′ es consistente
(Teorema 4.23) ⇔ [w]B ′ ∈ col(A).

Se sabe que la asignación v → [v]B establece una correspondencia biunı́voca entre los vectores de
V y los vectores de Rn .

3. Dado que v ∈ ker(T ) ⇔ x = [v]B ∈ N (A), todos los vectores x ∈ Rn que están en el espacio
nulo de A, N (A), son las coordenadas, con respecto a la base B, de los vectores v ∈ V que están
en el núcleo de T , ker(T ). Esto es, N (A) = {[v]B : v ∈ ker(T )}. De acuerdo al Teorema 4.15,
{v1 , v2 , ..., vk } es una base de ker(T ) si y solo si {[v1 ]B , [v2 ]B , ..., [vk ]B } es una base de N (A).
Por lo tanto: dim(ker(T )) = dim(N (A)) esto es; ν(T ) = ν(A).

Material de uso interno Mateu-Semitiel 254


CAPÍTULO 6. TRANSFORMACIONES LINEALES

4. Similarmente, dado que w ∈ R(T ) ⇔ y = [w]B ′ ∈ col(A), todos los vectores y ∈ Rm que
están en el espacio generado por las columnas de A, col(A), son las coordenadas, con respecto
a la base B ′ , de los vectores w ∈ W que están en el recorrido de T , R(T ). Esto es, col(A) =
{[w]B ′ : w ∈ R(T )}. De acuerdo al Teorema 4.15, {w1 , w2 , ..., wk } es una base de R(T ) si y solo
si {[w1 ]B ′ , [w2 ]B ′ , ..., [wk ]B ′ } es una base de col(A). Por lo tanto: dim(R(T )) = dim(col(A)) esto
es; ρ(T ) = ρ(A).

Como consecuencia del teorema del rango y del teorema anterior se tiene una versión particular del
teorema de la dimensión.

Corolario 6.4. Si V y W son espacios vectoriales no cero de dimensiones n y m, respectiva-


mente, y T : V → W es una transformación lineal entonces:

ρ(T ) + ν(T ) = dim(V).

Demostración. Sea A cualquier matriz de m × n representante de la transformación T . Por el teorema


teorema del rango (Teorema 4.22), ρ(A) + ν(A) = n. Por el teorema anterior ρ(A) = ρ(T ) y ν(A) =
ν(T ), y como n = dim(V) entonces

ρ(T ) + ν(T ) = dim(V).

Ejemplo 6.22.
 Sea la transformación lineal T : P2 → R2 tal que la matriz de T con respecto a las
bases B = 1, 1 + x, x + x2 y B ′ = {(1, 1), (−1, 1)} es
 
1 −1 0
A= .
1 1 1

De acuerdo al teorema anterior, el núcleo de T es el conjunto de los polinomios p de P2 cuyos


vectores de coordenadas en la base B, [p]B , están en el espacio nulo de A. Puede verificarse que:
 1 
 −2 
N (A) = gen  − 12  .
 
1
  1   1 
 −2  −2
Ası́, ker(T ) = gen p : [p]B =  − 12  . Dado que [p]B =  − 12  entonces
 
1 1

1 1 1
p = − (1) − (1 + x) + 1(x + x2 ) = −1 + x + x2 .
2 2 2
Por lo tanto,  
1
ker(T ) = gen −1 + x + x .
2
2

Ası́, el conjunto −1 + 12 x + x2 es una base de ker(T ), por lo cual ν(T ) = dim(ker(T )) = 1.

Material de uso interno Mateu-Semitiel 255


CAPÍTULO 6. TRANSFORMACIONES LINEALES

El rango de T puede calcularse directamente por la ecuación


ρ(T ) + ν(T ) = dim(P2 ),
resultando ρ(T ) = 3 − 1 = 2. Ası́, dim(R(T )) = 2 y, como R(T ) es un subespacio del codominio (R2 ),
necesariamente R(T ) = R2 .◀

Ejemplo 6.23. Sea la transformación lineal T : P5 → M2 tal que la matriz de T con respecto a ciertas
bases dadas B y B ′ de P5 y M2 , respectivamente, es
 
1 −1 2 2 3 1
 0 1 −1 0 1 −1 
A=  2 −2
.
0 0 1 0 
3 −3 2 2 4 1
El rango de T y la nulidad de T son respectivamente iguales al rango y la nulidad de cualquier
matriz que la represente (no depende de la elección de las bases B y B ′ ). Llevando a la matriz A a
una forma escalonada, el rango de T es el número de columnas pivote de A y la nulidad el número
de columnas no pivote. La forma escalonada reducida de A (que se obtiene rápidamente usando una
herramienta computacional) es
 
1 0 0 1 11 4 − 21
 0 1 0 1 94 − 21 
B=  0

1 .
0 1 1 54 2
0 0 0 0 0 0
Luego, ρ(T ) = ρ(A) = 3 y ν(T ) = ν(A) = 3.
Puede verificarse que ρ(T ) + ν(T ) = 3 + 3 = 6 = dim(P5 ).◀

Demostración del Teorema de la dimensión (Teorema 6.7)


El Corolario 6.4 es el teorema de la dimensión (Teorema 6.7) para el caso en que V y W son espacios
vectoriales no ceros y W también es finito dimensional. Unos pocos detalles completan la demostración
para el caso general.
El teorema de la dimensión establece que si T : V → W es una transformación lineal y V es finito
dimensional, entonces
ρ(T ) + ν(T ) = dim(V).
En efecto:
Si T es la transformación cero entonces R(T ) = {0} y ker(T ) = V, ası́ ρ(T ) = 0 y ν(T ) = dim(V).
Por lo tanto se verifica el teorema ya que ρ(T ) + ν(T ) = dim(V).
Supongamos que T es una transformación lineal distinta de la transformación cero. En este caso,
V ̸= {0} y R(T ) ̸= {0}, y dado que V es finito dimensional, R(T ), es un subespacio de dimensión
finita de W. No se piede información si se restringe el codominio, W, de T a su recorrido y se considera
entonces T : V → R(T ).
Ası́, T es una transformación lineal entre dos espacios vectoriales finito dimensionales y no ceros.
Por lo tanto, aplicando el Corolario 6.4, es:
ρ(T ) + ν(T ) = dim(V).

Material de uso interno Mateu-Semitiel 256


CAPÍTULO 6. TRANSFORMACIONES LINEALES

Matriz de un operador lineal. Cambio de base


Estamos interesados ahora en la representación por matrices de las transformaciones lineales de un
espacio vectorial en sı́ mismo, es decir, de los operadores lineales T : V → V donde V es un espacio
finito dimensional no cero. En tal caso es más conveniente fijar la misma base ordenada para el dominio
y el codominio, esto es, hacer B ′ = B. La matriz entonces tendrá como columnas a los vectores de
coordenadas de los transformados de la base B con respecto a la misma base B y se llamará matriz
de T con respecto a la base B. Debe tenerse en cuenta que esta matriz depende de la base B de
V fijada, para no olvidar esta dependencia la simbolizaremos [T ]B . Resumiendo:

Si T : V → V es un operador lineal y B = {v1 , v2 , ..., vn } es una base (ordenada) de V, la


matriz de T con respecto a la base B es la siguiente matriz de n × n
 
[T ]B = [T (v1 )]B [T (v2 )]B · · · [T (vn )]B .

Esta es la única matriz tal que


[T (v)]B = [T ]B [v]B
para todo v en V.

Se quiere ahora investigar el modo en que queda afectada una matriz representante de T cuando se
cambia la base. Uno de los problemas del Álgebra Lineal es analizar si es posible hallar una base
para V de modo que la matriz de T con respecto a dicha base sea sencilla, en particular una matriz
diagonal ya que las matrices diagonales son las más simples de manejar. Este problema se estudiará
en el capı́tulo siguiente y en esta sección se presentarán los fundamentos para resolver el problema.
El teorema que sigue fundamenta como determinar una nueva representación matricial (potencial-
mente más simple) de un operador lineal T a partir de una dada.

Teorema 6.11. Sea T : V → V un operador lineal sobre un espacio vectorial V de dimen-


sión n. Sean B y B ′ dos bases ordenadas de V. Entonces las matrices [T ]B ′ y [T ]B están
relacionadas del siguiente modo
[T ]B ′ = P −1 [T ]B P,
donde P es la matriz de transición de B ′ a B.

Demostración. Se conoce que la matriz [T ]B ′ es la única matriz tal que

[T (v)]B ′ = [T ]B ′ [v]B ′ , para todo v ∈ V (6.8)

Se mostrará que la matriz P −1 [T ]B P también verifica (6.8). En efecto:


Si v es un vector de V, se verifican las siguientes relaciones:
(1) P [v]B ′ = [v]B (P matriz de transición de B ′ a B)
(2) [T ]B [v]B = [T (v)]B ([T ]B matriz de T con respecto a B)
(3) P −1 [T (v)]B = [T (v)]B ′ (P −1 matriz de transición de B a B ′ )

Material de uso interno Mateu-Semitiel 257


CAPÍTULO 6. TRANSFORMACIONES LINEALES

Por propiedad asociativa del producto de matrices y combinando (1), (2) y (3):
  (1) 
P −1 [T ]B P [v]B ′ = P −1 [T ]B P [v]B ′ = P −1 [T ]B [v]B
(2)
= P −1 ([T ]B [v]B ) = P −1 [T (v]B
(3)
= [T (v)]B ′

Ası́ para cualquier vector v de V,



[T (v)]B ′ = P −1 [T ]B P [v]B ′

por lo tanto, y debido a la unicidad de la matriz de T en la base B ′ , debe ser P −1 [T ]B P = [T ]B ′ .

Al aplicar el teorema puede que no se recuerde rápidamente si la matriz P es la matriz de transición


de B a B ′ (error) o de B ′ a B (correcto). Puede ser de ayuda llamar a B base vieja y a B ′ base nueva,
a [T ]B matriz vieja y a [T ]B ′ matriz nueva, y observar el diagrama de la Figura 6.6.

Figura 6.6: Ilustración del Teorema 6.11

Ejemplo 6.24. Sea T : R2 → R2 definida por


   
x1 4x1 − 6x2
T = .
x2 3x1 − 5x2

Fácilmente se puede verificar que T es un operador lineal sobre R2 con matriz estándar
 
4 −6
A= .
3 −5

Esto es, A = [T ]B donde B es la base estándar de R2 .


   
1 −2
Sea la siguiente base de R2 , B ′ = {u1 , u2 } donde u1 = y u2 = . Para hallar la
−3 5
matriz de T con respecto a la base B ′ se puede proceder de dos maneras: de manera directa, por
definición de [T ]B ′ , o de manera indirecta utilizando la matriz A = [T ]B .

Material de uso interno Mateu-Semitiel 258


CAPÍTULO 6. TRANSFORMACIONES LINEALES

 
De manera directa: por definición, [T ]B ′ = [T (u1 )]B ′ [T (u2 )]B ′ .
       
1 22 −2 −38
Aplicando la ley de T : T (u1 ) = T = ; T (u2 ) = T = .
−3 18 5 −31

Para hallar los vectores de coordenadas [T (u1 )]B ′ y [T (u2 )]B ′ , se deben encontrar los valores de
a1 , a2 y b1 , b2 tales que:
a1 u1 + a2 u2 = T (u1 ),
b1 u1 + b2 u2 = T (u2 ).
Reemplazando u1 , u2 , T (u1 ) y T (u2 ), las ecuaciones anteriores
 se convierten
 en dos sistemas de
ecuaciones lineales con la misma matriz de coeficientes , u1 u2 . La matriz ampliada que
permite resolver los dos sistemas en forma simultánea es:
 
1 −2 : 22 −38
.
−3 5 : 18 −31
Puede comprobarse que la forma escalonada reducida de esta matriz es:
 
1 0 : −146 252
.
0 1 : −84 145
Las soluciones se leen directamente de esta matriz. La tercera y cuarta columna son, respecti-
vamente, [T (u1 )]B ′ y [T (u2 )]B ′ . Por lo tanto:
 
−146 252
[T ]B ′ = .
−84 145

De manera indirecta: utilizando la matriz estándar A = [T ]B . Se necesita la matriz P de


transición de la base B ′ a la base B.

Por definición, P tiene como columnas los vectores de coordenadas de los vectores de la base B ′
con respecto a la base B, [u1 ]B y [u2 ]B . Por ser B la base estándar, [u1 ]B = u1 y [u2 ]B = u2 .
Luego,  
  1 −2
P = u1 u2 = .
−3 5
Se verifica fácilmente que la inversa de P es:
 
−1 −5 −2
P = .
−3 −1
Por el Teorema 6.11 es:
     
−1 −5 −2 4 −6 1 −2 −146 252
[T ]B ′ = P [T ]B P = = ,
−3 −1 3 −5 −3 5 −84 145
verificándose que es la misma matriz obtenida por el modo directo.
   
2 1
Consideremos ahora la base de R2 , B ′′
= {v1 , v2 } donde v1 = y v2 = . Se obtendrá la
1 1
matriz de T con respecto a la base B ′′ de manera directa. Por definición:
 
[T ]B ′′ = [T (v1 )]B ′′ [T (v2 )]B ′′ .

Material de uso interno Mateu-Semitiel 259


CAPÍTULO 6. TRANSFORMACIONES LINEALES

       
2 2 1 −2
Aplicando la ley de T : T (v1 ) = T = = v1 ; T (v2 ) = T = = −2v2 .
1 1 1 −2
Los vectores T (v1 ) y T (v2 ) son múltiplos escalares de v1 y v2 , respectivamente, por lo tanto no
se requiere ningún cálculo para hallar sus coordenadas con respecto a la base B ′′ . En efecto:
 
1
T (v1 ) = v1 = 1v1 + 0v2 , ası́ [T (v1 )]B ′′ = ,
0
 
0
T (v2 ) = −2v2 = 0v1 + (−2)v2 , ası́ [T (v2 )]B ′′ = .
−2
Rápidamente se obtuvo:  
1 0
[T ]B ′′ = .◀
0 −2

En el ejemplo anterior, se mostraron tres matrices que representan el mismo operador lineal en bases
distintas [T ]B , [T ]B ′ y [T ]B ′′ . Puede observarse que la matriz más sencilla de las tres es [T ]B ′′ ya
que es diagonal. Las bases que producen matrices representantes diagonales son aquellas formadas por
vectores que se transforman en múltiplos de sı́ mismos, como ocurre con la base B ′′ . El problema de
obtener tales bases, si existen, se abordará en el capı́tulo siguiente.
También es interesante notar que si se conoce la matriz de un operador lineal en una base y se
desea encontrar la matriz representante en otra base es a veces más conveniente efectuar el cambio
de coordenadas usando la matriz de transición P , pero puede ser más simple obtener la nueva matriz
por aplicación directa de la definición.
Ahora bien, ¿por qué decimos que las matrices diagonales son más “sencillas” de manipular?...
Una matriz diagonal tiene muchas ventajas computacionales. Repasemos algunas:

es directo el cálculo del producto de dos matrices si una de ellas es diagonal. Por ejemplo:
 
  2 0 0  
a b c  2a 3b 5c
0 3 0 = ,
d e f 2d 3e 5f
0 0 5
    
2 0 a b c 2a 2b 2c
= .
0 3 d e f 3d 3e 3f
es directo el cálculo de las potencias. Por ejemplo:
   k 
2 0 2 0
D= ⇒D =k
.
0 3 0 3k

el determinante es el producto de los elementos de la diagonal.


el rango es el número de elementos no cero en su diagonal mientras que la nulidad es el número
de elementos cero de su diagonal.
es invertible si y solo si en la diagonal no hay ceros, y su inversa es la matriz diagonal que tiene
en su diagonal los recı́procos de los elementos correpondientes de la matriz original. Por ejemplo:
   
2 0 −1 1/2 0
D= , D = .
0 3 0 1/3

es igual a su transpuesta.

Material de uso interno Mateu-Semitiel 260


CAPÍTULO 6. TRANSFORMACIONES LINEALES

Semejanza de matrices

Definición (Matrices semejantes). Sean A y A′ dos matrices cuadradas de orden n. A′


es semejante a A si existe una matriz invertible P tal que

A′ = P −1 AP.

Si A′ es semejante a A, también A es semejante a A′ como se muestra en el teorema que sigue. Por lo


tanto se dirá simplemente que A y A′ son semejantes.

Teorema 6.12. Sean A, B y C matrices cuadradas de orden n. Entonces:

1. A es semejante a A (A es semejante a sı́ misma).

2. Si A es semejante a B entonces B es semejante a A.

3. Si A es semejante a B y B es semejante a C, entonces A es semejante a C.

Demostración. La primera propiedad se compueba fácilmente ya que A = IAI (I es invertible y


I −1 = I).

Actividad 6.5. Demuestre las propiedades 2. y 3. del teorema anterior.

Es importante observar lo siguiente. Las matrices que representan a un operador lineal T en dos bases
distintas, B y B ′ , son semejantes ya que, como lo establece el Teorema 6.11,

[T ]B ′ = P −1 [T ]B P

donde P es la matriz de transición de la base B ′ a la base B.


Recı́procamente, las matrices semejantes pueden considerarse representantes de un mismo operador
lineal. En efecto: si A′ y A son matrices semejantes de orden n, entonces existe una matriz P invertible
tal que
A′ = P −1 AP.
Consideremos el operador lineal T : Rn → Rn tal que T (x) = Ax. Entonces A  es la matriz estándar

de T . Esto es, A = [T ]B , donde B es la base estándar de R . La matriz P = p1 p2 ... pn es
n

invertible y por lo tanto sus columnas son linealmente independientes y forman una base de Rn . Sea
B ′ la base de Rn formada por las columnas
  de P . La matriz P es entonces la matriz de transición de
la base B ′ a la base estándar B ya que pj B = pj , j = 1, 2, ..., n. Ası́, de acuerdo al Teorema 6.11,

[T ]B ′ = P −1 AP.

Por lo tanto, A′ = [T ]B ′ es decir, es también una matriz representante de T pero en la base B ′ .

Ejemplo 6.25. Las matrices A, A′ y A′′ del Ejemplo 6.24 donde A = [T ]B , A′ = [T ]B ′ y A′′ = [T ]B ′′ ,
son semejantes ya que representan al mismo operador lineal en bases diferentes.
Por ejemplo, A′ = P −1 AP donde P es la matriz de transición de la base B ′ a la base B. De manera
similar, se puede encontrar las matrices invertibles que relacionan A′′ y A′ , y A′′ con A.◀

Material de uso interno Mateu-Semitiel 261


CAPÍTULO 6. TRANSFORMACIONES LINEALES

Las matrices que son semejantes entre sı́ conforman un conjunto que comparte ciertas propiedades.
Se demostrarán algunas de estas propiedades:

Teorema 6.13.
1. Las matrices semejantes tienen el mismo determinante.

2. Las matrices semejantes tienen el mismo rango.

Demostración. 1. Si A′ y A son matrices semejantes entonces existe una matriz P invertible tal
′ −1
que A = P AP. Luego,
  1
det(A′ ) = det P −1 AP = det P −1 det (A) det (P ) = det(A) det(P ) = det(A)
det(P )

2. Si A′ es semejante a A entonces A′ y A son dos matrices representantes de un mismo operador


lineal T . De acuerdo al Teorema 6.10, el rango de T es igual al rango de cualquier matriz
representante de T . Esto es, ρ(T ) = ρ(A) y ρ(T ) = ρ(A′ ) por lo tanto ρ(A) = ρ(A′ ).

Actividad 6.6. Verifique el teorema anterior para las matrices A, A′ y A′′ del Ejemplo 6.24 donde
A = [T ]B , A′ = [T ]B ′ y A′′ = [T ]B ′′ .

Ejercicios 6.4

1. Para cada transformación lineal, obtenga la matriz de T con respecto a las bases que se indican.

a) T : R2 → R3 , T (x, y) = (−x, 0, −y)


B = {(1, 0), (1, 1)}, B ′ = {(1, 1, 1), (0, 1, 1), (0, 0, 1)}.
b) T : R2 → R2 T (x, y) = (2x, x + y)
B = B ′ = {(−1, 2), (0, 3)}.
c) T : P2 → R2 T (a + bx + cx2 ) = (a + b, b − c)
B la base estándar de P2 , B ′ = {(1, −1), (2, 3)}.
 
a b
d) T : M2 → P1 T = (a + b) + (c + d)x
c d
B = {E11 , E11 + E12 , E21 , E21 + E22 }, B ′ la base estándar de P1 .

2. Sea T : P2 → P1 una transformación lineal tal que


 
−1 0 1
A=
1 2 1

es la matriz de T con respecto a las bases B = 1, 1 + x, 2 − x + x2 y B ′ = {−1 + x, 2x}.
Halle la ley de T .

Material de uso interno Mateu-Semitiel 262


CAPÍTULO 6. TRANSFORMACIONES LINEALES

3. Repita el ejercicio anterior siendo B y B ′ las bases estándar de P2 y P1 , respectivamente.

4. Obtenga la ley de la transformación lineal T : M2 → R4 si la matriz de T con respecto a las


bases
B = {E11 − E12 , E12 − E21 , E21 − E22 , E22 + E11 } , y
B ′ = {(1, −1, 0, 0), (0, 1, −1, 0), (0, 0, 1, −1), (1, 0, 0, 1)}
es  
1 3 0 2
 0 1 0 0 
A= 
 0 −2 1 −1  .
1 0 0 0

5. Haciendo uso del Teorema 6.10 obtenga el rango y la nulidad de las transformaciones lineales de
los ejercicios 2 y 4.

6. Use el Teorema 6.10 para hallar el núcleo y el recorrido de la transformación lineal T : R3 → P2


tal que  
−2 0 0
A= 0 3 0 
0 0 0
es la matriz de T con respecto a las bases

B = {(−1, 2, 0), (0, 1, 0), (1, 1, 3)} , y



B ′ = 1 + x, − 1 + 3x, 2x2 .

7. Sea T : P2 → P4 la transformación lineal definida por T (p) = x2 p.

a) Halle la matriz de T con respecto a las bases B = {p1 , p2 , p3 } y B ′ donde p1 = 1 + x2 ,


p2 = 1 + 2x + 3x2 y p3 = 4 + 5x + x2 , y B ′ es la base estándar de P4 .
b) Obtenga T (−3 + 5x − 2x2 ) de dos maneras distintas: de forma directa (usando la ley de T )
y de forma indirecta (usando la matriz de T hallada).
 
3 −2 1 0
8. Sea A =  1 6 2 1  la matriz de una transformación lineal de R4 en R3 con respecto a
−3 0 7 1
las bases B = {v1 , v2 , v3 , v4 } y B ′ = {w1 , w2 , w3 } en donde v1 = (0, 1, 1, 1), v2 = (2, 1, −1, 1, ),
v3 = (1, 4, −1, 2) y v4 = (6, 9, 4, 2), w1 = (0, 8, 8), w2 = (−7, 8, 1) y w3 = (−6, 9, 1).

a) Obtenga [T (v1 )]B ′ , [T (v2 )]B ′ , [T (v3 )]B ′ y [T (v4 )]B ′ .


b) Encuentre T (v1 ), T (v2 ), T (v3 ) y T (v4 ).
c) Halle la ley de T .
 
1 2
9. Halle dos matrices distintas A′ y A′′ semejantes a la matriz A = . Verifique además
−1 3
que A′′ y A′ resultan también semejantes.

10. Halle todas las matrices semejantes a la matriz identidad de orden 3.

11. En cada ı́tem explique por qué no son semejantes las matrices A y B.

Material de uso interno Mateu-Semitiel 263


CAPÍTULO 6. TRANSFORMACIONES LINEALES

   
1 −1 2 3
a) A = ,B= .
2 −1 4 3
   
1 0 0 1 1 1

b) A = 0 2 1 , B =  2 2 2 .
0 4 2 5 5 5

12. Sea T : V → V un operador lineal. Encuentre la matriz A′ = [T ]B ′ y verifique que A′ es semejante


a A = [T ]B donde B es la base estándar de V siendo:

a) T : P1 → P1 tal que T (a + bx) = (2a − b) + (b − a)x, B ′ = {1 − 2x, 3x}.


b) T : R3 → R3 tal que T (x, y, z) = (x, x+2y, x+y+3z), B ′ = {(1, −1, 0), (0, 0, 1), (0, 1, −1)}.
c) T : R2 → R2 tal que T (x, y) = (4x + y, 0), B ′ = {(1, 1), (1, −1)}
 
2 −12
13. Si A = es la matriz del operador lineal T sobre R2 en la base estándar B y P =
1 −5
 
2 1
es la matriz de transición de una base B ′ a la base estándar B, halle la base B ′ y la
1 1
matriz A′ de T con respecto a la base B ′ .
 
2 0 2
14. Si A =  0 −3 1  es la matriz del operador lineal T sobre P2 en la base estándar B y
0 2 0
 
1 1 1
P =  1 0 1  es la matriz de transición de una base B ′ a la base estándar B, halle la base
2 1 0
B ′ y la matriz A′ de T con respecto a la base B ′ .

15. 
Sea el operador
 lineal T sobre R2 cuya matriz en la base B = {(1, −1), (1, 2)} es A = [T ]B =
2 0
. Sea B ′ = {(2, 0), (−4, 1)} otra base de R2 .
1 1

a) Halle P y Q, las matrices de transición de B ′ a B y de B a B ′ , respectivamente.


b) Halle la matriz de T en la base B ′ , [T ]B ′ .
c) Si v = (0, 1), halle [T (v)]B y [T (v)]B ′ .

16. (Matriz del operador identidad) Sea V un espacio vectorial de dimensión n. Demuestre que
la matriz con respecto a cualquier base del operador operador lineal identidad I sobre V es la
matriz identidad In . Esto es, [I]B = In para toda base B de V.

17. (Matriz del operador cero) Halle la matriz con respecto a cualquier base del operador lineal
cero sobre un espacio vectorial V de dimensión n.

18. Sean A y B matrices semejantes. Demuestre:

a) At y B t son matrices semejantes.


b) Si A es invertible entonces también B es invertible, y A−1 y B −1 son matrices semejantes.
c) A2 y B 2 son matrices semejantes. En general, si k es un entero positivo entonces Ak y B k
son matrices semejantes.

Material de uso interno Mateu-Semitiel 264


Capı́tulo 7

AUTOVALORES Y
AUTOVECTORES

7.1. Autovalores y autovectores


Como se ha visto en el capı́tulo anterior, si A es una matriz real de n × n la función T : Rn → Rn
definida por T (x) = Ax es una transformación lineal (transformación matricial). Una cuestión de
importancia en una gran variedad de problemas de aplicación es la determinación de vectores x ̸= 0,
si los hay, tales que x y su transformado, Ax, sean “paralelos”.

Definición (Autovalor y autovector). Sea A una matriz real de n × n, un número real λ


es un autovalor de A si existe un vector u, distinto del vector cero, en Rn tal que

Au = λu.

El vector u es un autovector de A correspondiente al autovalor λ.

Ası́, un vector u ̸= 0 en Rn es un autovector de la matriz A si existe un número real λ tal que Au = λu.
Esto es, Au es un múltiplo escalar de u. El número λ es un autovalor de A.
A los autovalores también se los llama valores caracterı́sticos, valores propios o eigenvalores (“ei-
gen” significa “propio” en alemán). Similarmente los autovectores también son llamados vectores ca-
racterı́sticos, vectores propios o eigenvectores.
Debe observarse que en la definición de autovalor no se tiene en cuenta al vector u = 0. Esto se
debe a que el vector cero satisface A0 = λ0 para cualquier número λ y entonces todo número real serı́a
un autovalor. El vector cero no es considerado un autovector en cambio, sı́ es posible un autovalor
λ = 0.

       
2 0 1 0 1
Ejemplo 7.1. Sea A = y los vectores u1 = , u2 = y u3 = . Para
6 −1 2 1 3
determinar si éstos vectores son autovectores de A, se efectúan los productos Au1 , Au2 y Au3 :
      
2 0 1 2 1
Au1 = = =2 = 2u1 ,
6 −1 2 4 2

Material de uso interno Mateu-Semitiel 265


CAPÍTULO 7. AUTOVALORES Y AUTOVECTORES

luego u1 es un autovector de A asociado al autovalor λ1 = 2.


      
2 0 0 0 0
Au2 = = = (−1) = (−1)u2 ,
6 −1 1 −1 1
por lo tanto u2 es un autovector de A asociado al autovalor λ2 = −1.
 
1
En cambio el vector u3 = no es un autovector de A dado que
3
    
2 0 1 2
Au3 = = ,
6 −1 3 3
no es un múltiplo escalar de u3 .◀

Nota: Debe notarse que un autovalor tiene asociado infinitos autovectores. De hecho, si u es un
autovector de A correspondiente al autovalor λ, cualquier múltiplo escalar no cero de u es un autovector
de A asociado al mismo autovalor λ.
En efecto, sea v = ku donde k ̸= 0. Entonces v ̸= 0 y

Av = A (ku) = k (Au) = k (λu) = λ (ku) = λv,

y ası́ ku es también un autovector de A correspondiente al autovalor λ.


Geométricamente esto muestra que en R2 o R3 , si u es un autovector de A correspondiente a un
autovalor λ, todos los vectores no ceros que se encuentran en la recta (en el plano o en el espacio) que
contiene al origen de coordenadas y es paralela al vector u, son autovectores de A correspondientes al
mismo autovalor λ.

Figura 7.1: Interpretación geométrica del Ejemplo 7.1

Observe que en el ejemplo anterior todos los vectores distintos de cero que están en las rectas
l1 y l2 , paralelas a los vectores u1 y u2 respectivamente, son autovectores de A. La transformación

Material de uso interno Mateu-Semitiel 266


CAPÍTULO 7. AUTOVALORES Y AUTOVECTORES

matricial x → Ax “estira” los vectores no cero de l1 en un factor de 2 y los vectores de la recta l2 se


reflejan respecto al origen (véase Figura 7.1).
 
0 1
Ejemplo 7.2. Sea la matriz A = . A es la matriz estándar del operador lineal reflexión, en
1 0
R2 con respecto a la recta de ecuación y = x. Esto es
    
0 1 x y
Ax = = .
1 0 y x
Una interpretación visual de la transformación es suficiente para comprender que los únicos vectores
que permanecen en la misma recta después de la reflexión son los que se encuentran en las rectas de
ecuaciones y = x y y = −x. Estos vectores (excepto el vector cero) son  losúnicos que se transforman
u1
en múltiplos de sı́ mismos. Si u está en la recta y = x entonces u = y Au = u = 1u, ası́ u es
u1
un autovector correspondiente al autovalor λ1 = 1.
 
v1
Si v está en la recta y = −x entonces v = por lo que Av = −v = (−1)v, ası́ v es un
−v1
autovector correspondiente al autovalor λ2 = −1.◀

Figura 7.2: Reflexiones

En el ejemplo anterior se pudieron determinar los autovalores y sus correspondientes autovectores


basándose en un enfoque geométrico. Si A es una matriz cuadrada de orden n > 3 ya no es posible
usar la intuición geométrica y, aún para n = 3, hay transformaciones complicadas para visualizarlas
geométricamente.

Ejemplo 7.3 (Autovalores y autovectores de la matriz identidad). Si A = I (matriz identidad


de orden n) entonces Ax = Ix = x = 1x, para todo x ∈ Rn .
Luego, todo vector no cero de Rn es un autovector de A correspondiente al único autovalor λ = 1.◀

Material de uso interno Mateu-Semitiel 267


CAPÍTULO 7. AUTOVALORES Y AUTOVECTORES

En los ejemplos vistos se han obtenido los autovalores y autovectores por medio de una simple ins-
pección, argumentos geométricos o enfoques algebraicos muy sencillos. En el ejemplo siguiente se
calcularán los autovalores y autovectores de una matriz de manera sistemática.
 
6 5
Ejemplo 7.4. Se desean determinar los autovalores y autovectores de la matriz A = .
1 2
Por definición, un número real λ es un autovalor de A si existe un vector u no cero en R2 tal que
Au = λu. Por lo tanto, λ es un autovalor de A si y solo si la ecuación

Ax = λx,

es decir:     
6 5 x1 x1

1 2 x2 x2
tiene soluciones no triviales. La ecuación anterior se convierte en el sistema lineal

6x1 + 5x2 = λx1
x1 + 2x2 = λx2

y una forma canónica del mismo es



(λ − 6) x1 − 5x2 = 0
(7.1)
−x1 + (λ − 2) x2 = 0

De acuerdo al Teorema 3.10 este sistema homogéneo tiene soluciones no triviales si y solo si el
determinante de su matriz de coeficientes, λI − A, es cero. Esto es, si y solo si

λ − 6 −5
=0
−1 λ − 2

es decir
(λ − 6) (λ − 2) − 5 = 0,
o
λ2 − 8λ + 7 = 0,
cuyas soluciones son λ1 = 7 y λ2 = 1. Estos valores son autovalores de A puesto que son números
reales para los cuales la ecuación Ax = λx tiene soluciones no triviales.
Para determinar los autovectores correspondientes al autovalor λ1 = 7, se resuelve

Ax = 7x

que es equivalente a resolver el sistema homogéno



x1 − 5x2 = 0
−x1 + 5x2 = 0

Observe que se obtiene este último sistema simplemente sustituyendo λ = 7 en (7.1). La solución
general del sistema es 
x1 = 5t
, t ∈ R.
x2 = t

Material de uso interno Mateu-Semitiel 268


CAPÍTULO 7. AUTOVALORES Y AUTOVECTORES

 
5t
Entonces los (infinitos) autovectores de A asociados al autovalor λ1 = 7 están dados por
t
 
5
para cualquier t real, t ̸= 0. En particular, u = es un autovector de A asociado al autovalor
1
λ1 = 7.
De manera similar se obtienen los autovectores correspondientes a λ2 = 1 resolviendo Ax = x que
equivale a resolver el sistema homogéneo

−5x1 − 5x2 = 0
−x1 − x2 = 0

cuya solución general es 


x1 = −t
, t ∈ R.
x2 = t
 
−t
Entonces los (infinitos) autovectores de A asociados al autovalor λ2 = 1 están dados por
t
 
−1
para cualquier t real, t ̸= 0. En particular, v = es un autovector de A asociado al autovalor
1
λ2 = 1.◀

El siguiente teorema resume lo realizado en el ejemplo anterior para el cálculo de autovalores y auto-
vectores de una matriz.

Teorema 7.1 (Caracterización de autovalores y autovectores). Sea A una matriz cuadrada


de orden n y λ un número real, entonces:

1. λ es un autovalor de A si y solo si det(λI − A) = 0.

2. Si λ es un autovalor de A, un vector u ∈ Rn es un autovector de A asociado a λ si y


solo si u es una solución no trivial del sistema homogéneo (λI − A) x = 0.

Demostración. Nótese que, por definición, λ ∈ R es un autovalor de A si y solo si la ecuación Ax = λx


admite soluciones distintas de la trivial. Esta ecuación, como vimos en el ejemplo, y ahora se generaliza
se transforma en un sistema lineal homogéneo de matriz de coeficientes λI − A. En efecto:

Ax = λx ⇔ λx − Ax = 0
⇔ (λIx) − Ax = 0
⇔ (λI − A) x = 0.

Luego, un número real λ es un autovalor de A si y solo si el sistema homogéno de matriz de


coeficientes λI − A tiene soluciones no triviales. Como esta matriz es cuadrada, el sistema tiene
soluciones no triviales si y solo si λI − A es singular o lo que es equivalente det(λI − A) = 0. Esto
prueba la parte 1.
Por otra parte, un vector u de Rn es un autovector de A asociado a un autovalor λ si y solo si u
es una solución no trivial de la ecuación Ax = λx, o lo que es equivalente, u es una solución no trivial
del sistema homogéneo (λI − A) x = 0. Esto prueba la parte 2. del Teorema.

Material de uso interno Mateu-Semitiel 269


CAPÍTULO 7. AUTOVALORES Y AUTOVECTORES

Polinomio caracterı́stico y ecuación caracterı́stica. Espacios caracterı́sticos


El problema de encontrar los autovalores de una matriz real se resuelve con la ayuda de los determi-
nantes ya que un autovalor de la matriz A es un número real λ tal que det (λI − A) = 0.
Esto sugiere que det (λI − A) deberı́a estudiarse
 comouna función de λ. En el ejemplo anterior se
6 5
obtuvo para la matriz cuadrada de orden 2, A = :
1 2

det (λI − A) = λ2 − 8λ + 7.

En general, si se desarrolla det (λI − A) para una matriz A de orden n se obtiene un polinomio
de grado n en la variable λ. Al respecto vale el siguiente teorema que aceptaremos sin demostración
y que es fácilmente verificable si n = 2 o n = 3.

Teorema 7.2. Si A es una matriz cuadrada de orden n entonces

det(λI − A) = λn + cn−1 λn−1 + ... + c1 λ + c0 ,

donde ci ∈ R, i = 1, 2, ..., n. Es decir, det(λI − A) es un polinomio de grado n en la variable


λ a coeficientes reales. Además su coeficiente principal (coeficiente que acompaña a λn ) es 1.

En relación al polinomio que se obtiene del teorema anterior, se tienen las siguientes definiciones.

Definición (Polinomio caracterı́stico y ecuación caracterı́stica). Sea A una matriz


cuadrada de orden n y I la matriz identidad de orden n.

1. Se denota y define el polinomio caracterı́stico de la matriz A como

pA (λ) = det (λI − A) .

2. A la ecuación
det (λI − A) = 0,
esto es pA (λ) = 0, se la llama ecuación caracterı́stica de la matriz A.

Con esta terminologı́a los autovalores de una matriz (real) A son las soluciones reales de la ecuación
caracterı́stica, es decir, las raı́ces reales del polinomio caracterı́stico pA (λ).
Dado que pA (λ) es un polinomio de grado n a coeficientes reales, éste tiene exactamente n raı́ces
(contando las repeticiones) algunas de las cuales (o todas) pueden ser números complejos. Las raı́ces
reales son los autovalores de A, por lo tanto una matriz (real) A, de orden n tiene a lo sumo n auto-
valores, no necesariamente todos distintos. Es importante señalar que A puede carecer de autovalores
(si todas las raı́ces del polinomio caracterı́stico son complejas).
Al número de veces que se repite un autovalor λi como raı́z del polinomio caracterı́stico se lo llama
multiplicidad algebraica de λi y se denotará ma (λi ).
Por ejemplo si A es una matriz cuadrada de orden 6 y las raı́ces de pA (λ) son: 4, 4, 4, −7, 2 − i y
2 + i, entonces A tiene sólo dos autovalores distintos 4 y −7 con multiplicidades algebraicas ma (4) = 3
y ma (−7) = 1.

Material de uso interno Mateu-Semitiel 270


CAPÍTULO 7. AUTOVALORES Y AUTOVECTORES

El problema de hallar los autovectores asociados a un autovalor se reduce a la resolución de un


sistema lineal homogéneo con infinitas soluciones. Sabemos que si λ es un autovalor de la matriz A, los
autovectores correspondientes a λ son las soluciones no triviales del sistema (λI − A) x = 0 es decir
son los vectores no cero del espacio nulo de la matriz λI − A.
El espacio nulo de la matriz λI − A se llama espacio caracterı́stico o autoespacio de la matriz
A asociado al autovalor λ y lo simbolizaremos Eλ . Ası́

Eλ = N (λI − A) = {x ∈ Rn : (λI − A) x = 0} .

Se ha visto (Capı́tulo 4) que el espacio nulo de una matriz es un subespacio de Rn . Luego, Eλ es


el subespacio de Rn que consta de todos los autovectores de A asociados al autovalor λ, juntamente
con el vector cero.
A la dimensión de Eλ = N (λI − A) se la denomina multiplicidad geométrica del autovalor λ y
lo denotaremos mg (λ). Entonces,
mg (λ) = ν (λI − A) ,
es el número máximo de autovectores linealmente independientes que están asociados al autovalor λ.
Claramente mg (λ) ≥ 1 ya que Eλ = N (λI − A) ̸= {0}.
Resumiendo:
Para obtener los autovalores, los autovectores y las dimensiones de los autoespacios de una matriz A
de orden n, se procede de la siguiente manera:

1. Se obtiene el polinomio caracterı́stico pA (λ) = det (λI − A).

2. Se buscan las soluciones reales de la ecuación caracterı́stica det (λI − A) = 0. Estos números son
los autovalores de A.

3. Para cada autovalor distinto λi , se resuelve el sistema homogéneo (λi I − A) x = 0. El conjunto


solución es el autoespacio Eλi y las soluciones no triviales son los autovectores de A asociados
al autovalor λi .

4. Se busca una base para cada autoespacio Eλi = N (λi I − A). La multiplicidad geométrica mg (λi )
es la dimensión de Eλi .

Nota: El problema de encontrar los autovalores de una matriz puede ser muy difı́cil, en particular
si n ≥ 3 ya que se trata de determinar las raı́ces de un polinomio de grado n. En cursos de Análisis
Numérico, se estudian métodos numéricos eficientes para hallar aproximaciones de las raı́ces de un
polinomio. De hecho muchos programas de computadora lo hacen.
Un resultado útil es el siguiente: si el polinomio caracterı́stico de la matriz A es

pA (λ) = λn + cn−1 λn−1 + ... + c1 λ + c0 ,

donde c1 , c2 ,..., cn−1 son números enteros entonces sus raı́ces racionales, si las tiene, deben estar
entre los números enteros divisores de c0 (teorema de Gauss). Por supuesto, pA (λ) podrá tener raı́ces
irracionales o complejas, sin embargo, por conveniencia muchos de los polinomios caracterı́sticos en
este texto tendrán sólo raı́ces enteras.

Material de uso interno Mateu-Semitiel 271


CAPÍTULO 7. AUTOVALORES Y AUTOVECTORES

 
2 1 0
Ejemplo 7.5. Sea A =  −1 0 1 . El polinomio caracterı́stico de A es
1 3 1

λ − 2 −1 0
pA (λ) = det (λI − A) = 1 λ −1
−1 −3 λ − 1
= (λ − 2)λ(λ − 1) − 1 − 3(λ − 2) + (λ − 1)
= λ3 − 3λ2 + 4.

Dado que pA (λ) es a coeficientes enteros y su coeficiente principal es igual a 1, entonces si el


polinomio tiene raı́ces racionales éstas deben estar entre los enteros divisores del término independiente
(Teorema de Gauss). Las posibles raı́ces racionales son: ±1, ±2 y ±4.
Se observa que pA (−1) = 0 por lo tanto λ + 1 es un divisor de pA (λ). Ası́, pA (λ) = (λ + 1)q(λ)
donde q(λ) es el cociente de la división del polinomio pA (λ) por λ + 1. Aplicando la regla de Ruffini,
q (λ) = λ2 − 4λ + 4 = (λ − 2)2 . Ası́,

pA (λ) = (λ + 1) (λ − 2)2 .

Los autovalores de A son las soluciones reales de la ecuación caracterı́stica:

pA (λ) = (λ + 1) (λ − 2)2 = 0,

que por simple inspección son 2 (raı́z doble) y −1 (raı́z simple). Por lo tanto los autovalores distintos
de A son:
λ1 = 2 y λ2 = −1,
con multiplicidades algebraicas ma (2) = 2 y ma (−1) = 1.
Los autovectores correpondientes a cada autovalor λi son las soluciones no triviales del sistema
homogéneo (λi I − A) x = 0.
 
0 −1 0
Para λ1 = 2: λ1 I − A = 2I − A =  1 2 −1  y el sistema lineal homogéneo es
−1 −3 1
    
0 −1 0 x1 0
 1 2 −1   x2 = 0  .
 
−1 −3 1 x3 0

Aplicando eliminación gaussiana a la matriz ampliada del sistema se obtiene la siguiente forma
escalonada  
1 2 −1 : 0
 0 −1 0 : 0 .
0 0 0 : 0
La solución general del sistema es

 x1 = t
x2 = 0 , t ∈ R.

x3 = t

Material de uso interno Mateu-Semitiel 272


CAPÍTULO 7. AUTOVALORES Y AUTOVECTORES

 
t
Los autovectores de A asociados a λ1 = 2 son todos los vectores  0  con t ̸= 0. El autoespacio
t
correspondiente a λ1 = 2 es
    
 t   1 
E2 = N (2I − A) =  0  : t ∈ R = gen  0  .
   
t 1
 
 1 
El conjunto S1 =  0  es linealmente independiente y generador de E2 por lo que constituye
 
1
una base para éste. Ası́, mg (2) = dim(E2 ) = 1.
 
−3 −1 0
Para λ2 = −1: λ2 I − A = −I − A =  1 −1 −1  y el sistema lineal homogéneo es
−1 −3 −2
    
−3 −1 0 x1 0
 1 −1 −1   x2  =  0  .
−1 −3 −2 x3 0

Aplicando eliminación gaussiana a la matriz ampliada del sistema se obtiene la siguiente forma
escalonada  
1 −1 −1 : 0
 0 −4 −3 : 0  .
0 0 0 : 0
La solución general del sistema es

 x1 = t
x2 = −3t , t ∈ R.

x3 = 4t
 
t
Los autovectores de A asociados a λ2 = −1 son todos los vectores  −3t  con t ̸= 0. El autoes-
4t
pacio correspondiente a λ2 = −1 es
    
 t   1 
E−1 = N (−I − A) =  −3t  : t ∈ R = gen  −3  .
   
4t 4
 
 1 
El conjunto S2 =  −3  es linealmente independiente y generador de E−1 por lo que cons-
 
4
tituye una base para éste. Ası́, mg (−1) = dim(E−1 ) = 1. ◀

Material de uso interno Mateu-Semitiel 273


CAPÍTULO 7. AUTOVALORES Y AUTOVECTORES

 
0 1 0
Ejemplo 7.6. Sea la matriz A =  0 0 1  cuyo polinomio caracterı́stico es
4 −17 8
λ −1 0
pA (λ) = det (λI − A) = 0 λ −1
−4 17 λ − 8
= λ3 − 8λ2 + 17λ − 4.
Los autovalores de A son las soluciones reales de la ecuación caracterı́stica
pA (λ) = λ3 − 8λ2 + 17λ − 4 = 0.
Para resolver esta ecuación se comienza por buscar soluciones racionales que, si las tiene, deben
ser números enteros divisores del término constante −4. Ası́, las únicas soluciones racionales posibles
son: ±1, ±2 y ±4.
Se comprueba que ±1 y ±2 no solucionan la ecuación pero pA (4) = 0 por lo tanto 4 es raı́z y λ − 4
es un divisor de pA (λ). Ası́, pA (λ) = (λ − 4)q(λ) donde q(λ) es el cociente de la división del polinomio
pA (λ) por λ − 4. Aplicando la regla de Ruffini, q (λ) = λ2 − 4λ + 1 lo que indica que la ecuación
caracterı́stica se puede escribir como

pA (λ) = (λ − 4) λ2 − 4λ + 1 = 0.
Por consiguiente una solución es el número entero 4 y las restantes son las que satisfacen la ecuación
cuadrática λ2 − 4λ + 1 = 0 √
que se puede
√ resolver por medio de la fórmula correspondiente obteniéndose
los raı́ces irracionales 2 + 3 y 2 − 3.
√ √
Por lo tanto los autovalores de A son λ1 = 4, λ2 = 2 + 3 y λ3 = 2 − 3, todos de multiplicidad
algebraica igual a 1.◀

Actividad 7.1. Para cada autovalor de la matriz A del ejemplo anterior, exhiba dos autovectores
distintos y verifique que las multiplicidades geométricas son todas iguales a 1.

 
0 −1
Ejemplo 7.7 (Una matriz que no tiene autovalores). Sea A = . El polinomio carac-
1 0
terı́stico de A es
λ 1
pA (λ) = det(λI − A) = = λ2 + 1.
−1 λ
La ecuación caracterı́stica λ2 + 1 = 0 no tiene soluciones reales. Por lo tanto A no tiene autovalores
y en consecuencia no tiene autovectores. Puede verse geométricamente la razón. Esta matriz es una
matriz de rotación de ángulo θ = π2 . Ası́, todo vector no cero en R2 es girado, por la matriz A, un
ángulo de 90◦ y por lo tanto no se transforma en múltiplo de sı́ mismo (véase Figura 7.3).
Hay aplicaciones que requieren escalares complejos. En dichos casos las raı́ces complejas del poli-
nomio caracterı́stico de una matriz A son también autovalores de A y habrá autovectores asociados
con componentes complejas. En este caso, las únicas soluciones de la ecuación λ2 + 1 = 0 son los
complejos conjugados λ1 = i y λ2 = −i. Si se permiten escalares complejos, éstos son autovalores de
A. Puede verificarse que    
i −i
v1 = y v2 =
1 1
son autovectores correspondientes a λ1 = i y λ2 = −i, respectivamente.◀

Material de uso interno Mateu-Semitiel 274


CAPÍTULO 7. AUTOVALORES Y AUTOVECTORES

Figura 7.3: Interpretación geométrica del Ejemplo 7.7

Para finalizar con esta sección se verá que para ciertas matrices es sencillo hallar sus autovalores. No
se necesita hacer ningún cálculo para hallar los autovalores de una matriz triangular, en particular,
para las matrices diagonales.

Teorema 7.3. Los autovalores de una matriz triangular son los elementos de la diagonal.

Demostración. Sea A = [aij ] una matriz triangular de orden n. Se probará que los elementos aii ,
i = 1, 2, ..., n son las raı́ces del polinomio caracterı́stico pA (λ) = det (λI − A).
Por ser A triangular, la matriz λI − A es también triangular y por lo tanto su determinante es
el producto de los elementos de la diagonal. Los elementos de la diagonal de λI − A son λ − aii ,
i = 1, 2, ..., n. Luego,
pA (λ) = det (λI − A) = (λ − a11 ) (λ − a22 ) ... (λ − ann ) .
Claramente, las raı́ces de pA (λ) son los números: λ1 = a11 , λ2 = a22 ,..., λn = ann (no todos
necesariamente distintos) que, como son números reales, todos son autovalores de A.

Para las matrices triangulares, en particular para las matrices diagonales, valen las siguientes propie-
dades que son inmediatas a partir del teorema anterior:

Corolario 7.1. Si A es una matriz triangular entonces:

1. El producto de los autovalores de A es igual al determinante de A.

2. La suma de los autovalores de A es igual a la suma de los elementos de la diagonal de


A. La suma de los elementos de la diagonal de una matriz cuadrada recibe el nombre
de traza de A y se la denota tr(A).

Material de uso interno Mateu-Semitiel 275


CAPÍTULO 7. AUTOVALORES Y AUTOVECTORES

Demostración. Sea A = [aij ] una matriz triangular de orden n. Dado que los autovalores de A son
λ1 = a11 , λ2 = a22 ,...., λn = ann , y como el determinante de una matriz triangular es igual al producto
de los elementos de la diagonal y la traza es la suma de dichos elementos, entonces

det(A) = a11 a22 ...ann = λ1 λ2 ...λn ,

y
tr(A) = a11 + a22 + ... + ann = λ1 + λ2 + ... + λn .

Estos resultados son válidos también para una matriz no triangular si se consideran las n raı́ces de su
polinomio caracterı́stico.

Teorema 7.4. Si A es una matriz cuadrada de orden n y las n raı́ces de su polinomio


caracterı́stico son λ1 , λ2 ,..., λn (no necesariamente todas distintas) entonces:

1. det(A) = λ1 λ2 ...λn .

2. tr(A) = λ1 + λ2 + ... + λn .

Demostración. Se probará aquı́ la propiedad 1. El polinomio caracterı́stico de A es

pA (λ) = det(λI − A) = λn + cn−1 λn−1 + ... + c1 λ + c0 .

Dado que λ1 , λ2 ,..., λn son las n raı́ces de pA (λ) se tiene la siguiente factorización del polinomio
caracterı́stico
pA (λ) = det(λI − A) = (λ − λ1 ) (λ − λ2 ) ... (λ − λn ) .
Tomando λ = 0 en la expresión factorizada de pA (λ):

pA (0) = det(−A) = (−1)n λ1 λ2 ...λn ,

y como
det(−A) = (−1)n det(A),
entonces
det(A) = λ1 λ2 ...λn .
Además puede observarse en la expresión del polinomio caracterı́stico de A no factorizada, que el
término independiente c0 es pA (0) por lo tanto,

c0 = (−1)n det(A).

La prueba de 2. no es tan inmediata (Véase Ejercicio 7.1).

Observación 7.1. Los resultados establecidos por el teorema anterior son condiciones necesarias
que deben satisfacer las raı́ces del polinomio caracterı́stico y puede usarse como una comprobación
numérica más en el cálculo de las raı́ces de pA (λ). Es sencillo comprobar si la suma de las raı́ces de
pA (λ) coincide con la suma de los elementos de la diagonal (traza) de A.

Material de uso interno Mateu-Semitiel 276


CAPÍTULO 7. AUTOVALORES Y AUTOVECTORES

Observación 7.2. Debe notarse que si una matriz tiene todos sus elementos reales su determinante
y su traza son números reales. Pero el determinante es el producto de las raı́ces del polinomio ca-
racterı́stico y la traza es la suma de éstas, entonces aunque algunas de las raı́ces sean complejas su
producto y su suma deben ser números reales. Esto no debe sorprender; es un hecho conocido que
las raı́ces complejas de polinomios a coeficientes reales aparecen como pares conjugados, es decir, si
z = a + bi es una raı́z también lo es z = a − bi. Por lo tanto, puesto que zz = a2 + b2 ∈ R y
z + z = 2a ∈ R, resultan también λ1 λ2 ...λn ∈ R y λ1 + λ2 + ... + λn ∈ R.

Actividad 7.2. Para cada matriz A de los ejemplos 7.5, 7.6 y 7.7, verifique los resultados del teorema
anterior.

Con respecto a las matrices invertibles, se tiene el siguiente resultado como consecuencia del teorema
anterior.

Corolario 7.2. Una matriz A de orden n es invertible si y solo si 0 no es un autovalor de A.

Demostración. Sabemos que A es invertible si y solo si det(A) ̸= 0. Por el teorema anterior, det(A) =
λ1 λ2 ...λn donde λi , i = 1, 2, ..., n es una raı́z del polinomio caracterı́stico. Por lo tanto det(A) ̸= 0 si
y sólo λi ̸= 0, para todo i = 1, 2, ..., n es decir A no tiene autovalores 0.

Ejercicios 7.1

       
3 −2 −2 2 1
1. Sean A = , u = , v = y w = . Aplique la definición para
−3 2 2 3 2
determinar si los vectores dados son autovectores de A y, en caso afirmativo, halle sus autovalores
correspondientes.
2. Para la matriz A y los vectores u y v del ejercicio anterior, ¿es u + v un autovector de A?, y
¿cu con c ̸= 0?
3. Obtenga, mentalemente, los autovalores de las siguientes matrices:
 
  0 0 0  
1 0  8 −1 0 5
, 0 , .
0 2 5 0
0 17 −1

4. Pruebe que λ1 = −6, λ2 = 4 y λ3 = 7 son autovalores de la matriz


 
7 0 0
A =  0 −2 4 
0 6 0
y obtenga, para cada autovalor, el conjunto de sus autovectores asociados.
   
3 1 1 −1
5. Sean A =  1 3 1  y v =  1 . Utilice la definición de autovector para probar que v es
1 1 3 0
un autovector de A y obtenga su correspondiente autoespacio.
6. Para cada matriz halle: el polinomio caracterı́stico, los autovalores, bases para los autoespacios
e indique las multiplicidades algebraica y geométrica de cada autovalor.

Material de uso interno Mateu-Semitiel 277


CAPÍTULO 7. AUTOVALORES Y AUTOVECTORES

   
3 2 0 0 1
a)
3 2 e)  0 4 0 
  2 0 0
0 −9  
b) 0 −1 0
1 −6
  f )  −4 0 0 
a b 0 0 2
c)
a b  
  1 0 0 1
1 1 0  0 2 0 0 
g) 

d)  0 2 0  3 1 −1 0 
0 0 3 0 0 0 2
   
1 0
7. Sea A una matriz de 3 × 3 tal que u =  −1  y v =  2  son autovectores de A asociados
0 −1
a los autovalores λ1 = −1 y λ2 = 2, respectivamente. Halle el vector A (2u − 3v).
8. Sea A una matriz real de n × n. Demuestre las siguientes proposiciones.
a) A y At tienen el mismo polinomio caracterı́stico y por lo tanto los mismos autovalores.
b) Si v un autovector de A asociado al autovalor λ entonces v es un autovector de A2 y su
autovalor correspondiente es λ2 . (Esto puede generalizarse para Ak con k ∈ Z+ ).
9. Sea A una matriz de n × n. Demuestre:
a) Usando la definición de autovalor que A es invertible si y solo si 0 no es un autovalor de A.
b) Si A es invertible y v es un autovector de A correspondiente al autovalor λ, entonces v es
un autovector de A−1 y su correspondiente autovalor es λ1 .

10. Demuestre que si A es una matriz de n×n y v es un autovector de A correspondiente al autovalor


λ, entonces v es un autovector de A − cI con correspondiente autovalor λ − c, para todo c ∈ R.
11. Demuestre que si A es una matriz de n × n tal que A2 = −I, entonces A no tiene autovalores.
12. Demuestre la parte 2. del Teorema 7.4.

7.2. Diagonalización

Definición (Matriz diagonalizable). Una matriz A cuadrada de orden n es diagonalizable


si existe una matriz P invertible y una matriz D diagonal tal que

P −1 AP = D.

Es decir, A es diagonalizable si es semejante a una matriz diagonal.


También suele decirse que las matrices P y D diagonalizan a A.

Debe tenerse en cuenta que estamos trabajamos solo con matrices reales. Esto es, la diagonalización
debe ser considerada en R, las matrices P y D que diagonalizan a una matriz real A, deben ser matrices
reales.

Material de uso interno Mateu-Semitiel 278


CAPÍTULO 7. AUTOVALORES Y AUTOVECTORES

Ejemplo 7.8 (Las matrices diagonales son diagonalizables). Esto es ası́ ya que son semejantes
a sı́ mismas: Si D es una matriz diagonal, D = I −1 DI.◀

 
4 −6
Ejemplo 7.9. La matriz A = es diagonalizable.
3 −5
   
2 1 1 0
En efecto, la matriz invertible P = y la matriz diagonal D = satisfacen:
1 1 0 −2
 −1     
−1 2 1 4 −6 2 1 1 0
P AP = = = D.
1 1 3 −5 1 1 0 −2
   
1 2 −2 0
Puede comprobarse que la matriz invertible P1 = y la matriz diagonal D1 =
1 1 0 1
también diagonzalizan a A.
Se verá luego que las únicas matrices diagonales semejantes a A son estas dos: D y D1 .◀

Los autovalores de las matrices diagonales D y D1 del ejemplo anterior, son −2 y 1. Puede comprobarse
que éstos son también los autovalores de la matriz A. El siguiente teorema permite generalizar este
resultado.

Teorema 7.5. Las matrices semejantes tienen el mismo polinomio caracterı́stico, y por lo
tanto los mismos autovalores.

Demostración. Sean A y B matrices semejantes es decir B = P −1 AP , para alguna matriz invertible


P . De acuerdo a propiedades de los determinantes:

pB (λ) = det(λI − B) = det(λI − P −1 AP ) = det(P −1 (λI)P − P −1 AP )


= det(P −1 (λI − A)P ) = det(P −1 ) det(λI − A) det(P )
= 1
det(P ) det(λI − A) det(P )
= det(λI − A) = pA (λ).

Se ha probado entonces que las matrices semejantes tienen el mismo polinomio caracterı́stico, por
lo tanto tienen los mismos autovalores puesto que éstos son raı́ces del polinomio caracterı́stico.

Si D es una matriz diagonal semejante a una matriz A, ambas matrices tienen el mismo polinomio
caracterı́stico, p(λ). Por ser D diagonal, las raı́ces de p(λ) son los elementos de su diagonal y como D
debe ser una matriz real, todas estas raı́ces deben ser números reales.
Luego, si una matriz A de n × n es diagonalizable, todas las raı́ces de su polinomio caracterı́stico
deben ser reales; esto es, A debe tener n autovalores (no necesariamente todos distintos) y toda matriz
D diagonal semejante a A debe tener en su diagonal a dichos autovalores.

Ejemplo 7.10. Las siguientes matrices no son diagonalizables:


 
0 −1
a) A = . El polinomio caracterı́stico de A, pA (λ) = λ2 + 1, no tiene raı́ces reales (A no
1 0
tiene autovalores). Esto significa que no existe ninguna matriz (real) diagonal semejante a A.

Material de uso interno Mateu-Semitiel 279


CAPÍTULO 7. AUTOVALORES Y AUTOVECTORES

 
a 1
b) A = , a ∈ R. El polinomio caracterı́stico de A es pA (λ) = (λ − a)2 . Luego, a es una raı́z
0 a
real doble (la multiplicidad algebraica de a es 2) por lo que A tiene dos autovalores (contando
multiplicidades).
 
a 0
Si A fuese diagonalizable, la única matriz D semejante a A debe ser D = . Pero puede
0 a
probarse que no existe una matriz P invertible tal que D = P −1 AP . Por lo tanto A no es
diagonalizable.◀

Actividad 7.3. Pruebe la afirmación de la parte b) del ejemplo anterior. Sugerencia: pruebe que no
existe una matriz invertible P tal que AP = P D.

En los Ejemplos 7.9 y 7.10 vimos que:

no todas las matrices cuadradas pueden diagonalizarse.

las matrices P y D que diagonalizan a A no son únicas.

En lo que sigue se verá cuándo es diagonalizable una matriz A y cómo determinar las matrices P
y D que la diagonalizan.

Teorema 7.6. Sean A, P y D matrices cuadradas de orden n donde D es una matriz diagonal.
Entonces:
P es invertible y P −1 AP = D si y solo si las columnas de P son autovectores linealmente
independientes de A y la matriz D tiene en su diagonal los autovalores correspondientes.
 
λ1 0 . . . 0
   0 λ2 . . . 0   
 
Demostración. Sean P = v1 v2 ... vn yD = .. .. .. ..  = λ1 e1 λ2 e2 ... λn en .
 . . . . 
0 0 . . . λn
Supongamos que P −1 AP = D entonces (premultiplicando por P a ambos miembros), AP = P D.
Describiendo los productos AP y P D en términos de sus columnas:
   
AP = A v1 v2 ... vn = Av1 Av2 ... Avn , y
   
P D = P (λ1 e1 ) P (λ2 e2 ) ... P (λn en ) = λ1 v1 λ2 v2 ... λn vn .
Dado que AP = P D entonces sus correspondientes columnas son iguales, ası́:

Avj = λj vj , j = 1, 2, ..., n.

Las igualdades anteriores dicen que si vj ̸= 0, entonces vj es un autovector de A y λj es su


correspondiente autovalor. Los vectores vj son las columnas de la matriz invertible P , por lo tanto
son todos distintos de cero, y más aún, (Teorema 4.25) son linealmente independientes. Luego, las
columnas de P , v1 , v2 ,..., vn forman un conjunto de n autovectores linealmente independientes de A,
y los elementos λ1 , λ2 ,..., λn de la diagonal de D son sus correspondientes autovalores.

Material de uso interno Mateu-Semitiel 280


CAPÍTULO 7. AUTOVALORES Y AUTOVECTORES

Recı́procamente, supongamos que las columnas de la matriz P , v1 , v2 ,..., vn , son autovectores de


A (linealmente independientes) y los elementos en la diagonal de la matriz D, λ1 , λ2 ,..., λn son sus
correspondientes autovalores. Luego,

Avj = λj vj , j = 1, 2, ..., n.
   
Como AP = Av1 Av2 ... Avn y P D = λ1 v1 λ2 v2 ... λn vn , entonces las ecuaciones
anteriores muestran que las columnas de AP y P D son respectivamente iguales, lo que prueba que
AP = P D. Por hipótesis, las columnas de P son linealmente independientes y por lo tanto P es
invertible. Premultiplicando por P −1 a ambos miembros de AP = P D se obtiene

P −1 AP = D,

que es lo que se querı́a probar.

Actividad 7.4. Compruebe que para las matrices A, P y D del Ejemplo 7.9, las columnas de la
matriz P son autovectores linealmente independientes de A y la matriz D tiene en su diagonal los
correspondientes autovalores.

Del Teorema 7.6 se desprende el siguiente corolario que da una condición necesaria y suficiente para
que una matriz sea diagonalizable.

Corolario 7.3. Una matriz cuadrada A de orden n es diagonalizable si y solo si A tiene n


autovectores linealmente independientes.

Demostración. Si A es diagonalizable entonces existe una matriz P invertible y una matriz D diagonal
tal que P −1 AP = D. Luego, por el teorema anterior, las columnas de P son n autovectores linealmente
independientes de A.
Recı́procamente, si A tiene n autovectores linealmente independientes, entonces A es diagonalizable
ya que por el teorema anterior, una matriz P cuyas columnas son dichos autovectores es invertible y
satisface que P −1 AP = D siendo D la matriz diagonal de sus correspondientes autovalores.

Corolario 7.4. Una matriz cuadrada A de orden n es diagonalizable si y solo si existe una
base de Rn formado por autovectores de A.

Demostración. Es una consecuencia inmediata del corolario anterior ya que los autovectores de A son
vectores de Rn , y n vectores de Rn linealmente independientes forman una base de Rn .

Ejemplo 7.11. En la parte b) del Ejemplo 7.10 se vió que la matriz


 
a 1
A= , a ∈ R,
0 a

no es diagonalizable demostrando que no existe una matriz invertible P tal que P −1 AP es una matriz
diagonal.

Material de uso interno Mateu-Semitiel 281


CAPÍTULO 7. AUTOVALORES Y AUTOVECTORES

Aplicando el Corolario 7.3 se verá ahora que A no es diagonalizable mostrando que no es posible
encontrar dos autovectores de A que sean linealmente independientes.
El único autovalor de A es λ = a (de multiplicidad algebraica 2) por lo tanto los únicos autovectores
de A son las soluciones no triviales del sistema homogéneo (aI − A) x = 0, es decir N (aI − A).
Resolviendo el sistema,     
0 −1 x1 0
= ,
0 0 x2 0
se obtiene 
x1 = t
, t ∈ R.
x2 = 0
 
t
Los autovectores de A son todos los vectores con t ̸= 0. Por lo tanto,
0
    
t 1
Ea = : t ∈ R = gen .
0 0

Ası́, mg (a) = ν(aI − A) = 1 lo que prueba que el número máximo de autovectores linealmente
independientes asociados a a es 1. Ası́, no es posible encontrar dos autovectores de A linealmente
independientes y A no es diagonalizable.◀

En lo que sigue se darán una serie de criterios útiles de diagonalización. Por ejemplo, una matriz
cuadrada de orden n que tiene n autovalores distintos es diagonalizable. Para probar este resultado,
se requiere el siguiente lema que establece que autovectores correspondientes a autovalores distintos
son linealmente independientes.

Lema 7.1. Sea A una matriz de n × n. Si v1 , v2 ,..., vk son autovectores de A asociados a


autovalores distintos λ1 , λ2 ,..., λk , entonces v1 , v2 ,..., vk son linealmente independientes.

Demostración. Como los vectores vj (j = 1, 2, ..., k) son autovectores, éstos son distintos de cero. En
particular, v1 ̸= 0 y por lo tanto {v1 } es linealmente independiente. Consideremos el mayor entero
m tal que {v1 , v2 , ..., vm } es linealmente independiente. Claramente 1 ≤ m ≤ k, si se demuestra que
m = k se habrá probado el teorema. Ası́ que supondremos m < k y llegaremos a una contradicción.
Si m < k, el conjunto {v1 , v2 , ..., vm , vm+1 } es linealmente dependiente y dado que v1 , v2 ,..., vm
son linealmente independientes, entonces vm+1 debe ser combinación lineal de éstos (Lema 4.1). Ası́,
existen escalares c1 , c2 ,..., cm tales que

vm+1 = c1 v1 + c2 v2 + ... + cm vm . (7.2)

Premultiplicando por la matriz A:

Avm+1 = c1 Av1 + c2 Av2 + ... + cm Avm ,

y como Avj = λj vj (j = 1, 2, ..., k), entonces:

λm+1 vm+1 = c1 λ1 v1 + c2 λ2 v2 + ... + cm λm vm ,

Reemplazando vm+1 en la última igualdad por la expresión dada en (7.2) y operando, se obtiene:

c1 (λ1 − λm+1 ) v1 + c2 (λ2 − λm+1 ) v2 + ... + cm (λm − λm+1 ) vm = 0.

Material de uso interno Mateu-Semitiel 282


CAPÍTULO 7. AUTOVALORES Y AUTOVECTORES

Dado que v1 , v2 ,..., vm son linealmente independientes, entonces

cj (λj − λm+1 ) = 0, para todo j = 1, 2, ..., m,

y como todos los λj (j = 1, 2, ..., k) son distintos, entonces λj − λm+1 ̸= 0 para todo j = 1, 2, ..., m.
Ası́. necesariamente c1 = c2 = ... = cm = 0 y, de acuerdo a (7.2) el vector vm+1 es el vector cero. Sin
embargo, vm+1 es un autovector y por lo tanto es distinto de cero. Se obtuvo ası́ una contradicción por
suponer m < k, luego m = k y entonces {v1 , v2 , ..., vk } es un conjunto linealmente independiente.

Teorema 7.7. Si una matriz A cuadrada de orden n tiene n autovalores distintos entonces
A es diagonalizable.

Demostración. Tomando para cada autovalor un autovector se obtienen n autovectores de A que


corresponden a autovalores distintos. De acuerdo al lema anterior, estos n autovectores forman un
conjunto linealmente independiente y por lo tanto A es una matriz diagonalizable.

Ejemplo 7.12. Las siguientes dos matrices son diagonalizables:


   
0 1 0 2 5 1
A= 0 0 1  , B =  0 −3 9  .
4 −17 8 0 0 1

La matriz
√ A (dada√en el Ejemplo 7.6 de la sección anterior) tiene como autovalores λ1 = 4,
λ2 = 2 + 3 y λ3 = 2 − 3. Ya que A es de orden 3 y tiene 3 autovalores distintos, A es diagonalizable.
La matriz B es triangular, sus autovalores son los elementos de la diagonal λ1 = 2, λ2 = −3 y
λ3 = 1. Como B es de 3 × 3 y tiene 3 autovalores distintos, entonces B es diagonalizable.◀

El teorema anterior establece una condición suficiente para que una matriz sea diagonalizable y es
muy útil ya que identifica una clase amplia de matrices diagonalizables. Pero no es una condición
necesaria que los autovalores sean distintos para que la matriz sea diagonalizable. Un caso extremo es
la matriz identidad In que tiene solo el autovalor λ = 1, y claramente In es diagonalizable. Para que
una matriz de n × n sea diagonalizable debe tener n autovectores linealmente independientes, que no
significa tener n autovalores distintos.
El Lema 7.1 es un caso particular de uno más general: si λ1 , λ2 ,..., λk son autovalores distintos y se
elige un conjunto linealmente independiente de cada uno de los correspondientes autoespacios, el con-
junto formado por todos estos autovectores es linealmente independiente. Por ejemplo, si se toman dos
autovectores linealmente independientes de un autoespacio y tres autovectores linealmente indepen-
dientes de otro autoespacio, el conjunto formado por los cinco vectores es linealmente independiente.
El siguiente teorema prueba esta afirmación pero se omitirá en este momento su demostración.

Teorema 7.8. Sea A una matriz de n × n y λ1 , λ2 ,..., λk autovalores distintos de A. Si B1 ,


B2 ,..., Bk son subconjuntos linealmente independientes de los autoespacios correspondientes,
entonces el conjunto B = B1 ∪ B2 ∪ ... ∪ Bk es linealmente independiente.

En base a este teorema, se tienen los dos siguientes criterios de diagonalización:

Material de uso interno Mateu-Semitiel 283


CAPÍTULO 7. AUTOVALORES Y AUTOVECTORES

Corolario 7.5. Sea A una matriz de n × n y λ1 , λ2 ,..., λk todos los autovalores distintos de
A. Si B1 , B2 ,..., Bk son bases para los autoespacios correspondientes, entonces:
La matriz A es diagonalizable si y solo si el conjunto B = B1 ∪ B2 ∪ ... ∪ Bk tiene exactamente
n elementos.

Corolario 7.6. Sea A una matriz (real) de n × n que tiene n autovalores. Si λ1 , λ2 ,..., λk
son los autovalores distintos de A entonces:
La matriz A es diagonalizable si y solo si para cada λi la multiplicidades geométricas y
algebraicas son iguales. Esto es, mg (λi ) = ma (λi ) para cada i = 1, 2, ..., k.

Proceso de diagonalización
Los criterior anteriores nos permiten usar el proceso de diagonalización siguiente. Esto es, para una
matriz dada A, encontrar un par de matrices P invertible y D diagonal tal que P −1 AP = D, o mostrar
que A no es diagonalizable.
Sea A una matriz de n × n.
1. Obtener el polinomio caracterı́stico de A. Si alguna raı́z es compleja, el proceso termina puesto
que A no es diagonalizable. Caso contrario las n raı́ces (contando multiplicidades) son autovalores
de A.
2. Si los n autovalores son distintos, A es diagonalizable y se prosigue con el paso 4.
3. Si hay autovalores repetidos, y λ1 , λ2 ,..., λk son todos los autovalores distintos, obtener la
dimensión de cada autoespacio mg (λi ) y compararlo con ma (λi ).
Si para algún i = 1, 2, ..., k, mg (λi ) ̸= ma (λi ), el proceso se termina puesto que A no es diago-
nalizable.
Si en cambio mg (λi ) = ma (λi ) para todo i = 1, 2, .., k, entonces A es diagonalizable y se continúa
con el paso 4.
4. Para cada autoespacio, Eλi = N (λi I −A), obtener una base Bi . La unión de dichas bases forman
un conjunto B que consta de n autovectores linealmente independientes de A.
Una matriz P que tenga como columnas los n vectores de B y una matriz diagonal D que tenga
en la posición (j, j) el autovalor de A correspondiente a la columna j de P , diagonalizan a A.

Observación 7.3. Claramente no hay un único par de matrices P y D que diagonalizan a A. Si


se intercambian dos columnas de la matriz P y sus correspondientes autovalores en la matriz D, se
obtiene un nuevo par de matrices P ′ y D′ que también diagonalizan a A. Eventualmente D′ = D (si
los autovectores que se intercambian corresponden al mismo autovalor). Véase Ejemplo 7.9.

2 3 0
Ejemplo 7.13. Se aplicará el proceso de diagonalización para la matriz A =  4 3 0  . El poli-
0 0 6
nomio caracterı́stico de la matriz A es
λ − 2 −3 0
λ − 2 −3
det(λI−A) = −4 λ − 3 0 = (λ−6) = (λ−6)(λ2 −5λ−6) = (λ−6)2 (λ+1).
−4 λ − 3
0 0 λ−6

Material de uso interno Mateu-Semitiel 284


CAPÍTULO 7. AUTOVALORES Y AUTOVECTORES

Puede observarse que se calculó el determinante desarrollándolo según el último renglón, esto ayudó
a la factorización del polinomio caracterı́stico y por lo tanto a la búsqueda de sus raı́ces.
Las raı́ces del polinomio caracterı́stico son: 6 (doble) y −1. Ası́, la matriz A tiene solo dos autovalo-
res distintos λ1 = 6 y λ2 = −1 con ma (6) = 2 y ma (−1) = 1. Deben hallarse entonces las dimensiones
de cada autoespacio E6 y E−1 .
Para λ1 = 6, es E6 = N (6I − A).
   
4 −3 0 4 −3 0
6I − A =  −4 3 0 , una forma escalonada es  0 0 0 .
0 0 0 0 0 0

Puede observarse que ρ(6I − A) = 1 y luego ν(6I − A) = 2. Ası́,

mg (6) = 2 = ma (6).

Para λ2 = −1, es E−1 = N (−I − A).


   
−3 −3 0 −3 −3 0
−I − A =  −4 −4 0 , una forma escalonada es  0 0 −7  .
0 0 −7 0 0 0

Puede observarse que ρ(−I − A) = 2 y luego ν(−I − A) = 1. Ası́,

mg (−1) = 1 = ma (−1).

Por lo tanto, A es una matriz diagonalizable (que no tiene 3 autovalores distintos). Es claro que
toda matriz diagonal semejante a A tiene en su diagonal a 6, 6 y −1.
Se hallarán un par de matrices P y D que tales que P −1 AP = D. Para ello es necesario encontrar
una base para cada uno de los autoespacios.
Observando la forma escalonada de 6I − A obtenida, se encuentra que:
 3    3   
 4s   4 0 
E6 = N (6I − A) =  s  : s, t ∈ R = gen  1  ,  0  ,
   
t 0 1
 3
  
4 0
y dado que los vectores v1 =  1  y v2 =  0  son autovectores linealmente independientes
0 1
correspondientes a λ1 = 6, éstos forman una base para E6 .
Por otro lado, observando la forma escalonada de −I − A, rápidamente se encuentra:
    
 −t   −1 
E−1 = N (−I − A) =  t  : t ∈ R = gen  1  .
   
0 0
 
−1
El vector v3 =  1  es un autovector asociado a λ2 = −1 y {v3 } es una base para E−1 .
0

Material de uso interno Mateu-Semitiel 285


CAPÍTULO 7. AUTOVALORES Y AUTOVECTORES

Luego, las matrices    


0 −1
3
4 6 0 0
P = 1 0 1  y D= 0 6 0 
0 1 0 0 0 −1
diagonalizan a la matriz A.
Solo como comprobación el lector puede verificar que P −1 AP = D, que es equivalente a probar
que AP = DP .
Como se notó en la observación anterior, no existe preferencia respecto al orden de las columnas
para la matriz P ; solo debe tenerse en cuenta que un cambio en el orden de las columnas de P puede
provocar un cambio en la matriz D. Por ejemplo, si se hubiese tomado
 3 
4 −1 0
P = 1 1 0 
0 0 1

entonces la matriz diagonal correspondiente serı́a


 
6 0 0
D =  0 −1 0  ,
0 0 6

que es otro par de matrices que diagonalizan a A.◀

 
1 −1 4
Ejemplo 7.14. Sea la matriz A =  3 2 −1 . El polinomio caracterı́sitco de A es
2 1 −1

λ−1 1 −4
pA (λ) = det(λI − A) = −3 λ − 2 1 = λ3 − 2λ2 − 5λ + 6 = (λ − 1)(λ + 2)(λ − 3).
−2 −1 λ + 1

Como A tiene tres autovalores distintos λ1 = 1, λ2 = −2 y λ3 = 3, A es diagonalizable.


Para λ1 = 1, se tiene la matriz
 
0 1 −4
I − A =  −3 −1 1 ,
−2 −1 2

una forma escalonada equivalente es  


1 0 1
 0 −1 4  ,
0 0 0
   
 −1  −1
y ası́ el autoespacio E1 = N (I − A) = gen  4  . El vector v1 =  4  es un autovector
 
1 1
correspondiente a λ1 = 1, y B1 = {v1 } es una base de E1 .

Material de uso interno Mateu-Semitiel 286


CAPÍTULO 7. AUTOVALORES Y AUTOVECTORES

Para λ2 = −2, se tiene la matriz


 
−3 1 −4
−2I − A =  −3 −4 1 ,
−2 −1 −1
una forma escalonada es  
1 0 1
 0 1 −1  ,
0 0 0
   
 1  1
y ası́ el autoespacio E−2 = N (−2I − A) = gen  −1  . El vector v2 =  −1  es un autovector
 
−1 −1
correspondiente a λ2 = −2, y B2 = {v2 } es una base de E−2 .
Para λ3 = 3, se tiene la matriz
 
2 1 −4
3I − A =  −3 1 1 ,
−2 −1 4
una forma escalonada es  
1 0 1
 0 1 −1  ,
0 0 0
   
 1  1
y ası́ el autoespacio E3 = N (3I − A) = gen  2  . El vector v3 =  2  es un autovector
 
1 1
correspondiente a λ3 = 3, y B3 = {v3 } es una base de E3 .
Luego, las matrices
   
−1 1 1 1 0 0
P =  4 −1 2  y D =  0 −2 0  ,
1 −1 1 0 0 3
diagonalizan a la matriz A.◀

 
5 1 0 0
 0 5 1 0 
Ejemplo 7.15. Sea A = 
 0
. El polinomio caracterı́stico de A es
0 5 0 
0 0 0 2

pA (λ) = (λ − 5)3 (λ − 2),


cuyas raı́ces son 5 (triple) y 2. La matriz A tiene solo dos autovalores distintos λ1 = 5 y λ2 = 2 con
ma (5) = 3 y ma (2) = 1.
Para λ1 = 5, es E5 = N (5I − A). Entonces
 
0 −1 0 0
 0 0 −1 0 
5I − A = 
 0

0 0 0 
0 0 0 3

Material de uso interno Mateu-Semitiel 287


CAPÍTULO 7. AUTOVALORES Y AUTOVECTORES

y claramente tiene rango 3 y por lo tanto la tanto su nulidad es 1. Ası́, mg (5) = 1 ̸= ma (5). Luego, la
matriz A no es diagonalizable.◀

Potencia de matrices diagonalizables


El cálculo de las potencias, Ak , de una matriz A puede ser un trabajo muy tedioso. Pero esta cálculo
se facilita si A es diagonalizable y conocemos dos matrices P y D que la diagonalizan.
En efecto, D = P −1 AP y por lo tanto A = P DP −1 . Ası́,

A2 = (P DP −1 )(P DP −1 ) = P (DID)P −1 = P D2 P −1 .

Generalizando, para todo k ∈ Z+ ,


Ak = P Dk P −1 ,
y el cálculo de Dk consiste solo en elevar a la potencia k los elementos en la diagonal de D.

Ejercicios 7.2

1. En cada ı́tem, se dan n autovectores linealmente independientes y sus correspondientes autova-


lores de una matriz A de n × n.

a) Encuentre una matriz P y una matriz diagonal D, que diagonalicen a A.


b) Halle la matriz A.
   
1 1
i. u1 = , λ1 = 2 u2 = , λ2 = −3.
2 0
   
1 0
ii. u1 = , λ1 = 1 u2 = , λ2 = 2.
1 1
     
1 1 1
iii. u1 =  1 , λ1 = 3 u2 =  1 , λ2 = −3 u3 =  −2 , λ3 = 3.
1 −2 0

2. Use el criterio del Corolario 7.6 para probar que las siguientes matrices no son diagonalizables.
     
4 0 5 1 0 5 1 0 0
a)  0 5 0 0 
1 4 d)  0 5 1 
  f)  0 0 5 0 

1 1 0 0 5
b)
−1 −1   0 0 0 5
  7 1 0 0
2 1 0  0 7 1 0 
  e) 
 0 0 7 1 

c) 0 2 0
0 0 −3 0 0 0 7

3. En cada ı́tem pruebe que A es diagonalizable y encuentre todas las matrices diagonales semejantes
a A.

Material de uso interno Mateu-Semitiel 288


CAPÍTULO 7. AUTOVALORES Y AUTOVECTORES

 
2 3 0
a) A =  0 1 0 
0 0 2
 
4 2
b) A =
3 3

4. ¿Para qué valores de a ∈ R son diagonalizables las siguientes matrices?


     
1 0 0 1 0 0 1 0 0
a)  0 2 1  b)  0 0 1  c)  0 2 1 
0 0 a 0 a 0 a 0 0

5. En cada ı́tem se dan una matriz P invertible y una matriz D diagonal. Sin calcular A = P DP −1 ,
encuentre otras matrices P1 y D1 tales que A = P1 D1 P1−1 .
   
1 1 2 0
a) P = ,D=
2 −1 0 3
   
2 0 3 0
b) P = ,D=
0 4 0 0
   
1 1 1 −2 0 0
c) P =  1 1 0 , D =  0 3 0 
1 0 0 0 0 0
   
2 1 1 5 0 0
d) P =  1 2 0 , D =  0 −5 0 
−1 4 0 0 0 3

6. Para cada matriz del Ejercicio 6 de la sección anterior, indique si es diagonalizable. En caso
afirmativo encuentre un par de matrices que la diagonalizan.

7. Para cada matriz A halle, si es posible, una matriz P no singular y una matriz D diagonal tal
que AP = P D.
   
1 2 3 4 1 0 0
a) A =  0 1 0   0 4 0 0 
c) A = 
 0

2 1 2 0 4 0 
1 1 0 0
 
  0 −2 1 0
1 1 1  1 3 −1 0 
d) A = 
 0

b) A = 1 1 1 
 0 1 0 
1 1 1 0 0 0 1

8. Encuentre A9 para cada matriz A diagonalizable del ejercicio anterior.

9. Indique si las siguientes proposiciones son verdaderas o falsas. Justifique:

a) Si A es una matriz de 3×3 con dos autovalores distintos: 5 y 7, y ρ(5I −A) = ρ(7I −A) = 1,
entonces A es diagonalizable.

Material de uso interno Mateu-Semitiel 289


CAPÍTULO 7. AUTOVALORES Y AUTOVECTORES

   
1 0
  
b) Sea A una matriz de 3×3 con dos autovalores distintos, λ1 y λ2 . Si v1 = 0 y v2 = 1 
1 2
 
0
son autovectores correspondientes a λ1 y v3 =  0  es un autovector correspondiente a
1
λ2 , entonces A es diagonalizable.
 
2 0 0
c) Si A es una matriz de 3 × 3 y D =  0 0 0  es semejante a A, entonces el rango de A
0 0 2
es 2.
d ) Sea B una matriz semejante a A y P −1 AP = B. Si x es un autovector de A correspondiente
al autovalor λ, entonces P −1 x es un autovector de B correspondiente a λ.
e) Si A es una matriz diagonalizable entonces At es diagonalizable.
f ) Si A es una matriz invertible y diagonalizable, entonces A−1 es diagonalizable.

Material de uso interno Mateu-Semitiel 290


Respuestas a los Ejercicios

Capı́tulo 1 b) x1 = 292 − 2 t, x2 =
7 9
2 + 12 t, x3 = t, x4 = 0,
t ∈ R.
Sección 1.1 c) x = y = z = 0.
1. a) es lineal, no homogénea, coeficientes: 1, 3 d ) x1 = −3+s+2t, x2 = s, x3 = 8−t, x4 = t,
y −1, término constante: 5, variable delan- t, s ∈ R.
tera: x, variables libres y y z, conjunto so-
lución: {(5 − 3t + s, t, s) : t, s ∈ R}. 8. E1 ↔ E2

b) no lineal. E2 − 2E1 → E2 , E3 + E1 → E3

c) es lineal, homogénea, coeficientes: 1, E3 + 32 E2 → E3


−3, −5 y 1, término constante: 0, 3E4 → E4
variable delantera: x1 , variables li- Solución: x = y = z = 2.
bres x2 , x3 y x4 , conjunto solución:
{(3t + 5s − r, t, s, r) : t, s, r ∈ R}.
Sección 1.3
d ) es lineal, no homogénea, coeficientes: 0, 0,  
y 0, término constante: 9, variable delan- 1 1 1 −1
 2 1 −1 0 
tera: no posee, variables libres: no posee,  
conjunto solución: ∅. 1. matriz de coeficientes: 
 0 1 1 −1 , ma-
 1 1 1 1 
2. a) no tiene solución: a = 4, tiene infinitas 2 0 −1 1
 
soluciones: a = −4, tiene única solución 1 1 1 −1 −1
a ̸= ±4.  2 1 −1 0 0 
 
b) infinitas soluciones: para todo a ∈ R, no triz aumentada: 
 0 1 1 −1 1 .
existe a tal que posee única solución o no  1 1 1 1 4 
posea solución. 2 0 −1 1 0
c) no existe solución: a = −1, infinitas solu- 3. A, B, D, E, F , G y H están en forma escalo-
ciones: a ̸= −1, no existe a tal que posee nada; D, F , G y H están en forma escalonada
única solución. reducida. Columnas pivote de A: 1era, 2da y 4ta;
d ) infinitas soluciones: para todo a ∈ R, no columnas pivote de B: 1era y 2da; columnas pi-
existe a tal que posee única solución o no vote de D: 1era, 3ra y 5ta; columnas pivote de
posea solución. E: 1era; columnas pivote de F : 1era; columnas
pivote de G: 1era, 2da y 3era; columnas pivote
de H: 1era, 2da y 6ta.
Sección 1.2
 5. a) A ∼ B.

 −3x1 +x2 +x3 −x4 = 3

2x1 −x4 = 9 b) A y B no son equivalentes.
1.

 2x2 +x3 −x4 = −3 c) A ∼ B.

2x1 −x2 −x3 −x4 = −6  3

1 0 0 2
2. a = 32 , b = 52 . 7. a)  0 1 0 1 
2 es la forma escalonada
0 0 1 −2
5. 20 camisetas lisas y 25 estampadas.
reducida de A; columnas pivote de A: 1era,
6. a) x = −57, y = −24, z = −8. 2da y 3era.

Material de uso interno Mateu-Semitiel 291


CAPÍTULO 7. AUTOVALORES Y AUTOVECTORES

 
1 0 − 23 − 31 b) Sistema 1: x = 1, y = − 15 , z = 52 ; Siste-
b)  0 1 − 19 3 − 32  es la forma escalo- ma 2: x = 1, y = 15 , z = − 25 ; Sistema 3:
0 0 0 0 x = −2, y = 53 , z = 45 .
nada reducida de A; columnas pivote de
c) Sistema 1: x1 = 31 + 13 t, x2 = 23 t− 13 , x3 = t,
A: 1era y 2da.
  t ∈ R; Sistema 2: inconsistente.
1 3 2 −2
c)  0 0 0 0  es la forma escalonada
0 0 0 0 Capı́tulo 2
reducida de A; columnas pivote de A: 1era.
Sección 2.1
8. No. No. Es 15.
1. x = − 52 , y = − 65 , z = − 53
Sección 1.4  
−1 d ) (2, − 72 , 32 , 11
2 )
1. a) x1 = 1, x2 = 2, x3 = −2, x4 = −4. 2. a)  4   
3 −8
b) x = t − 2, y = 5 + z − t, w = −4 − z + t, e)  −6 
z ∈ R, t ∈ R. b) (−4, 4, −2, 4)
  32
−3
c) inconsistente.  −3 
d ) x1 = x2 = x3 = x4 = 0. c) 
 3 
 f ) no es posible

e) x1 = 8
+2t, x2 = 7
x3 = 3+3t, t ∈ R. 0 g) (0, 0, −3, 3, −15)
3 3 +2t,
   
f ) x = −15 − 143 t+
14
3 s, y = −6 − 35 t + 11
3 s, 0 3/4
z = t, w = s, s, t ∈ R.  5/2   1/4 
4. a)   −13/2 
 c) 
 −1/2 

2. 32 de AA1, 25 de AA2, 17 de AA3 y 20 de B1.
1 1
3. Sı́, es posible.  
−3 d ) no es posible.
  −5 

 x1 +x2 = 800 b)  

  8 
 x2 −x3 +x4 = 300
4. a) x4 +x5 = 500 −4



 x1 +x5 = 600
 5. a) Sı́ lo es, b = 2a1 + 3a2 + 0a3 .
x3 = 400
Solución: x1 = 600 − x5 , x2 = 200 + x5 , b) No lo es.
x3 = 400, x4 = 500 − x5 , 0 ≤ x5 ≤ 500. 4 1 1

c) Sı́ lo es, b = 3 + 3 t + 3 s a1 +
b) x1 = 20, x2 = 20 + x4 , x3 = −80 + x4 ,
3 − 3 t − 3 s a2 + ta3 + sa4 , s, t ∈ R.
4 5 2
x4 ≥ 80.
d ) No lo es.
5. 2a − b + c = 0. 6. a = ±1
6. a) no existen µ y λ 
14 , − 7 , 7
17 17 8
7. a)
b) µ = 2, λ ∈ R. m1 = 21 2 − 4 t, − 14 t, m3 = t con
15 3
b) m2 = 2
14
c) µ ̸= 2, λ ∈ R. 0<t< 5.
7. a) α ̸= 2 y α ̸= 3
Sección 2.2
b) α = 2. Solución: x = 5
4 + 54 t, y = 1
4 − 34 t,
z = t, t ∈ R. 1. x = 1, y = 31 , z = − 32
 
c) α = 3. −3 5
2. a)
−2 −2
8. Inconsistente: b = 2 y a ̸= 0; Infinitas soluciones:  
b = 2 y a = 0; Única solución: b ̸= 2 y a ∈ R. −3 −6 −27
b)
−9 −6 15
9. a) 4 y 6 b) 0 y −2 c) no es posible
 
−10 12 4
10. a) Sistema 1: x = 2, y = 1; Sistema 2: incon- d )  −10 −4 −2 
sistente; Sistema 3: x = −1, y = 1. 2 2 0

Material de uso interno Mateu-Semitiel 292


CAPÍTULO 7. AUTOVALORES Y AUTOVECTORES

 9
  9 9

1 2 1 0 2 2
4. a)
−4 0 −3 16.  3
2
9
2 3 
 1 8 2
 3 15 3
2 2
b) 10 5 5
− 85 − 10
3
− 10
13
17. A, O4 y C.
 
−1 −4 2
c) 18. A, O4 y C.
4 3 7
   
− 16 5 1 56 40 0
19. a)  80 56 0 
d) 6 6
−1 − 12 −1
16 24 −8
5. a) −15 c) 7  
1 1 1
b) 35 d ) −14
b)  20 15 4 
5 4 0
6. a = −6  
  −41 −42 −22
−8 0 −4 c)  −40 −33 −28 
7. a)  4 0 2  −26 −40 −3
12 0 6  
2 0 0
b) [0]
  d)  0 2 0 
2 2 −8 0 0 2
c)
−12 0 −6
21. No, no es cierto.
d ) no es posible
 
−6 10
e) 22. a) Falso d ) Verdadero
−3 −1
  b) Falso
3 −7 2 c) Verdadero e) Falso
f )  4 −3 2 
−2 −9 −2
8. 6 Sección 2.3
   
1 − 14
1 3
1. a) A−1 = 14
9.  5 
2
7
1
7
−10 b) A no es invertible
   
5 1 0 1
11. a)  0  c) A−1 =  − 12 12 − 21 
10 − 31 13 − 32
 
6 d ) A no es invertible
 −3   
  1 0 0
b) 
 −1 

 −3  e) A−1 =  0 − 18 0 
0 0 3
7  1 
    5
−1 − 65
2 −4   1 
3 6
x 0 1 −1 0 
12. a)  1 1  = 0  f ) A−1 =  − 1 − 11 5 

y 1
−1 −3 4 9 18 18
    
2
9
13
18 −1 − 18
1

1 −4 −1 x1 0
g) A no es invertible
b)  2 1 3   x2  =  1   
−1 1 2 x3 2 6 −5 6 −3
  6 −6 7 −3 
 −2x + 2z = 4 h) A−1 =  −2

2 −2 1 
13. 3x + y + z = 1 ; x = − 56 , y = 7
3, z = 76 . 1 −1
 1 0
−x + y − z = 2
 1 1

2. 5 5
14. a) sı́ b) sı́ c) no − 10
3 3
10

Material de uso interno Mateu-Semitiel 293


CAPÍTULO 7. AUTOVALORES Y AUTOVECTORES

 
4 1 −2 2. a) 26 g) 9
3. A2 =  1 9 1 , √
b) −2 2 h) −3
1 3 0
 
−7 1 4 c) 0 i ) 96
A3 =  7 28 1 , d ) 24 j ) −30
1 9 1
  e) −14 k ) 120
−3 −6 19
A−2 =  1 2 −6 , f ) −1 l ) −243
−6 −11 35
  3. a) 2. b) 2, 3, 23 . c) 6, 5.
19 35 −111
A−3 =  −6 −11 35 
35 64 −203
Sección 3.2
1. a) la columna 3 es una columna cero.
4. a ̸= 4 b) los renglones 1 y 3 son iguales.
c) la columna 4 es −2 por la columna 2.
5. a) no es posible calcular la inversa de la ma-
triz de coeficientes 2. a) 8 b) 10 c) −2

b) sı́ es posible calcular la inversa de la ma- 4. |B| = 3, |C| = −3, |D| = 6, |E| = −48,
triz de coeficientes; x = −b + b2 + b3 , |F | = −243, |G| = − 27
16
, |H| = −81.
y = −b + b3 , z = b2 − b3
  5. a) −2 d ) −2
1
2 − 72 b) 4 e) −4
7. a)
0 1
c) −54 f ) −2
 
1 2 −1
b)
0 −1 3 6. A, B y C son invertibles; D es singular.
  √ √
−3 −3 −7 7. a) a = ̸ −4 ± 6 b) a ̸= −1 ± 33
3
c)  0 0 20 
0 0 −6 8. a) B es invertible.
  b) |2B t | = −960, |ABC| = 360,
−5 23 4 |DA + DB| = 0, −A4 = 16, −(3A)2 =
d )  5 −20 −3  26244
−3 14 2
9. λ = 2 ó λ = −1.
 
1/10 −7/10
e)
7/20 11/20 Sección 3.3
 3 1

1. a) 7 7
11. a) Falso d ) Falso 1
− 21
2
21
b) Verdadero b) no es invertible.
c) Verdadero e) Verdadero  
2
5 − 25 − 15
c)  − 101 1
10
3 
10
7 3
− 10
1
 10 10

Capı́tulo 3 1
2 − 12 0
d)  −2 1 5
1 
2
Sección 3.1 −2 1 3
2 1
2. a) Es posible; x = 27 8
5 , y = 15 .
1. a) M11 = −6, C11 = −6, M12 = 4, C12 = −4,
M13 = 8, C13 = 8, M21 = −1, C21 = 1, b) Es posible; x1 = 45 , x2 = 25 , x3 = 11
4 .
M22 = 5, C22 = 5, M23 = −3, C23 = 3, c) No es posible; inconsistente.
M31 = −16, C31 = −16, M32 = 2, C32 = d) Es posible; x1 = −4, x2 = −2, x3 = 1.
−2, M33 = 4, C33 = 4. 3. x = a cos θ + b sen θ, y = b cos θ − a sen θ.
b) 26. 4. a ̸= 0

Material de uso interno Mateu-Semitiel 294


CAPÍTULO 7. AUTOVALORES Y AUTOVECTORES

Capı́tulo 4 5. El espacio generado por las matrices A y B


es
 el conjunto de las matrices de la forma
Sección 4.1 −t − 43 s −t − 54 s
con t y s en R.
t s
3. a) es un espacio vectorial.
b) no es un espacio vectorial. 6. a) Sı́. b) Sı́.
c) no es un espacio vectorial.
d ) no es un espacio vectorial.
7. a) Sı́, lo genera. d ) Sı́, lo genera.
e) es un espacio vectorial.
b) Sı́, lo genera. e) Sı́, lo genera.
c) No lo genera. f ) No lo genera.
Sección 4.2
1. a) es un subespacio.
b) no es un subespacio. 8. a ̸= 0.
c) es un subespacio.
d ) es un subespacio. 10. a) gen {(2, 0, 0, −1), (0, 0, 1, −3), (0, 0, 0, 1)}
       
e) no es un subespacio. 
 1 −1 1 −3  

 
f ) es un subespacio.     
 1   0   0   0 
  
    
b) gen  0  ,  1  ,  0  ,  0   
g) no es un subespacio. 
    0   1   0  

 0 

h) es un subespacio.  
0 0 0 1
i ) no es un subespacio. 
c) gen 1 + x2 , − x + x2
j ) es un subespacio.
k ) es un subespacio. d ) gen {2, cos x}
     
l ) es un subespacio. 2 0 0 1 0 1
e) gen , ,
m) es un subespacio. 0 0 0 0 −1 0
n) es un subespacio.
11. a) Falso c) Falso
3. a) no es un subespacio.
b) Verdadero d ) Verdadero
b) es un subespacio.
c) es un subespacio.
d ) no es un subespacio. Sección 4.4
e) es un subespacio.
1. a) linealmente dependiente.
Sección 4.3 b) linealmente independiente.
 
1. a) Sı́, u = 2 + 29
2 tu1 + −2 − 79
2 t u2 + c) linealmente independiente.
3 + 51
2 t u 3 + 1 − 33
2 t u4 + tu 5 , t ∈ R.
  d ) linealmente independiente.
b) Sı́, u = − 27 + 2t u1 + − 10 7 − t u2 +
(4 − 2t) u3 − 97 u4 + tu5 , t ∈ R. e) linealmente independiente.
c) Sı́, u = 2u1 + (2 + t) u2 + (−3 − 2t) u3 +
(−2 + t) u4 + tu5 , t ∈ R. f ) linealmente dependiente.

2. a) Sı́, p4 = 4p1 + 4p2 − 5p3 . g) linealmente independiente.


b) No. h) linealmente dependiente.
c) No.
i ) linealmente independiente.
3. Para todo a = − 43 , b = 10
3 , c = 76 .
4. El plano en el espacio de ecuación 3x+y +z = 0. 2. a y b reales tales que a ̸= b.

Material de uso interno Mateu-Semitiel 295


CAPÍTULO 7. AUTOVALORES Y AUTOVECTORES

Sección 4.5 3. a) x = (1, 2, −5)


b) x = (6, 7, 5)
1. a) es base. c) no es base.
b) no es base. d ) no es base. c) x = (8, −1, −6)

4. a) p = −8 − x
2. a) no es base. c) es base.
b) no es base. b) p = −3 + x + 2x2
c) p = 6 − 11x − 3x2 + 4x3
3. a) es base. c) no es base.  
b) no es base. d ) no es base. 20 16
5. a)
16 24
 
6. a) 2 f) 2 2
b) 2  1/2 
g) 3 b) 
 1/2 

c) 2
d) 2 h) 2 9/4
e) 3 i) 4 6. a) S = {ex , e−x }
 
7. a = 3 1/2
b)
1/2
8. 2
 c) g(x) = senh x
9. Una base: ex , xex , x2 ex ; dimensión 3.  
−13/6 5/6
10. 2 8. a)
      −2/3 1/3
 1 2 −1   
11. a)  1  ,  −1  ,  3  0 0 1
  b)  1 0 0 
0 3 4
0 1 0
b) {1 + x, −5x}  
4/11 5/11
12. a) {(1, −1, 3), (1, 0, 0), (0, 1, 0)} c)
        1/11 4/11
1 2 −1 1 1 0 0 0  
b) , , , 1 1 1 1
1 0 3 0 0 0 0 1
 0 1 1 1 
13. a) Verdadero g) Verdadero d) 
 0 0 1 1 

b) Verdadero h) Verdadero 0 0 0 1
c) Falso i ) Verdadero  
3 15 2
3
2
d ) Falso j ) Verdadero 9. a)  −3 −5 −2 
e) Verdadero k ) Verdadero −1 −3 0
 
f ) Verdadero l ) Verdadero −2 − 23 − 25
b)  23 1
2
1 
2
4 1 5
Sección 4.6 3 2 2
   
2  √ 
1. 3 √2 −3/2
1 10. a) b)
2 3/2
 
−1
 
2. a)  3  −1/2
5  1/4 
  11. a) 
 1/4 

−11/7
b) −1/8
2/7
   
−3 1 0 1/2 0
 2   0 1/2 0 3/4 
c) 

 b)  
−5   0 0 1/4 0 
4 0 0 0 1/8

Material de uso interno Mateu-Semitiel 296


CAPÍTULO 7. AUTOVALORES Y AUTOVECTORES

Sección 4.7 rango 2; nulidad 3.


1. a) una base para el espacio de renglo- c) una base para el espacio de renglones
nes {(3, −2, 8, 2, 1, 4), (0, 0, −8, 5, 0, −10), {(3, 2, −1), (0, −1, 7)};
 unabase
 parael es-
(0, 0, 0, 0, 0,2)}; 
 3 2 

 una base
 para  el
 espacio de   3 
 3 8 4   6 
  
pacio de columnas  , ; una
columnas  0  ,  −8  ,  −10  ;  3   1 
 
   
0 1
0 0 2 
una
 base
  para el espacio  nulo  −13 

 2/3 −7/3 −1/3 
 base para el espacio nulo  21  ;

  1        

   0   0   3
  0   5/8     rango 2; nulidad 1.
 , , 0 
 0   1   0 
; ran-      

         −1 1 2 

 


 0   0   1  
 3. a) col(A) = gen  2  ,  2  ,  4 
   
0 0 0 0 1 2
go 3; nulidad 3. ren(A) = gen {(−1, 1, 1, 2), (2, 2, 2, 4), (0, 1, 1, 2)}
b) una base para el espacio de renglones b) {(−1, 1, 1, 2), (0, 1, 1, 2)}
{(2, −3, 5), (0, 0, 8)};
 una base
 para
el es-    
 2 5   −1 0 

  c)  2  ,  4 
0   8   
pacio de columnas    ,   ; una
 0   0 
  
0
 
1

 
0  0  −1 1 
 3  d)  2  ,  2 
 
base para el espacio nulo  2  ; rango 0 1
    
0  0 

 

2; nulidad 1. −t − 2s 
e) N (A) =   : t, s ∈ R ; una
c) una base para el espacio de columnas   t  

 

{(3, −1, 2, 1), (0, −4, 3, 5), (0, 0, 2, 1), (0, 0, 0, 10)}; s
   
una
  base
 para el espacio   de columnas
 
 0 0 
 

 3 −1 2 1   −1  
 ,  −2 
        base para N (A) es 
 0  ,  −4  ,  3  ,  5  ; el 


 1   0 


  0   0   2   1 

 
 0 1
0 0 0 10
f ) ρ(A) = ν(A) = 2
espacio nulo es el espacio cero; rango 4;
nulidad 0. g) a está en col(A) pero b y c no lo están;
a = (−1)c1 + (−t − 2s)c2 + tc3 + sc4 ,
2. a) una base para el espacio de renglo- t, s ∈ R, donde ci (i = 1, 2, 3, 4) son las
nes {(1, 2, −3), (0, −3, −3), (0, 0, 14)}; columnas de A.
una
  base para
 el espacio
 de
 columnas    
−3  1 3
 1 2 4. a) ,
 2  ,  4  ,  8  ; el espa- −1 4
  b) {(1, −1, 0), (1, 2, 1), (0, 1, 1)}
−1 −5 0
     
cio nulo es el espacio cero; rango 3; nulidad  1 3 −5 

   
0. 2   1   1 

c)   ,   ,  
b) una base para el espacio de renglo- 
 3 4   −4  
 
nes {(0, 2, −3, 1, 2), (0, 0, 0, 4, 3)}; una 1 0 0
base
 para   el espacio de columnas 5. a) {1 − 3x, 4x}
 2 1  
 −2  ,  3  ; una base para el es- b) −1 + 2x2 , x − x2
  
4  6
      c) 1 − 2x − 3x2 + x3 , x + 2x2 , 3 − 2x − x2 + 2x3
 1
 0 0 
      

  −1 0 1 −1 −1 1
    
 0   3/2   −5/2 
 6. a) , ,
pacio nulo  0
  
, 1 , 0  ;
   
1 0
 
0 0
 
1 0
  

  0   0   −3/4  

 
 1 1 1 1 1 1 1 0
  b) , , ,
0 0 1 1 1 1 0 0 0 0 0

Material de uso interno Mateu-Semitiel 297


CAPÍTULO 7. AUTOVALORES Y AUTOVECTORES

     
1 −2 1 0 −2 2 0 −2 2Sección 5.2
c) , ,  
0 0 0 2 4 6 2 6 7 √ √ √
5. a) 5; 77; 13; 56; arc cos √13 ≈ 28, 5◦
      385
 1 2 −1  
 3 , 0 , 1  c) 15 2 t, t , t ∈ R
7. a)
  
1 −1 0 d ) 7765
, − 13
77
 √ √
b) 1 + 3x − x2 + x3 , 1 + x + x3 , 2 + x2 + x3 , 6. a) 10; 17; 14
 
x + x3 b) arc cos √10 ≈ 49, 7◦
        239
1 1 2 0 1 3 1 0 c) p = p(x)
c) , , ,
0 1 1 1 −1 1 0 1
d ) 40 10
17 + 17 x
       

 1 0 1 0   e) 40
17 + 7 x
10
       
−1   1   0   1  √ √
8. a) i.   2  ,  1  ,  0  ,  0  7. b) i. 120; 19; 36 2; 19

   
 
3 −1 0 0 ii. arc cos 3√ 10
≈ 57, 3◦
          38

 1 1 0 1 0  iii. − 120 240

  1   1   0   0   0   19 + 19 x
          iv. r(x) = a + bx + cx2 tal que 6a + 15b +
ii.   0 , 1 , 2 , 0 , 1 
          24c = 0; por ejemplo: r(x) = −4 + x2

  0   1   2   0   0  


 
 (a = 0, c = 1).
0 1 1 0 0 q q
 π3 e2π −1

b) i. 1 + x + x , − 2 + x + x , x + x , 1
3 2 2 3 8. a) 3 ; 2 ; 2
       3 1/2
1 −2 0 −2 0 2 b) π3 − 2eπ (π − 1) + e 2−5

ii. , , ,
 0  0 2 4 0 1
π
1 0 c) 2e e(π−1)+2
2π −1 ex
0 0 d ) No.
   
 −1 0 
9. a)  1 , 0  Sección 5.3
   
0 1 27
      1. [v]B =  −1 
 −1 0 1 
 1 , 0 , 0  −9
b)
 
0 1 0
2. a) (−1, 4, 0) b) (6, 4, 1)
c) No.

3. a) v = w1 + w2 , w1 = − 
4
3 , 2, − 4 4
3 , 3 ∈ W
10. 235
y w2 = 3 , 1, 3 , − 3 ortogonal a W;
16 13 7

13. Sı́. d (v, W) = 5 319 .
b) v = w1 + w2 , w1 = (5, 2, 3, 6) ∈ W y w2 =
√ 2, 2, 0) ortogonal a W; d (v, W) =
(−2,
Capı́tulo 5 2 3.

4. a) (3, −1, 1, −1); 2 6.
Sección 5.1 √
√ √ b) (−1, −5, −3, 9); 170.
1. 3; 7; −11; 8; (0, − 43 , 83 , 34 )
17; n   √ √ √ o
5. a) 0, √25 , √15 , √8 6095 √ 5 , − 34
, 517 √ 5
  609 5 609
3. arc cos − 315
11
≈ 92◦ ; arc cos 51 4
≈ 85, 5◦ n 
b) √ , √ ,− √ , √
3 1 1 3
,
 2 5 2 5 2 5 2 5
4. a) Sı́ b) No c) Sı́ 1
√ , √ 3
, √3
,− √ 1
,
2 5 2 5 2 5 2 5 o
− 2√ 3
, √ 1
, √1
5 2 5 2 5 2 5
3
, √
8. a) Verdadero c) Verdadero n   q o
b) Verdadero d ) Verdadero c) √1 , √1 , 0 , − √1 , √1 , 2
2 2 6 6 3

Material de uso interno Mateu-Semitiel 298


CAPÍTULO 7. AUTOVALORES Y AUTOVECTORES

 √ 
 −3/√ 10  Capı́tulo 6
d )  1/ 10 
 
0 Sección 6.1
n  o
e) √1 , √3 , 0 , (0, 0, 1) 1. a) DT = R2 ; CT = R3
10 10
     b) (−4, 3, 0), (3, −1, 0) y (0, 0, 0).

 1 −11/41 

   q   c) (0, 0)
√2 
0  , 41  1 
f) 41  3  62  

 8/41  d ) No.
 
1/2 −26/41 e) {(a, b, 0) : a, b ∈ R}
n q
g) √15 (2, 1, 0, 0), 14 5
(− 35 , 56 , 1, 0) 2. a) sı́ g) sı́
o
√7 ( 1 , − 1 , 3 , 0) b) no h) no
2 14 7 14

 c) sı́ i ) sı́
6. a) 1 + x − x2 , 23 + 23 x + 43 x2 − x3 ,
d ) sı́ j ) sı́
11 − 11 x + 11 x + 11 x
8 3 5 2 10 3

 e) no k ) sı́
b) 1 + x, 12 − 12 x + x2
f ) sı́ l ) sı́
   
7. a)
1 1 0
,
1 1 1
,  
0 1 −1 1 0 2 −1
 1   −2 
− 4 − 14 − 54 3. b)  
3 1  1 
4 1 2
   1  3
 1 0 0 − 3 1 −1   
 
b)  0 1 0  ,  0 23 0  x1
2x1 + 3x2

0 0 −1 0 0 1  4. a) n = 2, m = 3, T =  −x1 + 5x2 
3 x2
4x2
8. a) {x, ex − 3x}  
x1
  x2 
b) x, 1 − 32 x, 21
4
− 57 x + x5 b) n = 4, m = 1, T  
n o  x3  = x1 −2x2 +5x3 +
2 sen2 1
c) sen x, cos x − 2−sen 2 sen x x4
3x4
  
609 , − 609 , 609
184 809 209 425 200 400
9. a) 609 , 609 , 609 ; 5. a) 25 y − 52 x, 32 y + 12 x
 
2, −2, 2, 2 2, −2, −2, 2 b) R2
1 1 3 1 1 1 1 1
b) ;

6. T (x1 , x2 , x3 ) = −x1 − 21 x2 + 12 x3 , x1 + x2 + x3
9 + 3 x + 9 x + 9 x ∈ W;
13 1 7 2 5 3
10. a)
− 9 + 3 x + 9 x + 49 x3 ∈ W⊥
4 2 2 2
7. b−a 5a−b 2
4 (1 + x) + 8 x
b) − 12 + x − 21 x2 ∈ W; 8. x + 21 x2 + 13 x3 , −x + 41 x4 y x2 .

2 − 2x ∈ W
1 1 2

 5 5 2
 10. a) Falso. c) Falso.
11. a) 14 14 7 b) Falso.
3 1 11
7 14 14
 
− 43
1
4
3
4 Sección 6.2
b)  0 − 21 0 
0 0 − 341 1. a) {(0, 0)}
  c) gen {−1 + x}
12. 52 − 6e−15
e2 −7 x + 2e−5
e2 −7 e
x
d ) {(0, 0, 0)}
15. c) i. {(−2t, t, t) : t ∈ R}; {(−2, 1, 1)} f ) gen {1}
ii. {(−s, −t − s, t, s) : s, t ∈ R}; i ) {O}, donde O es la matriz cero de n × n
{(−1, −1, 0, 1), (0, −1, 0, 1)} 2. a) ker(T ) = {(0, 0)}; R(T ) = gen {(1, 0, 0),
iii. {(0, −t, t, 0) : t ∈ R}; {(0, −1, 1, 0)} (0, 0, 1)}; ν(T ) = 0; ρ(T ) = 2.

Material de uso interno Mateu-Semitiel 299


CAPÍTULO 7. AUTOVALORES Y AUTOVECTORES

   
b) ker(T ) = {(0, 0, 0)}; R(T ) = R3 ; ν(T ) = 0; 
 0 1 

   
1   0
ρ(T ) = 3. g) ker(T ) = gen   0 , 0
 ; R(T ) =

 
 
c) ker(T ) = gen −1 − x, − 1 − x2 ;  
0 1
R(T ) = gen {x}; ν(T ) = 2; ρ(T ) = 1.
  R ; ρ(T ) = 2; ν(T ) = 2.
2

0 1
d ) ker(T ) = gen ; R(T ) =
−1 0 8. a) 2 b) 1 c) 2
 ′ ′  
a b ′ ′ ′
∈ M2 : a , b , c ∈ R ; ν(T ) =
0 c′ 9. R4
1; ρ(T ) = 3.
 11. {a : a ∈ R}
e) ker(T ) = gen −1 + x + x2 ; R(T ) = R2 ;
ν(T ) = 1; ρ(T ) = 2. 12. {bx : b ∈ R}
f ) 
ker(T ) = gen {(1, 1, 0)}; R(T
 ) =
a′ 0 0 ′ ′ Sección 6.3
∈ M2 : a , b ∈ R ;  
b′ 0 b′ 0 1
ν(T ) = 1; ρ(T ) = 2. 1. a) n = 2, m = 3, A =  −1 0 
3. ρ(T ) = 2 y ν(T ) = 2. 1 3
b) n = m = 2, no es lineal
4. ker(T ) = {0}; R(T ) = P2 ; ν(T ) = 0; ρ(T ) = 3.
c) n = 3, m = 2, no es lineal
5. b) ρ(T ) = 2 y ν(T ) = 2.  
d ) n = 2, m = 1, A = 3 0
   
0 1 2 −1 1
6. a) ker(T ) = ; R(T ) = R2 ; ρ(T ) = 2;
0 e) n = 4, m = 3, A =  0 1 1 0 
ν(T ) = 0. −1 0 0 0
   
1 0 0 0
b) ker(T ) = gen ; R(T ) =
  1  0 0 0 
1 f ) n = 3, m = 4, A =   0 0 0 

gen ; ρ(T ) = 1; ν(T ) = 1.
−1 0 0 0
     
 −1  0 1 0 0
c) ker(T ) = gen  1  ; R(T ) = R2 ; 2. a) A =
−1 0
c) A =
0 1
     
3
1 0 1/2 1/2
ρ(T ) = 2; ν(T ) = 1. b) A = d) A =
  0 0 1/2 1/2
d ) ker(T ) =
0
; R(T ) = " √ √ #  
0 2
− 2 0 −1
    3. a) A = √2 2 √2 c) A =
 1 1  2 1 0
gen  −2  ,  2  ; ρ(T ) = 2;
2 2
" √ # " √ #
  1
− 3 3 1
1 −1 b) A = √23 2 d) A = 2 √2
ν(T ) = 0. 1
− 1 3
  2 2 2 2
 1   1   
0 1 0
e) ker(T ) = gen  1  ; R(T ) = 4. a) A = 2 b) A =
  0 1 0 3
   1
 1 0 
5. a) expansión de un factor 2 en la dirección de
gen  2  ,  1  ; ρ(T ) = 2;
  la coordenada x.
−1 −1
ν(T ) = 1. b) reflexión con respecto a la recta y = x
   
 1 −2  c) reflexión con respecto a la recta y = −x
f ) ker(T ) = gen  1  ,  0  ; R(T ) = d ) proyección ortogonal sobre el eje x
 
 0 1
 e) proyección ortogonal sobre el eje y
 1 
gen  −2  ; ρ(T ) = 1; ν(T ) = 2. f ) rotación alrededor del origen de coordena-
  das un ángulo θ = 45◦
−1

Material de uso interno Mateu-Semitiel 300


CAPÍTULO 7. AUTOVALORES Y AUTOVECTORES

   3 9 
Sección 6.4
4
3 −3 −2 2
  15. a) P = ,Q=
2
−1 −1 2
−1 −1 3
 
1. a)  1 1  5 −9
0 −1 b) [T ]B ′ = 4
−2
  3
2 0  2   
b) −3 1
−1 1 c) [T (v])]B = , [T (v])]B ′ = 2
  0 3
0 −1 1
c) 1
1 − 21
 2 
1 2 0 0
d)
0 0 1 2
2. T (a + bx + cx2 ) = (−a + b + 4c) + (a + 3b + 4c)x Capı́tulo 7
3. T (a + bx + cx ) = (c − a) + (a + 2b + c)x
2
  Sección 7.1
a b
4. T =
c d 1. u es un autovector y 5 es su correspondiente au-
(5a + 3b − 3d, −3a − 2b + d, −2a − 2b + c + d, tovalor; v es un autovector y 0 es su correspon-
2a + b + c − d) diente autovalor; w no es autovector.
5. 2. ρ(T ) = 2, ν(T ) = 1
4. ρ(T ) = 4, ν(T ) = 0 2. u + v no; cu sı́.
6. ker(T ) = gen {(1, 1, 3)} 3. λ1 = 1, λ2 = 2;
R(T ) = gen {1 + x, − 1 + 3x} λ1 = 0, λ2 = −1;
 
0 0 0 λ1 = 5, λ2 = −5.
 0 0 0 
  

7. a)   1 1 4 
 1
 0 2 5  4. Para λ1 = −6, u =  −t  con t ̸= 0.
1 3 1  t
b) −3x2 + 5x3 − 2x4 0
        Para λ2 = 4, v =  2t  con t ̸= 0.
3 −2 1 0 3t
8. a)  1 ,  6 ,  2  y  1   
t
−3 0 7 1 Para λ3 = 7, w =  0  con t ̸= 0.
b) (11, 5, 22), (−42, 32, −10), (−56, 86, 17) y 0
(−13, 17, 2).
   
60 z − 60 x − 15 y − 60 w,
c) T (x, y, z, w) = 1217 373 82 229
  −1 −1 
 1 , 0  .
4 w − 4 x + 12y − 4 z, 6 w − 6 x + 3 y +
51 25 79 91 59 2 37 5. E = gen
6 z 2
 
0 1
10. I3
   
′ 0 −3 2 −1 6. = λ2 − 5λ;
a) p(λ) 
12. a) A = ,A=  λ1 = 0 y λ2 = 5; 
base para

−1 −1 −1 1 −2 1
    E0 : ; base para E5 : ;
1 0 0 1 0 0 3 1
b) A′ =  0 3 0 , A =  1 2 0  mg (0) = ma (0) = 1 y mg (5) = ma (5) = 1.
0 0 2 1 1 3
 5 3    b) p(λ)
 =λ2 +6λ+9; λ1 = −3; base para E−3 :
′ 2 2 4 1 3
c) A = 5 3 , A = ; mg (−3) = 1 y ma (−3) = 2.
2 2 0 0 1
 
−5 −6 c) p(λ) = λ2 − (a + b)λ;
13. B ′ = {(2, 1), (1, 1)}, [T ]B ′ =  λ1 = 0 y λ2 =
2 2 −b

 a + b; base para E0 : ; base pa-
14. B = 1  2 2
+ x + 2x , 1 + x ,1 + x ,   a
− 52 − 32 − 23 ra Ea+b :
1
; mg (0) = ma (0) = 1 y
[T ]B ′ =  7 3 5  1
3
2
5
2 − 3
2
mg (a + b) = ma (a + b) = 1.

Material de uso interno Mateu-Semitiel 301


CAPÍTULO 7. AUTOVALORES Y AUTOVECTORES

 
d ) p(λ) = λ3 − 6λ2 + 11λ−6; λ1=1, λ2 = 2 y 1 1 1
 1  iii. P =  1 1 −2 ,
λ3 = 3; base para E1 :  0  ; base para 1 −2 0
   
0 3 0 0
   
 1   0  D =  0 −3 0 ,
E2 :  1  ; base para E3 :  0  ;  5
0 0 3

    − 32 2
0 1 3
mg (1) = ma (1) = 1, mg (2) = ma (2) = 1 y A =  − 43 7
3 2 
mg (3) = ma (3) = 1.
8
3
4
3 −1
   
e) p(λ)
√ = λ3 −√ 4λ − 2λ + 8; λ1 =
2
2 0 0 2 0 0
2, λ2 = − 2 yλ3 = 4; base pa- 3. a) D1 =  0 2 0 , D2 =  0 1 0 y
 1  0 0 1 0 0 2
 0  ; base para E √ :  
ra E√2 :
 √  − 2 1 0 0
 
2   D3 =  0 2 0 
 −1   0  0 0 2
 0  ; base para E4 :  1  ;    
 √    b) D1 =
1 0
y D2 =
6 0
2 0
√ √ √ 0 6 0 1
mg ( √2) = ma ( 2) = 1, mg (− 2) =
ma (− 2) = 1 y mg (4) = ma (4) = 1. 4. ̸ 2
a) a = b) a > 0 c) para to-
do a
f ) p(λ) = λ3 −2λ2 −4λ+8;
 2 = −2;
λ1 = 2, yλ
   
 −1 0  0 0 −2 1
base para E2 :  2  ,  0  ; base 6. a) D =
0 5
,P =
3 1
 
  0 1
b) no es posible
 1     
para E−2 :  2  ; mg (2) = ma (2) = 2 0 0 −b 1
c) D = ,P =
  0 a+b a 1
0    
y mg (−2) = ma (−2) = 1. 1 0 0 1 1 0
g) p(λ) = λ4 − 4λ3 + 3λ2 + 4λ − 4; λ1 = d ) D =  0 2 0 , P =  0 1 0 
−1, 0 0 3 0 0 1
 λ2 = 1 y λ3 = 2;  base
 para
 E−1 :  √ 

 0 
 
 2 
 2 √0 0
   
 0  ; base para E1 :  0  ; base e) D =  0 − 2 0 ,
    3 
 1 
 



 
 
0 0 4

0  0 1 −1 0
  



1 0  P =  √0 √0 1 
−3   3 
para E2 :   ,   ; mg (−1) = 2 2 0

 0   1  
   
  2 0 0 −1 0 1
1 0
f) D =  0 2 0 , P =  2 0 2 
ma (−1) = 1, mg (1) = ma (1) = 1 y
0 0 −2 0 1 0
mg (2) = ma (2) = 2.  
  −1 0 0 0
−2  0 1 0 0 
7.  −10  g) D =  ,
0 0 2 0 
5 0 0 0 2
 
0 2 1 0
Sección 7.2  0 0 −3 3 
    P = 1 3

1 1 2 0 0 1 
1. i. P = ,D= ,
2 0 0 −3 0 0 1 0
   
−3 52 2 −3 1
A=

0 2
   7. a) P =  0 0 −6 ,
0 1 2 0 2 2 4
ii. P = ,D= ,  
1 1 0 1 4 0 0
 
1 0 D =  0 −1 0 
A=
−1 2 0 0 1

Material de uso interno Mateu-Semitiel 302


CAPÍTULO 7. AUTOVALORES Y AUTOVECTORES

     
−1 −1 1 0 0 0 2 0 0 0
b) P =  0 1 1 , D =  0 0 0   0 1 0 0 
D=
 0

1 0 1 0 0 3 0 1 0 
c) no es posible 0 0 0 1
 
1 −2 1 0 9. a) Falso d ) Verdadero
 −1 1 0 0 
d) P =  0
, b) Verdadero e) Verdadero
0 1 0 
0 0 0 1 c) Verdadero f ) Verdadero

Material de uso interno Mateu-Semitiel 303


Bibliografı́a

Anton, H. (2011). Introducción al Álgebra Lineal: con aplicaciones en negocios, economı́a, inge-
nierı́a, fı́sica, ciencias de la computación, teorı́a de aproximación, ecologı́a, sociologı́a, demografı́a
y genética. (5ta. Edición). México: Limusa Wiley.

Grossman, S. & Flores Godoy, J. (2012). Álgebra Lineal. (7ma. Edición). México: McGraw-Hill.

Kolman, B. & Hill, D. (2006). Álgebra Lineal. (8va. Edición). México: Pearson Educación.

Lang, S. (1998). Introducción al Álgebra Lineal. México: Addison Wesley Iberoamericana.

Larson, R. & Falvo, D. (2010). Fundamentos de Álgebra Lineal. (6ta. Edición). México: Cengage
Learning.

Lay, D. (2012). Álgebra Lineal y sus aplicaciones. (4ta. Edición). México: Pearson Educación.

Lay, D. (2013). Álgebra Lineal para cursos con enfoque por competencias. México: Pearson Edu-
cación.

Nakos, G. & Joyner, D. (1999). Álgebra Lineal con Aplicaciones. México: International Thomson
Editores.

Sanz, P., Vázquez, F. & Ortega, P. (1998). Problemas de Álgebra Lineal. Cuestiones, ejercicios
y tratamiento en Derive. Madrid: Prentice Hall.

Material de uso interno Mateu-Semitiel 304

También podría gustarte