VF 2ºcuat2022
VF 2ºcuat2022
ÁLGEBRA LINEAL
El Álgebra Lineal es una rama de la Matemática requerida por diferentes áreas de la Ingenierı́a, que
facilita la modelización y simplifica los cálculos, en el estudio del comportamiento de algunos sistemas
complejos. El principal objetivo de un curso de esta disciplina, en carreras de ingenierı́a, es brindar a
los estudiantes los conocimientos básicos que aplicarán posteriormente en las diferentes especialidades.
En el Álgebra Lineal se conjugan dos facetas fundamentales de la Matemática: la abstracción y la
aplicación. En nuestro curso el énfasis está puesto en la comprensión de los conceptos, mientras que
las aplicaciones se dejan prioritariamente para el ciclo superior, donde los conceptos son utilizados
desde diferentes perspectivas, atendiendo a las necesidades de cada especialidad.
Este texto contiene el material mı́nimo correspondiente a la asignatura Álgebra Lineal de las
carreras de Ingenierı́a (Plan 2014) de la Facultad de Ciencias Exactas, Ingenierı́a y Agrimensura de
la Universidad Nacional de Rosario. Fue escrito principalmente con el objetivo de ordenar, focalizar
y hacer más accesible, en un mismo texto, los temas principales de esta disciplina correspondientes al
programa vigente de la asignatura. Cabe aclarar que éste no es un trabajo finalizado y que se encuentra
en proceso revisión. Debe considerarse como borrador y material de uso interno para la cátedra.
Este material de estudio está organizado en siete capı́tulos. Los capı́tulos 1, 2 y 3 corresponden
a sistemas de ecuaciones lineales y matrices que son temas fundamentales para el Álgebra Lineal a
partir de los cuales se desarrolla este curso. Los capı́tulos 4, 5 , 6 y 7 constituyen el corazón de la
asignatura: espacios vectoriales, espacios con producto interno transformaciones lineales, autovalores
y autovectores y diagonalización.
Cada capı́tulo de este texto se divide en diferentes secciones. Al final de cada una de éstas se presen-
ta la ejercitación correspondiente y se indican recuadrados los ejercicios y problemas que consideramos
una práctica mı́nima para la comprensión de los diferentes temas.
2. MATRICES 40
2.1. Vectores de Rn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
2.2. Operaciones matriciales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
2.3. Matriz inversa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
3. DETERMINANTES 79
3.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
3.2. Propiedades de los determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
3.3. La inversa a través de la adjunta. La regla de Cramer . . . . . . . . . . . . . . . . . . 97
Bibliografı́a 303
SISTEMAS DE ECUACIONES
LINEALES
Definición (Ecuación lineal). Una ecuación lineal en las n variables o incógnitas x1 , x2 ,...,
xn es una ecuación que puede escribirse en la forma
a1 x1 + a2 x2 + ... + an xn = b, (1.1)
llamada forma canónica o estándar de la ecuación lineal, donde a1 ,a2 ,...,an y b son constantes
reales. Los ai con i = 1, 2, ..., n son los coeficientes de la ecuación y b es el término constante.
Si b = 0 la ecuación se denomina homogénea.
Considerando las variables ordenadas de izquierda a derecha, la primer variable cuyo co-
eficiente es distinto de cero, recibe el nombre de variable delantera o principal. Las demás
variables se llaman variables libres.
no son lineales.◀
ax + by + cz = d,
ax + by = c,
con al menos uno de los coeficientes no nulos, es la ecuación de una recta en el plano.◀
Las variables libres pueden tomar cualquier valor real, ası́ podemos considerar x1 = t, x3 = s y
x4 = r. Por consiguiente la solución general se expresa como:
o en forma de 4-upla
(t, 1 + 2s − 3r, s, r)
El conjunto solución es
{(t, 1 + 2s − 3r, s, r) : t, s, r ∈ R} . ◀
Ejemplo 1.8. La ecuación lineal 37 x1 +2x2 −5 = 73 x1 +2x2 −5 se satisface para cualquier par ordenado
de números reales. Su forma canónica es
0x1 + 0x2 = 0,
y su conjunto solución es {(x1 , x2 ) : x1 , x2 ∈ R}.◀
Ejemplo 1.9. Claramente, la ecuación x1 + 2x2 − 5x3 = 8 + x1 + 2x2 − 5x3 es inconsistente. Su forma
canónica es
0x1 + 0x2 + 0x3 = 8.
Ninguna terna de números reales la satisface y por lo tanto su conjunto solución es vacı́o.◀
En la ecuación del ejemplo anterior, se observa que todos los coeficientes son iguales a cero mientras
que el término constante es distinto de cero. Se verá que ésta es la forma que tienen las ecuaciones
lineales inconsistentes.
Teorema 1.1 (Inconsistencia de una ecuación lineal). Una ecuación lineal en n variables
a1 x1 + a2 x2 + ... + an xn = b,
Si algún coeficiente es distinto de cero, la ecuación es consistente cualquiera sea b puesto que
habrá una variable delantera que podrá “despejarse”.
Nota: Una ecuación lineal en una variable ax = b tiene una única solución, infinitas soluciones o es
inconsistente. Si la ecuación lineal tiene dos o más variables, es inconsistente o bien tiene un número
infinito de soluciones.
Actividad 1.2. Encuentre para qué valores de a y b, la ecuación lineal en una variable ax = b, tiene
una única solución, infinitas soluciones o ninguna solución.
Ejercicios 1.1
a) 2x − 5 = x − 3y + z c) x1 − 2x2 + 3 = x2 + 5x3 − x4 + 3
b) xy − 4x + y = 0 d ) x1 + x2 − x3 = x1 + x2 − x3 + 9
2. Determine todos los valores de a de modo que cada una de las ecuaciones: (i) tenga única
solución, (ii) tenga infinitas soluciones, (iii) no tenga solución.
a) a2 x − 4 = 16x + a c) a2 (x + y) − x − y = a − 1
b) ax1 − a2 x2 = 2a d ) a(x + y) − x − y − a + 1 = 0
Definición (Solución de un sistema lineal). Una solución (particular) del sistema lineal
(1.2) es una n−upla ordenada de números reales (c1 , c2 , ..., cn ) que es solución de todas las
ecuaciones del sistema. El conjunto de todas las soluciones se llama conjunto solución.
Resolver un sistema lineal es hallar su conjunto solución. Un elemento genérico del conjunto
solución es una solución general del sistema.
Ejemplo 1.11. La 4-upla (−3, −4, 0, 3) es una solución del sistema del Ejemplo 1.10. En efecto,
−3 − 2(−4) + 0 − 3 = 2
2(−3) + 0 + 0 + 2(3) = 0
0 − (−4) + 0 − 3 = 1
Entonces dicho sistema tiene al menos una solución, ¿será la única solución o admitirá más solu-
ciones?. Para cualquier t ∈ R, la 4-upla (−t, −1 − t, 0, t) es una solución del sistema (verifı́quelo) y por
lo tanto este tiene infinitas soluciones. Puede observarse que si t = 3 se obtiene la solución particular
previamente considerada.◀
Nota: Se puede probar que un sistema lineal puede tener una, infinitas o ninguna solución. En la
sección 1.4 se profundizarán estas ideas.
son: consistente con única solución, consistente con infinitas soluciones e inconsistente, respectivamen-
te. En efecto, si se recurre a la Geometrı́a Analı́tica, gráficamente el conjunto solución de cada uno de
estos sistemas es el conjunto de puntos del plano que pertenecen a ambas rectas como se observa en
la Figura 1.1◀
constantes. Luego se sustituye la expresión encontrada para dicha variable en la ecuación anterior y
se despeja la variable delantera de dicha ecuación. Ası́, continuando de este modo, hasta despejar la
variable delantera de la primera ecuación.
Ejemplo 1.14. En el sistema escalonado (1.3), de la última ecuación se observa que necesariamente
x3 = 0.
Sustituyendo este valor en la ecuación anterior se obtiene 4x2 +4x4 = −4 por lo cual necesariamente
es x2 = −1 − x4 pudiendo tomar x4 cualquier valor real. Ası́
x4 = t, t ∈ R,
y
x2 = −1 − t.
Reemplazando en la primera ecuación x2 = −1−t, x3 = 0 y x4 = t, se tiene que x1 −2(−1−t)−t = 2
es decir
x1 = −t.
Por consiguiente la solución general del sistema lineal (1.3) se expresa como:
x1 = −t, x2 = −1 − t, x3 = 0 y x4 = t para todo t ∈ R,
o en forma de 4-upla
(−t, −1 − t, 0, t) para todo t ∈ R,
por lo cual el sistema es consistente con infinitas soluciones.
El conjunto solución
{(−t, −1 − t, 0, t) : t ∈ R} ,
es uniparamétrico infinito. ◀
2x1 − x2 + x3 = 0
Actividad 1.3. Resuelva el sistema lineal escalonado: 3x2 − x3 = 1 .
2x3 = 4
El sistema lineal del Ejemplo 1.10 no es escalonado. Si bien es posible resolverlo haciendo apropiadas
sustituciones, es más sencilla su resolución hallando un sistema escalonado que sea equivalente a él.
Un sistema lineal puede transformarse en un sistema equivalente mediante ciertas operaciones entre
ecuaciones:
Una apropiada aplicación de estas operaciones permite encontrar un sistema escalonado equivalente a
uno dado. En la sección siguiente se justificará la existencia de un sistema lineal escalonado equivalente
a uno dado.
Ejemplo 1.15. Para resolver el sistema lineal (no escalonado) del Ejemplo 1.10 se usará la técnica
de eliminación para transformarlo en uno escalonado equivalente. Para ello, se eliminan algunas de las
incógnitas sumando un múltiplo de una ecuación a otra ecuación.
x1 −2x2 +x3 −x4 = 2 (E1 )
2x1 −x3 +2x4 = 0 (E2 )
−x2 +x3 −x4 = 1 (E3 )
Si se sustituye la ecuación E2 por E2 menos dos veces la ecuación E1 (E2 + (−2)E1 → E2 ) se
elimina x1 de la segunda ecuación, quedando el sistema equivalente:
x1 −2x2 +x3 −x4 = 2 (E1 )
4x2 −3x3 +4x4 = −4 (E2 )
−x2 +x3 −x4 = 1 (E3 )
1
Para eliminar la variable x2 de la tercera ecuación, se sustituye la ecuación E3 por E3 más 4 de la
ecuación E2 E3 + 14 E2 → E3 . Se obtiene ası́ el sistema escalonado equivalente:
x1 −2x2 +x3 −x4 = 2
4x2 −3x3 +4x4 = −4
1
4 x3 = 0
{(−t, −1 − t, 0, t) : t ∈ R} . ◀
Como ya se ha visto, un sistema lineal escalonado es consistente si y solo si todas sus ecuaciones son
consistentes, es decir, si y solo si no tiene una ecuación de la forma
Con respecto a la consistencia de los sistemas lineales en general, se tiene el siguiente resultado:
Ejercicios 1.2
2. Obtenga los valores de a y b de manera que la terna (1, 1, 1) sea una solución del sistema lineal
ax − y + 2z = b
.
x + by + z = 3a
a11 x + a12 y = 0
3. Considere el sistema homogéneo
a21 x + a22 y = 0
a) Demuestre que si (x0 , y0 ) es una solución para tal sistema entonces también lo es (kx0 , ky0 )
para cualquier k constante.
b) Demuestre que si (x0 , y0 ) y (x1 , y1 ) son soluciones del sistema lineal homogéneo entonces
(x0 + x1 , y0 + y1 ) también es solución.
4. Demuestre que el sistema lineal que se obtiene al reemplazar una ecuación por ella misma más
un múltiplo escalar de otra tiene las mismas soluciones que el sistema original (Teorema 1.2).
son equivalentes.
8. Indique cuáles son las operaciones elementales realizadas que permiten obtener los sucesivos
sistemas equivalentes. Resuelva el sistema original.
2x −y +z = 4 x +y −2z = 0 x +y −2z = 0
x +y −2z = 0 → 2x −y +z = 4 → −3y +5z = 4 →
−x +y +z = 2 −x +y +z = 2 2y −z = 2
x +y −2z = 0 x +y −2z = 0
→ −3y +5z = 4 → −3y +5z = 4 .
7 14
3z = 3 7z = 14
Si m = n la matriz es cuadrada de orden n, los elementos a11 , a22 ,...,ann son los elementos de la
diagonal principal.
En este texto los elementos aij serán números reales salvo otra indicación.
Se usan letras mayúsculas imprentas como A, B, C, etc. para denotar una matriz. También pueden
denotarse mediante un elemento genérico escrito entre corchetes, por ejemplo: [aij ], [bij ], etc. Ası́, para
abreviar la escritura, la matriz A puede denotarse simplemente por
A = [aij ]
Por ejemplo:
1 −2 5 1 2 73
A= , B= , C= −1 2 4 y D= .
3 1 6 3 3 8
A es una matriz 2 × 3, sus elementos son a11 = 1, a12 = −2, a13 = 5, a21 = 3, a22 = 1 y a23 = 6. B
es una matriz 2 × 1 y se dice que es una matriz columna o un vector columna. C es una matriz
de 1 × 3, es una matriz renglón. Se suelen utilizar letras minúsculas negritas para denotar matrices
columna o renglón. Por ejemplo:
1
b= .
3
Un renglón cero de una matriz solo incluye ceros. Un renglón no cero tiene al menos un
elemento distinto de cero. El primer elemento no cero de un renglón no cero se denomina elemento
delantero o principal. Si el elemento delantero es un 1 se lo llama 1-delantero. Por ejemplo, la
matriz de 4 × 5:
1 2 4 0 1
0 0 3 1 1
−8 0 0 2 5
0 0 0 0 0
tiene el último renglón cero. Sus elementos delanteros son 1, 3 y −8.
Mediante el uso de matrices, se puede abreviar la escritura de un sistema lineal anotando solo sus
coeficientes y/o términos constantes, siempre que están especificados los nombres y el orden de las
variables. Consideremos el sistema lineal
a11 x1 + a12 x2 + a13 x3 + ... + a1n xn = b1
a21 x1 + a22 x2 + a23 x3 + ... + a2n xn = b2
..
.
am1 x1 + am2 x2 + am3 x3 + ...amn xn = bm
El arreglo rectangular de los coeficientes del sistema es la matriz de coeficientes:
a11 a12 a13 . . . a1n
a21 a22 a23 . . . a2n
A= . .. .. .. .. .
.. . . . .
am1 am2 am3 . . . amn
Para hacer énfasis de que se trata de una matriz aumentada, se la suele representar de la siguiente
manera:
a11 a12 a13 . . . a1n : b1
a21 a22 a23 . . . a2n : b2
[A : b] = . .. .. .. .. .. .
.. . . . . .
am1 am2 am3 . . . amn : bm
la matriz de coeficientes es
1 −2 1 −1
A= 2 0 −1 2
0 −1 1 −1
y su matriz aumentada es
1 −2 1 −1 : 2
[A : b] = 2 0 −1 2 : 0 . ◀
0 −1 1 −1 : 1
1 −2 : 1
2 0 : −1
Actividad 1.4. Escriba el sistema lineal cuya matriz aumentada es
0 −1 :
.
1
1 1 : 0
Como la matriz aumentada de un sistema lineal es una representación abreviada del mismo, se puede
ahorrar tiempo y trabajar en forma mas eficiente si se utiliza esta notación en el proceso de resolución
del mismo.
Las tres operaciones de ecuaciones que se pueden utilizar en un sistema lineal para generar un
sistema equivalente, se corresponden con ciertas operaciones entre renglones de la matriz aumentada
del sistema.
Ejemplo 1.18. Retomando el sistema lineal del Ejemplo 1.15 se muestra a la derecha su resolución
trabajando en forma abreviada con la matriz aumentada del sistema, haciendo uso de las operaciones
elementales de renglón correspondientes a las operaciones en ecuaciones realizadas:
x1 −2x2 +x3 −x4 = 2 1 −2 1 −1 : 2
2x1 −x3 +2x4 = 0 2 0 −1 2 : 0
−x2 +x3 −x4 = 1 0 −1 1 −1 : 1
E2 − 2E1 → E2 R2 − 2R1 → R2
x1 −2x2 +x3 −x4 = 2 1 −2 1 −1 : 2
4x2 −3x3 +4x4 = −4 0 4 −3 4 : −4
−x2 +x3 −x4 = 1 0 −1 1 −1 : 1
E3 + 41 E2 → E3 R3 + 14 R2 → R3
x1 −2x2 +x3 −x4 = 2 1 −2 1 −1 : 2
4x2 −3x3 +4x4 = −4 0 4 −3 4 : −4
1 1
4 x3 = 0 0 0 4 0 : 0
{(−t, −1 − t, 0, t) : t ∈ R} . ◀
Una operación elemental de renglón aplicada a la matriz aumentada de un sistema lineal produce
la matriz aumentada de un sistema lineal equivalente. Esto, y dado que toda matriz es la matriz
aumentada de un sistema lineal, da origen a la siguiente definición:
Por simplicidad, a lo largo de este texto llamaremos simplemente matrices equivalentes a las ma-
trices equivalentes por renglones.
Las operaciones elementales de renglón son revertibles, o inversibles, en el sentido de que cada operación
elemental tiene una operación elemental inversa que revierte el resultado.
Actividad 1.5. Verifique que la matriz A del ejemplo anterior puede obtenerse a partir de la matriz
B revirtiendo la sucesión de operaciones elementales.
Actividad 1.6. ¿Cuál es la operación elemental inversa de cRi → Ri (c ̸= 0)?. ¿Y cuál es la operación
elemental inversa de Ri + cRj → Ri ?
Se han resuelto sistemas lineales llevándolos a uno escalonado equivalente. Los sistemas escalonados
son aquellos cuya matriz aumentada es de forma escalonada. Precisamente:
Todos los renglones cero (si los tiene) están en la parte inferior de la matriz.
El elemento delantero de cada renglón no cero después del primero está a la derecha
del elemento delantero del renglón anterior.
La matriz está en forma escalonada por renglones reducida si además verifica las dos siguientes
condiciones:
Toda columna que contiene un 1-delantero, tiene ceros en sus restantes posiciones.
Por simplicidad diremos que una matriz está en “forma escalonada” o en “forma escalonada reducida”
para indicar que está en forma escalonada por renglones o en forma escalonada por renglones reducida,
respectivamente.
Por ejemplo, sean las matrices:
1 2 3 0 2 2 4
1 2 5 1 3
A= , B = 0 1 0 9 , C= 0 1 0 , D= ,
0 1 1 0 0
0 2 1 1 0 0 −1
1 0 3 0
0 1 0 0 0 2 5
1 2 0
E=
0
, F = 0 1 0 , G= 1 2 5 y H= 0 0 1 .
0 0 1
0 0 1 0 0 0
0 0 0 0
Las matrices A, C, D E, F G y H están en forma escalonada y se han recuadrado sus elementos
delanteros. La matriz B no está en forma escalonada. Las matrices D, E, F y G están en forma
escalonada reducida.
2. Si el primer renglón tiene un cero en la columna del paso 1, intercámbielo con uno que
tenga un elemento no cero en la misma columna. Se obtiene ası́ una matriz equivalente
con el primer renglón no cero cuyo elemento delantero está en la primera columna no
cero.
3. Obtenga ceros abajo de dicho elemento delantero sumando múltiplos adecuados del
primer renglón a los renglones debajo de él.
Ejemplo 1.20. Para obtener una matriz en forma escalonada equivalente a la matriz
0 2 3 3 0
1 1 2 −1 1
A= 2 0 1
0 12
3 1 3 −1 13
0 2 3 3 0 1 1 2 −1 1 1 1 2 −1 1
1 1 2 −1 1 0 2 3 3 0 −−−−−−−−−−−−−−→ 0 2 3 3 0
R1 ↔ R 2
−
− −−−−−−−→ R4 − 3R1 → R4 →
2 0 1 0 12 2 0 1 0 12 R3 − 2R1 → R3 0 −2 −3 2 10
3 1 3 −1 13 3 1 3 −1 13 0 −2 −3 2 10
1 1 2 −1 1 1 1 2 −1 1
−−−−−−−−−−−−−→ 0 2 3 3 0 0 2 3 3 0
R4 + R2 → R4 −−R−4−−−−R−−3−→
−−−−→ .
R3 + R2 → R3 0 5 10
R4
0 0 0 5 10 0 0
0 0 0 5 10 0 0 0 0 0
La matriz obtenida
1 1 2 −1 1
0 2 3 3 0
E=
0
,
0 0 5 10
0 0 0 0 0
está en forma escalonada.◀
Teorema 1.5. Toda matriz es equivalente a una matriz en forma escalonada reducida.
El algoritmo de Gauss-Jordan continúa el proceso de eliminación gaussiana hasta obtener una matriz
equivalente en forma escalonada reducida. Se procede de la siguiente manera:
Algoritmo de Gauss-Jordan
I. Si la matriz está en forma escalonada pase al paso II. Si la matriz no está en forma
escalonada aplique los pasos 1, 2, 3 y 4 del algoritmo de Gauss hasta obtener una forma
escalonada y luego continúe con el paso II.
II. Comenzando con el último renglón no cero, se avanza hacia arriba del siguiente modo:
Ejemplo 1.21. Para obtener una matriz en forma escalonada reducida equivalente a la matriz A del
ejemplo anterior, se continúa con el algoritmo de Gauss-Jordan a partir de la matriz E:
1 1 2 −1 1 1 1 2 −1 1 1 1 2 0 3
0 2 3
3 0 −−1−−−−−−−−→ 0 2 3 −−−−−−−−−−−−−−→
3 0 R2 − 3R3 → R2 0 2 3 0 −6
→
0 0 0 5 10
R → R3
5 3 0 0 0 1 2 R 1 + R3 → R1 0 0 0 1 2
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
1
1 1 2 0 3 1 0 2 0 6
−−−−−−−−−−→ 0 1 3
0 −3 −−−−−−−−−−−−−→ 0 1 3
0 −3
2 2
0 2 0 2
1R → R R1 − R 2 → R1
2 2 2
0 0 1 0 0 1
0 0 0 0 0 0 0 0 0 0
La matriz obtenida 1
1 0 2 0 6
0 1 3
0 −3
R=
0
2
0 0 1 2
0 0 0 0 0
está en forma escalonada reducida y es equivalente a la matriz A.◀
Observación 1.1. Pueden obtenerse 1-delanteros en el paso 3 del algoritmo de Gauss aunque esta
práctica tenderı́a a introducir fracciones en una etapa temprana del cálculo si los elementos son enteros.
Observación 1.2. Debe tenerse en cuenta que una vez que se hayan hecho ceros abajo (o arriba) del
elemento delantero de un renglón debe comenzarse otra vez con el primer paso aplicado a la matriz
que resulta de haber eliminado dicho renglón. Esto es ası́ para no “arruinar” los ceros que ya se habı́an
hecho. Por ejemplo: el paso siguiente en la conversión de la matriz
2 −1 0
0 1 −1
0 1 0
es hacer cero el elemento en la posición (3, 2). El algoritmo de Gauss indica cubrir el renglón 1 (no se
tiene en cuenta el renglón 1) y hacer R3 − R2 → R3 para obtener:
2 −1 0
0 1 −1 .
0 0 1
Nótese que se hubiese logrado un cero en la posición (3, 2) con la operación R3 + R1 → R3 , pero
esto hubiese conducido a la matriz
2 −1 0
0 1 −1
2 0 1
“arruinando” el cero que ya se habı́a obtenido en la posición (3, 1).
Observación 1.3. En este texto se hará uso de expresiones tales como “llevar la matriz A a una
forma escalonada”, que significa obtener una matriz en forma escalonada equivalente a la matriz A.
Nota: Una matriz no cero es equivalente a infinitas matrices en forma escalonada pero solo a una en
forma escalonada reducida. Se aceptará sin demostrar el siguiente teorema:
Teorema 1.6 (Unicidad de la forma escalonada reducida). Toda matriz es equivalente a una
y solo una matriz escalonada reducida.
Si A, E y R son tres matrices equivalentes tales que E está en forma escalonada y R en forma
escalonada reducida, se dice que E es una forma escalonada de A y que R es la forma escalonada
reducida de A.
En cualquier forma escalonada de una matriz A los elementos delanteros se encuentran en las
mismas posiciones, a dichos elementos delanteros se los llama pivotes. Se llaman posiciones pivote
(o de pivoteo) de una matriz A a las posiciones de los pivotes de una (cualquiera) forma escalonada
de A.
Las columnas de A que contienen una posición pivote se llaman columnas pivote de A. Debe
notarse que para determinar cuáles son las columnas pivote de una matriz A que no está en forma
escalonada debe primero llevársela a una forma escalonada para conocer cuáles son las posiciones
pivote.
Actividad 1.7. Considere las matrices A, B, C, D y I del Ejemplo 1.22. Verifique que las matrices
B, C, D y I son formas escalonadas de la matriz A y que la matriz I es su forma escalonada reducida.
1 −1 2 3
−2 2 −4 −6
Actividad 1.8. Dada la matriz A =
2 −1 6 8
, halle su forma escalonada reducida y
1 0 4 5
0 0 0 1
exhiba sus columnas pivote.
Actividad 1.9. ¿Cuántas matrices cuadradas de orden 3 escalonadas reducidas tienen exactamente
2 pivotes?, ¿cuántas tienen exactamente 3 pivotes?
Ejercicios 1.3
a) A ∼ B ⇒ B ∼ A
b) Si A ∼ B y B ∼ C, entonces A ∼ C.
3. Indique cuáles de las siguientes matrices están en forma escalonada y cuáles de éstas en forma
escalonada reducida. Recuadre los pivotes de cada matriz que están en forma escalonada e indique
sus columnas pivote.
1 0 0 9 0
1 −2 1 1 1 0 1 1 3 0 0 1 3 0
A= 0 5 −2 1 , B = 0 5 0 , C = 1 2 , D = 0 0 0 0 1 ,
0 0 0 2 0 0 0 0 0
0 0 0 0 0
7
0 1 0 0 1 0 0 5 0 0
E=
0 , F = 1 6 0 0 1 , G = 0 1 0 , H = 0 1 3 0 0 0 .
0 0 1 0 0 0 0 0 1
0
7. En cada caso obtenga la forma escalonada reducida para cada matriz A. Indique las columnas
pivote de A.
1 −1 −1 3 2 −1 5 0 1 3 2 −2
a) A = 1 −1 0 1
b) A = −3 0 2 1 c) A = 2 6 4 −4
0 2 1 −1 1 −2 12 1 3 9 6 −6
8. Sea A una matriz de 15 × 18. ¿Es posible que el número de posiciones pivote de A sea 19?, ¿y
que sea 16?. ¿Cuál es el número máximo de posiciones pivote de A?.
2. Utilice el algoritmo de eliminación gaussiana para llevar la matriz a una forma esca-
lonada. Si durante cualquier
estapa de este
proceso se encuentra una matriz con un
renglón de la forma 0 0 ... 0 : b con b ̸= 0, deténgase, en este caso el sistema
es inconsistente. De lo contrario continúe con 3).
4. Para el sistema escalonado obtenido, distinga las variables delanteras de las libres y
aplique el método de sustitución hacia atrás para encontrar la solución del sistema.
Con respecto al paso 3, cuando se llega a una matriz en forma escalonada, si ésta tiene renglones
cero, las ecuaciones lineales correspondientes son de la forma 0x1 + 0x2 + ... + 0xn = 0. Este tipo de
ecuaciones se satisfacen para cualquier n-upla de números reales, por lo tanto no aportan soluciones
al sistema y se descartan del mismo. En estos casos el sistema escalonado equivalente tendrá menos
ecuaciones que el sistema original.
Eliminación de Gauss-Jordan
Los pasos a seguir son los siguientes:
4. Distinga las variables delanteras de las libres (si las hay) y despeje la variable delantera
de cada ecuación en función de las libres, de las constantes o de ambas.
Observación 1.4. En un sistema escalonado reducido la variable delantera de cada ecuación “no
aparece” en otra ecuación, en particular no aparece en las ecuaciones anteriores, y por lo tanto no se
requiere aplicar sustitución hacia atrás para resolverlo.
Ejemplo 1.24. Retomando el ejemplo anterior, se puede resolver el sistema
2x2 +3x3 +3x4 = 0
x1 +x2 +2x3 −x4 = 1
2x 1 +x3 = 12
3x1 +x2 +3x3 −x4 = 13
llevándolo al escalonado reducido.
Aplicando eliminación gaussiana se obtuvo la siguiente forma escalonada de su matriz aumentada:
1 1 2 −1 1
0 2 3 3 0
.
0 0 0 5 10
0 0 0 0 0
Ahora, en lugar de usar sustitución hacia atrás para resolver el sistema escalonado correspondiente,
se continúa con la eliminación de Gauss-Jordan hasta obtener la forma escalonada reducida. El Ejemplo
1.21 muestra la matriz escalonada reducida que se obtuvo:
1 0 12 0 6
0 1 3 0 −3
2 .
0 0 0 1 2
0 0 0 0 0
El sistema escalonado reducido correpondiente es
x1 + 21 x3 = 6
x2 + 23 x3 = −3
x4 = 2
Ejemplo 1.25 (Sistema consistente con única solución). Para resolver el sistema lineal
x1 −x2 −x3 = 0
−x1 +x2 −x3 = −6
2x1 −x2 −x3 = 1
Todas las variables del sistema son delanteras (no posee variables libres). La solución es única y se
lee directamente: x1 = 1, x2 = −2 y x3 = 3. Su conjunto solución es {(1, −2, 3)}. ◀
Ejemplo 1.26 (Sistema consistente con infinitas soluciones). Considere el sistema lineal
2x1 −x2 +x3 −x4 = 0
x1 +3x2 +x3 −x4 = 1
−3x1 +5x2 −x3 +x4 = 1
−−−−−−−−−−−−−−→
1 3 1 −1 : 1 1 3 1 −1 : 1
R2 − 2R1 → R2 −−−−−−−−−−−−−−→
R3 + 3R1 → R3 0 −7 −1 1 : −2 R3 + 2R2 → R3 0 −7 −1 1 : −2
0 14 2 −2 : 4 0 0 0 0 : 0
(observe que en el primer paso se intercambiaron los renglones R1 con R2 para usar como pivote el 1,
ya que de esta forma se evita introducir fracciones en una etapa temprana del proceso).
Un sistema escalonado equivalente al dado es
x1 +3x2 +x3 −x4 = 1
−7x2 −x3 +x4 = −2
Las variables x1 y x2 son delanteras, x3 y x4 son libres pudiendo tomar cualquier valor real. As,́
x4 = t, t ∈ R,
y
x3 = s, s ∈ R.
Se aplica ahora el método de sustitución hacia atrás. Despejando x2 en función de s y t se obtiene
2 1 1
x2 = − s + t.
7 7 7
Sustituyendo ahora x2 en la primera ecuación y despejando x1 en función de s y t se tiene
1 4 4
x1 = − s + t.
7 7 7
El sistema es consistente con infinitas soluciones y su conjunto solución es
1 4 4 2 1 1
− s + t, − s + t, s, t : t, s ∈ R . ◀
7 7 7 7 7 7
Con respecto a los sistemas consistentes se tiene el teorema que sigue. Dado que las variables delanteras
corresponden a columnas pivote de la matriz aumentada y las variables libres corresponden a columnas
no pivote, se agrega el enunciado equivalente referido a su matriz aumentada:
Demostración. Para resolver un sistema lineal consistente las variables delanteras de un sistema esca-
lonado equivalente se despejan en función de las libres (si las tiene) y de las constantes. Si el sistema
tiene variables libres entonces no tiene una única solución, más aún tiene infinitas soluciones ya que las
variables libres asumen cualquier valor real. Si no tiene variables libres entonces cada variable asume
un único valor y por lo tanto el sistema tendrá solución única.
Dado que un sistema de ecuaciones lineales tiene variables libres o no las tiene, los teoremas 1.7 y 1.8
implican el siguiente:
Actividad 1.10. ¿Qué puede asegurar respecto a las soluciones de los sitemas lineales cuyas matrices
aumentadas son equivalentes a las siguientes formas escalonadas?
1 a b d g 1 a b d f
0 2 c e h 1 a b c e
A= , B = 0 0 2 d f ; C = 0 2 c e g
0 0 5 f i 0 0 0 0 3
0 0 0 3 0
0 0 0 3 j 0 0 0 0 0
donde a, b, c, d, e, f , g, h, i y j son constantes reales.
1. Un sistema lineal homogéneo tiene solo la solución trivial o bien un número infinito de
soluciones.
2. Si un sistema lineal homogéneo tiene más incógnitas que ecuaciones entonces tiene
infinitas soluciones.
Demostración. 1. Todo sistema lineal homogéneo es consistente, ya que tiene al menos la solución
trivial, luego, de acuerdo al Teorema 1.9 tiene una única solución o infinitas soluciones. Si tiene
solo una solución, ésta será la solución trivial y si no, tendrá un número infinito de soluciones.
2. Si un sistema tiene más incógnitas (variables) que ecuaciones entonces tiene variables libres,
ya que el número de variables delanteras no puede exceder al número de ecuaciones. Como el
sistema es consistente (dado que es homogéneo) y tiene variables libres, entonces tiene infinitas
soluciones de acuerdo al Teorema 1.8.
Observación 1.5. Cuando se dice que un sistema lineal homogéneo tiene soluciones no triviales debe
entenderse que tiene otras (infinitas) soluciones, además de la trivial.
Actividad 1.11. Determine si los siguientes sistemas homogéneos tienen soluciones no triviales:
x1 +x2 +x3 = 0
x1 + x2 + x3 = 0
2x1 −x2 −x3 = 0
x1 +x2 +x3 +5x4 = 0
2x1 − x2 − x3 = 0
x1 +2x2 −x3 = 0 , , 2x1 −x2 −x3 +20x4 = 0 .
5x1 + x2 − x3 = 0
4x1 −x2 +x3 = 0 77x1 +6x2 +45x3 −x4 = 0
4x1 − x2 + x3 = 0
2x1 +3x2 = 0
respectivamente.
1 2 3
La matriz de coeficientes de ambos sistemas, A = , no tiene una posición pivote en
2 4 6
el segundo renglón, entonces cualquiera sea el vector de constantes
b el último renglón de cualquier
forma escalonada de [A : b] será de la forma 0 0 0 : c para algún c ∈ R. El sistema lineal será
consistente o inconsistente dependiendo del valor de c: si c = 0 el sistema es consistente mientras que
es inconsistente si c ̸= 0.◀
El ejemplo anterior despierta una inquietud: dada una matriz A ¿podrá suceder que un sistema lineal
con dicha matriz de coeficientes sea siempre consistente?. Es claro que para que esto ocurra las formas
escalonadas de A no deben tener renglones ceros, es decir A debe tener un pivote por renglón. Se tiene
ası́ el siguiente teorema:
Actividad 1.12. ¿Cuáles de las siguientes matrices son matrices de coeficientes de sistemas lineales
que siempre resultan consistentes?
1 2 3 0
1 2 1 2 3 3 1 1 1 0
4 −1 1
3 4 , −1 0 1 , 0 −1 , 1 1 0 1 .
2 2
−1 3 2 1 −2 1 0 1 2
4 6 2 1
Ejercicios 1.4
x1 +x3 +x4 = −5
x1 +2x2 +3x3 +4x4 = 0
x1 −x3 +x4 = −1 2x1 +2x2 +3x3 +4x4 = 0
a)
x 1 +x 2 +x3 +x4 = −3 d) 3x1 +3x2 +3x3 +4x4 = 0
2x1 +2x3 = −2
4x1 +4x2 +4x3 +4x4 = 0
x1 +x2 +x3 −2x4 = 0
y −z +t = 5
−x2 −2x4
x −t = −2 2x1
= 3
x1 −2x2 +x3 −x4 = 1
b) −y +z −t = −5
e) 2x1 −x2 −x3 +x4 = 0
y −z +t = 5
3x1
−3x2 = 1
−y −w = −1
x1 +x2 −x3 −x4 = 2
2y −3z = 9 −x +y −3z +w = 9
c) −x +3y +4z = −2 f) 2x −5y +z +9w = 0
3x −5y −18z = 0 −4x +7y −7z −7w = 18
2. El problema de los celulares. Una fábrica de celulares elabora cuatro modelos de teléfonos
móviles: AA1, AA2, AA3 y B1. Una vez fabricados, se requiere de la inspección de los mismos
en algunos de los sectores S1, S2, S3 y S4. El modelo AA1 requiere de 5 horas de inspección en
el sector S1, 4 horas en S2, 1 hora en S3 y 3 horas en S4. El modelo AA2 requiere de 2 horas de
inspección en cada uno de los cuatro sectores. El modelo AA3 requiere de 3 horas en el sector
S2, 1 hora en S3 y 5 horas en S4. Por último, el modelo más nuevo B1 requiere de 1 hora en S1,
7 horas en S2 y 10 horas en S3. Si el sector S1 dispone de 230 horas semanales de trabajo, S2
de 369 horas, S3 de 299 horas y S4 de 231 horas, ¿cuántos celulares de cada modelo se pueden
inspeccionar por semana?
3. Elaboración de una dieta. Por lo general, el empaque de un cereal indica el número de calorı́as
y las cantidades de proteı́nas, carbohidratos y grasa contenidas en una porción del producto.
Para dos marcas de cereales, se dan las cantidades en el Cuadro 1.1.
Suponga que se preparará una mezcla de esos cerales, de manera que contenga exactamente 295
calorı́as, 9g de proteı́nas, 48g de carbohidratos y 8g de grasa. Determine si es posible preparar
la mezcla deseada de los dos cereales.
4. Flujo de redes. Los sitemas de ecuaciones lineales son utilizados también para estudiar el flujo
de alguna cantidad a través de una red. Por ejemplo, los planificadores urbanos y los ingenieros
de tráfico monitorizan el patrón de flujo de tránsito en una rejilla de las calles de una ciudad.
Una red consiste en un conjunto de puntos llamados nodos, con lı́neas o arcos llamados ramas,
que conectan algunos o todos los nodos. Se indica la dirección y el sentido de flujo en cada rama,
y la cantidad de flujo (o tasa) se denota con una variable.
La suposición básica en el flujo de red es que el flujo total en la red es igual al flujo total de
salida de la red, y que el flujo total en un nodo es igual al flujo total de salida en dicho nodo.
Por ejemplo, la Figura 1.2 muestra 30 unidades que fluyen por una rama hacia una unión; x1 y
x2 denotan los flujos de salida del nodo a través de otras ramas.
Como el flujo se “conserva” en cada unión, entonces x1 + x2 = 30. En forma similar, el flujo
en cada nodo se describe mediante una ecuación lineal. El problema de análisis de redes es
determinar el flujo en cada rama cuando se tiene información parcial (como el flujo de entrada
y salida de la red).
a) La red de la Figura 1.3 representa el flujo de tránsito (en vehı́culos por hora) en varias calles
de un solo sentido en el centro de Baltimore en un dáa común, poco después del mediodı́a.
Para determinar el patrón de flujo general para la red, se escriben las ecuaciones que
describen el flujo. En cada intersección de las calles (nodos) se iguala el flujo de entrada al
de salida como se muestra en el Cuadro 1.2.
También, el flujo total de entrada en la red (500 + 300 + 100 + 400) es igual al flujo total
de salida (300 + x3 + 600), que se simplifica a x3 = 400.
Escriba el sistema de ecuaciones lineales que modeliza el problema y encuentre su solución
para determinar el patrón de flujo general para la red. Determine el posible rango de las
variables del problema.
Nota: Un flujo negativo en una rama de la red corresponde a un flujo en el sentido opuesto al
indicado en el modelo. Como las calles en este problema son de un solo sentido, ninguna de las
variables puede ser negativa.
Suponiendo que todos los flujos son no negativos, ¿cuál es el valor más pequeño posible
para x4 ?
es (a) inconsistente, (b) consistente con infinitas soluciones, (c) consistente con única solución.
admite (a) única solución, (b) infinitas soluciones, (c) ninguna solución. Si existe un único valor
de α para el cual el sistema tiene única solución, resuelva el sistema. Idem en el caso de infinitas
soluciones.
10. Resolución simultánea de sistemas lineales que tienen la misma matriz de coeficien-
tes. Es frecuente en la práctica tener que resolver sistemas lineales que tienen la misma matriz
de coeficientes pero distintos términos independientes. Por ejemplo, los sistemas:
x −2y +3z = −2
(1.4)
−x +4y +5z = 7
y
u −2v +3w = 1
(1.5)
−u +4v +5w = −4
1 −2 3
tienen la misma matriz de coeficientes y vectores de términos independientes
−1 4 5
−2 1
y .
7 −4
En lugar de resolver cada sistema por separado, se los puede resolver simultáneamente aplicando
el algoritmo de eliminación gaussiana, o el de Gauss-Jordan, a la matriz ampliada que tiene en
el lado derecho las dos columnas que corresponden a los términos independientes. Si se aplica
Gauss-Jordan a esta matriz se obtiene su forma escalonada reducida y en consecuencia los dos
sistemas escalonados reducidos equivalentes a los originales.
1 −2 3 : −2 1 −−−−−−−−−−−−−→ 1 −2 3 : −2 1 −−1−−−−−−−−→
R2 + R 1 → R2 R → R2
−1 4 5 : 7 −4 0 2 8 : 5 −3 2 2
1 −2 3 : −2 1 −−−−−−−−−−−−−−→ 1 0 11 : 3 −2
→ R1 + 2R2 → R1 .
0 1 4 : 5
2 − 3
2 0 1 4 : 5
2 − 32
A = [1 2 − 5; 3 2 0; −9 1 8; 0 0 − 3] y b = [1; 3; 0; 0]
produce la matriz
1 2 −5
3 2 0
A=
−9
,
1 8
0 0 −3
y el vector columna
1
3
b=
0 ,
1
respectivamente. Hay que tener en cuenta que SCILAB distingue mayúsculas de minúsculas.
La notación A(2, 3) produce
0
3 2 0
que son los elementos del segundo renglón de la matriz A. Y la notación A(:, 3) produce
−5
0
8
−3
Las operaciones elementales entre renglones de una matriz A se indican de la siguiente manera:
Escalamiento: para multiplicar el renglón i por una constante no nula c se utiliza la notación
El comando “rref” produce la forma escalonada reducida de una matriz. Por ejemplo, si quisiéramos
determinar la forma escalonada reducida de la matriz A de nuestro ejemplo, lo indicamos con rref(A)
y produce
1 0 0
0 1 0
0 0 1 .
0 0 0
Ejercicios 1.5
1. Sean
0 −3 −6 4 9 3
−1 −2 −1 3 1 2
A=
−2 −3
, b= y c=
0 3 −1 5
1 4 5 −9 −7 3
2. Use el comando “rref” para verificar las soluciones de los sistemas lineales de los ejercicios 1 y
10 de la sección 1.4.
cuya gráfica contenga todos los puntos dados. El conjunto de datos permite calcular los coefi-
cientes de la función polinómica p.
MATRICES
2.1. Vectores de Rn
En el capı́tulo anterior se describió una solución de un sistema lineal con n incógnitas como una n-upla
ordenada de números reales. Estas n-uplas son llamadas vectores.
(c1 , c2 , ..., cn ) ,
En este texto las componentes de un vector serán números reales. En ambas expresiones c1 es la
primer componente, c2 la segunda,..., ck la k-ésima componente. Cualquier vector cuyas componentes
son todas cero, se denomina vector cero.
0
Ejemplo 2.1. (1, 0, 3, −7) es un vector renglón de 4 componentes, 1 es un vector columna de
−1
3 componentes y (0, 0, 0, 0, 0, 0) es el vector renglón cero de 6 componentes. ◀
A lo largo del texto los vectores se representarán con letras minúsculas negritas como u, v, a, b, c, x,
etcétera. Un vector cero se denota por 0.
Los vectores de n componentes que tienen un 1 en la i−ésima componente y 0 en el resto de las
componentes los simbolizamos ei , es decir
0
0
..
.
ei =
1 ← i-ésima componente.
..
.
0
0
Por ejemplo, los vectores de 3 componentes e1 , e2 y e3 son, respectivamente:
1 0 0
0 , 1 y 0 .
0 0 1
Los vectores de R2 y R3 pueden interpretarse geométricamente como puntos en el plano y como puntos
en el espacio, respectivamente.
u1
Cualquier vector de dos componentes u = ó u = (u1 , u2 ) puede representarse gráficamente
u2
con el punto P del plano cuyas coordenadas son (u1 , u2 ). También al vector u se lo considera como
la flecha que comienza en el punto origen (0, 0) y cuya punta es el punto P , como se observa en la
Figura 2.1. El vector cero de R2 geométricamente es el punto origen de coordenadas (0, 0).
2 3 −1
Por ejemplo −1 − −5 = 4 .
0 −2 2
1. u + v = v + u [Conmutativa]
2. (u + v) + w = u + (v + w) [Asociativa]
5. a (u + v) = au + av [Distributiva]
6. (a + b) u = au + bu [Distributiva]
8. 1u = u
Demostración. solo comprobaremos la propiedad 6. Se dejan las demás demostraciones como ejercicio.
El teorema anterior pueda aplicarse para resolver ciertas ecuaciones que involucran vectores. Por
ejemplo, sean v y u dos vectores de Rn y se desea determinar el vector x que satisface la ecuación
2x + 4v = 3u. Entonces:
2x + 4v = 3u,
(2x + 4v) + (− (4v)) = 3u + (− (4v)) ,
2x + (4v + (− (4v)) = 3u + (− (4v)) ,
2x + 0 = 3u + (−4) v,
2x = 3u + (−4) v,
1 1
(2x) = (3u − 4v) ,
2 2
1 1
2 x = (3u − 4v) ,
2 2
1
1x = (3u − 4v) ,
2
1
x = (3u − 4v) .
2
Actividad 2.2. Indique qué propiedades se aplicaron sucesivamente para resolver la ecuación anterior.
En Álgebra y Geometrı́a Analı́tica se estudió que cualquier vector del plano puede escribirse como
combinación lineal de dos vectores no nulos ni paralelos. También, se probó que todo vector del espacio
se puede escribir como combinación lineal de tres vectores no nulos ni coplanares. Definiremos la noción
de combinación lineal para cualquier conjunto de vectores de Rn .
c1 u1 + c2 u2 + ... + ck uk ,
donde c1 , c2 ,..., ck son escalares cualesquiera que son llamados coeficientes de la combinación
lineal.
u = c1 u1 + c2 u2 + ... + ck uk .
−2 1 0
Ejemplo 2.3. El vector u = es combinación lineal de los vectores e1 = y e2 = .
3 0 1
En efecto,
−2 1 0
= −2 +3 .
3 0 1
2 −3
Trivialmente u no es combinación lineal de los vectores v1 = y v2 = dado que no
0 0
existen escalares c1 y c2 tales que
2 −3 −2
c1 + c2 = .◀
0 0 3
1 1
Ejemplo 2.4. Para determinar si u = 2 es combinación lineal de los vectores v1 = 1 ,
0 −1
−2 1 −4
v2 = 1 , v3 = −3 y v4 = 1 debe analizarse si existen escalares c1 , c2 , c3 y c4 tales
5 −5 4
que satisfagan la siguiente ecuación en las incógnitas x1 , x2 , x3 y x4 :
x1 v1 + x2 v2 + x3 v3 + x4 v4 = u, (2.1)
esto es:
1 −2 1 −4 1
x1 1 + x2 1 + x3 −3 + x4 1 = 2 .
−1 5 −5 4 0
Operando en el primer miembro se obtiene:
x1 − 2x2 + x3 − 4x4 1
x1 + x2 − 3x3 + x4 = 2 ,
−x1 + 5x2 − 5x3 + 4x4 0
y, por igualdad de vectores, la ecuación (2.4) es equivalente al sistema lineal
x1 −x2 +x3 −4x4 = 1
x1 +x2 −3x3 +x4 = 2
−x1 +5x2 −5x3 +4x4 = 0
con lo cual el problema se reduce a estudiar la consistencia de este sistema. Aplicando eliminación
gaussiana
a la matriz aumentada se obtiene una forma escalonada que no tiene renglones de la forma
0 0 ... 0 : b con b ̸= 0:
1 −2 1 −4 : 1 −−−−−−−−−−−−−→ 1 −2 1 −4 : 1
1 1 −3 1 : 2 RR23 − R1 → R2
0 3 −4 5 : 1 →
+ R1 → R3
−1 5 −5 4 : 0 0 3 −4 0 : 1
1 −2 1 −4 : 1
−−−−−−−−−−−−−→
R3 − R2 → R3 0 3 −4 5 : 1 .
0 0 0 −5 : 0
Luego, el sistema lineal es consistente por lo que el vector u resulta ser combinación lineal de los
vectores v1 , v2 , v3 y v4 . Más aún, el sistema tiene infinitas soluciones y por lo tanto hay una infinidad
de maneras de expresar al vector u como combinación lineal de dichos vectores.
La solución general del sistema es
x1 = 35 + 53 t
x2 = 13 + 43 t
, t ∈ R.
x =t
3
x4 =0
10
y si t = 1 se obtiene c1 = 3 , c2 = 53 , c3 = 1 y c4 = 0:
1 −2 1 −4 1
10 5
1 + 1 + 1 −3 + 0 1 = 2 .
3 3
−1 5 −5 4 0
En general, las infinitas maneras de escribir al vector u como combinación lineal de los vectores
v1 , v2 , v3 y v4 está dada por
1 −2 1 −4 1
5 5 1 4
+ t 1 + + t 1 + t −3 + 0 1 = 2 , t ∈ R. ◀
3 3 3 3
−1 5 −5 4 0
Ejercicios 2.1
son iguales.
5. Determine si el vector b es combinación lineal de los restantes vectores. En caso afirmativo, halle
coeficientes de la combinación lineal.
2 1 0 5
a) b = −1 ; a1 = −2 , a2 = 1 y a3 = −6 .
6 0 2 −8
4 1 2 3
b) b = 0 ; a1 = −1 , a2 = 1 y a3 = 2 .
5 0 3 5
c) b = (4, 0, 4); a1 = (1, −1, 0), a2 = (2, 1, 3), a3 = (3, 2, 5) y a4 = (1, 1, 2).
−10 1 0 4
−5 −1 0 1
d) b =
17 ; a1 = 3 , a2 = 1 y a3 = −2 .
−14 0 −1 −3
a
6. Calcule el o los valores de a de manera que el vector u = −2 sea una combinación lineal de
0
0 1
los vectores v = 2 y w = 0 .
1 a
7. Sean v1 , v2 ,...,vk vectores de R3 y suponga que para cada j = 1, 2, ..., k un objeto con masa mj
está posicionado en el extremo del vector vj . En Fı́sica llaman masas puntuales a esos objetos.
La masa total del sistema de masas puntuales es m = m1 + m2 + ... + mk . El centro de gravedad
o (centro de masa) del sistema es
1
v= (m1 v1 + m2 v2 + ... + mk vk ) .
m
a) Calcule el centro de gravedad del sistema de cuatro masas puntuales cuyas posiciones y
masas son: v1 = (2, −2, 4) y m1 = 4g; v2 = (−4, 2, 3) y m2 = 2g; v3 = (4, 0, −2) y m3 = 3g;
v4 = (1, −6, 0) y m4 = 5g.
b) Una delgada placa triangular de densidad y grosor uniformes, tiene vértices en v1 = (0, 1),
v2 = (8, 1) y v3 = (2, 4). Si la masa total de la placa es de 6g, determine cómo distribuirla
en los tres vértices de manera que el centro de gravedad sea v = (2, 2).
La matriz de m × n que tiene todos sus elementos ceros se denomina matriz cero y se simboliza
Om×n . Por ejemplo la matriz cero de 2 × 3 es
0 0 0
O2×3 = ,
0 0 0
Cuando se sobreentiende el tamaño de la matriz, las matrices cero pueden denotarse simplemente
por O.
La matriz cuadrada de orden n que tiene solo unos en su diagonal principal y los restantes elementos
son ceros se llama matriz identidad y se simboliza In . Por ejemplo la matriz identidad de orden 3
es
1 0 0
I3 = 0 1 0 .
0 0 1
Cuando se sobreentiende el tamaño de la matriz, una matriz identidad puede denotarse simplemente
por I.
Observe que la primera, segunda y tercera columnas de I3 son respectivamente
los vectores
e1 , e2
y e3 de R3 . En general In expresada en términos de sus columnas es In = e1 e2 ... en , donde
la j-ésima columna de In es el vector ej de Rn con j = 1, 2, ..., n.
1 −2 1 −2
Ejemplo 2.5. A = yB= son iguales si y solo si a = 1 y b = 5.◀
1 0 a b−5
A + B = [aij + bij ] .
−2 3 0 1 0 1 −1 3 1
Ejemplo 2.6. + = .◀
1 4 −1 −3 1 1 −2 5 0
Definición (Producto de una matriz por un escalar). Sean A = [aij ] una matriz de m × n
y k un escalar. El producto de la matriz A por el escalar k es la matriz de m × n, denotada
por kA, dada por
kA = [kaij ] .
Es decir, kA es la matriz de m × n que se obtiene de multiplicar todos los elementos de A
por k.
1. A + B = B + A [Conmutativa]
2. A + (B + C) = (A + B) + C [Asociativa]
5. c(A + B) = cA + cB [Distributiva]
6. (b + c)A = bA + cA [Distributiva]
8. 1A = A
Demostración. Se probarán aquı́ las propiedades 1. y 5. Se dejan las demás demostraciones como
ejercicio.
Sean las matrices A = [aij ] y B = [bij ] de m × n. Entonces:
5. Por definición de suma de matrices, de producto de una matriz por un escalar y por la propiedad
distributiva del producto respecto a la suma en R:
1. kA = O ⇔ k = 0 ó A = O.
2. − (kA) = (−k) A.
El teorema pueda aplicarse para resolver ciertas ecuaciones que involucran matrices. Por ejemplo, sean
A y B dos matrices de m × n y se desea determinar la matriz que satisface la ecuación 2X + 4B = 3A.
2X + 4B = 3A,
(2X + 4B) + (− (4B)) = 3A + (− (4B)) ,
2X + (4B + (− (4B)) = 3A − 4B,
2X + O = 3A − 4B,
2X = 3A − 4B,
1 1
(2X) = (3A − 4B) ,
2 2
1 1
2 X = (3A − 4B) ,
2 2
1
1X = (3A − 4B) ,
2
1
X = (3A − 4B) .
2
Actividad 2.4. Indique qué propiedades se aplicaron sucesivamente para resolver la ecuación anterior.
u1 v1
u2 v2
Ası́, si u = .. yv= .. , o bien, si u = (u1 , u2 , ..., un ) y v = (v1 , v2 , ..., vn ), entonces
. .
un vn
X
n
u · v = u1 v1 + u2 v2 + ... + un vn = ui vi .
i=1
X
n
u·v= ui vi .
i=1
1 2
−2 3
Ejemplo 2.8. Si u =
3 y v = −1
, el producto punto de u y v es:
5 0
u · v = 1(2) + (−2)(3) + 3(−1) + 5(0) = −7. ◀
Nota: El producto punto es una operación importante que se retomará en el Capı́tulo 5 y ha sido
introducido en este momento por conveniencia ya que interviene en la multiplicación entre matrices.
La ecuación (2.2) establece que el (i, j)-ésimo elemento de la matriz producto AB, es el producto
punto del vector cuyas componentes son las del renglón i-ésimo de A por el vector cuyas componentes
son las de la columna j-ésima de B.
colj (B) ↓
a11 a12 ... a1p
.. .. .. b11 b12 ... b1j ... b1n
. .
. ... b21 b22 ... b2j ... b2n
reni (A) → ai1 ai2 ... aip . .. . .. .. =
.. . .
.. . . ... .. .
..
. . ... . b
p1 bp2 ... b pj ... b pn
am1 am2 ... amp
c11 c12 ... c1j ... c1n
.. .. .. .. ..
. . ... . . .
= ci1 ci2 ... cij ... cin
. .. .. .. ..
.. . ... . . .
cm1 cm2 ... cmj ... cmn
X
p
cij = reni (A) · colj (B) = ai1 b1j + ai2 b2j + ... + aip bpj = aik bkj .
k=1
Observe que el producto AB está definido solo si el número de columnas de la matriz A es igual
al número de renglones de la matriz B:
Am× p B p ×n
= ABm×n
−2 5
1 2 −1
Ejemplo 2.9. Dadas A = y B = 3 −4 . Como A es una matriz de 2 × 3 y B es
3 1 5
1 2
de 3 × 2 es posible efectuar AB y resultará una matriz de 2 × 2:
−2 5
1 2 −1
AB = 3 −4 =
3 1 5
1 2
1(−2) + 2(3) + (−1)(1) 1(5) + 2(−4) + (−1)(2)
= =
3(−2) + 1(3) + 5(1) 3(5) + 1(−4) + 5(2)
3 −5
= .◀
2 21
1 −2 3 2 3
Ejemplo 2.10. Sean las matrices A = 3 0 2 y B = −1 0 .
2 −1 3 3 2
Para calcular el elemento (3, 2) de la matriz AB se debe efectuar el producto punto del vector
renglón 3 de la matriz A por el el vector columna 2 de la matriz B. Luego el elemento (3, 2) de AB es
2(3) + (−1)(0) + 3(2) = 12.◀
1 2 −1 3 −5
3 1 5 2 21
3 −5
Luego, AB = .◀
2 21
Nota: La suma de matrices se define de manera natural, sumando elemento a elemento. Esto hace
que la suma de matrices verifique las mismas propiedades que la suma de números reales.
La multiplicación de matrices requiere más cuidado que la suma, no está definida de la manera
natural que se hubiese esperado (multiplicar elemento a elemento), por lo cual ciertas propiedades del
producto de números reales no se verifican en el producto matricial. Para los números reales a y b
siempre se tiene que ab = ba, sin embargo en el caso de las matrices AB y BA no son por lo general
iguales.
Por definición, el producto AB se puede realizar solo si el número de columnas de A es igual al
número de renglones de B. Si A es una matriz de m × p y B es una matriz de p × n, AB es una matriz
de m × n y con respecto a BA pueden darse distintas situaciones:
Puede ocurrir que BA no esté definido. Por ejemplo, si A es de 2 × 3 y B es de 3 × 4, AB es una
matriz de 2 × 4 mientras que el producto BA no es posible.
En el caso en que BA también esté definido, pueden ocurrir dos situaciones:
• AB y BA son de distinto tamaño y por lo tanto son matrices distintas. Por ejemplo, si A
es de 2 × 3 y B es de 3 × 2 entonces AB es de orden 2 mientras que BA es de orden 3.
Trivialmente AB ̸= BA.
• AB y BA son del mismo orden (esto ocurre cuando A y B son matrices cuadradas de igual
orden). Sin embargo, en general, no resultan iguales.
1 0 0 2
Por ejemplo si A = yB= entonces
1 1 3 1
0 2 2 2
AB = y BA = .
3 3 4 1
Se ha visto que aunque ambos productos AB y BA estén definidos no tienen por qué ser iguales.
Puede concluirse entonces que el producto de matrices no es conmutativo.
Otras peculiaridades del producto de matrices son las siguientes:
Supongamos que A, B y C son matrices de tamaños tales que los productos matriciales que se
indican están definidos:
AB = O no implica A = O ó B = O (claramente, si A = O ó B = O entonces AB = O).
1 2 −2 −4 2 0 0 0
Por ejemplo, si A = yB= resulta AB = , siendo A y
2 4 1 2 −1 0 0 0
B matrices no cero.
CA = CB no implica A = B.
1 2 1 0 2 3 2 −4
Por ejemplo, para las matrices C = ,A= yB= , resulta
2 4 1 1 −3 0 0 0
3 2 −4
CA = CB = siendo las matrices A y B distintas.
6 4 −8
AC = BC no implica A = B.
a11 a12 ... a1n c1 ren1 (A) · c a11 c1 + a12 c2 + ... + a1n cn
a21 a22 ... a2n c2 ren2 (A) · c a21 c1 + a22 c2 + ... + a2n cn
Ac = .. .. .. .. = .. = .. .
. .
... . . . .
am1 am2 ... amn cn renm (A) · c am1 c1 + am2 c2 + ... + amn cn
Es decir
Ac = c1 a1 + c2 a2 + ... + cn an ,
a1j
a2j
donde aj = . es la j-ésima columna de la matriz A. Entonces el producto de una matriz A de
..
amj
m × n por un vector columna, c, de n componentes (matriz de n × 1) es una combinación lineal de las
columnas de A, cuyos coeficientes son las componentes (elementos) de c.
−1 3
3
Ejemplo 2.12. Si A = −2 5 y c = , el producto Ac dado como una combinación lineal
−1
0 1
de las columnas de A es
−1 3 −3 −3 −6
Ac = 3 −2 + (−1) 5 = −6 + −5 = −11 . ◀
0 1 0 −1 −1
Ejemplo 2.13 (Producto de una matriz por un vector ek ). Si se multiplica una matriz A de
m × n por el vector (columna) ek de Rn se obtiene la k-ésima columna de A. Esto es:
Aek = ak ,
Actividad 2.6. Pruebe el resultado del Ejemplo 2.13. Sugerencia: expresa Aek como una combinación
lineal de las columnas de A.
Ic = c. ◀
Ax = b,
a11 a12 ... a1n x1
a21 a22 ... a2n x2
donde A = .. .. .. .. es la matriz de coeficientes del sistema, x = .. es el vector
. . . . .
am1 am2 . . . amn xn
b1
b2
de incógnitas y b = . el vector de términos constantes.
..
bm
En efecto,
a11 a12 ... a1n x1 a11 x1 + a12 x2 + ... + a1n xn
a21 a22 ... a2n x2 a21 x1 + a22 x2 + ... + a2n xn
Ax = .. .. .. .. .. = .. .
. . . . . .
am1 am2 . . . amn xn am1 x1 + am2 x2 + ... + amn xn
Luego, por definición de igualdad de vectores:
a11 x1 + a12 x2 + ... + a1n xn = b1
a21 x1 + a22 x2 + ... + a2n xn = b2
Ax = b ⇔ ..
.
am1 x1 + am2 x2 + ... + amn xn = bm
Esto muestra que resolver la ecuación matricial Ax = b equivale a resolver el sistema lineal de
matriz aumentada [A : b].
c1
c2
Una solución de la ecuación Ax = b es un vector c = . si y solo si la n−upla (c1 , c2 , ..., cn )
..
cn
es una solución del sistema lineal de matriz aumentada [A : b].
2x +y −3z = 5
Ejemplo 2.15. El sistema lineal puede escribirse en forma matricial como
4x −5z = 8
x
2 1 −3 5
y = .◀
4 0 −5 8
| {z } z | {z }
A | {z } b
x
Ax = b ⇔ x1 a1 + x2 a2 + ... + xn an = b.
Ası́, un sistema lineal de matriz aumentada [A : b] también puede escribirse como la ecuación
x1 a1 + x2 a2 + ... + xn an = b,
en las incógnitas x1 , x2 ,...,xn
Resumiendo: si A = a1 a2 ... an , resolver la ecuación Ax = b o bien la ecuación x1 a1 +
x2 a2 + ... + xn an = b, equivale a resolver un sistema lineal de matriz aumentada [A : b].
Ejemplo 2.16. El sistema lineal del Ejemplo 2.15 se puede expresar como la ecuación:
2 1 −3 5
x +y +z = .◀
4 0 −5 8
Como consecuencia de las expresiones equivalentes para un sistema lineal, resulta el siguiente teorema:
Por ejemplo, si t = 1:
5 13 2 3 1 −3
= + +1 .◀
8 4 4 2 0 −5
2. A (B + C) = AB + AC [Distributiva a izquierda]
3. (B + C) A = BA + CA [Distributiva a derecha]
5. Im A = AIn = A
6. OA = O y AO = O
Escribiendo los productos AIn y Im A en términos de sus columnas y teniendo en cuenta los
Ejemplos 2.13 y 2.14, se obtienen
AIn = Ae1 Ae2 ... Aen = a1 a2 ... an = A,
y
Im A = Im a1 Im a2 ... Im an = a1 a2 ... an = A.
Nota: La propiedad asociativa permite eliminar paréntesis para la multiplicación de tres o más ma-
trices. Por ejemplo:
(AB) (CD) = A ((BC) D) = A (B (CD)) = ABCD.
Actividad 2.8. Verifique la propiedad 1. del teorema anterior para las matrices:
0 −3 0 1
5 −3 1 0 −2
A= , B= y C= 1 2 5 −1 .
1 2 1 2 −3
2 0 −1 3
A (x + y) = Ax + Ay,
A (kx) = k (Ax) .
En general si A es una matriz de m × n y x1 , x2 ,..., xk son k vectores columna de n componentes
entonces
A (c1 x1 + c2 x2 + ... + ck xk ) = c1 (Ax1 ) + c2 (Ax2 ) + ... + ck (Axk ) ,
para cualesquiera escalares c1 , c2 ,..., ck .
Para la trasposición de matrices se tienen las siguientes propiedades que se enuncian sin demostración:
Teorema 2.5. En cada ı́tem, sea A una matriz de m × n, B una matriz de tamaño tal que
estén bien definidas las operaciones que se indican y c un escalar. Entonces se satisfacen las
siguientes propiedades:
t
1. At =A 3. (cA)t = cAt
2. (A + B)t = At + B t 4. (AB)t = B t At
Actividad 2.9. Verifique la propiedad 4. del teorema anterior para las matrices
0 −3 0 1
1 0 −2
A= y B= 1 2 5 −1 .
1 2 −3
2 0 −1 3
De la definición anterior se deduce que necesariamente una matriz simétrica es cuadrada ya que si A
es de m × n entonces At es de n × m y por lo tanto si At = A debe ser n = m.
9 0 −1
5 8
Ejemplo 2.19. La matriz 0 2 5 es simétrica mientras que no lo es.◀
−3 5
−1 5 3
Actividad 2.10. Pruebe que para toda matriz A las matrices AAt y At A están bien definidas y son
matrices simétricas.
−1 2 0
Ejemplo 2.20. Sea la matriz A = 3 0 −1 . Para efectuar el cálculo de A3 primero se puede
0 −1 4
obtener A2
−1 2 0 −1 2 0 7 −2 −2
A2 = AA = 3 0 −1 3 0 −1 = −3 7 −4 ,
0 −1 4 0 −1 4 −3 −4 17
Teorema 2.6. Si A es una matriz cuadrada y p y q son cualesquiera enteros positivos entonces
1. Ap Aq = Ap+q .
2. (Ap )q = Apq .
Ejercicios 2.2
2. Calcule, si es posible, las siguientes operaciones. Si no es posible efectuar el cálculo, explique por
qué.
1 2 −4 3 1 2
a) + 1 2 9
−3 −2 1 0 c) 3 0 +
3 2 0
1 4
1 2 0 3 −2 −1
1 2 9 d) 2 −3 −2 1 − 4 1 0 1
b) −3
3 2 −5 1 −1 4 0 −1 2
a) 2X − A + B + 3C = O c) 2 (A − 2B) + 2X = 0C
b) −X + 1
2A − 3C = 4X + B d ) X − 12 B = C + 4X
3 −1
5. Considere los vectores u = (−1, 2, −2, 1), v = (4, −2, 5, 3), a = 1 y b = 0 . Calcule
2 5
los siguientes productos punto:
a) u · v c) a · b
b) u · (2u − v) d ) −b · 2a
a −2
0
6. Sean u = y v = 1 . Halle el valor de a de manera que u · v = 3.
−2 3
3 −1
1 −2 4 0 2 1 2 0 4
c) e)
−3 0 1 −1 5 −1 1 −3 3
1 2 −1 0 1 2
4 0 2 1 −2 f) 1 2 0 2 −2 0
d)
1 −1 5 −3 0 −1 0 −2 1 4 0
2 −1 1 3
8. Obtenga el elemento (2, 2) de .
2 0 4 −5
10. Una matriz cuadrada A = [aij ] es una matriz diagonal si aij = 0 si i ̸= j. Demuestre que el
producto de dos matrices diagonales de orden n es también una matriz diagonal de orden n y
enuncie una regla para multiplicar dos matrices diagonales.
1 3 2
b) A = yb= .
−2 −1 1
1 −1 1 3
c) A = 1 0 5 y b = 3 .
3 −2 7 0
15. Demuestre que si x1 y x2 son soluciones del sistema Ax = b, entonces x1 − x2 es una solución
del sistema homogéneo asociado Ax = 0.
t
16. Obtenga la matriz X que satisfaga la ecuación (2X)t − 2AB t = BAt siendo
1 1 1 0 −1 1
A= 1 0 3 y B= 0 0 1 .
2 −1 2 −1 1 2
a) (2A)3 c) (−AB)3
b) (A + B)2 − I 4 d ) (0A)3 + O15 + 2I
a) A2 = O y A ̸= O.
b) A2 = I siendo A ̸= I y A ̸= −I.
1 2 2 −1
21. Dadas las matrices A = yB = . ¿Es cierto que (A + B)2 = A2 +2AB+B 2 ?.
3 4 −3 −2
Justifique su respuesta.
22. Sean A y B matrices cuadradas de orden n. Determine si las siguientes proposiciones son ver-
daderas o falsas. Justifique.
a) A2 − B 2 = (A − B) (A + B).
b) (AB)2 = A2 B 2 .
c) (A + B)2 = A2 + 2AB + B 2 ⇔ AB = BA
d ) Si A y B conmutan, es decir AB = BA, entonces (AB)2 = A2 B 2 .
e) Si A es simétrica entonces la matriz 2A2 BB t es simétrica.
AB = I y BA = I.
1 2 3 −1
Ejemplo 2.21. Sean A = yB= 1 . Puede verificarse que AB = BA = I, por lo
2 6 −1 2
tanto A es invertible y B es una inversa de A.◀
¿Existirá otra matriz C, distinta de B, tal que AC = CA = I?. El teorema que sigue muestra que
esto no puede suceder.
AB = BA = I y AC = CA = I.
Entonces:
B = BI = B (AC) = (BA) C = IC = C.
Dado que B = C queda probado que una matriz invertible no puede admitir más que una matriz
inversa.
Observación 2.3. A la matriz inversa de una matriz A invertible se la denota A−1 . Ası́, para una
matriz A invertible:
AA−1 = A−1 A = I.
Debido a la unicidad de la matriz inversa, si A y B son dos matrices de n×n tales que AB = BA = I
se puede concluir que A es invertible y que B es su inversa, es decir A−1 = B.
Ejemplo 2.22. Retomando el Ejemplo 2.21 puede concluirse que la matriz B es la inversa de A, esto
es: A−1 = B.◀
Demostración. Probaremos aquı́ las propiedades 3. y 4. Las matrices A y B son invertibles, entonces
AA−1 = A−1 A = I y BB −1 = B −1 B = I.
t
3. Las matrices At y A−1 son ambas cuadradas de orden n,
t t t t
At A−1 = A−1 A = I t = I y A−1 At = AA−1 = I t = I.
t −1 t
De la Observación 2.3, At es invertible y su inversa es A−1 es decir At = A−1 .
4. Las matrices AB y B −1 A−1 son ambas cuadradas de orden n. Dado que:
(AB) B −1 A−1 = A B B −1 A−1 = A BB −1 A−1 = A IA−1 = AA−1 = I, y
B −1 A−1 (AB) = B −1 A−1 (AB) = B −1 A−1 A B = B −1 (IB) = B −1 B = I,
se deduce, de la Observación 2.3, que AB es invertible y que su inversa es el prodcuto B −1 A−1
es decir
(AB)−1 = B −1 A−1 .
Observación 2.4. La suma de matrices invertibles no es, en general, una matriz invertible. No es
cierto que (A + B)−1 sea igual que A−1 + B −1 (Véase Ejercicio 2.3.a).
−1 3
Actividad 2.13. Pruebe que si A es invertible, A3 es invertible y A3 = A−1 .
Es más, este resultado permite definir un nuevo concepto: potenciación de matrices de exponente
negativo:
Se puede generalizar el Teorema 2.2 para la potenciación de matrices con cualquier exponente entero
y se tiene el siguiente resultado:
Teorema 2.10. Si C es una matriz invertible y en cada caso A y B son matrices de tamaños
apropiados entonces
1. CA = CB ⇒ A = B.
2. AC = BC ⇒ A = B.
A = B ⇒ CA = CB,
y
A = B ⇒ AD = BD,
mientras que A = B no implica que CA = BC.
Por ejemplo, considere la ecuación matricial CXA − B = O donde A y C son invertibles y todas
las matrices son de tamaños compatibles.
Se puede despejar X (matriz incógnita) de la siguiente manera:
CXA − B = O,
CXA = B,
(CXA) A−1 = BA−1 ,
CX AA−1 = BA−1 ,
CXI = BA−1 ,
CX = BA−1 ,
C −1 (CX) = C −1 BA−1 ,
C −1 C X = C −1 BA−1 ,
IX = C −1 BA−1 ,
X = C −1 BA−1 .
En lo que sigue se proveen algunos resultados que permitirán hallar la inversa de una matriz invertible
o probar que es singular.
De acuerdo a la Observación 2.3, una matriz B es la inversa de una matriz A si AB = I y BA = I.
En general para dos matrices A y B de n × n, AB no es igual a BA pero en el caso en que AB = I el
siguiente teorema, cuya demostración se omitirá en este texto, muestra que también BA = I.
1 4
Ejemplo 2.26. De acuerdo al corolario anterior, para determinar si la matriz A = es
−1 −3
invertible, debe analizarse si la ecuación AX = I tiene solución. En caso afirmativo, la (única) solución
de dicha ecuación es la matriz inversa de A.
x11 x12
Siendo X = la matriz incógnita,
x21 x22
1 4 x11 x12 1 0
AX = I ⇔ = ,
−1 −3 x21 x22 0 1
x11 + 4x21 x12 + 4x22 1 0
⇔ = .
−x11 − 3x21 −x12 − 3x22 0 1
Por igualdad de matrices, se obtienen los dos sistemas lineales de matrices aumentadas [A : e1 ] y
[A : e2 ]:
x11 +4x21 = 1 x12 +4x22 = 0
y .
−x11 −3x21 = 0 −x12 −3x22 = 1
Puede verificarse que ambos sistemas tienen solución única. La solución del primer sistema es
x11 = −3 y x21 = 1 que son los elementos de la primer columna de la matriz X. De manera similar,
resolviendo el segundo sistema, se obtienen los elementos de la segunda columna de la matriz incógnita,
x12 = −4 y x22 = 1. Se obtiene ası́ la matriz
−3 −4
B=
1 1
Sabemos que una matriz cuadrada, A, de orden n es invertible si y solo si la ecuación matricial
AX = I tiene solución (en cuyo caso la única solución es A−1 ). Si las sucesivas columnas de la matriz
incógnita X son x1 , x2 ,..., xn :
AX = Ax1 Ax2 ... Axn .
Dado que I = e1 e2 ... en , por definición de igualdad de matrices:
Luego, la ecuación AX = I equivale a resolver los n sistemas lineales Axj = ej , j = 1, 2, ..., n. Estos
n sistemas lineales tienen la misma matriz, A, de coeficientes y por lo tanto pueden resolverse en forma
simultánea (véase Ejercicio 10, Sección 1.4) aplicando el método de eliminación de Gauss-Jordan a la
matriz aumentada:
A : e1 e2 ... en = [A : I] .
Si en algún momento del proceso se llega a una matriz escalonada [H : J] (H es una forma esca-
lonada de A) donde H no tiene renglones cero, entonces todos los sistemas lineales Axj = ej tienen
solución y por lo tanto AX = I tiene solución y A es invertible.
Dado que A es de n × n y tiene n posiciones pivote, el proceso de Gauss-Jordan conduce a la forma
escalonada reducida [I : B] siendo la j-ésima columna de B la solución del sistema Axj = ej . Ası́, la
matriz B es la solución de AX = I y por lo tanto B = A−1 .
Supongamos que en algún momento del proceso se llega a una matriz [C : D] donde C tiene un
renglón cero. Debe tenerse en cuenta que en cualquier etapa del proceso, la matriz de la derecha no
tiene renglones cero ya que es equivalente por renglones a la matriz original I identidad. Esto significa
que alguno de los sistemas Axj = ej es inconsistente (¿ por qué?) y por lo tanto AX = I no tiene
solución de lo que se deduce que A no es invertible.
Todo lo anterior se puede resumir en el siguiente algoritmo:
−1 1 0
Ejemplo 2.27. Para determinar la inversa de A = 1 0 −2 , si existe, utilizamos el algoritmo
2 −1 0
anterior. Se comienza aplicando el proceso de eliminación de Gauss-Jordan a la matriz [A : I]:
−1 1 0 : 1 0 0 −−−−−−−−−−−−−−→ −1 1 0 : 1 0 0
[A : I] = 1 0 −2 : 0 1 0 RR32 ++2R R1 → R2
1 → R3
0 1 −2 : 1 1 0 −−R−3−−−−R−−2−→ −−−−→
R3
2 −1 0 : 0 0 1 0 1 0 : 2 0 1
−1 1 0 : 1 0 0 −1 1 0 : 1 0 0
→ 0 1 −2 : 1 1 0 21 R3 → R3 0 1 −2 : 1
−−−−−−−−−−→
1 0 −−R−2−−+−2R
−−−−−−−−→
3 → R2
0 0 2 : 1 −1 1 0 0 1 : 12 − 12 12
−1 1 0 : 1 0 0 −1 0 0 : −1 0 −1
→ 0 1 0 : 2 0 1 −−R−1−−−−R−−2−→
−−−−→
R1 0 1 0 : 2 0 1 −−−R −−−−−−−−→
1 → R1
0 0 1 : 1
2 − 1
2
1
2 0 0 1 : 1
2 − 1
2
1
2
1 0 0 : 1 0 1
→ 0 1 0 : 2 0 1 = [I : B] .
0 0 1 : 2 − 12 12 1
Debe observarse que para determinar A−1 no es necesrio saber de antemano si existe o no. Simplemente
se inicia el procedimiento indicado y se obtiene A−1 o se concluye que A es singular.
El siguiente teorema da a conocer diferentes caracterizaciones de matrices invertibles.
Teorema 2.12. Sea A una matriz de n × n. Entonces las siguientes proposiciones son equi-
valentes:
1. A es invertible.
Demostración. Se seguirá el siguiente orden en las implicancias (1) ⇒ (2) ⇒ (3) ⇒ (4) ⇒ (5).
Probando luego que (5) ⇒ (1) se tendrán demostradas todas las equivalencias.
(1) ⇒ (2) Sea b un vector columna de Rn . El vector A−1 b es solución de Ax = b ya que
A A−1 b = AA−1 b = Ib = b.
Por lo tanto Ax = b es consistente para todo b ∈ Rn . Además A−1 b es la única solución de
Ax = b puesto que si y es una solución de Ax = b resulta:
Ay = b ⇒ A−1 (Ay) = A−1 b ⇒ A−1 A y = A−1 b ⇒ Iy = A−1 b ⇒ y = A−1 b.
(2) ⇒ (3) Si Ax = b tiene única solución para todo b ∈ Rn , esto vale, en particular, si b es el vector
cero. Por lo tanto Ax = 0 tiene única solución, la trivial.
(3) ⇒ (4) Si Ax = 0 tiene única solución, entonces cada columna de la matriz A es una columna
pivote y por lo tanto A tiene n posiciones pivote.
(4) ⇒ (5) Sea Q la forma escalonada reducida de A. Como A tiene n posiciones pivote, Q tiene
un pivote en cada renglón, las posiciones pivote de Q serán (1, j1 ), (2, j2 ),...., (n, jn ) donde
1 ≤ j1 < j2 < ... < jn ≤ n. Luego, necesariamente j1 = 1, j2 = 2,..., jn = n es decir las
posiciones pivote de Q son (1, 1), (2, 2),...., (n, n). Dado que Q es escalonada reducida los pivotes
son unos y en cada columna donde hay un pivote el resto de los elementos son ceros. Ası́, las
columnas de Q son los vectores e1 , e2 ,..., en y por lo tanto Q = I.
(5) ⇒ (1) Si la forma escalonada reducida de A es I entonces ninguna forma escalonada de A
tiene un renglón cero y por lo tanto todo sistema que tiene a A como matriz de coeficientes es
consistente. En particular, los sistemas Axj = ej , j = 1, 2, ..., n son consistentes y por lo tanto
la ecuación AX = I tiene solución lo que prueba que A es invertible.
Observación 2.5. La equivalencia (1) ⇔ (2) es el siguiente resultado importante en relación a los
sistemas lineales cuadrados:
Ejercicios 2.3
4. Calcule todos los valores de a de modo que la siguiente matriz sea no singular:
1 1 −1
0 1 1 .
−1 2 a
5. En caso de ser posible resuelva los sistemas lineales calculando primero la inversa de la matriz
de coeficientes.
x − y − z = 1 −x + y + z = b
a) x −z = 4 b) −x + z = b2
x − 2y − z = 0 y − z = b3
1 0 −1 3 3 −2
c) (X + 2F ) G = X siendo F = 0 2 −2 y G = 0 0 −3 .
0 1 3 0 0 2
2 3 1 2 1 0
d ) XB −1 = C t siendo B −1 = 0 1 0 yC= 0 1 1 .
3 −2 1 −1 2 −1
1 2
e) N t − N X = 2X siendo N = .
−1 4
8. Demuestre que una matriz cuadrada que tiene una columna o una fila de ceros es una matriz
singular.
9. Sea A = [aij ] una matriz diagonal. Demuestre que si los elementos de la diagonal a11 , a22 ,..., ann
son distintos de cero, entonces A es invertible y A−1 es una matriz diagonal cuyos elementos de
la diagonal son a111 , a122 ,..., ann
1
.
10. La ecuación real a2 = 1 tiene exactamente dos soluciones. Encuentre al menos cuatro matrices
de 2 × 2 que son autoinversas, es decir, A2 = I (busque entre las matrices diagonales).
11. Sean A y B matrices cuadradas de orden n. Determine si las siguientes proposiciones son ver-
daderas o falsas. Justifique su respuesta:
12. Scilab. Las operaciones suma, multiplicación y potencia se indican con “+”, “∗” y “∧”, respecti-
vamente. La transpuesta de A se obtiene mediante el comando “A’ ”. Para calcular la inversa de
una matriz A es posible utilizar el comando “inv(A)” o bien simplemente ingresando “A∧ − 1”.
En el caso en que A no es invertible, devuelve “!–error 19 Problem is singular”. También es po-
sible determinar si una matriz A es invertible usando eliminación de Gauss-Jordan aplicando el
comando “rref” a la matriz ampliada [A : I] que devuelve su forma escalonada reducida [C : D],
si C = I entonces D = A−1 mientras que si C ̸= I entonces A no es invertible.
0,3 1 0 0,2 −1 1 1
−0,1 0,2 0 1 −2 0,2 1
1 1 1,2 −0,3 2 0 1
B=
0,1 3 2 −0,1 0,4 2 1 ,
2 0,3 0,22 0,1 0 0 2
1 0,4 3 0,1 1,5 −0,2 −2,1
1 1 0,2 4 1 6 0
0,1
0,2
1
y el vector b =
1,1 . Calcule si es posible:
2
0
−1
a) 2At − AB
b) A−1
c) (10A)−1 B
d ) Ab
e) A−3
3
f ) 2A−1 B 2 − B
g) La solución del sistema lineal Ax = b, hallando previamente la inversa de A.
h) ¿Admite soluciones no triviales el sistema lineal Bx = 0?
matriz representa una situación de tres industrias. Por ejemplo, el elemento a12 = 0,3 indica que
por cada dólar de producción en la industria 2, el 30 % es aportado por la industria 1.
Sea xj la producción de la industria j (en dólares) y sea dj la demanda no industrial (en dólares)
de la producción de la indsutria j. En nuestro ejemplo,j = 1, 2, 3. Puede formularse un conjun-
to de ecuaciones simultáneas que, al resueltas, determinen los niveles de producción de xj en
los cuales la oferta y la demanda totales estarán en equilibrio. Las ecuaciones de este sistema
presentarán la forma general:
cuyos elementos son los niveles de las demandas no industriales, el sistema anterior puede ex-
presarse matricialmente de la forma
x = Ax + d.
Si la matriz de insumos-producción es cuadrada, como en nuestro ejemplo, y la matriz I − A es
invertible, es posible despejar x y obtener el vector de niveles de equilibrio de producción:
x = (I − A)−1 d
conociendo el vector demanda no industrial d. En nuestro ejemplo de las tres industrias, verifique
usando Scilab que:
1,837 0,816 1,020
(I − A)−1 = 0,490 1,551 0,939 .
0,694 0,531 2,163
Supongamos además que los niveles de las demandas no industriales son:
d1 = $50000000,
d2 = $30000000,
y
d3 = $60000000,
entonces verifique usando Scilab que en nuestro ejemplo, los niveles de equilibrio son:
177530000
x = 127370000 ,
180410000
es decir la industria 1 deberı́a generar una producción con un valor de 177530000 dólares, la
industria 2 una producción con un valor de 127370000 dólares y la industria 3 una producción
con un valor de 180410000 dólares.
DETERMINANTES
En este capı́tulo se estudiará uno de los conceptos más importantes del Álgebra Lineal. A cada matriz
cuadrada se le puede asignar cierto número real llamado determinante de la misma, el cual tiene
diversas aplicaciones en esta asignatura, como por ejemplo el cálculo del polinomio caracterı́stico para
encontrar los valores y vectores propios de una matriz, la regla de Cramer para resolver ciertos sistemas
lineales, el cálculo de una matriz inversa, etc.
3.1. Introducción
Se utilizará un método de recurrencia para la definición de determinante, esto es, el determinante
de una matriz de cuadrada de orden n se define en términos de determinantes de matrices de orden
menor.
Se debe tener en cuenta, como en el caso de la inversa de una matriz, que el concepto de determi-
nante es aplicable solo a matrices cuadradas.
ii. Si n ≥ 2,
det(A) = (−1)1+1 a11 det(A1,1 ) + (−1)1+2 a12 det(A1,2 ) + ... + (−1)1+n a1n det(A1,n )
Xn
= (−1)1+j a1j det(A1,j ),
j=1
Ejemplo 3.1. Si A = [−3], una matriz cuadrada de orden n = 1, por definición (parte i.) es det(A) =
−3. ◀
a11 a12
Si A = entonces det(A) = |A| = a11 a22 − a12 a21 .
a21 a22
Nota: En este texto det(A) y |A| se usan indistintamente para representar el determinante de una
matriz cuadrada A. Es práctica común eliminar los corchetes de una matriz y escribir por ejemplo
a11 a12 a11 a12
en lugar de .
a21 a22 a21 a22
−2 4 3 −2
Ejemplo 3.2. Sean la matrices A = yB= , entonces:
−3 21 −6 4
−2 4 1
|A| = = (−2) − 4(−3) = 11,
−3 21 2
y
3 −2
|B| = = 3 (4) − (−2)(−6) = 0. ◀
−6 4
det(A) = (−1)1+1 a11 det(A1,1 ) + (−1)1+2 a12 det(A1,2 ) + (−1)1+3 a13 det(A1,3 ) =
a22 a23 a21 a23 a21 a22
= (−1)2 a11 + (−1)3 a12 + (−1)4 a13 =
a32 a33 a31 a33 a31 a32
= a11 (a22 a33 − a23 a32 ) − a12 (a21 a33 − a23 a31 ) + a13 (a21 a32 − a31 a22 ) =
= a11 a22 a33 − a11 a23 a32 − a12 a21 a33 + a12 a23 a31 + a13 a21 a32 − a13 a31 a22
= a11 a22 a33 + a12 a23 a31 + a13 a21 a32 − a31 a22 a13 − a32 a23 a11 − a33 a21 a12 .
Hay un artificio para memorizar esta fórmula, llamado regla de Sarrus, que se ilustra a conti-
nuación:
Se agregan las dos primeras columnas a la derecha de la matriz A. Se suman los productos de los
elementos que indican las flechas que con el signo ⊕ y se restan los productos de los elementos que
indican las flechas con el signo ⊖.
i. El menor del elemento aij , o simplemente el menor (i, j), Mij , es el determinante de la
matriz cuadrada de orden n − 1, Ai,j , que resulta de eliminar el renglón i y la columna
j de la matriz A. Esto es: Mij = det(Ai,j ).
ii. El cofactor del elemento aij de A, o simplemente el cofactor (i, j), es el número denotado
Cij y dado por Cij = (−1)i+j Mij .
−1 0 1
Ejemplo 3.3. Si A = 2 3 2 el menor (2, 3) es el determinante de la matriz que se obtiene
1 −1 1
−1 0
de eliminar al renglón 2 y la columna 3 de A. Ası́, M23 = det(A2,3 ) = = 1. El cofactor
1 −1
(2, 3) es C23 = (−1)2+3 M23 = (−1)5 (1) = −1. ◀
Dado que det(A1,j ) = M1j , en términos de menores y cofactores, la definición dada de determinante
de una matriz A cuadrada de orden n ≥ 2 se reescribe de la siguiente manera
X
n
det(A) = |A| = (−1)1+j a1j M1j .
j=1
O bien:
X
n
det(A) = |A| = a1j C1j .
j=1
X
n
∆colj = aij Cij = a1j C1j + a2j C2j + ... + anj Cnj ,
i=1
X
3
∆ren1 = det(A) = a1j C1j = a11 C11 + a12 C12 + a13 C13 = 2(−1)1+1 M11 + 0(−1)1+2 M12 +
j=1
1 0 −1 1
+(−1)(−1)1+3 M13 = 2 +0− = 2(1) − (−5) = 7.
2 1 3 2
X
3
∆ren2 = a2j C2j = a21 C21 + a22 C22 + a23 C23 = (−1)(−1)2+1 M21 + 1(−1)2+2 M22 +
j=1
0 −1 2 −1
+0(−1)2+3 M23 = 1 +1 + 0 = 1(2) + 1(5) = 7.
2 1 3 1
X
3
∆ren3 = a3j C3j = a31 C31 + a32 C32 + a33 C33 = 3(−1)3+1 M31 + 2(−1)3+2 M32 +
j=1
0 −1 2 −1 2 0
+1(−1)3+3 M33 = 3 + (−2) +1 = 3(1) +
1 0 −1 0 −1 1
+(−2)(−1) + 1(2) = 7.
X3
∆col1 = ai1 Ci1 = a11 C11 + a21 C21 + a31 C31 = 2(−1)1+1 M11 + (−1)(−1)2+1 M21 +
i=1
1 0 0 −1 0 −1
+3(−1)3+1 M31 = 2 + (−1)(−1) +3 = 2(1) +
2 1 2 1 1 0
+1(2) + 3(1) = 7.
X3
∆col2 = ai2 Ci2 = a12 C12 + a22 C22 + a32 C32 = 0(−1)1+2 M12 + 1(−1)2+2 M22 +
i=1
2 −1 2 −1
+2(−1)3+2 M32 = 0 + 1 + 2(−1) = 1(5) + (−2)(−1) = 7.
3 1 −1 0
X
3
∆col3 = ai3 Ci3 = a13 C13 + a23 C23 + a33 C33 = (−1)(−1)1+3 M13 + 0(−1)2+3 M23 +
i=1
−1 1 2 0
+1(−1)3+3 M33 = (−1) +0+1 = (−1)(−5) + 1(2) = 7.
3 2 −1 1
Obsérvese que todos estos números son iguales e iguales al determinante de A. Esto no es casualidad
sino el resultado de un teorema más general que se enuncia a continuación y que no se demostrará en
este texto:
Dado que det(A) = ∆ren1 y, por el teorema anterior, ∆ren1 = ∆reni = ∆colj para todo i = 1, 2, ..., n
y j = 1, 2, ..., n, se tiene el siguiente resultado que muestra que el determinante de una matriz puede
calcularse empleando cualquier renglón o cualquier columna. Más precisamente:
Corolario 3.1. Sea A = [aij ] una matriz cuadrada de orden de n (n ≥ 2). Entonces:
X
n
1. det(A) = aij Cij = ai1 Ci1 + ai2 Ci2 + ... + ain Cin , para cualquier i = 1, 2, ..., n.
j=1
X
n
2. det(A) = aij Cij = a1j C1j + a2j C2j + ... + anj Cnj , para cualquier j = 1, 2, ..., n.
i=1
Es evidente que el cálculo de un determinante puede ser muy tedioso. Por ejemplo, para calcular un
determinante de orden 4 deben calcularse 4 determinantes de orden 3 y para calcular un determinante
de orden 5, debe calcularse 5 determinantes de orden 4.
Sabiendo ahora que det(A) puede calcularse desarrollándolo por cualquier renglón o cualquier
columna, es claro que para simplificar el cálculo es conveniente elegir una fila o columna que tenga el
máximo número de ceros. Ası́ se evita el cálculo de algunos de los menores.
−1 3 0 1
4 2 2 5
Ejemplo 3.4. Si A =
0 6 3 4 para calcular el determinante de A conviene desarrollarlo
2 1 0 1
por la tercera columna. Luego:
X
4 0
z}|{ z}|{
0
|A| = ai3 Ci3 = a13 C13 + a23 C23 + a33 C33 + a43 C43 =
i=1
−1 3 1 −1 3 1
= 2(−1)5 M23 + 3(−1)6 M33 = −2 0 6 4 +3 4 2 5 ,
2 1 1 2 1 1
Ya se ha dicho que obtener el determinante de una matriz puede convertirse en un trabajo que requiere
una gran cantidad de cálculos a menos que la matriz sea pequeña o que tenga muchos ceros. En la
sección siguiente se verán procedimientos que ayudan a minimizar dichos cálculos. Pero además existen
algunas matrices que aunque sean grandes sus determinantes se pueden evaluar fácilmente. Se dará la
siguiente definición:
−1 3 00
0 1 2 1
1 25
Ejemplo 3.5. Las matrices A =
0 y B = 0 0 5 son triangulares superiores,
0 34
0 0 3
0 0 01
1 0 0 1 0 0
2 0
C= 2 1 0 yD= son triangulares inferiores y E = 0 −4 0 es diagonal.◀
2 1
−1 0 8 0 0 3
Para una matriz A triangular inferior, se obtendrı́a el mismo resultado: det(A) = a11 a22 a33 a44 (en
este caso convendrı́a elegir la última columna o el primer renglón para desarrollarlo). ◀
Claramente el determinante de una matriz triangular es cero si y solo si en la diagonal principal hay
al menos un elemento cero.
Nótese que dado que una matriz diagonal es una matriz triangular (superior e inferior), entonces
su determinante es el producto de los elementos de la diagonal principal.
Ejercicios 3.1
1 −2 3
1. Dada la matriz A = 0 4 2 .
−2 1 −1
4 −3 4 −2 5
a)
2 5 g) 1 4 4
√ √ −2 1 −2
2 − 2
b)
1 −3 1 2 0 −1
2 1 2 2
3 −5 h)
0 1 0 1
c)
−6 10 2 −2 1 −3
0 2 −1
d) 1 1 3 2 0 0 1
4 −2 3 3 −3 0 0
i)
2 1 5 0
2 3 1 3 2 1 −1
e) −1 2 4
0 0 −2 2 3 −1 8 2
0 3 1 −1 4
0 −2 1 j) 0 0 5 0 −9
f) 1 4 2 0 0 0 −1 12
0 3 −2 0 0 0 0 1
4 0 0 0 0 −3 0 0 0 0
0 −3 0 0 0 0 −3 0 0 0
k) 0 0 2 0 0 l) 0 0 −3 0 0
0 0 0 −1 0 0 0 0 −3 0
0 0 0 0 5 0 0 0 0 −3
Teorema 3.3. Si cualquier renglón o columna de una matriz A es el vector cero entonces
|A| = 0.
Demostración. Basta con desarrollar el determinante por cofactores con respecto al renglón o columna
que contiene solo ceros.
1 0 2
Ejemplo 3.8. −3 0 5 = 0, dado que la segunda columna contiene solo ceros.◀.
8 0 3
a11 a12 ... ca1j ... a1n a11 a12 ... a1j ... a1n
a21 a22 ... ca2j ... a2n a21 a22 ... a2j ... a2n
2. |B| = .. .. .. =c .. .. = c |A|.
. . ... ... . . . ... ... ...
an1 an2 ... canj ... ann an1 an2 ... anj ... ann
Demostración. Se probará aquı́ 1. Dado que las matrices A y B difieren solo en el i-ésimo renglón,
entonces los cofactores de los elementos del renglón i de A, Ci1 , Ci2 ,..., Cin , son respectivamente iguales
a los cofactores correspondientes al renglón i de B. Considerando el desarrollo de los determinantes
de ambas matrices, A y B, respecto al i-ésimo renglón es:
|B| = (cai1 )Ci1 + (cai2 )Ci2 + ... + (cain )Cin = c (ai1 Ci1 + ai2 Ci2 + ... + ain Cin ) = c |A| .
Observación 3.1. Esta propiedad establece que en un determinante se permite “extraer” un factor
común de un renglón o columna del mismo.
2 0 −1
Ejemplo 3.9. Supongamos que se quiere calcular el determinante de la matriz B = −1 1 0 .
15 10 5
2 0 −1
Sea A = −1 1 0 la matriz que se obtiene de dividir entre 5 (multiplicar por 15 ) el último
3 2 1
renglón de B, es decir,
la matriz A se obtiene de realizar una operación elemental de renglón a la
matriz B 5 R3 → R3 . Por el teorema anterior la relación entre |B| y |A| es:
1
1
|A| = |B| o |B| = 5 |A| .
5
De esta manera se puede simplificar el cálculo de |B| calculando un determinante más fácil de
resolver. Dado que |A| = 7 entonces
2 0 −1 2 0 −1
−1 1 0 = 5 −1 1 0 = 5(7) = 35. ◀
15 10 5 3 2 1
Ejemplo 3.10. Sea la matriz 5A donde A es la matriz del ejemplo anterior. Extrayendo sucesivamente
el factor común 5 en cada columna:
10 0 −5 5(2) 5(0) 5(−1) 2 5(0) 5(−1)
|5A| = −5 5 0 = 5(−1) 5(1) 5(0) = 5 −1 5(1) 5(0) =
15 10 5 5(3) 5(2) 5(1) 3 5(2) 5(1)
2 0 5(−1) 2 0 −1
= 5(5) −1 1 5(0) = 52 (5) −1 1 0 =
3 2 5(1) 3 2 1
El mismo resultado se hubiese obtenido extrayendo sucesivamente factor común 5 en cada renglón.◀
La aplicación reiterada del resultado del Teorema 3.4 permite demostrar el siguiente:
|cA| = cn |A| .
Teorema 3.5. Al intercambiar dos renglones o dos columnas cualesquiera de una matriz
A, el determinante de la matriz B obtenida, es el opuesto del determinante de A. Esto es:
|B| = − |A|.
|B| = a21 a12 − a11 a22 = − (a11 a22 − a21 a12 ) = − |A| .
términos del desarrollo del determinante de B por cofactores correspondiente al renglón l resultan
entonces opuestos a los términos del desarrollo del determinante de A por dicho renglón. De este
modo, |B| = − |A|.
El mismo razonamiento permite generalizar este resultado para una matriz A de orden mayor.
1 3 5 2 5 3 1 2
0 −1 3 4 3 −1 0 4
Actividad 3.1. Dadas las matrices A = 2
yB= . Compruebe, sin
1 9 6 9 1 2 6
3 2 4 8 4 2 3 8
hacer cálculos, que |B| = − |A|. Halle luego |A| y por consiguiente |B|.
Demostración. Se probará para el caso de dos renglones iguales (análogamente se demuestra para dos
columnas iguales).
Supongamos que los renglones h y k de la matriz A son iguales. La matriz B que se obtiene de
intercambiar los renglones h y k es la misma matriz A, por lo tanto
Por otro lado, dado que B se obtiene de A por un intercambio de renglones entonces del teorema
anterior
|B| = − |A| . (3.2)
De (3.1) y (3.2) resulta |A| = − |A| y ası́ |A| = 0.
2 2 2 9
−1 1 −1 8
Ejemplo 3.11. = 0 dado que la primer y tercer columnas son iguales.◀
3 3 3 6
4 2 4 8
a11 a12 ... a1n a11 a12 ... a1n
.. .. .. .. .. ..
. . ... . . . ... .
ah1 ah2 ... ahn ah1 ah2 ... ahn
..
A = ... ..
. ... . y B= .
.. ..
. ...
..
. .
ak1 ak2 ... akn ak1 + cah1 ak2 + cah2 ... akn + cahn
.. .. .. .. .. ..
. . ... . . . ... .
an1 an2 ... ann an1 an2 ... ann
Dado que A y B difieren solo en el k-ésimo renglón entonces los cofactores de los elementos de
dicho renglón de A, Ck1 , Ck2 ,..., Ckn son iguales a los cofactores del k-ésimo renglón de B.
Desarollando el determinante de B por el k-ésimo renglón:
|B| = (ak1 + cah1 ) Ck1 + (ak2 + cah2 ) Ck2 + ... + (akn + cahn ) Ckn =
= (ak1 Ck1 + ak2 Ck2 + ... + akn Ckn ) + c (ah1 Ck1 + ah2 Ck2 + ... + ahn Ckn ) .
Análogamente se demuestra que si a una columna se le suma un múltiplo escalar de otra columna,
el determinante no varı́a.
3 2 1
Ejemplo 3.12. Sea la matriz A = 2 −1 0 . Se observa rápidamente que si el 3◦ renglón se le
6 4 3
3 2 1
resta dos veces el 1◦ se obtiene la matriz B = 2 −1 0 cuyo determinante es −7.
0 0 1
Ası́ por propiedad enunciada en el teorema anterior es |A| = |B| = −7.◀
2 3 4 4 1 −2 3 4 1 −2 3 4
−1 5 0 −1 −1 5 0 −1 0 3 3 3
|A| = = − = − =
1 −2 3 4 R1 ↔R3 2 3 4 4 R2 + R1 → R2 0 7 −2 −4
R3 − 2R1 → R3
1 −1 1 0 1 −1 1 0 R4 − R1 → R4 0 1 −2 −4
1 −2 3 4 1 −2 3 4
0 1 1 1 0 1 1 1
= −3 = −3 =
1
R →R2
3 2
0 7 −2 −4 R3 − 7R2 → R3 0 0 −9 −11
R4 − R2 → R4
0 1 −2 −4 0 0 −3 −5
1 −2 3 4 1 −2 3 4
0 1 1 1 0 1 1 1
= −3(−9) = 27 =
− 19 R3 →R3 0 0 1 11
9 R4 +3R3 →R4 0 0 1 11
9
0 0 −3 −5 0 0 0 − 43
4
= 27 − = −36.
3
En este ejemplo, se llegó a una matriz triangular equivalente haciendo uso de las tres operacio-
nes elementales de renglón (intercambio, escalamiento y eliminación), pero siempre es posible llevar
una matriz cuadrada a una forma triangular usando únicamente operaciones de eliminación y de in-
tercambio. Por lo tanto si B es una matriz triangular equivalente a A obtenida sin escalamientos, es
det(A) = det(B) o det(A) = − det(B) y, como el determinante de una matriz triangular es el producto
de los elementos de la diagonal principal, se tiene entonces el siguiente resultado:
Teorema 3.7. Sea A una matriz cuadrada de orden n y B = [bij ] una matriz triangular
obtenida de A a partir de operaciones elementales de renglón sin escalamientos. Entonces
Actividad 3.2. Aplique el Teorema 3.7, es decir use solo operaciones de eliminación e intercambio,
para llevar la matriz A del ejemplo anterior a una matriz triangular equivalente, B. Muestre que
|A| = (−1)k |B| siendo k es el número de intercambios realizados.
Demostración. Sea A una matriz cuadrada de orden n y B = [bij ] una forma escalonada de A (por
lo tanto triangular) obtenida mediante operaciones de renglón sin escalamientos. De acuerdo con el
teorema anterior:
det(A) = (−1)k b11 b22 ...bnn , (3.3)
donde k es el número de intercambios de renglones realizados.
Según el Teorema 2.12, A es invertible si y solo si tiene n posiciones pivote. Esto es, A es invertible
si y solo si en cualquier (toda) forma escalonada de A los elementos de la diagonal principal son
distintos de cero. Luego, A es invertible si y solo si bii ̸= 0 para todo i = 1, 2, ..., n que, por (3.3),
equivale a det(A) ̸= 0.
1 −1 2
Ejemplo 3.13. La matriz A = 3 1 4 es invertible ya que det(A) = 16 ̸= 0.◀
0 −2 5
a11 a12
|A| = = a11 a22 − a12 a21 ,
a21 a22
y
a11 a21
At = = a11 a22 − a21 a12 = a11 a22 − a12 a21 = |A| .
a12 a22
Para el caso n = 3, dado que el primer renglón de A es igual a la primera columna de At ,
desarrollando el determinante de At por la primera columna:
′ ′ ′
At = a11 M11 − a12 M21 + a13 M31 ,
donde Mi1′ es el menor (i, 1) de la matriz At , i = 1, 2, 3. Desarrollando el determinante de A por el
primer renglón:
i y la columna 1 de At . Es fácil ver que A′i,1 = (A1,i )t y, dado que son matrices cuadradas de orden 2,
′ para todo i = 1, 2, 3.
es |A1,i | = (A1,i )t , es decir M1i = Mi1
Este mismo razonamiento se puede generalizar para una matriz de orden n > 3.
1 −1 2
Actividad 3.3. Sea A = 3 1 4 . Verifique que det At = det(A) = 16.
0 −2 5
1 −1 2 0 2 0
Actividad 3.4. Sean A = 3 1 4 y B = −5 0 0 . Compruebe que |AB| = |A| |B|.
0 −2 5 0 0 1
Nota: No debe inferirse un resultado similar al del teorema anterior para la suma de matrices. No es
cierto que determinante de una suma es la suma de los determinantes.
1 2 1 1
En efecto, sean las matrices A = yB= .
2 3 1 2
2 3
|A + B| = = 1,
3 5
mientras que
1 2 1 1
|A| + |B| = + = −1 + 1 = 0.
2 3 1 2
Ası́,
|A + B| ̸= |A| + |B| .
El Teorema 3.9 proporciona la relación que existe entre el determinante de una matriz invertible y el
de su inversa.
1
Corolario 3.5. Si A es una matriz invertible entonces |A| ̸= 0 y A−1 = .
|A|
AA−1 = |I| = 1,
0 2 0 0 − 15 0
Ejemplo 3.14. La matriz A = −5 0 0 es invertible. Su inversa es A−1 = 21 0 0
0 0 1 0 0 1
−1 1 1
(verifı́quelo). Puede comprobarse que |A| = 10 (̸= 0) y que A = = .◀
10 |A|
El Corolario 3.4 agrega un resultado a los del Teorema 2.12 visto en el capı́tulo 2:
Teorema 3.10. Sea A una matriz A de n × n. Entonces las siguientes proposiciones son
equivalentes:
1. |A| ̸= 0.
2. A es invertible.
Demostración. Del Teorema 2.12 se sabe que 2., 3., 4., 5. y 6. son equivalentes. El Teorema 3.4 agrega
la equivalencia entre 1. y 2.
Por lo tanto, 1., 2., 3., 4., 5. y 6. son equivalentes.
De la equivalencia (1) ⇔ (4) se deduce el siguiente resultado importante en relación a los sistemas
lineales cuadrados homogéneos:
2 −3 1
Dado que 4 0 −2 = −26 ̸= 0 entonces el primer sistema tiene única solución x = y = z = 0
3 −1 −3
(solución trivial).
2 3 1
En cambio 1 −1 2 = 0 por lo cual el segundo sistema tiene soluciones no triviales.◀
1 4 −1
Ejercicios 3.2
1. Sin efectuar cálculos, explique por qué los siguientes determinantes son cero:
−1 3 0 1 −1 3 1 4 1 2 1 −4
2 9 0 5 2 9 1 −1 3 −1 1 2
a) b) c)
1 2 0 4 −1 3 1 4 1 0 1 0
2 3 0 −1 0 2 5 −1 0 2 1 −4
2. Calcule los siguientes determinantes de las siguientes matrices aplicando operaciones elementales
de renglón:
1 3 1 1 2 1 0 1 1 −1 0 0
2 2 1 0 0 −2 1 1 2 3 4 0
a) −1 1 1
b)
c)
1 1 1 3 −1 1 1 1 1
0 2 2 −1 1 3 0 −2 −2 2 1 −1
3. Sea A una matriz cuadrada de orden n y k un número entero positivo. Teniendo en cuenta el
Teorema 3.9, pruebe que
Ak = |A|k .
A−k = A−1
k
.
4. Sea A una matriz cuadrada de orden 4 tal que det(A) = −3, y sean las matrices:
a b c
5. Sea d e f = −2. Calcule los siguientes determinantes:
g h i
a d g g h i
a) b e h d) d e f
c f i −a −b −c
a b c g 2a d
b) d e f e) h 2b e
−2g −2h −2i i 2c f
3a 3b 3c a b c − 2a
c) 3d 3e 3f f) d e f − 2d
3g 3h 3i g h i − 2g
8. Sean A, B, C y D matrices cuadradas de orden 4 tal que det(A) = −2, det(C) = 3, det(D) = 0
y
2 −1 3 5
1 3 1 0
AB t C −1 =
2
.
1 −1 4
1 0 −2 1
Definición (Matriz de cofactores y matriz adjunta). Dada una matriz A = [aij ] cuadrada de
orden n ≥ 2. La matriz de cofactores de A, que se simboliza Cof(A), es la matriz cuadrada
de orden n cuyo elemento (i, j)-ésimo es el cofactor Cij de la matriz A.
La matriz transpuesta de la matriz de cofactores de A es la matriz adjunta de A y se simboliza
Adj(A). Es decir:
C11 C21 ... Cn1
C12 C22 ... Cn2
Adj(A) = (Cof(A))t = .. .. .. .
. . ... .
C1n C2n ... Cnn
2 −3 1
Ejemplo 3.16. Sea la matriz A = 4 0 −2 . Los cofactores de A son: C11 = −2, C12 = 6,
3 −1 −3
C13 = −4, C21 = −10, C22 = −9, C23 = −7, C31 = 6, C32 = 8 y C33 = 12, por lo cual
−2 6 −4 −2 −10 6
Cof(A) = −10 −9 −7 y Adj(A) = 6 −9 8 . ◀
6 8 12 −4 −7 12
A continuación se establece un resultado que nos permitirá deducir un teorema aún más importante
para obtener la inversa de una matriz:
X
n
2. Si l ̸= t entonces ail Cit = 0.
i=1
Esto es, la suma de los productos de los elementos de un renglón (o columna) de A por los
cofactores correspondientes a los elementos de otro renglón (o columna) de A es igual a cero.
X
n
ahj Ckj = 0.
j=1
Este lema es utilizado en la demostración del teorema que sigue. Primero, veamos el siguiente ejemplo:
Ejemplo 3.17. Sea la matriz A del ejemplo anterior. Observemos la matriz que se obtiene de hacer
el producto de la matriz A por su adjunta:
2 −3 1 −2 −10 6 −26 0 0 1 0 0
A Adj(A) = 4 0 −2 6 −9 8 = 0 −26 0 = (−26) 0 1 0 =
3 −1 −3 −4 −7 12 0 0 −26 0 0 1
= (−26)I.
A Adj(A) = |A| I. ◀
Lo obtenido en el ejemplo anterior no es casual ya que se verifica para cualquier matriz cuadrada:
A Adj(A) = |A| I.
Si i = j la suma en (3.4) es |A| (desarrollado por el i-ésimo renglón) y si i ̸= j, por Lema 3.1, la
suma en (3.4) es igual a 0, es decir
|A| si i = j
dij = ,
0 si i ̸= j
luego
|A| 0 ... 0
0 |A| ... 0
D = A Adj(A) = .. .. .. = |A| I.
. . ... .
0 0 ... |A|
1
Teorema 3.12. Si A es una matriz invertible entonces A−1 = Adj(A).
|A|
AAdj(A) = |A| I.
2 −3 1
Ejemplo 3.18. Considere la matriz A = 4 0 −2 del Ejemplo 3.16. Su adjunta es
3 −1 −3
−2 −10 6
Adj(A) = 6 −9 8 .
−4 −7 12
Dado que |A| = −26 ̸= 0, A es invertible. Su inversa es:
−2 −10 6 1/13 5/13 −3/13
1 1 6 −9 8 = −3/13
A−1 = Adj(A) = 9/26 −4/13 . ◀
|A| −26
−4 −7 12 2/13 7/26 −6/13
Nota: Para obtener la matriz Adj(A) se requiere calcular n2 cofactores, es decir n2 determinantes de
(n − 1) × (n − 1). Por ejemplo, si n = 10 hay que hallar 100 determinantes de orden 9 × 9 y esto lleva al
cálculo de 8100 determinantes de 8 × 8, y ası́ siguiendo. Debido a esta cantidad de cómputos casi no se
usa el Teorema 3.12 para el cálculo de A−1 , la reducción de la matriz aumentada [A : I] sigue siendo
el método a elegir. Sin embargo, el teorema es muy útil para demostrar propiedades de las inversas.
También para comprobar una fórmula para la solución de un sistema lineal cuadrado.
El siguiente teorema, denominado Regla de Cramer, es uno de los resultados más conocidos en la
historia de la Matemática. Durante muchos años fue fundamental en la enseñanza del Álgebra y de
la teorı́a de ecuaciones. Aunque se usa muy poco en la actualidad, debido al gran número de cálculos
requeridos, sigue siendo un resultado muy importante a los fines teóricos.
Teorema 3.13 (La regla de Cramer). Sea A una matriz cuadrada de orden n con deter-
minante distinto de cero. Entonces la única solución del sistema lineal Ax = b está dada
por
|A1 | |A2 | |An |
x1 = , x2 = , ... , xn =
|A| |A| |A|
donde Ai es la matriz que se obtiene al sustituir
la i-ésima columna
de A por el vector b. Es
decir, si en términos de sus columnas es A = a1 a2 ... an entonces
A1 = b a2 ... an , A2 = a1 b ... an , ... , An = a1 a2 ... b .
Dado que las matrices A y Ai difieren solo en la i-ésima columna, los cofactores correspondientes
a esta columna en la matriz A, C1i , C2i ,..., Cni , son iguales a los cofactores de la i-ésima columna en
la matriz Ai . Por lo tanto, desarrollado por la i-ésima columna, es:
X
n X
n
|Ai | = bj Cji = Cji bj .
j=1 j=1
1 −3 1 2 1 1 2 −3 1
|A1 | = 2 0 −2 = −22, |A2 | = 4 2 −2 = −12 y |A3 | = 4 0 2 = −6.
0 −1 −3 3 0 −3 3 −1 0
Ejercicios 3.3
1. Utilice la matriz adjunta para calcular la inversa, si existe, de cada una de las siguientes matrices:
2 3 1 −2
a) A = b) B =
1 −9 −2 4
1 1 1 2 1 −1
c) C = −2 −1 1 d) D = 0 1 −1
1 4 0 1 −1 2
2. Cuando sea posible, aplique la regla de Cramer para resolver los siguientes sistemas de ecuaciones
lineales:
2x − 9y = 6
a)
x + 3y = 7
2x1 −x2 = 0
b) x1 +x2 −x3 = 1
3x1 −4x2 +3x3 = 2
2x −y +3z = 1
c) x −y +2z = 0
3x −2y +5z = −3
x1 +x2 +x3 = −5
d) x1 −x2 +x3 = −1
2x1 −x2 +3x3 = −3
3. Aplique la regla de Cramer para hallar la solución del sistema lineal:
cos θ x − sen θ y = a
sen θ x + cos θ y = b
ESPACIOS VECTORIALES
Definición (Espacio vectorial real). Sea V un conjunto y dos operaciones llamadas suma
y multiplicación por escalar. La suma es una regla que asocia a cada par de elementos u, v
de V un objeto, u + v, llamado suma de u y v. La multiplicación por un escalar es una regla
que asocia a cada par compuesto por un escalar real k y un elemento u de V un objeto, ku,
llamado producto de k por u.
El conjunto V juntamente con las dos operaciones conforman una estructura matemática
denominada espacio vectorial real si se verifican las diez propiedades siguientes llamadas
axiomas de un espacio vectorial:
u + 0 = 0 + u = u.
u + (−u) = (−u) + u = 0.
A los elementos del conjunto V se los llama vectores. El elemento 0 se denomina vector cero, o
simplemente el cero del espacio vectorial, y −u se llama vector opuesto de u. Se puede demostrar
que en un espacio vectorial hay un único 0 y que cada vector u de V, tiene un único opuesto (véase
Ejercicio 4).
(S1 ) y (M1 ) son las propiedades de cerradura para la suma y multiplicación por escalares,
respectivamente. También se dice que el conjunto V es cerrado bajo dichas operaciones.
(S2 ) y (S3 ) son las propiedades conmutativa y asociativa de la suma, respectivamente.
(M2 ) y (M3 ) son propiedades distributivas.
Debe observarse que en un espacio vectorial el conjunto de vectores V es no vacı́o ya que de acuerdo
a (S4 ) V debe contener, al menos, un elemento (el vector cero).
Si en la definición anterior los escalares son números complejos se tiene la definición de espacio
vectorial complejo. En este texto todos los escalares que se utilizan son números reales, por lo tanto
en lo que sigue un espacio vectorial será siempre un espacio vectorial real.
Debe tenerse presente que en la definición no se especifica la naturaleza de los llamados vectores
ni la de las operaciones. Cualquier clase de objetos puede “servir” como vector. Para comprobar que
un determinado conjunto V de objetos con dos operaciones, una entre elementos del conjunto (suma)
y otra entre un escalar y un elemento del conjunto (multiplicación por escalar) es un espacio vectorial,
lo único que se requiere es que se satisfagan los 10 axiomas.
Para la verificación de estos axiomas puede ser conveniente seguir el siguiente orden:
1. Verificar que ambas operaciones son cerradas en V: propiedades de cerradura (S1 ) y (M1 ).
Los ejemplos que siguen dan una idea de la diversidad de espacios vectoriales posibles. Los dos
primeros ejemplos son los modelos usados para tomar como axiomas, en la definición de espacio
vectorial, las propiedades que verifican las operaciones habituales de suma y multiplicación por un
escalar en dichos conjuntos.
1. La suma de matrices y la multiplicación por escalar habituales en Mmn son, por definición,
operaciones cerradas en Mmn (véase la sección 2.2). Por lo tanto se satisfacen (S1 ) y (M1 ).
2. La matriz cero, Om×n , es el cero de este espacio vectorial. Luego, se satisface (S4 ).
3. Para cada matriz A de Mmn , la matriz −A es su matriz opuesta. Por lo tanto se satisface (S5 ).
Este espacio vectorial es el denominado espacio vectorial Mmn o simplemente el espacio Mmn .
En este contexto, un “vector” es una matriz de m × n. En particular si m = n se denotará
simplemente Mn .◀
4. Probaremos el axioma (M3 ), dejando como ejercicio la prueba de los cinco restantes axiomas.
Sean a, b ∈ R y p = a0 + a1 x + ... + an xn un polinomio en Pn . Debe probarse que es válida la
siguiente igualdad: (a + b) p = ap + bp. En efecto:
= (aa0 + ba0 ) + (aa1 + ba1 ) x + ... + (aan + ban ) xn = [Def. suma de polinomios]
= (aa0 + aa1 x + ... + aan xn ) + (ba0 + ba1 x + ... + ban xn ) = [Def. multiplicación por escalar]
Actividad 4.1. Demuestre los axiomas (S2 ), (S3 ), (M2 ), (M4 ) y (M5 ) del Ejemplo 4.3.
1. Las funciones f + g y cf son funciones reales ya que f (x) + g(x) y cf (x) son números reales.
Además como f y g están definidas para todo x ∈ D, también f + g y cf están definidas en
D. Ası́, ambas operaciones son cerradas en F (D) y por lo tanto se verifican los axiomas (S1 ) y
(M1 ).
2. La función constante cero, O, cuya ley es O(x) = 0 para todo x ∈ D, es el vector cero de este
espacio vectorial. Puede verificarse fácilmente que f + O = O + f = f para todo f en F (D). En
efecto para todo x ∈ D,
y similarmente
(O + f ) (x) = f (x).
Por lo tanto, se satisface el axioma (S4 ).
3. Es fácilmente comprobable que si f es una función en F (D) entonces la función −f cuya ley es
es una función en F (D) tal que f + (−f ) = (−f ) + f = O. Luego, se satisface el axioma (S5 ).
La verificación de los restantes axiomas se deja como ejercicio.
Este espacio vectorial es el denominado espacio vectorial F(D) o simplemente el espacio F(D).
En este contexto, una función real definida en D es un vector de este espacio vectorial.◀
α + α = α,
cα = α, para todo c ∈ R.
Claramente α es el vector cero y el opuesto de α es el mismo α. Los demás axiomas se verifican de
manera trivial. Por ejemplo: para probar el axioma (M4 ), dado que cα = α para todo c, se tiene que
a (bα) = aα = α,
y también
(ab) α = α.
Luego, a (bα) = (ab) α para todo a y b en R.
Los espacios vectoriales unitarios difieren solo en el único objeto que constituye el conjunto V. Este
objeto es trivialmente el cero de dicho espacio. Por esta razón se denomina espacio vectorial cero a
todo espacio vectorial unitario y a su único elemento se lo simboliza 0.◀
Ejemplo 4.7. El conjunto formado por el polinomio cero y todos los polinomios a coeficientes reales
de grado 2, con las operaciones estándar de suma de polinomios y multiplicación por escalar, no es un
espacio vectorial.
En efecto, la suma de dos polinomios de grado 2 no es necesariamente un polinomio de grado 2.
Por ejemplo: si p = 2 + 3x − 5x2 y q = x + 5x2 entonces p + q = 2 + 4x que no es un polinomio de
grado 2. Por lo tanto no se satisface el axioma de cerradura de la suma.◀
Ejemplo 4.8. El conjunto R2 con la suma habitual pero con la multiplicación por escalar definida
por
c (x, y) = (cx, 0) ,
no es un espacio vectorial.
Si bien se satisfacen los primeros seis axiomas: (S1 ), (S2 ), (S3 ), (S4 ), (S5 ) y (M1 ), ya que la suma
es la habitual en R2 y la multiplicación por escalar ası́ definida es cerrada, es fácilmente comprobable
que no se satisface el axioma (M5 ) ya que
Nota: Es importante observar, como la definición de espacio vectorial establece, que éste se compone
de un conjunto V de “vectores”, un conjunto de escalares y dos operaciones con ciertas propiedades
especiales.
Un mismo conjunto V puede ser el conjunto de objetos de dos espacios vectoriales distintos, es
decir, bajo operaciones diferentes. Cuando no hay posibilidad de confusión, en todo lo que sigue, se
denotará simplemente con V a un espacio vectorial arbitrario.
1. 0u = 0 3. (−1)u = −u
2. c0 = 0 4. Si cu = 0 entonces c = 0 ó u = 0
Demostración. Se probará la propiedad 1. y quedará como ejercicio la prueba de las demás propiedades.
Sea u un vector de V. Como 0 + 0 = 0 entonces
0u = (0 + 0) u, (4.1)
(0 + 0) u = 0u + 0u. (4.2)
0u + 0u = 0u.
Por el axioma (S5 ), el vector 0u tiene un opuesto, −0u. Al sumar este vector a los dos miembros
de la igualdad anterior se obtiene:
0u + 0 = 0,
0u = 0.
Nota: Cabe la siguiente importante observación: En un espacio vectorial real el conjunto V consta de
un número infinito de vectores o bien de un único vector (véase Ejercicio 8).
Ejercicios 4.1
a) V es el conjunto formado por todos los vectores de R3 que tienen la tercera componente
cero (plano xy) con las operaciones habituales de suma y multiplicación por escalar en R3 .
b) V es el conjunto de las matrices de 2 × 2 invertibles, con las operaciones habituales de suma
y multiplicación por escalar definidas en M2 .
c) V es el conjunto de todos los polinomios a coeficientes reales con términos constantes no
negativos, con las operaciones de suma y multiplicación por escalar habituales en P.
d ) V es el conjunto R2 , con la suma habitual pero con la mutiplicación por escalar definida
por c (x, y) = (0, 0).
e) V es el conjunto de todas las funciones reales derivables en R, con las operaciones de suma
y multiplicación por escalar habituales en F (R).
4. Demuestre que en un espacio vectorial V, hay un único vector cero y para cada vector u de V,
hay un único opuesto.
5. Demuestre las restantes propiedades del Teorema 4.1.
6. Sea V un espacio vectorial y u, v y w vectores de V. Demuestre que si u + w = v + w entonces
u = v.
7. Sea V un espacio vectorial, u y v vectores de V y a un escalar. Demuestre que si au = av
entonces a = 0, o bien u = v.
8. Demuestre que el único espacio vectorial que tiene un número finito de vectores es el espacio
vectorial cero. Es decir, todo espacio vectorial (con escalares reales) contiene infinitos vectores o
solo el vector cero.
Para probar que un conjunto W con dos operaciones, suma y multiplicación por escalar, es un espacio
vectorial, se deben verificar los 10 axiomas de la definición. Sin embargo, si W es parte de un conjunto
mayor V del que ya se sabe que es un espacio vectorial con esas mismas operaciones, entonces no es
necesario verificar ciertos axiomas para W porque se “heredan” de V. Por ejemplo no es necesario
verificar que u + v = v + u (axioma (S2 )) en W porque esto se cumple para todos los vectores en V y,
en consecuencia, para todos los vectores en W. Es fácil ver que los otros axiomas “heredados” por W
son: (S3 ), (M2 ), (M3 ), (M4 ) y (M5 ). Por lo tanto para demostrar que un conjunto W es un subespacio
de un espacio vectorial V solo es necesario verificar los axiomas (S1 ), (S4 ), (S5 ) y (M1 ), que son las
dos cerraduras, la existencia de un vector cero y la de los opuestos. El siguiente teorema hace ver que,
más aún, se puede omitir la verificación de los axiomas (S4 ) y (S5 ).
x + 2y − 3z + 1 = 0,
x2 − y 2 = 0.
Es fácil ver que el vector cero 0 = (0, 0) de R2 satisface la ecuación, por lo que 0 está en W . Pero
W no es cerrado bajo la suma. Si se consideran los elementos u = (1, −1) y v = (1, 1) de W , su suma
u + v = (2, 0) no es un elemento de W . Luego, W no es un subespacio de R2 .
Nota: A menos que se indiquen otras operaciones, cuando se mencionen a los espacios vectoriales
Rn , P, Pn , Mmn o F(D) se entenderá que son los espacios vectoriales con respecto a las operaciones
habituales, como se definieron en la Sección 4.1.
ax + by + cz = 0,
a (kx1 ) + b (ky1 ) + c (kz1 ) = k (ax1 ) + k (by1 ) + k (cz1 ) = k (ax1 + by1 + cz1 ) = k (0) = 0,
Actividad 4.2. Pruebe que toda recta en el espacio que contiene al origen de coordenadas es un
subespacio de R3 .
Actividad 4.3. Pruebe que toda recta en el plano que contiene al origen de coordenadas es un
subespacio de R2 .
A (cx1 ) = c (Ax1 ) = c0 = 0,
por lo que cx1 es solución del sistema. Se ha probado que el conjunto solución de Ax = 0 es cerrado
bajo la suma y la multiplicación por escalares y por lo tanto es un subespacio de Rn .◀
Actividad 4.4. ¿Es el conjunto de soluciones de un sistema lineal consistente de m ecuaciones con n
incógnitas, Ax = b con b ̸= 0, un subespacio de Rn ?
Ejemplo 4.13. Sea V un espacio vectorial y u un vector fijo de V. Se mostrará que el conjunto W
de todos los múltiplos escalares de u:
W = {cu : c ∈ R}
es un subespacio de V.
En efecto, W no es vacı́o puesto que si c = 0 entonces 0u = 0 es un elemento de W.
Por otro lado, sea k un escalar y dos vectores v y w del conjunto W es decir v = au y w = bu
con a y b en R. Para demostrar que W es cerrado bajo la suma, se debe probar que v + w está en W.
Dado que:
v + w = au + bu = (a + b) u,
entonces v + w es un múltiplo escalar de u. De manera similar para probar que W es cerrado bajo la
multiplicación por escalar, debe demostrarse que kv está en W. Como:
kv = k (au) = (ka) u,
entonces kp está en W .
Se ha probado que el conjunto W es un subespacio de P2 .◀
a −b 0
Ejemplo 4.15. W = : a, b ∈ R es un subespacio de M23 .
b 0 2a
En efecto, la matriz cero O de M23 está en W (a = b = 0) por lo que W es un subconjunto no
vacı́o de M23 . Otras matrices de W son, por ejemplo:
√
2 − 12 0 − 3 −2 0√
y .
1
2 0 4 2 0 −2 3
a1 −b1 0 a2 −b2 0
Sean dos matrices A = y B = de W y un número real k.
b1 0 2a1 b2 0 2a2
Entonces:
a1 −b1 0 a2 −b2 0 a1 + a2 −b1 − b2 0+0
A+B = + = =
b1 0 2a1 b2 0 2a2 b1 + b2 0+0 2a1 + 2a2
a1 + a2 − (b1 + b2 ) 0
= ,
b1 + b2 0 2 (a1 + a2 )
Ejemplo 4.16. El conjunto C [a, b] formado por todas las funciones reales continuas en el intervalo
cerrado [a, b], es un subespacio de F [a, b].
En efecto, la función constante cero, O, de F [a, b], O(x) = 0 para toda x ∈ [a, b], es una función
continua. Por lo tanto, O es una función de C [a, b].
Por otro lado, sean f y g funciones de C [a, b] y k un número real. Del Cálculo se sabe que la suma
de funciones continuas en un conjunto es una función continua en dicho conjunto, por lo que f + g
está en C [a, b].
Además, el producto de una constante k por una funnción continua f en un conjunto es una función
continua en dicho conjunto, de lo que se tiene que kf está en C [a, b].
Ası́, C [a, b] es cerrado bajo la suma y la multiplicación por escalares por lo cual es un subespacio
de F [a, b] . ◀
Los siguientes son ejemplos de subconjuntos de espacios vectoriales que no son subespacios:
Ejemplo 4.18. W = a + bx + cx2 + dx3 ∈ P3 : d ≥ 0 no es un subespacio de P3 .
No se verifica la cerradura de W bajo la multiplicación por escalares. En efecto, si se considera un
polinomio p con d > 0, por ejemplo, p = 1 + x + 5x3 y un número k < 0, por ejemplo k = −2, entonces
el producto kp = (−2)p = −2 − 2x − 10x3 no está en W puesto que el coeficiente de x3 es negativo.◀
Ejercicios 4.2
Wp = {f : f (−x) = f (x)} ,
Wi = {f : f (−x) = −f (x)} ,
3. Considere el espacio C [a, b] de las funciones continuas en un intervalo cerrado [a, b]. Determine
si el subconjunto W es un subespacio de C [a, b] siendo:
c1 u1 + c2 u2 + ... + ck uk ,
donde c1 , c2 ,..., ck son escalares cualesquiera, llamados coeficientes de la combinación lineal. Es posible
extender este concepto a un espacio vectorial cualquiera:
c1 u1 + c2 u2 + ... + ck uk ,
u = c1 u1 + c2 u2 + ... + ck uk .
−2 1
Ejemplo 4.19. En el espacio R2 , el vector u = es combinación lineal de los vectores e1 =
3 0
0 2 −3
y e2 = pero no es una combinación lineal de los vectores v1 = y v2 = .◀
1 0 0
1 1
Ejemplo 4.20. En el espacio R3 , u = 2 es combinación lineal de los vectores v1 = 1 ,
0 −1
−2 1 −1
v2 = 1 , v3 = −3 y v4 = 1 . En el Ejemplo 2.4 se mostró que hay una infinidad de
5 −5 4
maneras de expresar al vector u como combinación lineal de los vectores v1 , v2 , v3 y v4 .◀
p = c1 q1 + c2 q2 + c3 q3 .
y1 q1 + y2 q2 + y3 q3 = p.
es decir
y1 1 + x + 2x2 + y2 1 − x2 + y3 2 − x + 3x2 = 1 + 3x − x2 .
Operando en el primer miembro se obtiene:
El problema se reduce entonces a estudiar la consistencia de dicho sistema lineal. Aplicando elimi-
nación gaussiana a la matriz aumentada:
1 1 2 : 1 −−−−−−−−−−−−−−→ 1 1 2 : 1 1 1 2 : 1
1 −−−−−−−−−−−−−−→
0 −1 : 3 R2 − R1 → R 2
R3 − 2R1 → R3
0 −1 −3 : 2 R3 − 3R2 → R3 0 −1 −3 : 2 .
2 −1 3 : −1 0 −3 −1 : −3 0 0 8 : −9
Puede observarse que el sistema es consistente. Luego el polinomio p es combinación lineal de los
8 , y2 = 8 y y3 = − 8 , hay una
polinomios q1 , q2 y q3 . Como el sistema tiene única solución, y1 = 15 11 9
15 11 9
1 + x + 2x2 + 1 − x2 − 2 − x + 3x2 = 1 + 3x − x2 . ◀
8 8 8
Ejemplo 4.22. En el espacio F (R), sean las funciones f , g y h definidas por f (x) = sen2 x, g(x) = 3
y h(x) = cos2 x, para todo x ∈ R.
Puede comprobarse fácilmente que g = 3f + 3h. En efecto,
3f (x) + 3h(x) = 3 sen2 x + 3 cos2 x = 3 sen2 x + cos2 x = 3 = g(x),
Ası́, un vector v de V está en gen(S) si y solo si existen escalares c2 ,..., ck tales que
v = c1 u1 + c2 u2 + ... + ck uk .
2. S ⊂ gen(S). En efecto, todo vector ui de S puede escribirse como combinación lineal de los
vectores de S de la siguiente manera:
Por lo tanto todo vector de S está en gen(S). La Figura 4.2 muestra un diagrama de la situación.
Ejemplo 4.23. En el espacio R2 , sea el conjunto unitario S = {(1, 2)}. El generado por S es el
conjunto
gen(S) = {c(1, 2) : c ∈ R} = {(c, 2c) : c ∈ R} .
Nótese que éste es el conjunto de todos los múltiplos escalares del vector u = (1, 2) que es un
subespacio de R2 (Ejemplo 4.13). Geométricamente representa la recta en el plano que contiene al
origen de coordenadas y tiene la dirección de u como se observa en la Figura 4.3.◀
Ejemplo 4.24. En el espacio P2 , sea el conjunto S = 1 − x2 , x . El generado por S es el conjunto
gen(S) = c1 1 − x2 + c2 x : c1 , c2 ∈ R = c1 + c2 x − c1 x2 : c1 , c2 ∈ R ,
es decir son los polinomios de P2 que tienen el coeficiente de x2 opuesto al término constante (el
coeficiente de x es cualquier número real). Por ejemplo, 2 + x − 2x2 , −5 + 3x + 5x2 , −9x son polinomios
de gen(S) mientras que 3 + x + 3x2 no está en gen(S).◀
1 3 1 2 0 2
Ejemplo 4.25. En el espacio M2 , sean las matrices A = ,B= yC= .
0 −2 −1 0 1 1
Por definición,
1 3 1 2 0 2
gen {A, B, C} = c1 + c2 + c3 : c1 , c2 , c3 ∈ R =
0 −2 −1 0 1 1
c1 + c2 3c1 + 2c2 + 2c3
= : c1 , c2 , c3 ∈ R .
−c2 + c3 −2c1 + c3
a b
Entonces una matriz está en gen {A, B, C} si y solo si, existen escalares c1 , c2 y c3 tales
c d
que
c1 + c2 3c1 + 2c2 + 2c3 a b
= .
−c2 + c3 −2c1 + c3 c d
Esto conduce a estudiar la consistencia del sistema lineal:
x1 +x2 = a
3x1 +2x2 +2x3 = b
−x2 +x3 = c
−2x1 +x3 = d
Aplicando eliminación gaussiana a la matriz aumentada:
1 1 0 : a 1 1 0 : a 1 1 0 : a
3 2 2 : b 0 −1 2 : b − 3a 0 −1 2 : b − 3a
→ →
0 −1 1 : c → 0 −1 1 : c 0 0 −1 : c − b + 3a
−2 0 1 : d 0 2 1 : d + 2a 0 0 5 : d + 2b − 4a
1 1 0 : a
0 −1 2 : b − 3a
→ 0
.
0 −1 : c − b + 3a
0 0 0 : d + 5c − 3b + 11a
Este sistema es consistente si y solo si d + 5c − 3b + 11a= 0. Por
lo tanto, el espacio generado por
a b
las matrices A, B y C está formado por todas las matrices de M2 cuyos elementos satisfacen
c d
la relación d + 5c − 3b + 11a = 0. Entonces,
a b
gen {A, B, C} = ∈ M2 : d + 5c − 3b + 11a = 0 .
c d
1 2 3 −2
Ejemplo 4.26. Sea el conjunto S = 0 , 1 , 2 , 4 del espacio R3 .
0 0 1 5
Para determinar si S es un generador de R3 , se debe analizar si todo vector b de R3 es una
b1
combinación lineal de los vectores de S. Es decir, debe analizarse si cualquiera sea el vector b = b2
b3
de R , la ecuación
3
1 2 3 −2
x1 0 + x2 1 + x3 2 + x4 4 = b,
0 0 1 5
tiene solución. Operando en el primer miembro y por igualdad de vectores se llega al sistema lineal
x1 +2x2 +3x3 −2x4 = b1
x2 +2x3 +4x4 = b2
x3 +5x4 = b3
Ejemplo
4.27. El conjunto S = 1 − x2 , x del Ejemplo 4.24 no genera a P2 . En efecto, gen(S) =
c + bx + ax ∈ P2 : a = −c que trivialmente no es todo P2 .◀
2
Ejemplo 4.28. El conjunto {A, B, C} de las matrices de M2 dadas en el Ejemplo 4.25, no genera a
M2 . Como se vió en el ejemplo, la matriz E de M2 no está en gen {A, B, C}.◀
Los siguientes son ejemplos de conjuntos generadores de los espacios vectoriales que se utilizan más a
menudo:
Ejemplo 4.31. El conjunto 1, x, x2 genera a P2 .
En efecto, todo polinomio p = a + bx + cx2 de P2 se puede escribir como combinación lineal de los
polinomios 1, x, x2 de la siguiente manera:
p = a + bx + cx2 = a (1) + b (x) + c x2 . ◀
Ejemplo 4.33. El conjunto {E11 , E12 , E13 , E21 , E22 , E23 } genera a M23 , donde Eij es la matriz de
0 0 1
2 × 3 que tiene un 1 en la posición (i, j) y 0 en las otras posiciones, por ejemplo: E13 = .
0 0 0
a11 a12 a13
En efecto, toda matriz A = se puede escribir como combinación lineal de las
a21 a22 a23
matrices E11 , E12 , E13 , E21 , E22 , E23 de la siguiente manera:
a11 a12 a13 1 0 0 0 1 0 0 0 1
A= = a11 + a12 + a13 +
a21 a22 a23 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0
+ a21 + a22 + a23 =
1 0 0 0 1 0 0 0 1
= a11 E11 + a12 E12 + a13 E13 + a21 E21 + a22 E22 + a23 E23 . ◀
Ejemplo 4.34. El conjunto {E11 , E12 , ..., E1n ; E21 , E22 , ..., E2n ; ...; Em1 , Em2 , ..., Emn } genera a Mmn ,
donde Eij es la matriz de m × n que tiene un 1 en la posición (i, j) y 0 en las otras posiciones.◀
Sean v y w vectores de gen(S). Luego, existen escalares c1 , c2 , ..., ck y d1 , d2 , ..., dk tal que
v = c1 u1 + c2 u2 + ... + ck uk ,
w = d1 u1 + d2 u2 + ... + dk uk .
Entonces:
por lo que v + w es combinación lineal de los vectores de S y por lo tanto está en gen(S).
av = a (c1 u1 + c2 u2 + ... + ck uk ) =
= (ac1 ) u1 + (ac2 ) u2 + ... + (ack ) uk ,
Ası́, gen(S) es cerrado bajo la suma y multiplicación por escalares y por lo tanto es un subespacio
de V.
Sea W un subespacio de V que contenga a los vectores u1 , u2 ,..., uk de S. Dado que W es cerrado
bajo la suma y multiplicación por escalares, entonces debe contener a todas las combinaciones
lineales c1 u1 + c2 u2 + ... + ck uk . Por lo tanto W contiene a todos los vectores de gen(S), es decir
gen(S) ⊂ W.
Luego, gen(S) es el subespacio “más pequeño” (en el sentido de inclusión) que contiene a S
(véase Figura 4.5).
Ejemplo 4.35. Sea W el conjunto de todos los vectores de R4 de la forma (a + 2b, 2b, a − b, b) donde
a y b son escalares arbritrarios, es decir
Por definición de suma y multiplicación por escalares, un vector genérico de W puede expresarse
de la siguiente manera:
Entonces todo vector de W se escribe como combinación lineal de los vectores u1 = (1, 0, 1, 0) y
u2 = (2, 2, −1, 1). Luego,
W = gen {u1 , u2 } ,
y de acuerdo a la parte 1 del Teorema 4.3, W es un subespacio de R4 .◀
Demostración. Sin perder generalidad, supóngase que uk es combinación lineal de los restantes vectores
u1 , u2 ,..., uk−1 de S. Es decir, existen escalares c1 , c2 ,..., ck−1 tales que
Se tiene que probar que gen {u1 , u2 , ..., uk−1 } = gen {u1 , u2 , ..., uk−1 , uk }. Para ello debe verificarse
que todo vector de gen {u1 , u2 , ..., uk−1 } es un vector de gen {u1 , u2 , ..., uk−1 , uk } y recı́procamente.
Por un lado, cualquier vector de gen {u1 , u2 , ..., uk−1 } es un vector de gen {u1 , u2 , ..., uk−1 , uk }
(¿por qué?).
Por otra parte, si x es un vector de gen {u1 , u2 , ..., uk−1 , uk }, entonces
Entonces, x es combinación lineal de los vectores u1 , u2 ,..., uk−1 y por lo tanto x está en
gen {u1 , u2 , ..., uk−1 }.
Ejemplo 4.37. Los conjuntos S = 1 + x, −1 + x2 , x + x2 y S ′ = 1 + x, −1 + x2 generan el
mismo subespacio de P2 . En efecto, el último polinomio de S es la suma de los dos primeros.◀
Ejercicios 4.3
1. Indique si el vector u puede expresarse como una combinación lineal de los vectores u1 , u2 , u3 ,
u4 y u5 de R4 . En caso afirmativo, exhiba alguna de estas combinaciones.
2 −1 1 2 0 3
9 0 −1 1 4 1
a) u =
7 ; u1 =
4 , u2 = 1 , u3 = 0 , u4 = 1 , u5 = −2 .
3 1 0 0 1 2
−4 0 1 0 2 1
1 1 1 1 1 1
b) u =
3 ; u1 =
−1 , u2 = −1 , u3 = 0 , u4 = −1 , u5 = 1
.
1
0 2 0 1 3 1
1 1 1 1 0 1
−1 2 1 1 2 −1
c) u =
1 ; u1 =
3 , u2 = 0 , u3 = 1 , u4 = 1 , u5 = 1 .
−1 0 1 1 0 1
a) p1 , p2 y p3 ? b) p1 y p2 ? c) p2 y p3 ?
4. Describa geométricamente el subespacio generado por los vectores u1 = (−1, 0, 3), u2 = (0, 1, −1)
y u3 = (−2, 3, 3) de R3 .
1 1 0 2
5. Explicite el espacio generado por las matrices A = yB= de M2 . Indique
−1 0 3 −4
tres matrices de M2 que estén en gen {A, B} y tres que no pertenezcan a dicho conjunto.
7. Indique si el conjunto:
1 0 0 1 1 1 0 1
f) , , , genera a M2 .
0 1 1 0 1 0 1 1
8. Halle, si existen, el o lo valores de a de modo que el conjunto S = a, 1 + ax, −x + ax2 , genere
al espacio P2 .
9. Complete la demostración del Teorema 4.4: “cualquier vector de gen {u1 , u2 , ..., uk−1 } es un
vector de gen {u1 , u2 , ..., uk−1 , uk }”
10. En cada ı́tem, pruebe que W es un subespacio del espacio vectorial V que se indica mostrando
un conjunto generador de W.
a) W = {(2a, 0, b, −a − 3b + c) : a, b, c ∈ R}; V = R4 .
b) W es el conjunto solución de la ecuación x1 − x2 + x3 − x4 + 3x5 = 0; V = R5 .
c) W = a − bx + (a + b)x2 : a, b ∈ R ; V = P2 .
d ) W = {2a + b cos x : a, b ∈ R}; V = F(R).
2a b + c
e) W = : a, b, c ∈ R ; V = M2 .
−c 0
11. Indique si las siguientes proposiciones son verdaderas o falsas. Justifique su respuesta:
a) Dos vectores distintos de R2 generan R2 .
b) M3 puede ser generado por 10 matrices de 3 × 3.
c) Tres vectores distintos de cero de R3 generan R3 .
d ) gen {u, v, w} = gen {u, u + v, u + v + w}, para cualesquiera vectores u, v y w de un espa-
cio vectorial V.
x1 u1 + x2 u2 + ... + xk uk = 0,
o en forma equivalente
(1)u1 + (−3)u2 + (−1)u3 = 0.
Por lo tanto, la ecuación
x1 u1 + x2 u2 + x3 u3 = 0,
admite como solución, entre otras, a x1 = 1, x2 = −3 y x3 = −1.
En cambio, para el conjunto H = {v1 , v2 , v3 } del espacio R3 donde v1 = (1, 1, 1), v2 = (1, 1, 0) y
u3 = (1, 0, 0), si se resuelve la ecuación
x1 v1 + x2 v2 + x3 v3 = 0,
es decir
(x1 + x2 + x3 , x2 + x3 , x3 ) = (0, 0, 0) ,
se encuentra una única solución: x1 = 0, x2 = 0 y x3 = 0 (la trivial).
En general se tiene la siguiente, muy importante, definición:
x1 u1 + x2 u2 + ... + xk uk = 0 (4.4)
tiene única solución (la trivial) o infinitas soluciones, lo cual es equivalente a determinar si el sistema
lineal homogéneo:
x1 +x3 = 0
−2x1 +x2 +x3 = 0
−x2 +x3 = 0
x1 +x3 = 0
tiene solo la solución trivial o tiene infinitas soluciones.
Es fácilmente comprobable que el sistema tiene solo la solución trivial x1 = x2 = x3 = 0, y por lo
tanto S es linealmente independiente.◀
Ejemplo 4.39. El conjunto S = 1 − x, 2 + x2 , 1 − 3x − x2 del espacio P2 es linealmente depen-
diente. En efecto, al plantear la ecuación en las incógnitas c1 , c2 y c3 :
c1 (1 − x) + c2 2 + x2 + c3 1 − 3x − x2 = 0,
Los siguientes son ejemplos de conjuntos linealmente independientes de los espacios vectoriales que se
encuentran más a menudo:
(x1 , x2 , x3 ) = (0, 0, 0) ,
Ejemplo 4.42. El conjunto 1, x, x2 de P2 es linealmente independiente.
En efecto,
c1 (1) + c2 (x) + c2 x2 = 0 = 0 + 0x + 0x2 ,
y por igualdad de polinomios, la única solución es c1 = c2 = c3 = 0.◀
Ejemplo 4.44. El conjunto {E11 , E12 , E21 , E22 , E31 , E32 } de M32 es linealmente independiente.
En efecto, la ecuación
queda
1 0 0 1 0 0 0 0 0 0 0 0 0 0
x1 0 0 + x2 0 0 + x3 1 0 + x4 0 1 + x5 0 0 + x6 0 0 = 0 0 ,
0 0 0 0 0 0 0 0 1 0 0 1 0 0
Ejemplo 4.45. El conjunto {E11 , E12 , ..., E1n ; E21 , E22 , ..., E2n ; ...; Em1 , Em2 , ..., Emn } de Mmn es li-
nealmente independiente.◀
El término linealmente dependiente sugiere que los vectores “dependen” entre ellos de alguna manera.
El conjunto S = {(1, 3, −1) , (0, 1, −2) , (1, 0, 5)}, dado en el ejemplo introductorio, es un conjunto
linealmente dependiente en R3 . Se mostró que, por ejemplo, el vector u1 = (1, 3, −1) es combinación
lineal de los otros dos vectores de S.
Al respecto, vale el siguiente teorema:
Nota: Dado un conjunto S = {u1 , u2 , ..., uk } de un espacio vectorial V se puede decir indistintamente
que S es linealmente dependiente (independiente) o que los vectores u1 , u2 ,..., uk son linealmente
dependientes (independientes).
1 −1 0 2 1 1
Ejemplo 4.46. En el espacio M2 , las matrices A = , B = , C = y
2 0 3 0 5 0
3 8
D = son linealmente dependientes. Es fácilmente comprobable que la matriz C se puede
4 1
escribir como combinación lineal de A, B y D. En efecto:
Observe que la matriz D no es combinación lineal de las restantes matrices, esto no contradice al
teorema anterior (Teorema 4.5). Dicho teorema no dice que cada vector de un conjunto linealmente
dependiente debe ser combinación lineal de los restantes sino que al menos uno de ellos debe serlo.◀
El Teorema 4.5 tiene un corolario que proporciona una prueba muy simple para determinar si dos
vectores de un espacio vectorial son linealmente dependientes o no.
Ejemplo 4.47. Se deduce del corolario anterior que dos vectores en R2 o en R3 son linealmente
dependientes si y solo si están sobre la misma recta que pasa por el origen. Observe las Figuras 4.6 y
4.7.◀
Actividad 4.5. Justifique que el espacio generado por dos vectores distintos cualesquiera en R3 es
un plano que pasa por el origen o una recta que pasa por el origen.
Ejemplo 4.48. Los polinomios p = 3−2x2 y q = −6+4x2 del espacio P2 son linealmente dependientes
dado que q = −2p (ó p = − 21 q).◀
Ejercicios 4.4
1. Para cada conjunto S del espacio vectorial V indicado, determine si es linealmente independiente
o linealmente dependiente:
Definición (Base). Sea V un espacio vectorial distinto del espacio cero y S un subconjunto
finito no vacı́o de V. El conjunto S es una base de V si
1. S es linealmente independiente,
2. S genera a V.
Ejemplo 4.52. El conjunto S = 1, x, x2 es una base del espacio P2 . Se mostró en los ejemplos
4.31 y 4.42 que S es un conjunto generador linealmente independiente en P2 . Esta base es la base
estándar del espacio vectorial P2 .◀
o bien
x1 (1, 2, 1) + x2 (−2, 3, 0) + x3 (3, 3, 2) = (0, 0, 0) ,
es la trivial: x1 = x2 = x3 = 0. La verificación de la independencia lineal se reduce a demostrar que el
sistema homogéneo:
x1 −2x2 +3x3 = 0
2x1 +3x2 +3x3 = 0
x1 +2x3 = 0
tiene únicamente la solución trivial.
Obsérvese que ambos sistemas tienen la misma matriz de coeficientes:
1 −2 3
A= 2 3 3 .
1 0 2
Actividad 4.6. Explique por qué no existe un conjunto generador de P que contenga un número
finito de elementos.
Teorema 4.7. Si un espacio vectorial V tiene una base que consta de n vectores entonces
todo subconjunto de V que contiene más de n vectores es linealmente dependiente. Dicho de
otro modo, todo subconjunto linealmente independiente de V contiene a lo sumo n vectores.
Demostración. Sea S = {u1 , u2 , ..., un } una base del espacio vectorial V y H = {v1 , v2 , ..., vm } un
subconjunto de V que consta de m vectores, donde m > n.
Se probará que H es linealmente dependiente mostrando que la ecuación
x1 v1 + x2 v2 + ... + xm vm = 0, (4.5)
Dado que los vectores u1 , u2 ,...,un son linealmente independientes (S una base), entonces todos
los coeficientes de la expresión anterior son iguales a cero. Ası́, resolver la ecuación (4.5) equivale a
resolver el siguiente sistema lineal homogéneo en las incógnitas x1 , x2 ,..., xm :
c11 x1 + c12 x2 + ... + c1m xm = 0
c21 x1 + c22 x2 + ... + c2m xm = 0
..
.
cn1 x1 + cn2 x2 + ... + cnm xm = 0
Como este sistema es homogéneo y el número de incógnitas (m) es mayor que el número de
ecuaciones (n), entonces tiene soluciones no triviales. Esto es, existen escalares d1 , d2 ,...,dm no todos
ceros que satisfacen la ecuación (4.5).
Luego, el conjunto H es linealmente dependiente.
Ejemplo 4.56. Dado que R3 tiene una base que consta de 3 vectores (la base estándar), cualquier
conjunto de R3 que consta de 4 ó más vectores es linealmente dependiente.
En general, en el espacio Rn , todo conjunto que consta de más de n vectores es linealmente
dependiente.◀
Ejemplo 4.57. En el espacio P2 todo conjunto que consta de 4 o más polinomios es linealmente
dependiente puesto que P2 tiene una base que consta de 3 polinomios (la base estándar 1, x, x2 ).
En general en el espacio Pn , todo conjunto que consta de más de n + 1 polinomios es linealmente
dependiente.◀
2 0 1 −3 2 1
Ejemplo 4.58. En el espacio M2 , el conjunto formado por las matrices , , ,
0 0 0 0 1 0
1 3 4 −1
, es linealmente dependiente. ¿Por qué?.◀
0 1 −2 1
Debe observarse que si {u1 , u2 , ..., un } es una base de un espacio vectorial V, entonces {cu1 , u2 , ..., un }
donde c ̸= 0 es también una base de V (Ejercicio 5). Esto muestra que todo espacio vectorial real,
distinto del espacio cero, tiene infinitas bases. A partir del teorema anterior, puede demostrarse que
todas las (infinitas) bases de un espacio vectorial finito dimensional, tienen el mismo número de
vectores.
Corolario 4.2. Si un espacio vectorial V tiene una base que consta de n vectores entonces
toda otra base de V consta también de n vectores.
Demostración. Sea S = {u1 , u2 , ..., un } una base del espacio vectorial V y H = {v1 , v2 , ..., vm } cual-
quier otra base de V.
Por el Teorema 4.7, dado que S es una base de V y H es linealmente independiente (H es una
base), entonces m ≤ n. Haciendo el mismo razonamiento, y cambiando los roles, puesto que H es una
base de V y S es linealmente independiente, entonces debe ser n ≤ m.
En consecuencia, m = n y por lo tanto ambas bases tienen el mismo número de vectores.
A partir de este corolario, puede notarse que si se conoce una base de un espacio vectorial V de
dimensión finita, una condición necesaria para que un conjunto S sea una base de V es que S tenga
el mismo número de elementos que la base conocida.
Actividad 4.7. Indique, por simple inspección, por qué los siguientes conjuntos no son una base de
los espacios vectoriales indicados:
1. {(1, −1, 3) , (2, 0, 5)} en R3 .
2. 1 + x, 5 − x + x2 , 3x2 , x + x2 en P2 .
El corolario anterior permite definir el concepto de dimensión de un espacio vectorial finito dimen-
sional:
Definición (Dimensión). Si un espacio vectorial V tiene una base que consta de n vectores,
a dicho número n se lo denomina dimensión de V y se denota dim(V) = n.
El espacio vectorial cero, V = {0}, está generado por el vector 0 pero {0} es un conjunto linealmente
dependiente, y por lo tanto no puede ser una base. Ya que el espacio cero no contiene un conjunto,
con al menos un elemento, que sea una base de él, se conviene en considerar que este espacio tiene
dimensión 0 y que es finito dimensional.
Al contar el número de elementos de las bases estándar de los espacios Rn , Pn y Mmn , se obtiene
la siguiente conclusión:
dim (Rn ) = n
dim (Pn ) = n + 1
dim (Mmn ) = mn
El espacio vectorial P es infinito dimensional (no existe un conjunto finito de polinomios que lo
genere). Similarmente, el espacio F(R) es de dimensión infinita ya que contiene un subespacio, el
espacio de todas las funciones polinómicas, que es infinito dimensional (el Teorema 4.11 justifica esta
afirmación).
Dado que un subespacio de un espacio vectorial es en sı́ mismo un espacio vectorial, tiene sentido
hablar de la dimensión de un subespacio:
es un subespacio de R4 mostrando que W = gen {u1 , u2 } donde u1 = (1, 0, 1, 0) y u2 = (2, 2, −1, 1).
El conjunto S = {u1 , u2 } es entonces un generador de W . S es linealmente independiente ya que
consta de dos vectores tales que ninguno de ellos es múltiplo escalar del otro. Ası́, S es una base de
W y dim(W ) = 2.◀
Ejemplo 4.62. Sea el subconjunto S = 1 + x5 , 2 + x − 4x2 del espacio P. Entonces el generado
por S es el siguiente conjunto:
gen(S) = a 1 + x5 + b 2 + x − 4x2 : a, b ∈ R = (a + 2b) + bx − 4bx2 + ax5 : a, b ∈ R .
2. Si S genera a V entonces m ≥ n.
Demostración. 1. Dado que la dimensión de V es n entonces V tiene una base que consta de n
vectores. De acuerdo con el Teorema 4.7 cualquier conjunto linealmente independiente en V
tiene a lo sumo n vectores. Ası́, m ≤ n.
Actividad 4.8. Sea S un conjunto que consta de 10 vectores de Rn . ¿Qué puede asegurarse respecto
al número n en cada uno de los siguientes casos?
1. S es linealmente independiente.
2. S es generador de Rn .
3. S es una base de Rn .
En general, para demostrar que un conjunto de vectores S = {u1 , u2 , ..., un } de un espacio vectorial
V es una base de V, se tiene que demostrar que los vectores son linealmente independientes y que
generan a V. Sin embargo, si se conoce de antemano que V tiene dimensión n, de modo que S tiene el
número correcto de vectores para ser una base, el teorema siguiente (Teorema 4.9) asegura que basta
comprobar solo uno de los dos requisitos. El siguiente lema es clave para la demostración de dicho
teorema:
Ejemplo 4.63. El conjunto S = {(1, 1), (2, −4)} de R2 es linealmente independiente (¿por qué?) y
tiene 2 elementos. Como dim R2 = 2 entonces S es una base de R2 .◀
El teorema siguiente puede ser muy útil en la práctica. En él se afirma que en un espacio vectorial
finito dimensional, procediendo adecuadamente, se puede obtener una base agregando vectores a un
conjunto linealmente independiente o quitando vectores de un conjunto generador.
Dado un conjunto finito, S, en un espacio vectorial V la parte 2 del teorema anterior provee un
procedimiento para encontrar un subconjunto de S que es una base para el espacio gen(S). El ejemplo
siguiente es ilustrativo de esta construcción. El método puede resultar tedioso puesto que cada vez
que se elimina un vector se debe analizar la dependencia lineal de los vectores restantes. En la Sección
4.7 se proporcionará un método que permite encontrar de una manera más directa un subconjunto de
S que sea una base para el gen(S).
Operando se obtiene
Aplicando Gauss-Jordan a la matriz aumentada del sistema, se llega a su forma escalonada reducida
(verifı́quelo):
1 0 2 −1 0 : 0
0 1 1 1 0 : 0
0 0 0 0 1 : 0
0 0 0 0 0 : 0
Las variables libres son c3 y c4 y la solución general del sistema esá dada por c1 = −2r + t,
c2 = −r − t, c3 = r, c4 = t, c5 = 0 con t, r ∈ R.
Por lo tanto se mantiene la siguiente relación de dependencia lineal entre los polinomios p1 , p2 , p3 ,
p4 y p5 :
(−2r + t) p1 + (−r − t) p2 + rp3 + tp4 + 0p5 = 0, r, t ∈ R. (4.7)
El polinomio p5 no es una combinación lineal de los polinomios restantes mientras que, tomando
por ejemplo t = 1:
p4 = (2r − 1)p1 + (r + 1)p2 − rp3 + 0p5 , r ∈ R.
p3 = 2p1 + p2 + 0p5 .
El siguiente teorema demuestra que todo subespacio de un espacio vectorial V finito dimensional es
(como es de esperar) también finito dimensional y que su dimensión no supera a la dimensión de V.
2. dim(W) = n si y solo si W = V
Ejercicios 4.5
5. Pruebe que si {u1 , u2 , ..., un } es una base de un espacio vectorial V y c ̸= 0, entonces {cu1 , u2 , ..., un }
es también una base de V.
a) W = {(a − b, b, 2a + b) : a, b ∈ R}; V = R3 .
b) W = {(a, b, 0) : a, b ∈ R}; V = R3 .
c) W = {(2a, −b, a + b) : a, b ∈ R}; V = R3 .
h) W = a + bx − (a + b)x2 : a, b ∈ R ; V = P2 .
i W = gen 1 + x, 1 − x2 , 2 + x4 , x + x4 ; V = P.
7. Indique el valor de a de modo que el subespacio gen 1 + x, −1 + 2x + ax2 , 2 + x − x2 de P2
sea de dimensión 2.
11. En cada caso el conjunto S genera al espacio V. Reduzca S hasta obtener una base de V:
1 2 6 −1 2
a) S = 1 , −1 , 3 , 3 , 3 , V = R3 .
0 3 3 4 1
b) S = {1 + x, −5x, 3 + 4x}, V = P1 .
12. En cada caso S es un conjunto linealmente independiente del espacio V. Amplı́e S hasta obtener
una base de V:
a) Todo conjunto unitario S = {a} con a ̸= 0, es una base del espacio vectorial R.
b) R10 tiene un subespacio de dimensión 9.
c) Un subespacio no cero de R10 puede tener dos bases con diferente número de elementos.
d ) Un subespacio no cero de P5 puede tener una base con 7 elementos.
e) Un subespacio no cero de P5 puede tener una base con 5 elementos.
f ) Si S = {u, v} es un conjunto linealmente independiente del espacio vectorial V de dimensión
2, entonces {u − v, u + v} es una base de V.
g) Sea V un espacio vectorial de dimensión 3. Si {u, v, w} es conjunto generador de V, entonces
{2u, u − v, u + v + w} es una base de V.
h) Si V es un espacio vectorial de dimensión n y k es un número entero tal que 0 ≤ k ≤ n,
entonces hay un subespacio W de V tal que dim(W) = k.
i ) Para cualesquiera u y v vectores del espacio V, dim (gen {u, v}) = dim (gen {u − v, u + v}).
j ) Un espacio vectorial V tal que dim(V) = 1 no tiene subespacios propios.
k ) Si W es un subespacio no trivial de un espacio vectorial V de dimensión n ≥ 2, entonces
toda base de W puede ampliarse a una base de V.
l ) Si W es un subespacio no trivial de un espacio vectorial V de dimensión n ≥ 2, entonces
toda base de V contiene una base de W.
También se pueden introducir coordenadas utilizando vectores. Por ejemplo, véase Figura 4.9, los
versores fundamentales i y j forman una base para R2 y puede verse que al bajar rectas perpendiculares
desde P hacia los ejes x e y determinados por los vectores i y j se obtienen los vectores ai y bj, y que
−−→
OP = ai + bj.
Las coordenadas a y b de P se pueden concebir como los números (coeficientes) necesarios para
−−→
expresar al vector v = OP como combinación lineal de los vectores de la base {i, j}.
Esta noción de coordenadas se puede extender a espacios más generales. Para esto es necesario un
resultado preliminar:
Teorema 4.12. Si S = {u1 , u2 , ..., un } es una base para un espacio vectorial V entonces
todo vector v en V se puede expresar como combinación lineal de los vectores de S de una
única manera. Es decir, para cada v de V existen únicos escalares c1 , c2 ,...,cn tales que
v = c1 u1 + c2 u2 + ... + cn un .
Demostración. Dado que S genera a V, todo vector de V se puede expresar como una combinación
lineal de los vectores de S. Se verá que la independencia lineal de S asegura que esta manera es única.
Para ello, supóngase que un vector v se puede escribir como
v = c1 u1 + c2 u2 + ... + cn un ,
y también como
v = k1 u1 + k2 u2 + ... + kn un .
Por lo tanto:
c1 u1 + c2 u2 + ... + cn un = k1 u1 + k2 u2 + ... + kn un ,
y operando se obtiene:
que muestra al vector cero como una combinación lineal de los vectores de S y dado que S es linealmente
independiente, necesariamente:
c1 − k1 = 0, c2 − k2 = 0, ..., cn − kn = 0,
es decir
c1 = k1 , c2 = k2 , ..., cn = kn .
Luego, no hay dos maneras distintas de escribir a un vector de V como combinación lineal de los
elementos de una base. Ası́, quedó probado el teorema.
En esta sección interesará el orden en que se toman los vectores de una base y se hablará de bases
ordenadas.
Una base ordenada B es una base B = {u1 , u2 , ..., un } juntamente con el orden dado. Cambiar
el orden en que están enlistados los elementos de una base ordenada produce una base ordenada
diferente. En este sentido B1 = {u2 , u1 , ..., un } es una base ordenada distinta a la base ordenada B.
v = c1 u1 + c2 u2 + ... + cn un .
Observe que un cambio en el orden de los vectores del conjunto B conduce a un cambio en el orden
de las componentes del vector de coordenadas de v y por lo tanto a vectores de coordenadas distintos.
De ahı́ la necesidad de imponer algún orden a los vectores que forman una base B y considerar bases
ordenadas de modo que no se produzcan ambigüedades al definir la i-ésima coordenada de v.
Toda base a lo largo de esta sección se considera una base ordenada aún cuando no se lo explicite.
Vale aclarar que el vector de coordenadas se tomó como vector columna aunque bien podrı́a haber
sido expresado en la forma
(v)B = (c1 , c2 , ..., cn ) .
La notación como columna es solo por conveniencia ya que es útil cuando se procede a describir
qué le sucede a las coordenadas de un vector v cuando se cambia de una base ordenada a otra.
Correspondencia entre V y Rn
Debe observarse que fijada una base ordenada B = {u1 , u2 , ..., un } de un espacio vectorial V de
dimensión n, existe una correspondencia biunı́voca entre el conjunto V y el conjunto Rn .
En efecto: la asignación
v → [v]B ,
hace corresponder a cada vector v de V un único vector de Rn , el vector [v]B .
c1
c2
Recı́procamente, cada vector . de Rn es el vector de coordenadas, con respecto a la base B,
..
cn
de un único vector v de V, a saber, el vector v = c1 u1 + c2 u2 + ... + cn un .
Ejemplo 4.66. Sean las siguientes bases (ordenadas) de R2 , la estándar E = {e1 , e2 } y la base
B = {u1 , u2 } donde u1 = (1, 2) y u2 = (3, 1), y el vector v = (11, 7).
Puede verificarse rápidamente que
Ejemplo 4.67. Considere los vectores u1 , u2 y v del ejemplo anterior. La base ordenada S = {u2 , u1 }
de R2 difiere de la base B = {u1 , u2 } por el orden de sus elementos. Entonces dado que
resulta
3
[v]S = ,
2
que es distinto al vector de coordenadas [v]B . ◀
entonces el vector v es
v = (−1)u1 + 2u2 + 4u3 = (−1, 0, −2) + (4, 2, −6) + (12, 4, 0) = (15, 6, −8). ◀
Ejemplo 4.70. Sea B = {u1 , u2 , ..., un } una base de un espacio vectorial V. Los vectores de coorde-
nadas de los vectores u1 , u2 ,..., un con respecto a la base B que los contiene, son los vectores de la
base estándar de Rn , e1 , e2 ,...,en . En efecto, para todo j = 1, 2, ..., n:
luego
0
0
..
.
[uj ]B =
1 ← j-ésima coordenada.
..
.
0
0
entonces,
x1
x2
[x]E = .. .
.
xn
Puede observarse que el vector de coordenadas [x]E es el mismo vector x, escrito como vector
columna.◀
Encontrar las coordenadas de un vector particular usualmente involucra resolver un sistema de ecua-
ciones lineales a menos que la base tenga algo especial como la base canónica o estándar, o las bases
ortogonales que se verán en secciones posteriores.
Ejemplo 4.72. Sean las siguientes bases (ordenadas) de P2 : la base canónica E = 1, x, x2 y la base
B = {p1 , p2 , p3 } donde p1 = 1 + x + x2 , p2 = x + 2x2 y p3 = 2 + 3x2 .
Se quiere hallar los vectores de coordenadas [p]E y [p]B del polinomio p = 3
2 + 72 x − 2x2 .
3
Es muy fácil hallar las coordenadas de p en la base canónica E ya que p = 2 (1) + 72 (x) + (−2) x2 .
Luego:
3/2
[p]E = 7/2 .
−2
Para hallar [p]B deben encontrarse los números (únicos) c1 , c2 y c3 tales que
c1 p1 + c2 p2 + c3 p3 = p,
esto es
3 7
c1 1 + x + x2 + c2 x + 2x2 + c2 2 + 3x2 = + x − 2x2 ,
2 2
operando
3 7
(c1 + 2c3 ) + (c1 + c2 ) x + (c1 + 2c2 + 3c3 ) x2 = + x − 2x2 ,
2 2
y por igualdad de polinomios
c1 +2c3 = 3/2
c1 +c2 = 7/2
c1 +2c2 +3c3 = −2
La solución de este sistema es: c1 = 92 , c2 = −1 y c3 = − 32 , y por lo tanto
9/2
[p]B = −1 . ◀
−3/2
Ahora se trata el problema central de esta sección, el problema del cambio de base.
entonces
v = c1 u1 + c2 u2 + ... + cn un . (4.8)
Si se quiere encontrar el vector de coordenadas de v con respecto a la base B2 , [v]B2 , deben hallarse
los coeficientes que permiten expresar al vector v como combinación lineal de los vectores de la base
B2 . Para ello se expresará cada vector ui de la base B1 como combinación lineal de los vectores de la
base B2 . Sean entonces:
u1 = a11 v1 + a21 v2 + ... + an1 vn
u2 = a12 v1 + a22 v2 + ... + an2 vn
.. (4.9)
.
un = a1n v1 + a2n v2 + ... + ann vn
de modo que
a11 a12 a1n
a21 a22 a2n
[u1 ]B2 = .. , [u ]
2 B2 = .. , ..., [u ]
n B2 = .. .
. . .
an1 an2 ann
Reemplazando las expresiones (4.9) en (4.8) y operando (verifique) se obtiene el vector v expresado
como combinación lineal de los vectores de la base B2 :
v = (c1 a11 + c2 a12 + ... + cn a1n ) v1 +(c1 a21 + c2 a22 + ... + cn a2n ) v2 +...+(c1 an1 + c2 an2 + ... + cn ann ) vn .
Los coeficientes que acompañan a los vectores v1 , v2 ,..., vn de la expresión anterior son las coor-
denadas del vector v con respecto a la base B2 . Ası́, y por definición de producto de matrices:
c1 a11 + c2 a12 + ... + cn a1n a11 a12 ... a1n c1
c1 a21 + c2 a22 + ... + cn a2n a21 a22 ... a2n c2
[v]B2 = .. = .. .. .. .. .
. . . ... . .
c1 an1 + c2 an2 + ... + cn ann an1 an2 ... ann cn
c1
c2
Dado que .. = [v]B1 , y llamando P a la matriz que lo premultiplica, entonces:
.
cn
[v]B2 = P [v]B1 ,
donde
a11 a12 ... a1n
a21 a22 ... a2n
P = .. .. .. .
. . ... .
an1 an2 ... ann
La matriz P del teorema anterior es la única matriz tal que para cada v en V, [v]B2 = P [v]B1 (puede
verse una demostración al final de esta sección). Esta matriz es llamada matriz de transición o de
cambio de base de la base B1 a la base B2 .
Ejemplo 4.73. (Cálculo de una matriz de transición) En el espacio vectorial R2 , sean las bases
ordenadas B1 = {u1 , u2 } y B2 = {v1 , v2 } donde u1 = (2, 0), u2 = (1, 2), v1 = (6, 3) y v2 = (4, −1).
La matriz P de transición de la base B1 a la base B2 tiene por columnas los vectores de coordenadas
de los vectores de B1 con respecto a la base B2 , es decir
P = [u1 ]B2 [u2 ]B2 .
Para calcular [u1 ]B2 , se deben determinar los coeficientes (únicos) a1 y a2 tales que
a1 v1 + a2 v2 = u1 ,
es decir
a1 (6, 3) + a2 (4, −1) = (2, 0) ,
o bien
6a1 + 4a2 = 2
.
3a1 − a2 = 0
Se trata entonces de encontrar la (única) solución del sistema lineal de matriz aumentada:
6 4 : 2
= v 1 v 2 : u1 ,
3 −1 : 0
entendiendo que v1 , v2 y u1 están expresados como vectores columna.
Similarmente, para hallar [u2 ]B2 , se deben determinar los (únicos) coeficientes b1 y b2 tales que
b1 v1 + b2 v2 = u2 ,
es decir
b1 (6, 3) + b2 (4, −1) = (1, 2) ,
o bien
6b1 + 4b2 = 1
3b1 − b2 = 2
Se tiene entonces que hallar la (única) solución del sistema lineal de matriz aumentada:
6 4 : 1
= v 1 v 2 : u2 .
3 −1 : 2
Como la matriz de coeficientes de los dos sistemas es la misma,
éstos se pueden resolver en forma
simultánea llevando la matriz aumentada v1 v2 : u1 u2 a su forma escalonada reducida.
Aplicando Gauss-Jordan:
6 4 : 2 1 6 4 : 2 1 6 4 : 2 1
v1 v2 : u1 u2 = → → →
3 −1 : 0 2 0 −3 : −1 23 0 1 : 31 − 12
2
1 1
6 0 : 3 1 0 :
→ 3 → 9 2 ,
0 1 : 1
3 − 12 0 1 : 1
3 − 12
por lo cual, la solución del primer sistema es a1 = 91 , a2 = 31 es decir
1
[u1 ]B2 = 91 ,
3
Obsérvese del ejemplo anterior que la matriz P de transición de la base B1 a la base B2 se obtuvo al
aplicar eliminación de Gauss-Jordan a la matriz
6 4 : 2 1
= v1 v2 : u1 u2
3 −1 : 0 2
donde v1 y v2 son los vectores de la base final, B2 , y u1 y u2 son los vectores de la base inicial, B1 .
La forma escalonada reducida de esta matriz es la matriz de 2 × 4 que tiene en el lado izquierdo a
la matriz identidad, I2 , y en el lado derecho a la matriz P de transición de B1 a B2 :
1 0 : 91 1
2 = [I : P ] .
0 1 : 13 − 12
Debe
notarse
que la forma escalonada reducida de la matriz v 1 v 2 es la matriz identidad
I = e1 e2 . Esto no es casual ya que siendo {v1 , v2 } una base de R hay una única manera de
2
expresar
un vector de R2 como combinación lineal de v1 y v2 , luego cualquier sistema lineal que tiene
a v1 v2 como matriz de coeficientes tiene solución única, y por lo tanto la forma escalonada
reducida de esta matriz es la matriz identidad I.
El procedimiento visto puede generalizarse como manera práctica para calcular una matriz de
cambio de base cuando el espacio vectorial V es Rn .
Forme la matriz de n × 2n donde las primeras n columnas son los vectores (ordenados)
de la base B2 y las siguientes n columnas son los vectores (ordenados) de la base B1 :
v1 v2 ... vn : u1 u2 ... un .
Ejemplo 4.74. Sean las bases B1 y B2 de R2 del ejemplo anterior, y el vector v = (7, 6).
Se comprobará la relación [v]B2 = P [v]B1 . Para ello, se obtendrá [v]B2 en forma directa y se
verificará que el mismo resultado se obtiene pre-multiplicando la matriz P por el vector de coordenadas
[v]B1 .
Para calcular [v]B2 en forma directa debe resolverse el sistema lineal que permite encontrar las
coordenadas del vector v respecto a la base B2 . Deben hallarse los coeficientes c1 y c2 tales que
o bien
6c1 + 4c2 = 7
3c1 − c2 = 6
[v]B1 = Q [v]B2 , ∀v ∈ V.
1 1
9 9
9 2 4 4 1 0
Puede observarse que P Q = = = I, y por lo tanto P es invertible
1
3 − 12 3
2 − 21 0 1
y Q = P −1 . En general, se tiene el siguiente teorema:
En particular para los vectores vj de la base B2 se tiene (P Q) [vj ]B2 = [vj ]B2 , ∀j = 1, 2, ..., n.
Dado que [vj ]B2 = ej , j = 1, 2, ..., n (véase Ejemplo 4.70) resulta
(P Q) ej = ej , ∀j = 1, 2, ..., n.
y como
(P Q) ej = cj , ∀j = 1, 2, ..., n,
entonces cj = ej , ∀j = 1, 2, ..., n. Por lo tanto, las columnas de P Q son e1 , e2 ,..., en es decir
P Q = e1 e2 ... en = I.
Ası́, P es invertible y Q = P −1 .
Figura 4.11: Relación entre los vectores de coordenadas en dos bases distintas
El concepto de matriz de transición está definido para cualquier espacio vectorial de dimensión finita.
En los ejemplos anteriores se calcularon matrices de transición en el espacio vectorial Rn . En el siguiente
ejemplo se obtendrá una matriz de transición en el espacio vectorial P2 :
Ejemplo 4.75. En el espacio vectorial P2 , considere las bases ordenadas B1 = {p1 , p2 , p3 } donde
p1 = 1, p2 = 1 + x y p3 = 1 + x + x2 y B2 = {q1 , q2 , q3 } donde q1 = 3 + x − x2 , q2 = x, q3 = 1 − x2 ,.
La matriz P de transición de la base B1 a la base B2 es
P = [p1 ]B2 [p2 ]B2 [p3 ]B2 .
Para calcular [p1 ]B2 se deben determinar los coeficientes a1 , a2 y a3 tales que
a1 q1 + a2 q2 + a3 q3 = p1 ,
Procediendo de forma similar, para calcular [p2 ]B2 deben hallarse los coeficientes b1 , b2 y b3 tales
que
3b1 +b3 = 1
b1 +b2 = 1
−b1 −b3 = 0
y para calcular [p3 ]B2 deben hallarse los coeficientes c1 , c2 y c3 tales que
3c1 c3 = 1
c1 +c2 = 1
−c1 −c3 = 1
Hay que resolver entonces tres sistemas lineales que tienen la misma matriz de coeficientes y por lo
tanto conviene hacerlo en forma simultánea. Para ello, se aplica Gauss-Jordan a la matriz aumentada
3 0 1 : 1 1 1
1 1 0 : 0 1 1
−1 0 −1 : 0 0 1
de los polinomios de la base vieja, B1 = {p1 , p2 , p3 }, también con respecto a la base estándar E. Esto
es:
3 0 1 : 1 1 1
1 1 0 : 0 1 1 = [q1 ]E [q2 ]E [q3 ]E : [p1 ]E [p2 ]E [p3 ]E .
−1 0 −1 : 0 0 1
La forma escalonada reducida es
1 1
1 0 0 : 2 2 1
0 1 0 : −2 1 1
0 = e1 e2 e3 : [p1 ]B2 [p2 ]B2 [p3 ]B2
2
0 0 1 : − 21 − 12 −2
El siguiente teorema nos permitirá aplicar resultados de los vectores de Rn a los vectores de cualquier
espacio vectorial de dimensión n.
Teorema 4.15. Sea B una base de un espacio vectorial V de dimensión n y sean v1 , v2 ,...,
vk vectores de V, entonces:
2. v es un vector del espacio generado por {v1 , v2 , ..., vk } si y solo si [v]B está en el espacio
generado por {[v1 ]B , [v2 ]B , ..., [vk ]B }.
Demostración. Al final de la sección se encuentra una prueba de la parte 1. Las demás se han dejado
como ejercicio.
1 1 2 −2
Fácilmente se comprueba que S ′ es una base de R4 (verifı́quelo) y por lo tanto S es una base de
M2 .◀
[v]B2 = P [v]B1 , ∀v ∈ V.
[v]B2 = A [v]B1 ,
para todo v ∈ V. En particular esta última igualdad debe verificarse para los vectores uj de la base
B1 . Es decir,
A [uj ]B1 = [uj ]B2 , ∀j = 1, 2, ..., n.
De acuerdo al Ejemplo 4.70 , [uj ]B1 = ej , luego
Por otra parte, si a1 , a2 ,..., an son las sucesivas columnas de la matriz A, entonces
Aej = aj , ∀j = 1, 2, ..., n.
Ası́,
aj = [uj ]B2 , ∀j = 1, 2, ..., n.
Luego, A = [u1 ]B2 [u2 ]B2 ... [un ]B2 y por lo tanto la matriz A es la matriz P de transición
de la base B1 a la base B2 .
Teorema 4.15 1. Sea B una base de un espacio vectorial V finito dimensional y sean v1 ,
v2 ,..., vk vectores de V Entonces: [c1 v1 + c2 v2 + ... + ck vk ]B = c1 [v1 ]B + c2 [v2 ]B + ... + ck [vk ]B
para todo c1 , c2 ,..., ck en R
Demostración. Sea el vector
w = c1 v1 + c2 v2 + ... + ck vk (4.10)
Supongamos que los vectores de coordenadas de los vectores v1 , v2 ,..., vk con respecto a la base
B son los siguientes vectores de Rn :
a11 a12 a1k
a21 a22 a2k
[v1 ]B = .. , [v ]
2 B = .. , ..., [v ]
k B = .. ,
. . .
an1 an2 ank
por lo cual
Reemplazando las expresiones (4.11) en (4.10) y operando (verificar), se obtiene el vector w ex-
presado como combinación lineal de los vectores de la base B:
w = (c1 a11 + c2 a12 + ... + ck a1k ) u1 +(c1 a21 + c2 a22 + ... + ck a2k ) u2 +...+(c1 an1 + c2 an2 + ... + ck ank ) un .
Los coeficientes que acompañan a los vectores u1 , u2 ,..., un de la expresión anterior son las coor-
denadas del vector w con respecto a la base B. Ası́:
c1 a11 + c2 a12 + ... + ck a1k
c1 a21 + c2 a22 + ... + ck a2k
[c1 v1 + c2 v2 + ... + ck vk ]B = ..
.
c1 an1 + c2 an2 + ... + ck ank
a11 a12 a1k
a21 a22 a2k
= c1 . + c2 . + ... + ck .
.
. . . ..
an1 an2 ank
Ejercicios 4.6
1. En el espacio R2 , sea u = (0, 4). Calcule el vector de coordenadas [u]B siendo B = {(−1, 3), (2, −2)}.
2. En cada caso, calcule el vector de coordendas, [p]B , con respecto a la base B en el espacio Pn
indicado:
a) B = 1 + 2x, −x2 , x + x2 base de P2 , p = −1 + 3x + 2x2
b) B = {1 + 2x, 2 − 3x} base de P1 , p = −1 − 4x
c) B = 1, 1 + x, 1 + x + x2 , 1 + x + x2 + x3 base de P3 , p = −2 + x − x2 + 4x3
4. Halle el polinomio p en cada caso, siendo B una base del espacio Pn y [p]B su vector de coorde-
nadas.
−2
a) B = {1 + 2x, −2 + x} una base de P1 , [p]B =
3
1
b) B = x, x2 , 1 una base de P2 , [p]B = 2
−3
0
2
c) B = 1 + x + x3 , x − x2 , 2 − 3x + x2 , x + x2 − x3 una base de P3 , [p]B =
3
−4
1 1 2 0 1 2 −2 0
5. Sea B = , , , una base del espacio M22 .
0 0 −1 0 3 4 0 0
a) Obtenga la matriz A si (A)B = (4, 2, 6, −3).
−1 3
b) Halle el vector de coordenadas de la matriz con respecto a la base B.
1 2
6. Sea el subespacio finito dimensional W = {aex + be−x : a, b ∈ R} de F(R).
a) Obtenga una base para W y denomı́nela S.
b) Calcule el vector de coordenadas [f ]S siendo f (x) = cosh x, x ∈ R.
1
c) Halle g(x) si [g]S = 2
− 12
7. Demuestre el recı́proco del Teorema 4.12: Sea S = {u1 , u2 , ..., un } un subconjunto de un espacio
vectorial V. Si todo vector v de V puede escribirse de manera única como combinación lineal de
los vectores de S entonces S es una base de V.
8. Halle la matriz de transición de la base B1 a la base B2 del espacio V que se indica en cada caso:
a) V = R2 ; bases B1 = {u1 , u2 } y B2 = {v1 , v2 } donde u1 = (−2, 3), u2 = (1, −1),
v1 = (0, −2), v2 = (3, 2).
b) V = R3 ; bases B1 = {u1 , u2 , u3 } y B2 = {v1 , v2 , v3 } donde u1 = e2 , u2 = e3 , u3 = e1 ,
v1 = e1 , v2 = e2 , v3 = e3 .
c) V = P1 ; bases B1 = {p1 , p2 } y B2 = {q1 , q2 } donde p1 = 1, p2 = 2 + x, q1 = 2 − x,
q2 = 3 + 4x.
d ) V = M22 ; bases B1 = {A1 , A2 , A3 , A4 } y B2 = {C1 , C2 , C3 , C4 } donde
A1 = E11 C1 = E11
A2 = E11 + E12 C2 = E12
A3 = E11 + E12 + E21 C3 = E21
A4 = E11 + E12 + E21 + E22 C4 = E22
v1 = cos θ e1 + sen θ e2 ,
π π
v2 = cos θ + e1 + sen θ + e2 = − sen θ e1 + cos θ e2 .
2 2
Luego,
cos θ − sen θ
[v1 ]E = y [v2 ]E =
sen θ cos θ
Ası́, la matriz Q de transición de B a E es
cos θ − sen θ
Q= [v1 ]E [v2 ]E =
sen θ cos θ
y la matriz P de transición de E a B es
−1 cos θ sen θ
P =Q = = [e1 ]B [e2 ]B .
− sen θ cos θ
Por lo tanto, se verifican las siguientes relaciones entre los vectores de coordenadas:
′
x cos θ − sen θ x
=
y sen θ cos θ y′
y
x′ cos θ sen θ x
= .
y′ − sen θ cos θ y
a su forma escalonada reducida. Las primera cuatro columnas de esta matriz son los vectores de
coordenadas con respecto a la base estándar de M2 , de las matrices de la base B2 y las cuatro
últimas columnas son los vectores de coordenadas también con respecto a la base estándar de
M2 , de las matrices de la base B1 .
Aplicando Gauss-Jordan se obtiene:
1 0 0 0 : 3/2 3/2 1 1
0 1 0 0 : 1/2 −1/4 0 −1/2
.
0 0 1 0 : 1/4 1/4 0 0
0 0 0 1 : 1/8 0 0 0
Los vectores
r1 = (a11 , a12 , ..., a1n ) , r2 = (a21 , a22 , ..., a2n ) , ... , rm = (am1 , am2 , ..., amn ) ,
formados a partir de los renglones de A se conocen como vectores renglón de A, mientras que
los vectores
a11 a12 a1n
a21 a22 a2n
a1 = . , a2 = . , ..., an = . ,
.
. .
. .
.
am1 am2 amn
son los vectores columna de A.
El espacio de renglones de A es el subespacio de Rn generado por los vectores renglón de A.
Se simboliza ren(A).
El espacio de columnas de A es el subespacio de Rm generado por los vectores columna de
A. Se simboliza col(A).
1 2 1
Ejemplo 4.77. Para la matriz A = , los espacios de columnas y de renglones de A son:
3 0 3
1 2
col(A) = gen , ,
3 0
y
ren(A) = gen {(1, 2, 1) , (3, 0, 3)} ,
respectivamente.◀
El objetivo de esta sección es proveer un método práctico para encontrar bases para el espacio generado
por un conjunto de vectores de Rn . Para ello, se tratará primero el problema de la obtención de bases
para los espacios de renglones y de columnas de una matriz.
Demostración. Para probar que ren(A) = ren(B), se mostrará que todo vector en ren(A) es un vector
de ren(B) y recı́procamente.
Dado que la matriz B se obtiene de la matriz A a través de una sucesión de operaciones elementales
de renglón (suma de vectores y multiplicación por escalares no cero), todo renglón de B es una
combinación lineal de los renglones de A. Como todo vector en ren(B) es una combinación lineal de
renglones de B y éstos a su vez son combinaciones lineales de renglones de A, entonces todo vector
en ren(B) es una combinación lineal de renglones de A. Esto prueba que todo vector en ren(B) es un
vector en ren(A).
Recı́procamente, invirtiendo las operaciones elementales que llevaron la matriz A a la matriz B
se obtiene A a partir de B, y por lo tanto todo vector de ren(A) es una combinación lineal de los
renglones de B, es decir, todo vector en ren(A) es un vector en ren(B).
Teorema 4.16. Los renglones no cero de una matriz en forma escalonada por renglones
forman una base para su espacio de renglones.
Teorema 4.17. Los renglones no cero de cualquier forma escalonada por renglones de una
matriz A forman una base para el espacio ren(A).
Demostración. Sea B una forma escalonada de A. Por el teorema anterior, los renglones no cero de
B forman una base para su espacio de renglones. Dado que ren(A) = ren(B) (Lema 4.2) entonces los
renglones no cero de B forman una base para el espacio ren(A).
Estos resultados pueden ser aplicados para facilitar la búsqueda de una base para el espacio generado
por un conjunto de vectores de Rn .
Ejemplo 4.78. Supóngase que se quiere encontrar una base para el espacio generado por los siguientes
vectores de R5 : v1 = (1, −2, 0, 0, 3), v2 = (2, −5, −3, −2, 6), v3 = (0, 5, 15, 10, 0) y v4 = (2, 6, 18, 8, 6).
El espacio generado por el conjunto S = {v1 , v2 , v3 , v4 }, es el espacio de renglones de la matriz
1 −2 0 0 3
2 −5 −3 −2 6
A= 0
.
5 15 10 0
2 6 18 8 6
Los vectores renglón diferentes de cero en esta matriz son: u1 = (1, −2, 0, 0, 3), u2 = (0, 1, 3, 2, 0) y
u3 = (0, 0, 1, 1, 0). Estos vectores forman una base para ren(A) = gen(S). Obsérvese que los vectores
u2 y u3 no son vectores de S.◀
El ejemplo anterior ofrece un método para encontrar una base del espacio generado por un conjunto
finito de vectores de Rn :
Observación 4.3. Este método produce una base de gen(S) formada por vectores que, en general,
no son del conjunto S. La ventaja es que este método produce bases “simples” ya que se obtienen
vectores con varias componentes cero.
Al transponerla se obtiene
1 3 0
0 2 4
At =
1
,
5 4
1 1 −4
Por lo tanto, los vectores (1, 3, 0) y (0, 1, 2) forman una base para ren(At ) o, lo que es equivalente,
los vectores
1 0
u1 = 3 y u2 = 1 ,
0 2
forman una base para col(A). Nótese que el vector u2 de la base obtenida no es una columna de A es
decir se obtuvo una base de col(A) que no está compuesta totalmente por columnas de dicha matriz.◀
En el ejemplo anterior se usó el hecho de que col(A) = ren(At ) y se aplicó la técnica del Ejemplo 4.78
a la matriz At para hallar una base de col(A).
A continuación se darán una serie de resultados que brindarán una forma alternativa de hallar una
base para el espacio de columnas de una matriz A que esté formada exclusivamente por columnas de
dicha matriz. Para ello se verá primero el siguiente ejemplo:
Ejemplo 4.80. Se aplicará una sucesión de operaciones elementales a una matriz A hasta obtener
una forma escalonada (eliminación gaussiana). Se mostrará que las columnas de todas las matrices del
proceso, satisfacen las mismas relaciones de dependencia lineal.
1 −2 2 3 0 1 −2 2 3 0 1 −2 2 3 0
A = −1 2 −1 −2 1 →B= 0 0 1 1 1 →C= 0 0 1 1 1 .
3 −6 5 8 −1 0 0 −1 −1 −1 0 0 0 0 0
En la matriz escalonada C se vé rápidamente, por la forma en que están dispuestos los ceros,
que las columnas pivote c1 y c3 son linealmente independientes. Además se puede observar que las
otras columnas son combinaciones lineales de éstas dos: c2 = −2c1 , c4 = c1 + c3 , c5 = −2c1 + c3 .
Por lo tanto, reduciendo el conjunto generador, col(C) = gen {c1 , c2 , c3 , c4 , c5 } = gen {c1 , c3 }. Ası́ el
conjunto de las columnas pivote de C, {c1 , c3 } es linealmente independiente y generador de col(C), y
por lo tanto es una base de col(C).
Puede comprobarse también para la matriz B, que las correspondientes columnas verifican las
mismas relaciones: b1 y b3 son linealmente independientes y las otras columnas verfican también:
b2 = −2b1 , b4 = b1 + b3 , b5 = −2b1 + b3 . Ası́, {b1 , b3 } es una base de col(B).
Es más difı́cil ver las relaciones de dependencia lineal entre las columnas de la matriz A pero
puede verificarse que las columnas pivote, a1 y a3 , son linealmente independientes y las otras columnas
verifican también las relaciones: a2 = −2a1 , a4 = a1 + a3 , a5 = −2a1 + a3 . Por lo tanto, el conjunto
formado por las columnas pivote de A, {a1 , a3 }, es una base de col(A). ◀
Observación 4.4. Debe advertirse que el espacio generado por las columnas de una matriz varı́a,
en general, por operaciones elementales de renglón. Nótese del ejemplo anterior, que las columnas
pivote de la matriz C forman una base para col(C) pero no forman una base para el espacio col(A)
(col(A) ̸= col(C)).
Lema 4.3. Si las matrices A y B son equivalentes por renglones, las columnas de A y B
verifican
las mismas relaciones
de dependencia lineal. Esto es, si A = a1 a2 ... an y
B = b1 b2 ... bn ,
c1 a1 + c2 a2 + ... + cn an = 0 ⇔ c1 b1 + c2 b2 + ... + cn bn = 0.
Demostración. Dado que una columna cero no se modifica por una operación elemental de renglón, la
misma sucesión de operaciones elementales que transforman la matriz A en la matriz B, transforman la
matriz aumentada [A : 0] en la matriz [B : 0]. Luego, estas dos matrices aumentadas son equivalentes
por renglones y en consecuencia los sistemas lineales homogéneos Ax = 0 y Bx = 0 tienen las mismas
soluciones. Entonces
Ac = 0 ⇔ Bc = 0.
Si las componentes del vector c son c1 , c2 ,..., cn , por definición de producto de una matriz por un
vector, la equivalencia anterior resulta
c1 a1 + c2 a2 + ... + cn an = 0 ⇔ c1 b1 + c2 b2 + ... + cn bn = 0.
Este lema indica que si A y B son matrices equivalentes por renglones, un conjunto de columnas de
A es linealmente dependiente (o independiente) si y solo si las correspondientes columnas de B son
linealmente dependientes (o independientes).
Por el momento nos restringiremos a las matrices que están en forma escalonada. Se verá que es
fácil encontrar una base para el espacio de columnas de tales matrices.
Teorema 4.18. Las columnas pivote de una matriz que está en forma escalonada por ren-
glones forman una base para su espacio de columnas.
Una demostración de este teorema se puede ver al final de esta sección. Pasemos ahora al caso general:
Teorema 4.19. Las columnas pivote de una matriz A forman una base para el espacio
col(A).
Demostración. Sea A = a1 a2 ... an una matriz de m × n, y B = b1 b2 ... bn una
forma escalonada de A.
Sean bl1 , bl2 ,..., blk las columnas pivote de B. Por el teorema anterior, éstas forman una base para
col(B) y por lo tanto son linealmente independientes y las restantes columnas de B son combinaciones
lineales de ellas.
De acuerdo al Lema 4.3 las columnas de A y B guardan las mismas relaciones de dependencia lineal.
Luego, las correspondientes columnas (pivotes) de A, al1 , al2 ,..., alk , forman un conjunto linealmente
independiente y las restantes columnas son combinaciones lineales de ellas. Por lo tanto,
Ası́, el conjunto de las columnas pivote de A, {al1 , al2 , ..., alk }, es linealmente independiente y
generador de col(A), y por lo tanto es una base de col(A).
Ejemplo 4.81. Como aplicación del teorema anterior, suponga que se pide encontrar un subconjunto
de S = {v1 , v2 , v3 , v4 } donde v1 = (1, −2, 0, 0, 3), v2 = (2, −5, −3, −2, 6), v3 = (0, 5, 15, 10, 0) y
v4 = (2, 6, 18, 8, 6), que sea una base para gen(S). Para ello se forma la matriz A cuyas columnas son
dichos vectores:
1 2 0 2
−2 −5 5 6
A = v1 v2 v3 v 4 = 0 −3 15 18 ,
0 −2 10 8
3 6 0 6
entonces gen(S) = col(A). De acuardo al Teorema 4.19 el conjunto de las columnas pivote de A forman
una base de col(A). Estas columnas se identifican llevando A a una forma escalonada para obtener las
posiciones pivote. Una forma escalonada de A es la matriz B (verifı́quelo):
1 2 0 2
0 −1 5 10
B= 0 0 0 1 .
0 0 0 0
0 0 0 0
Las posiciones pivote muestran que las columnas pivote son la 1era, la 2da y la 4ta. Por lo tanto, el
conjunto {v1 , v2 , v4 } es una base para col(A). Luego, ésta es una base de gen(S) formada por vectores
de S.◀
El ejemplo anterior ofrece un método para hallar una base del espacio generado por un conjunto finito,
S, de vectores de Rn que esté compuesta exclusivamente por vectores de S.
Se han estado desarrollando métodos que permiten obtener bases para espacios generados por un sub-
conjunto S de Rn . Estos métodos también pueden emplearse con el mismo fin, en espacios vectoriales
que no son Rn teniendo en cuenta que todos los cálculos con vectores de un espacio vectorial V de
dimensión finita pueden hacerse de forma equivalente con sus vectores de coordenadas con respecto a
una base dada.
Teniendo en cuenta los resultados del Teorema 4.15, si B es una base de un espacio vectorial V
de dimensión n y S ′ es el conjunto de los vectores de coordenadas de los vectores de S con respecto a
la base B, entonces H es una base de gen(S) si y solo si el correspondiente conjunto de vectores de
coordenadas, H ′ , es una base de gen(S ′ ).
En el Ejemplo 4.64 se implementó un procedimiento para hallar una base del espacio generado
por un conjunto, S, de polinomios de P3 reduciendo el conjunto S hasta encontrar un subconjunto de
él linealmente independiente. Ésto resultó un trabajo tedioso pero teniendo en cuenta lo comentado
en el párrafo anterior un problema similar se puede resolver utilizando vectores de coordenadas y
trabajando en Rn lo que facilita los cálculos y el uso de sistemas computacionales. Al respecto veamos
el siguiente ejemplo:
Ejemplo 4.82. Al igual que en el Ejemplo 4.64, sea el subconjunto S = {p1 , p2 , p3 , p4 , p5 } del espacio
vectorial P3 donde p1 = 1 + x + 2x3 , p2 = x + x2 − x3 , p3 = 2 + 3x + x2 + 3x3 , p4 = −1 + x2 − 3x3 y
p5 = 1 + x + x2 + x3 . Se desea encontrar una base para el espacio gen(S) que esté contenida en S.
Para ello, basta con hallar una base para el subespacio de R4 generado por el conjunto S ′ de los
vectores de coordenadas
de S respecto a una base cualquiera de P3 . Se elije como base de P3 a la base
estándar E = 1, x, x2 , x3 ya que no hay que resolver ningún sistema lineal para hallar vectores de
coordenadas con respecto a dicha base.
Entonces el problema se reduce a determinar una base para el espacio generado por
El conjunto de las columnas pivote de A es una base para gen(S ′ ). Una forma escalonada de A es
la matriz
1 0 2 −1 1
0 1 1 1 0
B= 0
.
0 0 0 1
0 0 0 0 0
Las posiciones pivote indican que las columnas pivote de A son: [p1 ]E , [p2 ]E y [p5 ]E . Por lo tanto el
conjunto {[p1 ]E , [p2 ]E , [p5 ]E } es una base para gen(S ′ ) y el correspondiente conjunto en P3 , {p1 , p2 , p5 }
es una base para gen(S) (y está contenida en S).◀
Demostración. La dimensión de col(A) es el número de columnas pivote de A que son aquellas que
contienen una posición pivote. Por lo tanto:
Por lo tanto,
dim (col(A)) = dim (ren(A)) (= número de pivotes de A) .
Nótese que, de acuerdo al Teorema 4.20, para calcular el rango de una matriz A se debe llevar a ésta
a una forma escalonada por renglones, B. El rango de A es el número de renglones no cero de B o, lo
que es lo mismo, el número de pivotes de B. Luego, si A es de m × n, ρ(A) ≤ mı́n {m, n}. Por ejemplo,
una matriz A de 5 × 7 no puede tener rango 6 pues ρ(A) ≤ 5.
Puede observarse además que ρ(A) = 0 ⇔ A = O.
Definición (Espacio nulo y nulidad de una matriz). El espacio nulo de una matriz A
de m × n, que se simboliza N (A), es el conjunto de todas las soluciones de Ax = 0. Es decir,
N (A) = {x ∈ Rn : Ax = 0} .
Nota: En la Sección 4.2 se probó que N (A), el conjunto de todas las soluciones de Ax = 0, es un
subespacio de Rn .
2 3
Ejemplo 4.84. Sea la matriz A = . Como det(A) = −8 ̸= 0, el sistema lineal Ax = 0 tiene
0 −4
única solución, la trivial. Luego,
0
N (A) = .
0
No se define base para N (A) ya que es el espacio cero. La dimensión de N (A) es ν(A) = 0.◀
Puede observarse en los ejemplos anteriores que la nulidad de la matriz A es igual al número de
variables libres del sistema lineal Ax = 0.
Teorema 4.21. La nulidad de una matriz A es el número de variables libres del sistema
lineal homogéneo que tiene a A como matriz de coeficientes.
Teorema 4.22 (del rango). Para toda matriz A de m × n, la suma del rango y la nulidad es
igual al número de columnas de A, es decir
ρ(A) + ν(A) = n.
Demostración. El rango de una matriz A es el número de columnas pivote de A. Por otra parte la
nulidad de A es el número de variables libres de Ax = 0. Como se tienen tantas variables libres como
columnas no pivote, la nulidad de A es igual a la cantidad de columnas no pivote. Dado que
número de columnas pivote + número de columnas no pivote = número de columnas,
entonces
ρ(A) + ν(A) = n.
Ejemplo 4.85. En el Ejemplo 4.83, ν(A) = 1. Por otro lado, el número de pivotes de A es 3, por lo
que ρ(A) = 3. Luego, ρ(A) + ν(A) = 3 + 1 = 4 que es el número de columnas de A, y ası́ se verifica el
teorema del rango.
En el Ejemplo 4.84, el número de pivotes de A es 2 por lo que ρ(A) = 2. Por otra parte, ν(A) = 0.
Luego, ρ(A) + ν(A) = 2 + 0 = 2 que es el número de columnas de A. ◀
Ejemplo 4.86. Si el sistema lineal Ax = 0 tiene 25 incógnitas y ρ(A) = 15, puede deducirse que A
tiene 25 columnas, que ν(A) = 10 y que el número m de renglones de A es m ≥ 15.◀
Las nociones desarrolladas en esta sección están relacionadas con los sistemas lineales. Dado que el
sistema lineal Ax = b es consistente si y solo si el vector b es combinación lineal de las columnas de
A, se tiene el siguiente teorema:
Y en relación a los sistemas lineales y al rango de una matriz, se tiene el siguiente resultado:
Ejemplo 4.87. Sea Ax = b un sistema lineal de 20 ecuaciones con 25 incógnitas. Suponga que el
espacio nulo de A está generado por cinco vectores linealmente independientes. Se desea saber si el
sistema es consistente para cualquier vector b de R20 .
La matriz A es de 20 × 25. El espacio nulo de A tiene una base que consta de 5 vectores, luego
ν(A) = 5. Por el teorema del rango, ρ(A) = 25 − 5 = 20 es decir dim(col(A)) = 20. Esto indica que
col(A) = R20 y por lo tanto todo vector b de R20 está en col(A) es decir es una combinación de las
columnas de A. Esto prueba que Ax = b es consistente para todo b de R20 .◀
Teorema 4.25. Sea A una matriz de n × n. Entonces las siguientes proposiciones son equi-
valentes:
1. |A| ̸= 0.
2. A es invertible.
7. ν(A) = 0
8. ρ(A) = n
11. col(A) = Rn .
12. ren(A) = Rn .
Demostración. Las equivalencias de (1) a (6) han sido probadas en el Teorema 3.10. Se probará aquı́
las equivalencias restantes. Para ello se seguirá el siguiente orden en las implicancias (6) ⇒ (7) ⇒
(8) ⇒ (9) ⇒ (10) ⇒ (11) ⇒ (12), probando luego que (12) ⇒ (6).
(6) ⇒ (7) Si A es equivalente por renglones a la matriz identidad, In , entonces las n columnas de
A son columnas pivote por lo cual Ax = 0 no tiene variables libres y ası́ ν(A) = 0.
(9) ⇒ (10) Si los n renglones de A forman un conjunto linealmente independiente, como este conjun-
to es generador de ren(A), entonces forman una base para ren(A) y por lo tanto dim(ren(A)) = n.
Por el Teorema 4.20, también dim(col(A)) = n y dado que el conjunto de las n columnas de A es
generador de col(A) entonces (Teorema 4.9) las n columnas de A forman una base para col(A)
y por lo tanto son linealmente independientes.
(10) ⇒ (11) Las n columnas de A generan col(A) y dado que son linealmente independientes,
entonces forman una base para col(A). Ası́ dim(col(A)) = n y como col(A) es un subespacio de
Rn , entonces (Teorema 4.12) col(A) = Rn .
(11) ⇒ (12) Dado que dim(ren(A)) = dim(col(A)), si col(A) = Rn entonces dim(ren(A)) = n. Como
ren(A) es un subespacio de Rn , necesariamente (Teorema 4.12) ren(A) = Rn .
(12) ⇒ (6) Si ren(A) = Rn entonces dim(ren(A)) = n y por lo tanto A tiene n posiciones pivote.
Luego, la forma escalonada reducida de A es la matriz identidad, In .
Teorema 4.16: Los renglones no cero de una matriz en forma escalonada por renglones
forman una base para su espacio de renglones.
Demostración. Sea B = [bij ] una matriz de m×n en forma escalonada por renglones. Si k es el número
de renglones no cero de B, dado que B está en forma escalonada, éstos son los primeros k renglones,
mientras que los últimos m − k renglones son renglones cero.
Se probará que el conjunto S = {r1 , r2 , ..., rk } es una base de ren(B).
Los vectores r1 , r2 ,..., rk son todos no cero y como B está en forma escalonada, el elemento delantero
de cada renglón no cero está más a la derecha que el elemento delantero del renglón anterior. Esto
es, si bili es el elemento delantero del renglón i-ésimo debe ser l1 < l2 < ... < lk . Recordando que el
elemento delantero de un renglón no cero es la primera componente no cero de dicho vector, entonces
para cada ri es bili ̸= 0 mientras que bij = 0 para todo j < li . Ası́, por ejemplo, los renglones r1 y r2
son de la forma:
Para probar que S es linealmente independiente debe demostrarse que si c1 , c2 ,..., ck son escalares
tales que
c1 r1 + c2 r2 + ... + ck rk = 0,
necesariamente c1 = c2 = ... = ck = 0.
La componente en la posición l1 del vector c1 r1 + c2 r2 + ... + ck rk es c1 b1l1 y las anteriores compo-
nentes son ceros. Si este vector es el vector 0 necesariamente c1 b1l1 = 0 y dado que b1l1 ̸= 0 debe ser
c1 = 0. Entonces
c1 r1 + c2 r2 + ... + ck rk = 0 ⇔ c1 = 0 y c2 r2 + ... + ck rk = 0.
c1 r1 + c2 r2 + ... + ck rk = 0 ⇔ c1 = 0, c2 = 0 y c3 r3 + ... + ck rk = 0.
c1 r1 + c2 r2 + ... + ck rk = 0 ⇔ c1 = c2 = ... = ck = 0.
Es claro que el conjunto S es generador del espacio ren(B) ya que los últimos m − k renglones de
B son vectores cero y por lo tanto pueden eliminarse generando el mismo espacio. Esto es, ren(B) =
gen {r1 , r2 , ..., rk }.
Se ha probado entonces que los renglones no cero de una matriz en forma escalonada son linealmente
independientes y generan ren(B) y por lo tanto forman una base para el espacio de renglones de B.
Teorema 4.18: Las columnas pivote de una matriz que está en forma escalonada por
renglones forman una base para su espacio de columnas.
Demostración. Sea B = [bij ] una matriz de m × n que está en forma escalonada por renglones. Si k
es el número de renglones no cero de B, dado que B está en forma escalonada, éstos son los primeros
k renglones de B, mientras que los últimos m − k renglones son renglones cero.
Sean b1l1 , b2l2 ,...., bklk los elementos delanteros de los k renglones no cero de B. Entonces las
columnas pivote de B son bl1 , bl2 ,..., blk . Se probará que estas columnas forman una base para
col(B).
Para ello, consderemos la matriz U de m × k formada por las columnas pivote de B:
b1l1 × × ... ×
0 b2l2 × ... ×
0 0 b3l3 ... ×
. .. .. ..
.. . . ... .
U = bl1 bl2 ... blk = 0
, donde bil ̸= 0.
0 0 ... bklk
i
0 0 0 ... 0
. .. .. ..
.. . . ... .
0 0 0 ... 0
Dado que todos los vectores columna de B tienen sus últimas m − k componentes iguales a cero,
todo vector b de col(B) tendrá sus últimas m − k componentes iguales a cero. Entonces para cualquier
b en col(B), el sistema lineal de matriz aumentada
b1l1 × × ... × : b1
0 b2l2 × ... × : b2
0 × : b3
0 b3l3 ...
. ..
. .. .. ..
[U : b] =
. . . ... . : . ,
0 0 0 ... bklk : bk
0 : 0
0 0 ... 0
. . . . .
. . .
. .
. ... .
. : . .
0 0 0 ... 0 : 0
es consistente y con única solución ya que la última columna de la matriz aumentada no es columna
pivote y todas las columnas de U son pivote. Esto quiere decir que todo vector b en col(B) puede
expresarse de manera única como combinación lineal de las columnas pivote de la matriz B. Esto
prueba que las columnas pivote de B forman una base de col(B).
Teorema 4.21: La nulidad de una matriz A es el número de variables libres del sistema
lineal homogéneo que tiene a A como matriz de coeficientes.
Demostración. Si B es cualquier forma escalonada de la matriz A, se conoce que los sistemas ho-
mogéneos Ax = 0 y Bx = 0 tienen las mismas soluciones, en particular si B es la forma escalonada
reducida de A.
Si ρ(A) = r y A es de m × n, entonces r ≤ m y r ≤ n. Si U es la forma escalonada reducida de A
entonces los primeros r renglones de U son distintos de cero.
Si r = n todas las columnas de U (y por lo tanto de A) son columnas pivote y entonces el sistema
Ax = 0 tiene única solución, la trivial. Luego, N (A) está formado únicamente por el vector cero y por
lo tanto su dimensión es cero, que es también el número de variables libres de Ax = 0.
Si r < n no se pierde generalidad si se supone que las columnas pivote son las r primeras columnas.
Más aún como los renglones cero de U (si los tiene) no contribuyen a la solución de U x = 0 estos
renglones pueden descartarse. De modo que las soluciones de Ax = 0 se obtienen del sistema U ′ x = 0
donde U ′ es la matriz de r × n formadas por los r renglones no cero de U . Ası́ las primers r columnas
de U ′ (pivotes) forman la matriz identidad de orden r y las últimas n − r son las columnas no pivote
es decir
1 0 ... 0 c1 r+1 ... c1n
0 1 ... 0 c2 r+1 ... c2n
U′ = . . . .. . .
.. .. ... .. . ... ..
0 0 ... 1 cr r+1 ... crn
x1
..
.
xr
Siendo el vector de las incógnitas x = , la forma estándar de U ′ x = 0 es
x
r+1
..
.
xn
x1 + c1 r+1 xr+1 + c1 r+1 xr+1 + ... + c1n xn = 0
x2 + c2 r+1 xr+1 + c2 r+1 xr+1 + ... + c2n xn = 0
..
.
xr + cr r+1 xr+1 + cr r+1 xr+1 + ... + crn xn = 0
Asignando valores arbitrarios s1 , s2 ,...,sr−n a las variables libres xr+1 , xr+2 ,...,xn , respectivamente, la
Ejercicios 4.7
1. Para cada matriz determine el rango y la nulidad. Halle además una base para su espacio de
renglones, una base para su espacio de columnas y, si es posible, una base para su espacio nulo.
2 −3 5 3 −1 2 1
3 −2 8 2 1 4 0 0 8 0 −4 3 5
a) 0 0 −8 5 0 −10 b)
0
c)
0 0 0 0 2 1
0 0 0 0 0 2
0 0 0 0 0 0 10
2. Para cada matriz encuentre una base para su espacio de renglones, una base para su espacio de
columnas y, si es posible, una base para su espacio nulo. Determine además el rango y la nulidad
de cada matriz.
3 2 −1
1 2 −3 0 2 −3 1 2 6 3 5
a) 2 4 8 b) 0 −2 3 3 1 c)
3
1 6
−1 −5 0 0 4 −6 6 7
0 1 −7
−1 1 1 2
3. Dada la matriz A = 2 2 2 4 .
0 1 1 2
5. Utilice vectores de coordenadas para determinar una base del subespacio gen(S) de V, siendo:
b) S = −1 + 2x2 , x − x2 , 2 − 4x2 , −1 + x + x2 , V = P2 .
c) S = 1 − 2x − 3x2 + x3 , x + 2x2 , 3 − 2x − x2 + 2x3 , V = P3 .
7. En cada caso, obtenga un subconjunto de S que sea una base del subespacio gen(S) de V.
1 2 −1 0 1
a) S = 3 , 0 , 1 , 1 , 1 , V = R3
1 −1 0 −1 1
b) S = 1 + 3x − x2 + x3 , 1 + x + x3 , 2 + x2 + x3 , −1 + x − x2 , x + x3 , V = P3
1 1 2 0 1 3 1 0 2 1
c) S = , , , , , V = M2
0 1 1 1 −1 1 0 1 1 1
Esto muestra que las k primeras columnas de A son columnas pivote y las restantes n − k
columnas pivote están entre las n últimas columnas. Ası́ el conjunto de las columnas pivote de
A contiene al conjunto S y es una base de Rn .
1 1
2 1
Por ejemplo, el conjunto S =
3 , −1 de R es linealmente independiente. Para
4
0 1
obtener una base de R4 que contenga a S, formamos la matriz
1 1 1 0 0 0
2 1 0 1 0 0
A= 3 −1 0 0 1 0 .
0 1 0 0 0 1
Claramente col(A) = R4 por lo que el conjunto de las columnas pivote de A formarán una base
para R4 . Una forma escalonada de A es la matriz
1 1 1 0 0 0
0 1 2 −1 0 0
B=
0 0 5 −4 1 0
0 0 0 −3 2 5
que me indica que las primera, segunda, tercera y cuarta columna de A son las columnas pivote
de A. Luego, el conjunto
1 1 1 0
′ 2 1 0 1
S = , , ,
3 −1 0 0
0 1 0 0
a) Amplı́e el conjunto linealmente independiente S hasta obtener una base del espacio vectorial
V indicado en cada caso.
1 0
1
−1
, 1 , V = R
i) S = 4
2
3 −1
1 1 0
1 1 0
ii) S = 0 , 1 , 2 , V = R5
0 1 2
0 1 1
b) Utilice vectores de coordenadas para ampliar el conjunto linealmente independiente S hasta
obtener una base del espacio V.
i) S = 1 + x + x3 , −2 + x + x2 , x2 + x3 , V = P3 .
1 −2 0 −2 0 2
ii) S = , , , V = M2 .
0 0 2 4 0 1
10. Si el sistema lineal homogéneo Ax = 0 tiene 300 incógnitas y su espacio solución está generado
por 65 vectores linealmente independientes. ¿Cuál es el rango de A?
13. Sea Ax = b un sistema lineal de 400 ecuaciones y 480 incógnitas. Si el conjunto solución del
sistema lineal homogéneo Ax = 0 está generado por 80 vectores linealmente independiente, ¿es
consistente el sistema Ax = b, para todo vector b ∈ R400 ?
Recordemos que una n-upla ordenada de números reales es una sucesión (a1 , a2 , ..., an ) de n núme-
ros reales. El conjunto de todas las n-uplas ordenadas de números reales se conocen como el espacio
n dimensional y se denota por Rn .
Si n = 2 ó n = 3, las n-uplas son pares ordenados o ternas ordenadas, respectivamente. Si n = 1
cada n-upla es un número real y por lo tanto R1 se concibe como el conjunto R de los números reales
y se escribe R en lugar de R1 .
En el estudio del espacio de dos dimensiones y de tres dimensiones, los sı́mbolos (a1 , a2 ) y (a1 , a2 , a3 )
tienen dos interpretaciones geométricas. Pueden interpretarse como puntos en el plano y en el espacio,
respectivamente, en cuyo caso (a1 , a2 ) y (a1 , a2 , a3 ) son las coordenadas de dichos puntos. También
pueden considerarse como vectores (o segmentos de recta dirigidos) en cuyo caso (a1 , a2 ) y (a1 , a2 , a3 )
son las componentes de dichos vectores (Figura 5.1).
Por lo tanto una n-upla de números reales (a1 , a2 , ..., an ) se puede concebir como un “vector
generalizado” o como un “punto generalizado”. Se tiene la libertad de describir a una n-upla de
números reales como un punto en Rn donde sus coordenadas son ai con i = 1, 2, ..., n o como un vector
donde las ai con i = 1, 2, ..., n son sus componentes.
Recordemos que el producto punto o producto escalar entre dos vectores u = (u1 , u2 , ..., un ) y
v = (v1 , v2 , ..., vn ) de Rn , es el número real dado por
u · v = u1 v1 + u2 v2 + ... + un vn ,
que es la generalización del producto escalar en R2 y R3 . Las propiedades fundamentales del producto
punto son:
1. u · v = v · u
2. u · (v + w) = u · v + u · w
3. c (u · v) = (cu) · v
4. u · u ≥ 0 y u · u = 0 si solo si u = 0
Demostración. Se probarán aquı́ las propiedades 1. y 4. dejando las restantes como ejercicio.
Sean u = (u1 , u2 , ..., un ) y v = (v1 , v2 , ..., vn ) entonces
1. u · v = u1 v1 + u2 v2 + ... + un vn = v1 u1 + v2 u2 + ... + vn un = v · u.
4. Dado que u2i ≥ 0 para todo i = 1, 2, ..., n entonces u · u = u21 + u22 + ... + u2n ≥ 0.
Además esta última expresión es cero si y solo si u1 = u2 = ... = un = 0 lo que equivale a decir
que u = 0.
Los vectores de R2 o R3 pueden caracterizarse como segmentos de recta dirigidos con cierta longitud y
dirección. Se usará R2 (o R3 ) como modelo para extender a Rn los conceptos de longitud de un vector,
distancia y ángulo entre vectores.
Ejemplo 5.1. Las normas euclidianas de los vectores u = (2, −3, 0, 4, −1) y v = 2, −2, −2, −2
1 1 1 1
son:
p √
∥u∥ = 22 + (−2)2 + 02 + 42 + (−1)2 = 30,
y s 2 2 2
1 2 1 1 1
∥v∥ = + − + − + − = 1,
2 2 2 2
respectivamente. ◀
Los vectores que tienen norma euclidiana igual a 1, como el vector v del ejemplo anterior, se denominan
vectores unitarios.
Distancia euclidiana
En la Geometrı́a euclidiana la distancia d entre dos puntos en el plano (u1 , u2 ) y (v1 , v2 ) es
p
d = (u1 − v1 )2 + (u2 − v2 )2 .
En término de vectores esta distancia es la norma o longitud del vector u − v siendo u = (u1 , u2 )
y v = (v1 , v2 ) como se observa en la Figura 5.3.
Nota: Es fácil comprobar que la norma satisface las siguientes propiedades, para cualesquiera vectores
u y v de Rn y cualquier número real c:
1. ∥u∥ ≥ 0 y ∥u∥ = 0 ⇔ u = 0.
A partir de éstas, dado que d (u, v) = ∥u − v∥, se deducen las siguientes propiedades de la distancia
en el espacio euclidiano Rn :
1. d (u, v) ≥ 0 y d (u, v) = 0 ⇔ u = v.
2. d (u, v) = d (v, u) .
Actividad 5.1. Demuestre las propiedades de la norma y la distancia enunciadas, a partir de las
propiedades del producto punto en Rn .
(u · u) x2 + 2 (u · v) x + (v · v) ≥ 0.
|u · v| ≤ ∥u∥ ∥v∥ .
Se deja como ejercicio probar que vale la igualdad en la desigualdad de Cauchy-Schwartz si y solo
si uno de los vectores es un múltiplo escalar del otro.
Actividad 5.2. Verifique la desigualdad de Cauchy-Schwartz para u = (1, −2, 3, 0) y v = (0, 4, −2, 5).
Utilizaremos la desigualdad de Cauchy-Schwartz para definir el ángulo entre dos vectores no cero del
espacio euclidiano Rn . Si u y v son vectores no cero de Rn , de acuerdo a la desigualdad de Cauchy-
Schwartz
|u · v| ≤ ∥u∥ ∥v∥ ,
y por lo tanto
− ∥u∥ ∥v∥ ≤ u · v ≤ ∥u∥ ∥v∥ .
Ya que ∥u∥ ∥v∥ > 0, dado que u ̸= 0 y v ̸= 0, dividiendo entre ∥u∥ ∥v∥ se tiene
u·v
−1 ≤ ≤ 1.
∥u∥ ∥v∥
La desigualdad de Cauchy-Schwartz nos permite entonces dar por bien definida la noción de ángulo
entre dos vectores no cero de Rn como una extensión de la ya conocida noción de ángulo entre vectores
de R2 y R3 :
Definición (Ángulo entre vectores). Sean u y v vectores no cero del espacio euclidiano
Rn . El ángulo θ entre u y v es el único ángulo tal que
u·v
cos θ = y 0 ≤ θ ≤ π.
∥u∥ ∥v∥
Aunque el ángulo entre el vector cero y otro vector no está definido, se conviene en extender la definición
de vectores ortogonales para incluir al vector cero. Ası́, el vector cero es ortogonal a cualquier otro
vector.
Ejemplo 5.3. Los vectores u = (3, 2, −1, 4) y v = (1, −1, 1, 0) son ortogonales ya que u · v = 0. ◀
La longitud de cualquier lado de un triángulo es menor que la suma de las longitudes de los otros
lados. En el siguiente teorema se muestra que esta desigualdad se puede generalizar para cualquier
par de vectores en el espacio euclidiano Rn :
∥u + v∥2 = (u + v) · (u + v)
= u·u+v·u+u·v+v·v
= ∥u∥2 + 2 (u · v) + ∥v∥2
≤ ∥u∥2 + 2 |u · v| + ∥v∥2 (ya que x ≤ |x|, para todo x ∈ R)
2 2
≤ ∥u∥ + 2 ∥u∥ ∥v∥ + ∥v∥ (desigualdad de Cauchy-Schwartz |u · v| ≤ ∥u∥ ∥v∥)
2
= (∥u∥ + ∥v∥) .
∥u + v∥ ≤ ∥u∥ + ∥v∥ .
Teorema 5.4 (de Pitágoras). Los vectores u y v del espacio euclidiano Rn son ortogonales
si y solo si
∥u + v∥2 = ∥u∥2 + ∥v∥2 .
Demostración. Ejercicio 6.
Ejercicios 5.1
Todo espacio vectorial con un producto interior se llama espacio con producto interior o
espacio con producto interno.
Ejemplo 5.4. El espacio vectorial Rn con ⟨u, v⟩ = u · v satisface todos los axiomas de un producto
interior (Teorema 5.1). Por lo tanto el espacio euclidiano Rn es un espacio con producto interno. ◀
Las siguientes propiedades se deducen a partir de los cuatro axiomas del producto interno:
1. ⟨u, 0⟩ = ⟨0, u⟩ = 0.
Demostración. Probaremos la propiedad 2. Se dejan las restantes como ejercicio (Ejercicio 4).
X
2 X
3
⟨c1 u1 + c2 u2 , d1 v1 + d2 v2 + d3 v3 ⟩ = ci dj ⟨ui , vj ⟩ ,
i=1 j=1
2. Si w = (w1 , w2 ), entonces
Ejemplo 5.6. El ejemplo anterior puede generalizarse al espacio vectorial Rn para demostrar que:
dados u = (u1 , u2 , ..., un ) y v = (v1 , v2 , ..., vn ) entonces
⟨u, v⟩ = c1 u1 v1 + c2 u2 v2 + ... + cn un vn
define un producto interno en Rn si y solo si ci > 0 para todo i = 1, 2, ..., n. (Ejercicio 1).◀
el cual se hace negativo para aquellos vectores u cuyas componentes son tales que u21 + u23 < 2u22 . Por
ejemplo, tomando u = (0, 1, 0) entonces ⟨u, u⟩ = −2 < 0.◀
⟨p, q⟩ = a0 b0 + a1 b1 + a2 b2 ,
Ejemplo 5.9. El ejemplo anterior puede generalizarse al espacio vectorial Pn para demostrar que:
dados p = a0 + a1 x + ... + an xn y q = b0 + b1 x + ... + bn xn , entonces
⟨p, q⟩ = a0 b0 + a1 b1 + ... + an bn ,
a11 a12 b11 b12
Ejemplo 5.10. En el espacio vectorial M2 , si A = yB= , la asignación
a21 a22 b21 b22
⟨A, B⟩ = a11 b11 + a12 b12 + a21 b21 + a22 b22 ,
define un producto interno (Ejercicio 3).◀
Ejemplo 5.11. En el espacio vectorial Mmn , si A = [aij ] y B = [bij ] entonces ⟨A, B⟩ definida como
la suma de los productos de los elementos de A por los homólogos de B, es un producto interno que
denominaremos producto interno estándar o canónico en Mmn .
Nótese que este producto interno es el producto punto entre los vectores de coordenadas de A y
B con respecto a la base estándar de Mmn .◀
Ejemplo 5.12. Sean f y g funciones del espacio vectorial C [a, b] que consta de las funciones reales
continuas en el intervalo cerrado [a, b], la asignación
Z b
⟨f, g⟩ = f (x)g(x) dx,
a
define un producto interno en dicho espacio. En efecto utilizando propiedades del Cálculo se verifican
los cuatro axiomas de la definición de producto interno.
Z b Z b
1. ⟨f, g⟩ = f (x)g(x) dx = g(x)f (x) dx = ⟨g, f ⟩
a a
b Z Z b
2. ⟨f + g, h⟩ = (f (x) + g(x)) h(x) dx = (f (x)h(x) + g(x)h(x)) dx =
Z b a Z b a
4. Ya que f 2 (x) = f (x)f (x) ≥ 0 para toda x ∈ [a, b] y la integral definida de una función continua
no negativa es no negativa:
Z b Z b
⟨f, f ⟩ = f (x)f (x) dx = f 2 (x) dx ≥ 0.
a a
Z b
Además ⟨f, f ⟩ = f 2 (x) dx = 0 si y solo si f 2 (x) = 0 para toda x ∈ [a, b] y esto es si y solo si
a
f (x) = 0 en [a, b] y por lo tanto f es la función cero en C [a, b].◀
La distancia entre los vectores u y v, se denota por d (u, v), y está dada por
p
d (u, v) = ∥u − v∥ = ⟨u − v, u − v⟩.
1 −2 1 1
Ejemplo 5.13. Sean A = y B = matrices del espacio M2 con el producto
0 3 −1 2
interno estándar. Entonces, la norma de la matriz A es
p p √
∥A∥ = ⟨A, A⟩ = 1(1) + (−2)(−2) + 0(0) + 3(3) = 14,
y la distancia entre las matrices A y B es
p p √
d (A, B) = ∥A − B∥ = ⟨A − B, A − B⟩ = 0(0) + (−3)(−3) + 1(1) + 1(1) = 11. ◀
Ejemplo 5.14. Sea el espacio R2 con el producto interno ⟨u, v⟩ = 3u1 v1 + 2u2 v2 , analizado en el
Ejemplo 5.5. Si u = (1, 0) y v = (0, 1) entonces
p p √
∥u∥ = ⟨u, u⟩ = 3(12 ) + 2(02 ) = 3,
p √
∥v∥ = 3(02 ) + 2(12 ) = 2,
y p √
d (u, v) = ∥u − v∥ = ∥(1, −1∥ = 3(12 ) + 2(−1)2 = 5. ◀
Observación 5.2. Debe tenerse presente que la norma y la distancia definidas están inducidas por
un producto interior. Si se cambia el producto interior, las normas y distancias también cambian.
Por ejemplo, si en R2 se considera el producto punto,
√ la norma de u = (1, 0) es igual a la norma de
v = (0, 1), igual a 1, y la distancia entre u y v es 2 (véase ejemplo anterior).
Aunque las fórmulas con que se definen la norma y la distancia son imitaciones de las dadas en el
espacio euclidiano Rn , los resultados que se obtienen en el Ejemplo 5.14 pueden dar a lugar a dudas
acerca de lo adecuado
√ de estas definiciones, se√requiere mucha imaginación para afirmar que la longitud
del vector (1, 0) es 3 (y que la de (0, 1) es 2).
El argumento en apoyo de estas definiciones es que las fórmulas con que se definen norma y
distancia en un espacio con producto interno satisfacen las mismas propiedades que la longitud y
distancia euclidianas en Rn .
p
Teorema 5.7. Si V es un espacio con producto interno, entonces la norma ∥u∥ = ⟨u, u⟩, y
la distancia d (u, v) = ∥u − v∥, satisfacen las propiedades básicas de la norma y la distancia
euclidiana en Rn :
Demostración. Son análogas a las demostraciones de las mismas propiedades en el espacio euclidiano
Rn de la sección anterior.
Definición (Ángulo entre dos vectores). Sea V un espacio con producto interno, sean u
y v vectores no cero de V. El ángulo θ entre u y v, es el único ángulo tal que
⟨u, v⟩
cos θ = , y 0 ≤ θ ≤ π.
∥u∥ ∥v∥
⟨u,v⟩
La desigualdad de Cauchy-Schwartz garantiza que el cociente ∥u∥∥v∥ toma valores entre −1 y 1, y por
⟨u,v⟩
lo tanto θ = arc cos ∥u∥∥v∥ está bien definido.
Ejemplo 5.15. Para los vectores u = (1, −1) y v = (1, 1) de R2 con el producto punto, el coseno del
ángulo θ que forman los vectores u y v es
por lo tanto θ = π2 .
En cambio, si se considera el producto interno ⟨u, v⟩ = 3u1 v1 + 2u2 v2 entonces el coseno del ángulo
θ entre ellos es
⟨(1, −1), (1, 1)⟩ 1 1
cos θ = =√ √ = ,
∥(1, −1)∥ ∥(1, 1)∥ 5 5 5
y por lo tanto θ = arc cos 15 ≃ 78, 5◦ .◀
Si u y v son vectores diferentes de cero tales que ⟨u, v⟩ = 0, se deduce de la definición de ángulo entre
vectores que cos θ = 0 y θ = π2 . Esto sugiere la siguiente definición:
Debe notarse que la ortogonalidad depende del producto interior. Dos vectores pueden ser ortogonales
con respecto a un producto interior y no con respecto a otro (véase Ejemplo 5.15).
Ejemplo 5.16. En el espacio C [−1, 1] de las funciones continuas en el intervalo cerrado [−1, 1], sea
Z 1
el producto interior ⟨f, g⟩ = f (x)g(x) dx analizado en el Ejemplo 5.12. Las funciones f y g tales
−1
que f (x) = x y g(x) = x2 son ortogonales. En efecto:
Z 1 Z 1
⟨f, g⟩ = 2
xx dx = x3 dx = 0.
−1 −1
Claramente f (x) = x es ortogonal al conjunto W formado por todas las funciones de la forma
g2n (x) = x2n con n ∈ N.◀
Teorema 5.8 (de Pitágoras generalizado). Sea V un espacio con producto interno y u y v
vectores de V. Entonces u y v son ortogonales si y solo si ∥u + v∥2 = ∥u∥2 + ∥v∥2 .
⟨u, v⟩
proyv u = v.
⟨v, v⟩
El vector proyección proyv u es un múltiplo escalar de v, por lo tanto es un vector del subespacio
gen {v}. Ası́, mas apropiadamente, a este vector se lo puede considerar como la proyección de u sobre
el subespacio generado por v. La proyección ortogonal de u sobre v goza de las siguientes propiedades:
1. Es el único vector w en gen {v} tal que u − w es ortogonal al espacio gen {v}.
Demostración. 1. Sea w un vector de gen {v}. Entonces, w = cv para algún c ∈ R. Luego:
⟨u, v⟩
⟨u − proyv u, w⟩ = ⟨u − proyv u, cv⟩ = c ⟨u, v⟩ − c ⟨proyv u, v⟩ = c ⟨u, v⟩ − v, v =
⟨v, v⟩
⟨u, v⟩
= c ⟨u, v⟩ − ⟨v, v⟩ = c (⟨u, v⟩ − ⟨u, v⟩) = 0.
⟨v, v⟩
Es fácil probar que no existe otro vector en gen {v} que satisface esta propiedad.
u − w = (u − proyv u) + (proyv u − w) .
El vector proyv u−w es un vector de gen {v} por ser resta de dos vectores de gen {v}. Dado que el
vector u − proyv u es ortogonal a todo vector de gen {v}, entonces (u − proyv u) y (proyv u − w)
son ortogonales. En consecuencia, puede aplicarse el teorema generalizado de Pitágoras para
obtener:
∥u − w∥2 = ∥(u − proyv u) + (proyv u − w)∥2 = ∥(u − proyv u)∥2 + ∥(proyv u − w)∥2 .
∥u − w∥ > ∥u − proyv u∥ ,
es decir
d (u, w) > d (u, proyv u) .
Ejercicios 5.2
5. Suponga que el espacio R2 tiene el producto interno definido en el Ejemplo 5.5, y sean los vectores
u = (1, 1) y v = (5, −1).
6. En el espacio P2 considere el producto interno estándar, y sean los polinomios p y q dados por
p(x) = 4 + x y q(x) = 3 − 2x + x2 .
8. En el espacio vectorial C [0, π], considere el producto interno definido en el Ejemplo 5.12, y sean
las funciones f , g y h dadas por f (x) = x, g(x) = ex y h(x) = sen x.
9. Sea V un espacio con producto interno. Demuestre que u es ortogonal al espacio gen {u1 , u2 , ..., uk }
si y solo si es ortogonal a cada uno de los vectores u1 , u2 , ..., uk .
10. Sea V un espacio con producto interno. Pruebe que el único vector de V que es ortogonal a cada
vector de V es el vector cero.
12. Sea u un vector de un espacio con producto interno V y sea W el conjunto de todos los vectores
de V que son ortogonales a u.
⟨u1 , u2 ⟩ = u1 · u2 = 0,
⟨u1 , u3 ⟩ = u1 · u3 = 0,
⟨u2 , u3 ⟩ = u2 · u3 = 0,
y además ∥u1 ∥ = ∥u2 ∥ = ∥u3 ∥ = 1.◀
Ejemplo 5.18. En el espacio M2 con el producto interno estándar, el conjunto S = {A, B, C} donde
1 −1 −2 −2 1 −1
A= , B= y C= ,
2 0 0 1 0 0
Nota: Debe observarse que todo conjunto unitario, S = {v}, en un espacio con producto interno es
un conjunto ortogonal dado que no existen dos vectores distintos en S cuyo producto interno no sea
cero.
El proceso de multiplicar un vector v no cero por el recı́proco de su longitud para obtener un vector de
norma uno, se denomina normalización del vector v. Es claro que cualquier conjunto ortogonal de
vectores no ceros se transforma en un conjunto ortonormal si se normaliza cada vector del conjunto.
Los vectores ortogonales tienen muchas propiedades, la principal se dá en el siguiente teorema:
c1 u1 + c2 u2 + ... + ck uk = 0. (5.3)
Dado que S es un conjunto ortogonal ⟨uj , ui ⟩ = 0 si j ̸= i, por lo tanto la suma del primer miembro
se reduce al único término ci ⟨ui , ui ⟩ y la última igualdad se reduce a
ci ⟨ui , ui ⟩ = 0.
Dado que los vectores de S son no cero, por el axioma de positividad es ⟨ui , ui ⟩ > 0, y por lo
tanto ci = 0. Como esto se verifica para todo ui de S, entonces c1 = c2 = ... = ck = 0 y luego S es
linealmente independiente.
Se completa la prueba del teorema observando que todo conjunto ortonormal es un conjunto
ortogonal de vectores no cero y por lo tanto es linealmente independiente.
Ejemplo 5.20.
El conjunto S del Ejemplo 5.17 es una base ortonormal del espacio euclidiano R3 ya
que dim R = 3 y S es un conjunto ortonormal que consta de 3 vectores.◀
3
El interés en encontrar bases ortonormales para espacios con producto interno está en parte motivado
por el teorema que sigue, el cual muestra que puede ser sencillo expresar un vector en términos de una
base ortogonal.
Teorema 5.11. Si S = {u1 , u2 , ..., un } es una base ortogonal para un espacio V con producto
interno y v es cualquier vector de V entonces
Demostración. Sea v un vector de V. Dado que S es una base de V, existen únicos escalares c1 , c2 ,...,
cn tales que
v = c1 u1 + c2 u2 + ... + cn un . (5.4)
⟨v, ui ⟩
Se demostrará que ci = para cada i = 1, 2, ..., n.
⟨ui , ui ⟩
De acuerdo a (5.4) y por propiedades del producto interno, para cada vector ui en S:
Dado que S es un conjunto ortogonal, ⟨uj , ui ⟩ = 0 si j ̸= i. Por lo tanto la suma anterior se reduce
al único término ci ⟨ui , ui ⟩. Ası́
⟨v, ui ⟩ = ci ⟨ui , ui ⟩ .
Por ser S una base, ui ̸= 0, luego ⟨ui , ui ⟩ ̸= 0 por lo cual
⟨v, ui ⟩
ci = , para cada i = 1, 2, ..., n.
⟨ui , ui ⟩
Ejemplo 5.21. Los vectores u1 = (0, 1, 0), u2 = − 54 , 0, 35 y u3 = 3 4
5 , 0, 5 forman una base ortonor-
mal para el espacio euclidiano R3 (verifı́quelo).
Consideremos el vector v = (1, 1, 1). Por el teorema anterior, el vector v expresado en términos de
la base ortonormal es
v = (v · u1 ) u1 + (v · u2 ) u2 + (v · u3 ) u3 .
Se verifica que v · u1 = 1, v · u2 = − 51 y v · u3 = 75 . Ası́,
1 4 3 7 3 4 1 7
v = (1, 1, 1) = 1 (0, 1, 0) − − , 0, + , 0, = 1u1 − u2 + u3 . ◀
5 5 5 5 5 5 5 5
Es evidente la utilidad del teorema si se tiene presente que por lo general es necesario resolver un
sistema de ecuaciones lineales para expresar un vector en términos de una base que no es ortogonal.
Ahora se considera el problema de construir bases ortonormales. Para ello se deben considerar los
siguientes resultados preliminares:
Teorema 5.12. Sea V un espacio con producto interno y S = {u1 , u2 , ..., uk } un conjunto
ortogonal de vectores no cero en V. Si W = gen(S) entonces todo vector v en V se puede
expresar en la forma
v = w1 + w2 ,
donde w1 está en W y w2 = v − w1 es ortogonal a W siendo
⟨v − w1 , ui ⟩ = ⟨v, ui ⟩ − ⟨w1 , ui ⟩
⟨v, u1 ⟩ ⟨v, u2 ⟩ ⟨v, uk ⟩
= ⟨v, ui ⟩ − u1 + u2 + ... + uk , ui
⟨u1 , u1 ⟩ ⟨u2 , u2 ⟩ ⟨uk , uk ⟩
⟨v, u1 ⟩ ⟨v, u2 ⟩ ⟨v, uk ⟩
= ⟨v, ui ⟩ − ⟨u1 , ui ⟩ + ⟨u2 , ui ⟩ + ... + ⟨uk , ui ⟩ .
⟨u1 , u1 ⟩ ⟨u2 , u2 ⟩ ⟨uk , uk ⟩
⟨v − w1 , ui ⟩ = ⟨v, ui ⟩ − ⟨v, ui ⟩ = 0.
Con la motivación de la Figura 5.8, al vector w1 se le dá el nombre de proyección ortogonal de v sobre
W y se lo denota proyW v. El vector w2 se conoce como componente de v ortogonal a W. Se tiene
entonces la siguiente definición:
Ejemplo 5.22. Sea el espacio euclidiano R3 y W el subespacio (el plano) generado por los vectores
ortonormales u1 = (0, 1, 0) y u2 = 54 , 0, 35 . La proyección ortogonal del vector v = (1, 1, 1) sobre W
es
7 4 3 28 21
proyW v = (v · u1 ) u1 + (v · u2 ) u2 = 1 (0, 1, 0) + , 0, = , 1, .
5 5 5 25 25
La componente de v ortogonal a W es
28 21 3 4
v − proyW v = (1, 1, 1) − , 1, = − , 0, .
25 25 25 25
Obsérvese que v − proyW v es ortogonal tanto a u1 como a u2 , de manera que este vector es
ortogonal a cada vector en el espacio W, como debe ser.◀
Actividad 5.6. Pruebe que el conjunto S = {v1 , v2 } donde v1 = (0, 2, 0) y v2 = (4, 0, 3) es una
base ortogonal del subespacio W del ejemplo anterior. Y muestre que si calcula el vector proyección
de v = (1, 1, 1) sobre W usando la base S se obtiene el mismo vector que el del ejemplo anterior, que
fue calculado utilizando la base {u1 , u2 }.
Este no es casual, el cálculo de un vector proyección sobre un subespacio es independiente de la
base ortogonal considerada.
En la sección anterior se notó que el vector proyección de u sobre v es el vector del espacio gen {v}
más próximo al vector u (véase Figura 5.7). Similarmente, el vector proyW v tiene la misma interesante
propiedad. Es el vector en W más cercano a v, es decir, es la mejor aproximación de los vectores de
W al vector v (véase Figura 5.9).
v − w = (v − proyW v) + (proyW v − w) .
El vector proyW v − w pertenece a W ya que es diferencia de dos vectores del espacio W. Por otra
parte, de acuerdo al Teorema 5.12, el vector v − proyW v es ortogonal a todo vector de W de modo
que los dos vectores del segundo miembro son ortogonales. Por el Teorema generalizado de Pitágoras:
o bien,
∥v − proyW v∥2 = ∥v − w∥2 − ∥proyW v − w∥2 .
Como ∥proyW v − w∥2 > 0 para todo w ̸= proyW v, entonces
∥v − proyW v∥ < ∥v − w∥ .
El teorema de la mejor aproximación implica que la proyección ortogonal sobre un subespacio es única,
no depende de la base ortonormal que se usó para calcularla (Ejercicio 13).
Ahora se tienen los elementos necesarios para probar el resultado principal de esta sección: Todo
espacio con producto interno de dimensión finita tiene una base ortogonal. Este resultado se deduce co-
mo consecuencia de un teorema cuya demostración enseña a construir bases ortogonales para cualquier
espacio con producto interno de dimensión finita. Esta contrucción es el método de Gram-Schmidt, en
memoria de J. P. Gram (1850-1916) y E. Smith (1845-1921), que permite “ortogonalizar” cualquier
base S de un subespacio W finito dimensional de un espacio vectorial V con producto interno.
u1 = v1
⟨v2 , u1 ⟩
u2 = v2 − u1
⟨u1 , u1 ⟩
⟨v3 , u1 ⟩ ⟨v3 , u2 ⟩
u3 = v3 − u1 − u2
⟨u1 , u1 ⟩ ⟨u2 , u2 ⟩
..
.
⟨vk , u1 ⟩ ⟨vk , u2 ⟩ ⟨vk , uk−1 ⟩
uk = vk − u1 − u2 − ... − uk−1 .
⟨u1 , u1 ⟩ ⟨u2 , u2 ⟩ ⟨uk−1 , uk−1 ⟩
u1 = v 1 .
⟨v2 , u1 ⟩
u2 = v2 − proyW1 v2 = v2 − u1 .
⟨u1 , u1 ⟩
⟨v3 , u1 ⟩ ⟨v3 , u2 ⟩
u3 = v3 − proyW2 v3 = v3 − u1 − u2 .
⟨u1 , u1 ⟩ ⟨u2 , u2 ⟩
Nota 1: Puede comprobarse que en cada paso de este proceso los vectores u1 , u2 ,..., ul forman una
base ortogonal para el subespacio generado por los vectores v1 , v2 ,..., vl de la base original S.
Nota 2: Si la base S ya es ortogonal, el proceso de Gram-Schmidt “devuelve” la misma base S; esto
es u1 = v1 , u2 = v2 ,..., uk = vk .
En la Figura 5.10 se muestra una visualización geométrica del proceso de Gram-Schmidt en el espacio
euclidiano R3 . En [Link]
puede verse una construcción dinámica del mismo en dicho espacio.
Ejemplo 5.23. Sea el subespacio W = gen {v1 , v2 , v3 } donde v1 = (1, 1, 1, 1), v2 = (0, 1, 1, 1) y
v3 = (0, 0, 1, 1) del espacio euclidiano R4 .
u1 = v1 = (1, 1, 1, 1) ,
v 2 · u1 3 3 1 1 1
u2 = v 2 − u1 = (0, 1, 1, 1) − (1, 1, 1, 1) = − , , , ,
u1 · u1 4 4 4 4 4
v 3 · u1 v 3 · u2 2 1/2 3 1 1 1
u3 = v 3 − u1 − u2 = (0, 0, 1, 1) − (1, 1, 1, 1) − − , , , =
u1 · u1 u2 · u2 4 3/4 4 4 4 4
1 1 1 1 1 1 1 1 2 1 1
= (0, 0, 1, 1) − , , , − − , , , = 0, − , , .
2 2 2 2 2 6 6 6 3 3 3
√ √
′′ u1 u2 u3
Dado que ∥u1 ∥ = 2, ∥u2 ∥ = 2 y ∥u3 ∥ = 3 , el conjunto S =
3 6
, , donde
∥u1 ∥ ∥u2 ∥ ∥u3 ∥
u1 1 1 1 1 1
= (1, 1, 1, 1) = , , , ,
∥u1 ∥ 2 2 2 2 2
u2 2 3 1 1 1 3 1 1 1
= √ − , , , = − √ , √ , √ , √ ,
∥u2 ∥ 3 4 4 4 4 2 3 2 3 2 3 2 3
u3 3 2 1 1 2 1 1
= √ 0, − , , = 0, − √ , √ , √ ,
∥u3 ∥ 6 3 3 3 6 6 6
Ejemplo 5.24. Sea el subespacio W = gen {f1 , f2 , f3 } siendo f1 (x) = 1, f2 (x) = x y f3 (x) = x2 ,
del espacio C [−1, 1] de las funciones continuas en el intervalo cerrado [−1, 1], con el producto interno
Z 1
dado por ⟨f, g⟩ = f (x)g(x) dx, donde f y g son funciones de C [−1, 1].
−1
El conjunto S = {f1 , f2 .f3 } es linealmente independiente y por lo tanto constituye una base para
W pero no es un conjunto ortogonal. En efecto:
Z 1 Z 1
2
⟨f1 , f3 ⟩ = 2
1(x ) dx = x2 dx = ̸= 0.
−1 −1 3
Se obtendrá, aplicando el proceso de Gram-Schmidt, una base ortogonal para W a partir de la
base S:
g1 = f1 ,
Z 1
x dx
⟨f2 , g1 ⟩ 0
g2 = f2 − g1 = f2 − Z−11 g1 = f2 − g1 = f2 ,
⟨g1 , g1 ⟩ 2
dx
−1
Z 1 Z 1
2
x dx x3 dx
⟨f3 , g1 ⟩ ⟨f3 , g2 ⟩ −1
g3 = f3 − g1 − g2 = f3 − Z g1 − Z−1 g2 =
⟨g1 , g1 ⟩ ⟨g2 , g2 ⟩ 1 1
2
dx x dx
−1 −1
2/3 0 1
= f3 − g1 − g2 = f3 − g1 .
2 2/3 3
Por lo tanto el conjunto S ′ = {g1 , g2 , g3 } donde g1 (x) = 1, g2 (x) = x y g3 (x) = x2 − 31 , es una base
ortogonal para W.◀
Ejemplo 5.25. En el espacio euclidiano R4 , sea W = gen {w1 , w2 , w3 , w4 , w5 } donde w1 = (1, 1, 0, 2),
w2 = (0, 1, 1, −1), w3 = (2, 3, 1, 3), w4 = (−1, 0, 1, −3) y w5 = (1, 1, 1, 1). Se desea hallar el vector
proyección de v = (0, −1, 0, 1) sobre el subespacio W, la componente de v ortogonal a W y la distancia
del vector v al subespacio W.
Se debe obtener una base ortogonal para el subespacio W. Claramente {w1 , w2 , w3 , w4 , w5 } no es
una base de W (¿por qué?).
Para hallar una base de W, se forma la matriz A cuyos renglones son los vectores w1 , w2 , w3 , w4
y w5 :
1 1 0 2
0 1 1 −1
A= 2 3 1 3 .
−1 0 1 −3
1 1 1 1
Los renglones no cero de cualquier forma escalonada de A forman una base para ren(A) = W. Una
forma escalonada de A es
1 1 0 2
0 1 1 −1
B= 0 0 1 −1 .
0 0 0 0
0 0 0 0
Ası́, el conjunto S = {v1 , v2 , v3 } donde v1 = (1, 1, 0, 2), v2 = (0, 1, 1, −1) y v3 = (0, 0, 1, −1) es
una base para W. S no es una base ortogonal, aplicando el proceso de Gram-Schmidt a S se obtiene
una base ortogonal para W:
u1 = v1 = (1, 1, 0, 2) ,
v 2 · u1 −1 1 7 2
u2 = v 2 − u1 = (0, 1, 1, −1) − (1, 1, 0, 2) = , , 1, − ,
u1 · u1 6 6 6 3
v 3 · u1 v 3 · u2 −2 5/3 1 7 2
u3 = v 3 − u1 − u2 = (0, 0, 1, −1) − (1, 1, 0, 2) − , , 1, − =
u1 · u1 u2 · u2 6 17/6 6 6 3
4 6 7 1
= ,− , , ,
17 17 17 17
w = v − proyW v =
1 1 5
= (0, −1, 0, 1) − , −1, − , =
3 6 6
1 1 1
= − , 0, , .
3 6 6
Teorema 5.15. Sea W un subespacio de un espacio vectorial V con producto interno, en-
tonces:
1. W⊥ es un subespacio de V.
2. W ∩ W⊥ = {0}
Ejemplo 5.27. Sea W el subespacio del espacio euclidiano R3 generado por los vectores linealmente
independientes u1 = (1, −2, 3) y u2 = (1, 2, 5). Geométricamente W es un plano que contiene al origen
de coordenadas.
Un vector v de R3 es ortogonal a W si y solo si es ortogonal a cada uno de los vectores de un
conjunto generador de W (véase Ejercicio 9 de la sección anterior).
Ası́, v = (v1 , v2 , v3 ) es ortogonal a W si y solo si u1 · v = 0 y u2 · v = 0. Esto es:
v1 − 2v2 + 3v3 = 0
v1 + 2v2 + 5v3 = 0
v = 0 + v,
v = w1 + w2 .
Para hacer ver que éstos son los únicos vectores con estas propiedades supóngase que también v
se puede descomponer:
v = w′1 + w′2 ,
donde w′1 ∈ W y w′2 ∈ W⊥ .
Ası́,
w1 + w2 = w′1 + w′2 ,
por lo tanto
w1 − w′1 = w′2 − w2 .
El vector w1 − w′1 ∈ W ya que es resta de dos vectores de W y éste es un subespacio. El vector
w′2 − w2 ∈ W⊥ ya que es resta de dos vectores de W⊥ y éste es un subespacio. Luego:
u = w1 − w′1 = w′2 − w2 ,
es un vector que está tanto en W como en W⊥ por lo cual, del Teorema 5.15 parte 2, u = 0 esto es
w1 = w′1 y w2 = w′2 .
Ejercicios 5.3
1. Halle el vector de coordenadas del vector v = (8, 2, −3) del espacio euclidiano R3 con respecto a
la base ortogonal B = {u1 , u2 , u3 } donde u1 = (4, −1, 1), u2 = (0, 1, 1) y u3 = − 21 , −1, 1 . (No
hay que resolver ningún sistema).
2. Compruebe que el conjunto formado por los vectores u1 y u2 es un conjunto ortogonal del espacio
euclidiano R3 . Luego encuentre la proyección de v sobre gen {u1 , u2 }, siendo:
3. Sea W el subespacio del espacio euclidiano R4 generado por los vectores u1 , u2 y u3 . Escriba
el vector v como la suma de un vector de W y un vector ortogonal a W. Calcule además la
distancia del vector v al subespacio W:
4. Sea el subespacio W = gen {u1 , u2 } del espacio euclidiano R4 . Determine el vector del subespacio
W más cercano a v y calcule dicha distancia:
5. Halle, en cada caso, una base ortonormal para el subespacio W del espacio euclidiano Rn corres-
pondiente:
6. Halle una base ortogonal para el subespacio W del espacio V = Pn con el producto interno
estándar.
a) W = gen {p1 , p2 , p3 }; V = P3 ; p1 = 1 + x − x2 , p2 = 1 + x + x2 − x3 , p3 = 1 + x3 .
b) W = a + (a − b)x + bx2 ∈ P2 : a, b ∈ R ; V = P2 .
7. Halle una base ortogonal para el subespacio W del espacio Mmn correspondiente con el producto
interno estándar.
1 1 0 2 2 1 0 0 −1
a) W = gen {A1 , A2 , A3 }; A1 = , A2 = , A3 =
0 1 −1 1 1 1 1 1 1
a b −b
b) W = 0 a + b 0 ∈ M3 : a, b ∈ R .
0 0 −a
8. Halle una base ortogonal para el subespacio W del espacio C [0, 1] con el producto interno dado
Z 1
por ⟨f, g⟩ = f (x)g(x) dx, donde f y g son funciones continuas en el intervalo cerrado [0, 1].
0
9. Calcule la proyección del vector v sobre el subespacio W indicado en cada caso y la componente
de v ortogonal a W.
13. Sea V un espacio vectorial con producto interno y W un subespacio de dimensión finita. De-
muestre que la proyección ortogonal de un vector v sobre W es única.
Sugerencia: Utilice el teorema de la mejor aproximación para probar que no hay dos vectores
proyección de v sobre W distintos.
15. Sea A una matriz de m × n. Para los subespacios ren(A) y col(A) de los espacios euclidianos
Rn y Rm , respectivamente, se tienen las siguientes relaciones con respecto a sus complementos
ortogonales:
(ren(A))⊥ = N (A),
y dado que col(A) = ren(At ), resulta
(col(A))⊥ = N (At ).
a) Demuestre que (ren(A))⊥ = N (A) (un vector de Rn es ortogonal a cada uno de los renglones
de A si y solo si es un vector de N (A)).
b) Utilice el resultado del ı́tem anterior para probar que para todo subespacio W en el espacio
euclidiano Rn , dim(W) + dim(W⊥ ) = n.
c) Halle el complemento ortogonal y una base del mismo para los siguientes subespacios W
del espacio euclidiano V.
i) W = gen {(1, 1, 1), (2, 1, 3), (3, 2, 4)}; V = R3 .
ii) W = gen {(1, 0, 0, 1), (0, 1, 1, 1), (1, 1, 1, 2), (1, 2, 2, 3)}; V = R4 .
iii) W = gen {(1, 0, 0, 1), (0, 1, 1, 1), (1, 1, 1, 2), (1, 2, 2, 2)}; V = R4 .
16. Sea W un subespacio de dimensión finita de un espacio vectorial V con producto interno y v un
vector de V. Demuestre:
a) proyW v = v ⇔ v ∈ W.
b) proyW v = 0 ⇔ v ∈ W⊥ .
17. (Polinomios y series de Fourier) Con frecuencia las funciones continuas se aproximan me-
diante combinaciones lineales de funciones seno y coseno. Por ejemplo, una función continua
podrı́a representar una onda sonora, una señal eléctrica de algún tipo, el movimiento de un
sistema mecánico vibratorio, etc. Esta idea data de Euler, sin embargo, floreció con el trabajo
de Fourier (1768-1830).
Sea B el conjunto de las siguientes funciones trigonométricas definidas en el intervalo [−π, π].
Sea el subespacio gen(B) de C [−π, π] formado por todos los polinomios trigonométricos cuyo
orden es a lo sumo n.
a) Demuestre que B es una base ortogonal de gen(B). Para ello, pruebe que:
⟨1, cos(nx)⟩ = 0; n = 1, 2, 3, ...
⟨1, sen(nx)⟩ = 0; n = 1, 2, 3, ...
⟨cos(mx), cos(nx)⟩ = 0; si m ̸= n
⟨cos(mx), sen(nx)⟩ = 0; m, n = 1, 2, 3, ...
⟨sen(mx), sen(nx)⟩ = 0; si m ̸= n
√ √ √
b) Pruebe que ∥1∥ = 2π, ∥cos(kx)∥ = π y ∥sen(kx)∥ = π, k ≥ 1.
Sea f una función de C [−π, π]. Una aproximación de la función f mediante un polinomio
trigonométrico pn es
⟨f, 1⟩ ⟨f, cos x⟩ ⟨f, cos 2x⟩
f (x) ≃ pn (x) = proygen(B) f = 1+ cos x + cos 2x + ...
⟨1, 1⟩ ⟨cos x, cos x⟩ ⟨cos 2x, cos 2x⟩
⟨f, cos nx⟩ ⟨f, sen x⟩
+ cos nx + ... + sen x +
⟨cos nx, cos nx⟩ ⟨sen x, sen x⟩
⟨f, sen 2x⟩ ⟨f, sen nx⟩
+ sen 2x + ... + sen nx.
⟨sen 2x, sen 2x⟩ ⟨sen nx, sen nx⟩
c) Demuestre que los coeficientes de la aproximación anterior son:
Z π
⟨f, 1⟩ 1
a0 = = f (x) dx
⟨1, 1⟩ 2π −π
Z
⟨f, cos kx⟩ 1 π
ak = = f (x) cos kx dx k = 1, 2, ..., n
⟨cos kx, cos kx⟩ π −π
Z π
⟨f, sen kx⟩ 1
bk = = f (x) sen kx dx k = 1, 2, ..., n
⟨sen kx, sen kx⟩ π −π
Las fórmulas dadas en el ı́tem anterior se conocen como fórmulas de Euler que utilizó Fourier
para resolver la ecuación del calor.
El polinomio trigonométrico pn que aproxima a la función f definido por (5.6) y cuyos coeficientes
se obtienen de las fórmulas de Euler, se llama polinomio o aproximación de Fourier de orden n
de f en [−π, π].
d ) Pruebe que el polinomio de Fourier de orden n de la función dada por f (x) = x, x ∈ [−π, π]
está dado por:
2 2(−1)n+1
pn (x) = sen x − sen 2x + sen 3x + ... + sen nx.
3 n
En la Figura 5.11 se representan la función f y los polinomios de Fourier de orden 4, p4 y de
orden 7, p7 de f .
A medida que n crece, los polinomios pn se acercan cada vez más a la función f . Tomando el
lı́mite cuando n → +∞ se obtiene la serie
∞
X
f (x) = a0 + (an cos(nx) + bn sen(nx)) ,
n=1
TRANSFORMACIONES LINEALES
Una clase especial de funciones son las transformaciones lineales, las cuales son transformaciones
entre espacios vectoriales que “conservan” la suma y la multiplicación por escalares. Más precisamente:
T (kp) = T k(a1 + b1 x + c1 x2 )
= T (ka1 ) + (kb1 )x + (kc1 )x2
= (ka1 + kb1 , kc1 )
= (k(a1 + b1 ), k(c1 ))
= k (a1 + b1 , c1 )
= kT a1 + b1 x + c1 x2
= kT (p),
se verifica la parte b) de la definición.
Ası́, la transformación T es una transformación lineal.◀
(a1 + b1 ) + (a2 + b2 ) 0
=
0 (c1 + d1 ) + (c2 + d2 )
a1 + b1 0 a2 + b2 0
= +
0 c1 + d1 0 c2 + d2
a1 b1 a2 b2
= T +T
c1 d1 c2 d2
= T (A) + T (B),
Ejemplo 6.4 (La transformación lineal cero). Sean V y W espacios vectoriales. La transformación
constante cero, O : V → W, definida por
O(ku) = 0 = k0 = kO(u).
Actividad 6.1. Sean V y W espacios vectoriales. Pruebe que una transformación constante no cero,
esto es, T : V → W tal que T (x) = w donde w es un vector fijo no cero, no es una transformación
lineal.
Ejemplo 6.5 (La transformación lineal identidad). Sea V un espacio vectorial. La transformación
identidad definida por
I(v) = v, para todo v ∈ V,
es una transformación lineal del espacio V en sı́ mismo.
En efecto: sean u y v vectores de V y k un escalar, entonces I(u + v) = u + v, I(u) = u, I(v) = v
y I(ku) = ku. Por lo tanto:
I(u + v) = u + v = I(u) + I(v),
I(ku) = ku = kI(u).
Ejemplo 6.6. Considere los espacios vectoriales Mmn y Mnm y la transformación T : Mmn → Mnm
tal que
T (A) = At .
Esta transformación (transposición de matrices) es lineal. En efecto, por propiedades de la trans-
posición de matrices:
T (A + B) = (A + B)t = At + B t = T (A) + T (B),
T (kA) = (kA)t = kAt = kT (A),
para todo par de matrices A y B de m × n y para cualquier escalar k. ◀
Nota: Si como en los ejemplos 6.3, 6.5 y 6.6, T es una transformación lineal de un espacio vectorial
en sı́ mismo; esto es T : V → V, se dice que T es un operador lineal sobre V.
Las condiciones a) y b) que debe satisfacer una transformación para que sea lineal, pueden escribirse
de manera simultánea, por lo tanto la definición de transformación lineal puede expresarse como sigue:
Demostración. Por un lado, si T es una transformación lineal, por la parte a) de la definición, se tiene
que si u y v son vectores de V y c y k escalares en R:
y por b)
T (cu) = cT (u) y T (kv) = kT (v). (6.2)
Reemplazando las expresiones de (6.2) en la expresión dada en (6.1) se obiene
Ejemplo 6.7 (Proyección de un vector sobre una recta que pasa por el origen). Sea u un
vector fijo distinto de cero del espacio euclidiano R3 . La transformación T : R3 → R3 definida por
T (v) = proyu v,
Se puede decir entonces que la matriz A define la transformación T : R3 → R2 tal que T (x) = Ax.
T (x) = Ax
El teorema anterior dá condiciones necesarias para que una transformación T : V → W sea una
transformación lineal. Si alguna de éstas no se cumple, se puede afirmar que T no es una transformación
lineal. En particular es fácil verificar si T (0) es, o no, el cero de W.
Ejemplo 6.9 (Una transformación que no es lineal). Sea la transformación T : R2 → R3 tal que
T (x, y) = (x, y, x + 1). Dado que
no se verifica la propiedad 1 del teorema anterior y por lo tanto T no es una transformación lineal.◀
Determinación de una transformación lineal conocidos sus valores sobre una base del
espacio dominio
El Teorema 6.1 puede generalizarse para un número finito de vectores. Esto es, si T es una transfor-
mación lineal de V en W,
Teorema 6.3. Sea V un espacio vectorial de dimensión n y T una transformación lineal del
espacio V en un espacio W. Si B = {v1 , v2 , ..., vn } es una base de V y w1 , w2 ,,...,wn son las
imágenes de v1 , v2 ,...,vn , respectivamente, entonces para cada v en V,
T (v) = k1 w1 + k2 w2 + ... + kn wn ,
Demostración. Sea v un vector del espacio V. Como B es una base de V, existen únicos escalares k1 ,
k2 ,..., kn tal que que
v = k1 v1 + k2 v2 + ... + kn vn .
Dado que T es una transformación lineal y T (vi ) = wi para todo i = 1, 2, ..., n, aplicando T a la
expresión anterior se obtiene:
Para hallar la ley de T , es decir, T (x, y) para todo (x, y) de R2 , se escribe al vector genérico (x, y)
como combinación lineal de los vectores (1, 0) y (1, 1) que conforman una base de R2 . Esto es, se
buscan los (únicos) valores de k1 y k2 tales que
o bien
(x, y) = (k1 + k2 , k2 )
La solución es
k1 = x − y
k2 = y
Ası́,
(x, y) = (x − y)(1, 0) + y(1, 1),
y dado que T es una transformación lineal se tiene
Actividad 6.3. Sea f : R → R una transformación lineal del espacio vectorial R en sı́ mismo. Suponga
que f (1) = a. Halle f (x) para todo x ∈ R.
Esto muestra que toda transformación lineal f de R en R es de la forma f (x) = ax para algún
a ∈ R.
Si no se dan los valores de T sobre una base no se puede determinar la imagen de cada elemento de
V. Si en el ejemplo anterior se dieran solo las imágenes del (1, 1) y (−3, −3) no se podrı́a calcular la
imagen, por ejemplo, del vector (2, 4) ya que no es combinación lineal de ellos.
En general, vale el siguiente teorema cuya demostración queda como ejercicio.
Ejercicios 6.1
a) Demuestre que T es una transformación lineal (véase demostración del Teorema 4.15, 1.)
b) Si V = M2 (n = 4) y B = {E 11 , E11 + E12 , E11 + E12 + E21 , E11 + E12 + E21 + E22 }, ob-
1 2
tenga la imagen de la matriz .
4 3
4. En cada caso sea T : Rn → Rm la transformación matricial de matriz estándar A. Halle n y m
y la imagen de un vector genérico x de Rn .
2 3
a) A = −1 5
0 4
b) A = 1 −2 5 3
5. Sea T la transformación lineal de R2 en R2 tal que T (−1, 1) = (5, 1) y T (1, 1) = (0, 2).
10. Indique si las siguientes proposiciones son verdaderas o falsas. Jusitifique sus respuestas.
a) Existe una transformación lineal T : R2 → R2 tal que T (−1, 1) = (0, 1) y T (2, −2) = (1, 4).
b) Si la transformación T : V → W es tal que T (0) = 0, entonces T es lineal.
c) Sea T : V → W una transformación lineal y {v1 , v2 } un subconjunto linealmente depen-
diente de V. Entonces {T (v1 ), T (v2 )} es un subconjunto linealmente dependiente de W.
11. Las siguientes son algunas de las transformaciones más utilizadas en el Cálculo. Estas transfor-
maciones están definidas en diferentes espacios vectoriales:
El espacio vectorial Ċ (R) de las funciones de R en R derivables con las operaciones habi-
tuales de suma y multiplicación por escalar definidas en F (R).
El espacio vectorial F(R3 ) de los campos escalares de R3 en R con las operaciones habituales
de suma y multiplicación por escalar.
El espacio vectorial Ḟ(R3 ) de los campos escalares de R3 en R tal que existen las deriva-
das parciales de primer orden con las operaciones habituales de suma y multiplicación por
escalar en F(R3 ).
El espacio vectorial F3 (R3 ) de los campos vectoriales de R3 en R3 con las operaciones
habituales de suma y multiplicación por escalar.
El espacio vectorial Ḟ3 (R3 ) de los campos vectoriales de R3 en R3 cuyas funciones compo-
nentes tienen derivadas parciales de primer orden con las operaciones habituales de suma
y multiplicación por escalar en F3 (R3 ).
n R +∞ o
El espacio vectorial A = f ∈ C [0, +∞) : 0 e−xt f (t) dt < ∞ con las operaciones ha-
bituales de suma y multiplicación por escalar definidas en F (R).
1. ker(T ) es un subespacio de V.
2. R(T ) es un subespacio de W.
Demostración. Dado que T : V → W es una transformación lineal se sabe que T (0) = 0, luego el 0
de V está en ker(T ) y el 0 de W está en R(T ). Por lo tanto R(T ) y ker(T ) son subconjuntos no vacı́os
de V y W, respectivamente.
1. Sean u y v vectores de ker(T ) y k un número real. Como u y v están en ker(T ) entonces T (u) = 0
y T (v) = 0. Luego:
T (u + v) = T (u) + T (v) = 0 + 0 = 0,
y
T (ku) = kT (u) = k0 = 0.
2. Sean w1 y w2 vectores de R(T ) y k un escalar real. Debe probarse que w1 + w2 y kw1 están en
R(T ); esto es, que w1 + w2 y kw1 son imágenes de vectores de V.
Supuesto que w1 y w2 están en R(T ), entonces existen vectores u y v en V tales que T (u) = w1
y T (v) = w2 . Luego y dado que T es lineal:
Además,
kw1 = kT (u) = T (ku),
por lo que el vector kw1 está en R(T ) ya que es la imagen del vector ku de V.
Ası́, R(T ) es cerrado bajo la suma y la multiplicación por escalares y por lo tanto es un subespacio
de W.
Ejemplo 6.11. Sea la transformación lineal T : P2 → R2 tal que T a + bx + cx2 = (a + b, c) del
Ejemplo 6.1. El núcleo de T es el siguiente subespacio de P2 :
ker(T ) = a + bx + cx2 ∈ P2 : T (a + bx + cx2 ) = (0, 0)
= a + bx + cx2 ∈ P2 : (a + b, c) = (0, 0)
= a + bx + cx2 ∈ P2 : a + b = 0, c = 0
= a + bx + cx2 ∈ P2 : a = −b, c = 0, b ∈ R
= {−b + bx ∈ P2 : b ∈ R}
= {b(−1 + x) : b ∈ R}
= gen {−1 + x}
Ejemplo 6.12. Para la transformación lineal cero O : V → W, dado que O(v) = 0 para todo v en V
su núcleo es el conjunto V. Su recorrido es el conjunto unitario {0} puesto que 0 es la única imagen.
Esto es:
ker(O) = V y R(O) = {0} .
Ası́, ρ(O) = 0 y, si V es de dimensión finita ν(O) = dim(V).
Para la transformación lineal identidad I : V → V dado que I(v) = v para todo v en V entonces el
único vector que se transforma en cero es el mismo cero, y todo vector v de V es imagen de sı́ mismo.
Por lo tanto
ker(I) = {0} y R(I) = V.
Ası́, ν(I) = 0 y, si V es finito dimensional ρ(I) = dim(V).◀
1. Recordando que el espacio nulo de una matriz A, N (A), es el conjunto de los x en Rn tal que
Ax = 0 y T (x) = Ax, resulta
2. El espacio de las columnas de A, col(A), es el conjunto de todos los vectores de Rm que son
combinaciones lineales de las columnas de A. Ası́,
Se sabe, por el teorema del rango, que para toda matriz A de m × n, la suma del rango y la nulidad
es igual al número de columnas de A (Teorema 4.22). Se tiene entonces el siguiente resultado.
ρ(T ) + ν(T ) = n.
1 1 0
Ejemplo 6.13. Sea T la transformación matricial de matriz estándar A = .
1 1 0
Entonces T : R3 → R2 y
x1 x1
1 1 0 x1 + x2
T x2 = x2 = .
1 1 0 x1 + x2
x3 x3
1 1 0
La forma escalonada reducida de A es la matriz B = . El número de pivotes da el
0 0 0
rango de A, ρ(A) = 1, luego ρ(T ) = 1. El número de columnas no pivotes de A es ν(A) = 3 − 1 = 2 y
ası́ ν(T ) = 2.
col(A) es el espacio generado por las columnas pivote de A, ası́
1 y1
R(T ) = col(A) = gen = ∈ R : y1 = y2 .
2
1 y2
El espacio nulo de A, N (A), es el conjunto de las soluciones del sistema Ax = 0 que es equivalente
a la ecuación x1 + x2 + 0x3 = 0. La solución general es
x1 = −t
x2 = t , t, r ∈ R.
x3 = r
Ası́,
−t −1 0
ker(T ) = N (A) = t , t, r ∈ R = gen 1 , 0 . ◀
r 0 1
El siguiente teorema, cuya demostración se omitirá en este momento, es uno de los más importantes
del Álgebra Lineal, y generaliza al Corolario 6.2.
Teorema 6.7 (de la dimensión). Sean V y W espacios vectoriales tal que V es finito dimen-
sional. Si T : V → W es una transformación lineal entonces
Debe observarse que una de las hipótesis del teorema es que V es un espacio de dimensión finita. Esto
permite asegurar que ambos, ker(T ) (por ser un subespacio de V) y R(T ) (Teorema 6.4 y su Corolario
6.1), son de dimensión finita.
Ejercicios 6.2
1. Obtenga el núcleo (kernel) de las transformaciones lineales a), c), d ), f ) y i ) del Ejercicio 2 de
la Sección 6.1.
2. Para cada transformación lineal T , halle los subespacios ker(T ) y R(T ), determine bases (si es
posible) de los mismos y verifique el teorema de la dimensión.
a) T : R2 → R3 , T (x, y) = (x − y, 0, −2y).
b) T : R3 → R3 , T (x) = −3x.
c) T : P2 → P1 , T (a + bx + cx2 ) = (a + b + c)x.
a b d b+c
d ) T : M2 → M2 , T = .
c d 0 −a
e) T : P2 → R2 ,T (a + bx + cx2 ) = (a + b, a − c).
x−y 0 0
f) T : R → M23 , T (x, y, z) =
3 .
z 0 −z
4. Halle el núcleo y el recorrido de la transformación lineal T : P2 → P2 tal que T (p(x)) = p(1 − x).
Calcule el rango y nulidad de T .
7. Compruebe que ρ(T ) + ν(T ) = n donde T son las transformaciones matriciales del ejercicio
anterior.
a) T : R5 → R3 , ρ(T ) = 3.
b) T : P4 → P3 , ρ(T ) = 4.
0 −1 0 0 0 1
c) T : M2 → M23 tal que R(T ) = gen , .
1 0 0 0 1 1
10. Sea T : V → W una transformación lineal donde dim(V) = dim(W) = n. Pruebe que
11. Sea D : P2 → P1 la transformación lineal derivación; esto es, D(p) = p′ . Obtenga el núcleo de D.
Z 1
12. Sea J : P1 → R la transformación lineal integración dada por J(p) = p(x) dx. Obtenga su
−1
núcleo.
x = x1 e1 + x2 e2 + ... + xn en .
Los n vectores T (e1 ), T (e2 ),..., T (en ) son vectores de Rm . Si se considera la matriz A cuyas
columnas son dichos vectores, y recordando el producto de una matriz por un vector:
x1
x2
Ax = T (e1 ) T (e2 ) · · · T (en ) . = x1 T (e1 ) + x2 T (e2 ) + ... + xn T (en ). (6.5)
..
xn
T (x) = Ax,
donde A = T (e1 ) T (e2 ) · · · T (en ) .
Para probar
que la matriz A hallada
es la única matriz que satisface la igualdad requerida, supónga-
se que B = b1 b2 · · · bn es una matriz de m × n tal que T (x) = Bx, para todo x de Rn . En
particular esta igualdad se verifica para los vectores e1 , e2 ,..., en de la base estándar de Rn . Esto es
y dado que
Bej = bj , j = 1, 2, ..., n
entonces
bj = T (ej ), j = 1, 2, .., n.
Por lo tanto las columnas de B son las mismas que las de A. Ası́, B = A.
Definición
(Matriz estándar). Sea T : Rn → Rm una transformación lineal, la matriz
A = T (e1 ) T (e2 ) · · · T (en ) del teorema anterior se llama matriz estándar de la trans-
formación T . Esta es la única matriz tal que T (x) = Ax, para todo x en Rn .
si una transformación T : R
→ R es, o no, lineal del
De acuerdo al corolario, puede comprobarse n m
T (e1 ) = T (1, 0, 0) = (1, 0, 0, 1), T (e2 ) = T (0, 1, 0) = (1, 2, 0, −1), T (e3 ) = T (0, 0, 1) = (0, −1, 1, 0).
En este momento debe aclararse que aunque se ha usado la notación horizontal en la definición de
T para los vectores de R3 y R4 , se hace necesario utilizar la notación vertical. Ası́,
1 1 0
0 2 −1
A = T (e1 ) T (e2 ) T (e3 ) = 0
.
0 1
1 −1 0
Actividad 6.4. Para la transformación matricial del ejemplo anterior, obtenga su recorrido, su núcleo,
el rango y la nulidad.
Ejemplo 6.15 (Reflexiones). Las reflexiones en el plano se definen respecto a cualquier recta. Las
más interesantes son las reflexiones respecto a los ejes coordenados y a la recta y = x. Éstas se definen
como sigue:
Ejemplo 6.17 (Rotación). Como caso especial de una transformación matricial están las transfor-
maciones llamadas de rotación. Sea θ un ángulo fijo. Sea T : R2 → R2 la transformación matricial de
matriz estándar
cos θ − sen θ
A= .
sen θ cos θ
x
Si x = entonces
y
cos θ − sen θ x x cos θ − y sen θ
T (x) = Ax = = .
sen θ cos θ y x sen θ + y cos θ
Se verá que T (x) es el vector que se obtiene si se hace rotar al vector x (respecto al origen) un
ángulo θ en sentido contrario a las agujas de reloj.
En efecto, si r denota la longitud del vector x y ϕ el ángulo que forma con el eje positivo de las
abscisas, entonces
x = r cos ϕ
y = r sen ϕ
′
x
Si x′ = es el vector que se obtiene al hacer girar x un ángulo θ se demostrará que x′ = T (x).
y′
El vector x′ tiene la misma longitud que x y el ángulo que describe con el sentido positivo del eje
de las abscisas es ϕ + θ. Luego: ′
x = r cos (ϕ + θ)
y ′ = r sen (ϕ + θ)
Por lo tanto:
x′ r cos (ϕ + θ) r (cos ϕ cos θ − sen ϕ sen θ)
x′ = = =
y′ r sen (ϕ + θ) r (cos ϕ sen θ + sen ϕ cos θ)
(r cos ϕ) cos θ − r (sen ϕ) sen θ
=
(r cos ϕ) sen θ + (r sen ϕ) cos θ
x cos θ −y sen θ
=
x sen θ y cos θ
cos θ − sen θ x
=
sen θ cos θ y
= Ax = T (x).
Ejercicios 6.3
1. Para las siguientes transformaciones de Rn en Rm , identifique n y m, y para las que sean lineales
encuentre su matriz estándar.
x2 x1
x1 3x1 + x2 x3
a) T = −x1 c) T x2 =
x2 2x2
x1 + 3x2 x3
x x + 2y + 3 x1
b) T = d) T = 3x1
y x x2
x 0
y x + 2y − z + w x 0
e) T
z = y+z f) T y =
0
−x z
w 0
Verifique las respuestas gráficamente situando los puntos (2, 1) y T (2, 1).
3. Halle la matriz estándar para la transformación lineal T de R2 en R2 que haga girar un punto
(x, y) alrededor del origen hasta describir un ángulo θ de:
a) 45◦ c) 90◦
b) 60◦ d ) −30◦
Verifique las respuestas gráficamente situando los puntos (2, 1) y T (2, 1).
T : R → R es una transformación
Como se ha visto en la sección anterior toda transformación lineal n m
matricial, T (x) = Ax siendo A = T (e1 ) T (e2 ) · · · T (en ) .
Si V y W son espacios vectoriales cualesquiera de dimensión finita y T : V → W es una transfor-
mación lineal, también es posible “trabajar” esta transformación como una transformación matricial.
De hecho, las transformaciones matriciales son de Rn en Rm y V y W pueden ser otros espacios finito
dimensionales, por ejemplo V = P2 y W = M23 , y no se concibe la multiplicación de una matriz por
un polinomio. La idea es elegir bases ordenadas B y B ′ de V y W, respectivamente y trabajar con
los vectores de coordenadas con respecto a estas bases. Si dim(V) = n y dim(W) = m, entonces para
cada v de V, el vector de coordenadas [v]B es un vector de Rn y el vector de coordenadas de su
transformado, [T (v)]B ′ es un vector de Rm .
La asignación v → T (v) de V en W genera la transformación de Rn en Rm tal que [v]B → [T (v)]B ′ .
Se verá que existe una matriz A de m × n tal que [T (v]B ′ = A [v]B para todo v en V.
De esta manera la transformación lineal T : V → W se podrá trabajar indirectamente a través de
una transformación matricial. Al respecto se tiene el siguiente teorema.
[T (v)]B ′ = A [v]B ,
para todo v ∈ V. Más aún esta es la única matriz que satisface la igualdad anterior.
Demostración. Sea v un vector del espacio V. Como B = {v1 , v2 , ..., vn } es una base de V, existen
únicos escalares c1 , c2 ,..., cn tales que
v = c1 v1 + c2 v2 + ... + cn vn ,
Para hallar el vector de coordenadas de T (v) con respecto a la base B ′ debe expresarse a este
vector como combinación lineal de los vectores w1 , w2 ,..., wm de la base B ′ . Dado que cada T (vj ) con
j = 1, 2, ..., n es un vector de W y B ′ = {w1 , w2 , ..., wm } es una base de W, entonces existen únicos
escalares a1j , a2j ,...,amj tales que
Sustituyendo las expresiones dadas en (6.7) en la igualdad (6.6) y operando, se obtiene el vector
T (v) expresado como combinación lineal de los vectores de la base B ′ :
T (v) = c1 (a11 w1 + a21 w2 + ... + am1 wm ) + c2 (a12 w1 + a22 w2 + ... + am2 wm ) + ...
+cn (a1n w1 + a2n w2 + ... + amn wm )
= (c1 a11 + c2 a12 + ... + cn a1n ) w1 + (c1 a21 + c2 a22 + ... + cn a2n ) w2 + ...
+ (c1 am1 + c2 am2 + ... + cn amn ) wm .
Los coeficientes que acompañan a los vectores w1 , w2 ,..., wm son las coordenadas de T (v) en la
base B ′ . Ası́, y por definición del producto de una matriz por un vector, se tiene:
c1 a11 + c2 a12 + ... + cn a1n
c1 a21 + c2 a22 + ... + cn a2n
[T (v)]B ′ = ..
.
c1 am1 + c2 am2 + ... + cn amn
a11 a12 · · · a1n c1
a21 a22 · · · a2n c2
= .. .. .. .. .. .
. . . . .
am1 am2 · · · amn cn
Observe que [T (v)]B ′ es el producto de una matriz de m × n por un vector. Las columnas de la
matriz son los vectores de coordenadas [T (v1 )]B ′ , [T (v2 )]B ′ , ..., [T (vn )]B ′ y el vector es el vector de
coordenadas [v]B . Luego:
[T (v)]B ′ = A [v]B , para cada v ∈ V,
donde A = [T (v1 )]B ′ [T (v2 )]B ′ · · · [T (vn )]B ′ .
De esta forma se ha probado la existencia de una tal matriz A. La demostración de la unicidad es
análoga a la demostración de la unicidad de la matriz estándar del Teorema 6.8.
Nota: Debe notarse que las bases B y B ′ deben considerarse bases ordenadas ya que se está trabajando
con vectores de coordenadas.
Obsérvese que en general existen infinitas matrices para una transformación lineal T dado que
existen infinitas bases para los espacios V y W. Sin embargo, fijadas las bases ordenadas B y B ′ de V
y W, respectivamente, la matriz A es única.
Luego,
3 3 3 1
A = −1 −1 0 0 . ◀
1 0 0 0
El esquema de la Figura 6.5 muestra que dada la matriz A de la transformación lineal T con respecto
a las bases B y B ′ se puede hallar T (v) en tres pasos por medio del procedimiento indirecto que se
indica.
Dado un vector v de V:
Ejemplo 6.19. Sea T : P1 → P2 definida por T (p) = xp, es decir T (a + bx) = ax + bx2 .
Puede comprobarse rápidamente que T es una transformación lineal.
Considere las bases B = {p1 , p2 } y B ′ = {p1 , p2 , p3 } de P1 y P2 , respectivamente, siendo p1 = 1,
p 2 = 1 + x y p 3 = x2 .
Se desea:
1. Obtener la matriz, A, de T con respecto a las bases B y B ′ .
2. Si p = 2 − 5x, hallar T (p) de dos maneras distintas:
a) en forma directa (usando la ley de T ).
b) en forma indirecta (usando la matriz de A).
Solución:
1. Por definición, A = [T (p1 )]B ′ [T (p2 )]B ′ .
Para hallar [T (p1 )]B ′ y [T (p2 )]B ′ , se deben encontrar los coeficientes a1 , a2 , a3 y b1 , b2 , b3 tales
que:
a1 p1 + a2 p2 + a3 p3 = T (p1 ),
b1 p1 + b2 p2 + b3 p3 = T (p2 ).
(a1 + a2 ) + a2 x + a3 x2 = x,
(b1 + b2 ) + b2 x + b3 x2 = x + x2 ,
y por igualdad de polinomios las ecuaciones anteriores se convierten en los siguientes sistemas
lineales:
a1 +a2 =0 b1 +b2 =0
a2 =1 y b2 =1
a3 = 0 b3 = 1
Estos sistemas tienen la misma matriz de coeficientes y pueden resolverse en forma simultánea.
En este caso las soluciones se encuentran directamente pues los sistemas están escalonados. Éstas
son:
a1 = −1 b1 = −1
a2 = 1 y b2 = 1
a3 = 0 b3 = 1
−1 −1
Por lo tanto, [T (p1 )]B ′ = 1 y [T (p2 )]B ′ = 1 . Luego, la matriz A buscada es
0 1
−1 −1
A= 1 1 .
0 1
b) De manera indirecta:
(1) Se halla [p]B . Para ello, se deben encontrar a1 y a2 tales que
a1 (1) + a2 (1 + x) = 2 − 5x,
(2) Se utiliza la matriz A para hallar [T (p)]B ′ . Sabiendo que [T (p)]B ′ = A [v]B , entonces
−1 −1 −2
7
[T (p)]B ′ = [T (2 − 5x)]B ′ = 1 1 = 2 .
−5
0 1 −5
−2
(3) [T (p)]B ′ = [T (2 − 5x)]B ′ = 2 y B ′ = 1, 1 + x, x2 , luego:
−5
En lo que sigue se muestra que la matriz de una transformación lineal T : Rn → Rm con respecto a
las bases estándar de ambos espacios es precisamente la que fue llamada matriz estándar de T .
Ejemplo 6.20 (Matriz con respecto a las bases estándar). Si T : Rn → Rm es una transforma-
ción lineal y B y B ′ son las bases estándar para Rn y Rm , respectivamente,
entonces la matriz de T
con respecto a estas bases es A = T (e1 ) T (e2 ) · · · T (en ) .
En efecto, la matriz de T con respecto a las bases estándar B y B ′ tiene como columnas a los
vectores de coordenadas [T (e1 )]B ′ , [T (e2 )]B ′ ,..., [T (en )]B ′ .
Como B ′ es la base estándar de Rm , entonces [T (ej )]B ′ = T (ej ), para todo j = 1, 2, ..., n.
Ası́, la matriz de T con respecto a estas bases es
A = T (e1 ) T (e2 ) · · · T (en ) ,
que es la matriz estándar de T definida en la sección anterior. Considerando esta matriz la imagen de
un vector v de Rn se obtiene directamente:
T (v) = Av. ◀
Ejemplo 6.21 (Obtención de la ley de T conocida una matriz que la representa). Sea
T : R3 → R2 la transformación lineal tal que la matriz de T con respecto a la base B y B ′ de R3 y
R2 , respectivamente es
1 2 1
A= .
1 −1 1
Si tanto B como B ′ fueran las bases estándar, la matriz A serı́a la matriz estándar de la transfor-
mación. En dicho caso, la ley de T se obtendrı́a directamente, T (x) = Ax.
Supongamos, en cambio, B = {(1, −1, 1), (0, 1, 2), (0, 0 − 1)} y B ′ = {(1, −1), (0, 1)}. Para hallar
la ley de T usando la matriz A, es decir, teniendo en cuenta que
[T (x)]B ′ = A [x]B ,
debe calcularse primero el vector de coordenadas [x]B de un vector genérico x de R3 . Luego, efectuar el
producto A [x]B para ası́ obtener [T (x)]B . Por último, a partir de la definición de vector de coordenadas,
se determina T (x).
(1) Sea x = (x, y, z) un vector de R3 . Las coordenadas de x con respecto a la base B son los valores
de c1 , c2 y c3 tales que
es decir
(x, y, z) = (c1 , −c1 + c2 , c1 + 2c2 − c3 ),
que por igualdad de vectores conduce al sistema lineal
c1 = x
−c1 + c2 = y ,
c1 + 2c2 − c3 = z
de donde se obtiene
c1 = x
c2 = x + y
c3 = 3x + 3y − z
x
Por lo tanto, [x]B = x+y .
3x + 2y − z
x
1 2 1 6x + 4y − z
(2) [T (x)]B ′ = A [x]B = x+y = .
1 −1 1 3x + y − z
3x + 2y − z
resultando
T (x, y, z) = (6x + 4y − z, −3x − 3y) ,
que es la ley de T .◀
ker(T ) = N (A), R(T ) = col(A), ρ(T ) = ρ(A), ν(T ) = ν(A), ρ(T ) + ν(T ) = n = dim(Rn ).
3. ν(T ) = ν(A)
4. ρ(T ) = ρ(A)
[T (v)]B ′ = A [v]B
para cada v de V.
Se sabe que la asignación v → [v]B establece una correspondencia biunı́voca entre los vectores de
V y los vectores de Rn .
3. Dado que v ∈ ker(T ) ⇔ x = [v]B ∈ N (A), todos los vectores x ∈ Rn que están en el espacio
nulo de A, N (A), son las coordenadas, con respecto a la base B, de los vectores v ∈ V que están
en el núcleo de T , ker(T ). Esto es, N (A) = {[v]B : v ∈ ker(T )}. De acuerdo al Teorema 4.15,
{v1 , v2 , ..., vk } es una base de ker(T ) si y solo si {[v1 ]B , [v2 ]B , ..., [vk ]B } es una base de N (A).
Por lo tanto: dim(ker(T )) = dim(N (A)) esto es; ν(T ) = ν(A).
4. Similarmente, dado que w ∈ R(T ) ⇔ y = [w]B ′ ∈ col(A), todos los vectores y ∈ Rm que
están en el espacio generado por las columnas de A, col(A), son las coordenadas, con respecto
a la base B ′ , de los vectores w ∈ W que están en el recorrido de T , R(T ). Esto es, col(A) =
{[w]B ′ : w ∈ R(T )}. De acuerdo al Teorema 4.15, {w1 , w2 , ..., wk } es una base de R(T ) si y solo
si {[w1 ]B ′ , [w2 ]B ′ , ..., [wk ]B ′ } es una base de col(A). Por lo tanto: dim(R(T )) = dim(col(A)) esto
es; ρ(T ) = ρ(A).
Como consecuencia del teorema del rango y del teorema anterior se tiene una versión particular del
teorema de la dimensión.
Ejemplo 6.22.
Sea la transformación lineal T : P2 → R2 tal que la matriz de T con respecto a las
bases B = 1, 1 + x, x + x2 y B ′ = {(1, 1), (−1, 1)} es
1 −1 0
A= .
1 1 1
1 1 1
p = − (1) − (1 + x) + 1(x + x2 ) = −1 + x + x2 .
2 2 2
Por lo tanto,
1
ker(T ) = gen −1 + x + x .
2
2
Ası́, el conjunto −1 + 12 x + x2 es una base de ker(T ), por lo cual ν(T ) = dim(ker(T )) = 1.
Ejemplo 6.23. Sea la transformación lineal T : P5 → M2 tal que la matriz de T con respecto a ciertas
bases dadas B y B ′ de P5 y M2 , respectivamente, es
1 −1 2 2 3 1
0 1 −1 0 1 −1
A= 2 −2
.
0 0 1 0
3 −3 2 2 4 1
El rango de T y la nulidad de T son respectivamente iguales al rango y la nulidad de cualquier
matriz que la represente (no depende de la elección de las bases B y B ′ ). Llevando a la matriz A a
una forma escalonada, el rango de T es el número de columnas pivote de A y la nulidad el número
de columnas no pivote. La forma escalonada reducida de A (que se obtiene rápidamente usando una
herramienta computacional) es
1 0 0 1 11 4 − 21
0 1 0 1 94 − 21
B= 0
1 .
0 1 1 54 2
0 0 0 0 0 0
Luego, ρ(T ) = ρ(A) = 3 y ν(T ) = ν(A) = 3.
Puede verificarse que ρ(T ) + ν(T ) = 3 + 3 = 6 = dim(P5 ).◀
Se quiere ahora investigar el modo en que queda afectada una matriz representante de T cuando se
cambia la base. Uno de los problemas del Álgebra Lineal es analizar si es posible hallar una base
para V de modo que la matriz de T con respecto a dicha base sea sencilla, en particular una matriz
diagonal ya que las matrices diagonales son las más simples de manejar. Este problema se estudiará
en el capı́tulo siguiente y en esta sección se presentarán los fundamentos para resolver el problema.
El teorema que sigue fundamenta como determinar una nueva representación matricial (potencial-
mente más simple) de un operador lineal T a partir de una dada.
Por propiedad asociativa del producto de matrices y combinando (1), (2) y (3):
(1)
P −1 [T ]B P [v]B ′ = P −1 [T ]B P [v]B ′ = P −1 [T ]B [v]B
(2)
= P −1 ([T ]B [v]B ) = P −1 [T (v]B
(3)
= [T (v)]B ′
Fácilmente se puede verificar que T es un operador lineal sobre R2 con matriz estándar
4 −6
A= .
3 −5
De manera directa: por definición, [T ]B ′ = [T (u1 )]B ′ [T (u2 )]B ′ .
1 22 −2 −38
Aplicando la ley de T : T (u1 ) = T = ; T (u2 ) = T = .
−3 18 5 −31
Para hallar los vectores de coordenadas [T (u1 )]B ′ y [T (u2 )]B ′ , se deben encontrar los valores de
a1 , a2 y b1 , b2 tales que:
a1 u1 + a2 u2 = T (u1 ),
b1 u1 + b2 u2 = T (u2 ).
Reemplazando u1 , u2 , T (u1 ) y T (u2 ), las ecuaciones anteriores
se convierten
en dos sistemas de
ecuaciones lineales con la misma matriz de coeficientes , u1 u2 . La matriz ampliada que
permite resolver los dos sistemas en forma simultánea es:
1 −2 : 22 −38
.
−3 5 : 18 −31
Puede comprobarse que la forma escalonada reducida de esta matriz es:
1 0 : −146 252
.
0 1 : −84 145
Las soluciones se leen directamente de esta matriz. La tercera y cuarta columna son, respecti-
vamente, [T (u1 )]B ′ y [T (u2 )]B ′ . Por lo tanto:
−146 252
[T ]B ′ = .
−84 145
Por definición, P tiene como columnas los vectores de coordenadas de los vectores de la base B ′
con respecto a la base B, [u1 ]B y [u2 ]B . Por ser B la base estándar, [u1 ]B = u1 y [u2 ]B = u2 .
Luego,
1 −2
P = u1 u2 = .
−3 5
Se verifica fácilmente que la inversa de P es:
−1 −5 −2
P = .
−3 −1
Por el Teorema 6.11 es:
−1 −5 −2 4 −6 1 −2 −146 252
[T ]B ′ = P [T ]B P = = ,
−3 −1 3 −5 −3 5 −84 145
verificándose que es la misma matriz obtenida por el modo directo.
2 1
Consideremos ahora la base de R2 , B ′′
= {v1 , v2 } donde v1 = y v2 = . Se obtendrá la
1 1
matriz de T con respecto a la base B ′′ de manera directa. Por definición:
[T ]B ′′ = [T (v1 )]B ′′ [T (v2 )]B ′′ .
2 2 1 −2
Aplicando la ley de T : T (v1 ) = T = = v1 ; T (v2 ) = T = = −2v2 .
1 1 1 −2
Los vectores T (v1 ) y T (v2 ) son múltiplos escalares de v1 y v2 , respectivamente, por lo tanto no
se requiere ningún cálculo para hallar sus coordenadas con respecto a la base B ′′ . En efecto:
1
T (v1 ) = v1 = 1v1 + 0v2 , ası́ [T (v1 )]B ′′ = ,
0
0
T (v2 ) = −2v2 = 0v1 + (−2)v2 , ası́ [T (v2 )]B ′′ = .
−2
Rápidamente se obtuvo:
1 0
[T ]B ′′ = .◀
0 −2
En el ejemplo anterior, se mostraron tres matrices que representan el mismo operador lineal en bases
distintas [T ]B , [T ]B ′ y [T ]B ′′ . Puede observarse que la matriz más sencilla de las tres es [T ]B ′′ ya
que es diagonal. Las bases que producen matrices representantes diagonales son aquellas formadas por
vectores que se transforman en múltiplos de sı́ mismos, como ocurre con la base B ′′ . El problema de
obtener tales bases, si existen, se abordará en el capı́tulo siguiente.
También es interesante notar que si se conoce la matriz de un operador lineal en una base y se
desea encontrar la matriz representante en otra base es a veces más conveniente efectuar el cambio
de coordenadas usando la matriz de transición P , pero puede ser más simple obtener la nueva matriz
por aplicación directa de la definición.
Ahora bien, ¿por qué decimos que las matrices diagonales son más “sencillas” de manipular?...
Una matriz diagonal tiene muchas ventajas computacionales. Repasemos algunas:
es directo el cálculo del producto de dos matrices si una de ellas es diagonal. Por ejemplo:
2 0 0
a b c 2a 3b 5c
0 3 0 = ,
d e f 2d 3e 5f
0 0 5
2 0 a b c 2a 2b 2c
= .
0 3 d e f 3d 3e 3f
es directo el cálculo de las potencias. Por ejemplo:
k
2 0 2 0
D= ⇒D =k
.
0 3 0 3k
es igual a su transpuesta.
Semejanza de matrices
A′ = P −1 AP.
Es importante observar lo siguiente. Las matrices que representan a un operador lineal T en dos bases
distintas, B y B ′ , son semejantes ya que, como lo establece el Teorema 6.11,
[T ]B ′ = P −1 [T ]B P
invertible y por lo tanto sus columnas son linealmente independientes y forman una base de Rn . Sea
B ′ la base de Rn formada por las columnas
de P . La matriz P es entonces la matriz de transición de
la base B ′ a la base estándar B ya que pj B = pj , j = 1, 2, ..., n. Ası́, de acuerdo al Teorema 6.11,
[T ]B ′ = P −1 AP.
Ejemplo 6.25. Las matrices A, A′ y A′′ del Ejemplo 6.24 donde A = [T ]B , A′ = [T ]B ′ y A′′ = [T ]B ′′ ,
son semejantes ya que representan al mismo operador lineal en bases diferentes.
Por ejemplo, A′ = P −1 AP donde P es la matriz de transición de la base B ′ a la base B. De manera
similar, se puede encontrar las matrices invertibles que relacionan A′′ y A′ , y A′′ con A.◀
Las matrices que son semejantes entre sı́ conforman un conjunto que comparte ciertas propiedades.
Se demostrarán algunas de estas propiedades:
Teorema 6.13.
1. Las matrices semejantes tienen el mismo determinante.
Demostración. 1. Si A′ y A son matrices semejantes entonces existe una matriz P invertible tal
′ −1
que A = P AP. Luego,
1
det(A′ ) = det P −1 AP = det P −1 det (A) det (P ) = det(A) det(P ) = det(A)
det(P )
Actividad 6.6. Verifique el teorema anterior para las matrices A, A′ y A′′ del Ejemplo 6.24 donde
A = [T ]B , A′ = [T ]B ′ y A′′ = [T ]B ′′ .
Ejercicios 6.4
1. Para cada transformación lineal, obtenga la matriz de T con respecto a las bases que se indican.
5. Haciendo uso del Teorema 6.10 obtenga el rango y la nulidad de las transformaciones lineales de
los ejercicios 2 y 4.
11. En cada ı́tem explique por qué no son semejantes las matrices A y B.
1 −1 2 3
a) A = ,B= .
2 −1 4 3
1 0 0 1 1 1
b) A = 0 2 1 , B = 2 2 2 .
0 4 2 5 5 5
15.
Sea el operador
lineal T sobre R2 cuya matriz en la base B = {(1, −1), (1, 2)} es A = [T ]B =
2 0
. Sea B ′ = {(2, 0), (−4, 1)} otra base de R2 .
1 1
16. (Matriz del operador identidad) Sea V un espacio vectorial de dimensión n. Demuestre que
la matriz con respecto a cualquier base del operador operador lineal identidad I sobre V es la
matriz identidad In . Esto es, [I]B = In para toda base B de V.
17. (Matriz del operador cero) Halle la matriz con respecto a cualquier base del operador lineal
cero sobre un espacio vectorial V de dimensión n.
AUTOVALORES Y
AUTOVECTORES
Au = λu.
Ası́, un vector u ̸= 0 en Rn es un autovector de la matriz A si existe un número real λ tal que Au = λu.
Esto es, Au es un múltiplo escalar de u. El número λ es un autovalor de A.
A los autovalores también se los llama valores caracterı́sticos, valores propios o eigenvalores (“ei-
gen” significa “propio” en alemán). Similarmente los autovectores también son llamados vectores ca-
racterı́sticos, vectores propios o eigenvectores.
Debe observarse que en la definición de autovalor no se tiene en cuenta al vector u = 0. Esto se
debe a que el vector cero satisface A0 = λ0 para cualquier número λ y entonces todo número real serı́a
un autovalor. El vector cero no es considerado un autovector en cambio, sı́ es posible un autovalor
λ = 0.
2 0 1 0 1
Ejemplo 7.1. Sea A = y los vectores u1 = , u2 = y u3 = . Para
6 −1 2 1 3
determinar si éstos vectores son autovectores de A, se efectúan los productos Au1 , Au2 y Au3 :
2 0 1 2 1
Au1 = = =2 = 2u1 ,
6 −1 2 4 2
Nota: Debe notarse que un autovalor tiene asociado infinitos autovectores. De hecho, si u es un
autovector de A correspondiente al autovalor λ, cualquier múltiplo escalar no cero de u es un autovector
de A asociado al mismo autovalor λ.
En efecto, sea v = ku donde k ̸= 0. Entonces v ̸= 0 y
Observe que en el ejemplo anterior todos los vectores distintos de cero que están en las rectas
l1 y l2 , paralelas a los vectores u1 y u2 respectivamente, son autovectores de A. La transformación
En los ejemplos vistos se han obtenido los autovalores y autovectores por medio de una simple ins-
pección, argumentos geométricos o enfoques algebraicos muy sencillos. En el ejemplo siguiente se
calcularán los autovalores y autovectores de una matriz de manera sistemática.
6 5
Ejemplo 7.4. Se desean determinar los autovalores y autovectores de la matriz A = .
1 2
Por definición, un número real λ es un autovalor de A si existe un vector u no cero en R2 tal que
Au = λu. Por lo tanto, λ es un autovalor de A si y solo si la ecuación
Ax = λx,
es decir:
6 5 x1 x1
=λ
1 2 x2 x2
tiene soluciones no triviales. La ecuación anterior se convierte en el sistema lineal
6x1 + 5x2 = λx1
x1 + 2x2 = λx2
De acuerdo al Teorema 3.10 este sistema homogéneo tiene soluciones no triviales si y solo si el
determinante de su matriz de coeficientes, λI − A, es cero. Esto es, si y solo si
λ − 6 −5
=0
−1 λ − 2
es decir
(λ − 6) (λ − 2) − 5 = 0,
o
λ2 − 8λ + 7 = 0,
cuyas soluciones son λ1 = 7 y λ2 = 1. Estos valores son autovalores de A puesto que son números
reales para los cuales la ecuación Ax = λx tiene soluciones no triviales.
Para determinar los autovectores correspondientes al autovalor λ1 = 7, se resuelve
Ax = 7x
Observe que se obtiene este último sistema simplemente sustituyendo λ = 7 en (7.1). La solución
general del sistema es
x1 = 5t
, t ∈ R.
x2 = t
5t
Entonces los (infinitos) autovectores de A asociados al autovalor λ1 = 7 están dados por
t
5
para cualquier t real, t ̸= 0. En particular, u = es un autovector de A asociado al autovalor
1
λ1 = 7.
De manera similar se obtienen los autovectores correspondientes a λ2 = 1 resolviendo Ax = x que
equivale a resolver el sistema homogéneo
−5x1 − 5x2 = 0
−x1 − x2 = 0
El siguiente teorema resume lo realizado en el ejemplo anterior para el cálculo de autovalores y auto-
vectores de una matriz.
Ax = λx ⇔ λx − Ax = 0
⇔ (λIx) − Ax = 0
⇔ (λI − A) x = 0.
det (λI − A) = λ2 − 8λ + 7.
En general, si se desarrolla det (λI − A) para una matriz A de orden n se obtiene un polinomio
de grado n en la variable λ. Al respecto vale el siguiente teorema que aceptaremos sin demostración
y que es fácilmente verificable si n = 2 o n = 3.
En relación al polinomio que se obtiene del teorema anterior, se tienen las siguientes definiciones.
2. A la ecuación
det (λI − A) = 0,
esto es pA (λ) = 0, se la llama ecuación caracterı́stica de la matriz A.
Con esta terminologı́a los autovalores de una matriz (real) A son las soluciones reales de la ecuación
caracterı́stica, es decir, las raı́ces reales del polinomio caracterı́stico pA (λ).
Dado que pA (λ) es un polinomio de grado n a coeficientes reales, éste tiene exactamente n raı́ces
(contando las repeticiones) algunas de las cuales (o todas) pueden ser números complejos. Las raı́ces
reales son los autovalores de A, por lo tanto una matriz (real) A, de orden n tiene a lo sumo n auto-
valores, no necesariamente todos distintos. Es importante señalar que A puede carecer de autovalores
(si todas las raı́ces del polinomio caracterı́stico son complejas).
Al número de veces que se repite un autovalor λi como raı́z del polinomio caracterı́stico se lo llama
multiplicidad algebraica de λi y se denotará ma (λi ).
Por ejemplo si A es una matriz cuadrada de orden 6 y las raı́ces de pA (λ) son: 4, 4, 4, −7, 2 − i y
2 + i, entonces A tiene sólo dos autovalores distintos 4 y −7 con multiplicidades algebraicas ma (4) = 3
y ma (−7) = 1.
Eλ = N (λI − A) = {x ∈ Rn : (λI − A) x = 0} .
2. Se buscan las soluciones reales de la ecuación caracterı́stica det (λI − A) = 0. Estos números son
los autovalores de A.
4. Se busca una base para cada autoespacio Eλi = N (λi I − A). La multiplicidad geométrica mg (λi )
es la dimensión de Eλi .
Nota: El problema de encontrar los autovalores de una matriz puede ser muy difı́cil, en particular
si n ≥ 3 ya que se trata de determinar las raı́ces de un polinomio de grado n. En cursos de Análisis
Numérico, se estudian métodos numéricos eficientes para hallar aproximaciones de las raı́ces de un
polinomio. De hecho muchos programas de computadora lo hacen.
Un resultado útil es el siguiente: si el polinomio caracterı́stico de la matriz A es
donde c1 , c2 ,..., cn−1 son números enteros entonces sus raı́ces racionales, si las tiene, deben estar
entre los números enteros divisores de c0 (teorema de Gauss). Por supuesto, pA (λ) podrá tener raı́ces
irracionales o complejas, sin embargo, por conveniencia muchos de los polinomios caracterı́sticos en
este texto tendrán sólo raı́ces enteras.
2 1 0
Ejemplo 7.5. Sea A = −1 0 1 . El polinomio caracterı́stico de A es
1 3 1
λ − 2 −1 0
pA (λ) = det (λI − A) = 1 λ −1
−1 −3 λ − 1
= (λ − 2)λ(λ − 1) − 1 − 3(λ − 2) + (λ − 1)
= λ3 − 3λ2 + 4.
pA (λ) = (λ + 1) (λ − 2)2 .
pA (λ) = (λ + 1) (λ − 2)2 = 0,
que por simple inspección son 2 (raı́z doble) y −1 (raı́z simple). Por lo tanto los autovalores distintos
de A son:
λ1 = 2 y λ2 = −1,
con multiplicidades algebraicas ma (2) = 2 y ma (−1) = 1.
Los autovectores correpondientes a cada autovalor λi son las soluciones no triviales del sistema
homogéneo (λi I − A) x = 0.
0 −1 0
Para λ1 = 2: λ1 I − A = 2I − A = 1 2 −1 y el sistema lineal homogéneo es
−1 −3 1
0 −1 0 x1 0
1 2 −1 x2 = 0 .
−1 −3 1 x3 0
Aplicando eliminación gaussiana a la matriz ampliada del sistema se obtiene la siguiente forma
escalonada
1 2 −1 : 0
0 −1 0 : 0 .
0 0 0 : 0
La solución general del sistema es
x1 = t
x2 = 0 , t ∈ R.
x3 = t
t
Los autovectores de A asociados a λ1 = 2 son todos los vectores 0 con t ̸= 0. El autoespacio
t
correspondiente a λ1 = 2 es
t 1
E2 = N (2I − A) = 0 : t ∈ R = gen 0 .
t 1
1
El conjunto S1 = 0 es linealmente independiente y generador de E2 por lo que constituye
1
una base para éste. Ası́, mg (2) = dim(E2 ) = 1.
−3 −1 0
Para λ2 = −1: λ2 I − A = −I − A = 1 −1 −1 y el sistema lineal homogéneo es
−1 −3 −2
−3 −1 0 x1 0
1 −1 −1 x2 = 0 .
−1 −3 −2 x3 0
Aplicando eliminación gaussiana a la matriz ampliada del sistema se obtiene la siguiente forma
escalonada
1 −1 −1 : 0
0 −4 −3 : 0 .
0 0 0 : 0
La solución general del sistema es
x1 = t
x2 = −3t , t ∈ R.
x3 = 4t
t
Los autovectores de A asociados a λ2 = −1 son todos los vectores −3t con t ̸= 0. El autoes-
4t
pacio correspondiente a λ2 = −1 es
t 1
E−1 = N (−I − A) = −3t : t ∈ R = gen −3 .
4t 4
1
El conjunto S2 = −3 es linealmente independiente y generador de E−1 por lo que cons-
4
tituye una base para éste. Ası́, mg (−1) = dim(E−1 ) = 1. ◀
0 1 0
Ejemplo 7.6. Sea la matriz A = 0 0 1 cuyo polinomio caracterı́stico es
4 −17 8
λ −1 0
pA (λ) = det (λI − A) = 0 λ −1
−4 17 λ − 8
= λ3 − 8λ2 + 17λ − 4.
Los autovalores de A son las soluciones reales de la ecuación caracterı́stica
pA (λ) = λ3 − 8λ2 + 17λ − 4 = 0.
Para resolver esta ecuación se comienza por buscar soluciones racionales que, si las tiene, deben
ser números enteros divisores del término constante −4. Ası́, las únicas soluciones racionales posibles
son: ±1, ±2 y ±4.
Se comprueba que ±1 y ±2 no solucionan la ecuación pero pA (4) = 0 por lo tanto 4 es raı́z y λ − 4
es un divisor de pA (λ). Ası́, pA (λ) = (λ − 4)q(λ) donde q(λ) es el cociente de la división del polinomio
pA (λ) por λ − 4. Aplicando la regla de Ruffini, q (λ) = λ2 − 4λ + 1 lo que indica que la ecuación
caracterı́stica se puede escribir como
pA (λ) = (λ − 4) λ2 − 4λ + 1 = 0.
Por consiguiente una solución es el número entero 4 y las restantes son las que satisfacen la ecuación
cuadrática λ2 − 4λ + 1 = 0 √
que se puede
√ resolver por medio de la fórmula correspondiente obteniéndose
los raı́ces irracionales 2 + 3 y 2 − 3.
√ √
Por lo tanto los autovalores de A son λ1 = 4, λ2 = 2 + 3 y λ3 = 2 − 3, todos de multiplicidad
algebraica igual a 1.◀
Actividad 7.1. Para cada autovalor de la matriz A del ejemplo anterior, exhiba dos autovectores
distintos y verifique que las multiplicidades geométricas son todas iguales a 1.
0 −1
Ejemplo 7.7 (Una matriz que no tiene autovalores). Sea A = . El polinomio carac-
1 0
terı́stico de A es
λ 1
pA (λ) = det(λI − A) = = λ2 + 1.
−1 λ
La ecuación caracterı́stica λ2 + 1 = 0 no tiene soluciones reales. Por lo tanto A no tiene autovalores
y en consecuencia no tiene autovectores. Puede verse geométricamente la razón. Esta matriz es una
matriz de rotación de ángulo θ = π2 . Ası́, todo vector no cero en R2 es girado, por la matriz A, un
ángulo de 90◦ y por lo tanto no se transforma en múltiplo de sı́ mismo (véase Figura 7.3).
Hay aplicaciones que requieren escalares complejos. En dichos casos las raı́ces complejas del poli-
nomio caracterı́stico de una matriz A son también autovalores de A y habrá autovectores asociados
con componentes complejas. En este caso, las únicas soluciones de la ecuación λ2 + 1 = 0 son los
complejos conjugados λ1 = i y λ2 = −i. Si se permiten escalares complejos, éstos son autovalores de
A. Puede verificarse que
i −i
v1 = y v2 =
1 1
son autovectores correspondientes a λ1 = i y λ2 = −i, respectivamente.◀
Para finalizar con esta sección se verá que para ciertas matrices es sencillo hallar sus autovalores. No
se necesita hacer ningún cálculo para hallar los autovalores de una matriz triangular, en particular,
para las matrices diagonales.
Teorema 7.3. Los autovalores de una matriz triangular son los elementos de la diagonal.
Demostración. Sea A = [aij ] una matriz triangular de orden n. Se probará que los elementos aii ,
i = 1, 2, ..., n son las raı́ces del polinomio caracterı́stico pA (λ) = det (λI − A).
Por ser A triangular, la matriz λI − A es también triangular y por lo tanto su determinante es
el producto de los elementos de la diagonal. Los elementos de la diagonal de λI − A son λ − aii ,
i = 1, 2, ..., n. Luego,
pA (λ) = det (λI − A) = (λ − a11 ) (λ − a22 ) ... (λ − ann ) .
Claramente, las raı́ces de pA (λ) son los números: λ1 = a11 , λ2 = a22 ,..., λn = ann (no todos
necesariamente distintos) que, como son números reales, todos son autovalores de A.
Para las matrices triangulares, en particular para las matrices diagonales, valen las siguientes propie-
dades que son inmediatas a partir del teorema anterior:
Demostración. Sea A = [aij ] una matriz triangular de orden n. Dado que los autovalores de A son
λ1 = a11 , λ2 = a22 ,...., λn = ann , y como el determinante de una matriz triangular es igual al producto
de los elementos de la diagonal y la traza es la suma de dichos elementos, entonces
y
tr(A) = a11 + a22 + ... + ann = λ1 + λ2 + ... + λn .
Estos resultados son válidos también para una matriz no triangular si se consideran las n raı́ces de su
polinomio caracterı́stico.
1. det(A) = λ1 λ2 ...λn .
2. tr(A) = λ1 + λ2 + ... + λn .
Dado que λ1 , λ2 ,..., λn son las n raı́ces de pA (λ) se tiene la siguiente factorización del polinomio
caracterı́stico
pA (λ) = det(λI − A) = (λ − λ1 ) (λ − λ2 ) ... (λ − λn ) .
Tomando λ = 0 en la expresión factorizada de pA (λ):
y como
det(−A) = (−1)n det(A),
entonces
det(A) = λ1 λ2 ...λn .
Además puede observarse en la expresión del polinomio caracterı́stico de A no factorizada, que el
término independiente c0 es pA (0) por lo tanto,
c0 = (−1)n det(A).
Observación 7.1. Los resultados establecidos por el teorema anterior son condiciones necesarias
que deben satisfacer las raı́ces del polinomio caracterı́stico y puede usarse como una comprobación
numérica más en el cálculo de las raı́ces de pA (λ). Es sencillo comprobar si la suma de las raı́ces de
pA (λ) coincide con la suma de los elementos de la diagonal (traza) de A.
Observación 7.2. Debe notarse que si una matriz tiene todos sus elementos reales su determinante
y su traza son números reales. Pero el determinante es el producto de las raı́ces del polinomio ca-
racterı́stico y la traza es la suma de éstas, entonces aunque algunas de las raı́ces sean complejas su
producto y su suma deben ser números reales. Esto no debe sorprender; es un hecho conocido que
las raı́ces complejas de polinomios a coeficientes reales aparecen como pares conjugados, es decir, si
z = a + bi es una raı́z también lo es z = a − bi. Por lo tanto, puesto que zz = a2 + b2 ∈ R y
z + z = 2a ∈ R, resultan también λ1 λ2 ...λn ∈ R y λ1 + λ2 + ... + λn ∈ R.
Actividad 7.2. Para cada matriz A de los ejemplos 7.5, 7.6 y 7.7, verifique los resultados del teorema
anterior.
Con respecto a las matrices invertibles, se tiene el siguiente resultado como consecuencia del teorema
anterior.
Demostración. Sabemos que A es invertible si y solo si det(A) ̸= 0. Por el teorema anterior, det(A) =
λ1 λ2 ...λn donde λi , i = 1, 2, ..., n es una raı́z del polinomio caracterı́stico. Por lo tanto det(A) ̸= 0 si
y sólo λi ̸= 0, para todo i = 1, 2, ..., n es decir A no tiene autovalores 0.
Ejercicios 7.1
3 −2 −2 2 1
1. Sean A = , u = , v = y w = . Aplique la definición para
−3 2 2 3 2
determinar si los vectores dados son autovectores de A y, en caso afirmativo, halle sus autovalores
correspondientes.
2. Para la matriz A y los vectores u y v del ejercicio anterior, ¿es u + v un autovector de A?, y
¿cu con c ̸= 0?
3. Obtenga, mentalemente, los autovalores de las siguientes matrices:
0 0 0
1 0 8 −1 0 5
, 0 , .
0 2 5 0
0 17 −1
3 2 0 0 1
a)
3 2 e) 0 4 0
2 0 0
0 −9
b) 0 −1 0
1 −6
f ) −4 0 0
a b 0 0 2
c)
a b
1 0 0 1
1 1 0 0 2 0 0
g)
d) 0 2 0 3 1 −1 0
0 0 3 0 0 0 2
1 0
7. Sea A una matriz de 3 × 3 tal que u = −1 y v = 2 son autovectores de A asociados
0 −1
a los autovalores λ1 = −1 y λ2 = 2, respectivamente. Halle el vector A (2u − 3v).
8. Sea A una matriz real de n × n. Demuestre las siguientes proposiciones.
a) A y At tienen el mismo polinomio caracterı́stico y por lo tanto los mismos autovalores.
b) Si v un autovector de A asociado al autovalor λ entonces v es un autovector de A2 y su
autovalor correspondiente es λ2 . (Esto puede generalizarse para Ak con k ∈ Z+ ).
9. Sea A una matriz de n × n. Demuestre:
a) Usando la definición de autovalor que A es invertible si y solo si 0 no es un autovalor de A.
b) Si A es invertible y v es un autovector de A correspondiente al autovalor λ, entonces v es
un autovector de A−1 y su correspondiente autovalor es λ1 .
7.2. Diagonalización
P −1 AP = D.
Debe tenerse en cuenta que estamos trabajamos solo con matrices reales. Esto es, la diagonalización
debe ser considerada en R, las matrices P y D que diagonalizan a una matriz real A, deben ser matrices
reales.
Ejemplo 7.8 (Las matrices diagonales son diagonalizables). Esto es ası́ ya que son semejantes
a sı́ mismas: Si D es una matriz diagonal, D = I −1 DI.◀
4 −6
Ejemplo 7.9. La matriz A = es diagonalizable.
3 −5
2 1 1 0
En efecto, la matriz invertible P = y la matriz diagonal D = satisfacen:
1 1 0 −2
−1
−1 2 1 4 −6 2 1 1 0
P AP = = = D.
1 1 3 −5 1 1 0 −2
1 2 −2 0
Puede comprobarse que la matriz invertible P1 = y la matriz diagonal D1 =
1 1 0 1
también diagonzalizan a A.
Se verá luego que las únicas matrices diagonales semejantes a A son estas dos: D y D1 .◀
Los autovalores de las matrices diagonales D y D1 del ejemplo anterior, son −2 y 1. Puede comprobarse
que éstos son también los autovalores de la matriz A. El siguiente teorema permite generalizar este
resultado.
Teorema 7.5. Las matrices semejantes tienen el mismo polinomio caracterı́stico, y por lo
tanto los mismos autovalores.
Se ha probado entonces que las matrices semejantes tienen el mismo polinomio caracterı́stico, por
lo tanto tienen los mismos autovalores puesto que éstos son raı́ces del polinomio caracterı́stico.
Si D es una matriz diagonal semejante a una matriz A, ambas matrices tienen el mismo polinomio
caracterı́stico, p(λ). Por ser D diagonal, las raı́ces de p(λ) son los elementos de su diagonal y como D
debe ser una matriz real, todas estas raı́ces deben ser números reales.
Luego, si una matriz A de n × n es diagonalizable, todas las raı́ces de su polinomio caracterı́stico
deben ser reales; esto es, A debe tener n autovalores (no necesariamente todos distintos) y toda matriz
D diagonal semejante a A debe tener en su diagonal a dichos autovalores.
a 1
b) A = , a ∈ R. El polinomio caracterı́stico de A es pA (λ) = (λ − a)2 . Luego, a es una raı́z
0 a
real doble (la multiplicidad algebraica de a es 2) por lo que A tiene dos autovalores (contando
multiplicidades).
a 0
Si A fuese diagonalizable, la única matriz D semejante a A debe ser D = . Pero puede
0 a
probarse que no existe una matriz P invertible tal que D = P −1 AP . Por lo tanto A no es
diagonalizable.◀
Actividad 7.3. Pruebe la afirmación de la parte b) del ejemplo anterior. Sugerencia: pruebe que no
existe una matriz invertible P tal que AP = P D.
En lo que sigue se verá cuándo es diagonalizable una matriz A y cómo determinar las matrices P
y D que la diagonalizan.
Teorema 7.6. Sean A, P y D matrices cuadradas de orden n donde D es una matriz diagonal.
Entonces:
P es invertible y P −1 AP = D si y solo si las columnas de P son autovectores linealmente
independientes de A y la matriz D tiene en su diagonal los autovalores correspondientes.
λ1 0 . . . 0
0 λ2 . . . 0
Demostración. Sean P = v1 v2 ... vn yD = .. .. .. .. = λ1 e1 λ2 e2 ... λn en .
. . . .
0 0 . . . λn
Supongamos que P −1 AP = D entonces (premultiplicando por P a ambos miembros), AP = P D.
Describiendo los productos AP y P D en términos de sus columnas:
AP = A v1 v2 ... vn = Av1 Av2 ... Avn , y
P D = P (λ1 e1 ) P (λ2 e2 ) ... P (λn en ) = λ1 v1 λ2 v2 ... λn vn .
Dado que AP = P D entonces sus correspondientes columnas son iguales, ası́:
Avj = λj vj , j = 1, 2, ..., n.
Avj = λj vj , j = 1, 2, ..., n.
Como AP = Av1 Av2 ... Avn y P D = λ1 v1 λ2 v2 ... λn vn , entonces las ecuaciones
anteriores muestran que las columnas de AP y P D son respectivamente iguales, lo que prueba que
AP = P D. Por hipótesis, las columnas de P son linealmente independientes y por lo tanto P es
invertible. Premultiplicando por P −1 a ambos miembros de AP = P D se obtiene
P −1 AP = D,
Actividad 7.4. Compruebe que para las matrices A, P y D del Ejemplo 7.9, las columnas de la
matriz P son autovectores linealmente independientes de A y la matriz D tiene en su diagonal los
correspondientes autovalores.
Del Teorema 7.6 se desprende el siguiente corolario que da una condición necesaria y suficiente para
que una matriz sea diagonalizable.
Demostración. Si A es diagonalizable entonces existe una matriz P invertible y una matriz D diagonal
tal que P −1 AP = D. Luego, por el teorema anterior, las columnas de P son n autovectores linealmente
independientes de A.
Recı́procamente, si A tiene n autovectores linealmente independientes, entonces A es diagonalizable
ya que por el teorema anterior, una matriz P cuyas columnas son dichos autovectores es invertible y
satisface que P −1 AP = D siendo D la matriz diagonal de sus correspondientes autovalores.
Corolario 7.4. Una matriz cuadrada A de orden n es diagonalizable si y solo si existe una
base de Rn formado por autovectores de A.
Demostración. Es una consecuencia inmediata del corolario anterior ya que los autovectores de A son
vectores de Rn , y n vectores de Rn linealmente independientes forman una base de Rn .
no es diagonalizable demostrando que no existe una matriz invertible P tal que P −1 AP es una matriz
diagonal.
Aplicando el Corolario 7.3 se verá ahora que A no es diagonalizable mostrando que no es posible
encontrar dos autovectores de A que sean linealmente independientes.
El único autovalor de A es λ = a (de multiplicidad algebraica 2) por lo tanto los únicos autovectores
de A son las soluciones no triviales del sistema homogéneo (aI − A) x = 0, es decir N (aI − A).
Resolviendo el sistema,
0 −1 x1 0
= ,
0 0 x2 0
se obtiene
x1 = t
, t ∈ R.
x2 = 0
t
Los autovectores de A son todos los vectores con t ̸= 0. Por lo tanto,
0
t 1
Ea = : t ∈ R = gen .
0 0
Ası́, mg (a) = ν(aI − A) = 1 lo que prueba que el número máximo de autovectores linealmente
independientes asociados a a es 1. Ası́, no es posible encontrar dos autovectores de A linealmente
independientes y A no es diagonalizable.◀
En lo que sigue se darán una serie de criterios útiles de diagonalización. Por ejemplo, una matriz
cuadrada de orden n que tiene n autovalores distintos es diagonalizable. Para probar este resultado,
se requiere el siguiente lema que establece que autovectores correspondientes a autovalores distintos
son linealmente independientes.
Demostración. Como los vectores vj (j = 1, 2, ..., k) son autovectores, éstos son distintos de cero. En
particular, v1 ̸= 0 y por lo tanto {v1 } es linealmente independiente. Consideremos el mayor entero
m tal que {v1 , v2 , ..., vm } es linealmente independiente. Claramente 1 ≤ m ≤ k, si se demuestra que
m = k se habrá probado el teorema. Ası́ que supondremos m < k y llegaremos a una contradicción.
Si m < k, el conjunto {v1 , v2 , ..., vm , vm+1 } es linealmente dependiente y dado que v1 , v2 ,..., vm
son linealmente independientes, entonces vm+1 debe ser combinación lineal de éstos (Lema 4.1). Ası́,
existen escalares c1 , c2 ,..., cm tales que
Reemplazando vm+1 en la última igualdad por la expresión dada en (7.2) y operando, se obtiene:
y como todos los λj (j = 1, 2, ..., k) son distintos, entonces λj − λm+1 ̸= 0 para todo j = 1, 2, ..., m.
Ası́. necesariamente c1 = c2 = ... = cm = 0 y, de acuerdo a (7.2) el vector vm+1 es el vector cero. Sin
embargo, vm+1 es un autovector y por lo tanto es distinto de cero. Se obtuvo ası́ una contradicción por
suponer m < k, luego m = k y entonces {v1 , v2 , ..., vk } es un conjunto linealmente independiente.
Teorema 7.7. Si una matriz A cuadrada de orden n tiene n autovalores distintos entonces
A es diagonalizable.
La matriz
√ A (dada√en el Ejemplo 7.6 de la sección anterior) tiene como autovalores λ1 = 4,
λ2 = 2 + 3 y λ3 = 2 − 3. Ya que A es de orden 3 y tiene 3 autovalores distintos, A es diagonalizable.
La matriz B es triangular, sus autovalores son los elementos de la diagonal λ1 = 2, λ2 = −3 y
λ3 = 1. Como B es de 3 × 3 y tiene 3 autovalores distintos, entonces B es diagonalizable.◀
El teorema anterior establece una condición suficiente para que una matriz sea diagonalizable y es
muy útil ya que identifica una clase amplia de matrices diagonalizables. Pero no es una condición
necesaria que los autovalores sean distintos para que la matriz sea diagonalizable. Un caso extremo es
la matriz identidad In que tiene solo el autovalor λ = 1, y claramente In es diagonalizable. Para que
una matriz de n × n sea diagonalizable debe tener n autovectores linealmente independientes, que no
significa tener n autovalores distintos.
El Lema 7.1 es un caso particular de uno más general: si λ1 , λ2 ,..., λk son autovalores distintos y se
elige un conjunto linealmente independiente de cada uno de los correspondientes autoespacios, el con-
junto formado por todos estos autovectores es linealmente independiente. Por ejemplo, si se toman dos
autovectores linealmente independientes de un autoespacio y tres autovectores linealmente indepen-
dientes de otro autoespacio, el conjunto formado por los cinco vectores es linealmente independiente.
El siguiente teorema prueba esta afirmación pero se omitirá en este momento su demostración.
Corolario 7.5. Sea A una matriz de n × n y λ1 , λ2 ,..., λk todos los autovalores distintos de
A. Si B1 , B2 ,..., Bk son bases para los autoespacios correspondientes, entonces:
La matriz A es diagonalizable si y solo si el conjunto B = B1 ∪ B2 ∪ ... ∪ Bk tiene exactamente
n elementos.
Corolario 7.6. Sea A una matriz (real) de n × n que tiene n autovalores. Si λ1 , λ2 ,..., λk
son los autovalores distintos de A entonces:
La matriz A es diagonalizable si y solo si para cada λi la multiplicidades geométricas y
algebraicas son iguales. Esto es, mg (λi ) = ma (λi ) para cada i = 1, 2, ..., k.
Proceso de diagonalización
Los criterior anteriores nos permiten usar el proceso de diagonalización siguiente. Esto es, para una
matriz dada A, encontrar un par de matrices P invertible y D diagonal tal que P −1 AP = D, o mostrar
que A no es diagonalizable.
Sea A una matriz de n × n.
1. Obtener el polinomio caracterı́stico de A. Si alguna raı́z es compleja, el proceso termina puesto
que A no es diagonalizable. Caso contrario las n raı́ces (contando multiplicidades) son autovalores
de A.
2. Si los n autovalores son distintos, A es diagonalizable y se prosigue con el paso 4.
3. Si hay autovalores repetidos, y λ1 , λ2 ,..., λk son todos los autovalores distintos, obtener la
dimensión de cada autoespacio mg (λi ) y compararlo con ma (λi ).
Si para algún i = 1, 2, ..., k, mg (λi ) ̸= ma (λi ), el proceso se termina puesto que A no es diago-
nalizable.
Si en cambio mg (λi ) = ma (λi ) para todo i = 1, 2, .., k, entonces A es diagonalizable y se continúa
con el paso 4.
4. Para cada autoespacio, Eλi = N (λi I −A), obtener una base Bi . La unión de dichas bases forman
un conjunto B que consta de n autovectores linealmente independientes de A.
Una matriz P que tenga como columnas los n vectores de B y una matriz diagonal D que tenga
en la posición (j, j) el autovalor de A correspondiente a la columna j de P , diagonalizan a A.
Puede observarse que se calculó el determinante desarrollándolo según el último renglón, esto ayudó
a la factorización del polinomio caracterı́stico y por lo tanto a la búsqueda de sus raı́ces.
Las raı́ces del polinomio caracterı́stico son: 6 (doble) y −1. Ası́, la matriz A tiene solo dos autovalo-
res distintos λ1 = 6 y λ2 = −1 con ma (6) = 2 y ma (−1) = 1. Deben hallarse entonces las dimensiones
de cada autoespacio E6 y E−1 .
Para λ1 = 6, es E6 = N (6I − A).
4 −3 0 4 −3 0
6I − A = −4 3 0 , una forma escalonada es 0 0 0 .
0 0 0 0 0 0
mg (6) = 2 = ma (6).
mg (−1) = 1 = ma (−1).
Por lo tanto, A es una matriz diagonalizable (que no tiene 3 autovalores distintos). Es claro que
toda matriz diagonal semejante a A tiene en su diagonal a 6, 6 y −1.
Se hallarán un par de matrices P y D que tales que P −1 AP = D. Para ello es necesario encontrar
una base para cada uno de los autoespacios.
Observando la forma escalonada de 6I − A obtenida, se encuentra que:
3 3
4s 4 0
E6 = N (6I − A) = s : s, t ∈ R = gen 1 , 0 ,
t 0 1
3
4 0
y dado que los vectores v1 = 1 y v2 = 0 son autovectores linealmente independientes
0 1
correspondientes a λ1 = 6, éstos forman una base para E6 .
Por otro lado, observando la forma escalonada de −I − A, rápidamente se encuentra:
−t −1
E−1 = N (−I − A) = t : t ∈ R = gen 1 .
0 0
−1
El vector v3 = 1 es un autovector asociado a λ2 = −1 y {v3 } es una base para E−1 .
0
1 −1 4
Ejemplo 7.14. Sea la matriz A = 3 2 −1 . El polinomio caracterı́sitco de A es
2 1 −1
λ−1 1 −4
pA (λ) = det(λI − A) = −3 λ − 2 1 = λ3 − 2λ2 − 5λ + 6 = (λ − 1)(λ + 2)(λ − 3).
−2 −1 λ + 1
5 1 0 0
0 5 1 0
Ejemplo 7.15. Sea A =
0
. El polinomio caracterı́stico de A es
0 5 0
0 0 0 2
y claramente tiene rango 3 y por lo tanto la tanto su nulidad es 1. Ası́, mg (5) = 1 ̸= ma (5). Luego, la
matriz A no es diagonalizable.◀
A2 = (P DP −1 )(P DP −1 ) = P (DID)P −1 = P D2 P −1 .
Ejercicios 7.2
2. Use el criterio del Corolario 7.6 para probar que las siguientes matrices no son diagonalizables.
4 0 5 1 0 5 1 0 0
a) 0 5 0 0
1 4 d) 0 5 1
f) 0 0 5 0
1 1 0 0 5
b)
−1 −1 0 0 0 5
7 1 0 0
2 1 0 0 7 1 0
e)
0 0 7 1
c) 0 2 0
0 0 −3 0 0 0 7
3. En cada ı́tem pruebe que A es diagonalizable y encuentre todas las matrices diagonales semejantes
a A.
2 3 0
a) A = 0 1 0
0 0 2
4 2
b) A =
3 3
5. En cada ı́tem se dan una matriz P invertible y una matriz D diagonal. Sin calcular A = P DP −1 ,
encuentre otras matrices P1 y D1 tales que A = P1 D1 P1−1 .
1 1 2 0
a) P = ,D=
2 −1 0 3
2 0 3 0
b) P = ,D=
0 4 0 0
1 1 1 −2 0 0
c) P = 1 1 0 , D = 0 3 0
1 0 0 0 0 0
2 1 1 5 0 0
d) P = 1 2 0 , D = 0 −5 0
−1 4 0 0 0 3
6. Para cada matriz del Ejercicio 6 de la sección anterior, indique si es diagonalizable. En caso
afirmativo encuentre un par de matrices que la diagonalizan.
7. Para cada matriz A halle, si es posible, una matriz P no singular y una matriz D diagonal tal
que AP = P D.
1 2 3 4 1 0 0
a) A = 0 1 0 0 4 0 0
c) A =
0
2 1 2 0 4 0
1 1 0 0
0 −2 1 0
1 1 1 1 3 −1 0
d) A =
0
b) A = 1 1 1
0 1 0
1 1 1 0 0 0 1
a) Si A es una matriz de 3×3 con dos autovalores distintos: 5 y 7, y ρ(5I −A) = ρ(7I −A) = 1,
entonces A es diagonalizable.
1 0
b) Sea A una matriz de 3×3 con dos autovalores distintos, λ1 y λ2 . Si v1 = 0 y v2 = 1
1 2
0
son autovectores correspondientes a λ1 y v3 = 0 es un autovector correspondiente a
1
λ2 , entonces A es diagonalizable.
2 0 0
c) Si A es una matriz de 3 × 3 y D = 0 0 0 es semejante a A, entonces el rango de A
0 0 2
es 2.
d ) Sea B una matriz semejante a A y P −1 AP = B. Si x es un autovector de A correspondiente
al autovalor λ, entonces P −1 x es un autovector de B correspondiente a λ.
e) Si A es una matriz diagonalizable entonces At es diagonalizable.
f ) Si A es una matriz invertible y diagonalizable, entonces A−1 es diagonalizable.
Capı́tulo 1 b) x1 = 292 − 2 t, x2 =
7 9
2 + 12 t, x3 = t, x4 = 0,
t ∈ R.
Sección 1.1 c) x = y = z = 0.
1. a) es lineal, no homogénea, coeficientes: 1, 3 d ) x1 = −3+s+2t, x2 = s, x3 = 8−t, x4 = t,
y −1, término constante: 5, variable delan- t, s ∈ R.
tera: x, variables libres y y z, conjunto so-
lución: {(5 − 3t + s, t, s) : t, s ∈ R}. 8. E1 ↔ E2
b) no lineal. E2 − 2E1 → E2 , E3 + E1 → E3
1 0 − 23 − 31 b) Sistema 1: x = 1, y = − 15 , z = 52 ; Siste-
b) 0 1 − 19 3 − 32 es la forma escalo- ma 2: x = 1, y = 15 , z = − 25 ; Sistema 3:
0 0 0 0 x = −2, y = 53 , z = 45 .
nada reducida de A; columnas pivote de
c) Sistema 1: x1 = 31 + 13 t, x2 = 23 t− 13 , x3 = t,
A: 1era y 2da.
t ∈ R; Sistema 2: inconsistente.
1 3 2 −2
c) 0 0 0 0 es la forma escalonada
0 0 0 0 Capı́tulo 2
reducida de A; columnas pivote de A: 1era.
Sección 2.1
8. No. No. Es 15.
1. x = − 52 , y = − 65 , z = − 53
Sección 1.4
−1 d ) (2, − 72 , 32 , 11
2 )
1. a) x1 = 1, x2 = 2, x3 = −2, x4 = −4. 2. a) 4
3 −8
b) x = t − 2, y = 5 + z − t, w = −4 − z + t, e) −6
z ∈ R, t ∈ R. b) (−4, 4, −2, 4)
32
−3
c) inconsistente. −3
d ) x1 = x2 = x3 = x4 = 0. c)
3
f ) no es posible
e) x1 = 8
+2t, x2 = 7
x3 = 3+3t, t ∈ R. 0 g) (0, 0, −3, 3, −15)
3 3 +2t,
f ) x = −15 − 143 t+
14
3 s, y = −6 − 35 t + 11
3 s, 0 3/4
z = t, w = s, s, t ∈ R. 5/2 1/4
4. a) −13/2
c)
−1/2
2. 32 de AA1, 25 de AA2, 17 de AA3 y 20 de B1.
1 1
3. Sı́, es posible.
−3 d ) no es posible.
−5
x1 +x2 = 800 b)
8
x2 −x3 +x4 = 300
4. a) x4 +x5 = 500 −4
x1 +x5 = 600
5. a) Sı́ lo es, b = 2a1 + 3a2 + 0a3 .
x3 = 400
Solución: x1 = 600 − x5 , x2 = 200 + x5 , b) No lo es.
x3 = 400, x4 = 500 − x5 , 0 ≤ x5 ≤ 500. 4 1 1
c) Sı́ lo es, b = 3 + 3 t + 3 s a1 +
b) x1 = 20, x2 = 20 + x4 , x3 = −80 + x4 ,
3 − 3 t − 3 s a2 + ta3 + sa4 , s, t ∈ R.
4 5 2
x4 ≥ 80.
d ) No lo es.
5. 2a − b + c = 0. 6. a = ±1
6. a) no existen µ y λ
14 , − 7 , 7
17 17 8
7. a)
b) µ = 2, λ ∈ R. m1 = 21 2 − 4 t, − 14 t, m3 = t con
15 3
b) m2 = 2
14
c) µ ̸= 2, λ ∈ R. 0<t< 5.
7. a) α ̸= 2 y α ̸= 3
Sección 2.2
b) α = 2. Solución: x = 5
4 + 54 t, y = 1
4 − 34 t,
z = t, t ∈ R. 1. x = 1, y = 31 , z = − 32
c) α = 3. −3 5
2. a)
−2 −2
8. Inconsistente: b = 2 y a ̸= 0; Infinitas soluciones:
b = 2 y a = 0; Única solución: b ̸= 2 y a ∈ R. −3 −6 −27
b)
−9 −6 15
9. a) 4 y 6 b) 0 y −2 c) no es posible
−10 12 4
10. a) Sistema 1: x = 2, y = 1; Sistema 2: incon- d ) −10 −4 −2
sistente; Sistema 3: x = −1, y = 1. 2 2 0
9
9 9
1 2 1 0 2 2
4. a)
−4 0 −3 16. 3
2
9
2 3
1 8 2
3 15 3
2 2
b) 10 5 5
− 85 − 10
3
− 10
13
17. A, O4 y C.
−1 −4 2
c) 18. A, O4 y C.
4 3 7
− 16 5 1 56 40 0
19. a) 80 56 0
d) 6 6
−1 − 12 −1
16 24 −8
5. a) −15 c) 7
1 1 1
b) 35 d ) −14
b) 20 15 4
5 4 0
6. a = −6
−41 −42 −22
−8 0 −4 c) −40 −33 −28
7. a) 4 0 2 −26 −40 −3
12 0 6
2 0 0
b) [0]
d) 0 2 0
2 2 −8 0 0 2
c)
−12 0 −6
21. No, no es cierto.
d ) no es posible
−6 10
e) 22. a) Falso d ) Verdadero
−3 −1
b) Falso
3 −7 2 c) Verdadero e) Falso
f ) 4 −3 2
−2 −9 −2
8. 6 Sección 2.3
1 − 14
1 3
1. a) A−1 = 14
9. 5
2
7
1
7
−10 b) A no es invertible
5 1 0 1
11. a) 0 c) A−1 = − 12 12 − 21
10 − 31 13 − 32
6 d ) A no es invertible
−3
1 0 0
b)
−1
−3 e) A−1 = 0 − 18 0
0 0 3
7 1
5
−1 − 65
2 −4 1
3 6
x 0 1 −1 0
12. a) 1 1 = 0 f ) A−1 = − 1 − 11 5
y 1
−1 −3 4 9 18 18
2
9
13
18 −1 − 18
1
1 −4 −1 x1 0
g) A no es invertible
b) 2 1 3 x2 = 1
−1 1 2 x3 2 6 −5 6 −3
6 −6 7 −3
−2x + 2z = 4 h) A−1 = −2
2 −2 1
13. 3x + y + z = 1 ; x = − 56 , y = 7
3, z = 76 . 1 −1
1 0
−x + y − z = 2
1 1
2. 5 5
14. a) sı́ b) sı́ c) no − 10
3 3
10
4 1 −2 2. a) 26 g) 9
3. A2 = 1 9 1 , √
b) −2 2 h) −3
1 3 0
−7 1 4 c) 0 i ) 96
A3 = 7 28 1 , d ) 24 j ) −30
1 9 1
e) −14 k ) 120
−3 −6 19
A−2 = 1 2 −6 , f ) −1 l ) −243
−6 −11 35
3. a) 2. b) 2, 3, 23 . c) 6, 5.
19 35 −111
A−3 = −6 −11 35
35 64 −203
Sección 3.2
1. a) la columna 3 es una columna cero.
4. a ̸= 4 b) los renglones 1 y 3 son iguales.
c) la columna 4 es −2 por la columna 2.
5. a) no es posible calcular la inversa de la ma-
triz de coeficientes 2. a) 8 b) 10 c) −2
b) sı́ es posible calcular la inversa de la ma- 4. |B| = 3, |C| = −3, |D| = 6, |E| = −48,
triz de coeficientes; x = −b + b2 + b3 , |F | = −243, |G| = − 27
16
, |H| = −81.
y = −b + b3 , z = b2 − b3
5. a) −2 d ) −2
1
2 − 72 b) 4 e) −4
7. a)
0 1
c) −54 f ) −2
1 2 −1
b)
0 −1 3 6. A, B y C son invertibles; D es singular.
√ √
−3 −3 −7 7. a) a = ̸ −4 ± 6 b) a ̸= −1 ± 33
3
c) 0 0 20
0 0 −6 8. a) B es invertible.
b) |2B t | = −960, |ABC| = 360,
−5 23 4 |DA + DB| = 0, −A4 = 16, −(3A)2 =
d ) 5 −20 −3 26244
−3 14 2
9. λ = 2 ó λ = −1.
1/10 −7/10
e)
7/20 11/20 Sección 3.3
3 1
1. a) 7 7
11. a) Falso d ) Falso 1
− 21
2
21
b) Verdadero b) no es invertible.
c) Verdadero e) Verdadero
2
5 − 25 − 15
c) − 101 1
10
3
10
7 3
− 10
1
10 10
Capı́tulo 3 1
2 − 12 0
d) −2 1 5
1
2
Sección 3.1 −2 1 3
2 1
2. a) Es posible; x = 27 8
5 , y = 15 .
1. a) M11 = −6, C11 = −6, M12 = 4, C12 = −4,
M13 = 8, C13 = 8, M21 = −1, C21 = 1, b) Es posible; x1 = 45 , x2 = 25 , x3 = 11
4 .
M22 = 5, C22 = 5, M23 = −3, C23 = 3, c) No es posible; inconsistente.
M31 = −16, C31 = −16, M32 = 2, C32 = d) Es posible; x1 = −4, x2 = −2, x3 = 1.
−2, M33 = 4, C33 = 4. 3. x = a cos θ + b sen θ, y = b cos θ − a sen θ.
b) 26. 4. a ̸= 0
4. a) p = −8 − x
2. a) no es base. c) es base.
b) no es base. b) p = −3 + x + 2x2
c) p = 6 − 11x − 3x2 + 4x3
3. a) es base. c) no es base.
b) no es base. d ) no es base. 20 16
5. a)
16 24
6. a) 2 f) 2 2
b) 2 1/2
g) 3 b)
1/2
c) 2
d) 2 h) 2 9/4
e) 3 i) 4 6. a) S = {ex , e−x }
7. a = 3 1/2
b)
1/2
8. 2
c) g(x) = senh x
9. Una base: ex , xex , x2 ex ; dimensión 3.
−13/6 5/6
10. 2 8. a)
−2/3 1/3
1 2 −1
11. a) 1 , −1 , 3 0 0 1
b) 1 0 0
0 3 4
0 1 0
b) {1 + x, −5x}
4/11 5/11
12. a) {(1, −1, 3), (1, 0, 0), (0, 1, 0)} c)
1/11 4/11
1 2 −1 1 1 0 0 0
b) , , , 1 1 1 1
1 0 3 0 0 0 0 1
0 1 1 1
13. a) Verdadero g) Verdadero d)
0 0 1 1
b) Verdadero h) Verdadero 0 0 0 1
c) Falso i ) Verdadero
3 15 2
3
2
d ) Falso j ) Verdadero 9. a) −3 −5 −2
e) Verdadero k ) Verdadero −1 −3 0
f ) Verdadero l ) Verdadero −2 − 23 − 25
b) 23 1
2
1
2
4 1 5
Sección 4.6 3 2 2
2 √
1. 3 √2 −3/2
1 10. a) b)
2 3/2
−1
2. a) 3 −1/2
5 1/4
11. a)
1/4
−11/7
b) −1/8
2/7
−3 1 0 1/2 0
2 0 1/2 0 3/4
c)
b)
−5 0 0 1/4 0
4 0 0 0 1/8
1 −2 1 0 −2 2 0 −2 2Sección 5.2
c) , ,
0 0 0 2 4 6 2 6 7 √ √ √
5. a) 5; 77; 13; 56; arc cos √13 ≈ 28, 5◦
385
1 2 −1
3 , 0 , 1 c) 15 2 t, t , t ∈ R
7. a)
1 −1 0 d ) 7765
, − 13
77
√ √
b) 1 + 3x − x2 + x3 , 1 + x + x3 , 2 + x2 + x3 , 6. a) 10; 17; 14
x + x3 b) arc cos √10 ≈ 49, 7◦
239
1 1 2 0 1 3 1 0 c) p = p(x)
c) , , ,
0 1 1 1 −1 1 0 1
d ) 40 10
17 + 17 x
1 0 1 0 e) 40
17 + 7 x
10
−1 1 0 1 √ √
8. a) i. 2 , 1 , 0 , 0 7. b) i. 120; 19; 36 2; 19
3 −1 0 0 ii. arc cos 3√ 10
≈ 57, 3◦
38
1 1 0 1 0 iii. − 120 240
1 1 0 0 0 19 + 19 x
iv. r(x) = a + bx + cx2 tal que 6a + 15b +
ii. 0 , 1 , 2 , 0 , 1
24c = 0; por ejemplo: r(x) = −4 + x2
0 1 2 0 0
(a = 0, c = 1).
0 1 1 0 0 q q
π3 e2π −1
pπ
b) i. 1 + x + x , − 2 + x + x , x + x , 1
3 2 2 3 8. a) 3 ; 2 ; 2
3 1/2
1 −2 0 −2 0 2 b) π3 − 2eπ (π − 1) + e 2−5
2π
ii. , , ,
0 0 2 4 0 1
π
1 0 c) 2e e(π−1)+2
2π −1 ex
0 0 d ) No.
−1 0
9. a) 1 , 0 Sección 5.3
0 1 27
1. [v]B = −1
−1 0 1
1 , 0 , 0 −9
b)
0 1 0
2. a) (−1, 4, 0) b) (6, 4, 1)
c) No.
3. a) v = w1 + w2 , w1 = −
4
3 , 2, − 4 4
3 , 3 ∈ W
10. 235
y w2 = 3 , 1, 3 , − 3 ortogonal a W;
16 13 7
√
13. Sı́. d (v, W) = 5 319 .
b) v = w1 + w2 , w1 = (5, 2, 3, 6) ∈ W y w2 =
√ 2, 2, 0) ortogonal a W; d (v, W) =
(−2,
Capı́tulo 5 2 3.
√
4. a) (3, −1, 1, −1); 2 6.
Sección 5.1 √
√ √ b) (−1, −5, −3, 9); 170.
1. 3; 7; −11; 8; (0, − 43 , 83 , 34 )
17; n √ √ √ o
5. a) 0, √25 , √15 , √8 6095 √ 5 , − 34
, 517 √ 5
609 5 609
3. arc cos − 315
11
≈ 92◦ ; arc cos 51 4
≈ 85, 5◦ n
b) √ , √ ,− √ , √
3 1 1 3
,
2 5 2 5 2 5 2 5
4. a) Sı́ b) No c) Sı́ 1
√ , √ 3
, √3
,− √ 1
,
2 5 2 5 2 5 2 5 o
− 2√ 3
, √ 1
, √1
5 2 5 2 5 2 5
3
, √
8. a) Verdadero c) Verdadero n q o
b) Verdadero d ) Verdadero c) √1 , √1 , 0 , − √1 , √1 , 2
2 2 6 6 3
√
−3/√ 10 Capı́tulo 6
d ) 1/ 10
0 Sección 6.1
n o
e) √1 , √3 , 0 , (0, 0, 1) 1. a) DT = R2 ; CT = R3
10 10
b) (−4, 3, 0), (3, −1, 0) y (0, 0, 0).
1 −11/41
q c) (0, 0)
√2
0 , 41 1
f) 41 3 62
8/41 d ) No.
1/2 −26/41 e) {(a, b, 0) : a, b ∈ R}
n q
g) √15 (2, 1, 0, 0), 14 5
(− 35 , 56 , 1, 0) 2. a) sı́ g) sı́
o
√7 ( 1 , − 1 , 3 , 0) b) no h) no
2 14 7 14
c) sı́ i ) sı́
6. a) 1 + x − x2 , 23 + 23 x + 43 x2 − x3 ,
d ) sı́ j ) sı́
11 − 11 x + 11 x + 11 x
8 3 5 2 10 3
e) no k ) sı́
b) 1 + x, 12 − 12 x + x2
f ) sı́ l ) sı́
7. a)
1 1 0
,
1 1 1
,
0 1 −1 1 0 2 −1
1 −2
− 4 − 14 − 54 3. b)
3 1 1
4 1 2
1 3
1 0 0 − 3 1 −1
b) 0 1 0 , 0 23 0 x1
2x1 + 3x2
0 0 −1 0 0 1 4. a) n = 2, m = 3, T = −x1 + 5x2
3 x2
4x2
8. a) {x, ex − 3x}
x1
x2
b) x, 1 − 32 x, 21
4
− 57 x + x5 b) n = 4, m = 1, T
n o x3 = x1 −2x2 +5x3 +
2 sen2 1
c) sen x, cos x − 2−sen 2 sen x x4
3x4
609 , − 609 , 609
184 809 209 425 200 400
9. a) 609 , 609 , 609 ; 5. a) 25 y − 52 x, 32 y + 12 x
2, −2, 2, 2 2, −2, −2, 2 b) R2
1 1 3 1 1 1 1 1
b) ;
6. T (x1 , x2 , x3 ) = −x1 − 21 x2 + 12 x3 , x1 + x2 + x3
9 + 3 x + 9 x + 9 x ∈ W;
13 1 7 2 5 3
10. a)
− 9 + 3 x + 9 x + 49 x3 ∈ W⊥
4 2 2 2
7. b−a 5a−b 2
4 (1 + x) + 8 x
b) − 12 + x − 21 x2 ∈ W; 8. x + 21 x2 + 13 x3 , −x + 41 x4 y x2 .
⊥
2 − 2x ∈ W
1 1 2
5 5 2
10. a) Falso. c) Falso.
11. a) 14 14 7 b) Falso.
3 1 11
7 14 14
− 43
1
4
3
4 Sección 6.2
b) 0 − 21 0
0 0 − 341 1. a) {(0, 0)}
c) gen {−1 + x}
12. 52 − 6e−15
e2 −7 x + 2e−5
e2 −7 e
x
d ) {(0, 0, 0)}
15. c) i. {(−2t, t, t) : t ∈ R}; {(−2, 1, 1)} f ) gen {1}
ii. {(−s, −t − s, t, s) : s, t ∈ R}; i ) {O}, donde O es la matriz cero de n × n
{(−1, −1, 0, 1), (0, −1, 0, 1)} 2. a) ker(T ) = {(0, 0)}; R(T ) = gen {(1, 0, 0),
iii. {(0, −t, t, 0) : t ∈ R}; {(0, −1, 1, 0)} (0, 0, 1)}; ν(T ) = 0; ρ(T ) = 2.
b) ker(T ) = {(0, 0, 0)}; R(T ) = R3 ; ν(T ) = 0;
0 1
1 0
ρ(T ) = 3. g) ker(T ) = gen 0 , 0
; R(T ) =
c) ker(T ) = gen −1 − x, − 1 − x2 ;
0 1
R(T ) = gen {x}; ν(T ) = 2; ρ(T ) = 1.
R ; ρ(T ) = 2; ν(T ) = 2.
2
0 1
d ) ker(T ) = gen ; R(T ) =
−1 0 8. a) 2 b) 1 c) 2
′ ′
a b ′ ′ ′
∈ M2 : a , b , c ∈ R ; ν(T ) =
0 c′ 9. R4
1; ρ(T ) = 3.
11. {a : a ∈ R}
e) ker(T ) = gen −1 + x + x2 ; R(T ) = R2 ;
ν(T ) = 1; ρ(T ) = 2. 12. {bx : b ∈ R}
f )
ker(T ) = gen {(1, 1, 0)}; R(T
) =
a′ 0 0 ′ ′ Sección 6.3
∈ M2 : a , b ∈ R ;
b′ 0 b′ 0 1
ν(T ) = 1; ρ(T ) = 2. 1. a) n = 2, m = 3, A = −1 0
3. ρ(T ) = 2 y ν(T ) = 2. 1 3
b) n = m = 2, no es lineal
4. ker(T ) = {0}; R(T ) = P2 ; ν(T ) = 0; ρ(T ) = 3.
c) n = 3, m = 2, no es lineal
5. b) ρ(T ) = 2 y ν(T ) = 2.
d ) n = 2, m = 1, A = 3 0
0 1 2 −1 1
6. a) ker(T ) = ; R(T ) = R2 ; ρ(T ) = 2;
0 e) n = 4, m = 3, A = 0 1 1 0
ν(T ) = 0. −1 0 0 0
1 0 0 0
b) ker(T ) = gen ; R(T ) =
1 0 0 0
1 f ) n = 3, m = 4, A = 0 0 0
gen ; ρ(T ) = 1; ν(T ) = 1.
−1 0 0 0
−1 0 1 0 0
c) ker(T ) = gen 1 ; R(T ) = R2 ; 2. a) A =
−1 0
c) A =
0 1
3
1 0 1/2 1/2
ρ(T ) = 2; ν(T ) = 1. b) A = d) A =
0 0 1/2 1/2
d ) ker(T ) =
0
; R(T ) = " √ √ #
0 2
− 2 0 −1
3. a) A = √2 2 √2 c) A =
1 1 2 1 0
gen −2 , 2 ; ρ(T ) = 2;
2 2
" √ # " √ #
1
− 3 3 1
1 −1 b) A = √23 2 d) A = 2 √2
ν(T ) = 0. 1
− 1 3
2 2 2 2
1 1
0 1 0
e) ker(T ) = gen 1 ; R(T ) = 4. a) A = 2 b) A =
0 1 0 3
1
1 0
5. a) expansión de un factor 2 en la dirección de
gen 2 , 1 ; ρ(T ) = 2;
la coordenada x.
−1 −1
ν(T ) = 1. b) reflexión con respecto a la recta y = x
1 −2 c) reflexión con respecto a la recta y = −x
f ) ker(T ) = gen 1 , 0 ; R(T ) = d ) proyección ortogonal sobre el eje x
0 1
e) proyección ortogonal sobre el eje y
1
gen −2 ; ρ(T ) = 1; ν(T ) = 2. f ) rotación alrededor del origen de coordena-
das un ángulo θ = 45◦
−1
3 9
Sección 6.4
4
3 −3 −2 2
15. a) P = ,Q=
2
−1 −1 2
−1 −1 3
1. a) 1 1 5 −9
0 −1 b) [T ]B ′ = 4
−2
3
2 0 2
b) −3 1
−1 1 c) [T (v])]B = , [T (v])]B ′ = 2
0 3
0 −1 1
c) 1
1 − 21
2
1 2 0 0
d)
0 0 1 2
2. T (a + bx + cx2 ) = (−a + b + 4c) + (a + 3b + 4c)x Capı́tulo 7
3. T (a + bx + cx ) = (c − a) + (a + 2b + c)x
2
Sección 7.1
a b
4. T =
c d 1. u es un autovector y 5 es su correspondiente au-
(5a + 3b − 3d, −3a − 2b + d, −2a − 2b + c + d, tovalor; v es un autovector y 0 es su correspon-
2a + b + c − d) diente autovalor; w no es autovector.
5. 2. ρ(T ) = 2, ν(T ) = 1
4. ρ(T ) = 4, ν(T ) = 0 2. u + v no; cu sı́.
6. ker(T ) = gen {(1, 1, 3)} 3. λ1 = 1, λ2 = 2;
R(T ) = gen {1 + x, − 1 + 3x} λ1 = 0, λ2 = −1;
0 0 0 λ1 = 5, λ2 = −5.
0 0 0
7. a) 1 1 4
1
0 2 5 4. Para λ1 = −6, u = −t con t ̸= 0.
1 3 1 t
b) −3x2 + 5x3 − 2x4 0
Para λ2 = 4, v = 2t con t ̸= 0.
3 −2 1 0 3t
8. a) 1 , 6 , 2 y 1
t
−3 0 7 1 Para λ3 = 7, w = 0 con t ̸= 0.
b) (11, 5, 22), (−42, 32, −10), (−56, 86, 17) y 0
(−13, 17, 2).
60 z − 60 x − 15 y − 60 w,
c) T (x, y, z, w) = 1217 373 82 229
−1 −1
1 , 0 .
4 w − 4 x + 12y − 4 z, 6 w − 6 x + 3 y +
51 25 79 91 59 2 37 5. E = gen
6 z 2
0 1
10. I3
′ 0 −3 2 −1 6. = λ2 − 5λ;
a) p(λ)
12. a) A = ,A= λ1 = 0 y λ2 = 5;
base para
−1 −1 −1 1 −2 1
E0 : ; base para E5 : ;
1 0 0 1 0 0 3 1
b) A′ = 0 3 0 , A = 1 2 0 mg (0) = ma (0) = 1 y mg (5) = ma (5) = 1.
0 0 2 1 1 3
5 3 b) p(λ)
=λ2 +6λ+9; λ1 = −3; base para E−3 :
′ 2 2 4 1 3
c) A = 5 3 , A = ; mg (−3) = 1 y ma (−3) = 2.
2 2 0 0 1
−5 −6 c) p(λ) = λ2 − (a + b)λ;
13. B ′ = {(2, 1), (1, 1)}, [T ]B ′ = λ1 = 0 y λ2 =
2 2 −b
′
a + b; base para E0 : ; base pa-
14. B = 1 2 2
+ x + 2x , 1 + x ,1 + x , a
− 52 − 32 − 23 ra Ea+b :
1
; mg (0) = ma (0) = 1 y
[T ]B ′ = 7 3 5 1
3
2
5
2 − 3
2
mg (a + b) = ma (a + b) = 1.
d ) p(λ) = λ3 − 6λ2 + 11λ−6; λ1=1, λ2 = 2 y 1 1 1
1 iii. P = 1 1 −2 ,
λ3 = 3; base para E1 : 0 ; base para 1 −2 0
0 3 0 0
1 0 D = 0 −3 0 ,
E2 : 1 ; base para E3 : 0 ; 5
0 0 3
− 32 2
0 1 3
mg (1) = ma (1) = 1, mg (2) = ma (2) = 1 y A = − 43 7
3 2
mg (3) = ma (3) = 1.
8
3
4
3 −1
e) p(λ)
√ = λ3 −√ 4λ − 2λ + 8; λ1 =
2
2 0 0 2 0 0
2, λ2 = − 2 yλ3 = 4; base pa- 3. a) D1 = 0 2 0 , D2 = 0 1 0 y
1 0 0 1 0 0 2
0 ; base para E √ :
ra E√2 :
√ − 2 1 0 0
2 D3 = 0 2 0
−1 0 0 0 2
0 ; base para E4 : 1 ;
√ b) D1 =
1 0
y D2 =
6 0
2 0
√ √ √ 0 6 0 1
mg ( √2) = ma ( 2) = 1, mg (− 2) =
ma (− 2) = 1 y mg (4) = ma (4) = 1. 4. ̸ 2
a) a = b) a > 0 c) para to-
do a
f ) p(λ) = λ3 −2λ2 −4λ+8;
2 = −2;
λ1 = 2, yλ
−1 0 0 0 −2 1
base para E2 : 2 , 0 ; base 6. a) D =
0 5
,P =
3 1
0 1
b) no es posible
1
para E−2 : 2 ; mg (2) = ma (2) = 2 0 0 −b 1
c) D = ,P =
0 a+b a 1
0
y mg (−2) = ma (−2) = 1. 1 0 0 1 1 0
g) p(λ) = λ4 − 4λ3 + 3λ2 + 4λ − 4; λ1 = d ) D = 0 2 0 , P = 0 1 0
−1, 0 0 3 0 0 1
λ2 = 1 y λ3 = 2; base
para
E−1 : √
0
2
2 √0 0
0 ; base para E1 : 0 ; base e) D = 0 − 2 0 ,
3
1
0 0 4
0 0 1 −1 0
1 0 P = √0 √0 1
−3 3
para E2 : , ; mg (−1) = 2 2 0
0 1
2 0 0 −1 0 1
1 0
f) D = 0 2 0 , P = 2 0 2
ma (−1) = 1, mg (1) = ma (1) = 1 y
0 0 −2 0 1 0
mg (2) = ma (2) = 2.
−1 0 0 0
−2 0 1 0 0
7. −10 g) D = ,
0 0 2 0
5 0 0 0 2
0 2 1 0
Sección 7.2 0 0 −3 3
P = 1 3
1 1 2 0 0 1
1. i. P = ,D= ,
2 0 0 −3 0 0 1 0
−3 52 2 −3 1
A=
0 2
7. a) P = 0 0 −6 ,
0 1 2 0 2 2 4
ii. P = ,D= ,
1 1 0 1 4 0 0
1 0 D = 0 −1 0
A=
−1 2 0 0 1
−1 −1 1 0 0 0 2 0 0 0
b) P = 0 1 1 , D = 0 0 0 0 1 0 0
D=
0
1 0 1 0 0 3 0 1 0
c) no es posible 0 0 0 1
1 −2 1 0 9. a) Falso d ) Verdadero
−1 1 0 0
d) P = 0
, b) Verdadero e) Verdadero
0 1 0
0 0 0 1 c) Verdadero f ) Verdadero
Anton, H. (2011). Introducción al Álgebra Lineal: con aplicaciones en negocios, economı́a, inge-
nierı́a, fı́sica, ciencias de la computación, teorı́a de aproximación, ecologı́a, sociologı́a, demografı́a
y genética. (5ta. Edición). México: Limusa Wiley.
Grossman, S. & Flores Godoy, J. (2012). Álgebra Lineal. (7ma. Edición). México: McGraw-Hill.
Kolman, B. & Hill, D. (2006). Álgebra Lineal. (8va. Edición). México: Pearson Educación.
Larson, R. & Falvo, D. (2010). Fundamentos de Álgebra Lineal. (6ta. Edición). México: Cengage
Learning.
Lay, D. (2012). Álgebra Lineal y sus aplicaciones. (4ta. Edición). México: Pearson Educación.
Lay, D. (2013). Álgebra Lineal para cursos con enfoque por competencias. México: Pearson Edu-
cación.
Nakos, G. & Joyner, D. (1999). Álgebra Lineal con Aplicaciones. México: International Thomson
Editores.
Sanz, P., Vázquez, F. & Ortega, P. (1998). Problemas de Álgebra Lineal. Cuestiones, ejercicios
y tratamiento en Derive. Madrid: Prentice Hall.