0% encontró este documento útil (0 votos)
34 vistas71 páginas

Algebra Superior

El capítulo 6 del documento se centra en matrices y determinantes, explicando su definición, tipos y aplicaciones en ciencias sociales. Se presentan ejemplos de matrices, incluyendo matrices nulas, fila, columna, cuadradas, triangulares y diagonales, así como sus propiedades y operaciones. Además, se discuten aplicaciones prácticas de matrices en la clasificación de datos y en la representación de relaciones mediante grafos.

Cargado por

Ana Sasso
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
34 vistas71 páginas

Algebra Superior

El capítulo 6 del documento se centra en matrices y determinantes, explicando su definición, tipos y aplicaciones en ciencias sociales. Se presentan ejemplos de matrices, incluyendo matrices nulas, fila, columna, cuadradas, triangulares y diagonales, así como sus propiedades y operaciones. Además, se discuten aplicaciones prácticas de matrices en la clasificación de datos y en la representación de relaciones mediante grafos.

Cargado por

Ana Sasso
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

Matemáticas Aplicadas a las Ciencias Sociales II

Capı́tulo 6

MATRICES Y DETERMINANTES

6.1. Introducción
Las matrices y los determinantes son herramientas del álgebra que facilitan el ordenamiento de
datos, ası́ como su manejo.
Los conceptos de matriz y todos los relacionados fueron desarrollados básicamente en el siglo XIX
por matemáticos como los ingleses J.J. Sylvester y Arthur Cayley y el irlandés William Hamilton.
Las matrices se encuentran en aquellos ámbitos en los que se trabaja con datos regularmente
ordenados y aparecen en situaciones propias de las Ciencias Sociales , Económicas y Biológicas.

6.2. Matrices. Definición y primeros ejemplos


Una matriz es una tabla rectangular de números reales dispuestos en filas y columnas del modo:
  
a11 a12 a13 . . . a1n ←
 a21 a22 a23 
 . . . a2n 
←

A= . .. .. .. ..  ← Filas de la matriz A
 .. . . . .   

am1 am2 am3 . . . amn ←
 
Columnas de la matriz A

Abreviadamente se puede expresar A = (aij ). Cada elemento de la matriz lleva dos subı́ndices. El
primero de ellos “i”, indica la fila en la que se encuentra el elemento, y el segundo, “j”, la columna.
Ası́ el elemento a23 está en la fila 2 y columna 3. Las matrices siempre se representarán con letras
mayúsculas.
Ejemplos: Son ejemplos de matrices los siguientes:
 
  √  3 1 0
2 1 6 −4 0  2 −4 0 
A= B= C = −1 1
√ 
3 4 1 2 1 5 2
1 0 0

A tiene 2 filas y 2 columnas, diremos que su tamaño es 2 x 2.¿Qué elemento es a21 ?.


B tiene 2 filas y 3 columnas, diremos que su tamaño es 2 x 3.¿Qué elemento es b23?.
C tiene 4 filas y 3 columnas, diremos que su tamaño es 4 x 3.¿Qué elemento es c42 ?.
En general, si una matriz A tiene m filas y n columnas, diremos que su tamaño o dimensión es m
x n (se lee “m por n”), siempre en primer lugar el nº de filas y en segundo lugar el de columnas.

1 de 21.
82
Matemáticas Aplicadas a las Ciencias Sociales II
CAPÍTULO 6. MATRICES Y DETERMINANTES 83

6.3. Tipos de matrices


1. Se llama matriz nula a la que tiene todos los elementos cero.
Por ejemplo,  
0 0 0 0 0
A=
0 0 0 0 0
es una matriz nula de tamaño 2x5.
2. Se llama matriz fila a la que sólo tiene una fila, es decir su dimensión es 1x n.
Por ejemplo,  
1 0 −4 9
es una matriz fila de tamaño 1 x 4.
3. Se llama matriz columna a la que sólo consta de una columna, es decir su dimensión será m x
1, como por ejemplo:  
1
C= √ 0 
− 8
es una matriz columna de tamaño 3 x 1.
4. Una matriz es cuadrada cuando tiene el mismo número de filas que de columnas, es decir su
dimensión es n x n. La matriz ( 23 14 ) del primer ejemplo anterior es cuadrada de tamaño 2 x 2 o
simplemente de orden 2.
Otro ejemplo de matriz cuadrada es:
 
1 2 3
D= 6 5 4
−3 −4 0
de orden 3.
Dentro de las matrices cuadradas llamaremos diagonal principal a la formada por los elementos
a11 , a22 , a33, . . . , ann , siendo la matriz:
 
a11 a12 a13 . . . a1n
a21 a22 a23 . . . a2n 
 
A= . .. .. .. .. 
 .. . . . . 
an1 an2 an3 . . . ann
En la matriz D del ejemplo anterior, su diagonal principal estarı́a formada por 1, 5, 0.
Se llama traza de la matriz a la suma de los elementos de la diagonal. Es decir, Traza (A)=a11 +
a22 + a33 + . . . + ann , y en el caso de D, Traza (D)= 1+5+0 = 6.
La diagonal secundaria es la formada por los elementos a1n , a2,n−1, a3,n−2, . . . , an1 .
En la matriz D estarı́a formada por 3, 5, -3.

Una clase especial de matrices cuadradas son las matrices triangulares.


Una matriz es triangular superior si todos los elementos por debajo de la diagonal principal son
nulos y triangular inferior si son nulos todos los elementos situados por encima de dicha diagonal.
Son ejemplos de estas matrices:
 
1 0 0 0  
0 −4 0  1 4 13
0 
E= 3 4 F = 0 9 −5
5 0 
0 0 π
1 3 16 −78 Triangular superior
Triangular inferior
2 de 21.
Matemáticas Aplicadas a las Ciencias Sociales II
CAPÍTULO 6. MATRICES Y DETERMINANTES 84

Si una matriz es a la vez triangular superior e inferior, sólo tiene elementos en la diagonal principal.
Una matriz de este tipo se denomina matriz diagonal.
Un ejemplo de matriz diagonal serı́a:
 
1 0 0 0
0 −45 0 0
G= 0

0 3 0
0 0 0 0

Por último, si una matriz diagonal tiene en su diagonal principal sólo unos, se denomina matriz unidad
o identidad. Se suelen representar por In , donde n es el orden o tamaño de la matriz. Algunas matrices
identidad son:  
  1 0 0 0
  1 0 0
1 0 0 1 0 0
I2 = I3 = 0 1 0 I4 = 

0 0 1 0

0 1
0 0 1
0 0 0 1

6.4. Aplicaciones de las matrices


Las matrices se utilizan en el contexto de las ciencias como elementos que sirven para clasificar
valores numéricos atendiendo a dos criterios o variables.
Ejemplo: Un importador de globos los importa de dos colores, naranja (N) y fresa (F). Todos
ellos se envasan en paquetes de 2, 5 y 10 unidades, que se venden al precio (en euros) indicado por la
tabla siguiente:

2 unid. 5 unid. 10 unid.


Color N 0’04 0’08 0’12
Color F 0’03 0’05 0’08

Sabiendo que en un año se venden el siguiente número de paquetes:

Color N Color F
2 unid. 700000 50000
5 unid. 600000 40000
10 unid. 500000 500000

Resumir la información anterior en 2 matrices A y B, de tamaño respectivo 2x3 y 3x2 que recojan las
ventas en un año (A) y los precios (B).

Nos piden que organicemos la información anterior en dos matrices de tamaño concreto. Si nos fijamos
en las tablas, es sencillo obtener las matrices:

N F
2 ud 5 ud 10 ud   
  0 04 0 03 2 ud
700000 600000 500000 N 
A= B = 0 08 0 05 5 ud
50000 40000 500000 F
0 12 0 08 10 ud

Estas matrices se denominan matrices de información, y simplemente recogen los datos numéricos del
problema en cuestión.
Otras matrices son las llamadas matrices de relación, que indican si ciertos elementos están o no
relacionados entre sı́. En general, la existencia de relación se expresa con un 1 en la matriz y la ausencia
de dicha relación de expresa con un 0.
Estas matrices se utilizan cuando queremos trasladar la información dada por un grafo y expresarla
numéricamente.

3 de 21.
Matemáticas Aplicadas a las Ciencias Sociales II
CAPÍTULO 6. MATRICES Y DETERMINANTES 85

En Matemáticas, un grafo es una colección cualquiera de puntos conectados por lineas.


Existen muchos tipos de grafos. Entre ellos, podemos destacar:
* Grafo simple: Es el grafo que no contiene ciclos, es decir, lineas que unan un punto consigo
mismo, ni lineas paralelas, es decir, lineas que conectan el mismo par de puntos.
* Grafo dirigido: Es el grafo que indica un sentido de recorrido de cada linea, mediante una flecha.
Estos tipos de grafo pueden verse en la figura:

Figura 6.1: Grafo, Grafo simple y Grafo dirigido.

Relacionadas con los grafos se pueden definir algunas matrices. Entre todas ellas, nosotros nos
fijaremos en la llamada matriz de adyacencia, que es aquella formada por ceros y unos exclusivamente,
de tal forma que:
* un 1 en el lugar (i,j) expresa la posibilidad de ir desde el punto de la fila i hasta el punto de la
columna j mediante una linea que los una directamente.
* un 0 en el lugar (i,j) expresa la imposibilidad de ir del primer punto al segundo mediante una
linea que los una directamente.

La matriz de adyacencia del grafo dirigido de la figura anterior será:

A B C D
 
A 0 1 0 1
B0 0 1 0
C 1 0 0 0
D 0 0 0 0

Ejercicio
1) Escribe las correspondientes matrices de adyacencia de los grafos:

2) Dibuja los grafos dirigidos que correspondan a las matrices de adyacencia:

A B C D
A B C  
  A 0 1 1 1
A 0 1 0
B0 0 0 1
B 1 0 1
C 1 0 0 0
C 0 0 0
D 0 1 1 0

4 de 21.
Matemáticas Aplicadas a las Ciencias Sociales II
CAPÍTULO 6. MATRICES Y DETERMINANTES 86

6.5. Operaciones con matrices


6.5.1. Suma y diferencia
Dadas dos matrices A y B podemos realizar su suma o diferencia de acuerdo a la siguiente regla.
Para sumar o restar dos matrices del mismo tamaño, se suman o restan los elementos que se encuentren
en la misma posición, resultando otra matriz de igual tamaño.
Por ejemplo:      
2 1 3 2 0 4 0 1 −1
− =
−4 2 1 3 2 5 −7 0 −4
2x3 2x3 2x3

Si las matrices tienen diferente tamaño, no se pueden sumar o restar entre sı́.

Propiedades de la suma (y diferencia) de matrices:


a) Conmutativa: A + B = B + A
b) Asociativa: A + (B + C) = (A + B) + C
c) Elemento neutro: La matriz nula del tamaño correspondiente.
d) Elemento opuesto de A: La matriz -A, que resulta de cambiar de signo a los elementos de A.
Ejemplo:
Si    
0 −1 0 1
A = −4 −2 =⇒ −A =  4 2
3 −9 −3 9
3x2 3x2
porque:      
0 −1 0 1 0 0
−4 −2 +  4 2 = 0 0
3 −9 −3 9 0 0
3x2 3x2 3x2

Ejercicios:

1. Las exportaciones, en millones de euros, de 3 paı́ses A, B, C a otros tres X, Y, Z, en los años


2000 y 2001 vienen dadas por las matrices:

X Y Z X Y Z
   
A 11 6 7 0 5 A 13 3 
7 1
A2000 = B 14 5 10 1 2 A2001 = B 15 7 11 1 3 2
C 20 9 3 2 2 3 C 21 0 2 4 3

Calcula y expresa en forma de matriz el total de exportaciones para el conjunto de los dos años.
¿Cuántos millones ha exportado el paı́s B al Z en total?
Calcula el incremento de las exportaciones del año 2000 al 2001 con los datos del ejemplo anterior.

2. Calcula x, y, z en la suma:
     
x − y −1 2 y 0 z −1 −1 3
 1 y −x + −z 2 3 =  0 4 4
0 z 2 −2 3 x −2 4 1

3. Calcula a, b, c para que se cumpla la igualdad:


     
3−a b −2 2 a+b 4 −1 a 2
+ =
4 −c + 1 6 1−c 2 0 2 0 6

5 de 21.
Matemáticas Aplicadas a las Ciencias Sociales II
CAPÍTULO 6. MATRICES Y DETERMINANTES 87

6.5.2. Producto por un número real


Dada una matriz cualquiera A y un número real k, el producto k·A se realiza multiplicando todos
los elementos de A por k, resultando otra matriz de igual tamaño. (Evidentemente la misma regla
sirve para dividir una matriz por un número real).
Por ejemplo:    
2 1 3 −10 −5 −15
−5 · =
−4 2 1 20 −10 −5
2x3 2x3
Propiedades:
a) Distributiva respecto de la suma de matrices: k·(A + B) = k·A + k·B
b) Distributiva respecto de la suma de números: (k + d)·A= k·A + d·A
c) Asociativa: k·(d·A)=(k·d)·A
d) Elemento neutro, el número 1: 1·A=A

Ejercicios:
   
1 1 −1 0
1. Si A = yB= , halla una matriz X que verifique la ecuación:
0 1 0 2
2·X −4·A = B

2. Determina las matrices X y Y sabiendo que:


  

 1 −2
3X − 5Y =
8 1

 2 4
 −X + 3Y =
3 0

6.5.3. Trasposición de matrices


Dada una matriz cualquiera A, se llama matriz traspuesta de A, y se representa por At a la matriz
que resulta de intercambiar
 las filas y las columnas de A.
2 1 0 7
Por ejemplo, si A = , entonces la matriz traspuesta de A es:
−3 4 2 1
 
2 −3
1 4 
At = 
0 2 

7 1

Evidentemente, si A es una matriz de tamaño m x n, su traspuesta At tendrá tamaño n x m, pues el


número de columnas pasa a ser el de filas y viceversa.
Si la matriz A es cuadrada, su traspuesta tendrá el mismo tamaño.

Propiedades:
a) (At )t = A, es decir, la traspuesta de la traspuesta es la matriz inicial.
b) (A + B)t = At + B t
c) (k · A)t = k · At
En base a esta nueva operación, podemos definir otras dos clases de matrices, que son:

Matriz simétrica, que es aquella para la que se cumple que At = A, por ejemplo la matriz:
 
2 1 3

A= 1 0 −2

3 −2 7
6 de 21.
Matemáticas Aplicadas a las Ciencias Sociales II
CAPÍTULO 6. MATRICES Y DETERMINANTES 88

es simétrica (compruébalo).
En una matriz simétrica, los elementos son simétricos respecto a la diagonal principal.

Ejercicio: ¿Puede ser simétrica una matriz que no sea cuadrada?¿Por qué?.

Matriz antisimétrica, es aquella para la que se cumple que At = −A.


Por ejemplo:  
0 1 3
B = −1 0 −2
−3 2 0
es antisimétrica (comprueba).
En una matriz antisimétrica, los elementos de la diagonal principal son siempre nulos (¿por qué?),
y los restantes son opuestos respecto a dicha diagonal.

Ejercicios:
   
1 3 3 1 1 2
1. Dadas las matrices A = 1 4 3 y B =  2 0 −1 calcula 3At − B t .
1 3 4 −6 −1 0
2. Obtener las matrices X e Y que verifiquen los sistemas:
        

 1 5 
 2 1 
 3 1
2X − 3Y = X + Y = 2X + Y =
a)  4 2
b) 3 0 c) 0 −2

 −1 0 
 6 2 
 1 0
X − Y = X − Y = X + 2Y =
3 6 0 1 −2 4

6.5.4. Producto de matrices


Hay que dejar claro ya desde el principio que no todas las matrices pueden multiplicarse. Dos
matrices se pueden multiplicar cuando se cumple la siguiente condición:

“Para multiplicar dos matrices A y B, en este orden, A·B , es condición indispensable que el número
de columnas de A sea igual al número de filas de B”
Si no se cumple esta condición, el producto A·B no puede realizarse, de modo que esta es una
condición que debemos comprobar previamente a la propia multiplicación.
Una vez comprobado que el producto A·B se puede realizar, si A es una matriz m x n y B es una
matriz n x p (observemos que el nº de columnas de A = n = nº de filas de B), entonces el producto
A·B da como resultado una matriz C de tamaño n x p del siguiente modo:

“El elemento que se encuentra en la fila i y la columna j de la matriz C=A·B, se obtiene multiplicando
los elementos de la fila i de A por la columna j de B y sumando los resultados”

Veámoslo mediante un ejemplo:


Para multiplicar las matrices:
 
  0 −4 1
−3 2 1 4 1 −2 1
A= y B=
2 0 2

2 5 3 −2
2x4 3 2 1
4x3

primero comprobamos que se puede realizar el producto A·B, pues el nº de columnas de A es 4 y el


nº de filas de B también es 4, y el resultado, según lo dicho será una matriz de tamaño 2 x 3, tiene 2
7 de 21.
Matemáticas Aplicadas a las Ciencias Sociales II
CAPÍTULO 6. MATRICES Y DETERMINANTES 89

filas y 3 columnas:  
  0 −4 1  
−3 2 1 4 1 −2 1   
·   =
2 5 3 −2 2 0 2   
2x4 3 2 1 2x3
4x3

Sólo nos falta completar los elementos de la matriz producto. Para ello, seguimos la regla anterior:
El elemento de la fila 1 y columna 1 de A·B proviene de multiplicar elemento a elemento la fila 1
de A por la columna 1 de B y sumar, es decir:

(−3) · 0 + 2 · 1 + 1 · 2 + 4 · 3 = 0 + 2 + 2 + 12 = 16

El elemento de la fila 1 y columna 2 de A·B proviene de multiplicar elemento a elemento la fila 1 de


A y la columna 2 de B y sumar:

(−3) · (−4) + 2 · (−2) + 1 · 0 + 4 · 2 = 12 − 4 + 0 + 8 = 16

El elemento de la fila 1 y columna 3 de A·B proviene de multiplicar elemento a elemento la fila 1 de


A y la columna 3 de B y sumar:

(−3) · 1 + 2 · 1 + 1 · 2 + 4 · 1 = −3 + 2 + 2 + 4 = 5

Ası́ sucesivamente se obtienen (comprueba):


 
16 16 5
5 −22 11
2x3

Ejercicios:

1. Para las matrices A y B anteriores, calcula B·A


   
1 −3 3 −5
2. Si A = ,B= , calcula si es posible A·B y B·A. ¿Coinciden?.
−2 6 2 1
 
1 −1  
  3 0 2
3. Lo mismo si A = 0 −2 , B = .
1 −1 5
4 1
4. Calcula todos los productos posibles entre las matrices:
   
1 2 3 1  
2 1 0
A = 1 1 1  B = 2 C=
3 4 5
0 2 −1 1

Además, calcula A2 y A3 .

5. Para las matrices


   
    2 3 0 1 2
1 −1 2 0 3 4
A= B= C = −5 1 4 −2 D = 1
4 0 −3 −1 −2 3
1 0 0 −3 3

calcula:

A + B, 3A − 4B, A · B, A · D, B · C, C · D, At · C, Dt · At , B t · A, Dt · D, D · Dt

8 de 21.
Matemáticas Aplicadas a las Ciencias Sociales II
CAPÍTULO 6. MATRICES Y DETERMINANTES 90

Propiedades del producto de matrices


a) Asociativa: A·(B·C) = (A·B)·C
b) Distributiva respecto de la suma:

A · (B + C) = A · B + A · C

(B + C) · A = B · A + C · A
c) Elemento neutro, la matriz identidad correpondiente, si A es m x n:

A · In = A

Im · A = A
d) En general el producto de matrices no es conmutativo

A · B = B · A

Pueden verse ejemplos en los ejercicios anteriores. Esta es una propiedad muy importante.
e) El producto de dos matrices no nulas A y B puede dar lugar a una matriz nula:
 
  5  
2 1 3   0
· 2 =
0 2 1 0
2x3
−4 2x1
3x1

Se dice que el conjunto de las matrices con la operación producto tiene divisores de cero, es decir, hay
matrices no nulas cuyo producto es nulo.

Ejercicios:

1. Si A y B son dos matrices cuadradas del mismo orden, ¿son ciertas las propiedades siguientes,
que son ciertas para las operaciones con números reales?:
a) (A + B)2 = A2 + B 2 + 2 · A · B
b) (A − B)2 = A2 + B 2 − 2 · A · B
c) (A + B) · (A − B) = A2 − B 2
 
2 −1
2. Determina los valores de a y b de la matriz A = para que A2 = A.
a b
 
1 2
3. ¿Qué matrices conmutan con la matriz ?.
0 1

6.6. La matriz inversa


Sabemos ya multiplicar matrices y hemos visto algunas de las propiedades de esta operación.
Recordemos, en primer lugar, que no siempre es posible efectúar la multiplicación de dos matrices,
y en segundo lugar, que aunque sea posible hacer esta multiplicación, en general no es conmutativo,
es decir A·B es distinto de B·A.
En el caso particular de que tratemos con matrices cuadradas del mismo orden A y B, es claro que
podemos efectuar los productos A·B y B·A, que darán como resultado otra matriz del mismo orden,
aunque, como ya se ha dicho, las matrices resultantes serán, en general, distintas.
Sabemos también que el elemento neutro del producto de matrices es la matriz identidad In .
Por analogı́a con el caso de los números reales, podemos plantearnos la siguiente cuestión:

9 de 21.
Matemáticas Aplicadas a las Ciencias Sociales II
CAPÍTULO 6. MATRICES Y DETERMINANTES 91

Si tenemos un número real, por ejemplo el 2, podemos interesarnos en buscar el inverso del 2 para
el producto, es decir un número real x tal que 2·x = 1, el producto de 2 por x sea igual al elemento
neutro, el 1.
Evidentemente, en el caso de los números reales es bien fácil despejar x para obtener, en nuestro
1
caso, que x = , es decir, el inverso de un número real es otro número que multiplicado por él da el
2
elemento neutro, el 1.
Todo número real, salvo el 0, tiene inverso.

Trasladando esto a las matrices, nos podemos plantear si dada una matriz cuadrada A de orden n,
cualquiera, existe su inversa X para el producto de matrices,tal que

A · X = In

es decir, el producto de A por su inversa produce el elemento neutro matricial, la matriz identidad In .
Sin embargo, hay algunas diferencias con respecto al caso de los números reales:
In
1) No podemos “despejar” la matriz X del modo X = , porque no hemos definido la división de
A
matrices.
2) No todas las matrices cuadradas no nulas tienen matriz “inversa” (sea lo que sea, por analogı́a
con los números).
Definamos, en primer lugar, el término de matriz inversa:

Dada una matriz cuadrada de orden n , A, se dice que A es invertible (o que posee inversa o que es
no singular o que es regular ), si existe otra matriz del mismo orden, denominada matriz inversa de A
y representada por A−1 y tal que:
A · A−1 = In
y
A−1 · A = In
Si A no tiene inversa, se dice que es singular o no invertible.
Si una matriz tiene inversa, dicha matriz inversa es única (sólo hay una). Para calcular dicha matriz
inversa, podemos utilizar dos vı́as:

6.6.1. Método directo:


Consiste en determinar A−1 planteando un sistema de ecuaciones, es decir, si por ejemplo queremos
1 2
determinar la inversa de la matriz A = , lo que estoy buscando es otra matriz de igual tamaño
−1 1
 
−1 −1 −1 x y
(orden 2) tal que A · A = I2 y A · A = I2 , es decir, si A = , se tiene que cumplir que :
z t
         
−1 1 2 x y 1 0 x + 2z y + 2t 1 0
A · A = I2 =⇒ · = =⇒ =
−1 1 z t 0 1 −x + z −y + t 0 1


 x + 2z = 1

y + 2t = 0

−x +z =0

−y + t = 1
Es decir, hemos de resolver un sistema de 4 ecuaciones con 4 incógnitas, aunque en realidad son 2
sistemas de dos ingónitas cada uno (uno con x y z y otro con y y t).
Resolviendo el sistema se obtiene que
1 −2 1 1
x= ,y = ,z = ,t =
3 3 3 3
10 de 21.
Matemáticas Aplicadas a las Ciencias Sociales II
CAPÍTULO 6. MATRICES Y DETERMINANTES 92

por lo que la matriz inversa es:


1 −2
  
−1 1 1 −2
A = 3
1
3
1 = ·
3 3 3 1 1

Se puede comprobar que también se cumple que A−1 · A = I2 , luego A es invertible, tiene inversa. Si
el sistema no tiene solución, la matriz no
 tiene inversa.
1 1
Por ejemplo, en el caso en que A = , del mismo modo :
2 2
         
−1 1 1 x y 1 0 x+z y+t 1 0
A·A = I2 =⇒ · = =⇒ =
2 2 z t 0 1 2x + 2z 2y + 2t 0 1


 x+z = 1

y+t = 0

 2x + 2z = 0

2y + 2t = 1
Y por ejemplo de 2x+2z=0 se obtiene x = -z, si se sustituye en la primera ecuación es -z+z=1, es
decir 0 = 1 (imposible). El sistema no tiene solución.
Por tanto A no es invertible, es singular.
Este método directo sólo se suele utilizar para matrices cuadradas de tamaño 2, puesto que para
las de tamaño 3 obtenemos un sistemas de ¡9 ecuaciones con 9 incógnitas! que realmente es difı́cil de
resolver.

6.6.2. Método de Gauss-Jordan:


Consiste en hacer transformaciones elementales en las filas de la matriz para llegar a obtener la
matriz identidad. Realizando estas mismas transformaciones con la matriz identidad llegamos a la
matriz A−1 .
Se llama transformación elemental en una matriz a:
T1) Multiplicar o dividir una fila por un número real distinto de cero.
T2) Sumar o restar a una fila otra multiplicada por un número real no nulo.
T3) Intercambiar el lugar de dos filas entre sı́.  
1 2
Veamos como se realiza el método de Gauss-Jordan, realizándolo a la vez con la matriz .
−1 1
i) Consideramos la matriz formada por A y la matriz identidad correspondiente . En nuestro caso:
  
1 2 1 0
(A|I2 ) =
−1 1 0 1

ii) Se hace la matriz triangular superior (es decir, hacemos ceros por debajo de la diagonal principal)
usando transformaciones elementales en filas.
La mejor forma de realizar esto es hacer cero los elementos por debajo de la diagonal en la primera
columna usando la fila 1. Luego, hacer cero los elementos por debajo de la diagonal en la segunda
columna usando la fila 2, y ası́ sucesivamente.
En nuestro caso, basta sumar la fila 2 con la fila 1, y se obtiene:
     
1 2 1 0 F2 +F1 1 2 1 0
(A|I2 ) = −−−−→
−1 1 0 1 0 3 1 1

iii) Una vez hecha la matriz triangular superior, se hace la matriz triangular inferior, haciendo
ceros a los elementos por encima de la diagonal. El proceso es parecido al anterior:

11 de 21.
Matemáticas Aplicadas a las Ciencias Sociales II
CAPÍTULO 6. MATRICES Y DETERMINANTES 93

Hacer cero los elementos por encima de la diagonal en la última columna usando la última fila. Lue-
go, hacer cero los elementos por encima de la diagonal en la penúltima columna usando la penúmtima
fila, y ası́ sucesivamente. En nuestro caso:
     
1 2 1 0 3·F1 −2·F2 3 0 1 −2
−−−−−−→
0 3 1 1 0 3 1 1
iv) Ya tenemos una matriz diagonal. Lo único que falta es dividir a cada fila entre el número
adecuado para obtener unos en la diagonal principal, es decir, para obtener la matriz identidad en la
parte izquierda:  
  F1 F2  
3 0 1 −2 , 3 1 0 13 −2

−3
−−→ 3
0 3 1 1 0 1 31 13
v) Una vez se tiene la matriz identidad en la parte de la izquierda, la parte derecha es la matriz inversa,
es decir, llegamos a:
    1 −2   
1 0 13 −2 1 1 −2
(I2 , A−1 ) = 3 −1
=⇒ A = 1 1 = 3 3 ·
0 1 31 13 3 3 3 1 1
matriz que habı́amos obtenido antes por el método directo.
Si al realizar el método de Gauss-Jordan en algún momento alguna fila es de ceros, la matriz no
tiene inversa.
Cuanto mayor sea el orden de la matriz, mejor es este método frente al directo.
Veamos otro ejemplo:  
1 1 0
Calcular la inversa de la matriz B = −1 1 2 por el método de Gauss-Jordan.
1 0 1
Siguiendo los pasos anteriores:
        
1 1 0 1 0 0 1 1 0 1 0 0 1 1 0 1 0 0
F3 −F1
(B|I3 ) = −1 1 2 0 1 0 −−2−−→ 0 2 2 1 1 0 − −−−→ 0 2 2 1 1 0
F +F1

1 0 1 0 0 1 1 0 1 0 0 1 0 −1 1 −1 0 1
     
1 1 0 1 0 0 1 1 0 1 0 0
2·F2 −F3 4·F −F2
2·F +F2
−−−3−−→ 0 2 2 1 1 0 − −−−−→ 0 4 0 3 1 −2 −−−1−−→

0 0 4 −1 1 2 0 0 4 −1 1 2
     
4 0 0 1 −1 2 F1 F2 F3 1 0 0 14 −1 4
2
4
4·F −F2 , ,
−−−1−−→ 0 4 0 3 1 −2 −− 4
−−4
−−4→ 0 1 0 43 1 −2 
= (I3 |B −1 )
 4 4
0 0 4 −1 1 2 0 0 1 −1 14 2
 1 −1 1  4 4

4 4 2
=⇒ B −1 =  3
4
1
4
−1 
2
−1 1 1
4 4 2
También se puede expresar, sacando factor común:
 
1 −1 2
1
B −1 = ·  3 1 −2
4
−1 1 2
es la inversa de B.  
1 1
Si calculamos por este método la inversa de A = resulta:
2 2
     
1 1 1 0 F2 −2·F1 1 1 1 0
(A|I2 ) = −−−−−→
2 2 0 1 0 0 −2 1
Como aparece una fila de ceros, la matriz A no tiene inversa.

Ejercicios:
12 de 21.
Matemáticas Aplicadas a las Ciencias Sociales II
CAPÍTULO 6. MATRICES Y DETERMINANTES 94

1. Calcular por el método de Gauss-Jordan la inversa de las matrices:


   
1 2 −3 −2 1 4
A = 3 2 −4 B= 0 1 2 
2 −1 0 1 0 −1
 
3 0 0
2. Dada la matriz diagonal D = 0 −2 0 calcula su inversa. ¿Cómo calcuları́as de forma
0 0 5
rápida la inversa de una matriz diagonal cualquiera?.

6.7. Rango de una matriz


Un concepto muy importante relacionado con las matrices es el de rango. El concepto de ran-
go se encuentra ligado al de “independencia lineal” de filas o columnas de una matriz, pero no se
introducirá de esta manera porque se requieren conceptos que no conocemos.
Baste saber que se define el rango de una matriz como el número máximo de filas o columnas
linealmente independientes.
Sin embargo, el cálculo del rango de una matriz lo abordaremos desde otra perspectiva, utilizando
el método de Gauss.
Supongamos que tenemos una matriz cualquiera A a la que aplicamos el método de Gauss con el
fin de simplificarla lo más posible (es decir, consiguiendo que tenga el mayor número de ceros posible),
realizando operaciones elementales en filas.
Llamaremos rango de la matriz A y lo representaremos por Rg(A) al número de filas no nulas de
la matriz tras aplicarle el método de Gauss.

Ejemplo: Calcular el rango de las siguientes matrices:


 
    1 1 0  
1 1 0 3 2 4 6
A= B= C= 2 1 1  D=
2 2 1 1 −1 −2 −3
−1 1 −2
   
1 1 F2 −2·F1 1 1
a) −−−−−→ , Rg(A)=1 ,sólo una fila distinta de cero.
2 2 0 0
   
0 3 F2 F1 1 1
b) −−−−→ , Rg(B)=2 hay 2 filas no nulas.
1 1 0 3
       
1 1 0 1 1 0 1 1 0 1 1 0
F2 −2·F1 
c)  2 1 1  −− 0 −1 1  −−3−−→
F +F1 
0 −1 1  −−3−−−→
F +2·F2 
−−−→ 0 −1 1
−1 1 −2 −1 1 −2 0 2 −2 0 0 0
Rg(C)=2
 hay 2 filas
 no nulas.  
2 4 6 2·F2 +F1 2 4 6
d) −−−−−→ , Rg(D)=1, sólo una fila no nula.
−1 −2 −3 0 0 0
Los ejemplos anteriores ponen de manifiesto que el rango de cualquier matriz siempre es menor o
igual que el número de filas de la matriz.
De hecho se verifica que el rango de cualquier matriz siempre es menor o igual que su número de
filas y de columnas, pues el proceso para hacer el método de Gauss se puede hacer indistintamente
mediante operaciones elementales en filas o en columnas.
Esto permite, antes de calcular el rango de una matriz, saber entre qué valores va a estar ese rango.
Por ejemplo, en el caso c) del ejemplo, como la matriz es 3x3 , el rango sólo puede ser 0, 1, 2 ó 3,
no hay otras posibilidades.
En el caso del apartado d), como la matriz es 2 x 3, el rango sólo puede ser 0,1 ó 2. (De hecho,
podemos reducir esto algo más , pues una matriz sólo tiene rango cero si es la matriz nula).Resumiendo:

13 de 21.
Matemáticas Aplicadas a las Ciencias Sociales II
CAPÍTULO 6. MATRICES Y DETERMINANTES 95

Propiedad: Si A es una matriz de tamaño m x n no nula se cumple que:

1 ≤ Rg(A) ≤ min{m, n}

Ejemplo: Calcular en función de k el rango de la matriz:


 
1 1 2
A=
3 3 k

Aplicando Gauss,    
1 1 2 F2 −3·F11 1 2
A= −−−−−→
3 3 k 0 0 k−6
Ahora es evidente que si k-6=0, la última fila es nula. Por tanto, si k=6, la última fila es nula y el
rango de A es 1, Rg(A)=1, mientras que si k-6 es distinto de cero, es decir si k es distinto de 6, hay 2
filas no nulas y el rango de A es 2, Rg(A)=2. Resumiendo:

Si k = 6, entonces Rg(A)=2
Si k=6, entonces Rg(A)=1

La siguiente propiedad permite relacionar el concepto de rango con el de matriz inversa visto
anteriormente:

Propiedad:
Una matriz cuadrada A tiene inversa ⇐⇒ Rg(A) es máximo.

Ejercicios:

1 −2 1
1. Calcula el rango de A según los valores de k: A = 1 1 3.¿Para qué valores de k tiene A
5 −1 k
inversa?.

2. Calcula el rango de las matrices:


 
  0 2 1
1 0 1
A= B = 1 0 −1
2 1 0
0 4 2
 
2 −1 1 1  
0 0 1 0 2 1 5 −1 8
C =
2 1 1 1
 D = −1 2 3 4 5
1 3 10 11 13
0 0 0 1

6.8. Determinantes
Introduciremos a continuación el concepto de determinante asociado a una matriz cuadrada. Este
concepto permite simplificar operaciones matriciales tales como el cálculo del rango o de la matriz
inversa.

Definición:
Si es una matriz 2 x 2 se define el determinante de la matriz A, y se expresa como det(A) o bien
|A|, como el número:  
a11 a12 
det(A) = |A| =   = a11 · a22 − a12 · a21
a21 a22 
Ejemplos: El cálculo de los determinantes de orden 2 es bien sencillo, por ejemplo:
14 de 21.
Matemáticas Aplicadas a las Ciencias Sociales II
CAPÍTULO 6. MATRICES Y DETERMINANTES 96

 
 1 3

a)   =1·4-(-1)·3=4+3=7.
−1 4
 
−2 −3

b)   =-10+6=-4.
2 5

Para definir determinantes de matrices de orden mayor que 2 es necesario introducir previamente
algunos conceptos.
Dada una matriz cuadrada A de orden n, definimos el menor complementario de un elemento de
A,aij , como el determinante de la matriz que se obtiene al suprimir la fila i y la columna j en la que
se encuentra dicho elemento aij . Se representa por Mij .
 
−2 4 5
Ejemplo: En la matriz A =  6 7 −3 , los menores complementarios de cada uno de los
3 0 2
elementos de la primera fila son:  
7 −3
Menor complementario de -2:M11 =   =14-0=14.
0 2 
 
6 −3
Menor complementario de 4:M12 =   =12+9=21.
3 2
 
6 7
Menor complementario de 5:M13 =   =0-21=-21.
3 0
Y ası́ sucesivamente.

Ejercicio: Obtener los restantes menores complementarios de los elementos de la matriz A.

Estrechamente ligado al concepto de menor complementario se encuentra el de adjunto de una matriz.


Dada una matriz cuadrada A de orden n, definimos el adjunto de un elemento aij de A como el
número:
Aij = (−1)i+j · Mij
es decir, no es más que el menor complementario correspondiente acompañado de un signo más o
menos dependiendo de la fila y la columna en la que se encuentre el elemento en cuestión.
Por ejemplo, para la matriz anterior, los adjuntos de los elementos de la primera fila son:
Adjunto de -2:A11 = (−1)1+1 · M11 = 1 · 14 = 14 (coincide con el menor complementario)
Adjunto de 4:A12 = (−1)1+2 · M12 = (−1) · 21 = −21 (menor complementario con signo cambiado)
Adjunto de 5:A13 = (−1)1+3 · M13 = 1 · −21 = −21 (coincide con el menor complementario).

Ejercicio: Obtener los restantes adjuntos de los elementos de la matriz A.

En general puede saberse si el signo del menor complementario y del adjunto coinciden o no utilizando
una sencilla regla gráfica, por ejemplo, para matrices 3 x 3 y 4 x 4 basta fijarse en las matrices:
 
  + − + −
+ − + − + − + 
− + −  
+ − + − 
+ − +
− + − +

donde el + significa que el adjunto coincide con el menor complementario y el - indica que tienen signo
contrario.

Una vez vistos estos conceptos se puede definir ya:

Definición: Dada una matriz cuadrada A de tamaño n se define su determinante como la suma
15 de 21.
Matemáticas Aplicadas a las Ciencias Sociales II
CAPÍTULO 6. MATRICES Y DETERMINANTES 97

del producto de los elementos de una linea cualquiera de la matriz (fila o columna) elegida, por sus
correpondientes adjuntos.

Se puede demostrar, aunque dicha demostración excede los contenidos del curso, que el valor del
determinante no depende de la fila o columna elegida para calcularlo.
 
−2 4 5
Ejemplo: Para la matriz A =  6 7 −3 ,aplicando la definición, si elegimos la fila tercera queda:
3 0 2
      
4 5  −2 5  −2 4

det(A) = 3 ·   
+ 0 · −  
+2· =
7 −3 6 −3 6 7
= 3 · (−12 − 35) + 0 · (−(6 − 30)) + 2 · (−14 − 24) = −141 + 0 − 76 = −217

Si hubiésemos elegido otra fila o columna, por ejemplo la columna 2, quedarı́a:

       
6 −3 −2 5 −2 5 
det(A) = 4 · −   +7·   
 3 2 + 0 · −  6 −3 =
3 2 
= 4 · (−(12 + 9)) + 7 · (−4 − 15) + 0 · (−(6 − 30)) = −84 − 133 + 0 = −217

Ejercicio: Calcula, desarrollando por la fila que tú elijas los determinantes de las matrices:
       
1 8 1 3 4 −6 7 8 0 0 3 1
1 7 0  2 −1 1  0 −7 3 −2 0 2
1 6 −1 5 3 −5 1 0 1 3 4 0
     
1 1 1 0 1 2 3 4 1 0 −1 2
1 1 0 1 2 1 3 1 2 3 2 −2
     
1 0 1 1 3 1 4 3 2 4 2 1
0 1 1 1 3 4 1 2 3 1 5 −3

6.9. La regla de Sarrus


La definición de determinante es bastante engorrosa y se hace mucho más pesada a medida que
aumenta el orden de la matriz A.
En el caso de las matrices cuadradas de orden 3, esta regla facilita el cálculo de dichos determi-
nantes.  
a11 a12 a13
Si la matriz es A = a21 a22 a23 , entonces el determinante de A se calcula mediante la resta
a31 a32 a33
de dos expresiones obtenidas del siguiente modo:
Llamaremos sumandos positivos a los obtenidos al multiplicar:
- Los elementos de la diagonal principal,a11 · a22 · a33 .
- Los elementos de la linea paralela superior a la diagonal principal por el elemento aislado de la
esquina inferior izquierda:a12 · a23 · a31 .
- Los elementos de la linea paralela inferior a la diagonal principal por el elemento aislado de la
esquina superior derecha:a21 · a32 · a13 .

16 de 21.
Matemáticas Aplicadas a las Ciencias Sociales II
CAPÍTULO 6. MATRICES Y DETERMINANTES 98

Gráficamente:

Figura 6.2: Sumandos positivos

Llamaremos sumandos negativos a los obtenidos al multiplicar:


- Los elementos de la diagonal secundaria,a13 · a22 · a31 .
- Los elementos de la linea paralela superior a la diagonal secundaria por el elemento aislado de la
esquina inferior derecha: a12 · a21 · a33 .
- Los elementos de la linea paralela inferior a la diagonal secundaria por el elemento aislado de la
esquina superior izquierda: a32 · a23 · a11 .
Gráficamente:

Figura 6.3: Sumandos negativos

Y entonces det (A)= Sumandos positivos - Sumandos negativos.


Por ejemplo, en el caso de la matriz anterior:
 
−2 4 5
A =  6 7 −3
3 0 2
, se tiene que aplicando la regla de Sarrus:
det(A)=(-2)·7·2+4·3·(-3)+6·5·0-(3·7·5+0·(-2)·(-3)+6·4·2)=-28-36-105-48=-217.

Ejercicio: Comprobar, mediante la regla de Sarrus, los determinantes de orden 3 obtenidos en el


ejercicio anterior.

6.10. Propiedades de los determinantes


Algunas propiedades importantes que tienen los determinantes, y que se enuncian sin demostración,
son:
1. Si una matriz tiene una linea (fila o columna) de ceros, el determinante vale cero.
Esta propiedad es evidente, puesto que por definición de determinante, basta elegir dicha linea
para desarrollar y el determinante será 0.
17 de 21.
Matemáticas Aplicadas a las Ciencias Sociales II
CAPÍTULO 6. MATRICES Y DETERMINANTES 99

2. Si una matriz tiene dos filas iguales o proporcionales, su determinante es nulo.

3. Si permutamos dos lineas paralelas de una matriz cuadrada, su determinante cambia de signo,
por ejemplo:    
0 1 2 −3  0 1 2 −3 
   
1 3 2 −5  1 3 2 −5
 
2 4 1 
= 91 =⇒   = −91
 3 3 −2 −8 1 
3 −2 −8 1  2 4 3 1

4. Si multiplicamos todos los elementos de una linea de un determinante por un número, el deter-
minante queda multiplicado por ese número. Por ejemplo:
   
0 1 2 −3 0 1 2 −3 
 
1 3 2 −5 2 6 4 −10
 = 91 =⇒  = 182
2 4 3 
1  1 
 2 4 3
3 −2 −8 1  3 −2 −8 1 
 
0 2 4 −6 

2 6 4 −10
pero  = 16 · 91 = 1456
4 8 6 2 
6 −4 −16 2 

5. Si a una linea de una matriz se le suma otra linea multiplicada por un número, el determinante
no cambia.
Esta propiedad permite utilizar un método más sencillo para calcular determinantes de orden
mayor que 3.

6. El determinante de una matriz es igual al de su traspuesta,

|A| = |At|

7. Si A tiene matriz inversa, A−1 , se verifica que:


1
det(A−1 ) =
det(A)

Una estrategia a tener en cuenta en este caso de determinantes de orden 4 o superior, o incluso de
orden 3 si la matriz es compleja, es el método de “hacer ceros”, puesto que el valor del determinante
no varı́a al realizar a la matriz ciertas transformaciones elementales en filas,como indica la propiedad
5 anterior, si bien hemos de ser cuidadosos al aplicar dicha propiedad.
Ası́ pues la mejor forma de calcular un determinante es hacer ceros en una fila o columna y
desarrollar por dicha fila o columna, porque entonces sólo tendremos que calcular un adjunto. Por
ejemplo, si calculamos:
     
0 1 2 −3 0 1 2 −3 0 1 2 −3
  
1 3 2 −5 F3 −2·F2 1 3 2 −5 F4 −3·F2 1 3 2 −5
 =  = 
2 4   =
 3 1  0 −2 −1 11  0 −2 −1 11 
3 −2 −8 1  3 −2 −8 1  0 −11 −14 16 
Desarrollando por la columna 1
  
 1 2 −3

= 1 · −  −2 −1 11  =
−11 −14 16 
= −(−16 − 242 − 84 − (−33 − 154 − 64)) = 91

18 de 21.
Matemáticas Aplicadas a las Ciencias Sociales II
CAPÍTULO 6. MATRICES Y DETERMINANTES 100

Como hemos dicho, hemos de tener especial cuidado al aplicar esta regla con determinantes, puesto
que no podemos hacer las mismas operaciones que con las matrices, lo que puede confundir.
Por ejemplo, si queremos calcular el determinante:
 
1 2 3
 
C = 0 1 2
4 1 5

mediante la regla de Sarrus es:


det(C)=5+16+0-(12+2+0)=21-14=7.
Si hiciésemos ceros en la primera columna, y desarrollásemos nos deberı́a dar lo mismo. Ahora
bien,podemos hacer cero el 4 de la primera columna mediante:
   
1 2 3 1 2 3   
    1 2 
0 1 2 F3 −4·F1    = −7 + 14 = 7.
  = 0 1 2 =
−7 −7
4 1 5 0 −7 −7

lo que es correcto. Sin embargo, si queremos hacer cero el 1 de la primera columna serı́a un error
hacer:    
1 2 3    
  4·F1 −F3 0 7 7  
0 1 2 −→ 0 1 2 = 4 · 7 7 = 4 · (14 − 7) = 28.
    1 2
4 1 5 4 1 5

no obtenemos lo mismo, porque hemos multiplicado la fila sustituida por un número y eso altera el
valor del determinante. Luego la fila a sustituir conviene no multiplicarla, como en el primer ejemplo,
puesto que si no nos damos cuenta, podemos variar el valor del determinante.

6.11. Relación entre la inversa y los determinantes


Hay una estrecha relación entre la inversa de una matriz cuadrada y su determinante. De hecho se
verifica que:

Propiedad: Una matriz cuadrada A tiene inversa ⇐⇒ |A| =  0.


−1
Además, en este caso, la matriz inversa de A, A se calcula de la manera:

(Adj(A)t
A−1 =
|A|

donde Adj(A) denota la matriz adjunta de A, es decir, aquella que se obtiene de sustituir cada elemento
de A por su adjunto.
 
1 0 −1
Ejemplo: Calcular, si es posible, la inversa de la matriz A =  0 1 −3.
−1 1 0
 
 1 0 −1
 
En primer lugar,|A| =  0 1 −3 = 0 + 0 + 0 − (1 − 3 + 0) = 2 y por tanto A tiene inversa.
−1 1 0 
Calculando Adj(A), se obtiene:
  



 
 
 

1 −3 −  0 −3  0 1
 1 0  −1 0  −1 1   
       3 3 1
 0 −1  1 −1  1 0
Adj(A) =      
− 1 0  −1 0  − −1 1 = −1 −1 −1
  
        1 3 1
 0 −1 1 −1 1 0 
  −    
1 −3 0 −3 0 1
19 de 21.
Matemáticas Aplicadas a las Ciencias Sociales II
CAPÍTULO 6. MATRICES Y DETERMINANTES 101

Por tanto,  
3 −1 1
(Adj(A)t) = 3 −1 3
1 −1 1
Y entonces, se obtiene: 3 
−1 1
2 2 2
A−1 = 3 −1 3
2 2 2
1 −1 1
2 2 2
Ejercicio: Calcular la inversa anterior por el método de Gauss.

6.12. Aplicación de los determinantes al cálculo del rango


Los determinantes también proporcionan una forma sencilla de calcular el rango de una matriz
cualquiera.
Un definición alternativa de rango de una matriz es:
El Rango de una matriz A es el tamaño del mayor menor complementario no nulo que esté incluido
dentro de la matriz.
Aplicando este criterio, calculemos el rango de las matrices siguientes:
 
    1 1 0  
1 1 0 3   2 4 6
A= B= C= 2 1 1 D=
2 2 1 1 −1 −2 −3
−1 1 −2

a) Sólo hay un menor de orden 2, que es:


 
1 1
 
2 2 = 0

Como es nulo, el rango de la matriz NO es 2. Menores de orden 1 hay 4, por ejemplo |1| = 1, que es
no nulo,luego el rango de la matriz es Rg(A)=1 (el tamaño de dicho menor complementario).
b) Sólo hay un menor de orden 2, que es:
 
0 3
 
1 1 = 0 − 3 = −3

Como no es nulo, el rango de la matriz es Rg(B)=2 (el tamaño de dicho menor complementario).
c) Sólo hay un menor de orden 3, que es:
 
1 1 0
 
 2 1 1  = −2 − 1 + 0 − (0 + 1 − 4) = −3 + 3 = 0
 
−1 1 −2

Como es nulo, podemos asegurar que el rango NO es 3.


Menores de orden 2 hay 9. Calculando alguno:
 
1 0
 
1 1 = 1

resulta que es no nulo, luego el rango es Rg(C)=2 (el tamaño de dicho menor complementario).
d) El menor más grande que podemos formar es de orden 2. Hay 3 de ellos:
     
2 4  2 6  4 6 
  
−1 −2 = −4 + 4 = 0 −1 −3 = −6 + 6 = 0 −2 −3 = −12 + 12 = 0

20 de 21.
Matemáticas Aplicadas a las Ciencias Sociales II
CAPÍTULO 6. MATRICES Y DETERMINANTES 102

Son todos nulos, luego el rango NO es 2. Menores de orden 1 hay 6, y por ejemplo |6| = 6 = 0, es no
nulo, luego el rango es Rg(D)=1.

Ejercicio Calcula,utilizando los determinantes, el rango de las matrices:


 
  0 2 1
1 0 1
A= B = 1 0 −1
2 1 0
0 4 2
 
2 −1 1 1  
0 0 1 0 2 1 5 −1 8
C =  D = −1 2 3 4 5
2 1 1 1
1 3 10 11 13
0 0 0 1

21 de 21.
TEMA 4: Espacios y subespacios vectoriales

1. Espacios vectoriales
Sea K un cuerpo. Denominaremos a los elementos de K escalares.
Definición 1. Un espacio vectorial sobre K es un conjunto V cuyos elementos se deno-
minan vectores y en el cual hay definidas dos operaciones: una operación interna o suma
de vectores tal que
(V, +) es un grupo abeliano
El elemento neutro los denotamos como ~0 (para distinguirlo del elemento neutro del cuerpo
K) , y lo llamaremos el vector cero.
Además hay definida una operación llamada el producto de un escalar por un vector,
es decir, una aplicación K × V → V , verificando para cualesquiera λ, λ1 , λ2 ∈ K y para
cualesquiera u, v ∈ V que:
1. λ(u + v) = λu + λv
2. (λ1 + λ2 )u = λ1 u + λ2 u
3. λ1 (λ2 u) = (λ1 · λ2 )u
4. 1 · u = u
Ejemplos 2.
1. El conjunto V = R × R es un espacio vectorial sobre el cuerpo R con respecto de
la operaciones
(x1 , x2 ) + (y1 , y2 ) = (x1 + y1 , x2 + y2 ), λ · (x1 , x2 ) = (λ · x1 , λ · x2 )
El vector cero es ~0 = (0, 0).
2. Sea V = Q[x]3 = {a0 + a1 x + a2 x2 + a3 x3 | ai ∈ Q} el conjunto de todos los
polinomios con coeficientes en Q y de grado menor o igual que tres. Entonces V es
un espacio vectorial sobre Q con respecto de las operaciones suma de polinomios y
el producto de un escalar por un polinomio:
λ · (a0 + a1 x + a2 x2 + a3 x3 ) = (λa0 ) + (λa1 )x + (λa2 )x2 + (λa3 )x3
3. Si V1 , V2 , . . . , Vn son espacios vectoriales sobre un mismo cuerpo K, entonces el
producto cartesiano V = V1 × V2 × . . . × Vn es de nuevo un espacio vectorial sobre
K respecto de las operaciones
(u1 , u2 , . . . , un ) + (v1 , v2 , . . . , vn ) = (u1 + v1 , u2 + v2 , . . . , un + vn )

λ · (u1 , u2 , . . . , un ) = (λ · u1 , λ · u2 , . . . , λ · un )
El vector cero de V es ~0V = (~0V1 , ~0V2 , . . . , ~0Vn ).
1
2

4. El conjunto V = {(x1 , x2 , x3 ) ∈ R3 | x1 − 4x2 − 5x3 = 0} es un espacio vectorial


sobre R. V también se puede describir como el conjunto
{λ1 · (4, 1, 0) + λ2 · (5, 0, 1) | λ1 , λ2 ∈ R}
5. Más generalmente, el conjunto de las soluciones de un sistema homogéneo de ecua-
ciones lineales sobre un cuerpo K, es un espacio vectorial sobre K.
6. Es inmediato comprobar que todo cuerpo K se puede considerar como un espacio
vectorial sobre sı́ mismo. En este caso, las operaciones sobre vectores coinciden con
las correspondientes operaciones sobre escalares.
7. El conjunto Mm×n (K) es un espacio vectorial sobre K.
Las siguientes propiedades generales se deducen de la definición de espacio vectorial:
Propiedad 3. Sea V un espacio vectorial sobre K. Entonces:
1. ∀u ∈ V, 0 · u = ~0
2. ∀λ ∈ K, λ · ~0 = ~0
3. Dados λ ∈ K, u ∈ V , si λ · u = ~0 entonces λ = 0 ó u = ~0.
4. ∀λ ∈ K, ∀u ∈ V , (−λ)u = −(λu) = λ(−u)
5. ∀λ ∈ K, ∀u, v ∈ V , λ(u − v) = λu − λv
6. ∀λ1 , λ2 ∈ K, ∀u ∈ V , (λ1 − λ2 )u = λ1 u − λ2 u
7. Dados λ, µ ∈ K y u 6= ~0, si λ · u = µ · u entonces λ = µ.
8. Dados λ ∈ K,λ 6= 0, y u, v ∈ V , si λ · u = λ · v entonces u = v.

Definición 4. Dados los vectores u1 , u2 , . . . , un ∈ V , y los escalares λ1 , λ2 , . . . , λn ∈ K, un


vector de la forma
λ1 u 1 + λ 2 u 2 + . . . + λn u n
se denomina una combinación lineal de los vectores u1 , u2 , . . . , un con coeficientes λ1 , λ2 , . . . , λn .

2. Subespacios vectoriales
Dado un espacio vectorial V , decimos que un subconjunto no vacı́o U ⊆ V , es un sub-
espacio vectorial de V cuando al restringir las operaciones de suma y multiplicación por
escalares para V a U , éste es un espacio vectorial. Formalmente, lo que estamos diciendo
es que:
1. Para cualesquiera u, v ∈ U , se verifica que u + v ∈ U
2. Para cualesquiera λ ∈ K, u ∈ U se verifica que λ · u ∈ U
Observar que la segunda condición anterior implica que el vector cero de V está también


en U , ya que si u ∈ U , entonces 0 · u = 0 ∈ U .
Propiedad 5. U es un subespacio vectorial de V si y sólo si ∀u, v ∈ U y ∀λ, µ ∈ K se
verifica que λu + µv ∈ U .
3



Todo espacio vectorial V tiene siempre los subespacios vectoriales V y { 0 }, los cuales
se denominan los subespacios vectoriales triviales de V . Un subespacio de V se dice
propio si no es ninguno de los subespacios triviales.
Ejemplo 6. Comprobamos que el subconjunto U = {(x, y, z) ∈ R3 | 2x − y + 5z = 0} es
un subespacio vectorial de R3 .
En primer lugar observamos que U es no vacı́o ya que (0, 0, 0) ∈ U . Si u = (x1 , y1 , z1 ), v =
(x2 , y2 , z2 ) ∈ U , y λ, µ ∈ R, entonces λu + µv = (λx1 + µx2 , λy1 + µy2 , λz1 + µz2 ), el cual
pertenece de nuevo a U , ya que
2(λx1 + µx2 ) − (λy1 + µy2 ) + 5(λz1 + µz2 ) = λ(2x1 − y1 + 5z1 ) + µ(2x2 − y2 + 5z2 ) = 0 + 0 = 0
Más generalmente, se puede comprobar que todo sistema homogéneo de ecuaciones li-
neales en n incógnitas y con coeficientes en K, determina un subespacio vectorial de K n .
Ejemplo 7. Sea V = R[x]8 el espacio vectorial (sobre R) de los polinomios con coeficientes
en R y en la indeterminada x, y sea U = {p(x) ∈ V | p(−3) = 0}. Comprobamos que U es
un subespacio vectorial de V .
En primer lugar U es no vacı́o ya que el polinomio nulo pertenece a U . Dados p(x), q(x) ∈
U , y λ, µ ∈ R, consideramos el polinomio t(x) = λ · p(x) + µ · q(x). Entonces t(−3) =
λ · p(−3) + µ · q(−3) = λ · 0 + µ · 0 = 0, es decir, t(x) ∈ U , y por tanto U es subespacio
vectorial de V .
Ejemplo 8. Sea V = Mn (K). Entonces:
El subconjunto de todas las matrices triangulares superiores de V , es un subespacio
vectorial de V .
El subconjunto formado por todas las matrices de V que son singulares no es un
subespacio vectorial de V .
El subconjunto de V formado por todas las matrices simétricas es un subespacio
vectorial de V .
Ejemplo 9. K[x]n es un subespacio vectorial de K[x]; además si m ≤ n entonces K[x]m
es un subespacio vectorial de K[x]n .
Propiedad 10. Para un espacio vectorial V , la intersección de una colección de subespa-
cios vectoriales de V es de nuevo un subespacio vectorial de V .
Ejemplo 11.
Sean V = Q3 , U1 = {(x, y, z) ∈ V | 7x − 4z = 0} y U2 = {(x, y, z) ∈ V | x − y + z = 0}.
Entonces U1 ∩ U2 = {(x, y, z) ∈ V | 7x − 4z = 0, x − y + z = 0}.
Definición 12. Sea V un espacio vectorial sobre K y X un subconjunto no vacı́o de
V . Escribiremos hXi para representar el conjunto formado por todas las combinaciones
lineales que se pueden formar utilizando un número finito de vectores en X, es decir:
hXi = {λ1 u1 + · · · + λr ur | r ∈ N, λi ∈ K, ui ∈ X}
Si X = ∅, entonces definimos hXi = {~0}.
4

En algunos textos se escribe L(X) en vez de hXi.


Propiedad 13. hXi es un subespacio vectorial de V , el cual se denomina el subespacio
vectorial generado por el conjunto X. Además hXi es la intersección de todos los
subespacios de V que contienen al subconjunto X.
Definición 14. Un subconjunto X de V se denomina un sistema de generadores para
V si hXi = V , es decir, si cualquier vector de V se puede expresar como combinación lineal
de vectores de X. Se dice que un espacio vectorial V es finitamente generado, si admite
un sistema de generadores finito.
Ejemplos 15.
1. El conjunto X = {(1, 0), (0, 1)} es un sistema de generadores para R2 pues dado
v = (x, y) ∈ R2 se verifica que v = x · (1, 0) + y · (0, 1). Por tanto
R2 = h(1, 0), (0, 1)i
2. El conjunto X = {(1, 0, 1), (0, 1, 1), (1, 1, 1)} es un sistema de generadores para R3 ,
pero X 0 = {(1, 0, 1), (0, 1, 1), (1, 1, 2)} no lo es.

3. Dependencia e independencia lineal


Definición 16. Los vectores u1 , u2 , . . . , un de V se dicen linealmente dependientes si
existen escalares, no todos nulos, tal que
λ1 u1 + λ2 u2 + . . . + λn un = ~0
Definición 17. Los vectores u1 , u2 , . . . , un de V se dicen linealmente independientes
si no son linealmente dependientes, es decir, para cualesquiera escalares λ1 , λ2 , . . . , λn ∈ K,
si λ1 u1 + λ2 u2 + . . . + λn un = ~0 entonces λ1 = λ2 = . . . = λn = 0.
Definición 18. Un subconjunto U de V se dice linealmente dependiente, si existe
un subconjunto finito de U el cual es linealmente dependiente. En caso contrario, se dice
que U es linealmente independiente (es decir, cuando todo subconjunto finito de U sea
linealmente independiente).
Ejemplos 19.
1. Los vectores u = (−4, 2), v = (6, −3) de R2 son linealmente dependientes, ya que
verifican 3u + 2v = ~0.
2. Los vectores u = (1, −1), v = (0, −2) de R2 son linealmente independientes, pues
de ocurrir λu + µv = (0, 0), vemos que la única posibilidad es λ = µ = 0.
3. Sea V = {(x1 , x2 , . . .) | xi ∈ R}, es decir, V es el conjunto de todas las sucesiones
de números reales. Entonces el subconjunto
U = {(1, 0, 0, 0, . . .), (1, 1, 0, 0, . . .), (1, 1, 1, 0, . . .), . . .}
de V es linealmente independiente.
5

Comentario 20.
Dos vectores u, v se dicen proporcionales si existe λ 6= 0 tal que u = λ · v. Para dos
vectores no nulos u, v se verifica que el conjunto {u, v} es linealmente dependiente si y sólo
si u y v son vectores proporcionales.
Las siguientes propiedades son consecuencias fáciles de las definiciones, y su demostración
queda propuesta como ejercicio para el alumno.
Propiedad 21. Para un espacio vectorial V :
1. Los vectores u1 , u2 , . . . , ur son linealmente dependientes si y sólo si alguno de dichos
vectores es combinación lineal de los restantes.
2. Si ~0 ∈ X ⊆ V entonces X es linealmente dependiente. Por tanto el conjunto {u}
es linealmente independiente si y sólo si u 6= ~0.
3. Supongamos que existen subconjuntos de vectores tales que X ⊆ Y ⊆ V :
a) Si X es linealmente dependiente, entonces Y es linealmente dependiente.
b) Si Y es linealmente independiente, entonces X es linealmente independiente.
Comentario 22. Recalcamos la importancia del cuerpo K sobre el cual se define el espacio
vectorial a la hora de hablar de dependencia
√ e independencia
√ lineal de vectores. Por ejemplo,
2
supongamos que V = R y u = (1, 2), v = ( 2, 2). Si K = R entonces los vectores u, v
son linealmente dependientes ya que son proporcionales. Sin embargo, si K = Q entonces
ambos vectores son linealmente independientes.
Definición 23. Un subconjunto B de V se dice que es una base para V cuando:
B es un sistema de generadores para V .
B es un conjunto linealmente independiente.
Ejemplos 24.
1. El conjunto B = {(1, 0, . . . , 0, 0), (0, 1, . . . , 0, 0), . . . , (0, 0, . . . , 1, 0), (0, 0, . . . , 0, 1)}
es una base para V = K n y se denomina la base canónica de K n .
2. Para 1 ≤ i ≤ m, 1 ≤ j ≤ n sea Ai,j la matriz que tiene el valor 1 en la fila i,
columna j, y el valor 0 en cualquier otra posición.
Entonces el conjunto B = {Ai,j | 1 ≤ i ≤ m, 1 ≤ j ≤ n} es una base para el espacio
vectorial Mm×n (K). B es la base canónica para Mm×n (K).
3. El conjunto {1, x, x2 , . . . , xn } es la base canónica para el espacio vectorial K[x]n .
Notamos que al dar una base para un espacio vectorial, no sólo estamos dando un
conjunto sino además una ordenación para los elementos de dicho conjunto.
El estudio de las bases de los espacios vectoriales es interesante por la siguiente propiedad:
Propiedad 25. Sea V un espacio vectorial y B un subconjunto de V . Entonces B es una
base de V si y sólo si todo vector de V se expresa de manera única como una combinación
lineal de vectores de B.
Definición 26. Un espacio vectorial se dice de dimensión finita (o finito-dimensional)
si tiene al menos una base finita.
6

Nosotros estudiaremos espacios vectoriales de dimensión finita.


Propiedad 27. Si V es un espacio vectorial finitamente generado y distinto de {~0}, en-
tonces V tiene al menos una base.
En la sección siguiente veremos un método para obtener una base a partir de un sistema
de generadores.
Teorema 28. Si V es un espacio vectorial de dimensión finita y {v1 , . . . , . . . , vn } es una
base de V , entonces toda base de V es finita y tiene exactamente n elementos.
Por tanto para un espacio vectorial V de dimensión finita definimos la dimensión de
V como el cardinal de cualquiera de sus bases y lo representaremos como dimK (V ). Si
dimK (V ) = n se dice que V es un espacio vectorial de dimensión n (ó n-dimensional) sobre
K. Para el caso particular de V = {~0}, definimos dimK (V ) = 0.
Para el ejemplo 24 anterior, podemos escribir dimK (K n ) = n y dimK (Mm×n (K)) =
m · n.
La siguiente propiedad da un criterio práctico para saber si un conjunto de vectores es
una base.
Propiedad 29. Sea V un espacio vectorial de dimensión n sobre un cuerpo K, y X un
subconjunto de V de cardinal n. Entonces son equivalentes las siguientes afirmaciones:
1. X es una base para V .
2. X es un conjunto linealmente independiente.
3. X es un sistema de generadores para V .
Es decir, conocida la dimensión de V , basta comprobar sólo una de las dos condiciones
que definen a una base.
Como los subespacios vectoriales son espacios vectoriales en sı́, toda la teorı́a expuesta
para espacios vectoriales es válida para los subespacios vectoriales. Ası́, se puede hablar
de sistema de generadores, base, dimensión, etc de un subespacio vectorial. Si U es un
subespacio vectorial de V y BU es una base para U , entonces BU es un subconjunto de V
linealmente independiente por lo que dim(U )K ≤ dimK (V ).
La siguiente propiedad es inmediata:
Propiedad 30. Para un espacio vectorial V sobre un cuerpo K y un subespacio vectorial
U de V , se verifica
U = V ⇐⇒ dimK (U ) = dimK (V )
Además se puede demostrar el siguiente teorema.
Teorema 31. (de la ampliación de la base) Sea U un subespacio vectorial de un espacio
vectorial V . Si BU es una base para U , entonces existen vectores v1 , . . . , vr ∈ V − BU de
modo que BU ∪ {v1 , . . . , vr } es una base para V .
Definición 32. Con la notación del teorema anterior, el subespacio de V generado por el
conjunto {v1 , . . . , vr } se denomina un subespacio suplementario para U .
7

Cerramos esta sección dado la definición siguiente:


Definición 33. Sea B = {v1 , v2 , . . . , vn } una base para V . Si w ∈ V entonces de acuerdo
con la Propiedad 25 existen unos únicos escalares λ1 , λ2 , . . . , λn ∈ K tal que w = λ1 v1 +
λ2 v2 + . . . + λn vn . Diremos que λ1 , λ2 , . . . , λn son las coordenadas del vector w respecto
de la base B y notaremos este hecho escribiendo
B
w = (λ1 , λ2 , . . . , λn )
Ejemplo 34. Sean v1 = (−1, 1) y v2 = (1, 1); entonces B 0 = {v1 , v2 } es una base para R2 .
B0
Si w = (8, −2), entonces w = (−5)v1 + 3v2 . Por tanto escribimos w = (−5, 2).
Ejemplo 35. Las coordenadas de un vector w = (x1 , x2 , . . . , xn ) ∈ K n respecto de la base
B
canónica B son x1 , x2 , . . . , xn por lo cual w = (x1 , x2 , . . . , xn ).

4. Criterios prácticos
Ahora relacionamos las operaciones sobre matrices vistas en el tema anterior con los con-
ceptos sobre espacios vectoriales estudiados en este tema. Obtendremos métodos prácticos
para hacer cálculos sobre espacios y subespacios vectoriales.
Supongamos que tenemos un conjunto X formado por m vectores no nulos de un espacio
vectorial V de dimensión n sobre un cuerpo K y B es una base para V (Obsevar que
m ≤ n). Sea A ∈ Mm×n (K) la matriz cuyas filas se obtienen al escribir las coordenadas
de los vectores de X respecto de la base B.
1. Si A está en forma escalonada por filas (incluso sin exigirle que los pivotes sean
iguales a 1), entonces X es un conjunto linealmente independiente de vectores.
2. Supongamos que le aplicamos operaciones elementales de filas a la matriz A y
obtenemos una matriz A0 . Las filas de A0 representarán las coordenadas respecto
de la base B de los vectores de un cierto conjunto X 0 . Entonces se verifica que
hXi = hX 0 i.
3. rg(A) = dimK (hXi). Por tanto X es linealmente independiente si y sólo si rg(A) =
m.
4. En el caso particular de m = n deducimos que X es una base de V si y sólo si A es
una matriz regular, es decir, si y sólo si |A| =
6 0.

Ejemplo 36. Calcular una base para el subespacio de R4 generado por los vectores
(4, −1, 1, 7), (−1, −1, 11, 2), (1, 0, −2, 1), (4, 0, −8, 4).
Dichos vectores vienen dados en términos de la base canónica, por lo cual la matriz A
es igual a  
4 −1 1 7
 −1 −1 11 2 
 
 1 0 −2 1 
4 0 −8 4
8

Aplicando las operaciones elementales F4 ← F4 − 4F3 , F1 ↔ F3 , F2 ← F2 + F1 , F3 ←


F3 − 4F1 , F3 ← F3 − F2 obtenemos la matriz
 
1 0 −2 1
 0 −1 9 3 
 
 0 0 0 0 
0 0 0 0
de lo cual deducimos que una base para U es {(1, 0, −2, 1), (0, −1, 9, 3)} y que dimK (U ) =
2. De hecho, dos cualesquiera de entre los tres primeros generadores dados inicialmente
también forman una base para U (¿Por qué?).
Ejemplo 37. Sea V = R[x]3 y U = hSi donde S = {1 + x2 − x3 , 1 − 5x2 + 4x3 , 2 − 4x2 +
3x3 , 4 − 2x2 + x3 }. Al igual que en el ejercicio anterior, calculamos la dimensión y una base
para U .
Con respecto de la base canónica B = {1, x, x2 , x3 } de V , la matriz de coordenadas serı́a
 
1 0 1 −1
 1 0 −5 4 
A=  2 0 −4

3 
4 0 −2 1
que es equivalente por filas con la siguiente matriz escalonada (observar que no exigimos
que los pivotes tengan que ser iguales a 1)
 
1 0 1 −1
 0 0 −6 5 
 .
 0 0 0 0 
0 0 0 0

Ésto significa que dimR (U ) = 2 y BU = {1 + x2 − x3 , −6x2 + 5x3 } es una base para U .


Ejemplo 38. Sea V = R[x]3 y U = hSi donde S = {1 + x + x2 − x3 , 1 + x − x2 − x3 }. La
matriz de coordenadas para los vectores de S con respecto de la base canónica es
 
1 1 1 −1
,
1 1 −1 −1
que es equivalente por filas con la matriz escalonada
 
1 1 1 −1
.
0 0 −2 0
¿Pertenece el vector p(x) = 1 + x − 5x2 − x3 a U ? Si añadimos la fila de las coordenadas
de este vector a la matriz anterior obtenemos la matriz
 
1 1 1 −1
 0 0 −2 0 
1 1 −5 −1
9

la cual es equivalente a  
1 1 1 −1
 0 0 −2 0 .
0 0 0 0
Puesto que el número de filas no nulas no ha aumentado al calcular la forma escalonada,
podemos decir que el vector p(x) ∈ U .
Ejemplo 39. Para V = R3 , estudiar cuando el conjunto S = {(3, −1, 2), (a, 1, −1), (a2 , 1, 4)}
es una base para V según los valores de a.
Para ello calculamos el determinante
3 a a2
−1 1 1 = −a2 + 6a + 15
2 −1 4

a2 − 6a − 15 = 0 si y sólo si a = 6±2 96 , siendo ambos√valores de R.
Por tanto S es una base para V si y sólo si a 6= 6±2 96
Ejemplo 40. Para V = R3 , estudiar cuando el conjunto S = {(1, 0, 1), (2, a, −1), (0, 1, a)}
es una base para V según los valores de a.
Igual que antes calculamos el determinante
1 2 0
0 a 1 = a2 + 3
1 −1 a
Ya que dicha ecuación no tiene soluciones en R, que es el cuerpo que estamos considerando,
podemos concluir que S es una base para V , para todo a ∈ R.

5. Ecuaciones del cambio de base


Definición 41. Sean B1 = {u1 , u2 , . . . , un } y B2 = {v1 , v2 , . . . , vn } dos bases para un
espacio vectorial V . Dado un vector cualquiera w ∈ V , éste siempre se puede expresar
como combinación lineal de los vectores de B1 ası́ como combinación lineal de los vectores
de B2 :
B
w =1 (λ1 , λ2 , . . . , λn ),
B
w =2 (µ1 , µ2 , . . . , µn ).
¿Qué relación existe entre los escalares λ1 , λ2 , . . . , λn y los escalares µ1 , µ2 , . . . , µn ? A las
expresiones que representan los valores λi en función de los µj las denominaremos unas
ecuaciones del cambio de base de B2 a B1 . De manera similar, a las expresiones que
representan los valores µj en función de los λi las denominaremos unas ecuaciones del
cambio de base de B1 a B2 . Para concretar ideas, supongamos que n = 2 y que
v1 = a1,1 u1 + a2,1 u2 ,
v2 = a1,2 u1 + a2,2 u2 .
10

Partimos de w = µ1 v1 + µ2 v2 .
Reemplazando los vi por las igualdades anteriores, obtenemos:

w = µ1 (a1,1 u1 + a2,1 u2 ) + µ2 (a1,2 u1 + a2,2 u2 ).


Quitando paréntesis y sacando factor común, se obtiene:

w = (µ1 a1,1 + µ2 a1,2 )u1 + (µ1 a2,1 + µ2 a2,2 )u2 ,


es decir,
B
w =1 (µ1 a1,1 + µ2 a1,2 , µ1 a2,1 + µ2 a2,2 ).
B
Pero tenı́amos además que w =1 (λ1 , λ2 ), luego por la unicidad de las coordenadas de un
vector respecto a una base, finalmente obtenemos que:

λ1 = a1,1 µ1 + a1,2 µ2
.
λ2 = a2,1 µ1 + a2,2 µ2
Éstas son por tanto las ecuaciones del cambio de base de B2 a B1 . Dichas ecuaciones las
podemos escribir matricialmente de la siguiente forma
     
λ1 a1,1 a1,2 µ1
= ·
λ2 a2,1 a2,2 µ2
La matriz cuadrada que aparece en dicha expresión es la matriz del cambio de base de
B2 a B1 . Dicha matriz es regular, y su inversa es la matriz del cambio de base de B1 a B2

Ejemplo 42. Para V = R2 , B1 = {u1 , u2 } y B2 = {v1 , v2 }, tales que u1 = (2, 3), u2 = (1, 2),
v1 = (−3, 2), v2 = (−5, 3), hallar las ecuaciones del cambio de base de B1 a B2 . Sea w ∈ V
B B
tal que w =1 (λ1 , λ2 ) y w =2 (µ1 , µ2 ). Resolviendo los oportunos sistemas de ecuaciones
lineales se puede comprobar que
u1 = 21 · v1 − 13 · v2 , u2 = 13 · v1 − 8 · v2 .
De esta forma tenemos que las ecuaciones del cambio de base de B1 a B2 son:

µ1 = 21λ1 + 13λ2
.
µ2 = −13λ1 + −8λ2
   
21 13 −1 −8 −13
La matriz del cambio de base de B1 a B2 es P = . Ya que P =
−13 −8 13 21
las ecuaciones del cambio de base de B2 a B1 son:

λ1 = −8µ1 + −13µ2
.
λ2 = 13µ1 + 21µ2

Como un recı́proco de las propiedades anteriores, se puede demostrar que toda matriz
regular representa una matriz de cambio de base.
11
 
5 −10
2
Ejemplo 43. Sea B1 = {u1 , u2 } una base para R , y P = , una matriz regular.
7 4
Entonces, si v1 = 5u1 + 7u2 y v2 = −10u1 + 4u2 , el conjunto B2 = {v1 , v2 } es una base
para R2 , y la matriz P es la matriz del cambio de base de B2 a B1 .
6. Ecuaciones paramétricas y ecuaciones implı́citas para un subespacio
Sea un espacio vectorial V de dimensión n sobre K y U un subespacio vectorial de V de
dimensión r. Sean B = {v1 , v2 , . . . , vn } y BU = {u1 , . . . , ur }, respectivamente, bases para
V y U.
 u1 = a11 v1 + a21 v2 + · · · + an1 vn

Suponemos además que .. .. ..


 . . .
ur = a1r v1 + a2r v2 + · · · + anr vn
Entonces un vector w ∈ U se expresa en BU de la forma
w = λ1 u 1 + λ2 u2 + · · · + λr u r
y como vector de V se podrá expresar con respecto a la base B de la forma
w = x1 v1 + x2 v2 + · · · + xn vn
Entonces w = λ1 u1 + λ2 u2 + · · · + λr ur = λ1 (a11 v1 + a21 v2 + · · · + an1 vn ) + λ2 (a12 v1 +
a22 v2 + · · · + an2 vn ) + · · · + λr (a1r v1 + a2r v2 + · · · + anr vn ) = (λ1 a11 + · · · + λr a1r )v1 + · · · +
(λ1 an1 + · · · + λr anr )vn .
Por la unicidad de las coordenadas del vector w respecto de la base B obtenemos
 x1 = a11 λ1 + · · · + a1r λr

(∗) .. .. ..
 . . .
xn = an1 λ1 + · · · + anr λr
Ası́ obtenemos unas ecuaciones paramétricas del subespacio U con respecto de la
base B.
Ejemplo 44. Sea U el subespacio vectorial de R3 generado por los vectores {(6, −9, 2), (−5, 7, 1)}.
Puesto que dicho conjunto de generadores es una base para U , entonces las ecuaciones pa-
ramétricas de U (con respecto de la base canónica de R3 ) son

 x1 = 6λ1 −5λ2
x2 = −9λ1 +7λ2
 x = 2λ +λ2
3 1

Las ecuaciones paramétricas se pueden interpretar como las soluciones de un sistema


homogéneo de ecuaciones lineales con incógnitas x1 , . . . , xn . A cualquier sistema homogéneo
cuyas soluciones vienen dadas por las ecuaciones paramétricas para U , se denomina un
sistema de ecuaciones implı́citas o cartesianas para U con respecto de la base B.
Una forma de obtener uno de dichos sitemas homogéneos es la siguiente:
Sea A la matriz de orden n×r formada por los coeficientes que aparecen en las ecuaciones
paramétricas de U . Puesto que dichas columnas son las coordenadas para los vectores de
12

una base de U con respecto de B, resulta que rg(A) = r, con lo cual sabemos que A
contiene una submatriz cuadrada regular de orden r. Supongamos que una tal submatriz
es
a1,1 . . . a1,r
 

C =  ... ..
.
..
. .
ar,1 . . . ar,r
B
Entonces un vector w ∈ V , tal que w = (x1 , . . . , xn ), pertenecerá además a U si y
sólo si el sistema (∗) tiene solución en las incógnitas λ1 , . . . , λr , lo cual equivale a que
rg(A) = r = rg(A∗ ), donde

a1,1 ... a1,r a1,1 ... a1,r x1


   

A =  ... ..
.
..
.  ∗ .
y A =  .. ..
.
..
.
..  .
.
an,1 . . . an,r an,1 . . . an,r xn

Ésto equivale a decir que todas las submatrices cuadradas de A∗ de orden r + 1 que se
obtienen al orlar o ampliar C con la columna de los elementos xj y cada una de las n − r
filas restantes han de ser singulares, es decir, han de tener determinante nulo:

a1,1 ... a1,r x1 a1,1 ... a1,r x1


.. .. .. .. .. .. .. ..
. . . . = 0, . . . , . . . . = 0.
an,1 . . . an,r xr an,1 . . . an,r xr
ar+1,1 . . . ar+1,r xr+1 an,1 . . . an,r xn
Desarrollando los n − r determinantes se obtienen n − r ecuaciones lineales independien-
tes en las incógnitas x1 , . . . , xn , que son unas ecuaciones cartesianas o implı́citas de
U respecto de la base B

Ejemplo 45. Calcular unas ecuaciones implı́citas para el subespacio U = h(2, 2, −1, 3), (2, 2, 1, 3)i
de R4 .
Los dos generadores dados ya son una base para U , pues no son proporcionales. Unas
ecuaciones paramétricas para U son

x = 2λ + 2µ  
y = 2λ + 2µ

.
z = −λ + µ  
t = 3λ + 3µ 

Como submatriz regular cogemos la formada por la segunda y la tercera fila de A:


 
2 2
C= .
−1 1
13

Entonces, unas ecuaciones implı́citas para U se obtienen ampliando con la primera y cuarta
filas:
2 2 x 2 2 y
2 2 y = 0, −1 1 z = 0,
−1 1 z 3 3 t
es decir, x − y = 0, 3y − 2t = 0.
Deducimos además de la discusión anterior que para un subespacio U de V se verifica
siempre que
dimK (V ) = dimK (U ) + mı́nimo número de ecuaciones implı́tas para U
De esta fórmula deducimos que el subespacio impropio V carece de ecuaciones implı́ci-


tas, mientras que el subespacio impropio { 0 } tiene tantas ecuaciones implı́citas como la
dimensión del espacio V .
Ejemplo 46. x1 = 0, x2 = 0 son una ecuaciones implı́citas para el subespacio cero (es
decir, {~0}) de V = K 2 .
x1 + x2 = 0, x1 − 2x2 = 0 también son otras ecuaciones implı́citas para {~0} ⊆ K 2 .
Más generalmente, si A ∈ M2 (K) es regular, entonces
   
0 x1
=A·
0 x2
son unas ecuaciones implı́citas para {~0}.
Además es inmediato que a partir de unas ecuaciones implı́citas se pueden obtener unas
ecuaciones paramétricas simplemente resolviendo el sistema homogéneo correspondiente.

7. Operaciones con subespacios vectoriales


Si U y W son dos subespacios vectoriales de un mismo espacio vectorial V , ya hemos
mencionado en una sección anterior que U ∩ W es de nuevo un subespacio vectorial de V .
Si disponemos de unas ecuaciones implı́citas para U y otras para W , claramente el sistema
obtenido al juntar ambos sistemas constituye unas ecuaciones implı́citas para el subespacio
U ∩ W . De hecho lo normal es que en dicho sistema ampliado se puedan suprimir algunas
ecuaciones que dependan de otras ecuaciones del sistema.
Ejemplo 47. Calcular una base para el subespacio intersección de los subespacios siguien-
tes de R3 : U = {(x, y, z) | 2x + y − 5z = 0}, W = {(x, y, z) |3x − y + 4z = 0}.
  x = (1/5)λ
2x + y − 5z = 0
Resolviendo el sistema obtenemos y = (23/5)λ ecuaciones
3x − y + 4z = 0  z =
 λ
 x = λ
que son equivalentes a y = 23λ , con lo cual una base para U ∩ W es {(1, 23, 5)}.
z = 5λ

14

Ejemplo 48. Calcular una base para el subespacio intersección de los subespacios siguien-
tes de R4 : U = {(x, y, z, t) | 2x + 5y − z − t = 0}, W = h(1, 2, 3, 4), (−1, 0, 1, −1)i.
Una alternativa es obtener previamente unas ecuaciones implı́citas para W (concreta-
mente dos ecuaciones) y a continuación resolver el sistema de tres ecuaciones resultante al
juntar éstas con las ecuaciones de U .
Otra posibilidad (mejor para este ejemplo) es obtener unas ecuaciones paramétricas para
W y substituirlas en las ecuaciones implı́citas para U , con lo cual obtenemos un sistema
de dos ecuaciones con dos incógnitas λ y µ (que son los parámetros que aparecen en las
ecuaciones paramétricas para W ). La solución de este sistema nos dice qué relación debe
de cumplirse entre λ y µ para que un vector pertenezca a U y a W , es decir, a U ∩ W .
Aplicamos
 este segundo método y obtenemos:

 x = 1λ − µ
y = 2λ

unas ecuaciones paramétricas para W .

 z = 3λ + µ
 t = 4λ − µ
Substituyéndolas en las ecuaciones implı́citas para U resulta:
2(λ − µ) + 5(2λ) − (3λ + µ) − (4λ − µ) = 0 , es decir, 5λ − 2µ = 0. Por tanto el vector
w = (x, y, z, t) de W pertenece a U si y sólo si λ = 52 µ. Substituyendo en las ecuaciones
paramétricas de W y simplificando resulta que w ∈ U ∩ W si y sólo si
−3 4 11 3
w = (x, y, z, t) = ( µ, µ, µ, µ)
5 5 5 5
Por consiguiente, dimK (U ∩ W ) = 1 y una base para U ∩ W es {(−3, 4, 11, 3)}.
La unión de dos subespacios vectoriales no siempre es un subespacio vectorial:
Ejemplo 49. Sean V = R2 , U = h(1, 0)i y W = h(0, 1)i. Entonces U ∪ W no es un
subespacio vectorial de V ya que aunque (1, 0), (0, 1) ∈ U ∪ W , sin embargo (1, 0) + (0, 1) =
(1, 1) 6∈ U ∪ W .
Ver el ejercicio 17.
Otra operación que se puede definir es la suma de subespacios vectoriales:
Para dos subespacios vectoriales U y W de V , se define la suma de U y W , y se representa
por U + W , como el conjunto de todos los vectores que se obtienen sumando un vector de
U con otro de W , es decir,
U + W = {u + w | u ∈ U ∧ w ∈ W }
Es inmediato ver que tanto U como W están incluidos en U + W . Además U + W es un
subespacio vectorial de V , el cual es el subespacio vectorial de V generado por el conjunto
U ∪ W , es decir, U + W = hU ∪ W i. Dicho de otra forma, U + W es el menor subespacio
vectorial de V el cual contiene a los subespacios U y W .
De lo anterior deducimos que U + W estará generado por el conjunto que se obtiene al
juntar un sistema de generadores para U con un sistema de generadores para W .
15

Ejemplo 50. En R3 , si U = h(1, 2, −1), (0, 1, 3)i y W = h(2, 3, −1), (1, 0, 2)i entonces
U + W = h(1, 2, −1), (0, 1, 3), (2, 3, −1), (1, 0, 2)i. Escribiendo dichos vectores como las filas
de una matriz y calculando una forma escalonada obtenemos que U + W está generado
por tres vectores linealmente independientes, con lo cual necesariamente U + W = R3 .
Observar además que U + W carece de ecuaciones implı́citas, al ser todo R3 .


Definición 51. Decimos que el subespacio suma U +W es suma directa, si U ∩W = { 0 },
en cuyo caso se escribe U ⊕ W para representar este hecho.
En el ejemplo anterior, la suma de los subespacios U y W no es directa, ya que como se


puede comprobar facilmente, U ∩ W 6= { 0 }.
Ejemplo 52. La suma de los subespacios U = {(x, y, z) | 2x + 5y + z = 0} y W =
{(x, y, z) | x + y + z = 0} de R3 no es directa, ya U ∩ W tiene dimensión 1 (al resolver el
sistema formado por ambas ecuaciones obtenemos un sistema compatible indeterminado).
Proposición 53. Supongamos que el espacio vectorial V es igual a la suma directa de los


subespacios U y W , es decir, V = U + W y U ∩ W = { 0 }. Entonces todo vector de V se
descompone de manera única como un vector de U mas otro vector de W .
Demostración. Por hipótesis V = U + W , luego sólo hay que demostrar la unicidad. Si


v = u+w y v = u0 +w0 son dos descomposiciones, entonces 0 = (u+w)−(u0 +w0 ), es decir,
u − u0 = w0 − w. Ya que u − u0 ∈ U y w0 − w ∈ W , deducimos que u − u0 = w0 − w ∈ U ∩ W .


Puesto que U ∩ W = { 0 }, necesariamente u = u0 y w = w0 . 
Definición 54. Si U y W son dos subespacios vectoriales de un espacio vectorial V tales
que V = U ⊕ W , se dice que U y W son subespacios vectoriales suplementarios.
Ejemplo 55. Para el espacio vectorial R3 , los subespacios U = h(34, 89, −11)i y W =
h(45, 0, 0), (−1, 2, 0)i son suplementarios debido a que {(34, 89, −11), (45, 0, 0), (−1, 2, 0)}
forma una base para R3 y por tanto R3 = U + W . Por último, si (x, y, z) ∈ U ∩ W ésto
implica
 que δ(34, 89, −11) = (x, y, z) = λ(45, 0, 0) + µ(−1, 2, 0) es decir
 34δ − 45λ + µ = 0
89δ − 2µ = 0
 −11δ = 0
sistema cuya única solución es la trivial. Por tanto U ∩ W = {~0} y R3 = U ⊕ W .
El resultado obtenido en este ejemplo es una caso particular de la siguiente propiedad:
Propiedad 56. Si {v1 , . . . , vr , vr+1 , . . . , vn } es una base para V entonces
V = hv1 , . . . , vr i ⊕ hvr+1 , . . . , vn i
Dado un subespacio U de un espacio vectorial V , ¿cómo encontrar un subespacio suple-
mentario para U ? Simplemente, partiendo de una base para U , la ampliamos hasta una
base para V .
16

Ejemplo 57. Encontrar un subespacio suplementario para el subespacio vectorial U de


R4 generado por los vectores (1, 1, 0, −1), (2, 2, 4, 5), (3, 3, 4, 4).
En primer lugar extraemos una base para U . Escribimos sus generadores como filas de
una matriz y la transformamos en forma escalonada. Deducimos que una base para U es
{(1, 1, 0, 1), (0, 0, 4, 7)}. Ampliamos este conjunto de vectores linealmente independientes
hasta una base para R4 . Un posibilidad es añadirle los vectores (0, 1, 0, 0), (0, 0, 0, 1). Por
tanto una posibilidad para W es h(0, 1, 0, 0), (0, 0, 0, 1)i.
Por último, la siguiente proposición nos da una fórmula que relaciona las dimensiones
de los subespacios estudiados en esta sección. Dicha fórmula se muestra útil a la hora de
resolver ejercicios.
Proposición 58. Si U y W son dos subespacios de un espacio vectorial V de dimensión
finita, se verifica que
dimK (U + W ) = dimK (U ) + dimK (W ) − dimK (U ∩ W )
Un truco para acordarse de esta fórmula es observar su gran parecido con la fórmula
para el cardinal de la unión de dos conjuntos: |A ∪ B| = |A| + |B| − |A ∩ B|.
Ejemplo 59. Sea V un espacio vectorial de dimensión 4, y U, W dos subespacios de V ,
ambos distintos y de dimensión 3. ¿Qué podemos afirmar acerca de la dimensión de U ∩W ?
Puesto que U 6= W y ambos tienen dimensión 3, deducimos que ninguno puede estar
incluido en el otro; por tanto existirá algún vector u ∈ U el cual no está en W . Si BW
es una base para W , entonces el conjunto de cuatro vectores BW ∪ {u} es linealmente
independiente y por tanto es una base para V . Ésto prueba que V = U + W . Aplicando
la fórmula anterior de las dimensiones obtenemos que 4 = 3 + 3 − dimK (U ∩ W ), es decir,
que dimK (U ∩ W ) = 2.

8. Ejercicios Propuestos
1. Demostrar los distintos apartados de la propiedad 3.
2. Sea V el conjunto de todas las funciones f : [0, 1] → R. Definimos la suma de dos
funciones f, g ∈ V , como una nueva función h : [0, 1] → R que obedece a la regla
h(x) = f (x) + g(x), para todo x ∈ [0, 1], y definimos el producto de un escalar
λ ∈ R por una función f en V de la forma usual, es decir λf es la función tal que
(λf )(x) = λ · f (x) para todo x ∈ [0, 1].
a) Comprobar que V es un R-espacio vectorial.¿Quién es el vector cero?
b) Sea U el subconjunto de V formado por aquellas funciones que verifican la
condición de que el conjunto {x ∈ [0, 1] | f (x) 6= 0} es finito. Estudiar si U es
o no es un subespacio vectorial de V .
3. Calcular todos los valores de a para los cuales los vectores
(1, 2, −1, 2), (2, −1, 3, −1), (1, a, −6, a)
de R4 son linealmente independientes.
17

4. a) Dado un espacio vectorial V de dimensión n sobre un cuerpo K, y dos bases


B y B 0 para V , razonar que el conjunto U formado por aquellos vectores de V
los cuales tienen las mismas coordenadas con respecto de la base B que con
respecto de la base B 0 es un subespacio vectorial de V .
b) Con la notación del apartado anterior, si V = R3 , B = {(2, 5, 1), (0, 1, 2), (3, 1, 2)}
y B 0 = {(1, 5, 0), (−1, 0, 1), (1, 0, 0)}, calcular una base para el subespacio vec-
torial U .
5. De los siguientes subconjuntos de R3 , estudiar cuales son subespacios vectoriales:
a) {(x, y, z) | x2 + y − z = 0}.
b) {(x, y, z) | x2 + y 2 + z 2 = 0}.
c) {(x, y, z) | x = 2y = 3z}.
d ) {(x, y, z) | x = y + 1 = z + 2}.
6. Sea E el conjunto de matrices de la forma
 
a b c
 b a+b+c b 
c b a
donde a, b, c ∈ R. Demostrar que E es un subespacio vectorial de M3 (R), de di-
mensión tres.
7. Sea el conjunto U = {p(x) ∈ Q[x]3 | p(1) = p(2) y p(−1) = 0}. Probar que U es
un subespacio vectorial de Q[x]3 y calcular una base para U .
8. Sean B y B 0 dos bases de V y sean u, v, w ∈ V con coordenadas (2, −1, −1), (1, 0, −1)
y (2, −2, 0) en la base B. Si las cordenadas de los mismos vectores respecto de B 0
son (1, 3, 0), (3, 4, −2) y (0, 2, 1) respectivamente, calcular las coordenadas de los
vectores de B 0 respecto de los de B.
9. Sean B = {e1 , e2 , e3 } y B 0 = {e01 = e1 + e2 + e3 , e02 = e1 + 2e2 + e3 , e03 = e1 + e2 + 3e3 }
dos bases de R3 . Calcular las expresiones del cambio de base de B a B 0 y de B 0 a
B
B. Si v = (23, −7, 19) calcular las coordenadas de v en la base B 0 .
10. Sea K un cuerpo finito con q elementos y V un espacio vectorial de dimensión n
sobre K. ¿Cuántos elementos distintos hay en V ?
11. Demostrar que cada uno de los conjuntos siguientes son bases para el espacio vec-
torial K[x]n :
a) B1 = {1, x, x(x − 1), x(x − 1)(x − 2), . . . , x(x − 1)(x − 2) · · · (x − n + 1)}
b) B2 = {1, x − a1 , (x − a1 )(x − a2 ), . . . , (x − a1 )(x − a2 ) · · · (x − an )}, siendo
a1 , . . . , an elementos distintos pertenecientes a K.
c) B3 = {1, x − a, (x − a)2 , . . . , (x − a)n }, con a perteneciente a K.
Dado el polinomio p(x) = a0 + a1 x + a2 x2 + · · · + an xn , calcular las coordenadas de
dicho polinomio respecto de cada una de las bases anteriores.
12. Sean a0 , a1 , . . . , an elementos distintos de un cuerpo K. Para cada i = 0, 1, . . . , n
consideramos el polinomio
(x − a0 ) · · · (x − ai−1 )(x − ai+1 ) · · · (x − an )
pi (x) = .
(ai − a0 ) · · · (ai − ai−1 )(ai − ai+1 ) · · · (ai − an )
18

a) Demostrar que el conjunto de polinomios B = {p0 (x), p1 (x), . . . , pn (x)} es una


base del espacio vectorial K[x]n .
b) Sea p(x) ∈ K[x]n un polinomio tal que p(ai ) = bi para cada i = 0, 1, . . . , n.
Probar que las coordenadas de p(x) respecto de la base B son (b0 , b1 , . . . , bn ).
13. Sabiendo que el conjunto de vectores {(1, 2), (3, 1)} es una base de R2 , ¿cómo po-
demos calcular las coordenadas del vector v = (7, 8) respecto de la base anterior
mediante operaciones elementales de filas sobre una matriz?
14. Sea U el subespacio vectorial V = (Z7 )3 dado por las siguientes ecuaciones implı́ci-
tas respecto de la base canónica de V :

2x + 3y + z = 0
3x + y + 4z = 0
a) Calcular una base para U .
b) Calcular un subespacio suplementario para U .
15. Obtener una base para el subespacio intersección de los subespacios siguientes de
R4 : U = {(x, y, z, t) | 2x − y + z + 2t = 0}, W = h(1, 1, 2, 2), (1, −1, 1, −1)i.
16. Calcular una base para el subespacio intersección de los subespacios siguientes de
R4 : U = h(1, 2, 4, 8), (−1, 1, 1, −1)i, W = h(1, −1, 2, 1), (1, 1, 1, 1)i.
17. Sean U y W dos subespacios vectoriales de un espacio vectorial V . Probar que
U ∪ W es un subespacio de V si y sólo si U ⊆ W o bien W ⊆ U .
18. Estudiar si la unión de los subespacios vectoriales siguientes de R4 U = {(x, y, z, t) |
4x − 7y + z − 9t = 0, 3x + 5y − 4z − 6t = 0} y W = {(x, y, z, t) | x − 12y + 5z − 3t =
0, 2x + 17y − 9z − 3t = 0} es o no un subespacio de R4 .
19. Demostrar que el espacio vectorial Q3 es suma directa de los subespacios vectoriales
U1 = {(x, y, z) | x − y + 4z = 0}, y U2 = {(λ, 2λ, −5λ) | λ ∈ Q}.
20. Calcular unas ecuaciones implı́citas para E1 + E2 y para E1 ∩ E2 siendo
E1 = h(1, 1, 1, 1, 1), (1, −1, 1, −1, 1)i
E2 = h(1, 2, 0, 2, 0), (1, 2, 1, 2, 1), (3, 1, 3, 1, 0)i
21. Dados los subespacios vectoriales U = h(23, 12, −45, 17), (16, −32, 71, 11)i y W =
h(94, −72, 123, 67), (4, −240, 606, −2)i de R4 , ¿són iguales? Proponer al menos dos
métodos distintos para resolver este problema.
22. (En este ejercicio se construye la estructura de espacio vectorial cociente.)
Sea V un K-espacio vectorial y U un subespacio vectorial de V . Entonces (V, +)
es un grupo abeliano y por tanto, tal y como vimos en el Tema 2 sobre Grupos,
(U, +) es un subgrupo normal de (V, +). Por tanto el conjunto cociente V /U es un
grupo abeliano respecto de la suma de clases
[v1 ] + [v2 ] = [v1 + v2 ]
a) Ahora, si λ ∈ K, definimos el producto de un escalar por una clase:
λ · [v] = [λ · v]
19

Comprobar que esta definición es correcta y no depende de los representantes


elegidos.
Como consecuencia, el conjunto cociente V /U es un K-espacio vectorial, y se
denomina el espacio vectorial cociente de V por el subespacio U .
b) ¿Cual es el espacio vectorial cociente que resulta si U = V ? ¿Y si U = {~0}?
c) Supongamos que dimK (V ) = n, U es un subespacio propio de V , dimK (U ) = s
y BU = {u1 , . . . , us } es una base para U (observar que 0 < s < n).
Ampliamos BU hasta una base B = {u1 , . . . , us , us+1 , . . . , un } de V . Obser-
var que [u1 ] = . . . = [us ] = [~0], que es el vector cero de V /U . Sea B =
{[us+1 ], . . . , [un ]}.
Demostrar que B es una base del espacio vectorial cociente V /U , y por tanto
dimK (V /U ) = dimK (V ) − dimK (U ).
d ) Dado el R-espacio vectorial V = R2 y el subespacio U = {(x, y) | x = y}:
1) Determinar una base para V /U , e interpretar geométricamente los resul-
tados obtenidos.
2) Calcular las coordenadas del vector [(4, −5)] de V /U con respecto de la
base obtenida en el apartado anterior.
23. Para el espacio vectorial V = Q[x]3 se considera el subespacio vectorial
U = {p(x) | p(−1) = 0 = p(1)}.
Se pide:
a) ¿Son iguales los elementos [4x3 −7x2 +3x+1] y [5x3 −4x2 +2x−2] del conjunto
cociente V /U ?
b) Calcular una base B para el espacio vectorial cociente V /U .
c) Encontrar las coordenadas del vector [4x3 + 3x2 + 2x + 1] con respecto de la
base B calculada en el apartado anterior.
24. Sea el espacio vectorial V = R[x]5 y el subespacio vectorial U = R[x]3 . Si p(x) =
a0 + a1 x + . . . + a5 x5 y q(x) = b0 + b1 x + . . . + b5 x5 , ¿qué significa que [p(x)] = [q(x)]
en V /U ? ¿Cual es la dimensión y una base para V /U ?
25. Sea {e1 , e2 , e3 , e4 , e5 } una base de R5 y sea W el subespacio vectorial de R5 generado
por {e1 + e2 , e1 − e3 , e1 + e2 + e3 , e1 + 2e3 , e5 , e1 + e4 }. Sea U el subespacio vectorial
de R5 generado por {e1 , e2 , e3 , e2 + e3 , e1 + e2 + e5 + 2e4 }. Calcular bases para
U ∩ W, U + W y R5 /W. Calcular un subespacio W 0 de R5 tal que R5 = W ⊕ W 0 .
20

9. EJERCICIOS APARECIDOS EN EXÁMENES ANTERIORES


1. En Z47 consideramos los subespacios vectoriales de ecuaciones

x + 6z + t = 0
V1 ≡ {x + y + 6z + 6t = 0 V2 ≡
y + 5t = 0

Una base de V1 ∩ V2 es
a) {(1, 1, 5, 4), (3, 3, 1, 5)}
b) {(1, 0, 0, 1), (0, 1, 0, 1), (0, 0, 1, 6)}
c) {(1, 0, 1, 0), (0, 1, 4, 4)}
d ) {(1, 0, 1, 0), (1, 1, 5, 4), (0, 0, 0, 0)}
2. Sea U el subespacio vectorial de R4 generado por {(1, −1, 0, 0), (0, 0, 1, −1)}. Unas
ecuaciones implı́citas para U son:
a) x1 + x2 + x3 + x4 = 0
x1 + x3 = 1
b)
x1 + x2 + x3 + x4 = 0

x1 + x2 = 0
c)
 x3 + x4 = 0
 x1 + x3 = 1
d) x1 + x2 = 0
x1 + x2 + x3 = 0

3. Sean B1 = {u1 , u2 } y B2 = {v1 , v2 } dos bases de R2 tales que v1 = −2u1 − u2 y
v2 = 5u1 + 2u2 . Si w es un vector de R2 cuyas coordenadas respecto de B1 son (a, b),
entonces las coordenadas de w respecto de B2 son
(a) (2a − 5b, a − 2b) (b) (3a, 2a − b) (c) (3a + b, a − 3b) (d) (b, −a)
4. Sean B = {v1 , v2 , v3 } y B 0 = {v10 = v1 , v20 = v1 + v2 , v30 = v1 + v2 + v3 } dos bases de
un espacio vectorial V sobre R. Si las coordenadas de x respecto de la base B 0 son
(1, −1, 1), entonces las coordenadas de x respecto de B son
(a) (1, 0, 1) (b) (1, 0, −1) (c) (1, 2, −1) (d) (0, 0, 1)
5. Consideremos los siguientes subespacios de (Z5 )4 : U1 = h(1, 1, 2, 0), (3, 1, 4, 1)i, y
U2 = h(0, 1, 0, 3), (1, 0, 1, 3)i. Una base de U1 ∩ U2 es
a) {(2, 0, 2, 1)}
b) {(1, 1, 2, 0), (3, 1, 4, 1), (0, 1, 0, 3), (1, 0, 1, 3)}
c) {(1, 1, 2, 0)}
d ) {(2, 0, 2, 1), (1, 0, 1, 3)}
6. Sea U = {(x, y, z) ∈ R3 | x+y +z = 0}. El subespacio vectorial W de R3 verificando
que R3 = U ⊕ W es
a) W = {(x, y, z) ∈ R3 | x − y − z = 0}.
b) W = {0}.
c) W = R3 .
21

d ) W = (x, y, z) ∈ R3 | x−y =0

x−z =0 .
7. Sea V = {A ∈ M2 (Q) | det(A) = 0}. Entonces
a) V es un Q-espacio vectorial de dimensión 4.
b) V es un Q-espacio vectorial de dimensión 0.
c) V es un Q-espacio vectorial de dimensión 3.
d ) V no es un Q-espacio vectorial.
8. Consideremos los subespacios de (Z5 )4 definidos por las ecuaciones
x + y + 2z = 0 y + 3t = 0
 
U1 = y U2 =
3x + y + 4z + t = 0 x + z + 3t = 0
Una base de U1 + U2 es
a) {(1, 0, 4, 0), (1, 0, 0, 3), (0, 1, 0, 0)}
b) {(1, 0, 4, 0), (1, 0, 0, 3), (0, 0, 1, 3)}
c) {(1, 0, 4, 0), (1, 0, 0, 3), (1, 1, 1, 3)}
d ) {(1, 0, 4, 0), (1, 0, 0, 3)}
9. Sean B = {v1 , v2 , v3 } y B 0 = {v10 , v20 , v30 } dos bases de un espacio vectorial V sobre R
tales que v10 = v1 + 2v2 + v3 , v20 = −v2 + v3 y v30 = −v1 + v2 − 5v3 . Si las coordenadas
de x respecto de la base B son (1, −2, 3), entonces las coordenadas de x respecto
de B 0 son:
(a) (3, 10, 2) (b) (−2, 7, −16) (c) (0, 5, −18) (d) (−9, 4, 2)
Capı́tulo 3

Transformaciones lineales

Las transformaciones lineales son las funciones con las que trabajaremos en Álgebra Lineal.
Se trata de funciones entre K-espacios vectoriales que son compatibles con la estructura (es
decir, con la operación y la acción) de estos espacios.

3.1 Definiciones, ejemplos y propiedades básicas


En esta sección introduciremos la noción de transformación lineal, ası́ como también ciertas
nociones básicas asociadas a estas funciones.

3.1.1 Transformaciones lineales


Definición 3.1 Sean (V, +V , ·V ) y (W, +W , ·W ) dos K-espacios vectoriales. Una función
f : V → W se llama una transformación lineal (u homomorfismo, o simplemente morfismo)
de V en W si cumple:

i) f (v +V v 0 ) = f (v) +W f (v 0 ) ∀ v, v 0 ∈ V.

ii) f (λ ·V v) = λ ·W f (v) ∀ λ ∈ K, ∀ v ∈ V.

Observación 3.2 Si f : V → W es una transformación lineal, entonces f (0V ) = 0W .

En efecto, puesto que f (0V ) = f (0V + 0V ) = f (0V ) + f (0V ), entonces


³ ´
0W = f (0V ) + (−f (0V )) = f (0V ) + f (0V ) + (−f (0V )) =
³ ´
= f (0V ) + f (0V ) + (−f (0V )) = f (0V ) + 0W = f (0V ).
66 Transformaciones lineales

Ejemplos.

1. Sean V y W dos K-espacios vectoriales. Entonces 0 : V → W , definida por 0(x) = 0W


∀ x ∈ V , es una transformación lineal.

2. Si V es un K-espacio vectorial, id : V → V definida por id(x) = x es una transformación


lineal.

3. Sea A ∈ K m×n . Entonces fA : K n → K m definida por fA (x) = ([Link] )t es una


transformación lineal.

4. f : K[X] → K[X], f (P ) = P 0 es una transformación lineal.

R1
5. F : C(R) → R, donde C(R) = {f : R → R | f es continua}, F (g) = g(x) dx es una
0
transformación lineal.

Como hemos mencionado al comienzo, las transformaciones lineales respetan la estructura


de K-espacio vectorial. Esto hace que en algunos casos se respete la estructura de subespacio,
por ejemplo en las imágenes y pre-imágenes de subespacios por transformaciones lineales:

Proposición 3.3 Sea f : V → W una transformación lineal. Entonces:

1. Si S es un subespacio de V , entonces f (S) es un subespacio de W .

2. Si T es un subespacio de W , entonces f −1 (W ) es un subespacio de V .

Demostración.

1. Sea S ⊆ V un subespacio y consideremos f (S) = {w ∈ W / ∃ s ∈ S, f (s) = w}.

(a) 0W ∈ f (S), puesto que f (0V ) = 0W y 0V ∈ S.


(b) Sean w, w0 ∈ f (S). Entonces existen s, s0 ∈ S tales que w = f (s) y w0 = f (s0 ).
Luego w + w0 = f (s) + f (s0 ) = f (s + s0 ) ∈ f (S), puesto que s + s0 ∈ S.
(c) Sean λ ∈ K y w ∈ f (S). Existe s ∈ S tal que w = f (s). Entonces λ · w = λ · f (s) =
f (λ · s) ∈ f (S), puesto que λ · s ∈ S.

2. Sea T un subespacio de W y consideremos f −1 (T ) = {v ∈ V / f (v) ∈ T }.

(a) 0V ∈ f −1 (T ), puesto que f (0V ) = 0W ∈ T .


(b) Sean v, v 0 ∈ f −1 (T ). Entonces f (v), f (v 0 ) ∈ T y, por lo tanto, f (v + v 0 ) = f (v) +
f (v 0 ) ∈ T . Luego v + v 0 ∈ f −1 (T ).
(c) Sean λ ∈ K, v ∈ f −1 (T ). Entonces f (v) ∈ T y, en consecuencia, f (λ·v) = λ·f (v) ∈
T . Luego λ · v ∈ f −1 (T ). ¤
3.1 Definiciones, ejemplos y propiedades básicas 67

De la Definición 3.1 se deduce inmediatamente que una transformación lineal preserva


combinaciones lineales. Veremos que, debido a esto, una transformación lineal queda unı́vo-
camente determinada por los valores que toma en los elementos de una base cualquiera de su
dominio. Comenzamos con un ejemplo.

Ejemplo. Hallar, si es posible, una transformación lineal f : R2 → R2 que verifique f (1, 1) =


(0, 1) y f (1, 0) = (2, 3).
Dado (x1 , x2 ) ∈ R2 se tiene que (x1 , x2 ) = x2 (1, 1) + (x1 − x2 )(1, 0). Entonces, si f verifica
lo pedido, debe ser
f (x1 , x2 ) = x2 .f (1, 1) + (x1 − x2 ).f (1, 0) = x2 .(0, 1) + (x1 − x2 ).(2, 3)
= (2x1 − 2x2 , 3x1 − 2x2 ).
Además, es fácil ver que esta función es una transformación lineal y que vale f (1, 1) = (0, 1)
y f (1, 0) = (2, 3).
Luego, f (x1 , x2 ) = (2x1 − 2x2 , 3x1 − 2x2 ) es la única transformación lineal que satisface
lo pedido.

La construcción realizada en el ejemplo puede hacerse en general. Por simplicidad, lo


probaremos para el caso en que el dominio de la transformación lineal es un K-espacio vectorial
de dimensión finita.

Proposición 3.4 Sean V y W dos K-espacios vectoriales, V de dimensión finita. Sea B =


{v1 , . . . , vn } una base de V y sean w1 , . . . , wn ∈ W vectores arbitrarios. Entonces existe una
única transformación lineal f : V → W tal que f (vi ) = wi para cada 1 ≤ i ≤ n.

Demostración.
P
n
Existencia. Dado v ∈ V existen únicos α1 , . . . , αn ∈ K tales que v = αi vi , es decir,
i=1
(α1 , . . . , αn ) = (v)B es el vector de coordenadas de v en la base B. Definimos
n
X
f (v) = αi wi .
i=1

(Observar que no hay ambigüedad en la definición de f por la unicidad de α1 , . . . , αn .)


Veamos que f es una transformación lineal:
P
n P
n
Sean v, v 0 ∈ V . Supongamos que v = αi vi y v 0 = αi0 vi . Entonces
i=1 i=1
n
X n
X n
X
v + v0 = αi vi + αi0 vi = (αi + αi0 )vi ,
i=1 i=1 i=1

y, en consecuencia,
n
X n
X n
X
f (v + v 0 ) = (αi + αi0 )wi = αi wi + αi0 wi = f (v) + f (v 0 ).
i=1 i=1 i=1
68 Transformaciones lineales

De manera análoga se prueba que f (λv) = λf (v) ∀ λ ∈ K, ∀ v ∈ V .


Unicidad. Supongamos que f y g son dos transformaciones lineales de V en W tales que
P
n
f (vi ) = wi y g(vi ) = wi para cada 1 ≤ i ≤ n. Entonces, dado v ∈ V , si v = αi vi , por la
i=1
linealidad de f y g se tiene que
n
X n
X
f (v) = αi f (vi ) = αi g(vi ) = g(v).
i=1 i=1

Luego, f (v) = g(v) para todo v ∈ V , de donde f = g. ¤

Observación 3.5 Con una demostración análoga a la de la proposición anterior se prueba


que, si V y W son dos K-espacios vectoriales (V no necesariamente de dimensión finita),
B = {vi : i ∈ I} una base de V y {wi : i ∈ I} ⊂ W , existe una única transformación lineal
f : V → W tal que f (vi ) = wi ∀ i ∈ I.

Teniendo en cuenta que las transformaciones lineales son funciones entre conjuntos, tiene
sentido estudiar la validez de las propiedades usuales de funciones: inyectividad, suryectividad
y biyectividad. Las transformaciones lineales que verifican alguna de estas propiedades reciben
nombres particulares:

Definición 3.6 Sean V y W dos K-espacios vectoriales, y sea f : V → W una transformación


lineal. Se dice que:

1. f es un monomorfismo si f es inyectiva.
2. f es un epimorfismo si f es suryectiva.
3. f es un isomorfismo si f es biyectiva.

En algunos casos, consideraremos transformaciones lineales de un K-espacio vectorial en


sı́ mismo:

Definición 3.7 Sea V un K-espacio vectorial. Una transformación lineal f : V → V se llama


un endomorfismo de V . Si f es un endomorfismo que es además un isomorfismo, entonces se
dice que es un automorfismo.

3.1.2 Núcleo e imagen de una transformación lineal


A una transformación lineal f : V → W podemos asociarle un subespacio de V , llamado su
núcleo, que de alguna manera mide el tamaño de la pre-imagen por f de un elemento de su
imagen. En particular, conocer este subespacio nos permitirá determinar si f es inyectiva.

Definición 3.8 Sean V y W dos K-espacios vectoriales, y sea f : V → W una transformación


lineal. Se llama núcleo de f al conjunto Nu(f ) = {v ∈ V / f (v) = 0} = f −1 ({0}).
3.1 Definiciones, ejemplos y propiedades básicas 69

Observamos que si f : V → W es una transformación lineal, Nu(f ) es un subespacio de


V , puesto que es la pre-imagen por f del subespacio {0} ⊂ W (ver Proposición 3.3).

Ejemplo. Sea f : R3 → R2 la transformación lineal definida por f (x1 , x2 , x3 ) = (x1 , x2 ).


Entonces

Nu(f ) = {(x1 , x2 , x3 ) ∈ R3 : f (x1 , x2 , x3 ) = 0}


= {(x1 , x2 , x3 ) ∈ R3 : x1 = x2 = 0}
= < (0, 0, 1) > .

La siguiente proposición nos da una manera de determinar si una transformación lineal es


un monomorfismo considerando simplemente su núcleo.

Proposición 3.9 Sea f : V → W una transformación lineal. Entonces

f es monomorfismo ⇐⇒ Nu(f ) = {0}

Demostración.

(⇒) Si f es un monomorfismo, entonces es una función inyectiva. En particular, existe a lo


sumo un elemento v ∈ V tal que f (v) = 0. Puesto que f (0) = 0, debe ser v = 0. Luego,
Nu(f ) = {0}.
(⇐) Sean v, v 0 ∈ V . Supongamos que f (v) = f (v 0 ). Entonces f (v − v 0 ) = f (v) − f (v 0 ) = 0,
con lo que v −v 0 ∈ Nu(f ) y por lo tanto, la hipótesis Nu(f ) = {0} implica que v −v 0 = 0,
es decir, v = v 0 . Luego f es inyectiva. ¤

Otro conjunto importante asociado a una transformación lineal es su imagen. Recordamos


que si f : V → W , su imagen se define como Im(f ) = {w ∈ W / ∃ v ∈ V, f (v) = w}. De la
Proposición 3.3 se desprende que la imagen de una transformación lineal f : V → W resulta
ser un subespacio de W .

Ejemplo. Hallar la imagen de la transformación lineal f : R3 → R3 definida como


f (x1 , x2 , x3 ) = (x1 − x2 , −x1 + x2 , 2x1 − 2x2 + x3 ).

Por definición,

Im(f ) = {y ∈ R3 / ∃ x ∈ R3 , f (x) = y}
= {y ∈ R3 / ∃ (x1 , x2 , x3 ) ∈ R3 , (x1 − x2 , x1 − x2 , 2x1 − 2x2 + x3 ) = y}.

Entonces, un elemento de y pertenece a Im(f ) si y sólo si es de la forma

y = (x1 − x2 , −x1 + x2 , 2x1 − 2x2 + x3 )


= (x1 , −x1 , 2x1 ) + (−x2 , x2 , −2x2 ) + (0, 0, x3 )
= x1 .(1, −1, 2) + x2 .(−1, 1, −2) + x3 .(0, 0, 1).
70 Transformaciones lineales

Luego, Im(f ) = < (1, −1, 2), (−1, 1, −2), (0, 0, 1) > = < (1, −1, 2), (0, 0, 1) >.
Otra manera de calcular la imagen de f , teniendo en cuenta que es una transformación
lineal, es la siguiente:
Consideremos un sistema de generadores de R3 , por ejemplo la base canónica {e1 , e2 , e3 }.
Para cada x ∈ R3 se tiene que x = x1 .e1 + x2 .e2 + x3 .e3 , de donde resulta que

f (x) = x1 .f (e1 ) + x2 .f (e2 ) + x3 .f (e3 ).

Luego,

Im(f ) = {f (x) : x ∈ R3 } = < f (e1 ), f (e2 ), f (e3 ) > =


= < (1, −1, 2), (−1, 1, −2), (0, 0, 1) > = < (1, −1, 2), (0, 0, 1) >.

La proposición siguiente generaliza el segundo de los procedimientos utilizados en el ejem-


plo anterior para el cálculo de la imagen de una transformación lineal.

Proposición 3.10 Sean V y W dos K-espacios vectoriales y sea f : V → W una transfor-


mación lineal. Entonces, si {vi : i ∈ I} es un sistema de generadores de V , {f (vi ) : i ∈ I} es
un sistema de generadores de Im(f ).

Demostración. Por definición, Im(f ) = {w ∈ W / ∃ v ∈ V, f (v) = w} = {f (v) : v ∈ V }.


Si {vi : i ∈ I} es un sistema de generadores de V , para cada v ∈ V , existen i1 , . . . , in ∈ I
Pn
y elementos αij ∈ K tales que v = αij vij . Luego
j=1

n
X
f (v) = αij f (vij ) ∈ < {f (vi ) : i ∈ I} >.
j=1

Esto prueba que Im(f ) ⊆ < {f (vi ) : i ∈ I} >. Es claro que vale la otra inclusión, ya que
f (vi ) ∈ Im(f ) para cada i ∈ I.
Luego, Im(f ) = < {f (vi ) : i ∈ I} >. ¤

Corolario 3.11 Sean V y W dos K-espacios vectoriales y sea f : V → W una transfor-


mación lineal. Si V es de dimensión finita, entonces Im(f ) también lo es y se tiene que
dim(Im(f )) ≤ dim V .

Corolario 3.12 Si f : V → W es un epimorfismo, y {vi : i ∈ I} es un sistema de generadores


de V , entonces {f (vi ) : i ∈ I} es un sistema de generadores de W .

Ejemplo. Sean S y T los subespacios de R3 definidos por S = {x ∈ R3 / x1 − x2 = 0} y


T = {x ∈ R3 / x3 = 0}. Hallar una transformación lineal f : R3 → R3 tal que f (S) = T .
Sabemos que para definir una transformación lineal f : R3 → R3 basta con especificar los
valores que toma sobre los elementos de una base de R3 .
3.1 Definiciones, ejemplos y propiedades básicas 71

Consideramos entonces una base de S, por ejemplo {(1, 1, 0), (0, 0, 1)}, y la extendemos
a una base de R3 , por ejemplo {(1, 1, 0), (0, 0, 1), (1, 0, 0)}. Teniendo en cuenta que T =
< (1, 0, 0), (0, 1, 0) >, definimos:

f (1, 1, 0) = (1, 0, 0), f (0, 0, 1) = (0, 1, 0), f (1, 0, 0) = (0, 0, 1).

Entonces f (S) = < f (1, 1, 0), f (0, 0, 1) > = < (1, 0, 0), (0, 1, 0) > = T .

Observemos que si f : V → W es un epimorfismo y {vi : i ∈ I} es una base de V ,


entonces {f (vi ) : i ∈ I} no es necesariamente una base de Im(f ): Por el corolario anterior, es
un sistema de generadores, pero podrı́a no ser un conjunto linealmente independiente, como
puede verse en el ejemplo presentado en la página 69.
Esto es consecuencia de que una transformación lineal arbitraria no preserva independencia
lineal. En la proposición siguiente veremos que esto sı́ es válido para el caso de monomorfismos.
Sin embargo, si f : V → W no es un monomorfismo, existe v ∈ V , v 6= 0, tal que f (v) = 0,
con lo cual {v} ⊂ V es un conjunto linealmente independiente, pero {f (v)} = {0} ⊂ W no lo
es.

Proposición 3.13 Sean V y W dos K-espacios vectoriales y sea f : V → W un monomor-


fismo. Entonces, si {vi : i ∈ I} ⊂ V es un conjunto linealmente independiente, {f (vi ) : i ∈
I} ⊂ W es un conjunto linealmente independiente.

Demostración. Supongamos que una combinación lineal de {f (v ) : i ´


³iP ∈ I} satisface
P
αi f (vi ) = 0. Como f es una transformación lineal, entonces f αi vi = 0, y como
i∈I P i∈I
es un monomorfismo, debe ser αi vi = 0. La independencia lineal de {vi : i ∈ I} implica
i∈I
que αi = 0 ∀ i ∈ I. ¤

Corolario 3.14 Si f : V → W es un monomorfismo y B = {vi : i ∈ I} es una base de V ,


entonces {f (vi ) : i ∈ I} es una base de Im(f ). En particular, si V es un K-espacio vectorial
de dimensión finita, dim(Im(f )) = dim V .

Teniendo en cuenta que un isomorfismo es una transformación lineal que es a la vez un


epimorfismo y un monomorfismo, de los Corolarios 3.12 y 3.14 se deduce:

Corolario 3.15 Sean V y W dos K-espacios vectoriales y sea f : V → W un isomorfismo.


Entonces para toda base B de V , f (B) es una base de W . En particular, si V es de dimensión
finita, W también lo es y dim V = dim W .

3.1.3 Composición de transformaciones lineales


La composición de funciones usual puede realizarse, en particular, entre dos transformaciones
lineales. El resultado es, en este caso, una nueva transformación lineal.
72 Transformaciones lineales

Proposición 3.16 Sean V, W y Z K-espacios vectoriales. Sean f : V → W y g : W → Z


transformaciones lineales. Entonces g ◦ f : V → Z es una transformación lineal.

Demostración. Sean v, v 0 ∈ V . Entonces


¡ ¢ ¡ ¢
g ◦ f (v + v 0 ) = g f (v + v 0 ) = g f (v) + f (v 0 ) = g(f (v)) + g(f (v 0 )) = g ◦ f (v) + g ◦ f (v 0 ).

Análogamente, si λ ∈ K y v ∈ V , se tiene que

g ◦ f (λ · v) = g(f (λ · v)) = g(λ · f (v)) = λ · g(f (v)) = λ · (g ◦ f (v)). ¤

Finalmente, analizamos las propiedades de la función inversa de una transformación lineal


biyectiva (es decir, un isomorfismo).

Proposición 3.17 Sean V y W dos K-espacios vectoriales y sea f : V → W una transfor-


mación lineal. Si f es un isomorfismo, entonces f −1 : W → V es una transformación lineal
(que resulta ser un isomorfismo).

Demostración. Sean w, w0 ∈ W . Como f es un isomorfismo, existen únicos v, v 0 ∈ V tales


que w = f (v) y w0 = f (v 0 ). Entonces

f −1 (w + w0 ) = f −1 (f (v) + f (v 0 )) = f −1 (f (v + v 0 )) = v + v 0 = f −1 (w) + f −1 (w0 ).

Dados w ∈ W y λ ∈ K, existe un único v ∈ V tal que w = f (v). Entonces

f −1 (λ · w) = f −1 (λ · f (v)) = f −1 (f (λ · v)) = λ · v = λ · (f −1 (w)).

Luego, f −1 es una transformación lineal. Es claro que es biyectiva. ¤

3.2 Espacios vectoriales de dimensión finita


Al estudiar espacios vectoriales de dimensión finita en los capı́tulos anteriores, dijimos que
podrı́amos trabajar en un K-espacio vectorial arbitrario de dimensión n “como si fuese” K n
simplemente considerando vectores de coordenadas. La noción de isomorfismo nos permite
formalizar esta idea.

Proposición 3.18 Sea V un K-espacio vectorial de dimensión n. Entonces existe un iso-


morfismo f : V → K n .

Demostración. Sea B = {v1 , . . . , vn } una base de V .


P
n
Dado x ∈ V , existe únicos x1 , . . . , xn ∈ K tales que x = xi vi . Definimos
i=1

f : V → K n, f (x) = (x1 , . . . , xn ).
3.3 Teorema de la dimensión 73

Veamos que f es una transformación lineal:


P
n P
n P
n
Sean x, y ∈ V . Si x = xi vi e y = yi vi , entonces x + y = (xi + yi )vi . Luego
i=1 i=1 i=1

f (x + y) = (x1 + y1 , . . . , xn + yn ) = (x1 , . . . , xn ) + (y1 , . . . , yn ) = f (x) + f (y).


En forma análoga se prueba que f (λ.x) = λ.f (x) para cada λ ∈ K y cada x ∈ V .
Es claro que si f (x) = 0, entonces x = 0, de donde f es un monomorfismo.
P
n
Finalmente, dado (x1 , . . . , xn ) ∈ K n , consideramos x = xi vi ∈ V . Se tiene que f (x) =
i=1
(x1 , . . . , xn ). Luego, f es un epimorfismo.
En consecuencia, f es un isomorfismo. ¤

Ejemplo. Sea K3 [X] = {P ∈ K[X] / P = 0 o gr(P ) ≤ 3}, que es K-espacio vectorial de


dimensión 4.
Un isomorfismo f : K3 [X] → K 4 puede definirse como sigue:
P 3
Si P = ai X i , entonces f (P ) = (a0 , a1 , a2 , a3 ), lo que corresponde a considerar en la
i=0
demostración anterior la base B = {1, X, X 2 , X 3 } de K3 [X].

Observar que, teniendo en cuenta que la aplicación f definida en la demostración de la


Proposición 3.18 es tomar coordenadas en la base B, esto nos permite trabajar con coorde-
nadas en una base en el siguiente sentido:

i) {w1 , . . . , ws } es linealmente independiente en V ⇐⇒ {f (w1 ), . . . , f (ws )} es linealmente


independiente en K n .
ii) {w1 , . . . , wr } es un sistema de generadores de V ⇐⇒ {f (w1 ), . . . , f (wr )} es un sistema
de generadores de K n .
iii) {w1 , . . . , wn } es una base de V ⇐⇒ {f (w1 ), . . . , f (wn )} es una base de K n .

Por ejemplo, para decidir si {X 2 − X + 1, X 2 − 3.X + 5, 2.X 2 + 2.X − 3} es una base de


R2 [X], bastará ver si {(1, −1, 1), (1, −3, 5), (2, 2, −3)} es una base de R3 para lo que se puede
usar el método de triangulación.

3.3 Teorema de la dimensión


El siguiente resultado relaciona las dimensiones del núcleo y de la imagen de una transfor-
mación lineal con la de su dominio.

Teorema 3.19 (Teorema de la dimensión para transformaciones lineales) Sean V y


W dos K-espacios vectoriales, V de dimensión finita, y sea f : V → W una transformación
lineal. Entonces
dim V = dim(Nu(f )) + dim(Im(f )).
74 Transformaciones lineales

Demostración. Sean n = dim V y r = dim(Nu(f )).


Si r = n, entonces f ≡ 0 y dim(Im(f )) = 0. Por lo tanto, el teorema vale.
Si r = 0, entonces f es un monomorfismo. En este caso, si B es una base de V , entonces
f (B) es una base de Im(f ). Luego dim(Im(f )) = dim V (ver Corolario 3.14), y el teorema
vale.
Supongamos ahora que 0 < r < n. Sea {v1 , . . . , vr } una base de Nu(f ). Sean vr+1 , . . . , vn
en V tales que {v1 , . . . , vr , vr+1 , . . . , vn } es una base de V .
Veamos que entonces {f (vr+1 ), . . . , f (vn )} es una base de Im(f ), de donde se deduce
inmediatamente el teorema:

• Puesto que {v1 , . . . , vr , vr+1 , . . . , vn } es una base de V , se tiene que

Im(f ) = < f (v1 ), . . . , f (vr ), f (vr+1 ), . . . , f (vn ) > = < f (vr+1 ), . . . , f (vn ) >,

pues f (vi ) = 0 para 1 ≤ i ≤ r.


P
n ³ P
n ´
• Sean αr+1 , . . . , αn ∈ K tales que αi f (vi ) = 0. Entonces f αi vi = 0, es
i=r+1 i=r+1
P
n
decir, αi vi ∈ Nu(f ). Como {v1 , . . . , vr } es una base de Nu(f ), existen α1 , . . . , αr ∈
i=r+1
K tales que
n
X r
X r
X n
X
αi vi = αi vi ⇐⇒ (−αi )vi + αi vi = 0
i=r+1 i=1 i=1 i=r+1

Como {v1 , . . . , vn } es un conjunto linealmente independiente, αi = 0 para cada 1 ≤


i ≤ n. En particular, αi = 0 para i = r + 1, . . . , n. Luego, {f (vr+1 ), . . . , f (vn )} es un
conjunto linealmente independiente. ¤

Como consecuencia de este resultado se prueba que si una transformación lineal entre
dos espacios vectoriales de dimensión n es inyectiva (resp. suryectiva), entonces también es
suryectiva (resp. inyectiva):

Corolario 3.20 Sean V y W dos K-espacios vectoriales de dimensión n y sea f : V → W


una transformación lineal. Son equivalentes:

1. f es un isomorfismo.
2. f es un monomorfismo.
3. f es un epimorfismo.

Demostración.

(1. ⇒ 2.) Por definición.


3.4 Proyectores 75

(2. ⇒ 3.) Por el teorema de la dimensión, n = dim V = dim(Nu(f )) + dim(Im(f )), y como f
es un monomorfismo, dim(Nu(f )) = 0. Entonces dim(Im(f )) = n = dim W , de donde
Im(f ) = W .
(3. ⇒ 1.) Por el teorema de la dimensión, y teniendo en cuenta que f es un epimorfismo, se
tiene que n = dim V = dim(Nu(f )) + dim(Im(f )) = dim(Nu(f )) + n. Esto implica que
dim(Nu(f )) = 0, con lo cual, Nu(f ) = {0} y f es un monomorfismo. Siendo epimorfismo
y monomorfismo, resulta que f es un isomorfismo. ¤

A diferencia de lo que sucede para muchos de los resultados que hemos demostrado, en
el corolario anterior la hipótesis de que los espacios vectoriales sean de dimensión finita es
esencial. El resultado no vale para transformaciones lineales definidas en espacios de dimensión
infinita:

Ejemplo. Sea V = K[X].

1. Sea f : K[X] → K[X], f (P ) = P 0 , que es una transformación lineal.


P n P ai i ´
³ n+1
• f es epimorfismo: Sea Q = ai X i . Entonces f i X = Q.
i=0 i=1
• f no es monomorfismo: f (1) = 0, pero 1 6= 0.
2. Sea g : K[X] → K[X], g(P ) = X.P .
• g es monomorfismo: Si f (P ) = X.P = 0, entonces P = 0.
• g no es epimorfismo: 1 ∈
/ Im(f ).

3.4 Proyectores
Definición 3.21 Sea V un K-espacio vectorial. Una transformación lineal f : V → V se
llama un proyector si f ◦ f = f .

Proposición 3.22 Sea V un K-espacio vectorial, y sea f : V → V una transformación


lineal. Entonces f es un proyector si y sólo si f (x) = x para cada x ∈ Im(f ).

Demostración.

(⇒) Supongamos que f es un proyector. Sea x ∈ Im(f ). Entonces existe v ∈ V tal que
x = f (v). Luego, f (x) = f (f (v)) = f ◦ f (v) = f (v) = x.
(⇐) Sea v ∈ V . Entonces f (v) ∈ Im(f ) y, por hipótesis, f (f (v)) = f (v), es decir, f ◦ f (v) =
f (v). Como esto vale para cada v ∈ V , resulta que f ◦ f = f . ¤

Proposición 3.23 Sea V un K-espacio vectorial y sea f : V → V un proyector. Entonces


Nu(f ) ⊕ Im(f ) = V .
76 Transformaciones lineales

Demostración. En primer lugar, veamos que Nu(f ) ∩ Im(f ) = {0}: Sea x ∈ Nu(f ) ∩ Im(f ).
Como x ∈ Im(f ), por la proposición anterior, f (x) = x. Pero x ∈ Nu(f ), de donde f (x) = 0.
Luego, x = 0.
Veamos ahora que Nu(f ) + Im(f ) = V : Sea x ∈ V . Entonces x = (x − f (x)) + f (x) y se
tiene que f (x − f (x)) = f (x) − f ◦ f (x) = f (x) − f (x) = 0, con lo que x − f (x) ∈ Nu(f ) y
f (x) ∈ Im(f ). ¤

Proposición 3.24 Sea V un K-espacio vectorial, y sean S y T subespacios de V tales que


S ⊕ T = V . Entonces existe un único proyector f : V → V tal que Nu(f ) = S, Im(f ) = T .

Demostración. Como V = S ⊕ T , para cada x ∈ V , existen únicos s ∈ S y t ∈ T tales que


x = s + t. Entonces, si f : V → V es un proyector tal que Nu(f ) = S, Im(f ) = T , se tiene
que f (x) = f (s + t) = f (s) + f (t) = 0 + t = t, donde la penúltima igualdad es consecuencia
de que f es un proyector y t ∈ Im(f ) (ver Proposición 3.22).
Consideremos entonces la función f : V → V definida por

f (x) = t si x = s + t con s ∈ S, t ∈ T.

Observamos que f es una transformación lineal:

• Si x, x0 ∈ V tales que x = s + t, x0 = s0 + t0 , con s, s0 ∈ S y t, t0 ∈ T , entonces


x + x0 = (s + s0 ) + (t + t0 ) con s + s0 ∈ S y t + t0 ∈ T (puesto que S y T son subespacios
de V ) y, por lo tanto, f (x + x0 ) = t + t0 = f (x) + f (x0 ).
• Si λ ∈ K y x ∈ V , x = s + t con s ∈ S, t ∈ T , entonces λ.x = (λ.s) + (λ.t) con λ.s ∈ S,
λ.t ∈ T . Luego f (λ.x) = λ.t = λ.f (x).

Además, f es un proyector: Si x ∈ V y x = s + t con s ∈ S, t ∈ T , entonces f ◦ f (x) =


f (f (s + t)) = f (t) = f (0 + t) = f (x).
Es claro que Im(f ) = T . Veamos que Nu(f ) = S: Si x ∈ Nu(f ) y x = s + t con s ∈ S,
t ∈ T , entonces 0 = f (x) = t, con lo cual, x = s ∈ S. Por otro lado, si s ∈ S, entonces
s = s + 0 con s ∈ S, 0 ∈ T y, por lo tanto, f (s) = 0.
Luego, la función f que hemos definido es el único proyector f : V → V con Nu(f ) = S,
Im(f ) = T . ¤

3.5 Representación matricial


Uno de los primeros ejemplos de transformaciones lineales que hemos visto son aquéllas de
la forma f : K n → K m , f (x) = A.x con A ∈ K m×n (cuando quede claro por el contexto,
suprimiremos el signo de t , escribiendo A.x en lugar de ([Link] )t ).
En esta sección veremos que toda transformación lineal entre espacios vectoriales de di-
mensión finita puede representarse de esta manera. Para esto, utilizaremos de manera funda-
mental el hecho de que fijada una base de un K-espacio vectorial V de dimensión finita n, se
tiene un isomorfismo entre V y K n tomando coordenadas en dicha base.
3.5 Representación matricial 77

En esta sección todos los espacios vectoriales considerados serán de dimensión finita.

3.5.1 Matriz de una transformación lineal


Si V y W son K-espacios vectoriales de dimensión n y m respectivamente, una transformación
lineal f : V → W queda unı́vocamente determinada por los n vectores de W que son los valores
de f en una base cualquiera de V . Además, fijada una base de W , estos n vectores quedan
determinados por medio de sus vectores de coordenadas en K m . Se define entonces una matriz
asociada a f que contiene toda esta información.

Definición 3.25 Sean V y W dos K-espacios vectoriales de dimensión finita. Sean B1 =


{v1 , . . . , vn } una base de V y B2 = {w1 , . . . , wm } una base de W . Sea f : V → W una
Pm
transformación lineal. Supongamos que f (vj ) = αij wi (1 ≤ j ≤ n). Se llama matriz de f
i=1
en las bases B1 , B2 , y se nota |f |B1 B2 , a la matriz en K m×n definida por (|f |B1 B2 )ij = αij
para cada 1 ≤ i ≤ m, 1 ≤ j ≤ n.

Notación. Si f : V → V y B1 = B2 = B, notaremos |f |B = |f |BB .

Ejemplo. Sea f : R3 → R2 , f (x1 , x2 , x3 ) = (x1 + 2x2 − x3 , x1 + 3x2 ), y sean B1 y B2 las


bases canónicas de R3 y R2 respectivamente. Se tiene que

f (1, 0, 0) = (1, 1), f (0, 1, 0) = (2, 3), f (0, 0, 1) = (−1, 0).


µ ¶
1 2 −1
Entonces |f |B1 B2 = .
1 3 0

Observación 3.26 Si consideramos la transformación lineal asociada a una matriz A ∈


K n×m , fA : K m → K n definida por fA (x) = A.x, entonces, a partir de la definición an-
terior, la matriz de fA en las bases canónicas E y E 0 de K m y K n respectivamente resulta
ser |fA |EE 0 = A.

Observación 3.27 Sea V un K-espacio vectorial de dimensión n, y sean B1 y B2 bases de


V . Entonces |idV |B1 B2 = C(B1 , B2 ), la matriz de cambio de base de B1 a B2 (ver Definición
2.16).

Mediante el uso de las matrices introducidas en la Definición 3.25 y de vectores de coorde-


nadas, toda transformación lineal puede representarse como la multiplicación por una matriz
fija.

Proposición 3.28 Sean V y W dos K-espacios vectoriales de dimensión finita, y sea


f : V → W una transformación lineal. Si B1 y B2 son bases de V y W respectivamente,
entonces para cada x ∈ V ,
|f |B1 B2 . (x)B1 = (f (x))B2 .
78 Transformaciones lineales

Demostración. Supongamos que B1 = {v1 , . . . , vn }.


P
n
Sea x ∈ V y sea (x)B1 = (x1 , . . . , xn ), es decir, x = x i vi .
i=1
Para cada 1 ≤ i ≤ n, sea Ci la i-ésima columna de |f |B1 B2 . Por definición, Ci = (f (vi ))B2 .
Entonces
|f |B1 B2 . (x)B1 = x1 .C1 + · · · + xn .Cn =
= x1 .(f (v1 ))B2 + · · · + xn .(f (vn ))B2 =
³X n ´
= xi f (vi ) = (f (x))B2 . ¤
B2
i=1

3.5.2 Matriz de la composición y cambios de bases


La composición de dos transformaciones lineales “se traduce” como la multiplicación de sus
matrices.

Proposición 3.29 Sean V , W y U tres K-espacios vectoriales de dimensión finita. Sean B1 ,


B2 y B3 bases de V , W y U respectivamente. Sean f : V → W y g : W → U transformaciones
lineales. Entonces
|g ◦ f |B1 B3 = |g|B2 B3 .|f |B1 B2 .

Demostración. Sean n = dim V , m = dim W y r = dim U . Entonces |g|B2 B3 ∈ K r×m y


|f |B1 B2 ∈ K m×n , con lo que |g|B2 B3 .|f |B1 B2 ∈ K r×n . Además |g ◦ f |B1 B3 ∈ K r×n .
Para cada x ∈ V se tiene que
|g|B2 B3 .|f |B1 B2 .(x)B1 = |g|B2 B3 .(f (x))B2 = g(f (x))B3 = (g ◦ f (x))B3 = |g ◦ f |B1 B3 .(x)B1
Luego, |g|B2 B3 .|f |B1 B2 = |g ◦ f |B1 B3 (ver Proposición 2.18). ¤

Corolario 3.30 Sean V y W dos K-espacios vectoriales de dimensión finita, y sean B1 y


B2 bases de V y W respectivamente. Sea f : V → W un isomorfismo. Entonces |f −1 |B2 B1 =
(|f |B1 B2 )−1 .

Demostración. Se deduce inmediatamente aplicando la proposición anterior a f −1 ◦ f = idV


y f ◦ f −1 = idW . ¤

Concluimos esta sección estudiando cómo se puede obtener a partir de la matriz de una
transformación lineal f : V → W en un par de bases B1 y B2 de V y W respectivamente, la
matriz de la misma transformación lineal en cualquier otro par de bases B10 y B20 de dichos
espacios.

Proposición 3.31 Sean V y W dos K-espacios vectoriales de dimensión finita. Sean B1 , B10
bases de V y B2 , B20 bases de W . Entonces
|f |B10 B20 = C(B2 , B20 ).|f |B1 B2 .C(B10 , B1 ).
3.6 Rango de una matriz 79

Demostración. Se tiene que f = idW ◦ f ◦ idV . Aplicando dos veces el resultado dado en la
Proposición 3.29 y el hecho que la matriz de la transformación lineal identidad en un par de
bases coincide con la matriz de cambio de base entre las mismas, se obtiene

|f |B10 B20 = |idW ◦ f ◦ idV |B10 B20 = |idW ◦ f |B1 B20 |idV |B10 B1 =
= |idW |B2 B20 .|f |B1 B2 .|idV |B10 B1 = C(B2 , B20 ).|f |B1 B2 .C(B10 , B1 ),

que es lo que se querı́a probar. ¤

3.6 Rango de una matriz


Utilizando la relación entre matrices y transformaciones lineales introduciremos un nuevo
invariante asociado a una matriz: su rango.

3.6.1 Rango columna y rango fila


Sean V y W dos K-espacios vectoriales tales que dim V = m y dim W = n, y sean B1 y B2
bases de V y W respectivamente. Sea f : V → W una transformación lineal. Consideremos
la matriz de f en las bases B1 y B2 dada por sus columnas:

|f |B1 B2 = (C1 | . . . | Cm ) ∈ K n×m .

Si B1 = {v1 , . . . , vm }, entonces Im(f ) = < f (v1 ), . . . , f (vm ) >. Tomando coordenadas en la


base B2 se obtiene un subespacio T ⊆ K n dado por T = < (f (v1 ))B2 , . . . , (f (vm ))B2 > =
< C1 , . . . , Cm >. Como tomar coordenadas en una base es un isomorfismo, se tiene que

dim(Im(f )) = dim < C1 , . . . , Cm >.

Esto motiva la siguiente definición:

Definición 3.32 Sea A ∈ K n×m . Se llama rango columna de A, y se nota rgC (A), a la di-
mensión del subespacio de K n generado por las columnas de A, es decir, si A = (C1 | · · · | Cm ),
entonces rgC (A) = dim < C1 , . . . , Cm >.

Mediante el cálculo del rango columna de una matriz A es posible obtener la dimensión
del subespacio de soluciones del sistema lineal homogéneo asociado a A:

Observación 3.33 Sea A ∈ K n×m y sea S = {x ∈ K m / A.x = 0}. Entonces dim S =


m − rgC (A).

En efecto, consideramos la transformación lineal asociada a A, fA : K m → K n definida


por fA (x) = A.x. Entonces A = |fA |EE 0 (donde E y E 0 son las bases canónicas de K m y K n
respectivamente) y S = Nu(fA ). Entonces

dim S = dim(Nu(fA )) = m − dim(Im(fA )) = m − rgC (A).


80 Transformaciones lineales

 
1 −2 3
Ejemplo. Sea A ∈ R3×3 , A =  −1 2 1 , y sea S = {x ∈ R3 / A.x = 0}. Entonces
1 −2 4

dim S = 3 − rgC (A) = 3 − dim < (1, −1, 1), (−2, 2, −2), (3, 1, 4) > = 3 − 2 = 1.

Teniendo en cuenta el subespacio generado por las filas de una matriz en lugar del generado
por sus columnas puede darse la siguiente definición de rango fila análoga a la de rango
columna.

Definición 3.34 Sea A ∈ K n×m . Se define el rango fila de A, y se nota rgF (A),como
la
F1
 
dimensión del subespacio de K m generado por las filas de A. Es decir, si A =  ... ,
Fn
entonces rgF (A) = dim < F1 , . . . , Fn >.

Observación 3.35 Sea A ∈ K n×m . Entonces rgF (A) = rgC (At ).

Nuestro siguiente objetivo es mostrar que el rango fila y el rango columna de una matriz
coinciden. Para hacer esto nos basaremos en la observación anterior. Primero mostraremos
que el rango columna de una matriz A no cambia si se la multiplica a izquierda o derecha por
matrices inversibles.

Lema 3.36 Sea A ∈ K n×m . Sean C ∈ GL(n, K) y D ∈ GL(m, K). Entonces

rgC (A) = rgC (C.A.D).

Demostración. Sea fA : K m → K n la transformación lineal inducida por la multiplicación a


izquierda por A. Si E y E 0 son las bases canónicas de K m y K n respectivamente, se tiene
que |fA |EE 0 = A y por lo tanto, rgC (A) = dim(Im(fA )).
Por la Proposición 2.22, puesto que D ∈ GL(m, K), existe una base B1 de K m tal que
D = C(B1 , E), y como C ∈ GL(n, K), existe una base B2 de K n tal que C = C(E 0 , B2 ).
Entonces
C.A.D = C(E 0 , B2 ).|fA |EE 0 .C(B1 , E) = |fA |B1 B2 ,
de donde rgC (C.A.D) = dim(Im(fA )) = rgC (A). ¤

Ahora veremos que multiplicando a A por matrices inversibles convenientes se puede


obtener una matriz tal que su rango y el de su transpuesta son fáciles de comparar.

Lema 3.37 Sea A ∈ K n×m − {0}. Entonces existen k ∈ N, 1 ≤ k ≤ min{n, m}, y matrices
C ∈ GL(n, K) y D ∈ GL(m, K) tales que
(
0 si i 6= j
(C.A.D)ij = 1 si i = j ≤ k
0 si i = j > k
3.6 Rango de una matriz 81

Demostración. Consideremos la transformación lineal fA : K m → K n inducida por la multi-


plicación a izquierda por A. Sea {v1 , . . . , vs } una base de Nu(fA ) y sean w1 , . . . , wm−s ∈ K m
tales que
B1 = {w1 , . . . , wm−s , v1 , . . . , vs }
es una base de K m (si Nu(fA ) = {0}, s = 0 y se toma una base B1 cualquiera de K m ).
Entonces {fA (w1 ), . . . , fA (wm−s )} es una base de Im(fA ) y puede extenderse a una base
de K n . Sean z1 , . . . , zn−m+s ∈ K n tales que

B2 = {fA (w1 ), . . . , fA (wm−s ), z1 , . . . , zn−m+s }

es una base de K n .
Se tiene que (
0 si i 6= j
(|fA |B1 B2 )ij = 1 si i = j ≤ m − s
0 si i = j > m − s
Observamos que
|fA |B1 B2 = C(E 0 , B2 ).|fA |EE 0 .C(B1 , E) = C.A.D,
donde C = C(E 0 , B2 ) ∈ GL(n, K) y D = C(B1 , E) ∈ GL(m, K). ¤

Proposición 3.38 Sea A ∈ K n×m . Entonces rgC (A) = rgF (A).

Demostración. Es claro que el resultado vale si A = 0. Dada A ∈ K n×m − {0}, por el lema
anterior, existen matrices C ∈ GL(n, K), D ∈ GL(m, K) y k ∈ N, tales que
(
0 si i 6= j
(C.A.D)ij = 1 si i = j ≤ k
0 si i = j > k
Por el Lema 3.36 se tiene que rgC (A) = rgC (C.A.D), y es claro que rgC (C.A.D) = k.
Por otro lado, transponiendo se obtiene
(
0 si i 6= j
t t t
(D .A .C )ij = 1 si i = j ≤ k
0 si i = j > k
con Dt ∈ GL(m, K) y C t ∈ GL(n, K), de donde rgC (At ) = rgC (Dt .At .C t ) = k.
En consecuencia

rgF (A) = rgC (At ) = rgC (Dt .At .C t ) = k = rgC (A). ¤

Definición 3.39 Sea A ∈ K n×m . Al número rgC (A) = rgF (A) lo llamaremos el rango de la
matriz A, y lo notaremos rg(A).

La Observación 3.33 puede ahora reescribirse utilizando la noción de rango de una matriz.
82 Transformaciones lineales

Proposición 3.40 Sea A ∈ K n×m y sea S = {x ∈ K m / A.x = 0}. Entonces dim S =


m − rg(A).

Esto significa que la dimensión del espacio de soluciones de un sistema lineal homogéneo es
igual a la cantidad de incógnitas menos la cantidad de ecuaciones independientes.

3.6.2 Equivalencia de matrices


Definición 3.41 Sean A, B ∈ K n×m . Se dice que A es equivalente a B, y se nota A ≡ B, si
existen matrices C ∈ GL(n, K) y D ∈ GL(m, K) tales que A = C.B.D.

Es inmediato verificar que ≡ es una relación de equivalencia.

Como hemos visto en la sección anterior, si dos matrices son equivalentes entonces tienen
el mismo rango. A continuación veremos que la recı́proca de esta propiedad también es cierta.
En consecuencia, el rango resulta ser un invariante que nos permite determinar fácilmente si
dos matrices son equivalentes.

Proposición 3.42 Sean A, B ∈ K n×m . Entonces A ≡ B ⇐⇒ rg(A) = rg(B).

Demostración.

(⇒) Es consecuencia del Lema 3.36.

(⇐) Supongamos que rg(A) = rg(B) = k. Entonces existen matrices C1 , C2 ∈ GL(n, K) y


D1 , D2 ∈ GL(m, K) tales que
( (
0 si i 6= j 0 si i 6= j
(C1 .A.D1 )ij = 1 si i = j ≤ k y (C2 .B.D2 )ij = 1 si i = j ≤ k
0 si i = j > k 0 si i = j > k
En consecuencia, C1 .A.D1 = C2 .B.D2 , de donde

A = (C1−1 .C2 ).B.(D2 .D1−1 ) = C.B.D

con C = C1−1 .C2 ∈ GL(n, K) y D = D2 .D1−1 ∈ GL(m, K).


Luego, A ≡ B. ¤

Finalmente, la siguiente proposición caracteriza matrices equivalentes por medio de trans-


formaciones lineales: dos matrices son equivalentes si y sólo si son las matrices de una misma
transformación lineal en distintas bases.

Proposición 3.43 Sean A, B ∈ K n×m . Entonces A ≡ B si y sólo si existe una transfor-


mación lineal f : K m → K n y bases B1 , B10 de K m y B2 , B20 de K n tales que |f |B1 B2 = A y
|f |B10 B20 = B.
3.7 Espacios vectoriales de transformaciones lineales 83

Demostración. La validez de (⇐) se deduce de la proposición anterior, teniendo en cuenta


que rg(A) = dim(Im(f )) = rg(B).
Veamos que vale la otra implicación. Consideremos la transformación lineal f : K m → K n
definida por f (x) = B.x. Entonces B = |f |EE 0 , donde E y E 0 son las bases canónicas de K m
y K n respectivamente.
Por definición, si A ≡ B, existen matrices inversibles C y D tales que A = C.B.D. Sea
B1 base de K m tal que D = C(B1 , E) y sea B2 base de K n tal que C = C(E 0 , B2 ). Entonces

A = C.B.D = C(E 0 , B2 )|f |EE 0 C(B1 , E) = |f |B1 B2 . ¤

3.7 Espacios vectoriales de transformaciones lineales


Fijados dos K-espacios vectoriales V y W , tiene sentido considerar el conjunto de todas las
transformaciones lineales de V en W . En esta sección, estudiaremos la estructura de estos
conjuntos de transformaciones lineales.

Definición 3.44 Sean V y W dos K-espacios vectoriales. Definimos


HomK (V, W ) = {f : V → W / f es una transformación lineal }.

Definimos ahora una operación en HomK (V, W ) y una acción de K en HomK (V, W ) que
lo convierten en un K-espacio vectorial:
Suma. Dadas f, g ∈ HomK (V, W ) se define f + g como
(f + g)(x) = f (x) + g(x) ∀ x ∈ V.
Veamos que f + g ∈ HomK (V, W ), con lo cual + resulta un operación en HomK (V, W ):

• Es claro que f + g : V → W .
• f + g es una transformación lineal:
Para cada x, y ∈ V , se tiene que
(f + g)(x + y) = f (x + y) + g(x + y) = f (x) + f (y) + g(x) + g(y) =
¡ ¢ ¡ ¢
= f (x) + g(x) + f (y) + g(y) = (f + g)(x) + (f + g)(y).
Por otro lado, para cada µ ∈ K y cada x ∈ V vale
(f + g)(µ · x) = f (µ · x) + g(µ · x) = µ · f (x) + µ · g(x) =
= µ · (f (x) + g(x)) = µ · (f + g)(x).

Es fácil verificar que (HomK (V, W ), +) es un grupo abeliano.


Producto por escalares. Dados f ∈ HomK (V, W ) y λ ∈ K se define (λ · f ) : V → W como
(λ · f )(x) = λ · f (x) ∀ x ∈ V.
Veamos que λ · f ∈ HomK (V, W ), y por lo tanto, · es una acción de K en HomK (V, W ):
84 Transformaciones lineales

• Por definición, λ · f : V → W .
• λ · f es una transformación lineal:
Para todo par de elementos x, y ∈ V :

(λ · f )(x + y) = λ · (f (x + y)) = λ · (f (x) + f (y)) = λ · f (x) + λ · f (y) =


= (λ · f )(x) + (λ · f )(y).

Para todo µ ∈ K y todo x ∈ V :

(λ · f )(µ · x) = λ · (f (µ · x)) = λ · (µ · f (x)) = (λ · µ) · f (x) =


¡ ¢
= µ · (λ · f (x)) = µ · (λ · f )(x) .

Además se cumplen las siguientes propiedades: Si λ, µ ∈ K y f, g ∈ HomK (V, W ),

i) λ · (f + g) = λ · f + λ · g
ii) (λ + µ) · f = λ · f + µ · f
iii) 1 · f = f
iv) (λ · µ) · f = λ · (µ · f )

En consecuencia:

Proposición 3.45 (HomK (V, W ), +, · ) es un K-espacio vectorial.

En el caso en que ambos V y W son K-espacios vectoriales de dimensión finita, dim V = n


y dim W = m, este K-espacio vectorial resulta ser isomorfo a K m×n .

Proposición 3.46 Sean V y W dos K-espacios vectoriales de dimensión finita, con dim V =
n y dim W = m. Sean B y B 0 bases de V y W respectivamente. Entonces la función
T : HomK (V, W ) → K m×n definida por T (f ) = |f |BB 0 es un isomorfismo.

Demostración. Supongamos que B = {v1 , . . . , vn } y B 0 = {w1 , . . . , wm }.

• T es una transformación lineal:


Sean f, g ∈ HomK (V, W ). Por definición, T (f + g) = |f + g|BB 0 . Observemos que la
j-ésima columna de esta matriz es
¡ ¢ ¡ ¢
(f + g)(vj ) B 0 = f (vj ) + g(vj ) B 0 = (f (vj ))B 0 + (g(vj ))B 0 ,

es decir, es la suma de las j-ésimas columnas de |f |BB 0 y |g|BB 0 .


Luego, |f + g|BB 0 = |f |BB 0 + |g|BB 0 o, equivalentemente, T (f + g) = T (f ) + T (g).
En forma análoga se prueba que T (λ · f ) = λ · T (f ).
3.8 Ejercicios 85

• T es un isomorfismo:
T es monomorfismo: Sea f ∈ HomK (V, W ) tal que T (f ) = 0, es decir, |f |BB 0 = 0.
Entonces, Im(f ) = {0}, de donde f ≡ 0.
¡ ¢
T es epimorfismo: Sea A ∈ K m×n . Consideramos fA : V → W definida por fA (x) B 0 =
¡ ¢t
A.(x)tB para cada x ∈ V .
Se tiene que fA ∈ HomK (V, W ) y T (fA ) = |fA |BB 0 = A. ¤

3.8 Ejercicios
Ejercicio 1. Determinar cuáles de las siguientes aplicaciones son lineales.

i) f : R3 → R2 , f (x1 , x2 , x3 ) = (x2 − 3.x1 + 2.x3 , x1 − 12 .x2 )
ii) f : R2 → R3 , f (x1 , x2 ) = (x1 − x2 , 2.x2 , 1 + x1 )
iii) f : R3 → R3 , f (x1 , x2 , x3 ) = (2.x1 − 7.x3 , 0 , 3.x2 + 2.x3 )
iv) f : R2 → R2 , f (x1 , x2 ) = (x1 + x2 , |x1 |)
v) f : C → C , f (z) = i.z (considerando a C como R-espacio vectorial y como C-espacio
vectorial)
vi) f : C → C , f (z) = [Link](z) (considerando a C como R-espacio vectorial y como C-
espacio vectorial)
vii) f : C → C , f (z) = z (considerando a C como R-espacio vectorial y como C-espacio
vectorial)
µ ¶
2×2 a11 a12
viii) f : R → R, f = a11 .a22 − a12 .a21
a21 a22
µ ¶
a11 a12 a13
ix) f : R2×3 → R3 , f = (3.a13 − a23 , a11 + 2.a22 − a23 , a22 − a12 )
a21 a22 a23
µ ¶ µ ¶
a11 a12 a22 0 a12 + a21
x) f : R2×2 → R2×3 , f =
a21 a22 0 a11 a22 − a11
µ ¶ µ ¶
a11 a12 a11 a12
xi) f : C2×2 → C2×2 , f = (considerando a C2×2 como R-espacio
a21 a22 a21 a22
vectorial y como C-espacio vectorial)

Ejercicio 2. Interpretar geométricamente las siguientes aplicaciones lineales f : R2 → R2 .

i) f (x, y) = (x, 0)
ii) f (x, y) = (0, y)
86 Transformaciones lineales

iii) f (x, y) = (x, −y)


iv) f (x, y) = ( 12 .(x + y), 12 .(x + y))

v) f (x, y) = ([Link] t − [Link] t , [Link] t + [Link] t)

Ejercicio 3.

i) Encontrar una función f : V → V (para un K-espacio vectorial V conveniente) que


cumpla f (v + w) = f (v) + f (w) para cualquier par de vectores v , w ∈ V pero que no
sea una transformación lineal.
ii) Encontrar una función f : V → V (para un K-espacio vectorial V conveniente) que
cumpla f (k.v) = k.f (v) para cualquier escalar k ∈ K y cualquier vector v ∈ V pero que
no sea una transformación lineal.

Ejercicio 4. Probar la linealidad de las siguientes aplicaciones:

i) tr : K n×n → K

ii) t : K n×m → K m×n , t(A) = At


iii) f : K n×m → K r×m , f (A) = B.A donde B ∈ K r×n
iv) δ : C ∞ (R) → C ∞ (R), δ(f ) = f 0
v) ²α : K[X] → K, ²α (f ) = f (α) donde α ∈ K
vi) s : K N → K N , s({ai }i∈N ) = (0, a1 , a2 , . . . , an , . . .)

Ejercicio 5.

i) Probar que existe una única transformación lineal f : R2 → R2 tal que f (1, 1) = (−5, 3)
y f (−1, 1) = (5, 2). Para dicha f , determinar f (5, 3) y f (−1, 2).
ii) ¿Existirá una transformación lineal f : R2 → R2 tal que f (1, 1) = (2, 6), f (−1, 1) =
(2, 1) y f (2, 7) = (5, 3)?
iii) Sean f, g : R3 → R3 transformaciones lineales tales que

f (1, 0, 1) = (1, 2, 1), f (2, 1, 0) = (2, 1, 0), f (−1, 0, 0) = (1, 2, 1),


g(1, 1, 1) = (1, 1, 0), g(3, 2, 1) = (0, 0, 1), g(2, 2, −1) = (3, −1, 2).

Determinar si f = g.
iv) Hallar todos los a ∈ R para los cuales exista una transformación lineal f : R3 → R3
que satisfaga que f (1, −1, 1) = (2, a, −1) , f (1, −1, 2) = (a2 , −1, 1) y f (1, −1, −2) =
(5, −1, −7).
3.8 Ejercicios 87

v) Hallar una fórmula para todas las tranformaciones lineales f : R3 [X] → R3 que satis-
facen f (X 3 + 2X 2 − X + 4) = (6, 5, 3), f (3X 2 + 2X − 5) = (0, 0, −3), f (X 3 − 2X 2 +
3X − 2) = (0, −1, 1) y f (2X 3 − 3X 2 + 7) = (6, 4, 7).

Ejercicio 6.

i) Calcular bases del núcleo y de la imagen para cada tranformación lineal del ejercicio 1.
Decidir, en cada caso, si f es epimorfismo, monomorfismo o isomorfismo. En el caso
que sea isomorfismo, calcular f −1 .
ii) Clasificar las transformaciones lineales tr , t , δ , ²α y s del ejercicio 4 en epimorfismos,
monomorfismos e isomorfismos.

Ejercicio 7. Sean f : R3 → R4 , f (x1 , x2 , x3 ) = (x1 + x2 , x1 + x3 , 0, 0) y g : R4 → R2 ,


g(x1 , x2 , x3 , x4 ) = (x1 − x2 , 2x1 − x2 ). Calcular el núcleo y la imagen de f , de g y de g ◦ f .
Decidir si son monomorfismos, epimorfismos o isomorfismos.

Ejercicio 8. Sean g : V → V 0 y f : V 0 → V 00 transformaciones lineales. Probar:

i) Nu(g) ⊆ Nu(f ◦ g).


ii) Si Nu(f ) ∩ Im(g) = {0}, entonces Nu(g) = Nu(f ◦ g).
iii) Im(f ◦ g) ⊆ Im(f ).
iv) Si Im(g) = V 0 , entonces Im(f ◦ g) = Im(f ).

Ejercicio 9.

i) Sean S, T ⊂ R4 los subespacios definidos por S = {(x1 , x2 , x3 , x4 )/ x1 + x2 + x3 = 0}


y T = {(x1 , x2 , x3 , x4 ) / 2.x1 + x4 = 0 , x2 − x3 = 0}.
¿Existirá algún isomorfismo f : R4 → R4 tal que f (S) = T ?
ii) ¿Existirá algún monomorfismo f : R3 → R2 ?
iii) ¿Existirá algún epimorfismo f : R2 → R3 ?
iv) Sean v1 = (1, 0, 1, 0), v2 = (1, 1, 1, 0) y v3 = (1, 1, 1, 1). ¿Existirá alguna transformación
lineal f : R2 → R4 tal que {v1 , v2 , v3 } ⊂ Im(f )?

Ejercicio 10. Determinar si existe (y en caso afirmativo hallar) una transformación lineal
f : R3 → R4 que verifique Im(f ) = S y Nu(f ) = T en los siguientes casos:

i) S = {(x1 , x2 , x3 , x4 )/x1 + x2 − x3 + 2.x4 = 0}, T = < (1, 2, 1) >


ii) S = {(x1 , x2 , x3 , x4 )/x1 + x2 = 0, x3 + x4 = 0}, T = < (1, −2, 1) >
88 Transformaciones lineales

Ejercicio 11. En cada uno de los siguientes casos encontrar una transformación lineal
f : R3 → R3 que verifique lo pedido:

i) (1, 1, 0) ∈ Nu(f ) y dim(Im(f )) = 1


ii) Nu(f ) ∩ Im(f ) = < (1, 1, 2) >
iii) f 6= 0 y Nu(f ) ⊆ Im(f )
iv) f 6= 0 y f ◦ f = 0
v) f 6= Id y f ◦ f = Id
vi) Nu(f ) 6= {0}, Im(f ) 6= {0} y Nu(f ) ∩ Im(f ) = {0}

Ejercicio 12. En cada uno de los siguientes casos construir un proyector f : R3 → R3 que
cumpla:

i) Im(f ) = {(x1 , x2 , x3 )/x1 + x2 + x3 = 0}


ii) Nu(f ) = {(x1 , x2 , x3 )/x1 + x2 + x3 = 0}
iii) Nu(f ) = {(x1 , x2 , x3 )/3.x1 − x3 = 0} e Im(f ) = < (1, 1, 1) >

Ejercicio 13. Sea V un K-espacio vectorial y sea f : V → V un proyector. Probar que


g = idV − f es un proyector con Im(g) = Nu(f ) y Nu(g) = Im(f ).

Ejercicio 14. Sea V un K-espacio vectorial y sea f : V → V una transformación lineal. Se


dice que f es nilpotente si ∃ s ∈ N tal que f s = 0.

i) Probar que si f es nilpotente, entonces f no es ni monomorfismo ni epimorfismo.


ii) Si V es de dimensión n probar que f es nilpotente ⇐⇒ f n = 0.
(Sugerencia: considerar si las inclusiones Nu(f i ) ⊆ Nu(f i+1 ) son estrictas o no).
iii) Sea B = {v1 , . . . , vn } una base de V . Se define la transformación lineal f : V → V de
la siguiente forma: n
vi+1 si 1 ≤ i ≤ n − 1
f (vi ) =
0 si i = n
Probar que f n = 0 y f n−1 6= 0.
iv) Si V = Rn , para cada i , 2 ≤ i ≤ n, construir una transformación lineal nilpotente
f : Rn → Rn tal que f i = 0 y f i−1 6= 0.

Ejercicio 15. Sea S = < (1, 1, 0, 1), (2, 1, 0, 1) > ⊆ R4 .

i) Hallar una transformación lineal f : R4 → R2 tal que Nu(f ) = S.


3.8 Ejercicios 89

ii) Hallar ecuaciones para S (usar i)).


iii) Hallar un sistema de ecuaciones lineales cuyo conjunto de soluciones sea
< (1, 1, 0, 1), (2, 1, 0, 1) > + (0, 1, 1, 2).

Ejercicio 16.

i) Sea S ⊆ K n el conjunto de soluciones de un sistema lineal homogéneo. Encontrar una


transformación lineal f : K n → K n tal que Nu(f ) = S.
ii) Sea T ⊆ K n el conjunto de soluciones de un sistema lineal no homogéneo. Encontrar
una transformación lineal f : K n → K n y x ∈ K n tales que T = f −1 (x).

Ejercicio 17. Sea f : V → V una tranformación lineal y sean B, B 0 bases de V . Calcular


|f |BB 0 en cada uno de los siguientes casos:

i) V = R3 , f (x1 , x2 , x3 ) = (3.x1 − 2.x2 + x3 , 5.x1 + x2 − x3 , x1 + 3.x2 + 4.x3 ),


B = B 0 la base canónica de R3
ii) V = R3 , f (x1 , x2 , x3 ) = (3.x1 − 2.x2 + x3 , 5.x1 + x2 − x3 , x1 + 3.x2 + 4.x3 ),
B = {(1, 2, 1), (−1, 1, 3), (2, 1, 1)} y B 0 = {(1, 1, 0), (1, 2, 3), (−1, 3, 1)}
iii) V = C2 , f (x1 , x2 ) = (2.x1 − i.x2 , x1 + x2 ), B = B 0 es la base canónica de C2 como
C-espacio vectorial.
iv) V = C2 , f (x1 , x2 ) = (2.x1 − i.x2 , x1 + x2 ), B = B 0 = {(1, 0), (0, 1), (i, 0), (0, i)} con-
siderando a C2 como R-espacio vectorial.
v) V = R4 [X], f (P ) = P 0 , B = B 0 = {1, X, X 2 , X 3 , X 4 }
vi) V = R4 [X], f (P ) = P 0 , B = B 0 = {X 4 , X 3 , X 2 , X, 1}
vii) V = R4 [X], f (P ) = P 0 , B = {1, X, X 2 , X 3 , X 4 } y B 0 = {X 4 , X 3 , X 2 , X, 1}
viii) V = R2×2 , f (A) = At , B = B 0 la base canónica de R2×2 .
ix) V , f y B = B 0 como en el ejercicio 14, iii)

Ejercicio 18. Sean B = {v1 , v2 , v3 } una base de R3 y B 0 = {w1 , w2 , w3 , w4 } una base de R4 .


Sea f : R3 → R4 la transformación lineal tal que
 
1 −2 1
 −1 1 −1 
|f |BB 0 = 
2 1 4
3 −2 5

i) Hallar f (3.v1 + 2.v2 − v3 ). ¿Cuáles son sus coordenadas en la base B 0 ?


90 Transformaciones lineales

ii) Hallar una base de Nu(f ) y una base de Im(f ).


iii) Describir el conjunto f −1 (w1 − 3.w3 − w4 ).

Ejercicio 19. Sea V un K-espacio vectorial y B = {v1 , v2 , v3 , v4 } una base de V . Sea


f : V → V la transformación lineal tal que
 
1 1 1 1
1 1 1 0
|f |B =  
1 1 0 0
1 0 0 0

i) Calcular |f −1 |B .
ii) Calcular f −1 (v1 − 2.v2 + v4 ).

Ejercicio 20. En cada uno de los siguientes casos, hallar una matriz A ∈ Rn×n para un n
adecuado que verifique:

i) A 6= In y A3 = In .
ii) A 6= 0; A 6= In y A2 = A.

Ejercicio 21. Sea V un K-espacio vectorial de dimensión finita y sea B una base de V .

i) Sea tr : Hom(V, V ) → K la aplicación definida por tr(f ) = tr(|f |B ). Probar que tr(f )
no depende de la base B elegida.
tr(f ) se llama la traza del endomorfismo f .
ii) Probar que tr : Hom(V, V ) → K es una transformación lineal.

Ejercicio 22. Sean B = {v1 , v2 , v3 }, U = {v1 + v3 , v1 + 2.v2 + v3 , v2 + v3 } y U 0 = {w1 , w2 , w3 }


bases de R3 , y sea E la base canónica de R3 . Sea f : R3 → R3 la transformación lineal tal
que    
1 −1 3 1 1 0
|f |BE =  2 1 1  y |f |U U 0 =  0 1 1 
3 2 1 0 0 1
Determinar U 0 .

Ejercicio 23.

i) Sea f : R4 → R4 la trasformación lineal definida por

f (x1 , x2 , x3 , x4 ) = (0, x1 , x1 + x2 , x1 + x2 + x3 )

y sea v = (1, 0, 0, 0). Probar que B = {v, f (v), f 2 (v), f 3 (v)} es una base de R4 . Calcular
|f |B .
3.8 Ejercicios 91

ii) Sea V un K-espacio vectorial de dimensión n y sea f : V → V una tranformación lineal


tal que f n = 0 y f n−1 6= 0. Probar que existe una base B de V tal que
¡ ¢ n
1 si i = j + 1
|f |B ij
=
0 si no

/ Nu(f n−1 )).


(Sugerencia: elegir v1 ∈

Ejercicio 24. Sea V un K-espacio vectorial de dimensión n y sea f : V → V un proyector.


Probar que existe una base B de V tal que
¡ ¢ n
|f |B ij = 1 si i = j ; i ≤ dim(Im(f ))
0 si no

Ejercicio 25. Sea f : R5 → R4 definida por

f (x1 , x2 , x3 , x4 , x5 ) = (2.x1 − x5 , x2 + 2.x3 , x1 + x4 + x5 , −x1 + x4 + x5 ).

Encontrar bases B y B 0 de R5 y R4 respectivamente tales que |f |BB 0 sea una matriz diagonal.

Ejercicio 26. Sean V y W K-espacios vectoriales, dim V = n y dim W = m, y f : V → W


una transformación lineal tal que dim(Im(f )) = s. Probar que existen una base B de V y
una base B 0 de W tal que
¡ ¢ n
1 si i = j ; i ≤ s
|f |BB 0 ij =
0 si no

Ejercicio 27. Sea f : R3 → R3 definida por

f (x1 , x2 , x3 ) = (x1 + x2 − x3 , 2.x1 − 3.x2 + 2.x3 , 3.x1 − 2.x2 + x3 ).

i) Determinar bases B y B 0 de R3 tales que


 
1 0 0
|f |BB 0 = 0 1 0.
0 0 0

ii) Si A es la matriz de f en la base canónica, encontrar matrices C, D ∈ GL(3, R) tales


que
 
1 0 0
C.A.D =  0 1 0  .
0 0 0
92 Transformaciones lineales

Ejercicio 28. Calcular el rango de las siguientes matrices:


   
2 0 3 −1 0 5 3
i) A =  1 −2 1 0  ii) A =  1 −1 2 
−1 1 0 1 2 3 1
 
  1 0 1 0 0
3 −1 0 1 2
1 1 0 0 0
 −1 0 4 −1 0   
iii) A=  iv) A =  0 1 1 0 0
3 1 1 0 1  
0 0 1 1 0
2 0 0 3 1
0 1 0 1 1

Ejercicio 29. Calcular el rango de A ∈ R3×3 para cada k ∈ R siendo


 
1 −k −1
A =  −1 1 k2  .
1 k k−2

Ejercicio 30. Sean A ∈ K m×n , b ∈ K m . Se considera el sistema A.x = b y sea (A | b) su


matriz ampliada. Probar que A.x = b tiene solución ⇐⇒ rg(A) = rg(A | b).

Ejercicio 31. Sea A ∈ K m×n , rg(A) = s y sea T = {x ∈ K n×r / A.x = 0}. Calcular la
dimensión de T .

Ejercicio 32. Sean A ∈ K m×n y B ∈ K n×r . Probar que rg(A.B) ≤ rg(A) y rg(A.B) ≤
rg(B).

Ejercicio 33. Sean A, D ∈ R3×3 ,


   
1 1 −1 1 1 0
A =  2 −3 2  y D =  0 1 1.
3 −2 1 −1 0 1

i) Determinar C1 , C2 , C3 y C4 ∈ GL(3, R) tales que


 
1 0 0
C1 .A.C2 = C3 .D.C4 =  0 1 0
0 0 0

ii) Determinar f ∈ Hom(R3 , R3 ) y bases B, B 0 , B1 y B10 de R3 tales que

|f |BB 0 = A y |f |B1 B10 = D

Ejercicio 34. Dadas A , B ∈ Rn×n , decidir si existen matrices P , Q ∈ GL(n, R) tales que
A = P.B.Q.
3.8 Ejercicios 93

µ ¶ µ ¶
2 5 1 2
i) n = 2; A = ;B=
1 3 −1 1
µ ¶ µ ¶
2 3 5 8
ii) n = 2; A = ;B=
4 6 1 2
   
1 0 5 3 8 5
iii) n = 3; A =  2 1 0 ; B =  2 2 0
0 1 0 0 7 0
   
1 1 0 0 1 2
iv) n = 3; A =  2 1 0 ; B =  1 0 1
3 0 1 1 1 3

Ejercicio 35. Sean A, B ∈ K n×n . Se dice que A es semejante a B (y se nota A ∼ B) si


existe C ∈ GL(n, K) tal que A = C.B.C −1 .

i) Demostrar que ∼ es una relación de equivalencia en K n×n .


ii) Probar que dos matrices semejantes son equivalentes. ¿Vale la recı́proca?

Ejercicio 36. Sean A, C ∈ K n×n . Probar que las siguientes afirmaciones son equivalentes:

i) A ∼ C.
ii) ∃ f : K n → K n tranformación lineal y bases B y B 0 de K n tales que |f |B = A y
|f |B 0 = C

Ejercicio 37.

i) Sean A, C ∈ K n×n tales que A ∼ C. Probar que tr(A) = tr(C).

ii) Sean A, C ∈ R3×3


   
1 −1 1 1 1 0
A = 2 3 −5  y C = 0 1 1.
4 1 3 1 0 1

¿Existen f ∈ Hom(R3 , R3 ) y bases B y B 0 de R3 tales que |f |B = A y |f |B 0 = C?

También podría gustarte