0% encontró este documento útil (0 votos)
67 vistas106 páginas

Curso de Álgebra Lineal: Notas y Ejercicios

Este documento presenta notas para un curso de álgebra lineal. Introduce conceptos fundamentales como matrices, operaciones con matrices como suma y multiplicación, y propiedades de estas operaciones como asociatividad y distributividad. También define conceptos clave como matriz identidad y matriz no singular.

Cargado por

Edgar Zuniga
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
67 vistas106 páginas

Curso de Álgebra Lineal: Notas y Ejercicios

Este documento presenta notas para un curso de álgebra lineal. Introduce conceptos fundamentales como matrices, operaciones con matrices como suma y multiplicación, y propiedades de estas operaciones como asociatividad y distributividad. También define conceptos clave como matriz identidad y matriz no singular.

Cargado por

Edgar Zuniga
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

Notas para un curso de Álgebra Lineal

M. Purificación López López Nieves Rodríguez González

Santiago de Compostela, 2015-21


ii
Índice general

1. Álgebra matricial 1
1.1. Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2. Operaciones con matrices . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.3. Matrices elementales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.4. Forma escalonada y rango por filas de una matriz . . . . . . . . . . . . . 7
1.5. Determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.6. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16

2. Sistemas de ecuaciones lineales 25


2.1. Ecuaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.2. Sistemas de ecuaciones lineales . . . . . . . . . . . . . . . . . . . . . . . 25
2.3. Interpretación matricial de un sistema . . . . . . . . . . . . . . . . . . . 26
2.4. Método de Gauss y Regla de Cramer. . . . . . . . . . . . . . . . . . . . 27
2.5. Discusión de un sistema escalonado . . . . . . . . . . . . . . . . . . . . . 31
2.6. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33

3. Espacios vectoriales 37
3.1. Subespacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
3.2. Sistema de generadores. Independencia lineal . . . . . . . . . . . . . . . 39
3.3. Bases y dimensión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
3.4. Rango de una matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
3.5. Teorema de Rouché-Frobenius . . . . . . . . . . . . . . . . . . . . . . . . 51
3.6. Ecuaciones de un subespacio . . . . . . . . . . . . . . . . . . . . . . . . . 51
3.7. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52

4. Aplicaciones lineales 63
4.1. Matriz asociada a una aplicación lineal . . . . . . . . . . . . . . . . . . . 67
4.2. Matriz de cambio de base . . . . . . . . . . . . . . . . . . . . . . . . . . 70
4.3. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73

iii
iv ÍNDICE GENERAL

5. Diagonalización de matrices 81
5.1. Valores y vectores propios . . . . . . . . . . . . . . . . . . . . . . . . . . 81
5.2. El anillo de polinomios K[x] . . . . . . . . . . . . . . . . . . . . . . . . . 83
5.3. Suma y producto en K[x] . . . . . . . . . . . . . . . . . . . . . . . . . . 83
5.4. Algoritmo de división en K[x] . . . . . . . . . . . . . . . . . . . . . . . . 84
5.5. Polinomio característico . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
5.6. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90

6. Producto escalar y ortogonalidad 95


6.1. Ortogonalidad. Bases ortonormales . . . . . . . . . . . . . . . . . . . . . 97
6.2. Distancia de un punto a un hiperplano . . . . . . . . . . . . . . . . . . . 102
Capítulo 1

Álgebra matricial

1.1. Matrices
A partir de ahora K denotará un cuerpo.

Definición 1.1. Una matriz A = (aij ) de orden m × n sobre un cuerpo K es una tabla
de doble entrada con mn elementos del cuerpo K, dispuestos en m filas y n columnas.
Al elemento que ocupa la fila i y la columna j de la matriz A lo denotaremos por aij o
por A(i, j). Así pues:
 
a11 a12 . . . a1n
 a21 a22 . . . a2n 
A= .
 
. .. . . .. 
 . . . . 
am1 am2 . . . amn

Dos matrices A = (aij ) y B = (bij ) son iguales si tienen el mismo orden y para cada
par de índices i y j se tiene que aij = bij .
Al conjunto de las matrices de orden m × n sobre un cuerpo K se le denota por
Mm×n (K). Si m = n, se denota por Mn (K).
 Si A ∈ M1×n (K) se dice que A es una matriz fila.
 Si A ∈ Mm×1 (K) se dice que A es una matriz columna.
 A las matrices de orden n × n se les llama matrices cuadradas de orden n.
Denotaremos por In la matriz diagonal de orden n, (δij ), con δii = 1 para i = 1, . . . , n
y δij = 0 para i 6= j. A esta matriz se le llamará matriz identidad n-ésima o matriz
identidad de orden n.

1.2. Operaciones con matrices


Definición 1.2. Sean A = (aij ), B = (bij ) ∈ Mm×n (K). Se define la suma de A y B
como una matriz A + B ∈ Mm×n (K) de modo que (A + B)(i, j) = aij + bij ∀i, j, es
decir:

1
2 CAPÍTULO 1. ÁLGEBRA MATRICIAL
 
a11 + b11 a12 + b12 ... a1n + b1n
 a21 + b21 a22 + b22 ... a2n + b2n 
A+B = .
 
.. .. .. ..
 . . . . 
am1 + bm1 am2 + bm2 . . . amn + bmn

Definición 1.3. Sean A = (aij ) ∈ Mm×n (K) y α un escalar en K. Se define la


multiplicación de un escalar α por una matriz A como una matriz αA ∈ Mm×n (K) de
modo que (αA)(i, j) = αaij ∀i, j, es decir:
 
αa11 αa12 . . . αa1n
 αa21 αa22 . . . αa2n 
αA =  . .. .
 
.. ..
 .. . . . 
αam1 αam2 . . . αamn

Proposición 1.4. Sean A, B ∈ Mm×n (K) y α, β ∈ K. Se verifican las propiedades


siguientes:

1. (Mm×n (K), +) es un grupo abeliano.

2. (α + β)A = αA + βA.

3. α(A + B) = αA + αB.

4. α(βA) = (αβ)A.

5. 1K A = A.

El elemento neutro del grupo (Mm×n (K), +) es la matriz con todas sus entradas 0
y la denotaremos por (0).

Definición 1.5. Sean A = (aij ) ∈ Mm×n (K) y B = (bij ) ∈ Mn×s (K) se define el
producto de A por B como una matriz AB en Mm×s (K) en donde:
n
P
(AB)(i, j) = aik bkj , para i = 1, . . . , m y j = 1, . . . , s.
k=1

Observaciones 1.6.
1. Nótese que, para hacer el producto AB es necesario que el número de columnas de
A coincida con el número de filas de B.
2. En general, el producto de matrices no es conmutativo. Por ejemplo,
         
0 0 1 0 0 0 0 0 1 0 0 0
= 6= = .
1 1 1 0 2 0 0 0 1 0 1 1
1.2. OPERACIONES CON MATRICES 3

Proposición 1.7. Se verifican las siguientes propiedades:

1. Asociativa: (AB)C = A(BC), donde A ∈ Mm×n (K), B ∈ Mn×s (K) y C ∈ Ms×r (K).

2. Distributiva por la izquierda del producto respecto de la suma: A (B + C) = AB+AC,


donde A ∈ Mm×n (K) y B, C ∈ Mn×s (K).

3. Distributiva por la derecha del producto respecto de la suma: (B + C)A = BA + CA,


donde A ∈ Ms×r (K) y B, C ∈ Mn×s (K).

4. AIn = A = Im A, donde A ∈ Mm×n (K).

5. (Mn (K), +, .) es un anillo.

6. α(AB) = (αA)B = A(αB), donde A ∈ Mm×n (K), B ∈ Mn×s (K) y α ∈ K.

Definición 1.8. Si A ∈ Mn (K), se dice que A es no singular o que A es invertible si


A tiene inversa para el producto, es decir si existe B ∈ Mn (K) tal que AB = In = BA.
La matriz B se llama inversa de A y se denota por A−1 . Si A no tiene inversa, se dice
que A es singular.

Nótese que, si existe, la inversa de A es única.

Definición 1.9. Sea A = (aij ) ∈ Mm×n (K). Llamaremos matriz traspuesta de A a


la matriz At ∈ Mn×m (K) tal que (At )(i, j) = A(j, i) = aji , para todo i = 1, . . . , n y
j = 1, . . . , m.

Ejemplo 1.10.  
  1 2
1 3 5
Si A = ∈ M2×3 (R), entonces At = 3 4.
2 4 6
5 6
Proposición 1.11. Se verifican las propiedades siguientes:

1. Si A ∈ Mn (K) es no singular, entonces A−1 es no singular y (A−1 )−1 = A.

2. Si A, B ∈ Mn (K) son matrices no singulares, entonces AB es no singular y


(AB)−1 = B −1 A−1 .

3. (At )t = A, siendo A ∈ Mm×n (K).

4. (A + B)t = At + B t , siendo A, B ∈ Mm×n (K).

5. (AB)t = B t At , siendo A ∈ Mm×n (K) y B ∈ Mn×s (K).

6. Si A ∈ Mn (K) es una matriz no singular, (At )−1 = (A−1 )t .

Demostración. Las propiedades 1, 3 y 4 son evidentes.


Para demostrar 2, basta tener en cuenta que:
4 CAPÍTULO 1. ÁLGEBRA MATRICIAL

(AB)(B −1 A−1 ) = A(BB −1 )A−1 = In = (B −1 A−1 )(AB).

Para demostrar 5, si A = (aij ) ∈ Mm×n (K) y B = (bij ) ∈ Mn×s (K), se tiene


n
X
(AB)t (i, j) = (AB)(j, i) = ajk bki
k=1
n
X
= (B t )(i, k)(At )(k, j) = (B t At )(i, j).
k=1

La prueba de 6 es análoga a la de 2, utilizando 3.

Observaciones 1.12.

1. Si A = (a11 a12 . . . a1n ) ∈ M1×n (K) y B = (bij ) ∈ Mn×s (K), entonces


(a11 a12 . . . a1n ) B
= (a11 b11 + a12 b21 + · · · + a1n bn1 . . . a11 b1s + a12 b2s + · · · + a1n bns )
= a11 (b11 b12 . . . b1s ) + · · · + a1n (bn1 bn2 . . . bns )
= a11 F1 (B) + · · · + a1n Fn (B),
en donde Fi (B) denota la matriz fila correspondiente a la fila i-ésima de B.

2. Si A = (aij ) ∈ Mm×n (K) y B = (bij ) ∈ Mn×s (K), como consecuencia de la


observación anterior, se tiene que la fila i-ésima de la matriz AB es de la forma:

Fi (AB) = ai1 F1 (B) + · · · + ain Fn (B).

 
b11
 b21 
3. Si A = (aij ) ∈ Mm×n (K) y B =  .  ∈ Mn×1 (K), entonces
 
 .. 
bn1
 
a11 b11 + a12 b21 + · · · + a1n bn1
 a21 b11 + a22 b21 + · · · + a2n bn1 
AB =  
 ··· 
am1 b11 + am2 b21 + · · · + amn bn1
   
a11 a1n
 a21   a2n 
=  .  b11 + · · · +  .  bn1 = b11 C1 (A) + · · · + bn1 Cn (A),
   
 ..   .. 
am1 amn
1.3. MATRICES ELEMENTALES 5

en donde Cj (A) denota la matriz columna correspondiente a la columna j-ésima


de A.
Esta propiedad también se deduce directamente del apartado 1 de la observación
1.12, utilizando que (AB)t = B t At .

4. Si A = (aij ) ∈ Mm×n (K) y B = (bij ) ∈ Mn×s (K), la columna j-ésima de la matriz


AB es de la forma:

Cj (AB) = b1j C1 (A) + · · · + bnj Cn (A).

Ejemplo 1.13.
   
1 2 0   7 −1
1 −1
 1 2 −1 
 3
 6 −3 

 1 0 =
 4 −1 

1 0 
1 2
0 4 3 15 6

Nótese que, como hemos visto en 2 y 3 de las observaciones 1.12, se tiene que:

(7, −1) = 1(1, −1) + 2(3, 0) + 0(1, 2),


(6, −3) = 1(1, −1) + 2(3, 0) + (−1)(1, 2),
       
7 1 2 0
  = 1 1 + 3 2 + 1  −1 
6      
4 1 1  0 
15 0 4 3

y lo análogo para las restantes filas y columnas.

1.3. Matrices elementales


Definición 1.14. Llamaremos matriz elemental de orden m a cualquiera de las siguien-
tes matrices:

1. La obtenida de Im intercambiando la fila i con la j, que denotamos por EFi ↔Fj .

EFi ↔Fj (i, j) = EFi ↔Fj (j, i) = EFi ↔Fj (k, k) = 1 si k 6= i, j y las demás entradas
son cero.

Im −−−−→
Fi ↔F j
EFi ↔Fj .

2. La obtenida de Im multiplicando la fila i por α ∈ K y α 6= 0, que denotamos por


EαFi .

EαFi (k, k) = 1 si k 6= i, EαFi (i, i) = α y las demás entradas son cero.


6 CAPÍTULO 1. ÁLGEBRA MATRICIAL

Im −→
αF i
EαFi con α ∈ K y α 6= 0.

3. La obtenida de Im sumándole a la fila i la fila j multiplicada por α ∈ K, siendo


i 6= j, que denotaremos por EFi +αFj .

EFi +αFj (k, k) = 1 ∀k, EFi +αFj (i, j) = α y las demás entradas son cero.

Im −−−−→
Fi +αF j
EFi +αFj .

Proposición 1.15. Si A ∈ Mm×n (K), entonces:

1. EFi ↔Fj A ∈ Mm×n (K) es la matriz obtenida de A al intercambiar su fila i-ésima


con la j-ésima.

2. EαFi A ∈ Mm×n (K) es la matriz obtenida de A al multiplicar su fila i-ésima por un


escalar α 6= 0.

3. EFi +αFj A ∈ Mm×n (K) es la matriz obtenida de A sumándole a su fila i-ésima la


j-ésima multiplicada por α ∈ K, para i 6= j.

Demostración. Para hacer la demostración utilizaremos la observación 1.12.

1. Fi (EFi ↔Fj A) = 0F1 (A) + · · · + 1Fj (A) + · · · + 0Fn (A) = Fj (A),


| {z }
j

Fj (EFi ↔Fj A) = 0F1 (A) + · · · + 1Fi (A) + · · · + 0Fn (A) = Fi (A) y


| {z }
i

Fk (EFi ↔Fj A) = Fk (A), si k 6= i, j.

2. Fi (EαFi A) = 0F1 (A) + · · · + αFi (A) + · · · + 0Fn (A) = αFi (A) y


| {z }
i

Fk (EαFi A) = Fk (A), si k 6= i.

3. Fi (EFi +αFj A) = 0F1 (A) + · · · + 1Fi (A) + · · · + αFj (A) + · · · + 0Fn (A)
| {z } | {z }
i j

= Fi (A) + αFj (A) y, si k 6= i, entonces Fk (EFi +αFj A) = Fk (A).

Como consecuencia inmediata de esta proposición se tiene:

Corolario 1.16. Toda matriz elemental es invertible y su inversa también es una matriz
elemental. Concretamente,

(EFi ↔Fj )−1 = EFi ↔Fj , (EαFi )−1 = Eα−1 Fi y (EFi +αFj )−1 = EFi −αFj .
1.4. FORMA ESCALONADA Y RANGO POR FILAS DE UNA MATRIZ 7

Definición 1.17. Dos matrices A, B ∈ Mm×n (K) son equivalentes por filas si existen
matrices elementales E1 , . . . , Es tales que B = Es · · · E1 A.

Es evidente que “ser equivalentes por filas” es una relación de equivalencia en el


conjunto Mm×n (K).
Nótese que si A, B ∈ Mm×n (K) son equivalentes por filas, significa que de una se
obtiene la otra tras una sucesión finita de operaciones de los siguientes tipos:

1. Intercambiar dos filas.

2. Multiplicar una fila por un escalar no nulo.

3. Sumarle a una fila un múltiplo escalar de otra.

Estas operaciones se llaman operaciones elementales por filas.

Proposición 1.18. Si A, B ∈ Mn (K) son matrices equivalentes por filas, entonces

A es invertible si, y solo si, B es invertible.

Observaciones 1.19. Sea A ∈ Mm×n (K), entonces:

1. AEFi ↔Fj ∈ Mm×n (K) es la matriz obtenida de A al intercambiar su columna i-ésima


con la j-ésima.

2. AEαFi ∈ Mm×n (K) es la matriz obtenida de A al multiplicar su columna i-ésima


por un escalar α 6= 0.

3. AEFi +αFj ∈ Mm×n (K) es la matriz obtenida de A sumándole a su columna j-ésima


la i-ésima multiplicada por α ∈ K.

La observación anterior nos indica que EFi ↔Fj es la matriz obtenida de la identidad
intercambiando la columna i-ésima con la j-ésima, EαFi es la matriz obtenida de la
identidad multiplicando la columna i-ésima por un escalar α 6= 0 y EFi +αFj es la matriz
obtenida de la identidad sumándole a la columna j-ésima la i-ésima multiplicada por
α ∈ K. Esto justifica la notación siguiente:

EFi ↔Fj = ECi ↔Cj , EαFi = EαCi , EFi +αFj = ECj +αCi .

1.4. Forma escalonada y rango por filas de una matriz


Definición 1.20. Sea A ∈ Mm×n (K). Se dice que A es escalonada por filas si:

1. Las filas nulas, si las hay, están al final.

2. El primer coeficiente no nulo de cada fila no nula, llamado coeficiente principal o


pivote de la fila, está a la derecha de los pivotes de las filas anteriores.
8 CAPÍTULO 1. ÁLGEBRA MATRICIAL

Si además todos los pivotes son 1 y los elementos que aparecen en la misma columna
que el pivote de una fila son todos cero, se dice que es escalonada reducida por filas.

Nótese que si una matriz es escalonada reducida por filas, el número de pivotes
coincide con el número de filas no nulas.

Proposición 1.21. Si A ∈ Mn (K) es escalonada reducida por filas, entonces

A es invertible si, y solo si, A = In .

Demostración.
“⇒” Si A es invertible ninguna de sus filas es nula y, como es escalonada, el número
de pivotes coincide con el número de filas y, por tanto, con el número de columnas.
Además, por ser A reducida, se tiene que A = In .
“⇐” Trivial.

Teorema 1.22. Toda matriz es equivalente por filas a una matriz escalonada y a una
única matriz escalonada reducida por filas.

Demostración. Ver álgebra Lineal de L. Merino y E. Santos, pág. 21, o Álgebra Lineal
y aplicaciones de J. Arvesú, R. Álvarez y F. Marcellán, pág. 43.

Ejercicio 1.23. Calcular una matriz escalonada equivalente por filas a la matriz A y
una escalonada reducida equivalente por filas a la matriz B, siendo
   
1 −2 3 9 1 −2 3 9
A =  −1 3 0 −4  , B =  0 1 3 5  ∈ M3×4 (R).
2 −5 5 17 0 0 1 2

Prueba.
Para la matriz A se tiene que:
   
1 −2 3 9 1 −2 3 9
 −1 3 0 −4  − −−−→  0 1 3 5  −−−−−→
F2 +F1 F3 −2F1
2 −5 5 17 2 −5 5 17
   
1 −2 3 9 1 −2 3 9
 0 1 3 5 − −−−→  0 1 3 5 .
F3 +F2
0 −1 −1 −1 0 0 2 4

Análogamente para la matriz B,


1.4. FORMA ESCALONADA Y RANGO POR FILAS DE UNA MATRIZ 9
   
1 −2 3 9 1 0 9 19
 0 1 3 5  −−−−−→  0 1 3 5 − −−−−→
F1 +2F2 F1 −9F3
0 0 1 2 0 0 1 2
   
1 0 0 1 1 0 0 1
0 1 3 5 −−−−−→  0 1 0
F2 −3F3
−1 .
0 0 1 2 0 0 1 2

Corolario 1.24. Sea A ∈ Mn (K).


A es invertible ⇔ A e In son equivalentes por filas ⇔ A es producto de matrices
elementales.

Algoritmo para calcular la inversa de una matriz


Si A es no singular y si t1 , . . . , ts es la sucesión de operaciones elementales por filas
que transforman la matriz A en In , estas operaciones, en el mismo orden, también
transforman la matriz In en A−1 , de manera que el esquema

(A|In ) −→ · · · −→ (In |A−1 )


t1 ts

nos indica como calcular la inversa de una matriz no singular, usando transformaciones
elementales por filas.

Ejemplo 1.25.
 
−1 −2
Sea A = ∈ M2 (R). Para calcular la inversa de la matriz A procedemos
3 8
del modo siguiente:
   
−1 −2 1 0 1 2 −1 0
(A|I2 ) = −−→
−F1
−−−−−→
F2 −3F1
3 8 0 1 3 8 0 1

1 2 −1 1 0 −4 −1
! !

1 2 −1 0
 0

1
−→ 3 1 −−−−−→
F1 −2F2
3 1
0 2 3 1 F
2 2 0 1 0 1
2 2 2 2

−4 −1
!
y, así, A−1 = 3 1 .
2 2

Definición 1.26. Sea A ∈ Mm×n (K), llamaremos rango por filas de A, y lo denotare-
mos por rf (A), al número de pivotes (o el número de filas no nulas) de cualquier matriz
escalonada por filas que sea equivalente por filas a A.
10 CAPÍTULO 1. ÁLGEBRA MATRICIAL

Observación 1.27.
El rango por filas está bien definido, ya que cualquiera de las matrices escalonadas
que sean equivalentes por filas a A tiene el mismo número de pivotes. En efecto, si B es
una matriz escalonada por filas, su número de pivotes coincide con el número de pivotes
de la única escalonada reducida a la que es equivalente por filas, ya que:
 Si el pivote de la fila i, está la columna j, es α = bij , se convierte en 1 haciendo
Eα−1 Fi B.
 Cada uno de los elementos no nulos de la columna j, bkj 6= 0, k = 1, . . . , i − 1, se
convierte en 0 haciendo EFk −bkj Fi Ebij −1 Fi B.

1.5. Determinantes
En este apartado, las matrices que se consideran son matrices cuadradas.

El concepto de determinante de una matriz A = (aij ) ∈ Mn (K), puede ser definido


por inducción:
Para n = 1, se define |A| = det(A) = a11 .
Sea n > 1. Supuesto conocido el valor del determinante de una matriz de orden
n − 1, se define el determinante de la matriz A de orden n como:

|A| = det(A) = a11 α11 + · · · + an1 αn1 .

Siendo αij = (−1)i+j det(Aij ), en donde Aij es la matriz de orden n − 1 que se


obtiene de A suprimiendo la fila i-ésima y la columna j-ésima. El escalar αij se llama
adjunto del elemento aij de A.
La fórmula anterior se conoce como el desarrollo de Laplace del determinante de A
por la primera columna.
Veremos, más adelante, que esta definición no depende de la columna elegida, de
modo que

|A| = det(A) = a1j α1j + · · · + anj αnj , para cualquier j ∈ {1, . . . , n}.

y que también se puede calcular cambiando el papel de las columnas por filas, es decir,

|A| = det(A) = ai1 αi1 + · · · + ain αin , para cualquier i ∈ {1, . . . , n}.

Ejemplos 1.28.

1. El determinante de una matriz de orden 2 es:



a11 a12
a21 a22 = a11 α11 + a21 α21 = a11 a22 − a21 a12 .

1.5. DETERMINANTES 11

2. (Regla de Sarrus) El determinante de una matriz de orden 3 es:



a11 a12 a13

a21 a22 a23 = a11 α11 + a21 α21 + a31 α31

a31 a32 a33

a22 a23 a12 a13 a12 a13
= a11
− a21
+ a31

a32 a33 a32 a33 a22 a23
= a11 (a22 a33 − a32 a23 ) + a21 (a32 a13 − a12 a33 ) + a31 (a12 a23 − a22 a13 )
= a11 a22 a33 + a13 a21 a32 + a12 a23 a31 − a11 a23 a32 − a12 a21 a33 − a13 a22 a31 .

3.

1 2 3
1 3
4 6 = 6 − 12 = −6 y 0 1 2 = 0 + 0 + 8 − 6 − 2 − 0 = 0.

2 1 0

4. Si A = (aij ) ∈ Mn (K) es una matriz triangular superior, |A| = a11 · · · ann .

Se demuestra por inducción en n. Si n = 1, |A| = a11 . Si n > 1 y suponemos que


se verifica el resultado para matrices de orden n − 1, para una matriz A de orden n,
tenemos que |A| = a11 α11 = a11 (−1)1+1 det(A11 ).
Como A11 es una matriz triangular superior de orden n − 1, det(A11 ) = a22 · · · ann
y, por tanto, |A| = a11 a22 · · · ann .
En particular, det(In ) = 1.

Determinantes y operaciones elementales


En el tema anterior aprendimos a transformar una matriz cuadrada A en una trian-
gular superior T = (dij ), realizando operaciones elementales en sus filas. Puesto que
sabemos que det(T ) = d11 · · · dnn , vamos a ver como afecta cada operación elemental
en las filas de una matriz al cálculo de su determinante, lo que nos permitirá calcular
det(A), de manera rápida, a partir de det(T ).

Proposición 1.29. Se verifican las siguientes propiedades:


1. Si A, A0 y A00 ∈ Mn (K) son tales que Fi (A) = Fi (A0 ) + Fi (A00 ) y, si j 6= i, Fj (A) =
Fj (A0 ) = Fj (A00 ), se tiene que det(A) = det(A0 ) + det(A00 ).

2. Si A ∈ Mn (K) tiene dos filas iguales, entonces det(A) = 0.

3. Si se intercambian dos filas de A ∈ Mn (K), el determinante de la matriz resultante


es − det(A).
En particular, se obtiene que
det(EFi ↔Fj ) = − det(In ) = −1 y que det(EFi ↔Fj A) = det(EFi ↔Fj ) det(A).
12 CAPÍTULO 1. ÁLGEBRA MATRICIAL

4. Si multiplicamos los elementos de una fila de la matriz A ∈ Mn (K) por un escalar


β, obtenemos una matriz cuyo determinante es β det(A).
En particular, si A tiene una fila de ceros, entonces det(A) = 0. Además, si β 6= 0,
det(EβFi ) = β det(In ) = β y det(EβFi A) = det(EβFi ) det(A).

5. Si a la fila i-ésima de A ∈ Mn (K) le sumamos la j-ésima multiplicada por un escalar


β, siendo i 6= j, obtenemos una matriz cuyo determinante es det(A).
En particular, se tiene que

det(EFi +βFj ) = det(In ) = 1 y det(EFi +βFj A) = det(EFi +βFj ) det(A).

Demostración. La demostración de las propiedades 1 y 2, se puede consultar en el libro


“Álgebra lineal con métodos elementales” de Merino L. y Santos E.

3.


F 1 (A) F1 (A) F1 (A) F1 (A) F1 (A)


··· ··· ··· ··· ···

Fi (A) + Fj (A) Fi (A) Fi (A) Fj (A) Fj (A)

0 = ··· = ··· + ··· + ··· + ···

Fj (A) + Fi (A) Fj (A) Fi (A) Fj (A) Fi (A)


··· ··· ··· ··· ···

Fn (A) F (A) F (A) F (A) F (A)
n n n n


F1 (A) F1 (A)

··· ···

Fi (A) Fj (A)

= · · · + · · ·
Fj (A) Fi (A)

··· ···

F (A) F (A)
n n

4. Sea A = (aij ) una matriz de orden n, usaremos inducción en n para probar esta
propiedad. Si n = 1 es evidente. Supuesto n > 1 y que el resultado es cierto para
matrices de orden n − 1, si
 
a11 . . . a1n
 ··· ... ··· 
0
 
A = βai1 . . . βain 

 ... ... ... 
an1 . . . ann

se tiene que det(A0 ) = a11 α11 0 + · · · + βa α0 · · · + a α0 . Como α0 = α


i1 i1 n1 n1 i1 i1 y,
por hipótesis de inducción, para t 6= i se tiene que αt1 0 = βα , obtenemos que
t1
det(A0 ) = a11 βα11 + · · · + βai1 αi1 + · · · + an1 βαn1 = β det(A).
1.5. DETERMINANTES 13

5. Utilizando las propiedades 1, 4 y 2, se obtiene:




F1 (A) F1 (A)

F1 (A)


··· ···

···

Fi (A) + βFj (A) Fi (A) Fj (A)


··· = · · · + β · · · = |A| .


Fj (A) Fj (A)

Fj (A)


··· ···

···

Fn (A) F (A)
n
F (A)
n

Observaciones 1.30.

1. Si A ∈ Mn (K) y β ∈ K, se verifica que |βA| = β n |A|.


Es consecuencia inmediata de que βA = EβF1 · · · EβFn A y de la propiedad 3
anterior.

2. Si A0 es la matriz obtenida de A ∈ Mn (K) sumándole a una fila una combinación


lineal de las demás, |A0 | = |A|.
Es consecuencia de la propiedad 5.

Proposición 1.31. Si A es una matriz de orden n,

A es no singular si, y solo si, |A| =


6 0.

Demostración. A es no singular si, y solo si, existen E1 , . . . , Es matrices elementales tal


que A = E1 · · · Es , de donde se sigue que

|A| = |E1 · · · Es | = |E1 | |E2 · · · Es | = · · · = |E1 | · · · |Es | =


6 0.

A es singular si, y solo si, A es equivalente por filas a una matriz escalonada por
filas A0 que tiene una fila de ceros si, y solo si, existen E1 , . . . , Es matrices elementales
tal que A = E1 · · · Es A0 , de lo que se deduce que

|A| = E1 · · · Es A0 = |E1 | E2 · · · Es A0 = · · · = |E1 | · · · |Es | A0 = 0.


Teorema 1.32. Si A y B son matrices de orden n, entonces |AB| = |A| |B|.

Demostración.
Caso 1) Si A es no singular.
Hemos visto que:
Si A es no singular, A es producto de matrices elementales, es decir, A = E1 · · · Ek
y |A| = |E1 | · · · |Es | =
6 0.
14 CAPÍTULO 1. ÁLGEBRA MATRICIAL

Utilizando reiteradamente las propiedades 3, 4 y 5 de la proposición 1.29 y que el


producto de matrices es asociativo, se tiene que:

|AB| = |E1 (E2 · · · Ek B)| = |E1 | |E2 · · · Ek B| = · · · = |E1 | |E2 | · · · |Ek | |B| = |A| |B| .

Caso 2) Si A es singular.
Existen matrices elementales E1 , . . . , Es y una matriz A0 que tiene una fila de ceros
tal que A = E1 · · · Es A0 y |A| = 0.
Así, |AB| = |E1 · · · Es A0 B| = · · · = |E1 | · · · |Es | |A0 B| = 0, puesto que la matriz A0 B
tiene también alguna fila de ceros, y |AB| = 0 = |A| |B|.

Pretendemos ahora ver que el desarrollo de Laplace para el calculo del determinante
puede hacerse a lo largo de cualquier columna o de cualquier fila y, para ello, veremos
que el determinante de una matriz coincide con el de su traspuesta.

Lema 1.33. La traspuesta de una matriz elemental, E, es una matriz elemental que
tiene mismo determinante que E.

Demostración. El resultado es consecuencia inmediata de que

(EFi ↔Fj )t = (ECi ↔Cj )t = EFi ↔Fj ,


t t
EαF i
= EαC i
= EαFi y
(EFi +αFj )t = (ECj +αCi )t = EFj +αFi .


Teorema 1.34. Si A es una matriz de orden n, entonces |A| = At .

Demostración. Sabemos que A es no singular t −1 t


t −1
t si, y solo si, A es no singular [(A ) =
(A ) ]. Por tanto, |A| = 0 si, y solo si, A = 0.
Supongamos ahora que |A| = 6 0, es decir, existen E1 , . . . , Ek matrices elementales
tal que A = E1 · · · Ek y, así, At = (Ek )t · · · (E1 )t .

En consecuencia, At = (Ek )t · · · (E1 )t = |Ek | · · · |E1 | = |A|.

Corolario 1.35. Las proposición 1.29 es válida si se cambia la palabra fila por columna.

Corolario 1.36 (Desarrollo de Laplace del determinante por la primera fila).


Si A = (aij ) es una matriz de orden n, entonces

|A| = a11 α11 + · · · + a1n α1n .


1.5. DETERMINANTES 15

Demostración. Basta con observar que la primera columna de At es (a11 , . . . , a1n )t y


los adjuntos de los elementos de la primera columna de At coinciden con los correspon-
dientes a los elementos de la primera fila de A.
En efecto, como

(A1j )t = (At )j1 , para todo j, y


α1j = (−1)1+j det(A1j ) = (−1)1+j det(A1j )t = (−1)1+j det((At )j1 ),

se tiene que:

|A| = At = a11 (−1)1+1 det((At )11 ) + · · · + a1n (−1)n+1 det((At )n1 )


= a11 (−1)1+1 det(A11 ) + · · · + a1n (−1)n+1 det(A1n ) = a11 α11 + · · · + a1n α1n .

Proposición 1.37 (Desarrollo de Laplace del determinante por cualquier columna


(respectivamente fila) ).
Si A = (aij ) es una matriz de orden n, entonces

|A| = a1j α1j + · · · + anj αnj , para j = 1, . . . , n,


|A| = ai1 αi1 + · · · + ain αin , para i = 1, . . . , n.

Demostración. Sea A0 = EF1 ↔F2 A la matriz obtenida de A intercambiando la primera


fila con la segunda. Calculando el determinante de A0 con el desarrollo de Laplace por
la primera fila:
0
A = a21 (−1)1+1 det(A21 ) + a22 (−1)1+2 det(A22 ) + · · · + a2n (−1)1+n det(A2n )

y, como |A| = − |A0 | , se tiene que:

|A| = a21 (−1)2+1 det(A21 ) + · · · + a2n (−1)2+n det(A2n ) = a21 α21 + · · · + a2n α2n .

De la misma forma, si A00 es la matriz obtenida de A intercambiando la segunda fila


con la tercera, calculando el desarrollo de Laplace de A00 por su segunda fila, se obtiene:
00
A = a31 (−1)2+1 det(A31 ) + a32 (−1)2+2 det(A32 ) + · · · + a3n (−1)2+n det(A3n )

y, por tanto, como |A| = − |A00 | , se tiene que:

|A| = a31 (−1)3+1 det(A31 ) · · · + a3n (−1)3+n det(A3n ) = a31 α31 + · · · + a3n α3n .

Repitiendo el proceso las veces que sea necesario,


t se obtiene el desarrollo por cual-
quier otra fila y, teniendo en cuenta que |A| = A , se obtiene el desarrollo por cualquier

columna.

Proposición 1.38. Si A = (aij ) es una matriz no singular de orden n, entonces


16 CAPÍTULO 1. ÁLGEBRA MATRICIAL

A−1 = |A|−1 (adj(A))t , en donde adj(A) = (αij ) ∈ Mn (K).

Demostración. Como |A| = 6 0, podemos definir la matriz B := |A|−1 (adj(A))t . La


matriz B es de orden n y vamos a comprobar que es inversa de A. En efecto,
n n
aik |A|−1 αik = |A|−1 |A| = 1
P P
(AB)(i, i) = aik B(k, i) =
k=1 k=1

y, si i 6= j, se tiene que
n n n
aik |A|−1 αjk = |A|−1 (
P P P
(AB)(i, j) = aik B(k, j) = aik αjk ) = 0
k=1 k=1 k=1
n
P
ya que aik αjk = 0, porque es el desarrollo de Laplace, a lo largo de la fila j-ésima, del
k=1
determinante de una matriz que tiene todas sus filas como las de A, excepto la j-ésima
que coincide con la i-ésima de A, es decir, es el determinante de una matriz con dos
filas iguales.

1.6. Ejercicios
1.- Evaluar las siguientes operaciones con matrices reales:
 
      1 −2
4   4 1 0 1 
5 −3 , 5 −3 , 3 5 .
2 2 2 2 3
0 7

2.- Una matriz A se dice idempotente si A2 = A.

a) Probar que una matriz idempotente es cuadrada.

b) ¿Son idempotentes las matrices siguientes?


 
    0 0 1
1 0 0 1
; y  0 1 0 .
0 0 1 0
1 0 0

3.- Se consideran las matrices sobre el cuerpo R:


   
0 1 1 1
A= yB= .
1 0 0 1

Justificar la verdad o falsedad de las siguientes afirmaciones:

a) AB = BA.

b) (A + B)2 = A2 + 2AB + B 2 .
1.6. EJERCICIOS 17

c) A(A + B) = A2 + AB.

4.- Sea A ∈ Mn (R) una matriz no singular. Demostrar las siguientes propiedades:

a) (A−1 )−1 = A.

b) Para cada α ∈ R con α 6= 0, (αA)−1 = α−1 A−1 .

c) A es simétrica ⇔ A−1 es simétrica.

1 α α2 /2
 

5.- Sea A(α) =  0 1 α  ∈ M3 (R) y β ∈ R. Se pide:


0 0 1

a) Demostrar que A(α)A(β) = A(α + β).

b) Demostrar que A(3α) − 3A(2α) + 3A(α) = I3 .

6.- Demostrar que el producto de dos matrices diagonales es también una matriz dia-
gonal. ¿Es conmutativo este producto?
7.- Sean A, B ∈ Mn (R) y α ∈ R. Justificar la verdad o falsedad de las siguientes
afirmaciones:

a) Si A + B es una matriz diagonal, entonces A y B son matrices diagonales.

b) Si A es una matriz diagonal, entonces AB es una matriz diagonal.

c) Si α 6= 0 y αA es una matriz diagonal, entonces A es una matriz diagonal.

d) Si AB es una matriz diagonal, entonces A y B son matrices diagonales.

 
0 −1 1
8.- Se considera la matriz A =  0 1 −1  ∈ M3 (R).
0 0 1
Hallar una fórmula para An , siendo n un entero positivo.

 
1 0
9.- Si A = ∈ M2 (R), demostrar que A2 = 2A − I2 y calcular A100 .
−1 1
10.- Sean A = (aij ) ∈ M5×3 (R) y B = (bij ) ∈ M3×4 (R) tales que

ai1 + ai2 + ai3 = α ∀ i = 1, . . . , 5 y bi1 + bi2 + bi3 + bi4 = β ∀ i = 1, . . . , 3.


18 CAPÍTULO 1. ÁLGEBRA MATRICIAL

Demostrar que la suma de los elementos de cada una de las filas de la matriz producto
AB es αβ.
 
2 1
 −1 3 
11.- Halla una matriz elemental E que transforma la matriz A =   0 4  en B,

1 2
donde:
     
2 1 2 1 2 1
 0 4   −1 3   −1 3 
 −1 3  ; b) B =  0 4  ; c) B =  0 3 .
a) B =      

1 2 5 4 1 2

12.- Encontrar, justificando la respuesta, matrices elementales E1 , E2 , E3 , E4 tales que:

a) E1 A = B; b) E2 B = A; c) E3 A = C; d) E4 C = A, donde
     
3 4 1 8 1 5 3 4 1
A =  2 −7 −1  , B =  2 −7 −1  y C =  2 −7 −1 
8 1 5 3 4 1 2 −7 3

¿Es posible encontrar una matriz elemental E tal que EB = C? Justifica la respues-
ta.
13.- Encontrar una matriz A ∈ M3 (R) que verifique la igualdad siguiente:

EF1 +2F3 EF2 ↔F1 AE(−4)F3 = I3 .

14.- Sean A, B ∈ M3 (R) tales que


   
1 1 −3 0 1 1
1
A−1 =  −2 1 0  y AB =  0 5 8 
3
0 0 3 1 0 0

Denotando por A1 la matriz obtenida a partir de A multiplicando su fila 2 por 3,


A2 la matriz obtenida a partir de A intercambiando su fila 1 y su fila 3 y B3 la matriz
obtenida a partir de B multiplicando su columna 2 por 2.
Calcular, usando las matrices elementales, las siguientes matrices:

(A1 )−1 , (A2 )−1 , A1 B, A2 B y AB3 .

15.- Sean A, B ∈ M3 (R) tales que


   
1 2 −1 0 1 0
A−1 =  −2 1 0  y AB =  0 3 1 
0 0 1 1 0 0
1.6. EJERCICIOS 19

Denotando por A1 la matriz obtenida a partir de A multiplicando su fila 3 por −2,


A2 la matriz obtenida a partir de A intercambiando su fila 3 y su fila 2 y B3 la matriz
1
obtenida a partir de B sumándole a su columna 3 la colunma 2 multiplicada por − .
2
Calcular, usando las matrices elementales, las siguientes matrices:

(A1 )−1 , (A2 )−1 , A1 B, A2 B y AB3 .

16.- Calcular el rango por filas de la matriz


 
2 −1 −3 4
 1
 3 5 −1 
 ∈ M4 (R).
 5 1 −1 7 
7 7 9 1

17.- Hallar en función de a y b los rangos por filas de:


   
a 1 2 2 a+2 a
 0 a 0 y 3 5 b  ∈ M3 (R).
0 0 b 1 2 1

18.- Calcular el rango por filas de la matriz


 
1 1 0 0 0

 0 1 1 0 0 

 0 0 1 1 0  ∈ M5 (R).
 
 0 0 0 1 1 
α 0 0 0 1

19.- Calcular las inversas de las matrices


   
3 2 0 1 2 1
A =  0 1 0  y B =  1 1 −1  ∈ M3 (R)
6 6 1 1 1 0

y escribir A y B −1 como un producto de matrices elementales.


20.- Calcular, cuando exista , la inversa de la matriz
 
−1 a 0
A= 2 0 a  ∈ M3 (C).
−1 3 −1

21.- Calcular los valores de a para que la siguiente matriz tenga inversa
20 CAPÍTULO 1. ÁLGEBRA MATRICIAL
 
1 2 0
 1 a 3  ∈ M3 (R).
2 1 3

22.- Se consideran las siguientes matrices sobre el cuerpo R:




 1 1 1 1
−1 0 0  1 1 −1 −1 
A =  α 1 −1  y B = 
 1 −1

1 −1 
β 1 1
1 −1 −1 1

a) Calcular, usando operaciones elementales, A−1 y B −1 .

b) Utilizando el apartado anterior, calcular (3A)−1 y 5(B t )−1 .

23.- Calcular, utilizando las operaciones elementales, la inversa de la matriz


 
1 a 0 0 0

 0 1 a 0 0 

 0 0 1 a 0  ∈ M5 (R).
 
 0 0 0 1 a 
0 0 0 0 1

24.- Se consideran las matrices reales

1 a a2 a3 a4
   
0 0 0 0 1
 0 1 a a2 a 3   0 1 a a2 a3 
 
2 
 
A=  0 0 1 a a yB= 0 1
 1+a a + a2 a2 + a3 

 0 0 0 1 a   0 0 0 1 a 
0 0 0 0 1 1 a a2 a3 a4

a) Hallar, usando operaciones elementales, la inversa de la matriz A.

b) Calcular B −1 a partir de A−1 .

25.- Demostrar que el determinante del producto de una matriz 2 × 1 por otra 1 × 2 es
siempre cero.
26.- Sean A,B ∈ Mn (R) y α ∈ R. Razonar si son verdaderas o falsas las siguientes
afirmaciones:

a) |A + B| = |A| + |B|.

b) |αA| = α |A|.

c) |αA| = αn |A|.
1.6. EJERCICIOS 21

d) |−A| = (−1)n |A|.


e) Si AB tiene inversa también la tienen A y B.
f ) Si |AB| = 0, entonces |A| = |B| = 0.

27.- Sean A,B ∈ M3 (R) tales que |A| = 3 y |B| = 5. Calcular los determinantes de las
siguientes matrices:

AB, −A, 3B, A−1 B y At EF1 ↔F2 B −1 .

28.- Calcular los


determinantes de las siguientes matrices reales:
     
1
1 1 1 x 1 1 1 a a a a
 12 3 4  1 x 1 1   b b b a 
   
A=  1 ;B =   1 1 x 1 ;C =  c
;
4 9 16  c b a 
x x 2 x3
1 1 1 1 x d c b a
 
  1 1 1 1
x+a b c  1 1+a 1 1 
D= a x+b c  yE=  1
.
1 1+b 1 
a b x+c
1 1 1 1+c

29.- Sabiendo que los números 1353, 3751, 8492 y 6105 son todos divisibles por 11,
demostrar que el determinante de la siguiente matriz es, también, un múltiplo entero
de 11:  
1 3 5 3
 3 7 5 1 
A=  8 4 9 2 .

6 1 0 5

30.- Calcular A−1 B, sin hallar previamente A−1 , siendo


   
1 −1 1 4 1 2
A= 2 1 1  y B =  −2 0 3  .
2 −1 2 1 1 1

31.- Sea A una matriz cuadrada n × n formada por números enteros entre 0 y 9.
Demostrar que si las filas (las columnas) de A, leídas como un número de n dígitos,
forman un múltiplo de 3, entonces |A| también es un múltiplo de 3.
32.- Resolver en Z la ecuación:


1 x 0 x


0 2 x 0
= 2.

1 0 −1 x

x 1 −1 x
22 CAPÍTULO 1. ÁLGEBRA MATRICIAL

33.- Determinar los valores reales de x para los que se verifica que |A| =
6 0, siendo
 
x 2 0 3
 1 2 3 3 
A=  1 0 1
.
1 
1 1 1 3

34.- Calcular el determinante



1 2 1 2

−1 1 2 1

1 1 2 2

−2 1 1 1

por el procedimiento de llevarlo a la forma triangular.


35.- Calcular el determinante de Vandermonde

1 1 1 1

a b c d
.
a2 b2 c2 d2

a3 b3 c3 d3

36.- Calcular los determinantes de las siguientes matrices reales de orden n :

a) A = (aij ) siendo aij = máx {i, j}.


b) B = (bij ) siendo bij = mı́n {i, j}.
 
x a a ... a
 a x a ... a 
 
c) C =  a a x ... a  .

 .. .. .. . . .. 
 . . . . . 
a a a ... x

37.- Calcular el determinante de la matriz


 
α+1 α α α
 α α+1 α α 
  ∈ M4 (R).
 α α α+1 α 
α α α α+1

38.- Demostrar que:


2
a a 1 bcd
2
b b 1 acd

c2 = −(b − a)(c − a)(d − a)(c − b)(d − b)(c − d).
c 1 abd
d2 d 1 abc
1.6. EJERCICIOS 23

39.- Una matriz cuadrada es antisimétrica si At = −A. Probar que si 2 6= 0, el deter-


minante de una matriz antisimétrica de orden impar es cero.
40.- Hallar los posibles valores del determinante de una matriz A, en cada uno de los
siguientes casos:

a) A es idempotente, es decir A2 = A.

b) A es ortogonal, es decir AAt = I.

c) A es nilpotente, es decir existe n tal que An = 0.

41.- Sean A, B ∈ M4 (R) tales que |A| = −3 y |B| = 9, calcular el determinante de la


1
matriz A3 B −1 At .
3
24 CAPÍTULO 1. ÁLGEBRA MATRICIAL
Capítulo 2

Sistemas de ecuaciones lineales

A partir de ahora, K denotará un cuerpo.

2.1. Ecuaciones lineales


Definición 2.1. Una ecuación lineal con coeficientes en K y con n incógnitas (o va-
riables) x1 , x2 , . . . , xn es una expresión de la forma

a1 x1 + a2 x2 + · · · + an xn = b (∗)

en donde los elementos ai ∈ K, para i = 1, . . . , n, se llaman coeficientes de la ecuación


y b ∈ K se llama término independiente.
Diremos que (α1 , α2 , . . . , αn ) ∈ K n es solución de la ecuación lineal (∗) si

a1 α1 + a2 α2 + · · · + an αn = b

es decir, al sustituir x1 = α1 , . . . , xn = αn en (∗) se verifica la igualdad anterior.

Si el número de incógnitas es pequeño estas se denotarán, usualmente, por las letras


x, y, z, t, . . . .

Ejemplos 2.2.

1. (0, 0) y (2, −1) ∈ R2 son soluciones de la ecuación lineal x + 2y = 0.

2. La ecuación x2 + 2y = 1 no es lineal.

2.2. Sistemas de ecuaciones lineales


Definición 2.3. Una colección de m ecuaciones lineales con coeficientes en K con las
mismas n incógnitas x1 , x2 , . . . , xn

25
26 CAPÍTULO 2. SISTEMAS DE ECUACIONES LINEALES


 a11 x1 + a12 x2 + · · · + a1n xn = b1
a21 x1 + a22 x2 + · · · + a2n xn = b2

(S),

 ···
am1 x1 + am2 x2 + · · · + amn xn = bm

se llama sistema de m ecuaciones lineales con n incógnitas. En forma abreviada,


n
P
aij xj = bi para i = 1, . . . , m.
j=1

Los aij para i = 1, . . . , m y j = 1, . . . , n, se llaman coeficientes del sistema y los bi , para


i = 1, . . . , m, se llaman términos independientes del sistema.
Si bi = 0 para cada i = 1, . . . , m, es decir, si todos los términos independientes son
cero, se dice que el sistema es homogéneo.
Una n-épla (α1 , . . . , αn ) ∈ K n es una solución del sistema S, si lo es de cada una
de sus m ecuaciones.
Un sistema es compatible si admite alguna solución. En caso contrario, se dice que
es incompatible. Cuando un sistema compatible tiene una única solución se dice que es
compatible determinado y, si tiene más de una, se dice que es compatible indeterminado.
Todo sistema homogéneo es compatible, puesto que (0, . . . , 0) ∈ K n es una solución
a la que se le llamará solución trivial.

Ejemplos 2.4.
Sean tres sistemas con coeficientes en R:

1.

x+y =2
es un sistema incompatible y representa a dos rectas paralelas.
x+y =7

2.

x+y =2
es un sistema compatible determinado, puesto que (−5, 7) es su
y =7
única solución. Representa a dos rectas que se cortan en el punto (−5, 7).

3.

x + y =2
es un sistema compatible indeterminado, puesto que tiene
2x + 2y = 4
más de una solución, por ejemplo (1, 1) y (0, 2). Se trata ahora de dos rectas
coincidentes.

2.3. Interpretación matricial de un sistema


Dado un sistema de ecuaciones lineales con coeficientes en K.
2.4. MÉTODO DE GAUSS Y REGLA DE CRAMER. 27


 a11 x1 + a12 x2 + · · · + a1n xn = b1
a21 x1 + a22 x2 + · · · + a2n xn = b2

(S)

 ···
am1 x1 + am2 x2 + · · · + amn xn = bm

llamaremos:
 matriz de los coeficientes del sistema a la matriz A = (aij ) ∈ Mm×n (K),
 matriz de los términos independientes a la matriz B = (b1 . . . bm )t ∈ Mm×1 (K),
 matriz ampliada del sistema a la matriz
 
a11 . . . a1n b1
(A | B) =  . . . . . . . . . . . . ∈ Mm×(n+1) (K).
am1 . . . amn bm
 
x1
Si denotamos por X =  ... , el sistema anterior tiene la siguiente expresión ma-
 

xn
tricial:

AX = B.

Nótese que también se puede expresar como

C1 (A)x1 + · · · + Cn (A)xn = B.

2.4. Método de Gauss y Regla de Cramer.


Supongamos que queremos resolver el siguiente sistema:

 x + y +3z = 4
y +2z = 3
z =1

La tercera ecuación nos indica que z = 1, sustituyendo este valor en la segunda, se


tiene que y = 1 y, sustituyendo ambos valores en la primera, obtenemos que x = 0. Así,
(0, 1, 1) es la única solución de este sistema, que es por tanto un sistema compatible
determinado.
El método utilizado, de sustitución hacia atrás, nos permite resolverlo de forma
muy sencilla porque está en forma escalonada. En general, un sistema arbitrario no
aparece en forma escalonada y, para resolverlo con la técnica anterior, trataremos de
transformarlo en otro con las mismas soluciones que se presente en forma escalonada.

Definición 2.5. Dos sistemas con n incógnitas x1 , x2 , . . . , xn se dicen equivalentes si


tienen el mismo conjunto de soluciones.
28 CAPÍTULO 2. SISTEMAS DE ECUACIONES LINEALES

Vamos a considerar tres tipos de operaciones que nos permitirán transformar un sis-
tema, S, en otro que sea equivalente, S 0 . A estas operaciones les llamaremos operaciones
elementales y son las siguientes:

1. Intercambiar dos ecuaciones (Fi ↔ Fj ).

2. Multiplicar una ecuación por α ∈ K y α 6= 0 (αFi ).

3. Sumarle a una ecuación otra multiplicada por α ∈ K. (Fi + αFj con i 6= j).

Nótese que:

S −−−−→
Fi ↔Fj
S0 −−−−→
Fi ↔Fj
S

S −−→
αFi
S0 −
1
−→ S
F
α i

S −−−−−→
Fi +αFj
S0 −−−−−→
Fi −αFj
S.

Proposición 2.6. Si S es un sistema de ecuaciones lineales, todo sistema, S 0 , obtenido


a partir de S tras un número finito de operaciones elementales, es equivalente a S.

Demostración. Es suficiente demostrar que cada una de las operaciones elementales


transforma un sistema en otro equivalente.

Definición 2.7. Un sistema de ecuaciones lineales se dice escalonado si su matriz


ampliada es una matriz escalonada. En un sistema escalonado las incógnitas correspon-
dientes a los pivotes se llamarán incógnitas principales y las demás incógnitas libres.

Proposición 2.8. Todo sistema de ecuaciones lineales es equivalente a un sistema


escalonado.

Demostración. Es evidente que las operaciones elementales en las ecuaciones de un sis-


tema se corresponden biyectivamente con las correspondientes operaciones elementales
en las filas de la matriz ampliada. El resultado se sigue de que, como ya vimos, toda
matriz es equivalente por filas a una matriz escalonada.

El Método de Gauss consiste en transformar, usando operaciones elementales, un


sistema en otro equivalente que sea escalonado y resolver este, si es posible, usando
sustitución hacia atrás o concluir que no tiene solución.

Ejemplos 2.9. Vamos a resolver tres sistemas de ecuaciones lineales con coeficientes
en R.
2.4. MÉTODO DE GAUSS Y REGLA DE CRAMER. 29

1.
 
 x − 2y + 3z = 9  x − 2y + 3z = 9
F2 +F1
−x + 3y = −4 −→ y + 3z = 5
F3 −2F1 
2x − 5y + 5z = 17 − y − z = −1


 x − 2y + 3z = 9
−−−−→
F3 +F2 
y + 3z = 5
2z = 4
La única solución de este sistema es (1, −1, 2). Por tanto, se trata de un sistema
compatible determinado.

2.
 
 y − z = 0  x − 3z = −1
x − 3z = −1 −
−−−− →
F2 ↔F1 
y − z = 0
−x + 3y = 1 −x + 3y = 1

 
 x − 3z = −1  x − 3z = −1
−−−−→
F3 +F1 
y − z = 0 −−−−−→
F3 −3F2 
y − z = 0
3y − 3z = 0 0y + 0z = 0
Las ternas de la forma (−1 + 3z, z, z) con z ∈ R son las soluciones del sistema.
Por tanto, se trata de un sistema compatible indeterminado en donde x e y son las
incógnitas principales y z la incógnita libre.

3.
 
 x − 3y + z = 1  x − 3y + z = 1
2x − y − 2z = 2 −−−−−→
F2 −2F1 
5y − 4z = 0
x + 2y − 3z = −1 x + 2y − 3z = −1

 
 x − 3y + z = 1  x− 3y+ z = 1
−−−−→
F3 −F1 
5y − 4z = 0 − −−−→
F3 −F2 
5y− 4z = 0
5y − 4z = −2 0y− 0z = −2

La última ecuación nos indican que se trata de un sistema incompatible.

4.
 
ax +y = 1 ax +y = 1
−−−−→
(a + 1)x +y = 2 F2 −F1 x =1
 
x =1 x =1

−−−−→ −−−−−→
F1 ↔F2 ax +y = 1 F2 −aF1 y =1−a

o bien, si escalonamos el sistema considerando las variables en otro orden se tiene que:
 
y +ax = 1 y +ax = 1
−−−−→
y +(a + 1)x = 2 F2 −F1 x =1
30 CAPÍTULO 2. SISTEMAS DE ECUACIONES LINEALES

Nótese que es un sistema compatible determinado con solución (1, 1 − a).


Como se aprecia en los ejemplos anteriores, el método utilizado solo afecta a los
coeficientes y a los términos independientes del sistema y, por lo tanto, se pueden dejar
de escribir las variables y hacer las mismas transformaciones en una tabla (matriz) en
donde aparezcan ordenados solamente los coeficientes y los términos independientes.

5. Sea el sistema en forma matricial:


    
1 −2 3 x 9
 −1 3 0  y  =  −4 .
2 −5 5 z 17

Consideramos su matriz ampliada y la escalonamos de la forma siguiente:


   
1 −2 3 9 1 −2 3 9
F2 +F1
 −1 3 0 −4  −→  0 1 3 5 
F3 −2F1
2 −5 5 17 0 −1 −1 −1
   
1 −2 3 9 1 −2 3 9
−−−−→  0 1 3 5  −1−→  0 1 3 5 .
F3 +F2 F
2 3
0 0 2 4 0 0 1 2

Por tanto, un sistema equivalente al de partida es:



 x − 2y + 3z = 9
y + 3z = 5
z = 2

cuya solución se obtiene usando sustitución hacia atrás, como se indicó anteriormente.
También se puede continuar el proceso hasta llegar a una matriz que sea escalonada
reducida,
   
1 −2 3 9 1 0 9 19
 0 1 3 5  −−−−−→  0 1 3 5 
F1 +2F2
0 0 1 2 0 0 1 2
   
1 0 0 1 1 0 0 1
−−−−−→ 0 1 3 5 −−−−−→  0 1 0 −1 
F1 −9F3 F2 −3F3
0 0 1 2 0 0 1 2

que es la matriz ampliada del sistema



 x = 1
y = −1
z = 2

y que permite encontrar de manera inmediata su solución, (1, −1, 2).


2.5. DISCUSIÓN DE UN SISTEMA ESCALONADO 31

2.5. Discusión de un sistema escalonado


Para un sistema arbitrario, S, de m ecuaciones lineales con n incógnitas, una vez
que hemos escalonado su matriz ampliada, de orden m × (n + 1), hasta una matriz
escalonada reducida, se pueden dar los siguientes casos:

1. Si hay un pivote en la última columna, el sistema es incompatible ya que corresponde


a una ecuación de la forma 0x1 + · · · + 0xn = 1.

2. Si no hay pivote en la última columna, se pueden dar dos posibilidades:

a) Número de pivotes = número de incógnitas = n. En éste caso, existe una única solu-
ción y la solución viene dada por la última columna. Es decir, la matriz escalonada
reducida tiene una de las formas siguientes

 
1 0 ... 0 b1
0 1 ... 0 b2   
1 0 ... 0 b1
 
 .. .. .. .. .. 
. . . . . 0 1 . . .
  0 b2 
0 0 ... 1 bn   o 
 
. . .. .. .. 

0  .. .. . . .
0 ... 0 0
0 0 . . . 1 bn
 
 .. .. .. .. .. 
. . . . .
0 0 ... 0 0

y la solución del sistema es (b1 , . . . , bn ) ∈ K n .

b) Número de pivotes < número de incógnitas. En éste caso, hay más de una solución
y estas estarán parametrizadas por las variables libres.

Dicho de otro modo, en un sistema escalonado de m ecuaciones lineales con n in-


cógnitas y r pivotes (r ≤ n + 1), se verifica que:

1. Si el último pivote está en la última columna, es decir, la última ecuación no nula (la
r-ésima) tiene término independiente distinto de cero y, por tanto, es de la forma
0x1 + · · · + 0xn = b, con b 6= 0, el sistema es incompatible.

2. Si el último pivote no está en la última columna, hay dos posibilidades:

a) Si r = n, entonces el sistema es compatible determinado.

b) Si r 6= n, es decir r < n, entonces el sistema es compatible indeterminado. Para cada


valor asignado a cada una de las n − r incógnitas libres se obtiene una solución
del sistema.
32 CAPÍTULO 2. SISTEMAS DE ECUACIONES LINEALES

Ejemplos 2.10.

1. El sistema visto en el ejemplo 2.9, el sistema


    
1 −2 3 x 9
 −1 3 0  y  =  −4 , está en el caso 2a).
2 −5 5 z 17
2.
     
1 2 3 4 1 2 3 4 1 2 3 4
A = 2 4 7 9 −−−−−→
F2 −2F1
0 0 1 1 −−−−−→
F3 −2F1
0 0 1 1 .
2 4 6 8 2 4 6 8 0 0 0 0

El sistema cuya matriz ampliada es A corresponde al caso 2b); de la segunda


ecuación se obtiene que z = 1 y, sustituyendo éste valor en la primera, se tiene
que x = 1 − 2y. Por tanto, las soluciones del sistema son las ternas de la forma
(1 − 2y, y, 1) para todo y ∈ R.

3.
     
1 2 3 4 1 2 3 4 1 2 3 4
B = 2 4 7 9 −−−−−→
F2 −2F1
0 0 1 1 −−−−−→
F3 −2F1
0 0 1 1.
2 4 6 9 2 4 6 9 0 0 0 1

El sistema cuya matriz ampliada es B está en la situación 1) y se trata de un sistema


incompatible.

Proposición 2.11. Si A ∈ Mn (K). Un sistema AX = B es compatible determinado


si, y solo si, A es no singular.

Demostración.
“⇐” Si A es no singular, entonces X = A−1 B.
“⇒” Si AX = B es compatible determinado, A es equivalente por filas a una matriz
escalonada reducida cuyo número de pivotes coincide con el número de incógnitas, es
decir, A es equivalente por filas a la matriz In y, por tanto, es no singular.

Proposición 2.12 (Regla de Cramer). Si AX = B es un sistema de n ecuaciones


lineales con n incógnitas compatible determinado, su única solución viene dada por:

a11 . . . a1(i−1) b1 a1(i+1) . . . a1n
xi = |A|−1 . . . . . .

... ... ... . . . . . . , para i = 1, . . . , n.
an1 . . . an(i−1) bn an(i+1) . . . ann

Demostración. Si AX = B, al ser A no singular, X = A−1 B = |A|−1 (adj(A))t B y


entonces
2.6. EJERCICIOS 33

n n n
xi = X(i, 1) = |A|−1 ((adj(A))t )(i, k)bk = |A|−1 αki bk = |A|−1
P P P
bk αki .
k=1 k=1 k=1
n
P
Nótese que bk αki es el desarrollo, por la columna i-ésima, del determinante de
k=1
una matriz que se obtiene de la matriz A cambiando su columna i-ésima por la de los
términos independientes del sistema.

2.6. Ejercicios
1.- Resolver, si es posible, los siguientes sistemas de ecuaciones lineales con coeficientes
en R:


 x +y +z −t = 1
y −z +t = −1

a)

 3x +6z −6t = 6
−y +z −t = 1


 2x +z = 2
b) x +2y = 1
4x +4y +z −t = 5


 2x +y −4z = 0
c) 3x +5y −7z = 0
4x −5y −6z = 0


 x +y +z = 6
d) 2x −y +z = 3
3x −z = 0



 x +y +z +t = 6
2x +3y −t = 0

e)

 −3x +4y +z +2t = 4
x +2y −z +t = 0

2.- Resolver simultáneamente los sistemas de ecuaciones lineales con coeficientes en R


 
 2x +y +3z = 2  2x +y +3z = 1
x −3y +z = 1 y x −3y +z = −2
5x −8y +6z = −2 5x −8y +6z = −5
 

3.- Calcular el valor de α ∈ R para que sea compatible e indeterminado el sistema de


ecuaciones lineales con coeficientes en R:

 αx +y +z = α
x +αy +z = α
x +y +αz = α

34 CAPÍTULO 2. SISTEMAS DE ECUACIONES LINEALES

Para este valor, calcular la componente x de la solución tal que y = 1 y z = 4.

4.- Determinar para que valores reales de a el sistema de ecuaciones lineales con coefi-
cientes en R siguiente tiene solución única, tiene infinitas soluciones y no tiene solución.

 x +y +z = 4
z = 2
 2
(a − 4)z = a − 2

5.- Dado el sistema de ecuaciones lineales con coeficientes en R:



 x −2y +z = −2
−x +y +αz = 1
2x +αy +4z = −2

Discutir su compatibilidad, en función de los valores del parámetro α ∈ R, y resol-


verlo en los casos en que sea compatible.

6.- Hallar condiciones sobre el parámetro k que hagan compatible el sistema de ecua-
ciones lineales con coeficientes en R:

 x +2y −z = 3
−x −y +z = 2
−x +y +z = k

7.- Hallar los valores reales del parámetro α para que el siguiente sistema de ecuaciones
lineales con coeficientes en R tenga soluciones no triviales.

 (α + 2)x −2y +3z = 0
−2x +(α − 1)y +6z = 0
x +2y +αz = 0

 
a 0 b 2
8.- Sea  a a 4 4 ∈ M3×4 (R) la matriz ampliada de un sistema S. Encontrar
0 a 2 b
los valores que deben tomar a y b en los siguientes casos:

a) S tiene solución única.

b) S no tiene solución.

c) Las soluciones de S vienen dadas en función de un parámetro.

d) Las soluciones de S vienen dadas en función de dos parámetros.

9.- Discutir, en función de los valores de α ∈ R, el sistema de ecuaciones lineales con


coeficientes en R siguiente:
2.6. EJERCICIOS 35

 x +αy +z = 1
−x +(2 − α)y = 1
(1 − α)x +(−α2 + α − 2)y +(1 − 2α)z = −α2 − α

10.- Se considera el sistema de ecuaciones lineales con coeficientes en R,



 3x +y +(α + 1)z = 4
−y +3z = β
2x +y −z = 3

¿Cuándo es compatible indeterminado?

11.- Se considera el sistema de ecuaciones lineales con coeficientes en R,



 x +y +z = 1
(1 + b2 )x +2y +2z = 2b



 (1 − b)x +z = −b
b2 x +y +z = b

a) Analizar para que valores b ∈ R el sistema tiene alguna solución.

b) Resolver el sistema para los valores de b encontrados en el apartado anterior.

12.- Siendo b ∈ R consideramos los sistemas de ecuaciones lineales con coeficientes en


R:

 x +y +z = 3
a) bx +y = b
2y +z = 2


 bx +y −z = b
b) x +by +z = 1
x +y −2bz = 2

Estudiar su compatibilidad para los diferentes valores de b y resolverlos en los casos


en que sean compatibles.

13.- Sea el sistema de ecuaciones lineales con coeficientes en R siguiente:




 2x −y = 5
 x −3y = 5


x +5y = α
 x +βy = 3



γx +2y = 4

Resolverlo para los valores de α, β, γ que lo hagan compatible.

14.- Se consideran los sistemas siguientes:


36 CAPÍTULO 2. SISTEMAS DE ECUACIONES LINEALES
 
a1 x + a2 y = a0 a1 x + a2 y + a3 z = a0
S y S0
b1 x + b2 y = b0 b1 x + b2 y + b3 z = b0

con a1 6= 0 y b1 6= 0. Sabiendo que S es incompatible, analizar la posibilidad de que S 0


sea compatible.

15.- Resolver, sobre Z2 , el sistema:



 x +y = 1
y +z = 0
x +z = 1

16.- Responder razonadamente la veracidad o falsedad de las siguientes afirmaciones:

a) Todo sistema de una ecuación lineal con dos variables es compatible.

b) Todo sistema de dos ecuaciones lineales con tres variables es compatible.

c) Si un sistema es compatible admite infinitas soluciones.

d) Un sistema de ecuaciones lineales puede tener exactamente dos soluciones.

e) Todo sistema de tres ecuaciones lineales con dos variables es incompatible.

17.- Se considera el sistema AX = B con B 6= 0 y α y β dos escalares dados. Sabiendo


que si X1 y X2 son dos soluciones del sistema también es solución αX1 + β X2 . Analizar
la relación que debe existir entre α y β.

18.- Se considera, S, un sistema homogéneo de tres ecuaciones con tres incógnitas


AX = 0 y, S 0 , el sistema cuya primera ecuación es la diferencia entre la primera y la
segunda de S, su segunda ecuación es la diferencia entre la segunda y la tercera de S y
su tercera ecuación es la diferencia entre la tercera y la primera de S. Sabiendo que S
es compatible y determinado analizar si también lo es S 0 .

19.- Se considera un sistema AX = B. Estudiar en que caso ocurre que si X1 y X2 son


dos soluciones del sistema también lo es X1 − X2 .

20.- Sea S un sistema de m ecuaciones lineales con n incógnitas. Sabiendo que m < n,
probar que S puede ser incompatible o compatible indeterminado, pero no puede ocurrir
que sea compatible determinado.
Capítulo 3

Espacios vectoriales

Definición 3.1. Sea K un cuerpo. Se dice que un conjunto no vacío V es un espacio


vectorial sobre K o que es un K-espacio vectorial si:

1. En V está definida una operación interna que denotaremos por + de modo que (V, +)
es un grupo abeliano.

2. Existe una operación externa, llamada producto por escalares:

K × V −→ V
(α, v) 7→ αv

tal que para todo v, w ∈ V y α, β ∈ K se tiene:

a) (α + β)v = αv + βv,

b) α(v + w) = αv + αw,

c) α(βv) = (αβ)v,

d) 1K v = v.

Los elementos de V se llaman vectores y los de K escalares. El elemento neutro


para la operación + se denota por 0 y se llama vector cero. Dado un vector v ∈ V su
simétrico para + se llama opuesto d e v y se denota por −v.

Ejemplos 3.2.

1. K es un K-espacio vectorial.

2. Rn es un R-espacio vectorial.

3. Mm×n (K) es un K-espacio vectorial.

4. Pn (K) (polinomios de grado ≤ n con coeficientes en K) es un K-espacio vectorial.

37
38 CAPÍTULO 3. ESPACIOS VECTORIALES

5. {f : R → R | f es aplicación es un R-espacio vectorial.

6. K[x] (polinomios con coeficientes en K) es un K-espacio vectorial.

Proposición 3.3. Si V es un K-espacio vectorial, se verifica:

1. Dados α ∈ K y v ∈ V , αv = 0 si, y sólo si, α = 0 o v = 0.

2. Dados α, β ∈ K y v ∈ V, v 6= 0, si αv = βv, entonces α = β.

3. Dados α ∈ K y v ∈ V , se verifica que (−α)v = −(αv) = α(−v).

Demostración.

1.
“⇐” Como 0v = (0 + 0)v = 0v + 0v, se obtiene que 0v = 0. Análogo si v = 0.
“⇒” Si αv = 0, con α 6= 0, se verifica que v = 1K v = (α−1 α)v = α−1 (αv) =
α−1 0 = 0.

3. Si α ∈ K y v ∈ V , se sigue que (−α)v + αv = (−α + α)v = 0v = 0.

3.1. Subespacios vectoriales


En adelante, V denotará un K-espacio vectorial.

Definición 3.4. Un subconjunto no vacío, U , de V es un subespacio de V si:

1. u + u0 ∈ U para todo u, u0 ∈ U .

2. αu ∈ U para todo u ∈ U y todo α ∈ K.

Equivalentemente, αu + βu0 ∈ U para todo u, u0 ∈ U y todo α, β ∈ K.

Nótese que el vector cero de V está en U ya que, como U 6= ∅, existe u ∈ U y


0u = 0 ∈ U . Además, U es un espacio vectorial con las mismas operaciones que V y
también con el mismo neutro para la operación +.

Ejemplos 3.5.

1. {0} y V son subespacios de V y se llaman subespacios triviales.

2. U = {(x, 0, y) | x, y ∈ R} es un subespacio de R3 .

3. U = {(x, y, z) ∈ R3 | x + y = 1} no es un subespacio de R3 .
3.2. SISTEMA DE GENERADORES. INDEPENDENCIA LINEAL 39

4. U = {(x, y, z) ∈ R3 | x + y = 0, x + 2y + z = 0} es un subespacio de R3 .

5. U = {A ∈ Mn (K) | A es diagonal} es un subespacio de Mn (K).

6. El conjunto de las soluciones de un sistema homogéneo, de m ecuaciones con n


incógnitas y coeficientes en K, es un subespacio de K n .

Proposición 3.6. Si U y W son subespacios vectoriales de V , entonces U ∩ W es un


subespacio de V pero, en general, U ∪ W no lo es.

Demostración. U ∩ W 6= ∅ ya que 0 ∈ U ∩ W . También se verifica que:

1. u, w ∈ U ∩W ⇔ u, w ∈ U y u, w ∈ W ⇒ u+w ∈ U y u+w ∈ W ⇔ u+w ∈ U ∩W .

2. u ∈ U ∩ W y α ∈ K ⇔ u ∈ U y u ∈ W y α ∈ K ⇒ αu ∈ U y αu ∈ W ⇔ αu ∈
U ∩ W.

Por otra parte, si V = R2 , U = {(x, 0) | x ∈ R} y W = {(0, y) | y ∈ R}, como


(1, 0) ∈ U , (0, 1) ∈ W y (1, 0) + (0, 1) = (1, 1) ∈
/ U ∪ W , se tiene que U ∪ W no es un
subespacio de V .

3.2. Sistema de generadores. Independencia lineal


Definición. Sea S un subconjunto no vacío de V . Una combinación lineal de elementos
de S es un vector de V de la forma v = α1 v1 + · · · + αn vn con α1 , . . . , αn ∈ K y
v1 , . . . , vn ∈ S.

Ejemplos 3.7.

1. En R2 el vector (3, 7) es combinación lineal de los vectores (1, 1), (1, 0) y (0, 5) ya
que (3, 7) = 2(1, 1) + 1(1, 0) + 1(0, 5) = 7(1, 1) − 4(1, 0).
En este ejemplo, se observa que la forma de expresar un vector como combinación
lineal de un conjunto de generadores no es única.

2. El vector (1, 1, 1) ∈ R3 es combinación lineal de los vectores (1, 1, 0), (0, 1, 1) y


(1, 0, 1). En efecto,

 α +γ =1
(1, 1, 1) = α(1, 1, 0) + β(0, 1, 1) + γ(1, 0, 1) ⇔ α +β =1
β +γ =1

Aplicando el método de Gauss,


40 CAPÍTULO 3. ESPACIOS VECTORIALES
   
1 0 1 1 1 0 1 1
 1 1 0 1  −−−−→  0 1 −1 0 
F2 −F1
0 1 1 1 0 1 1 1
   
1 0 1 1 1 0 1 1
−−−−→  0 1 −1 0  −−→  0 1 −1 0 ,
F3 −F2 1
F
2 3 1
0 0 2 1 0 0 1 2

1 1 1
obtenemos que la única solución del sistema es , , y que
2 2 2
1 1 1
(1, 1, 1) = (1, 1, 0) + (0, 1, 1) + (1, 0, 1).
2 2 2

Definición 3.8. Sea S un subconjunto no vacío de V . Se dice que S es un conjunto


de generadores de V si todo vector de V se puede expresar como combinación lineal de
elementos de S.

Proposición 3.9. Si S es un subconjunto no vacío de V , el conjunto de las combinacio-


nes lineales de elementos de S, {α1 v1 +· · ·+αn vn | α1 , . . . , αn ∈ K y v1 , . . . , vn ∈ S}, es
un subespacio de V llamado subespacio generado por S, y se denota por hSi. Además,
hSi es el menor subespacio de V que contiene a S.

Por convenio se tiene que h∅i = {0}.


Si V = hSi, entonces S es un conjunto de generadores de V .

Notación 3.10. Si S = {v1 , . . . , vn }, usaremos la notación hv1 , . . . , vn i en lugar de


h{v1 , . . . , vn }i.

Ejemplo 3.11. Si U = {(x, y, z) ∈ R3 | x = y} se tiene que:

U = {x(1, 1, 0) + z(0, 0, 1) | x, z ∈ R} = h(1, 1, 0), (0, 0, 1)i.

Observación 3.12. Si S y S 0 son subconjuntos no vacíos de V

 hSi ⊂ hS 0 i  S ⊂ hS 0 i
 

hSi = hS 0 i ⇔ y ⇔ y
hS 0 i ⊂ hSi
 0
S ⊂ hSi

En particular, si S ⊂ V y v ∈ V se verifica que:

hSi = hS ∪ {v}i ⇔ v ∈ hSi.


3.2. SISTEMA DE GENERADORES. INDEPENDENCIA LINEAL 41

Como consecuencia, en un conjunto de generadores S se puede eliminar un vector v si,


y solo si, v es combinación lineal de los demás elementos de S. Es decir, si v ∈ S y
S\{v} es no vacío,

hSi = hS\{v}i ⇔ v ∈ hS\{v}i.

Lema 3.13. Sea S = {v1 , . . . , vn } ⊂ V . Se verifica que:

i) hv1 , . . . , vi , . . . , vj , . . . , vn i = hv1 , . . . , vj , . . . , vi , . . . , vn i.

ii) hv1 , . . . , vi , . . . , vn i = hv1 , . . . , αvi , . . . , vn i con α ∈ K y α 6= 0.

iii) hv1 , . . . , vi , . . . , vj , . . . , vn i = hv1 , . . . , vi + βvj , . . . , vj , . . . , vn i con β ∈ K e i 6= j.

Definición 3.14. Si U y W son subespacios de V , se define el subespacio suma de U


y W como U + W := {u + w | u ∈ U y w ∈ W }.
Nótese que:
a) U + W = hU ∪ W i y, por tanto, es el menor subespacio de V que contiene a U
y a W.
b) Si U = hSi y W = hS 0 i, entonces U + W = hS ∪ S 0 i.

Definición 3.15. Un subconjunto no vacío, S, de V se dice que es linealmente inde-


pendiente si:

[α1 v1 + · · · + αn vn = 0, αi ∈ K y vi ∈ S] ⇒ αi = 0 para todo i = 1, . . . , n,

es decir, la única combinación lineal de vectores de S que es igual a cero es la trivial.


En otro caso, se dice que S es linealmente dependiente, es decir, existe una combi-
nación lineal de vectores de S igualada a cero con algún coeficiente distinto de cero.

Ejemplos 3.16.
     
2 1 3 0 1 0
1. El conjunto S = , , ⊂ M2 (R) es linealmente indepen-
0 1 2 1 2 0
diente. En efecto:
       
2 1 3 0 1 0 0 0
α1 + α2 + α3 = ⇔
0 1 2 1 2 0 0 0


 2α1 + 3α2 + α3 =0
α1 =0

⇔ α1 = α2 = α3 = 0.

 2α2 + 2α3 =0
α1 + α2 =0

42 CAPÍTULO 3. ESPACIOS VECTORIALES

2. {(1, 1, 1), (0, 1, 1), (0, 0, 7)} es un subconjunto de R3 linealmente independiente.

Observaciones 3.17.

1. Si S = {u} ⊂ V ,

S es linealmente independiente ⇔ u 6= 0,

ya que αu = 0 ⇔ α = 0 o u = 0.

2. Todo conjunto que contenga el vector 0 es linealmente dependiente.

3. El conjunto S = {u, v} ⊂ V con u 6= 0 y v 6= 0, es linealmente dependiente si, y solo


si, existe α ∈ K tal que u = αv.

4. Sean S1 y S2 subconjuntos no vacíos de V tales que S1 ⊂ S2 .

a) S1 linealmente dependiente ⇒ S2 linealmente dependiente.


b) S2 linealmente independiente ⇒ S1 linealmente independiente.

5. Un subconjunto S de V con al menos dos elementos es linealmente dependiente si,


y solo si, existe un v ∈ S tal que v ∈ hS\{v}i.

Veamos ahora en que condiciones un conjunto linealmente independiente puede ser


ampliado a otro que también lo sea.

Proposición 3.18. Sean S 6= ∅ un subconjunto de V linealmente independiente y


v ∈V, v ∈
/ S. Se verifica que:

v∈
/ hSi ⇔ S ∪ {v} es linealmente independiente.

Demostración.
“⇒” Sea αv + α1 u1 + · · · + αn un = 0 con α, α1 , . . . , αn ∈ K y u1 , . . . , un ∈ S. Como
v∈/ hSi se tiene que α = 0 y, como además S es linealmente independiente, αi = 0 para
i = 1, . . . , n.
“⇐” Trivial ya que si v perteneciese a hSi, S ∪{v} sería linealmente dependiente.

Nótese que, como consecuencia de la proposición anterior, las filas no nulas de una
matriz escalonada A de orden m × n son vectores linealmente independientes de K n .
3.3. BASES Y DIMENSIÓN 43

3.3. Bases y dimensión


Introducimos a continuación el concepto de base que es esencial en el estudio de los
espacios vectoriales. Trataremos, únicamente, el caso de espacios vectoriales finitamente
generados, aunque los resultados son válidos para espacios vectoriales generales.

Definición 3.19. Un subconjunto ordenado, B, de V es una base de V si:

1. B es un conjunto generador de V .

2. B es linealmente independiente.

Ejemplos 3.20.

1. El conjunto C = {e1 = (1, 0, . . . , 0), e2 = (0, 1, . . . , 0), . . . , en = (0, . . . , 0, 1)} es una


base de K n como K-espacio vectorial y se llama base canónica.

2. Si A ∈ Mn (K) es una matriz no singular, tanto el subconjunto de K n formado por


las columnas de A, como el formado por las filas de A, son bases de K n ya que
cualquier sistema de la forma AX = B o At X = B tiene una única solución.

3. El conjunto {(1, 0, 3), (0, 1, 7), (0, 0, 1)} es una base de R3 y, sin embargo, el conjunto
{(1, 0, 3), (0, 1, 7), (0, 0, 1), (1, 1, 1)} no lo es puesto que es linealmente dependiente.

4. En P3 (R) el conjunto {1, x, x2 , x3 } es una base.

Definición 3.21. Se dice que V es finitamente generado si existe un subconjunto finito,


S, de V tal que hSi = V .

Teorema 3.22. Sea B = {v1 , . . . , vn } un subconjunto de V . Son equivalentes:

1. B es una base de V .

2. Cualquier vector de V se escribe de modo único como combinación lineal de vectores


de B.

Demostración. 2) ⇒ 1) Por hipótesis hBi = V . Además, B es linealmente independiente


ya que si α1 v1 + · · · + αn vn = 0 = 0v1 + · · · + 0vn , de la hipótesis de unicidad, se sigue
que αi = 0 para i = 1, . . . , n.
1) ⇒ 2) Siempre que α1 v1 + · · · + αn vn = β1 v1 + · · · + βn vn o, equivalentemen-
te, si (α1 − β1 )v1 + · · · + (αn − βn )vn = 0, teniendo en cuenta que B es linealmente
independiente, se tiene que αi = βi para i = 1, . . . , n.
44 CAPÍTULO 3. ESPACIOS VECTORIALES

Definición 3.23. Si B = {v1 , . . . , vn } es una base de V y v = α1 v1 + · · · + αn vn se


llaman coordenadas de v en la base B a:

(α1 , . . . , αn ) ∈ K n .

Ejercicio 3.24. Determinar las coordenadas de (2, 3, 5) ∈ R3 y de (1, 3, 6) ∈ R3 en la


base B = {(0, 1, 3), (0, 2, 7), (2, 3, 5)}.
Demostración.
Ya que (2, 3, 5) = 0(0, 1, 3) + 0(0, 2, 7) + 1(2, 3, 5) se tiene que las coordenadas del
vector (2, 3, 5) en la base B son (0, 0, 1).
Por otra parte,

(1, 3, 6) = α(0, 1, 3) + β(0, 2, 7) + γ(2, 3, 5)



 α + 2β + 3γ = 3

2γ = 1 
β − 4γ = −3 ⇔ γ = 1 , β = −1, α = 7

α + 2β + 3γ = 3 ⇔
1 2 2
3α + 7β + 5γ = 6
 
 γ=
2
7 1
es decir, las coordenadas del vector (1, 3, 6) en la base B son , −1, .
2 2

Teorema 3.25 (Teorema de la existencia de base). Sea V 6= {0} un espacio vectorial


con un conjunto finito de generadores S. Existe un subconjunto, B, de S que es una base
de V .
Demostración. Nótese que, ya que V 6= {0}, todo conjunto de generadores de V tiene
al menos un vector distinto de 0.
Si S es linealmente independiente, ya es una base de V .
En caso contrario, existe v ∈ S que es combinación lineal de los de S\{v} y hSi =
hS\{v}i .
Si este nuevo conjunto de generadores es linealmente independiente ya es una base
de V . En otro caso, existe v 0 ∈ S\{v} tal que es combinación lineal de los vectores de
S\{v} y hS\{v}i = hS\{v, v 0 }i.
Repitiendo el proceso, tantas veces como sea necesario, se llega a un sistema de gene-
radores linealmente independiente ya que, en el caso mas desfavorable, encontraríamos
un conjunto generador con un único vector que al ser distinto de 0 ya sería linealmente
independiente.

Ejercicio 3.26. Sea U el subespacio de R4 generado por:

S = {v1 = (1, 1, 0, 0), v2 = (0, 1, 0, 0), v3 = (−1, −1, 0, 0), v4 = (1, 2, 0, 0), v5 = (0, 2, 3, 3)}.

Encontrar una base de U .


3.3. BASES Y DIMENSIÓN 45

Demostración. Teniendo en cuenta que hSi = hv1 , v2 , v4 , v5 i = hv1 , v2 , v5 i y


v3 =−v1 v4 =v1 +v2
que el conjunto S0 = {v1 , v2 , v5 } es linealmente independiente, se sigue que S 0 es una
base de U .

Acabamos de ver que un espacio vectorial finitamente generado y distinto de {0}


tiene una base finita. De hecho puede tener más de una base, por ejemplo, C = {e1 , e2 }
y B = {(1, 1), (2, 3)} son bases distintas de R2 .
Nuestro siguiente objetivo es demostrar que todas las bases de un espacio vectorial
no nulo y finitamente generado tienen el mismo número de elementos.

Teorema 3.27. Sea B = {v1 , . . . , vn } una base de V . Todo subconjunto de V con más
de n elementos es linealmente dependiente.

Demostración. Sea S= {u1 , . . . , um } ⊂ V con m > n y α1 u1 + · · · + αm um = 0, con


αj ∈ K para j = 1, . . . , m.
Como B = {v1 , . . . , vn } es una base de V , cada uj es combinación lineal de elementos
de B, es decir, para cada j = 1, . . . , m existen cij ∈ K tales que uj = c1j v1 + · · · + cnj vn .
Por tanto,

0 = α1 (c11 v1 + · · · + cn1 vn ) + · · · + αm (c1m v1 + · · · + cnm vn )


= (α1 c11 + α2 c12 + · · · + αm c1m )v1 + · · · + (α1 cn1 + α2 cn2 + · · · + αm cnm )vn

y, como B es base, se tiene que



 α1 c11 + α2 c12 + · · · + αm c1m = 0
···
α1 cn1 + α2 cn2 + · · · + αm cnm = 0

Este sistema es homogéneo, por tanto, compatible y, como el número de incógnitas,


m, es mayor que el de ecuaciones, n, tiene solución no trivial y, en consecuencia, S es
linealmente dependiente.

Teorema 3.28. Si V tiene una base con n elementos, toda base de V tiene también n
elementos.

Demostración. Sean B = {v1 , . . . , vn } y B 0 bases de V .


En primer lugar, hacemos notar que B 0 es un conjunto finito; en caso contrario,
cualquier subconjunto de B 0 con más de n elementos sería linealmente dependiente, en
contradicción con la definición de base.
Si B 0 = {u1 , . . . , um }, teniendo en cuenta que B es base y B 0 linealmente indepen-
diente, se tiene que m ≤ n y también, puesto que B 0 es base y B un conjunto linealmente
independiente, se obtiene que n ≤ m.
46 CAPÍTULO 3. ESPACIOS VECTORIALES

Definición 3.29. Si V es un espacio vectorial finitamente generado y V 6= {0}, al nú-


mero de elementos de cualquiera de sus bases se le llama dimensión de V , y escribiremos
dimK (V ) o dim(V ). Por convenio se admite que dim{0} = 0.
Ejemplos 3.30.

1. dimK (K) = 1 y dimK (K n ) = n.


2. dimR (Mm×n (R)) = mn.
3. W = {(a, b, −b, a) | a, b ∈ R} = {a(1, 0, 0, 1) + b(0, 1, −1, 0) | a, b ∈ R}
= h(1, 0, 0, 1), (0, 1, −1, 0)i es un subespacio de R4 con dimR (W ) = 2.
4. Veamos un ejemplo de un subespacio, W , de R4 con dimR (W ) = 2.
W ={(x, y, z, t) ∈ R4 | x + y − z + t = 0, y + 2t = 0}
= (x, y, z, t) ∈ R4 | x = z + t, y = −2t = {(z + t, −2t, z, t) | z, t ∈ R}


={z(1, 0, 1, 0) + t(1, −2, 0, 1) | z, t ∈ R} = h(1, 0, 1, 0), (1, −2, 0, 1)i .

Teorema 3.31. Si V es un espacio vectorial y dim(V ) = n 6= 0. Se verifica:

1. Si S es un subconjunto de V linealmente independiente con n elementos, entonces S


es una base de V .
2. Si S es un conjunto de generadores de V con n elementos, entonces S es una base
de V .

Demostración.
1) Veamos que V = hSi. En efecto:
Dado v ∈ V , si v ∈/ hSi, sabemos que S ∪ {v} es un conjunto linealmente indepen-
diente con n + 1 elementos, en contradicción con el teorema visto antes.
2) Si S es linealmente dependiente hemos probado, en el teorema de existencia de
base 3.25, que existe un subconjunto B de S de m elementos que es una base con m < n,
lo que contradice que dim(V ) = n.

Teorema 3.32. Sea B = {v1 , . . . , vn } una base de V . Si S= {u1 , . . . , us } es un sub-


conjunto de V linealmente independiente, entonces s ≤ n y existen vi1 , . . . , vin−s ∈ B
tales que el conjunto {u1 , . . . , us , vi1 , . . . , vin−s } es una base de V . En particular, todo
subconjunto de V linealmente independiente se puede ampliar a una base de V .
Demostración. Sabemos que todo conjunto con más de n elementos es linealmente de-
pendiente y, por tanto, s ≤ n.
Si s < n, S no puede ser base y hu1 , . . . , us i ( hv1 , . . . , vn i = V . Así, existirá
vi1 ∈ {v1 , . . . , vn } tal que vi1 ∈
/ hu1 , . . . , us i y {u1 , . . . , us , vi1 } es un conjunto linealmente
independiente con s+1 elementos. Repitiendo el proceso n−s veces se tiene el resultado.
3.3. BASES Y DIMENSIÓN 47

Ejemplo 3.33. Sea S={u1 = (1, 1, 1, 1), u2 = (1, 2, 3, 4)} ⊂ R4 . Veamos como se puede
ampliar S a una base de R4 .
Por una parte, sabemos que hu1 , u2 i = h(1, 1, 1, 1), (0, 1, 2, 3)i.
u2 −u1
Además, S 0 = {(1, 1, 1, 1), (0, 1, 2, 3), (0, 0, 1, 0), (0, 0, 0, 1)} es un conjunto de 4 vec-
tores escalonados no nulos y, por tanto, linealmente independientes. Así, R4 = hS 0 i.
Como

hS 0 i = h(1, 1, 1, 1), (1, 2, 3, 4), (0, 0, 1, 0), (0, 0, 0, 1)i,

se obtiene que {(1, 1, 1, 1), (1, 2, 3, 4), (0, 0, 1, 0), (0, 0, 0, 1)} es una base de R4 .

Proposición 3.34. Sean V un espacio vectorial de dimensión finita n y U un subespacio


de V . Se verifica que:

1. dim(U ) ≤ dim(V ).

2. dim(U ) = dim(V ) ⇔ U = V .

Demostración. 1) Suponemos conocido que todo espacio vectorial tiene una base. Si U
es un subespacio de V , todo subconjunto de U linealmente independiente tendrá a lo
sumo n vectores porque dim(V ) = n y, en consecuencia, dim(U ) ≤ n.
(Otra demostración). Si U = {0} es trivial. En otro caso, existe u1 ∈ U, u1 6= 0 y
el conjunto {u1 } es linealmente independiente. Si este conjunto generase U ya estaría.
En caso contrario, existirá algún u2 ∈ U, u2 ∈
/ hu1 i y el conjunto {u1 , u2 } ⊂ U será de
nuevo linealmente independiente. Repitiendo el proceso y teniendo en cuenta que en V
no hay subconjuntos independientes de más de n elementos, encontraremos una base de
U con a lo sumo n elementos.
2) Si dim(U ) = dim(V ) = n, entonces U tiene una base de n elementos. Como
sabemos que todo subconjunto de V linealmente independiente y con n elementos es
base, se obtiene que U = V y la base de U lo es también de V .

Proposición 3.35 (Fórmula de Grassmann). Sean V un espacio vectorial de dimensión


finita n y U, W subespacios de V . Entonces,

dim(U ) + dim(W ) = dim(U + W ) + dim(U ∩ W ).

Demostración. Sean BU = {u1 , . . . , us } una base de U y BW = {w1 , . . . , wr } una base


de W .
Sabemos que si BU ∩W = {v1 , . . . , vt } es una base de U ∩ W , entonces se tie-
ne que 0 ≤ t ≤ mı́n{r, s} y, como BU ∩W es un subconjunto linealmente indepen-
diente tanto de U como de W , existen ui1 , . . . , uis−t elementos de U y wi1 , . . . , wir−t
elementos de W de modo que B1 = {v1 , . . . , vt , ui1 , . . . , uis−t } es una base de U y
B2 = {v1 , . . . , vt , wi1 , . . . , wir−t } es una base de W .
48 CAPÍTULO 3. ESPACIOS VECTORIALES

Como

U + W = v1 , . . . , vt , ui1 , . . . , uis−t , wi1 , . . . , wir−t ,
para obtener el resultado, es suficiente comprobar que el conjunto

B = {v1 , . . . , vt , ui1 , . . . , uis−t , wi1 , . . . , wir−t }

es linealmente independiente y, por lo tanto, una base de U + W .

3.4. Rango de una matriz


Vamos a demostrar que el espacio vectorial generado por las filas de una matriz tiene
la misma dimensión que el espacio vectorial generado por las columnas de la matriz y
esto nos permitirá definir el rango de la matriz.
Si A ∈ Mm×n (K) se tiene que hF1 (A), . . . , Fm (A)i es un subespacio de K n y
hC1 (A), . . . , Cn (A)i es un subespacio de Mm×1 (K).

Proposición 3.36. Si A, B ∈ Mm×n (K) son matrices equivalentes por filas, entonces

hF1 (A), . . . , Fm (A)i = hF1 (B), . . . , Fm (B)i.

Demostración. Como demuestra el lema 3.13, cada operación elemental que se hace en
las filas de una matriz deja invariante el subespacio vectorial de K n generado por sus
filas.

Corolario 3.37. Si A ∈ Mm×n (K), se tiene que:

rf (A) = dim(hF1 (A), . . . , Fm (A)i).

Demostración. Toda matriz, A, es equivalentes por filas a una matriz escalonada, B.


Por definición, rf (A) es el número de pivotes de B, es decir, la dimensión del espacio
hF1 (B), . . . , Fm (B)i y, por la proposición 3.36, dim(hF1 (A), . . . , Fm (A)i).

Corolario 3.38. Si A, B ∈ Mm×n (K) son matrices equivalentes por filas, entonces

rf (A) = rf (B).

Definición 3.39. Si A ∈ Mm×n (K), se define rango por columnas de A, y se denota


por rc (A), como dim(hC1 (A), . . . , Cn (A)i).

Nótese que si A, B ∈ Mm×n (K) son matrices equivalentes por columnas, entonces
rc (A) = rc (B).
3.4. RANGO DE UNA MATRIZ 49

Proposición 3.40. Si B ∈ Mm×n (K) es una matriz escalonada reducida con s pivotes,
entonces
rf (B) = s = rc (B).
Demostración. Si B es una matriz escalonada reducida, B es equivalente por columnas
a una matriz de la forma:
Is B 0
 
∈ Mm×n (K)
0 0
Es claro que las n − s últimas columnas son combinación lineal de las s primeras
y, como estas son linealmente independientes y las columnas de esta matriz generan el
mismo espacio que las de B, se tiene que rf (B) = s = rc (B).

Proposición 3.41. Si A, B ∈ Mm×n (K) son matrices equivalentes por filas, entonces
rc (A) = rc (B).
Demostración. Puesto que, al ser A y B matrices equivalentes por filas, los sistemas
AX = 0 y BX = 0 tienen las mismas soluciones, se tiene que:
α1 C1 (A) + · · · + αn Cn (A) = 0 ⇔ (α1 , . . . , αn ) es solución de AX = 0
⇔ (α1 , . . . , αn ) es solución de BX = 0 ⇔ α1 C1 (B) + · · · + αn Cn (B) = 0.
Es decir, las columnas de A y de B verifican las mismas condiciones de dependencia
lineal y, como consecuencia, rc (A) = rc (B).

Corolario 3.42. Si A ∈ Mm×n (K), entonces


rf (A) = rc (A).
Demostración. Sabemos que A es equivalente por filas a una matriz B escalonada re-
ducida. Entonces,
rf (A) = rf (B) = número de pivotes de B = rc (B) = rc (A).

Definición 3.43. Si A ∈ Mm×n (K) se define rango de A como el rango por filas de A
o el rango por columnas de A y se denotará por r(A).

Proposición 3.44. Sea A ∈ Mn (K), entonces


r(A) = n si, y solo si, det(A) 6= 0.
Demostración. r(A) = n ⇔ rf (A) = n ⇔ A es equivalente por filas a In ⇔ A es no
singular ⇔ det(A) 6= 0.
Otra demostración.
det(A) 6= 0 ⇔ A es no singular ⇔ El sistema homogéneo AX = 0 tiene solución
única ⇔ La única relación de dependencia lineal entre las columnas de A es la trivial
⇔ {C1 (A), . . . , Cn (A)} es un conjunto linealmente independiente ⇔ r(A) = n.
50 CAPÍTULO 3. ESPACIOS VECTORIALES

Otro método para el cálculo del rango


Vamos a dar un método para calcular el rango de una matriz en el que no se utilizan
transformaciones elementales.
Sea A = (aij ) ∈ Mm×n (K).
Llamaremos un menor de orden p de la matriz A al determinante de una submatriz
de orden p de A. Es decir, det(Ap ), en donde

 
ai1 j1 ... ai1 jp
Ap =  . . . ... ... 
aip j1 ... aip jp

siendo i1 , . . . , ip las filas y j1 , . . . , jp las columnas de A no suprimidas.


Algoritmo del cálculo del rango:
Se toma un menor de orden p no nulo, ∆p = det(Ap ) 6= 0, se forman todos los
menores de orden p + 1 que resultan de orlar Ap con una fila fija Fi (A), siendo i ∈ /
{i1 , . . . , ip }, y con cualquiera de las restantes columnas. Si todos estos menores son
nulos se suprime la fila Fi (A) y se procede con otra hasta que:
1) Se encuentre un menor de orden p + 1 no nulo con el que repetiríamos el proceso,
o
2) Todos los menores de orden p + 1 son nulos, con lo que el rango de A sería p.
Explicación:
A tiene un menor de orden p no nulo, ∆p = det(Ap ) 6= 0, si, y solo si, las p colum-
nas de Ap son linealmente independientes. En este caso la matriz formada por las filas
i1 , . . . , ip de A (respectivamente la matriz formada por las columnas j1 , . . . , jp de A) tie-
ne rango p ya que tiene p columnas (respectivamente p filas) linealmente independientes
y su número de filas (respectivamente columnas) es p. Por tanto r(A) = rf (A) ≥ p.
Si r(A) > p, como las filas i1 , . . . , ip de A son linealmente independientes existirá un
k ∈
/ {i1 , . . . , ip } de modo que {Fi1 (A), . . . , Fip (A), Fk (A)} es un conjunto linealmente
independiente. Entonces,
 
Fi1 (A)
 ··· 
 Fip (A)  = p + 1
r 

Fk (A)

Como en la matriz anterior, que es de rango p + 1, las columnas j1 , . . . , jp son


linealmente independientes existirá un s ∈
/ {j1 , . . . , jp } tal que las columnas j1 , . . . , jp , s
sean linealmente independientes. Así, la matriz obtenida orlando Ap con la fila k y la
columna s, es de orden p + 1 y de determinante distinto de cero. Es decir, existe un
menor de orden p + 1 no nulo obtenido orlando Ap .
3.5. TEOREMA DE ROUCHÉ-FROBENIUS 51

3.5. Teorema de Rouché-Frobenius


Teorema 3.45. Sean A ∈ Mm×n (K) y AX = B un sistema de ecuaciones lineales. Se
verifica que:

1. El sistema es compatible si, y solo si, r(A) = r(A|B).

2. Si el sistema es compatible y r(A) = r(A|B) = r ≤ n, se tiene que es compatible


determinado si, y solo si, r = n.

Demostración.
1) Como, AX = B ⇔ C1 (A)x1 + · · · + Cn (A)xn = B, se tiene que:
AX = B es compatible ⇔ B ∈ hC1 (A), . . . , Cn (A)i
⇔ hC1 (A), . . . , Cn (A)i = hB, C1 (A), . . . , Cn (A)i
⇔ r(A) = dim hC1 (A), . . . , Cn (A)i = dim hB, C1 (A), . . . , Cn (A)i = r(A|B).
2) Si r(A) = r(A|B) = r < n, entonces el conjunto {C1 (A), . . . , Cn (A)} es li-
nealmente dependiente, es decir, existen escalares α1 , . . . , αn no todos cero tales que
α1 C1 (A) + · · · + αn Cn (A) = (0), es decir, (α1 , . . . , αn ) es una solución no trivial del
sistema homogéneo AX = (0). Es inmediato comprobar que si (β1 , . . . , βn ) es una so-
lución de AX = B también lo es (α1 + β1 , . . . , αn + βn ) y, por tanto, el sistema tiene
más de una solución.
Recíprocamente, si (α1 , . . . , αn ) y (β1 , . . . , βn ) son dos soluciones distintas del sis-
tema AX = B, tenemos que (α1 − β1 ) C1 (A) + · · · + (αn − βn )Cn (A) = (0) y, ya que
existe algún i para el cual αi − βi 6= 0, se sigue que el conjunto {C1 (A), . . . , Cn (A)} es
linealmente dependiente y r(A) < n.

Corolario 3.46. Sea AX = B un sistema de ecuaciones lineales compatible. Si α es


una solución del sistema, entonces β es una solución del sistema si, y solo si, α − β es
solución del sistema homogéneo AX = 0.

3.6. Ecuaciones de un subespacio


Sean U un subespacio de K n , B = { (a11 , . . . , a1n ) , . . . , (as1 , . . . , asn )} una base de
U y u = (x1 , . . . , xn ) ∈ K n .
u = (x1 , . . . , xn ) ∈ U ⇔ { (a11 , . . . , a1n ) , . . . , (as1 , . . . , asn ) , (x1 , . . . , xn )} es
 
a11 . . . a1n
. . . . . . . . . 
un conjunto linealmente dependiente ⇔ r  as1 . . . asn  = s ⇔ Escogido un menor

x1 . . . xn

no nulo de orden s de la matriz A = (aij ), det(As ) 6= 0 y los determinantes de las


matrices de orden s + 1 obtenidas orlando As son todos cero.
52 CAPÍTULO 3. ESPACIOS VECTORIALES

Ejercicios 3.47. Calcular las ecuaciones de los siguientes subespacios de R4 :

1. U = h(1, 2, 3, 4), (0, 1, 2, 0), (0, 1, 1, 1)i

2. W = h(1, 1, 1, 0), (0, 1, 1, 1)i

Demostración.

1 2 3 4

0 1 2 0
1. (x, y, z, t) ∈ U ⇔ = 0 ⇔ −3x − 2y + z + t = 0.
0 1 1 1
x y z t

2. W = h(1, 1, 1, 0), (0, 1, 1, 1)i


 
1 1 1 0 1 1 1

1 1 0

(x, y, z, t) ∈ W ⇔ r  0 1 1 1 = 3 ⇔ 0 1 1 = 0 y 0 1 1 = 0
x y z t x y z x y t

−y + z = 0

x−y+t=0

o bien, como
   
1 1 1 0 1 1 1 0
 0 1 1 1 −→ 0 1 1 1  se tiene,
F3 −xF1
x y z t F3 −(y−x)F2 0 0 z − y t − y + x

   
1 1 1 0 1 1 1 0 
−y + z = 0
r 0 1
 1 1  =r 0 1 1 1 =3⇔
 
x−y+t=0
0 0 z−y t−y+x x y z t

3.7. Ejercicios
1.- Probar que el grupo abeliano (R2 , +) no admite estructura de espacio vectorial para
las siguientes multiplicaciones por escalares:

a) α(x, y) = (αx, αy 2 ), para todo (x, y) ∈ R2 y α ∈ R.

b) α(x, y) = (αy, αx), para todo (x, y) ∈ R2 y α ∈ R.

c) α(x, y) = (0, αy), para todo (x, y) ∈ R2 y α ∈ R.

2.- Sea V un K-espacio vectorial, α ∈ K y v ∈ V . Probar que


3.7. EJERCICIOS 53

(−α)v = −(αv) = α(−v).

3.- Determinar cuales de los siguientes subconjuntos de R4 son subespacios:

a) U1 = {(a, b, c, d) ∈ R4 | a + b = 0, c − d = 0}.

b) U2 = {(a + 2b, 0, 2a, a + b)) | a, b ∈ R}.

c) U3 = {(a, b, c, d) ∈ R4 | a2 + b2 > 0}.

d) U4 = {(a, b, c, d) ∈ R4 | a = 1}.

e) U5 = {(a, b, c, d) ∈ R4 | a2 + b2 = 0}.

f ) U6 = {(a, b, c, d) ∈ R4 | a2 + b2 = 7}.

h) U7 = {(a, b, c, d) ∈ R4 | c ∈ Z}.

4.- Sea S = {(1, 1, 0), (0, 1, 2)} ⊂ R3 . ¿Alguno de los vectores u = (3, 5, 4), v = (2, 4, 7)
pertenece al subespacio hSi?

5.- Sean F = {(x, y, z) ∈ R3 | 2x − y − 3z = 0} y u = (3 + β, 6, 1 + α), v =


(1 − β, 2, 3 + 2α) dos vectores de R3 . ¿Para qué valores de α y β se tiene que u, v ∈ F ?

7.- Determinar para que valores de a ∈ R se verifica que:

a) (1, −1, a) ∈ h(1, 1, 1), (0, 1, 2)i.

b) (1, 0, −6) ∈ h(1, 1, 1), (1, 2, a + 1)i.

c) (0, 2, a) es combinación lineal de los vectores (4, 0, 5) y (2, a, 3).

8.- Se consideran los subespacios de R3

U1 = (a, b, c) ∈ R3 | a + b − 2c = 0 y U2 = h(1, 1, 1)i .




Demostrar que U2 ( U1 .

9.- Se consideran los subespacios de R3

U1 = {(a, b, c) ∈ R3 | a − b − 3c = 0} y U2 = h(2, 2, 0), (4, 1, 1)i

Demostrar que U1 = U2 .

10.- Sean V un K-espacio vectorial y v1 , v2 , v3 ∈ V tales que α1 v1 + α2 v2 + α3 v3 = 0,


con α2 α3 6= 0. Probar que hv1 , v2 i = hv1 , v3 i.

11.- Sean K = Z2 = {0, 1} el cuerpo de 2 elementos y U un subconjunto no vacío de


K n . Probar que:
54 CAPÍTULO 3. ESPACIOS VECTORIALES

U es subespacio vectorial de K n ⇔ u + v ∈ U, ∀u, v ∈ U .

12.- Probar que el espacio vectorial U = {(a, b, c) ∈ R3 | a + 2b − c = 0} está generado


por los vectores u1 = (1, 0, 1) y u2 = (0, 1, 2) y que también está generado por los
vectores v1 = (2, −1, 0) y v2 = (−1, 1, 1).

13.- Comprobar que los vectores de R4 , u1 = (1, 0, −2, 5) , u2 = (2, 1, −1, 4) y u3 =


(−1, 2, 0, 2) , son linealmente independientes.

14.- Hallar c y d ∈ R para que el vector (1, 1, c, d) pertenezca al subespacio vectorial


de R4 generado por los vectores (1, 2, −1, 2) , (1, 3, 0, 2) y (0, 1, 0, 1).

15.- Se consideran, los subespacios de R4 ,

G = h(3, 0, 2, 2), (0, 0, 0, 5)i y


F = h(1, 0, 1, −1), (1, 2, 3, 1), (0, 1, 1, 1), (2, 4, 6, 3), (1, 0, 1, 0)i.

Hallar un conjunto de vectores escalonados que también genere F y probar que


G ( F.

16.- Sean u, v y w tres vectores linealmente independientes de R5 . Demostrar que los


vectores u + v, u − v y u − 2v + w también son linealmente independientes.

17.- Sean V un K-espacio vectorial y {u1 , . . . , u4 } un conjunto de vectores de V li-


nealmente independiente. Probar que el conjunto de vectores {v1 , . . . , v4 }, en donde
v1 = u1 , v2 = u1 − u2 , v3 = u1 − u2 − u3 , v4 = u1 − u2 − u3 − u4 , es linealmente
independiente.

18.- Calcular para que valores de a son linealmente independientes los vectores:

a) (1, a, 0, −1), (1, a, a − 2, a − 3), (0, 1, 2a − 2, a) ∈ R4 .

b) (1, 1, 1), (1, 1 + a2 , 1 + a), (1, 1 + a2 , 2a) ∈ R3 .

19.- Sean V un K-espacio vectorial y u, v, w ∈ V . Razonar si son verdaderas o falsas


las siguientes afirmaciones:

a) Si u ∈ hv, wi, entonces u y w son linealmente dependientes.

b) hu, v, wi = hu, u + v, u + wi.

c) Si u ∈
/ hv, wi, entonces u y w son linealmente independientes.

d) Si u ∈
/ hv, wi, entonces u, v y w son linealmente independientes.

e) Los vectores u − v, v − w y w − u son linealmente dependientes.


3.7. EJERCICIOS 55

f ) Si w = u + v, entonces hu, vi = hu, wi.

g) Si u, v, w son linealmente dependientes, entonces u, v también son linealmente de-


pendientes.

h) Si u y v son linealmente independientes, w ∈


/ hui y w ∈
/ hvi, entonces u, v y w son
linealmente independientes.

i) Si u y v son linealmente independientes, entonces u + v y u − v son linealmente


independientes.

j) Si u y v son linealmente independientes, la ecuación αu + βv + γ(u + v) = 0 solo


tiene la solución α = β = γ = 0.

k) Se verifica que dim hu, vi = dim hui + dim hvi.

l) Si u y v son linealmente independientes y α ∈ K\ {0}, entonces αu y v son lineal-


mente independientes.

20.- Sean u, v y w tres vectores linealmente independientes de un K-espacio vectorial.


¿Cuáles de las siguientes afirmaciones son falsas?

a) Los vectores u − v, v − w y w − u son linealmente independientes.

b) Los vectores u, u + v y u + w son linealmente independientes.

c) Los vectores u + v, v + w y u + w son linealmente independientes.

d) dim hu, vi = 2.

21.- Sea V un K-espacio vectorial y sean u1 , u2 , u3 , u4 ∈ V . Demostrar que las siguientes


condiciones son equivalentes:

a) Los vectores u1 , u2 , u3 y u4 son linealmente independientes.

b) Los vectores u1 + u4 , u2 + u4 , u3 + u4 y u4 son linealmente independientes.

22.- Hallar una base para cada uno de los siguientes subespacios de R3 :

a) U1 = {(a, 2a, 4a) | a ∈ R}.

b) U2 = {(a + 2b, −a + b, −a + b) | a, b ∈ R}.

c) U3 = {(a, b, c) | a + b − c = 0}.

d) h(1, 1, −2), (2, −1, 1), (3, −3, 4), (4, −5, 7)i.

23.- Encontrar una base para los siguientes subespacios vectoriales de R4 :


56 CAPÍTULO 3. ESPACIOS VECTORIALES

a) U = {(x, y, z, t) ∈ R4 | x − y + z − 2t = 0, y + z = 0}.

b) h(1, 2, 11, −4), (1, 2, 5, 0), (1, 4, 2, 2)i.

c) h(1, 0, 1, 0), (2, −1, 0, 1)i ∩ h(1, 0, 1, 0), (4, −1, 2, 1)i.

24.- Probar que B = {u1 = (−1, 1, 1), u2 = (1, −1, 1), u3 = (1, 2, −1)} es una base de
R3 . Calcular, en esta base, las coordenadas de los vectores de la base canónica.

25.- Demostrar que los vectores (1, 0, 0, 0), (1, 1, 0, 0), (1, 1, 1, 0) y (1, 1, 1, 1) son una
base de R4 y calcular las coordenadas de (1, 1, 1, 0) y de (5, 3, 6, 1) en dicha base.

26.- Sabiendo que un vector u ∈ R2 tiene coordenadas (1, β) en la base B = {(1, 2), (4, −1)}
y coordenadas (6, α) en la base B 0 = {(1, 1), (1, −1)}, calcular α y β.

27.- Sea S = {(1, 0, 0, 1), (0, 2, 0, 2), (1, 0, 1, 0), (0, 2, 2, 0)} un subconjunto de R4 . En-
contrar una base de hSi, ampliarla a una base de R4 y calcular las coordenadas de
(1, 1, 1, 1) en dicha base.

28.- Escribir una base de P2 (R) y explicar por qué los siguientes conjuntos no son base
de P2 (R):

a) {1, 2x, x2 − 1, 5x}.

b) {1 − x, 1 − x2 , 3x2 − 2x − 1}.

29.- Sea {v1 , v2 , v3 } una base de un K-espacio vectorial V . Probar que el conjunto
{v1 , v1 + v2 , v1 + v2 + v3 } también es base de V .

30.- Sea U = {(x, y, z, t) ∈ R4 | x − y + z − 2t = 0, y + z = 0}. Hallar una base para U


y ampliarla a una base de R4 .

31.- ¿Para que valores de α los vectores (α, 0, 1, −α), (α, 1, 2, 1) y (1, 0, α, α) generan
un subespacio vectorial de R4 de dimensión 2?

32.- Calcular, en función de a ∈ R, la dimensión y una base de los siguientes subespacios:

a) U1 = h(1, a, 0, −a), (0, 1, 1, a), (−1, 0, a, 0), (2, a + 1, −a + 1, 0)i ⊂ R4 .

b) U2 = h(1 + a, 1 + a, 2), (1, a, 1), (0, 1 − a, a − 1)i ⊂ R3 .

33.- Se consideran los subespacios de R3

U = h(1, 0, 1), (1, 1, 1)i y W = h(0, 0, 1), (1, 1, 0)i.


3.7. EJERCICIOS 57

Calcular una base, la dimensión y las ecuaciones de los siguientes subespacios: U, W,


W ∩ U y W + U.

34.- Se consideran los subespacios de R3 :

Ua = h(1, 2, 1), (1, 2, a + 2), (3, 6, a + 4)i y


W = {(x, y, z) ∈ R3 | x − y − z = 0}.

a) Determinar, en función de los valores del parámetro a, la dimensión y unas ecuaciones


del subespacio Ua .

b) Calcular una base de W y ampliarla a una base de R3 .

c) Para a = 0, calcular una base de U0 ∩ W y otra de U0 + W .

35.- Se consideran los subespacios de R4

U = h(1, 1, 1, 1), (0, 2, 1, 1)i y W = h(0, 2, 1, a + 2), (1, 1, 0, 1)i.

a) Calcular unas ecuaciones implícitas para U .

b) ¿ Para que valores de a la dimensión de U + W es 3?

c) ¿ Para que valores de a se tiene que U ∩ W ={(0, 0, 0, 0)}?

36.- Dados los subespacios de R4 :

U = {(a, b, c, d) | b + c + d = 0} y W = {(a, b, c, d) | a + b = 0, c = 2d}.

Calcular sus dimensiones y dar una base para cada uno de los siguientes subespacios:
U, W, U ∩ W y U + W.

37.- Se consideran los subespacios de R3 :

U = {(a, b, c) | a − b − c = 0} y W = {(a, 0, c) | a, c ∈ R}.

Dar una base para cada uno de los siguientes subespacios: U , W , U ∩ W y U + W .

38.- En R4 se consideran los subespacios

U = (x, y, z, t) ∈ R4 | x − y + 2z − t = 0, y − 2z = 0 y


W =< (0, 0, 1, 1), (1, 0, 1, 2), (2, 0, 3, 5) >.

a) Encontrar una base para cada uno de los subespacios siguientes: U , W y U + W .

b) Probar que h(1, 0, 0, 1)i ⊂ U ∩ W .


58 CAPÍTULO 3. ESPACIOS VECTORIALES

39.- Encontrar unas ecuaciones implícitas para el subespacio de R3 que tiene por base
{(2, 1, 1), (1, 1, 2)}.

40.- Calcular unas ecuaciones implícitas del subespacio de R4 :

U = h(2, 0, 0, 1), (1, 1, 0, 3)i.

41.- Hallar una base y unas ecuaciones implícitas para el subespacio de R5 generado
por los vectores (1, 1, 1, 1, 1), (1, 1, 1, 1, 0) y (1, 1, 1, 0, 0).

42.- Se consideran los subespacios de R3 :

U1 = {(x, y, z) | x + y + z = 0} y U2 = {(x, y, z) ∈ R3 | 2x − y − z = 0}.

a) Calcular una base para U1 .

b) ¿Es U1 ∪ U2 un subespacio de R3 ?

c) Probar que U1 + U2 = R3 .

43.- Sean los subespacios de R4 :

U = {(x, y, z, t) | x + y + 3z − 2t = 0} y
W = h(1, 1, 0, 1), (2, 2, −1, 2), (3, 4, 0, 2), (2, 3, −1, 1)i.

Calcular bases para U y W . Ampliar la base obtenida para U a una base de R4 .


Encontrar unas ecuaciones implícitas para W y calcular una base para U ∩ W .

44.- Calcular una base del subespacio de R3 :

h(2, 1, −1), (1, 2, 2)i ∩ h(−1, 0, 1), (3, 1, 1)i.

45.- Se consideran los subespacios de R4 :

F = h(1, −2, 0, a), (0, 1, 2, 5)i y G = h(−1, 3, 1, 1), (0, 2, 5, 2)i.

a) ¿Para que valores de a se tiene que dim(F + G) = 3?

b) Determinar para que valores de a se tiene que F ∩ G = {(0, 0, 0, 0)}.

46.- Sean α y β números reales distintos de cero. Se consideran los subespacios de R4 :

U = h(1, 0, 1, 0), (−α, 0, 0, 0)i y W = h(0, 1, 0, 1), (0, 1/α, −α, 1/β)i.

a) Calcular, en función de los valores de α y β, la dimensión del espacio vectorial U +W .

b) Hallar unas ecuaciones implícitas de U .


3.7. EJERCICIOS 59

c) Calcular para que valores de α y β se tiene que U ∩ W 6= {(0, 0, 0, 0)}.

d) Para α = β = −1, probar que (5, 2, 3, 2) ∈ U + W .

47.- Sean los subespacios de R4 :

F = (x, y, z, t) ∈ R4 | x + y + 3z − 2t = 0 y


G = h(1, 1, 0, 1), (2, 2, −1, 2), (3, 4, 0, 2), (2, 3, −1, 1)i.

Calcular bases para F y G. Ampliar la base obtenida para F a una base de R4 .


Encontrar unas ecuaciones implícitas para G y calcular una base para F ∩ G.

48.- Encontrar los valores de a y b en R para que sean linealmente dependientes en R4


los vectores (3, 2, a, 5), (2, −3, 5, a) y (0, 13, b, 7).

49.- En R4 se consideran los subespacios:

U = {(x, y, z, t) | x = y} y W = {(x, y, z, t) | z = t}.

Razonar, dando una demostración o un contraejemplo, si las afirmaciones siguientes


son verdaderas o falsas:

a) R4 = U ⊕ W .

b) U ∩ W = h(1, 1, 1, 1)i.

/ U , entonces R4 = U + hvi.
c) Si v ∈

50.- Razonar la verdad o falsedad de las afirmaciones siguientes:

a) Si S1 y S2 son subconjuntos no vacíos de R3 tales que S1 ⊂ S2 y S1 es linealmente


independiente, entonces también lo es S2 .

b) Si S1 y S2 son subconjuntos no vacíos de R3 tal que S1 ⊂ S2 y S1 es linealmente


dependiente, entonces también lo es S2 .

c) El subespacio de R3 {(a, a, a) | a ∈ R} tiene dimensión 3.

d) Si {u, v, w} es una base de R3 y t es un vector no cero de R3 , entonces {u + t, v, w}


también es base de R3 .

e) Si U1 y U2 son subespacios de R3 tal que dim(U1 ) ≤ dim(U2 ), entonces U1 ⊂ U2 .

f ) Si u ∈ hv, wi ⊂ R3 , entonces u y v son linealmente dependientes.

g) Si (x, y, z) ∈ h(0, 0, 1), (2, 0, 1)i, entonces y = 0 y z = 1.

h) La dimensión del subespacio (x, y, z) ∈ R3 | x + y − z = 0 es 1.



60 CAPÍTULO 3. ESPACIOS VECTORIALES

i) Si S = {v1 , . . . , vn } es un conjunto de vectores linealmente independientes, entonces


cualquier subconjunto de S no vacío es linealmente independiente.

j) Para cualesquiera vectores v, u y w de un espacio vectorial, los vectores u − v, v − w


y w − u son linealmente dependientes.

k) Todos los subconjuntos de S = {(1, 0), (1, 1), (0, 1)} con dos elementos son base de
R2 .

51.- Sea V un K-espacio vectorial. Razonar, dando una demostración o un contraejem-


plo, si las afirmaciones siguientes son verdaderas o falsas:

a) Si u, v, w ∈ V , entonces hu, vi ∩ hu, wi = hui.

b) Si u, v, w, t ∈ V son linealmente independientes, entonces se tiene que hu, vi∩hw, ti =


{0}.

c) Si u, v, w ∈ V son linealmente independientes y t ∈


/ {u, v, w}, entonces {u, v, w, t} es
linealmente independiente.

52.- Sea U = h(1, 1, 0, a), (3, −1, b, −1), (−3, 5, 0, a)i un subespacio de R4 .

a) Hallar a y b para que dim(U ) = 2.

b) Para los valores anteriores de a y b, hallar unas ecuaciones implícitas de U y encon-


trar un subespacio W de R4 tal que U W R4 .

53.- Se consideran los subespacios de R4 :

U = h(1, −2, 0, a), (0, 1, 2, 5)i y W = h(−1, 3, 1, 1), (0, 2, 5, 2)i.

a) ¿Para que valores de a se tiene que dim (U + W ) = 3?

b) Determinar para que valores de a se tiene que U ∩ W = {(0, 0, 0, 0)}.

54.- En R4 se consideran los subespacios:

U = h(1, −1, 1, 0), (0, 1, −1, 1), (1, 0, 0, −1), (3, −1, 1, −2)i y
W = h(1, 0, 0, 0), (1, −2, 2, 0), (0, 1, −1, 1)i.

a) Calcular unas ecuaciones implícitas para U .

/ U y que U + h(0, 1, 0, 0)i = R4 .


b) Demostrar que (0, 1, 0, 0) ∈

c) Probar que U = W .
3.7. EJERCICIOS 61
√ √ √
d) Justificar que v = ( 3, 2 − 1, 1 − 2, 0) ∈ U y encontrar v 0 , v 00 ∈ U de modo que
{v, v 0 , v 00 } sea una base de U .

55.- Sea U = hu, v, wi ⊂ R4 tal que dim(U ) = 3. Razonar, dando una demostración o
un contraejemplo, si las afirmaciones siguientes son verdaderas o falsas:

a) hu, vi ∩ hu + v + wi = {0}.

b) hu, vi + hu + v + wi = U.

/ U , entonces {u, v, w, t} es una base de R4 .


c) Si t ∈

d) hu + vi ( hu, vi .

56.- Sean U y W subespacios de R6 tales que dim(U ) = 2 y dim(W ) = 5. Razonar, dan-


do una demostración o un contraejemplo, si las afirmaciones siguientes son verdaderas
o falsas:

a) U + W = R6 ⇔ U no está contenido en W .

b) U ⊂ W .

c) U ∩ W = {0}.
62 CAPÍTULO 3. ESPACIOS VECTORIALES
Capítulo 4

Aplicaciones lineales

Definición 4.1. Sean V y W espacios vectoriales sobre un cuerpo K. Se dice que la


aplicación f : V → W es una aplicación lineal si verifica:

1. f (v + v 0 ) = f (v) + f (v 0 ),

2. f (αv) = αf (v),

para cualesquiera v, v 0 ∈ V y α ∈ K.

Ejemplos 4.2.

1. La aplicación f : V → K, definida por f (v) = 0, es una aplicación lineal.

2. La aplicación identidad idV : V → V , definida por idV (v) = v, es una aplicación


lineal.

3. La aplicación f : R2 → R, definida por f (x, y) = x + y, es una aplicación lineal.

4. La aplicación f : R2 → R3 , definida por f (x, y) = (x + y, x − y, y), es una aplicación


lineal.

5. La aplicación f : R2 → R3 , definida por f (x, y) = (x+y, x−y, 1), no es una aplicación


lineal.

Proposición 4.3. Sea f : V → W una aplicación lineal. Se verifica que:

1. f (0) = 0.

2. f (−v) = −f (v), para todo v ∈ V .

3. f (α1 v1 + · · · + αn vn ) = α1 f (v1 ) + · · · + αn f (vn ), para todo vi ∈ V y αi ∈ K, con


i : 1, . . . , n.

63
64 CAPÍTULO 4. APLICACIONES LINEALES

4. Si {v1 , . . . , vn } es un subconjunto de V linealmente dependiente, entonces el subcon-


junto, {f (v1 ), . . . , f (vn )}, de W es un linealmente dependiente.

Proposición 4.4. Sean f : V → W y g : W → U aplicaciones lineales. La composición


g ◦ f : V → U es también lineal.

Demostración.
1) (g ◦ f )(v + v 0 ) = g[f (v + v 0 )] = g[f (v) + f (v 0 )] = g[f (v)] + g[f (v 0 )]
= (g ◦ f )(v) + (g ◦ f )(v 0 ), ∀v, v 0 ∈ V .
2) (g◦f )(αv) = g[f (αv)] = g[αf (v)] = αg[f (v)] = α(g◦f )(v), ∀v ∈ V y ∀α ∈ K.

Definición 4.5. Una aplicación lineal f : V → W se dice que es un isomorfismo lineal


cuando es una aplicación biyectiva.

Proposición 4.6. Si f : V → W es un isomorfismo lineal, entonces f −1 : W → V


también lo es.

Demostración. Como f es una aplicación biyectiva tiene inversa, f −1 : W → V . Falta


probar que f −1 también es lineal.
Para todo w, w0 ∈ W y α ∈ K se tiene que:
f [f −1 (αw)] = αw = αf [f −1 (w)] = f [αf −1 (w)] y
f [f −1 (w + w0 )] = w + w0 = f [f −1 (w)] + f [f −1 (w0 )] = f [f −1 (w) + f −1 (w0 )].
Teniendo en cuenta el carácter inyectivo de f , se demuestra la linealidad de f −1 .

Proposición 4.7. Si f : V → W es una aplicación lineal, se verifica:

1. Si U es un subespacio de V , entonces f (U ) es un subespacio de W . En particular,


Im f es un subespacio de W . Además, si U = hu1 , . . . , us i, entonces f (U ) =
hf (u1 ), . . . , f (us )i.

2. Si L es un subespacio de W , entonces f −1 (L) es un subespacio de V . En particular,


f −1 ({0}) es un subespacio de V que se denotará por Núcleo de f o Ker f .

Demostración. 1) Como f (0) = 0 ∈ f (U ), entonces f (U ) 6= ∅. Además, para u, u0 ∈ U


y α ∈ K, se tiene que f (u) + f (u0 ) = f (u + u0 ) ∈ f (U ) y αf (u) = f (αu) ∈ f (U ).
2) Dado que f (0) = 0 ∈ L, 0 ∈ f −1 (L) y, para w, w0 ∈ f −1 (L) y α ∈ K, se tiene
que f (w + w0 ) = f (w) + f (w0 ) ∈ L y f (αw) = αf (w) ∈ L.

Ejercicio 4.8. Sea la aplicación lineal f : R3 → R3 definida por:


65

f (x, y, z) = (x + y, x − z, x − z).

Calcular los siguientes subespacios:

a) El núcleo y la imagen de f .

b) f −1 h(1, 1, 1), (0, 0, 1)i .

c) f −1 {(x, y, z) ∈ R3 | x − y + z = 0}.

Demostración. a) Ker f = {(x, y, z) ∈ R3 | x + y = 0, x − z = 0}

= {(x, y, z) ∈ R3 | x = −y = z} = {(x, −x, x) | x ∈ R} = h(1, −1, 1)i.

Im f = hf (1, 0, 0), f (0, 1, 0), f (0, 0, 1)i

= h(1, 1, 1), (1, 0, 0), (0, −1, −1)i = h(1, 0, 0), (0, −1, −1)i.
(1,1,1)=(1,0,0)−(0,−1,−1)

b) f −1 h(1, 1, 1), (0, 0, 1)i

= {(x, y, z) ∈ R3 | (x + y, x − z, x − z) ∈ h(1, 1, 1), (0, 0, 1)i}



1 0 x + y

= {(x, y, z) ∈ R3 | 1 0 x − z = 0} = {(x, y, z) ∈ R3 | y + z = 0}.
1 1 x − z

c) f −1 {(x, y, z) ∈ R3 | x − y + z = 0}

= {(x, y, z) ∈ R3 | x + y − (x − z) + x − z = 0}

= {(x, y, z) ∈ R3 | x + y = 0} = h(1, −1, 0), (0, 0, 1)i.

Teorema 4.9. Sean V y W espacios vectoriales, B = {v1 , . . . , vn } una base de V y


w1 , . . . , w n ∈ W .
Existe una única aplicación lineal f : V → W tal que f (vi ) = wi , para i = 1, . . . , n.

Demostración. Como las coordenadas de cada vector v ∈ V respecto de una base B son
n
P n
P
únicas, si v = αi vi se define f (v) = αi wi . De este modo, f es lineal y f (vi ) = wi
i=1 i=1
para i = 1, . . . , n. La unicidad es inmediata.

Proposición 4.10. Sea f : V → W una aplicación lineal entre espacios vectoriales de


dimensión finita.
66 CAPÍTULO 4. APLICACIONES LINEALES

1. f es inyectiva si, y solo si, Ker f = {0} si, y solo si, cualquier subconjunto de V
linealmente independiente tiene como imagen un subconjunto de W linealmente
independiente.

2. f es sobre si, y solo si, cualquier conjunto de generadores de V tiene como imagen
un conjunto de generadores de W .

3. f es biyectiva si, y solo si, la imagen de una base de V es una base de W .

Demostración. 1) Si f es inyectiva, entonces Ker f = {v ∈ V | f (v) = 0 = f (0)} = {0}.


Recíprocamente, f (v) = f (v 0 ) ⇔ f (v − v 0 ) = 0 ⇔ v − v 0 ∈ Ker f = {0} ⇔ v = v 0 .
Además, si {v1 , . . . , vr } ⊂ V es un conjunto de vectores linealmente independiente
y α1 f (v1 ) + · · · + αr f (vr ) = 0, el carácter lineal de f indica que α1 v1 + · · · + αr vr
pertenece a Ker f = {0} y, por la independencia lineal de {v1 , . . . , vr }, se tiene que
α1 = · · · = αr = 0 y, así, {f (v1 ), . . . , f (vr )} es linealmente independiente.
Finalmente, para el recíproco basta considerar que si v 6= 0, como {v} ⊂ V es
linealmente independiente, sabemos que {f (v)} ⊂ W es linealmente independiente y,
por tanto, f (v) 6= 0 y Ker f = {0}.
2) Si V = hSi, entonces Im f = h{f (v) | v ∈ S}i. En consecuencia, f es sobre si, y
solo si, W = h{f (v) | v ∈ S}i.
3) Por los dos apartados anteriores, si f es biyectiva y {v1 , . . . , vn } es base de V ,
entonces {f (v1 ), . . . , f (vn )} es base de W .
Recíprocamente, si {v1 , . . . , vn } es base de V , utilizando la hipótesis, se tiene que
{f (v1 ), . . . , f (vn )} es base de W . Por el teorema anterior, existe una única aplicación
lineal g : W → V tal que g(f (vi )) = vi , para i = 1, . . . , n; dicha aplicación g es inversa
de f y de ello se tiene el resultado.

Corolario 4.11. Sean V y W espacios vectoriales de dimensión finita. Entonces,

V y W son isomorfos si, y solo si, dim(V ) = dim(W ).

Demostración. Si f : V → W es un isomorfismo y {v1 , . . . , vn } es base de V , la pro-


posición anterior nos demuestra que {f (v1 ), . . . , f (vn )} es base de W y, por tanto,
dim(V ) = n = dim(W ).
Recíprocamente, si dim(V ) = n = dim(W ), B ={v1 , . . . , vn } es una base de V y
B 0 = {w1 , . . . , wn } es base de W , la aplicación lineal f : V → W definida por f (vi ) = wi ,
para i = 1, . . . , n, es un isomorfismo, por la proposición anterior.

Corolario 4.12. Todo espacio vectorial de dimensión n es isomorfo a K n .


4.1. MATRIZ ASOCIADA A UNA APLICACIÓN LINEAL 67

Teorema 4.13 (Teorema de la dimensión). Sea f : V → W una aplicación lineal y sea


dim(V ) = n. Se verifica:

dim(Ker f ) + dim(Im f ) = dim(V ).

Demostración. Como Ker f es un subespacio vectorial de V , dim(Ker f ) = r ≤ n.


Si {v1 , . . . , vr } es una base de Ker f , es un subconjunto de V linealmente inde-
pendiente y, por tanto, existen vr+1 , . . . , vn ∈ V tales que {v1 , . . . , vr , vr+1 , . . . , vn } es
una base de V . Teniendo en cuenta que f (vi ) = 0, para i = 1, . . . , r, se tiene que
Im f = hf (vr+1 ), . . . , f (vn )i.
Bastará comprobar que este conjunto de generadores de Im f es linealmente inde-
pendiente. En efecto,

αr+1 f (vr+1 ) + · · · + αn f (vn ) = 0 ⇔ f (αr+1 vr+1 + · · · + αn vn ) = 0


⇔ αr+1 vr+1 + · · · + αn vn ∈ Ker f ⇔ existen α1 , · · · , αr ∈ K tales que
αr+1 vr+1 + · · · + αn vn = α1 v1 + · · · + αr vr .

La independencia lineal de {v1 , . . . , vr , vr+1 , . . . , vn } muestra que αi = 0, para to-


do i = 1, . . . , n, y, en particular, que {f (vr+1 ), . . . , f (vn )} es un conjunto linealmente
independiente.

Corolario 4.14. Sea V un K-espacio de dimensión n y f : V → V una aplicación


lineal (endomorfismo de V ).

f es inyectiva ⇔ f es sobre ⇔ f es un isomorfismo.

Demostración. f es inyectiva ⇔ dim(Ker f ) = 0 ⇔ dim(Im f ) = n ⇔ f es sobre.

4.1. Matriz asociada a una aplicación lineal


Sean B = {v1 , . . . , vn } y B 0 = {w1 , . . . , wm } bases de los espacios vectoriales V y W .

m
P
Definición 4.15. Si f : V → W es una aplicación lineal definida por f (vj ) = aij wi ,
i=1
para cada vj con j = 1, . . . , n, la matriz A = (aij ) ∈ Mm×n (K) se llama matriz asociada
a la aplicación lineal f respecto de las bases B y B 0 y se denota por (f )B,B0 .

Nótese que el orden de la matriz A es m × n, siendo m la dimensión de W y n la


de V, y que la matriz A tiene como columna j-ésima las coordenadas en la base B 0 de
la imagen del vector vj de B.
68 CAPÍTULO 4. APLICACIONES LINEALES

Notación. Si V es un espacio vectorial, B = {v1 , . . . , vn } es una base de V y


Pn
(x1 , . . . , xn ) son las coordenadas de un vector v ∈ V en la base B, es decir v = xj vj ,
j=1
 
x1
la matriz columna  ...  la denotaremos por (v)B .
 

xn

Observación 4.16. Utilizando notación matricial, para la aplicación lineal anterior f , se


tiene que:

(f (v))B0 = (f )B,B0 (v)B .


n
P
En efecto, si v = xj vj , entonces
j=1

Xn n
X n
X Xm m X
X n
f (v) = f ( xj vj ) = xj f (vj ) = xj ( aij wi ) = ( xj aij )wi .
j=1 j=1 j=1 i=1 i=1 j=1

Ejemplos 4.17.

1. Si f : R3 → R4 es la aplicación lineal definida por

f (x, y, z) = (x − y, y + z, z, x − z)

y B = {(1, 1, 1), (1, 0, 1), (1, 1, 0)} es una base de R3 , la matriz asociada a f res-
pecto de la base B y de la base canónica es:
 
0 1 0
2 1 1
(f )B,C =
1
.
1 0
0 0 1

Además, si B 0 = {(0, 2, 1, 0), (1, 1, 1, 0), (0, 1, 0, 1), (0, 0, 0, 1)}, se tiene que
 
1 0 0
0 1 0
(f )B,B0 =
0
.
0 1
0 0 0

2. Si A = (aij ) ∈ Mm×n (K), existe una aplicación lineal fA : K n → K m cuya matriz


asociada respecto de las bases canónicas es A, que está definida por:
4.1. MATRIZ ASOCIADA A UNA APLICACIÓN LINEAL 69

fA (x1 , . . . , xn ) = (a11 x1 + · · · + a1n xn , . . . , an1 x1 + · · · + ann xn ).

3. Sean V y W espacios vectoriales, B = {v1 , . . . , vn } y B 0 = {w1 , . . . , wm } bases de V


y W , respectivamente, y A = (aij ) ∈ Mm×n (K). La aplicación lineal f : V → W
m
P
definida por f (vj ) = aij wi para cada vj , con j = 1, . . . , n, tiene a A como
i=1
matriz asociada respecto de las bases B y B 0 .

4. Si V es un espacio vectorial de dimensión n y B es cualquier base de V , la matriz


asociada a la identidad de V respecto de la base B (en el dominio y en el rango)
es In .

Veamos a continuación la relación entre el producto de matrices y la composición


de aplicaciones lineales.

Proposición 4.18. Sean V , W y U espacios vectoriales con bases B = {v1 , . . . , vn },


B 0 ={w1 , . . . , wm } y B 00 = {u1 , . . . , us }, respectivamente.
Si f : V → W y g : W → U son aplicaciones lineales, entonces

(g ◦ f )B,B00 = (g)B0 ,B00 (f )B,B0 ∈ Ms×n (K).


 
x1
n
xj vj y (v)B =  ... , se verifica que:
P
Demostración. Si v =
 
j=1
xn

(g)B0 ,B00 (f )B,B0 (v)B = (g)B0 ,B00 (f (v))B0 = (g(f (v)))B00 = ((g ◦f )(v)))B00 = (g ◦f )B,B00 (v)B .

Por lo tanto, si consideramos las coordenadas de los vectores de la base B, la igualdad


anterior nos proporciona la igualdad de las columnas de las matrices (g ◦ f )B,B00 y
(g)B0 ,B00 (f )B,B0 .

Ejemplo 4.19.
Sean f : R2 → R y g : R → R2 las aplicaciones lineales definidas por f (x, y) = x + y
y g(x) = (x, 3x).
La composición g ◦ f : R2 → R2 está definida por (g ◦ f )(x, y) = (x + y, 3x + 3y).
Las matrices asociadas a estas aplicaciones en las bases canónicas son:
     
 1 1  1 1
(f )C,C = 1 1 , (g)C,C = y (g ◦ f )C,C = 1 1 = .
3 3 3 3

Corolario 4.20. Sean V y W K-espacios vectoriales con bases B = {v1 , . . . , vn } y


B 0 = {w1 , . . . , wn }, respectivamente, y f : V → W una aplicación lineal. Se verifica:
70 CAPÍTULO 4. APLICACIONES LINEALES

f es un isomorfismo ⇔ A = (f )B,B0 es una matriz no singular.

Demostración. Si f es un isomorfismo, (f )B,B0 tiene como inversa (f −1 )B0 ,B .


Por otra parte, si A es no singular existe una única aplicación lineal g : W → V tal
n
A−1 (k, i)vk , para i = 1, . . . , n. Se verifica que (g)B0 ,B = A−1 y g es la
P
que g(wi ) =
k=1
aplicación inversa de f .

4.2. Matriz de cambio de base


Hemos visto que un espacio vectorial puede tener más de una base y vamos a estudiar
como varían las coordenadas de un vector al cambiar la base.
Consideraremos que V es un espacio vectorial de dimensión n y que B y B 0 son bases
de V .

Definición 4.21. Se llama matriz de cambio de base de B a B 0 a la matriz asociada a


la aplicación identidad de V considerando en el dominio la base B y en el codominio la
base B 0 , es decir, la matriz (idV )B,B0 .

n
Nótese que si B = {v1 , . . . , vn }, B 0 = {v10 , . . . , vn0 } y vj = aij vi0 , se verifica que
P
i=1
(idV )B,B0 = (aij ) ∈ Mn (K). Además, (v)B0 = (idV )B,B0 (v)B , es decir, al multiplicar la
matriz del cambio de base por la matriz columna de las coordenadas de un vector v en
la base B nos da la matriz columna de las coordenadas del vector v en la base B 0 .

Observaciones 4.22.

1. La matriz de cambio de base de B a B 0 es no singular, por estar asociada a un


isomorfismo, y su inversa es la matriz de cambio de base de B 0 a B.

2. Sea V un espacio vectorial de dimensión n y B = {v1 , . . . , vn } una base de V . La


aplicación lineal f : V → K n definida por f (vi ) = ei (siendo ei el i-ésimo vector
de la base canónica de K n ) es un isomorfismo, que denominaremos isomorfismo
de asignación de coordenadas. En consecuencia, {v10 , . . . , vn0 } ⊂ V es una base de
n
V si, y solo si, la matriz A, definida por Ci (A) = (a1i , . . . , ani )t , con vi0 =
P
aji vj
j=1
para todo i = 1, . . . , n, es de rango n, es decir, es no singular.

3. Toda matriz no singular es una matriz de cambio de base.


En efecto, si A = (aij ) ∈ Mn (K) es una matriz no singular y B 0 = {v10 , . . . , vn0 } es
n
akj vk0 , para j = 1, . . . , n, entonces otra base
P
una base de V , si definimos vj =
k=1
de V es B= {v1 , . . . , vn } y la matriz del cambio de base de B a B 0 es A.
4.2. MATRIZ DE CAMBIO DE BASE 71

4. Si B es una base de K n , es trivial calcular la matriz de cambio de base de B a la


base canónica.

Nos planteamos ahora la siguiente pregunta. ¿Cómo cambia la matriz de una apli-
cación lineal al cambiar las bases en el dominio y en el rango?

Proposición 4.23. Sean V y W espacios vectoriales, BV = {v1 , . . . , vn } y BV0 =


{v10 , . . . , vn0 } bases de V y BW = {w1 , . . . , wm } y BW
0 = {w 0 , . . . , w 0 } bases de W .
1 m
Si f : V → W es una aplicación lineal, se verifica que:

(f )BV ,BW = (idW )BW


0 ,B (f )B 0 ,B 0 (idV )B ,B 0 .
W V W V V

Demostración. El resultado es consecuencia de que f = idW ◦f ◦idV y de la proposición


4.18.

Ejemplo 4.24. Consideramos en R3 las siguientes bases:


B={(1, 1, 1), (1, 2, 0), (0, 0, 1)}, B 0 ={(1, 2, 1), (1, 0, 0), (1, 0, 1)} y C la canónica.
La matrices de cambio de base de B a C y de C a B 0 son:
   −1
1 1 0 1 1 1
(idR3 )B,C = 1 2 0  = A y (idR3 )C,B0 = 2 0 0 = (A0 )−1 .
1 0 1 1 0 1

Además, (idR3 )B,B0 = (idR3 )C,B0 (idR3 )B,C .


Nótese que, también se podría hallar directamente (idR3 )B,B0 sin más que expresar
los vectores de la base B como combinación lineal de los de la base B 0 , como vemos a
continuación. Para ello debemos de resolver tres sistemas de ecuaciones con (idR3 )B0 ,C
como matriz del sistema, es decir,
(1, 1, 1) = x(1, 2, 1) + y(1, 0, 0) + z(1, 0, 1)
(1, 2, 0) = x0 (1, 2, 1) + y 0 (1, 0, 0) + z 0 (1, 0, 1)
(0, 0, 1) = x00 (1, 2, 1) + y 00 (1, 0, 0) + z 00 (1, 0, 1)
Para resolverlos, simultáneamente, escalonamos la matriz (A|A0 ).
   
1 1 1 1 1 0 1 1 1 1 1 0
F −2F F ←→F
2 0 0 1 2 0 2−→ 1  0 −2 −2 −1 0 0  2−→ 3
F3 −F1 F3 −2F2
1 0 1 1 0 1 0 −1 0 0 −1 1
 1 

1 1 1 1 1 0
 1 0 0 1 0
−F2 , (− 1 )F3  2 
 0 −1 0 0 −1 1  −→2  0 1 0 0 1 −1 
F1 −F2 −F3
1
 
0 0 −2 −1 2 −2 0 0 1 −1 1
2
y así,
72 CAPÍTULO 4. APLICACIONES LINEALES

 1 
1 0
 2 
(idR3 )B,B0 = 0 1 −1 .
1
 
−1 1
2
Definición 4.25. Sean A, B ∈ Mm×n (K). Se dice que A y B son equivalentes si existen
matrices no singulares P ∈ Mm (K) y Q ∈ Mn (K) tales que A = P BQ.

En particular, si A y B son equivalentes por filas (respectivamente, por columnas)


son equivalentes siendo en este caso Q = In (respectivamente, P = Im ).

Observación 4.26. Teniendo en cuenta que toda matriz no singular puede ser pensada
como una matriz de un cambio de base, podemos afirmar que dos matrices son equi-
valentes si, y solo si, son matrices asociadas a la misma aplicación lineal respecto de
diferentes bases.

Teorema 4.27. Sean V y W espacio vectoriales de dimensión n y m y B y B 0 bases de


V y W , respectivamente.
Si f : V → W es una aplicación lineal tal que A = (f )B,B0 ∈ Mm×n (K), entonces
r(A) = dim(Im f ).
n
Demostración. Sean B= {v1 , . . . , vn }, B 0 = {w1 , . . . , wm } y f (vj ) =
P
aij wi . Las coor-
i=1
denadas de f (vj ) en la base B 0 son (a1j , . . . , amj ), es decir, la fila j-ésima de la matriz
At . Puesto que la asignación de coordenadas es un isomorfismo entre W y K m , se tiene
que:

r(A) = rc (A) = dim (hC1 (A), . . . , Cn (A)i) = dim (hf (v1 ), . . . , f (vn )i) = dim(Im f ).

Corolario 4.28. Dos matrices equivalentes tienen el mismo rango.

Demostración. Como vimos en la observación 4.26, dos matrices equivalentes son ma-
trices asociadas a la misma aplicación lineal respecto de diferentes bases y el rango de
ambas coincide con la dimensión de la imagen de dicha aplicación lineal.

Este resultado ya lo conocíamos, sabíamos que dos matrices equivalentes por filas
o por columnas tienen el mismo rango; si A y B son equivalentes, existen matrices
no singulares P ∈ Mm (K) y Q ∈ Mn (K) tales que A = P BQ, así, A y BQ son
equivalentes por filas y BQ y B son equivalentes por columnas y, por tanto, todas
tienen el mismo rango.

Teorema 4.29. Sean A, B ∈ Mm×n (K).


Las matrices A y B son equivalentes si, y solo si, r(A) = r(B)
4.3. EJERCICIOS 73

Demostración. En el corolario anterior vimos que las matrices equivalentes tienen el


mismo rango.
Recíprocamente,
 basta con demostrar que si r(A) = r entonces la matriz A es

Ir 0
equivalente a ∈ Mm×n (K).
0 0
Para ello consideremos la aplicación lineal f : K n → K m cuya matriz asociada
respecto de las bases canónicas es A. Dado que dim(Im f ) = r(A) = r y que, por el
teorema 4.13, n = dim(Im f ) + dim(Ker f ), se tiene que dim(Ker f ) = n − r.
Si {vr+1 , . . . , vn } es una base de Ker f , existen v1 , . . . , vr ∈ K n de manera que
B = {v1 , . . . , vr , vr+1 , . . . , vn } es una base de K n .
Por otra parte, {f (v1 ), . . . , f (vr )} ⊂ Im f es un conjunto de generadores de Im f
con tantos elementos como su dimensión y, por tanto, es una base de Im f .
Existen wr+1 , . . . , wm ∈ K m tales que B 0 = {f (v1 ), . . . , f (vr ), wr+1 , . . 
. , wm } 
es una
I 0
base de K m y así la matriz asociada a f , respecto de las bases B y B 0 , es r .
0 0

Corolario 4.30. Si A ∈ Mm×n (K), se verifica que U = {(x1 , . . . , xn ) ∈ K n | AX = 0}


es un subespacio de K n de dimensión n − r(A).

Demostración. Si consideramos f : K n → K m la aplicación lineal que tiene A como


matriz asociada respecto de las bases canónicas, U = Ker f es un subespacio de K n .
Además como, por el teorema 4.13, n = dim(Ker f ) + dim(Im f ) = dim(Ker f ) + r(A),
se tiene que dim(U ) = n − r(A).

Definición 4.31. Sean A, B ∈ Mn (K). Las matrices A y B son semejantes si existe


una matriz P ∈ Mn (K) no singular de modo que B = P AP −1 .

Nótese que si dos matrices cuadradas son semejantes también son equivalentes. El
recíproco no es cierto, toda matriz es equivalente a una que es diagonal, como nos
muestra la demostración del teorema 4.29, pero no es semejante a una matriz diagonal.
El objetivo de nuestro próximo tema es estudiar en que condiciones una matriz es
semejante a una que sea diagonal.

4.3. Ejercicios

1.- ¿Cuáles de las siguientes aplicaciones son lineales?

a) f : R2 → R2 , dada por f (x, y) = (x − y, 0).

b) f : R2 → R3 , dada por f (x, y) = (x + 3y, −2x, 2).

c) f : R → R, dada por f (x) = x2 .


74 CAPÍTULO 4. APLICACIONES LINEALES

d) f : R3 → R2 , dada por f (x, y, z) = (y, xz).

2.- Dadas las aplicaciones:

a) f : R2 → R3 definida por f (x, y) = (x − y, x + y, −x + y).

b) f : R → R2 definida por f (x) = (x, 1).

c) f : R3 → R3 definida por f (x, y, z) = (y, 0, 2y − z).

d) f : R3 → R2 definida por f (x, y, z) = (x + y, z 3 ).

Se pide:

i) Determinar cuales son lineales.

ii) En las aplicaciones lineales obtenidas, hallar el núcleo, la imagen e indicar si son
inyectivas, sobreyectivas o biyectivas.

3.- ¿Existe alguna aplicación lineal f : R2 → R2 tal que f (1, 0) = (1, 1), f (3, 2) = (1, −1)
y f (3, 3) = (2, 2)?

4.- Probar que dado un K-espacio vectorial V , toda aplicación lineal f : V → K no


nula es sobreyectiva.

5.- Sean f : V → V 0 y g : V 0 → V 00 aplicaciones lineales y v ∈ V . Demostrar que:

v ∈ Ker f ⇒ hvi ⊂ Ker (g ◦ f ) .

00
6.- Dadas aplicaciones lineales f : V → V 0 y g : V 0 → V , probar las siguientes afirma-
ciones:

a) Im(g ◦ f ) ⊂ Im g y Ker f ⊂ Ker (g ◦ f ).

b) g ◦ f = 0 ⇔ Im f ⊂ Ker g.

7.- Sea f : R3 → R3 la aplicación lineal definida por:

f (x, y, z) = (x + 2y + z, x − y, x − y).

Se pide:

a) Hallar una base y las ecuaciones implícitas de Ker f .

b) Hallar una base y la dimensión de Im f .

c) Analizar si el vector (4, 0, 2) pertenece a Im f .


4.3. EJERCICIOS 75

8.- Sea f : R3 → R4 la aplicación lineal definida por:

f (x, y, z) = (y + 2z, αx + 2βy + αz, x + y − z, x + 2y + z).

Determinar α y β para que f no sea inyectiva.


9.- Se considera la aplicación lineal f : R3 → R3 definida por:

f (x, y, z) = (x + y, y + z, x − z).

a) Probar que f no tiene inversa.

b) Sea U = (x, y, z) ∈ R3 | x − y + z = 0 , calcular una base del subespacio f −1 (U ).




c) Si W = h(0, 1, 1) , (1, 1, a)i, determinar para que valores de a la dimensión de f (W )


es 1.

10.- Sean V y W dos espacios vectoriales, f : V → W una aplicación lineal y v1 ,v2 ∈ V .


Razonar, dando una demostración o un contraejemplo, si las afirmaciones siguientes son
verdaderas o falsas:

a) f (hv1 , v2 i) es un subespacio vectorial de dimensión 2.

b) Si v1 y v2 son vectores linealmente dependientes, entonces f (v1 ) y f (v2 ) son vectores


linealmente dependientes.

c) Si V = hv1 , v2 i, entonces W = hf (v1 ) , f (v2 )i.

11.- Sean f : R3 → R2 y g : R2 → R3 las aplicaciones lineales dadas por:

f (x, y, z) = (x, −x + y + 2z) y g(x, y) = (x + y, −x − y, 2x).

a) Calcular las imágenes de los vectores de la base canónica de R3 mediante la aplicación


lineal h = g ◦ f .

b) Determinar unas ecuaciones implícitas del subespacio h−1 h(−1, 1, 2)i.

c) Calcular una base del núcleo de h y sus ecuaciones.

d) Determinar la imagen mediante h de la intersección de los subespacios:

U = {(a + b, a − b, −b) | a, b ∈ R} y W = (x, y, z) ∈ R3 | x − y + z = 0 .




12.- Sean u = (1, −1, 3), v = (−3, 3, α) ∈ R3 y f : R3 → R3 es una aplicación lineal tal
que Ker f = {(x, y, z) ∈ R3 | x + y + z = 0}. ¿Para que valores de α se cumple que
f (u) = f (v)?
76 CAPÍTULO 4. APLICACIONES LINEALES

13.- Hallar una aplicación lineal f : R3 → R3 cuya imagen esté generada por los vectores
siguientes: (1, 1, 1) y (1, 1, 0). ¿Es única?

14.- Hallar una aplicación lineal f : R4 → R3 cuyo núcleo sea el siguiente subespacio
h(1, 1, −1, 1), (0, 0, 1, 1)i de R4 .

15.- Encontrar una aplicación lineal f : R3 → R3 de modo que Ker f = h(1, 1, 1)i y que
Im f = {(x, y, z) ∈ R3 | x + y + z = 0}. ¿Es única?

16.- ¿Existe una aplicación lineal f : R3 → R4 de forma que su núcleo sea el subespacio
generado por {(1, 1, 0), (0, 1, 0)} y la imagen esté generada por {(1, 1, 1, 0), (1, 0, 0, 2)}?

17.- Se considera la aplicación lineal f : R3 → R3 definida por:

f (x, y, z) = (x + z, x + y + 2z, x − y).

a) Calcular una base para Ker f y otra para Im f .

b) Siendo U = (x, y, z) ∈ R3 | x − y = 0 , encontrar una base para f −1 (U ).




c) Si W = h(1, 2, 1) , (2, 2 + a, 0)i, determinar para que valores de a la dimensión de


f (W ) es 1.

18.- Sea f : R4 → R3 la aplicación lineal definida por:

f (x, y, z, t) = (x + z, x − y + z, x + t).

a) Calcular una base para Ker f y otra para Im f .

b) Si U = h(1, 1, 1, 1) , (−2, 2, 6, 6)i, calcular una base y unas ecuaciones implícitas para
f (U ).

c) Sea T = h(1, 1, 0) , (0, 0, 1)i. Calcular unas ecuaciones implícitas y una base para el
subespacio f −1 (T ).

d) Encontrar dos vectores distintos v, v 0 ∈ R4 tales que f (v) = f (v 0 ) = (1, 2, 3) y


justificar que f −1 ({(1, 2, 3)}) no es subespacio de R4 .

19.- Se considera la aplicación lineal f : R3 → R3 definida por:

f (x, y, z) = (x + z, y, x + 2y + z).

a) ¿Es f inyectiva?

b) Calcular para que valores de α el vector (2, −2, 1 + α) está en Im f .

c) Si W = (x, y, z) ∈ R3 | x − az = 0 , determinar para que valores de a la dimensión




de f (W ) es 1.
4.3. EJERCICIOS 77

d) Sea B = {(0, 1, 1), (1, 1, 1), (0, 0, 1)} una base de R3 , calcular las coordenadas de
f (1, 1, 1) en la base B.

20.- Sea U = (x, y, z) ∈ R3 | x + y − 3z = 0 .




a) Si f : R3 → R3 es una aplicación lineal tal que Ker f = U . ¿Para qué valor de α se


cumple que f (1, 1, 2) = f (−1, 0, α)?

b) Definir dos aplicaciones lineales distintas, f, g : R3 → R3 , verificando que Ker f =


Ker g = U .

21.- Sean V un K-espacio vectorial de dimensión 2 y {v1 , v2 } una base de V . Se consi-


dera la aplicación lineal f : V → V definida por f (v1 ) = v1 y f (v2 ) = −v1 . Calcular las
dimensión de Ker f e Im f .

22.- Se consideran las siguientes bases de R3 :


B = {(1, 1, 0) , (0, 1, 1) , (0, 0, −1)} y B 0 = {(1, 0, 1) , (0, 1, −1) , (0, 1, 0)}.
Si f, g : R3 → R3 son las aplicaciones lineales definidas por:

f ((1, 1, 0)) = (1, 1, 1), f ((0, 1, 1)) = (0, 1, 2) y f ((0, 0, −1)) = (0, 0, 0);
g(1, 0, 1)) = (1, 0, −1), g(0, 1, −1)) = (0, 1, 2) y g(0, 1, 0)) = (0, 1, 2).

a) Calcular f (x, y, z).

b) Demostrar que f = g.

23.- Sea f : R2 → R3 la aplicación lineal dada por f (x, y) = (x − y, 2x, −y) . Sean
B = {(1, 0), (1, 1)} una base de R2 y B 0 = {(1, 1, 0), (0, 1, 0), (0, 1, 1)} una base de R3 .
Calcular (f )B,B 0 .

24.- Sea f : R3 → R2 la aplicación lineal definida por:

f (x, y, z) = (x + y, 2y − z).

a) Calcular la matriz asociada a f en las bases canónicas.

b) Hallar bases y la dimensión de Im f y Ker f .

c) Si B1 = {(1, 1, 1), (0, 1, 2), (0, 2, 1)} y B2 = {(2, 1), (1, 0)} son bases de R3 y R2 ,
respectivamente, calcular las matrices de cambio de base de B1 a la base canónica
en R3 y la de la base B2 a la canónica de R2 , así como la matriz de f respecto a
B1 y B2 .
78 CAPÍTULO 4. APLICACIONES LINEALES

25.- Definir una aplicación lineal f : R3 → R3 tal que:


Ker f = {(x, y, z) ∈ R3 | x − y + z = 0} e Im f = {(x, y, z) ∈ R3 | x + z = 0, y = 0}.
Calcular (f )C,C .

26.- Sean B = {(1, 0, 0), (1, 1, 0), (0, 0, 2)} una base de R3 y f : R3 → R3 la aplicación
lineal definida por
 
1 0 0
(f )B,B =  −1 1 0 .
0 1 2

a) Calcular (f )B,C y (f )C,C .

b) Justificar que f es un isomorfismo y calcular (f −1 )C,C .

27.- Sea B = {u1 , u2 , u3 } una base de R3 y f : R3 → R3 la aplicación lineal que cumple



f (u1 ) = u1 − 2u2 + u3 
f (u2 ) = −2u1 + 3u3
Ker f = h2u1 − u2 + u3 i

a) Calcular la matriz asociada a f en la base B.

b) Calcular la matiz asociada a f respecto de la base D = {u2 , u2 − u1 , u3 − u2 − u1 }.

28.- Sean B = {u1 , u2 , u3 } una base de R3 y f : R3 → R3 la aplicación lineal cuya


matriz asociada respecto de la base B es:
 
3 2 −1
(f )B,B =  −2 −1 0 .
4 3 1

a) Probar que B 0 = {u3 , f (u3 ), f 2 (u3 )} es base de R3 .

b) Calcular la matiz asociada a f respecto de la base B 0 .

29.- Para cada α ∈ R se considera la aplicación fα : R3 → R3 tal que


 
1 0 1
(fα )C,C =  α 1 2α .
1 α 2

a) Determinar la dimensión de Im fα , según los valores de α.

b) Calcular β, γ ∈ R de modo que (β, γ, 2) ∈ Ker f1 .

c) Encontrar unas ecuaciones para Im f−1 .


4.3. EJERCICIOS 79

30.- Para cada α ∈ R se define la aplicación lineal fα : R4 → R3 ,

fα (x, y, z, t) = (αx + y, x + αz, y + t).

a) Estudiar los valores de α que hacen que fα sea inyectiva y los que la hacen sobre-
yectiva.

b) Hallar una base de Ker f2 .

c) Calcular f0 (L), siendo L = {(x, y, z, t) ∈ R4 | x = z = 0}.

31.- Justificar la verdad o la falsedad de las siguientes afirmaciones:

a) Una aplicación lineal f : R3 → R6 no puede ser sobreyectiva.

b) Si f : R3 → R2 es una aplicación lineal, entonces Ker f 6= {(0, 0, 0)}.

c) Si f : R2 → R3 es una aplicación lineal, entonces Ker f 6= {(0, 0)}

d) Si f : Rm → Rn es una aplicación lineal inyectiva, entonces m = n y f es isomorfismo.

32.- Se considera la aplicación lineal f : R3 → R3 definida por:

f (x, y, z) = (x + y, z, x + y + 2z).

a) ¿Es f inyectiva?

b) Calcular para que valores de α el vector (1, α, 7) está en Im f .

c) Si W = (x, y, z) ∈ R3 | x − ay = 0 , determinar para que valores de a la dimensión




de f (W ) es 1.

d) Sea B = {(0, 0, 1), (0, 1, 1), (1, 1, 1), } una base de R3 , calcular las coordenadas de
f (1, 1, 1) en la base B.

33.- Sea f : R4 → R3 una aplicación lineal. Razonar, dando una demostración o un


contraejemplo, si las afirmaciones siguientes son verdaderas o falsas:

a) f es sobreyectiva.

b) f no es inyectiva.

c) dim(Ker f ) = 1.

34. Sea fa : R3 → R4 la aplicación lineal definida por:

fa (x, y, z) = (x, y + az, ay + 4z, x + y + az).


80 CAPÍTULO 4. APLICACIONES LINEALES

a) Calcular la dimensión de Im fa , según los valores de a.

b) Determinar para que valores de a se tiene que fa es inyectiva.

c) Encontrar un subespacio U de R4 tal que Imf2 + U = R4 . ¿Es único?

d) Si es posible, definir una aplicación lineal inyectiva g : R3 → R4 verificando que


Im f2 ⊂ Im g.

35.- Sean B = {(1, 1, 0), (0, 0, 1), (0, 1, 0)} una base de R3 y C su base canónica.

a) Calcular las matrices: (idR3 )B,C y (idR3 )C,B .

b) Hallar las coordenadas del vector v = (3, 4, 2) en la base B.

36.- Sean B = {(1, 1, 0, 1), (0, −1, 0, 0), (0, 0, 1, 0), (0, 0, 0, 3)} una base de R4 y la apli-
cación lineal f : R3 → R4 definida por:

f (1, 0, 0) = (1, 1, 0, 1), f (0, 1, 0) = (−1, 2, 0, 0) y f (0, 0, 1) = (0, 3, 0, 1).

a) Hallar la matriz de cambio de base de la base canónica a la base B, en R4 .

b) Calcular la matriz asociada a f respecto de la base canónica de R3 y de la base B.

c) Hallar las coordenadas de f (1, 1, 0) en la base B.

37 .- Sean B = {(1, 0), (1, 1)} y B 0 = {(1, 1, 0), (0, −1, 0), (0, 1, 1)} bases de R2 y R3 ,
respectivamente, y f : R2 → R3 la aplicación lineal definida por f (x, y) = (x+y, x, −2y).
Calcular (f )B,B 0 .
Capítulo 5

Diagonalización de matrices

5.1. Valores y vectores propios


En este tema V es un K-espacio vectorial de dimensión finita n.

Definición 5.1. Sea f : V → V un endomorfismo de V .

1. Se dice que un escalar λ ∈ K es un valor propio (o autovalor) de f si existe un


vector no nulo v ∈ V tal que f (v) = λv.

2. Se dice que un vector v ∈ V es un vector propio (o autovector) si existe λ ∈ K tal


que f (v) = λv.

Lema 5.2. Sean f : V → V un endomorfismo de V y λ ∈ K.

Vλ = {v ∈ V | f (v) = λv} es un subespacio de V.

Cuando λ ∈ K es un valor propio de f este subespacio se llamará subespacio propio


asociado al valor propio λ.
Además, si A ∈ Mn (K) es la matriz asociada a f respecto de una base B, entonces
dim(Vλ ) = n − r(A − λIn ).

Demostración. Es suficiente con constatar que:


Vλ = Ker(f − λidV ), en donde λidV : V → V es la aplicación lineal definida, por
λidV (v) = λv, para cada v ∈ V .
Además, ya que (f − λidV )B,B = A − λIn , se verifica que:

dim(Vλ ) = dim(Ker(f − λidV )) = n − dim(Im(f − λidV )) = n − r(A − λIn ).

Proposición 5.3. Sean f : V → V un endomorfismo de V , A ∈ Mn (K) la matriz


asociada a f respecto de una base B y λ ∈ K. Se verifica que:

81
82 CAPÍTULO 5. DIAGONALIZACIÓN DE MATRICES

λ es un valor propio de f si, y solo si, |A − λIn | = 0.

Demostración. Sin más que considerar que Vλ = Ker(f − λidV ), se tiene que

λ es un valor propio de f ⇔ Ker(f − λidV ) 6= {0}


⇔ dim(Ker(f − λidV )) = n − r(A − λIn ) 6= 0 ⇔ r(A − λIn ) < n ⇔ |A − λIn | = 0.

Ejemplo 5.4. Consideremos el endomorfismo f : R3 → R3 definido por:


f (x, y, z) = (y + z, x + z, x + y).
f tiene la siguiente matriz asociada respecto de la base canónica
 
0 1 1
(f )C,C = A = 1 0 1
1 1 0
Sabemos que:

λ es un valor propio de f ⇔ |A − λIn | = 0



−x 1 1 1 1 −x

|A − xIn | = 1 −x 1 = − 1 −x 1
F1 ←→F3
1 1 −x −x 1 1

1 1 −x
−1

2 1 = −(1 + x)2 (x − 2).

= − 0 −x − 1 1 + x = −(1 + x)
F2 −F1 1 1 − x
F3 +xF1
0 1 + x 1 − x2
Es decir, los valores propios de f son −1 y 2.
Para calcular V2 = Ker(f − 2idR3 ) debemos de resolver el sistema:
    
−2 1 1 x 0
 1 −2 1   y = 0.
 
1 1 −2 z 0
Aplicando Gauss se tiene que:
   
−2 1 1 1 1 −2
 1 −2 1   1 −2 1 
1 1 −2 −−−−−−→
F1 ←→F3
−2 1 1
   
1 1 −2 1 1 −2
−−−−→  0 −3 3   0 1 −1 
F2 −F1
F3 +2F1 0 3 −3 − −−−→
F +F
0 0 0
3 2
−31F
3

de donde, y = z = x y V2 = h(1, 1, 1)i .


También V−1 = Ker(f + idR3 ) y para calcularlo resolvemos el sistema:
5.2. EL ANILLO DE POLINOMIOS K[X] 83
    
1 1 1 x 0
 1 1 1  y  = 0
1 1 1 z 0

y, por tanto, V−1 = {(x, y, z) ∈ R3 | x + y + z = 0} = h(1, −1, 0), (0, 1, −1)i.

5.2. El anillo de polinomios K[x]


Dado un cuerpo K, un polinomio en la indeterminada x con coeficientes en K es
una expresión de la forma

f (x) = a0 + a1 x + a2 x2 + · · · + an−1 xn−1 + an xn

donde ai ∈ K, para todo 0 ≤ i ≤ n.


Si ai = 0, para todo 0 ≤ i ≤ n, f (x) se llama polinomio cero. En caso contrario, el
mayor entero s tal que as 6= 0 se llama grado del polinomio f (x), denotado por ∂f (x), as
se llama coeficiente principal y ai es el coeficiente de grado i, 0 ≤ i ≤ n. Un polinomio de
grado 0 se llama polinomio constante. Cuando el coeficiente principal es 1, el polinomio
se dice que es mónico.
Dos polinomios, f (x) = a0 + a1 x + · · · + an xn y g(x) = b0 + b1 x + · · · + bm xm , son
iguales si tienen el mismo grado y ai = bi , para todo i, 0 ≤ i ≤ ∂f (x) = ∂g(x).
El conjunto de polinomios en la indeterminada x con coeficientes en K se denota
por K[x].

Ejemplo 5.5. En R [x] la expresión 3x6 + 4x5 + x2 + 4x + 2 es un polinomio de grado


6, con coeficiente principal 3.

5.3. Suma y producto en K[x]


Sean f (x) = a0 + a1 x + · · · + an xn y g(x) = b0 + b1 x + · · · + bm xm polinomios en
K[x].
Sin pérdida de generalidad, podemos suponer que n ≥ m y, si n > m, ponemos
bm+1 = bm+2 = · · · = bn = 0. Se define la suma f (x) + g(x) y el producto f (x)g(x) de
los polinomios de la forma siguiente:
El coeficiente de xi en f (x) + g(x) es ai + bi , para cada 0 ≤ i ≤ n.
El coeficiente de xi , para 0 ≤ i ≤ n + m, en f (x)g(x) es
X
ar bs = a0 bi + a1 bi−1 + a2 bi−2 + · · · + ai b0 ,
r+s=i

donde las sumas y productos son en K. Es decir,


84 CAPÍTULO 5. DIAGONALIZACIÓN DE MATRICES

f (x) + g(x) = (a0 + b0 ) + (a1 + b1 )x + · · · + (an + bn )xn y


f (x)g(x) = a0 b0 + (a0 b1 + a1 b0 )x + · · · + an bm xn+m .

De estas definiciones se deduce que f (x) + g(x) y f (x) · g(x) pertenecen a K[x].
Además, si f (x) + g(x) 6= 0 y f (x) · g(x) 6= 0,

∂(f (x) + g(x)) ≤ max{∂f (x), ∂g(x)} y ∂(f (x)g(x)) = ∂f (x) + ∂g(x).

Ejemplo 5.6. Si consideramos f (x) = 3 + 2x + 4x2 + 4x5 , g(x) = 3x + 2x2 + 4x3 ∈ R[x],

f (x) + g(x) = 3 + 5x + 6x2 + 4x3 + 4x5 y


f (x)g(x) = 0 + 9x + 12x2 + · · · + 16x8 .

Con estas operaciones (K[x], +, ·) es un anillo conmutativo unitario. Sin embargo,


K[x] no es un cuerpo, puesto que los únicos elementos con inverso son los polinomios
constantes no nulos.
En lo que sigue, veremos cómo las propiedades de divisibilidad en K[x] y los resul-
tados que de ellas se deducen son análogas a las correspondientes en el anillo Z.

5.4. Algoritmo de división en K[x]


Proposición 5.7 (Algoritmo de división).
Sean f (x) y g(x) polinomios con coeficientes en un cuerpo K, siendo g(x) 6= 0.
Existen polinomios únicos q(x), r(x) en K[x] tales que f (x) = q(x)g(x) + r(x), donde
∂r(x) < ∂g(x) o r(x) = 0.

Demostración. Prueba de la existencia:


Sean f (x) = a0 + a1 x + · · · + an xn , g(x) = b0 + b1 x + · · · + bm xm ∈ K[x] con
∂f (x) = n y ∂g(x) = m.
Si ∂f (x) < ∂g(x), el resultado se cumple para q(x) = 0 y r(x) = f (x).
Supongamos pues que ∂f (x) ≥ ∂g(x). Haremos la demostración por inducción en
∂f (x) = n.
Si n = 0, entonces ∂g(x) = 0, g(x) = b0 6= 0 y f (x) = a0 = (a0 b−1
0 )b0 + 0. Basta
−1
tomar q(x) = a0 b0 y r(x) = 0.
Supongamos n > 0 y que el resultado es cierto para aquellos polinomios cuyo grado
es menor que n.
El polinomio f1 (x) = f (x) − an b−1
m x
n−m g(x) ∈ K[x] verifica que ∂f (x) < n.
1
Aplicando la hipótesis de inducción, existen polinomios q1 (x), r1 (x) ∈ K[x] tales que
f1 (x) = q1 (x)g(x) + r1 (x) con ∂r1 (x) < ∂g(x) o r1 (x) = 0.
5.4. ALGORITMO DE DIVISIÓN EN K[X] 85

Así pues, f (x) = an b−1


m x
n−m g(x) + f (x) = (a b−1 xn−m + q (x))g(x) + r (x) y
1 n m 1 1
−1
tomando q(x) = an bm x n−m + q1 (x) y r(x) = r1 (x) se obtiene f (x) = q(x)g(x) + r(x),
donde ∂r(x) < ∂g(x) o r(x) = 0.
Esto completa la inducción y el resultado es cierto para todos los valores de ∂f (x).
Prueba de la unicidad:
Supongamos ahora que, f (x) = q1 (x)g(x) + r1 (x) = q2 (x)g(x) + r2 (x), donde
∂ri (x) < ∂g(x) o ri (x) = 0, (i = 1, 2).
Entonces, (q1 (x) − q2 (x))g(x) = r2 (x) − r1 (x).
Si q1 (x) 6= q2 (x), ∂[(q1 (x) − q2 (x))g(x)] ≥ ∂g(x), mientras que ∂(r2 (x) − r1 (x)) ≤
max{∂r1 (x), ∂r2 (x)} < ∂g(x).
Se llega así a una contradicción y, en consecuencia, q1 (x) = q2 (x) y r1 (x) = r2 (x).

Los polinomios q(x) y r(x) se llaman cociente y resto, respectivamente, de dividir


f (x) por g(x). Si r(x) = 0 se dice que g(x) divide a f (x).
Nótese que la construcción de f1 (x) en la demostración anterior da un algoritmo
para dividir dos polinomios.

Definición 5.8. Sean f (x) = a0 + a1 x + · · · + an xn ∈ K[x] y α ∈ K.


Llamaremos evaluación de f (x) en α al elemento f (α) = a0 +a1 α +· · · +an αn ∈ K.
Diremos que α es una raíz o un cero de f (x) cuando f (α) = 0.

Nótese que si f (x), g(x) ∈ K[x] se verifica que la evaluación de f (x) + g(x) en α es
f (α) + g(α) y la evaluación de f (x)g(x) en α es f (α)g(α).

Teorema 5.9 (Teorema del resto).


Sean f (x) ∈ K[x] y α ∈ K. El resto de la división de f (x) por x − α es f (α).

Demostración. Por el algoritmo de división, f (x) = (x − α)q(x) + r(x) con r(x) = 0 o


∂r(x) < ∂(x − α) = 1. Por lo tanto, r(x) = r es un elemento de K. Si evaluamos f (x)
en α se obtiene f (α) = (α − α)q(α) + r(α) = 0 + r.

Teorema 5.10 (Teorema del factor).


Sean f (x) ∈ K[x] y α ∈ K. Entonces, x − α divide a (o es un factor de) f (x) si, y
solo si, α es raíz de f (x).

Demostración. Por el teorema del resto, x − α divide a f (x) si, y solo si, f (α) = 0.

Definición 5.11. Sean f (x) = a0 + a1 x + · · · + an xn ∈ K[x] y α ∈ K, diremos que α


es una raíz de f (x) de multiplicidad m si (x − α)m divide a f (x) pero (x − α)m+1 no
divide a f (x).
86 CAPÍTULO 5. DIAGONALIZACIÓN DE MATRICES

5.5. Polinomio característico


Definición 5.12. Si f : V → V es un endomorfismo de V y A ∈ Mn (K) la matriz
asociada a f respecto de una base B, entonces

a11 − x . . . a1n

|A − xIn | =
.
.. .. ..
. .

an1 . . . ann − x

es un polinomio de grado n con coeficientes en K que se llama polinomio característico


de A.

Nótese que si A0 es la matriz asociada a f respecto de otra base B 0 y P = (idV )B,B0 ,


hemos visto que A = P −1 A0 P . Entonces,

|A − xIn | = P −1 A0 P − xIn = P −1 A0 P − P −1 (xIn )P


= P −1 (A0 − xIn )P = P −1 A0 − xIn |P | = A0 − xIn .


Como este polinomio no varia si se cambia la matriz A por otra que sea semejante
a ella, se dirá también que es el polinomio característico de f y se denotará por pc (f ).
Obsérvese que los valores propios de A (o f ) son pues los ceros de su polinomio
característico.

Definición 5.13. Un endomorfismo f : V → V es diagonalizable si existe una base de


V respecto de la cual la matriz asociada a f es una matriz diagonal.

Está claro que si B = {v1 , . . . , vn } es una base de V ,


 
λ1 ... 0
 .. .. . 
(f )B,B =  . . ..  ⇔ f (vi ) = λi vi , para i = 1, . . . , n
0 . . . λn
⇔ B = {v1 , . . . , vn } es una base de V formada por vectores propios.

Definición 5.14. Una matriz cuadrada es diagonalizable si es semejante a una matriz


diagonal.

Hay que tener presente que si f es diagonalizable el polinomio característico de f es


de la forma
(λ1 − x)m1 · · · (λs − x)ms ,
en donde mi es la multiplicidad de la raíz λi y el número de veces que aparece repetido
el autovalor λi en la diagonal.
5.5. POLINOMIO CARACTERÍSTICO 87

Es claro que no todo endomorfismo es diagonalizable, por ejemplo f : R2 → R2


definido por f (x, y) = (−y, x) tiene pc (f ) = x2 + 1 y no es diagonalizable.
Es evidente que para que podamos diagonalizar un endomorfismo debemos de en-
contrar n vectores propios linealmente independientes.

Proposición 5.15. Sea f : V → V un endomorfismo de V .

1. Si α, β ∈ K son valores propios de f distintos, entonces:

a) Vα ∩ Vβ = {0}.

b) Si Bα es una base de Vα y Bβ es una base de Vβ , entonces la unión disjunta Bα ∪ Bβ


es una base de Vα + Vβ y

dim(Vα + Vβ ) = dim(Vα ) + dim(Vβ ).

2. Sean λ1 , . . . , λs ∈ K valores propios de f distintos dos a dos.

a) Si i 6= j, entonces Vλi ∩ Vλj = {0}.

b) Si Bλi = {v1i , . . . , vni i } es una base de Vλi para cada i = 1, . . . , s, entonces la unión
disjunta Bλ1 ∪ · · · ∪ Bλs es una base de Vλ1 + · · · + Vλs y

dim(Vλ1 + · · · + Vλs ) = dim(Vλ1 ) + · · · + dim(Vλs ).

Demostración.

1.a) Si v ∈ Vα ∩ Vβ , entonces f (v) = αv = βv y, por ser α 6= β, se tiene que v = 0.

1.b) Vα + Vβ = hBα ∪ Bβ i y, como

dim(Vα ) + dim(Vβ ) = dim(Vα + Vβ ) + dim(Vα ∩ Vβ ) = dim(Vα + Vβ ),

se tiene que Bα ∪ Bβ es una base de Vα + Vβ .

2.b) Se demuestra por inducción en s.


Si s = 1 es trivial.
Supuesto s > 1 y el resultado cierto para menos de s valores propios, veamos que
Bλ1 ∪ · · · ∪ Bλs es linealmente independiente:

Si 0 = a11 v11 + · · · + an1 1 vn1 1 + · · · + a1s v1s + · · · + ans s vns s , entonces


| {z } | {z }
=u =u0

u0 = −u ∈ Vλ1 y, así,

f (u0 ) = λ1 u0 = λ1 a12 v12 + · · · + λ1 an2 2 vn2 2 + · · · + λ1 a1s v1s + · · · + λ1 ans s vns s


88 CAPÍTULO 5. DIAGONALIZACIÓN DE MATRICES

= λ2 a12 v12 + · · · + λ2 an2 2 vn2 2 + · · · + λs a1s v1s + · · · + λs ans s vns s , de donde

(λ2 − λ1 )a12 v12 + · · · + (λ2 − λ1 )an2 2 vn2 2 + · · · + (λs − λ1 )a1s v1s + · · ·

+(λs − λ1 )ans s vns s = 0.

Por la hipótesis de inducción, se tiene que

(λ2 − λ1 )a12 = 0, (λ2 − λ1 )an2 2 = 0, . . . , (λs − λ1 )ans s = 0,

y, teniendo en cuenta que λi 6= λ1 para todo i 6= 1, obtenemos que

a12 = · · · = an2 2 = · · · = ans s = 0

y, por tanto, 0 = u0 = −u y a11 = · · · = an1 1 = 0, al ser Bλ1 linealmente


independiente.

Proposición 5.16. Si f : V → V es un endomorfismo de V y λ es un valor propio de


multiplicidad m, entonces dim(Vλ ) ≤ m.
Además, si λ un valor propio simple dim(Vλ ) = 1.

Demostración. Si {v1 , . . . , vs } es una base de Vλ y la completamos a una base de V ,


B = {v1 , . . . , vs , . . . , vn }, se tiene que
 
λIs M ”
M = (f )B,B = .
0 M0
Entonces, el polinomio característico de f es

pc (f ) = |M − xIn | = (λ − x)s M 0 − xIn−s .


Y, como la multiplicidad de λ en pc (f ) es m, se deduce que s ≤ m.


Si m = 1, como 0 < dim(Vλ ) ≤ 1, se obtiene que dim(Vλ ) = 1.

Teorema 5.17. Sea f : V → V un endomorfismo de V ,

f es diagonalizable si, y solo si, pc (f ) = (λ1 − x)m1 · · · (λs − x)ms siendo λi ∈ K,


1 ≤ mi ≤ n, λi 6= λj si i 6= j y dim(Vλi ) = mi ∀i = 1, . . . , s.

Demostración.
“⇒” Si f es diagonalizable existe una base B de V de modo que
 
λ1 . . . 0
 .. . . ..  .
(f )B,B =  . . . 
0 ... λs
5.5. POLINOMIO CARACTERÍSTICO 89

El polinomio característico de f es pc (f ) = (λ1 − x)m1 · · · (λs − x)ms y, dado que


Vλi = Ker(f − λi idV ), se tiene que dim(Vλi ) = n − r((f )B − λi In ) = n − (n − mi ) = mi .
“⇐” Como Vλ1 + · · · + Vλs es un subespacio de V y
s
X
dim(Vλ1 + · · · + Vλs ) = dim(Vλ1 ) + · · · + dim(Vλs ) = mi = ∂pc (f ) = n,
i=1

se tiene que Vλ1 + · · · + Vλs = V y Bλ1 ∪ · · · ∪ Bλs es una base de V formada por vectores
propios, es decir f es diagonalizable.

Corolario 5.18. Si f : V → V es un endomorfismo de V de tal forma que pc (f ) =


(λ1 − x) · · · (λn − x) con λi 6= λj si i 6= j, entonces f es diagonalizable.

Demostración. Trivial ya que dim(Vλi ) = 1 para todo i.

 
0 2 −2
Ejercicio 5.19. Probar que la matriz A =  −2 4 −2  es diagonalizable.
−2 2 0
Demostración. En primer lugar calculamos el polinomio característico de la matriz A.

−x 2 −2 −x 2 −2

|A − xI3 | = −2 4 − x −2 = −2 4 − x −2
−2 F3 −F2
2 −x 0 x − 2 −x + 2

−x 2 −2 −x 0 −2

= (x − 2) −2 4 − x −2 = (x − 2) −2 2 − x −2 = −(x − 2)2 x.
C +C
0 1 −1 2 3 0 0 −1
Tenemos pues el autovalor 0 de multiplicidad uno y el autovalor 2 de multiplicidad
dos.
Los subespacios propios son:
      
 0 2 −2 x 0 
V0 = (x, y, z) ∈ R3 |  −2 4 −2  y  = 0
−2 2 0 z 0
 
 
 +2y −2z = 0 
= (x, y, z) ∈ R3 | −2x +4y −2z = 0
−2x +2y =0
 

= {(x, y, z) ∈ R3 | x = y = z} = h(1, 1, 1)i y


      
 −2 2 −2 x 0 
V2 = (x, y, z) ∈ R | 3  −2 2 −2   y = 0
 
−2 2 −2 z 0
 
90 CAPÍTULO 5. DIAGONALIZACIÓN DE MATRICES
 
 −2x +2y −2z = 0 
= (x, y, z) ∈ R3 | −2x +2y −2z = 0
−2x +2y −2z = 0
 

= {(x, y, z) ∈ R3 | −2x + 2y − 2z = 0} = {(x, y, −x + y) | x, y ∈ R}


= h(1, 0, −1), (0, 1, 1)i.
Así,
   −1
1 1 0 0 0 0 1 1 0
A= 1 0 1  0 2 0  1 0 1  .
1 −1 1 0 0 2 1 −1 1

5.6. Ejercicios

1.- Calcular los valores propios y los subespacios propios de los endomorfismos de R3
dados por:

a) f (x, y, z) = (x + 2y, −x + 3y + z, y + z),

b) g(x, y, z) = (3x − 8y + 8z, −4x + 7y − 8z, −4x + 8y − 9z).

2.- Estudiar si son diagonalizables los endomorfismos del ejercicio anterior. Si es posible,
encontrar una base B de R3 tal que (g)B,B sea diagonal.

3.- Se consideran los endomorfismos de R3 dados por:

a) f (x, y, z) = (3x − y, −x + 2y − z, −y + 3z),

b) f (x, y, z) = (−y − z, −2x + y − z, −2x + 2y + 2z),

c) f (x, y, z) = (−x − 3z, 3x + 2y + 3z, −3x − z),

d) f (x, y, z) = (−x + y + 2z, −4x + 3y + 3z, −3x + y + 4z),

e) f (x, y, z) = (5x, 5y, 5z).

En cada caso, se pide: calcular los valores propios y los subespacios propios de f ;
estudiar si f es diagonalizable; si es posible, encontrar una base B de R3 tal que (f )B,B
sea una matriz diagonal y una matriz no singular P tal que (f )B,B = P −1 (f )C,C P.

4.- Se considera la matriz


 
1 1 0
A= 1 3 2  ∈ M3×3 (R).
0 −1 1

a) Calcular los valores propios y los subespacios propios de A.


5.6. EJERCICIOS 91

b) ¿Es A diagonalizable?

5.- Se considera la aplicación lineal f : R3 → R3 cuya matriz asociada respecto de la


base canónica es:
 
1 1 0
(f )C,C =  1 3 2  ∈ M3×3 (R).
0 −1 1

a) Calcular los valores propios y los subespacios propios de f .

b) ¿Es f diagonalizable?

6.- Se considera la matriz


 
−2 2 −2
A =  2 −2 −2  ∈ M3×3 (R).
−2 −2 2

a) Calcular los valores propios y los subespacios propios de A.

b) Probar que A es diagonalizable y encontrar una matriz no singular P, tal que P −1 AP


sea diagonal.

7.- Sea f : R3 → R3 la aplicación lineal definida por:

f (x, y, z) = (x, y, 3x + y + 2z).

a) Demostrar que f es diagonalizable.

b) Encontrar una matriz diagonal D y una no singular P verificando que D = P(f )C,C P −1 .

c) Hallar ((f )C,C )m para todo valor de m natural.

8.- Se considera la matriz


 
1 a 1
A =  −1 1 −a  ∈ M3×3 (R).
1 0 a+1

a) Calcular el polinomio característico de A, así como sus valores propios.

b) ¿Para que valores del parámetro a es diagonalizable la matriz A?

c) Para dichos valores encontrar una matriz diagonal D y una matriz no singular P tal
que AP = PD.
92 CAPÍTULO 5. DIAGONALIZACIÓN DE MATRICES

9.- Se considera la aplicación lineal f : R3 → R3 cuya matriz asociada respecto de la


base canónica es:
 
2 0 a−2
(f )C,C =  0 1 a  ∈ M3×3 (R).
0 0 a

a) Calcular el polinomio característico de f, así como sus valores propios.

b) ¿Para que valores del parámetro a es diagonalizable f ?

c) Para dichos valores encontrar una matriz diagonal D y una matriz no singular P tal
que (f )C,C = PDP −1 .

10.- Sea f : R3 → R3 la aplicación lineal definida por:

f (x, y, z) = (x + ay + 3z, 2y + bz, z).

a) Encontrar los valores de a y b para los que f es diagonalizable.

b) Si a = 1 y b = 3 encontrar una base B de R3 tal que la matriz


 
1 0 0
(f )B,B =  0 2 0 .
0 0 1

11.- Sea la aplicación lineal f : R3 → R3 definida por:

f (x, y, z) = (−x + y − z, x − y − z, −x − y + z).

a) Probar que f es diagonalizable.

b) Encontrar una base B de R3 y una matriz no singular P tales que (f )B,B sea diagonal
y (f )C,B P = (f )B,B .

12.- Sea f : R3 → R3 la aplicación lineal dada por:

f (x, y, z) = (3x + y + z, x + 3y + z, x + y + 3z).

a) Hallar los valores propios de f .

b) Encontrar una base B de R3 tal que (f )B,B es diagonal.

c) Calcular una matriz no singular P tal que (f )C,B = P(f )C,C .

13.- Sea la aplicación lineal f : R3 → R3 definida por:


5.6. EJERCICIOS 93

f (x, y, z) = (x + y + z, x + y + z, x + y + z).

a) Justificar que f es diagonalizable y encontrar una base B de R3 tal que la matriz


(f )B,B sea diagonal.

b) Calcular una matriz P tal que (f )B,B P = P(f )C,C .

14.- Se considera la aplicación lineal f : R3 → R3 definida por:

f (x, y, z) = (2x + (a − 2)z, y + az, az).

a) ¿Para que valores del parámetro a es diagonalizable f ?

b) Para dichos valores encontrar una matriz diagonal D y una no singular P tal que
(f )C,C = PDP −1 .
94 CAPÍTULO 5. DIAGONALIZACIÓN DE MATRICES
Capítulo 6

Producto escalar y ortogonalidad

Definición 6.1. Un espacio euclídeo es un R-espacio vectorial V junto con una aplica-
ción, llamada producto escalar,

ϕ: V × V → R

que verifica las siguientes condiciones:

1. ϕ(u1 +u2 , v) = ϕ(u1 , v)+ϕ(u2 , v) y ϕ(αu, v) = αϕ(u, v), para todo u1 , u2 , v, u ∈ V


y α ∈ R.

2. ϕ(u, v) = ϕ(v, u), para todo u, v ∈ V .

3. ϕ(u, u) ≥ 0, para todo u ∈ V .

4. ϕ(u, u) = 0 ⇔ u = 0.

Es decir, es una forma bilineal simétrica y definida positiva.

Observación 6.2.
- ϕ(u, 0) = ϕ(0, u) = 0, para todo u ∈ V .
- ϕ(u, v) = 0 para todo v ∈ V ⇔ u = 0.

Ejemplos 6.3.

1. Rn es un espacio euclídeo con el producto escalar ordinario Rn × Rn → R definido


por:
((x1 , . . . , xn ), (y1 , . . . , yn )) 7→ (x1 , . . . , xn ) · (y1 , . . . , yn ) = x1 y1 + · · · + xn yn .

2. R2 también es un espacio euclídeo con la aplicación R2 × R2 → R definida por:


((x1 , x2 ), (y1 , y2 )) 7→ x1 y1 + 2x2 y2 .

95
96 CAPÍTULO 6. PRODUCTO ESCALAR Y ORTOGONALIDAD

Definición 6.4. Sea (V, ϕ) un espacio euclídeo. Se llama longitud o norma de un vector
p
u ∈ V y se designa por kuk, al número real no negativo ϕ(u, u) . Se dice que u ∈ V

es un vector unitario si kuk = 1.

Observación 6.5. Sean u ∈ V y α ∈ R,


- kuk ≥ 0.
- kuk = 0 ⇔ u = 0.
- kαuk = |α| kuk.

Proposición 6.6 (Desigualdad de Cauchy-Schwartz). Sea (V, ϕ) un espacio euclídeo.


Para cualquier par de vectores u, v ∈ V se verifica:

|ϕ(u, v)| ≤ kuk kvk .

Demostración. Si u = 0, el resultado es claro.


Supongamos u 6= 0. Para todo α ∈ R, se verifica que:

0 ≤ kαu + vk2 = ϕ(αu + v, αu + v) = α2 ϕ(u, u) + 2αϕ(u, v) + ϕ(v, v).

ϕ(u, v)
Como u 6= 0, ϕ(u, u) > 0 y, si consideramos α = − , se tiene que:
ϕ(u, u)

ϕ(u, v)2 ϕ(u, v)2


0≤ ϕ(u, u) − 2 + ϕ(v, v)
ϕ(u, u)2 ϕ(u, u)

de donde se deduce que


ϕ(u, v)2
≤ ϕ(v, v) = kvk2
kuk2
y, por ello,
|ϕ(u, v)| ≤ kuk kvk .

Proposición 6.7 (Desigualdad triangular). Sea (V, ϕ) un espacio euclídeo. Para cual-
quier par de vectores u, v ∈ V, se verifica:

ku + vk ≤ kuk + kvk .

Demostración.

ku + vk2 = ϕ(u + v, u + v) = kuk2 + 2ϕ(u, v) + kvk2


≤ kuk2 + 2 |ϕ(u, v)| + kvk2 ≤ kuk2 + 2 kuk kvk + kvk2 = (kuk + kvk)2 .
6.1. ORTOGONALIDAD. BASES ORTONORMALES 97

Observación 6.8. De la desigualdad de Cauchy-Schwartz, |ϕ(u, v)| ≤ kuk kvk, se deduce


que − kuk kvk ≤ ϕ(u, v) ≤ kuk kvk y así, cuando u 6= 0 y v 6= 0, se obtiene que:

ϕ(u, v)
−1 ≤ ≤ 1.
kuk kvk

La observación anterior justifica la siguiente definición.

Definición 6.9. Sean u y v vectores no nulos de un espacio euclídeo (V, ϕ). El número
ϕ(u, v)
real θ ∈ [0, π] tal que cos θ = recibe el nombre de ángulo que forman los vectores
kuk kvk
u y v. Así,

ϕ(u, v) = kuk kvk cos θ.

6.1. Ortogonalidad. Bases ortonormales


Definición 6.10. Sean u y v vectores no nulos de un espacio euclídeo (V, ϕ) se dice
que son ortogonales o perpendiculares si ϕ(u, v) = 0, esto es, cuando forman un ángulo
de 90 grados. En este caso escribiremos u ⊥ v.

Consecuencias:

1. 0 es ortogonal a cualquier vector de V .

2. Dos vectores no nulos son ortogonales si, y solo si, su ángulo es de 90◦ .

3. u y v son vectores ortogonales ⇔ ku + vk2 = kuk2 + kvk2 (Teorema de Pitágoras).

4. En el espacio euclídeo Rn con el producto escalar usual, los vectores de la base


canónica son ortogonales dos a dos.

Proposición 6.11. Si los vectores no nulos v1 , . . . , vr son ortogonales dos a dos en el


espacio euclídeo (V, ϕ), entonces son linealmente independientes.
r
P
Demostración. Sean α1 , . . . , αr ∈ R tales que αi vi = 0. Entonces, para cada vj ,
i=1

Xr r
X
0 = ϕ( αi vi , vj ) = αi ϕ(vi , vj ) = αj ϕ(vj , vj ).
i=1 i=1

Al ser vj 6= 0, ϕ(vj , vj ) 6= 0 y, en consecuencia, αj = 0 para todo j = 1, . . . , r.


98 CAPÍTULO 6. PRODUCTO ESCALAR Y ORTOGONALIDAD

Definición 6.12. En un espacio euclídeo (V, ϕ), una base se dice que es ortogonal
cuando sus vectores son ortogonales dos a dos. Si además, todos los vectores son de
norma 1 se dice que es ortonormal.

La base canónica de Rn es una base ortonormal en el espacio euclídeo Rn con el


producto escalar usual.
n
P
Observación 6.13. Si B = {v1 , . . . , vn } es una base ortogonal de V y si v = αi vi ∈ V ,
i=1
ϕ(v, vi )
entonces αi = , para i = 1, . . . , n.
kvi k2
Esta facilidad para calcular las coordenadas de un vector en una base ortogonal, nos
permite hacer una demostración constructiva de la existencia de bases ortogonales en
cualquier espacio euclídeo de dimensión finita.

ϕ(v, u)
Definición 6.14. Sean (V, ϕ) un espacio euclídeo y u, v ∈ V . El vector v se
kvk2
llama proyección ortogonal de u sobre v.

ϕ(v, u) ϕ(v, u) ϕ(v, u)
Nótese que 2 v = 2 kvk = = kuk cos θ, siendo el ángulo θ que

kvk kvk kvk
forman u y v.
ϕ(v, u)
También se cumple que, v⊥(u− v).
kvk2
Este resultado nos ilustra sobre la construcción que se hace en el teorema siguiente.

Teorema 6.15. Todo espacio vectorial euclídeo, (V, ϕ), de dimensión finita posee una
base ortogonal.

Demostración. Sea B = {v1 , . . . , vn } una base de V .


Tomamos u1 = v1 6= 0.
ϕ(u1 , v2 )
Si definimos u2 = v2 − u1 ∈ V , u2 es un vector no nulo, porque v1 y v2 son
ku1 k2
linealmente independientes, y u1 ⊥ u2 , ya que
ϕ(u1 , v2 ) ϕ(u1 , v2 )
ϕ(u1 , u2 ) = ϕ(v1 , v2 − 2 u1 ) = ϕ(v1 , v2 ) − ϕ(v1 , u1 ) = 0.
ku1 k ku1 k2
j−1
P ϕ(ui , vj )
Siguiendo este proceso, si definimos uj = vj − ui ∈ V se tiene que
i=1 kui k2
uj 6= 0, ∀j, y ui ⊥ uj si i 6= j.
Por tanto, {u1 , . . . , un } es una base ortogonal de V, ya que es un conjunto de n
vectores linealmente independiente en un espacio de dimensión n.
6.1. ORTOGONALIDAD. BASES ORTONORMALES 99

Corolario 6.16. Todo espacio vectorial euclídeo, (V, ϕ), de dimensión finita posee una
base ortonormal.
Demostración.
 SiB = {v1 , . . . , vn } es una base ortogonal de V , entonces se tiene que
v1 vn
,..., es una base ortonormal de V .
kv1 k kvn k

Ejercicio 6.17. En R4 con el producto escalar usual, obtener una base ortogonal del
subespacio
U = hv1 = (1, 2, −1, 0), v2 = (1, 0, −2, 0), v3 = (0, 1, 1, 0)i .
Demostración. Tomamos u1 = (1, 2, −1, 0),
ϕ(v2 , u1 ) 3 1 3 
u2 = v2 − u 1 = (1, 0, −2, 0) − (1, 2, −1, 0) = , −1, − ,0 y
ku1 k2 6 2 2
2 ϕ(v , u ) 1 51 3 
P 3 i
u3 = v3 − 2 ui = (0, 1, 1, 0) − (1, 2, −1, 0) + , −1, − ,0 .
i=1 kui k 6 7 2 2

Ejercicio 6.18. En R4 con el producto escalar usual, se pide:

a) Calcular un vector unitario ortogonal a los vectores:


(1, −1, 1, 1), (0, −1, 2, 1), (2, 0, 4, 2).
b) Obtener una base ortonormal del subespacio
U = hu1 = (1, 0, 1, 1), u2 = (1, 1, 0, 2), u3 = (0, 1, 0, 0)i.

Demostración.

(x, y, z, t) ⊥ (1, −1, 1, 1) ⇔ x − y + z + t = 0 
a) (x, y, z, t) ⊥ (0, −1, 2, 1) ⇔ −y + 2z + t = 0
(x, y, z, t) ⊥ (2, 0, 4, 2) ⇔ 2x + 4z + 2t = 0

⇔ (x, y, z, t) = (α, −α, α, −3α), α ∈ R.


1
Por tanto, √ (1, −1, 1, −3) es un vector unitario y ortogonal a los pedidos.
2 3

b) v1 = (1, 0, 1, 1), con kv1 k = 3,
3 √
v2 = (1, 1, 0, 2) − (1, 0, 1, 1) = (0, 1, −1, 1), con kv2 k = 3,
3

1  2 1 1 6
v3 = (0, 1, 0, 0) − 0(1, 0, 1, 1) − (0, 1, −1, 1) = 0, , , − , con kv3 k = .
 3 3 3 3  3
1 1 3  2 1 1
Así, B = √ (1, 0, 1, 1), √ (0, 1, −1, 1), √ 0, , , − es una base orto-
3 3 6 3 3 3
normal de U .
100 CAPÍTULO 6. PRODUCTO ESCALAR Y ORTOGONALIDAD

Definición 6.19. Sean U y W subespacios de un espacio euclídeo (V, ϕ). Diremos


que U y W son ortogonales si todo vector de U es ortogonal a todo vector de W y
escribiremos U ⊥ W .

Nótese que si {u1 , . . . , ur } y {w1 , . . . , ws } son, respectivamente, base de U y W :

U ⊥ W ⇔ ui ⊥ wj ∀i = 1, . . . , r y ∀j = 1, . . . , s.

Definición 6.20. Sea (V, ϕ) un espacio euclídeo y U un subespacio de V . Se llama


complemento ortogonal de U al subespacio U ⊥ = {v ∈ V | v ⊥ u, ∀u ∈ U }.

Proposición 6.21. Si (V, ϕ) es un espacio euclídeo y U es un subespacio de V , se


verifica que:

1. U ⊥ U ⊥ .

2. V = U + U ⊥ y U ∩ U ⊥ = {0}.

3. dim(U ) + dim(U ⊥ ) = dim(V ).


⊥
4. U ⊥ = U .

Demostración. Si se considera {u1 , . . . , ur } una base ortogonal de U y se comple-


ta a una base de V , {u1 , . . . , ur , ur+1, . . . , un }, a partir de esta base, usando el Mé-
todo de Gram-Schmidt, se obtiene una base ortogonal de V , que será de la forma
{u1 , . . . , ur , vr+1, . . . , vn } y en este caso hvr+1, . . . , vn i ⊂ U ⊥ .
Puesto que U ∩ U ⊥ = {0} , se verifica que dim(U ) + dim(U ⊥ ) = dim(U + U ⊥ ) ≤
n y, en consecuencia, se tiene que hvr+1, . . . , vn i = U ⊥ . Por tanto, V = U + U ⊥ y
dim(U ) + dim(U ⊥ ) = dim(V ).

Definición 6.22. Sean (V, ϕ) un espacio euclídeo, U un subespacio de V y v ∈ V .


Existen y son únicos u ∈ U y w ∈ U ⊥ tales que v = u + w. El vector u se llama
proyección ortogonal de v sobre U y se denotará por proyU v.

Observación 6.23. Si {u1 , . . . , ur } es una base ortogonal de U y v ∈ V , entonces

ϕ(v, u1 ) ϕ(v, ur )
proyU v = 2 u1 + · · · + ur .
ku1 k kur k2

Ejercicio 6.24. En R3 con el producto escalar usual, encontrar el complemento orto-


gonal del subespacio W = {(x, y, z) | x = y} .
6.1. ORTOGONALIDAD. BASES ORTONORMALES 101

Demostración. W = h(1, 1, 0), (0, 0, 1)i.



x+y =0
(x, y, z) ∈ W ⊥ ⇔ ⇔ W ⊥ = h(−1, 1, 0)i.
z=0

Ejercicio 6.25. En R4 con el producto escalar usual, encontrar el complemento orto-


gonal de
U = {(x, y, z, t) | x + y − z + t = 0, 2x + y − z + 3t = 0}.

Demostración.

x+y−z+t=0

2x + y − z + 3t = 0
U = {(x, y, z, t) | x = −2β, y = α + β, z = α, t = β} ⇔ U = h(−2, 1, 0, 1), (0, 1, 1, 0)i.

⊥ −2x + y + t = 0
(x, y, z, y) ∈ U ⇔ ⇒
y+z =0
 
1 1
U = (x, y, z, t) | x = − z + t, y = −z ⇔ U ⊥ = h(1, 2, −2, 0), (1, 0, 0, 2)i.

2 2
De otra forma,
Ya que U = {(x, y, z, t) | x + y − z + t = 0, 2x + y − z + 3t = 0}, se tiene que los vec-
tores (1, 1, −1, 1) y (2, 1, −1, 3) pertenecen a U ⊥ . Teniendo en cuenta que son indepen-
dientes y dim(U ⊥ ) = 2, se deduce que:

h(1, 1, −1, 1), (2, 1, −1, 3)i = U ⊥ .

Definición 6.26. Sea (V, ϕ) un espacio euclídeo. Dados v, u ∈ V, se define la distancia


entre v y u, como

d(v, u) = kv − uk.

Es consecuencia inmediata de la definición que:

1. d(v, u) ≥ 0 ∀v, u ∈ V .

2. d(v, u) = 0 ⇔ v = u.

3. d(v, u) = d(u, v).


n
P
Observación 6.27. Si B = {v1 , . . . , vn } es una base ortonormal de V , v = xi vi y
i=1
n
P
u= yi vi , entonces
i=1
102 CAPÍTULO 6. PRODUCTO ESCALAR Y ORTOGONALIDAD

n n n
kv − uk2 = ϕ( (xi − yi )2 y
P P P
(xi − yi )vi , (xi − yi )vi ) =
i=1 i=1 i=1
s
n
(xi − yi )2 .
P
d(v, u) =
i=1

Proposición 6.28. Sean (V, ϕ) un espacio euclídeo, U un subespacio de V y v ∈ V de


forma que v = proyU v + w con w ∈ U ⊥ . Se verifica que

d(v, proyU v) ≤ d(v, u) ∀u ∈ U .

Demostración. v − u = (v − proyU v) + (proyU v − u) ∀u ∈ U .


Como (v − proyU v) ∈ U ⊥ y (proyU v − u) ∈ U , el teorema de Pitágoras nos dice que
kv − uk2 = kv − proyU vk2 + kproyU v − uk2 ≥ kv − proyU vk2 .

Definición 6.29. Sea (V, ϕ) un espacio euclídeo. Dados v ∈ V y U un subespacio de


V , se define la distancia entre v y U , como

d(v, U ) = mı́n{d(v, u) ∀u ∈ U } = d(v, proyU v).

6.2. Distancia de un punto a un hiperplano


Proposición 6.30. En Rn con el producto escalar usual, si v = (p1 , . . . , pn ) es un punto
de Rn y a1 x1 + · · · + an xn = 0 es la ecuación de un hiperplano H, entonces

a p + · · · + a p
1 1 n n
d(v, H) = p 2 .
a1 + · · · + a2n

Demostración. (a1 , . . . , an ) ∈ H ⊥ y, como dim(H ⊥ ) = 1, se tiene que H ⊥ = h(a1 , · · · , an )i.


La base de H ⊥ se puede completar a una base ortogonal de Rn de la forma B =
{v1 = (a1 , . . . , an ), v2, . . . , vn } y así,
a1 p1 + · · · + an pn
v − proyH v = (a1 , . . . , an ) y
k(a1 , . . . , an )k2

a p + · · · + a p
1 1 n n
d(v, H) = kv − proyH vk = p 2 .
a1 + · · · + a2n

También podría gustarte