0% encontró este documento útil (0 votos)
53 vistas115 páginas

Introducción al Álgebra Matricial

Este documento presenta los conceptos básicos de álgebra lineal, incluyendo definiciones de matrices, operaciones con matrices como suma y multiplicación, y propiedades importantes como conmutatividad, asociatividad y distributividad. También introduce conceptos como matrices inversas, traspuestas, y matrices elementales, dando ejemplos para ilustrar los conceptos.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
53 vistas115 páginas

Introducción al Álgebra Matricial

Este documento presenta los conceptos básicos de álgebra lineal, incluyendo definiciones de matrices, operaciones con matrices como suma y multiplicación, y propiedades importantes como conmutatividad, asociatividad y distributividad. También introduce conceptos como matrices inversas, traspuestas, y matrices elementales, dando ejemplos para ilustrar los conceptos.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

NOTAS PARA UN CURSO DE ÁLGEBRA LINEAL

Santiago de Compostela 2016

M. Purificación López López


Nieves Rodríguez González
Tema 1: Álgebra matricial

Matrices
A partir de ahora K denotará un cuerpo.
Definición. Una matriz A = (aij ) de orden m × n sobre un cuerpo K es
una tabla de doble entrada con m.n elementos del cuerpo K, dispuestos en
en m filas y n columnas. Al elemento que ocupa la fila i y la columna j de
la matriz A lo denotaremos por aij o por A(i, j). Así pues:
 
a11 a12 ··· a1n
 a21 a22 ··· a2n 
 
A= . .. .. .. 
 .. . . . 
am1 am2 · · · amn

Dos matrices A = (aij ) y B = (bij ) son iguales si tienen el mismo orden


y para cada par de índices i y j se tiene que aij = bij .
Al conjunto de las matrices de orden m × n sobre un cuerpo K se le
denota por Mm×n (K). Si m = n se denota por Mn (K).
 Si A ∈ M1×n (K) se dice que es una matriz fila.
 Si A ∈ Mm×1 (K) se dice que es una matriz columna.
 A las matrices de orden n × n se les llama matrices cuadradas de orden
n.
Denotaremos por In la matriz diagonal de orden n, (δ ij ), con δii = 1
para i = 1, · · · , n y δ ij = 0 para i = j. A esta matriz se le llamará matriz
identidad n-ésima o de orden n.

Operaciones con matrices


Definición. Sean A = (aij ), B = (bij ) ∈ Mm×n (K). Se define la suma de A
y B como una matriz A+B ∈ Mm×n (K) de modo que (A+B)(i, j) = aij +bij
∀i, j, es decir:
 
a11 + b11 a12 + b12 · · · a1n + b1n
 a21 + b21 a22 + b22 · · · a2n + b2n 
 
A+B = .. .. .. .. 
 . . . . 
am1 + bm1 am2 + bm2 · · · amn + bmn

3
Definición. Sean A = (aij ) ∈ Mm×n (K) y α un escalar en K. Se define
la multiplicación de un escalar α por una matriz A como una matriz αA ∈
Mm×n (K) de modo que (αA)(i, j) = αaij ∀i, j, es decir:
 
αa11 αa12 ··· αa1n
 αa21 αa22 ··· αa2n 
 
αA =  . .. .. .. 
 .. . . . 
αam1 αam2 · · · αamn

Proposición. Sean A, B ∈ Mm×n (K) y α, β ∈ K. Se verifican las


propiedades siguientes:

1. (Mm×n (K), +) es un grupo abeliano.

2. (α + β)A = αA + βA.

3. α(A + B) = αA + αB.

4. α(βA) = (αβ)A.

5. 1K A = A.

El elemento neutro del grupo (Mm×n (K), +) es la matriz con todas sus
entradas 0 y la denotaremos por (0).

Definición. Sean A = (aij ) ∈ Mm×n (K) y B = (bij ) ∈ Mn×s (K) se define


el producto de A por B como una matriz AB en Mm×s (K) en donde:
n

(AB)(i, j) = aik bkj para i = 1, · · · , m y j = 1, · · · , s.
k=1

Observaciones.
1. Nótese que, para hacer el producto AB es necesario que el número de
columnas de A coincida con el número de filas de B.
2. En general, el producto de matrices no es conmutativo. Por ejemplo,
     
0 0 1 0 0 0 0 0 1 0 0 0
= = =
1 1 1 0 2 0 0 0 1 0 1 1

Proposición. Se verifican las siguientes propiedades:

4
1. Asociativa: (AB)C = A(BC), donde A ∈ Mm×n (K), B ∈ Mn×s (K) y
C ∈ Ms×r (K).

2. Distributiva por la izquierda del producto respecto de la suma: A (B + C) =


AB + AC, donde A ∈ Mm×n (K), y B, C ∈ Mn×s (K).

3. Distributiva por la derecha del producto respecto de la suma: (B+C)A =


BA + CA, donde A ∈ Ms×r (K) y B, C ∈ Mn×s (K).

4. AIn = A = Im A, donde A ∈ Mm×n (K).

5. (Mn (K), +, .) es un anillo.

6. α(AB) = (αA)B = A(αB), donde A ∈ Mm×n (K), B ∈ Mn×s (K) y


α ∈ K.

Definición. Si A ∈ Mn (K), se dice que A es no singular o que A es


invertible si A tiene inversa para el producto, es decir si existe B ∈ Mn (K)
tal que AB = In = BA. A la matriz B se le llama inversa de A y se denota
por A−1 . Si A no tiene inversa se dice que A es singular.
Nótese que si existe inversa, es única.

Definición. Sea A = (aij ) ∈ Mm×n (K). Llamaremos matriz traspuesta de


A a la matriz At ∈ Mn×m (K) tal que (At )(i, j) = A(j, i) = aji para todo
i = 1, · · · , n y j = 1, · · · , m.
 
 1 2
1 3 5
Ejemplo. Si A = ∈ M2×3 (R), entonces At = 3 4 .
2 4 6
5 6
Proposición. Se verifican las propiedades siguientes:

1. Si A ∈ Mn (K) es no singular, entonces A−1 es no singular y (A−1 )−1 =


A.

2. Si A, B ∈ Mn (K) son no singulares, entonces AB es no singular y


(AB)−1 = B −1 A−1 .

3. (At )t = A, siendo A ∈ Mm×n (K).

4. (A + B)t = At + B t , siendo A, B ∈ Mm×n (K).

5. (AB)t = B t At , siendo A ∈ Mm×n (K) y B ∈ Mn×s (K).

5
6. Si A ∈ Mn (K) es una matriz no singular, (At )−1 = (A−1 )t .

Demostración.
Las propiedades 1, 3 y 4 son evidentes.
Para demostrar 2, basta tener en cuenta que:

(AB)(B −1 A−1 ) = A(BB −1 )A−1 = In = (B −1 A−1 )(AB).

Para demostrar 5, si A = (aij ) ∈ Mm×n (K) y B = (bij ) ∈ Mn×s (K), se


tiene
n

(AB)t (i, j) = (AB)(j, i) = ajk bki =
k=1
n

(B t )(i, k)(At )(k, j) = (B t At )(i, j).
k=1

La prueba de 6 es análoga a la de 2, utilizando 3.

Observaciones.
1. Si A = (a11 , a12 , · · · , a1n ) ∈ M1×n (K) y B = (bij ) ∈ Mn×s (K), entonces
(a11 , a12 , · · · , a1n ) B =
(a11 b11 + a12 b21 + · · · + a1n bn1 , · · · , a11 b1s + a12 b2s + · · · + a1n bns ) =
a11 (b11 , b12 , · · · , b1s ) + · · · + a1n (bn1 , bn2 , · · · , bns ) =
a11 F1 (B) + · · · + a1n Fn (B),
en donde Fi (B) denota la matriz fila correspondiente a la fila i-ésima de B.
2. Si A = (aij ) ∈ Mm×n (K) y B = (bij ) ∈ Mn×s (K), como consecuencia
de la observación anterior se tiene que la fila i-ésima de la matriz AB es de
la forma:

Fi (AB) = ai1 F1 (B) + · · · + ain Fn (B).


 
b11
b21 
 
3. Si A = (aij ) ∈ Mm×n (K) y B =  ..  ∈ Mn×1 (K), entonces
 . 
bn1

6
 
a11 b11 + a12 b21 + · · · + a1n bn1
 a21 b11 + a22 b21 + · · · + a2n bn1 
AB =  
=

···
am1 b11 + am2 b21 + · · · + amn bn1
   
a11 a1n
 a21   a2n 
   
 ..  b11 + · · · +  ..  bn1 = b11 C1 (A) + · · · + bn1 Cn (A),
 .   . 
am1 amn

donde Cj (A) denota la matriz columna correspondiente a la columna j-ésima


de A.
Esta propiedad tambien se deduce directamente de la observación 1,
utilizando que (AB)t = B t At .
4. Si A = (aij ) ∈ Mm×n (K) y B = (bij ) ∈ Mn×s (K), la columna j-ésima
de la matriz AB es de la forma:

Cj (AB) = b1j C1 (A) + · · · + bnj Cn (A).

Ejemplo.
   
1 2 0   7 −1
 1 1 −1
 2 −1 
 3
 6 −3 
 1  0 =


1 0 4 −1 
1 2
0 4 3 15 6

Nótese que, como hemos visto en las observaciones 2 y 3, se tiene que:

(7, −1) = 1(1, −1) + 2(3, 0) + 0(1, 2),


(6, −3) = 1(1, −1) + 2(3, 0) + (−1)(1, 2),
       
7 1 2 0
6      
  = 1 1 + 3 2 + 1  −1 
4 1 1  0 
15 0 4 3

y lo análogo para las restantes filas y columnas.

7
Matrices elementales
Definición. Llamaremos matriz elemental de orden m, E, a cualquiera de
las siguientes matrices:

1. La obtenida de Im intercambiando la fila i con la j, que denotamos por


EFi ↔Fj .

EFi ↔Fj (i, j) = EFi ↔Fj (j, i) = EFi ↔Fj (k, k) = 1 si k = i, j y las demás
entradas son cero.

Im −−−−→
Fi ↔F j
EFi ↔Fj .

2. La obtenida de Im multiplicando la fila i por α ∈ K y α = 0, que


denotamos por EαFi .

EαFi (k, k) = 1 si k = i, EαFi (i, i) = α y las demás entradas son cero.

Im −→
αF i
EαFi con α ∈ K y α = 0.

3. La obtenida de Im sumándole a la fila i la fila j multiplicada por α ∈ K,


siendo i = j, que denotaremos por EFi +αFj .

EFi +αFj (k, k) = 1 ∀k, EFi +αFj (i, j) = α y las demás entradas son
cero.

Im −−−−→
Fi +αF j
EFi +αFj .

Proposición. Sea A ∈ Mm×n (K) entonces:

1. EFi ↔Fj A ∈ Mm×n (K) es la matriz obtenida de A al intercambiar la fila


i-ésima con la j-ésima.

2. EαFi A ∈ Mm×n (K) es la matriz obtenida de A al multiplicar la fila


i-ésima por un escalar α = 0.

3. EFi +αFj A ∈ Mm×n (K) es la matriz obtenida de A sumándole a la fila


i-ésima la j-ésima multiplicada por α ∈ K, para i = j.

Demostración.

1. Fi (EFi ↔Fj A) = 0F1 (A) + · · · + 1Fj (A) + · · · + 0Fn (A) = Fj (A),


j

8
Fj (EFi ↔Fj A) = 0F1 (A) + · · · + 1Fi (A) + · · · + 0Fn (A) = Fi (A) y
i

si k = i, j entonces Fk (EFi ↔Fj A) = Fk (A).

2. Fi (EαFi A) = 0F1 (A) + · · · + αFi (A) + · · · + 0Fn (A) = αFi (A) y


i

si k = i, entonces Fk (EαFi A) = Fk (A).

3. Fi (EFi +αFj A) = 0F1 (A) + · · · + 1Fi (A) + · · · + αFj (A) + · · · + 0Fn (A) =
i j
Fi (A) + αFj (A) y si k = i entonces Fk (EFi +αFj A) = Fk (A).

Como consecuencia inmediata de esta proposición se tiene:


Corolario. Toda matriz elemental es invertible y su inversa también es una
matriz elemental. Concretamente,

(EFi ↔Fj )−1 = EFi ↔Fj , (EαFi )−1 = Eα−1 Fi y (EFi +αFj )−1 = EFi −αFj .

Definición. Dos matrices A, B ∈ Mm×n (K) son equivalentes por filas si


existen matrices elementales E1 , · · · , Es tales que B = Es · · · E1 A.
Es evidente que "ser equivalentes por filas" es una relación de equivalen-
cia en Mm×n (K).
Nótese que si A, B ∈ Mm×n (K) son equivalentes por filas, significa
que, de una se obtiene la otra tras una sucesión finita de operaciones de los
siguientes tipos:

1. Intercambiar dos filas.

2. Multiplicar una fila por un escalar no nulo.

3. Sumarle a una fila un múltiplo escalar de otra.

Estas operaciones se llaman operaciones elementales por filas.

Proposición. Si A, B ∈ Mn (K) son equivalentes por filas, entonces

A es invertible ⇔ B es invertible.

Observaciones.
Sea A ∈ Mm×n (K), entonces:

9
1. AEFi ↔Fj ∈ Mm×n (K) es la matriz obtenida de A al intercambiar la
columna i-ésima con la j-ésima.

2. AEαFi ∈ Mm×n (K) es la matriz obtenida de A al multiplicar la columna


i-ésima por un escalar α = 0.

3. AEFi +αFj ∈ Mm×n (K) es la matriz obtenida de A sumándole a la


columna j-ésima la i-ésima multiplicada por α ∈ K.

La observación anterior nos indica que EFi ↔Fj es la matriz obtenida de


la identidad intercambiando la columna i-ésima con la j-ésima, EαFi es la
matriz obtenida de la identidad multiplicando la columna i-ésima por un
escalar α = 0 y EFi +αFj es la matriz obtenida de la identidad sumándole
a la columna j-ésima la i-ésima multiplicada por α ∈ K. Esto justifica la
notación siguiente:

EFi ↔Fj = ECi ↔Cj , EαFi = EαCi , EFi +αFj = ECj +αCi .

Forma escalonada y rango por filas de una matriz


Definición. Sea A ∈ Mm×n (K). Se dice que es escalonada por filas si:

1. Las filas nulas, si las hay, están al final.


2. El primer coeficiente no nulo de cada fila no nula, llamado coeficiente
principal o pivote de la fila, está a la derecha de los pivotes de las filas
anteriores.

Si además todos los pivotes son 1 y los elementos que aparecen en la


misma columna que el pivote de una fila son todos cero, se dice que es
escalonada reducida por filas.
Nótese que si una matriz es escalonada reducida por filas, el no de pivotes
coincide con el no de filas no nulas.

Proposición. Si A ∈ Mn (K) es escalonada reducida por filas, entonces

A es invertible ⇔ A = In .

Demostración.
"⇒" Si A es invertible ninguna de sus filas es nula y, como es escalonada,
el no de pivotes coincide con el no de filas y, por tanto, con el no de columnas.
Además, por ser A reducida, se tiene que A = In .

10
"⇐" Trivial.

Teorema. Toda matriz es equivalente por filas a una matriz escalonada y


a una única matriz escalonada reducida por filas.
Demostración. Ver Álgebra Lineal de L. Merino y E. Santos, pág. 21, o
Álgebra Lineal y aplicaciones de J. Arvesú, R. Álvarez y F. Marcellán, pág.
43.

Ejemplos.

1.
   
1 −2 3 9 1 −2 3 9
 −1 3 0 −4  − −−−→  0 1 3 5 − −−−−→
F2 +F1 F3 −2F1
2 −5 5 17 2 −5 5 17
     
1 −2 3 9 1 −2 3 9 1 −2 3 9
 0 1 3 5 − −−−→  0 1 3 5  −1−→  0 1 3 5 .
F3 +F2 F
2 3
0 −1 −1 −1 0 0 2 4 0 0 1 2

2.
   
1 −2 3 9 1 0 9 19
 0 1 3 5  −−−−−→  0 1 3 5  −−−−−→
F1 +2F2 F1 −9F3
0 0 1 2 0 0 1 2
   
1 0 0 1 1 0 0 1
0 1 3 5 −−−−−→  0 1 0 −1  .
F2 −3F3
0 0 1 2 0 0 1 2

Corolario. Sea A ∈ Mn (K).


A es invertible ⇔ A e In son equivalentes por filas ⇔ A es producto de
matrices elementales.

Algoritmo para calcular la inversa de una matriz


Si A es no singular y si t1 , · · · , ts es la sucesión de operaciones elementales
por filas que transforman la matriz A en In , estas operaciones, en el mismo
orden, también transforman la matriz In en A−1 , de manera que el esquema

(A|In ) −→ · · · −→ (In |A−1 )


t1 ts

11
nos indica como calcular la inversa de una matriz no singular, usando trans-
formaciones elementales por filas.

−1 −2
Ejemplo. Sea A = ∈ M2 (R). Para calcular la inversa de la
3 8
matriz A procedemos del modo siguiente:
 
−1 −2 1 0 1 2 −1 0
(A|I2 ) = −−→ −−−−−→
3 8 0 1 −F 1 3 8 0 1 F2 −3F1
  
1 2 −1 0 1 2 −1 0 1 0 −4 −1
−−→ 3 1 −−−−−→ 3 1
0 2 3 1 1
F
2 2 0 1 2 2
F 1 −2F2 0 1 2 2

−4 −1
y así A−1 = 3 1 .
2 2

Definición. Sea A ∈ Mm×n (K), llamaremos rango por filas de A, y lo


denotaremos por rf (A), al número de pivotes (o el número de filas no nulas)
de cualquier matriz escalonada por filas que sea equivalente por filas a A.

Observación.
El rango por filas está bien definido, ya que cualquiera de las matrices
escalonadas que sean equivalentes por filas a A tiene el mismo número de
pivotes. En efecto, si B es una matriz escalonada por filas, su no de pivotes
coincide con el no de pivotes de la única escalonada reducida a la que es
equivalente por filas, ya que:
 Si el pivote de la fila i y la columna j es α = bij , se convierte en 1
haciendo E( 1 )Fi B.
α
 Cada uno de los elementos no nulos de la columna j, bkj = 0, k =
1, · · · , i − 1, se convierte en 0 haciendo EFk −bkj Fi E( 1 )Fi B.
bkj

Determinantes
En este apartado, las matrices que se consideran son matrices cuadradas.

El concepto de determinante de una matriz A = (aij ) ∈ Mn (K), puede


ser definido por inducción:
Para n = 1, se define |A| = det(A) = a11 .
Sea n > 1. Supuesto conocido el valor del determinante de una matriz
de orden n − 1.
Se define el determinante de la matriz A como:

12
|A| = det(A) = a11 α11 + · · · + an1 αn1 .

Siendo αij = (−1)i+j det(Aij ), en donde Aij es la matriz de orden n − 1


que se obtiene de A suprimiendo la fila i-ésima y la columna j-ésima. El
escalar αij se llama adjunto del elemento aij de A.
La fórmula anterior se conoce como el desarrollo de Laplace del determi-
nante de A por la primera columna.
Veremos, más adelante, que esta definición no depende de la columna
elegida, de modo que

|A| = det(A) = a1j α1j + · · · + anj αnj para cualquier j ∈ {1, · · · , n}.

y que también se puede calcular cambiando el papel de las columnas por


filas, es decir,

|A| = det(A) = ai1 αi1 + · · · + ain αin para cualquier i ∈ {1, · · · , n}.

Ejemplos.

1. El determinante de una matriz de orden 2 es


 
a11 a12 
 
a21 a22  = a11 α11 + a21 α21 = a11 a22 − a21 a12 .

2. (Regla de Sarrus) El determinante de una matriz de orden 3 es


 
a11 a12 a13 
 
a21 a22 a23  = a11 α11 + a21 α21 + a31 α31 =
 
a31 a32 a33 
     
a22 a23  a12 a13  a12 a13 

a11   
− a21   
+ a31  =
a32 a33  a32 a33  a22 a23 

a11 (a22 a33 − a32 a23 ) + a21 (a32 a13 − a12 a33 ) + a31 (a12 a23 − a22 a13 ) =

a11 a22 a33 + a13 a21 a32 + a12 a23 a31 − a11 a23 a32 − a12 a21 a33 − a13 a22 a31 .

3.
 
  1 2 3
 1 3  
  = 6 − 12 = −6 y 0 1 2 = 0 + 0 + 8 − 6 − 2 − 0 = 0.
 4 6  
2 1 0

13
4. Si A = (aij ) ∈ Mn (K) es una matriz triangular superior, |A| = a11 · · · ann .

Se demuestra por inducción en n. Si n = 1, |A| = a11 . Si n > 1 y


suponemos que se verifica el resultado para matrices de orden n − 1. Para
una matriz A de orden n, tenemos que |A| = a11 α11 = a11 (−1)1+1 det(A11 ).
Como A11 es una matriz triangular superior de orden n − 1, det(A11 ) =
a22 · · · ann , y por tanto |A| = a11 a22 · · · ann .
En particular, det(In ) = 1.

Determinantes y operaciones elementales


En el tema anterior aprendimos a transformar una matriz cuadrada A en
una triangular superior T = (dij ), realizando operaciones elementales en
sus filas. Puesto que sabemos que det(T ) = d11 · · · dnn , vamos a ver como
afecta cada operación elemental en las filas de una matriz al cálculo de su
determinante, lo que nos permitirá calcular det(A), de manera rápida, a
partir de det(T ).
Los determinantes verifican las siguientes propiedades:
Propiedad 1. Si A, A′ y A′′ ∈ Mn (K) son tales que Fi (A) = Fi (A′ ) +
Fi (A′′ ) y si j = i entonces Fj (A) = Fj (A′ ) = Fj (A′′ ), se tiene que det(A) =
det(A′ ) + det(A′′ ).
Propiedad 2. Si A ∈ Mn (K) tiene dos filas iguales, entonces det(A) = 0.
Propiedad 3. Si se intercambian dos filas de A, el determinante de la
matriz resultante es − det(A).
En particular, se obtiene que det(EFi ↔Fj ) = − det(In ) = −1 y que
det(EFi ↔Fj A) = det(EFi ↔Fj ) det(A).
Propiedad 4. Si multiplicamos los elementos de una fila de la matriz A
por un escalar β, obtenemos una matriz cuyo determinante es β det(A).
En particular, si A tiene una fila de ceros, entonces det(A) = 0. Además,
si β = 0, det(EβFi ) = β det(In ) = β y det(EβFi A) = det(EβFi )) det(A).
Propiedad 5. Si a la fila i-ésima de A le sumamos la j-ésima multiplicada
por un escalar β, siendo i = j, obtenemos una matriz cuyo determinante es
det(A).
En particular, se tiene que det(EFi +βFj ) = det(In ) = 1 y det(EFi +βFj A) =
det(EFi +βFj ) det(A).
Demostración.

14
La demostración de las propiedades 1 y 2, se puede ver en Álgebra lineal
con métodos elementales, Merino L. y Santos E.
Propiedad 3:
         

 F1 (A)   F1 (A)   F1 (A)   F1 (A)   F1 (A) 
        
 ···   ···   ···   ···   ··· 
         
Fi (A) + Fj (A)  Fi (A)   Fi (A)   Fj (A)   Fj (A) 
         
0 =  ···  =  ···  + ···  +  ···  +  ···  =
        
Fj (A) + Fi (A)  Fj (A)   Fi (A)   Fj (A)   Fi (A) 
         
 ···   ···   ···   ···   ··· 
         
 Fn (A)  F (A) F (A) F (A) F (A)
n n n n

   
 F1 (A)   F1 (A) 
   
 ···   ··· 
   
 Fi (A)   Fj (A) 
   
 ···  +  ··· .
   
 Fj (A)   Fi (A) 
   
 ···   ··· 
   
F (A) F (A)
n n

Propiedad 4:
Sea A = (aij ) una matriz de orden n, usaremos inducción en n para
probar esta propiedad. Si n = 1 es evidente. Supuesto n > 1 y que el
resultado es cierto para matrices de orden n − 1,
 
a11 · · · a1n
 ··· ··· ··· 
 
si A = EβFi A = 

βai1 · · · βain , entonces

 ··· ··· ··· 
an1 · · · ann
det(A′ ) = a11 α′11 + · · · + βai1 α′i1 · · · + an1 α′n1 . Como α′i1 = αi1 y, por
hipótesis de inducción, para t = i se tiene que α′t1 = βαt1 , obtenemos que
det(A′ ) = a11 βα11 + · · · + βai1 αi1 + · · · + an1 βαn1 = β det(A).
Propiedad 5:
Utilizando las propiedades 1, 4 y 2, se obtiene:

15
     
 F 1 (A)   F1 (A)   F1 (A) 
     
 ···   ···   ··· 
     
Fi (A) + βFj (A)  Fi (A)   Fj (A) 
     
 ···  =  · · ·  + β  · · ·  = |A| .
     
 F j (A)   Fj (A)   Fj (A) 
     
 ···   ···   ··· 
     
 Fn (A)  F (A) F (A)
n n

Proposición. Si A es una matriz de orden n,

A es no singular ⇔ |A| =
 0.

Demostración.
A es no singular ⇔ Existen E1 , ..., Es matrices elementales tal que A =
E1 · · · Es ⇒ |A| = |E1 · · · Es | = |E1 | |E2 · · · Es | = · · · = |E1 | · · · |Es | =
 0.
A es singular ⇔ A es equivalente por filas a una matriz escalonada por
filas A′ que tiene una fila de ceros ⇔ Existen E1 , · · · , Es matrices elementales
tal que A = E1 · · · Es A′ ⇒ |A| = |E1 · · · Es A′ | = |E1 | |E2 · · · Es A′ | = · · · =
|E1 | · · · |Es | |A′ | = 0.

Teorema. Si A y B son matrices de orden n, |AB| = |A| |B| .


Demostración.
Caso 1) Si A es no singular.
Hemos visto que:
A es no singular ⇔ A es producto de matrices elementales, es decir
A = E1 · · · Ek .
Utilizando reiteradamente las propiedades 3, 4 y 5 y que el producto de
matrices es asociativo, se tiene que:
|AB| = |E1 (E2 · · · Ek B)| = |E1 | |E2 · · · Ek B| = · · · = |E1 | |E2 | · · · |Ek | |B| =
|E1 | · · · |Ek−1 Ek | |B| = · · · = |A| |B| .
Caso 2) Si A es singular.
Existen matrices elementales E1 , · · · , Es y una matriz A′ que tiene una
fila de ceros tal que A = E1 · · · Es A′ y |A| = 0.
Así, |AB| = |E1 · · · Es A′ B| = · · · = |E1 | · · · |Es | |A′ B| = 0, puesto que la
matriz A′ B tiene también alguna fila de ceros, y |AB| = 0 = |A| |B| .

Pretendemos ahora ver que el desarrollo de Laplace para el calculo del


determinante puede hacerse a lo largo de cualquier columna o de cualquier

16
fila y, para ello, veremos que el determinante de una matriz coincide con el
de su traspuesta.

Lema. La traspuesta de una matriz elemental, E, es una matriz elemental


que tiene mismo determinante que E.
Demostración.
El resultado es consecuencia inmediata de que (EFi ↔Fj )t = (ECi ↔Cj )t =
t
EFi ↔Fj , EαF i
t
= EαC i
= EαFi y (EFi +αFj )t = (ECj +αCi )t = EFj +αFi .
 
Teorema. Si A es una matriz de orden n, entonces |A| = At  .
Demostración.
Sabemos que A es no singular ⇔ At es no singular [(A−1 )t = (At )−1 ].
Por tanto, |A| = 0 ⇔ At  = 0.
Supongamos pues que |A| =  0 y por tanto A = E1 · · · Ek y At =
(Ek ) · · · (E1 ) .
t t
     
Entonces At  = (Ek )t  · · · (E1 )t  = |Ek | · · · |E1 | = |A| .

Corolario. Las propiedades 1, 2, 3, 4 y 5 son válidas si se cambia la palabra


fila por columna.

Corolario. Desarrollo de Laplace del determinante por la primera fila.


Si A = (aij ) es una matriz de orden n, entonces

|A| = a11 α11 + · · · + a1n α1n .

Demostración.
Basta con observar que la primera columna de At es (a11 , · · · , a1n )t y
los adjuntos de los elementos de la primera columna de At coinciden con
los correspondientes a los elementos de la primera fila de A. En efecto,
(A1j )t = (At )j1 para todo j y α1j = (−1)1+j det(A1j ) = (−1)1+j det(A1j )t =
(−1)1+j det((At )j1 ). Así,
 
|A| = At  = a11 (−1)1+1 det((At )11 ) + · · · + a1n (−1)n+1 det((At )n1 ) =
a11 (−1)1+1 det(A11 )+· · ·+a1n (−1)n+1 det(A1n ) = a11 α11 +· · ·+a1n α1n .

Proposición. Desarrollo de Laplace del determinante por cualquier columna


(respect. fila).
Si A = (aij ) es una matriz de orden n, entonces

17
|A| = a1j α1j + · · · + anj αnj j = 1, · · · , n
|A| = ai1 αi1 + · · · + ain αin i = 1, · · · , n.

Demostración.
Sea A′ = EF1 ↔F2 A la matriz obtenida de A intercambiando la primera
fila con la segunda. Calculando el determinante de A′ con el desarrollo de
Laplace por la primera fila:
|A′ | = a21 (−1)1+1 det(A21 ) + a22 (−1)1+2 det(A22 ) + a23 (−1)1+3 det(A23 ) +
· · · + a2n (−1)1+n det(A2n ) y, como |A| = − |A′ | , se tiene que:
|A| = a21 (−1)2+1 det(A21 )+a22 (−1)2+2 det(A22 )+· · ·+a2n (−1)2+n det(A2n ) =
a21 α21 + · · · + a2n α2n .
De la misma forma, si A′′ es la matriz obtenida de A intercambiando la
segunda fila con la tercera, calculando el desarrollo de Laplace de A′′ por su
segunda fila, se obtiene:
|A′′ | = a31 (−1)2+1 det(A31 ) + a32 (−1)2+2 det(A32 ) + a33 (−1)2+3 det(A33 ) +
· · · + a3n (−1)2+n det(A3n ) y, por tanto, como |A| = − |A′′ | , se tiene que:
|A| = a31 (−1)3+1 det(A31 )+a32 (−1)3+2 det(A32 )+· · ·+a3n (−1)3+n det(A3n ) =
= a31 α31 + · · · + a3n α3n .
Repitiendo el proceso las veces que sea necesario, se obtiene
 t  el desarrollo
por cualquier otra fila y, teniendo en cuenta que |A| = A  , se obtiene el
desarrollo por cualquier columna.

Proposición. Si A = (aij ) es una matriz no singular de orden n, entonces

1
A−1 = (adj(A))t en donde adj(A) = (αij ) ∈ Mn (K).
|A|

Demostración.
1
Como |A| =
 0, podemos definir la matriz B := (adj(A))t . B es de
|A|
orden n y vamos a comprobar que es inversa de A. En efecto,
n
 n
 1 1
(AB)(i, i) = aik B(k, i) = aik αik = |A| = 1
k=1 k=1 |A| |A|

y, si i = j, se tiene que
n
 n
 1 1  n
(AB)(i, j) = aik B(k, j) = aik αjk = ( aik αjk ) = 0
k=1 k=1 |A| |A| k=1

18
n

ya que aik αjk = 0, porque es el desarrollo de Lapace, a lo largo de la
k=1
fila j-ésima, del determinante de una matriz que tiene todas sus filas como
las de A, excepto la j-ésima que coincide con la i-ésima de A, es decir es el
determinante de una matriz con dos filas iguales.

Ejercicios

1.- Evaluar las siguientes operaciones con matrices reales:


 
   1 −2
4     4 1 0 1 
5 −3 , 5 −3 , 3 5 .
2 2 2 2 3
0 7

2.- Una matriz A se dice idempotente si A2 = A.

a) Prueba que una matriz idempotente es cuadrada.

b) ¿Son idempotentes las matrices siguientes?


 
  0 0 1
1 0 0 1
; ; 0 1 0 .
0 0 1 0
1 0 0

3.- Se consideran las matrices:


 
0 1 1 1
A= yB= .
1 0 0 1

Justificar la verdad o falsedad de las siguientes afirmaciones:

a) AB = BA.

b) (A + B)2 = A2 + 2AB + B 2 .

c) A(A + B) = A2 + AB.

4.- Sea A ∈ Mn (R) una matriz no singular. Demostrar las siguientes


propiedades:

19
a) (A−1 )−1 = A.

b) Para cada α ∈ R con α = 0, (αA)−1 = α1 A−1 .

c) A es simétrica ⇔ A−1 es simétrica.

 
1 α α2 /2
5.- Sea A(α) =  0 1 α  . Se pide:
0 0 1

a) Demostrar que A(α)A(β) = A(α + β).

b) Demostrar que A(3α) − 3A(2α) + 3A(α) = I3 .

6.- Demostrar que el producto de dos matrices diagonales es también una


matriz diagonal. ¿Es conmutativo este producto?.

7.- Sean A, B ∈ Mn (R) y α ∈ R. Justificar la verdad o falsedad de las


siguientes afirmaciones:

a) Si A+B es una matriz diagonal, entonces A y B son matrices diagonales.

b) Si A es una matriz diagonal, entonces AB es una matriz diagonal.

c) Si α = 0 y αA es una matriz diagonal, entonces A es una matriz diagonal.

d) Si AB es una matriz diagonal, entonces A y B son matrices diagonales.

 
0 −1 1
8.- Se considera la matriz A =  0 1 −1  .
0 0 1
Hallar una fórmula para A , siendo n un entero positivo.
n


1 0
9.- Si A = , demostrar que A2 = 2A − I2 y calcular A100 .
−1 1

10.- Sean A = (aij ) ∈ M5×3 (R) y B = (bij ) ∈ M3×4 (R) tales que

ai1 + ai2 + ai3 = α ∀ i = 1, · · · , 5 y bi1 + bi2 + bi3 + bi4 = β ∀ i = 1, · · · , 3.

20
Demostrar que la suma de los elementos de cada una de las filas de la
matriz producto AB es αβ.
 
2 1
 −1 3 
11.- Halla una matriz elemental E que transforma la matriz A = 
 0

4 
1 2
en B, donde:
     
2 1 2 1 2 1
 0 4     
a) B =   ; b) B =  −1 3  ; c) B =  −1 3  .
 −1 3   0 4   0 3 
1 2 5 4 1 2

12.- Encontrar, justificando la respuesta, matrices elementales E1 , E2 , E3 , E4


tales que:
a) E1 A = B; b) E2 B = A; c) E3 A = C; d) E4 C = A, donde
     
3 4 1 8 1 5 3 4 1
A =  2 −7 −1  , B =  2 −7 −1  y C =  2 −7 −1 
8 1 5 3 4 1 2 −7 3

¿Es posible encontrar una matriz elemental E tal que EB = C? Justifica


la respuesta.

13.- Encontrar una matriz A ∈ M3 (R) que verifique la igualdad siguiente:

EF1 +2F3 .EF2 ↔F1 .A.E(−4)F3 = I3 .

14.- Sean A, B ∈ M3 (R) tales que


 1 1
  
3 3 −1 0 1 1
A−1 =  − 23 1
3 0  y AB =  0 5 8 
0 0 1 1 0 0

Denotando por A1 la matriz obtenida a partir de A multiplicando su fila


2 por 3, A2 la matriz obtenida a partir de A intercambiando su fila 1 y su
fila 3 y B3 la matriz obtenida a partir de B multiplicando su columna 2 por
2.
Calcular, usando las matrices elementales, las siguientes matrices:

21
(A1 )−1 , (A2 )−1 , A1 B, A2 B y AB3 .

15.- Sean A, B ∈ M3 (R) tales que


   
1 2 −1 0 1 0
A−1 =  −2 1 0  y AB =  0 3 1 
0 0 1 1 0 0

Denotando por A1 la matriz obtenida a partir de A multiplicando su fila


3 por −2, A2 la matriz obtenida a partir de A intercambiando su fila 3 y su
fila 2 y B3 la matriz obtenida a partir de B multiplicando su columna 3 por
− 12 .
Calcular, usando las matrices elementales, las siguientes matrices:

(A1 )−1 , (A2 )−1 , A1 B, A2 B y AB3 .

16.- Calcular el rango de la matriz


 
2 −1 −3 4
 1 3 5 −1 
 .
 5 1 −1 7 
7 7 9 1

17.- Hallar en función de a y b los rangos de:


   
a 1 2 2 a+2 a
 0 a 0 y 3 5 b  ∈ M3 (R).
0 0 b 1 2 1

18.- Calcular el rango de la matriz


 
1 1 0 0 0
 0 1 1 0 0 
 
 0 0 1 1 0  ∈ M5 (R).
 
 0 0 0 1 1 
α 0 0 0 1

19.- Calcular las inversas de las matrices

22
   
3 2 0 1 2 1
A =  0 1 0  y B =  1 1 −1  ∈ M3 (R)
6 6 1 1 1 0

y escribir A y B −1 como un producto de matrices elementales.

20.- Calcular, cuando exista , la inversa de la matriz


 
−1 a 0
A= 2 0 a  ∈ M3 (C).
−1 3 −1

21.- Calcular los valores de a para que la siguiente matriz tenga inversa
 
1 2 0
 1 a 3  ∈ M3 (R).
2 1 3

22.- Se consideran las siguientes matrices sobre el cuerpo R :


 
  1 1 1 1
−1 0 0  1 1 −1 −1 
A =  α 1 −1  y B =   1 −1

1 −1 
β 1 1
1 −1 −1 1

a) Calcular, usando operaciones elementales, A−1 y B −1 .

b) Utilizando el apartado anterior, calcular (3A)−1 y 5(B t )−1 .

23.- Calcular, utilizando las operaciones elementales, la inversa de la matriz


 
1 a 0 0 0
 0 1 a 0 0 
 
 0 0 1 a 0  ∈ M5 (R).
 
 0 0 0 1 a 
0 0 0 0 1

24.- Se consideran las matrices reales

23
   
1 a a2 a3 a4 0 0 0 0 1

 0 1 a a2 a3 


 0 1 a a2 a3 

A=
 0 0 1 a a2 yB=
  0 1 1+a a + a2 a2 + a3 

 0 0 0 1 a   0 0 0 1 a 
0 0 0 0 1 1 a a2 a3 a4

a) Hallar, usando operaciones elementales, la inversa de la matriz A.


b) Calcular B −1 a partir de A−1 .

25.- Demostrar que el determinante del producto de una matriz 2 × 1 por


otra 1 × 2 es siempre cero.

26.- Sean A,B ∈ Mn (R) y α ∈ R. Razonar si son verdaderas o falsas las


siguientes afirmaciones:

a) |A + B| = |A| + |B|.
b) |αA| = α |A| .
c) |αA| = αn |A| .
c) |−A| = (−1)n |A| .
d) Si AB tiene inversa también la tienen A y B.
d) Si |AB| = 0 entonces |A| = |B| = 0.

27.- Sean A,B ∈ M3 (R) tales que |A| = 3 y |B| = 5. Calcular los determi-
nantes de las siguientes matrices:

AB, −A, 3B, A−1 B y At EF1 ↔F2 B −1 .

28.- Calcular los determinantes de las siguientes matrices:


     
1 1 1 1 x 1 1 1 a a a a
 1 2 3 4   1 x 1 1   b b b a 
A=  1 4 9 16  ; B =  1 1 x 1 ; C =  c
    ;
c b a 
1 x x2 x3 1 1 1 x d c b a
 
  1 1 1 1
x+a b c  1 1+a 
1 1
D= a x+b c yE=  1
.

1 1+b 1
a b x+c
1 1 1 1+c

24
29.- Sabiendo que los números 1.353, 3.751, 8.492 y 6.105 son todos divisibles
por 11, demostrar que el derterminante de la siguiente matriz es, también,
divisible por 11:
 
1 3 5 3
 3 7 5 1 
A=  8 4 9 2 .

6 1 0 5

30.- Calcular A−1 B, sin calcular previamente A−1 , siendo


   
1 −1 1 4 1 2
A= 2 1 1  y B =  −2 0 3  .
2 −1 2 1 1 1

31.- Sea A una matriz cuadrada n × n formada por números enteros entre 0
y 9. Demostrar que si las filas (ó las columnas) de A, leidas como un número
de n dígitos, forman un múltiplo de 3, entonces |A| también es un múltiplo
de 3.

32.- Resolver la ecuación:


 
 1 x 0 x 
 
 0 2 x 0 
  = −2.
 1 0 −1 x 
 
 x 1 −1 x 

33.- Determinar los valores de x para los que se verifica que |A| =
 0, siendo
 
x 2 0 3
 1 2 3 3 
A=
 1
.
0 1 1 
1 1 1 3

37.- Calcular el determinante


 
 1 2 1 2 
 
 −1 1 2 1 
 
 1 1 2 2 
 
 −2 1 1 1 

25
por el procedimiento de llevarlo a la forma triangular.

38.- Calcular el determinante de Vandermonde


 
 1 1 1 1 

 a b c d 
 .
 a2 b2 c2 d2 

 a3 b3 c3 d3 

39.- Calcular los determinantes de las siguientes matrices de orden n :

a) A = (aij ) siendo aij = max(i, j).

b) B = (bij ) siendo bij = min(i, j).


 
x a a ··· a
 a x a ··· a 
 
 a x ··· a 
c) C =  a .
 .. .. .. . . .. 
 . . . . . 
a a a ··· x

40.- Calcular el determinante de la matriz


 
α+1 α α α
 α α + 1 α α 
  ∈ M4 (R).
 α α α+1 α 
α α α α+1

41.- Demostrar que:


 2 
 a a 1 bcd 
 2 
 b b 1 acd 
 2  = (b − a)(c − a)(d − a)(c − b)(d − b)(c − d).
 c c 1 abd 
 
 d2 d 1 abc 

42.- Una matriz cuadrada es antisimétrica si At = −A. Probar que si 2 = 0,


el determinante de una matriz antisimétrica de orden impar es cero.

43.- Hallar los posibles valores del determinante de una matriz A, en cada
uno de los siguientes casos:

26
a) A es idempotente, es decir A2 = A.

b) A es ortogonal, es decir [Link] = I.

c) A es nilpotente, es decir existe n tal que An = 0.

44.- Sean A y B matrices cuadradas de orden 4 tales que |A| = −2 y |B| = 3.


1
Calcular el determinante de la matriz A3 B −1 At .
2

45.- Sean A, B ∈ M4 (R) tales que |A| = −3 y |B| = 9, calcular el determi-


1
nante de la matriz A3 B −1 At .
3

27
28
Tema 2: Sistemas de ecuaciones lineales
A partir de ahora, K denotará un cuerpo.

Ecuaciones lineales
Definición. Una ecuación lineal con coeficientes en K y con n incógnitas
(o variables) x1 , x2 , · · · , xn es una expresión de la forma

a1 x1 + a2 x2 + · · · + an xn = b (∗)

en donde los elementos ai ∈ K, para i = 1, · · · , n, se llaman coeficientes de


la ecuación y b ∈ K se llama término independiente.
Diremos que (α1 , α2 , · · · , αn ) ∈ K n es solución de la ecuación lineal (∗)
si

a1 α1 + a2 α2 + · · · + an αn = b

es decir, al sustituir x1 = α1 , · · · , xn = αn en (∗) se verifica la igualdad


anterior.
Si el número de incógnitas es pequeño estas se denotarán, usualmente,
por las letras x, y, z, t, · · · .

Ejemplos.

1. (0, 0) y (2, −1) ∈ R2 son soluciones de la ecuación lineal x + 2y = 0.

2. La ecuación x2 + 2y = 1 no es lineal.

Sistemas de ecuaciones lineales


Definición. Una colección de m ecuaciones lineales con coeficientes en K
con las mismas n incógnitas x1 , x2 , · · · , xn


 a11 x1 + a12 x2 + · · · + a1n xn = b1

a21 x1 + a22 x2 + · · · + a2n xn = b2
(S)

 ···

am1 x1 + am2 x2 + · · · + amn xn = bm

En forma abreviada,

29
n

aij xj = bi para i = 1, · · · , m,
k=1

se llama sistema de m ecuaciones lineales con n incógnitas. A los aij para


i = 1, · · · , m y j = 1, · · · , n, se les llama coeficientes del sistema y los bi ,
para i = 1, · · · , m, se llaman términos independientes del sistema.
Si bi = 0 para cada i = 1, · · · , m, es decir, si todos los términos indepen-
dientes son cero, se dice que el sistema es homogéneo.
Una n-épla (α1 , · · · , αn ) ∈ K n es una solución del sistema S si lo es de
cada una de sus m ecuaciones.
Un sistema es compatible si admite alguna solución. En caso contrario,
se dice que es incompatible. Cuando un sistema compatible tiene una única
solución se dice que es compatible determinado y, si tiene más de una, se
dice que es compatible indeterminado.
Todo sistema homogéneo es compatible, puesto que (0, · · · , 0) ∈ K n es
una solución a la que se le llamará solución trivial.

Ejemplos. Sean tres sistemas con coeficientes en R :

1.

x+y =2
es un sistema incompatible y representa a dos rectas parale-
x+y =7
las.

2.

x+y =2
es un sistema compatible determinado, puesto que (−5, 7)
y =7
es su única solución. Representa a dos rectas que se cortan en el punto
(−5, 7).

3.

x + y =2
es un sistema compatible indeterminado, puesto
2x + 2y = 4
que tiene más de una solución, por ejemplo (1, 1) y (0, 2). Se trata ahora de
dos rectas coincidentes.

30
Interpretación matricial de un sistema
Dado un sistema de ecuaciones lineales


 a11 x1 + a12 x2 + · · · + a1n xn = b1

a21 x1 + a22 x2 + · · · + a2n xn = b2
(S)

 ···

am1 x1 + am2 x2 + · · · + amn xn = bm

llamaremos:
 matriz de los coeficientes del sistema a la matriz A = (aij ) ∈ Mm×n (K),
 matriz de los términos independientes a la matriz B = (b1 , · · · , bm )t ∈
Mm×1 (K)
 matriz ampliada del sistema a la matriz
 
a11 · · · a1n b1
(A | B) =  · · · · · · · · · · · · ∈ Mm×(n+1) (K).
am1 · · · amn bm


x1
Si denotamos por X =  ...  , el sistema anterior tiene la siguiente
 

xn
expresión matricial:

AX = B.

Nótese que también se puede expresar como

x1 C1 (A) + · · · + xn Cn (A) = B.

Resolución de un sistema de ecuaciones lineales: Método de


Gauss y Regla de Cramer.
Supongamos que queremos resolver el siguiente sistema:

 x + y +3z = 4
y +2z = 3

z =1

31
La tercera ecuación nos indica que z = 1, sustituyendo este valor en
la segunda se tiene que y = 1 y sustituyendo ambos valores en la primera
obtenemos que x = 0. Así, (0, 1, 1) es la única solución de este sistema, que
es por tanto un sistema compatible determinado.
El método utilizado, de sustitución hacia atrás, nos permite resolverlo de
forma muy sencilla porque está en forma escalonada. En general, un sistema
arbitrario no aparece en forma escalonada y, para resolverlo con la técnica
anterior, trataremos de transformarlo en otro con las mismas soluciones que
se presente en forma escalonada.

Definición. Dos sistemas con n incógnitas x1 , x2 , · · · , xn se dicen equiva-


lentes si tienen el mismo conjunto de soluciones.

Vamos a considerar tres tipos de operaciones que nos permitirán transfor-


mar un sistema S en otro equivalente S ′ . A estas operaciones les llamaremos
operaciones elementales y son las siguientes:

1. Intercambiar dos ecuaciones. (Fi ↔ Fj ).

2. Multiplicar una ecuación por α ∈ K y α = 0. (αFi ).

3. Sumarle a una ecuación otra multiplicada por α ∈ K. (Fi + αFj con


i = j).

Nótese que:

S −−−−→
Fi ↔Fj
S′ −−−−→
Fi ↔Fj
S

S −−→
αFi
S′ −
1
−→ S
F
α i

S −−−−−→
Fi +αFj
S′ −−−−−→
Fi −αFj
S

Proposición. Si S es un sistema de ecuaciones lineales, todo sistema, S ′ ,


obtenido a partir de S tras un número finito de operaciones elementales, es
equivalente a S.
Demostración.
Es suficiente demostrar que cada una de las operaciones elementales
transforma un sistema en otro equivalente.

Definición. Un sistema de ecuaciones lineales se dice escalonado si su


matriz ampliada es una matriz escalonada. En un sistema escalonado las

32
incógnitas correspondientes a los pivotes se llamarán incógnitas principales
y las demás incógnitas libres.

Proposición. Todo sistema de ecuaciones lineales es equivalente a un sis-


tema escalonado.
Demostración.
Es evidente que las operaciones elementales en las ecuaciones de un
sistema se corresponden biyectivamente con las correspondientes operaciones
elementales en las filas de la matriz ampliada. El resultado se sigue de que,
como ya vimos, toda matriz es equivalente por filas a una matriz escalonada.

El Método de Gauss consiste en transformar, usando operaciones ele-


mentales, un sistema en otro equivalente que sea escalonado y resolver este,
si es posible, usando sustitución hacia atrás ó concluir que no tiene solución.

Ejemplos. Vamos a resolver tres sistemas de ecuaciones lineales con coefi-


cientes en R.

1.
 
 x − 2y + 3z = 9  x − 2y + 3z = 9
F2 +F1
−x + 3y = −4 −→ y + 3z = 5
 F3 −2F1 
2x − 5y + 5z = 17 − y − z = −1
 
 x − 2y + 3z = 9  x − 2y + 3z = 9
−−−−→
F3 +F2 
y + 3z = 5 −1−→ y + 3z = 5
F3 
2z = 4 2 z = 2
La única solución de este sistema es (1, −1, 2). Por tanto, se trata de un
sistema compatible determinado.

2.
 
 y − z = 0  x − 3z = −1
x − 3z = −1 −
−−−−→
F2 ↔F1
y − z = 0
 
−x + 3y = 1 −x + 3y = 1
 
 x − 3z = −1  x − 3z = −1
−−−−→
F3 +F1 
y − z = 0 −−−−−→
F3 −3F2 
y − z = 0
3y − 3z = 0 0y + 0z = 0
Las ternas de la forma (−1 + 3z, z, z) con z ∈ R son las soluciones del
sistema. Por tanto, se trata de un sistema compatible indeterminado en
donde x e y son las incognitas principales y z la incognita libre.

33
3.
 
 x − 3y + z = 1  x − 3y + z = 1
2x − y − 2z = 2 −−−−−→
F2 −2F1 
5y − 4z = 0

x + 2y − 3z = −1 x + 2y − 3z = −1
 
 x − 3y + z = 1  x− 3y+ z = 1
−−−−→
F3 −F1 
5y − 4z = 0 −−−−→
F3 −F2 
5y− 4z = 0
5y − 4z = −2 0y− 0z = −2

La última ecuación nos indican que se trata de un sistema incompatible.

4.
 
ax +y = 1 ax +y = 1
−−−−→
(a + 1)x +y = 2 F2 −F1 x =1
 
x =1 x =1

−−−−→ −−−−−→
F1 ↔F2 ax +y = 1 F2 −aF1 y =1−a

o bien, si escalonamos el sistema considerando las variables en otro orden se


tiene que:
 
y +ax = 1 y +ax = 1
−−−−→
y +(a + 1)x = 2 F2 −F1 x =1

Nótese que es un sistema compatible determinado con solución (1, 1−a).


Como se aprecia en los ejemplos anteriores, el método utilizado solo
afecta a los coeficientes y a los términos independientes del sistema y, por
lo tanto, se pueden dejar de escribir las variables y hacer las mismas trans-
formaciones en una tabla (matriz) en donde aparezcan ordenados solamente
los coeficientes y los términos independientes.

5. Sea el sistema en forma matricial:


    
1 −2 3 x 9
 −1 3 0  y  =  −4  .
2 −5 5 z 17

Consideramos su matriz ampliada y la escalonamos de la forma siguiente:


   
1 −2 3 9 1 −2 3 9
 −1 F2 +F1 
3 0 −4  −→ 0 1 3 5 
F3 −2F1
2 −5 5 17 0 −1 −1 −1

34
   
1 −2 3 9 1 −2 3 9
−−−−→  0 1 3 5  −
1
−→  0 1 3 5 .
F3 +F2 F
2 3
0 0 2 4 0 0 1 2
Por tanto, un sistema equivalente al de partida es:

 x − 2y + 3z = 9
y + 3z = 5

z = 2

cuya solución se obtiene usando sustitución hacia atrás, como se indicó an-
teriormente.
También se puede continuar el proceso hasta llegar a una matriz que sea
escalonada reducida,
   
1 −2 3 9 1 0 9 19
 0 1 3 5 − −−−−→  0 1 3 5 − −−−−→
F1 +2F2 F1 −9F3
0 0 1 2 0 0 1 2
   
1 0 0 1 1 0 0 1
0 1 3 5 −−−−−→  0 1 0 −1 
F2 −3F3
0 0 1 2 0 0 1 2
que es la matriz ampliada del sistema

 x = 1
y = −1

z = 2

y que permite encontrar de manera inmediata su solución, (1, −1, 2).

Discusión de un sistema escalonado


Para un sistema arbitrario, S, de m ecuaciones lineales con n incógnitas, una
vez que hemos escalonado su matriz ampliada hasta una matriz escalonada
reducida, se pueden dar los siguientes casos:

1. Si hay un pivote en la última columna, el sistema es incompatible ya que


corresponde a una ecuación de la forma 0x1 + · · · + 0xn = 1.

2. Si no hay pivote en la última columna, se pueden dar dos posibilidades:

35
a) No de pivotes = no de columnas −1= no de incognitas. En éste caso, ex-
iste una única solución y la solución viene dada por la última columna.
Es decir, la matriz escalonada reducida es de una de las siguientes for-
mas:
 
1 0 ··· 0 b1
0 1 ··· 0 b2 
   
 .. .. .. .. ..  1 0 ··· 0 b1
. . . . . 
  0 1 · · · 0 b2 
o
0 0 ··· 1 bn  . . .. .. .. 

0  .. .. . . .
 0 ··· 0 0 
 .. .. .. .. ..  0 0 ··· 1 bn
. . . . .
0 0 ··· 0 0

y la solución del sistema es (b1 , · · · , bn ) ∈ K n .


b) No de pivotes < no de columnas −1. En éste caso, hay más de una
solución y estas estarán parametrizadas por las variables libres.

Dicho de otro modo, en un sistema escalonado de m ecuaciones lineales


con n incógnitas y r pivotes (r ≤ n), se verifica que:

1. Si alguna de las m − r últimas ecuaciones tiene término independiente


distinto de cero (es decir, es de la forma 0x1 +· · ·+0xn = b, con b = 0),
el sistema es incompatible.
2. Si las m − r últimas ecuaciones tienen término independiente cero, hay
dos posibilidades:
a) Si r = n, entonces el sistema es compatible determinado.
b) Si r = n, es decir r < n, entonces el sistema es compatible indeterminado.
Para cada valor asignado a cada una de las n − r incógnitas libres se
obtiene una solución del sistema.

Ejemplos.

1. El sistema visto en el último ejemplo,


    
1 −2 3 x 9
 −1 3 0  y  =  −4  ,
2 −5 5 z 17
está en el caso 2a).

36
2.
     
1 2 3 4 1 2 3 4 1 2 3 4
A = 2 4 7 9 −−−−−→
F2 −2F1
0 0 1 1 −−−−−→
F3 −2F1
0 0 1 1
2 4 6 8 2 4 6 8 0 0 0 0
El sistema cuya matriz ampliada es A corresponde al caso 2b); de la
segunda ecuación se obtiene que z = 1 y sustituyendo éste valor en la primera
se tiene que x = 1 − 2y, por tanto las soluciones del sistema son las ternas
de la forma (1 − 2y, y, 1) para todo y ∈ R.

3.
     
1 2 3 4 1 2 3 4 1 2 3 4
B = 2 4 7 9 −−−−−→
F2 −2F1
0 0 1 1 −−−−−→
F3 −2F1
0 0 1 1
2 4 6 9 2 4 6 9 0 0 0 1
El sistema cuya matriz ampliada es B está en la situación 1) y se trata
de un sistema incompatible.

Proposición. Si A ∈ Mn (K). Un sistema AX = B es compatible determi-


nado si, y solo si, A es no singular.
Demostración.
"⇐" Si A es no singular, entonces X = A−1 B.
"⇒" Si AX = B es compatible determinado, A es equivalente por filas
a una matriz escalonada reducida cuyo número de pivotes coincide con el
número de incognitas, es decir, A es equivalente por filas a la matriz In y
por tanto es no singular.

Regla de Cramer. Si AX = B es un sistema de n ecuaciones lineales con


n incognitas compatible determinado, su única solución viene dada por:
 
 a11 · · · a1(i−1) b1 a1(i+1) · · · a1n 
 
· · · · · · · · · · · · · · · · · · · · · 
 
an1 · · · an(i−1) bn an(i+1) · · · ann 
xi = para i = 1, · · · , n.
|A|

Demostración.
1
Si AX = B, entonces al ser A no singular, X = A−1 B = (adj(A))t B
|A|
y entonces

37
1  n 1  n 1  n
xi = X(i, 1) = ((adj(A))t )(i, k)bk = αki bk = bk αki
|A| k=1 |A| k=1 |A| k=1

n

Nótese que bk αki es el desarrollo, por la columna i-ésima, del deter-
k=1
minante de una matriz que se obtiene de la matriz A cambiando su columna
i-ésima por la de los términos independientes del sistema.

Ejercicios

1.- Resolver los siguientes sistemas:




 x +y +z −t = 1

y −z +t = −1
a)

 3x +6z −6t = 6

−y +z −t = 1

 2x +z = 2
b) x +2y = 1

4x +4y +z −t = 5

 2x +y −4z = 0
c) 3x +5y −7z = 0

4x −5y −6z = 0

 x +y +z = 6
d) 2x −y +z = 3

3x −z = 0


 x +y +z +t = 6

2x +3y −t = 0
e)

 −3x +4y +z +2t = 4

x +2y −z +t = 0

2.- Resolver simultáneamente los sistemas


 
 2x +y +3z = 2  2x +y +3z = 1
x −3y +z = 1 y x −3y +z = −2
 
5x −8y +6z = −2 5x −8y +6z = −5

38
3.- Calcular el valor de α para que sea compatible e indeterminado el sis-
tema:

 αx +y +z = α
x +αy +z = α

x +y +αz = α

Para este valor calcular la componente x de la solución tal que y = 1 y


z = 4.

4.- Determinar para que valores de a el sistema siguiente tiene solución


única, tiene infinitas soluciones y no tiene solución.

 x +y +z = 4
z = 2

(a2 − 4)z = a − 2

5.- Dado el sistema de ecuaciones lineales:



 x −2y +z = −2
−x +y +αz = 1

2x +αy +4z = −2

Discutir su compatibilidad en función de los valores del parámetro α ∈ R


y resolverlo en los casos en que sea compatible.

6.- Hallar condiciones sobre el parámetro k que hagan compatible el sistema:



 x +2y −z = 3
−x −y +z = 2

−x +y +z = k

7.- Hallar los valores del parámetro α para que el siguiente sistema tenga
soluciones no triviales.

 (α + 2)x −2y +3z = 0
−2x +(α − 1)y +6z = 0

x +2y +αz = 0
 
a 0 b 2
8.- Sea  a a 4 4  la matriz ampliada de un sistema S. Encontrar
0 a 2 b
los valores que deben tomar a y b en los siguientes casos:

39
a) S tiene solución única.

b) S no tiene solución.

c) Las soluciones de S vienen dadas en función de un parámetro.

d) Las soluciones de S vienen dadas en función de dos parámetros.

9.- Discutir, en función de los valores de α ∈ R, el sistema



 x +αy +z = 1
−x +(2 − α)y = 1 .

(1 − α)x +(−α2 + α − 2)y +(1 − 2α)z = −α2 − α

10.- Se considera el sistema



 3x +y +(α + 1)z = 4
−y +3z = β

2x +y −z = 3

¿Cuándo es compatible indeterminado?

11.- Se considera el sistema de ecuaciones lineales




 x +y +z = 1
 2
(1 + b )x +2y +2z = 2b

 (1 − b)x +z = −b
 2
b x +y +z = b

a) Analizar para que valores b ∈ R el sistema tiene alguna solución.

b) Resolver el sistema para los valores de b encontrados en el apartado


anterior.

12.- Siendo b ∈ R consideramos los sistemas:



 x +y +z = 3
a) bx +y = b

2y +z = 2

 bx +y −z = b
b) x +by +z = 1

x +y −2bz = 2

40
Estudiar su compatibilidad para los diferentes valores de b y resolverlos
en los casos en que sean compatibles.

13.- Sea el sistema siguiente:




 2x −y = 5


 x −3y = 5
x +5y = α


 x +βy = 3


γx +2y = 4

Resolverlo para los valores de α, β, γ que lo hagan compatible.

14.- Se consideran los sistemas siguientes:


 
a1 x + a2 y = a0 a1 x + a2 y + a3 z = a0
S yS ′
b1 x + b2 y = b0 b1 x + b2 y + b3 z = b0

con a1 = 0 y b1 = 0. Sabiendo que S es incompatible, analizar la posibilidad


de que S ′ sea compatible.

15.- Resolver, sobre Z2 , el sistema:



 x +y = 1
y +z = 0

x +z = 1

16.- Responder razonadamente la veracidad o falsedad de las siguientes


afirmaciones:

a) Todo sistema de una ecuación lineal con dos variables es compatible.

b) Todo sistema de dos ecuaciones lineales con tres variables es compatible.

c) Si un sistema es compatible admite infinitas soluciones.

d) Un sistema de ecuaciones lineales puede tener exactamente dos solu-


ciones.

e) Todo sistema de tres ecuaciones lineales con dos variables es incompatible.

41
17.- Se considera el sistema AX = B con B = 0 y α y β dos escalares dados.
Sabiendo que si X1 y X2 son dos soluciones del sistema también es solución
αX1 + β X2 . Analizar la relación que debe existir entre α y β.

18.- Se considera S un sistema homogéneo de tres ecuaciones con tres incog-


nitas AX = 0 y S ′ el sistema cuya primera ecuación es la diferencia entre
la primera y la segunda de S, su segunda ecuación es la diferencia entre
la segunda y la tercera de S y su tercera ecuación es la diferencia entre la
tercera y la primera de S. Sabiendo que S es compatible y determinado
analizar si también lo es S ′ .

19.- Se considera S un sistema AX = B. Estudiar en que caso ocurre que


si X1 y X2 son dos soluciones del sistema también lo es X1 − X2 .

20.- Sea S un sistema de m ecuaciones lineales con n incógnitas. Sabiendo


que m < n, probar que S puede ser incompatible o compatible indetermi-
nado, pero no puede ocurrir que sea compatible determinado.

42
Tema 3: Espacios vectoriales
Definición. Se dice que un conjunto no vacio V es un espacio vectorial
sobre K o que es un K-espacio vectorial si:

1. En V está definida una operación interna que denotaremos por + de


modo que (V, +) es un grupo abeliano.

2. Existe una operación externa, llamada producto por escalares:

K × V −→ V
(α, v)  αv

tal que para todo v, w ∈ V y α, β ∈ K se tiene:

a) (α + β)v = αv + βv,

b) α(v + w) = αv + αw,

c) α(βv) = (αβ)v,

d) 1K v = v.

Los elementos de V se llaman vectores y los de K escalares. El elemento


neutro para la operación + se denota por 0 y se llama vector cero. Dado un
vector v ∈ V su simétrico para + se llama opuesto de v y se denota por −v.

Ejemplos.

1. K es un K-espacio vectorial.

2. Rn es un R-espacio vectorial.

3. Mm×n (K) es un K-espacio vectorial.

4. Pn (K) (polinomios de grado ≤ n con coeficientes en K) es un K-espacio


vectorial.

5. {f : R −→ R / f es aplicación} es un R-espacio vectorial.

6. K[x] (polinomios con coeficientes en K) es un K-espacio vectorial.

Proposición. Si V es un K-espacio vectorial, se verifica:

43
1. Dados α ∈ K y v ∈ V se tiene que, αv = 0 ⇔ α = 0 o v = 0.
2. Dados α, β ∈ K y v ∈ V, v = 0, si αv = βv entonces α = β.

3. Dados α ∈ K y v ∈ V se tiene, (−α)v = −(αv) = α(−v).

Demostración.

1. "⇐" 0v = (0 + 0)v = 0v + 0v y entonces 0v = 0. Análogo si v = 0.


"⇒" Sea αv = 0, si α = 0 se tiene que v = 1K v = (α−1 α)v = α−1 (αv) =
α−1 0 = 0.

3. Si α ∈ K y v ∈ V se tiene que, (−α)v + αv = (−α + α)v = 0v = 0.

Subespacios vectoriales
En adelante V denotará un K-espacio vectorial.

Definición. Un subconjunto no vacio U de V es un subespacio de V si:

1. u + u′ ∈ U para todo u, u′ ∈ U.

2. αu ∈ U para todo u ∈ U y todo α ∈ K.

Equivalentemente, αu + βu′ ∈ U para todo u, u′ ∈ U y todo α, β ∈ K.

Notese que el vector cero de V está en U ya que como U = ∅ existe


u ∈ U y 0u = 0 ∈ U. Además, U es un espacio vectorial con las mismas
operaciones que V y también con el mismo neutro para la operacion +.

Ejemplos.

1. {0} y V son subespacios de V y se llaman subespacios triviales.


2. U = {(x, 0, y)/x, y ∈ R} es un subespacio de R3 .
3. U = {(x, y, z) ∈ R3 /x + y = 1} no es un subespacio de R3 .

4. U = {(x, y, z) ∈ R3 /x + y = 0, x + 2y + z = 0} es un subespacio de R3 .
5. U = {A ∈ Mn (K)/A es diagonal} es un subespacio de Mn (K).
6. El conjunto de las soluciones de un sistema homogéneo, de m ecuaciones
con n incognitas con coeficientes en K, es un subespacio de K n .

44
Proposición. Si U y W son subespacios vectoriales de V , entonces U ∩ W
es un subespacio de V pero U ∪ W no lo es en general.
Demostración.
U ∩ W = ∅ ya que 0 ∈ U ∩ W . También se verifica que:

1. u, w ∈ U ∩ W ⇔ u, w ∈ U y u, w ∈ W ⇒ u + w ∈ U y u + w ∈ W ⇔
u + w ∈ U ∩ W.

2. u ∈ U ∩ W y α ∈ K ⇔ u ∈ U y u ∈ W y α ∈ K ⇒ αu ∈ U y
αu ∈ W ⇔ αu ∈ U ∩ W.

Por otra parte, si V = R2 , U = {(x, 0)/ x ∈ R} y W = {(0, y)/ y ∈ R},


como (1, 0) ∈ U , (0, 1) ∈ W y (1, 0) + (0, 1) = (1, 1) ∈
/ U ∪ W , se tiene que
U ∪ W no es un subespacio de V.

Sistema de generadores. Independencia lineal


Definición. Sea S un subconjunto no vacio de V. Una combinacion lineal
de elementos de S es un vector de V de la forma v = α1 v1 + · · · + αn vn con
α1 , · · · , αn ∈ K y v1 , · · · , vn ∈ S.

Ejemplos.

1. En R2 el vector (3, 7) es combinacion lineal de los vectores (1, 1), (1, 0) y


(0, 5) ya que (3, 7) = 2(1, 1) + 1(1, 0) + 1(0, 5) = 7(1, 1) − 4(1, 0).

En este ejemplo, se observa que la forma de expresar un vector como


combinacion lineal de un conjunto de generadores no es única.

2. El vector (1, 1, 1) ∈ R3 es combinacion lineal de los vectores (1, 1, 0),


(0, 1, 1) y (1, 0, 1). En efecto,

 α +γ = 1
(1, 1, 1) = α(1, 1, 0) + β(0, 1, 1) + γ(1, 0, 1) ⇔ α +β =1

β +γ = 1
Aplicando el método de Gauss,
   
1 0 1 1 1 0 1 1
 1 1 0 1 − −−−→  0 1 −1 0 
F2 −F1
0 1 1 1 0 1 1 1

45
   
1 0 1 1 1 0 1 1
−−−−→  0 1 −1 0  −
1
−→  0 1 −1 0 ,
F3 −F2 F
2 3 1
0 0 2 1 0 0 1 2

1 1 1
obtenemos que la única solución del sistema es ( , , ) y que (1, 1, 1) =
2 2 2
1 1 1
(1, 1, 0) + (0, 1, 1) + (1, 0, 1).
2 2 2
Definición. Sea S un subconjunto no vacio de V . Se dice que S es un
conjunto de generadores de V si todo vector de V se puede expresar como
combinación lineal de elementos de S.

Proposición. Si S es un subconjunto no vacio de V , el conjunto de las


combinaciones lineales de elementos de S, {α1 v1 + · · · + αn vn / α1 , · · · , αn ∈
K y v1 , · · · , vn ∈ S}, es un subespacio de V llamado subespacio generado
por S, y se denota por S. Además, S es el menor subespacio de V que
contiene a S.
Si V = S entonces S es un conjunto de generadores de V.

Notación. Si S = {v1 , · · · , vn }, usaremos la notación v1 , · · · , vn  en lugar


de {v1 , · · · , vn } .

Ejemplo.
{(x, y, z) ∈ R3 / x = y} = {x(1, 1, 0)+z(0, 0, 1)/ x, z ∈ R} = (1, 1, 0), (0, 0, 1) .

Observación.
Si S y S ′ son subconjuntos no vacios de V
 
 S ⊂ S ′   S ⊂ S ′ 

S = S  ⇔ y ⇔ y
 ′  ′
S  ⊂ S S ⊂ S

En particular, si S ⊂ V y v ∈ V se verifica que:

S = S ∪ {v} ⇔ v ∈ S .

Como consecuencia, en un conjunto de generadores S se puede eliminar


un vector v si, y solo si, v es combinación lineal de los demás elementos de
S. Es decir, si v ∈ S y S\{v} es no vacio,

46
S = S\{v} ⇔ v ∈ S\{v} .

Lema. Sea S = {v1 , · · · , vn } ⊂ V. Se verifica que:

i) v1 , · · · , vi , · · · , vj , · · · , vn  = v1 , · · · , vj , · · · , vi , · · · , vn  .
ii) v1 , · · · , vi , · · · , vn  = v1 , · · · , αvi , · · · , vn  con α ∈ K y α = 0.
iii) v1 , · · · , vi , · · · , vj , · · · , vn  = v1 , · · · , vi + βvj , · · · , vj , · · · , vn  con β ∈
K e i = j.

Definición. Si U y W son subespacios de V , se define el subespacio suma


de U y W como U + W := {u + w/u ∈ U y w ∈ W }.

Nótese que:
a) U + W = U ∪ W  y, por tanto, es el menor subespacio de V que
contiene a U y a W.
b) Si U = S y W = S ′  , entonces U + W = S ∪ S ′  .

Definición. Un subconjunto no vacio S de V se dice que es linealmante


independiente si:
[α1 v1 +· · ·+αn vn = 0, αi ∈ K y vi ∈ S] ⇒ αi = 0 para todo i = 1, · · · , n,
es decir, la única combinación lineal de vectores de S que es igual a cero es
la trivial.
En otro caso, se dice que S es linealmente dependiente, es decir, existe
una combinación lineal de vectores de S igualada a cero con algún coeficiente
distinto de cero.

Ejemplos.
   
2 1 3 0 1 0
1. S = , , ⊂ M2 (R) es un conjunto linealmente
0 1 2 1 2 0
independiente. En efecto:
   
2 1 3 0 1 0 0 0
α1 + α2 + α3 = ⇔
0 1 2 1 2 0 0 0


 2α1 + 3α2 + α3 = 0

α1 =0
⇔ α1 = α2 = α3 = 0.

 2α2 + 2α3 = 0

α1 + α2 =0

47
2. {(1, 1, 1), (0, 1, 1), (0, 0, 7)} es un subconjunto de R3 linealmente indepen-
diente.

Observaciones.

1. Si S = {u} ⊂ V ,

S es linealmente independiente ⇔ u = 0,

ya que αu = 0 ⇔ α = 0 o u = 0.

2. Todo conjunto que contenga el vector 0 es linealmente dependiente.


3. El conjunto S = {u, v} ⊂ V con u = 0 y v = 0, es linealmente dependi-
ente si, y solo si, existe α ∈ K tal que u = αv.
4. Sean S1 y S2 subconjuntos no vacios de V tales que S1 ⊂ S2 .

a) S1 linealmente dependiente ⇒ S2 linealmente dependiente.


b) S2 linealmente independiente ⇒ S1 linealmente independiente.

5. Un subconjunto no vacio S de V es linealmente dependiente si, y solo si,


existe un v ∈ S tal que v ∈ S\{v} .

Veamos ahora en que condiciones un conjunto linealmente independiente


puede ser ampliado a otro que también lo sea.
Proposición. Sea S = ∅ un subconjunto de V linealmente independiente
y v ∈ V, v ∈
/ S.

/ S ⇔ S ∪ {v} es linealmente independiente.


v∈

Demostración.
"⇒" Sea αv+α1 u1 +· · ·+αn un = 0 con α, α1 , · · · , αn ∈ K y u1 , · · · , un ∈
S. Como v ∈ / S se tiene que α = 0 y, como además S es linealmente
independiente, αi = 0 para i = 1, · · · , n.
"⇐" Trivial ya que si v perteneciese a S, S ∪ {v} sería linealmente
dependiente.

Nótese que, como consecuencia de la proposición anterior, las filas de una


matriz escalonada A de orden m×n son vectores linealmente independientes
de K n .

48
Bases y dimensión
Introducimos a continuación el concepto de base que es esencial en el estudio
de los espacios vectoriales. Trataremos, únicamente, el caso de espacios
vectoriales finitamente generados, aunque los resultados son válidos para
espacios vectoriales generales.

Definición. Un subconjunto ordenado B de V es una base de V si:

1. B es un conjunto generador de V.

2. B es linealmente independiente.

Ejemplos.

1. En K n , como K-espacio vectorial, el conjunto C = {e1 = (1, 0, · · · , 0), e2 =


(0, 1, · · · , 0), · · · , en = (0, 0, · · · , 1)} es una base de K n y se llama base
canónica.

2. Si A ∈ Mn (K) es una matriz no singular, tanto el subconjunto de K n


formado por las columnas de A, como el formado por las filas de A,
son bases de K n ya que cualquier sistema de la forma AX = B o
At X = B tiene una única solución.

3. El conjunto {(1, 0, 3), (0, 1, 7), (0, 0, 1)} es una base de R3 y, sin embargo,
{(1, 0, 3), (0, 1, 7), (0, 0, 1), (1, 1, 1)} no lo es puesto que es un conjunto
linealmente dependiente.

4. En P3 (R) el conjunto {1, x, x2 , x3 } es una base.

Definición. Se dice que V es finitamente generado si existe un subconjunto


finito S de V tal que S = V.

Teorema. Sea B = {v1 , · · · , vn } un subconjunto de V. Son equivalentes:

1. B es una base de V.

2. Cualquier vector de V se escribe de modo único como combinación lineal


de vectores de B.

49
Demostración.
2) ⇒ 1) Por hipótesis B = V. Además, B es linealmente independiente
ya que si α1 v1 +· · · + αn vn = 0 = 0v1 + · · · + 0vn , de la hipótesis de unicidad,
se sigue que αi = 0 para i = 1, · · · , n.
1) ⇒ 2) Si α1 v1 + · · · + αn vn = β 1 v1 + · · · + β n vn , entonces (α1 −
β 1 )v1 + · · · + (αn − β n )vn = 0 y, teniendo en cuenta que B es linealmente
independiente, se tiene que αi = β i para i = 1, · · · , n.

Definición. Si B = {v1 , · · · , vn } es una base de V y v = α1 v1 + · · · + αn vn


se llaman coordenadas de v en la base B a:

(α1 , · · · , αn ) ∈ K n .

Ejemplo. Determinar las coordenadas de (2, 3, 5) ∈ R3 y de (1, 3, 6) ∈ R3


en la base B = {(0, 1, 3), (0, 2, 7), (2, 3, 5)}.

(2, 3, 5) = 0(0, 1, 3) + 0(0, 2, 7) + 1(2, 3, 5) ⇔ Las coordenadas del vector


(2, 3, 5) en la base B son (0, 0, 1).

Por otra parte,

(1, 3, 6) = α(0, 1, 3) + β(0, 2, 7) + γ(2, 3, 5)

 
 2γ = 1  α + 2β + 3γ = 3
1 7
α + 2β + 3γ = 3 ⇔ β − 4γ = −3 ⇔ γ = , β = −1, α =
  1 2 2
3α + 7β + 5γ = 6 γ= 2
7 1
es decir, las coordenadas del vector (1, 3, 6) en la base B son ( , −1, ).
2 2
Teorema de existencia de base. Sea V = {0} un espacio vectorial con
un conjunto finito de generadores S. Existe un subconjunto B de S que es
una base de V.
Demostración.
Nótese que, ya que V = {0}, todo conjunto de generadores de V tiene
al menos un vector distinto de 0.
Si S es linealmente independiente ya es una base.
En caso contrario, existe v ∈ S que es combinación lineal de los restantes
y S = S\{v} .

50
Si este nuevo conjunto de generadores es linealmente independiente ya
es una base de V . En otro caso, existe v′ ∈ S\{v} tal que es combinación
lineal de los vectores de S\{v} y S\{v} = S\{v, v′ } .
Repitiendo el proceso, tantas veces como sea necesario, se llega a un
sistema de generadores linealmente independiente ya que, en el caso mas
desfavorable, encontraríamos un conjunto generador con un único vector
que al ser distinto de 0 ya sería linealmente independiente.

Ejercicio.
Sea U el subespacio de R4 generado por S = {v1 = (1, 1, 0, 0), v2 =
(0, 1, 0, 0), v3 = (−1, −1, 0, 0), v4 = (1, 2, 0, 0), v5 = (0, 2, 3, 3)}. Encontrar
una base de U.
S = v1 , v2 , v4 , v5  = v1 , v2 , v5 .
v3 =−v1 v4 =v1 +v2

El conjunto S = {v1 , v2 , v5 } es linealmente independiente y por tanto


base de U.

Acabamos de ver que un espacio vectorial, V , finitamente generado y


distinto de {0} tiene una base finita. De hecho puede tener más de una base,
por ejemplo en R2 , C = {e1 , e2 } y B = {(1, 1), (2, 3)} son bases. Nuestro
siguiente objetivo es demostrar que todas las bases de V tienen el mismo
número de elementos.

Teorema. Sea B = {v1 , · · · , vn } una base de V. Todo subconjunto de V con


más de n elementos es linealmente dependiente.
Demostración.
Sea S= {u1 , · · · , um } ⊂ V con m > n y α1 u1 + · · · + αm um = 0 con
αj ∈ K para j = 1, · · · , m.
Como B = {v1 , · · · , vn } es una base de V, cada uj es combinación lineal
de elementos de B, es decir, para cada j = 1, · · · , m existen cij ∈ K tales
que uj = c1j v1 + · · · + cnj vn . Entonces,

0 = α1 (c11 v1 + · · · + cn1 vn ) + · · · + αm (c1m v1 + · · · + cnm vn ) =


(α1 c11 + α2 c12 + · · · + αm c1m )v1 + · · · + (α1 cn1 + α2 cn2 + · · · + αm cnm )vn

y como B es base, se tiene



 α1 c11 + α2 c12 + · · · + αm c1m = 0
···

α1 cn1 + α2 cn2 + · · · + αm cnm = 0

51
Este sistema es homogéneo, por tanto compatible, y como el número de
incógnitas, m, es mayor que el de ecuaciones, n, tiene solución no trivial y
en consecuencia S es linealmente dependiente.

Teorema. Si V tiene una base con n elementos, toda base de V tiene


también n elementos.
Demostración.
Sean B = {v1 , · · · , vn } y B′ bases de V.
En primer lugar, hacemos notar que B′ es un conjunto finito; en caso con-
trario, cualquier subconjunto de B′ con más de n elementos sería linealmente
dependiente, en contradición con la definición de base.
Si B′ = {u1 , · · · , um }, teniendo en cuenta que B es base y B′ linealmente
independiente, se tiene que m ≤ n y también, puesto que B′ es base y B un
conjunto linealmente independiente, se obtiene que n ≤ m.

Definición. Si V es un espacio vectorial finitamente generado y V = {0}, al


número de elementos de cualquiera de sus bases se le llama dimesión de V ,
y escribiremos dimK (V ) o dim(V ). Por convenio se admite que dim{0} = 0.

Ejemplos.

1. dimK (K) = 1 y dimK (K n ) = n.

2. dimR (Mm×n (R)) = mn.

3. W = {(a, b, −b, a)/a, b ∈ R} = {a(1, 0, 0, 1) + b(0, 1, −1, 0)/a, b ∈ R} =


(1, 0, 0, 1), (0, 1, −1, 0) es un subespacio de R4 con dimR (W ) = 2.

4. W = {(x, y, z, t) ∈ R4 /x + y − z + t = 0, y + 2t = 0} =
 
(x, y, z, t) ∈ R4 /x = z + t, y = −2t = {(z + t, −2t, z, t)/z, t ∈ R} =
{z(1, 0, 1, 0) + t(1, −2, 0, 1)/z, t ∈ R} = (1, 0, 1, 0), (1, −2, 0, 1) . Por
tanto, W es un subespacio de R4 con dimR (W ) = 2.

Teorema. Si V es un espacio vectorial y dim(V ) = n = 0. Se verifica:

1. Si S es un subconjunto de V linealmente independiente con n elementos,


entonces S es una base de V.

2. Si S es un conjunto de generadores de V con n elementos, entonces S es


una base de V.

52
Demostración.
1) Veamos que V = S. En efecto:
Dado v ∈ V , si v ∈
/ S , sabemos que S ∪ {v} es un conjunto linealmente
independiente con n + 1 elementos, en contradicción con el teorema visto
antes.
2) Si S es linealmente dependiente se probó, en el teorema de existencia
de base, que existe un subconjunto B de S de m elementos que es una base
con m < n, lo que contradice que dim(V ) = n.

Teorema. Sea B = {v1 , · · · , vn } una base de V. Si S= {u1 , · · · , us } es


un subconjunto de V linealmente independiente, entonces s ≤ n y existen
vi1 , · · · , vin−s ∈ B tales que el conjunto {u1 , · · · , us , vi1 , · · · , vin−s } es una
base de V. Es decir, todo subconjunto de V linealmente independiente se
puede ampliar a una base.
Demostración.
Sabemos que todo conjunto con más de n elementos es linealmente de-
pendiente y por tanto s ≤ n.
Si s < n entonces S no puede ser base y u1 , · · · , us   v1 , · · · , vn  =
V. Así, existirá vi1 ∈ {v1 , · · · , vn } tal que vi1 ∈ / u1 , · · · , us  y entonces
{u1 , · · · , us , vi1 } es un conjunto linealmente independiente con s + 1 elemen-
tos. Repitiendo el proceso n − s veces se tiene el resultado.

Ejemplo.
Sea S={u1 = (1, 1, 1, 1), u2 = (1, 2, 3, 4)} ⊂ R4 . Veamos como se puede
ampliar S a una base de R4 .
Sabemos que u1 , u2  = (1, 1, 1, 1), (0, 1, 2, 3).
u2 −u1
Además, S ′ = {(1, 1, 1, 1), (0, 1, 2, 3), (0, 0, 1, 0), (0, 0, 0, 1)} es un conjunto
de 4 vectores escalonados y por tanto linealmente independientes. Así, R4 =
S ′  . Como,

S ′  = (1, 1, 1, 1), (1, 2, 3, 4), (0, 0, 1, 0), (0, 0, 0, 1)

se obtiene que {(1, 1, 1, 1), (1, 2, 3, 4), (0, 0, 1, 0), (0, 0, 0, 1)} es una base de
R4 .

Proposición. Sea V un espacio vectorial de dimensión finita n y U un


subespacio de V. Se verifica que:

1. dim(U ) ≤ dim(V ).

53
2. dim(U ) = dim(V ) ⇔ U = V.

Demostración.
1) Suponemos conocido que todo espacio vectorial tiene una base. Si
U es un subespacio de V, todo subconjunto de U linealmente independiente
tendrá a lo sumo n vectores porque dim(V ) = n y entonces dim(U ) ≤ n.
(Otra dem.) Si U = {0} es trivial. En otro caso, existe u1 ∈ U, u1 = 0 y
el conjunto {u1 } es linealmente independiente. Si este conjunto generase U
ya estaría. En caso contrario, existirá algún u2 ∈ U, u2 ∈
/ u1  y entonces el
conjunto {u1 , u2 } ⊂ U será de nuevo linealmente independiente. Repitiendo
el proceso y teniendo en cuenta que en V no hay subconjuntos independientes
de más de n elementos, encontraremos una base de U con a lo sumo n
elementos.
2) Si dim(U ) = dim(V ) = n, entonces U tiene una base de n elementos.
Como sabemos que todo subconjunto de V linealmente independiente y con
n elementos es base, se obtiene que U = V, y la base de U lo es también de
V.

Proposición. Fórmula de Grassman. Sea V un espacio vectorial de


dimensión finita n y U y W subespacios de V . Entonces,

dim(U ) + dim(W ) = dim(U + W ) + dim(U ∩ W ).

Demostración.
Sea BU = {u1 , · · · , us } una base de U y BW = {w1 , · · · , wr } una base de
W.
Sabemos que si BU ∩W = {v1 , · · · , vt } es una base de U ∩W , entonces 0 ≤
t ≤ min{r, s} y, como BU ∩W es un subconjunto linealmente independiente
tanto de U como de W , existen ui1 , · · · , uis−t elementos de U y wi1 , · · · , wir−t
elementos de W de modo que B1 = {v1 , · · · , vt , ui1 , · · · , uis−t } es una base
de U y B2 = {v1 , · · · , vt , wi1 , · · · , wir−t } es una base de W.
Como
 
U + W = v1 , · · · , vt , ui1 , · · · , uis−t , wi1 , · · · , wir−t ,

para obtener el resultado, es suficiente comprobar que el conjunto B =


{v1 , · · · , vt , ui1 , · · · , uis−t , wi1 , · · · , wir−t } es linealmente independiente y, por
lo tanto, una base de U + W.

54
Rango de una matriz
Vamos a demostrar que el espacio vectorial generado por las filas de una
matriz tiene la misma dimensión que el espacio vectorial generado por las
columnas de la matriz y esto nos permitirá definir el rango de la matriz.
Si A ∈ Mm×n (K) se tiene que F1 (A), · · · , Fm (A) es un subespacio de
K n y C1 (A), · · · , Cn (A) es un subespacio de Mm×1 (K).

Proposición. Si A, B ∈ Mm×n (K) son matrices equivalentes por filas,


entonces

F1 (A), · · · , Fm (A) = F1 (B), · · · , Fm (B) .

Demostración.
Como consecuencia de un Lema anterior, cada operación elemental que
se hace en las filas de una matriz deja invariante el espacio vectorial generado
por sus filas.

Corolario. Si A ∈ Mm×n (K), se tiene que:

rf (A) = dim(F1 (A), · · · , Fm (A)).

Demostración.
A es equivalentes por filas a una matriz escalonada, B. Por definición,
rf (A) = no de pivotes de B, es decir, la dimensión de F1 (B), · · · , Fm (B)
y, por la proposición anterior, dim(F1 (A), · · · , Fm (A)).

Corolario. Si A, B ∈ Mm×n (K) son matrices equivalentes por filas, en-


tonces

rf (A) = rf (B).

Definición. Si A ∈ Mm×n (K) se define rango por columnas de A, y se


denota por rc (A), como dim(C1 (A), · · · , Cn (A)).

Nótese que si A, B ∈ Mm×n (K) son matrices equivalentes por columnas


entonces rc (A) = rc (B).

Proposición. Si B ∈ Mm×n (K) es una matriz escalonada reducida con s


pivotes, entonces

rf (B) = s = rc (B).

55
Demostración.
Si B es una matriz escalonada reducida, B es equivalente por columnas
a una matriz de la forma:

Is B ′
∈ Mm×n (K)
0 0

Es claro que las n − s últimas columnas son combinación lineal de las


s primeras y, como estas son linealmente independientes y las columnas de
esta matriz generan el mismo espacio que las de B, se tiene que rf (B) =
s = rc (B).

Proposición. Si A, B ∈ Mm×n (K) son matrices equivalentes por filas,


entonces

rc (A) = rc (B).

Demostración.
Puesto que los sistemas AX = 0 y BX = 0 tienen las mismas soluciones,
se tiene que:
α1 C1 (A) + · · · + αn Cn (A) = 0 ⇔ (α1 , · · · , αn ) es solución de AX = 0 ⇔
(α1 , · · · , αn ) es solución de BX = 0 ⇔ α1 C1 (B) + · · · + αn Cn (B) = 0.
Es decir, las columnas de A y de B verifican las mismas condiciones de
dependencia lineal y como consecuencia rc (A) = rc (B).

Corolario. Si A ∈ Mm×n (K), entonces

rf (A) = rc (A).

Demostración.
Sabemos que A es equivalente por filas a una matriz B escalonada re-
ducida. Entonces

rf (A) = rf (B) = número de pivotes de B = rc (B) = rc (A).

Definición. Si A ∈ Mm×n (K) se define rango de A como rango por filas


de A o el rango por columnas de A y se denotará por r(A).

Proposición. Sea A ∈ Mn (K), entonces

r(A) = n ⇔ det(A) = 0.

56
Demostración.
r(A) = n ⇔ rf (A) = n ⇔ A es equivalente por filas a In ⇔ A es no
singular ⇔ det(A) = 0.
Otra dem.
det(A) = 0 ⇔ A es no singular ⇔ El sistema homogéneo AX = 0 tiene
solución única ⇔ La única relación de dependencia lineal entre las colum-
nas de A es la trivial ⇔ {C1 (A), · · · , Cn (A)} es un conjunto linealmente
independiente ⇔ r(A) = n.

Otro método para el cálculo del rango


Vamos a dar un método para calcular el rango de una matriz en el que no
se utilizan transformaciones elementales.
Sea A = (aij ) ∈ Mm×n (K).
Llamaremos un menor de orden p de la matriz A al determinante de una
submatriz de orden p de A. Es decir, det(Ap ),
 
ai1 j1 · · · ai1 jp
en donde Ap =  · · · · · · · · ·  siendo i1 , · · · , ip (respect. j1 , · · · , jp )
aip j1 · · · aip jp
las filas (respect. las columnas) no suprimidas de A.
Algoritmo del cálculo del rango:
Se toma un menor de orden p no nulo, ∆p = det(Ap ) = 0, se forman
todos los menores de orden p + 1 que resultan de orlar Ap con una fila fija
Fi (A), con i ∈
/ {i1 , · · · , ip } , y con cualquiera de las restantes columnas. Si
todos estos menores son nulos se suprime la fila Fi (A) y se procede con otra
hasta que:
1) Se encuentre un menor de orden p + 1 no nulo con el que repetiríamos
el proceso, o
2) Todos los menores de orden p + 1 son nulos, con lo que el rango de A
sería p.
Explicación:
A tiene un menor de orden p no nulo, ∆p = det(Ap ) = 0, si, y solo si, las
p columnas de Ap son linealmente independientes. En este caso la matriz
formada por las filas i1 , · · · , ip de A (respect. la matriz formada por las
columnas j1 , · · · , jp de A) tiene rango p ya que tiene p columnas (respect.
p filas) linealmente independientes y su número de filas (respect. columnas)
es p. Por tanto r(A) = rf (A) ≥ p.

57
Si r(A) > p, como las filas i1 , · · · , ip de A son linealmente independientes
existirá un k ∈
/ {i1 , · · · , ip } de modo que {Fi1 (A), · · · , Fip (A), Fk (A)} es un
conjunto linealmente independiente. Entonces
 
Fi1 (A)
 ... 
r 
 Fip (A)  = p + 1
Fk (A)

Como en la matriz anterior, que es de rango p+1, las columnas j1 , · · · , jp


son linealmente independientes existirá un s ∈ / {j1 , · · · , jp } tal que las colum-
nas j1 , · · · , jp , s sean linealmente independientes. Así, la matriz obtenida
orlando Ap con la fila k y la columna s, es de orden p + 1 y de determinante
distinto de cero. Es decir, existe un menor de orden p + 1 no nulo obtenido
orlando Ap .

Teorema de Rouche-Frobenius
Teorema. Sea A ∈ Mm×n (K) y AX = B un sistema de ecuaciones lineales.
Se verifica que:

1. El sistema es compatible si, y solo si, r(A) = r(A|B).

2. Si el sistema es compatible y r(A) = r(A|B) = r ≤ n, se tiene que es


compatible determinado si, y solo si, r = n.

Demostración.
1) Como, AX = B ⇔ C1 (A)x1 + · · · + Cn (A)xn = B, se tiene:
AX = B es compatible ⇔ B ∈ C1 (A), · · · , Cn (A) ⇔
C1 (A), · · · , Cn (A) = B, C1 (A), · · · , Cn (A) ⇔
r(A) = dim C1 (A), · · · , Cn (A) = dim B, C1 (A), · · · , Cn (A) =
r(A|B).
2) Si r(A) = r(A|B) = r < n entonces el conjunto {C1 (A), · · · , Cn (A)}
es linealmente dependiente, es decir existen escalares α1 , · · · , αn no to-
dos cero tal que α1 C1 (A) + · · · + αn Cn (A) = (0) ((α1 , · · · , αn ) es solu-
ción no trivial del sistema homogéneo AX = (0)). Es inmediato com-
probar que si (β 1 , · · · , β n ) es una solución de AX = B también lo es
(α1 + β 1 , · · · , αn + β n ) y por tanto el sistema tiene más de una solución.
Recíprocamente, si (α1 , · · · , αn ) y (β 1 , · · · , β n ) son dos soluciones distin-
tas de AX = B, tenemos que (α1 − β 1 ) C1 (A) + · · · + (αn − β n )Cn (A) = (0)

58
y ya que existe algún i para el cual αi − β i = 0, se sigue que el conjunto
{C1 (A), · · · , Cn (A)} es linealmente dependiente y r(A) < n.

Corolario. Sea AX = B un sistema de ecuaciones lineales compatible. Si


α es una solución del sistema, entonces β es una solución del sistema si, y
solo si, α − β es solución del sistema homogéneo AX = (0).

Ecuaciones de un subespacio
Sea U un subespacio de K n , B = { (a11 , · · · , a1n ) , · · · , (as1 , · · · , asn )} una
base de U y u = (x1 , · · · , xn ) ∈ K n .
u = (x1 , · · · , xn ) ∈ U ⇔ { (a11 , · · · , a1n ) , · · · , (as1 , · · · , asn ) , (x1 , · · · , xn )}
es
 
a11 · · · a1n
· · · · · · · · · 
un conjunto linealmente dependiente ⇔ r  as1 · · · asn  = s ⇔ Escogido

x1 · · · xn
un menor no nulo de orden s de la matriz A = (aij ), det(As ) = 0, los
determinantes de las matrices de orden s +1 obtenidas orlando As son todos
cero.

Ejercicio.
Calcular las ecuaciones de los siguientes subespacios de R4 :
1. U = (1, 2, 3, 4), (0, 1, 2, 0), (0, 1, 1, 1)
 
1 2 3 4

0 1 2 0
(x, y, z, t) ∈ U ⇔  = 0 ⇔ −3x − 2y + z + t = 0.
0 1 1 1
x y z t

2. W = (1, 1, 1, 0), (0, 1, 1, 1)


   
1 1 1 0  1 1 1
 
(x, y, z, t) ∈ W ⇔ r 0 1 1 1 = 3 ⇔ 0 1 1 = 0 y
x y z t x y z 
 
 1 1 0 
  −y + z = 0
 0 1 1 = 0 ⇔
  x−y+t=0
x y t 
o bien, como

59
   
1 1 1 0 1 1 1 0
0 1 1 1 −→ 0 1 1 1  se tiene,
F3 −xF1
x y z t F3 −(y−x)F2 0 0 z − y t − y + x
   
1 1 1 0 1 1 1 0 
−y + z = 0
r 0 1 1 1  = r 0 1 1 1 = 3 ⇔
x−y+t=0
0 0 z−y t−y+x x y z t

Ejercicios

1.- Probar que el grupo abeliano (R2 , +) no admite estructura de espacio


vectorial para las siguientes multiplicaciones por escalares:

a) α(x, y) = (αx, αy2 ) para todo (x, y) ∈ R2 y α ∈ R.

b) α(x, y) = (αy, αx) para todo (x, y) ∈ R2 y α ∈ R.

c) α(x, y) = (0, αy) para todo (x, y) ∈ R2 y α ∈ R.

2.- Sea V un K-espacio vectorial, α ∈ K y v ∈ V. Probar que

(−α)v = −(αv) = α(−v).

3.- Determinar cuales de los siguientes subconjuntos de R4 son subespacios:

a) U1 = {(a, b, c, d) ∈ R4 /a + b = 0, c − d = 0}.

b) U2 = {(a + 2b, 0, 2a, a + b))/a, b ∈ R}.

c) U3 = {(a, b, c, d) ∈ R4 /a2 + b2 > 0}.

d) U4 = {(a, b, c, d) ∈ R4 /a = 1}.

e) U5 = {(a, b, c, d) ∈ R4 /a2 + b2 = 0}.

f ) U6 = {(a, b, c, d) ∈ R4 /a2 + b2 = 7}.

h) U7 = {(a, b, c, d) ∈ R4 /c ∈ Z}.

60
4.- Sea S = {(1, 1, 0), (0, 1, 2)} ⊂ R3 ¿Alguno de los vectores u = (3, 5, 4),
v = (2, 4, 7) pertenece al subespacio S?

5.- Sea F = {(x, y, z) ∈ R3 /2x − y − 3z = 0}, u = (3 + β, 6, 1 + α) y


v = (1 − β, 2, 3 + 2α) dos vectores de R3 ¿Para qué valores de α y β se tiene
que u, v ∈ F ?

7.- Determinar para que valores de a ∈ R se verifica que:

a) (1, −1, a) ∈ (1, 1, 1), (0, 1, 2) .

b) (1, 0, −6) ∈ (1, 1, 1), (1, 2, a + 1) .

c) (0, 2, a) es combinación lineal de los vectores (4, 0, 5) y (2, a, 3).

8.- Se consideran los subespacios de R3


 
U1 = (a, b, c) ∈ R3 /a + b − 2c = 0 y U2 = (1, 1, 1)

Demostrar que U2  U1 .

9.- Se consideran los subespacios de R3

U1 = {(a, b, c) ∈ R3 /a − b − 3c = 0} y U2 = (2, 2, 0), (4, 1, 1)

Demostrar que U1 = U2 .

10.- Sea V un K-espacio vectorial y v1 , v2 , v3 ∈ V tales que α1 v1 + α2 v2 +


α3 v3 = 0, con α2 α3 = 0. Probar que v1 , v2  = v1 , v3  .

11.- Sea K = Z2 = {0, 1} el cuerpo de 2 elementos y U un subconjunto no


vacio de K n . Probar que:

U es subespacio vectorial de K n ⇔ u + v ∈ U, ∀u, v ∈ U.

12.- Probar que el espacio vectorial U = {(a, b, c) ∈ R3 /a + 2b − c = 0} está


generado por los vectores u1 = (1, 0, 1) y u2 = (0, 1, 2) y que también está
generado por los vectores v1 = (2, −1, 0) y v2 = (−1, 1, 1).

13.- Comprobar que los vectores de R4 , u1 = (1, 0, −2, 5) , u2 = (2, 1, −1, 4)


y u3 = (−1, 2, 0, 2) , son linealmente independientes.

61
14.- Hallar c y d ∈ R para que el vector (1, 1, c, d) pertenezca al subespacio
vectorial de R4 generado por los vectores (1, 2, −1, 2) , (1, 3, 0, 2) y (0, 1, 0, 1) .

15.- Se consideran, los subespacios de R4 ,

G = (3, 0, 2, 2), (0, 0, 0, 5) y


F = (1, 0, 1, −1), (1, 2, 3, 1), (0, 1, 1, 1), (2, 4, 6, 3), (1, 0, 1, 0) .

Hallar un conjunto de vectores escalonados que también genere F y pro-


bar que G ⊂ F.

16.- Sean u, v y w tres vectores linealmente independientes de R5 . Demostrar


que los vectores u + v, u − v y u − 2v + w también son linealmente indepen-
dientes.

17.- Sea V un K-espacio vectorial y {u1 , · · · , u4 } un conjunto de vec-


tores de V linealmente independiente. Probar que el conjunto de vec-
tores {v1 , · · · , v4 } , donde v1 = u1 , v2 = u1 − u2 , v3 = u1 − u2 − u3 , v4 =
u1 − u2 − u3 − u4 , es linealmente independiente.

18.- Calcular para que valores de a son linealmente independientes los vec-
tores:

a) (1, a, 0, −1), (1, a, a − 2, a − 3), (0, 1, 2a − 2, a) ∈ R4 .

b) (1, 1, 1), (1, 1 + a2 , 1 + a), (1, 1 + a2 , 2a) ∈ R3 .

19.- Sea V un K-espacio vectorial y v1 , v2 , v3 ∈ V tales que α1 v1 + α2 v2 +


α3 v3 = 0, con α2 α3 = 0. Probar que v1 , v2  = v1 , v3  .

20.- Sea V un K-espacio vectorial y u, v, w ∈ V. Razonar si son verdaderas


o falsas las siguientes afirmaciones :

a) Si u ∈ v, w , entonces u y w son linealmente dependientes.

b) u, v, w = u, u + v, u + w .

c) Si u ∈
/ v, w , entonces u y w son linealmente independientes.

d) Si u ∈
/ v, w , entonces u, v y w son linealmente independientes.

62
e) Los vectores u − v, v − w y w − u son linealmente dependientes.

f ) Si w = u + v, entonces u, v = u, w .

g) Si u, v, w son linealmente dependientes, entonces u, v también son lineal-


mente dependientes.

h) Si u y v son linealmente independientes, w ∈


/ u y w ∈
/ v , entonces
u, v y w son linealmente independientes.

i) Si u y v son linealmente independientes, entonces u + v y u − v son


linealmente independientes.

j) Si u y v son linealmente independientes, la ecuación αu+βv+γ(u+v) = 0


solo tiene la solución α = β = γ = 0.

k) Se verifica que dim u, v = dim u + dim v .

l) Si u y v son linealmente independientes y α ∈ K\ {0} , entonces αu y v


son linealmente independientes.

21.- Sean u, v y w tres vectores linealmente independientes de un K-espacio


vectorial. ¿Cuáles de las siguientes afirmaciones son falsas?

a) Los vectores u − v, v − w y w − u son linealmente independientes.

b) Los vectores u, u + v y u + w son linealmente independientes.

c) Los vectores u + v, v + w y u + w son linealmente independientes.

d) dim u, v = 2.

22.- Sea V un K-espacio vectorial y sean u1 , u2 , u3 , u4 ∈ V. Demostrar que


las siguientes condiciones son equivalentes:

a) Los vectores u1 , u2 , u3 y u4 son linealmente independientes.

b) Los vectores u1 +u4 , u2 +u4 , u3 +u4 y u4 son linealmente independientes.

23.- Hallar una base para cada uno de los siguientes subespacios de R3 :

a) U1 = {(a, 2a, 4a)/a ∈ R}.

b) U2 = {(a + 2b, −a + b, −a + b))/a, b ∈ R}.

63
c) U3 = {(a, b, c)/a + b − c = 0}.

d) (1, 1, −2), (2, −1, 1), (3, −3, 4), (4, −5, 7) .

24.- Encontrar una base para los siguientes subespacios vectoriales:

a) U = {(x, y, z, t) ∈ R4 /x − y + z − 2t = 0, y + z = 0}.

b) (1, 2, 11, −4), (1, 2, 5, 0), (1, 4, 2, 2) ⊂ R4 .

c) (1, 0, 1, 0), (2, −1, 0, 1) ∩ (1, 0, 1, 0), (4, −1, 2, 1) ⊂ R4 .

25.- Probar que B = {u1 = (−1, 1, 1), u2 = (1, −1, 1), u3 = (1, 2, −1)} es una
base de R3 . Calcular, en esta base, las coordenadas de los vectores de la base
canónica.

26.- Demostrar que los vectores (1, 0, 0, 0), (1, 1, 0, 0), (1, 1, 1, 0) y (1, 1, 1, 1)
son una base de R4 y calcular las coordenadas de (1, 1, 1, 0) y de (5, 3, 6, 1)
en dicha base.

27.- Sabiendo que un vector u ∈ R2 tiene coordenadas (1, β) en la base


B = {(1, 2), (4, −1)} y coordenadas (6, α) en la base B′ = {(1, 1), (1, −1)},
calcular α y β.

28.- Sea S = {(1, 0, 0, 1), (0, 2, 0, 2), (1, 0, 1, 0), (0, 2, 2, 0)} un subconjunto de
R4 . Encontrar una base de S, ampliarla a una base de R4 y calcular las
coordenadas de (1, 1, 1, 1) en dicha base.

29.- Escribir una base de P2 (R) y explicar por qué los siguientes conjuntos
no son base de P2 (R) :

a) {1, 2x, x2 − 1, 5x}.

b) {1 − x, 1 − x2 , 3x2 − 2x − 1}.

30.- Sea {v1 , v2 , v3 } una base de un K-espacio vectorial V . Probar que {v1 ,
v1 + v2 , v1 + v2 + v3 } también es base de V .

31.- Sea U = {(x, y, z, t) ∈ R4 /x − y + z − 2t = 0, y + z = 0}. Hallar una


base para U y ampliarla a una base de R4 .

64
32.- ¿Para que valores de α los vectores (α, 0, 1, −α), (α, 1, 2, 1) y (1, 0, α, α)
generan un subespacio vectorial de R4 de dimensión 2?

33.- Calcular, en función de a ∈ R, la dimensión y una base de los siguientes


subespacios:

a) U1 = (1, a, 0, −a), (0, 1, 1, a), (−1, 0, a, 0), (2, a + 1, −a + 1, 0) ⊂ R4 .

b) U2 = (1 + a, 1 + a, 2), (1, a, 1), (0, 1 − a, a − 1) ⊂ R3 .

34.- Se consideran los subespacios de R3

U = (1, 0, 1), (1, 1, 1) y W = (0, 0, 1), (1, 1, 0) .

Calcular una base, la dimensión y las ecuaciones de los siguientes subespa-


cios: U, W, W ∩ U y W + U.

35.- Se consideran los subespacios de R3

Ua = (1, 2, 1), (1, 2, a + 2), (3, 6, a + 4) y


W = {(x, y, z) ∈ R3 /x − y − z = 0}.

a) Determinar, en función de los valores del parámetro a, la dimensión y


unas ecuaciones del subespacio Ua .

b) Calcular una base de W y ampliarla a una base de R3 .

c) Para a = 0, calcular una base de U0 ∩ W y otra de U0 + W.

36.- Se consideran los subespacios de R4

U = (1, 1, 1, 1), (0, 2, 1, 1) y W = (0, 2, 1, a + 2), (1, 1, 0, 1) .

a) Calcular unas ecuaciones implícitas para U.

b) ¿Para que valores de a la dimensión de U + W es 3?

c) ¿Para que valores de a se tiene que U ∩ W ={(0, 0, 0, 0)}?

37.- Dados los subespacios de R4 :

U = {(a, b, c, d)/ b + c + d = 0} y W = {(a, b, c, d)/ a + b = 0, c = 2d}.

65
Calcular sus dimensiones y dar una base para cada uno de los siguientes
subespacios: U, W, U ∩ W y U + W.

38.- Se consideran los subespacios de R3 :

U = {(a, b, c)/a − b − c = 0} y W = {(a, 0, c)/a, c ∈ R}.

Dar una base para cada uno de los subespacios U, W, U ∩ W y U + W.

39.- En R4 se consideran los subespacios


 
U = (x, y, z, t) ∈ R4 /x − y + 2z − t = 0, y − 2z = 0 y
W =< (0, 0, 1, 1), (1, 0, 1, 2), (2, 0, 3, 5) > .

a) Encontrar una base para cada uno de los subspacios U, W y U + W.

b) Probar que (1, 0, 0, 1) ⊂ U ∩ W.

40.- Encontrar unas ecuaciones implícitas para el subespacio de R3 que tiene


por base {(2, 1, 1), (1, 1, 2)} .

41.- Calcular unas ecuaciones implícitas del subespacio de R4 :

U = (2, 0, 0, 1), (1, 1, 0, 3) .

42.- Hallar una base y unas ecuaciones implícitas para el subespacio de R5


generado por los vectores (1, 1, 1, 1, 1), (1, 1, 1, 1, 0) y (1, 1, 1, 0, 0).

43.- Se consideran los subespacio de R3 :

U1 = {(x, y, z)/x + y + z = 0} y U2 = {(x, y, z) ∈ R3 /2x − y − z = 0}.

a) Calcular una base para U1 .

b) ¿Es U1 ∪ U2 un subespacio de R3 ?

c) Probar que U1 + U2 = R3 .

44.- Sean los subespacios de R4

66
U = {(x, y, z, t)/x + y + 3z − 2t = 0} y
W = (1, 1, 0, 1), (2, 2, −1, 2), (3, 4, 0, 2), (2, 3, −1, 1) .

Calcular bases para U y W. Ampliar la base obtenida para U a una base


de R4 . Encontrar unas ecuaciones implícitas para W y calcular una base
para U ∩ W.

45.- Calcular una base del subespacio de R3

(2, 1, −1), (1, 2, 2) ∩ (−1, 0, 1), (3, 1, 1) .

46.- Se consideran los subespacios de R4

F = (1, −2, 0, a), (0, 1, 2, 5) y G = (−1, 3, 1, 1), (0, 2, 5, 2)

a) ¿Para que valores de a se tiene que dim(F + G) = 3?

b) Determinar para que valores de a se tiene que F ∩ G = {(0, 0, 0, 0)}.

47.- Sean α y β números reales distintos de cero. Se consideran los sube-


spacios de R4

U = (1, 0, 1, 0), (−α, 0, 0, 0) y W = (0, 1, 0, 1), (0, 1/α, −α, 1/β) .

a) Calcular, en función de los valores de α y β, la dimensión del espacio


vectorial U + W.

b) Hallar unas ecuaciones implícitas de U.

c) Calcular para que valores de α y β se tiene que U ∩ W = {(0, 0, 0, 0)}.

d) Para α = β = −1, probar que (5, 2, 3, 2) ∈ U + W.

48.- Sean los subespacios de R4


 
F = (x, y, z, t) ∈ R4 /x + y + 3z − 2t = 0 y
G = (1, 1, 0, 1), (2, 2, −1, 2), (3, 4, 0, 2), (2, 3, −1, 1) .

67
Calcular bases para F y G. Ampliar la base obtenida para F a una base
de R4 . Encontrar unas ecuaciones implícitas para G y calcular una base para
F ∩ G.

49.- Encontrar los valores de a y b en R para que sean linealmente depen-


dientes en R4 los vectores (3, 2, a, 5), (2, −3, 5, a) y (0, 13, b, 7).

50.- En R4 se consideran los subespacios:

U = {(x, y, z, t)/x = y} y W = {(x, y, z, t)/z = t} .

Razonar, dando una demostración o un contraejemplo, si las afirmaciones


siguientes son verdaderas o falsas:

a) R4 = U ⊕ W.

b) U ∩ W = (1, 1, 1, 1) .

/ U, entonces R4 = U + v .
c) Si v ∈

51.- Razonar la verdad o falsedad de las afirmaciones siguientes:

a) Si S1 y S2 son subconjuntos no vacios de R3 tal que S1 ⊂ S2 y S1 es


linealmente independiente entonces también lo es S2 .

b) Si S1 y S2 son subconjuntos no vacios de R3 tal que S1 ⊂ S2 y S1 es


linealmente dependiente entonces también lo es S2 .

c) El subespacio de R3 {(a, a, a)/a ∈ R} tiene dimensión 3.

d) Si {u, v, w} es una base de R3 y t es un vector no cero de R3 , entonces


{u + t, v, w} también es base de R3 .

e) Si U1 y U2 son subespaciosde R3 tal que dimU1 ≤ dimU2 , entonces


U1 ⊂ U2 .

f ) Si u ∈ v, w ⊂ R3 , entonces u y v son linealmente dependientes.

g) Si (x, y, z) ∈ (0, 0, 1), (2, 0, 1) , entonces y = 0 y z = 1.


 
h) La dimensión del subespacio (x, y, z) ∈ R3 /x + y − z = 0 es 1.

68
i) Si S = {v1 , ..., vn } es un conjunto de vectores linealmente indepen-
dientes entonces cualquier subconjunto de S no vacio es linealmente
independiente.

j) Para cualesquiera vectores v, u y w de un espacio vectorial, los vectores


u − v, v − w y w − u son linealmente dependientes.

k) Todos los subconjuntos de S = {(1, 0), (1, 1), (0, 1)}con dos elementos
son base de R2 .

52.- Sea V un K-espacio vectorial. Razonar, dando una demostración o un


contraejemplo, si las afirmaciones siguientes son verdaderas o falsas:

a) Si u, v, w ∈ V , entonces u, v ∩ u, w = u .

b) Si u, v, w, t ∈ V son linealmente independientes, entonces se tiene que


u, v ∩ w, t = {0} .

c) Si u, v, w ∈ V son linealmente independientes y t ∈


/ {u, v, w} , entonces
{u, v, w, t} es linealmente independiente.

53.- Sea U = (1, 1, 0, a), (3, −1, b, −1), (−3, 5, 0, a) un subespacio de R4 .

a) Hallar a y b para que dimU = 2.

b) Para los valores anteriores de a y b, hallar unas ecuaciones implícitas de


U y encontrar un subespacio W de R4 tal que U  W  R4 .

54.- Se consideran los subespacios de R4

U = (1, −2, 0, a), (0, 1, 2, 5) y W = (−1, 3, 1, 1), (0, 2, 5, 2) .

a) ¿Para que valores de a se tiene que dim (U + W ) = 3?

b) Determinar para que valores de a se tiene que U ∩ W = {(0, 0, 0, 0)}.

55.- En R4 se consideran los subespacios:

U = (1, −1, 1, 0), (0, 1, −1, 1), (1, 0, 0, −1), (3, −1, 1, −2) y
W = (1, 0, 0, 0), (1, −2, 2, 0), (0, 1, −1, 1) .

a) Calcular unas ecuaciones implícitas para U.

69
/ U y que U + (0, 1, 0, 0) = R4 .
b) Demostrar que (0, 1, 0, 0) ∈

c) Probar que U = W.
√ √ √
d) Justificar que v = ( 3, 2 − 1, 1 − 2, 0) ∈ U y encuentrar v ′ , v ′′ ∈ U
de modo que {v, v′ , v′′ } sea una base de U.

56.- Sea U = u, v, w ⊂ R4 tal que dimU = 3. Razonar, dando una


demostración o un contraejemplo, si las afirmaciones siguientes son ver-
daderas o falsas:

a) u, v ∩ u + v + w = {0} .

b) u, v + u + v + w = U.

/ U, entonces {u, v, w, t} es una base de R4 .


c) Si t ∈

d) u + v  u, v .

57.- Sean U y W subespacios de R6 tales que dimU = 2 y dimW = 5.


Razonar, dando una demostración o un contraejemplo, si las afirmaciones
siguientes son verdaderas o falsas:

a) U + W = R6 ⇔ U no está contenido en W .

b) U ⊂ W.

U ∩ W = {0} .

70
Tema 4: Aplicaciones lineales

Definición. Sean V y W K-espacios vectoriales. Se dice que la aplicación


f : V −→ W es una aplicación lineal si verifica:

1. f(v + v′ ) = f (v) + f(v ′ ),

2. f(αv) = αf(v),

para cualesquiera v, v′ ∈ V y α ∈ K.
Ejemplos.

1. La aplicación f : V −→ K definida por f(v) = 0 es una aplicación lineal.

2. La aplicación identidad idV : V −→ V definida por idV (v) = v es una


aplicación lineal.

3. La aplicación f : R2 −→ R definida por f(x, y) = x + y es una aplicación


lineal.

4. La aplicación f : R2 −→ R3 definida por f(x, y) = (x + y, x − y, y) es una


aplicación lineal.

5. La aplicación f : R2 −→ R3 definida por f (x, y) = (x + y, x − y, 1) no es


una aplicación lineal.

Propiedades. Sea f : V −→ W una aplicación lineal. Se verifica:

1. f(0) = 0.

2. f(−v) = −f(v) para todo v ∈ V .

3. f(α1 v1 + · · · + αn vn ) = α1 f(v1 ) + · · · + αn f(vn ) para todo v1 , · · · , vn ∈ V


y α1 , · · · , αn ∈ K.

4. Si {v1 , · · · , vn } es un subconjunto de V linealmente dependiente, entonces


{f(v1 ), · · · , f(vn )} es un subconjunto linealmente dependiente de W .

Proposición. Sean f : V −→ W y g : W −→ U aplicaciones lineales.


La composición g ◦ f : V −→ U es también lineal.
Demostración.

71
1) (g ◦ f )(v + v′ ) = g[f (v + v′ )] = g[f (v) + f(v′ )] = g[f (v)] + g[f(v′ )] =
(g ◦ f)(v) + (g ◦ f)(v′ ), ∀v, v′ ∈ V .
2) (g ◦ f )(αv) = g[f(αv)] = g[αf (v)] = αg[f(v)] = α(g ◦ f)(v), ∀v ∈ V
y ∀α ∈ K.

Definición. Una aplicación lineal f : V −→ W se dice que es un isomor-


fismo lineal cuando es biyectiva.

Proposición. Si f : V −→ W es un isomorfismo lineal, entonces f −1 :


W −→ V también lo es.
Demostración.
Como f es una aplicación biyectiva tiene inversa f −1 : W −→ V y
debemos probar que también es lineal.
Como para todo w, w′ ∈ W y α ∈ K se tiene que:
f [f −1 (αw)] = αw = αf [f −1 (w)] = f [αf −1 (w)] y
f [f −1 (w + w′ )] = w + w′ = f[f −1 (w)] + f[f −1 (w′ )] = f[f −1 (w) + f −1 (w′ )],
el carácter inyectivo de f demuestra la linealidad de f −1 .

Proposición. Si f : V −→ W es una aplicación lineal, se verifica:

1. Si U es un subespacio de V, entonces f (U ) es un subespacio de W . En


particular, Im f es un subespacio de W . Además, si U = u1 , · · · , us ,
entonces f(U ) = f(u1 ), · · · , f (us ).

2. Si L es un subespacio de W , entonces f −1 (L) es un subespacio de V . En


particular f −1 ({0}) es un subespacio de V que se denotará por Núcleo
de f o Ker f .

Demostración.
1) Como f (0) = 0 ∈ f (U ) entonces f (U ) = ∅. Además, para u, u′ ∈ U y
α ∈ K se tiene que f(u)+f(u′ ) = f(u+u′ ) ∈ f (U ) y αf(u) = f (αu) ∈ f(U ).
2) Como f (0) = 0 ∈ L entonces 0 ∈ f −1 (L) y para w, w′ ∈ f −1 (L) y
α ∈ K, se tiene que f(w + w′ ) = f(w) + f (w′ ) ∈ L y f(αw) = αf (w) ∈ L.

Ejercicio. Sea la aplicación lineal f : R3 −→ R3 definida por:

f(x, y, z) = (x + y, x − z, x − z).

a) Calcular el núcleo y la imagen.

72
b) Calcular f −1 (1, 1, 1), (0, 0, 1) .

c) Calcular f −1 {(x, y, z) ∈ R3 /x − y + z = 0}.

Prueba:
a) Ker f = {(x, y, z) ∈ R3 /x + y = 0, x − z = 0} =

{(x, y, z) ∈ R3 /x = −y = z} = {(x, −x, x)/x ∈ R} = (1, −1, 1) .

Im f = f(1, 0, 0), f (0, 1, 0), f (0, 0, 1) =

(1, 1, 1), (1, 0, 0), (0, −1, −1) = (1, 0, 0), (0, −1, −1) .
(1,1,1)=(1,0,0)−(0,−1,−1)

b) f −1 (1, 1, 1), (0, 0, 1) =


{(x, y, z) ∈ R3 /(x + y, x − z, x − z) ∈ (1, 1, 1), (0, 0, 1)} =
 
1 0 x + y 
 
{(x, y, z) ∈ R3 / 1 0 x − z  = 0} = {(x, y, z) ∈ R3 /y + z = 0}.
1 1 x − z 

c) f −1 {(x, y, z) ∈ R3 /x − y + z = 0} =

{(x, y, z) ∈ R3 /x + y − (x − z) + x − z = 0} =

{(x, y, z) ∈ R3 /x + y = 0} = (1, −1, 0), (0, 0, 1) .

Teorema. Sean V y W espacios vectoriales, B = {v1 , · · · , vn } una base de


V y w1 , · · · , wn ∈ W .
Existe una única aplicación lineal f : V −→ W tal que f(vi ) = wi para
i = 1, · · · , n.
Demostración.
Como las coordenadas de cada vector v ∈ V respecto de una base B son
n
 n

únicas, si v = αi vi se define f(v) = αi wi . De este modo f es lineal y
i=1 i=1
f (vi ) = wi para i = 1, · · · , n. La unicidad es inmediata.

Proposición. Sea f : V −→ W una aplicación lineal entre espacios vecto-


riales de dimensión finita.

73
1. f es inyectiva si, y solo si, Ker f = {0} si, y solo si, cualquier subconjunto
de V linealmente independiente tiene como imagen un subconjunto de
W linealmente independiente.

2. f es sobre si, y solo si, cualquier conjunto de generadores de V tiene


como imagen un conjunto de generadores de W.

3. f es biyectiva si, y solo si, la imagen de una base de V es una base de


W.

Demostración.
1) Si f es inyectiva ⇒ Ker f = {v ∈ V /f(v) = 0 = f(0)} = {0}.
Reciprocamente, f (v) = f(v ′ ) ⇔ f(v − v ′ ) = 0 ⇔ v − v′ ∈ Kerf =
{0} ⇔ v = v′ . Con lo cual tenemos probada la primera equivalencia.
Además, si {v1 , · · · , vr } ⊂ V es un conjunto linealmente independiente
y α1 f (v1 ) + · · · + αr f (vr ) = 0, el carácter lineal de f indica que α1 v1 + · · · +
αr vr ∈ Ker f = {0}, por la independencia lineal de {v1 , · · · , vr }, se tiene
que α1 = · · · = αr = 0 y así {f (v1 ), · · · , f(vr )} es linealmente independiente.
Finalmente, para el recíproco basta considerar que si v = 0, como {v} ⊂
V es linealmente independiente, sabemos que {f (v)} ⊂ W es linealmente
independiente y por tanto f (v) = 0, y entonces Ker f = {0}.
2) Si V = S , entonces Im f = {f(v)/v ∈ S} . En consecuencia, f es
sobre ⇔ W = {f(v)/v ∈ S} .
3) Por los dos apartados anteriores, si f es biyectiva y {v1 , · · · , vn } base
de V, entonces {f(v1 ), · · · , f(vn )} es base de W.
Reciprocamente, si {v1 , · · · , vn } es base de V, por hipótesis, se tiene que
{f(v1 ), · · · , f (vn )} es base de W . Por el teorema anterior, existe una única
aplicación lineal g : W −→ V tal que g(f(vi )) = vi para i = 1, · · · , n; se
tiene que g es inversa de f y por ello el resultado.

Corolario. Sean V y W espacios vectoriales de dimensión finita. Entonces,

V y W son isomorfos si, y solo si, dim(V ) = dim(W ).

Demostración.
Si f : V −→ W es un isomorfismo y {v1 , · · · , vn } es base de V , la
proposición anterior nos demuestra que {f(v1 ), · · · , f (vn )} es base de W y
así dim(V ) = n = dim(W ).

74
Reciprocamente, si dim(V ) = n = dim(W ), B ={v1 , · · · , vn } es una
base de V y B′ ={w1 , · · · , wn } es base de W , la aplicación lineal f : V −→
W definida por f (vi ) = wi para i = 1, · · · , n, es un isomorfismo por la
proposición anterior.

Corolario. Todo espacio vectorial de dimensión n es isomorfo a K n .

Teorema de la dimensión. Sea f : V −→ W una aplicación lineal y sea


dim(V ) = n. Se verifica:

dim(Ker f ) + dim(Im f) = dim(V ).

Demostración.
Como Ker f es un subespacio vectorial de V , dim(Ker f) = r ≤ n.
Si {v1 , · · · , vr } es una base de Ker f existen vr+1 , · · · , vn ∈ V tales que
{v1 , · · · , vr , vr+1 , · · · , vn } es una base de V.
Teniendo en cuenta que f(vi ) = 0 para i = 1, · · · , r, se tiene que Im
f = f(vr+1 ), · · · , f(vn ) .
Bastará comprobar que este conjunto de generadores de Im f es lineal-
mente independiente. En efecto,

αr+1 f (vr+1 ) + · · · + αn f(vn ) = 0 ⇔ f (αr+1 vr+1 + · · · + αn vn ) = 0 ⇔


αr+1 vr+1 + · · · + αn vn ∈ Ker f ⇔ existen α1 , · · · , αr ∈ K tales que
αr+1 vr+1 + · · · + αn vn = α1 v1 + · · · + αr vr .

La independencia lineal de {v1 , · · · , vr , vr+1 , · · · , vn } muestra que αi = 0


para todo i = 1, · · · , n y, en particular, que {f(vr+1 ), · · · , f (vn )} es un
conjunto linealmente independiente.

Corolario. Sea f : V −→ V una aplicación lineal (endomorfismo de V ) y


dim(V ) = n.

f es inyectiva ⇔ f es sobre ⇔ f es un isomorfismo.

Demostración.
f es inyectiva ⇔ dim(Ker f) = 0 ⇔ dim(Im f) = n ⇔ f es sobre.

75
Matriz asociada a una aplicación lineal.
Sean B = {v1 , · · · , vn } y B′ ={w1 , · · · , wm } bases de los espacios vectoriales
V y W.

Definición. Si f : V −→ W es una aplicación lineal definida por f(vj ) =


m

aij wi , para cada vj con j = 1, · · · , n. La matriz A = (aij ) ∈ Mm×n (K)
i=1
se llama matriz asociada a la aplicación lineal f respecto de las bases B y
B′ , y se denota por (f)B,B′ .

Nótese que el orden de la matriz A es m×n, siendo m la dimensión de W


y n la de V, y que la matriz A tiene como columna j-ésima las coordenadas
en la base B′ de la imagen del vector vj de B.
Notación. Si V es un espacio vectorial, B = {v1 , · · · , vn } es una base
de V y (x1 , · · · , xn ) son las cordenadasde unvector v ∈ V en la base B, es
x1
n
 .. 
decir v = xj vj , la matriz columna  .  la denotaremos por (v)B .
j=1
xn
Observación. Utilizando notación matricial, para la aplicación lineal an-
terior f, se tiene que:

(f(v))B′ = (f )B,B′ (v)B .


n

En efecto, si v = xj vj , entonces
j=1
n
 n
 n
 m

f (v) = f( xj vj ) = xj f(vj ) = xj ( aij wi ) =
j=1 j=1 j=1 i=1
m 
 n m 
 n
( xj aij )wi = ( aij xj )wi .
i=1 j=1 i=1 j=1

Ejemplo.

1. Si f : R3 −→ R4 es la aplicación lineal definida por

f (x, y, z) = (x − y, y + z, z, x − z)

y B = {(1, 1, 1), (1, 0, 1), (1, 1, 0)} es una base de R3 . La matriz asociada a
f respecto de la base B y de la canónica es:

76
 
0 1 0
2 1 1
(f)B,C =
1
.
1 0
0 0 1

Además, si B′ = {(0, 2, 1, 0), (1, 1, 1, 0), (0, 1, 0, 1), (0, 0, 0, 1)}, se tiene
que
 
1 0 0
0 1 0
(f)B,B′ =
0
.
0 1
0 0 0

2. Si A = (aij ) ∈ Mm×n (K), existe una aplicación lineal fA : K n −→ K m


cuya matriz asociada respecto de las bases canónicas es A, que está
definida por:

fA (x1 , · · · , xn ) = (a11 x1 + · · · + a1n xn , · · · , an1 x1 + · · · + ann xn ).

3. Si V y W son espacios vectoriales, B = {v1 , · · · , vn } y B′ ={w1 , · · · , wm }


bases de V y W , respectivamente, y A = (aij ) ∈ Mm×n (K). La
m

aplicación lineal f : V −→ W definida por f (vj ) = aij wi para cada
i=1
vj con j = 1, · · · , n tiene a A como matriz asociada respecto de las
bases B y B′ .

4. Si V es un espacio vectorial de dimensión n y B es cualquier base de


V, la matriz asociada a la identidad de V respecto de la base B (en el
dominio y en el rango) es In .

Veamos a continuación la relación entre el producto de matrices y la


composición de aplicaciones lineales.

Proposición. Sean V, W y U espacios vectoriales con bases B = {v1 , · · · , vn },


B′ ={w1 , · · · , wm } y B′′ ={u1 , · · · , us }.
Si f : V −→ W y g : W −→ U son aplicaciones lineales, entonces

(g ◦ f )B,B′′ = (g)B′ ,B′′ (f)B,B′ ∈ Ms×n (K).

77
Demostración.  
x1
n

xj vj y (v)B =  ... .
 
Sea v =
j=1
xn
Se tiene que, (g)B′ ,B′′ (f )B,B′ (v)B = (g)B′ ,B′′ (f(v))B′ = (g(f(v)))B′′ =
((g ◦ f)(v)))B′′ = (g ◦ f)B,B′′ (v)B .
Por lo tanto, si consideramos las coordenadas de los vectores de la base
B, la igualdad anterior nos prorpociona la igualdad de las columnas de las
matrices (g ◦ f )B,B′′ y (g)B′ ,B′′ (f)B,B′ .

Ejemplo.
Sea f : R2 −→ R y g : R −→ R2 las aplicaciones lineales definidas por
f (x, y) = x + y y g(x) = (x, 3x). La composición g ◦ f : R2 −→ R2 está
definida por (g ◦ f)(x, y) = (x + y, 3x + 3y). Las matrices asociadas a estas
aplicaciones en las bases canónicas son:
  
  1 1   1 1
(f )C,C = 1 1 , (g)C,C = y (g ◦ f )C,C = 1 1 =
3 3 3 3

Corolario. Sean V y W espacios vectoriales con bases B = {v1 , · · · , vn } y


B′ ={w1 , · · · , wn } y f : V −→ W una aplicación lineal. Se verifica:

f es un isomorfismo ⇔ A = (f)B,B′ es una matriz no singular.

Demostración.
Si f es un isomorfismo, (f)B,B′ tiene como inversa (f −1 )B′ ,B .
Por otra parte, si A es no singular existe una única aplicación lineal
n

g : W −→ V tal que g(wi ) = A−1 (k, i)vk para i = 1, · · · , n. Se verifica
k=1
que (g)B′ ,B = A−1 y g es la aplicación inversa de f.

Matriz de cambio de base


Hemos visto que un espacio vectorial puede tener más de una base y vamos
a estudiar como varian las coordenadas de un vector al cambiar la base.
Consideraremos que V es un espacio vectorial de dimensión n y que B y
B′ son bases de V.

Definición. Se llama matriz de cambio de base de B a B′ a la matriz


asociada a la identidad de V considerando en el dominio la base B y en el
codominio la base B′ , es decir la matriz (idV )B,B′ .

78
n

Nótese que si B={v1 , · · · , vn }, B′ ={v1′ , · · · , vn′ } y vj = aij vi′ , entonces
i=1
(idV )B,B′ = (aij ) ∈ Mn (K). Además, (v)B′ = (idV )B,B′ (v)B , es decir, al
multiplicar la matriz del cambio de base por la matriz columna de las co-
ordenadas de un vector v en la base B nos da la matriz columna de las
coordenadas del vector v en la base B′ .
Observaciones.

1. La matriz de cambio de base de B a B′ es no singular, por estar asociada


a un isomorfismo, y su inversa es la matriz de cambio de base de B′ a
B.

2. Sea V un espacio vectorial de dimensión n y B={v1 , · · · , vn } una base


de V. La aplicación lineal f : V → K n definida por f(vi ) = ei (siendo
ei el i-ésimo vector de la base canónica de K n ) es un isomorfismo,
que denominaremos isomorfismo de asignación de coordenadas. En
consecuencia, {v1′ , · · · , vn′ } ⊂ V es una base de V , si, y solo si, la
n

matriz A, definida por Ci (A) = (a1i , · · · , ani )t con vi′ = aji vj para
j=1
todo i = 1, · · · , n, es de rango n, es decir es no singular.

3. Toda matriz no singular es una matriz de cambio de base. En efecto, si


A = (aij ) ∈ Mn (K) es una matriz no singular, B′ = {v1′ , · · · , vn′ } es
n
una base de V y definimos vj = akj vk′ para j = 1, · · · , n, entonces
k=1
B= {v1 , · · · , vn } es otra base de V y la matriz del cambio de base de
B a B′ es A.

4. Si B es una base de K n , es trivial calcular la matriz de cambio de base


de B a la base canónica.

Nos planteamos ahora la siguiente pregunta. ¿Cómo cambia la matriz


de una aplicación lineal al cambiar las bases en el dominio y en el rango?
Proposición. Sean V y W espacios vectoriales, BV = {v1 , · · · , vn } y BV′ =
{v1′ , · · · , vn′ } bases de V y BW ={w1 , · · · , wm } y BW
′ ={w′ , · · · , w ′ } bases de
1 m
W.
Si f : V −→ W es una aplicación lineal, se verifica que:

(f)BV ,BW = (idW )BW


′ ,B (f)B ′ ,B ′ (idV )B ,B ′ .
W V W V V

79
Demostración.
El resultado es consecuencia de que idW ◦ f ◦ idV = f.

Ejemplo. Consideramos en R3 las bases B={(1, 1, 1), (1, 2, 0), (0, 0, 1)},
B′ ={(1, 2, 1), (1, 0, 0), (1, 0, 1)} y C la canónica.
La matrices de cambio de base de B a C y de C a B′ son:
   −1
1 1 0 1 1 1
(idR3 )B,C = 1 2 0 = A y (idR3 )C,B′ = 2 0 0 = (A′ )−1
1 0 1 1 0 1

Además, (idR3 )B,B′ = (idR3 )C,B′ (idR3 )B,C .


Nótese que, también se podría hallar directamente (idR3 )B,B′ sin más que
expresar los vectores de la base B como combinación lineal de los de la base
B′ , como vemos a continuación. Para ello debemos de resolver tres sistemas
de ecuaciones con (idR3 )B′ ,C como matriz del sistema, es decir,
(1, 1, 1) = x(1, 2, 1) + y(1, 0, 0) + z(1, 0, 1)
(1, 2, 0) = x′ (1, 2, 1) + y ′ (1, 0, 0) + z ′ (1, 0, 1)
(0, 0, 1) = x”(1, 2, 1) + y”(1, 0, 0) + z”(1, 0, 1)
Para resolverlos, simultaneamente, escalonamos la matriz (A|A′ ) .
   
1 1 1 1 1 0 1 1 1 1 1 0
2 0 0 1 2 0 F2−→ −2F1 
0 −2 −2 −1
F ←→F
0 0  2−→ 3
F3 −F1 F3 −2F2
1 0 1 1 0 1 0 −1 0 0 −1 1
   1

1 1 1 1 1 0 1 1 0 0 2 1 0
−F , (− )F3
 0 −1 0 0 −1 1  2 →2  0 1 0 0 1 −1 
F1 −F2 −F3 1
0 0 −2 −1 2 −2 0 0 1 2 −1 1
y así,
 1

21 0
(idR3 )B,B′ = 0 1 −1  .
1
2 −1 1

Definición. Sean A, B ∈ Mm×n (K). Se dice que A y B son equivalentes


si existen matrices no singulares P ∈ Mm (K) y Q ∈ Mn (K) tales que
A = P BQ.

En particular si A y B son equivalentes por filas (repect. por columnas)


son equivalentes siendo en este caso Q = In (respect. P = Im ).

80
Teniendo en cuenta que toda matriz no singular puede ser pensada como
matriz de un cambio de base, podemos afirmar que dos matrices son equiv-
alentes si, y solo si, son matrices asociadas a la misma aplicación lineal
respecto de diferentes bases.

Teorema. Sean V y W espacio vectoriales de dimensión n y m, B y B′


bases de V y W , respectivamente.
Si f : V −→ W es una aplicación lineal tal que A = (f )B,B′ ∈ Mm×n (K),
entonces r(A) = dim(Im f).
Demostración.
n

Sea B= {v1 , · · · , vn }, B′ = {w1 , · · · , wm } y f (vj ) = aij wi .
i=1
Las coordenadas de f (vj ) en la base B′ son (a1j , · · · , amj ), es decir, la
fila j-ésima de la matriz At .
Puesto que la asignación de coordenadas es un isomorfismo entre W y
K m se tiene que:

r(A) = rc (A) = dim (C1 (A), · · · , Cn (A)) = dim (f(v1 ), · · · , f(vn )) =
dim(Im f).

Corolario. Dos matrices equivalentes tienen el mismo rango.


Demostración.
Como vimos, dos matrices equivalentes son matrices asociadas a la misma
aplicación lineal respecto de diferentes bases, y el rango de ambas coincide
con la dimensión de la imagen de dicha aplicación lineal.

Este resultado ya lo conocíamos, sabíamos que dos matrices equivalentes


por filas o por columnas tienen el mismo rango, y si A y B son equivalentes,
existen matrices no singulares P ∈ Mm (K) y Q ∈ Mn (K) tales que A =
P BQ, así A y BQ son equivalentes por filas y BQ y B son equivalentes por
columnas.

Teorema. Sean A, B ∈ Mm×n (K).


Las matrices A y B son equivalentes si, y solo si, r(A) = r(B).
Demostración.
En el corolario anterior vimos que si son equivalentes tienen el mismo
rango.

81
Reciprocamente,
 basta con demostrar que si r(A) = r entonces A es
Ir 0
equivalente a ∈ Mm×n (K). Para ello consideremos la aplicación
0 0
lineal f : K n −→ K m cuya matriz asociada respecto de las bases canónicas
es A.
Teniendo en cuenta que dim(Im f) = r(A) = r y puesto que n =
dim(Im f ) + dim(Ker f), se tiene que dim(Ker f) = n − r.
Si {vr+1 , · · · , vn } es una base de Ker f, existen v1 , · · · , vr ∈ K n tal que
B= {v1 , · · · , vr , vr+1 , · · · , vn } es una base de K n .
Por otra parte {f(v1 ), · · · , f (vr )} ⊂ Im f es un conjunto de generadores
de Im f con tantos elementos como su dimensión y por tanto es una base
de Im f.
Existen wr+1 , · · · , wm ∈ K m tal que B′ = {f(v1 ), · · · , f(vr ), wr+1 , · · · , wm }
es unabase de K m y así la matriz asociada a f, respecto de las bases B y
I 0
B′ , es r .
0 0
Corolario. Sea A ∈ Mm×n (K). Entonces U = {(x1 , · · · , xn ) ∈ K n /AX = 0}
es un subespacio de K n de dimensión n − r(A).
Demostración.
Si consideramos f : K n → K m la aplicación lineal que tiene A como
matriz asociada respecto de las bases canónicas, U = Ker f es un subespacio
de K n y como n = dim(Ker f ) + dim(Imf) = dim(Ker f) + r(A) se tiene
que dim(U ) = n − r(A).

Definición. Sean A, B ∈ Mn (K). Las matrices A y B son semejantes si


existe una matriz P ∈ Mn (K) no singular de modo que B = P AP −1 .
Si dos matrices cuadradas son semejantes entonces son equivalentes pero
el recíproco no es cierto, toda matriz es equivalente a una matriz diagonal,
como nos muestra la demostración del teorema anterior, pero no es seme-
jante a una matriz diagonal. El estudiar en que condiciones una matriz es
semejante a una matriz diagonal será el objetivo de nuestro próximo tema.

Ejercicios

1.- ¿Cuáles de las siguientes aplicaciones son lineales?

82
a) f : R2 → R2 , dada por f(x, y) = (x − y, 0).

b) f : R2 → R3 , dada por f(x, y) = (x + 3y, −2x, 2).

c) f : R → R, dada por f(x) = x2 .

d) f : R3 → R2 , dada por f(x, y, z) = (y, xz).

2.- Dadas las aplicaciones:

a) f : R2 → R3 definida por f(x, y) = (x − y, x + y, −x + y).

b) f : R → R2 definida por f(x) = (x, 1).

c) f : R3 → R3 definida por f(x, y, z) = (y, 0, 2y − z).

d) f : R3 → R2 definida por f(x, y, z) = (x + y, z 3 ).

Se pide:

i) Determinar cúales son lineales.

ii) En las aplicaciones lineales obtenidas, hallar el núcleo y la imagen e


indicar si son inyectivas, sobreyectivas o biyectivas.

3.- ¿Existe alguna aplicación lineal f : R2 → R2 tal que f (1, 0) = (1, 1),
f (3, 2) = (1, −1) y f(3, 3) = (2, 2)?

4.- Probar que dado un K-espacio vectorial V, una aplicación lineal

f :V →K

no nula es sobreyectiva.

5.- Sean f : V → V ′ y g : V ′ → V ′′ aplicaciones lineales y v ∈ V. Demostrar


que:

v ∈ Ker f ⇒ v ⊂ Ker (g ◦ f) .

′′
6.- Dadas aplicaciones lineales f : V → V ′ y g : V ′ → V , probar las
siguientes afirmaciones:

83
a) Im(g ◦ f) ⊂ Im g y Ker f ⊂ Ker (g ◦ f ).

b) g ◦ f = 0 ⇔ Im f ⊂ Ker g.

7.- Sea f : R3 → R3 la aplicación lineal definida por:

f(x, y, z) = (x + 2y + z, x − y, x − y)

Se pide:

a) Hallar una base y las ecuaciones de Ker f.

b) Hallar una base y la dimensión de Im f.

c) Analizar si (4, 0, 2) pertenece a Im f .

8.- Sea f : R3 → R4 la aplicación lineal definida por:

f (x, y, z) = (y + 2z, αx + 2βy + αz, x + y − z, x + 2y + z)

Determinar α y β para que f no sea inyectiva.

9.- Se considera la aplicación lineal f : R3 → R3 definida por :

f(x, y, z) = (x + y, y + z, x − z)

a) Probar que f no tiene inversa.


 
b) Sea U = (x, y, z) ∈ R3 /x − y + z = 0 , calcular una base del subespa-
cio f −1 (U ).

c) Si W = (0, 1, 1) , (1, 1, a) , determinar para que valores de a la dimensión


de f(W ) es 1.

10.- Sean V y W dos K-espacios vectoriales, f : V → W una aplicación


lineal y v1 ,v2 ∈ V. Razonar, dando una demostración o un contraejemplo, si
las afirmaciones siguientes son verdaderas o falsas:

a) f (v1 , v2 ) es un subespacio vectorial de dimensión 2.

b) Si v1 y v2 son vectores linealmente dependientes, entonces f (v1 ) y f (v2 )


son vectores linealmente dependientes.

84
c) Si V = v1 , v2  , entonces W = f (v1 ) , f (v2 ) .

11.- Sean f : R3 → R2 y g : R2 → R3 las aplicaciones lineales dadas por:

f(x, y, z) = (x, −x + y + 2z) y g(x, y) = (x + y, −x − y, 2x)

a) Calcular las imágenes de los vectores de la base canónica de R3 mediante


la aplicación lineal h = g ◦ f.

b) Determinar unas ecuaciones del subespacio h−1 < (−1, 1, 2) > .

c) Calcular una base del núcleo de h y sus ecuaciones.

d) Determinar la imagen mediante h de la intersección de los subespacios:


 
U = {(a + b, a − b, −b)/a, b ∈ R} y W = (x, y, z) ∈ R3 /x − y + z = 0 .

12.- Sean u = (1, −1, 3), v = (−3, 3, α) ∈ R3 y f : R3 → R3 es una aplicación


lineal tal que Ker f = {(x, y, z) ∈ R3 /x + y + z = 0}.
¿Para que valores de α se cumple que f(u) = f(v)?

13.- Hallar una aplicación lineal f : R3 → R3 cuya imagen esté generada


por (1, 1, 1) y (1, 1, 0) ¿Es única?

14.- Hallar una aplicación lineal f : R4 → R3 cuyo núcleo sea el subespacio


(1, 1, −1, 1), (0, 0, 1, 1) .

15.- Encontrar una aplicación lineal f : R3 → R3 tal que Ker f = (1, 1, 1)
e Im f = {(x, y, z) ∈ R3 /x + y + z = 0} ¿Es única?

16.- ¿Existe una aplicación lineal f : R3 → R4 de forma que su núcleo sea


el subespacio generado por {(1, 1, 0), (0, 1, 0)} y la imagen esté generada por
{(1, 1, 1, 0), (1, 0, 0, 2)}?

17.- Se considera la aplicación lineal f : R3 → R3 definida por :

f (x, y, z) = (x + z, x + y + 2z, x − y)

a) Calcular una base para Ker f y otra para Im f.


 
b) Sea U = (x, y, z) ∈ R3 /x − y = 0 , encontrar una base para f −1 (U ).

85
c) Si W = (1, 2, 1) , (2, 2 + a, 0) , determinar para que valores de a la di-
mensión de f(W ) es 1.

18.- Sea f : R4 → R3 la aplicación lineal definida por :

f(x, y, z, t) = (x + z, x − y + z, x + t)

a) Calcular una base para Ker f y otra para Im f.

b) Si U = (1, 1, 1, 1) , (−2, 2, 6, 6) , calcular una base y unas ecuaciones


implícitas para f (U ).

c) Sea T = (1, 1, 0) , (0, 0, 1) . Calcular unas ecuaciones implícitas y una


base para el subespacio f −1 (T ).

d) Encontrar dos vectores distintos v, v′ ∈ R4 tales que f(v) = f(v′ ) =


(1, 2, 3) y justificar que f −1 ({(1, 2, 3)}) no es subespacio de R4 .

19.- Se considera la aplicación lineal f : R3 → R3 definida por :

f(x, y, z) = (x + z, y, x + 2y + z)

a) ¿Es f inyectiva?

b) Calcular para que valores de α el vector (2, −2, 1 + α) está en Im f.


 
c) Si W = (x, y, z) ∈ R3 /x − az = 0 , determinar para que valores de a
la dimensión de f (W ) es 1.

d) Sea B = {(0, 1, 1), (1, 1, 1), (0, 0, 1)} una base de R3 , calcular las coorde-
nadas de f(1, 1, 1) en la base B.

 
20.- Sea U = (x, y, z) ∈ R3 /x + y − 3z = 0 .

a) Si f : R3 → R3 es una aplicación lineal tal que Ker f = U ¿Para qué


valor de α se cumple que f (1, 1, 2) = f(−1, 0, α)?

b) Definir dos aplicaciones lineales distintas, f, g : R3 → R3 , verificando


que Ker f = Ker g = U .

86
21.- Sea V un K-espacio vectorial de dimensión 2 y {v1 , v2 } una base de
V. Se considera la aplicacion lineal f : V → V tal que: f (v1 ) = v1 y
f (v2 ) = −v1 . Calcular las dimensión de Ker f e Im f.

22.- Se consideran las bases de R3 : B = {(1, 1, 0) , (0, 1, 1) , (0, 0, −1)} y


B ′ = {(1, 0, 1) , (0, 1, −1) , (0, 1, 0)} . Si f, g : R3 → R3 son las aplicaciones
lineales definidas por:

f((1, 1, 0)) = (1, 1, 1), f ((0, 1, 1)) = (0, 1, 2) y f((0, 0, −1)) = (0, 0, 0);
g(1, 0, 1)) = (1, 0, −1), g(0, 1, −1)) = (0, 1, 2) y g(0, 1, 0)) = (0, 1, 2).

a) Calcular f(x, y, z).


b) Demostrar que f = g.

23.- Sea f : R2 → R3 la aplicación lineal dada por f (x, y) = (x − y, 2x, −y) .


Sean B = {(1, 0), (1, 1)} una base de R2 y B ′ = {(1, 1, 0), (0, 1, 0), (0, 1, 1)}
una base de R3 . Calcular (f)B,B ′ .

24.- Sea f : R3 → R2 la aplicación lineal definida por

f(x, y, z) = (x + y, 2y − z)

a) Calcular la matriz asociada a f en las bases canónicas.


b) Hallar bases y la dimensión de Im f y Ker f.
c) Si B1 = {(1, 1, 1), (0, 1, 2), (0, 2, 1)}, B2 = {(2, 1), (1, 0)} son bases de R3
y R2 , respectivamente, calcular las matrices de cambio de base de B1
a la base canónica en R3 , y de la base canónica a B2 , en R2 , así como
la matriz de f respecto a B1 y B2 .

25.- Se considera la aplicación lineal f : R3 → R3 tal que Ker f =


{(x, y, z) ∈ R3 /x − y + z = 0} e Im f = {(x, y, z) ∈ R3 /x + z = 0, y = 0}.
Calcular (f )C,C .

26.- Sea B = {(1, 0, 0), (1, 1, 0), (0, 0, 2)} una base de R3 . Sea f : R3 → R3
la aplicación lineal tal que
 
1 0 0
(f)B,B =  −1 1 0 
0 1 2

87
a) Calcular (f )B,C y (f)C,C .

b) Justificar que f es un isomorfismo y calcular (f −1 )C,C .

27.- Sea B = {u1 , u2 , u3 } una base de R3 y f : R3 → R3 la aplicación lineal


que cumple

f (u1 ) = u1 − 2u2 + u3 
f(u2 ) = −2u1 + 3u3

Ker f = 2u1 − u2 + u3 

a) Calcular la matriz asociada a f en la base B.

b) Calcular la matiz asociada a f respecto de la base D = {u2 , u2 − u1 , u3 −


u2 − u1 }.

28.- Sea B = {u1 , u2 , u3 } una base de R3 y f : R3 → R3 la aplicación lineal


cuya matriz asociada respecto de la base B es:
 
3 2 −1
(f)B,B =  −2 −1 0 
4 3 1

a) Probar que B′ = {u3 , f (u3 ), f 2 (u3 )} es base de R3 .

b) Calcular la matiz asociada a f respecto de la base B′ .

29.- Para cada α ∈ R se considera la aplicación fα : R3 → R3 tal que


 
1 0 1
(fα )C,C =  α 1 2α 
1 α 2

a) Determinar la dimensión de Im fα , según los valores de α.

b) Calcular β, γ ∈ R de modo que (β, γ, 2) ∈ Ker f1 .

c) Encontrar unas ecuaciones para Im f−1 .

30.- Para cada α ∈ R se define la aplicación lineal

fα : R4 → R3 , f(x, y, z, t) = (αx + y, x + αz, y + t).

88
a) Estudiar los valores de α que hacen que fα sea inyectiva y los que la
hacen sobreyectiva.

b) Hallar una base de Ker f2 .

c) Calcular f0 (L), siendo L = {(x, y, z, t) ∈ R4 /x = z = 0}.

31.- Justificar la verdad o la falsedad de las siguientes afirmaciones:

a) Una aplicación lineal f : R3 → R6 no puede ser sobreyectiva.

b) Si f : R3 → R2 es una aplicación lineal, entonces Ker f = {(0, 0, 0)}.

c) Si f : R2 → R3 es una aplicación lineal, entonces Ker f = {(0, 0)}

d) Si f : Rm → Rn es una aplicación lineal inyectiva, entonces m = n y f


es isomorfismo.

32.- Se considera la aplicación lineal f : R3 → R3 definida por :

f (x, y, z) = (x + y, z, x + y + 2z).

a) ¿Es f inyectiva?

b) Calcular para que valores de α el vector (1, α, 7) está en Im f.


 
c) Si W = (x, y, z) ∈ R3 /x − ay = 0 , determinar para que valores de a
la dimensión de f (W ) es 1.

d) Sea B = {(0, 0, 1), (0, 1, 1), (1, 1, 1), } una base de R3 , calcular las coor-
denadas de f(1, 1, 1) en la base B.

33.- Sea f : R4 → R3 es una aplicación lineal. Razonar, dando una


demostración o un contraejemplo, si las afirmaciones siguientes son ver-
daderas o falsas:

a) f es sobreyectiva.

b) f no es inyectiva.

c) dim(Ker f) = 1.

 
34.- Sea U = (x, y, z) ∈ R3 /x − y + 2z = 0 .

89
a) Si f : R3 → R3 es una aplicación lineal tal que Ker f = U ¿Para qué
valor de α se cumple que f (1, 2, 1) = f(−1, α, 3)?

b) Definir dos aplicaciones lineales distintas, f, g : R3 → R3 , tales que Ker


f = Ker g = U .

35. Sea fa : R3 → R4 la aplicación lineal definida por:

fa (x, y, z) = (x, y + az, ay + 4z, x + y + az).

a) Calcular la dimensión de Im fa , según los valores de a.

b) Determinar para que valores de a se tiene que fa es inyectiva.

c) Encontrar un subespacio U de R4 tal que Im f2 + U = R4 ¿Es único?

d) Si es posible, definir una aplicación lineal inyectiva g : R3 → R4 verifi-


cando que Im f2 ⊂ Im g.

36.- Sean B = {(1, 1, 0), (0, 0, 1), (0, 1, 0)} una base de R3 y C su base
canónica.

a) Calcular (idR3 )B,C y (idR3 )C,B .

b) Hallar las coordenadas de v = (3, 4, 2) en la base B.

37.- Sea f : R3 → R2 la aplicación lineal definida por

f(x, y, z) = (x + y, y + z).

a) Calcular la matriz asociada a f en las bases canónicas.

b) Si B1 = {(1, 1, 1), (0, 1, −1), (0, 0, −1)}, B2 = {(2, 1), (1, 0)} son bases de
R3 y R2 , respectivamente, calcular las matrices de cambio de base de
B1 a la base canónica en R3 , y de la base canónica a B2 , en R2 , así
como la matriz asociada a f respecto a B1 y B2 .

38.- Sea B = {(1, 1, 0, 1), (0, −1, 0, 0), (0, 0, 1, 0), (0, 0, 0, 3)} una base de R4
y f : R3 → R4 la aplicación lineal tal que

f(1, 0, 0) = (1, 1, 0, 1), f(0, 1, 0) = (−1, 2, 0, 0) y f(0, 0, 1) = (0, 3, 0, 1).

90
a) Hallar la matriz de cambio de base de la base canónica a B, en R4 .

b) Calcular la matriz asociada a f respecto de la base canónica de R3 y de


la base B.

c) Hallar las coordenadas de f(1, 1, 0) en la base B.

39.- Sean B = {(1, 0), (1, 1)} y B ′ = {(1, 1, 0), (0, −1, 0), (0, 1, 1)} bases de
R2 y R3 , respectivamente, y f : R2 → R3 la aplicación lineal definida por
f (x, y) = (x + y, x, −2y). Calcular (f)B,B′ .

91
92
Tema 5: Diagonalización de matrices

Valores y vectores propios


En este tema V es un K-espacio vectorial de dimensión finita n.
Definición. Sea f : V −→ V un endomorfismo de V.

1. Se dice que un escalar λ ∈ K es un valor propio (o autovalor) de f si


existe un vector no nulo v ∈ V tal que f (v) = λv.

2. Se dice que un vector v ∈ V es un vector propio (o autovector ) si existe


λ ∈ K tal que f (v) = λv.

Lema. Si f : V −→ V es un endomorfismo de V y λ ∈ K, entonces


Vλ = {v ∈ V /f(v) = λv} es un subespacio de V. Cuando λ ∈ K es un valor
propio de f este subespacio se llamará subespacio propio asociado al valor
propio λ.
Además, si A ∈ Mn (K) es la matriz asociada a f respecto de una base
B, entonces dim(Vλ ) = n − r(A − λIn ).
Demostración.
Es suficiente con constatar que:
Vλ = Ker(f − λidV ), en donde λidV : V −→ V es la aplicación lineal
definida para cada v ∈ V por λidV (v) = λv.
Además, ya que (f − λidV )B,B = A − λIn , dim(Vλ ) = dim(Ker(f −
λidV )) = n − dim(Im (f − λidV )) = n − r(A − λIn ).

Proposición. Sea f : V −→ V un endomorfismo de V , A ∈ Mn (K) la


matriz asociada a f respecto de una base B y λ ∈ K.

λ es un valor propio de f si, y solo si, |A − λIn | = 0.

Demostración.
Sin más que considerar que Vλ = Ker(f − λidV ), se tiene

λ es un valor propio de f ⇔ Ker(f − λidV ) = {0} ⇔


dim(Ker(f − λidV )) = n − r(A − λIn ) = 0 ⇔
r(A − λIn ) < n ⇔ |A − λIn | = 0.

93
Ejemplo.
Consideremos el endomorfismo f : R3 −→ R3 definido por f(x, y, z) =
(y + z, x + z, x + y).
f tiene la siguiente matriz asociada en la base canónica
 
0 1 1
(f)C,C = A = 1 0 1
1 1 0

Sabemos que:

λ es un valor propio de f ⇔ |A − λIn | = 0

   
 −x 1 1   1 1 −x 
   
|A − xIn | =  1 −x 1  = −  1 −x
 F1 ←→F3  1  =
 1   −x F −F
1 −x 1 1  F32+xF11
 
 1 1 −x   
   
−  0 −x − 1 1 + x  = −(1 + x)  −1
2 1  = −(1 + x)2 (x − 2).
  1 1−x 
 0 1 + x 1 − x2 

Es decir que los valores propios de f son −1 y 2.


Para calcular V2 = Ker(f − 2idR3 ) debemos de resolver el sistema:
    
−2 1 1 x 0
 1 −2 1   y = 0 .
 
1 1 −2 z 0

Aplicando Gauss se tiene que:


   
−2 1 1 1 1 −2
 1 −2 1 − −−−−−→  1 −2 1  −−−−→
F1 ←→F3 F2 −F1
1 1 −2 −2 1 1 F3 +2F1

   
1 1 −2 1 1 −2
 0 −3 3  −−−−→  0 1 −1 
F3 +F2
0 3 −3 −F3
3
0 0 0

de donde, y = z = x y V2 = (1, 1, 1) .


También V−1 = Ker(f + idR3 ) y para calcularlo resolvemos el sistema:

94
    
1 1 1 x 0
 1 1 1  y  = 0
1 1 1 z 0

y por tanto, V−1 = {(x, y, z) ∈ R3 /x + y + z = 0} = (1, −1, 0), (0, 1, −1) .

El anillo de polinomios K[x]


Dado un cuerpo K, un polinomio en la indeterminada x con coeficientes en
K es una expresión de la forma

f(x) = a0 + a1 x + a2 x2 + · · · + an−1 xn−1 + an xn

donde ai ∈ K, para todo 0 ≤ i ≤ n.


Si ai = 0, para todo 0 ≤ i ≤ n, f(x) se llama polinomio 0. En caso
contrario, el mayor entero s tal que as = 0 se llama grado del polinomio f(x),
denotado por ∂f(x), as se llama coeficiente principal y ai es el coeficiente de
grado i , 0 ≤ i ≤ n. Un polinomio de grado 0 se llama polinomio constante.
Cuando el coeficiente principal es 1, el polinomio se dice que es mónico.
Dos polinomios, f(x) = a0 +a1 x+· · ·+an xn y g(x) = b0 +b1 x+· · ·+bm xm ,
son iguales si tienen el mismo grado y ai = bi , para todo i, 0 ≤ i ≤ ∂f(x) =
∂g(x).
El conjunto de polinomios en la indeterminada x con coeficientes en K
se denota por K[x].

Ejemplo.
En R [x] la expresión 3x6 + 4x5 + x2 + 4x + 2 es un polinomio de grado
6, con coeficiente principal 3.

Suma y producto en K[x]


Sean f (x) = a0 + a1 x + · · · + an xn y g(x) = b0 + b1 x + · · · + bm xm polinomios
en K[x].
Sin pérdida de generalidad, podemos suponer que n ≥ m, y si n > m
ponemos bm+1 = bm+2 = · · · = bn = 0. Se define la suma f(x) + g(x) y el
producto f(x) · g(x) de los polinomios de la forma siguiente:
El coeficiente de xi en f(x) + g(x) es ai + bi , para cada 0 ≤ i ≤ n.
El coeficiente de xi , para 0 ≤ i ≤ n + m, en f(x) · g(x) es

95

ar bs = a0 .bi +a1 .bi−1 +a2 .bi−2 +· · ·+ai .b0 , donde las sumas y productos
r+s=i
son en K.
Es decir,

f(x) + g(x) = (a0 + b0 ) + (a1 + b1 )x + · · · + (an + bn )xn


f(x) · g(x) = (a0 .b0 ) + (a0 .b1 + a1 .b0 )x + · · · + an .bm xn+m

De estas definiciones se deduce que f (x) + g(x) y f (x) · g(x) pertenecen


a K[x].
Además, si f (x) + g(x) = 0 y f(x) · g(x) = 0,

∂(f(x) + g(x)) ≤ max{∂f (x), ∂g(x)} y ∂(f(x).g(x)) = ∂f (x) + ∂g(x).

Ejemplo
En el cuerpo de los números reales, si f(x) = 3 + 2x + 4x2 + 4x5 y
g(x) = 3x + 2x2 + 4x3

f(x) + g(x) = 3 + 5x + 6x2 + 4x3 + 4x5 ,


f(x) · g(x) = (3.0) + (3.3 + 2.0)x + (3.2 + 2.3 + 4.0)x2 + · · · + 16x8 .

Con estas operaciones (K[x], +, .) es un anillo conmutativo unitario. Sin


embargo, K[x] no es un cuerpo, puesto que los únicos elementos invertibles
son los polinomios constantes no nulos.
En lo que sigue, veremos cómo las propiedades de divisibilidad en K[x]
y los resultados que de ellas se deducen son análogas a las de Z.

Algoritmo de división en K[x]


Algoritmo de división. Sean f(x) y g(x) polinomios con coeficientes en
un cuerpo K, siendo g(x) = 0. Entonces existen polinomios únicos q(x), r(x)
en K[x] tales que f(x) = q(x)g(x) + r(x), donde ∂r(x) < ∂g(x) o r(x) = 0.
Demostración.
Existencia:
Sean f(x) = a0 + a1 x + · · · + an xn , g(x) = b0 + b1 x + · · · + bm xm ∈ K[x]
con ∂f (x) = n y ∂g(x) = m.
Si ∂f(x) < ∂g(x), el resultado se cumple para q(x) = 0 y r(x) = f(x).
Supongamos entonces que ∂f (x) ≥ ∂g(x). Haremos la demostracción por
inducción en ∂f(x) = n.

96
Si n = 0, entonces ∂g(x) = 0, g(x) = b0 = 0 y f(x) = a0 = (a0 b−1
0 )b0 + 0.
Basta tomar q(x) = a0 b−1
0 y r(x) = 0.
Supongamos n > 0 y que el resultado es cierto para polinomios de grado
menor que n.
El polinomio f1 (x) = f(x) − an b−1m x
n−m g(x) ∈ K[x] cumple ∂f (x) < n.
1
Por hipótesis de inducción, existen polinomios q1 (x), r1 (x) ∈ K[x] tales que
f1 (x) = q1 (x)g(x) + r1 (x) con ∂r1 (x) < ∂g(x), o bien r1 (x) = 0.
Así pues, f(x) = an b−1
m x
n−m g(x) + f (x) = (a b−1 xn−m + q (x))g(x) +
1 n m 1
r1 (x) y tomando q(x) = an bm xn−m +q1 (x) y r(x) = r1 (x) se obtiene f(x) =
−1

q(x)g(x) + r(x), donde ∂r(x) < ∂g(x) o r(x) = 0.


Esto completa la inducción y el resultado es cierto para todos los valores
de ∂f(x).
Unicidad:
Supongamos que,
f (x) = q1 (x)g(x) + r1 (x) = q2 (x)g(x) + r2 (x), donde ∂ri (x) < ∂g(x) o
ri (x) = 0, (i = 1, 2).
Entonces (q1 (x) − q2 (x))g(x) = r2 (x) − r1 (x).
Si q1 (x) = q2 (x), ∂[(q1 (x) − q2 (x))g(x)] ≥ ∂g(x), mientras que ∂(r2 (x) −
r1 (x)) ≤ max{∂r1 (x), ∂r2 (x)} < ∂g(x).
Se llega así a una contradicción y, en consecuencia, q1 (x) = q2 (x) y
r1 (x) = r2 (x).
Los polinomios q(x) y r(x) se llaman cociente y resto, respectivamente,
de dividir f(x) por g(x). Si r(x) = 0 se dice que g(x) divide a f(x).
Nótese que la construcción de f1 (x) en la demostración da un algoritmo
para dividir dos polinomios.

Definición. Sean f (x) = a0 +a1 x+· · · +an xn ∈ K[x] y α ∈ K, llamaremos


evaluación de f(x) en α al elemento f(α) = a0 + a1 α + · · · + an αn ∈ K.
Diremos que α es una raíz o un cero de f(x) si f (α) = 0.

Nótese que si f (x), g(x) ∈ K[x] se verifica que la evaluación de f(x)+g(x)


en α es f(α) + g(α), y la evaluación de f(x)g(x) en α es f(α)g(α).

Teorema del resto. Sean f (x) ∈ K[x] y α ∈ K; el resto de la división de


f (x) por (x − α) es f(α).
Demostración.

97
Por el algoritmo de división, f(x) = (x − α)q(x) + r(x) con r(x) = 0
o ∂r(x) < ∂(x − α) = 1. Por lo tanto, r(x) = r es un elemento de K. Si
evaluamos f(x) en α se obtiene f (α) = (α − α)q(α) + r(α) = 0 + r.

Teorema del factor. Sean f (x) ∈ K[x] y α ∈ K. Entonces, (x − α) divide


a (es un factor de) f(x) si, y solo si, α es raíz de f(x).
Demostración.
Por el teorema del resto, (x − α) divide a f(x) ⇔ f(α) = 0.
Definición. Sean f (x) = a0 + a1 x + · · · + an xn ∈ K[x] y α ∈ K, diremos
que α es una raíz de f(x) de multiplicidad m si (x − α)m divide a f (x) pero
(x − α)m+1 no divide a f(x).

Polinomio característico
Definición. Si f : V −→ V es un endomorfismo de V y A ∈ Mn (K) la
matriz asociada a f respecto de una base B, entonces
 
 a11 − x · · · a1n 


|A − xIn | =  .. .. .. 
 . . . 

 an1 · · · ann − x 

es un polinomio de grado n con coeficientes en K que se llama polinomio


caraterístico de A.
Nótese que si A es la matriz asociada a f respecto de una base B, sabemos
que si A′ es la matriz asociada a f respecto de otra base B′ y P = (idV )B,B′ ,
se tiene que A = P −1 A′ P. Entonces,
   
|A − xIn | = P −1 A′ P − xIn  = P −1 A′ P − P −1 (xIn )P  =
 −1 ′   
P (A − xIn )P  = P −1  |A′ − xIn | |P | = |A′ − xIn | .

Como este polinomio no varia si se cambia la matriz A por otra que sea
semejante a ella, se dirá también que es el polinomio caraterístico de f y se
denotará por pc (f ).
Obsérvese que los valores propios de A (o f) son pues los ceros de su
polinomio caraterístico.

Definición. Un endomorfismo f : V −→ V es diagonalizable si existe una


base de V respecto de la cual la matriz asociada a f es una matriz diagonal.

98
Está claro que si B = {v1 , · · · , vn } es una base de V,
 
λ1 · · · 0
(f)B,B =  ... . . . ...  ⇔ f (vi ) = λi vi para i = 1, · · · , n ⇔
 

0 · · · λn

B = {v1 , · · · , vn } es una base de V formada por vectores propios.

Definición. Una matriz cuadrada es diagonalizable si es semejante a una


matriz diagonal.

Hay que tener presente que si f es diagonalizable el polinomio carac-


terístico de f es de la forma,

(λ1 − x)m1 · · · (λs − x)ms

en donde mi es la multiplicidad de la raiz λi y el número de veces que aparece


repetido el autovalor λi en la diagonal.
Es claro que no todo endomorfismo es diagonalizable, por ejemplo f :
R2 −→ R2 definido por f (x, y) = (−y, x) tiene pc (f) = x2 + 1 y no es
diagonalizable.
Es evidente que para que podamos diagonalizar un endomorfismo debe-
mos de encontrar n vectores propios linealmente independientes.

Proposición. Sea f : V −→ V un endomorfismo de V.

1. Si α, β ∈ K son valores propios de f distintos, entonces:

a) Vα ∩ Vβ = {0}.

b) Si Bα es una base de Vα y Bβ es una base de Vβ , entonces la unión


disjunta Bα ∪ Bβ es una base de Vα + Vβ y

dim(Vα + Vβ ) = dim(Vα ) + dim(Vβ ).

2. Sean λ1 , · · · , λs ∈ K valores propios de f distintos dos a dos.

a) Si i = j entonces Vλi ∩ Vλj = {0}.

b) Si Bλi = {v1i , · · · , vni i } es una base de Vλi para cada i = 1, · · · , s,


entonces la unión disjunta Bλ1 ∪ · · · ∪ Bλs es una base de Vλ1 + · · · + Vλs
y

99
dim(Vλ1 + · · · + Vλs ) = dim(Vλ1 ) + · · · + dim(Vλs ).

Demostración.

1.a) Si v ∈ Vα ∩ Vβ , entonces f(v) = αv = βv y por ser α = β se tiene que


v = 0.
1.b) Vα + Vβ = Bα ∪ Bβ  y como

dim(Vα ) + dim(Vβ ) = dim(Vα + Vβ ) + dim(Vα ∩ Vβ ) = dim(Vα + Vβ ),


se tiene que Bα ∪ Bβ es una base de Vα + Vβ .

2.b) Se demuestra por inducción en s.

Si s = 1 es trivial.
Supuesto s > 1 y el resultado cierto para menos de s valores propios,
veamos que Bλ1 ∪ · · · ∪ Bλs es linealmente independiente:
Si 0 = a11 v11 + · · · + an1 1 vn1 1 + · · · + a1s v1s + · · · + ans s vns s , entonces
=u =u′
u′ = −u ∈ Vλ1 y así,
f (u′ ) = λ1 u′ = λ1 a12 v12 +· · ·+λ1 an2 2 vn2 2 +· · ·+λ1 a1s v1s +· · ·+λ1 ans s vns s =
λ2 a12 v12 + · · · + λ2 an2 2 vn2 2 + · · · + λs a1s v1s + · · · + λs ans s vns s , de donde
0 = (λ2 − λ1 )a12 v12 + · · · + (λ2 − λ1 )an2 2 vn2 2 + · · · +
+(λs − λ1 )a1s v1s + · · · + (λs − λ1 )ans s vns s .
Por la hipótesis de inducción, se tiene que

(λ2 − λ1 )a12 = 0, · · · , (λ2 − λ1 )an2 2 = 0, · · · , (λs − λ1 )ans s = 0,

y teniendo en cuenta que λi = λ1 para todo i = 1, obtenemos que


a12 = · · · = an2 2 = · · · = ans s = 0 y por tanto 0 = u′ = −u y a11 = · · · =
an1 1 = 0, al ser Bλ1 linealmente independiente.

Proposición. Sea f : V −→ V un endomorfismo de V y λ un valor propio


de multiplicidad m, entonces dim(Vλ ) ≤ m. Además, si λ un valor propio
simple dim(Vλ ) = 1.
Demostración.
Sea {v1 , · · · , vs } una base de Vλ , si la completamos a una base de V ,
B = {v1 , · · · , vs , · · · , vn } , se tiene que

100

λIs M”
M = (f)B,B = .
0 M′

Entonces, el polinomio característico de f es pc (f) = |M − xIn | =


(λ − x)s |M ′ − xIn−s | .
Y como la multiplicidad de λ en pc (f) es m, se tiene que s ≤ m.
Si m = 1, como 0 < dim(Vλ ) ≤ 1, se obtiene que dim(Vλ ) = 1.

Teorema. Sea f : V −→ V un endomorfismo de V.

f es diagonalizable ⇔ pc (f) = (λ1 − x)m1 · · · (λs − x)ms siendo λi ∈ K,


1 ≤ mi ≤ n ∀i = 1, · · · , s y λi = λj si i = j y dim(Vλi ) = mi ∀i = 1, · · · , s.

Demostración.

 "⇒" Si f es diagonalizable
 existe una base B de V de modo que (f)B,B =
λ1 · · · 0
 .. . . ..  .
 . . . 
0 ··· λs
El polinomio característico de f es pc (f) = (λ1 − x)m1 · · · (λs − x)ms y
dado que Vλi = Ker(f −λi idV ), se tiene que dim(Vλi ) = n−r((f)B −λi In ) =
n − (n − mi ) = mi .
"⇐" Como Vλ1 + · · · + Vλs es un subespacio de V y dim(Vλ1 + · · · +
s

Vλs ) = dim(Vλ1 ) + · · · + dim(Vλs ) = mi = ∂pc (f) = n, se tiene que
i=1
Vλ1 + · · · + Vλs = V y Bλ1 ∪ · · · ∪ Bλs es una base de V formada por vectores
propios, es decir f es diagonalizable.

Corolario. Sea f : V −→ V un endomorfismo de V tal que pc (f) =


(λ1 − x) · · · (λn − x) con λi = λj si i =
 j, entonces f es diagonalizable.
Demostración.
Trivial ya que dim(Vλi ) = 1 para todo i.

Ejercicio.  
0 2 −2
Probar que la matriz A =  −2 4 −2  es diagonalizable.
−2 2 0
Prueba.
En primer lugar calculamos el polinomio característico de la matriz A.

101
   
 −x 2 −2   −x 2 −2 
  
|A − xI3 | =  −2 4 − x −2  =  −2 4 − x
 −2 =

 −2 F −F
2 −x  3 2  0 x − 2 −(x − 2) 
   
 −x 2 −2   −x 0 −2 
 
(x−2)  −2 4 − x −2  = (x−2)  −2 2 − x −2  = −(x−2)2 x.
 0 C +C
1 −1  2 3  0 0 −1 

Tenemos pues el autovalor 0 de multiplicidad uno y el autovalor 2 de


multiplicidad dos.
Los subespacios propios son:
    
0 2 −2 x 0
V0 = {(x, y, z) ∈ R3 /  −2 4 −2  y  = 0} =
−2 2 0 z 0
 
+2y −2z = 0 
{(x, y, z) ∈ R3 −2x +4y −2z = 0 =

−2x +2y =0

{(x, y, z) ∈ R3 /x = y = z} = (1, 1, 1), y

    
−2 2 −2 x 0
V2 = {(x, y, z) ∈ R3 /  −2 2 −2  y  = 0} =
−2 2 −2 z 0
 −2x +2y −2z = 0 

{(x, y, z) ∈ R3 −2x +2y −2z = 0 =

−2x +2y −2z = 0

{(x, y, z) ∈ R3 / − 2x + 2y − 2z = 0} = {(x, y, −x + y)/x, y ∈ R} =

(1, 0, −1), (0, 1, −1) .


Así,
   −1
1 1 0 0 0 0 1 1 0
A= 1 0 1  0 2 0  1 0 1  .
1 −1 −1 0 0 2 1 −1 −1

102
Ejercicios

1.- Calcular los valores propios y los subespacios propios de los endomorfis-
mos de R3 dados por:

a) f (x, y, z) = (x + 2y, −x + 3y + z, y + z).

b) g(x, y, z) = (3x − 8y + 8z, −4x + 7y − 8z, −4x + 8y − 9z).

2.- Estudiar la diagonalización de los endomorfismos del ejercicio anterior.


Si es posible, encontrar una base B de R3 tal que (g)B,B sea diagonal.

3.- Se consideran los endomorfismos de R3 dados por:

a) f (x, y, z) = (3x − y, −x + 2y − z, −y + 3z),

b) f (x, y, z) = (−y − z, −2x + y − z, −2x + 2y + 2z),

c) f(x, y, z) = (−x − 3z, 3x + 2y + 3z, −3x − z),

d) f (x, y, z) = (−x + y + 2z, −4x + 3y + 3z, −3x + y + 4z),

e) f (x, y, z) = (5x, 5y, 5z).

En cada caso, se pide: calcular los valores propios y los subespacios


propios de f ; estudiar si f es diagonalizable; si es posible, encontrar una base
B de R3 tal que (f)B,B sea una matriz diagonal y una matriz no singular P
tal que (f)B,B = P −1 (f)C,C P.

4.- Se considera la matriz


 
1 1 0
A= 1 3 2  ∈ M3×3 (R).
0 −1 1

a) Calcular los valores propios y los subespacios propios de A.

b) ¿Es A diagonalizable?

5.- Se considera la aplicación lineal f : R3 → R3 cuya matriz asociada


respecto de la base canónica es:

103
 
1 1 0
(f)C,C = 1 3 2  ∈ M3×3 (R).
0 −1 1

a) Calcular los valores propios y los subespacios propios de f.

b) ¿Es f diagonalizable?

6.- Se considera la matriz


 
−2 2 −2
A =  2 −2 −2  ∈ M3×3 (R).
−2 −2 2

a) Calcular los valores propios y los subespacios propios de A.

b) Probar que A es diagonalizable y encontrar una matriz no singular P,


tal que P −1 AP sea diagonal.

7.- Sea f : R3 → R3 la aplicación lineal definida por:

f (x, y, z) = (x, y, 3x + y + 2z).

a) Demostrar que f es diagonalizable.

b) Encontrar una matriz diagonal D y una no singular P verificando que


D = P(f)C,C P −1 .

c) Hallar ((f)C,C )m para todo valor de m natural.

8.- Se considera la matriz


 
1 a 1
A =  −1 1 −a  ∈ M3×3 (R).
1 0 a+1

a) Calcular el polinomio característico de A, así como sus valores propios.

b) ¿Para que valores del parámetro a es diagonalizable la matriz A?.

c) Para dichos valores encontrar una matriz diagonal D y una matriz no


singular P tal que AP = PD.

104
9.- Se considera la aplicación lineal f : R3 → R3 cuya matriz asociada
respecto de la base canónica es:
 
2 0 a−2
(f)C,C =  0 1 a  ∈ M3×3 (R).
0 0 a

a) Calcular el polinomio característico de f, así como sus valores propios.

b) ¿Para que valores del parámetro a es diagonalizable f?.

c) Para dichos valores encontrar una matriz diagonal D y una matriz no


singular P tal que (f)C,C = PDP −1 .

10.- Sea f : R3 −→ R3 la aplicación lineal definida por:

f(x, y, z) = (x + ay + 3z, 2y + bz, z).

a) Encontrar los valores de a y b para los que f es diagonalizable.

b) Si a = 1 y b = 3 encontrar una base B de R3 tal que la matriz


 
1 0 0
(f )B,B =  0 2 0 .
0 0 1

11.- Sea la aplicación lineal f : R3 −→ R3 definida por:

f(x, y, z) = (−x + y − z, x − y − z, −x − y + z).

a) Probar que f es diagonalizable.

b) Encontrar una base B de R3 y una matriz no singular P tales que (f)B,B


sea diagonal y (f)C,B P = (f )B,B .

12.- Sea f : R3 −→ R3 la aplicación lineal dada por:

f(x, y, z) = (3x + y + z, x + 3y + z, x + y + 3z).

a) Hallar los valores propios de f.

b) Encontrar una base B de R3 tal que (f )B,B es diagonal.

105
c) Calcular una matriz no singular P tal que (f)C,B = P(f)C,C .

13.- Sea la aplicación lineal f : R3 −→ R3 definida por:

f (x, y, z) = (x + y + z, x + y + z, x + y + z).

a) Justificar que f es diagonalizable y encontrar una base B de R3 tal que


la matriz (f)B,B sea diagonal.

b) Calcular una matriz P tal que (f)B,B P = P(f)C,C .

14.- Se considera la aplicación lineal f : R3 → R3 definida por:

f(x, y, z) = (2x + (a − 2)z, y + az, az).

a) ¿Para que valores del parámetro a es diagonalizable f ?

b) Para dichos valores encontrar una matriz diagonal D y una no singular


P tal que (f )C,C = PDP −1 .

106
Tema 6. Producto escalar y ortogonalidad
Definición. Un espacio euclídeo es un R-espacio vectorial V junto con una
aplicación, llamada producto escalar,

ϕ:V ×V →R

que verifica las siguientes condiciones:

1. ϕ(u1 + u2 , v) = ϕ(u1 , v) + ϕ(u2 , v) y ϕ(αu, v) = αϕ(u, v) para todo


u1 , u2 , v, u ∈ V y α ∈ R.

2. ϕ(u, v) = ϕ(v, u) para todo u, v ∈ V.

3. ϕ(u, u) ≥ 0 para todo u ∈ V.

4. ϕ(u, u) = 0 ⇔ u = 0.

Es decir, es una forma bilineal simétrica y definida positiva.

Observación.
- ϕ(u, 0) = ϕ(0, u) = 0 para todo u ∈ V.
- ϕ(u, v) = 0 para todo v ∈ V ⇔ u = 0.

Ejemplo.

1. Rn es un espacio euclídeo con el producto escalar ordinario Rn × Rn → R


definido por ((x1 , · · · , xn ), (y1 , · · · , yn ))  (x1 , · · · , xn )·(y1 , · · · , yn ) =
x1 y1 + · · · + xn yn .

2. R2 con la aplicación R2 × R2 → R definida por ((x1 , x2 ), (y1 , y2 )) 


x1 y1 + 2x2 y2 , es un espacio euclídeo.

Definición. Sea (V, ϕ) un espacio euclídeo. Se llama longitud o norma de 


 
un vector u ∈ V y se designa por !u!, al número real no negativo  ϕ(u, u) .
Se dice que u ∈ V es un vector unitario si !u! = 1.

Observación.
Sea u ∈ V y α ∈ R,
- !u! ≥ 0.

107
- !u! = 0 ⇔ u = 0.
- !αu! = |α| !u! .

Proposición. Desigualdad de Cauchy-Schwartz. Sea (V, ϕ) un espacio


euclídeo. Para cualquier par de vectores u, v ∈ V se verifica:

|ϕ(u, v)| ≤ !u! !v! .

Demostración.
Si u = 0, el resultado es claro.
Supongamos u = 0. Para todo α ∈ R, se verifica:
0 ≤ !αu + v!2 = ϕ(αu + v, αu + v) = α2 ϕ(u, u) + 2αϕ(u, v) + ϕ(v, v).

ϕ(u, v)
Como u = 0, ϕ(u, u) > 0, si consideramos α = − , se tiene que:
ϕ(u, u)

ϕ(u, v)2 ϕ(u, v)2 ϕ(u, v)2


0≤ 2
ϕ(u, u) − 2 + ϕ(v, v) ⇒ 2 ≤ ϕ(v, v) = !v!2 ⇒
ϕ(u, u) ϕ(u, u) !u!

ϕ(u, v)2 ≤ !u!2 !v!2 ⇒ |ϕ(u, v)| ≤ !u! !v! .

Proposición. Desigualdad triangular. Sea (V, ϕ) un espacio euclídeo.


Para cualquier par de vectores u, v ∈ V, se verifica:

!u + v! ≤ !u! + !v! .

Demostración.
!u + v!2 = ϕ(u + v, u + v) = !u!2 + 2ϕ(u, v) + !v!2 ≤
!u!2 + 2 |ϕ(u, v)| + !v!2 ≤ !u!2 + 2 !u! !v! + !v!2 = (!u! + !v!)2 .

Observación.
De la desigualdad de Cauchy-Schwartz, |ϕ(u, v)| ≤ !u! !v! , se deduce
que − !u! !v! ≤ ϕ(u, v) ≤ !u! !v! y así cuando u = 0 y v = 0 se obtiene
que:

ϕ(u, v)
−1 ≤ ≤1
!u! !v!

108
lo que esto justifica la siguiente definición.

Definición. Sean u y v vectores no nulos de un espacio euclídeo (V, ϕ). El


ϕ(u, v)
número real θ ∈ [0, π] tal que cos θ = recibe el nombre de ángulo
!u! !v!
que forman los vectores u y v. Así,

ϕ(u, v) = !u! !v! cos θ.

Ortogonalidad. Bases ortonormales


Definición. Sean u y v vectores no nulos de un espacio euclídeo (V, ϕ) se
dice que son ortogonales o perpendiculares si ϕ(u, v) = 0, esto es, cuando
forman un ángulo de 90 grados. En este caso escribiremos u ⊥ v.

Consecuencias:

1. 0 es ortogonal a cualquier vector de V.

2. Dos vectores no nulos son orgonales si, y solo si, su ángulo es de 90o .

3. u y v son vectores ortogonales ⇔ !u + v!2 = !u!2 + !v!2 (Teorema de


Pitágoras).

4. En el espacio euclídeo Rn con el producto escalar usual, los vectores de


la base canónica son ortogonales dos a dos .

Proposición. Si los vectores no nulos v1 , · · · , vr son ortogonales dos a dos


en el espacio euclídeo (V, ϕ), entonces son linealmente independientes.
Demostración.
r

Sean α1 , · · · , αr ∈ R / αi vi = 0. Entonces, para cada vj ,
i=1
r
 r

0 = ϕ( αi vi , vj ) = αi ϕ(vi , vj ) = αj ϕ(vj , vj ).
i=1 i=1
Al ser vj = 0, ϕ(vj , vj ) = 0 y entonces αj = 0 para todo j = 1, · · · , r.

Definición. En un espacio euclídeo (V, ϕ) una base se dice que es ortogonal


cuando sus vectores son ortogonales dos a dos. Si además, todos los vectores
son de norma 1 se dice que es ortonormal.

La base canónica de Rn es una base ortonormal en el espacio euclídeo


Rn con el producto escalar usual.

109
Observación.
n

Si B = {v1 , · · · , vn } es una base ortogonal de V y v = αi vi ∈ V,
i=1
ϕ(v, vi )
entonces αi = para i = 1, · · · , n.
!vi !2

Esta facilidad para calcular las coordenadas de un vector en una base


ortogonal, nos permite hacer una demostración constructiva de la existencia
de bases ortogonales en cualquier espacio euclídeo de dimensión finita.

ϕ(v, u)
Definición. Sea (V, ϕ) un espacio euclídeo y u, v ∈ V . El vector v
!v!2
se llama proyección ortogonal de u sobre v.
ϕ(v, u) ϕ(v, u) ϕ(v, u)
Nótese que 2 v = 2 !v! = = !u! cos θ, siendo el
!v! !v! !v!
ángulo θ que forman u y v.
ϕ(v, u)
También se cumple que, v⊥(u− v).
!v!2
Este resultado nos ilustra sobre la construcción que se hace en el teorema
siguiente.

Teorema. Todo espacio vectorial euclídeo, (V, ϕ), de dimensión finita posee
una base ortogonal.
Demostración.
Sea B = {v1 , · · · , vn } una base de V.
Tomamos u1 = v1 = 0.
ϕ(u1 , v2 )
Definimos u2 = v2 − u1 ∈ V, u2 es un vector no nulo, porque
!u1 !2
v1 y v2 son linealmente independientes, y u1 ⊥ u2 , ya que ϕ(u1 , u2 ) =
ϕ(u1 , v2 ) ϕ(u1 , v2 )
ϕ(v1 , v2 − 2 u1 ) = ϕ(v1 , v2 ) − ϕ(v1 , u1 ) = 0.
!u1 ! !u1 !2
Siguiendo este proceso, si definimos:
j−1
 ϕ(ui , vj )
uj = vj − 2 ui ∈ V se tiene que uj = 0, ∀j, y ui ⊥ uj si i = j.
i=1 !ui !
Por tanto, {u1 , · · · , un } es una base ortogonal de V, ya que es un conjunto
de n vectores linealmente independiente en un espacio de dimensión n.

Corolario. Todo espacio vectorial euclídeo, (V, ϕ), de dimensón finita posee
una base ortonormal.

110
Demostración.
 Si B = {v1 , · ·· , vn } es una base ortogonal de V, entonces se tiene que
v1 vn
,··· , es una base ortonormal de V.
!v1 ! !vn !

Ejercicio.
En R4 con el producto escalar usual, obtener una base ortogonal del
subespacio

U = v1 = (1, 2, −1, 0), v2 = (1, 0, −2, 0), v3 = (0, 1, 1, 0) .

Prueba.
u1 = (1, 2, −1, 0),
ϕ(v2 , u1 ) 3 1 3
u2 = v2 − 2 u1 = (1, 0, −2, 0) − 6 (1, 2, −1, 0) = ( 2 , −1, − 2 , 0),
!u1 !
2 ϕ(v , u ) 1 5 1 3
3 i
u3 = v3 − 2 ui = (0, 1, 1, 0) − 6 (1, 2, −1, 0) + 7 ( 2 , −1, − 2 , 0).
i=1 !ui !

Ejercicio.
En R4 con el producto escalar usual, se pide:

a) Calcular un vector unitario ortogonal a los vectores:

(1, −1, 1, 1), (0, −1, 2, 1), (2, 0, 4, 2).

b) Obtener una base ortonormal del subespacio

U = u1 = (1, 0, 1, 1), u2 = (1, 1, 0, 2), u3 = (0, 1, 0, 0) .

Prueba.

a)

(x, y, z, t) ⊥ (1, −1, 1, 1) ⇔ x − y + z + t = 0 
(x, y, z, t) ⊥ (0, −1, 2, 1) ⇔ −y + 2z + t = 0

(x, y, z, t) ⊥ (2, 0, 4, 2) ⇔ 2x + 4z + 2t = 0
⇔ (x, y, z, t) = (α, −α, α, −3α), α ∈ R.
1
Por tanto √ (1, −1, 1, −3) es un vector unitario y ortogonal a los pe-
2 3
didos.

111

b) v1 = (1, 0, 1, 1), con !v1 ! = 3,

3 √
v2 = (1, 1, 0, 2) − (1, 0, 1, 1) = (0, 1, −1, 1), con !v2 ! = 3,
3
1 2 1 1
v3 = (0, 1, 0, 0) − 0(1, 0, 1, 1) − (0, 1, −1, 1) = (0, , , − ), con !v3 ! =
√ 3 3 3 3
6
.
3  
1 1 3 2 1 1
Así, B = √ (1, 0, 1, 1), √ (0, 1, −1, 1), √ (0, , , − ) es una base
3 3 6 3 3 3
ortonormal de U.

Definición. Sean U y W subespacios de un espacio euclídeo (V, ϕ). Diremos


que U y W son ortogonales si todo vector de U es ortogonal a todo vector
de W , y escribiremos U ⊥ W.
Nótese que si {u1 , · · · , ur } y {w1 , · · · , ws } son, respectivamente, base de
U y W:

U ⊥ W ⇔ ui ⊥ wj ∀i = 1, · · · , r y ∀j = 1, · · · , s.

Definición. Sea (V, ϕ) un espacio euclídeo y U un subespacio de V. Se llama


complemento ortogonal de U al subespacio U ⊥ = {v ∈ V / v ⊥ u, ∀u ∈ U } .

Propiedades. Si (V, ϕ) un espacio euclídeo y U un subespacio de V , se


verifica que:

1. U ⊥ U ⊥ .

2. V = U + U ⊥ y U ∩ U ⊥ = {0} .

3. dim(U ) + dim(U ⊥ ) = dim(V ).


 ⊥
4. U ⊥ = U.

Demostración.
Si se considera {u1 , · · · , ur } una base ortogonal de U, se completa a una
base de V, {u1 , · · · , ur , ur+1, · · · , un } , y a partir de ella, usando el Método
de Gram-Schmidt, se obtiene una base ortogonal de V , esta será de la forma
{u1 , · · · , ur , vr+1, · · · , vn } . Entonces, vr+1, · · · , vn  ⊂ U ⊥ . Puesto que U ∩
U ⊥ = {0} , se verifica que dim(U ) + dim(U ⊥ ) = dim(U + U ⊥ ) ≤ n, y en
consecuencia se tiene que vr+1, · · · , vn  = U ⊥ y, por tanto, V = U + U ⊥ y
dim(U ) + dim(U ⊥ ) = dim(V ).

112
Definición. Sea (V, ϕ) un espacio euclídeo, U un subespacio de V y v ∈ V .
Existen y son únicos u ∈ U y w ∈ U ⊥ tales que v = u + w. El vector u se
llama proyección ortogonal de v sobre U y se denotará por proyU v.

Observación.
Si {u1 , · · · , ur } es una base ortogonal de U y v ∈ V , entonces

ϕ(v, u1 ) ϕ(v, ur )
proyU v = 2 u1 + · · · + ur .
!u1 ! !ur !2
Ejercicio.
En R3 , con el producto escalar usual, encontrar el complemento ortogonal
del subespacio W = {(x, y, z)/x = y} .
Prueba.
W = (1, 1, 0), (0, 0, 1) .

⊥ x+y =0
(x, y, z) ∈ W ⇔ ⇔ W ⊥ = (−1, 1, 0) .
z=0

Ejercicio.
En R4 , con el producto escalar usual, encontrar el complemento ortogonal
de
U = {(x, y, z, t)/ x + y − z + t = 0, 2x + y − z + 3t = 0} .
Prueba. 
x+y−z+t=0

2x + y − z + 3t = 0
U = {(x, y, z, t)/ x = −2β, y = α + β, z = α, t = β} ⇔
U = (−2, 1, 0, 1), (0, 1, 1, 0) .

−2x + y + t = 0
(x, y, z, y) ∈ U⊥ ⇔ ⇒
y+z =0
 
1 1
U⊥ = (x, y, z, t)/ x = − z + t, y = −z ⇔
2 2
U ⊥ = (1, 2, −2, 0), (1, 0, 0, 2) .
De otra forma,
U = {(x, y, z, t)/ x + y − z + t = 0, 2x + y − z + 3t = 0} ⇒
(1, 1, −1, 1), (2, 1, −1, 3) ∈ U ⊥ y, teniendo en cuenta que dim(U ⊥ ) = 2, se
tiene directamente que (1, 1, −1, 1), (2, 1, −1, 3) = U ⊥ .

113
Definición. Sea (V, ϕ) un espacio euclídeo. Dados v, u ∈ V, se define la
distancia entre v y u, como

d(v, u) = !v − u! .

Es consecuenca inmediata de la definición que:

1. d(v, u) ≥ 0 ∀v, u ∈ V .

2. d(v, u) = 0 ⇔ v = u.

3. d(v, u) = d(u, v).

Observación.
n

Sea B = {v1 , · · · , vn } una base ortonormal de V , v = xi vi y u =
i=1
n

yi vi , entonces
i=1

n
 n n
!v − u!2 = ϕ( (xi − yi )vi , (xi − yi )vi ) = (xi − yi )2 y
i=1 i=1 i=1
!
n
d(v, u) = (xi − yi )2 .
i=1

Proposición. Sea (V, ϕ) un espacio euclídeo, U un subespacio de V y v ∈ V


de forma que v = proyU v + w con w ∈ U ⊥ . Se verifica que

d(v, proyU v) ≤ d(v, u) ∀u ∈ U.

Demostración.
v − u = (v − proyU v) + (proyU v − u) ∀u ∈ U . Como (v − proyU v) ∈
U ⊥ y (proyU v − u) ∈ U el teorema de Pitágoras nos dice que !v − u!2 =
!v − proyU v!2 + !proyU v − u!2 ≥ !v − proyU v!2 .

Definición. Sea (V, ϕ) un espacio euclídeo. Dados v ∈ V y U un subespacio


de V , se define la distancia entre v y U , como

d(v, U) = min{d(v, u) ∀u ∈ U } = d(v, proyU v).

114
Distancia de un punto a un hiperplano
En Rn , con el producto escalar usual, si v = (p1 , · · · , pn ) es un punto de Rn
y a1 x1 + · · · + an xn = 0 es la ecuación de un hiperplano H, entonces
 
a p + · · · + a p 
 1 1 n n
d(v, H) =   2 .
 a1 + · · · + a2n 

Demostración.
(a1 , · · · , an ) ∈ H ⊥ y como dim(H ⊥ ) = 1, se tiene que H ⊥ = (a1 , · · · , an ) .
La base de H ⊥ se puede completar a una base ortogonal de Rn de la forma
B = {v1 = (a1 , · · · , an ), v2, · · · , vn } y así,

a1 p1 + · · · + an pn
v − proyH v = (a1 , · · · , an ) y
!(a1 , · · · , an )!2
 
a p + · · · + a p 
 1 1 n n
d(v, H) = !v − proyH v! =   2 .
 a1 + · · · + a2n 

115

También podría gustarte