Curso de Álgebra Lineal: Notas y Ejercicios
Curso de Álgebra Lineal: Notas y Ejercicios
1. Álgebra matricial 1
1.1. Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2. Operaciones con matrices . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.3. Matrices elementales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.4. Forma escalonada y rango por filas de una matriz . . . . . . . . . . . . . 7
1.5. Determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.6. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
3. Espacios vectoriales 37
3.1. Subespacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
3.2. Sistema de generadores. Independencia lineal . . . . . . . . . . . . . . . 39
3.3. Bases y dimensión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
3.4. Rango de una matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
3.5. Teorema de Rouché-Frobenius . . . . . . . . . . . . . . . . . . . . . . . . 51
3.6. Ecuaciones de un subespacio . . . . . . . . . . . . . . . . . . . . . . . . . 51
3.7. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
4. Aplicaciones lineales 63
4.1. Matriz asociada a una aplicación lineal . . . . . . . . . . . . . . . . . . . 67
4.2. Matriz de cambio de base . . . . . . . . . . . . . . . . . . . . . . . . . . 70
4.3. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
iii
iv ÍNDICE GENERAL
5. Diagonalización de matrices 81
5.1. Valores y vectores propios . . . . . . . . . . . . . . . . . . . . . . . . . . 81
5.2. El anillo de polinomios K[x] . . . . . . . . . . . . . . . . . . . . . . . . . 83
5.3. Suma y producto en K[x] . . . . . . . . . . . . . . . . . . . . . . . . . . 83
5.4. Algoritmo de división en K[x] . . . . . . . . . . . . . . . . . . . . . . . . 84
5.5. Polinomio característico . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
5.6. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
Álgebra matricial
1.1. Matrices
A partir de ahora K denotará un cuerpo.
Definición 1.1. Una matriz A = (aij ) de orden m × n sobre un cuerpo K es una tabla
de doble entrada con mn elementos del cuerpo K, dispuestos en m filas y n columnas.
Al elemento que ocupa la fila i y la columna j de la matriz A lo denotaremos por aij o
por A(i, j). Así pues:
a11 a12 . . . a1n
a21 a22 . . . a2n
A= .
. .. . . ..
. . . .
am1 am2 . . . amn
Dos matrices A = (aij ) y B = (bij ) son iguales si tienen el mismo orden y para cada
par de índices i y j se tiene que aij = bij .
Al conjunto de las matrices de orden m × n sobre un cuerpo K se le denota por
Mm×n (K). Si m = n, se denota por Mn (K).
Si A ∈ M1×n (K) se dice que A es una matriz fila.
Si A ∈ Mm×1 (K) se dice que A es una matriz columna.
A las matrices de orden n × n se les llama matrices cuadradas de orden n.
Denotaremos por In la matriz diagonal de orden n, (δij ), con δii = 1 para i = 1, . . . , n
y δij = 0 para i 6= j. A esta matriz se le llamará matriz identidad n-ésima o matriz
identidad de orden n.
1
2 CAPÍTULO 1. ÁLGEBRA MATRICIAL
a11 + b11 a12 + b12 ... a1n + b1n
a21 + b21 a22 + b22 ... a2n + b2n
A+B = .
.. .. .. ..
. . . .
am1 + bm1 am2 + bm2 . . . amn + bmn
2. (α + β)A = αA + βA.
3. α(A + B) = αA + αB.
4. α(βA) = (αβ)A.
5. 1K A = A.
El elemento neutro del grupo (Mm×n (K), +) es la matriz con todas sus entradas 0
y la denotaremos por (0).
Definición 1.5. Sean A = (aij ) ∈ Mm×n (K) y B = (bij ) ∈ Mn×s (K) se define el
producto de A por B como una matriz AB en Mm×s (K) en donde:
n
P
(AB)(i, j) = aik bkj , para i = 1, . . . , m y j = 1, . . . , s.
k=1
Observaciones 1.6.
1. Nótese que, para hacer el producto AB es necesario que el número de columnas de
A coincida con el número de filas de B.
2. En general, el producto de matrices no es conmutativo. Por ejemplo,
0 0 1 0 0 0 0 0 1 0 0 0
= 6= = .
1 1 1 0 2 0 0 0 1 0 1 1
1.2. OPERACIONES CON MATRICES 3
1. Asociativa: (AB)C = A(BC), donde A ∈ Mm×n (K), B ∈ Mn×s (K) y C ∈ Ms×r (K).
Ejemplo 1.10.
1 2
1 3 5
Si A = ∈ M2×3 (R), entonces At = 3 4.
2 4 6
5 6
Proposición 1.11. Se verifican las propiedades siguientes:
Observaciones 1.12.
b11
b21
3. Si A = (aij ) ∈ Mm×n (K) y B = . ∈ Mn×1 (K), entonces
..
bn1
a11 b11 + a12 b21 + · · · + a1n bn1
a21 b11 + a22 b21 + · · · + a2n bn1
AB =
···
am1 b11 + am2 b21 + · · · + amn bn1
a11 a1n
a21 a2n
= . b11 + · · · + . bn1 = b11 C1 (A) + · · · + bn1 Cn (A),
.. ..
am1 amn
1.3. MATRICES ELEMENTALES 5
Ejemplo 1.13.
1 2 0 7 −1
1 −1
1 2 −1
3
6 −3
1 0 =
4 −1
1 0
1 2
0 4 3 15 6
Nótese que, como hemos visto en 2 y 3 de las observaciones 1.12, se tiene que:
EFi ↔Fj (i, j) = EFi ↔Fj (j, i) = EFi ↔Fj (k, k) = 1 si k 6= i, j y las demás entradas
son cero.
Im −−−−→
Fi ↔F j
EFi ↔Fj .
Im −→
αF i
EαFi con α ∈ K y α 6= 0.
EFi +αFj (k, k) = 1 ∀k, EFi +αFj (i, j) = α y las demás entradas son cero.
Im −−−−→
Fi +αF j
EFi +αFj .
Fk (EαFi A) = Fk (A), si k 6= i.
3. Fi (EFi +αFj A) = 0F1 (A) + · · · + 1Fi (A) + · · · + αFj (A) + · · · + 0Fn (A)
| {z } | {z }
i j
Corolario 1.16. Toda matriz elemental es invertible y su inversa también es una matriz
elemental. Concretamente,
(EFi ↔Fj )−1 = EFi ↔Fj , (EαFi )−1 = Eα−1 Fi y (EFi +αFj )−1 = EFi −αFj .
1.4. FORMA ESCALONADA Y RANGO POR FILAS DE UNA MATRIZ 7
Definición 1.17. Dos matrices A, B ∈ Mm×n (K) son equivalentes por filas si existen
matrices elementales E1 , . . . , Es tales que B = Es · · · E1 A.
La observación anterior nos indica que EFi ↔Fj es la matriz obtenida de la identidad
intercambiando la columna i-ésima con la j-ésima, EαFi es la matriz obtenida de la
identidad multiplicando la columna i-ésima por un escalar α 6= 0 y EFi +αFj es la matriz
obtenida de la identidad sumándole a la columna j-ésima la i-ésima multiplicada por
α ∈ K. Esto justifica la notación siguiente:
EFi ↔Fj = ECi ↔Cj , EαFi = EαCi , EFi +αFj = ECj +αCi .
Si además todos los pivotes son 1 y los elementos que aparecen en la misma columna
que el pivote de una fila son todos cero, se dice que es escalonada reducida por filas.
Nótese que si una matriz es escalonada reducida por filas, el número de pivotes
coincide con el número de filas no nulas.
Demostración.
“⇒” Si A es invertible ninguna de sus filas es nula y, como es escalonada, el número
de pivotes coincide con el número de filas y, por tanto, con el número de columnas.
Además, por ser A reducida, se tiene que A = In .
“⇐” Trivial.
Teorema 1.22. Toda matriz es equivalente por filas a una matriz escalonada y a una
única matriz escalonada reducida por filas.
Demostración. Ver álgebra Lineal de L. Merino y E. Santos, pág. 21, o Álgebra Lineal
y aplicaciones de J. Arvesú, R. Álvarez y F. Marcellán, pág. 43.
Ejercicio 1.23. Calcular una matriz escalonada equivalente por filas a la matriz A y
una escalonada reducida equivalente por filas a la matriz B, siendo
1 −2 3 9 1 −2 3 9
A = −1 3 0 −4 , B = 0 1 3 5 ∈ M3×4 (R).
2 −5 5 17 0 0 1 2
Prueba.
Para la matriz A se tiene que:
1 −2 3 9 1 −2 3 9
−1 3 0 −4 − −−−→ 0 1 3 5 −−−−−→
F2 +F1 F3 −2F1
2 −5 5 17 2 −5 5 17
1 −2 3 9 1 −2 3 9
0 1 3 5 − −−−→ 0 1 3 5 .
F3 +F2
0 −1 −1 −1 0 0 2 4
nos indica como calcular la inversa de una matriz no singular, usando transformaciones
elementales por filas.
Ejemplo 1.25.
−1 −2
Sea A = ∈ M2 (R). Para calcular la inversa de la matriz A procedemos
3 8
del modo siguiente:
−1 −2 1 0 1 2 −1 0
(A|I2 ) = −−→
−F1
−−−−−→
F2 −3F1
3 8 0 1 3 8 0 1
1 2 −1 1 0 −4 −1
! !
1 2 −1 0
0
−
1
−→ 3 1 −−−−−→
F1 −2F2
3 1
0 2 3 1 F
2 2 0 1 0 1
2 2 2 2
−4 −1
!
y, así, A−1 = 3 1 .
2 2
Definición 1.26. Sea A ∈ Mm×n (K), llamaremos rango por filas de A, y lo denotare-
mos por rf (A), al número de pivotes (o el número de filas no nulas) de cualquier matriz
escalonada por filas que sea equivalente por filas a A.
10 CAPÍTULO 1. ÁLGEBRA MATRICIAL
Observación 1.27.
El rango por filas está bien definido, ya que cualquiera de las matrices escalonadas
que sean equivalentes por filas a A tiene el mismo número de pivotes. En efecto, si B es
una matriz escalonada por filas, su número de pivotes coincide con el número de pivotes
de la única escalonada reducida a la que es equivalente por filas, ya que:
Si el pivote de la fila i, está la columna j, es α = bij , se convierte en 1 haciendo
Eα−1 Fi B.
Cada uno de los elementos no nulos de la columna j, bkj 6= 0, k = 1, . . . , i − 1, se
convierte en 0 haciendo EFk −bkj Fi Ebij −1 Fi B.
1.5. Determinantes
En este apartado, las matrices que se consideran son matrices cuadradas.
|A| = det(A) = a1j α1j + · · · + anj αnj , para cualquier j ∈ {1, . . . , n}.
y que también se puede calcular cambiando el papel de las columnas por filas, es decir,
|A| = det(A) = ai1 αi1 + · · · + ain αin , para cualquier i ∈ {1, . . . , n}.
Ejemplos 1.28.
3.
1 2 3
1 3
4 6 = 6 − 12 = −6 y 0 1 2 = 0 + 0 + 8 − 6 − 2 − 0 = 0.
2 1 0
3.
F 1 (A) F1 (A) F1 (A) F1 (A) F1 (A)
··· ··· ··· ··· ···
Fi (A) + Fj (A) Fi (A) Fi (A) Fj (A) Fj (A)
0 = ··· = ··· + ··· + ··· + ···
Fj (A) + Fi (A) Fj (A) Fi (A) Fj (A) Fi (A)
··· ··· ··· ··· ···
Fn (A) F (A) F (A) F (A) F (A)
n n n n
F1 (A) F1 (A)
··· ···
Fi (A) Fj (A)
= · · · + · · ·
Fj (A) Fi (A)
··· ···
F (A) F (A)
n n
4. Sea A = (aij ) una matriz de orden n, usaremos inducción en n para probar esta
propiedad. Si n = 1 es evidente. Supuesto n > 1 y que el resultado es cierto para
matrices de orden n − 1, si
a11 . . . a1n
··· ... ···
0
A = βai1 . . . βain
... ... ...
an1 . . . ann
Observaciones 1.30.
A es singular si, y solo si, A es equivalente por filas a una matriz escalonada por
filas A0 que tiene una fila de ceros si, y solo si, existen E1 , . . . , Es matrices elementales
tal que A = E1 · · · Es A0 , de lo que se deduce que
Demostración.
Caso 1) Si A es no singular.
Hemos visto que:
Si A es no singular, A es producto de matrices elementales, es decir, A = E1 · · · Ek
y |A| = |E1 | · · · |Es | =
6 0.
14 CAPÍTULO 1. ÁLGEBRA MATRICIAL
|AB| = |E1 (E2 · · · Ek B)| = |E1 | |E2 · · · Ek B| = · · · = |E1 | |E2 | · · · |Ek | |B| = |A| |B| .
Caso 2) Si A es singular.
Existen matrices elementales E1 , . . . , Es y una matriz A0 que tiene una fila de ceros
tal que A = E1 · · · Es A0 y |A| = 0.
Así, |AB| = |E1 · · · Es A0 B| = · · · = |E1 | · · · |Es | |A0 B| = 0, puesto que la matriz A0 B
tiene también alguna fila de ceros, y |AB| = 0 = |A| |B|.
Pretendemos ahora ver que el desarrollo de Laplace para el calculo del determinante
puede hacerse a lo largo de cualquier columna o de cualquier fila y, para ello, veremos
que el determinante de una matriz coincide con el de su traspuesta.
Lema 1.33. La traspuesta de una matriz elemental, E, es una matriz elemental que
tiene mismo determinante que E.
Teorema 1.34. Si A es una matriz de orden n, entonces |A| = At .
Corolario 1.35. Las proposición 1.29 es válida si se cambia la palabra fila por columna.
se tiene que:
= a11 (−1)1+1 det(A11 ) + · · · + a1n (−1)n+1 det(A1n ) = a11 α11 + · · · + a1n α1n .
|A| = a21 (−1)2+1 det(A21 ) + · · · + a2n (−1)2+n det(A2n ) = a21 α21 + · · · + a2n α2n .
|A| = a31 (−1)3+1 det(A31 ) · · · + a3n (−1)3+n det(A3n ) = a31 α31 + · · · + a3n α3n .
y, si i 6= j, se tiene que
n n n
aik |A|−1 αjk = |A|−1 (
P P P
(AB)(i, j) = aik B(k, j) = aik αjk ) = 0
k=1 k=1 k=1
n
P
ya que aik αjk = 0, porque es el desarrollo de Laplace, a lo largo de la fila j-ésima, del
k=1
determinante de una matriz que tiene todas sus filas como las de A, excepto la j-ésima
que coincide con la i-ésima de A, es decir, es el determinante de una matriz con dos
filas iguales.
1.6. Ejercicios
1.- Evaluar las siguientes operaciones con matrices reales:
1 −2
4 4 1 0 1
5 −3 , 5 −3 , 3 5 .
2 2 2 2 3
0 7
a) AB = BA.
b) (A + B)2 = A2 + 2AB + B 2 .
1.6. EJERCICIOS 17
c) A(A + B) = A2 + AB.
4.- Sea A ∈ Mn (R) una matriz no singular. Demostrar las siguientes propiedades:
a) (A−1 )−1 = A.
1 α α2 /2
6.- Demostrar que el producto de dos matrices diagonales es también una matriz dia-
gonal. ¿Es conmutativo este producto?
7.- Sean A, B ∈ Mn (R) y α ∈ R. Justificar la verdad o falsedad de las siguientes
afirmaciones:
0 −1 1
8.- Se considera la matriz A = 0 1 −1 ∈ M3 (R).
0 0 1
Hallar una fórmula para An , siendo n un entero positivo.
1 0
9.- Si A = ∈ M2 (R), demostrar que A2 = 2A − I2 y calcular A100 .
−1 1
10.- Sean A = (aij ) ∈ M5×3 (R) y B = (bij ) ∈ M3×4 (R) tales que
Demostrar que la suma de los elementos de cada una de las filas de la matriz producto
AB es αβ.
2 1
−1 3
11.- Halla una matriz elemental E que transforma la matriz A = 0 4 en B,
1 2
donde:
2 1 2 1 2 1
0 4 −1 3 −1 3
−1 3 ; b) B = 0 4 ; c) B = 0 3 .
a) B =
1 2 5 4 1 2
a) E1 A = B; b) E2 B = A; c) E3 A = C; d) E4 C = A, donde
3 4 1 8 1 5 3 4 1
A = 2 −7 −1 , B = 2 −7 −1 y C = 2 −7 −1
8 1 5 3 4 1 2 −7 3
¿Es posible encontrar una matriz elemental E tal que EB = C? Justifica la respues-
ta.
13.- Encontrar una matriz A ∈ M3 (R) que verifique la igualdad siguiente:
21.- Calcular los valores de a para que la siguiente matriz tenga inversa
20 CAPÍTULO 1. ÁLGEBRA MATRICIAL
1 2 0
1 a 3 ∈ M3 (R).
2 1 3
1 a a2 a3 a4
0 0 0 0 1
0 1 a a2 a 3 0 1 a a2 a3
2
A= 0 0 1 a a yB= 0 1
1+a a + a2 a2 + a3
0 0 0 1 a 0 0 0 1 a
0 0 0 0 1 1 a a2 a3 a4
25.- Demostrar que el determinante del producto de una matriz 2 × 1 por otra 1 × 2 es
siempre cero.
26.- Sean A,B ∈ Mn (R) y α ∈ R. Razonar si son verdaderas o falsas las siguientes
afirmaciones:
a) |A + B| = |A| + |B|.
b) |αA| = α |A|.
c) |αA| = αn |A|.
1.6. EJERCICIOS 21
27.- Sean A,B ∈ M3 (R) tales que |A| = 3 y |B| = 5. Calcular los determinantes de las
siguientes matrices:
29.- Sabiendo que los números 1353, 3751, 8492 y 6105 son todos divisibles por 11,
demostrar que el determinante de la siguiente matriz es, también, un múltiplo entero
de 11:
1 3 5 3
3 7 5 1
A= 8 4 9 2 .
6 1 0 5
31.- Sea A una matriz cuadrada n × n formada por números enteros entre 0 y 9.
Demostrar que si las filas (las columnas) de A, leídas como un número de n dígitos,
forman un múltiplo de 3, entonces |A| también es un múltiplo de 3.
32.- Resolver en Z la ecuación:
1 x 0 x
0 2 x 0
= 2.
1 0 −1 x
x 1 −1 x
22 CAPÍTULO 1. ÁLGEBRA MATRICIAL
33.- Determinar los valores reales de x para los que se verifica que |A| =
6 0, siendo
x 2 0 3
1 2 3 3
A= 1 0 1
.
1
1 1 1 3
a) A es idempotente, es decir A2 = A.
a1 x1 + a2 x2 + · · · + an xn = b (∗)
a1 α1 + a2 α2 + · · · + an αn = b
Ejemplos 2.2.
2. La ecuación x2 + 2y = 1 no es lineal.
25
26 CAPÍTULO 2. SISTEMAS DE ECUACIONES LINEALES
a11 x1 + a12 x2 + · · · + a1n xn = b1
a21 x1 + a22 x2 + · · · + a2n xn = b2
(S),
···
am1 x1 + am2 x2 + · · · + amn xn = bm
Ejemplos 2.4.
Sean tres sistemas con coeficientes en R:
1.
x+y =2
es un sistema incompatible y representa a dos rectas paralelas.
x+y =7
2.
x+y =2
es un sistema compatible determinado, puesto que (−5, 7) es su
y =7
única solución. Representa a dos rectas que se cortan en el punto (−5, 7).
3.
x + y =2
es un sistema compatible indeterminado, puesto que tiene
2x + 2y = 4
más de una solución, por ejemplo (1, 1) y (0, 2). Se trata ahora de dos rectas
coincidentes.
llamaremos:
matriz de los coeficientes del sistema a la matriz A = (aij ) ∈ Mm×n (K),
matriz de los términos independientes a la matriz B = (b1 . . . bm )t ∈ Mm×1 (K),
matriz ampliada del sistema a la matriz
a11 . . . a1n b1
(A | B) = . . . . . . . . . . . . ∈ Mm×(n+1) (K).
am1 . . . amn bm
x1
Si denotamos por X = ... , el sistema anterior tiene la siguiente expresión ma-
xn
tricial:
AX = B.
C1 (A)x1 + · · · + Cn (A)xn = B.
Vamos a considerar tres tipos de operaciones que nos permitirán transformar un sis-
tema, S, en otro que sea equivalente, S 0 . A estas operaciones les llamaremos operaciones
elementales y son las siguientes:
3. Sumarle a una ecuación otra multiplicada por α ∈ K. (Fi + αFj con i 6= j).
Nótese que:
S −−−−→
Fi ↔Fj
S0 −−−−→
Fi ↔Fj
S
S −−→
αFi
S0 −
1
−→ S
F
α i
S −−−−−→
Fi +αFj
S0 −−−−−→
Fi −αFj
S.
Ejemplos 2.9. Vamos a resolver tres sistemas de ecuaciones lineales con coeficientes
en R.
2.4. MÉTODO DE GAUSS Y REGLA DE CRAMER. 29
1.
x − 2y + 3z = 9 x − 2y + 3z = 9
F2 +F1
−x + 3y = −4 −→ y + 3z = 5
F3 −2F1
2x − 5y + 5z = 17 − y − z = −1
x − 2y + 3z = 9
−−−−→
F3 +F2
y + 3z = 5
2z = 4
La única solución de este sistema es (1, −1, 2). Por tanto, se trata de un sistema
compatible determinado.
2.
y − z = 0 x − 3z = −1
x − 3z = −1 −
−−−− →
F2 ↔F1
y − z = 0
−x + 3y = 1 −x + 3y = 1
x − 3z = −1 x − 3z = −1
−−−−→
F3 +F1
y − z = 0 −−−−−→
F3 −3F2
y − z = 0
3y − 3z = 0 0y + 0z = 0
Las ternas de la forma (−1 + 3z, z, z) con z ∈ R son las soluciones del sistema.
Por tanto, se trata de un sistema compatible indeterminado en donde x e y son las
incógnitas principales y z la incógnita libre.
3.
x − 3y + z = 1 x − 3y + z = 1
2x − y − 2z = 2 −−−−−→
F2 −2F1
5y − 4z = 0
x + 2y − 3z = −1 x + 2y − 3z = −1
x − 3y + z = 1 x− 3y+ z = 1
−−−−→
F3 −F1
5y − 4z = 0 − −−−→
F3 −F2
5y− 4z = 0
5y − 4z = −2 0y− 0z = −2
4.
ax +y = 1 ax +y = 1
−−−−→
(a + 1)x +y = 2 F2 −F1 x =1
x =1 x =1
−
−−−−→ −−−−−→
F1 ↔F2 ax +y = 1 F2 −aF1 y =1−a
o bien, si escalonamos el sistema considerando las variables en otro orden se tiene que:
y +ax = 1 y +ax = 1
−−−−→
y +(a + 1)x = 2 F2 −F1 x =1
30 CAPÍTULO 2. SISTEMAS DE ECUACIONES LINEALES
cuya solución se obtiene usando sustitución hacia atrás, como se indicó anteriormente.
También se puede continuar el proceso hasta llegar a una matriz que sea escalonada
reducida,
1 −2 3 9 1 0 9 19
0 1 3 5 −−−−−→ 0 1 3 5
F1 +2F2
0 0 1 2 0 0 1 2
1 0 0 1 1 0 0 1
−−−−−→ 0 1 3 5 −−−−−→ 0 1 0 −1
F1 −9F3 F2 −3F3
0 0 1 2 0 0 1 2
a) Número de pivotes = número de incógnitas = n. En éste caso, existe una única solu-
ción y la solución viene dada por la última columna. Es decir, la matriz escalonada
reducida tiene una de las formas siguientes
1 0 ... 0 b1
0 1 ... 0 b2
1 0 ... 0 b1
.. .. .. .. ..
. . . . . 0 1 . . .
0 b2
0 0 ... 1 bn o
. . .. .. ..
0 .. .. . . .
0 ... 0 0
0 0 . . . 1 bn
.. .. .. .. ..
. . . . .
0 0 ... 0 0
b) Número de pivotes < número de incógnitas. En éste caso, hay más de una solución
y estas estarán parametrizadas por las variables libres.
1. Si el último pivote está en la última columna, es decir, la última ecuación no nula (la
r-ésima) tiene término independiente distinto de cero y, por tanto, es de la forma
0x1 + · · · + 0xn = b, con b 6= 0, el sistema es incompatible.
Ejemplos 2.10.
3.
1 2 3 4 1 2 3 4 1 2 3 4
B = 2 4 7 9 −−−−−→
F2 −2F1
0 0 1 1 −−−−−→
F3 −2F1
0 0 1 1.
2 4 6 9 2 4 6 9 0 0 0 1
Demostración.
“⇐” Si A es no singular, entonces X = A−1 B.
“⇒” Si AX = B es compatible determinado, A es equivalente por filas a una matriz
escalonada reducida cuyo número de pivotes coincide con el número de incógnitas, es
decir, A es equivalente por filas a la matriz In y, por tanto, es no singular.
n n n
xi = X(i, 1) = |A|−1 ((adj(A))t )(i, k)bk = |A|−1 αki bk = |A|−1
P P P
bk αki .
k=1 k=1 k=1
n
P
Nótese que bk αki es el desarrollo, por la columna i-ésima, del determinante de
k=1
una matriz que se obtiene de la matriz A cambiando su columna i-ésima por la de los
términos independientes del sistema.
2.6. Ejercicios
1.- Resolver, si es posible, los siguientes sistemas de ecuaciones lineales con coeficientes
en R:
x +y +z −t = 1
y −z +t = −1
a)
3x +6z −6t = 6
−y +z −t = 1
2x +z = 2
b) x +2y = 1
4x +4y +z −t = 5
2x +y −4z = 0
c) 3x +5y −7z = 0
4x −5y −6z = 0
x +y +z = 6
d) 2x −y +z = 3
3x −z = 0
x +y +z +t = 6
2x +3y −t = 0
e)
−3x +4y +z +2t = 4
x +2y −z +t = 0
4.- Determinar para que valores reales de a el sistema de ecuaciones lineales con coefi-
cientes en R siguiente tiene solución única, tiene infinitas soluciones y no tiene solución.
x +y +z = 4
z = 2
2
(a − 4)z = a − 2
6.- Hallar condiciones sobre el parámetro k que hagan compatible el sistema de ecua-
ciones lineales con coeficientes en R:
x +2y −z = 3
−x −y +z = 2
−x +y +z = k
7.- Hallar los valores reales del parámetro α para que el siguiente sistema de ecuaciones
lineales con coeficientes en R tenga soluciones no triviales.
(α + 2)x −2y +3z = 0
−2x +(α − 1)y +6z = 0
x +2y +αz = 0
a 0 b 2
8.- Sea a a 4 4 ∈ M3×4 (R) la matriz ampliada de un sistema S. Encontrar
0 a 2 b
los valores que deben tomar a y b en los siguientes casos:
b) S no tiene solución.
20.- Sea S un sistema de m ecuaciones lineales con n incógnitas. Sabiendo que m < n,
probar que S puede ser incompatible o compatible indeterminado, pero no puede ocurrir
que sea compatible determinado.
Capítulo 3
Espacios vectoriales
1. En V está definida una operación interna que denotaremos por + de modo que (V, +)
es un grupo abeliano.
K × V −→ V
(α, v) 7→ αv
a) (α + β)v = αv + βv,
b) α(v + w) = αv + αw,
c) α(βv) = (αβ)v,
d) 1K v = v.
Ejemplos 3.2.
1. K es un K-espacio vectorial.
2. Rn es un R-espacio vectorial.
37
38 CAPÍTULO 3. ESPACIOS VECTORIALES
Demostración.
1.
“⇐” Como 0v = (0 + 0)v = 0v + 0v, se obtiene que 0v = 0. Análogo si v = 0.
“⇒” Si αv = 0, con α 6= 0, se verifica que v = 1K v = (α−1 α)v = α−1 (αv) =
α−1 0 = 0.
1. u + u0 ∈ U para todo u, u0 ∈ U .
Ejemplos 3.5.
2. U = {(x, 0, y) | x, y ∈ R} es un subespacio de R3 .
3. U = {(x, y, z) ∈ R3 | x + y = 1} no es un subespacio de R3 .
3.2. SISTEMA DE GENERADORES. INDEPENDENCIA LINEAL 39
4. U = {(x, y, z) ∈ R3 | x + y = 0, x + 2y + z = 0} es un subespacio de R3 .
2. u ∈ U ∩ W y α ∈ K ⇔ u ∈ U y u ∈ W y α ∈ K ⇒ αu ∈ U y αu ∈ W ⇔ αu ∈
U ∩ W.
Ejemplos 3.7.
1. En R2 el vector (3, 7) es combinación lineal de los vectores (1, 1), (1, 0) y (0, 5) ya
que (3, 7) = 2(1, 1) + 1(1, 0) + 1(0, 5) = 7(1, 1) − 4(1, 0).
En este ejemplo, se observa que la forma de expresar un vector como combinación
lineal de un conjunto de generadores no es única.
1 1 1
obtenemos que la única solución del sistema es , , y que
2 2 2
1 1 1
(1, 1, 1) = (1, 1, 0) + (0, 1, 1) + (1, 0, 1).
2 2 2
hSi ⊂ hS 0 i S ⊂ hS 0 i
hSi = hS 0 i ⇔ y ⇔ y
hS 0 i ⊂ hSi
0
S ⊂ hSi
i) hv1 , . . . , vi , . . . , vj , . . . , vn i = hv1 , . . . , vj , . . . , vi , . . . , vn i.
Ejemplos 3.16.
2 1 3 0 1 0
1. El conjunto S = , , ⊂ M2 (R) es linealmente indepen-
0 1 2 1 2 0
diente. En efecto:
2 1 3 0 1 0 0 0
α1 + α2 + α3 = ⇔
0 1 2 1 2 0 0 0
2α1 + 3α2 + α3 =0
α1 =0
⇔ α1 = α2 = α3 = 0.
2α2 + 2α3 =0
α1 + α2 =0
42 CAPÍTULO 3. ESPACIOS VECTORIALES
Observaciones 3.17.
1. Si S = {u} ⊂ V ,
S es linealmente independiente ⇔ u 6= 0,
ya que αu = 0 ⇔ α = 0 o u = 0.
v∈
/ hSi ⇔ S ∪ {v} es linealmente independiente.
Demostración.
“⇒” Sea αv + α1 u1 + · · · + αn un = 0 con α, α1 , . . . , αn ∈ K y u1 , . . . , un ∈ S. Como
v∈/ hSi se tiene que α = 0 y, como además S es linealmente independiente, αi = 0 para
i = 1, . . . , n.
“⇐” Trivial ya que si v perteneciese a hSi, S ∪{v} sería linealmente dependiente.
Nótese que, como consecuencia de la proposición anterior, las filas no nulas de una
matriz escalonada A de orden m × n son vectores linealmente independientes de K n .
3.3. BASES Y DIMENSIÓN 43
1. B es un conjunto generador de V .
2. B es linealmente independiente.
Ejemplos 3.20.
3. El conjunto {(1, 0, 3), (0, 1, 7), (0, 0, 1)} es una base de R3 y, sin embargo, el conjunto
{(1, 0, 3), (0, 1, 7), (0, 0, 1), (1, 1, 1)} no lo es puesto que es linealmente dependiente.
1. B es una base de V .
(α1 , . . . , αn ) ∈ K n .
S = {v1 = (1, 1, 0, 0), v2 = (0, 1, 0, 0), v3 = (−1, −1, 0, 0), v4 = (1, 2, 0, 0), v5 = (0, 2, 3, 3)}.
Teorema 3.27. Sea B = {v1 , . . . , vn } una base de V . Todo subconjunto de V con más
de n elementos es linealmente dependiente.
Teorema 3.28. Si V tiene una base con n elementos, toda base de V tiene también n
elementos.
Demostración.
1) Veamos que V = hSi. En efecto:
Dado v ∈ V , si v ∈/ hSi, sabemos que S ∪ {v} es un conjunto linealmente indepen-
diente con n + 1 elementos, en contradicción con el teorema visto antes.
2) Si S es linealmente dependiente hemos probado, en el teorema de existencia de
base 3.25, que existe un subconjunto B de S de m elementos que es una base con m < n,
lo que contradice que dim(V ) = n.
Ejemplo 3.33. Sea S={u1 = (1, 1, 1, 1), u2 = (1, 2, 3, 4)} ⊂ R4 . Veamos como se puede
ampliar S a una base de R4 .
Por una parte, sabemos que hu1 , u2 i = h(1, 1, 1, 1), (0, 1, 2, 3)i.
u2 −u1
Además, S 0 = {(1, 1, 1, 1), (0, 1, 2, 3), (0, 0, 1, 0), (0, 0, 0, 1)} es un conjunto de 4 vec-
tores escalonados no nulos y, por tanto, linealmente independientes. Así, R4 = hS 0 i.
Como
se obtiene que {(1, 1, 1, 1), (1, 2, 3, 4), (0, 0, 1, 0), (0, 0, 0, 1)} es una base de R4 .
1. dim(U ) ≤ dim(V ).
2. dim(U ) = dim(V ) ⇔ U = V .
Demostración. 1) Suponemos conocido que todo espacio vectorial tiene una base. Si U
es un subespacio de V , todo subconjunto de U linealmente independiente tendrá a lo
sumo n vectores porque dim(V ) = n y, en consecuencia, dim(U ) ≤ n.
(Otra demostración). Si U = {0} es trivial. En otro caso, existe u1 ∈ U, u1 6= 0 y
el conjunto {u1 } es linealmente independiente. Si este conjunto generase U ya estaría.
En caso contrario, existirá algún u2 ∈ U, u2 ∈
/ hu1 i y el conjunto {u1 , u2 } ⊂ U será de
nuevo linealmente independiente. Repitiendo el proceso y teniendo en cuenta que en V
no hay subconjuntos independientes de más de n elementos, encontraremos una base de
U con a lo sumo n elementos.
2) Si dim(U ) = dim(V ) = n, entonces U tiene una base de n elementos. Como
sabemos que todo subconjunto de V linealmente independiente y con n elementos es
base, se obtiene que U = V y la base de U lo es también de V .
Como
U + W = v1 , . . . , vt , ui1 , . . . , uis−t , wi1 , . . . , wir−t ,
para obtener el resultado, es suficiente comprobar que el conjunto
Proposición 3.36. Si A, B ∈ Mm×n (K) son matrices equivalentes por filas, entonces
Demostración. Como demuestra el lema 3.13, cada operación elemental que se hace en
las filas de una matriz deja invariante el subespacio vectorial de K n generado por sus
filas.
Corolario 3.38. Si A, B ∈ Mm×n (K) son matrices equivalentes por filas, entonces
rf (A) = rf (B).
Nótese que si A, B ∈ Mm×n (K) son matrices equivalentes por columnas, entonces
rc (A) = rc (B).
3.4. RANGO DE UNA MATRIZ 49
Proposición 3.40. Si B ∈ Mm×n (K) es una matriz escalonada reducida con s pivotes,
entonces
rf (B) = s = rc (B).
Demostración. Si B es una matriz escalonada reducida, B es equivalente por columnas
a una matriz de la forma:
Is B 0
∈ Mm×n (K)
0 0
Es claro que las n − s últimas columnas son combinación lineal de las s primeras
y, como estas son linealmente independientes y las columnas de esta matriz generan el
mismo espacio que las de B, se tiene que rf (B) = s = rc (B).
Proposición 3.41. Si A, B ∈ Mm×n (K) son matrices equivalentes por filas, entonces
rc (A) = rc (B).
Demostración. Puesto que, al ser A y B matrices equivalentes por filas, los sistemas
AX = 0 y BX = 0 tienen las mismas soluciones, se tiene que:
α1 C1 (A) + · · · + αn Cn (A) = 0 ⇔ (α1 , . . . , αn ) es solución de AX = 0
⇔ (α1 , . . . , αn ) es solución de BX = 0 ⇔ α1 C1 (B) + · · · + αn Cn (B) = 0.
Es decir, las columnas de A y de B verifican las mismas condiciones de dependencia
lineal y, como consecuencia, rc (A) = rc (B).
Definición 3.43. Si A ∈ Mm×n (K) se define rango de A como el rango por filas de A
o el rango por columnas de A y se denotará por r(A).
ai1 j1 ... ai1 jp
Ap = . . . ... ...
aip j1 ... aip jp
Fk (A)
Demostración.
1) Como, AX = B ⇔ C1 (A)x1 + · · · + Cn (A)xn = B, se tiene que:
AX = B es compatible ⇔ B ∈ hC1 (A), . . . , Cn (A)i
⇔ hC1 (A), . . . , Cn (A)i = hB, C1 (A), . . . , Cn (A)i
⇔ r(A) = dim hC1 (A), . . . , Cn (A)i = dim hB, C1 (A), . . . , Cn (A)i = r(A|B).
2) Si r(A) = r(A|B) = r < n, entonces el conjunto {C1 (A), . . . , Cn (A)} es li-
nealmente dependiente, es decir, existen escalares α1 , . . . , αn no todos cero tales que
α1 C1 (A) + · · · + αn Cn (A) = (0), es decir, (α1 , . . . , αn ) es una solución no trivial del
sistema homogéneo AX = (0). Es inmediato comprobar que si (β1 , . . . , βn ) es una so-
lución de AX = B también lo es (α1 + β1 , . . . , αn + βn ) y, por tanto, el sistema tiene
más de una solución.
Recíprocamente, si (α1 , . . . , αn ) y (β1 , . . . , βn ) son dos soluciones distintas del sis-
tema AX = B, tenemos que (α1 − β1 ) C1 (A) + · · · + (αn − βn )Cn (A) = (0) y, ya que
existe algún i para el cual αi − βi 6= 0, se sigue que el conjunto {C1 (A), . . . , Cn (A)} es
linealmente dependiente y r(A) < n.
x1 . . . xn
Demostración.
1 2 3 4
0 1 2 0
1. (x, y, z, t) ∈ U ⇔ = 0 ⇔ −3x − 2y + z + t = 0.
0 1 1 1
x y z t
o bien, como
1 1 1 0 1 1 1 0
0 1 1 1 −→ 0 1 1 1 se tiene,
F3 −xF1
x y z t F3 −(y−x)F2 0 0 z − y t − y + x
1 1 1 0 1 1 1 0
−y + z = 0
r 0 1
1 1 =r 0 1 1 1 =3⇔
x−y+t=0
0 0 z−y t−y+x x y z t
3.7. Ejercicios
1.- Probar que el grupo abeliano (R2 , +) no admite estructura de espacio vectorial para
las siguientes multiplicaciones por escalares:
a) U1 = {(a, b, c, d) ∈ R4 | a + b = 0, c − d = 0}.
d) U4 = {(a, b, c, d) ∈ R4 | a = 1}.
e) U5 = {(a, b, c, d) ∈ R4 | a2 + b2 = 0}.
f ) U6 = {(a, b, c, d) ∈ R4 | a2 + b2 = 7}.
h) U7 = {(a, b, c, d) ∈ R4 | c ∈ Z}.
4.- Sea S = {(1, 1, 0), (0, 1, 2)} ⊂ R3 . ¿Alguno de los vectores u = (3, 5, 4), v = (2, 4, 7)
pertenece al subespacio hSi?
Demostrar que U2 ( U1 .
Demostrar que U1 = U2 .
18.- Calcular para que valores de a son linealmente independientes los vectores:
c) Si u ∈
/ hv, wi, entonces u y w son linealmente independientes.
d) Si u ∈
/ hv, wi, entonces u, v y w son linealmente independientes.
d) dim hu, vi = 2.
22.- Hallar una base para cada uno de los siguientes subespacios de R3 :
c) U3 = {(a, b, c) | a + b − c = 0}.
d) h(1, 1, −2), (2, −1, 1), (3, −3, 4), (4, −5, 7)i.
a) U = {(x, y, z, t) ∈ R4 | x − y + z − 2t = 0, y + z = 0}.
c) h(1, 0, 1, 0), (2, −1, 0, 1)i ∩ h(1, 0, 1, 0), (4, −1, 2, 1)i.
24.- Probar que B = {u1 = (−1, 1, 1), u2 = (1, −1, 1), u3 = (1, 2, −1)} es una base de
R3 . Calcular, en esta base, las coordenadas de los vectores de la base canónica.
25.- Demostrar que los vectores (1, 0, 0, 0), (1, 1, 0, 0), (1, 1, 1, 0) y (1, 1, 1, 1) son una
base de R4 y calcular las coordenadas de (1, 1, 1, 0) y de (5, 3, 6, 1) en dicha base.
26.- Sabiendo que un vector u ∈ R2 tiene coordenadas (1, β) en la base B = {(1, 2), (4, −1)}
y coordenadas (6, α) en la base B 0 = {(1, 1), (1, −1)}, calcular α y β.
27.- Sea S = {(1, 0, 0, 1), (0, 2, 0, 2), (1, 0, 1, 0), (0, 2, 2, 0)} un subconjunto de R4 . En-
contrar una base de hSi, ampliarla a una base de R4 y calcular las coordenadas de
(1, 1, 1, 1) en dicha base.
28.- Escribir una base de P2 (R) y explicar por qué los siguientes conjuntos no son base
de P2 (R):
b) {1 − x, 1 − x2 , 3x2 − 2x − 1}.
29.- Sea {v1 , v2 , v3 } una base de un K-espacio vectorial V . Probar que el conjunto
{v1 , v1 + v2 , v1 + v2 + v3 } también es base de V .
31.- ¿Para que valores de α los vectores (α, 0, 1, −α), (α, 1, 2, 1) y (1, 0, α, α) generan
un subespacio vectorial de R4 de dimensión 2?
Calcular sus dimensiones y dar una base para cada uno de los siguientes subespacios:
U, W, U ∩ W y U + W.
U = (x, y, z, t) ∈ R4 | x − y + 2z − t = 0, y − 2z = 0 y
39.- Encontrar unas ecuaciones implícitas para el subespacio de R3 que tiene por base
{(2, 1, 1), (1, 1, 2)}.
41.- Hallar una base y unas ecuaciones implícitas para el subespacio de R5 generado
por los vectores (1, 1, 1, 1, 1), (1, 1, 1, 1, 0) y (1, 1, 1, 0, 0).
b) ¿Es U1 ∪ U2 un subespacio de R3 ?
c) Probar que U1 + U2 = R3 .
U = {(x, y, z, t) | x + y + 3z − 2t = 0} y
W = h(1, 1, 0, 1), (2, 2, −1, 2), (3, 4, 0, 2), (2, 3, −1, 1)i.
U = h(1, 0, 1, 0), (−α, 0, 0, 0)i y W = h(0, 1, 0, 1), (0, 1/α, −α, 1/β)i.
F = (x, y, z, t) ∈ R4 | x + y + 3z − 2t = 0 y
G = h(1, 1, 0, 1), (2, 2, −1, 2), (3, 4, 0, 2), (2, 3, −1, 1)i.
a) R4 = U ⊕ W .
b) U ∩ W = h(1, 1, 1, 1)i.
/ U , entonces R4 = U + hvi.
c) Si v ∈
k) Todos los subconjuntos de S = {(1, 0), (1, 1), (0, 1)} con dos elementos son base de
R2 .
52.- Sea U = h(1, 1, 0, a), (3, −1, b, −1), (−3, 5, 0, a)i un subespacio de R4 .
U = h(1, −1, 1, 0), (0, 1, −1, 1), (1, 0, 0, −1), (3, −1, 1, −2)i y
W = h(1, 0, 0, 0), (1, −2, 2, 0), (0, 1, −1, 1)i.
c) Probar que U = W .
3.7. EJERCICIOS 61
√ √ √
d) Justificar que v = ( 3, 2 − 1, 1 − 2, 0) ∈ U y encontrar v 0 , v 00 ∈ U de modo que
{v, v 0 , v 00 } sea una base de U .
55.- Sea U = hu, v, wi ⊂ R4 tal que dim(U ) = 3. Razonar, dando una demostración o
un contraejemplo, si las afirmaciones siguientes son verdaderas o falsas:
a) hu, vi ∩ hu + v + wi = {0}.
b) hu, vi + hu + v + wi = U.
d) hu + vi ( hu, vi .
a) U + W = R6 ⇔ U no está contenido en W .
b) U ⊂ W .
c) U ∩ W = {0}.
62 CAPÍTULO 3. ESPACIOS VECTORIALES
Capítulo 4
Aplicaciones lineales
1. f (v + v 0 ) = f (v) + f (v 0 ),
2. f (αv) = αf (v),
para cualesquiera v, v 0 ∈ V y α ∈ K.
Ejemplos 4.2.
1. f (0) = 0.
63
64 CAPÍTULO 4. APLICACIONES LINEALES
Demostración.
1) (g ◦ f )(v + v 0 ) = g[f (v + v 0 )] = g[f (v) + f (v 0 )] = g[f (v)] + g[f (v 0 )]
= (g ◦ f )(v) + (g ◦ f )(v 0 ), ∀v, v 0 ∈ V .
2) (g◦f )(αv) = g[f (αv)] = g[αf (v)] = αg[f (v)] = α(g◦f )(v), ∀v ∈ V y ∀α ∈ K.
f (x, y, z) = (x + y, x − z, x − z).
a) El núcleo y la imagen de f .
c) f −1 {(x, y, z) ∈ R3 | x − y + z = 0}.
= h(1, 1, 1), (1, 0, 0), (0, −1, −1)i = h(1, 0, 0), (0, −1, −1)i.
(1,1,1)=(1,0,0)−(0,−1,−1)
c) f −1 {(x, y, z) ∈ R3 | x − y + z = 0}
= {(x, y, z) ∈ R3 | x + y − (x − z) + x − z = 0}
Demostración. Como las coordenadas de cada vector v ∈ V respecto de una base B son
n
P n
P
únicas, si v = αi vi se define f (v) = αi wi . De este modo, f es lineal y f (vi ) = wi
i=1 i=1
para i = 1, . . . , n. La unicidad es inmediata.
1. f es inyectiva si, y solo si, Ker f = {0} si, y solo si, cualquier subconjunto de V
linealmente independiente tiene como imagen un subconjunto de W linealmente
independiente.
2. f es sobre si, y solo si, cualquier conjunto de generadores de V tiene como imagen
un conjunto de generadores de W .
m
P
Definición 4.15. Si f : V → W es una aplicación lineal definida por f (vj ) = aij wi ,
i=1
para cada vj con j = 1, . . . , n, la matriz A = (aij ) ∈ Mm×n (K) se llama matriz asociada
a la aplicación lineal f respecto de las bases B y B 0 y se denota por (f )B,B0 .
xn
Xn n
X n
X Xm m X
X n
f (v) = f ( xj vj ) = xj f (vj ) = xj ( aij wi ) = ( xj aij )wi .
j=1 j=1 j=1 i=1 i=1 j=1
Ejemplos 4.17.
f (x, y, z) = (x − y, y + z, z, x − z)
y B = {(1, 1, 1), (1, 0, 1), (1, 1, 0)} es una base de R3 , la matriz asociada a f res-
pecto de la base B y de la base canónica es:
0 1 0
2 1 1
(f )B,C =
1
.
1 0
0 0 1
Además, si B 0 = {(0, 2, 1, 0), (1, 1, 1, 0), (0, 1, 0, 1), (0, 0, 0, 1)}, se tiene que
1 0 0
0 1 0
(f )B,B0 =
0
.
0 1
0 0 0
(g)B0 ,B00 (f )B,B0 (v)B = (g)B0 ,B00 (f (v))B0 = (g(f (v)))B00 = ((g ◦f )(v)))B00 = (g ◦f )B,B00 (v)B .
Ejemplo 4.19.
Sean f : R2 → R y g : R → R2 las aplicaciones lineales definidas por f (x, y) = x + y
y g(x) = (x, 3x).
La composición g ◦ f : R2 → R2 está definida por (g ◦ f )(x, y) = (x + y, 3x + 3y).
Las matrices asociadas a estas aplicaciones en las bases canónicas son:
1 1 1 1
(f )C,C = 1 1 , (g)C,C = y (g ◦ f )C,C = 1 1 = .
3 3 3 3
n
Nótese que si B = {v1 , . . . , vn }, B 0 = {v10 , . . . , vn0 } y vj = aij vi0 , se verifica que
P
i=1
(idV )B,B0 = (aij ) ∈ Mn (K). Además, (v)B0 = (idV )B,B0 (v)B , es decir, al multiplicar la
matriz del cambio de base por la matriz columna de las coordenadas de un vector v en
la base B nos da la matriz columna de las coordenadas del vector v en la base B 0 .
Observaciones 4.22.
Nos planteamos ahora la siguiente pregunta. ¿Cómo cambia la matriz de una apli-
cación lineal al cambiar las bases en el dominio y en el rango?
1
1 0
2
(idR3 )B,B0 = 0 1 −1 .
1
−1 1
2
Definición 4.25. Sean A, B ∈ Mm×n (K). Se dice que A y B son equivalentes si existen
matrices no singulares P ∈ Mm (K) y Q ∈ Mn (K) tales que A = P BQ.
Observación 4.26. Teniendo en cuenta que toda matriz no singular puede ser pensada
como una matriz de un cambio de base, podemos afirmar que dos matrices son equi-
valentes si, y solo si, son matrices asociadas a la misma aplicación lineal respecto de
diferentes bases.
r(A) = rc (A) = dim (hC1 (A), . . . , Cn (A)i) = dim (hf (v1 ), . . . , f (vn )i) = dim(Im f ).
Demostración. Como vimos en la observación 4.26, dos matrices equivalentes son ma-
trices asociadas a la misma aplicación lineal respecto de diferentes bases y el rango de
ambas coincide con la dimensión de la imagen de dicha aplicación lineal.
Este resultado ya lo conocíamos, sabíamos que dos matrices equivalentes por filas
o por columnas tienen el mismo rango; si A y B son equivalentes, existen matrices
no singulares P ∈ Mm (K) y Q ∈ Mn (K) tales que A = P BQ, así, A y BQ son
equivalentes por filas y BQ y B son equivalentes por columnas y, por tanto, todas
tienen el mismo rango.
Nótese que si dos matrices cuadradas son semejantes también son equivalentes. El
recíproco no es cierto, toda matriz es equivalente a una que es diagonal, como nos
muestra la demostración del teorema 4.29, pero no es semejante a una matriz diagonal.
El objetivo de nuestro próximo tema es estudiar en que condiciones una matriz es
semejante a una que sea diagonal.
4.3. Ejercicios
Se pide:
ii) En las aplicaciones lineales obtenidas, hallar el núcleo, la imagen e indicar si son
inyectivas, sobreyectivas o biyectivas.
3.- ¿Existe alguna aplicación lineal f : R2 → R2 tal que f (1, 0) = (1, 1), f (3, 2) = (1, −1)
y f (3, 3) = (2, 2)?
00
6.- Dadas aplicaciones lineales f : V → V 0 y g : V 0 → V , probar las siguientes afirma-
ciones:
b) g ◦ f = 0 ⇔ Im f ⊂ Ker g.
f (x, y, z) = (x + 2y + z, x − y, x − y).
Se pide:
f (x, y, z) = (x + y, y + z, x − z).
12.- Sean u = (1, −1, 3), v = (−3, 3, α) ∈ R3 y f : R3 → R3 es una aplicación lineal tal
que Ker f = {(x, y, z) ∈ R3 | x + y + z = 0}. ¿Para que valores de α se cumple que
f (u) = f (v)?
76 CAPÍTULO 4. APLICACIONES LINEALES
13.- Hallar una aplicación lineal f : R3 → R3 cuya imagen esté generada por los vectores
siguientes: (1, 1, 1) y (1, 1, 0). ¿Es única?
14.- Hallar una aplicación lineal f : R4 → R3 cuyo núcleo sea el siguiente subespacio
h(1, 1, −1, 1), (0, 0, 1, 1)i de R4 .
15.- Encontrar una aplicación lineal f : R3 → R3 de modo que Ker f = h(1, 1, 1)i y que
Im f = {(x, y, z) ∈ R3 | x + y + z = 0}. ¿Es única?
16.- ¿Existe una aplicación lineal f : R3 → R4 de forma que su núcleo sea el subespacio
generado por {(1, 1, 0), (0, 1, 0)} y la imagen esté generada por {(1, 1, 1, 0), (1, 0, 0, 2)}?
f (x, y, z, t) = (x + z, x − y + z, x + t).
b) Si U = h(1, 1, 1, 1) , (−2, 2, 6, 6)i, calcular una base y unas ecuaciones implícitas para
f (U ).
c) Sea T = h(1, 1, 0) , (0, 0, 1)i. Calcular unas ecuaciones implícitas y una base para el
subespacio f −1 (T ).
f (x, y, z) = (x + z, y, x + 2y + z).
a) ¿Es f inyectiva?
de f (W ) es 1.
4.3. EJERCICIOS 77
d) Sea B = {(0, 1, 1), (1, 1, 1), (0, 0, 1)} una base de R3 , calcular las coordenadas de
f (1, 1, 1) en la base B.
f ((1, 1, 0)) = (1, 1, 1), f ((0, 1, 1)) = (0, 1, 2) y f ((0, 0, −1)) = (0, 0, 0);
g(1, 0, 1)) = (1, 0, −1), g(0, 1, −1)) = (0, 1, 2) y g(0, 1, 0)) = (0, 1, 2).
b) Demostrar que f = g.
23.- Sea f : R2 → R3 la aplicación lineal dada por f (x, y) = (x − y, 2x, −y) . Sean
B = {(1, 0), (1, 1)} una base de R2 y B 0 = {(1, 1, 0), (0, 1, 0), (0, 1, 1)} una base de R3 .
Calcular (f )B,B 0 .
f (x, y, z) = (x + y, 2y − z).
c) Si B1 = {(1, 1, 1), (0, 1, 2), (0, 2, 1)} y B2 = {(2, 1), (1, 0)} son bases de R3 y R2 ,
respectivamente, calcular las matrices de cambio de base de B1 a la base canónica
en R3 y la de la base B2 a la canónica de R2 , así como la matriz de f respecto a
B1 y B2 .
78 CAPÍTULO 4. APLICACIONES LINEALES
26.- Sean B = {(1, 0, 0), (1, 1, 0), (0, 0, 2)} una base de R3 y f : R3 → R3 la aplicación
lineal definida por
1 0 0
(f )B,B = −1 1 0 .
0 1 2
a) Estudiar los valores de α que hacen que fα sea inyectiva y los que la hacen sobre-
yectiva.
f (x, y, z) = (x + y, z, x + y + 2z).
a) ¿Es f inyectiva?
de f (W ) es 1.
d) Sea B = {(0, 0, 1), (0, 1, 1), (1, 1, 1), } una base de R3 , calcular las coordenadas de
f (1, 1, 1) en la base B.
a) f es sobreyectiva.
b) f no es inyectiva.
c) dim(Ker f ) = 1.
35.- Sean B = {(1, 1, 0), (0, 0, 1), (0, 1, 0)} una base de R3 y C su base canónica.
36.- Sean B = {(1, 1, 0, 1), (0, −1, 0, 0), (0, 0, 1, 0), (0, 0, 0, 3)} una base de R4 y la apli-
cación lineal f : R3 → R4 definida por:
37 .- Sean B = {(1, 0), (1, 1)} y B 0 = {(1, 1, 0), (0, −1, 0), (0, 1, 1)} bases de R2 y R3 ,
respectivamente, y f : R2 → R3 la aplicación lineal definida por f (x, y) = (x+y, x, −2y).
Calcular (f )B,B 0 .
Capítulo 5
Diagonalización de matrices
81
82 CAPÍTULO 5. DIAGONALIZACIÓN DE MATRICES
Demostración. Sin más que considerar que Vλ = Ker(f − λidV ), se tiene que
De estas definiciones se deduce que f (x) + g(x) y f (x) · g(x) pertenecen a K[x].
Además, si f (x) + g(x) 6= 0 y f (x) · g(x) 6= 0,
∂(f (x) + g(x)) ≤ max{∂f (x), ∂g(x)} y ∂(f (x)g(x)) = ∂f (x) + ∂g(x).
Ejemplo 5.6. Si consideramos f (x) = 3 + 2x + 4x2 + 4x5 , g(x) = 3x + 2x2 + 4x3 ∈ R[x],
Nótese que si f (x), g(x) ∈ K[x] se verifica que la evaluación de f (x) + g(x) en α es
f (α) + g(α) y la evaluación de f (x)g(x) en α es f (α)g(α).
Demostración. Por el teorema del resto, x − α divide a f (x) si, y solo si, f (α) = 0.
Como este polinomio no varia si se cambia la matriz A por otra que sea semejante
a ella, se dirá también que es el polinomio característico de f y se denotará por pc (f ).
Obsérvese que los valores propios de A (o f ) son pues los ceros de su polinomio
característico.
a) Vα ∩ Vβ = {0}.
b) Si Bλi = {v1i , . . . , vni i } es una base de Vλi para cada i = 1, . . . , s, entonces la unión
disjunta Bλ1 ∪ · · · ∪ Bλs es una base de Vλ1 + · · · + Vλs y
Demostración.
u0 = −u ∈ Vλ1 y, así,
Demostración.
“⇒” Si f es diagonalizable existe una base B de V de modo que
λ1 . . . 0
.. . . .. .
(f )B,B = . . .
0 ... λs
5.5. POLINOMIO CARACTERÍSTICO 89
se tiene que Vλ1 + · · · + Vλs = V y Bλ1 ∪ · · · ∪ Bλs es una base de V formada por vectores
propios, es decir f es diagonalizable.
0 2 −2
Ejercicio 5.19. Probar que la matriz A = −2 4 −2 es diagonalizable.
−2 2 0
Demostración. En primer lugar calculamos el polinomio característico de la matriz A.
−x 2 −2 −x 2 −2
|A − xI3 | = −2 4 − x −2 = −2 4 − x −2
−2 F3 −F2
2 −x 0 x − 2 −x + 2
−x 2 −2 −x 0 −2
= (x − 2) −2 4 − x −2 = (x − 2) −2 2 − x −2 = −(x − 2)2 x.
C +C
0 1 −1 2 3 0 0 −1
Tenemos pues el autovalor 0 de multiplicidad uno y el autovalor 2 de multiplicidad
dos.
Los subespacios propios son:
0 2 −2 x 0
V0 = (x, y, z) ∈ R3 | −2 4 −2 y = 0
−2 2 0 z 0
+2y −2z = 0
= (x, y, z) ∈ R3 | −2x +4y −2z = 0
−2x +2y =0
5.6. Ejercicios
1.- Calcular los valores propios y los subespacios propios de los endomorfismos de R3
dados por:
2.- Estudiar si son diagonalizables los endomorfismos del ejercicio anterior. Si es posible,
encontrar una base B de R3 tal que (g)B,B sea diagonal.
En cada caso, se pide: calcular los valores propios y los subespacios propios de f ;
estudiar si f es diagonalizable; si es posible, encontrar una base B de R3 tal que (f )B,B
sea una matriz diagonal y una matriz no singular P tal que (f )B,B = P −1 (f )C,C P.
b) ¿Es A diagonalizable?
b) ¿Es f diagonalizable?
b) Encontrar una matriz diagonal D y una no singular P verificando que D = P(f )C,C P −1 .
c) Para dichos valores encontrar una matriz diagonal D y una matriz no singular P tal
que AP = PD.
92 CAPÍTULO 5. DIAGONALIZACIÓN DE MATRICES
c) Para dichos valores encontrar una matriz diagonal D y una matriz no singular P tal
que (f )C,C = PDP −1 .
b) Encontrar una base B de R3 y una matriz no singular P tales que (f )B,B sea diagonal
y (f )C,B P = (f )B,B .
f (x, y, z) = (x + y + z, x + y + z, x + y + z).
b) Para dichos valores encontrar una matriz diagonal D y una no singular P tal que
(f )C,C = PDP −1 .
94 CAPÍTULO 5. DIAGONALIZACIÓN DE MATRICES
Capítulo 6
Definición 6.1. Un espacio euclídeo es un R-espacio vectorial V junto con una aplica-
ción, llamada producto escalar,
ϕ: V × V → R
4. ϕ(u, u) = 0 ⇔ u = 0.
Observación 6.2.
- ϕ(u, 0) = ϕ(0, u) = 0, para todo u ∈ V .
- ϕ(u, v) = 0 para todo v ∈ V ⇔ u = 0.
Ejemplos 6.3.
95
96 CAPÍTULO 6. PRODUCTO ESCALAR Y ORTOGONALIDAD
Definición 6.4. Sea (V, ϕ) un espacio euclídeo. Se llama longitud o norma de un vector
p
u ∈ V y se designa por kuk, al número real no negativo ϕ(u, u). Se dice que u ∈ V
ϕ(u, v)
Como u 6= 0, ϕ(u, u) > 0 y, si consideramos α = − , se tiene que:
ϕ(u, u)
Proposición 6.7 (Desigualdad triangular). Sea (V, ϕ) un espacio euclídeo. Para cual-
quier par de vectores u, v ∈ V, se verifica:
ku + vk ≤ kuk + kvk .
Demostración.
ϕ(u, v)
−1 ≤ ≤ 1.
kuk kvk
Definición 6.9. Sean u y v vectores no nulos de un espacio euclídeo (V, ϕ). El número
ϕ(u, v)
real θ ∈ [0, π] tal que cos θ = recibe el nombre de ángulo que forman los vectores
kuk kvk
u y v. Así,
Consecuencias:
2. Dos vectores no nulos son ortogonales si, y solo si, su ángulo es de 90◦ .
Xr r
X
0 = ϕ( αi vi , vj ) = αi ϕ(vi , vj ) = αj ϕ(vj , vj ).
i=1 i=1
Definición 6.12. En un espacio euclídeo (V, ϕ), una base se dice que es ortogonal
cuando sus vectores son ortogonales dos a dos. Si además, todos los vectores son de
norma 1 se dice que es ortonormal.
ϕ(v, u)
Definición 6.14. Sean (V, ϕ) un espacio euclídeo y u, v ∈ V . El vector v se
kvk2
llama proyección ortogonal de u sobre v.
ϕ(v, u)
ϕ(v, u) ϕ(v, u)
Nótese que
2 v
= 2 kvk = = kuk cos θ, siendo el ángulo θ que
kvk kvk kvk
forman u y v.
ϕ(v, u)
También se cumple que, v⊥(u− v).
kvk2
Este resultado nos ilustra sobre la construcción que se hace en el teorema siguiente.
Teorema 6.15. Todo espacio vectorial euclídeo, (V, ϕ), de dimensión finita posee una
base ortogonal.
Corolario 6.16. Todo espacio vectorial euclídeo, (V, ϕ), de dimensión finita posee una
base ortonormal.
Demostración.
SiB = {v1 , . . . , vn } es una base ortogonal de V , entonces se tiene que
v1 vn
,..., es una base ortonormal de V .
kv1 k kvn k
Ejercicio 6.17. En R4 con el producto escalar usual, obtener una base ortogonal del
subespacio
U = hv1 = (1, 2, −1, 0), v2 = (1, 0, −2, 0), v3 = (0, 1, 1, 0)i .
Demostración. Tomamos u1 = (1, 2, −1, 0),
ϕ(v2 , u1 ) 3 1 3
u2 = v2 − u 1 = (1, 0, −2, 0) − (1, 2, −1, 0) = , −1, − ,0 y
ku1 k2 6 2 2
2 ϕ(v , u ) 1 51 3
P 3 i
u3 = v3 − 2 ui = (0, 1, 1, 0) − (1, 2, −1, 0) + , −1, − ,0 .
i=1 kui k 6 7 2 2
Demostración.
(x, y, z, t) ⊥ (1, −1, 1, 1) ⇔ x − y + z + t = 0
a) (x, y, z, t) ⊥ (0, −1, 2, 1) ⇔ −y + 2z + t = 0
(x, y, z, t) ⊥ (2, 0, 4, 2) ⇔ 2x + 4z + 2t = 0
U ⊥ W ⇔ ui ⊥ wj ∀i = 1, . . . , r y ∀j = 1, . . . , s.
1. U ⊥ U ⊥ .
2. V = U + U ⊥ y U ∩ U ⊥ = {0}.
ϕ(v, u1 ) ϕ(v, ur )
proyU v = 2 u1 + · · · + ur .
ku1 k kur k2
Demostración.
x+y−z+t=0
⇒
2x + y − z + 3t = 0
U = {(x, y, z, t) | x = −2β, y = α + β, z = α, t = β} ⇔ U = h(−2, 1, 0, 1), (0, 1, 1, 0)i.
⊥ −2x + y + t = 0
(x, y, z, y) ∈ U ⇔ ⇒
y+z =0
1 1
U = (x, y, z, t) | x = − z + t, y = −z ⇔ U ⊥ = h(1, 2, −2, 0), (1, 0, 0, 2)i.
⊥
2 2
De otra forma,
Ya que U = {(x, y, z, t) | x + y − z + t = 0, 2x + y − z + 3t = 0}, se tiene que los vec-
tores (1, 1, −1, 1) y (2, 1, −1, 3) pertenecen a U ⊥ . Teniendo en cuenta que son indepen-
dientes y dim(U ⊥ ) = 2, se deduce que:
d(v, u) = kv − uk.
1. d(v, u) ≥ 0 ∀v, u ∈ V .
2. d(v, u) = 0 ⇔ v = u.
n n n
kv − uk2 = ϕ( (xi − yi )2 y
P P P
(xi − yi )vi , (xi − yi )vi ) =
i=1 i=1 i=1
s
n
(xi − yi )2 .
P
d(v, u) =
i=1