0% encontró este documento útil (0 votos)
209 vistas189 páginas

Álgebra Lineal y Geometría I Problemas Resueltos: Publicaciones Electrónicas Sociedad Matemática Mexicana

Este documento es un libro de problemas resueltos de álgebra lineal y geometría dividido en dos partes. La primera parte cubre temas de análisis matricial como matrices, sistemas de ecuaciones lineales, rango y determinantes. La segunda parte cubre temas más generales de álgebra lineal como espacios vectoriales, coordenadas y espacios euclídeos. El libro proporciona ejercicios resueltos para cada tema junto con la teoría relevante para ayudar a los estudiantes a aprender y aplic

Cargado por

Yoiis Fernandz
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
209 vistas189 páginas

Álgebra Lineal y Geometría I Problemas Resueltos: Publicaciones Electrónicas Sociedad Matemática Mexicana

Este documento es un libro de problemas resueltos de álgebra lineal y geometría dividido en dos partes. La primera parte cubre temas de análisis matricial como matrices, sistemas de ecuaciones lineales, rango y determinantes. La segunda parte cubre temas más generales de álgebra lineal como espacios vectoriales, coordenadas y espacios euclídeos. El libro proporciona ejercicios resueltos para cada tema junto con la teoría relevante para ayudar a los estudiantes a aprender y aplic

Cargado por

Yoiis Fernandz
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

Publicaciones Electrónicas

Sociedad Matemática Mexicana

Álgebra Lineal y Geometría I


Problemas resueltos

Néstor Thome Coppo

www.smm.org.mx

Serie: Textos. Vol. 26 (2023)

ISBN:
Álgebra Lineal y Geometría I
Problemas resueltos

Néstor Thome Coppo

Catedrático de Universidad
Departamento de Matemática Aplicada
Instituto Universitario de Matemática Multidisciplinar
Universitat Politècnica de València, España
[email protected]

Publicaciones Electrónicas
Sociedad Matemática Mexicana
Índice general

1. Preliminares 13
1.1. TEMARIO . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.2. EJERCICIOS . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.3. SOLUCIÓN A LOS EJERCICIOS . . . . . . . . . . . . . . . . 22

I Análisis Matricial 31

2. Matrices 33
2.1. TEMARIO . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
2.2. EJERCICIOS . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.3. SOLUCIÓN A LOS EJERCICIOS . . . . . . . . . . . . . . . . 41

3. Sistemas de ecuaciones lineales 47


3.1. TEMARIO . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
3.2. EJERCICIOS . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
3.3. SOLUCIÓN A LOS EJERCICIOS . . . . . . . . . . . . . . . . 52

4. Matrices y sistemas lineales. Rango 55


4.1. TEMARIO . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
4.2. EJERCICIOS . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
4.3. SOLUCIÓN A LOS EJERCICIOS . . . . . . . . . . . . . . . . 61

3
4 ÍNDICE GENERAL

5. Matrices invertibles 67
5.1. TEMARIO . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
5.2. EJERCICIOS . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
5.3. SOLUCIÓN A LOS EJERCICIOS . . . . . . . . . . . . . . . . 73

6. Equivalencia de matrices 79
6.1. TEMARIO . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
6.2. EJERCICIOS . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
6.3. SOLUCIÓN A LOS EJERCICIOS . . . . . . . . . . . . . . . . 85

7. Determinantes 89
7.1. TEMARIO . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
7.2. EJERCICIOS . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
7.3. SOLUCIÓN A LOS EJERCICIOS . . . . . . . . . . . . . . . . 97

II Álgebra Lineal 105

8. Espacios vectoriales 107


8.1. TEMARIO . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
8.2. EJERCICIOS . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
8.3. SOLUCIÓN DE LOS EJERCICIOS . . . . . . . . . . . . . . . 120

9. Coordenadas en espacios vectoriales 133


9.1. TEMARIO . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134
9.2. EJERCICIOS . . . . . . . . . . . . . . . . . . . . . . . . . . . 135
9.3. SOLUCIÓN A LOS EJERCICIOS . . . . . . . . . . . . . . . . 140

10.Espacios euclı́deos 147


10.1. TEMARIO . . . . . . . . . . . . . . . . . . . . . . . . . . . . 148
10.2. EJERCICIOS . . . . . . . . . . . . . . . . . . . . . . . . . . . 149
10.3. SOLUCIÓN A LOS EJERCICIOS . . . . . . . . . . . . . . . . 161
11.Subespacios asociados a una matriz 173
11.1. TEMARIO . . . . . . . . . . . . . . . . . . . . . . . . . . . . 174
11.2. EJERCICIOS . . . . . . . . . . . . . . . . . . . . . . . . . . . 175
11.3. SOLUCIÓN A LOS EJERCICIOS . . . . . . . . . . . . . . . . 179

Bibliografı́a 186
6 ÍNDICE GENERAL
Prólogo

Este libro contiene una relación de ejercicios resueltos correspondientes


al temario desarrollado por el propio autor en el libro Álgebra Lineal y Geo-
metrı́a I, Editorial de la Sociedad Matemática Mexicana, 2023, destinado a
estudiantes de un primer curso universitario del doble grado en Matemáticas
con diferentes Ingenierı́as; se utiliza en la Universitat Politècnica de València.
Se presentan las soluciones de los ejercicios planteados o bien se dan las
indicaciones para que, al completar pequeños cálculos que se indican, los
ejercicios queden totalmente resueltos.
Todas las notaciones y referencias a resultados como teoremas, proposi-
ciones, corolarios, etc. que se hacen en el presente libro son en relación al
libro de teorı́a citado anteriormente.
Se ha intentado que los ejercicios abraquen los diferentes aspectos en los
que un estudiante debe iniciarse. Se plantean desde ejercicios numéricos bási-
cos para afianzar cuestiones teóricas hasta otros donde se deben relacionar
conceptos. Otros aspectos, más bien teóricos, se plantean en ejercicios donde
se deben realizar demostraciones siguiendo las técnicas aplicadas en algunos
resultados similares en el libro de teorı́a. A medida que el estudiante apren-
da la asignatura, irá consolidando los métodos de demostración que le serán
útiles a lo largo de toda su carrera.
El temario del libro mencionado ha sido estructurado en un total de 11
capı́tulos.
En el capı́tulo 1 se presentan preliminares, conceptos básicos necesarios
para comprender la forma en que se desarrolla, se piensa, y se debe proceder

7
8 ÍNDICE GENERAL

en Matemáticas. Una breve introducción a los métodos de demostración,


a la teorı́a de conjuntos, al concepto de función y nociones elementales de
estructuras algebraicas.
En el capı́tulo 2 se hace un repaso de cuestiones conocidas de matrices, se
establecen las definiciones y notaciones a utilizar, siendo importante poner el
enfoque, para una buena formación del estudiante, en las técnicas de demos-
tración utilizadas para probar las propiedades. Es probable que, además de la
definición de matriz, los únicos hechos novedosos sean la forma de operar con
matrices particionadas en bloques y la generalización, a matrices de tamaños
arbitrarios, de algunos resultados conocidos.
En el capı́tulo 3 se sistematiza el método de eliminación gaussiana, se
prueba con detalle que dicho método funciona y, a través de dicho método,
se realiza la clasificación de los sistemas lineales.
El capı́tulo 4 está dedicado al estudio de la forma escalonada reducida de
una matriz, garantizando su existencia y unicidad, lo que permitirá establecer
el concepto de rango de una matriz.
En el capı́tulo 5 se aborda la definición, propiedades y algunas caracteri-
zaciones del concepto de matriz inversa.
El capı́tulo 6 comienza con el estudio de matrices elementales y su utiliza-
ción para el cálculo de la inversa (método de Gauss-Jordan). Tras establecer
caracterizaciones de la equivalencia de matrices, equivalencia por filas y equi-
valencia por columnas, se prueba que determinan relaciones de equivalencia y
se encuentra la forma normal de Hermite (como formas canónicas de clases de
equivalencia en la equivalencia de matrices) y el rango (como un invariante1
de esta relación).
En el capı́tulo 7 se aborda el concepto de determinante, introducido de
forma recursiva. Se establecen y se demuestran sus propiedades por el método
de inducción. Se analiza su relación con la existencia de la matriz inversa y se
estudia la fórmula de Cauchy-Binet para el determinante de un producto de
matrices. Como aplicaciones se demuestran la regla de Cramer, la fórmula que
1
En realidad, como un conjunto completo de invariantes.
ÍNDICE GENERAL 9

permite calcular la inversa de una matriz y se estudia la forma de utilizarlo


para determinar el rango de una matriz. También se presentan aplicaciones
a tipos concretos de matrices (por bloques, de Vandermonde, de compañı́a).
En el capı́tulo 8 se aborda uno de los temas centrales del Álgebra Li-
neal: los espacios vectoriales. Una vez definidos, se estudian los subespacios,
las combinaciones lineales, subespacios generados y operaciones con subes-
pacios. Una segunda parte del tema aborda los sistemas de generadores, la
dependencia/independencia lineal, y el concepto de base que permite definir
la dimensión de un espacio vectorial.
Con la intención de destacar la verdadera importancia que la introducción
de coordenadas le confiere al tema de espacios vectoriales, se ha preferido
dedicar el capı́tulo 9 completo a este tema, donde se caracterizan los espacios
vectoriales isomorfos a partir de la dimensión, y se presenta este concepto
como un invariante2 de una relación de equivalencia adecuada. Se aplica la
teorı́a desarrollada previamente para determinar la estructura del conjunto
solución de un sistema de ecuaciones lineales homogéneo, encontrando las
ecuaciones paramétricas y cartesianas de un subespacio.
Otro capı́tulo importante es el capı́tulo 10, donde se estudian los espa-
cios euclı́deos. Se introducen los espacios vectoriales con producto escalar y
sobre ellos el concepto de norma y distancia inducidas y ángulo entre vec-
tores. Se desarrolla con detalle el apartado de ortogonalidad y el método de
Gram-Schmidt para el cálculo de bases ortogonales, con lo que se prueba la
existencia de bases ortogonales en espacios euclı́deos de dimensión finita. Por
último, se caracterizan los espacios euclı́deos de dimensión finita y se prueba
que los productos escalares están determinados por las matrices de Gram.
El capı́tulo 11 está dedicado al estudio de los cuatro subespacios funda-
mentales asociados a una matriz. Se estudian sus dimensiones, se prueba el
Teorema fundamental del rango y su relación con la equivalencia de matrices.
Se muestra cómo los espacios euclı́deos Rn y Rm pueden ser representados
a partir de los cuatro subespacios fundamentales asociados a una matriz
2
En realidad, como un conjunto completo de invariantes.
10 ÍNDICE GENERAL

A ∈ Rm×n en el llamado Teorema fundamental del Álgebra Lineal. El libro


finaliza con un resultado que resume más de 20 caracterizaciones, estudiadas
en capı́tulos previos, de la existencia de la inversa de una matriz, hecho clave
en toda la Teorı́a de Matrices y en el Álgebra Lineal en general.
Quiero expresar mi agradecimiento a todos los alumnos que, con sus co-
mentarios y sugerencias, han permitido mejorar las versiones previas a esta.
Se agradecerá cualquier sugerencia o comentario que sea enviada al correo
electrónico [email protected].

El autor.
No es porque las cosas sean difı́ciles por lo que no nos atevemos;
sino que por no atrevernos se hacen difı́ciles. Séneca.
12 ÍNDICE GENERAL

Tabla de sı́mbolos

N conjunto de los números naturales: {1, 2, 3, . . . }


Z conjunto de los números enteros
Q conjunto de los números racionales
R conjunto de los números reales
R+ conjunto de los números reales positivos
C conjunto de los números complejos
iR conjunto de los números imaginarios puros
Ik = {1, 2, . . . , k} intervalo natural inicial
∅ conjunto vacı́o
: o bien / tal que
∈ pertenece a
∼ no
∃ existe
∀ para todo
∧ y
∨ o (incluyente)
⇒ implica
⇔ si y sólo si
⊕ suma directa
⊥ ortogonal
⊕⊥ suma directa ortogonal
Capı́tulo 1

Preliminares

Índice
1.1. TEMARIO . . . . . . . . . . . . . . . . . . . . . . 14
1.2. EJERCICIOS . . . . . . . . . . . . . . . . . . . . . 15
1.3. SOLUCIÓN A LOS EJERCICIOS . . . . . . . . 22

13
14 CAPÍTULO 1. PRELIMINARES

1.1. TEMARIO
Los ejercicios de este capı́tulo corresponden a los temas:

Lógica proposicional

Proposiciones

Métodos de demostración

Funciones proposicionales

Conjuntos y relaciones

Relaciones de equivalencia

Aplicación o función

Números naturales. Principio de inducción

Estructuras algebraicas
1.2. EJERCICIOS 15

1.2. EJERCICIOS
(1) Demostrar que las siguientes equivalencias son ciertas comprobando que
son tautologı́as, es decir, sus tablas de verdad proporcionan siempre
valores de verdad V, independientemente de los valores de verdad de las
proposiciones componentes.

(a) ∼ (∼ p) ⇔ p (doble negación),


(b) ∼ (p ∨ q) ⇔ ∼ p ∧ ∼ q (ley de De Morgan),
(c) ∼ (p ∧ q) ⇔ ∼ p ∨ ∼ q (ley de De Morgan),
(d) (p ⇒ q) ⇔ (∼ p ∨ q) (la implicación en términos de ∼ y ∨),
(e) (p ⇒ q) ⇔ (∼ q ⇒ ∼ p) (directo y contrarrecı́proco son equivalen-
tes),
(f) ∼ (p ⇒ q) ⇔ (p ∧ ∼ q) (negación de una implicación),
(g) (p ∧ (p ⇒ q)) ⇒ q (modus ponens),
(h) (∼ q ∧ (p ⇒ q)) ⇒ ∼ p (modus tollens),
(i) ((p ⇒ q) ∧ (q ⇒ r)) ⇒ (p ⇒ r) (silogismo hipotético).

(2) Demostrar que la siguiente proposición es una contradicción, es decir,


su tabla de verdad proporciona siempre valores de verdad F, indepen-
dientemente de los valores de verdad de las proposiciones componentes.

(a) p ∧ ∼ p.
(b) p ⇔ ∼ p.

(3) Escribir en sı́mbolos las funciones proposicionales:

(a) “La diferencia de los cuadrados de dos números naturales consecuti-


vos es un número (entero) impar”,
(b) “El producto de un número racional no nulo por uno irracional es
un número irracional”,
16 CAPÍTULO 1. PRELIMINARES

y demostrarlas. (Ayuda: Para la segunda suponer conocido que el pro-


ducto de dos números racionales es un número racional).

(4) Se consideran los conjuntos

A = {x ∈ Z : x2 = 1}, B = {x ∈ Z : x3 −x = 0} y C = {−1, 0, 1}.

(i) Probar que A ⊆ B. ¿Es cierto que A ⊂ B? Justificar.


(ii) ¿Es cierto que C ⊂ A? ¿Y que B = C? Justificar.

(5) Mostrar que A = B si y sólo si A ⊆ B y B ⊆ A.

(6) Mostrar que A ⊂ B si y sólo si A ⊆ B y A 6= B.

(7) Demostrar que los siguientes conjuntos son iguales:

A = {x ∈ N : x es par} y B = {x ∈ N : x2 es par}.

¿Produce algún problema el caso x2 = 2, que es par, para que se cumpla


B ⊆ A? Justificar.

(8) Demostrar que:

(i) El conjunto vacı́o está incluido en cualquier conjunto A, es decir,


∅ ⊆ A, para todo conjunto A.
(ii) Todo conjunto A está incluido en el conjunto universal U , es decir,
A ⊆ U , para todo conjunto A.
(iii) El conjunto vacı́o es único. (Ayuda: Supóngase que, además de ∅,
hay otro conjunto vacı́o y probar que deben ser iguales).
(iv) Si A ⊆ ∅ entonces A = ∅.

(9) Probar que si U denota el conjunto universal, se cumple que:

A ∩ A0 = ∅ y A ∪ A0 = U.
1.2. EJERCICIOS 17

(10) Dados los conjuntos A y B, demostrar que se cumple que:

A⊆B ⇔ A ∩ B = A.

Enunciar y demostrar una propiedad similar cambiando la intersección


por la unión.

(11) Demostrar las leyes de De Morgan: El complemento de la unión de dos


conjuntos es igual a la intersección de sus complementos. Enunciar y
demostrar la propiedad dual para el complemento de la intersección.

(12) Dados los conjuntos A y B, demostrar que: A ⊆ B implica B 0 ⊆ A0 .

(13) Dados los conjuntos A y B, demostrar que: A − B = A ∩ B 0 .

(14) Sean A y B dos conjuntos disjuntos tales que A ∪ B = U . Probar que


B = A0 .

(15) Sean A y B dos conjuntos tales que A ⊆ B. Demostrar que

B = A ∪ (B − A) con A ∩ (B − A) = ∅.

(16) Sean A y B dos conjuntos tales que a, c ∈ A y b, d ∈ B. Demostrar que


dos pares ordenados (a, b) y (c, d) son iguales si y sólo si a = c y b = d.
Concluir que si A = B entonces (a, b) 6= (b, a) si y sólo si a 6= b.

(17) En el conjunto A = {1, 2, 3, 4, 5} se definen las relaciones binarias dadas


por:
R1 = {(1, 1), (2, 2), (3, 3), (4, 4), (5, 5)},
R2 = R1 ∪ {(1, 3), (3, 1), (1, 4), (4, 1), (2, 5), (5, 2), (3, 4), (4, 3)}
y
R3 = A × A.
Comprobar que, en todos los casos, se trata de una relación de equiva-
lencia. Determinar las clases de equivalencia, el conjunto cociente y la
partición que se produce en A en cada caso.
18 CAPÍTULO 1. PRELIMINARES

(18) Sea A un conjunto no vacı́o y R una relación de equivalencia en A.


Demostrar que si a, b ∈ A entonces aRb si y sólo si a y b pertenecen a
una misma clase de equivalencia.
S
(19) Escribir las familias i∈I Ai siendo {Ai }i∈I donde Ai = {i + 2}, con
i ∈ I, son conjuntos unitarios (es decir, formados por un solo elemento).
Considerar los siguientes casos:

(i) I = {1, 2},


(ii) I = {1, 2, . . . , n},
(iii) I = [0, 1].

(20) Analizar si las relaciones R1 , R2 y R3 definidas en cada uno de los siguien-


tes apartados son o no una relación de equivalencia. En caso afirmativo,
encontrar las clases de equivalencia y el conjunto cociente en cada caso.

(a) Para x, y ∈ R, sea x R1 y ⇔ 4x2 − y 2 = 0,


(b) Para x, y ∈ R, sea x R2 y ⇔ x2 − y 2 = 0,
(c) Para x, y ∈ Z, sea x R3 y ⇔ y − x es un número par.

(21) Probar que la relación de equipolencia definida entre vectores fijos del
plano ordinario es una relación de equivalencia.

(22) Proporcionar un contraejemplo de dos funciones f y g que permitan


constatar que, en general, g ◦ f 6= f ◦ g.

(23) Sea f : R → R la función definida mediante la ley f (x) = 2x − 3.


Demostrar que f es biyectiva y calcular su inversa f −1 . Comprobar que
f ◦ f −1 = idR y que f −1 ◦ f = idR .

(24) Analizar la existencia de la función inversa f −1 de la función f : R →


R definida mediante la ley f (x) = x2 . En caso de existir su inversa
calcularla, y si no existe, restringir el dominio y el codominio de f a
subconjuntos adecuados de R en los que exista su inversa y calcularla.
1.2. EJERCICIOS 19

La restricción de la función f : Dm(f ) → Im(f ) a un subconjunto


S ⊂ Dm(f ) suele denotarse por f |S y es la función f |S : S → Im(f )
definida por f |S (x) = f (x) para todo x ∈ S.

(25) Demostrar que:

(a) La composición de dos funciones inyectivas es inyectiva.


(b) La composición de dos funciones sobreyectivas es sobreyectiva.
(c) La composición de dos funciones biyectivas es biyectiva.

(26) Comprobar que los conjuntos K1 , K2 y K3 del Ejemplo 1.21 son induc-
tivos en R.

(27) Probar que la intersección de la familia {Kn }n∈N es un conjunto inductivo


de R siendo Kn = {1} ∪ {x ∈ R : 23 − n+1 1
< x}. ¿Es ∩n∈N Kn = N?
Justificar.

(28) Demostrar, por inducción, que:


1 1 1 n
(a) 1·2
+ 2·3
+ ··· + n·(n+1)
= n+1
, ∀n ∈ N.
(b) 3 + 5 + 7 + · · · + (2n + 1) = n(n + 2), ∀n ∈ N.
(c) 3 + 7 + 11 + · · · + (4n − 1) = n(2n + 1), ∀n ∈ N.
n(n+1)(2n+1)
(d) 12 + 22 + 32 + · · · + n2 = 6
, ∀n ∈ N.
n2 (n+1)2
(e) 13 + 23 + 33 + · · · + n3 = 4
, ∀n ∈ N.
xn+1 −1
(f) 1 + x + x2 + · · · + xn−1 + xn = x−1
, ∀n ∈ N, siendo x ∈ R un
número positivo fijo, x 6= 1.

(29) Probar que la función h : {0} ∪ N → Z definida por


® n
− 2 , si n es par
h(n) = n+1
para n ∈ {0} ∪ N
2
, si n es impar

es biyectiva. Hallar h−1 . ¿Alcanza con que h sea biyectiva para concluir
que Z es un conjunto infinito numerable? Justificar.
20 CAPÍTULO 1. PRELIMINARES

(30) Probar que (Z, +), (Q∗ = Q−{0}, ·), (R, +) y (C, +) son grupos abelianos
(infinitos).

(31) Mostrar que los conjuntos numéricos Z, Q, R y C con las operaciones


habituales son anillos conmutativos con unidad (infinitos).

(32) Demostrar que el conjunto 2 · Z = {2k : k ∈ Z} con las operaciones


habituales de Z es un anillo conmutativo sin unidad (infinito).

(33) Demostrar que el elemento neutro en un grupo es único.

(34) Demostrar que, para cada elemento g de un grupo G, sólo existe un


elemento inverso de g en G.

(35) Si (A, +, ·) es un anillo y 0A es el neutro de la adición probar que 0A · a =


0A , ∀a ∈ A.

(36) Se considera el conjunto A = {a, b} con a 6= b y las operaciones binarias


definidas mediante las tablas

+ a b · a b
a a b a a a
b b a b a b

Demostrar que (A, +, ·) es un anillo conmutativo con unidad (finito). ¿Es


un cuerpo? Justificar la respuesta. Al estudiar Estructuras Algebraicas
en profundidad, se prueba que este conjunto se comporta como Z2 .

(37) Se considera el conjunto K = {a, b, c} con a 6= b 6= c 6= a y las operaciones


binarias definidas mediante las tablas

+ a b c · a b c
a a b c a a a a
b b c a b a b c
c c a b c a c b
1.2. EJERCICIOS 21

Demostrar que (K, +, ·) es un cuerpo. Al estudiar Estructuras Algebrai-


cas con mayor detalle, se prueba que este conjunto se comporta como
Z3 .

(38) Sea A un conjunto no vacı́o. Se considera el conjunto

B(A) = {f /f : A → A es una aplicación}

de todas las aplicaciones de A en sı́ mismo. Probar que (B(A), ◦) es un


grupo no abeliano, siendo ◦ la composición de aplicaciones.
22 CAPÍTULO 1. PRELIMINARES

1.3. SOLUCIÓN A LOS EJERCICIOS


(1) Utilizar las tablas de verdad de los conectivos básicos, modus ponens, etc.
Son necesarios 2, 4 u 8 valores de verdad, dependiendo de que aparezcan
una, dos o tres proposiciones, respectivamente.

(2) Similar al anterior.

(3) (a) (∀n ∈ N), P (n) : ((n + 1)2 − n2 ∈ Z) ∧ ((n + 1)2 − n2 es impar).
Obs.: Al no especificar si la diferencia debe ser del mayor menos el
menor de los naturales o al revés (pudiendo quedar n2 − (n + 1)2 ), el
resultado puede ser un número entero negativo, no necesariamente
un número natural. Dem.: Sea n ∈ N. Es claro que la diferencia
de cuadrados es un número entero pues se trata de sumar, restar y
multiplicar números naturales. Al desarrollar el cuadrado y cancelar
términos se obtiene (n + 1)2 − n2 = (n2 + 2n + 1) − n2 = 2n + 1, que
es claramente impar.

(b) (∀q ∈ Q)(∀r ∈ I), Q(q, r) : q 6= 0 ⇒ qr ∈ I. Dem.: Sean q ∈ Q y


r ∈ I tales que q 6= 0. Se debe probar que qr ∈ I. Suponiendo, por
reducción al absurdo, que qr ∈ / I, debe ser qr ∈ Q. Como q 6= 0, q
tiene inverso en el cuerpo Q. Es decir, existe q −1 ∈ Q tal que q −1 q =
qq −1 = 1. Por ser q −1 ∈ Q y qr ∈ Q, al utilizar la ayuda se tiene que
su producto cumple q −1 (qr) ∈ Q. Aplicando la propiedad asociativa
en Q y que 1 es el neutro de Q se tiene: q −1 (qr) = (q −1 q)r = 1r =
r ∈ Q, de donde se tiene que r ∈ Q, en contra de la hipótesis. Este
absurdo proviene de suponer que qr ∈ Q, con lo cual se ha probado
que qr ∈/ Q, es decir qr ∈ I.

(4) (i) Primero se prueba que A ⊆ B. En efecto, sea a ∈ A. Luego, a ∈ Z


y a2 = 1. Entonces a = 1 ó a = −1. Para ver que a ∈ B se deben
analizar dos casos: (i) Si a = 1 entonces a3 − a = 13 − 1 = 0, de
donde a ∈ B. (ii) Si a = −1 entonces a3 − a = (−1)3 − (−1) =
1.3. SOLUCIÓN A LOS EJERCICIOS 23

−1 + 1 = 0, de donde a ∈ B. Por lo tanto, A ⊆ B. Además, A ⊂ B


pues se observa claramente que 0 ∈ B y 0 ∈/ A.
(ii) C no es un subconjunto propio de A (pues 0 ∈ C y 0 ∈
/ A) y B = C
(pues ambos conjuntos tienen los mismos elementos, basta calcular
las raı́ces del polinomio x3 − x).

(5) Utilizando las definiciones de igualdad e inclusión de conjuntos se tiene:


A = B ⇔ ((x ∈ A ⇒ x ∈ B) ∧ (x ∈ B ⇒ x ∈ A)) ⇔ (A ⊆ B) ∧ (B ⊆ A).

(6) A ⊂ B ⇔ ((x ∈ A ⇒ x ∈ B) ∧ (∃y ∈ B : y ∈


/ A)) ⇔ ((A ⊆ B) ∧ (A 6=
B)).

(7) Para probar que A = B se debe probar A ⊆ B y B ⊆ A.


A ⊆ B: Si x es par entonces x2 es par (Ejemplo 1.11).
B ⊆ A: si x2 es par entonces x es par. En efecto, si por reducción al
absurdo fuese x impar entonces x = 2k + 1 para algún k ∈ Z. Entonces
x2 = (2k + 1)2 = 4k 2 + 4k + 1 = 2(2k 2 + 2k) + 1. Al ser z = 2k 2 + 2k ∈ Z
se tiene que x2 = 2z + 1. Es decir, x2 es impar, que es una contradicción.
Luego, x es par.

No produce problemas pues 2 ∈ / N.

(8) (i) Se cumple vacuamente.


(ii) Sigue directamente de la definición de conjunto universal.
(iii) Si ∅0 fuese otro conjunto vacı́o, se debe probar que ∅ = ∅0 , es decir
((x ∈ ∅ ⇒ x ∈ ∅0 ) ∧ ((x ∈ ∅0 ⇒ x ∈ ∅)). Ambas implicaciones se
cumplen vacuamente (O bien, aplicando el apartado (I)).
(iv) Por hipótesis, A ⊆ ∅. Por el primer apartado, siempre vale que
∅ ⊆ A. Luego, A = ∅.

(9) Por el primer apartado, ∅ ⊆ A ∩ A0 . Para ver que A ∩ A0 ⊆ ∅, sea


x ∈ A ∩ A0 . Entonces x ∈ A y x ∈ A0 . Luego, x ∈ A y x ∈ / A, es
decir, x ∈ ∅ puesto que es estas dos últimas condiciones proporcionan
una definición (alternativa) de conjunto vacı́o.
24 CAPÍTULO 1. PRELIMINARES

Por el segundo apartado, es evidente que A ∪ A0 ⊆ U . Para ver que


U ⊆ A∪A0 , sea x ∈ U . Es claro que pueden ocurrir las opciones disjuntas
/ A. Luego, x ∈ A ó x ∈ A0 , es decir, x ∈ A ∪ A0 .
x ∈ A ó x ∈

(10) Suponer que A ⊆ B. Para establecer que A ∩ B = A se debe probar que


A ∩ B ⊆ A y A ⊆ A ∩ B. La primera es clara pues si x ∈ A ∩ B, en
particular, x ∈ A. Ahora, si x ∈ A, por hipótesis, como A ⊆ B, se tiene
que x ∈ B. Luego, x ∈ A ∩ B. Ası́, A ⊆ A ∩ B.
Recı́procamente, si A ∩ B = A, se debe probar que A ⊆ B. En efecto,
si x ∈ A, al ser A = A ∩ B, se tiene que se tiene que x ∈ A ∩ B, en
particular, x ∈ B con lo cual A ⊆ B.
La propiedad dual es: A ⊆ B si y sólo si A ∪ B = B.

(11) Por definición de unión, se recuerda que x ∈ A ∪ B ⇔ x ∈ A ó x ∈ B.


Su negación queda x ∈ / A∪B ⇔ x ∈ / Ayx∈ / B. Se debe probar que
(A ∪ B) = A ∩ B . Para ver que (A ∪ B) ⊆ A0 ∩ B 0 , sea x ∈ (A ∪ B)0 .
0 0 0 0

Entonces x ∈ / A ∪ B. Por la observación anterior, x ∈


/Ayx∈ / B, lo que
equivale a x ∈ A y x ∈ B . Por definición de intersección, x ∈ A0 ∩ B 0 .
0 0

La otra inclusión se prueba de forma similar; incluso pueden escribirse


todos los pasos mediante un ⇔ y probar las dos inclusiones de forma
simultánea.
La propiedad dual establece que: (A ∩ B)0 = A0 ∪ B 0 .

(12) Suponer que A ⊆ B. Sea x ∈ B 0 . Por definición, x ∈


/ B. Por hipótesis
se tiene que x ∈ / A, pues si por reducción al absurdo se tuviese que
x ∈ A ⊆ B, se tendrı́a x ∈ B, que es una contradicción. Luego, x ∈ A0
y, por tanto B 0 ⊆ A0 .

/ B ⇔ x ∈ A ∧ x ∈ B0 ⇔ x ∈ A ∩ B0.
(13) x ∈ A − B ⇔ x ∈ A ∧ x ∈

(14) Se supone que A ∪ B = U y A ∩ B = ∅. Se debe probar que B = A0 .


En efecto, si x ∈ B es claro que x ∈
/ A pues si, además, x ∈ A entonces
x ∈ A ∩ B = ∅, lo que es una contradicción. Luego, x ∈ A0 , con lo que
1.3. SOLUCIÓN A LOS EJERCICIOS 25

B ⊆ A0 . Para probar la otra inclusión, si x ∈ A0 entonces x ∈


/ A. Como
x ∈ U = A ∪ B entonces debe ocurrir que x ∈ B (puesto que x ∈ / A).
0
Ası́, A ⊆ B.

(15) Es claro que A ∩ (B − A) = ∅ puesto que si x ∈ A y x ∈ B − A entonces


x∈Ayx∈ / A, lo cual es imposible. Sabiendo que A ⊆ B se debe probar
que B = A ∪ (B − A). En efecto, si x ∈ B entonces puede ocurrir que:
(a) x ∈ A o bien (b) x ∈/ A. En el caso (a), es claro que x ∈ A ∪ (B − A).
En el caso (b), al ser x ∈ B y x ∈ A0 se tiene que x ∈ B − A, con lo cual
x ∈ A ∪ (B − A). Por tanto, B ⊆ A ∪ (B − A). Para la otra inclusión,
sea x ∈ A ∪ (B − A). Luego, x ∈ A ó x ∈ B − A. De la primera opción,
x ∈ A ⊆ B, con lo que x ∈ B. De la segunda, x ∈ B − A, con lo cual
x ∈ B. En ambos casos, x ∈ B, de donde A ∪ (B − A) ⊆ B.

(16) (a, b) = (c, d) ⇔ {{a}, {a, b}} = {{c}, {c, d}} ⇔ ({a} = {c} ∧ {a, b} =
{c, d}) ⇔ (a = c ∧ b = d). La conclusión pedida se obtiene utilizando el
método del contrarrecı́proco.

(17) Se deben verificar las propiedades reflexiva, simétrica y transitiva para


cada relación. Las clases de equivalencia para R1 son [a] = {a}, ∀a ∈ A.
Es decir, A/R1 = {[1], [2], [3], [4], [5]}. Las clases de equivalencia para R2
son [1] = {1, 3, 4}, [2] = {2, 5}. Es decir, A/R2 = {[1], [2]}. Las clases de
equivalencia para R3 son [1] = {1, 2, 3, 4, 5} = A. Es decir, A/R3 = {[1]}.

(18) Sean a, b ∈ A tales que aRb. Se debe probar que existe c ∈ A tal que a, b ∈
[c]. En efecto, como aRb, por la simetrı́a, bRa. Por la reflexividad, aRa.
Ası́ aRa y bRa, de donde a, b ∈ [a]. Basta tomar c = a. Recı́procamente,
si a, b ∈ [c] para algún c ∈ A se tiene que aRc y bRc. Por simetrı́a, aRc
y cRb. La transitiviad garantiza que aRb.

(19) A1 ∪ A2 = {3} ∪ {4} = {3, 4}, A1 ∪ A2 ∪ · · · ∪ An = {3, 4, . . . , n + 2},


S
i∈[0,1] Ai = [2, 3].

(20) (a) R1 no lo es (contraejemplo: (1, 1) ∈


/ R1 ). (b) R2 lo es (x R2 x pues
x − x = 0; si x R2 y entonces x − y 2 = 0, con lo cual y 2 − x2 = 0,
2 2 2
26 CAPÍTULO 1. PRELIMINARES

es decir, y R2 x; si x R2 y e y R2 z entonces x2 − y 2 = 0 e y 2 − z 2 = 0.
Sumando miembro a miembro, x2 − z 2 = 0 de donde x R2 z). Clase de
equivalencia de x ∈ R: [x] = {x, −x}, R/R2 = {[x] : x ≥ 0}. (c) R3 lo es
(x R3 x pues x − x = 0, que es par; si x R3 y entonces y − x es par, con
lo cual x − y es par, es decir, y R3 x; si x R3 y e y R3 z entonces y − x
y z − y son pares, de donde su suma también, es decir, z − x es par, con
lo cual x R3 z). Clases de equivalencia: [0] = {. . . , −4, −2, 0, 2, 4, . . . },
[1] = {. . . , −3, −1, 1, 3, 5, . . . }; Z/R3 = {[0], [1]}.

(21) Se deben verificar las propiedades reflexiva, simétrica y transitiva para la


−→ −−→ −→ −−→
relación binaria: AB ∼ CD ⇔ AB y CD tienen mismo módulo, dirección
y sentido, lo cual es inmediato.

(22) f (x) = sen(x), g(x) = x2 .

(23) f es inyectiva: Si x1 , x2 ∈ R satisfacen f (x1 ) = f (x2 ) entonces 2x1 − 3 =


2x2 − 3, de donde 2x1 = 2x2 y, por tanto, x1 = x2 . f es sobreyectiva:
Dado y ∈ R, se debe buscar x ∈ R tal que f (x) = y, es decir, de modo
que y = 2x − 3. Despejando, x = y+3 2
. Luego, f es biyectiva, con lo que
f admite función inversa, cuya expresión es f −1 (x) = x+3 2
= 12 x + 32 . Si
x ∈ R, (f ◦ f −1 )(x) = f (f −1 (x)) = f ( x+3
2
) = 2 x+3
2
− 3 = x = idR (x). La
otra igualdad es similar.

(24) f no es inyectiva: f (1) = 1 = f (−1) con 1 6= −1. Luego, f no es biyectiva.


Además, f no es sobreyectiva: Dado y = −1, no existe x ∈ R tal que
x2 = −1. Restringiendo el dominio Dm(f ) = R al intervalo S = [0, +∞[
y el codominio Im(f ) = R al intervalo S = [0, +∞[, se prueba (usando
la definición) que la restricción f : S → S es inyectiva y sobreyectiva.

Además, f −1 (x) = x.

(25) Los 3 apartados son inmediatos por definición.

(26) 1 ∈ R y es conocido que si k ∈ R entonces k + 1 ∈ R, luego K1 = R es


inductivo. 1 ∈ K2 y si k ∈ K2 entonces k > 21 con lo cual k + 1 > 32 ≥ 12 ,
1.3. SOLUCIÓN A LOS EJERCICIOS 27

es decir, k + 1 ∈ K2 . Luego K2 es inductivo. Para K3 , es similar a la


anterior.

(27) 1 ∈ Kn , ∀n ∈ N. Luego, 1 ∈ ∩n∈N Kn .


Si k ∈ ∩n∈N Kn entonces k ∈ Kn , ∀n ∈ N, es decir, k = 1 o k > 23 − n+11
.
5 1 3 1
Ası́, k + 1 = 2 o k + 1 > 2 − n+1 > 2 − n+1 . En ambos casos, k + 1 ∈ Kn ,
∀n ∈ N. Luego, k + 1 ∈ ∩n∈N Kn , lo que prueba que dicha intersección es
un conjunto inductivo. Además, ∩n∈N Kn 6= N pues N es la intersección de
todos los conjuntos inductivos de R y K = {1, 2, 3, 4, 5} ∩ [6, +∞] 6= Kn ,
∀n ∈ N y K es inductivo.

1
(28) (a) Si n = 1, es claro que 1·(1+1) = 21 = 1+1
1
, con lo que se cumple la
igualdad para n = 1. Sea n > 1 y suponer que la igualdad se cumple
1
para el natural n, es decir, la hipótesis de inducción garantiza que 1·2 +
1 1 n
2·3
+ · · · + n·(n+1) = n+1 (para ese n). Se debe probar que ia igualdad se
1 1
cumple para n + 1, es decir, se debe establecer la igualdad 1·2 + 2·3 +· · ·+
1 1 n+1
n·(n+1)
+ (n+1)·((n+1)+1) = (n+1)+1 . En efecto, por hipótesis de inducción,
1 1 1 1 n 1 1
1·2
+ 2·3 + · · · + n·(n+1) + (n+1)·((n+1)+1) = n+1 + (n+1)·(n+2) = n+1 [n +
2 2
1 1 n(n+2)+1 1 n +2n+1 1 (n+1)
n+2
]
= n+1 [ n+2 ] = n+1 [ n+2 ] = n+1 n+2
= n+1
n+2
n+1
= (n+1)+1 . Por el
principio de inducción, se concluye que la igualdad es válida para todo
n ∈ N.
Utilizando el mismo procedimiento que el anterior, para probar (b) y (c)
se deben hallar las raı́ces de un polinomio de segundo grado y factorizarlo.
(d) Como en (a), primero factorizar, luego operar y hallar las raı́ces de
un polinomio de segundo grado y factorizarlo.
(e) Como en (a), primero factorizar, luego operar y utilizar una identidad
notable.
(f) Sumar fracciones.

(29) h(n1 ) = h(n2 ) ⇒ n1 = n2 : se deben analizar 4 casos combinando las


opciones n1 y n2 pares o impares (dos casos no se pueden dar). Para ver
28 CAPÍTULO 1. PRELIMINARES

que h es sobreyectiva, pintar en un eje los números {0} ∪ N, en otro Z


y unir con flechas de acuerdo a la definición de h. Observar en cuáles se
transforman los números pares y en cuáles los impares. Sea z ∈ Z. Para
hallar n ∈ {0}∪N tal que h(n) = z distinguir los casos: z ≥ 1 (de z = n+12
n
se obtiene n = 2z − 1) y z < 1 (de z = − 2 se obtiene n = −2z). En
®
−2z, si z < 1
definitiva, h−1 (z) = para z ∈ Z. Para concluir que
2z − 1, si z ≥ 1
Z sea un conjunto infinito numerable falta una biyección: f (n) = n − 1
entre N y {0} ∪ N. Al componerlas se tiene la biyección buscada.

(30) Por definición de grupo.

(31) Por definición de anillo.

(32) La suma y el producto de dos números pares es par y las restantes pro-
piedades se herean de Z. Si 2k ∈ 2 · Z fuese la unidad, para cualquier
u = 2t ∈ 2·Z−{0} se deberı́a cumplir que (2k)(2t) = 2t, es decir, 2k = 1,
lo que no es posible pues k ∈ Z.

(33) Si e y e0 fuesen dos neutros del grupo, por ser e neutro se tiene ee0 = e0
y por ser e0 neutro se tiene ee0 = e. Luego e = e0 .

(34) Sea g ∈ G. Si g1 , g2 ∈ G fuesen inversos de g entonces gg1 = g1 g = e y


gg2 = g2 g = e. Luego, g1 = g1 e = g1 (gg2 ) = (g1 g)g2 = eg2 = g2 .

(35) Como 0A +0A = 0A , se tiene 0A ·a = (0A +0A )·a = 0A ·a+0A ·a. Sumando
a ambos miembros el opuesto de 0A · a, se tiene [−(0A · a)] + 0A · a =
[−(0A · a)] + [0A · a + 0A · a]. Aplicando la propiedad asociativa de la suma,
0A = [−(0A · a) + 0A · a] + 0A · a = 0A + 0A · a = 0A · a.

(36) Se debe comprobar que se verifican todos los axiomas que definen un
cuerpo (en la asociatividad para la suma y para el producto hay 8 casos
para cada una). El neutro para la suma es a y para el producto es b;
opuestos: −a = a, −b = b; inversos: (el único elemento distinto de a es
b) b−1 = b.
1.3. SOLUCIÓN A LOS EJERCICIOS 29

(37) Similar al anterior.

(38) Es necesario comprobar que la composición de dos aplicaciones es una


aplicación, que existe un elemento neutro en B(A) (que será idA ) y que
toda aplicación biyectiva f admite elemento inverso (que será la aplica-
ción f −1 ). Se deben justificar estas afirmaciones recordando que todas
ellas han sido probadas en la Sección 1.4 de la página 60.
30 CAPÍTULO 1. PRELIMINARES
Parte I

Análisis Matricial

31
Capı́tulo 2

Matrices

Índice
2.1. TEMARIO . . . . . . . . . . . . . . . . . . . . . . 34
2.2. EJERCICIOS . . . . . . . . . . . . . . . . . . . . . 35
2.3. SOLUCIÓN A LOS EJERCICIOS . . . . . . . . 41

33
34 CAPÍTULO 2. MATRICES

2.1. TEMARIO
Los ejercicios de este capı́tulo corresponden a los temas:

Definición

Tipos especiales de matrices

Álgebra de matrices

Trasposición de matrices

Matrices simétricas y antisimétricas. Traza de una matriz

Partición de matrices en bloques


2.2. EJERCICIOS 35

2.2. EJERCICIOS
(1) Probar la propiedad conmutativa de la adición de matrices de la Propo-
sición 2.1.

(2) Demostrar que el elemento neutro para la adición de matrices es único.

(3) Para cada matriz A ∈ Km×n , probar que existe una única matriz B ∈
Km×n tal que A + B = B + A = Om×n .

(4) Probar las propiedades relativas a la multiplicación de un escalar por una


matriz de la Proposición 2.2.

(5) Probar las propiedades relativas a la multiplicación de matrices de la


Proposición 2.3.

(6) Dadas las matrices


ñ ô ñ ô
1 3 3 6
A= y B= ,
−2 4 9 0
hallar una matriz triangular inferior C con la misma diagonal principal
que −A y una matriz triangular superior D de modo que A+D = B −C.
¿Son únicas las matrices C y D?

(7) Demostrar que si A, B ∈ Rn×n entonces

(A + B)2 = A2 + 2AB + B 2 ⇔ AB = BA.

Encontrar dos matrices A y B para las cuales (A+B)2 6= A2 +2AB +B 2 .

(8) Encontrar todas las matrices a coeficientes reales que conmutan con
 
0 1 0 0
 
 0 0 1 0 
A=  0 0 0 1 

 
0 0 0 0
y expresar el resultado utilizando potencias de la matriz A.
36 CAPÍTULO 2. MATRICES

(9) Probar la propiedad relativa a la potencia de otra potencia de matrices


de la Proposición 2.4.

(10) Encontrar el resultado de la potencia n-ésima An de la matriz


ñ ô
1 1
A= ,
0 1

y demostrar que es correcto por inducción sobre n ∈ N. Idem para


ñ ô
1 1
B= .
1 1

(11) Probar las propiedades relativas a la trasposición de matrices de la Pro-


posición 2.5.

(12) Demostrar las propiedades relativas a la simetrı́a de la Proposición 2.6.

(13) Sea K un cuerpo de caracterı́stica distinta de 2 ¿Existe en Kn×n alguna


matriz que sea simétrica y antisimétrica a la vez? Justificar la respuesta.
En caso afirmativo, encontrar todas las matrices en esas condiciones.
¿Qué ocurre si K es un cuerpo de caracterı́stica 2? En este caso encontrar
una de dichas matrices para K = Z2 y n = 2.

(14) Probar que toda matriz en Kn×n se puede escribir como suma de una
matriz simétrica y otra antisimétrica. Supóngase que K es un cuerpo de
caracterı́stica distinta de 2.

(15) Demostrar que las matrices escalares a coeficientes en K de tamaño n×n


conmutan con todas las matrices de Kn×n y que son las únicas en estas
condiciones.

(16) El producto de matrices, en general, es no conmutativo. Dar un ejemplo


que permita afirmar que AB 6= BA para dos matrices A, B ∈ Rn×n para
n ≥ 2 arbitrario.
2.2. EJERCICIOS 37

(17) Dar un ejemplo que permita afirmar que AB = AC no implica B = C


para matrices para las que los productos están bien definidos.

(18) Sean A, B ∈ Rn×n . Indicar si la siguiente afirmación es verdadera o falsa


y justificar adecuadamente la respuesta:

(a) AB = On ⇒ BA = On .
(b) Si A y B son simétricas entonces A − B es simétrica.

(19) Se consideran dos matrices particionadas A ∈ K(a1 +a2 )×(a3 +a4 ) y B ∈


K(a3 +a4 )×(b1 +b2 ) . Comprobar que la multiplicación de A por B puede rea-
lizarse por bloques como se indica en (2.4).

(20) Calcular la matriz A6 para


 
0 1 0 0
 
 1 0 0 0 
A= :

 1 1 1 0 

1 1 0 1

(a) Evaluando directamente.


(b) Dividiendo la matriz A en cuatro bloques de tamaño 2 × 2 cada uno.

¿Cuál de las dos formas es más sencilla?

(21) Sean A, C ∈ Kr×r y B, D ∈ Ks×s . Demostrar que


ñ ôñ ô ñ ô
A O C O AC O
= .
O B O D O BD

Es decir, que el producto de matrices diagonales por bloques es una


matriz diagonal por bloques y se calcula multiplicando los bloques res-
pectivos.

(22) Demostrar las propiedades restantes en la Proposición 2.7.


38 CAPÍTULO 2. MATRICES

(23) Demostrar que la traza de una matriz A ∈ Kn×n coincide con la de su


traspuesta.

(24) Sean A y B matrices reales de tamaños m × n y n × m, respectivamente,


tales que AB = Im y BA = In . Demostrar que m = n.

(25) Demostrar que tr(AB) = tr(BA) para cualquier par de matrices A ∈


Km×n y B ∈ Kn×m . Comparar con la Proposición 2.7.

(26) Demostrar que tr(ABC) = tr(CAB) = tr(BCA) donde A, B, C son ma-


trices a coeficientes en K de tamaños apropiados (que se deben indicar).
Comprobar que, en general, tr(ABC) 6= tr(BAC).

(27) Demostrar que el producto de matrices triangulares superiores (respecti-


vamente, inferiores) de Kn×n es una matriz triangular superior (respecti-
vamente, inferior). ¿Qué elementos aparecen en la diagonal del producto?

(28) Sea A la matriz


ñ ô
cos(2π/k) sen(2π/k)
A= ,
−sen(2π/k) cos(2π/k)

donde k es un entero positivo. Encontrar Am para cada m ∈ N. ¿Es posi-


ble encontrar una notación para la matriz A que sea más representativa
atendiendo a su definición? ¿Cuánto da Ak ?

(29) Sea A ∈ Rn×n una matriz antisimétrica y m ∈ N. Indicar si las siguientes


afirmaciones son verdaderas o falsas y justificar adecuadamente:

(a) Am es antisimétrica si m es impar.


(b) Am es simétrica si m es par.

Enunciar y demostrar un resultado similar sobre la propiedad de simetrı́a


de las potencias naturales de una matriz simétrica A ∈ Rn×n .
2.2. EJERCICIOS 39

(30) Hallar, si existen, todas las matrices A ∈ R3×3 tales que AAt = B, donde
 
−1 −3 4
B =  2 −1 2  .
 

0 0 1
Resolverlo de dos formas distintas.
En lo que sigue, se propone una serie de ejercicios que permitirán realizar
productos especiales a partir de diferentes particiones de las matrices.

(31) Demostrar la Proposición 2.8.

(32) En la Proposición 2.8 se ha mostrado que el producto de una matriz por


una matriz columna es combinación lineal de las columnas de dicha ma-
triz. Enunciar detalladamente y probar una propiadad dual: El producto
de una matriz fila por una matriz es combinación lineal de las filas de
dicha matriz.

(33) Sean D ∈ Kn×n una matriz diagonal y A ∈ Km×n expresada mediante


una partición del tipo 1 × (c1 + c2 + · · · + cn ) con c1 = c2 = · · · = cn = 1.
Probar que si las columnas de A son a1 , a2 , . . . , an ∈ Km×1 entonces el
producto AD es
 
d1 0 . . . 0
 0 d2 . . . 0  î
ó
î  ó
a1 a2 . . . an  . . . = d a d a . . . d a .
. . ... 
  1 1 2 2 n n
 .. .. 
0 0 . . . dn
Observar que el producto AD es una matriz del mismo tipo que el de
A. Enunciar y probar un resultado similar para el producto DB para
B ∈ Kn×p particionada por filas.
 
a(1)
 (2) 
 a  (f1 +f2 +···+fm )×n
(34) Sean A =  ..  ∈ K con f1 = f2 = · · · = fm = 1 y

 . 
a(m)
40 CAPÍTULO 2. MATRICES
î ó
B = b1 b2 . . . bp ∈ Kn×(c1 +c2 +···+cp ) con c1 = c2 = · · · = cp = 1.
Probar que el producto AB puede escribirse como una matriz de tipo
(f1 + f2 + · · · + fm ) × (c1 + c2 + · · · + cp ), siendo a(i) bj su elemento de la
posición (i, j) para i = 1, 2, . . . , m y j = 1, 2, . . . , p.

(35) Demostrar el apartado (b) de la Proposición 2.9.


î ó
(36) Sean A = a1 a2 . . . an ∈ Km×(c1 +c2 +···+cn ) con c1 = c2 = · · · =
 
b(1)
 (2) 
 b  (f1 +f2 +···+fn )×p
cn = 1 y B =  ..  ∈ K con f1 = f2 = · · · = fn = 1.

 . 
b(n)
Probar que el producto AB puede escribirse como

AB = a1 b(1) + a2 b(2) + · · · + an b(n) .

(37) Sean A ∈ Km×n , B ∈ Kn×p y C ∈ Kn×q . Probar que


î ó î ó
A B C = AB AC .

Indicando previamente cuáles deben ser ahora los tamaños de las matri-
ces A, B y C, probar que
ñ ô ñ ô
A AC
C= .
B BC

Para esta segunda prueba recurrir a la de trasposición de matrices por


bloques.
2.3. SOLUCIÓN A LOS EJERCICIOS 41

2.3. SOLUCIÓN A LOS EJERCICIOS


(1) Se prueba como en grupos.

(2) Se prueba como en grupos.

(3) Se prueba como en grupos.

(4) Utilizando la definición y utilizando las correspondientes propiedades de


K.

(5) Utilizando la definición y utilizando propiedades de K.


ñ ô ñ ô
−1 0 3 3
(6) Son únicas, C = ,D = .
11 −4 0 0

(7) Calcular (A + B)2 = (A + B)(A + B) y comparar con A2 + 2AB +


2
B
ñ . Ambas
ô implicaciones
ñ ô se pueden considerar simultáneamente. A =
0 1 0 0
,B = .
0 0 1 0

(8) Resolviendo AX = XA para X = [xij ]4i,j=1 se obtiene


 
x11 x12 x13 x14
 
 0 x11 x12 x13  = x11 I4 + x12 A + x13 A2 + x14 A3 .

X=

 0 0 x11 x12 

0 0 0 x11

(9) Sea A ∈ Kn×n . Se debe probar que (Ak )r = Ak·r para todo k, r ∈ {0}∪N.
Se dividirá en casos: (a) k = 0, r ≥ 0: (A0 )r = I r = I = A0 = A0·r ,
(b) k ≥ 0, r = 0: (Ak )0 = I = A0 = Ak·0 , (c) k, r ∈ N: Sea k fijo
(pero arbitrario). Se realizará por inducción sobre r. En efecto, como
(Ak )1 = Ak = Ak·1 , la propiedad es válida para r = 1. Sea r > 1 y suponer
que la propiedad es válida para (ese valor de) r, es decir, (Ak )r = Ak·r . Se
debe probar que es válida para el valor r + 1, es decir, (Ak )r+1 = Ak·(r+1) .
42 CAPÍTULO 2. MATRICES

En efecto, por hipótesis de inducción, (Ak )r+1 = (Ak )r (Ak )1 = Ak·r Ak =


Ak·r+k = Ak·(r+1) . Luego, la propiedad es cierta para todos los valores de
k y n naturales o cero.
ñ ô
n 1 n
(10) A = , ∀n ∈ N. B n = 2n−1 B, ∀n ∈ N.
0 1

(11) Por definición.

(12) (b) (A − At )t = At + (−At )t = At − (At )t = At − A = −(A − At ),


luego A − At es antisimétrica. (c) (AAt )t = (At )t At = AAt , luego AAt es
simétrica. (d) es similar a (c).

(13) Si fuese At = A y At = −A entonces A = −A, de donde (1+1)A = O. Al


ser K un cuerpo de caracterı́stica distinta de 2 se tiene que 1 + 1 6= 0, con
lo cual A = O. Si car(A) = 2, cualquier matrizñ A cumple ô la condición
1 0
(1 + 1)A = O y además −1 = 1. Ejemplo: B = .
0 1

(14) Se quiere escribir M ∈ Kn×n como M = S +A, siendo S t = S y At = −A.


Puesto que M t = S − A, al sumar M y M t se obtiene M + M t = 2S,
de donde S = 12 (M + M t ), que es simétrica. Al restar se obtiene A =
1
2
(M − M t ), que es antisimétrica.

(15) Si a ∈ K entonces (aI)A = (a[δij ])A = [aδij ]A = [aaij ] = aA. Por


otro lado, A(aI) = [aij ](a[δij ]) = [aij ]([aδij ]) = [aaij ] = a[aij ] = aA.
La tercera igualdad sigue de aplicar la definición de multiplicación de
matrices. Luego, (aI)A = aA = A(aI), es decir, las matrices escalares
conmutan con cualquier otra matriz.
Falta ver que son las únicas que cumplen esa condición. Si AX = XA
para toda X, en particular, se cumple para ciertas X del tipo Eij =
®
1 i 6= j
. Sea A = [aij ]. Tomando X = E11 y operando se tiene
0 i 6= j
a12 = a13 = · · · = a1n = 0 y a21 = a31 = · · · = an1 = 0, es decir, se anulas
todos los elementos de la primera fila y columna de A excepto a11 .
2.3. SOLUCIÓN A LOS EJERCICIOS 43

Particularizando para X = E12 , se obtiene a11 = a22 y a23 = · · · = a2n =


0.
Haciéndolo con X = E21 , se llega a a32 = · · · = an2 = 0. Hasta ahora
los elementos de la diagonal coinciden y los restantes de la primera y
segunda filas y columnas son nulos.
Siguiendo de este modo con X ∈ {E13 , E31 , . . . , E1,n−1 , En−1,1 } se obtiene
A = a11 In .
ñ ô ñ ô
0 1 0 0
(16) Se puede generalizar A1 = y B1 = para n > 2 a
0 0 1 0
ñ ô ñ ô
A1 O2,n−2 B1 O2,n−2
A= yB= .
On−2,2 On−2,n−2 On−2,2 On−2,n−2
ñ ô ñ ô ñ ô
1 0 2 2 2 2
(17) A = ,B= ,C= .
0 0 0 0 1 1
ñ ô ñ ô
0 0 0 0
(18) (a) F, A = ,B= , (b) V, si At = A, B t = B entonces
1 0 0 1
(A − B)t = [A + (−B)]t = At + (−B)t = At − B t = A − B.

(19) Realizar el producto por definición mediante elementos y luego mediante


bloques y comparar resultados.

(2+2)×(2+2)
(20) (b) Particionando
ñ ôA ∈ K queda A2 triangular inferior por blo-
0 1
ques con e I2 en la diagonal y 2J en el bloque (2, 1) siendo
1 0
ñ ô ñ ô
1 1 6 2 2 2 I2 O2
J= . Calculando A = A A A = .
1 1 6J I2

(21) Basta multiplicar por bloques.

(22) Por definición.

(23) Por definición.


44 CAPÍTULO 2. MATRICES

(24) Tomar traza en ambas igualdades y utilizar propiedades de la traza.

(25) Similar a lo probado en Proposición 2.7.

(26) Asociar
ñ adecuadamente
ô y aplicar
ñ laô propiedad del apartado anterior.
0 1 1 1
A= , B = At , C = .
0 0 2 2

(27) Por inducción sobre n. Para n > 1, realizar particiones del tipo A, B ∈
K[(n−1)+1]×[(n−1)+1] . Otra forma: Si A = [aij ], B = [bij ] con aij = bij =
Pn
0 para i > j y AB = [cij ] se tiene que cij = k=1 aik bkj . Ası́ cij =
Pj Pn

 k=1 |{z}aik bkj + k=j+1 aik bkj i > j
.
|{z}
=0 =0

 aii bii i=j

(28) Puesto que el valor del argumento no simplificará los cálculos, sea α :=

k
. En realidad, A es una familia de matrices que depende del parámetro
α, parece adecuado llamar Aα a dicha matriz.
Calcular A2α y utilizar identidadesñ trigonométricas para ôsimplificar la
cos(mα) sen(mα)
expresión. Conjeturar que Am = , y probarlo
−sen(mα) cos(mα)
por inducción sobre m. Ak = I2 .

(29) (a) V, (Am )t = (At )m = (−A)m = (−1)m Am = −Am , pues m es impar.


(b) V, similar a (a).

(30) No existe pues AAt es siempre una matriz simétrica y B no lo es. Otra
forma: sea A = [aij ]3i,j=1 , operar y resolver un sistema de ecuaciones
(¿lineales?), que llevará a contradicciones (como a211 + a212 + a213 = −1).

(31) Por inducción sobre n. Para n > 1 realizar una partición del tipo A ∈
Kn×[(n−1)+1] .
Otra forma: resolverlo para el caso A ∈ K2×2 . Observar que al calcular
Ax se obtiene una matriz columna que se puede expresar como suma de
2 matrices columnas. Escribir luego este argumento para el caso general.
2.3. SOLUCIÓN A LOS EJERCICIOS 45
 
a1
ó a2
î 
t
 
(32) Probar x A = x1 x2 . . . xn  ..  = x 1 a1 + x 2 a2 + · · · + x n an
.
 
 
an
como en el ejercicio previo.

(33) Calcular AD considerando D particionada según sus columnas. Tras ope-


rar, considerar A particionada según sus columnas y calcular los n pro-
ductos obtenidos utilizando el ejercicio anterior.
Otra forma: Por inducción sobre n. Para n > 1 realizar una partición en
D del tipo D ∈ Kn×[(n−1)+1] y utilizar el ejercicio anterior.

(34) Utilizar la definición de producto de dos matrices y la notación de las


columnas de A y las filas de B.
Otra forma: Sea m fijo. Por inducción sobre p: el caso p = 1 es inmediato
aplicando
î productos especiales.
ó î Sea p > 1, utilizando productos
ó especia-
les A b1 . . . bp−1 bp = Ab1 . . . Abp−1 Abp . Se particiona el
producto obtenido separando la última columna y utilizando productos
especiales con las p − 1 primeras columnas obteniendo que:
î ó î î ó ó
Ab1 . . . Abp−1 Abp = Ab1 . . . Abp−1 Abp
î î ó ó
= A b1 . . . bp−1 Abp .

El resultado sigue por la hipótesis de inducción (en las p − 1 primeras


columnas) y usando productos especiales (en la última columna).

(35) Generalizar (como en apatado (a)) la idea:


ñ ô ñ ôñ ô
a1 a11 a12 b11 b12
B=
a2 a21 a22 b21 b22
ñ ô
a11 b11 + a12 b21 a11 b12 + a12 b22
=
a21 b11 + a22 b21 a21 b12 + a22 b22
46 CAPÍTULO 2. MATRICES
 ñ ô 
î ó b11 b12
 a11 a12  ñ ô
b b22  a B
ñ 21 1

= ó b11
ô = .
 î b12  a2 B
a21 a22
 
b21 b22

(36) Por inducción sobre n. Separar la última columna de A y última fila de


B y multiplicar matrices por bloques para n > 1. Luego se aplica la
hipótesis de inducción.

(37) Particionar B y C según sus columnas y utilizar


ñ ô dos veces productos
A î ó
especiales. Para la segunda prueba pensar C = (C t At B t )t
B
y aplicar la propiedad anterior.
Capı́tulo 3

Sistemas de ecuaciones lineales

Índice
3.1. TEMARIO . . . . . . . . . . . . . . . . . . . . . . 48
3.2. EJERCICIOS . . . . . . . . . . . . . . . . . . . . . 49
3.3. SOLUCIÓN A LOS EJERCICIOS . . . . . . . . 52

47
48 CAPÍTULO 3. SISTEMAS DE ECUACIONES LINEALES

3.1. TEMARIO
Los ejercicios de este capı́tulo corresponden a los temas:

Sistemas de ecuaciones lineales

Método de eliminación de Gauss

Clasificación de los sistemas lineales


3.2. EJERCICIOS 49

3.2. EJERCICIOS
(1) Plantear y resolver (en Q, R, C y Z2 ) tres sistemas de 2 ecuaciones lineales
con 2 incógnitas, uno de cada tipo: compatible determinado, compatible
indeterminado e incompatible.

(2) Resolver y clasificar los siguientes sistemas de ecuaciones lineales:



 2x + 3y + 3z + 3t = 3

−2x + 11y + 11z + 10t = 11

−4x + 8y + 8z + 7t = 7

y 

 2x + 4y + 2z = 4
−x + 4y + 8z = 4 .

−4x + 8y + 7z = 8

(3) Resolver y clasificar el siguiente sistema de ecuaciones lineales



 2x1 + 3x2 + 3x3
 + 3x4 = 3
2x1 + 4x2 + 4x3 + 72 x4 = 72 .

2x1 + 3x2 + 3x3 + 4x4 = 4

Observar que la incógnita x3 no aparece en la última ecuación del sistema


equivalente transformado. Reordenar las incógnitas en el sistema original
y resolver de nuevo, de modo que el sistema obtenido tenga aspecto
triangular (es decir, que los elementos gii de la expresión (3.6) sean todos
no nulos).

(4) Encontrar los valores de a y b reales tales que los sistemas de ecuaciones
lineales
® ®
2x − 3y = 8 ax − y = 6
y
5x − 2y = 9 x − 2b y = 9

sean equivalentes.
50 CAPÍTULO 3. SISTEMAS DE ECUACIONES LINEALES

(5) Encontrar un sistema de ecuaciones equivalente a cada uno de los si-


guientes sistemas:

 x1 + x2 + x3 = 2

x1 + 2x2 + 3x3 = 2 ,

x1 + 3x2 + 6x3 = 1

® ®
x1 + 2x2 = −1 x1 − 3x2 = 0
y .
−2x1 − 4x2 = 2 −2x1 + 6x2 = 1
En caso de sistemas compatibles, encontrar su conjunto solución. Si es
compatible indeterminado, expresar su solución general en forma matri-
cial.

(6) Dadas las matrices


ñ ô ñ ô
2 −1 1 5
A= y B= ,
5 −3 −2 3

resolver la ecuación matricial AX = B planteando y resolviendo un


sistema de ecuaciones lineales.

(7) Determinar los valores de a, b y c reales para que los puntos (1, 4), (−1, 6)
y (2, 9) pertenezcan a la parábola de ecuación y = ax2 + bx + c. Pintar la
gráfica de dicha parábola realizando previamente el completamiento de
cuadrados de modo que quede del tipo y = m(x − h)2 + k.

(8) Encontrar, si existen, todos los valores de θ, α, β y γ ∈ R que sean


soluciones de los siguientes sistemas de ecuaciones:

(a) ®
sen θ − 2 cos θ = 2
2 sen θ − 2 cos θ = 2
(b) ® √
2 sen θ + 2 tan θ = 4

4 sen θ − 3 2 tan θ = 8
3.2. EJERCICIOS 51

(c) 
 2 sen α − cos β + 3 tan γ = 3

4 sen α + 2 cos β − 2 tan γ = 2 .

6 sen α − 3 cos β + tan γ = 9

Indicar si los sistemas anteriores son lineales o no lineales.

(9) Sean a, b, c y d números reales fijos. Demostrar que los valores de λ para
los cuales el sistema
®
(a − λ)x + by = 0
cx + (d − λ)y = 0

tiene soluciones no triviales deben satisfacer la ecuación cuadrática (en


la incógnita λ)
λ2 − (a + d)λ + (ad − bc) = 0.
¿Son números reales los valores de λ obtenidos? ¿Y si b = c? Justificar.

(10) Aplicando el método de eliminación de Gauss, encontrar los valores de


b ∈ R para que el sistema
    
1 b −2 x1 2
 −1 b − 2 2  x2  =  −2 
    

2 2 b−4 x3 3

(a) tenga una única solución.


(b) tenga infinitas soluciones.
(c) no tenga solución.
52 CAPÍTULO 3. SISTEMAS DE ECUACIONES LINEALES

3.3. SOLUCIÓN A LOS EJERCICIOS


®
x + y = 0
(1) El sistema lineal es compatible determinado conside-
x − y = 1
rado sobre el cuerpo de los números racionales, y su conjunto solución
es S = {( 21 , − 12 )}. Considerado sobre el cuerpo Z2 , es incompatible y su
conjunto solución es ∅.
®
x + y = 0
El sistema , considerado sobre el cuerpo de los núme-
2x + 2y = 0
ros reales, es compatible indeterminado y su conjunto solución (infinito)
es S = {(k, −k) : k ∈ R}. Sobre el cuerpo Z2 , es compatible indetermi-
nado y su conjunto solución (finito) es {(0, 0), (1, 1)}.
®
x + y = 0
El sistema es incompatible: S = ∅ si se lo considera
2x + 2y = 2
sobre el cuerpo de los números reales, sin embargo, sobre Z2 , es compa-
tible indeterminado y su conjunto solución (finito) es {(0, 0), (1, 1)}.

(2) El primero es un sistema incompatible y el segundo es compatible deter-


minado siendo S = {(0, 1, 0)}.

(3) Es un sistema compatible indeterminado y S = {(0, −λ, λ, 1) : λ ∈ K}


pudiendo ser K ∈ {Q, R, C}.

Intercambiar el orden de las incógnitas x3 y x4 .

(4) El conjunto solución del primer sistema es S1 = {(1, −2)}; a = 4, b = 2.

(5) Un sistema equivalente al primero es



 x1 + x2 + x3 =
 2
x2 + 2x3 = 0 ,

x3 = −1

y S1 = {(1, 2 − 1)} (compatible determinado).


3.3. SOLUCIÓN A LOS EJERCICIOS 53

El segundo es un sistema compatible indeterminado, un sistema equiva-


lente es

x1 + 2x2 = −1 ,
y S2 = {(−1 − 2k, k) : k ∈ K} pudiendo ser K ∈ {Q, R, C}.
El tercero es un sistema incompatible, un sistema equivalente es
®
x1 − 3x2 = 0
0 = 1

y S3 = ∅.
ñ ô
5 12
(6) X = .
9 19

1 2 23

(7) a = 2, b = −1, c = 3, y = 2x2 − x + 3 = 2 x − 4
+ 8
.

(8) No son sistemas lineales.


(a) Al resolver el sistema lineal en x = sen(θ), y = cos(θ) se obtiene
sen(θ) = 0, cos(θ) = −1. De la primera ecuación se tiene θ = tπ, t ∈ Z,
y de la segunda, −1 = cos(θ) = cos(tπ) = (−1)t , luego t es impar. Es
decir, θ = (2k + 1)π, k ∈ Z.
(b) Al resolver el sistema lineal en x = sen(θ), y = tan(θ) se obtiene
sen(θ) = 2, tan(θ) = 0. No existe θ ∈ R tal que sen(θ) = 2 > 1; S = ∅.
(c) Al resolver el sistema lineal en sen(α), cos(β) y tan(γ) se obtiene
sen(α) = 1, cos(β) = −1 y tg(γ) = 0, de donde α = π2 + 2k1 π, β =
π + 2k2 π y γ = k3 π, con k1 , k2 , k3 ∈ Z.

(9) Si c 6= 0 entonces mediante operaciones elementales se tiene que


ñ ô ñ ô ñ d−λ
ô
a−λ b c d−λ 1 c
A= ∼f ∼f ∼f
c d−λ a−λ b a−λ b
ñ d−λ
ô
1 c
∼f .
0 b + (λ − a) d−λ
c
54 CAPÍTULO 3. SISTEMAS DE ECUACIONES LINEALES

Para que el sistema admita solución no nula debe cumplirse que b + (λ −


a) d−λ
c
= 0. Operando λ2 − (a + d)λ + (ad − bc) = 0.
ñ ô
a−λ b
Si c = 0 entonces la matriz del sistema es .
0 d−λ
Si c = 0 y ôd − λ = 0, es decir, λ = d, la matriz del sistema queda
ñ
a−d b
. Puede ocurrir que: (a) a = d. En este caso: (i) b = 0,
0 0
sistema compatible indeterminado y satisface la ecuación, (ii) b 6= 0,
sistema compatible indeterminado y satisface la ecuación.
(b) a 6= d. En este caso: (i) b = 0, solución trivial, se descarta, (ii) b 6= 0,
sistema compatible indeterminado y satisface la ecuación.
Si c = 0 y d − λ 6= 0 entonces y = 0 con lo que (a − λ)x = 0. Puede
ocurrir que: (a) λ = a, sistema compatible indeterminado y satisface la
ecuación, (b) λ 6= a, solución trivial, se descarta.
El discriminante de la ecuación de segundo grado es: (a+d)2 −4(ad−bc),
que puede ser negativo, con lo que las raı́ces pueden ser reales o complejas.
Si b = c entonces (a + d)2 − 4(ad − b2 ) = (a − d)2 + b2 ≥ 0 para todo
a, b, d ∈ R, con lo que todas las soluciones serán reales.

(10) Si b = 0, el sistema es incompatible.


Si b 6= 0, el sistema es compatible y z = − 1b . Si b = 1, el sistema es
compatible indeterminado y S = {(1 − k, k, −1) : k ∈ R}.
Si b 6= 0 y b 6= 1, el sistema es compatible determinado (para cada uno
de estos valores de b ∈ R) y Sb = {(2 − 1b , 0, − 1b )}.
Capı́tulo 4

Matrices y sistemas de
ecuaciones lineales. Rango

Índice
4.1. TEMARIO . . . . . . . . . . . . . . . . . . . . . . 56
4.2. EJERCICIOS . . . . . . . . . . . . . . . . . . . . . 57
4.3. SOLUCIÓN A LOS EJERCICIOS . . . . . . . . 61

55
56 CAPÍTULO 4. MATRICES Y SISTEMAS LINEALES. RANGO

4.1. TEMARIO
Los ejercicios de este capı́tulo corresponden a los temas:

Matriz asociada a un sistema lineal

Método de Gauss-Jordan

Matriz escalonada reducida por filas

Matrices equivalentes por filas

Existencia y unicidad de la forma escalonada reducida por filas

Matriz escalonada reducida por columnas

Rango de una matriz

Clasificación y compatibilidad de sistemas lineales

Soluciones de sistemas lineales homogéneos


4.2. EJERCICIOS 57

4.2. EJERCICIOS
(1) Sea S el conjunto formado por los sistemas de m ecuaciones lineales con
n incógnitas a coeficientes en K. Demostrar que existe una biyección
entre S y Km×(n+1) . Particularizar esta biyección al caso de sistemas de
ecuaciones lineales homogéneos.

(2) Utilizando notación matricial, expresar el sistema de ecuaciones lineales


(4.1) como
x1 c1 + x2 c2 + · · · + xn cn = b,
donde, para cada j = 1, 2, . . . , n,
   
a1j b1
 a2j  b2
   
 
cj :=  . 
 y b= .. ,
 ..  .
  
 
amj bm

y, de manera equivalente, mediante


 
x1
ó x2
î 
 
c1 c2 · · · cn  ..  = b.
.
 
 
xn

(3) Aplicar el método de Gauss-Jordan para resolver el sistema de ecuaciones


lineales

 x1 + 5x2 − 3x3 + 4x4 + 6x5 = b1

3x1 + 6x2 − x3 + 2x4 + 8x5 = b2

x1 − x2 + 2x3 + 3x4 − x5 = b3

para los casos:

(a) b1 = 2, b2 = 2, b3 = 4.
(b) b1 = b2 = b3 = 0.
58 CAPÍTULO 4. MATRICES Y SISTEMAS LINEALES. RANGO

Para el primer caso, si se trata de un sistema compatible indetermina-


do, indicar el número de parámetros necesarios para escribir el conjunto
solución, su solución general en notación matricial y contrastar con la
información obtenida al respecto en el Teorema de Rouché-Frobenius.
Contrastar el segundo caso con la Proposición 4.2 y con el Corolario 4.1.

(4) Encontrar la forma escalonada reducida por filas de la matriz


 
−1 −1 −1 0 1
 1 2 1 4 4 .
 

1 1 1 2 1

Identificar los unos principales, sus columnas básicas y hallar su rango.

(5) De todas las soluciones del siguiente sistema de ecuaciones lineales ho-
mogéneo 
 x + 2y + z = 0

2x + 4y + z = 0

x + 2y − z = 0

determinar aquellas que también satisfacen la relación no lineal z =


y 2 (1 − x). Indicar el significado geométrico de esta situación.

(6) Calcular el rango de las siguientes matrices en el cuerpo de los números


reales:  
1 3 2
ñ ô  
1 2 5  2 6 4 
A= , B=  
2 4 8  −1 −3 −2 

0 0 0
y  
15 1 17 −30 51
 
 23 2 26 −46 78 
C= .

 17 3 21 −34 63 

45 4 50 −90 150
4.2. EJERCICIOS 59

(7) Se considera la matriz


 
1 2 −1
A =  −2 −3 −1  .
 

3 7 −6
(a) ¿Existe b ∈ R3 tal que el sistema Ax = b sea compatible determina-
do? Justificar.
(b) Utilizar el método de Gauss-Jordan para resolver simultáneamente
los dos sistemas Ax = b1 y Ax = b2 siendo
   
1 −1
b1 =  −2  y b2 =  5  .
   

−1 0

(c) Hallar la forma escalonada reducida y el rango de A.

(8) Sea A ∈ Km×n . Demostrar que rg(kA) = rg(A), para todo k ∈ K, k 6= 0.

(9) Demostrar que un sistema de m ecuaciones lineales a coeficientes en un


cuerpo K con n incógnitas que cumple m < n sólo puede ser incompatible
o compatible indeterminado.

(10) Discutir la compatibilidad del sistema en función de los parámetros a, b ∈


R 
 x +
 by + z = 0
x + y + z = 1

2x + (b + 1)y + az = 1

y, si es posible, encontrar el conjunto solución.

(11) Comprobar que cada uno de los sistemas siguientes es compatible inde-
terminado
® ®
x = 1 3x − (b + 1)z = 2
y
3y − 2z = 1 3y − 2z = 3a − 2
Luego, buscar las condiciones que deben satisfacer a, b ∈ R para que am-
bos sistemas tengan una solución en común. Determinar dicha solución.
60 CAPÍTULO 4. MATRICES Y SISTEMAS LINEALES. RANGO

(12) Resolver los siguientes sistemas de ecuaciones lineales con coeficientes en


el cuerpo K = Z2
 
 x1 + x2 + x3 = 1
  x1 + x2
 = 0
x1 + x3 = 1 , x1 + x3 = 0
 
x1 + x2 = 0 x2 + x3 = 0
 

y ®
x1 + x2 − x3 = 0
x1 − x2 − x3 = 0
¿Cuántas soluciones tienen estos sistemas de ecuaciones? Resolver el se-
gundo sistema considerando que sus coeficientes pertenecen a R y com-
parar con lo obtenido. Hallar la forma escalonada reducida por filas de
la matriz ampliada de cada sistema y su rango (en K = Z2 ).
4.3. SOLUCIÓN A LOS EJERCICIOS 61

4.3. SOLUCIÓN A LOS EJERCICIOS


(1) Sea S el conjunto formado por los sistemas S de m ecuaciones lineales
con n incógnitas a coeficientes en K y Km×(n+1) el conjunto de matrices
de tamaño m × n a coeficientes en K. Si S ∈ S entonces S es de la forma


 a11 x1 + a12 x2 + · · · + a1n xn = b1

 a21 x1 + a22 x2 + · · · + a2n xn = b2

S: .. .. ..


 . . .

 a x + a x + ··· + a x = b
m1 1 m2 2 mn n m

A partir de S se considera la matriz particionada


 
a11 a12 . . . a1n b1
a21 a22 . . . a2n b2
  î ó
 = A b ∈ Km×(n+1) .
 
à =  .. .. .. .. ..

 . . . . .


am1 am2 . . . amn bm

Se define la aplicación ϕ : S → Km×(n+1) mediante S 7→ Ã.


ϕ es inyectiva: Seanî S1 , S2 ∈óS tales
î que ϕ(Só 1 ) = ϕ(S2 ). Por definición,
Ã1 = Ã2 , es decir, A1 b1 = A2 b2 . Igualando las matrices, los
respectivos bloques son iguales, con lo que los sistemas lineales que deter-
minan dichos bloques lo son. Por tanto, S1 = S2 . Luego, ϕ es inyectiva.
m×(n+1)
ϕ es sobreyectiva: Dadaî Ã ∈ K
ó , se considera la partición indica-
da de modo que à = A b . Disponiendo los coeficientes de A como
coeficientes de una sistema lineal S y los de b como sus términos inde-
pendientes, existe un sistema de m ecuaciones lineales con n incógintas
a coeficientes en K de modo que ϕ(S) = Ã. Luego, ϕ es sobreyectiva.
Por lo tanto, ϕ es biyectiva y de este modo los conjuntos S y Km×(n+1)
son coordinables o equipotentes, se denota S ∼
= Km×(n+1) .
Para sistemas de ecuaciones lineales homogéneos basta tomar b = 0.
62 CAPÍTULO 4. MATRICES Y SISTEMAS LINEALES. RANGO

(2) Se obtiene de forma inmediata tras realizar las operaciones matriciales


indicadas de multiplicación de una matriz por un escalar, adición de ma-
trices e igualdad de matrices. Para la segunda expresión se debe utilizar
uno de los productos especiales.
 
b1
(3) Si se llama A a la matriz de coeficientes del sistema lineal, b =  b2 ,
 

b3
   
2 0
c =  2  y d =  0 , se puede resolver aplicando operaciones elemen-
   

4 0
î ó
tales por filas a la matriz ampliada A b y luego particularizando
para los valores pedidosîen cada apartado,
ó o bien operando sobre la ma-
triz ampliada siguiente A c d , resolviendo de forma simultánea los
sistemas Ax = c y Ay = d. Aparecen 3 columnas básicas y 2 variables
libres. Se trata de sistemas compatibles indeterminados. Los conjuntos
solución son, respectivamente, S = {(20 − 23a + b, −12 + 14a − 2b, −14 +
17a−b, a, b) : a, b ∈ R} y S = {(−23a+b, 14a−2b, 17a−b, a, b) : a, b ∈ R}.
La solución general del primero, en notación matricial queda
       
x1 20 −23 1
x2 −12 14 −2
       
       
       

 x3 =
  −14  + a
  17  + b
  −1 .

x4 0 1 0
       
       
x5 0 0 1

Que el sistema homogéneo admita solución no trivial viene garantizado


por la Proposición 4.2 debido a que n = 5 > 3 = m. Como rg(A) = 3,
por el Corolario 4.1, el sistema admite al menos una solución no trivial.
 
1 0 1 0 −2
(4)  0 1 0 0 1  . Hay 3 columnas básicas (primera, segunda y
 

0 0 0 1 1
4.3. SOLUCIÓN A LOS EJERCICIOS 63

cuarta), 2 columnas no básicas (tercera y quinta), 3 unos principales


(en las columnas básicas) y rg(A) = 3.

(5) El conjunto solución del sistema homogéneo es S = {(−2k, k, 0) : k ∈ R}.


De estas soluciones, las que cumplen la ecuación no lineal son (0, 0, 0) y
(1, − 12 , 0).

Pintando en MATLAB mediante

>> ezsurf(’y^2*(1-x)’)
>> hold on
>> plot3(0,0,0,’r*’)
>> plot3(1,-1/2,0,’r*’)

Figura 4.1: Intersección de planos y superficie.


64 CAPÍTULO 4. MATRICES Y SISTEMAS LINEALES. RANGO

se tiene la gráfica de la Figura 4.1.


Se observa que corresponde a los puntos en que los tres planos que pasan
por el origen (del sistema lineal homogéneo) cortan a la superficie dada.

(6) 2, 1, 3.
   
1 2 −1 b1 1 0 5 −2b2 − 3b1
(7)  −2 −3 −1 b2  ∼f  0 1 −3 2b1 + b2
   

3 7 −6 b3 0 0 0 −5b1 − b2 + b3
Si −5b1 − b2 + b3 6= 0, no existe la matriz b pedida. Si −5b1 − b2 + b3 = 0,
existen infinitas posibilidades para b.
Utilizando el método de Gauss-Jordan se obtiene que el primer sistema
es incompatible y el segundo compatible indeterminado y su conjunto
solución es S = {(−7 − 5k, 3 + 3k, k) : k ∈ R}.
 
1 0 5
RA =  0 1 −3  y rg(A) = 2.
 

0 0 0

(8) Como A ∼f RA se tiene que kA ∼f RA pues al ser k 6= 0 se puede


multiplicar cada fila por k −1 obteniendo kA ∼f A ∼f RA . Luego, kA
y A tienen la misma forma escalonada reducida por filas, con lo que
rg(kA) = rg(A) por tratarse del número de filas no nulas de RA .

(9) Sea S un sistema de m ecuaciones lineales a coeficientes en K con n


incógnitas tal que m < n.
El sistema podrı́a ser incompatible (es una posibilidad de la tesis) o
compatible.
En caso de ser compatible, al aplicar operaciones elementales por filas
aî la matriz ampliadaó del sistema, no podrá aparecer una fila del tipo
0 0 . . . 0 α , con α ∈ K, α 6= 0. Como en la forma escalonada
reducida por filas de la matriz ampliada hay a lo sumo m unos principales
4.3. SOLUCIÓN A LOS EJERCICIOS 65

y m < n, siempre se dispondrá de al menos una incógnita libre, con lo


que el sistema es compatible indeterminado.

(10) Aplicar el método de eliminación de Gauss. Si b = 1, el sistema es in-


compatible.
Si b 6= 1 y a = 2, el sistema es compatible indeterminado y el conjunto
b 1
solución es Sb = {( b−1 − k, 1−b , k) : k ∈ R}.
Si b 6= 1 y a 6= 2, el sistema es compatible determinado y el conjunto
b 1
solución es Sb = {( b−1 , 1−b , 0)}.

(11) S1 = {(1, 1+2k


3
, k) : k ∈ R}, S2 = {( 2+(b+1)t
3
, 3a−2+2t
3
, t) : t ∈ R},
Geométricamente, la solución del primer sistema corresponde a los puntos
de una recta (concreta) mientras que la del segundo proporciona los
puntos de una recta, pero ésta varı́a en función de los parámetros a y b.
Al igualar las soluciones se llega a a = 1 y (b + 1)t = 1, con lo cual debe
3+b 1
ser b 6= −1. En este caso, el punto común tiene la forma (1, 3(b+1) , b+1 ).

(12) El primero es un sistema compatible determinado con S1 = {(0, 0, 1)}. El


segundo es un sistema compatible indeterminado que tiene exactamente
2 soluciones (¡y no infinitas!): S2 = {(0, 0, 0), (1, 1, 1)}.
El tercero es un sistema compatible indeterminado con exactamente 4
soluciones y S3 = {(0, 0, 0), (0, 1, 1), (1, 0, 1), (1, 1, 0)}, que tiene exacta-
mente 4 soluciones (¡y no infinitas!).
El segundo sistema resuelto con sus coeficientes en R es compatible de-
terminado y S2 = {(0, 0, 0)}.
Las FERF de cada sistema son
   
1 0 0 0 1 0 1 0 ñ ô
1 1 1 0
 0 1 0 0 ,  0 1 1 0  y
   
0 0 0 0
0 0 1 1 0 0 0 0

y los rangos respectivos son: 3, 2 y 1.


66 CAPÍTULO 4. MATRICES Y SISTEMAS LINEALES. RANGO
Capı́tulo 5

Matrices invertibles

Índice
5.1. TEMARIO . . . . . . . . . . . . . . . . . . . . 68
5.2. EJERCICIOS . . . . . . . . . . . . . . . . . . . 69
5.3. SOLUCIÓN A LOS EJERCICIOS . . . . . . 73

67
68 CAPÍTULO 5. MATRICES INVERTIBLES

5.1. TEMARIO
Los ejercicios de este capı́tulo corresponden a los temas:

Definición
Propiedades
Matrices elementales
Inversas de matrices elementales
Traspuesta de matrices elementales
Caracterizaciones de matriz invertible
Matriz inversa: método de Gauss-Jordan
Inversa de matrices particionadas
5.2. EJERCICIOS 69

5.2. EJERCICIOS
(1) Comparar la demostración de la Proposición 5.1 con el Ejercicio 34
de la página 97.
(2) Enunciar y demostrar la ley del orden inverso generalizada a un
número finito de matrices A1 , A2 , . . . , As ∈ Kn×n con s ≥ 2. Probar
que si todas son invertibles entonces su producto lo es y encontrar
la fórmula para la inversa de dicho producto.
(3) De la ley del orden inverso deducir la siguiente propiedad: Si λ ∈
K − {0} y A ∈ Kn×n es una matriz invertible entonces λA es una
matriz invertible y (λA)−1 = λ−1 A−1 .
(4) Si A ∈ Kn×n es invertible y b ∈ Kn×1 entonces el sistema de ecuacio-
nes lineales Ax = b tiene una única solución (Observar que se debe
probar la existencia y unicidad de la solución).
(5) Sea A ∈ Kn×n una matriz invertible. Demostrar que los sistemas
matriciales AX = B, para cualquier matriz B ∈ Kn×m , tienen solu-
ción única. Encontrar una expresión para dicha solución. ¿Cómo se
relaciona este resultado con el del ejercicio anterior?
(6) Si la matriz A ∈ Rn×n satisface

A6 − 2A4 − 9A2 − 14In = O,

probar que A es una matriz invertible y expresar su inversa en térmi-


nos de potencias de A. ¿Cuál es el término en el primer miembro de
la igualdad que permite garantizar la existencia de la inversa de la
matriz A? ¿Por qué?
(7) Las matrices A y B siguientes corresponden a las matrices ampliadas,
en forma escalonada (por filas), de un sistema de ecuaciones lineales
   
 ∗ ∗  ∗ ∗ ∗ ∗ ∗
A= 0  ∗  y B =  0 0  ∗ ∗ ∗ ,
   

0 0  0 0 0  ∗ ∗
70 CAPÍTULO 5. MATRICES INVERTIBLES

donde la notación  representa un número real diferente de cero arbi-


trario y con el sı́mbolo ∗ se indica un valor real arbitrario (incluyendo
el cero).
(a) Determinar, para cada matriz, su forma escalonada reducida por
filas.
(b) En cada caso determinar si el sistema es compatible o no. En
caso de serlo, determinar si su solución es única.
(c) Responder las preguntas anteriores si se cambia la matriz B por
otra en la que se quita la última columna. Justificar.
(d) ¿Y si se quitan la segunda y la quinta columnas de B? Justificar.
(8) Sean A ∈ Kr×r y B ∈ Ks×s dos matrices invertibles. Demostrar que
ñ ô−1 ñ ô
A O A−1 O
= .
O B O B −1

Es decir, la inversa de una matriz diagonal por bloques (invertibles)


se puede calcular a partir de la inversa de cada bloque.
(9) Se consideran los siguientes sistemas de ecuaciones lineales homogéneos:

 x1 + 5x2 − 3x3 = 0
 ®
x1 + 4
x = 0
5 2
3x1 + 6x2 − x3 = 0 1 2
 x +
2 1
x
5 2
= 0
x1 − x2 + 2x3 = 0

Se pide:
(a) Resolver cada sistema utlizando operaciones elementales por fi-
las.
(b) ¿Es posible deducir del apartado anterior si la matriz de coefi-
cientes es invertible o no? Justificar adecuadamente.
(c) Aplicar ahora el método de Gauss-Jordan, para decidir si exis-
ten las inversas de las matrices de coeficientes de los sistemas
anteriores y, en caso afirmativo, calcularlas.
5.2. EJERCICIOS 71

(10) Sea A ∈ Rn×n una matriz invertible y x, y ∈ Rn×1 . Demostrar que la


matriz A + xy t es invertible si y sólo si 1 + y t A−1 x 6= 0. En este caso,

1
(A + xy t )−1 = A−1 − A−1 xy t A−1 .
1 + y t A−1 x

Esta expresión se conoce como la fórmula de Sherman-Morrison.


(Como ayuda observar los siguientes hechos. Cuando x = 0, la equi-
valencia se cumple vacuamente; es decir, el caso interesante es x 6= 0.
Si A y A+xy t son invertibles entonces el producto (A+xy t )A−1 tam-
bién lo es. Además, el producto de matrices y t A−1 x es un número
real, en realidad, una matriz de tamaño 1 × 1.)
(11) Demostrar que toda matriz triangular superior (respectivamente, in-
ferior) A ∈ Kn×n con elementos no nulos en la diagonal es invertible,
su inversa es triangular superior (respectivamente, inferior) y en la
diagonal de la inversa aparecen los inversos multiplicativos de los
elementos de la diagonal de A en las respectivas posiciones. (Ayuda:
Proceder por inducción y utilizar la Proposición 5.10).
(12) Sea la matriz
 
1 0 0
A =  1/3 −2 0  .
 

5 −4 3
(a) ¿Tiene la matriz A alguna estructura especial?
(b) Usando la estructura indicada en el apartado (a), hallar A−1 .
(c) Comparar con el cálculo de la inversa mediante la fórmula cono-
cida
1
A−1 = Adj(At ).
det(A)
(13) Se consideran las matrices
ñ ô ñ ô
Ir Or×s Q1 O
M= y Q= ,
C D Q2 Q3
72 CAPÍTULO 5. MATRICES INVERTIBLES

siendo D ∈ Rs×s una matriz invertible. Encontrar los tamaños ade-


cuados de los bloques Qi , i = 1, 2, 3 y calcular el producto M −1 Q
justificando previamente que M es invertible.
(14) Visualizar en qué se transforma el cuadrado de lado 1 cuyos vértices
se hallan en el origen del plano y sobre los ejes coordenados, utili-
zando las diferentes matrices elementales por filas y considerando los
valores de k = ±2 y c = ±2 en la interpretación geométrica de la
página 225.
(15) Escribir, si es posible, la matriz
ñ ô
1 4
A=
1 5

y su inversa como producto de matrices elementales.


(16) Comprobar que existen inversas a izquierda de la matriz
 
1 2
A= 1 1  ∈ R3×2
 

3 0

y calcularlas. ¿Es posible garantizar que la existencia de inversas a


izquierda implican la existencia de la inversa de A? Justificar, ana-
lizando si se contradicen las equivalencias (a) y (b) del Teorema de
caracterizaciones de matriz invertible.
5.3. SOLUCIÓN A LOS EJERCICIOS 73

5.3. SOLUCIÓN A LOS EJERCICIOS


(1) Se trata de un resultado general de grupos y no del grupo particular
GLn (K).
(2) Sean A1 , A2 , . . . , As ∈ Kn×n matrices invertibles con s ≥ 2. Entonces
el producto A1 A2 . . . As es invertible y

(A1 A2 . . . As )−1 = A−1 −1 −1


s . . . A2 A1 .

Se prueba por inducción sobre s (aplicando la propiedad asociativa


y el caso probado para s = 2).
(3) Sea B := λIn . Como λ 6= 0, por el método de Gauss-Jordan se prue-
ba que RB = In y B −1 = λ1 In . Luego λA es invertible (¿por qué?).
Recordando que toda matriz escalar conmuta con cualquier otra ma-
triz cuadrada del mismo tamaño se tiene que (λA)−1 = (BA)−1 =
A−1 B −1 = A−1 ( λ1 In ) = ( λ1 In )A−1 = λ1 A−1 teniendo en cuenta la si-
guiente propiedad (su prueba se propone como ejercicio): el producto
de una matriz escalar por otra matriz cuadrada del mismo tamaño
es igual que la multiplicación del escalar por la matriz. En este caso
se aplica dos veces: (λIn )A = λA y (λIn )A−1 = λA−1 .
(4) Existencia: Al ser A una matriz invertible se considera x0 = A−1 b.
Se tiene que Ax0 = A(A−1 b) = (AA−1 )b = In b = b.
Unicidad: Si existiesen dos soluciones x1 y x2 del sistema Ax = b,
entonces Ax1 = b = Ax2 , con lo cual A(x1 − x2 ) = Ax1 − Ax2 = 0.
Al ser A invertible, A−1 [A(x1 − x2 )] = A−1 0 = 0, de donde x1 − x2 =
In (x1 − x2 ) = (A−1 A)(x1 − x2 ) = 0, por tanto, x1 = x2 .
(5) Una forma es repetir paso por paso la demostración anterior.
Otra forma: particionar X según sus columnas y utilizar un producto
especial. Igualando matrices se obtienen n problemas como el del
ejercicio anterior. Aplicando dicho resultado, un producto especial
permite obtener el resultado final.
74 CAPÍTULO 5. MATRICES INVERTIBLES

1
(6) A[ 14 (A5 − 2A3 − 9A)] = In (es posible esta operación pues 14 6= 0).
La existencia de inversa a derecha de A garantiza la existencia de la
inversa de A. Se tiene A−1 = 141
A5 − 17 A3 − 14
9
A.
   
1 0 0 1 ∗ 0 0 ∗ ∗
(7) (a) RA =  0 1 0  , RB =  0 0 1 0 ∗ ∗ .
   

0 0 1 0 0 0 1 ∗ ∗
(b) El primero es un sistema incompatible y el segundo es compatible
indeterminado (no tiene solución única pues posee 2 parámetros).
(c) Si B̄
 es la matriz obtenida
 al quitar la última columna de B, es
1 ∗ 0 0 ∗
RB̄ =  0 0 1 0 ∗  y el sistema es compatible indeterminado
 

0 0 0 1 ∗
(posee 1 parámetro).
(d) Si B̄¯ es la matriz obtenida al quitar la segunda y quinta co-
 
1 0 0 ∗
lumnas de B, es RB̄¯ =  0 1 0 ∗  y el sistema es compatible
 

0 0 1 ∗
determinado (posee solución única).
ñ ô ñ ô
A O A−1 O
(8) Basta realizar el producto entre y (¿a de-
O B O B −1
recha o izquiera?) y utilizar el teorema de caracterizaciones de matriz
invertible para concluir.
(9) (a) (x1 , x2 , x3 ) = (0, 0, 0) y (x1 , x2 ) = (− 45 k, k) : k ∈ R.
(b) Se obtiene RA = I3 (A es invertible pues se cumple cualesquiera
de las siguientes condicions equivalentes: RA = I3 , A ∼f I3 , la única
ñ ô
1 54
solución del sistema homogéneo es la trivial) y RB = 6= I2
0 0
(B no es invertible pues se cumple cualesquiera de las siguientes con-
dicions equivalentes: RB 6= I2 , B f I2 , el sistema homogéneo admite
soluciones no triviales), siendo A y B las matrices de coeficientes del
primer y segundo sistemas, respectivamente.
5.3. SOLUCIÓN A LOS EJERCICIOS 75
 11

î ó î ó 3
− 73 13
3
(c) A I3 ∼f I3 A−1 siendo A−1 =  − 73 5
− 83  y al
 
3
−3 2 −3
î ó î ó
ser RB 6= I2 , no será posible transformar B I2 ∼f I2 B −1 ,
con lo cual no existe B −1 .
(10) Si x = 0, la equivalencia se cumple vacuamente. Se puede suponer,
pues, x 6= 0.
(⇒) Como A y A + xy t son matrices invertibles entonces el producto
(A + xy t )A−1 también lo es. Por la caracterización de matrices inver-
tibles, el sistema de ecuaciones lineales homogéneo (A+xy t )A−1 z = 0
admite únicamente la solución trivial.
Se debe probar que 1 + y t A−1 x 6= 0. Suponiendo, por reducción al
absurdo, que 1 + y t A−1 x = 0 se tiene que (A + xy t )A−1 x = AA−1 x +
xy t A−1 x = x + xy t A−1 x = x(1 + y t A−1 x) = x0 = 0, es decir, se ha
encontrado una solución no trivial x del sistema homogéneo (A +
xy t )A−1 z = 0, lo que produce una contradicción.
(⇐) La hipótesis 1 + y t A−1 x 6= 0 asegura que el denominador de la
expresión dada tiene sentido. Para demostrarlo basta calcular el pro-
ducto (A + xy t )[A−1 − 1+yt1A−1 x A−1 xy t A−1 ] y ver que da la identidad,
es decir, se ha obtenido una inversa a derecha de A + xy t . El teorema
de caracterizaciones de matriz invertible asegura el resultado final.
(11) Por inducción sobre n. Si n = 1, es inmediata. Sea n > 1 y su-
poner que la propiedad es cierta para toda matriz en K(n−1)×(n−1)
triangular superior con elementos no nulos en la diagonal. Consi-
derar A = [aij ] ∈ Kn×n , una matriz triangular superior con ele-
mentos no nulos en la diagonal y sobreñella una partición
ô del tipo
B C
[(n − 1) + 1] × [(n − 1) + 1], es decir, A = . Por la Proposi-
O ann
ñ ô
−1 −1 −1
B −B Ca nn
ción 5.10, A−1 = . Dicho resultado es aplicable
O a−1
nn
puesto que la matriz B ∈ K(n−1)×(n−1) tiene elementos no nulos en
76 CAPÍTULO 5. MATRICES INVERTIBLES

la diagonal y la hipótesis de inducción garantiza que existe B −1 , es


triangular superior y tiene elementos diagonales iguales a los inver-
sos multiplicativos de los elementos de la correspondiente posición de
B. Por tanto, la matriz A−1 es triangular superior y tiene elementos
diagonales iguales a los inversos multiplicativos de los elementos de
la correspondiente posición de A.
Otra forma: También es posible demostrarlo aplicando el método
de Gauss-Jordan con tan sólo dos tipos de operaciones elementales:
en el primer paso, para cada i = 1, 2, . . . , n, se multiplica la fila i-
ésima por el inverso multiplicativo a−1
ii y, en el segundo paso, el 1
encontrado como pivote se utiliza para eliminar todos los elementos
no nulos que se encuentren en su misma columna, por encima suyo.
Claramente, se preserva la triangularidad superior de la inversa y los
elementos de la diagonal de A−1 son a−1 ii para cada i = 1, 2, . . . , n.

(12) (a) Es triangular superior con elementos no nulos en la diagonal. (b)


La inversa de una matriz triangular superior invertible es triangular
superior y los elementos de la diagonal de la matriz inversa son los
inversos de los elementos de  los lugares correspondientes
 de la ma-
1 0 0
−1
triz original, es decir, A =  x − 21 0  . Con sólo encontrar los
 

y z 31
−1
elementos de las posiciones (2, 1), (3, 1) y (3, 2) del
 producto AA
1 0 0
−1
se encontrará el resto de la matriz inversa: A =  6 − 12 0  .
 1 

− 13
9
− 23 13
(c) Con dicha fórmula se debe realizar un mayor número de cálculos.

(13) Q1 ∈ Rr×p , Q2 ∈ Rs×p , Q3 ∈ Rs×q , con p, q naturales arbitrarios. La


inversa de M existe por ser M triangular superior por bloques con
sus bloques diagonales Ir y D invertibles. Por ejemplo, aplicando
el método de Gauss-Jordan o el resultado dual del probado para
matrices triangulares superiores invertibles, se encuentra que M −1 =
5.3. SOLUCIÓN A LOS EJERCICIOS 77
ñ ô
Ir Or×s
. Luego,
−D−1 C D−1
ñ ô
−1 Q1 Or×q
M Q= ∈ R(r+s)×(p+q) .
D−1 [Q2 − CQ1 ] D−1 Q3
ñ ô ñ ô ñ ô
0 1 0
(14) Pintar en el plano los vértices P0 = , P1 = , P2 =
0 0 1
ñ ô
1
y P3 = . Calcular los productos matriciales E1 (2)Pi , para i =
1
0, 1, 2, 3 y pintar los resultados obtenidos en cada caso. Repetir el
cálculo de los productos con las matrices E1 (−2), E21 (2) y E21 (−2).
(15) Premultiplicando A por las matrices elementales dadas por E21 (−1) y
E12 (−4) se obtiene I2 , es decir, E12 (−4)E21 (−1)A = I2 . Calculando
la inversa de cada matriz elemental, que también resulta ser una
matriz elemental y del mismo tipo (concretamente, (E12 (−4))−1 =
E12 (4) y (E21 (−1))−1 = ñE21 (1)) ôy ñteniendo
ô en cuenta el orden en que
1 0 1 4
se sitúan se tiene A = . Puesto que las matrices
1 1 0 1
elementales a aplicar no son únicas, el resultado no es único. Del
mismo modo que A−1 = E12 (−4)E21 (−1) no es la única forma en
que se puede escribir A−1 como producto de matrices elementales.
ñ ô
a b c
(16) Por definición, se buscan matrices del tipo B = tales que
d e f
BA = I2 . Multiplicando e igualando matrices se llega a un sistema
linealñ de 4 ecuaciones con 6ô incógnitas, y resolviéndolo se obtiene
3c − 1 2 − 6c c
B= con c, f ∈ R.
1 + 3f −1 − 6f f
La existencia de inversas a izquierda no implica la existencia de la in-
versa de A pues A no es cuadrada. No se contradice pues es aplicable
sólo para matrices cuadradas.
78 CAPÍTULO 5. MATRICES INVERTIBLES
Capı́tulo 6

Equivalencia de matrices

Índice
6.1. TEMARIO . . . . . . . . . . . . . . . . . . . . 80
6.2. EJERCICIOS . . . . . . . . . . . . . . . . . . . 81
6.3. SOLUCIÓN A LOS EJERCICIOS . . . . . . 85

79
80 CAPÍTULO 6. EQUIVALENCIA DE MATRICES

6.1. TEMARIO
Los ejercicios de este capı́tulo corresponden a los temas

Equivalencia de matrices por filas


Equivalencia de matrices por columnas
Equivalencia de matrices
Forma escalonada reducida
Más propiedades del rango
6.2. EJERCICIOS 81

6.2. EJERCICIOS
(1) Escribir todas las posibles formas de las matrices elementales por
filas en K2×2 . Repetir para las matrices elementales por columnas y
establecer una relación entre unas y otras.
(2) Demostrar que la matriz identidad I2 se puede transformar en la
matriz elemental E12 (de tipo I) utilizando únicamente 4 operaciones
elementales por filas de tipo II y de tipo III. Generalizando este
hecho a matrices de tamaño arbitrario, se deduce que la operación
elemental de tipo I no es independiente de las demás (y, por tanto,
¡es redundante!).
(3) Demostrar que si A ∈ Km×n y existe una matriz P ∈ Kn×n tal que
ñ ô ñ ô
A W
P =
In C
entonces AC = W . Enunciar y demostrar un resultado similar ope-
rando por filas. Comparar con las matrices P y AR obtenidas en el
Ejemplo 6.3.
(4) Demostrar que si A, B ∈ Km×n entonces A ∼c B ⇔ At ∼f B t .
(5) Proporcionar un ejemplo de dos matrices que cumplan A ∼ B y, sin
embargo, A f B.
(6) Hallar la forma escalonada reducida por filas RA de las siguientes
matrices A y una matriz Q que permita expresar QA = RA :
ñ ô
0 1 0 1
(a) A = ,
0 1 2 0
 
2 1 0
(b) A =  1 1 2  ,
 

0 1 1
 
1 −1 0 1 2 4
(c) A =  1 1 2 0 3 1 .
 

2 6 4 −3 6 1
82 CAPÍTULO 6. EQUIVALENCIA DE MATRICES

(7) Se consideran las matrices


   
1 −2 3 1 0 0 0 1
A= 1 −2 −2 0  y B =  0 1 0 0 .
   

2 −4 1 1 0 0 0 0

(a) Escribir la matriz A como producto de una matriz invertible (que


debe ser calculada utilizando matrices elementales) por su forma
escalonada reducida por filas.
(b) Hallar la forma escalonada reducida de A.
(c) Indicar si A ∼ B y si A ∼f B. Justificar.
(8) Sean A, R ∈ Km×n , Q, U ∈ Km×m y P, V ∈ Kn×n . Si
ñ ôñ ôñ ô ñ ô
Q O A Im P O R U
= ,
O In In O O Im V O

probar que QAP = R, U = Q y V = P . Deducir de este resultado


el procedimiento utilizado en el Ejemplo 6.4.
(9) Demostrar que si A ∈ Km×n y B ∈ Kp×q entonces
Çñ ôå
A O
rg = rg(A) + rg(B).
O B

(10) Dar un ejemplo de dos matrices reales A y B que cumplan rg(AB) <
mı́n{rg(A), rg(B)} y otro donde se cumpla la igualdad de ambas
cantidades.
(11) Hallar la forma escalonada por filas (triangulada, sin reducirla) de
una matriz A = [aij ] ∈ R3×3 suponiendo que a11 6= 0 y δ := a11 a22 −
a21 a12 6= 0. ¿Qué expresión aparece en la posición (3, 3) de la matriz
reducida?
(12) Sean A, R ∈ Km×n . Si RA es la forma escalonada reducida por filas
de A y A es una matriz escalonada reducida por filas, probar que
A = RA .
6.2. EJERCICIOS 83

(13) Sea A ∈ Km×n . En este ejercicio se estudian las inversas laterales (a


izquierda y a derecha) de A.
(a) Si existe una inversa a izquierda de A, probar que rg(A) = n.
(b) Suponiendo que rg(A) = n, justificar la existencia de una matriz
invertible Q ∈ Km×m tal que
ñ ô
In
QA = .
O(m−n)×n
î ó
Ahora calcular el producto Q A Im y, particionando la ma-
triz Q mediante
ñ ô
Q1
Q= ∈ K(n+(m−n))×m ,
Q2

probar que la matriz Q1 ∈ Kn×m es tal que

Q1 A = In .

Concluir que este procedimiento permite hallar una inversa a


izquierda de A (si existe).
(c) Deducir que existe una inversa a izquierda de A si y sólo si
rg(A) = n.
(d) Si la matriz Q del apartado (b) viene dada por
ñ ô
Q1
Q= ∈ K(n+(m−n))×m ,
Q2

probar que las matrices Q1 + XQ2 son inversas a izquierda cual-


quiera que sea X ∈ Kn×m .
(e) En uno de los apartados anteriores, el tamaño de una de sus
matrices es erróneo. ¿De cuál se trata?
(f) Si X0 ∈ Kn×m satisface X0 A = In , probar que

{X ∈ Kn×m : XA = In } = X0 + {Z ∈ Kn×m : ZA = On },
84 CAPÍTULO 6. EQUIVALENCIA DE MATRICES

es decir, que toda inversa a izquierda de A se determina como


suma de una inversa a izquierda particular de A (solución del sis-
tema no homogéneo XA = In ) más todas las matrices Z solución
del sistema homogéneo ZA = On .
(g) Establecer resultados duales a los anteriores para las inversas a
derecha.
(h) Justificar si las siguientes matrices admiten inversas a izquierda
y, en caso afirmativo, hallar una de ellas. Repetir el ejercicio para
las inversas a derecha:
   
1 1 1 0 −1 ñ ô
1 0 −1
A =  1 2 , B= 2 1 0 , C= .
   
2 1 0
0 1 4 1 −2
6.3. SOLUCIÓN A LOS EJERCICIOS 85

6.3. SOLUCIÓN A LOS EJERCICIOS


ñ ô ñ ô ñ ô
1 0 0 1 c 0
(1) = I2 , F12 = C12 = , F1 (c) = C1 (c) = ,
0 1 1 0 0 1
ñ ô ñ ô
1 0 1 0
F2 (c) = C2 (c) = (c 6= 0), F21 (k) = = (C21 (k))t ,
0 c k 1
ñ ô
1 k
F12 (k) = = (C12 (k))t , k ∈ K.
0 1
(2) I2 ∼f E12 pues E12 = E2 (−1)E12 (1)E21 (−1)E12 (1)I2 .
(3) Basta multiplicar por bloques y sustituir adecuadamente.
(4) A ∼c B ⇔ ∃P ∈ Kn×n invertible: AP = B ⇔ ∃P t ∈ Kn×n invertible:
P t At = B t ⇔ At ∼f B t .
ñ ô ñ ô
1 0 0 1 0 0
(5) A = yB= .
0 0 1 0 1 0
ñ ô ñ ô
0 1 0 1 1 0
(6) (a) RA = ,Q= .
0 0 1 − 21 − 12 21
 
1 1 −2
(b) RA = I3 , Q = A−1 = 13  1 −2 4 .
 

−1 2 −1
 1 15
  1 1

1 0 0 4
2 4
1 − 2 4
(c) RA =  0 1 0 − 34 0 − 14 , Q =  0 − 12 1 
.
  
4
1 1 5 1 1
0 0 1 4 2
−4 −2 1 −4
(7) (a) y (b) Como E12 (−3)E2 (−1/5)E32 (−1)E31 (−2)E21 (−1)I3 = Q, se
tiene que
 
1 3 1
−1
Q = E21 (1)E31 (2)E32 (1)E2 (−5)E12 (3) =  1 −2 0 ,
 

2 1 0
 
1 −2 0 52
RA =  0 0 1 25  y A = Q−1 RA , con Q−1 invertible.
 

0 0 0 0
86 CAPÍTULO 6. EQUIVALENCIA DE MATRICES

(c) A ∼ B pues rg(A) = 


2 = rg(B) y Af B pues calculando RB se
0 1 0 0
obtiene que RA 6= RB =  0 0 0 1 .
 

0 0 0 0
(8) Basta multiplicar por bloques y sustituir adecuadamente.
(9) Si A = O o bien B = O, el resultado es trivial. Sean rg(A) = r > 0
y rg(B) = s > 0. Entonces A ∼ F N Hr (QA APA = F N Hr , con
QA .PA invertibles) y B ∼ F N Hs (QB BPB = F N Hs , con QB .PB
invertibles). Multiplicando por bloques:
ñ ôñ ôñ ô ñ ô
QA O A O PA O F N Hr O
= .
O QB O B O PB O F N Hs
Al ser PA , PB , QA , AB matrices invertibles, las matrices por bloques
queÇñ
las contienen
ôå lo son. ÇñPor la invarianciaôå del rango, se tiene que
A O F N Hr O
rg = rg = r + s = rg(A) +
O B O F N Hs
rg(B), donde la penúltima igualdad sigue tras reordenar filas (si fuese
necesario) para obtener su forma escalonada de Hermite.
ñ ô ñ ô
1 0 0 0
(10) A = yB= para el primer caso. Para el segundo,
0 0 1 0
dos matrices invertibles cualesquiera de tamaño 2 × 2.
(11) Como a11 6= 0, utilizando las matrices elementales E21 (− aa11
21
), E31 (− aa11
31
)
se consiguen ceros debajo de a11 . El pivote de la posición (2, 2)
es a22 − aa21
11
a12 = aδ11 6= 0. Aplicando ahora la matriz elemental
Ä ä
E32 − aδ11 (a32 − aa11
31
a12 ) se llega a
 
a11 a12 a13
 0 aδ11 a11 a23a−a 21 a13
,
 
11

0 0 γ
siendo γ = a33 − aa11
31
a13 − a11 a23 −a
δ
21 a13
(a32 − aa31
11
a12 ). Realizando ope-
det(A)
raciones se obtiene γ = δ , donde det(A) denota el determinante
de la matriz A.
6.3. SOLUCIÓN A LOS EJERCICIOS 87

(12) Siempre se cumple que A ∼f RA . Como, además, A ∼f A (pues


∼f es reflexiva por tratarse de una relación de equivalencia) se tiene
que A es equivalente por filas a dos matrices escalonadas reducidas
por filas: RA y la propia A. Por la unicidad de la forma escalonada
reducida por filas de una matriz, se tiene que A = RA .
(13) (a) Si existe B ∈ Kn×m tal que BA = In entonces n = rg(In ) =
rg(BA) ≤ rg(A) ≤ n. Luego, rg(A) = n.
(b) Siempre existe una matriz invertible Q ∈ Km×m tal que QA =
RA . Como rg(A) = n y A ∈ Km×n , tiene queñhaber un uno ô prin-
In
cipal por columna y m ≥ n, es decir, RA = . Aho-
O(m−n)×n
ñ ô ñ ô ñ ô
Q1 A Q1 In
ra, = A = QA = RA = , de donde
Q2 A Q2 O(m−n)×n
Q1 A = In .
En
î definitiva,
ó aplicando el método de Gauss-Jordan a la matriz
A Im se obtiene
ñ ô
î ó î ó In Q1
Q A Im = QA Q = ,
O(m−n)×n Q2

y la matriz Q1 que resulte en el bloque superior derecho proporciona


una inversa a izquierda de A.
(c) Inmediato de los anteriores.
(d) De (b), Q2 A = O(m−n)×n . Luego, (Q1 +XQ2 )A = Q1 A+XQ2 A =
In + XO(m−n)×n = In .
(e) La matriz X del apartado (d) debe ser de tamaño n × (m − n).
(f) Sea X0 A = In . Por doble inclusión: (⊆) Si XA = In , basta tomar
Z := X − X0 y ver que ZA = O (⊇) Si X = X0 + Z con ZA = O,
es fácil ver que XA = In .
(g) Existe una inversa a derecha de A si y sólo si rg(A) = m. Basta
aplicar traspuestas al resultado anterior.
88 CAPÍTULO 6. EQUIVALENCIA DE MATRICES

(h) Como rg(B) = 2 6= 3 y rg(C) = 2 6= 3, B y C no admiten


inversa a izquierda. Como rg(A) = 2, que coincide con la cantidad
de columnas de A, la matriz A admite
 inversa a izquierda. Al ser
1 0 0 1 −2 ñ ô
î ó 0 1 −2
A I 3 ∼f  0 1 0 0 1 , Q1 = es tal que
 
0 0 1
0 0 1 −1 1
Q1 A = I2 .
Como rg(A) = 2 6= 3 y rg(B) = 2 6= 3, A y B no admiten in-
versa a derecha. Como rg(C) = 2, que coincide con la cantidad
ñ ô de
C
filas de A, la matriz C admite inversa a derecha. Al ser ∼c
I3
 
1 0 0
 
 0 1 0  1 0
 
 
 1 0 0 , P1 =   −2 1  es tal que CP1 = I2 .

 
 −2 1 0  0 0
 

0 0 1
Capı́tulo 7

Determinantes

Índice
7.1. TEMARIO . . . . . . . . . . . . . . . . . . . . 90
7.2. EJERCICIOS . . . . . . . . . . . . . . . . . . . 91
7.3. SOLUCIÓN A LOS EJERCICIOS . . . . . . 97

89
90 CAPÍTULO 7. DETERMINANTES

7.1. TEMARIO
Los ejercicios de este capı́tulo corresponden a los temas:

Definición
Propiedades. Interpretaciones geométricas
Determinante y existencia de la inversa de una matriz
Determinante y producto de matrices
Determinante y traspuesta de una matriz
Desarrollo por cualesquiera de las columnas o cualesquiera de las
filas
Cálculo del rango de una matriz
Determinantes de matrices por bloques
7.2. EJERCICIOS 91

7.2. EJERCICIOS
(1) Calcular el área del paralelogramo de la Figura 7.2 de la página 267
utilizando el área de triángulos y rectángulos.
(2) Sea A ∈ K2×2 . Demostrar que el desarrollo de Laplace se puede
realizar utilizando cualquier columna o cualquier fila de A.
(3) Sea A ∈ K3×3 . Demostrar que la definición de determinante coincide
con el desarrollo de Laplace utilizando:
(a) la segunda fila de A.
(b) la tercera columna de A.
(4) Para matrices reales invertibles A y B de tamaño 3 × 3 y matrices
reales C1 y C2 de tamaños adecuados, se tiene la ecuación matricial
siguiente
ñ ôt
−1 t −1 −1 t t C1
(3A B ) + [det(4(B ) ) · X] = .
C2

(a) Despejar la matriz X.


(b) Usando el apartado (a), encontrar una matriz X que satisfaga la
ecuación matricial dada, para:
   
6 12 −3 1 −1 0
A =  −24 18 −6  , B= 3 3 2 ,
   

−12 30 6 0 −4 −1
 t  t
1 1 1
C1 =  −1  y C2 =  −2 0  .
   

3 3 −1
(c) El apartado (b) puede resolverse reemplazando directamente las
matrices A, B, C1 y C2 en la ecuación matricial y calculando
todas las operaciones indicadas. ¿Qué ventajas tiene resolverlo a
partir del primer apartado?
92 CAPÍTULO 7. DETERMINANTES

(5) Sean α y β dos números reales fijos y sea la matriz


 
x α β
A =  β x α .
 

α β x

(a) Encontrar todos los valores de x ∈ C que anulen el determinante


de A. (Ayuda: se obtendrá una raı́z real y dos complejas).
(b) Aplicando propiedades de determinantes, comprobar que las raı́ces
obtenidas en el apartado anterior verifican la condición requeri-
da.
(6) Sea la matriz
ñ ô
−2 3
A= .
4 1
Calcular | det(A) | y el área del paralelogramo que determinan los
dos vectores que forman las columnas de la matriz A. ¿Qué se pue-
de observar? Representar gráficamente. ¿Se puede generalizar a dos
vectores cualesquiera de R2 ?
(7) Realizar dibujos en R2 que permitan visualizar todas las interpreta-
ciones geométricas realizadas en este tema.
(8) Demostrar las tres primeras propiedades de la Proposición 7.4 utili-
zando la Proposición 5.7 y propiedades de determinantes probadas
previamente.
(9) Probar que la fórmula de Cauchy-Binet es válida para un número
finito de matrices cuadradas con coeficientes en un cuerpo K, todas
del mismo tamaño.
(10) ¿Cuánto vale el determinante de una matriz compleja A de tamaño
n × n que verifica Ap+1 = A, donde p ∈ N? Justificar la respuesta.
(11) (a) Dados dos puntos distintos (x1 , y1 ) y (x2 , y2 ) en el plano R2 ,
demostrar que existe una única recta que pasa por ellos y dicha
7.2. EJERCICIOS 93

ecuación está dada por

x y 1
x1 y 1 1 = 0.
x2 y 2 1

(b) Encontrar la ecuación de la recta que pasa por los puntos (2, 3)
y (4, 1).
(12) Sean a, b, c ∈ R. Demostrar que las raı́ces de la ecuación
ñ ô
a−x b
det =0
b c−x

son números reales. Comparar la dificultad en su resolución con el


mismo ejercicio planteado en la página 51.
(13) Demostrar que si la suma de cada par de elementos correspondientes
de dos filas del determinante de una matriz A ∈ K3×3 es un múltiplo
(constante) de los correspondientes elementos de otra fila entonces
el determinante de A es cero.
(14) Indicar si cada una de las siguientes afirmaciones es verdadera o falsa.
Si es verdadera, demostrarla; si es falsa, dar un contraejemplo.
det(A + B) = det(A) + det(B), ∀A, B ∈ Kn×n .
det(λA) = λ det(A), ∀A ∈ Kn×n , ∀λ ∈ K.
det(λA) = λn det(A), ∀A ∈ Kn×n , ∀λ ∈ K.
det(Am ) = [det(A)]m , ∀A ∈ Kn×n , ∀m ∈ N.
Adj(At ) = [Adj(A)]t , ∀A ∈ Kn×n .
(15) Sea n ∈ N. Utilizar únicamente la definición para demostrar, por el
método de inducción, que el determinante de una matriz A ∈ Kn×n
que tiene una fila completa de ceros es nulo.
6 2 pues se de-
(16) La propiedad del Corolario 7.2 requiere que car(K) =
muestra como consecuencia de la Proposición 7.3. Demostrar, por
94 CAPÍTULO 7. DETERMINANTES

inducción, que la misma propiedad es válida sin asumir dicha res-


tricción. (Ayuda: distinguir los casos de filas iguales consecutivas y
no consecutivas).
(17) Sea n ∈ N. Demostrar que el determinante de una matriz triangular
inferior A ∈ Kn×n es el producto de los elementos de su diagonal. Ha-
cerlo de dos formas: la primera utilizando como definición de deter-
minante el desarrollo de Laplace por la primera columna y el método
de inducción (se puede utilizar la propiedad del determinante de una
matriz con una fila nula) y la segunda utilizando la relación entre el
determinante de una matriz y el de su traspuesta.
(18) Sea A ∈ Kn×n . Demostrar que A[Adj(A)]t = det(A)In . Primero cal-
cular el producto P = [pij ] := A[Adj(A)]t . Luego, analizar los ele-
mentos pij separando los casos i = j e i 6= j.
î ó î ó
(19) Sea A = aij = a1 . . . ai . . . an ∈ Kn×n una matriz par-
ticionada según sus columnas aj (j = 1, . . . , n) y sean, para cada
i = 1, . . . , n
 
b1
 . 
 .. 
î ó  
n×n
Ai = a1 . . . b . . . an ∈ K y b =  bi  ,
 
 . 
 . 
 . 
bn
donde la matriz Ai se obtiene cambiando la columna i-ésima de A
por la columna b. Probar que, para cada i = 1, . . . , n, se cumple que:
(a) det(Ai ) = b1 A1i + · · · + bi Aii + · · · + bn Ani , donde Aij es el com-
plemento algebraico correspondiente a la posición (i, j) de A.
 
x1
 . 
 .. 
 
(b) si x =  xi  satisface Ax = b entonces det(Ai ) = xi det(A).
 
 . 
 . 
 . 
xn
7.2. EJERCICIOS 95

(Ayuda: Para el segundo apartado, sustituir cada bi en det(Ai ) por


la relación que ofrece el sistema lineal. Luego, aplicar propiedades de
determinantes).
(20) Demostrar la regla de Cramer utilizando la fórmula de la inversa de
una matriz y el ejercicio anterior.
(21) Hallar todos los valores de α ∈ C tales que
Ç ñ ô å
4 + 4i α2
det A A−1 = 0,
−α 1 − i

para toda matriz invertible A ∈ C2×2 . Comprobar que los valores


obtenidos son soluciones de la ecuación indicada.
(22) Hallar condiciones necesarias y suficientes para que una matriz de
Vandermonde sea invertible.
(23) Analizar la validez del siguiente razonamiento:
“Sean A, B ∈ Kn×n . Si existe (In − AB)−1 entonces existe (In −
BA)−1 .”
En efecto, aplicando la propiedad distributiva se tiene que B(In −
AB) = B − BAB = (In − BA)B. Puesto que In − AB es inver-
tible, multiplicando a derecha ambos miembros de B(In − AB) =
(In − BA)B por (In − AB)−1 se llega a B = (In − BA)B(In −
AB)−1 . Usando la fórmula de Cauchy-Binet queda det(B) = det(In −
BA) det(B) det((In −AB)−1 ). Luego, det(In −BA) det((In −AB)−1 ) =
1. Como K es un cuerpo, no tiene dividores de cero y, además,
det((In − AB)−1 ) 6= 0 por ser (In − AB)−1 invertible, entonces se
obtiene que det(In − BA) 6= 0, con lo que In − BA es invertible.
(24) Sean A, B ∈ Kn×n . Si In − AB es invertible entonces probar que
In − BA es invertible y además

(In − BA)−1 = In + B(In − AB)−1 A.

¿Es válido el resultado si A ∈ Km×n y B ∈ Kn×m ? Justificar.


96 CAPÍTULO 7. DETERMINANTES

(25) Demostrar que si A, B ∈ Kn×n son tales que In + AB es invertible


entonces ñ ô
In B
−A In
es invertible.
7.3. SOLUCIÓN A LOS EJERCICIOS 97

7.3. SOLUCIÓN A LOS EJERCICIOS


Çñ ôå
a c
(1) (a+c)(b+d)−cb−cb− cd
2
− ab
2
− cd
2
− ab
2
= ad−cb = det .
b d
(2) Realizar el desarrollo por la fila 1, por la fila 2, por la columna 1 y
por la columna 2 y ver que los 4 resultados coinciden.
(3) (a) Realizando el desarrollo de Laplace por la segunda fila,
Ö è
a11 a12 a13
det  a21 a22 a23  =
 

a31 a32 a33


a12 a13 a11 a13
= a21 (−1)2+1 + a22 (−1)2+2 +
a32 a33 a31 a33
a11 a12
+a23 (−1)2+3
a31 a32
= −a21 [a12 a33 − a13 a32 ] + a22 [a11 a33 − a13 a31 ] −
−a23 [a11 a32 − a12 a31 ]
= −a21 a12 a33 + a21 a13 a32 + a22 a11 a33 − a22 a13 a31 −
−a23 a11 a32 + a23 a12 a31 ,

que coincide con el desarrollo por la primera columna.


(b) Similar al anterior.
®ñ ô ´
det(B) C1 1 t −1
(4) (a) X = 64 − 3A B .
C2
 1 1 9

−2 8 32
(b) X =  21 − 17
− 17 
.

16 32 32
37 11 5
64
− 64 − 16
(c) Se requieren menos operaciones.
(5) (a) det(A) = x3 + α3 + β 3 − 3αβx. El resultado obtenido es una suma
de tres cubos y luego un triple producto, lo que recuerda al cubo
98 CAPÍTULO 7. DETERMINANTES

de un binomio. Al desarrollar (α + β)3 = α3 + 3α2 β + 3αβ 2 + β 3 =


α3 +β 3 +3αβ(α+β), de donde −(α+β)3 +α3 +β 3 +3αβ(α+β) = 0. Se
ha obtenido que una raı́z de det(A) = 0 es x = −(α + β). Aplicando
la regla de Ruffini se obtiene que det(A) = [x + (α + β)][x2 − (α +
β)x+(α2 −αβ +β 2 )]. Calculando las raı́ces del polinomio de segundo

grado obtenido se llega a x = α+β¯ y x = α¯ +β, siendo  := 1+i2 3
y donde la barra representa el conjugado.
(b) Para comprobar que x = −(α + β) anula el determinante, basta
sumar las 3 filas y colocarlas en la primera, obteniendo ası́ una fila
nula.
Para comprobar que x = α + β¯ es solución, de nuevo, se comienza
sumando las 3 filas y colocándolas en la primera. Aplicando homo-
geneidad en la primera fila, se obtiene un determinante con unos en
dicha fila, donde es posible anular dos de ellos mediante operaciones
elementales y luego calcular el determinante 2 × 2 que queda.
Otra forma para comprobar este último caso es poniendo en la prime-
ra fila el resultado de sumar ella misma más la segunda previamente
multiplicada por −¯ y más la tercera previamente multiplicada por
−. Se obtiene la primera fila nula.
La raı́z que falta se comprueba de forma similar a la anterior.
(6) det(A) = −14 y | det(A)| = 14 coincide con el área de dicho parale-
logramo (para calcular esta área utilizar, por ejemplo, el módulo del
producto vectorial de los vectores dados).
(7) Realizar dibujos para visualizar las intepretaciones realizadas en las
páginas 279, 282, 283 y 287.
(8) Sea B = Eij A. La matriz B tiene las mismas filas que la matriz A, en
la que se han intercambiado la fila i-ésima con la fila j-ésima. Este
hecho produce un cambio en el signo del determinante, por tanto,
det(B) = − det(A).
Las otras dos propiedades se prueban de manera similar.
7.3. SOLUCIÓN A LOS EJERCICIOS 99

(9) Sean A1 , A2 , . . . , Ap ∈ Kn×n , con p ∈ N, p ≥ 2. Se debe probar que


det(A1 A2 . . . Ap ) = det(A1 ) det(A2 ) . . . det(Ap ). Es inmediato por in-
ducción sobre p y utilizando la fórmula de Cauchy-Binet para el caso
p = 2.

(10) Como det(Ap+1 ) = det(A), la fórmula de Cauchy-Binet aplicada re-


petidas veces lleva a [det(A)]p+1 = det(A). Por tanto, [(det(A))p −

1] det(A) = 0. De aquı́ resulta que det(A) = 0 o bien det(A) = p 1
(que son las p raı́ces de la unidad de orden p. Para su cálculo se
puede consultar el anexo sobre números complejos).

(11) (a) Sea ax + by + c = 0 la ecuación de dicha recta. Utilizando


que los puntos (x1 , y1 ) y (x2 , y2 ) pasan por la recta, debe cum-
plirse que ax1 + by1 + c = 0 y ax2 + by2 + c = 0. Las tres ecua-
ciones 
deben cumplirse de forma simultánea y producen el sistema
 ax + by + c = 0

lineal ax1 + by1 + c = 0 que matricialmente se expresa

ax2 + by2 + c = 0

    
x y 1 a 0
mediante  x1 y1 1   b  =  0 . Para que este sistema li-
    

x2 y 2 1 c 0
neal homogéneo tenga solución (a, b, c) no trivial debe cumplirse que
la matriz de coeficientes tenga rango menor que 3, es decir, que no
sea invertible, o bien que su determinante se anule.
(b) L : x + y − 5 = 0.

(12) Calculando el determinante y resolviendo la √ ecuación de segundo


−(a+c)± (a−c)2 +4b2
grado que queda, las raı́ces son x = 2
. Puesto que
2 2
el discriminante (a − c) + 4b ≥ 0 para todo a, b, c ∈ R, se tiene que
sus raı́ces son números reales.
 
a b c
(13) Sea A =  d e f  una matriz que, por ejemplo, satisface la con-
 

g h i
100 CAPÍTULO 7. DETERMINANTES
î ó î ó î ó
dición a b c + d e f =k g h i . Luego,

a+d b+e c+f kg kh ki


|A| = d e f = d e f = k|A| = k0 = 0.
g h i g h i

Del mismo modo se puede probar si la suma no se coloca en la tercera


fila sino en otra.
(14) (a) F. Contraejemplo:
ñ A ô= −B = In con n par. (b) F. Contraejem-
1 0
plo: λ = 2, A = . (c) V. Demostración: Aplicar n veces la
0 1
homogeneidad de la aplicación determinante. (d) V. Demostración:
Puede probarse por el método de inducción y utilizando la fórmula
de Cauchy-Binet. (e) V. Demostración: [Adj(A)]t = [Aij ]t = [Aji ] =
Adj(At ).
(15) Si n = 1, es trivial por definición. Sea n > 1 y suponer que la
propiedad se cumple para toda matriz de tamaño (n − 1) × (n − 1)
con una fila nula. Sea A ∈ Kn×n una matriz con la i-ésima fila nula.
El desarrollo de Laplace por la primera columna da

det(A) =
= a11 (−1)1+1 det(M11 ) + · · · + ai−1,1 (−1)(i−1)+1 det(Mi−1,1 ) +
+0(−1)i+1 det(Mi,1 ) + ai+1,1 (−1)(i+1)+1 det(Mi+1,1 ) + · · · +
+an,1 (−1)n+1 det(Mn,1 ).

Por hipótesis de inducción, se tiene que det(Mj,1 ) = 0 para todo


j = 1, . . . , i − 1, i + 1, . . . , n pues todos esos menores son de tamaño
(n − 1) × (n − 1) y tienen una fila de ceros. Luego, det(A) = 0, para
todo n ∈ N.
(16) Caso 1: A tiene 2 filas consecutivas iguales. Por inducción sobre n.
Para el caso n = 2 es inmediato ver que el determinante de una
matriz de tamaño 2 × 2 con las 2 filas iguales es 0. Para el caso
7.3. SOLUCIÓN A LOS EJERCICIOS 101

n > 2 se aplica el desarrollo de Laplace por la primera columna


de A. Por la hipótesis de inducción los complementos algebraicos
relativos a las posiciones de las filas no consecutivas son todos 0.
Los complementos algebraicos relativos a las posiciones de las filas
consecutivas (e iguales) son números opuestos. Luego, la suma de
todos es 0, i.e., det(A) = 0.
Caso 2: A tiene 2 filas iguales no consecutivas. Sean la i-ésima y la
j-ésima filas iguales de A. Se realiza un número finito de intercam-
bios de filas para que la i-ésima y la j-ésima resulten consecutivas
(alternando, quizás, el signo) y se aplica el Caso 1.
(17) El caso n = 1 es trivial. Sea n > 1. Al realizar el desarrollo de
Laplace por la primera columna, los menores complementarios de
todas las posiciones, salvo la primera, son nulos por tener la primera
fila nula. Queda ası́, det(A) = a11 (−1)1+1 det(M11 ) = a11 det(M11 ).
Puesto que M11 es una matriz triangular inferior de tamaño (n−1)×
(n − 1), la hipótesis de inducción asegura que det(M11 ) = a22 . . . ann .
Sustituyendo en la expresión anterior se obtiene el resultado.
Otra forma: Como el determinante de una matriz coincide con el
de su traspuesta y para matrices triangulares superiores el resulta-
do está probado, el resultado sigue inmediatamente para matrices
triangulares inferiores.
(18) Por definición de matriz adjunta se tiene que

P = [pij ] := A[Adj(A)]t = [aij ][Aij ]t = [aij ][Aji ].

Al multiplicar,
 
a11 A11 + · · · + a1n A1n . . . a11 An1 + · · · + a1n Ann
.. .. ..
P = . .
 
. .
an1 A11 + · · · + ann A1n . . . an1 An1 + · · · + ann Ann

Si i = j, los elementos de la diagonal obtenidos tienen la forma


pii = ai1 Ai1 + · · · + ain Ain = det(A), para todo i = 1, . . . , n.
102 CAPÍTULO 7. DETERMINANTES

Si i 6= j, los elementos de la fuera de la diagonal obtenidos son de la


forma pij = ai1 Aj1 + · · · + ain Ajn = 0, para todo i, j = 1, . . . , n (con
i 6= j) por tratarse de los elementos de una fila y los complementos
algebraicos correspondientes a las posiciones de una paralela.
 
det(A) . . . 0
.. .. ..
Luego, P =  .  = det(A)In .
 
. .
0 . . . det(A)
(19) (a) Basta desarrollar det(Ai ) por la columna i-ésima. (b) Para cada
fila bi de b, con k = 1, 2, . . . , n, sustituir bk en la expresión det(Ai ) por
su igual ak1 x1 +· · ·+akn xn . Aplicando propiedades de determinantes,
se anularán todos excepto uno de ellos.
(20) Suponiendo que A ∈ Kn×n es invertible, el sistema Ax = b admite
solución única y viene dada por x = A−1 b y también se sabe que
det(A) 6= 0. Utilizando que A−1 = det(A)
1 1
[Adj(A)]t = det(A) [Aij ]t =
1
det(A)
[Aji ], se tiene que
 
det(A1 )
1 1 ..
x= [Adj(A)]t b =
 
.
det(A) det(A)
 
det(An )

pues
   
A11 b1 + · · · + An1 bn det(A1 )
.. ..
[Adj(A)]t b =  = .
   
. .
A1n b1 + · · · + Ann bn det(An )

(21) Utilizando la fórmula deÇñCauchy-Binet, se ôåprueba que el problema


2
4 + 4i α
original equivale a det = 0 y este último es
−α 1 − i
equivalente a α3 = −8. Repasando el anexo sobre números complejos,
si fuese necesario, las 3 raı́ces cúbicas del número comlejo z = −8
√ √
son α1 = −2, α2 = 1 + i 3 y α3 = 1 − i 3.
7.3. SOLUCIÓN A LOS EJERCICIOS 103

(22) A partir de la Proposición 7.8, el determinante de la matriz de Van-


dermonde es no nulo si y sólo si los valores de xi son distintos dos a
dos, es decir, xi 6= xj para todo i, j ∈ {1, 2, . . . , n} con i 6= j.
(23) Es falso. El paso incorrecto se encuentra al decir que det(B) =
det(In −BA) det(B) det((In −AB)−1 ) implica det(In −BA) det((In −
AB)−1 ) = 1 pues para ello deberı́a ser det(B) 6= 0, que no se conoce
como hipótesis. Sin embargo, a pesar de esta “prueba” incorrecta, el
resultado es verdadero como se prueba en el Ejercicio 1224.
(24) Basta probar que (In − BA)(In + B(I − AB)−1 A) = In . En efecto,
(In − BA)(In + B(In − AB)−1 A) = In + B(In − AB)−1 A − BA −
BAB(In −AB)−1 A = In +B[(In −AB)−1 −In −AB(In −AB)−1 ]A =
In + B[(In − AB)(In − AB)−1 − In ]A = In + B[In − In ]A = In . Se ha
probado que la expresión dada es una inversa a derecha de In −BA, lo
que garantiza que es su inversa pues se trata de matrices cuadradas.
Otra forma: Sea X := (In −AB)−1 . Se debe probar que (In −BA)(In +
BXA) = In . Por definición de matriz inversa, (In − AB)X = X(In −
AB) = In , de donde ABX = X −In . Ahora, (In −BA)(In +BXA) =
In + BXA − BA − BA(BXA) = In + BXA − BA − B(ABX)A =
In +BXA−BA−B(X −In )A = In +BXA−BA−BXA+BA = In .
Como antes, la expresión dada es la inversa de In − BA.
El resultado es válido para A ∈ Km×n y B ∈ Kn×m . Se deben poner
los subı́ndices adecuados (m ó n) en las matrices identidades.
(25) Se trata de resolver la ecuación matricial
ñ ôñ ô ñ ô
In B X Y In O
= .
−A In Z T O In
Multiplicando por bloques y despejando adecuadamente se obtiene
X = (In + BA)−1 , Y = −B(In + AB)−1 , Z = A(In + BA)−1 , T =
(In + AB)−1 , con lo que se obtiene el resultado. Se debe tener en
cuenta que, por el ejercicio anterior, si In + AB es invertible entonces
In + BA también lo es.
104 CAPÍTULO 7. DETERMINANTES

Otra forma: ñ
Premultiplicando
ô lañmatriz dada porôla matriz elemental
In O In B
por bloques se tiene . Por la fórmula de
A In O In + AB
Cauchy-Binet se tiene que

In B In B
=
−A In O In + AB

puesto que el determinante de la matriz elemental por bloques es 1


(por tratarse de una matriz triangular inferior con unos en su diago-
In B
nal). Luego, = |In | |In + AB| =
6 0 por hipótesis. Observar
−A In
que se ha utilizado que el determinante de una matriz triangular su-
perior por bloques es el producto de los determinantes de cada bloque
diagonal. Luego, la matriz dada es invertible.
Parte II

Álgebra Lineal

105
Capı́tulo 8

Espacios vectoriales

Índice
8.1. TEMARIO . . . . . . . . . . . . . . . . . . . . 108
8.2. EJERCICIOS . . . . . . . . . . . . . . . . . . . 109
8.3. SOLUCIÓN DE LOS EJERCICIOS . . . . . 120

107
108 CAPÍTULO 8. ESPACIOS VECTORIALES

8.1. TEMARIO
Los ejercicios de este capı́tulo corresponden a los temas:

Modelos geométricos y algebraicos


Definición
Subespacios vectoriales
Combinaciones lineales. Subespacio generado
Sistemas de generadores
Dependencia e independencia lineal
Bases de un espacio vectorial
Dimensión
Operaciones con subespacios
8.2. EJERCICIOS 109

8.2. EJERCICIOS
(1) Comprobar que todos los ejemplos proporcionados en la Sección 8.3.1
determinan un espacio vectorial.
(2) Se considera el conjunto V = Z de los números enteros con la suma
habitual y con la operación externa:

Si q ∈ Q y z ∈ Z, entonces q · z = 0.

Comprobar que en (V, +, ·) se cumplen todos los axiomas de espacio


vectorial salvo V8 , y por tanto, Z no es un espacio vectorial sobre Q
con estas operaciones.
(3) ¿Cómo se deberı́an reordenar los axiomas de la definición de espacio
vectorial para necesitar sólo una de las dos igualdades en el axioma de
existencia del elemento neutro de la suma y existencia del simétrico
para cada elemento del espacio?
(4) Demostrar que, de los axiomas (V1 )-(V8 ) que cumple un conjunto
V para ser un espacio vectorial sobre un cuerpo K, el axioma (V4 )
puede deducirse de los axiomas (V1 ), (V2 ), (V3 ), (V5 ), (V6 ) y (V8 ).
(Ayuda: Probar primero que ~u + ~u + ~v + ~v = ~u + ~v + ~u + ~v para
todo ~u, ~v ∈ V desarrollando de dos formas diferentes la expresión
(1 + 1)(~u + ~v ).)
(5) Sea V un K-espacio vectorial y sean ~u, ~v ∈ V , λ, µ ∈ K. Demostrar
que:
(i) −u = (−1)u.
(ii) λ(~u − ~v ) = λ~u − λ~v .
(iii) (λ − µ)~u = λ~u − µ~u.
(6) Sea V un K-espacio vectorial y sean ~u, ~v ∈ V , λ, µ ∈ K. Demostrar
que son válidas las siguientes leyes de cancelación o reglas de
simplificación:
(i) λ~u = λ~v y λ 6= 0 ⇒ ~u = ~v .
110 CAPÍTULO 8. ESPACIOS VECTORIALES

(ii) λ~u = µ~u y ~u 6= ~0 ⇒ λ = µ.


(7) Deducir que el espacio vectorial cartesiano Kn , el espacio vectorial de
las matrices Km×n y el espacio vectorial de las sucesiones son casos
particulares del Ejemplo 8.7.
(8) Se considera el conjunto Cm ([−1, 1]) de todas las funciones reales
a valores en el intervalo [−1, 1] que poseen derivadas de orden m
continuas. Definiendo las operaciones de suma + y producto por
escalares · punto a punto, probar que (Cm ([−1, 1]), +, ·) es un espacio
vectorial.
(9) Sea V = R+ = {x ∈ R : x > 0}. Se define la suma y el producto por
escalares de K = Q como

x ⊕ y = x · y (donde · es el producto de R),


a a √  a 
⊗ x = x b = b xa , donde ∈ Q es tal que b > 0
b b
a
para cualquier x, y ∈ V , b
∈ Q. Probar que (V, ⊕, ⊗) es un Q-espacio
vectorial.
(10) Sean V y W dos espacios vectoriales sobre el mismo cuerpo K. Se
considera como nuevo espacio el producto cartesiano V × W y sobre
él las siguientes operaciones de suma + : (V ×W )×(V ×W ) → V ×W
y producto por escalares · : K × (V × W ) → V × W definidas como

(v1 , w1 ) + (v2 , w2 ) = (v1 + v2 , w1 + w2 )


.
λ · (v, w) = (λv, λw)

Demostrar que (V × W, +, ·) es un K-espacio vectorial, llamado es-


pacio producto V × W .
(11) Sea (V, +, .) un K-espacio vectorial y sea S ⊆ V . Demostrar que las
siguientes condiciones son equivalentes:
(a) S es un subespacio vectorial de V .
(b) Se cumple que:
8.2. EJERCICIOS 111

(S10 ) S 6= ∅,
(S2 ) Si u, v ∈ S entonces u + v ∈ S,
(S3 ) Si u ∈ S y λ ∈ K entonces λ.u ∈ S.
(12) Sea (V, +, .) un K-espacio vectorial y sea S ⊆ V . Demostrar que las
siguientes condiciones son equivalentes:
(a) S es un subespacio vectorial de V .
(b) Se cumple que:
(S1 ) 0 ∈ S,
(S40 ) Si u, v ∈ S y λ ∈ K entonces u + λ.v ∈ S.
(13) Indicar, justificando la respuesta, si los siguientes subconjuntos de
R2 son subespacios vectoriales:
®ñ ô ´
x
(a) S1 = ∈ R2 : x2 = y .
y
®ñ ô ´
x 2
(b) S2 = ∈ R : xy = 1 .
y
®ñ ô ´
x
(c) S3 = ∈ R2 : x − 2y = 0 .
y
Representar gráficamente cada subconjunto y analizar la pertenencia
o no a cada Si del vector nulo de R2 , de la suma y del producto de
un vector por un escalar para unos cuantos vectores.
(14) En este ejercicio se estudian matrices que conmutan, con respecto a
la multiplicación de matrices, con una matriz fijada.
(a) Demostrar que el conjunto de matrices que conmutan con la
matriz ñ ô
2 1
A=
1 3

determina un subespacio vectorial de R2×2 sobre R. Hallar su


dimensión y una base.
112 CAPÍTULO 8. ESPACIOS VECTORIALES

(b) Considerar ahora una matriz fija A ∈ Cn×n arbitraria. Demostrar


que el conjunto de matrices X ∈ Cn×n tales que AX = XA forma
un subespacio vectorial de Cn×n .
(15) Analizar si los siguientes subconjuntos son subespacios de los espacios
vectoriales a los que pertenecen:
®ñ ô ´
x y
(a) S = ∈ R2×2 : x − z = 0, y = 2t .
z t
(b) S = {p(x) = a0 + a1 x + a2 x2 ∈ R2 [x] : a0 = 1 = a1 }.
(c) S = {(x, y) ∈ R2 : y = −2x}.
(d) S = {p(x) = a0 + a1 x + a2 x2 + a3 x3 ∈ R3 [x] : a1 = a0 , a2 = −a1 }.
(16) Para los apartados del ejercicio anterior que sean subespacios deter-
minar una base y su dimensión.
ñ ô
1 1
(17) Indicar si el vector ∈ R2×2 pertenece al subespacio
1 1
®ñ ô ñ ô ñ ô´
1 1 1 0 0 0
, , .
0 0 1 0 −1 −1
¿Cuál es la dimensión del subespacio anterior?
(18) Analizar la validez o falsedad de la siguiente afirmación: “el subcon-
junto R2 es un subespacio vectorial del espacio vectorial C2 con la
suma y el producto por escalares habituales de C2 ”.
(19) Mostrar (de dos maneras diferentes) que los vectores 1, x, x2 y x3 son
linealmente independientes en R3 [x].
(20) Determinar si cada uno de los sistemas

S1 = {1, 1+x, −1+x}, S2 = {1+x, −1+x} y S3 = {3, x−2, x+1, x2 }

constituye una base de R2 [x]. En caso de no ser base, pero ser un con-
junto linealmente independiente, extenderlo a una base de R2 [x]; en
caso de ser un conjunto de generadores, extraer de él un subconjunto
que sea una base.
8.2. EJERCICIOS 113

(21) Sea S el subconjunto de R3 [x] de los polinomios de grado menor o


igual que 3 (junto al polinomio nulo) que se anulan en x = 0 y en
x = 1.
(a) Mostrar que S es un subespacio vectorial de R3 [x].
(b) Hallar la forma general de los polinomios de S.
(c) Hallar una base de S y su dimensión.
(22) Determinar la dimensión y una base de los siguientes subespacios
vectoriales:
®ñ ô ´
a−b
(a) S = : a, b ∈ R ⊆ R2 .
2a + b
  
 a−c
 

(b) S =  b + c  : a, b, c ∈ R ⊆ R3 .
 
 
5c
 
  

 a 

(c) S =  0  : a ∈ R ⊆ R3 .
 
 
−2a
 
®ñ ô ´
a−c
(d) S = : a, b, c ∈ R ⊆ R2 .
2a + b + c
®ñ ô ´
a − 2b + 2c
(e) S = : a, b, c ∈ R ⊆ R2 .
2a − b + 4c
  


 2x + y 



  
 x  
(f) S =    : x, y, z ∈ R ⊆ R4 .
 −x − 2y 
  

 


 x+y+z 

®ñ ô ´
a b
(g) S = : a, b, c ∈ R ⊆ R2×2 .
c −a
(23) Se considera el conjunto MS de las matrices de tamaño n×n triangu-
lares superiores a coeficientes reales con la adición y la multiplicación
por escalares habituales.
114 CAPÍTULO 8. ESPACIOS VECTORIALES

(a) Probar que MS es un subespacio vectorial de Rn×n . Calcular su


dimensión y una base.
(b) Para n = 4, escribir el vector
 
1 4 9 7
 
 0 0 3 1 
A0 =  0

 0 2 5 

0 0 0 −1
como combinación lineal de los vectores de la base encontrada.
(24) Sea V un K-espacio vectorial y sean u, v ∈ V dos vectores no nulos.
Demostrar que {u, v} es linealmente dependiente si y sólo si existe
λ ∈ K − {0} tal que u = λv.
(25) ¿Es el conjunto {x2 , x|x|} linealmente independiente en el espacio
vectorial de las funciones reales continuas definidas en el interva-
lo [−1, 1]? Justificar la respuesta. Interpretar el resultado en una
gráfica. ¿Se obtiene el mismo resultado si se analizan en el interva-
lo [−1, 0]? ¿Se puede justificar esta pregunta mediante el ejercicio
anterior?
(26) Probar que el conjunto {cos(x), sen(x)} es linealmente independiente
en el espacio vectorial de las funciones derivables de R en R.
(n−1)
(27) Sea C[a,b] el conjunto de funciones reales que poseen n − 1 deriva-
das continuas en el intervalo [a, b]. Si {f1 (x), f2 (x), . . . , fn (x)} es un
(n−1)
subconjunto de C[a,b] y existe un punto x0 ∈ [a, b] tal que1
à í
f1 (x0 ) f2 (x0 ) ... fn (x0 )
 f10 (x0 ) f20 (x0 ) ... fn0 (x0 ) 
 
det  .. .. ..  6= 0
. . .
 
 
(n−1) (n−1) (n−1)
f1 (x0 ) f2 (x0 ) . . . fn (x0 )
1
El determinante considerado se llama wronskiano de f1 (x), f2 (x), . . . , fn (x). Se utili-
za para resolver ecuaciones diferenciales lineales y fue utilizado en 1812 por el matemático
polaco Józef Hoene-Wroński (1776-1853) llamado de este modo en 1882 por el matemático
escocés Thomas Muir (1844-1934).
8.2. EJERCICIOS 115

entonces {f1 (x), f2 (x), . . . , fn (x)} es linealmente independiente en


(n−1)
C[a,b] . Deducir de este resultado, si es posible, los dos Ejercicios
anteriores. (Ayuda: Plantear la combinación lineal nula de las fun-
ciones dadas y derivar n − 1 veces. Luego, analizar el sistema lineal
resultante).
(28) Usando como argumento su dimensión, demostrar que los subespa-
cios vectoriales:
(a) de R1 son sólo los subespacios triviales.
(b) no triviales de R2 son las rectas que pasan por (0, 0).
(c) no triviales de R3 son las rectas que pasan por (0, 0, 0) y los
planos que pasan por (0, 0, 0).
(29) ¿Para qué valores de a ∈ R es linealmente dependiente el conjunto
S = {1 + ax, a + (a + 2)x} ⊆ R2 [x]? Justificar la respuesta.
(30) ¿Bajo qué restricciones sobre los valores de a y b en R puede garan-
tizarse que el conjunto S = {a + ax + ax2 , bx2 , 1} genera el espacio
vectorial R2 [x]? Justificar la respuesta.
(31) Hallar el valor de α ∈ R para que existan matrices no nulas B ∈ R2×2
tales que ñ ô ñ ô
1 2 0 0
B= .
3 α 0 0
Para el valor de α encontrado probar que el conjunto
® ñ ô ñ ô´
2×2 1 2 0 0
S= B∈R : B=
3 α 0 0
es un subespacio vectorial de R2×2 . Hallar una base de S y su dimen-
sión.
(32) Sea {A1 , A2 , . . . , Ap } un conjunto linealmente independiente de ma-
trices de tamaño m×n a coeficientes reales y sean B y C dos matrices
invertibles reales de tamaños m × m y n × n, respectivamente. De-
mostrar que
{BA1 C, BA2 C, . . . , BAp C}
116 CAPÍTULO 8. ESPACIOS VECTORIALES

es un conjunto linealmente independiente en Rm×n . ¿Se debe cumplir


alguna relación entre m, n y p?
(33) Sea V un K-espacio vectorial y sean u1 , u2 , . . . , un ∈ V . Demostrar
que la suma de dos combinaciones lineales de u1 , u2 , . . . , un es otra
combinación lineal de u1 , u2 , . . . , un y el producto de un escalar λ ∈
K por una combinación lineal de u1 , u2 , . . . , un es otra combinación
lineal de u1 , u2 , . . . , un .
(34) Sea V un K-espacio vectorial, S ≤ V y {u1 , u2 , . . . , un } ⊆ S. Probar
que {u1 , u2 , . . . , un } ⊆ S.
(35) Se considera una famila de subespacios {Si }i∈I de un K-espacio vec-
torial V . Demostrar que la intersección ∩i∈I Si es un subespacio de
V.
(36) Dar un ejemplo de dos subespacios de R2 tales que S1 ∪ S2 no sea un
subespacio vectorial de R2 .
(37) Sea V un K-espacio vectorial y sean S1 , S2 ≤ V . Demostrar que

S1 ∪ S2 ≤ V ⇐⇒ S1 ⊆ S2 ó S2 ⊆ S1 .

(38) Hallar el valor de k ∈ R para que el conjunto

Sk = {ax + b ∈ R1 [x] : a + b = k}

sea un subespacio vectorial de R1 [x]. Para dicho valor de k, determi-


nar la dimensión y una base de Sk .
(39) Si V es un K-espacio vectorial. Demostrar que S ≤ V ⇔ S = S.
(40) Comprobar que el cuerpo (finito) Z2 definido en los Ejemplos 1.18 y
1.39 puede considerarse como Z2 -espacio vectorial. Hallar una base
del mismo.
(41) Sea V un K-espacio vectorial y {u1 , . . . , un } ⊆ V . Demostrar que:
(i) {u1 , . . . , ui , . . . , uj , . . . , un } = {u1 , . . . , uj , . . . , ui , . . . , un }.
8.2. EJERCICIOS 117

(ii) {u1 , . . . , ui , . . . , un } = {u1 , . . . , cui , . . . , un }, para todo c ∈ K −


{0}.
(iii) {u1 , . . . , ui , . . . , uj , . . . , un } = {u1 , . . . , ui , . . . , uj + cui , . . . , un }
para todo c ∈ K y j 6= i.
Deducir que las operaciones elementales de vectores preservan las
combinaciones lineales. Comparar este resultado con el obtenido en
la Proposición 8.7.
(42) Sea V un C-espacio vectorial finitamente generado. Demostrar que
V considerado como R-espacio vectorial también es finitamente ge-
nerado.
(43) Probar que si el sistema lineal formado por las ecuaciones ax+by = 0
y cx + dy = 0 (con a, b, c, d ∈ K) tiene solución no trivial entonces
los vectores: (a) (a, c) y (b, d) de K2 son linealmente dependientes;
(b) (a, b) y (c, d) de K2 son linealmente dependientes.
î ó
(44) Encontrar una matriz A = a1 a2 a3 a4 particionada según
sus columnas para la cual
   
1 −1
a1 =  2  , a3 =  0 
   

3 4
y la forma escalonada reducida por filas de A es
 
1 −6 0 −2
RA =  0 0 1 3 .
 

0 0 0 0

(45) Probar que la familia


n
C = Pi (x) = xi

i=0

es un conjunto linealmente independiente del R-espacio vectorial


Rn [x]. Para ello, escribir al vector nulo como una combinación li-
neal de C y derivarlo n veces. Comparar con el Ejemplo 8.56.
118 CAPÍTULO 8. ESPACIOS VECTORIALES

(46) Probar que los subespacios S1 = {(1, 0)} y S2 = {(2, 3)} satisfacen
S1 ⊕ S2 = R2 . Nótese que, en definitiva, se trata de resolver sistemas
de ecuaciones lineales.
(47) Se utilizará la notación 2N = {2, 4, 6, . . . } para indicar el conjunto
de los números naturales pares. Se considera el espacio vectorial R[x]
de las funciones polinomiales en la variable x. Sean

S1 = {1, x2 , x4 , . . . } = {xj }j∈{0}∪2N

y
S2 = {x, x3 , x5 , . . . } = {xj }j∈N−2N .
Probar que R[x] = S1 ⊕ S2 .
(48) Demostrar que las funciones
® ®
1 x ∈ [0, 13 ] 1 x ∈ [0, 32 ]
f (x) = , g(x) = y h(x) = 1−x,
0 x ∈] 31 , 1] 0 x ∈] 23 , 1]

son linealmente independientes en el espacio de todas las funciones


reales definidas sobre el intervalo [0, 1]. Indicar si la función k definida
por 
1
 2 x ∈ [0, 3 ]

k(x) = 1 x ∈] 13 , 23 ]

0 x ∈] 32 , 1]

cumple que k ∈ {f, g}. Representar gráficamente.


(49) Demostrar que las funciones continuas ex , sen(x) y cos(x) no per-
tenecen a {1, x, x2 , x3 , . . . }. En consecuencia, estas funciones tras-
cendentes familiares no pueden ser expresadas como combinaciones
lineales (finitas) de polinomios.
(50) Siguiendo la idea de la demostración de la Proposición 8.8, enunciar
y probar una proposición similar que establezca que la equivalencia
por columnas preserva las relaciones de dependencia lineal entre las
filas de una matriz.
8.2. EJERCICIOS 119

(51) Sea V un espacio vectorial. Es conocido que al unir un sistema de


generadores de un subespacio S1 de V con un sistema de generado-
res de un subespacio S2 de V , se obtiene un sistema generador de
S1 + S2 . Para ver que este hecho no se cumple para bases, encontrar
dos subespacios S1 y S2 del R-espacio vectorial R3 tales que al unir
una base de S1 con una de S2 se obtiene un sistema linealmente de-
pendiente de S1 + S2 . ¿Contradice este hecho el apartado (c) de la
Proposición 8.18? Justificar.
120 CAPÍTULO 8. ESPACIOS VECTORIALES

8.3. SOLUCIÓN DE LOS EJERCICIOS


(1) Se debe aplicar la definición comprobando que se cumplen todos los
axiomas.
(2) El axioma V8 no se cumple pues 1 · z = 0 6= z para todo z 6= 0. Por
ejemplo, 1 · 1 = 0 6= 1.
(3) Se debe situar la conmutatividad antes de la existencia del elemento
neutro de la adición y de la existencia del simétrico.
(4) Se comienza probando la sugerencia de la ayuda: u + u + v + v =
1u + 1u + 1v + 1v = (1 + 1)u + (1 + 1)v = (1 + 1)(u + v) = 1(u +
v) + 1(u + v) = u + v + u + v. Sumando (−1)u a izquierda y (−1)v
a derecha en ambos miembros y asociando adecuadamente se tiene
que u + v = v + u.
(5) (i) Se debe probar que el opuesto de u es (−1)u. Para ello, u +
(−1)u = 1u + (−1)u = [1 + (−1)]u = 0u = 0. Análogamente
se prueba que (−1)u + u = 0. Por la definición y unicidad del
opuesto −u del vector u se tiene −u = (−1)u.
(ii) λ(~u − ~v ) = λ(~u + (−1)~v ) = λ~u + λ[(−1)~v ] = λ~u + [λ(−1)]~v =
λ~u + [(−1)λ]~v = λ~u + (−1)[λ~v ] = λ~u − λ~v .
(iii) Similar al anterior.
(6) (i) Como λ 6= 0, existe λ−1 ∈ K tal que λ−1 λ = 1(= λλ−1 ). Pre-
multiplicando ambos miembros de la igualdad dada por λ−1 y
utilizando el axioma (V7 ) y el axioma (V8 ), se tiene el resultado.
(ii) Sigue directamente del tercer apartado del ejercicio anterior y
del apartado (e) de la Proposición 8.1.
(7) Kn : la aplicación x : {1, 2, . . . , n} → K se define por x(i) = xi , siendo
xi ∈ K. Se denota, x = (x(1), . . . , x(n)) = (x1 , . . . , xn ).
Km×n : la aplicación A : {1, 2, . . . , m} × {1, 2, . . . , n} → K se define
por A(i, j) = aij , siendo aij ∈ K.
8.3. SOLUCIÓN DE LOS EJERCICIOS 121

Sucesiones: la aplicación x : X = N → K se define por x(n) =


xn , siendo xn ∈ K. Se denota, x = (x(1), x(2), . . . , x(n), . . . ) =
(x1 , x2 . . . , xn , . . . ).
(8) Este espacio cobra sentido al recordar que existen funciones deriva-
bles con derivada no continua. Por ejemplo,
®
x2 sen( x1 ), si x 6= 0
f (x) =
0, si x = 0

es una función que admite derivada primera pero dicha derivada no


es una función continua.
En realidad, el espacio (Cm ([−1, 1]), +, ·) es semejante al espacio vec-
torial más general (KA , +, ·), siendo A = [−1, 1] y K = R, don-
de además las funciones deben poseer derivada de orden m conti-
nua. Se debe recordar que la derivada de la suma de dos funciones
derivables es la suma de las derivadas de cada función, es decir,
(f + g)0 (x) = f 0 (x) + g 0 (x), y que el producto de un escalar por una
función derivable es derivable y (λf )0 (x) = λf 0 (x).
Observar ahora la relación con los axiomas que se cumplen en KA .
(9) Se debe observar que ⊕ es una operación interna y ⊗ una operación
externa con K = Q.
Los axiomas (V1 ), (V2 ), (V3 ) y (V4 ) son inmediatos pues se cumplen
en R+ con el producto.
a a a a
V5 : b
⊗ (u ⊕ v) = (uv) b = u b v b = ( ab ⊗ u) ⊕ ( ab ⊗ v).
a c a c
V6 : ( ab + dc ) ⊗ u = u b + d = u b u d = ( ab ⊗ u) ⊕ ( dc ⊗ u).
a c a c a a c
V7 : b
⊗ ( dc ⊗ u) = (u d ) b = u d b = u b d = ( ab dc ) ⊗ u.
V8 : 1 ⊗ u = u1 = u.
Con un argumento similar al del Anexo E se puede probar que
(V, ⊕, ⊗) tiene dimensión infinita.
(10) Basta aplicar la definición y los correspondientes axiomas en cada
espacio V y W .
122 CAPÍTULO 8. ESPACIOS VECTORIALES

(11) Por la Proposición 8.3, S es un subespacio vectorial de V si y sólo si


se cumple: (a’) 0 ∈ S; u + v ∈ S, ∀u, v ∈ S; λu ∈ S, ∀λ ∈ K, ∀u ∈ S.
Ahora se probará: (a’) ⇔ (b).
(a’) ⇒ (b) Es claro que 0 ∈ S ⇒ S 6= ∅. Las otras condiciones
coinciden.
(b) ⇒ (a’) Como S 6= ∅, existe u ∈ S. Tomando λ = −1 ∈ K, se
tiene que λu = (−1)u = −u ∈ S. Luego, 0 = u + (−u) ∈ S. Las
otras condiciones coinciden.
(12) Por la Proposición 8.3, basta probar que las condiciones u + v ∈
S, ∀u, v ∈ S y λu ∈ S, ∀λ ∈ K, ∀u ∈ S son equivalentes a (S40 ) (pues
la condición 0 ∈ S es común a ambos). En efecto, si se cumple que
S es cerrado para la suma y para el producto por escalares entonces
para v ∈ S y λ ∈ K se tiene que λ.v ∈ S. Por la otra condición, si
u ∈ S se tiene que u + λ.v ∈ S, con lo que se prueba (S40 ).
Se supone ahora que se cumple (S40 ), y que u, v ∈ S. Tomando λ =
1 ∈ K se tiene que u + λ.v = u + 1.v = u + v ∈ S. Ahora, si v ∈ S y
λ ∈ K, para u = 0, resulta u + λ.v = λ.v ∈ S (por ser v arbitrario,
su nombre es irrelevante).
(13) Se deben analizar las 3 condiciones de la Proposición 8.3.
(a) No es cerrado para la suma ni para el producto por escalares; S1
no es subespacio de R2 . (b) (0, 0) ∈ / S2 ; S2 no es subespacio de R2 .
(c) S3 es subespacio de R2 pues 0 − 2.0 = 0, con lo cual (0, 0) ∈ S3 .
Si (x1 , y1 ), (x2 , y2 ) ∈ S3 entonces x1 − 2y1 = 0 y x2 − 2y2 = 0.
Sumando miembro a miembro, (x1 − 2y1 ) + (x2 − 2y2 ) = 0 + 0 = 0,
de donde (x1 + x2 ) − 2(y1 + y2 ) = 0, con lo cual (x1 , y1 ) + (x2 , y2 ) =
(x1 + x2 , y1 + y2 ) ∈ S3 . Si (x, y) ∈ S3 entonces x − 2y = 0 y si λ ∈ R
se tiene que λ(x − 2y) = λ0 = 0, de donde (λx) − 2(λy) = 0, con lo
cual λ(x, y) = (λx, λy) ∈ S3 .
(14) (a) Se debe probar que S = {X ∈ R2×2 : XA = AX} ≤ R2×2 . En
efecto, OA = AO, luego O ∈ S. Si B, C ∈ S entonces BA = AB y
8.3. SOLUCIÓN DE LOS EJERCICIOS 123

CA = AC. Luego, (B + C)A = BA + CA = AB + AC = A(B + C),


con lo que B + C ∈ S. Si λ ∈ R y B ∈ S entonces AB = BA. Luego,
A(λB) = λ(AB) = λ(BA) = (λB)A, con lo cual λB ∈ S. Por tanto,
S ≤ R2×2 .
ñ ô
t−z z
La forma genérica de un elemento de S es X = , con
z t
ñ ô ñ ô
−1 1 1 0
z, t ∈ R. Luego, X = z +t , de donde S =
1 0 0 1
®ñ ô ñ ô´
−1 1 1 0
, . Al tratarse de 2 matrices linealmente in-
1 0 0 1
dependientes, forman base de S y dimR (S) = 2.
(b) Se prueba como en (a).
(15) (a) S ≤ R2×2 . (b) S  R2 [x] (pues 0 ∈
/ S). (c) S ≤ R2 . (d) S ≤ R3 [x].
®ñ ô ñ ô´
1 0 0 2
(16) (a) B = , , dimR (S) = 2. (c) B = {(1, −2)} ,
1 0 0 1
dimR (S) = 1. (d) B = {1 + x − x2 , x3 }, dimR (S) = 2.
(17) Si pertenece pues
ñ ô ñ ô ñ ô ñ ô
1 1 1 1 1 0 0 0
=1 +0 + (−1) .
1 1 0 0 1 0 −1 −1
Si S es el subespacio generado por los vectores dados, dimR (S) = 3.
(18) F Sean S := R2 = {(x, y) : x, y ∈ R} y V := C2 = {(x1 + ix2 , y1 +
iy2 ) : x1 , x2 , y1 , y2 ∈ R}. Es claro que S ⊆ V , (0, 0) ∈ S y S es
cerrado para la suma de elementos de S. Con esto, S es un subgrupo
aditivo de V . Sin embargo, S no es cerrado para el producto por
escalares (de C). Por ejemplo, si λ = i, u = (1, 0) ∈ S, el producto
λu = (i, 0) ∈ / S.
(19) Primera forma: Por definición. Sean a, b, c, d ∈ R tales que a + bx +
cx2 + dx3 = 0 = 0 + 0x + 0x2 + 0x3 , para todo x ∈ R. Igualando
polinomios se tiene que a = b = c = d, con lo cual {1, x, x2 , x3 } es
linealmente independiente.
124 CAPÍTULO 8. ESPACIOS VECTORIALES

Segunda forma: Sean a, b, c, d ∈ R tales que a + bx + cx2 + dx3 = 0,


para todo x ∈ R. Derivando 3 veces ambos miembros de la igualdad
y particularizando para x = 1 se obtiene el sistema



 0 = a + b + c + d

 0 = b + 2c + 3d
,


 0 = 2c + 6d

 0 = 6d

cuya única solución es la trivial.


(20) S1 es linealmente dependiente pues 1 = 21 (1 + x) − 12 (−1 + x) y no
constituye un sistema generador de R2 [x] pues, por ejemplo, x2 ∈
/ S1 .
S2 es linealmente independiente pero no un sistema de generadores
de R2 [x]. El conjunto S2 ∪ {x2 } es una base de R2 [x].
S3 es linealmente dependiente y es un sistema de generadores de
R2 [x]. El conjunto S3 − {x − 2} = {3, x + 1, x2 } es una base de R2 [x].
(21) Sea S = {P ∈ R3 [x] : P (0) = 0 ∧ P (1) = 0} ∪ {O}.
(a) O ∈ S. Si P, Q ∈ S y λ ∈ R entonces P (0) = P (1) = 0 y
Q(0) = Q(1) = 0. Luego, (P + Q)(0) = P (0) + Q(0) = 0 + 0 = 0,
(P + Q)(1) = P (1) + Q(1) = 0 + 0 = 0, (λP )(0) = λP (0) = λ0 = 0
y (λP )(1) = λP (1) = λ0 = 0, de donde S ≤ R3 [x].
(b) P (x) = bx + cx2 + (−b − c)x3 , con b, c ∈ R.
(c) {x − x3 , x2 − x3 } y dimR (S) = 2.
®ñ ô ñ ô´
1 −1
(22) (a) , , dimR (S) = 2, , S = R2 .
2 1
     

 1 0 −1 

(b)  0  ,  1  ,  1  , dimR (S) = 3, S = R3 .
     
 
0 0 5
 
 

 1  
(c)  0  , dimR (S) = 1.
 
 
−2
 
8.3. SOLUCIÓN DE LOS EJERCICIOS 125
®ñ ô ñ ô´
1 0
(d) , , dimR (S) = 2, S = R2 .
2 1
®ñ ô´
1
(e) , dimR (S) = 1.
2
     


 2 1 0  

 
 1   0   0 
    

(f)   −1  ,  −2  ,  0 , dimR (S) = 3.
    

      

 

 1 1 1 
®ñ ô ñ ô ñ ô´
1 0 0 1 0 0
(g) , , , dimR (S) = 3.
0 −1 0 0 1 0
(23) (a) Que MS sea un subespacio vectorial de Rn×n sigue inmediata-
mente de los siguientes hechos: la matriz nula es triangular superior,
la suma de dos triangulares superiores es triangular superior y el pro-
ducto de un escalar por una matriz triangular superior es triangular
superior.
Para encontrar una base de MS basta considerar las matrices que
poseen todos los elementos iguales a 0, excepto un único 1 que recorra
todas las posiciones de la diagonal principal y todas las que se hallen
por encima de ella. Habrá un total de 1 + 2 + 3 + · · · + n = n(n+1) 2
matrices de este tipo, que coincide con la dimensión de MS . Luego,
una base es {E1j : j = 1, 2, . . . , n} ∪ {E2j : j = 2, . . . , n} ∪ {E3j :
j = 3, . . . , n} ∪ · · · ∪ {En−1,j : j = n − 1, n} ∪ {Enn }, siendo Eij las
matrices de la base canónica de Rn×n .
(b) A0 = 1E11 + 4E12 + 9E13 + 7E14 + 3E23 + E24 + 2E33 + 5E34 − E44 .
(24) (⇒) Sean a, b ∈ K tales que au + bv = 0 con (a, b) 6= (0, 0), es decir,
a y b no son simultáneamente nulos, lo que es lo mismo que decir
que uno de ellos es no nulo.
Si a 6= 0 entonces u = − ab v. Tomando λ = − ab se tiene que u = λv
con λ 6= 0 (pues si fuese λ = 0 se tendrı́a que b = 0, de donde 0 = au
y como a 6= 0 se llegarı́a a u = 0, que es una contradicción).
126 CAPÍTULO 8. ESPACIOS VECTORIALES

Del mismo modo se razona si b 6= 0.


(⇐) Si u = λv para cierto λ ∈ K − {0}, la expresión 0 = 1u −
λv asegura que {u, v} es un conjunto linealmente dependiente pues
los coeficientes son 1 6= 0 y λ 6= 0 (alcanzarı́a con tener un sólo
coeficiente no nulo para concluir).
(25) Sean a, b ∈ R tales que 0 = 0(x) = ax2 + bx|x|, para todo x ∈ R.
En particular, dicha ecuación se verifica para x ®= 1 y x = −1, de
a + b = 0
donde se obtiene el sistema de ecuaciones lineales ,
a − b = 0
cuya única solución es a = b = 0. Luego, las funciones dadas son
linealmente independientes en [−1, 1]. Sin embargo, en [−1, 0], se
tiene que x|x| = x(−x) = −x2 . Luego, por el ejercicio anterior, se
trata de funciones linealmente dependientes en dicho intervalo.
(26) Sean a, b ∈ R tales que 0 = 0(x) = a cos(x) + b sen(x), para todo
x ∈ R. En particular, dicha ecuación se verifica para x = 0 y x = π2 ,
de donde se obtiene a = b = 0. Luego, las funciones dadas son
linealmente independientes en R.
Otra forma: Sean a, b ∈ R tales que 0 = 0(x) = a cos(x) + b sen(x),
para todo x ∈ R. Derivando ambos miembros de la ecuación anterior
y particularizando ambas ecuaciones en x = 0 se obtiene de nuevo
a = b = 0.
(27) Sean a1 , a2 , . . . , an ∈ R tales que 0 = 0(x) = a1 f1 (x)+ a2 f2 (x)+ · · · +
an fn (x), para todo x ∈ R. Derivando n − 1 veces y sustituyedo en el
punto x = x0 se obtiene el sistema lineal
    
f1 (x0 ) f2 (x0 ) ... fn (x0 ) a1 0
0 0 0
 f1 (x0 ) f2 (x0 ) ... fn (x0 )   a2   0 
    
. . ..  .  =  . .
.


 .. .. .. .
 .   . 
 .   . 
(n−1) (n−1) (n−1)
f1 (x0 ) f2 (x0 ) . . . fn (x0 ) an 0

Dado que por hipótesis, la matriz de coeficientes del sistema es in-


vertible, la solución del sistema es la trivial. Por lo tanto, el conjunto
8.3. SOLUCIÓN DE LOS EJERCICIOS 127

(n−1)
{f1 (x), f2 (x), . . . , fn (x)} es linealmente independiente en C[a,b] .
Es claro que f1 (x) = x2 es una función derivable en [−1, 1] (con
f10 (x) = 2x) y se puede probar que la función f2 (x) = x|x| también
lo es (con f20 (x) = 2|x|). El sistema lineal asociado es
ñ ôñ ô ñ ô
x20 x0 |x0 | a1 0
= .
2x0 2|x0 | a2 0

Dado que
Çñ ôå
x20 x0 |x0 |
det = 0, para todo x0 ,
2x0 2|x0 |

el resultado no es aplicable para concluir.


Es claro que f1 (x) = cos(x) y f2 (x) = sen(x) son funciones derivables
en R. El sistema lineal asociado es
ñ ôñ ôñ ô
cos(x0 ) sen(x0 ) a1 0
.
− sen(x0 ) cos(x0 ) a2 0

Dado que
Çñ ôå
cos(x0 ) sen(x0 )
det = 1 6= 0, para todo x0 ,
− sen(x0 ) cos(x0 )

cualquier x0 ∈ R cumple la hipótesis y el resultado es aplicable para


(1)
concluir que dicho conjunto es linealmente independiente en CR .
(28) (a) Sea S ≤ R1 . Entonces dimR (S) ≤ dimR (R1 ) = 1. Luego, dimR (S) ∈
{0, 1}. Si dimR (S) = 0 entonces S = {0}. Si dimR (S) = 1 entonces
S ≤ R1 y dimR (S) = dimR (R1 ). Se tiene que S = R1 .
(b) Sea S ≤ R2 . Entonces dimR (S) ≤ dimR (R2 ) = 2. Luego, dimR (S) ∈
{0, 1, 2}. Si dimR (S) = 0 entonces S = {0}. Si dimR (S) = 2 entonces
S ≤ R2 y dimR (S) = dimR (R2 ). Se tiene que S = R2 . Sea entonces
dimR (S) = 1. En este caso, existe u ∈ S, u 6= 0, tal que BS = {u}
es una base de S y, por tanto, S = {u}. Luego, cualquier vector
128 CAPÍTULO 8. ESPACIOS VECTORIALES

(x, y) ∈ S es combinación lineal del vector u, es decir, (x, y) = λu,


con λ ∈ R, que corresponde a la ecuación vectorial de una recta que
pasa por el origen de coordenadas.
(c) Si S ≤ R3 , debe ser dimR (S) ≤ dimR (R3 ) = 3. Luego, dimR (S) ∈
{0, 1, 2, 3}. Si dimR (S) = 0 entonces S = {0}. Si dimR (S) = 3 enton-
ces S ≤ R3 y dimR (S) = dimR (R3 ). Se tiene que S = R3 .
Si dimR (S) = 1, en este caso, existe u ∈ S tal que BS = {u} es una
base de S y, por tanto, S = {u}. Luego, cualquier vector (x, y, z) ∈ S
es combinación lineal del vector linealmente independiente u, es decir,
(x, y) = λu, con λ ∈ R, que corresponde a la ecuación vectorial de
una recta que pasa por el origen de coordenadas.
Si dimR (S) = 2, en este caso, existen u, v ∈ S tales que BS =
{u, v} es una base de S y, por tanto, S = {u, v}. Luego, cualquier
vector (x, y, z) ∈ S es combinación lineal de los vectores linealmente
independientes u y v, es decir, (x, y, z) = λu + µv, con λ, µ ∈ R,
que corresponde a la ecuación vectorial de un plano que pasa por el
origen de coordenadas.
(29) Sean α, β ∈ R tales que 0 + 0x = 0(x) = α[1 + ax] + β[a + (a + 2)x] =
(α+aβ)+(aα+(a+2)β)x, para todo x ∈ R. Identificando coeficientes
en los polinomios se tiene que α + aβ = 0 y aα + (a + 2)β = 0.
Luego, α = −aβ. Sustituyendo se obtiene β[−a2 + a + 2] = 0. De
esta expresión se llega a que β = 0 o bien a2 −a−2 = 0. Si fuese β = 0
entonces α = 0, con lo que los polinomios dados serı́an linealmente
independientes, en contra de lo pedido. Luego, debe ser a2 −a−2 = 0,
es decir, a = −1 ó a = 2. Se observa que si a = −1 entonces el
conjunto linealmente dependiente es {1 − x, −1 + x} y si a = 2
entonces el conjunto linealmente dependiente es {1 + 2x, 2 + 4x}.
(30) Puesto que dimR (R2 [x]) = 3, es claro que S = R2 [x] ⇔ dimR (S) = 3,
lo que obliga a que sean a 6= 0 y b 6= 0 (pues si alguno de los
dos escalares fuese nulo, S no dispondrı́a de 3 elementos). Además,
dimR (S) = 3 ⇔ S es linealmente independiente en R2 [x] (pues S
8.3. SOLUCIÓN DE LOS EJERCICIOS 129

tiene 3 elementos). Se analizará esta última condición. En efecto, sean


α, β, γ ∈ R tales que 0 = 0(x) = α(a + ax + ax2 ) + β(bx2 ) + γ(1) =
(αa + γ) + (αa)x + (αa + βb)x2 . Identificando coeficientes en ambos
polinomios αa + γ = 0, αa = 0, αa + βb = 0. Al ser a 6= 0 y b 6= 0,
debe cumplirse que α = 0 = γ = β, con lo que los vectores de S son
linealmente independientes en R2 [x].
Otra forma: Si en lugar de resolver un sistema homogéneo se plantea
un sistema no homogéneo, se puede analizar por definición de sistema
generador, bajo qué condiciones un vector genérico p(x) = r+sx+tx2
pertenece a S.
ñ ô
−2z −2t
(31) α = 6. La forma genérica de dichas matrices es B = ,
z t
®ñ ô ñ ô´
−2 0 0 −2
con z, t ∈ R. Una base de S es , y dimR (S) =
1 0 0 1
2.
(32) Sigue de la definición de independencia lineal y utilizando la hipótesis
de que B y C son invertibles. Como dimR (Rm×n ) = mn, la relación
pedida es p ≤ mn.
(33) Véase la demostración de la Proposición 8.4.
(34) Recuérdese la definición de subespacio generado.
(35) Véase la prueba de la Proposición 8.11 y téngase en cuenta que x ∈
∩i∈I Si si y sólo si x ∈ Si , para todo i ∈ I.
(36) Si S1 = {(x, 0) : x ∈ R} y S2 = {(0, y) : y ∈ R}, se tiene que
(1, 0) ∈ S1 y (0, 1) ∈ S2 pero (1, 1) = (1, 0) + (0, 1) ∈
/ S1 ∪ S2 .
(37) (⇒) Suponiendo que S1 ∪ S2 ≤ V se debe probar que S1 ⊆ S2 ó
S2 ⊆ S1 . Si se cumple que S1 ⊆ S2 , no hay nada que probar. Se
supone entonces que S1 * S2 y se debe probar que S2 ⊆ S1 . En
efecto, como S1 * S2 , existe x ∈ S1 tal que x ∈
/ S2 .
Sea y ∈ S2 . Se debe probar que y ∈ S1 . Como x ∈ S1 , se tiene que
x ∈ S1 ∪ S2 . Análogamente, como y ∈ S2 , se tiene que y ∈ S1 ∪ S2 . Al
130 CAPÍTULO 8. ESPACIOS VECTORIALES

ser S1 ∪ S2 ≤ V , se tiene que x + y ∈ S1 ∪ S2 , de donde resultan dos


posibilidades: (a) x + y ∈ S1 o bien (b) x + y ∈ S2 . Si se diese el caso
(a), como S1 ≤ V , −x ∈ S1 y se tiene que y = (−x) + (x + y) ∈ S1 ,
que es la tesis. Si se diese el caso (b), como S2 ≤ V , −y ∈ S2 y se
tiene que x = (−y) + (x + y) ∈ S2 , que es una contradicción.
(⇐) Es trivial pues si S1 ⊆ S2 entonces S1 ∪ S2 = S2 , que es un
subespacio de V . Algo similar ocurre si S2 ⊆ S1 .

(38) k = 0, dimR (S0 ) = 1 y una base de S0 es {x − 1}.

(39) (⇒) La inclusión S ⊆ S es evidente pues si x ∈ S entonces x = 1x.


Para probar que S ⊆ S, sea x ∈ S. Entonces x es combinación lineal
finita de elementos de S. Como S es subespacio, x ∈ S.
(⇐) Si S = S, es evidente que S es un subespacio de V .

(40) Se deben chequear los 8 axiomas de espacio vectorial considerando


todas las variaciones posibles de ceros y unos en cada caso (por ejem-
plo, se requieren 8 cálculos para demostrar el axioma (V7 )). Una base
de Z2 es {1}.

(41) Cada apartado se prueba por doble inclusión utilizando la definición


de subespacio generado. Mientras que en la Proposición 8.7 se analiza
las operaciones elementales en relación a la independencia lineal, en
este ejercicio se analiza en relación a sistemas de generadores.

(42) Sea {v1 , . . . , vr } es un sistema (finito) de generadores de V como


C-espacio vectorial. Entonces para cualquier vector v ∈ V , existen
escalares complejos zj = aj + ibj (con aj , bj ∈ R) para j = 1, 2, . . . , r
tales que v = rj=1 zj uj = rj=1 (aj + ibj )uj = rj=1 (aj uj + ibj uj ) =
P P P
Pr Pr
j=1 aj uj + j=1 bj (iuj ). De este modo, v es combinación lineal
de {u1 , . . . , ur , iu1 , . . . , iur } con escalares reales. Por lo tanto, V es
finitamente generado como R-espacio vectorial (aunque requiere el
doble de vectores).

(43) Si (x, y) es una solución no trivial del sistema, basta expresar ma-
8.3. SOLUCIÓN DE LOS EJERCICIOS 131
ñ ô
0
tricialmente el sistema lineal según sus columnas como =
0
ñ ô ñ ô
a b
x +y , de donde se obtiene (a). Para probar (b), recordar
c d
que una matriz y su traspuesta tienen el mismo rango.

(44) Si las columnas de RA se denotan mediante r1 , r2 , r3 , r4 , de la forma


de RA se tienen las siguientes relaciones de linealidad r2 = −6r1 y
r4 = −2r1 + 3r3 . Luego, 
a2 = −6a1 y a4 = −2a1 + 3a3 con lo que
1 −6 −1 −5
A =  2 −12 0 −4  .
 

3 −18 4 6
(45) Por definición de independencia lineal.

(46) Todo vector (x, y) ∈ R2 se puede escribir como


Å ã
2 y
(x, y) = x − y (1, 0) + (2, 3) ∈ S1 + S2 .
3 3

Luego, S1 + S2 = R2 . Si (x, y) ∈ S1 ∩ S2 se prueba que (x, y) = (0, 0).


Luego, S1 ∩ S2 = {(0, 0)}. Ası́, S1 ⊕ S2 = R2 .

(47) Toda combinación lineal finita de vectores de R[x] tiene la forma


p(x) = a0 + a1 x + a2 x2 + a3 x3 + · · · + an xn . Si n es par, p(x) = (a0 +
a2 x2 +a4 x4 +· · ·+an xn )+(a1 x+a3 x3 +a5 x5 +· · ·+an−1 xn−1 ) ∈ S1 +S2 .
De forma similar se procede si n es impar. Luego, S1 + S2 = R[x]. Si
p(x) ∈ S1 ∩S2 se tiene que p(x) = a0 +a2 x2 +a4 x4 +· · ·+an xn = a1 x+
a3 x3 + a5 x5 + · · · + an−1 xn−1 (considerando que n es par y razonando
de forma similar para n impar). Luego, a0 − a1 x + a2 x2 − a3 x3 +
a4 x4 − a5 x5 + · · · − an−1 xn−1 + an xn = 0. Identificando coeficientes,
ai = 0, para todo i = 0, 1, 2, . . . , n. Ası́, p(x) = 0 y S1 ∩ S2 = {0}.
De este modo, S1 ⊕ S2 = R[x].

(48) Sean a, b, c ∈ R escalares tales que 0 = 0(x) = af (x) + bg(x) + ch(x),


para todo x ∈ [0, 1]. En particular, ambos miembros coinciden para
132 CAPÍTULO 8. ESPACIOS VECTORIALES

x = 0, x = 12 , x = 23 . Al sustituir se obtiene el sistema lineal


    
1 1 1 a 0
1 
 0 1 2  b  =  0 ,
   

0 1 13 c 0

cuya solución es a = b = c = 0. Luego {f, g, h} es linealmente


independiente en el espacio de todas las funciones reales definidas
sobre el intervalo [0, 1]. Por otro lado, k(x) = 1f (x) + 1g(x), es decir,
k ∈ {f, g}.
(49) Si fuese ex ∈ {1, x, x2 , x3 , . . . }, existirı́a una subconjunto finito

{1, x, x2 , x3 , . . . , xn } ⊆ {1, x, x2 , x3 , . . . }

tal que ex = a0 +a1 x+a2 x2 +· · ·+an xn para ciertos a0 , a1 , . . . , an ∈ R.


Es importante observar que el subconjunto finito no debe contener
necesariamente todas las potencias consecutivas desde 1 = x0 hasta
xn , pero en caso de faltar alguna de tales potencias se puede conside-
rar que el coeficiente que la acompaña en la combinación lineal es un
0. Derivando n veces ambos miembros de la ecuación anterior y par-
ticularizando, luego, en x = 0 se obtiene un sistema lineal con matriz
de coeficientes invertible. Luego, a0 = a1 = a2 = · · · = an = 0. Es
decir, ex = 0 + 0x + 0x2 + · · · + 0xn = 0, para todo x ∈ R, lo que es
una contradicción.
De manera similar se procede con las otras dos funciones.
(50) Es similar a la demostración de la Proposición 8.8 pero ahora tra-
bajando con columnas (es decir, utilizando que A ∼c B si y sólo si
existe P invertible tal que B = AP ).
(51) S1 = {(1, 0, 0), (0, 1, 0)}, S2 = {(0, 2, 0), (0, 0, 1)}. No se contradice
el apartado (c) de la Proposición 8.18 puesto que no se cumple que
S1 + S2 = S1 ⊕ S2 .
Capı́tulo 9

Coordenadas en espacios
vectoriales

Índice
9.1. TEMARIO . . . . . . . . . . . . . . . . . . . . 134
9.2. EJERCICIOS . . . . . . . . . . . . . . . . . . . 135
9.3. SOLUCIÓN A LOS EJERCICIOS . . . . . . 140

133
134 CAPÍTULO 9. COORDENADAS EN ESPACIOS VECTORIALES

9.1. TEMARIO
Los ejercicios de este capı́tulo corresponden a los temas:

Coordenadas de un vector respecto de una base


Isomorfismo de Descartes
Caracterización de espacios vectoriales isomorfos
Dimensión, coordenadas y rango
Matriz de cambio de base
Subespacios y sistemas homogéneos
Ecuaciones paramétricas y ecuaciones cartesianas de subespacios
9.2. EJERCICIOS 135

9.2. EJERCICIOS

(1) Probar que el conjunto S = {a0 + a1 x ∈ R1 [x] : a0 + 2a1 = 0}


es subespacio de R1 [x] y hallar su dimensión. Demostrar que, como
espacios vectoriales, S y R0 [x] son isomorfos.
(2) Establecer isomorfismos de espacios vectoriales sobre el cuerpo K
entre los siguientes espacios: el espacio vectorial de las matrices co-
lumnas Km×1 , el espacio cartesiano Km y espacio vectorial de las
matrices fila K1×m .
(3) Encontrar espacios isomorfos a los siguientes, indicando su dimen-
sión:
(i) Subespacio de matrices diagonales a coeficientes reales de ta-
maño n × n.
(ii) Subespacio de matrices triangulares superiores a coeficientes
reales de tamaño n × n.
(iii) Subespacio de los polinomios p a coeficientes reales de grado
menor o igual que 5 (junto al polinomio nulo) tales que p(0) =
0.
(4) Demostrar que la composición de dos isomorfismos de K-espacios
vectoriales es un isomorfismo de K-espacio vectorial.
(5) Indicar, justificando la respuesta, cuáles de los siguientes vectores
son miembros de S = {sen2 (x), cos2 (x)}, considerando a S como
subespacio del espacio de todas las funciones de R en R:
(a) 1.
(b) x + 1.
(c) cos(2x).
(d) cos(x).
Para los que lo sean, escribir sus coordenadas respecto de la base
dada de S.
136 CAPÍTULO 9. COORDENADAS EN ESPACIOS VECTORIALES

(6) Para el sistema ®


2x + y = 6
−x − 12 y = −3
comprobar que se verifica el teorema que permite expresar su solu-
ción general como suma de una solución particular del sistema no
homogéneo más la solución general del sistema homogéneo asociado.
Representar gráficamente.
(7) Resolver el siguiente sistema lineal (no homogéneo)

 x1 + 2x2
 + 5x3 + 2x4 = 3
x2 + x3 + x 4 = 3

2x1 + 5x2 + 11x3 + 5x4 = 9

y expresar su solución general como suma de una solución particular


del sistema no homogéneo más la solución general del homogéneo
asociado (es decir, esta última como una combinación lineal de ele-
mentos de una base del sistema homogéneo).
(8) Demostrar que si x0 es una solución no trivial del sistema homogéneo
Ax = 0 con A ∈ Rn×n entonces el sistema admite infinitas soluciones
no triviales. ¿Es cierto el mismo resultado si A tiene coeficientes
complejos? ¿Y si los coeficientes de A son elementos de Z2 ?
(9) Considerar el vector u = (1, 3, −2)t y las bases de R3 siguientes:

B = {b1 = (1, 0, 0)t , b2 = (1, 1, 0)t , b3 = (1, 1, 1)t }

y
B0 = {b01 = (−1, 1, 2)t , b02 = (1, 1, 0)t , b03 = (1, 1, 1)t }.
(a) Hallar las coordenadas del vector u con respecto a la base B.
(b) Calcular las coordenadas del vector u con respecto a la base B0
usando:
(i) las coordenadas del vector u en la base canónica.
(ii) las coordenadas del vector u en la base B.
9.2. EJERCICIOS 137

(10) Sean V = R2 [x] y a ∈ R un número fijo no nulo.

(a) Probar que B = {1, x + a, (x + a)2 } es una base de V .


(b) Hallar [B]C siendo C la base canónica de V .
(c) Escribir el vector p(x) = 1 + 2x + 3x2 en la base B. Realizarlo
de dos formas distintas.
(d) Para a = 0, ¿coinciden los resultados obtenidos en los apartados
anteriores?
(e) Calcular el polinomio de Taylor1 de p de grado 2 alrederor del
punto x0 = 1 y comparar con el resultado del apartado (c) para
el caso a = −1.

(11) Sea S el subespacio de R3 dado por las soluciones (x, y, z) del sistema
homogéneo x+y −z = 0. Hallar unas ecuaciones paramétricas y unas
cartesianas de S respecto de la base:

(a) canónica de R3 .
(b) B = {v1 = (1, 0, 0), v2 = (1, 1, 0), v3 = (1, 1, 1)}.

(12) Se considera el espacio vectorial R4 [x] de los polinomios a coeficien-


tes reales de grado menor o igual que 4 junto al polinomio nulo y el
subespacio S = {p(x) ∈ R4 [x] : p(x) = p(−x)}. Hallar unas ecuacio-
nes paramétricas y unas cartesianas de S:

(a) en la base C = {1, x, x2 , x3 , x4 }.


(b) en la base B = {1, x − a, (x − a)2 , (x − a)3 , (x − a)4 } para a ∈
R − {0}.

(13) Hallar unas ecuaciones paramétricas y unas implı́citas del subespacio


de R5 definido por
S = {e2 + e4 , e5 }
1
Se recuerda que el polinomio de Taylor p2 (x) de una función f (suficientemente deri-
vable) alrededor de un punto x0 viene dado por la expresión p2 (x) = f (x0 ) + f 0 (x0 )(x −
00
x0 ) + f (x2
0)
(x − x0 )2 .
138 CAPÍTULO 9. COORDENADAS EN ESPACIOS VECTORIALES

en la base canónica C = {e1 , e2 , e3 , e4 , e5 } de R5 . Repetir el ejercicio


en la base B dada por

{(1, 1, 1, 1, 1), (0, 1, 1, 1, 1), (0, 0, 1, 1, 1), (0, 0, 0, 1, 1), (0, 0, 0, 0, 1)}.

(14) En el R-espacio vectorial R5 , encontrar unas ecuaciones paramétricas


y unas ecuaciones cartesianas en la base canónica de R5 del siguiente
subespacio

U = {(1, 1, 1, 1, 1), (0, 2, 1, 0, 2), (−1, 3, 1, −1, 3)}.

(15) En el espacio

R3 [x] = {p(x) = a0 + a1 x + a2 x2 + a3 x3 : a0 , a1 , a2 , a3 ∈ R},

encontrar unas ecuaciones paramétricas del siguiente subespacio, da-


do mediante unas ecuaciones cartesianas en la base canónica por
®
a0 + 3a2 = 0
[S]C : .
a1 − 2a3 = 0

(16) En el R-espacio vectorial R4 encontrar, de tres formas diferentes,


unas ecuaciones cartesianas en la base canónica del subespacio dado
según las siguientes ecuaciones paramétricas en la base canónica



 x1 = 0

 x = λ−µ
2
[S]C : , λ, µ, γ ∈ R.


 x 3 = λ + µ − γ

 x = 2λ + γ
4

(17) En el R-espacio vectorial V de dimensión 4 se considera la base


B = {u1 , u2 , u3 , u4 } y los subespacios vectoriales

U = {u1 − 2u2 − u3 , 3u1 + u3 , 2u2 }


9.2. EJERCICIOS 139

y W de ecuaciones cartesianas
®
a1 + a3 = 0
[W ]B : .
a2 − a4 = 0

Encontrar unas ecuaciones paramétricas y unas ecuaciones cartesia-


nas de los subespacios U ∩ W y U + W en la base B.
140 CAPÍTULO 9. COORDENADAS EN ESPACIOS VECTORIALES

9.3. SOLUCIÓN A LOS EJERCICIOS


(1) p(x) ∈ S ⇔ p(x) = a1 (x − 2), con a1 ∈ R; dimR (S) = 1. Se tiene que
S∼= R0 [x] pues dimR (S) = dimR (R0 [x]) = 1.
(2) Se consideran las aplicaciones ϕ : Km×1 → Km definida por
 
a1
 .. 
 . → 7 (a1 , . . . , am )
am

y ψ : K1×m → Km definida por


î ó
a1 . . . am 7→ (a1 , . . . , am ).

Es inmediato probar que ambas aplicaciones son inyectivas, sobre-


yectivas y respetan las operaciones.
(3) (i) Rn , dimensión n.
n(n+1) n(n+1)
(ii) R 2 , dimensión 2
.
(iii) R5 , dimensión 5.
(4) Sean f : V → V 0 y g : V 0 → V 00 dos isomorfismos de espacios
vectoriales. Si u, v ∈ V cumplen (g ◦ f )(u) = (g ◦ f )(v) entonces
g(f (u)) = g(f (v)). Como g es inyectiva, f (u) = f (v). Al ser f in-
yectiva, u = v, con lo cual g ◦ f es inyectiva. Sea v 00 ∈ V 00 . Por
ser g sobreyectiva, existe v 0 ∈ V 0 tal que g(v 0 ) = v 00 . Dado que
v 0 ∈ V 0 y f es sobreyectiva, existe v ∈ V tal que f (v) = v 0 . Lue-
go, (g ◦ f )(v) = g(f (v)) = g(v 0 ) = v 00 , con lo cual g ◦ f es sobre-
yectiva. Se tiene pues que g ◦ f es biyectiva. Falta ver que g ◦ f
respeta las operaciones de los espacios vectoriales. En efecto, sean
v1 , v2 ∈ V y λ ∈ K. Usando que f y g respetan las operaciones se
tiene que (g ◦ f )(v1 + λv2 ) = g(f (v1 + λv2 )) = g(f (v1 ) + λf (v2 )) =
g(f (v1 )) + λg(f (v2 )) = (g ◦ f )(v1 ) + λ(g ◦ f )(v2 ). Luego, g ◦ f es un
isomorfismo de espacios vectoriales.
9.3. SOLUCIÓN A LOS EJERCICIOS 141
ñ ô
2 2 1
(5) (a) 1 ∈ S pues 1 = 1 sen (x) + 1 cos (x). Luego, [1]B = .
1
/ S pues si x + 1 = a sen2 (x) + b cos2 (x), para todo x ∈ R,
(b) x + 1 ∈
en particular para x = 0 se obtiene b = 1 y para x = π se obtiene
b = π + 1, que es una contradicción.
2 2
(c) cos(2x) ∈ñ S puesô cos(2x) = (−1) sen (x) + 1 cos (x). Luego,
−1
[cos(2x)]B = .
1
/ S pues si cos(x) = a sen2 (x)+b cos2 (x), para todo x ∈ R,
(d) cos(x) ∈
en particular para x = 0 se obtiene b = 1 y para x = π se obtiene
b = −1, que es una contradicción.
ñ ô ®ñ ô ñ ô ñ ô ´
3 x x 1
(6) S = + : =α , α ∈ R . Se trata de la
0 y y −2
ecuación vectorial de una recta, que pasa por el punto (3, 0), despla-
zada paralelamente a otra que pasa por el origen.
(7) El conjunto solución S se puede escribir a partir de una solución
particular p del sistema no homogéneo más la solución general Sh
del sistema
 homogéneo
 (es
 decir,
 mediante
 S = p + Sh ) donde
−3 −3 0
     
 3   −1   −1 
S=  0  + α  1  + β  0 , con α, β ∈ R.
    
     
0 0 1
(8) Si Ax0 = 0, es evidente que A(αx0 ) = αAx0 = α0 = 0, luego αx0
también es solución no trivial para todo α ∈ R − {0}. Lo mismo
ocurre en el cuerpo de los números complejos, pero no en Z2 (véase
contraejemplo en el Ejercicio (12) del Capı́tulo 4).
   
−2 1
(9) (a) [u]B =  5 . (b) [u]B0 =  6 .
   

−2 −4
(10) (a) Al ser dimR (R2 [x]) = 3, basta probar que los 3 vectores de B son
linealmente independientes. Por definición, se supone que el polino-
142 CAPÍTULO 9. COORDENADAS EN ESPACIOS VECTORIALES

mio nulo es combinación lineal de los 3 vectores dados y se particu-


lariza, por ejemplo, para x = −a, x = 0, x = −2a. Se deduce que los
coeficientes de dicha combinación son nulos.
(b) Expresando cada vector de B como combinación
 lineal
 de la base
2
1 a a
C y disponiéndolos por columnas, [B]C =  0 1 2a .
 

0 0 1
2
(c) El polinomio p(x) = 1 + 2x  + 3x en la base canónica tie-
1
ne coordenadas [p(x)]C =  2 . Luego, [p(x)]B = [C]B [p(x)]C =
 

3
 
1 − 2a + 3a2
([B]C )−1 [p(x)]C =  2 − 6a .
 

3
Otra forma: Escribiendo el polinomio como combinación lineal de los
polinomios de la base B se tiene 1 + 2x + 3x2 =(1 − 2a + 3a2 )1+
2
1 − 2a + 3a
2
(2 − 6a)(x + a) + 3(x + a) , de donde [p(x)]B =  2 − 6a .
 

3
(d) Las expresiones obtenidas también son válidas para a = 0 (pues
ambas bases coinciden), aunque no es un caso interesante.
00 (1)
(e) p2 (x) = p(1)+p0 (1)(x−1)+ p 2
(x−1)2 = 6+8(x−1)+3(x−1)2 .

 x =
 α
(11) (a) Ecuaciones paramétricas [S]C : y = β , α, β ∈ R y

z = α+β

ecuaciones cartesianas [S]C : {x + y − z = 0.

0
 x = α−β

(b) Ecuaciones paramétricas [S]B : y 0 = −α , α, β ∈ R y

 0
z = α+β
ecuaciones cartesianas [S]B : {x + 2y + z 0 = 0.
0 0
9.3. SOLUCIÓN A LOS EJERCICIOS 143


 a0 =α

 a1 =0



(12) (a) Ecuaciones paramétricas [S]C : a2 = β , α, β, γ ∈ R y ecua-

a3 =0





 a
4 =γ
®
a1 = 0
ciones cartesianas [S]C : .
a3 = 0
(b) Ecuaciones paramétricas



 α = a0 + a2 a2 + 2a4 a4

 β = 2aa2 + 4a3 a4



[S]B : γ = a2 + 6a2 a4 , a0 , a2 , a4 ∈ R

 δ =

 4aa4


π = a4

®
β − 2aγ + 8a3 π = 0
y ecuaciones cartesianas [S]B : .
δ − 4aπ = 0


 x1 = 0

 x2 = α



(13) (a) Ecuaciones paramétricas [S]C : x3 = 0 , α, β ∈ R y ecua-

 x4 = α




 x = β
5

 a1
 = 0
ciones cartesianas [S]C : a3 = 0 .

a2 − a4 = 0


0
 x1 =


0
0
 x2 = α



0 , α, β ∈ R y
(b) Ecuaciones paramétricas [S]B : x3 = −α

x04 = α




 x0 = −α + β

5
144 CAPÍTULO 9. COORDENADAS EN ESPACIOS VECTORIALES


 a1 = 0
ecuaciones cartesianas [S]B : a2 + a3 = 0 .

a2 − a4 = 0



 x1 = α − β

 x2 = α + 3β



(14) Ecuaciones paramétricas [U ]C : x3 = α + β , α, β ∈ R y ecua-

x4 = α − β





 x = α + 3β
5


 x1 − x4 = 0
ciones cartesianas [U ]C : x1 + x2 − 2x3 = 0 . Ası́, dimR (U ) = 2.

x1 − 2x3 + x5 = 0




 b0 = −3α

 b = 2β
1
(15) Ecuaciones paramétricas [S]C : , α, β ∈ R y ecuacio-


 b2 = α

 b = β
3
®
b0 + 3b2 = 0
nes cartesianas [S]C : .
b1 − 2b3 = 0
(16) Una forma es siguiendo la demostración del Teorema 9.6, otra es
eliminando parámetros y una tercera es aplicar el método de Gauss-
Jordan: x1 = 0.
(17) dimR (U ) = 3, BU = {u1 − 2u2 − u3 , 3u1 + u3 , 2u2 }, dimR (W ) =
2, BW = {u1 − u3 , u2 + u4 }. Uniendo sistemas de generadores y
eliminando superfluos, BU +W = {3u1 +u3 , 2u2 , u1 −u3 , u2 +u4 } es una
base de U + W , de donde, U + W = R4 . Por tanto, dimR (U ∩ W ) = 1
y BU ∩W = {u1 − u3 } es una base de U ∩ W . Luego, unas ecuaciones
paramétricas son



 x1 = α

 x = β
2
[U + W ]B : , α, β, γ, δ ∈ R


 x 3 = γ

 x = δ
4
9.3. SOLUCIÓN A LOS EJERCICIOS 145
   
u11 u31
   
 u12   u32 
y si [u1 ]B =   y [u3 ]B =   entonces

 u13 


 u33 

u14 u34



 x1 = α(u11 − u31 )

 x
2 = α(u12 − u32 )
[U ∩ W ]B : ,α ∈ R


 x 3 = α(u13 − u33 )
α(u14 − u34 )

 x
4 =

y unas ecuaciones cartesianas



[U + W ]B : 0x1 + 0x2 + 0x3 + 0x4 = 0

y 
 x2 (u11 − u31 ) − x1 (u12 − u32 ) = 0

[U ∩ W ]B : x3 (u11 − u31 ) − x1 (u13 − u33 ) = 0

x4 (u11 − u31 ) − x1 (u14 − u34 ) = 0

donde, al ser u1 −u3 6= 0, se ha supuesto que, por ejemplo u11 −u31 6=


0.
146 CAPÍTULO 9. COORDENADAS EN ESPACIOS VECTORIALES
Capı́tulo 10

Espacios euclı́deos

Índice
10.1. TEMARIO . . . . . . . . . . . . . . . . . . 148
10.2. EJERCICIOS . . . . . . . . . . . . . . . . . 149
10.3. SOLUCIÓN A LOS EJERCICIOS . . . . 161

147
148 CAPÍTULO 10. ESPACIOS EUCLÍDEOS

10.1. TEMARIO
Los ejercicios de este capı́tulo corresponden a los temas:
Espacios vectoriales con producto interno
Norma y distancia
Ángulo de dos vectores
Ortogonalidad
Bases ortonormales
Proceso de ortogonalización de Gram-Schmidt
Complemento ortogonal
Proyección ortogonal y mejor aproximación
Isomorfismo de espacios euclı́deos
Matriz de Gram
10.2. EJERCICIOS 149

10.2. EJERCICIOS
(1) Comprobar que en el cuerpo (Z3 , +, ·), la ecuación x2 = 2 no
tiene solución1 .
(2) Sea (E, h·, ·i) un espacio euclı́deo. Demostrar que las siguientes
condiciones son equivalentes:
(a) Condición de positividad: hu, ui > 0 para todo u ∈ E−{0}.
(b) Condición (de no negatividad): hu, ui ≥ 0 para todo u ∈ E
y la condición (de definición positiva): hu, ui = 0 si y sólo
si u = 0.
(3) Probar que si E es un espacio euclı́deo real con producto escalar
h·, ·i entonces las siguientes condiciones son equivalentes:
(a) hαu + v, wi = αhu, wi + hv, wi para todo u, v, w ∈ E y para
todo α ∈ R,
(b) hu + v, wi = hu, wi + hv, wi y hαu, vi = αhu, vi para todo
u, v, w ∈ E y α ∈ R.
Enunciar un resultado similar para la linealidad en el segundo
argumento.
(4) Probar que en un espacio euclı́deo, el vector nulo es el único
vector que tiene norma igual a 0.
(5) Sea (E, h·, ·i) un espacio euclı́deo real, n, m ∈ N, a1 , . . . , an ∈ R,
b1 , . . . , bm ∈ R y u, u1 , . . . , un ∈ E, v, v1 , . . . , vm ∈ E. Demostrar
que se cumplen las siguientes propiedades:
(a) h0, ui = 0 para todo u ∈ E utilizando que el vector nulo
es producto del escalar cero por el vector u. Comparar esta
demostración con la dada en la Proposición 10.1.
(b) h ni=1 ai ui , m
P P Pn Pm
j=1 bj vj i = i=1 j=1 ai bj hui , vj i.

(c) Si hu, wi = 0, para todo w ∈ E entonces u = 0.


1
Este ejercicio justifica que, para definir un producto escalar, es necesario considerar
K-espacios vectoriales donde los elementos del cuerpo K admitan raı́z cuadrada.
150 CAPÍTULO 10. ESPACIOS EUCLÍDEOS

(d) Si hw, vi = 0, para todo w ∈ E entonces v = 0.


(e) Si hu, wi = hv, wi, para todo w ∈ E entonces u = v.
(f) Si hw, ui = hw, vi, para todo w ∈ E entonces u = v.
(Sugerencia: en el apartado (a) utilizar el método de inducción
doble, sobre n y sobre m.)
(6) Sea E un espacio euclı́deo y {v1 , v2 , . . . , vs } ⊆ E. Probar que
si para algún i ∈ {1, 2, . . . , s}, vi es combinación lineal de los
restantes y ortogonal a todos ellos entonces vi = 0.
(7) Comprobar la validez de los axiomas (PE1)-(PE3) en el Ejemplo
10.1 utilizando las componentes de los vectores y comparar con
la resolución utilizando el producto matricial.
(8) Indicar, justificando la respuesta, si en el R-espacio vectorial
R2×2 la aplicación definida por

hA, Bi = a1 b1 + a2 b3 + a3 b2 + a4 b4 ,

siendo
ñ ô ñ ô
a1 a2 b1 b2
A= y B= ,
a3 a4 b3 b4

define un producto escalar.


ñ ô
1 −2
(9) Se considera la matriz A = . Probar que la aplica-
−2 6
ción
hx, yi = xt Ay
2
define un producto escalar en el R-espacio vectorial
ñ ô R . ¿Ocurre
1 3
lo mismo si se considera la matriz A = ? ¿Y con la
3 6
ñ ô
1 1
matriz A = ? Justificar.
2 6
(10) Comprobar que la aplicación definida en el Ejemplo 10.6 es, efec-
tivamente, un producto escalar sobre el R-espacio vectorial R3 .
10.2. EJERCICIOS 151

(11) (a) Demostrar que


  
î ó 2 1 −1 y1
hx, yi = x1 x2 x3  1 1 0   y2 
 

−1 0 2 y3

define un producto escalar en R3 siendo x = (x1 , x2 , x3 )t e


y = (y1 , y2 , y3 )t vectores de R3 .
(b) Si se cambia la matriz del apartado anterior por
 
1 0 0
 2 −3 0  ,
 

0 0 1

¿sigue siendo un producto escalar la aplicación considerada?


(c) ¿Qué producto escalar se obtiene en el primer apartado si
se cambia la matriz dada por la matriz identidad de tamaño
3 × 3?
(12) En el espacio euclı́deo R2 [x] con el producto escalar
Z 1
hp, qi = p(x)q(x)dx para p, q ∈ R2 [x]
0

calcular la norma del vector r(x) = x − 1.


(13) Sean x e y dos vectores de un espacio vectorial real con producto
interior y sea y 6= 0. Hallar el valor de a ∈ R para que x − ay sea
ortogonal a y.
(14) Los vectores x e y de un espacio euclı́deo real forman un ángulo
de π/3 radianes y la norma de x es 4. Determimar la norma de
y para que y − x sea ortogonal a x.
(15) Sea (E, h·, ·i) un espacio euclı́deo real de dimensión finita n ≥ 1
y sea B = {u1 , u2 , . . . , un } una base ortonormal de E. Para dos
152 CAPÍTULO 10. ESPACIOS EUCLÍDEOS

vectores x, y ∈ E tales que


   
x1 y1
 x2  y2
   
 
[x]B = 
 .. 
 e [y]B =  .. ,
 .  .
 
 
xn yn

probar que:
(a) su producto escalar es

hx, yi = x1 y1 + x2 y2 + · · · + xn yn = ([x]B )t [y]B .

(b) la norma de x viene dada por


»
kxk = + ([x]B )t [x]B .

Este ejercicio asegura que el producto escalar y la norma en un


espacio euclı́deo E cualquiera de dimensión finita n se calculan
como el producto escalar y la norma de Rn con el producto es-
calar canónico siempre que se utilice una base ortonormal de E
para dicho cálculo.
(16) Construir una base ortonormal de R3 con el producto escalar
canónico a partir de la base

B = {u1 = (1, 1, 0)t , u2 = (1, 2, 0)t , u3 = (0, 1, 2)t }.

(17) En el R-espacio vectorial R2 [x] se considera la aplicación definida


por
Å ã Å ã
1 1
hp, qi = p(0)q(0) + p q + p(1)q(1), p, q ∈ R2 [x].
2 2
(a) Probar que h·, ·i define un producto escalar en R2 [x] y, por
tanto, (R2 [x], h·, ·i) es un espacio euclı́deo.
(b) Hallar el complemento ortogonal de U = {x} respecto del
producto interior indicado y una base de U ⊥ .
10.2. EJERCICIOS 153

(c) Verificar que se cumple la propiedad que relaciona las di-


mensiones de los subespacios vectoriales U y U ⊥ .
(d) Calcular la proyección ortogonal de p(x) = 1 + 3x − x2 sobre
U.
(18) Sea h., .i la aplicación real

h·, ·i : R3 × R3 −→ R,

definida como sigue

(u, v) 7−→ hu, vi := u1 v1 + 2u2 v2 + 3u3 v3

siendo u = (u1 , u2 , u3 )t y v = (v1 , v2 , v3 )t vectores de R3 .


(a) Probar que h·, ·i define un producto escalar sobre R3 .
(b) ¿Cuál es la norma inducida por el producto escalar conside-
rado?
(c) ¿Cuáles son todos los vectores de R3 de norma 1? Realizar
una interpretación geométrica.
(d) Calcular el ángulo y la distancia entre los vectores u =
(1, 1, −1)t y v = (1, 1, 0)t .
(e) Hallar U ⊥ , una base y su dimensión siendo U = {u0 } para
u0 = (1, 1, −1)t .
(f) Aplicando el método de Gram-Schmidt construir una base
ortonormal para U ⊥ a partir de la base hallada en el apartado
anterior. Comprobar que los vectores hallados son ortogona-
les a u0 con respecto a este producto escalar.
(g) Expresar w = (7, 1, −1)t como suma de un vector de U y
otro de U ⊥ . ¿Es única dicha representación? Justificar.
(h) Hallar la proyección ortogonal de w = (7, 1, −1)t sobre U y
su componente ortogonal.
(i) Comprobar el teorema de Pitágoras para los vectores halla-
dos en el apartado anterior.
154 CAPÍTULO 10. ESPACIOS EUCLÍDEOS

(19) Obtener, si es posible, un conjunto ortogonal a partir de las co-


lumnas de la matriz
 
1 −1 4
 
 1 4 −2 
A= 

 1 4 2 

1 −1 0

utilizando el producto escalar canónico de R4 .


(20) En R3 con el producto escalar canónico considerar los vectores
u1 = (4, −3, 0)t y u2 = (1, 2, 0)t .
(a) Hallar un vector u3 ∈ R3 ortogonal a u1 y u2 de modo
que ||u3 || = 4 y tal que su tercera componente sea positi-
va. ¿Cuántos vectores hay en estas condiciones? Intentarlo
primero de manera intuitiva y luego analı́ticamente.
(b) A partir de la base {u1 , u2 , u3 }, hallar una base ortonormal
para R3 . ¿Podrı́an haberse determinado a priori y de manera
intuitiva las direcciones de los vectores de la base ortonormal
pedida?
(c) Expresar v = (5, 10, 15)t como combinación lineal de los vec-
tores de la base ortonormal hallada en el apartado anterior
(¡sin resolver sistemas de ecuaciones lineales!).
(21) Las funciones de Walsh son funciones ortogonales2 convenientes
para usar en sistemas digitales. Las tres primeras funciones de
Walsh se definen a continuación:
®
−β, 0 ≤ x ≤ 21
f1 (x) = α si x ∈ [0, 1]; f2 (x) =
β, 12 < x ≤ 1

2
Respecto del mismo producto escalar que se ha definido sobre las funciones continuas.
En realidad, para que sea producto escalar deberı́a definirse sobre un conjunto que escapa
el nivel de este libro y aquı́ se prescindirá de estas cuestiones técnicas.
10.2. EJERCICIOS 155

y 

 γ, 0 ≤ x ≤ 14
f3 (x) = −γ, 14 < x ≤ 34

γ, 34 < x ≤ 1

siendo α, β y γ números reales positivos.


(a) Comprobar que las funciones f1 , f2 y f3 son ortogonales sobre
el intervalo [0, 1].
(b) Determinar los valores de α, β y γ para que las funciones f1 ,
f2 y f3 sean ortonormales sobre el intervalo [0, 1].
(c) Calcular la proyección ortogonal de la función f (x) = x,
x ∈ [0, 1], sobre el subespacio generado por las funciones f1 ,
f2 y f3 .
(22) A partir de la base canónica encontrar una base ortonormal de
R2 [x] si el producto escalar está definido por

hp, qi = p(x1 )q(x1 )+p(x2 )q(x2 )+p(x3 )q(x3 ) para p, q ∈ R2 [x]

donde x1 = −1, x2 = 0 y x3 = 1. ¿A qué es igual la matriz de


Gram de este producto escalar respecto de la base encontrada?
¿Y respecto de la base B = {x + 1, x − 1, x2 }? ¿Son x + 1 y x − 1
ortogonales? Justificar.
(23) Se considera la matriz A ∈ R3×3 siguiente:
 
8 −16 24
A =  4 −8 12  .
 

1 −2 3

¿Se puede aplicar el método de Gram-Schmidt para hallar una


base ortonormal a partir de las columnas de la matriz A? ¿Por
qué? Intentarlo e indicar a qué resultado se llega.
(24) Este problema de Cálculo Diferencial será necesario para el re-
solver el próximo ejercicio. Probar que si a, b, c ∈ R con a > 0
156 CAPÍTULO 10. ESPACIOS EUCLÍDEOS

satisfacen que

ax2 + bx + c ≥ 0, para todo x ∈ R

entonces b2 − 4ac ≤ 0. (Ayuda: Encontrar el valor mı́nimo que


alcanza el polinomio en la variable x.)
(25) Proporcionar tres demostraciones alternativas de la desigual-
dad de Cauchy-Schwarz:
(a) Para la primera, sustituir el valor de λ por aquel para el cual
la expresión (10.3) alcance el mı́nimo absoluto y razonar por
qué dicho valor es el adecuado.
(b) Al definir la proyección ortogonal de un vector v sobre un
vector no nulo u, ambos de un espacio euclı́deo, se encuentra
hv,ui
que proyu v = λu siendo λ = hu,ui . Razonando geométrica-
2
mente en una gráfica de R con el producto escalar canónico,
se observa que 0 ≤ kαu − vk = d(αu, v) obtiene su valor
mı́nimo cuando se toma α = λ. Ahora, desarrollar el cálculo
de 0 ≤ kλu − vk2 para llegar a la conclusión en un espacio
euclı́deo arbitrario.
(c) Para la tercera, supóngase el caso (no trivial) en que ambos
vectores sean ¨no nulos. Ahora,
∂ la desigualdad es equivalente a
1 1
la expresión kuk u, kvk v ≤ 1. Para demostrarla, considerar
1 1
la suma y la resta de los vectores kuk u y kvk v y realizar el
producto escalar de cada uno consigo mismo.
(26) Probar que, en la desigualdad de Cauchy-Swcharz, la igualdad
se obtiene si y sólo si los vectores son linealmente dependientes.
(27) Probar que, en la desigualdad triangular, la igualdad se obtiene
si y sólo si los vectores son linealmente dependientes y un vector
se obtiene como un múltiplo no negativo del otro.
(28) Demostrar que en un espacio euclı́deo E se cumple:
(a) kx ± yk2 = kxk2 ± 2hx, yi + kyk2 , para todo x, y ∈ E.
10.2. EJERCICIOS 157

(b) k − xk = kxk, para todo x ∈ E.


(c) |kxk − kyk| ≤ kx − yk, para todo x, y ∈ E.
(29) Demostrar la ley del paralelogramo de la Proposición 10.2.
(30) Demostrar la identidad de polarización de la Proposición 10.2.
(31) Realizar una interpretación geométrica de la ley del paralelogra-
mo y de la desigualdad triangular en el espacio euclı́deo R2 con
el producto escalar canónico.
(32) Sea E un espacio euclı́deo real y α, β ∈ R dos escalares no nulos
con el mismo signo. Probar que áng(u, v) = áng(αu, βv), para
todo u, v ∈ E.
(33) Teorema del coseno: Sea E un espacio euclı́deo real y sean
u, v ∈ E dos vectores no nulos. Probar que

ku − vk2 = kuk2 + kvk2 − 2kukkvk cos(áng(u, v)).

Realizar una interpretación geométrica en R2 con el producto


escalar canónico.
(34) Estudiar en qué caso se da la igualdad en el Teorema de la mejor
aproximación. Realizar una interpretación geométrica en R3 con
el producto escalar canónico siendo el subespacio S un plano que
pasa por el origen. Considerar los casos u ∈ S y u ∈ / S.
(35) Comprobar que de la desigualdad de Cauchy-Schwarz particula-
rizada al espacio:
(a) Rn con el producto escalar canónico se obtiene

(u1 v1 + u2 v2 + · · · + un vn )2 ≤
≤ (u21 + u22 + · · · + u2n )(v12 + v22 + · · · + vn2 ).

(b) C[a, b] con el producto escalar del Ejemplo 10.3 se obtiene


ÇZ b
å2 ÇZ b
å ÇZ b
å
2 2
f (x)g(x) dx ≤ [f (x)] dx [g(x)] dx .
a a a
158 CAPÍTULO 10. ESPACIOS EUCLÍDEOS

(c) Rn×n con el producto escalar de Frobenius del Ejemplo 10.4


se obtiene
n Xn
!2 n X n
! n n !
X X XX
aij bij ≤ a2ij b2ij .
i=1 j=1 i=1 j=1 i=1 j=1

(d) R3 con el producto escalar del Ejemplo 10.6 se obtiene

(6u1 v1 − u2 v1 + u3 v1 − u1 v2 + 2u2 v2 + u1 v3 + u3 v3 )2 ≤
≤ 6u21 + 2u22 + u23 − 2u1 u2 + 2u1 u3 ·


6v12 + 2v22 + v32 − 2v1 v2 + 2v1 v3 .




(36) Comprobar que las funciones f (x) = cos(x) y g(x) = sen(x)


satisfacen el teorema de Pitágoras con el producto escalar de
la integral en el espacio de las funciones continuas definidas en
[−π, π].
(37) Teorema de Pitágonas generalizado: Sea (E, h·, ·, i) un espa-
cio euclı́deo real. Si {u1 , u2 , . . . , us } ⊆ E es un conjunto ortogonal
con s ∈ N, s ≥ 2, entonces

ku1 + u2 + · · · + us k2 = ku1 k2 + ku2 k2 + · · · + kus k2 .

(38) Probar que en todo espacio euclı́deo real es válida la implicación


recı́proca del Teorema de Pitágoras.
(39) Ley del rombo: Sea (E, h·, ·, i) un espacio euclı́deo real y sean
x, y ∈ E. Entonces

kxk = kyk ⇐⇒ hx + y, x − yi = 0.

Realizar una interpretación geométrica en el caso del espacio


euclı́deo R2 con el producto escalar canónico y {x, y} un conjunto
linealmente independiente.
(40) La norma del Ejemplo 10.10 de la página 543 se conoce como
norma 1. Hallar la expresión de la distancia inducida por la
10.2. EJERCICIOS 159

norma 1 entre dos puntos (x1 , x2 ), (y1 , y2 ) ∈ R2 . Esta distancia


recibe el nombre de métrica del taxista y fue desarrollada por
el matemático alemán Herman Minkowski (1864-1909). Partien-
do ahora de la expresión encontrada, comprobar que esta función
satisface los axiomas de distancia. Interpretar geométricamente
el significado de esta distancia en R2 calculándola entre los pun-
tos (0, 0) y (4, 4); esto permitirá ver por qué también se la conoce
como distancia Manhattan. Para ello, pintar los puntos dados
y dibujar, desde el origen, 4 unidades sobre el eje horizontal y
desde el punto obtenido, 4 unidades sobre el eje vertical hasta
llegar al punto (4, 4). Por otro lado, pintar sucesivamente escalo-
nes horizontales y verticales de una unidad cada uno para llegar
desde (0, 0) hasta (4, 4) y contar el número total de escalones.
(41) Hallar el complemento ortogonal del subespacio

S = {(1, 0, 0), (0, 1, 0)}

del espacio euclı́deo R3 con el producto escalar canónico. Luego,


calcular (S ⊥ )⊥ y comparar con S.
(42) En el espacio euclı́deo R2×2 con el producto escalar de Frobenius,
se considera el subespacio
®ñ ô ñ ô ñ ô´
1 0 1 0 1 2
S= , , .
0 1 0 0 0 0

Se pide:
(a) Hallar la dimensión del R-subespacio vectorial S.
(b) Calcular la dimensión de S ⊥ .
(c) Encontrar una base ortonormal de S y una de S ⊥ .
ñ ô ñ ô
1 2 3 2
(d) Si A = y B = , calcular proyS (A) y
3 0 0 1
proyS (B).
160 CAPÍTULO 10. ESPACIOS EUCLÍDEOS

(e) Para las matrices A y B del apartado anterior, calcular las


distancias (inducida por la norma de Frobenius) de A y de
B a sus respectivas proyecciones ortogonales sobre S y pro-
porcionar un significado geométrico para dichos resultados.
(43) En el R-espacio vectorial R7 se considera el producto escalar
canónico, el vector u = (1, 1, 1, 1, 1, 1, 1) y el subespacio
( 7
)
X
S = (x1 , x2 , x3 , x4 , x5 , x6 , x7 ) ∈ R7 : ixi = 0 .
i=1

Calcular la mejor aproximación de u en el subespacio S hallan-


do previamente proyS ⊥ (u). Observar que se ahorran numerosos
cálculos si se procede de esta forma indirecta. Generalizar este
ejercicio a Rn para n ∈ N arbitrario (Ayuda: Recordar las fórmu-
las de la suma de los n primeros números naturales y la de sus
cuadrados.)
(44) Desigualdad de Bessel: Sea (E, h·, ·, i) un espacio euclı́deo real
y sea S = {u1 , u2 , . . . , us } ⊆ E un conjunto ortogonal de vectores
no nulos. Probar que para cualquier vector u ∈ E se cumple que
s
X hu, uk i2
≤ kuk2 .
k=1
kuk k2
Deducir que kproyS (u)k ≤ kuk. Además, la igualdad se cumple
si y sólo si u ∈ S.
(Ayuda: Considerar u = proyS (u) + u‹2 con u‹2 ⊥ S. Aplicar el
Teorema de Pitágoras y luego desarrollar kproyS (u)k2 escribien-
do la proyección ortogonal como una combinación lineal de los
elementos de S mediante los coeficientes de Fourier).
(45) Sea Q ∈ Rm×n una matriz cuyas columnas son ortonormales
respecto del producto escalar canónico de Rm .
(a) Demostrar que Qt Q = In .
(b) ¿Podrı́a suceder que QQt 6= Im ? ¿Y si m = n? Justificar la
respuesta.
10.3. SOLUCIÓN A LOS EJERCICIOS 161

10.3. SOLUCIÓN A LOS EJERCICIOS


(1) 02 = 0 6= 2, 12 = 1 6= 2 y 22 = 1 6= 2.
(2) (a) ⇒ (b) Es evidente que (a) y h0, 0i = 0 implican hu, ui ≥ 0
para todo u ∈ E y, además, que hu, ui = 0 si u = 0. Falta ver
que hu, ui = 0 ⇒ u = 0. Si fuese u 6= 0, por (a), hu, ui > 0, en
contra de la hipótesis.
(b) ⇒ (a) Basta utilizar la condición de no negatividad y ob-
servar que, por la definición positiva, 0 es el único vector que
cumple hu, ui = 0.
(3) (a) ⇒ (b) Particularizar primero a α = 1 y luego a v = 0.
(b) ⇒ (a) Sigue de forma directa al aplicar las hipótesis.
Para el segundo argumento: hw, αu + vi = αhw, ui + hw, vi para
todo u, v, w ∈ E y para todo α ∈ R.
(4) Se debe probar que kuk = 0 ⇔ u = 0, que sigue directamente
de la propiedad similar para producto escalar y de la definición
de norma.
(5) (a) Sea u ∈ E. Dado que ~0 = 0~u se tiene que h~0, ~ui = h0~u, ~ui =
0h~u, ~ui = 0.
(b) Se comienza por inducción sobre n. Si n = 1, se cumple
* 1 m
+ * m
+
X X X
ai ui , bj vj = a1 u1 , bj v j
i=1 j=1 j=1
* m
+
X
= a1 u1 , bj vj . (10.1)
j=1

Para llegar al resultado buscado, que es


* 1 m
+ 1 Xm
X X X
ai u i , bj vj = ai bj hui , vj i, (10.2)
i=1 j=1 i=1 j=1

se debe realizar ahora inducción sobre m (es decir, operar en el


segundo argumento, manteniendo fijo el valor de n = 1). Para
162 CAPÍTULO 10. ESPACIOS EUCLÍDEOS

ello, si m = 1,
* 1
+
X
a1 u1 , bj vj = a1 hu1 , b1 v1 i
j=1
= a1 b1 hu1 , v1 i
X1 X 1
= ai bj hui , vj i.
i=1 j=1

Luego, de esta última igualdad y por (10.1) queda probado (10.2)


para el caso m = 1 (dentro del caso n = 1).
Sea m > 1 y suponer que la igualdad vale para m − 1. Se debe
probar que vale para m. En efecto,
* m
+
X
a1 u1 , bj vj =
j=1
* m−1
+
X
= a1 u1 , bj vj + bm vm
j=1
"* m−1
+ #
X
= a1 u1 , bj vj + hu1 , bm vm i
j=1
* m−1
+
X
= a1 u1 , bj vj + a1 hu1 , bm vm i
j=1
m−1
X
= a1 bj hu1 , vj i + a1 bm hu1 , vm i
j=1
m−1
X
= a1 bj hu1 , vj i + a1 bm hu1 , vm i
j=1
Xm
= a1 bj hu1 , vj i
j=1
1 X
X m
= ai bj hu1 , vj i .
i=1 j=1
10.3. SOLUCIÓN A LOS EJERCICIOS 163

Queda ası́ probado completamente el caso n = 1, estableciendo


(10.2) para todo m ∈ N.
Sea ahora n > 1. Se debe suponer que la igualdad vale para n−1
y probar que vale para n. En efecto, para todo m ∈ N (fijo pero
arbitrario) se tiene que

* n m
+
X X
ai u i , bj vj =
i=1 j=1
* n−1 m
+
X X
= ai u i + an u n , bj vj
i=1 j=1
* n−1 m
+ * m
+
X X X
= ai u i , bj v j + an u n , bj vj
i=1 j=1 j=1
n−1
* m
+ * m
+
X X X
= ai ui , bj vj + an un , bj vj
i=1 j=1 j=1
n
* m
+
X X
= ai ui , bj vj . (10.3)
i=1 j=1

Teniendo en cuenta (10.1), la igualdad (10.3) se ha probado para


todo n ∈ N y para todo m ∈ N. Ahora se debe proceder por
inducción sobre m operando en el segundo argumento. Si m = 1,

n
* 1
+ n
X X X
ai ui , bj vj = ai hui , b1 v1 i
i=1 j=1 i=1
Xn
= ai b1 hui , v1 i
i=1
Xn X1
= ai bj hui , vj i .
i=1 j=1

Sea m > 1 y suponer que la igualdad vale para m − 1. Se debe


164 CAPÍTULO 10. ESPACIOS EUCLÍDEOS

probar que vale para m. En efecto, por (10.3),


* n m
+
X X
ai ui , bj v j =
i=1 j=1
n
* m
+
X X
= ai ui , bj vj
i=1 j=1
n
* m−1
+
X X
= ai ui , bj v j + bm v m
i=1 j=1
n
"* m−1
+ #
X X
= ai ui , bj vj + hui , bm vm i
i=1 j=1
n
"m−1 #
X X
= ai bj hui , vj i + bm hui , vm i
i=1 j=1
n
X m−1
X n
X
= ai bj hui , vj i + ai bm hui , vm i
i=1 j=1 i=1
n m−1
X X n X
X m
= ai bj hui , vj i + ai bj hui , vj i
i=1 j=1 i=1 j=m
n X
X m
= ai bj hui , vj i .
i=1 j=1

(c) y (d) Particularizar a w = u y w = v, respectivamente.


(e) De la hipótesis y propiedades del producto escalar se tiene
hu − v, wi = 0, para todo w ∈ E. Ahora aplicar (b).
(f) Similar al anterior.
(6) hvi , vi i = hvi , sj=1,j6=i aj vj i = sj=1,j6=i aj hvi , vj i = 0.
P P

(7) Similar al Ejemplo 10.2.


(8) No. A pesar de cumplir los axiomas (PE1)-(PE3)
ñ ô no cumple
0 1
el axioma (PE4). Contraejemplo: A = cumple que
−1 0
ñ ô
1 1
hA, Ai = −2  0. Ademas, B = cumple que hB, Bi =
−1 1
10.3. SOLUCIÓN A LOS EJERCICIOS 165

0 pero B 6= O.
(9) Para la primera matriz se prueba de forma similar al Ejemplo
10.2. Para la segunda se cumplen los axiomas (PE1)-(PE3) pero
no se cumple (PE4). Contraejemplo: hx, xi = − 21  0 para x =
ñ ô ñ ô
1 0
6
= . Para la tercera matriz tampoco se cumple.
− 12 0
ñ ô
1
Contraejemplo: hx, yi = 4 6= 6 = hy, xi para x = , y =
1
ñ ô
−1
.
1
(10) Los 3 primeros axiomas se prueban fácilmente mediante no-
tación matricial. Para el axioma (PE4), completando cuadra-
dos, se tiene que hu, ui = 6u21 − 2u1 u2 + 2u1 u3 + 2u22 
+ u23 =
u1
1 1
2 11 1
2 9 2
6 u1 − 6 u2 + 6 u3 + 6 u2 + 11 u3 + 11 u3 para u =  u2 ,
 

u3
de donde se tiene el resultado de forma sencilla.
(11) (a) Similar al ejercicio previo, con hx, xi = 2x21 + 2x1 x2+ x22 +
x1
2 1 1
2 1 2 2
2x3 = 2 x1 + 2 u2 − 2 x3 + 2 (x2 + x3 ) + x3 para x =  x2 .
 

x3
(b) La matriz dada no es simétrica.
(c) Se obtiene el producto escalar canónico.
(12) kx − 1k = √1 .
3
hx,yi
(13) a = hy,yi
.
(14) kyk = 8.
(15) (a) Como x = x1 u1 + x2 u2 + · · · + xn un e y = y1 u1 + y2 u2 +
· · ·+yn un , aplicando propiedades del producto escalar se obtiene
hx, yi = hx1 u1 + x2 u2 + · · · + xn un , y1 u1 + y2 u2 + · · · + yn un i =
x1 y1 + x2 y2 + · · · + xn yn = ([x]B )t [y]B . (b) Particularizando (a)
al caso y = x se obtiene la norma.
166 CAPÍTULO 10. ESPACIOS EUCLÍDEOS
¶ √ √ √ √ ©
(16) ( 22 , 22 , 0)t , (− 22 , 22 , 0)t , (0, 0, 1)t .
(17) (a) Se debe utilizar la definición de suma de dos funciones y
de producto de un escalar por una función. Observar que si un
polinomio de grado 2 tiene 3 raı́ces reales entonces debe ser el
polinomio nulo.
(b) Si q(x) = x se deben calcular los polinomios p(x) = ax2 +
bx + c ∈ R2 [x] tales que hp, qi = 0. Se obtiene 9a + 10b + 12c = 0
y una base de U ⊥ es x − 10 x2 , 1 − 43 x2 .

9
(c) dimR (U ) + dimR (U ⊥ ) = 1 + 2 = 3 = dimR (R2 [x]).
hp,xi
(d) proyU (p) = hx,xi x = 33
10
x.
(18) (a) Es un producto escalar de la forma
  
î ó 1 0 0 v 1
hu, vi = u1 u2 u3  0 2 0   v2  .
 

0 0 3 v3
p
(b) kuk = u21 + 2u22 + 3u23 .
(c) u21 + 2u22 + 3u23 = 1, que corresponden al lugar geométrico
de todos los puntos del espacio tridimensional que determina el
u2 u2
elipsoide de ecuación u21 + 1/22 + 1/33 = 1.

(d) áng(u, v) = π4 y d(u, v) = 3.
(e) ¶BU ⊥ = {(−2, 1, 0), (3, 0, 1)} ⊥
© y dimR (U ) = 2.
(f) √16 (−2, 1, 0)t , √16 (1, 1, 1)t .
(g) w = (2, 2, −2)t +(5, −1, 1)t ∈ U +U ⊥ , es única pues U ⊕U ⊥ =
R3 .
(h) (2, 2, −2)t , (5, −1, 1)t .
(i) k(7, 1, −1)t k2 = 54, k(2, 2, −2)t k2 + k(5, −1, 1)t k2 = 24 + 30.
(19) (1, 1, 1, 1)t , (− 52 , 52 , 52 , − 25 )t , (2, −2, 2, −2)t .


(20) (a) u3 = (0, 0, 4)t .


(b) b1 = ( 45 , − 35 , 0)t , b2 = ( 35 , 45 , 0)t , b3 = (0, 0, 1)t . Por la forma


del primer y tercer vectores se puede deducir la del segundo,


cambiando el orden de las coordenadas y un signo.
10.3. SOLUCIÓN A LOS EJERCICIOS 167

(c) Usando coeficientes de Fourier generalizados, v = −2b1 +


11b2 + 15b3 .
(21) (a) Probar que las integrales en [0, 1] del producto de cada par de
funciones distintas es 0, es decir, hf1 , f2 i = hf1 , f3 i = hf2 , f3 i = 0.
(b) α = β = γ = 1.
(c) Si S = {f1 , f2 , f3 }, se tiene proyS (f ) = 21 f1 + 41 f2 .
¶ » ©
(22) B0 = √13 , √13 x, 32 x2 − 23 , GB0 = I3 ,
 
5 −1 2
GB =  1 5 −2  ,
 

2 −2 2

hx+1, x−1i = −4 6= 0, por tanto x+1 y x−1 no son ortogonales.


(23) No, pues son linealmente dependientes. Al aplicar el método se
llega a un vector nulo.
(24) Como p(x) = ax2 + bx + c ≥ 0, para todo x ∈ R, en particular,
p(x0 ) ≥ 0 para el número x0 tal que p(x0 ) es el mı́nimo absoluto
de p en todo R. Al derivar e igualar a 0 se obtiene el punto crı́tico
x0 = − 2a b
. Puesto que p00 (x0 ) = 2a > 0, se trata de un mı́nimo
b
(en este caso, absoluto). Al sustituir dicho valor, 0 ≤ p(− 2a )=
4ac−b2 2
4a
. Al ser a > 0 se tiene que b − 4ac ≤ 0.
(25) (a) Al demostrar dicha desigualdad se ha obtenido 0 ≤ ku +
λvk = hu, ui + 2λhu, vi + λ2 hv, vi. Se ha encontrado un polino-
mio de segundo grado (pues hv, vi = 6 0 ya que v 6= 0) que es no
negativo para todo λ ∈ R. En particular, lo será para el valor
mı́nimo que tome dicha función, que se ha calculado Ä hu,vien
ä el ejer-
hu,vi
cicio previo; λ = − hv,vi . Luego, 0 ≤ hu, ui + 2 − hv,vi hu, vi +
Ä hu,vi ä2 2 2 2
− hv,vi hv, vi = kuk2 − 2 (hu,vi)
kvk2
+ (hu,vi)
kvk4
kvk2 = kuk2 − (hu,vi)
kvk2
.
Despejando se obtiene el resultado.
(b) Siguiendo el razonamiento del enunciado, al sustituir en 0 ≤
kλu − vk2 = hλu − v, λu − vi = λ2 hu, ui − 2λhu, vi + hv, vi el
168 CAPÍTULO 10. ESPACIOS EUCLÍDEOS

valor λ = − hu,vi
hv,vi
se tiene el resultado de forma similar al apartado
anterior. ¨ ∂
1 1
(c) Si u 6= 0 6= v se debe probar que kuk u, kvk v ≤ 1. En efecto,
¨ ∂ Ä ä2
1 1 1 1 1 1 1
0 ≤ kuk u + kvk v, kuk u + kvk v = kuk hu, ui + 2 kuk kvk
hu, vi +
Ä ä2
1 1 1
kvk
hv, vi = 2+2 kuk kvk
hu, vi. Despejando se llega a −kukkvk ≤
¨ ∂
1 1 1 1
hu, vi. De forma semejante, 0 ≤ kuk u − kvk v, kuk u − kvk v =
1 1
2 − 2 kuk kvk
hu, vi. Despejando se llega a hu, vi ≤ kukkvk. Am-
bas desigualdades proporcionan |hu, vi| ≤ kukkvk. Para u = 0 ó
v = 0 la desigualdad es evidente.

(26) Al revisar la demostración de la desigualdad de Cauchy-Schwarz


se observa que, en definitiva, la única desigualdad surge de la
expresión (10.3) de la página 538, a saber, 0 ≤ ku + λvk. Luego,
la igualdad en dicha desigualdad se obtiene ⇔ 0 = ku + λvk ⇔
0 = u + λv ⇔ {u, v} es linealmente dependiente (si u = 0, es
evidente, y si u 6= 0, el coeficiente que lo acompaña en 0 = u+λv
es 1 6= 0).

(27) Es claro que si u = 0 ó v = 0, se cumple la igualdad en la


desigualdad triangular. Sean, pues, u 6= 0 6= v. Al revisar la
demostración de la desigualdad triangular se observa que hay
dos desigualdades en la expresión (10.4) de la página 539: una
es hu, vi ≤ |hu, vi| y la otra se obtiene al aplicar la desigualdad
de Cauchy- Schwarz. En la segunda, la igualdad se da si y sólo
si {u, v} son linealmente dependientes (por el ejercicio previo);
luego, al ser u 6= 0 6= v, existe un escalar no nulo λ ∈ R tal que
u = λv. Falta probar que hu, vi = |hu, vi| ⇔ λ ≥ 0. En efecto,
hu, vi = |hu, vi| ⇔ hu, λui = |hu, λui| ⇔ λhu, ui = |λhu, ui|
⇔ λhu, ui = |λ||hu, ui| (por ser hu, ui > 0 ya que u 6= 0) ⇔
λ = |λ| ⇔ λ ≥ 0. Luego, la igualdad en la desigualdad triangular
se obtiene ⇔ {u, v} son linealmente dependientes y uno de los
vectores es un múltiplo no negativo del otro.
10.3. SOLUCIÓN A LOS EJERCICIOS 169

(28) (a) y (b) se prueban inmediatamente utilizando que kuk2 =


hu, ui y propiedades del producto escalar. (c) Basta aplicar la
desigualdad triangular a x = (x − y) + y e y = (y − x) + x y
propiedades de la norma y del valor absoluto.
(29) Se prueba inmediatamente utilizando que kuk2 = hu, ui y propie-
dades del producto escalar (o bien a partir del ejercicio anterior).
(30) Se prueba inmediatamente utilizando que kuk2 = hu, ui y pro-
piedades del producto escalar.
(31) La ley del paralelogramo asegura que la suma de los cuadrados
de las longitudes de las diagonales de un paralelogramo coincide
con la suma de los cuadrados de las longitudes de cada uno de
los lados de dicho paralelogramo.
La desigualdad triangular asegura que, en un triángulo, la lon-
gitud de la hipotenusa es menor o igual que la suma de las lon-
gitudes de los catetos.
(32) Sigue de calcular el coseno de dichos ángulos.
(33) Sigue inmediatamente de desarrollar ku − vk2 y de la definición
de ángulo. El cuadrado de un lado cualquiera de un triángulo es
igual a la suma de los cuadrados de los dos lados restantes menos
el doble producto de ellos por el coseno del ángulo que forman.
(34) Al revisar la demostración del Teorema de la mejor aproximación
se observa que aparece una única desigualdad. Luego, la igualdad
se obtiene si y sólo si kproyS (u)−vk = 0 si y sólo si v = proyS (u).
(35) Son inmediatas, basta calcular los productos escalares y las nor-
mas involucradas.
(36) hf, gi = 0, kf k2 = π = kgk2 y kf + gk2 = 2π.
(37) Por inducción sobre s, aplicando el Teorema de Pitágoras y ob-
servando que us es ortogonal a u1 + · · · + us−1 .
(38) Se prueba inmediatamente utilizando que kuk2 = hu, ui y pro-
piedades del producto escalar.
170 CAPÍTULO 10. ESPACIOS EUCLÍDEOS

(39) Se prueba inmediatamente utilizando que kuk2 = hu, ui y pro-


piedades del producto escalar. Las diagonales x + y y x − y del
paralelogramo determinado por los vectores x e y son ortogona-
les si y sólo si x e y tienen el mismo módulo, es decir, cuando
determinan un rombo.
(40) d((x1 , x2 ), (y1 , y2 )) = |x1 − x2 | + |y1 − y2 |. Los axiomas de la defi-
nición de distancia se comprueban inmediatamente a partir de las
correspondientes propiedades del valor absoluto, d((0, 0), (4, 4)) =
8.
(41) S ⊥ = {(x, y, z) ∈ R3 : x = y = 0} = {(0, 0, z) : z ∈ R},
(S ⊥ )⊥ = {(u, v, w) ∈ R3 : w = 0} = S.
(42) (a) dimR (S) = 3, (b) dimR (S ⊥ ) = 1, (c)
® ñ ô ñ ô ñ ô´
1 1 0 1 1 0 0 1
BS = √ ,√ , ,
2 0 1 2 0 −1 0 0
®ñ ô´ ñ ô
0 0 1 2
BS⊥ = , (d) proyS (A) = , proyS (B) = B.
1 0 0 0
(e) Se tiene que kproyS (A) − AkF = 3 6= 0 y kproyS (B) − BkF =
0. Luego, A ∈ / S y B ∈ S.
(43) dimR (S) = 6 y b = (1, 2, 3, 4, 5, 6, 7) ∈ S ⊥ . Luego, S ⊥ = {b}.
Además, proyS ⊥ (u) = 15 (1, 2, 3, 4, 5, 6, 7). La proyección de u so-
bre S es proyS (u) = 15 (4, 3, 2, 1, 0, −1, −2).
(44) Sea p := proyS (u). Entonces u = p + (u − p) con p ∈ S y u − p ∈
S ⊥ . Por el Teorema de Pitágoras, kuk2 = kpk2 +ku−pk2 ≥ kpk2 ,
de donde kuk ≥ kpk. Para obtener el resultado basta aplicar el
Teorema de Pitágoras generalizado para calcular kpk escribien-
do previamente a p como combinación lineal de los vectores del
subespacio {S} mediante los coeficientes generalizados de Fou-
rier. La igualdad se tiene si y sólo si u − p = 0 si y sólo si u = p
si y sólo si u ∈ {S}.
î ó
(45) (a) Sea Q = q1 . . . qn particionada según sus columnas
10.3. SOLUCIÓN A LOS EJERCICIOS 171

q1 , . . . , qn . Multiplicando por bloques y utilizando que qit qj =


hqi , qj i = δij se tiene que QtQ = In .
1 0
(b) Si puede ocurrir: Q =  0 1 . Sin embargo, si m = n y
 

0 0
Qt Q = In , se tiene que Q es invertible y Q−1 = Qt con lo cual
QQt = Qt Q = In .
172 CAPÍTULO 10. ESPACIOS EUCLÍDEOS
Capı́tulo 11

Subespacios asociados a una


matriz

Índice
11.1. TEMARIO . . . . . . . . . . . . . . . . . . 174
11.2. EJERCICIOS . . . . . . . . . . . . . . . . . 175
11.3. SOLUCIÓN A LOS EJERCICIOS . . . . 179

173
174 CAPÍTULO 11. SUBESPACIOS ASOCIADOS A UNA MATRIZ

11.1. TEMARIO
Los ejercicios asociados a este capı́tulo corresponden a los temas:
Los cuatro subespacios fundamentales
Propiedades de los subespacios fundamentales
Dimensión de los subespacios fundamentales
Teorema fundamental del rango
Relación con la equivalencia de matrices
Bases de los subespacios fundamentales
Teorema fundamental del Álgebra Lineal
Método de los mı́nimos cuadrados
Existencia y unicidad de la inversa de Moore-Penrose
11.2. EJERCICIOS 175

11.2. EJERCICIOS
(1) Si A ∈ K2×3 y B ∈ K3×2 , utilizando los elementos de las matrices
probar que C(AB) ⊆ C(A) y F(AB) ⊆ F(B).
(2) Sean A, B ∈ Km×n . Analizar la validez de la siguiente afirmación:
“A ∼ B si y sólo si F(A) = F(B) y C(A) = C(B).”
(3) Demostrar el apartado (b) del Lema 11.1 a partir del apartado
(a) por doble inclusión. (Ayuda: Si y ∈ C(A), ¿dónde está y t ?)
(4) Para la matriz A ∈ Rm×n se considera el conjunto:

N(A) = {x ∈ Rn : Ax = 0},

de todas las soluciones del sistema homogéneo Ax = 0, llamado


el espacio nulo de la matriz A.
(a) Demostrar que N(A) es un subespacio vectorial de Rn .
En los apartados subsiguientes se considerará la matriz
ñ ô
1 1 1 0
A= .
2 1 0 1

(b) Hallar una base B y la dimensión de N(A).


(c) Hallar un sistema de generadores de N(A) que no formen una
base de N(A) y, por otro lado, hallar un conjunto linealmente
independiente de vectores de N(A) que no formen una base
de N(A).
(d) ¿Son vectores linealmente independientes en R4 las filas de
la matriz A? Justificar.
(e) Encontrar el subespacio vectorial de R4 generado por las filas
de la matriz A. ¿Generan las filas de la matriz A todo R4 ?
Justificar.
(f) Usando la base hallada en el apartado (b), responder:
(i) ¿Es el vector u = (0, −1, 1, 2)t un elemento de N(A)?
176 CAPÍTULO 11. SUBESPACIOS ASOCIADOS A UNA MATRIZ

(ii) ¿Y el vector v = (−1, 0, 1, 2)t ?


(iii) Sabiendo que zp = (0, 1, 0, 0)t es una solución particular
ñ ô
1
del sistema lineal Az = , escribir su solución general.
1
(iv) Hallar el único vector y ∈ R(At ) que resuelve (es decir,
es solución particular) el sistema del apartado anterior y
escribir su solución general.
(5) Sea A ∈ Km×n una matriz no nula con rango fila f y rango co-
lumna c (definidos como las dimensiones de los correspondientes
subespacios fundamentales). Demostrar que:
(a) Existe una matriz B ∈ Km×c y una matriz C ∈ Kc×n tal que
A = BC.
(b) Existe una matriz M ∈ Km×f y una matriz N ∈ Kf ×n tal
que A = M N .
(c) dim(F(A)) ≤ dim(F(C)) ≤ c y dim(C(A)) ≤ dim(C(M )) ≤
f.
Deducir que f = c.
(6) Utilizar la Proposición 2.8 para probar que las columnas de una
matriz (cuadrada) invertible a coeficientes en K forman una base
del espacio columna de dicha matriz.
(7) Sean A ∈ Rm×n y b ∈ Rm×1 . Demostrar el Teorema de Rouché-
Frobenius:

Ax = b tiene solución ⇔ rg([ A b ]) = rg([ A ])

utilizando el espacio columna de A, teorı́a de espacios vectoriales


y el teorema fundamental del rango.
(8) Sea A ∈ Rm×n . Demostrar que:
(a) N(At A) = N(A).
(b) N(AAt ) = N(At ).
(c) rg(At A) = rg(A).
11.2. EJERCICIOS 177

(d) rg(AAt ) = rg(At ).


(e) R(At A) = R(At ).
(f) R(AAt ) = R(A).
(g) Si se denota por c1 , c2 , . . . , cn las columnas de la matriz A,
utilizando la notación de la Proposición 10.12 probar que
At A = G(c1 , c2 , . . . , cn ), la matriz de Gram formada con los
productos escalares de las columnas c1 , c2 , . . . , cn .
(9) Resolver el sistema de ecuaciones lineales Ax = b siendo
 
ñ ô x ñ ô
1 0 0   0
 y = .
1 1 0 3
z

Para ello se pide:


(a) Hallar un vector solución particular p de Ax = b con tercera
componente no nula y encontrar S = p + N(A).
(b) Hallar el único vector α ∈ [N(A)]⊥ tal que Aα = b y encon-
trar S = α + N(A).
(c) Comparar ambas soluciones eligiendo una solución arbitraria
de S y expresarla según cada uno de los conjuntos de los
apartados anteriores.
(d) Calcular los restantes subespacios fundamentales y sus di-
mensiones.
(e) Realizar una interpretación geométrica en R3 y R2 situando
los subespacios N(A), N(At ), R(A) y R(At ).
(10) Probar que las soluciones de un sistema lineal compatible coin-
ciden con sus soluciones de mı́nimos cuadrados.
(11) Sea O 6= A ∈ Rm×n . Si A = QP es una factorización de rango
completo de A, probar que N(A) = N(P ).
(12) Encontrar la recta de ecuación y = ax + b que mejor aproxima a
los puntos (0, 0), (1, 1) y (2, 3) en el sentido de los mı́nimos cua-
178 CAPÍTULO 11. SUBESPACIOS ASOCIADOS A UNA MATRIZ

drados. Representar gráficamente los puntos y la recta obtenida.


En Estadı́stica se conoce como la recta de regresión.
(13) Encontrar las soluciones de mı́nimos cuadrados de los siguien-
tes sistemas Ax = b. Analizar, en cada caso, si es única o no.
Hallar la solución de mı́nimos cuadrados de norma mı́nima para
cada uno de ellos (procediendo mediante un método geométrico,
mediante uno algebraico (las ecuaciones normales) y a partir de
una factorización de rango completo.
   
2 1 1
(a) A =  2 2 , b =  1 .
   

0 0 1
   
1 0 2 1
(b) A =  0 1 2 , b =  1 .
   

0 0 0 2
   
1 0 2 3
(c) A =  0 1 2 , b =  1 .
   

0 0 0 0
11.3. SOLUCIÓN A LOS EJERCICIOS 179

11.3. SOLUCIÓN A LOS EJERCICIOS

(1) Al calcular el producto AB se obtiene una matriz de tamaño


2 × 2. Ahora cada columna se puede escribir como combinación
lineal de las columnas de A. De este modo, todo elemento de
C(AB) resultará ser un elemento de C(A). De forma similar se
procede con las filas de AB. En este caso, cada combinación
lineal de las filas de AB resultará ser una combinación lineal de
las filas de B.

(2) La afirmación es falsa. Al tratarse de un si y sólo si, con que


una implicación sea falsa, la afirmación lo será. Este es el caso.
Se cumple que (⇐) es verdadera (pues con que se cumpla una
de las dos condiciones F(A) = F(B) o bien C(A) = C(B) se
tiene que A ∼f B o bien A ∼c B, con lo cual A ∼ B). Sin
embargo, (⇒) es falsa como se ñ puede comprobar
ô ñmediante ôel
1 0 0 1 0 0
siguiente contraejemplo: A = y B = ,
0 0 1 0 1 0
donde A ∼c B (es decir, se cumple C(A) = C(B)) pero A f B
(con lo cual F(A) 6= F(B)).

(3) y ∈ C(A) ⇔ y t ∈ F(At ) ⇔ y t = xt At para algún xt ∈ K1×n


⇔ y t = (Ax)t para algún xt ∈ K1×n ⇔ y = Ax para algún
x ∈ Kn×1 .

(4) (a) Es inmediato comprobar las 3 condiciones que caracterizan


un subespacio
 vectorial.
   


 1 −1 


     
  −2   1 
(b) BN(A) = b1 =   1  , b1 =  0  y dimR (N(A)) = 2.
  

    

 

 0 1 
180 CAPÍTULO 11. SUBESPACIOS ASOCIADOS A UNA MATRIZ

(c) Un sistema de generadores que no es base:


     


 1 −1 0 


 −2   1   −1 
     

 , ,  .
  1   0   1 

      

 
 0 1 1 
 
1
 
 −2 
Un conjunto linealmente independiente que no es base:   .
 1 

0
(d) Si, por ser vectores no nulos y no ser uno múltiplo del otro.
(e) F(A) = {(a + 2b, a + b, a, b) : a, b ∈ R} =
6 R4 .
(f) (I) No pues al plantear la combinación lineal pedida se obtiene
un sistema lineal incompatible, (II) Si, v = 1b1 + 2b2 , (III) S =
zp + N(A) = zp + λb1 + µb2 , λ, µ ∈ R, (IV) y debe satisfacer
ñ ô
1
Ay = , con y combinación lineal de las columnas de At , es
1
decir,  
α + 2β
ñ ô ñ ô 
1 1 1 1 0  α+β 
=  .
1 2 1 0 1   α 

β
 
1
3

 1 

1 3
Resolviendo, α = 3 , β = 0, con lo cual y = 
 1
.

 3 
0
(5) (a) Sean f = rgf (A) y c = rgc (A). Se considera la matriz B
construida mediante unas columnas {b1 , ..., bc } que formen una
base del espacio C(A). Escribiendo cada vector de C(A) como
combinación lineal de las columnas bi anteriores y expresando el
resultado como un producto de matrices se consigue A = BC pa-
11.3. SOLUCIÓN A LOS EJERCICIOS 181

ra cierta matriz C (que contiene los escalares de la combinación


lineal).
(b) Dada A, aplicando a At el apartado (a) y trasponiendo se
obtiene el resultado pedido.
(c) Usando que F(BC) ⊆ F(C) y C(M N ) ⊆ C(M ) se tie-
ne que dimR (F(A)) ≤ dimR (F(C)) ≤ c pues C tiene c filas.
De forma similar, dimR (C(M )) ≤ f pues M tiene f colum-
nas. Luego, f = c pues f = rgf (A) = dimR (F(A)) ≤ c y
c = rgc (A) = dimR (C(A)) ≤ f .
î ó
(6) Las columnas de una matriz A = a1 · · · an ∈ Km×n de-
terminan un sistema generador de C(A) pues, por el Lema 11.1
y por la Proposición 2.8, C(A) = {Ax : x ∈ Kn×1 } = {x1 a1 +
· · · + xn an : x1 , . . . , xn ∈ K} = {a1 , . . . , an }. Además, dichas
columnas forman un conjunto linealmente independiente pues si
 
y1
 . 
0 = y1 a1 + · · · + yn an = A  .. , y por ser A invertible se tiene
yn
 
y1
 .. 
 .  = 0.
yn
(7) Sean A ∈ Rm×n y b ∈ Rm×1 . Por el Lema 11.1, existe x ∈
Rn×1 tal que Ax = b ⇔ b ∈ R(A) = C(A) ⇔ b es combina-
ción lineal de las Äî columnas a1 , . . . , aóä ⇔ {a1 , . . . , an ,óä
n de AÄî b} =
{a1 , . . . , an } ⇔ R a · · · an b =R a · · · an ⇔
Äî óä1 Äî óä 1
rg a1 · · · an b = rg a1 · · · an ⇔
rg([ A b ]) = rg([ A ]).
La penúltima equivalencia es cierta pues: (⇒) Si dos subespa-
cios vectoriales coinciden entonces lo mismo ocurre con sus di-
mensiones. (⇐) Si se cumple la última igualdad de rangos, la
igualdad de los correspondientes espacios columna
Äî sigue del
óähe-
cho que siempre se cumple la inclusión R a1 · · · an ⊆
182 CAPÍTULO 11. SUBESPACIOS ASOCIADOS A UNA MATRIZ
Äî óä
R a1 · · · an b y, al ser dos subespacios con la misma
dimensión, deben ser iguales.

(8) (a) (⊇) x ∈ N(A) ⇒ Ax = 0 ⇒ At Ax = 0 ⇒ x ∈ N(At A).


(⊆) x ∈ N(At A) ⇒ At Ax = 0 ⇒ xt At Ax = 0 ⇒ (Ax)t (Ax) = 0
⇒ hAx, Axi = 0 (donde el producto escalar es el canónico de
Rm×1 ) ⇒ Ax = 0 ⇒ x ∈ N(A).
(b) Aplicar (a) a la matriz At (en lugar de la matriz A).
(c) A partir de la dimensión de los subespacios fundamentales,
dimR (N(A)) + rg(A) = n, de donde rg(A) = n − dimR (N(A)).
Del mismo modo, para la matriz At A se tiene rg(At A) = n −
dimR (N(At A)) puesto que At A ∈ Rn×n . Tomando dimensiones
en (a) y sustituyendo se tiene el resultado.
(d) Aplicar (c) a la matriz At (en lugar de la matriz A).
(e) Se conoce que siempre se cumple la inclusión R(At A) ⊆
R(At ). Su igualdad sigue del hecho que ambos espacios tienen
la misma dimensión, lo que se deduce de (c) y recordando que A
y At tienen el mismo rango.
(f) Aplicar (e) a la matriz At (en lugar de la matriz A).
(g) Basta multiplicar matrices por bloques y recordar que el pro-
ducto escalar canónico de Rn×1 es hx, yi = xt y.
ñ ô ñ ô
0 0
(9) (a) Se observa que =3 , es decir, el vector de térmi-
3 1
nos independientes es múltiplo de la segunda columna de A
y, además, la tercera columna de A no produce restricciones,
      
0  0
 
  0 
 
p =  3 , N(A) =  0 :z∈R =  0  , S =
     
   
1 z 1
   
  

 0 

 3 :α∈R .
 
 
1+α
 
11.3. SOLUCIÓN A LOS EJERCICIOS 183
 
a
(b) Los vectores α ∈ [N(A)]⊥ tienen la forma α =  b , con
 

0
 
ñ ô a ñ ô
1 0 0 0
a, b ∈ R. Resolviendo el sistema  b  = se
 
1 1 0 3
0
    
0 
 0 

obtiene α =  3  y S =  3  : β ∈ R .
   
 
0 β
 
(c) Coinciden si se toma β = 1 + α.
   
 1
 1   ®ñ ô´
0
(d) R(A) = R , R(A ) =  0  ,  1  , N(A ) =
2 t t
.
   
  0
0 0
 
(e) Los subespacios R(A) y N(A ) se deben pintar en R2 , y co-
t

rresponden a los subespacios triviales. Los subespacios R(At ) y


N(A) se deben pintar en R3 , y corresponden al plano OXY y al
eje OZ, respectivamente. El conjunto solución S = α + N(A) es
una recta paralela a N(A) que pasa
 porel “punto” α. Se observa
0
que cualquier punto de la forma  3 , con z0 ∈ R, sirve para
 

z0
representar el conjunto S como S = z0 + N(A), en particular
puede ser z0 = 1, que corresponde al punto p.

(10) Sea Ax = b un sistema compatible con x0 ∈ Rn×1 tal que Ax0 =


b. Luego, S := {x ∈ Rn×1 : Ax = b} 6= ∅. De kAx0 − bk =
0 ≤ kAx − bk, para todo x ∈ Rn×1 , se tiene que la solución x0 es
solución de mı́nimos cuadrados. Recı́procamente, si x0 es solución
de mı́nimos cuadrados, kAx0 −bk ≤ kAx−bk para todo x ∈ Rn×1 .
En particular, si x ∈ S se tiene, 0 ≤ kAx0 − bk ≤ kAx − bk = 0.
Luego, Ax0 − b = 0, es decir, x0 ∈ S.

(11) (⊆) Si x ∈ N(A) entonces Ax = 0, es decir, QP x = 0. Como


184 CAPÍTULO 11. SUBESPACIOS ASOCIADOS A UNA MATRIZ

rg(Q) = r (esto es, Q tiene rango completo por columnas), existe


una inversa a izquierda QI de Q (véase Proposición 11.5) con lo
que se cumple que QI Q = Ir . Premultiplicando ambos miembros
de QP x = 0 por QI se llega a P x = 0. Ası́, por definición,
x ∈ N(P ). Por lo tanto, N(A) ⊆ N(P ).
(⊇) Si x ∈ N(P ) entonces P x = 0. Premultiplicando por Q
se tiene Ax = QP x = 0, de donde x ∈ N(A). Por lo tanto,
N(P ) ⊆ N(A).
(12) Al sustituir
 los puntos en  la ecuación
 de la recta se obtiene el
0 1 ñ ô 0
 a
sistema  1 1  =  1 . Al premultiplicar por la tras-
  
b
2 1 3
puesta de la matriz de coeficientes y resolviendo las ecuaciones
normales obtenidas se llega a y = 32 x − 61 .
(13) (a) rg(A) = 2 = n, hay solución única de mı́nimos cuadrados:
x = 12 , y = 0. (b) rg(A) = 2 6= 3 = n, hay infinitas soluciones de
mı́nimos cuadrados: El conjunto solución de mı́nimos  cuadrados

x
está formado por los (infinitos) vectores de la forma  y  donde
 

z

 x = 1 − 2α

y = 1 − 2α , α ∈ R.

z = α

Minimizando la expresión f (α) = 2(1 − 2α)2 + α2 se obtiene


α = 49 , con lo cual la solución de mı́nimos cuadrados de norma
 1 
9
1
mı́nima es x∗ =  . Una factorización de rango completo de
 
9
4
  9
1 0 ñ ô
 1 0 2
A es A = QP  0 1  . Luego, QI = (Qt Q)−1 Qt =

0 1 2
0 0
11.3. SOLUCIÓN A LOS EJERCICIOS 185
 
ñ ô 5 −4
1 0 0
y PD = P t (P P t )−1 = 19  −4 5 . Finalmente,
 
0 1 0
2 2
 1

9
1
x∗ = PD QI b =  . (c) rg(A) = 2 6= 3 = n, hay infinitas solu-
 
9
4
9
ciones de mı́nimos cuadrados: El conjunto solución de mı́nimos
cuadrados
  está formado por los (infinitos) vectores de la forma
x
 y  donde
 

z

 x = 3 − 2α

y = 1 − 2α , α ∈ R.

z = α

Minimizando la expresión f (α) = (3 − 2α)2 + (1 − 2α)2 + α2 se


obtiene α = 98 , con lo cual la solución de mı́nimos cuadrados de
 11 
9
norma mı́nima es x∗ =  − 79 . Sirve la misma factorización de
 
8
9
rango completo que en (b).
“Tal es el destino del filósofo. Respecto a sı́ mismo, elevará su alma hasta el más
alto grado del conocimiento inteligible, para fijar ası́ las miradas de su espı́ritu en ese
foco, de donde irradia toda luz, y de donde nace toda realidad visible e inteligible: ‘En
los confines del mundo intelectual está la idea del bien, que se percibe con dificultad,
pero que no es posible percibir, sin deducir que ella es la causa de todo cuanto existe de
bello y de bueno; que en el mundo visible produce la luz y el astro de que esta procede;
que en el mundo invisible produce directamente la verdad y el conocimiento; y, en fin,
que es preciso fijar bien las miradas en esta idea, para conducirse con sabidurı́a en la
vida pública y en la privada.’ Esta idea es Dios mismo, principio eterno e inmutable del
orden moral y del orden polı́tico. Ahora se comprenderá por qué el fin de la educación
filosófica, destinada a formar los jefes futuros del Estado, debe ser el de dirigir la
inteligencia de estos hacia la idea del Bien. Esto es lo mismo que presentar el orden
divino como modelo de gobierno.
¿Cómo se elevará el alma progresivamente de las primeras tinieblas a esta pura
luz? Esto será objeto de ciertas ciencias, que los magistrados futuros cultivarán con
preferencia, como una especie de aprendizaje intelectual.
En primera lı́nea entra la aritmética, en lo que tiene de más elevada, ‘no para
hacerla servir, como sucede entre los mercaderes y comerciantes, para las compras y
las ventas, sino para elevarse por medio de la pura inteligencia a la contemplación de
la esencia de los números.’
Después viene la geometrı́a, muy propia para formar en el alma ‘ese espı́ritu
filosófico, que eleva nuestras miradas hacia las cosas de lo alto, en lugar de abatirlas
sobre las cosas de este mundo’, con tal que procuremos fijarnos, no en las figuras, sino
en la ideas que representan.
En tercer lugar, será preciso crear una ciencia, aún no inventada, pero necesaria
para completar la precedente, una geometrı́a de los sólidos de tres dimensiones.
Y en cuarto lugar, la astronomı́a, estudiada con el mismo espı́ritu que las tres
primeras ciencias.
Pero todas éstas no serán más que preludios de la verdadera ciencia filosófica, la
que pone al hombre en situación de dar y entender la razón de todas las cosas. ¿Cuál
es? La dialéctica, ciencia y método a la vez, que da al alma la facultad de elevarse
desde los objetos más humildes hasta la idea del bien, y de descender luego de la idea
del bien hasta los más humildes objetos, recorriendo ası́ en su marcha todos los grados
del ser. Esta es la ciencia última, ‘la cima y el coronamiento de las demás ciencias’.”

Platón, Obras completas, edición de Patricio de Azcárate, tomo 7, Madrid 1872.


Bibliografı́a

[1] C. Badesa, I. Jané, R. Jansana, Elementos de lógica formal, Ariel


Filosofı́a, Barcelona, 1998.
[2] M. Castellet, I. Llerena, Álgebra Lineal y Geometrı́a, Editorial Re-
verté, Barcelona, 2000.
[3] J. de Burgos, Álgebra Lineal y Geometrı́a Cartesiana, Tercera Edi-
ción, McGrawHill, Madrid, 2006.
[4] S.H. Friedberg, A.J. Insel, L.E. Spence, Elementary Linear Algebra,
Pearson Education, Londres, 2008.
[5] E. Gentile, Anillo de polinomios, Editorial Docencia, Buenos Aires,
1980.
[6] S.I. Grossman, J.J. Flores Godoy, Álgebra Lineal, Séptima edición,
McGrawHill, Madrid, 2012.
[7] P.R. Halmos, Teorı́a intuitiva de los conjuntos, Octava edición, Edi-
torial Continental, México, 1973.
[8] E. Hernández Rodrı́guez, M.J. Vázquez Gallo, M.A. Zurro Moro,
Álgebra Lineal y Geometrı́a, Tercera edición, Pearson Education,
Madrid, 2012.
[9] I. Herstein, D. Winter, Matrix Theory and Linear Algebra, Macmi-
llan Publishing Company, Nueva York, 1988.
[10] K. Hoffman, R. Kunze, Linear Algebra, Segunda Edición, Prentice-
Hall, Londres, 1971.

187
188 BIBLIOGRAFÍA

[11] N. Jacobson, Lectures in Abstract Algebra II, Springer, Berlı́n, 1953.


[12] G. Jerónimo, J. Sabia, S. Tesauri, Álgebra Lineal, Fascı́culo 2, Cursos
de grado, Universidad de Buenos Aires, Argentina, 2008.
[13] C. Kuratowski, Sur la notion de l’ordre dans la théorie des ensem-
bles, Fundamenta Mathematicae 2, 161–171, 1921.
[14] S. Lang, Linear Algebra, Segunda edición, Addison-Wesley Publis-
hing Company, Londres, 1972.
[15] D.C. Lay, S.R. Lay, J.J. McDonald, Linear Algebra and its Applica-
tions, Quinta edición, Pearson, Madrid, 2016.
[16] K.T. Leung, Linear Algebra and Geometry, Hong Kong University
Press, Hong Kong, 1974.
[17] L. Merino, E. Santos, Álgebra Lineal con métodos elementales,
Thomson, España, 2006.
[18] C.D. Meyer, Matrix Analysis and Applied Linear Algebra, SIAM,
Nueva York, 2010.
[19] D. Poole, Linear Algebra: A Modern Introduction, Segunda edición,
Thomson, 2006.
[20] F. Puerta, Red ALAMA, 2011, http://www.red-alama.es/wp-
content/uploads/2011/04/isomorfismos-canónicos.pdf.
[21] J. Sancho San Román. Álgebra Lineal y Geometrı́a, Octavio y Félez,
Zaragoza, 1974.
[22] Gilbert Strang, Introduction to Linear Algebra, Cuarta edición, We-
llesley -Cambridge Press, 2009.
[23] N. Thome, Álgebra Lineal y Geometrı́a I, Editorial de la Sociedad
Matemática Mexicana, 2023.
[24] N. Thome, Álgebra Lineal y Geometrı́a I, Prácticas Informáticas con
MATLAB, Editorial de la Sociedad Matemática Mexicana, 2023.
BIBLIOGRAFÍA 189

[25] T. Yuster, The Reduced Row Echelon Form of a Matrix is Unique:


A Simple Proof, Mathematics Magazine, Mathematical Association
of America, 57, 2, 93–94, 1984.

Aspectos históricos y divulgativos


[26] El libro de las Matemáticas. Editorial Akal, Madrid, 2020.
[27] A. Doxiadis, El tı́o Petris y la conjetura de Goldbach, Zeta, 2009.
[28] C. B. Boyer, History of Analytic Geometry, Dover, Nueva York,
2004.
[29] M. Kline, Mathematical Thought From Ancient to Modern Times,
Oxford University Press, 1972.
[30] D. Luzardo, A.J. Peña. Historia del Álgebra Lineal hasta los albores
del Siglo XX, Divulgaciones Matemáticas, 14, 2, 153–170, (2006).
[31] K. Rı́bnikov. Historia de las Matemáticas, Editorial MIR, Moscú,
1974.
[32] I. Stewart, Historia de las Matemáticas: En los último 10000 años,
Segunda edición, Crı́tica, Barcelona, 2009.
[33] F. Vera, Veinte matemáticos célebres, Compañı́a General Fabril Edi-
tora, Buenos Aires, 1964.

También podría gustarte