0% encontró este documento útil (0 votos)
140 vistas201 páginas

Teoría de Espacios Vectoriales

Este documento presenta un libro sobre la teoría de espacios vectoriales. El libro contiene 10 capítulos que cubren temas como definiciones preliminares, propiedades de espacios vectoriales, subespacios vectoriales, transformaciones lineales, espacios vectoriales cociente, bases y dimensión, coordenadas, teoría de matrices, autovalores y autovectores, forma canónica de Jordan e introducción a la teoría de códigos. El libro está dirigido a estudiantes de matemáticas y presenta los fundament

Cargado por

Raul Bartolo
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
140 vistas201 páginas

Teoría de Espacios Vectoriales

Este documento presenta un libro sobre la teoría de espacios vectoriales. El libro contiene 10 capítulos que cubren temas como definiciones preliminares, propiedades de espacios vectoriales, subespacios vectoriales, transformaciones lineales, espacios vectoriales cociente, bases y dimensión, coordenadas, teoría de matrices, autovalores y autovectores, forma canónica de Jordan e introducción a la teoría de códigos. El libro está dirigido a estudiantes de matemáticas y presenta los fundament

Cargado por

Raul Bartolo
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

Publicaciones Electrónicas

Sociedad Matemática Mexicana

Teoría  
de  
Espacios Vectoriales
Fernando Ignacio Becerra López
Alonso Castillo Ramírez
Alfonso Manuel Hernández Magdaleno
Osbaldo Mata Gutiérrez

www.smm.org.mx

Serie: Textos. Vol. 24 (2023)

ISBN: 978-607-8008-17-9
Teoría  
de  
Espacios Vectoriales

Fernando Ignacio Becerra López


Alonso Castillo Ramírez
Alfonso Manuel Hernández Magdaleno
Osbaldo Mata Gutiérrez
Centro Universitario de Ciencias Exactas e Ingenierías
Universidad de Guadalajara

Publicaciones Electrónicas
Sociedad Matemática Mexicana
Índice general

0. Conceptos Preliminares 7
0.1. Relaciones de equivalencia . . . . . . . . . . . . . . . . . . . . . . 7
0.2. Grupos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
0.3. Campos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
0.4. Ejercicios de Conceptos Preliminares . . . . . . . . . . . . . . . . 20

1. Espacios vectoriales y sus propiedades 23


1.1. Ejemplos de espacios vectoriales . . . . . . . . . . . . . . . . . . . 26
1.2. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35

2. Subespacios vectoriales 39
2.1. Subespacios generados . . . . . . . . . . . . . . . . . . . . . . . . 42
2.2. Intersecciones y sumas de subespacios . . . . . . . . . . . . . . . 45
2.3. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50

3. Transformaciones lineales 53
3.1. Ejemplos de transformaciones lineales . . . . . . . . . . . . . . . 53
3.2. Propiedades de las transformaciones lineales . . . . . . . . . . . . 57
3.3. Imagen y kernel de una transformación lineal . . . . . . . . . . . 60
3.4. El espacio de las transformaciones lineales . . . . . . . . . . . . . 63
3.5. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67

4. Espacio vectorial cociente 71


4.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78

5. Bases y dimensión 81
5.1. Independencia Lineal . . . . . . . . . . . . . . . . . . . . . . . . . 81
5.2. Conjuntos generadores . . . . . . . . . . . . . . . . . . . . . . . . 84
5.3. Bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
5.4. Dimensión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
5.5. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97

6. Dimensiones nitas y coordenadas 99


6.1. Dimensiones nitas . . . . . . . . . . . . . . . . . . . . . . . . . . 99
6.2. Repaso: Conceptos y operaciones básicas de matrices . . . . . . . 103
6.3. Coordenadas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
6.4. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120

7. Teoría de Matrices 123


7.1. Determinante de una matriz . . . . . . . . . . . . . . . . . . . . . 123
7.2. Matrices elementales . . . . . . . . . . . . . . . . . . . . . . . . . 127
7.3. Teorema Fundamental de Matrices Invertibles . . . . . . . . . . . 132
7.4. Ejercicios de Teoría de Matrices . . . . . . . . . . . . . . . . . . . 135

3
4 ÍNDICE GENERAL

8. Autovalores y autovectores 139


8.1. Autovalores y autovectores de una matriz . . . . . . . . . . . . . 139
8.2. Matrices y endomorsmos diagonalizables . . . . . . . . . . . . . 148
8.3. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152

9. Forma Canónica de Jordan 155


9.1. Teorema de Cayley-Hamilton . . . . . . . . . . . . . . . . . . . . 155
9.2. Endomorsmos triangulables . . . . . . . . . . . . . . . . . . . . 159
9.3. Endomorsmos nilpotentes . . . . . . . . . . . . . . . . . . . . . 162
9.4. Forma Canónica de Jordan . . . . . . . . . . . . . . . . . . . . . 164
9.5. Forma Canónica de Jordan de Matrices No Diagonalizables . . . 167
9.5.1. Un solo autovalor defectivo y un solo autovector asociado 168
9.5.2. Un único autovalor defectivo . . . . . . . . . . . . . . . . 170
9.5.3. Varios autovalores defectivos . . . . . . . . . . . . . . . . 174
9.5.4. Forma Canónica de Jordan para endomorsmos . . . . . . 181
9.6. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 183

10.Introducción a la Teoría de Códigos 185


10.1. Deniciones básicas . . . . . . . . . . . . . . . . . . . . . . . . . . 185
10.2. Matrices generadoras y vericadoras . . . . . . . . . . . . . . . . 187
10.3. Detección y corrección de errores . . . . . . . . . . . . . . . . . . 190
10.4. Códigos de Hamming . . . . . . . . . . . . . . . . . . . . . . . . . 194
10.5. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 200
Prefacio

La teoría de los espacios vectoriales engloba los fundamentos teóricos de


la rama de las matemáticas conocida como álgebra lineal, la cual tiene im-
portantes aplicaciones en ingeniería, física, biología, ciencias computacionales,
y economía, entre otras ciencias. Dentro de las matemáticas mismas, el álge-
bra lineal es una pieza fundamental en el desarrollo del álgebra multilineal, las
ecuaciones diferenciales, la teoría de módulos, el análisis funcional, la teoría de
representaciones y la geometría algebraica.

El álgebra lineal se originó como el estudio de los sistemas de ecuaciones


lineales, el cual evolucionó naturalmente al estudio de matrices y vectores geo-
métricos. La denición moderna de espacio vectorial fue presentada por Giu-
seppe Peano en 1888, y su desarrollo teórico se dio principalmente durante la
primera mitad del siglo XX. Es posible que el lector conozca alguna denición
del concepto de vector, como la siguiente:
Denición [vector geométrico]. Un vector geométrico es un objeto que
tiene magnitud y dirección.

Sin embargo, en este libro, nuestra denición de vector será la siguiente:

Denición [vector]. Un vector es un elemento de un espacio vectorial.

De esta forma, los vectores son objetos abstractos que satisfacen los axio-
mas establecidos por la denición de espacio vectorial (ver Denición 1.1); no
asumiremos que los vectores satisfacen ninguna otra propiedad (en particular,
para nosotros no tienen magnitud ni dirección).

Este libro está dirigido a estudiantes de tercer semestre de la Licenciatura


en Matemáticas del Centro Universitario de Ciencias Exactas e Ingenierías de la
Universidad de Guadalajara. Sin embargo, estamos convencidos de que nuestro
enfoque será benéco a estudiantes avanzados de carreras anes.

Iniciamos el libro con el Capítulo 0 sobre temas preliminares, donde repasa-


mos los conceptos de relación de equivalencia, clase de equivalencia, operación
binaria, grupo y campo; además, abordamos algunos ejemplos básicos de cam-
pos que son indispensables posteriormente, como los números racionales, los
números reales, los números complejos y los enteros módulo un primo.

En el Capítulo 1 estudiamos la denición de espacio vectorial, nuestro princi-


pal objeto de estudio en este libro. Demostramos algunas de las propiedades ele-
mentales de los espacios vectoriales y examinamos en detalle algunos ejemplos,
incluyendo al espacio euclídeo Rn , espacios de matrices, espacios de funciones y
espacios de polinomios.

En el Capítulo 2 presentamos la denición de subespacio vectorial y de-


mostramos su equivalencia con otras armaciones (test del subespacio 1 y 2).
También estudiamos algunas formas de construir subespacios, entre las que es-
tán los subespacios generados por conjuntos, la intersección de subespacios y la
suma de subespacios.

5
6 ÍNDICE GENERAL

En el Capítulo 3 analizamos las funciones entre espacios vectoriales que


preservan sus estructuras: las transformaciones lineales. Estudiamos sus propie-
dades básicas y denimos los conceptos de isomorsmo, imagen y kernel.

En el Capítulo 4, dado un subespacio S de un espacio vectorial V, construi-


mos un nuevo espacio vectorial V /S llamado el espacio vectorial cociente. Los
vectores de este nuevo espacio son clases laterales de la forma v + S. Es en este
capítulo donde aparecen el Primer y el Segundo Teorema de Isomorfía.

En el Capítulo 5 estudiamos el concepto de independencia lineal para de-


nir lo que es una base de un espacio vectorial. A grandes rasgos, una base es
un conjunto de vectores que determinan la estructura de todo el espacio. La
cardinalidad de una base se conoce como la dimensión de un espacio, y resulta
ser una característica clave, ya que dos espacios vectoriales denidos sobre un
mismo campo son isomorfos si y sólo si tienen la misma dimensión.

En el Capítulo 6 consideramos espacios vectoriales de dimensión nita. Ana-


lizamos cómo se comporta la dimensión en la suma de subespacios, el espacio
cociente y el espacio de las transformaciones lineales, y, después de un breve re-
paso sobre matrices, mostramos cómo un vector puede representarse mediante
sus coordenadas respecto a una base y cómo una transformación lineal puede re-
presentarse mediante una matriz. Mediante estas representaciones, descubrimos
que aplicar una transformación lineal a un vector es lo mismo que multiplicar
la matriz correspondiente por las coordenadas del vector, y que la composi-
ción de transformaciones lineales es igual a la multiplicación de sus matrices
correspondientes.

En el Capítulo 7 estudiamos algunos temas relacionados con la teoría de


matrices, como los determinantes y las matrices elementales, para terminar con
el Teorema Fundamental de Matrices Invertibles.

En el Capítulo 8 denimos la relación de equivalencia de similitud de matri-


ces: esencialmente, dos matrices son similares si y sólo si representan a la misma
transformación lineal respecto a dos bases posiblemente distintas. Nuestro ob-
jetivo de estudiar propiedades comunes que poseen las matrices similares nos
lleva a considerar los autovalores y autovectores de una matriz.

En el Capítulo 9 estudiamos principalmente dos teoremas muy importantes:


el Teorema de Cayley-Hamilton, el cual establece que cualquier matriz es una
raíz de su polinomio característico, y el Teorema de la Forma Canónica de
Jordan, el cual establece que cualquier matriz compleja es similar a una matriz
triangular superior en la forma de Jordan.

Finalmente, en el Capítulo 10 presentamos una aplicación del álgebra lineal


a las ciencias computacionales y la teoría de la información. Mostramos cómo
a través de los espacios vectoriales sobre campos nitos es posible diseñar un
sistema de transmisión de datos en el que sea posible detectar, e incluso corregir,
errores ocurridos en la transmisión. Creemos que esta aplicación ilustra el poder
de la abstracción matemática, así como la belleza y creatividad detrás de muchos
de sus conceptos.
Conceptos Preliminares
0
Este capítulo es un repaso de algunos conceptos preliminares que serán ne-
cesarios en nuestro estudio de espacios vectoriales. Para un repaso más a fondo
sobre estos temas sugerimos consultar el libro Conjuntos y Números [2].

0.1. Relaciones de equivalencia


Sean A y B conjuntos. Recordemos que una relación R de A en B es un
subconjunto del producto cartesiano A × B. Escribimos aRb si (a, b) ∈ R.
Ejemplo 0.1. Sea f :A→B cualquier función entre los conjuntos A y B. La
siguiente relación se llama la gráca de la función :
R := {(a, b) ∈ A × B|f (a) = b}.
Ejemplo 0.2. Sea f :A→C y g:B→C dos funciones. La siguiente relación
se llama el producto brado de f y g:
R := {(a, b) ∈ A × B|f (a) = g(b)}.
Una relación sobre A es simplemente una relación de A en A.
Definición 0.3 (relación de equivalencia). Una relación R sobre un conjunto
A es una relación de equivalencia si se cumplen las siguientes propiedades:
(E1) R es reexiva : aRa para toda a ∈ A.
(E2) R es simétrica : aRb implica bRa.
(E3) R es transitiva : aRb y bRc implican aRc.
Ejemplo 0.4. Sea Z el conjunto de los números enteros y sea n≥1 un número
entero. La relación

Rn = {(a, b) ∈ Z × Z : n | (a − b)}
es una relación de equivalencia llamada la congruencia módulo n. Si (a, b) ∈ Rn
escribimos a ≡ b mód (n). Es necesario demostrar que las propiedades (E1),
(E2) y (E3) se cumplen:
7
8 CAPÍTULO 0. CONCEPTOS PRELIMINARES

(E1) Para cualquier a ∈ Z, n | (a − a) = 0, así que a ≡ a mód (n).


(E2) Si n | (a − b), entonces n | (b − a). Por lo tanto, a ≡ b mód (n) implica
b ≡ a mód (n).
(E3) Ejercicio 0.36.

Definición 0.5 (clase de equivalencia). Sea R una relación de equivalencia


sobre A. La clase de equivalencia de un elemento a ∈ A, denotada como [a], es
el subconjunto de A denido como

[a] = {x ∈ A : xRa}.

Al conjunto de todas las clases de equivalencia de los elementos de A se le llama


el conjunto cociente de A por R, y se denota como A/R. En símbolos,

A/R = {[a] : a ∈ A}.

Ejemplo 0.6. Sea Rn la relación de congruencia módulo n. Para cualquier a∈


Z, la clase de equivalencia módulo n de a es

[a] = {x ∈ Z : x ≡ a mód (n)}.

El conjunto cociente Z/Rn , denotado en este caso simplemente como Zn , es

Zn := Z/Rn = {[a] : a ∈ Z} = {[0], [1], [2], . . . , [n − 1]}.

Es posible demostrar esta última igualdad usando el algoritmo de la división.

Lema 0.7 (propiedades básicas de las clases de equivalencia). Sea R una


A.
relación de equivalencia sobre

(1) a ∈ [a] para toda a ∈ A.


(2) [a] = [b] si y sólo si aRb.
(3) [a] ̸= [b], entonces [a] ∩ [b] = ∅.
Si

(4)
S
A= [a].
a∈A

Demostración. Ejercicio 0.37. □

0.2. Grupos
Definición 0.8 (operación binaria). Sea G un conjunto no vacío. Una opera-
ción binaria de G es una función de la forma f : G × G → G.
En general, para vericar que una operación binaria f : G×G → G está bien
denida hay que asegurarse que realmente f (a, b) ∈ G para cualquier (a, b) ∈
G × G. Comúnmente llamamos a esto la propiedad de cerradura de la operación.
0.2. GRUPOS 9

Ejemplo 0.9. Consideremos algunos ejemplos y contraejemplos.

1. La función + : Z×Z → Z denida como +(n, m) := n+m es una operación


binaria del conjunto Z llamada la suma usual de números enteros.
2. La función + : Q×Q → Q denida como +( ab11 , ab22 ) :=
a1 b2 +a2 b1
b1 b2 es una
operación binaria del conjunto Q de números racionales llamada la suma
usual de números racionales.
3. La resta no es una operación binaria del conjunto N de números naturales
porque no cumple la propiedad de cerradura (por ejemplo, 3−4 = −1 ̸∈ N).
4. La función mcd : N×N → N que asigna a cualquier par de números
naturales su máximo común divisor es una operación binaria de N.
5. La función · : 2Z×2Z → 2Z denida como ·(n, m) := nm es una operación
binaria del conjunto 2Z de números enteros pares ya que el producto de
dos enteros pares siempre es un entero par.

Una propiedad importante de las funciones es que cada elemento del domi-
nio tiene una única imagen en el codominio. Por lo tanto, para demostrar que
una operación binaria f : G×G → G está bien denida, además de vericar
la propiedad de cerradura, hay que vericar que si (a, b) = (a′ , b′ ), entonces
′ ′
f (a, b) = f (a , b ). Comprobar esto es trivial en los ejemplos anteriores, si em-
bargo no es tan obvio cuando los elementos de G son clases de equivalencia que
dependen de un representante.

Ejemplo 0.10 (suma módulo n). Sea Zn = {[0], [1], . . . , [n − 1]} el conjunto de
clases de equivalencia módulo n ∈ N, n ̸= 0. Denimos una operación binaria
f : Zn × Zn → Zn , llamada suma módulo n, como

f ([a], [b]) := [a + b],

para cualquier [a], [b] ∈ Zn . Es obvio que f cumple la propiedad de cerradu-


ra. Ahora demostraremos que si [a] = [a′ ] y [b] = [b′ ], entonces f ([a], [b]) =
f ([a′ ], [b′ ]). Por el Lema 0.7,

a ≡ a′ mód (n) y b ≡ b′ mód (n).

Luego n | (a − a′ ) y n | (b − b′ ), lo que implica que a − a′ = sn y b − b′ = tn


para algunos s, t ∈ Z. Sumando las ecuaciones previas, obtenemos

(a + b) − (a′ + b′ ) = (s + t)n,

y por lo tanto, (a + b) ≡ (a′ + b′ ) mód (n). Así, f ([a], [b]) = f ([a′ ], [b′ ]).

Normalmente, denotamos con un punto · a una operación binaria arbitraria


de G, y denotamos como a·b a la imagen del par (a, b) ∈ G × G.
Un grupo es una estructura algebraica que consiste en un conjunto y una
operación binaria que cumple tres propiedades.
10 CAPÍTULO 0. CONCEPTOS PRELIMINARES

Definición 0.11 (grupo). Sea G un conjunto no vacío y · una operación binaria


de G. El par (G, ·) es un grupo si se cumplen las siguientes propiedades:

(G1) Asociatividad. Para toda a, b, c ∈ G, se cumple que


a · (b · c) = (a · b) · c.

(G2) Identidad. Existe un elemento e ∈ G tal que, para toda a ∈ A,


e · a = a · e = a.

(G3) Inversos. Para cualquier a ∈ G existe un b ∈ G tal que


a · b = b · a = e.

e ∈ G de la propiedad (G2) es llamado la identidad de G. El


El elemento
elementob ∈ G de la propiedad (G3) es llamado el inverso de a ∈ G y lo
−1
denotamos como a .

Ejemplo 0.12 (números enteros). Sea + la suma usual de Z. El par (Z, +) es


un grupo:

(G1) Para toda n, m, k ∈ Z, se cumple que (n + m) + k = n + (m + k).


(G2) La identidad es 0∈Z porque 0 + n = n + 0 = n, para toda n ∈ Z.
(G3) El inverso de cualquier n ∈ Z es −n ∈ Z porque n+(−n) = (−n)+n = 0.

Ejemplo 0.13 (grupo trivial). Consideremos un conjunto con un solo elemento


G = {e} y una operación binaria · denida como e · e = e. El par ({e} , ·) es un
grupo: las propiedades G1-G3 se cumplen obviamente. Llamamos a ({e} , ·) el
grupo trivial.
Enunciaremos algunos resultados básicos.

Lema 0.14 (propiedades básicas de grupos). Sea (G, ·) un grupo.

(1) Cancelación derecha. Para toda a, b, c ∈ G, si a · c = b · c, entonces a = b.


(2) Cancelación izquierda. Para toda a, b, c ∈ G, si c · a = c · b, entonces a = b.
(3) Unicidad de la identidad. La identidad e de G es única.
(4) Unicidad de los inversos. Para toda a ∈ G, el inverso de a es único.
(5) Inverso del inverso. Para toda a ∈ G, (a−1 )−1 = a.
Demostración. Ejercicio 0.40. □
Definición 0.15 (Grupo abeliano). Decimos que un grupo (G, ·) es abeliano si
se cumple la siguiente propiedad:
0.2. GRUPOS 11

(G4) Conmutatividad. Para toda a, b ∈ G, se cumple que


a · b = b · a.

Ejemplo 0.16 (números racionales). Sea · la multiplicación usual de números


a a a a ∗ ∗
racionales: 1 · 2 := 1 2 . Sea Q := Q \ {0}. Demostraremos que el par (Q , ·)
b1 b2 b1 b2
es un grupo abeliano:

(G1) Para cualquier


ai
bi ∈ Q∗ ,
 
a1 a2 a3 a1 (a2 a3 )
· · =
b1 b2 b3 b1 (b2 b3 )
(a1 a2 ) a3
=
(b1 b2 ) b3
 
a1 a2 a3
= · · .
b1 b2 b3

(G2) La identidad es
1
1 ∈ Q∗ porque
1
1 · a
b = a
b · 1
1 = a a
b , para toda b ∈ Q∗ .

(G3) El inverso de cualquier


a
b ∈ Q∗ es
b
a ∈ Q∗ porque
a
b · b
a = ab
ba = ab
ab = 1
1.

(G4) Para cualquier


ai
bi ∈ Q∗ ,
a1 a2 a1 a2 a2 a1 a2 a1
· = = = · .
b1 b2 b1 b2 b2 b1 b2 b1

Si (G, ·) es un grupo y H un subconjunto de G, denotamos por ·H a la


restricción de · en H; en otras palabras, ·H es la función ·H : H × H → G
denida como
a ·H b = a · b, donde a, b ∈ H.
Definición 0.17 (Subgrupo). Sea (G, ·) un grupo y H ⊆ G. Decimos que (H, ·H )
es un subgrupo de (G, ·) si (H, ·H ) es en sí mismo un grupo.

Decimos que (H, ·H ) es un subgrupo propio de (G, ·) si H ⊊ G.


Teorema 0.18 (test del subgrupo). Sea (G, ·) un grupo y H ⊆ G. El par
(H, ·H ) es un subgrupo de (G, ·) si y sólo si se cumplen las siguientes pro-
piedades:

(S1) Cerradura en H . Para toda a, b ∈ H , se cumple que a · b ∈ H .


(S2) Identidad en H . e ∈ H , donde e es la identidad del grupo (G, ·).
(S3) Inversos en H . Para cualquier a ∈ H , se cumple que a−1 ∈ H .
Demostración.
(⇒) Si (H, ·H ) es un subgrupo, claramente se cumplen las propiedades ( S1)-
(S3).
12 CAPÍTULO 0. CONCEPTOS PRELIMINARES

(⇐ ) Supongamos que el par (H, ·H ) cumple las propiedades (S1)-(S3). La pro-


piedad ( S1) garantiza que ·H
es una función de la forma H × H → H , así
que es una operación binaria de H . Las propiedades (S2) y (S3) implican
directamente que (G2) y (G3) se cumplen. Finalmente, (H, ·H ) también
cumple (G1) porque, para cualquier a, b, c ∈ H ,

a ·H (b ·H c) = a · (b · c) = (a · b) · c = (a ·H b) ·H c.

Por lo tanto, (H, ·H ) es un grupo en sí mismo.


Para simplicar notación, si (H, ·H ) es un subgrupo de (G, ·), denotamos la
operación ·H con el mismo símbolo que la operación de (G, ·).
Ejemplo 0.19 (nZ). Sea n ∈ N, n ̸= 0. Consideremos al conjunto de los múlti-
plos enteros de n:
nZ = {nk : k ∈ Z} .
Claramente, nZ es un subconjunto de Z (un subconjunto propio si n ̸= 1).
Además, (nZ, +) es un subgrupo de (Z, +):
(S1) Sean a, b ∈ nZ. Entonces a = nk1 y b = nk2 , para algunos k1 , k2 ∈ Z. Por
lo tanto,
a + b = nk1 + nk2 = n (k1 + k2 ) ∈ nZ.

(S2) El conjunto nZ contiene a 0 porque 0 = n0.


(S3) Si a ∈ nZ, entonces a = nk , para algún k ∈ Z, así que −a = n (−k) ∈ nZ.

Un grupo (G, ·) es nito si G es un conjunto nito. Cuando |G| = m, podemos


escribir una tabla, llamada la tabla de Cayley de (G, ·), con m las y m columnas,
que determina completamente el comportamiento de la operación binaria del
grupo. Para esto, ordenamos de manera arbitraria los elementos del grupo, G=
{g1 , g2 , ..., gm }, y escribimos gi · gj en la entrada (i, j) de la tabla.

Ejemplo 0.20 (enteros módulo n). El par (Zn , +) es un grupo abeliano nito
(Ejercicio 0.41), donde + es la suma módulo n. Si n = 5, el Cuadro 1 es la tabla
de Cayley de (Z5 , +).

Definición 0.21 (subgrupo cı́clico generado por g). Sea (G, ·) un grupo. De-
nimos al grupo cíclico generado por g ∈ G como el conjunto

⟨g⟩ = {g k : k ∈ Z},

donde g0 = e y


 g · g · g...g para k > 0,
| {z }
 k veces


gk =
g −1 · g −1 . . . g −1




 para k < 0.
| {z }
−k veces
0.2. GRUPOS 13

+ [0] [1] [2] [3] [4]


[0] [0] [1] [2] [3] [4]
[1] [1] [2] [3] [4] [0]
[2] [2] [3] [4] [0] [1]
[3] [3] [4] [0] [1] [2]
[4] [4] [0] [1] [2] [3]

Cuadro 1: Tabla de Cayley de (Z5 , +)

Teorema 0.22 (subgrupo cı́clico generado por g). Sea (G, ·) un grupo y g∈
G. Entonces, (⟨g⟩ , ·) es un subgrupo abeliano de (G, ·).

Demostración. Usaremos el Teorema 0.18 del test del subgrupo.

(S1) Sean g k , g s ∈ ⟨g⟩, k, s ∈ Z. Analizaremos varios casos. Si k>0 y s > 0,


entonces

g k · g s = g · g . . . g · g · g . . . g = g · g · g . . . g = g k+s ∈ ⟨g⟩.
| {z } | {z } | {z }
k veces s veces k+s veces

Si k > 0, s < 0, y k > −s, entonces

g k · g s = g · g . . . g · g −1 · g −1 . . . g −1 = g · g . . . g ·e . . . e = g k+s ∈ ⟨g⟩.
| {z } | {z } | {z }
k veces −s veces k+s veces

Si k > 0, s < 0, y k < −s, entonces

g k ·g s = g · g . . . g · g −1 · g −1 . . . g −1 = e . . . e·g −1 · g −1 . . . g −1 = g k+s ∈ ⟨g⟩.


| {z } | {z } | {z }
k veces −s veces −s−k veces

Si k<0 y s < 0, entonces

g k ·g s = g −1 · g −1 . . . g −1 · g −1 · g −1 . . . g −1 = g −1 · g −1 . . . g −1 = g k+s ∈ ⟨g⟩.
| {z } | {z } | {z }
−k veces −s veces −k−s veces

Los otros casos (como k < 0 y s > 0, o k = 0) se analizan de manera


similar. Por lo tanto, g k · g s = g k+s ∈ ⟨g⟩ para toda k, s ∈ Z, lo que
demuestra la cerradura en ⟨g⟩.

(S2) Por denición, e = g 0 ∈ ⟨g⟩.


(S3) El inverso de cualquier g k ∈ ⟨g⟩ es g −k , el cual es claramente un elemento
de ⟨g⟩.
(G4) Sean g k , g s ∈ ⟨g⟩. Entonces g k · g s = g k+s = g s+k = g s · g k .

14 CAPÍTULO 0. CONCEPTOS PRELIMINARES

Definición 0.23 (grupo cı́clico). Decimos que un grupo (G, ·) es cíclico si exis-
te g ∈ G tal que G = ⟨g⟩.

Ejemplo 0.24. Para cualquier n ∈ N, el grupo (Zn , +) es cíclico. Demostra-


remos que Zn = ⟨[1]⟩. Sea k ∈ Z. Siempre que la operación del grupo sea una
k
suma, escribiremos k·[1] en lugar [1] , ya que k·[1] va más acorde con la notación
aditiva. En este caso k · [1] signica:

 + · · · + [1]
|[1] + [1] {z para k > 0,
 }
k veces



k · [1] =

(−[1]) + (−[1]) + · · · + (−[1]) para k < 0.



| {z }
−k veces

Analizando los casos k < 0, k = 0 y k > 0 por separado, es sencillo comprobar


que k · [1] = [k] para toda k ∈ Z. Por lo tanto,
⟨[1]⟩ = {k · [1] : k ∈ Z} = {[k] : k ∈ Z} = Zn .
Para el lector interesado en profundizar más en temas de teoría de grupos
recomendamos el libro [3].

0.3. Campos
En esta sección denimos una nueva estructura algebraica que involucra dos
operaciones binarias.

Definición 0.25 (Campo). Sea F un conjunto no vacío. Sean + y · dos opera-


ciones binarias de F . La tríada (F, +, ·) es un campo si se cumplen las siguientes
propiedades:
(C1) (F, +) es un grupo abeliano con identidad 0.
(C2) (F \ {0}, ·) es un grupo abeliano con identidad 1.
(C3) Distributividad. Para toda a, b, c ∈ F ,
a · (b + c) = (a · b) + (a · c).

Las operaciones + y · en un campo son llamadas suma" y multiplicación",


respectivamente. Esto no signica que + y · sean la suma y multiplicación usual
de números; de hecho, el conjunto F podría no contener números. Al elemento
0 se le llama identidad aditiva del campo, mientras que a 1 se le llama identidad
multiplicativa.
Sea(F, +, ·) un campo. Es costumbre denotar al inverso aditivo de a ∈ F
como −a y, para simplicar notación, si a, b ∈ F , escribimos a − b en lugar de
a + (−b). Sea F ∗ = F \ {0} el conjunto de elementos del campo distintos de cero.
Por la propiedad (C2), cualquier a ∈ F

tiene inverso multiplicativo, al cual
1
denotamos como . Como ambas operaciones + y · forman grupos abelianos, es
a

claro que a + b = b + a para toda a, b ∈ F , y que a · b = b · a para toda a, b ∈ F .
0.3. CAMPOS 15

Lema 0.26 (propiedades básicas de campos). Sea (F, +, ·) un campo.

(1) Multiplicación por 0. Para cualquier a ∈ F , 0 · a = a · 0 = 0.


(2) 0 no tiene inverso multiplicativo. No existe a∈F tal que a · 0 = 1.
(3) No hay divisores de 0. Si a · b = 0, con a, b ∈ F , entonces a = 0 o b = 0.
(4) Leyes de los signos. Para toda a, b ∈ F , se cumple que
(−a) · b = a · (−b) = − (a · b) y (−a) · (−b) = a · b.

Demostración. Ejercicio 0.44. □


Ejemplo 0.27 (campo con dos elementos). Si (F, +, ·) es un campo, sabemos
que tiene una identidad aditiva 0 y una identidad multiplicativa 1. Obviamente,
0 ̸= 1 porque 1 pertenece al conjunto F \ {0}. Supongamos que F = {0, 1}.
¾Existe un campo ({0, 1}, +, ·)? Deduzcamos cómo deben ser sus operaciones.
Por la denición de identidad aditiva, 0 + 1 = 1 + 0 = 1 y 0 + 0 = 0. Por
la denición de la identidad multiplicativa, 1 · 1 = 1. Por el Lema 0.26 (1),
0 · 1 = 1 · 0 = 0. El único elemento que falta por determinar es 1 + 1. Si 1 + 1 = 1,
por cancelación derecha tenemos que 1 = 0, lo cual es una contradicción. Por lo
tanto, 1 + 1 = 0. Las tablas de sumar y multiplicar que hemos encontrado son:

+ 0 1 × 0 1
0 0 1 0 0 0
1 1 0 1 0 1

Ahora es fácil comprobar que ({0, 1}, +, ·) satisface (C1), (C2) y (C3).
Ejemplo 0.28 (números racionales). Si + es la suma usual y · es la multipli-
cación usual de números racionales, la tríada (Q, +, ·) es un campo. Veamos que
se cumplen cada una de las propiedades.

(C1) Demostraremos que (Q, +) es un grupo abeliano:

(G1) Para toda


ai
bi ∈ Q,
   
a1 a2 a3 a1 a 2 b3 + a 3 b2 a1 b2 b3 + a2 b1 b3 + a3 b1 b2
+ + = + = .
b1 b2 b3 b1 b2 b3 b1 b2 b3

Por otro lado,


 
a1 a2 a3 a1 b2 + a2 b1 a3 a1 b2 b3 + a2 b1 b3 + a3 b1 b2
+ + = + = .
b1 b2 b3 b1 b2 b3 b1 b2 b3

Por lo tanto,
   
a1 a2 a3 a1 a2 a3
+ + = + + .
b1 b2 b3 b1 b2 b3
16 CAPÍTULO 0. CONCEPTOS PRELIMINARES

(G2) 0∈Q es la identidad aditiva porque 0+ a


b
a
=
b , para toda b
a
∈ Q.
(G3) a −a a −a

El inverso de cualquier
b ∈Q es
b ∈Q ya que
b + b = 0.
(G4) a
Para toda i ∈ Q,
bi

a1 a2 a1 b2 + a2 b1 a2 a1
+ = = + .
b1 b2 b1 b2 b2 b1

(C2) Por el Ejemplo 0.16, (Q⋆ , ·) es un grupo abeliano con identidad


1
1.

(C3) Para toda


ai
bi ∈ Q,
 
a1 a2 a3 a1 a2 b3 + a3 b2 a1 (a2 b3 + a3 b2 ) a1 a2 b3 + a1 a3 b2
· + = · = = .
b1 b2 b3 b1 b2 b3 b1 b2 b3 b1 b2 b3

Por otro lado,


   
a1 a2 a1 a3 a1 a2 a1 a3 a1 a2 b1 b3 + a1 a3 b1 b2 a1 a2 b3 + a1 a3 b2
· + · = + = = .
b1 b2 b1 b3 b1 b2 b1 b3 b1 b1 b2 b3 b1 b2 b3

Por lo tanto,
     
a1 a2 a3 a1 a2 a1 a3
· + = · + · .
b1 b2 b3 b1 b2 b1 b3

Ejemplo 0.29. La tríada (Z, +, ·) no es un campo porque (Z \ {0} , ·) no es un


grupo: ningún elemento a ∈ Z, a ̸= ±1, tiene inverso multiplicativo en Z.

Ejemplo 0.30 (campo de los números reales). Sea R el conjunto de los nú-
meros reales. La tríada(R, +, ·) es un campo, con identidad aditiva 0 e identidad
multiplicativa 1, llamado el campo de los números reales.

Ejemplo 0.31 (campo de los números complejos). El conjunto de los núme-


ros complejos es el producto cartesiano de los números reales:

C = {(x, y) : x, y ∈ R} = R × R

La primera coordenada de C se llama coordenada real, mientras que la segunda


se llama coordenada imaginaria. El número complejo (x, y) ∈ C es llamado real
puro si y = 0, o imaginario puro si x = 0.
Para cualquier (xi , yi ) ∈ C, la suma usual de números complejos está denida
como
(x1 , y1 ) + (x2 , y2 ) = (x1 + x2 , y1 + y2 ) ∈ C,
mientras que la multiplicación usual de números complejos está denida como

(x1 , y1 ) · (x2 , y2 ) = (x1 x2 − y1 y2 , x1 y2 + x2 y1 ) ∈ C,

donde xi yj representa la multiplicación usual de números reales.


0.3. CAMPOS 17

Si (x1 , 0) y (x2 , 0) son reales puros, las operaciones denidas previamente


coinciden con la suma y multiplicación usual de números reales:

(x1 , 0) + (x2 , 0) = (x1 + x2 , 0) ,


(x1 , 0) · (x2 , 0) = (x1 x2 , 0) .

Observemos que, para cualquier (x, y) ∈ C,

(x, y) = (x, 0) · (1, 0) + (y, 0) · (0, 1) .

Para simplicar notación, identicamos a (x, 0) y (y, 0) con los números reales
x, y ∈ R, respectivamente. Si denimos

i = (0, 1) ∈ C,

podemos denotar al número complejo (x, y) como

x + yi ∈ C.

El imaginario puro i = (0, 1) es llamado la unidad imaginaria y cumple que

i2 = (0, 1) · (0, 1) = (−1, 0) ,

al cual identicamos con −1 ∈ R. Es por esta razón que comúnmente se dice


que  i es una raíz cuadrada de −1".
Con con esta nueva notación, la suma y multiplicación de números complejos
puede escribirse como

(x1 + y1 i) + (x2 + y2 i) = x1 + x2 + (y1 + y2 ) i,


(x1 + y1 i) · (x2 + y2 i) = x1 x2 − y1 y2 + (x1 y2 + x2 y1 ) i.

Usando la notación propuesta y las propiedades de los números reales, no es


difícil demostrar que (C, +, ·) es un campo. Sin embargo, la demostración es
algo laboriosa, así que se deja como ejercicio.

Un campo (F, +, ·) es llamado un campo nito si F es un conjunto nito.

Ejemplo 0.32 (Zp ). Sea p ∈ N un número primo. Consideremos la tríada (Zp , +, ·)


donde Zp = {[0] , [1] , . . . , [p − 1]}, + es la suma usual de clases módulo p, y ·
está denida como

[k] · [s] = [ks] ∈ Zp , donde [k], [s] ∈ Zp .

Demostraremos que (Zp , +, ·) es un campo nito.

(C1) Sabemos por el Ejercicio 0.41 que (Zp , +) es un grupo abeliano con iden-
tidad [0].
(C2) Por el Ejercicio 0.39, · es una operación binaria de Zp bien denida.
Demostraremos que (Zp \ {[0]} , ·) cumple las propiedades (G1)-(G4).
18 CAPÍTULO 0. CONCEPTOS PRELIMINARES

(G1) Para toda [r], [k], [s] ∈ Zp \ {[0]},

[r] · ([k] · [s]) = [r (ks)] = [(rk) s] = ([r] · [k]) · [s] .

(G2) Para toda [s] ∈ Zp \ {[0]}, tenemos que [1] · [s] = [1s] = [s]. Por lo
tanto, [1] ∈ Zp \ {0} es la identidad multiplicativa.
(G3) Sea [s] ∈ Zp \ {[0]}. Demostramos la existencia del inverso multi-
plicativo de [s] usando el Lema de Bézout (Lema 4.23 en [2]). Como
[s] ̸= [0], sabemos que p no divide a s, y que p sea primo implica que
mcd(s, p) = 1. Por el Lema de Bézout, existen enteros x, y ∈ Z tales
que
1 = sx + py.
Claramente, p no divide a x, ya que de lo contrario p | (sx + py) = 1,
lo cual es imposible. De esta forma, [x] ∈ Zp \ {[0]} es el inverso
multiplicativo de [s] porque

[s] · [x] = [sx] = [1 − py] = [1] .

(G4) Para toda [k], [s] ∈ Zp \ {[0]},

[k] · [s] = [ks] = [sk] = [s] · [k] .

(C3) Para toda [r], [k], [s] ∈ Zp ,

[r] · ([k] + [s]) = [r] · [k + s] = [r(k + s)]


= [rk + rs] = [rk] + [rs]
= [r] · [k] + [r] · [s].

El siguiente teorema establece bajo qué circunstancias es Zm un campo.

Teorema 0.33. Sea m ∈ N. La tríada (Zm , +, ·) es un campo si y sólo si m es


un número primo.

Demostración. Demostraremos cada implicación.

(⇒) Supongamos (Zm , +, ·) es un campo. Por reducción al absurdo, suponga-


mos que m no es un número primo. Entonces, m = ks, donde k, s ∈ N,
1 < k, s < m. Luego,

[0] = [m] = [ks] = [k] · [s],

donde [k] ̸= [0] y [s] ̸= [0] porque m ∤ k y m ∤ s. Sin embargo, esto


contradice el Lema 0.26 (3), ya que [k] · [s] = [0] implica [k] = [0] o
[s] = [0]. Por lo tanto, m debe ser un número primo.

(⇐) Si m=p es un número primo, sabemos que (Zp , +, ·) es un campo por el


Ejemplo 0.32.
0.3. CAMPOS 19


Existen otros ejemplos de campos nitos además de Zp , pero, en general, su
estructura es más difícil de describir. El siguiente teorema, del cual omitimos su
demostración, establece todos los posibles tamaños de los campos nitos.

Teorema 0.34 (campos finitos). Para cualquier número primo p y cualquier


k ∈ N, existe esencialmente un único campo nito con pk elementos, al cual
1 k
denotamos como GF(p ). No existen campos nitos de otros tamaños.

Para cualquier número primo p se cumple que

GF(p) = Zp .
k
Sin embargo, GF(p ) ̸= Zpk porque Zpk no es un campo. Por ejemplo, el Teo-
rema 0.34 establece que hay un campo nito GF(4) con 4 elementos (el cual
no puede ser igual a Z4 ) ¾Cómo son entonces las operaciones binarias + y · en
GF(4)? En el Ejercicio 0.48 se pide encontrar tablas de sumar y multiplicar para
estas operaciones.

Observación 0.35. A partir de ahora, haremos dos simplicaciones en nuestra


notación:

(1) Denotaremos a los elementos de Zm = {[0], [1], . . . , [m − 1]} simplemente


[s] escribiremos s. Sin embargo,
como números; es decir, en lugar de escribir
hay que tener siempre presente que estos números en Zm son en realidad
clases de equivalencia módulo m.

(2) Siempre que las operaciones binarias estén claramente establecidas por el
contexto, denotaremos a los campos, y a los grupos, con el conjunto que
contiene a sus elementos; por ejemplo, si (F, +, ·) es un campo y (G, ·) es
un grupo, simplemente escribiremos F y G, respectivamente.

Palabras clave: relación de equivalencia, clase de equivalencia, operacion


binaria, grupo, grupo abeliano, campo, campo nito.
1 Las iniciales GF signican Galois Field y hacen referencia al matemático francés Évariste
Galois (18111832).
20 CAPÍTULO 0. CONCEPTOS PRELIMINARES

0.4. Ejercicios de Conceptos Preliminares


Ejercicio 0.36. Demuestra que la relación de congruencia módulo n cumple la
propiedad transitiva.

Ejercicio 0.37. Demuestra el Lema 0.7 sobre las propiedades básicas de las
clases de equivalencia.

Ejercicio 0.38. Demuestra que la función ⊕ denida como

a1 a2 a1 + a2
⊕ = ,
b1 b2 b1 + b2
ai
donde
bi ∈ Q, no es una operación binaria de Q.
Ejercicio 0.39. Sea n ∈ N, n ̸= 0. Si [k] , [s] ∈ Zn , demuestra que la operación
binaria [k] × [s] = [ks] está bien denida (es decir, que no depende de los
representantes k y s).

Ejercicio 0.40. Demuestra el Lema 0.14 sobre propiedades básicas de grupos.

Ejercicio 0.41. Sea n ∈ N, n ̸= 0. Demuestra que (Zn , +) es un grupo abeliano


nito.

Ejercicio 0.42. Sea + la suma usual de números enteros.

(1) Demuestra que (Z, +) es un grupo cíclico.

(2) Si n ∈ N ynZ = {nk : k ∈ Z}, demuestra que (nZ, +) es un subgrupo


cíclico de Z.
Ejercicio 0.43. Encuentra todos los subgrupos cíclicos de Z7 , Z6 , Z10 y Z11 .
Ejercicio 0.44. Demuestra el Lema 0.26 sobre propiedades básicas de campos.

Ejercicio 0.45. Demuestra que la tríada (C, +, ·) denida en el Ejemplo 0.31 es


un campo.

Ejercicio 0.46. Sean + and ⊙ las siguientes operaciones binarias de R × R:


(x1 , y1 ) + (x2 , y2 ) = (x1 + x2 , y1 + y2 ),
(x1 , y1 ) ⊙ (x2 , y2 ) = (x1 x2 , y1 y2 ).
Demuestra que (R × R, +, ⊙) no es un campo.

Ejercicio 0.47. Equipados con las operaciones binarias usuales de números (en-
teros, racionales, reales, complejos, clases módulo m) en cada caso, ¾cuáles de
los siguientes conjuntos son campos? Justica tu respuesta detalladamente.

(1) N. (5) Q (i) = {x + yi : x, y ∈ Q}.


√ √
(2) R \ Q. (6) Q( 6) = {x + y 5 : x, y ∈ Q}.

(3) Z14 . (7) 3Z = {3k : k ∈ Z}.


(4) Z17 . (8) Z1 .
0.4. EJERCICIOS DE CONCEPTOS PRELIMINARES 21

Ejercicio 0.48. Sea GF(4) = {0, 1, α, β} el campo nito con 4 elementos. En-
cuentra las tablas de sumar y multiplicar para las operaciones binarias de este
campo.
22 CAPÍTULO 0. CONCEPTOS PRELIMINARES
Espacios vectoriales y sus
1
propiedades

Hasta ahora hemos estudiado grupos y campos. Ahora vamos a estudiar otra
estructura conocida como espacio vectorial.
Definición 1.1 (espacio vectorial). Un espacio vectorial sobre un campo F es
una tríada (V, +, ·), donde:

(a) V es un conjunto no vacío;

(b) +:V ×V →V es una operación binaria de V llamada suma ;


(c) ·:F ×V →V es una función llamada multiplicación escalar.
Además, deben satisfacerse las siguientes propiedades:

(EV1) El par (V, +) es un grupo abeliano con identidad 0.


(EV2) La multiplicación escalar satisface: ∀α, β ∈ F y ∀v, w ∈ V ,
(1) α · (v + w) = (α · v) + (α · w);
(2) (α + β) · v = (α · v) + (β · v);
(3) (α · β) · v = α · (β · v);
(4) 1 · v = v, donde 1 es la identidad multiplicativa de F.

Para simplicar, nos referimos a un espacio vectorial (V, +, ·) simplemente


como V, V = (V, +, ·). Los elementos
y abusando de la notación, escribimos
de un espacio vectorial V se llaman vectores, mientras que los del campo F se
llaman escalares. La suma de V asigna a cada par (u, v) de vectores en V un
vector u + v ∈ V . La multiplicación escalar asigna a cada par (α, v) ∈ F × V un
vector α · u en V . A partir de ahora, escribiremos simplemente αv en lugar de
α · v para denotar la multiplicación escalar.
Si F es el campo R de los números reales, V es llamado espacio vectorial
real ; similarmente si F es Q, o F es C, hablaremos del espacio vectorial racional,
o espacio vectorial complejo, respectivamente.

23
24 CAPÍTULO 1. ESPACIOS VECTORIALES Y SUS PROPIEDADES

Observación 1.2. Usaremos letras Latinas v, w, x etc. para denotar vectores,


es decir elementos de V y letras Griegas α, β, γ etc. para denotas escalares, es
decir elementos del campo F.
Observación 1.3. No debería haber ninguna confusión sobre el uso de la pa-
labra vector. En otros textos, un vector es un objeto que posee magnitud,
dirección y sentido, y es representado geométricamente por un segmento de
línea; para nostros, un vector es simplemente un elemento abstracto de un
espacio vectorial.

Observación 1.4. En la denición anterior, denotamos la suma de vectores con


el símbolo +. Este símbolo también denota la suma en el campo F, es decir, la
suma de escalares. No debe haber confusión aunque se ha utilizado el mismo
símbolo para indicar esta operación en distintos conjuntos. De esta manera si
v, w ∈ V , entonces v + w representa suma en V , es decir la suma de vectores y
v + w ∈ V . Si α, β ∈ F , entonces α + β representa la suma de escalares, es decir
suma en el campo F y α + β ∈ F . Tampoco debe haber confusión al multiplicar
escalares. Si α, β ∈ F , entonces αβ representa la multiplicación en F y αβ ∈ F .
Si α ∈ F y v ∈ V , entonces αv representa la multiplicación escalar y αv ∈ V .

Observación 1.5. Un espacio vectorial tiene dos tipos de elemento cero. Uno
es el cero del grupo (V, +), al que simbolizamos por 0 (o por ⃗0) y llamamos
vector cero ; el otro es el cero del campo F, al que simbolizamos simplemente
por 0 y llamamos cero escalar.
Antes de examinar algunos ejemplos particulares de espacios vectoriales,
demostraremos algunas propiedades generales que siempre deben cumplir. Ha-
cemos énfasis que, en las siguientes proposiciones, no hablamos de un espacio
vectorial en particular, así que no podemos asumir que los vectores tengan al-
guna forma particular. Por el contrario, las siguientes proposiciones enuncian
propiedades de espacios vectoriales generales y abstractos. No sabemos nada
sobre la naturaleza de los vectores en estos espacios vectoriales, pero sí sabemos
una cosa: satisfacen las propiedades (a), (b), (c), (EV1) y (EV2) enunciadas en
la denición de espacio vectorial. Son sólo estas propiedades (junto con el hecho
de que F es un campo) las que debemos usar para demostrar las propiedades
básicas que se enuncian a continuación.

Proposición 1.6 (propiedades de espacios vectoriales). Sea V un espacio


vectorial sobre un campo F .

(1) 0v = 0, ∀v ∈ V .
(2) α0 = 0, ∀α ∈ F .
(3) Si αv = 0, entonces α=0 o v = 0.
(4) (−α) v = α (−v) = − (αv) , ∀α ∈ F , v ∈ V .
Demostración. Demostraremos (1), (2) y (3), mientras que (4) se deja
como ejercicio.
25

(1) Tenemos que

0v = (0 + 0) v, [∵ 0 = 0 + 0]
= 0v + 0v, [∵ (EV2.2)]
0 + 0v = 0v + 0v. [∵ 0 es la identidad aditiva en V]
Por la propiedad de cancelación derecha del grupo (V, +), tenemos que
0 = 0v .
(2) Observemos que

α0 = α (0 + 0) , [∵ 0 = 0 + 0]
= α0 + α0, [∵ (EV2.1)]
0 + α0 = α0 + α0. [∵ 0 es la identidad aditiva en V]
Por la propiedad de cancelación derecha del grupo (V, +), tenemos que
0 = α0.
(3) Si α = 0, tenemos que αv = 0 como se demostró en el punto (1). Su-
pongamos que αv = 0 yα ̸= 0; demostraremos que v = 0. Debido a que
α ∈ F \{0} y F es un campo, entonces el inverso multiplicativo α−1 existe.
De esta manera,

α−1 (αv) = α−1 0,


α−1 α v = 0,


1v = 0,
v = 0.

(4) Ejercicio 1.20


Proposición 1.7. Sea V un espacio vectorial sobre un campo F.
(1) Sean α, β ∈ F y v ∈ V \ {0}. Si αv = βv , entonces α = β.
(2) Sean v, w ∈ V y α ∈ F \ {0}. Si αv = αw, entoces v = w.
Demostración.
(1) Si αv = βv , entonces

αv − βv = βv − βv,
αv − βv = 0,
(α − β) v = 0,
Como v ̸= 0, la Proposición 1.6 (3) implica que
α − β = 0,
α = β.
26 CAPÍTULO 1. ESPACIOS VECTORIALES Y SUS PROPIEDADES

(2) Ejercicio 1.21.

1.1. Ejemplos de espacios vectoriales


Ejemplo 1.8 (el campo F sobre si mismo). Sea F un campo. Como conse-
cuencia inmediata de la denición de espacio vectorial, mostraremos que F es
un espacio vectorial sobre F (es decir, ambos conjuntos de vectores y escalares
son iguales aF ). La suma de vectores y multiplicación escalar en este caso coin-
ciden con la suma y multiplicación de elementos del campo F . Por la denición
de campo, (F, +) es un grupo abeliano ((C1)). Además si α, β ∈ F son escalares
cualesquiera, y v, w ∈ F son vectores cualesquiera, entonces

α (v + w) = αv + αw y (α + β) v = αv + βv,

debido a que (F \0, ·) es un grupo abeliano (C2) y F satisface la ley distributiva


( C3). Además,
(αβ) v = α (βv) ,
porque la multiplicación de F es asociativa. Finalmente, si 1 es la identidad
multiplicativa de F y v ∈ F, entonces

1v = v.

Por lo tanto, F es un espacio vectorial sobre sí mismo.

Observación 1.9. Si F es un campo cualquiera, entonces F es un espacio vec-


torial sobre cualquier subcampo R de F.

Observación 1.10. Si
C es el campo de los números complejos y R es el campo
de los reales, entoncesC es un espacio vectorial sobre R porque R es un sub-
campo de C. Pero R no es un espacio vectorial sobre C porque R no es cerrado
con respecto ala multiplicación escalar. Por ejemplo, 2 ∈ R y (3 + 4i) 2 ∈
/ R.

Ejemplo 1.11 (Rn ). El ejemplo básico más importante de espacio vectorial es,
sin duda, el espacio vectorial real denotado por Rn = (Rn , +, ·), donde n ∈ N,
y los elementos que conforman la tríada están denidos de la siguiente manera:

(a) Rn es la n potencia cartesiana del campo real

Rn = R × R × · · · × R = {(x1 , . . . , xn ) : xi ∈ R, ∀i} .
| {z }
n veces

(b) Para v = (v1 , . . . , vn ) , w = (w1 , . . . , wn ) ∈ Rn , la suma de vectores está


denida como

v+w = (v1 , . . . , vn ) + (w1 , . . . , wn )


= (v1 + w1 , . . . , vn + wn ) .
1.1. EJEMPLOS DE ESPACIOS VECTORIALES 27

(c) Para α∈R y v = (v1 , . . . , vn ) ∈ Rn , la multiplicación escalar está denida


como

αv = α (v1 , . . . , vn )
= (αv1 , . . . , αvn ) .

Demostraremos que Rn es un espacio vectorial sobre R. Sean

u = (u1 , . . . , un ), v = (v1 , . . . , vn ), w = (w1 , . . . , wn ) ∈ Rn ,


vectores arbitrarios, y α, β ∈ R escalares arbitrarios.

(EV1) Comprobaremos que (Rn , +) es un grupo abeliano.


(G0) Cerradura : claramente, por denición v + w ∈ Rn .
(G1) Asociatividad de la suma :
u + (v + w) = (u1 , . . . , un ) + [(v1 , . . . , vn ) + (w1 , . . . , wn )]
= (u1 , . . . , un ) + (v1 + w1 , . . . , vn + wn )
= (u1 + [v1 + w1 ] , . . . , un + [vn + wn ])
= ([u1 + v1 ] + w1 , . . . , [un + vn ] + wn )
= (u1 + v1 , . . . , un + vn ) + (w1 , . . . , wn )
= [(u1 , . . . , un ) + (v1 , . . . , vn )] + (w1 , . . . , wn )
= (u + v) + w.
(G2) Identidad aditiva en Rn : el vector 0 = (0, . . . , 0) ∈ Rn satisface que
v+0 = (v1 , . . . , vn ) + (0, . . . , 0)
= (v1 + 0, . . . , vn + 0)
= (v1 . . . , vn ) = v.
Por lo tanto, 0 = (0, . . . , 0) es la identidad aditiva en Rn .
(G3) Inversos aditivos : el vector −v = (−v1 , . . . , −vn ) ∈ Rn es el inverso
aditivo de v:
(−v) + v = (−v1 , . . . , −vn ) + (v1 , . . . , vn )
= (−v1 + v1 , . . . , −vn + vn )
= (−v1 , . . . , −vn )
= (0, . . . , 0) = 0.
(G4) Conmutatividad de la suma :
v+w = (v1 , . . . , vn ) + (w1 , . . . , wn )
= (v1 + w1 , . . . , vn + wn )
= (w1 + v1 , . . . , wn + vn )
= (w1 , . . . , wn ) + (v1 , . . . , vn )
= w + v.
28 CAPÍTULO 1. ESPACIOS VECTORIALES Y SUS PROPIEDADES

(EV2) La multiplicación escalar satisface cada punto de la denición:

(1)
α (v + w) = α (v1 + w1 , . . . , vn + wn )
= (α [v1 + w1 ] , . . . , α [vn + wn ])
= (αv1 + αw1 , . . . , αvn + αwn )
= (αv1 , . . . , αvn ) + (αw1 , . . . , αwn )
= α (v1 , . . . , vn ) + α (w1 , . . . , wn )
= (αv) + (αw).

(2)
(α + β) v = ([α + β] v1 , . . . , [α + β] vn )
= (αv1 + βv1 , . . . , αvn + βvn )
= (αv1 , . . . , αvn ) + (βv1 , . . . , βvn )
= α (v1 , . . . , vn ) + β (v1 , . . . , vn )
= αv + βv.

(3)
(αβ) v = ([αβ] v1 , . . . , [αβ] vn )
= (α [βv1 ] , . . . , α [βvn ])
= α (βv1 , . . . , βvn )
= α (β (v1 , . . . , vn ))
= α (βv) .

(4)
1v = 1 (v1 , . . . , vn )
= (1v1 , . . . , 1vn )
= (v1 , . . . , vn )
= v.

Observación 1.12. El ejemplo anterior puede generalizarse a cualquier campo


F para formar el espacio vectorial F n .

Una matriz con entradas en un campo F es un arreglo rectangular de ele-


mentos de F. Típicamente, denotamos a cada elemento de una matriz como
ai,j ∈ F (o cualquier otra letra con el subíndice i, j ), donde i representa el
número de renglón donde se encuentra el elemento y j representa el número
de la columna. Decimos que una matriz es de n × m si tiene n renglones y m
1.1. EJEMPLOS DE ESPACIOS VECTORIALES 29

columnas. Una matriz genérica de n×m es la siguiente:


 
a1,1 a1,2 a1,3 ... a1,m

 a2,1 a2,2 a2,3 ... a2,m 


 a3,1 a3,2 a3,3 ... a3,m .

. . . .. .
. . . .
 
 . . . . . 
an,1 an,2 an,3 ... an,m

Para simplicar, denotamos a la matriz de arriba simplemente como (ai,j ).


Cuando n = m, decimos que la matriz es cuadrada. A los elementos ai,i de
la matriz se les llama elementos diagonales.
Ejemplo 1.13 (Espacio de las matrices). Sea F un campo. La tríada Mn×m (F ) =
(Mn×m (F ), +, ·) es un espacio vectorial sobre F donde los elementos que con-
forman la tríada están denidos de la siguiente manera:

(a) Mn×m (F ) es el conjunto de todas las matrices de n×m con entradas en


F.
(b) La suma de dos matrices de n×m se realiza sumando respectivamente cada
una de las entradas de ambas matrices:

(ai,j ) + (bi,j ) = (ai,j + bi,j ).

(c) La multiplicación escalar de α∈F por una matriz se realiza multiplicando


todos los elementos de la matriz por α:

α(ai,j ) = (αai,j ).

Es rutinatio vericar que Mn×m (F ) es un espacio vectorial sobre F.

Ejemplo 1.14 (Espacio de las funciones). Sea S un conjunto no vacío y F


S S
un campo. Consideremos la tríada F = (F , +, ·) donde:

(a) FS es el conjunto de las funciones con dominio S y codominio F

F S = {f : S → F : f es una función} .

(b) Para f, g ∈ F S , la suma (f + g) es la función dada por

(f + g) (x) = f (x) + g (x) , ∀x ∈ S.

(c) Para f y α ∈ F, la multiplicación escalar αf es la función dada por

(αf ) (x) = αf (x) , ∀x ∈ S.

Demostraremos que F S es un espacio vectorial sobre F. Sean f, g, h ∈ F S


funciones arbitrarias y α, β ∈ F escalares arbitrarios.
30 CAPÍTULO 1. ESPACIOS VECTORIALES Y SUS PROPIEDADES

(EV1) F S , + es un grupo abeliano.




(G0) Cerradura : por denición, f + g ∈ F S .


(G1) Asociatividad de la suma : para toda x ∈ S ,
[(f + g) + h] (x) = (f + g) (x) + h (x)
= [f (x) + g (x)] + h (x)
= f (x) + [g (x) + h (x)]
= f (x) + (g + h) (x)
= [f + (g + h)] (x) .
Como dos funciones son iguales si y sólo si coinciden en todos sus
valores, tenemos que

(f + g) + h = f + (g + h) .
(G2) Identidad aditiva : denamos la función cero como i0 : S → F como
i0 (x) = 0, ∀x ∈ S . Para toda x ∈ S,
(f + i0 ) (x) = f (x) + i0 (x)
= f (x) + 0
= f (x) .
Por lo tanto
f + i0 = f.
Esto demuestra que i0 es la identidad aditiva en F S.
(G3) Inversos aditivos : Denamos la función −f : S → F por

(−f ) (x) = −f (x) , ∀x ∈ S.


Entonces, para toda x ∈ S,
[f + (−f )] (x) = f (x) + (−f ) (x)
= f (x) − f (x)
= 0
= i0 (x) .
Por lo tanto,
f + (−f ) = i0 ,
así que −f es el inverso aditivo de f.
(G4) Conmutatividad de la suma : para toda x ∈ S ,
(f + g) (x) = f (x) + g (x)
= g (x) + f (x)
= (g + f ) (x) .
Por lo tanto ,
f + g = g + f.
1.1. EJEMPLOS DE ESPACIOS VECTORIALES 31

(EV2) La multiplicación escalar satisface cada punto de la denición:

(1) Para toda x ∈ S,

[α (f + g)] (x) = α [(f + g) (x)]


= α [f (x) + g (x)]
= αf (x) + αg (x)
= (αf ) (x) + (αg) (x)
= (αf + αg) (x) .

Por lo tanto,
α (f + g) = αf + αg.

(2) Para toda x ∈ S,

[(α + β) f ] (x) = (α + β) f (x)


= αf (x) + βf (x)
= (αf ) (x) + (βf ) (x)
= (αf + βf ) (x) .

Por lo tanto,
(α + β) f = αf + βf.

(3) Para toda x ∈ S,

[(αβ) f ] (x) = (αβ) f (x)


= α [βf (x)]
= α [(βf ) (x)]
= [α (βf )] (x) .

Por lo tanto,
(αβ) f = α (βf ) .

(4) Para toda x ∈ S,

(1f ) (x) = 1f (x)


= f (x) .

Por lo tanto,
1f = f.

Por lo tanto, FS es un espacio vectorial sobre F.

Ejemplo 1.15 (F [x]). Sea F un campo y consideremos la tríada F [x] = (F [x], +, ·)


donde:
32 CAPÍTULO 1. ESPACIOS VECTORIALES Y SUS PROPIEDADES

(a) F [x] es el conjunto de todos los polinomios en la variable x con coecientes


en F ,

( n )
X
n i
F [x] = {a0 + a1 x + . . . + an x : ai ∈ F, n ∈ N} = ai x : ai ∈ F, n ∈ N .
i=0

(b)
Pn
Sean = a0 + a1 x + . . . + an xn = i=0 ai xi y q (x) = b0 + b1 x + . . . +
p (x)P
m
bm xm = i=0 bi xi elementos de F [x]. Sin perder generalidad supongamos
que n ≥ m. La suma de polinomios está denida como

p (x) + q (x) = (a0 + . . . + an xn ) + (b0 + . . . + bm xm )


= (a0 + b0 ) + . . . + (am + bm ) xm + am+1 xm+1 + . . . + an xn
Xm Xn
= (ai + bi )xi + ai xi .
i=0 i=m+1

(c) Sean p (x) = a0 + . . . + an xn ∈ F [x] y α ∈ F. La multiplicación por escalar


está denida como

n
X n
X
αp (x) = α (a0 + a1 x + . . . + an xn ) = α ai xi = αai xi .
i=0 i=0

Demostremos que F [x] es un espacio vectorial sobre F. Sean

n
X m
X
p(x) = ai xi , y q(x) = bi xi ,
i=0 i=0

elementos arbitrarios de F [x], con n ≥ m, y sean α, β ∈ F escalares arbitrarios.

(EV1) Demostrar que (F [x], +) es un grupo abeliano se deja como ejercicio


( Ejercicio 1.19).

(EV2) La multiplicación escalar satisface cada punto de la denición:


1.1. EJEMPLOS DE ESPACIOS VECTORIALES 33

(1)
" n m
#
X X
i i
α [p (x) + q (x)] = α ai x + bi x
i=0 i=0
"m n
#
X X
=α (ai + bi )xi + ai xi
i=0 i=m+1
m
X Xn
= α(ai + bi )xi + αai xi
i=0 i=m+1
m
X Xn
= (αai + αbi )xi + αai xi
i=0 i=m+1
n
X m
X
= αai xi + αbi xi
i=0 i=0
= αp (x) + αq (x) .

(2)
n
X
(α + β) p (x) = (α + β) ai xi
i=0
n
X
= (α + β)ai xi
i=0
n
X
= (αai + βai )xi
i=0
n
X n
X
= αai x + βai xi
i=0 i=0
= αp (x) + βp (x) .

(3)
n
X n
X
(αβ) p (x) = (αβ) ai xi = (αβ)ai xi
i=0 i=0
n
X Xn
= α(βai )xi = α βai xi = α [βp (x)] .
i=0 i=0

(4)
n
X n
X n
X
1p (x) = 1 ai xi = 1ai xi = ai xi = p (x) .
i=0 i=0 i=0

Terminaremos este capítulo estudiando cómo construir un nuevo espacio


vectorial a partir de dos espacios vectoriales dados.
34 CAPÍTULO 1. ESPACIOS VECTORIALES Y SUS PROPIEDADES

Definición 1.16 (suma directa externa). Sean V y W espacios vectoriales so-


bre F . La suma directa externa de V y W es el espacio vectorial V ⊞ W =
(V × W, +, ·) sobre F , donde cada elemento de la tríada está denido como
sigue:

(a) V × W = {(v, w) : v ∈ V, w ∈ W }.

(b) La suma de elementos de V × W es la suma por coordenadas : (v1 , w1 ) +


(v2 , w2 ) = (v1 + v2 , w1 + w2 ), para toda (v1 , w1 ), (v2 , w2 ) ∈ V × W .
(c) La multiplicación escalar es la multiplicación escalar por coordenadas : α (v, w) =
(αv, αw), para toda (v, w) ∈ V × W y α ∈ F.

La demostración de que V ⊞W es de hecho un espacio vectorial sobre F


se deja como ejercicio. Observemos que, tomando V = W = R, los espacios
vectorialesR⊞R y R2 son iguales. En general, para cualquier campo F , tenemos
n
que
{z· · · ⊞ F}.
F = |F ⊞ F ⊞
n veces

Palabras clave: espacio vectorial, espacio vectorial real, espacio vectorial


de matrices, espacio vectorial de funciones, espacio vectorial de polinomios, su-
ma directa externa.
1.2. EJERCICIOS 35

1.2. Ejercicios
Ejercicio 1.17. Sea V un espacio vectorial sobre un campo F.
(1) Demuestra que si α, β ∈ F son escalares distintos, entonces αv ̸= βv , para
todo v ∈ V \ {0}.
(2) Usa el punto anterior para demostrar que todo espacio vectorial no trivial
sobre un campo innito tiene un número innito de vectores distintos.

(3) Si F es un campo nito, da un ejemplo de espacio vectorial sobre F que


tenga un número nito de vectores, y otro que tenga un número innito
de vectores.

Ejercicio 1.18. Sean V y W espacios vectoriales sobre F . Demuestra que la


suma directa externa V ⊞ W es un espacio vectorial sobre F .

Ejercicio 1.19. Demuestra que (F [x], +), denido en el Ejemplo 1.15, es un


grupo abeliano.

Ejercicio 1.20. Demuestra la propiedad (4) de la Proposición 1.6.


Ejercicio 1.21. Demuestra la propiedad (2) de la Proposición 1.7.
Ejercicio 1.22. Demuestra que el conjunto de matrices
  
x11 x12
M2×2 (R) = : x11 , x12 , x21 , x22 ∈ R ,
x21 x22

es un espacio vectorial sobre R, con la suma y multiplicación escalar usual de


matrices.

Ejercicio 1.23. Sea F un campo. Demuestra que el conjunto de series formales


( )
X
i
F [[x]] = ai x : ai ∈ F ,
i=0

junto con las operaciones


X ∞
X ∞
X
i i
ai x + bi x = (ai + bi ) xi ,
i=0 i=0 i=0

X ∞
X
α ai xi = αai xi , donde α ∈ F,
i=0 i=0

es un espacio un espacio vectorial sobre F.

Ejercicio 1.24. Demuestra que C = {x + yi : x, y ∈ R}, junto con la suma usual


de números complejos y la multiplicación escalar α (x + yi) = αx + αyi, α ∈ R,
es un espacio vectorial sobre R.
36 CAPÍTULO 1. ESPACIOS VECTORIALES Y SUS PROPIEDADES

Ejercicio 1.25. Considera el conjunto R×R y las operaciones

(x1 , x2 ) +
b (y1 , y2 ) = (x1 y1 , x2 y2 ) ,
α (x1 , x2 ) = (αx1 , αx2 ) ,
donde xi , yi , α ∈ R. Explica por qué R × R, junto con estas operaciones, no es
un espacio vectorial real.

Ejercicio 1.26. Sea V = {(x1 , x2 ) : x1 , x2 ∈ R}. Para (x1 , x2 ) , (y1 , y2 ) ∈ V y


α ∈ R, denamos
(x1 , x2 ) +
b (y1 , y2 ) = (x1 + y1 , 0) ,
αb· (x1 , x2 ) = (αx1 , 0) .
Demuestra que V con estas operaciones no es un espacio vectorial sobre R.
Existen ejemplos de espacios espacios raros que satisfacen los propiedades
de espacio vectorial a pesar de contar con operaciones que no se parecen a la
adición y la multiplicación escalar usuales. Estos espacios son, en esencia, espa-
cios vectoriales ordinarios con sus elementos etiquetados de nuevo para disfrazar
su naturaleza. Los siguientes ejercicios exploran esta posibilidad con frecuencia
confusa.

Ejercicio 1.27. Sea V = {(x1 , x2 ) : x1 , x2 ∈ C}. Para (x1 , x2 ), (y1 , y2 ) ∈ V y


α ∈ C, denamos
(x1 , x2 )+(y
b 1 , y2 ) = (x1 + y1 + 1, x2 + y2 + 1) ,
αb· (x1 , x2 ) = (αx1 + α − 1, αx2 + α − 1) .
Demuestra que V es un espacio vectorial sobre C. ¾Cuál es el vector cero?, ¾Cuál
es el inverso aditivo?

Ejercicio 1.28. Sea V un espacio vectorial sobre un campo F , S un conjunto


−1
y f : V → S una función biyectiva (así que f : S → V es una función bien
denida). Para todo v, w ∈ S y α ∈ F , denamos

b = f f −1 (v) + f −1 (w) ,

v +w
αb· v = f αf −1 (v) .


Demuestra que S con estas operaciones satisfacen las propiedades de espacio


vectorial.

Ejercicio 1.29. Sea S = R+ . Demuestra que S es un espacio vectorial con las


operaciones

v +w
b = vw,
αb· v = v α .
¾Qué elemento de S es la identidad aditiva? ¾Qué signicado tiene −x en este
contexto?
1.2. EJERCICIOS 37

Ejercicio 1.30. Sea S = R. Demuestra que S es un espacio vectorial con las


operaciones

v +w
b = v + w + 1,
αb· v = αv + α − 1.

¾Qué elemento de S es la identidad aditiva? ¾Qué signicado tiene −x en este


contexto?

Ejercicio 1.31. Muestra que los espacios de los ejercicios 1.29 y 1.30 se pueden
obtener de V = R por la construcción del ejercicio 1.28 y los mapeos f (v) =
ev y f (v) = v − 1, respectivamente. De hecho, todo ejemplo de un espacio
vectorial raro puede ser obtenido de un espacio vectorial simple por medio de
esta construcción.
38 CAPÍTULO 1. ESPACIOS VECTORIALES Y SUS PROPIEDADES
Subespacios vectoriales
2
Definición 2.1 (subespacio vectorial). Sea V un espacio vectorial sobre F.
Un subconjunto S de V es un subespacio vectorial de V si S es en sí mismo
un espacio vectorial sobre F bajo la restricción de las operaciones de suma y
multiplicación escalar denidas en V .

Observación 2.2. + : V × V → V y · : F × V → V son la operaciones


Si
de un espacio vectorial V , la restricción de estas operaciones a un subconjunto
S ⊆ V tienen la forma +|S : S × S → V y ·|S : F × S → V . Para que S sea un
subespacio vectorial de V , es necesario que estas operaciones tengan la forma
+|S : S × S → S y ·|S : F × S → S ; es decir, que cada una cumpla la propiedad
de cerradura en S .

Observación 2.3. Para denotar que S es un subespacio vectorial de V escri-


biremos S ≤ V . También, ocasionalmente, usaremos simplemente el término
subespacio para referirnos a un subespacio vectorial.

Teorema 2.4 (test del subespacio 1). Sea V un espacio vectorial sobre un
campo F . Un subconjunto S ⊆ V es un subespacio vectorial de V si y sólo
si se cumple lo siguiente:

(SV1) 0 ∈ S.

(SV2) Si u, v ∈ S , entonces u + v ∈ S.

(SV3) Si v ∈ S, α ∈ F , entonces αv ∈ S .

Demostración.

(⇒) Supongamos que S ≤ V . Entonces S cumple las propiedades (SV2) y


(SV3) por la denición de espacio vectorial, pues las operaciones suma y
multiplicación por escalar deben estar bien denidas sobre S . Además, S
debe tener un vector cero, al cual denotaremos por 0S , el cual cumple que
0S + (−0S ) = 0S . Sin embargo, 0S ∈ V debido a que S ⊆ V , y debemos
tener que 0S + (−0S ) = 0, donde 0 es el vector cero de V . Esto demuestra
la propiedad (SV1), pues 0 = 0S ∈ S .

39
40 CAPÍTULO 2. SUBESPACIOS VECTORIALES

(⇐ ) Supongamos que S ⊆V cumple las propiedades (SV1)-(SV3). Demos-


traremos que S es un espacio vectorial.

Para demostrar que S es un espacio vectorial en sí mismo, mostremos


primero que (S, +) es un subgrupo abeliano de (V, +):
(EV1) (S, +) es un grupo abeliano.
(G0) Cerradura : por la hipótesis (SV2), u + v ∈ S , ∀u, v ∈ S .
(G1) Asociatividad : Sabemos que u+(v+w) = (u+v)+w, ∀u, v, w ∈
V, porque V S ⊆ V , en particular
es un espacio vectorial. Como
u + (v + w) = (u + v) + w, ∀u, v, w ∈ S .
se cumple que

(G2) Identidad : por la hipótesis (SV1), la identidad aditiva 0 per-


tenece a S .

(G3) Inversos : sea v ∈ S . Por la hipótesis (SV3), tenemos que


(−1) v ∈ S . Como (−1) v = − (1v) = −v por la Proposición 1.6
(4), entonces −v ∈ S .
(G4) Conmutatividad : Sabemos que v + w = w + v, ∀v, w ∈ V ,
porque V es un espacio vectorial. Como S ⊆ V , en particular se
cumple que v + w = w + v , ∀v, w ∈ S .

(EV2) Por la hipótesis (SV3), la multiplicación escalar cumple la pro-


piedad de cerradura en S. El resto de las propiedades de la multipli-
cación escalar se cumplen automáticamente en S porque son un caso
particular de las propiedades que se satisfacen en V.

Si asumimos que S es un subconjunto no vacío de V, entonces podemos
eliminar la condición (SV1) del Teorema 2.4; en efecto, si v ∈ S, entonces
0v = 0 ∈ S por la condición (SV3). Esto indica que, para determinar si S
es un subespacio de V, no es necesario siempre vericar que 0 ∈ S, basta con
demostrar que S es no vacío y que se cumplen las condiciones (SV2) y (SV3)
del Teorema 2.4. Podemos simplicar aún más las cosas, según se indica en el
siguiente resultado.

Teorema 2.5 (test del subespacio 2). Sea V un espacio vectorial sobre un
campo F y S un subconjunto no vacío de V . Entonces, S es un subespacio
vectorial de V si y sólo si
αv + βw ∈ S,
para toda α, β ∈ F y v, w ∈ S .
Demostración.
(⇒ ) Supongamos que S ≤ V . Como S es cerrado bajo la la suma de vectores y la
multiplicación escalar, obviamente se cumple que αv + βw ∈ S , ∀α, β ∈ F ,
v, w ∈ V .
(⇐ ) Supongamos ahora que S es un subconjunto no vacío de V tal que para
cualquier α, β ∈ F y v, w ∈ S resulta que αv + βw ∈ S . Usaremos la
Proposición 2.4 para demostrar que S es un subespacio vectorial.
41

(SV1) Como S es no vacío, existe al menos un vector v ∈ V . Tomando


w=v y α = β = 0, vemos que 0v + 0v = 0 ∈ S .
(SV2) Tomando α = β = 1, vemos que v + w ∈ S , ∀v, w ∈ S .
(SV3) Tomando β = 0, vemos que αv + 0w = αv ∈ S , ∀v ∈ S , α ∈ F .

Ejemplo 2.6. Sea V un espacio vectorial sobre un campo F . Los conjuntos V
y {0} siempre son subespacios de V , llamados subespacios triviales.

Ejemplo 2.7. El conjunto

S = (x1 , x2 , x3 ) ∈ R3 : x3 = 0 ,


es un subespacio de R3 . Vericaremos que se cumple el Test del Subespacio 1.

(SV1) 0 = (0, 0, 0) ∈ S porque la tercera coordenada es cero.

(SV2) Sean v = (v1 , v2 , 0), w = (w1 , w2 , 0) ∈ S . Entonces, v + w = (v1 +


w1 , v2 + w2 , 0) ∈ S , puesto que la tercera coordenada es cero.
(SV3) Sean v = (v1 , v2 , 0) ∈ S y α ∈ R. Entonces, αv = (αv1 , αv2 , 0) ∈ S ,
puesto que la tercera coordenada es cero.

Ejemplo 2.8. El conjunto

S = (x1 , x2 , x3 ) ∈ R3 : x1 + x2 − 2x3 = 0 ,


es un subespacio de R3 . Vericaremos que se cumple el Test del Subespacio 1.

(SV1) 0 = (0, 0, 0) ∈ S porque 0 + 0 − (2 · 0) = 0.


(SV2) Si v = (v1 , v2 , v3 ), w = (w1 , w2 , w3 ) ∈ S , por denición tenemos que

v1 + v2 − 2v3 = 0,
w1 + w2 − 2w3 = 0.

Ahora, v + w = (v1 + w1 , v2 + w2 , v3 + w3 ) ∈ S porque

(v1 +w1 )+(v2 +w2 )−2(v3 +w3 ) = (v1 +v2 −2v3 )+(w1 +w2 −2w3 ) = 0+0 = 0.

(SV3) Para toda v = (v1 , v2 , v3 ) ∈ S y α ∈ R, tenemos que αv = (αv1 , αv2 , αv3 ) ∈


S porque

αv1 + αv2 − 2αv3 = α(v1 + v2 − 2v3 ) = α · 0 = 0.

Ejemplo 2.9. El conjunto

S := {(0, 0, 0), (1, 1, 0), (1, 0, 1), (0, 1, 1)}.

es un subespacio de Z32 . Vericaremos que se cumple el Test del Subespacio 1.


42 CAPÍTULO 2. SUBESPACIOS VECTORIALES

(SV1) Claramente (0, 0, 0) ∈ S .


(SV2) Es fácil vericar que S es cerrado bajo la suma usando el hecho que
v + v = 0, ∀v ∈ Z32 , y que

(1, 1, 0) + (1, 0, 1) = (0, 1, 1).

(SV3) En el campo Z2 sólo hay dos escalares: 0 y 1. Por lo tanto, para toda
v ∈ S, tenemos 0v = 0 ∈ S y 1v = v ∈ S .

Ejemplo 2.10. Veremos algunos ejemplos de conjuntos que no son subespacios.


1. A := {(x1 , x2 ) ∈ R2 : x1 + x2 = 1} no es subespacio de R2 porque
(0, 0) ̸∈ A (ya que 0 + 0 ̸= 1).
2. A := {(x1 , x2 ) ∈ R2 : x1 x2 = 0} no es un subespacio de R2 porque no es
cerrado bajo la suma: por ejemplo, (1, 0), (0, 1) ∈ A pero (1, 0) + (0, 1) =
(1, 1) ̸∈ A.
3. A := {(0, 0), (1, 0), (0, 1), (1, 1)} no es subespacio de R2 porque no es ce-
rrado bajo la suma: por ejemplo, (1, 0) + (1, 0) = (2, 0) ̸∈ A.
4. A := {(x1 , x2 ) ∈ R2 : x1 , x2 ∈ Z} R2 porque no es
no es subespacio de
cerrado bajo la multiplicación por escalar: si (x1 , x2 ) ∈ A existen α ∈ R

(por ejemplo, α = 2 o α = π ) tales que α(x1 , x2 ) ̸∈ A.

2.1. Subespacios generados


Definición 2.11 (combinación lineal). Sea A un subconjunto no vacío de un
espacio vectorial V sobre F . Una combinación lineal de A es una expresión de
la forma
α1 v1 + α2 v2 + . . . αn vn ,
donde αi ∈ F , vi ∈ A, i = 1, . . . , n. Los escalares α1 , . . . , α n se llaman los
coecientes de la combinación lineal. Decimos que la combinación lineal es trivial
si todos sus coecientes son cero.

Obviamente, también podemos usar la notación de sumatoria para escribir


una combinación lineal:

n
X
α1 v1 + α2 v2 + . . . αn vn = αi vi .
i=1

Observación 2.12. Por denición, el número de términos que aparece en una


combinación lineal de A es un número nito, aunque el subconjunto A en sí
mismo podría ser innito.

La siguiente denición nos permite construir un subespacio a partir de un


subconjunto.
2.1. SUBESPACIOS GENERADOS 43

Definición 2.13 (subespacio generado). Sea A un subconjunto no vacío de


un espacio vectorial V sobre F . El espacio generado por A sobre F , denotado
por genF (A) o por ⟨A⟩ (cuando F está claro en el contexto), es el conjunto de
todas las combinaciones lineales de A con escalares en F . En otras palabras,

genF (A) = ⟨A⟩ := {α1 v1 + · · · + αn vn : αi ∈ F, vi ∈ A, n ∈ N}.

Si A = ∅, denimos ⟨∅⟩ = {0}.

Teorema 2.14 (subespacio generado). Sea A un subconjunto no vacío de un


V sobre F . Entonces, ⟨A⟩ es un subespacio de V .
espacio vectorial

Demostración. Usaremos el Test del Subespacio 1.

(SV1) 0 ∈ ⟨A⟩ porque 0 = 0v1 + · · · + 0vn para cualquier vi ∈ A.


(SV2) Sean ni=1 αi vi , m
P P
i=1 βi wi ∈ ⟨A⟩ dos combinaciones lineales, donde
vi , wi ∈ A, αi , βi ∈ F .PEntonces suPsuma es también una combinacion
n m
lineal de A, por lo que i=1 αi vi + i=1 βi wi ∈ ⟨A⟩.

(SV3) Sea i=1 αi vi ∈ ⟨A⟩ y α ∈ F . Entonces,


Pn

n
! n
X X
α αi vi = (ααi )vi ∈ ⟨A⟩.
i=1 i=1


Ejemplo 2.15. Sea V un espacio vectorial sobre F. Si v ∈V, entonces

genF (v) = ⟨{v}⟩ = ⟨v⟩ = {αv : α ∈ F } .

Por ejemplo, si consideramos v = (1, 0, 0) ∈ R3 , entonces

⟨v⟩ = {α (1, 0, 0) : α ∈ R}
= {(α, 0, 0) : α ∈ R} .

Similarmente, si u = (1, 0, 0) ∈ Z33 , entonces

⟨u⟩ = {(α, 0, 0) : α ∈ Z3 }
= {(0, 0, 0) , (1, 0, 0) , (2, 0, 0)} .

Ejemplo 2.16. Sea V un espacio vectorial sobre F. Si v, u ∈ V , entonces

⟨v, u⟩ = {α1 v + α2 u : αi ∈ F } .

Por ejemplo, si v = (1, 0) , u = (0, 1) ∈ R2 , entonces

⟨v, u⟩ = {α1 (1, 0) + α2 (0, 1) : αi ∈ R}


= {(α1 , α2 ) : αi ∈ R} = R2 .
44 CAPÍTULO 2. SUBESPACIOS VECTORIALES

Cabe señalar que si w = αv + βu es cualquier combinación lineal de v y u,


entonces ⟨v, u, w⟩ = ⟨v, u⟩, debido a que

⟨v, u, w⟩ = {α1 v + α2 u + α3 w : αi ∈ F }
= {α1 v + α2 u + α3 (αv + βu) : αi ∈ F }
= {(α1 + α3 α) v + (α2 + α3 β) u : αi ∈ F }
= ⟨v, u⟩ .

Observación 2.17. Sea V un espacio vectorial sobre F. Sean v1 , . . . , v n ∈ V


vectores arbitrarios y sean α1 , . . . , αn ∈ F escalares arbitrarios. Entonces,

⟨v1 , . . . , vn ⟩ = ⟨α1 v1 , . . . , αn vn ⟩.

Lema 2.18 (propiedades básicas de subespacios generados). Sea A un sub-


conjunto no vacío de un espacio vectorial V sobre F . Entonces:

(1) A ⊆ ⟨A⟩
(2) Si S≤V satisface que A ⊆ S, entonces ⟨A⟩ ⊆ S .
(3) Si B es un subconjunto de V tal que A ⊆ B, entonces ⟨A⟩ ⊆ ⟨B⟩.
(4) A es un subespacio de V si y sólo si ⟨A⟩ = A.
(5) ⟨A ∪ {v}⟩ = ⟨A⟩ si y sólo si v ∈ ⟨A⟩.

Demostración. Ejercicio 2.45. □


Observación 2.19. Los puntos (1) y (2) del lema anterior nos dice que ⟨A⟩ es
el subespacio más pequeño que contiene a A.

Ejemplo 2.20. Consideremos el espacio vectorial de polinomios R [x].


 Si A :=
1, x, x2 , entonces

⟨A⟩ = α1 + α2 x + α3 x2 : αi ∈ R


es el subespacio de polinomios con grado menor o igual que dos.

Ejemplo 2.21. Consideremos el siguiente subconjunto innito de R[x]

A := {1, x, x2 , . . . } = {xi : i ∈ N}.

Entonces, ⟨A⟩ = R[x], porque cualquier polinomio en R[x] es una combinación


lineal de elementos de A.

Ejemplo 2.22. A = {(−3, 1, 1) , (1, −3, 1) , (1, 1, −3)} ⊆ R3 . Queremos de-


Sea
terminar si el vector (1, 2, 4) pertenece al espacio generado por A. En caso de
que así sea, deben existir escalares αi ∈ R tales que

(1, 2, 4) = α1 (−3, 1, 1) + α2 (1, −3, 1) + α3 (1, 1, −3)


= (−3α1 + α2 + α3 , α1 − 3α2 + α3 , α1 + α2 − 3α3 ) .
2.2. INTERSECCIONES Y SUMAS DE SUBESPACIOS 45

Por lo tanto, tales escalares existen sí y sólo si el siguiente sistema de ecuaciones


tiene solución:

1 = −3α1 + α2 + α3
2 = α1 − 3α2 + α3
= α1 + α2 − 3α3
4
9 11
 
Con cálculos directos obtenemos que α1 = −2, α2 = − , α3 = − es una so-
4 4
lución del sistema; por lo tanto, efectivamente (1, 2, 4) ∈ ⟨A⟩ y

9 11
(1, 2, 4) = −2 (−3, 1, 1) − (1, −3, 1) − (1, 1, −3) .
4 4
Ejemplo 2.23. Consideremos el siguiente subespacio de R3

S := {(x1 , x2 , x3 ) ∈ R3 : x1 + x2 + 2x3 = 0}.

Podemos encontrar un conjunto generador de S de la siguiente forma:

S = {(x1 , x2 , x3 ) ∈ R3 : x1 = −x2 − 2x3 }


= {(−x2 − 2x3 , x2 , x3 ) : x2 , x3 ∈ R}
= {x2 (−1, 1, 0) + x3 (−2, 0, 1) : x2 , x3 ∈ R}
= ⟨(−1, 1, 0), (−2, 0, 1)⟩ .

2.2. Intersecciones y sumas de subespacios


Dados dos subespacios S y T de V , existen dos subespacios importantes rela-
cionados: uno que está contenido en ambos, llamado el subespacio intersección,
y otro que contiene a ambos, llamado el subespacio suma.
Teorema 2.24 (intersección de subespacios). Sean S y T subespacios de un
espacio vectorial V sobre F . Entonces, la intersección S ∩ T también es un
subespacio de V

Demostración. Puesto que 0 ∈ S y 0 ∈ T , tenemos que 0 ∈ S ∩ T , así que


S ∩ T ̸= ∅. Usaremos el Teorema 2.5. Sean v, w ∈ S ∩ T y α, β ∈ F elementos
arbitrarios. Ahora,

v ∈S∩T =⇒ v∈S y v∈T


w ∈S∩T =⇒ w∈S y w ∈ T.

Puesto que S y T son subespacios, tenemos que αv + βw ∈ S y αv + βw ∈ T .


Por lo tanto, αv + βw ∈ S ∩ T . Esto demuestra que S ∩ T es un subespacio de
V. □
Corolario 2.25. Sean S y T subespacios del espacio vectorial V . El subespacio
S ∩ T es el subespacio de V más grande contenido simultáneamente en S y T .
46 CAPÍTULO 2. SUBESPACIOS VECTORIALES

Demostración. Ejercicio 2.46. □


Observación 2.26. La unión de dos subespacios de un espacio vectorial V,
puede no ser un subespacio de V. Por ejemplo,

S = {(0, 0, z) : z ∈ R} y T = {(0, y, 0) : y ∈ R}

son subespacios de R3 , pero S ∪ T no es un subespacio de R3 . Para comprobar


esto, vemos que (0, 0, 1) ∈ S ∪ T y (0, 1, 0) ∈ S ∪ T , pero

(0, 0, 1) + (0, 1, 0) = (0, 1, 1) ∈


/ S∪T

ya que (0, 1, 1) ̸∈ S y (0, 1, 1) ̸∈ T . Esto demuestra que S ∪T no es cerrado bajo


la suma de vectores, por lo que no puede ser un subespacio.

Teorema 2.27 (unión de subespacios). Sean S y T subespacios de un espacio


vectorial V sobre F . La unión S ∪ T es un subespacio de V si y sólo si S ⊆ T o
T ⊆ S.

Demostración.
(⇒) Asumimos que S ∪T ≤ V . Supongamos que S ⊈ T , así que demostraremos
que T ⊆ S. ComoS ⊈ T , existe un vector s ∈ S \ T . Sea t ∈ T un vector
arbitrario. Debido a que S ∪T es un subespacio, tenemos que s+t ∈ S ∪T ;
es decir, s + t ∈ S o s + t ∈ T . Si s + t ∈ T , entonces, por cerradura de
la suma, deducimos que s = (s + t) + (−t) ∈ T , lo cual contradice que
s ∈ S \ T . Luego, s + t ∈ S . Nuevamente, por cerradura de la suma,
t = (s + t) + (−s) ∈ S . Esto demuestra que si t ∈ T , entonces t ∈ S ; en
otras palabras, T ⊆ S .

(⇐) Si S ⊆ T , entonces S ∪ T = T es un subespacio. Similarmente, si T ⊆ S,


entonces S ∪ T = S es un subespacio.

Definición 2.28 (suma de subespacios). Sean S y T subespacios de un espa-
cio vectorialV sobre F . La suma de S y T , denotada por S +T , es el subconjunto
de V de todas las posibles sumas de vectores de S y T , es decir

S + T = {s + t ∈ V : s ∈ S, t ∈ T } .
 
Ejemplo 2.29. Sean S = (x1 , 0, 0) ∈ R3 : x1 ∈ R y T = (0, x2 , 0) ∈ R3 : x2 ∈ R .
Entonces
S + T = {(x1 , x2 , 0) : x1 , x2 ∈ R} .

Proposición 2.30. Sean S y T subespacios de un espacio vectorial V sobre F.


(1) La suma S+T es un subespacio de V.
(2) S+T es el subespacio de V más pequeño que contiene a S y T.
2.2. INTERSECCIONES Y SUMAS DE SUBESPACIOS 47

Demostración.
(1) Como 0 ∈ S y 0 ∈ T , tenemos que 0 = 0 + 0 ∈ S + T . Por lo tanto, S + T es
un conjunto no vacío. Usaremos el Teorema 2.5. Sean s1 +t1 , s2 +t2 ∈ S+T ,
donde s1 , s2 ∈ S y t1 , t2 ∈ T . Sean α, β ∈ F escalares arbitrarios. Puesto
que S y T son subespacios, αs1 + βs2 ∈ S y αt1 + βt2 ∈ T . Por lo tanto,
α (s1 + t1 ) + β (s2 + t2 ) = (αs1 + βs2 ) + (αt1 + βt2 ) ∈ S + T,
Esto demuestra que S+T ≤V.
(2) Para probar que S + T es el subespacio de V más pequeño que contiene a
S yT , necesitamos mostrar dos cosas: (a) S ⊆ S + T y T ⊆ S + T , (b)
si W ≤ V satisface que S ⊆ W y T ⊆ W , entonces S + T ⊆ W .
(a) Cualquier s ∈ S puede escribirse como s = s+0 ∈ S +T , donde 0 ∈ T ,
así que S ⊆ S + T . Análogamente demostramos que T ⊆ S + T .
(b) Sea W un subespacio de V tal que S ⊆ W y T ⊆ W . Sea s+t ∈ S +T
un elemento arbitrario, donde s ∈ S y t ∈ T . Puesto que S ⊆ W y
T ⊆ W , tenemos que s ∈ W y t ∈ W . Como W ≤ V , deducimos que
s + t ∈ W . Esto demuestra que S + T ⊆ W .

Definición 2.31 (suma directa interna). Sean S y T subespacios de un espacio
vectorialV sobre F . Decimos que la suma de S + T es una suma directa interna
de S y T , y escribimos S ⊕ T , si cada elemento v ∈ S + T puede escribirse de
forma única como v = s + t; donde s ∈ S , t ∈ T .

Ejemplo 2.32. S = {(x1 , x2 , 0) : x1 , x2 ∈ R} y T = {(0, x2 , x3 ) : x2 , x3 ∈ R}


Sean
dos subespacios de R3 . No es difícil demostrar que la suma S+T es igual a todo el
3
espacio R . Sin embargo, la suma S+T no es una suma directa interna porque no
todos sus vectores tienen una representación única; por ejemplo, (4, 6, 8) ∈ S +T
puede escribirse de dos formas distintas como suma de elementos de S y T :

(4, 6, 8) = (4, 5, 0) + (0, 1, 8) , y

(4, 6, 8) = (4, −1, 0) + (0, 7, 8) .


Ejemplo 2.33. S = {(x1 , x2 , 0) : x1 , x2 ∈ R} y T = {(0, 0, x3 ) : x3 ∈ R}
Sean
dos subespacios de R3 . En este caso, cualquier vector (x1 , x2 , x3 ) ∈ S + T = R3
se escribe de forma única como la suma de un vector en S y otro en T :

(x1 , x2 , x3 ) = (x1 , x2 , 0) + (0, 0, x3 ) .


Por lo tanto, R3 = S ⊕ T .
Ejemplo 2.34. Sea V = Mn (R) el espacio vectorial de las matrices de n×n
sobre el campo R. SiV1 y V2 son los subespacios de las matrices simétricas
y antisimétricas respectivamente, entonces V = V1 ⊕ V2 . De hecho, cualquier
matriz A ∈ V se puede escribir de forma única como el suma de una matriz
simétrica y una matriz antisimétrica: la única manera de tener A = B + C con
1
A + A⊤ C = 12 A − A⊤ .
 
B simétrica y C antisimétrica es a través de B= 2 y
48 CAPÍTULO 2. SUBESPACIOS VECTORIALES

En capítulos posteriores demostraremos que si S y T son subespacios de un


espacio vectorial V, entonces la suma directa interna S ⊕ T y la suma direc-
ta externa S⊞T son espacios vectoriales estructuralmente iguales (es decir,
isomorfos ).
Teorema 2.35. Sea S y T subespacios del espacio vectorial V sobre F . La suma
S + T es una suma directa interna si y sólo si S ∩ T = {0}.

Demostración.

(⇒) Supongamos que la suma S+T es una suma directa interna, es decir,
S + T = S ⊕ T. Esto signica que cada elemento v ∈ S ⊕ T se escribe
de manera única como v = s + t, donde s ∈ S , t ∈ T . Sea w ∈ S ∩ T .
Claramente, w ∈S⊕T y puede escribirse como

w =0+w donde 0 ∈ S, w ∈ T,
w =w+0 donde w ∈ S, 0 ∈ T.

Por la unicidad de la representación, tenemos que w = 0. Esto demuestra


que S ∩ T = {0}.

(⇐) Supongamos que S ∩ T = {0}. Demostraremos que cualquier vector de


S+T tiene una representación única como la suma de un vector de S y
otro de T. Sea v ∈S+T y supongamos que v puede escribirse como

v =s+t donde s ∈ S, t ∈ T, y
′ ′ ′ ′
v =s +t donde s ∈ S, t ∈ T.

Luego,
s + t = s′ + t′ =⇒ s − s′ = t′ − t.
Como S es un subespacio y s, s′ ∈ S , tenemos que s−s′ ∈ S . Similarmente,
t − t ∈ T . Así, s − s′ = t′ − t ∈ S ∩ T = {0}, lo que implica que

s − s′ = t′ − t = 0. Por lo tanto,

s − s′ = 0 ⇒ s = s′ ,
t′ − t = 0 ⇒ t = t′ .

Esto demuestra que cualquier vector v ∈V se expresa de manera única


como la suma de un elemento de S y otro de T.

Observación 2.36. Si S1 , S2 , . . . , Sn son subespacios de un espacio vectorial V,


denimos de manera análoga la suma de estos subespacios

n
X
Si := S1 + S2 + · · · + Sn := {s1 + s2 + · · · + sn : si ∈ Si }.
i=1
2.2. INTERSECCIONES Y SUMAS DE SUBESPACIOS 49

Pn
También decimos que la suma i=1 Si es una suma directa interna si para todo
v ∈ S1 + S2 + · · · + Sn existen únicos s1 ∈ S1 , s2 ∈ S2 , . . . sn ∈ Sn tales que

v = s1 + s2 + · · · + sn .

Sin embargo, en este caso, la versión análoga del Teorema 2.35 debe formularse
de manera adecuada, como en el Ejercicio 2.53.

Palabras clave: subespacio vectorial, combinación lineal, subespacio gene-


rado, intersección y suma de subespacios, suma directa interna.
50 CAPÍTULO 2. SUBESPACIOS VECTORIALES

2.3. Ejercicios
Ejercicio 2.37. Sea R el campo de los números reales. ¾Cuáles de los siguientes
conjuntos son subespacios de R3 ?. Justica tu respuesta.
(a) W1 = {(x1 , 2x2 , 3x3 ) : x1 , x2 , x3 ∈ R}.
(b) W2 = {(x1 , x2 , x3 ) : x1 , x2 , x3 ∈ Q}.
(c) W3 = {(x1 , x1 , x1 ) : x1 ∈ R}.
(d)

W4 = (x1 , x2 , x3 ) : x1 , x2 , x3 ∈ R y x21 + x22 + x23 ≥ 1 .

Ejercicio 2.38. Determina si los conjuntos Si son subespacios del espacio vec-
torial Vi . Justica detalladamente tu respuesta.

(a) S1 := (x1 , x2 ) ∈ R2 : x1 ≤ x2 , V1 := R2 .


(b) S2 := (x1 , . . . , xn ) ∈ Rn : x21 + · · · + x2n = 1 , V2 := Rn .




(c) S3 := {(x1 , x2 , x3 , x4 ) ∈ R4 : x1 + x2 = x3 − x4 y x1 + 2x2 + 3x3 + 4x4 = 0},


V3 := R4 .
(d) S4 := {(0, 0, 0), (1, 1, 1)}, V4 = Z32 .
(e) S4 := {(0, 0, 0), (1, 0, 0), (0, 1, 0), (0, 0, 1)}, V4 = Z32 .
(f) S5 := {p(x) ∈ R [x] : p(x) tiene grado 2}, V5 := R[x].
(g) S6 := {p(x) ∈ R[x] : p(x) tiene grado menor o igual que 2}, V6 := R[x].
(h) S7 := {p(x) ∈ R[x] : p(3) = 0}, V7 := R[x].
(i) S8 := {p(x) ∈ R[x] : p(3) = 1}, V8 := R[x].

Ejercicio 2.39. Sea V = M2×2 (R) el espacio vectorial de todas las matrices
2 × 2 sobre el campo R. Muestra que el subconjunto W de todas las matrices
2 × 2 con determinante cero no es un subespacio vectorial de V .

Ejercicio 2.40. Sea Mn×n (R) el espacio vectorial sobre R que consiste en todas
las matrices de n × n con entradas en R. Sea T ∈ Mn×n (R) una matriz dada, y
consideremos el conjunto S de las matrices que conmutan con T :

S = {A ∈ Mn×n (R) : AT = T A}.

Demuestra que S es un subespacio de Mn×n (R).

Ejercicio 2.41. Considera el espacio vectorial de la funciones reales

RR = {f : R → R : f es una función }.

¾Cuál de los siguientes conjuntos son subespacios de RR ? Justica tu respuesta.


2.3. EJERCICIOS 51

(a) 2

S = {f ∈ RR : f x2 = [f (x)] }.

(b) T = {f ∈ RR : f (0) = f (1)}.

(c) W = {f ∈ RR : f (3) = 1 + f (−5)}.

Ejercicio 2.42. Sea RR el espacio vectorial de las funciones reales. Decimos


que f ∈ R es par si f (−x) = f (x) para todo x ∈ R, y g ∈ V es
R
impar si
g(−x) = −g(x) para todo x ∈ R. Sean
 
S = f ∈ RR : f es par y T = g ∈ RR : g es impar .

Demuestra que S y T son subespacios de RR y que RR = S ⊕ T . (Sugerencia:


si f ∈ RR , dene pares e impares como a(x) = 21 [f (x) + f (−x)] y b(x) =
1
2 [f (x) − f (−x)], respectivamente).

Ejercicio 2.43. Sea R [x] el conjunto de todos los polinomios en la variable x


con coecientes en R. Determina si los siguientes subconjuntos son subespacios
de R [x]:

(a)
Pn
S= i=0 ai xi : ai ∈ Z, n ∈ N .

(b)
Pn
W = i=0 ai x2i : ai ∈ R, n ∈ N .

Ejercicio 2.44. Investiga si

(3, −1, 0, −1) ∈ genR {(2, −1, 3, 2) , (−1, 1, 1 − 3) , (1, 1, 9, −5)} ⊂ R4 .

Ejercicio 2.45. Demuestra el Lemma 2.18 de propiedades básicas del subespa-


cio generado.

Ejercicio 2.46. Demuestra el Corolario 2.25.

Ejercicio 2.47. Demuestra que la intersección de cualquier colección de subes-


pacios de un espacio vectorial V sobre F es un subespacio de V.

Ejercicio 2.48. Sean S y T subconjuntos de R3 denidos como

S = {(x1 , x2 , 0) : x1 , x2 ∈ R} , T = {(0, x2 , 0) : x2 ∈ R} .

Demuestra que S y T son subespacios de R3 y describe los subespacios S ∩T y


S + T.

Ejercicio 2.49. Demostrar que R3 es igual a la suma directa interna de los


siguientes subespacios vectoriales:

U = (x1 , x2 , x3 ) ∈ R3 : x1 + x2 + x3 = 0 ,


W = {(t, 2t, 3t) : t ∈ R} .


52 CAPÍTULO 2. SUBESPACIOS VECTORIALES

Ejercicio 2.50. Suponga que

S = {(x1 , x2 , x1 + x2 , x1 − x2 , 2x1 ) ∈ R5 : x1 , x2 ∈ R}.

Encuentra un subespacio T de R5 tal que R5 = S ⊕ T .

Ejercicio 2.51. Sean S, T y U subespacios del espacio vectorial V sobre F.


(a) Demuestra que si S ⊆ U, entonces

U ∩ (S + T ) = S + (U ∩ T ).

Esta es llamada la ley modular de los subespacios vectoriales.


(b) Muestra con un contra ejemplo que en general

U ∩ (S + T ) ̸= (U ∩ S) + (U ∩ T ).

Sugerencia: Sea V = R2 y sean S, T y U tres lineas rectas distintas que


pasen por el origen.

Ejercicio 2.52. Sean S y T subespacios del espacio vectorial V sobre F . Supon-


gamos que V = S ⊕ T , y sea U un subespacio de V tal que S ⊆ U . Demuestra
que U = S ⊕ (U ∩ T ). Sugerencia: usa el ejercicio 2.51.

Ejercicio 2.53. Sean S1 , S2 , . . . , Sn subespacios de un espacio vectorial V . De-


P n
muestra que la suma i=1 Si es una suma directa interna si y solo si para toda
i ∈ {1, . . . , n} se tiene que

 
X
Si ∩  Sj  = {0}.
j̸=i

Ejercicio 2.54. Sea V un espacio vectorial y considera la familia de subespacios

A = {S ≤ V : ∀T ≤ V, ∃U ≤ V tal que S≤U y T ≤ U} .

(Esto es, cualesquier dos elementos de A están contenidos en un tercero). De-


muestra que ∪A es un subespacio de V.
Transformaciones lineales
3
Veamos como relacionar dos espacios vectoriales sobre un campo F mediante
una función que preserve la estructura de espacio vectorial.

Definición 3.1 (transformación lineal). Sean V y W dos espacios vectoriales


sobre un mismo campo F . Una función ϕ : V → W es una transformación lineal,
o un homomorsmo de espacios vectoriales, si
ϕ (αv + βw) = αϕ (v) + βϕ (w) ,

para todo v, w ∈ V y α, β ∈ F .

En la denición anterior hay que tener en cuenta que las operaciones realiza-
das del lado izquierdo de la igualdad son las operaciones denidas en V , mientras
que las operaciones realizadas del lado derecho son las operaciones denidas en
W.

Definición 3.2 (Tipos de transformaciones lineales). Sean V y W espacios


vectoriales sobre F . Sea ϕ : V → W una transformación lineal. Decimos que ϕ
es un:

(1) Monomorsmo si ϕ es inyectivo.


(2) Epimorsmo si ϕ es sobreyectivo.
(3) Isomorsmo si ϕ es biyectivo.
(4) Endomorsmo si V = W.

(5) Automorsmo si V =W y ϕ es biyectivo.

(6) Funcional lineal si W = F.

3.1. Ejemplos de transformaciones lineales


Veamos algunos ejemplos de transformaciones lineales importantes.

53
54 CAPÍTULO 3. TRANSFORMACIONES LINEALES

Ejemplo 3.3 (endomorfismo identidad). Sea V un espacio vectorial. La fun-


ción identidadIV : V → V denida por

IV (v) = v, ∀v ∈ V

es un endomorsmo sobre V. Para comprobar esto, sean v, w ∈ V y α, β ∈ F


elementos arbitrarios. Entonces

I(αv + βw) = αv + βw [por la denición de I]


= αI (v) + βI (w) .

El endomorsmo I es llamado el endomorsmo identidad sobre V.

Ejemplo 3.4 (transformación cero). Sean V y W espacios vectoriales sobre


un mismo campo F . La función 0̂ : V → W denida por

0̂ (v) = 0W , ∀v ∈ V,

donde 0W representa el vector cero de W , es una transformación lineal. Para


comprobar esto, sean v, w ∈ V y α, β ∈ F elementos arbitrarios. Entonces,

0̂(αv + βw) = 0W [por la denición de ϕ]


= α0W + w0W
= α0̂ (v) + β 0̂ (w) .

A esta transformación lineal se le llama la transformación cero.

Ejemplo 3.5 (negativo de una transformación lineal). Sean V y W espacios


F . Sea ϕ : V → W una transformación lineal.
vectoriales sobre un mismo campo
La función −ϕ denida por

(−ϕ) (v) = −ϕ (v) , ∀v ∈ V,

es también una transformación lineal. Para comprobar esto, sean v, w ∈ V y


α, β ∈ F elementos arbitrarios. Entonces,

(−ϕ) (αv + βw) = −ϕ (αv + βw)


= − (αϕ (v) + βϕ (w))
= α (−ϕ (v)) + β (−ϕ (w))
= α (−ϕ) (v) + β (−ϕ) (w).

Ejemplo 3.6 (endomorfismo escalar). Sea V es un espacio vectorial sobre el


campo F y γ un escalar jo, la función ϕ : V → V denida por

ϕ(v) = γv, ∀v ∈ V,
3.1. EJEMPLOS DE TRANSFORMACIONES LINEALES 55

es una endomorsmo. Para comprobar esto, sean v, w ∈ V y α, β ∈ F elementos


arbitrarios. Entonces,

(ϕ) (αv + βw) = γ (αv + βw)


= (γα)v + (γβ)w
= (αγ)v + (βγ)w
= α(γv) + β(γw)
= αϕ(v) + βϕ(w).

Observemos que la conmutatividad de la multiplicación de los elementos del


campo de escalar juega aquí un papel crucial. Además, si 0 < γ < 1, entonces ϕ
es llamada contracción de V con factor γ, y si γ > 1, es llamada dilatación de
V con factor γ.

Ejemplo 3.7. Denamos la función ϕ : R3 → R por

ϕ (x1 , x2 , x3 ) = 3x1 − 2x2 + 2x3 .

Veamos que ϕ es una transformación lineal. Sean v = (v1 , v2 , v3 ), w = (w1 , w2 , w3 ) ∈


R3 . Entonces para cualquier α, β ∈ R, tenemos que

ϕ (αv + βw) = ϕ (α (v1 , v2 , v3 ) + β (w1 , w2 , w3 ))


= ϕ ((αv1 + βw1 , αv2 + βw2 , αv3 + βw3 ))
= 3 (αv1 + βw1 ) − 2 (αv2 + βw2 ) + 2 (αv3 + βw3 )
= α (3v1 − 2v2 + 2v3 ) + β (3w1 − 2w2 + 2w3 )
= αϕ (v) + βϕ (w) .

Por lo tanto, ϕ es una trasformación lineal.

Ejemplo 3.8. Recordemos que los elementos del espacio Rn tienen la forma
T
v = (v1 , v2 , . . . , vn ), donde vi ∈ R. Denotamos por v al mismo vector v pero
escrito en forma de columna, es decir:

 
v1
 v2 
vT =  .  .
 
 .. 
vn

Recordemos también que el producto de una matriz A = (ai,j ) ∈ Mn×n (R) por
56 CAPÍTULO 3. TRANSFORMACIONES LINEALES

un vector columna vT es un vector columna denido como


  
a1,1 a1,2 ... a1,n v1
 a2,1 a2,2 ... a2,n 
  v2 
 
Av T =  .

. .. . . 
 .. . .   .. 
 
. . .
an,1 an,2 ... an,n vn
 Pn 
i=1 a1,i vi
 P 
n
i=1 a2,i vi
 
 
 
=
 .
. 
.
.
 
 
 
Pn
i=1 an,i vi

Debido a que la multiplicación de matrices por vectores columna satisface que

A(v T + wT ) = Av T + AwT ,

no es difícil comprobar que la función ϕ A : Rn → R n denida como

ϕA (v) = Av T

es un endomorsmo sobre Rn .

Ejemplo 3.9. V = Mm×n (F ) el espacio vectorial de las matrices de m × n


Sea
sobre el campo F . Sea P ∈ Mm×m (F ) una matriz ja de m×m y Q ∈ Mn×n (F )
una matriz ja de n × n. La función ϕ : V → V denida por

ϕ (A) = P AQ, ∀A ∈ V,

es un endomorsmo sobre V . Primero observemos que el producto P AQ es


efectivamente una matriz de m × n. Sean A, B ∈ V y α, β ∈ F . Entonces,

ϕ (αA + βB) = P (αA + βB) Q [por denición de ϕ]


= (αP A + βP B) Q
= αP AQ + βP BQ
= αϕ (A) + βϕ (B) .

Por lo tanto ϕ es un endomorsmo sobre V.

Ejemplo 3.10 (derivada formal). Sea F [x] el espacio vectorial de todos los po-
linomios con coecientes en el campo F . Denamos una función D : F [x] → F [x]
como ! (P
n n
X
i i=1 ai ixi−1 si n ≥ 1,
D ai x =
i=0
0 si n = 0.
3.2. PROPIEDADES DE LAS TRANSFORMACIONES LINEALES 57

Pn Pm
Demostraremos que D es un endomorsmo sobre V . Sean i=0 ai xi , i=0 bi xi ∈
F [x], con n ≥ m, y α, β ∈ F , elementos arbitrarios. Supongamos que n, m ̸= 0.
Entonces, tenemos que

n m
! m n
!
X X X X
D α ai xi + β bi x i =D (αai + βbi )xi + αai xi
i=0 i=0 i=0 i=m+1
m
X X n
= (αai + βbi )ixi−1 + αai ixi−1
i=1 i=m+1
Xn m
X
=α ai ixi−1 + β bi ixi−1
i=1 i=1
n
! m
!
X X
i i
= αD ai x + βD bi x .
i=0 i=0

Los casos cuando n=0 o m=0 se demuestran similarmente. A este endomor-


smo se le llama la derivada formal sobre el espacio de polinomios. Cabe señalar
que esta denición de derivada para polinomios es puramente algebraica; en un
curso de análisis real se estudia una generalización de esta denición para clases
más generales de funciones usando el concepto de límite.

3.2. Propiedades de las transformaciones lineales


Proposición 3.11 (propiedades básicas de las transformaciones lineales).
Sea ϕ : V → W es una transformación lineal entre espacios vectoriales sobre F .

(1) ϕ(0V ) = 0W , donde 0V y 0W son los vectores cero de V y W, respectiva-


mente.

(2) ϕ (−v) = −ϕ (v), para todo v ∈V.

(3) ϕ (v − w) = ϕ (v) − ϕ (w), para todo v, w ∈ V .

(4) ϕ (α1 v1 + α2 v2 + . . . + αn vn ) = α1 ϕ (v1 ) + α2 ϕ (v2 ) + . . . + αn ϕ (vn ), donde


vi ∈ V y α i ∈ F .

Demostración.

(1) Sea v ∈V. Entonces,

ϕ (v) + 0W = ϕ (v)
= ϕ (v + 0V )
= ϕ (v) + ϕ (0V ) .

Por lo tanto 0W = ϕ (0V ), por cancelación izquierda en W.


58 CAPÍTULO 3. TRANSFORMACIONES LINEALES

(2) Puesto que ϕ es una transformación lineal se cumple que ϕ (v + (−v)) =


ϕ (v) + ϕ (−v). Sin embargo, por la propiedad (1),
ϕ (v + (−v)) = ϕ (0V ) = 0W
Así, ϕ (v) + ϕ (−v) = 0W y, por lo tanto, ϕ (−v) = −ϕ (v).
(3) Para todo v, w ∈ V , tenemos que

ϕ (v − w) = ϕ [v + (−w)]
= ϕ (v) + ϕ (−w) [∵ ϕ es lineal]

= ϕ (v) + [−ϕ (w)] [por la propiedad (2)]


= ϕ (v) − ϕ (w) .

4) Es una consecuencia directa de la denición de transformación lineal.


Ejemplo 3.12. Sea ϕ : R2 → R2 la función denida por ϕ (x, y) = (x + 2, y + 3),
∀(x, y) ∈ R2 . Como ϕ (0, 0) = (2, 3) ̸= (0, 0), entonces ϕ no es una transforma-
ción lineal puesto que contradice la propiedad (1) de la Proposición 3.11.
Proposición 3.13 (composición de transformaciones lineales). Sean ϕ : V →
W y φ : W → U transformaciones lineales. La composición φ ◦ ϕ : V → U tam-
bién es una transformación lineal.

Demostración. Sean u, v ∈ V y α, β ∈ F . Entonces αu + βv ∈ V , luego

(φ ◦ ϕ) (αu + βv) = φ [ϕ (αu + βv)]


= φ [αϕ (u) + βϕ (v)]
= αφ [ϕ (u)] + βφ [ϕ (v)]
= α (φ ◦ ϕ) (u) + β (φ ◦ ϕ) (v) .
Por lo tanto φ◦ϕ es una transformación lineal. □
Observación 3.14. Si ϕ : V → V es un endomorsmo, las potencia de ϕ se
denen mediante la composición de funciones:

ϕ1 = ϕ, ϕ2 = ϕ ◦ ϕ, ϕ3 = ϕ2 ◦ ϕ, . . . , ϕk = ϕk−1 ◦ ϕ.
Acordamos que ϕ0 = I es el endomorsmo identidad.

Recordemos que una función f : X → Y entre dos conjuntos X y Y es


invertible g : Y → X tal que g ◦ f = IX y f ◦ g = IY , donde
si existe una función
IX e IY son las funciones identidades en X y Y , respectivamente. En este caso, la
y se llama la inversa de f . Recordamos que una
−1
función g se denota por g = f
función es invertible si y sólo si es biyectiva (es decir, inyectiva y sobreyectiva).
El siguiente lema muestra que si una función dada es una transformación
lineal invertible de un espacio vectorial en otro, entonces la linealidad se conserva
también por la inversa.
3.2. PROPIEDADES DE LAS TRANSFORMACIONES LINEALES 59

Lema 3.15 (inversa de una transformación lineal). Sea ϕ : V → W una trans-


formación lineal entre espacios vectoriales. Si ϕ es invertible, entonces la inversa
ϕ−1 : W → V también una transformación lineal.

Demostración. Sean w1 , w2 ∈ W y α, β ∈ F elementos arbitrarios. Puesto


que ϕ es invertible, es sobreyectiva, por lo que existen vectores v1 , v2 ∈ V tales
que ϕ(v1 ) = w1 y ϕ(v2 ) = w2 . Entonces

ϕ−1 (αw1 + βw2 ) = ϕ−1 (αϕ(v1 ) + βϕ(v2 ))


= ϕ−1 (ϕ (αv1 + βv2 ))
= αv1 + βv2
= αϕ−1 (w1 ) + βϕ−1 (w2 ).

Esto demuestra que ϕ−1 es una transformación lineal. □


Definición 3.16 (isomorfismo). Sean V y W espacios vectoriales sobre un mis-
mo campo F . Una transformación lineal ϕ : V → W es un isomorsmo si es
invertible (o, equivalentemente, biyectiva). Cuando existe un isomorsmo de V
a W , decimos que V y W son isomorfos y escribimos V ∼ = W.

Si V y W son isomorfos entre sí, esto signica que tienen el mismo aspecto
como espacios vectoriales.

Teorema 3.17 (relación de isomorfı́a). La relación de isomorfía entre espacios


vectoriales sobre un campoF es una relación de equivalencia.

Demostración. Sean V , W y U espacios vectoriales sobre F . Demostraremos


que se cumplen las propiedades de una relación de equivalencia.

Reexividad. Claramente, el endomorsmo identidad IV : V → V es un


isomorsmo, así que V ∼
=V.
Simetría. Supongamos que V ∼
= W , y sea ϕ : V → W un isomorsmo. Por
el Lema 3.15, la inversa ϕ−1 : W → V también es un isomorsmo. Por lo
tanto, W ∼
=V.
Transitividad. Supongamos que V ∼
W ∼
=W= U , y sean ϕ : V → W y
y
τ : W → U isomorsmos. Por la Proposición 3.13, τ ◦ ϕ : V → U también
es una transformación lineal. Además, τ ◦ ϕ es invertible porque su inversa
es ϕ
−1
◦ τ −1 . Por lo tanto, τ ◦ ϕ : V → U es un isomorsmo y V ∼ = U.


Ejemplo 3.18. El campo C de los números complejos puede ser visto como un
espacio vectorial sobre R. Sea φ : C → R2 la función denida por

φ (a + ib) = (a, b) , ∀(a + ib) ∈ C

Demostraremos que φ es un isomorsmo.


60 CAPÍTULO 3. TRANSFORMACIONES LINEALES

1) φ es una transformación lineal. Sean u = a + ib, v = c + id elementos


arbitrarios de C y sean k1 , k2 ∈ R dos escalares cualesquiera. Entonces,

φ (k1 u + k2 v) = φ (k1 (a + ib) + k2 (c + id))


= φ ((k1 a + k2 c) + i(k1 b + k2 d))
= (k1 a + k2 c, k1 b + k2 d) , [por la denición de φ]
= (k1 a, k1 b) + (k2 c, k2 d)
= k1 (a, b) + k2 (c, d) ,
= k1 φ (a + ib) + k2 φ (a + ib) , [por la denición de φ]
= k1 φ (u) + k2 φ (v) .

2) φ es inyectiva. Sean u = a + ib, v = c + id dos elementos cualesquera de C


tales que φ (u) = φ (u). Entonces,

φ (a + ib) = φ (c + id) ⇒ (a, b) = (c, d).

Por lo tanto, a = c, b = d, lo que implica que u = v. Por lo tanto, φ es


inyectiva.

3) φ es sobreyectiva. Sea (a, b) ∈ R2 un elemento arbitrario. Observemos que


v = a + ib ∈ C satisface que φ (v) = (a, b). Por lo tanto, φ es sobreyectiva.

Por lo tanto, R2 y C son isomorfos como espacios vectoriales.

3.3. Imagen y kernel de una transformación li-


neal
Para cualquier transformación lineal ϕ : V → W , existen dos subespacios
importantes asociados con ϕ. El primero es un subespacio de V llamado el kernel
(o núcleo) de ϕ; el segundo es un subespacio de W llamado la imagen de ϕ. En
esta sección denimos estos dos subespacios.

Definición 3.19 (imagen). Sea ϕ : V → W una transformación lineal de espa-


cios vectoriales sobre F . La imagen de ϕ, denotada por Im(ϕ), es el conjunto

Im(ϕ) = {ϕ(v) ∈ W : v ∈ V }
= {w ∈ W : w = ϕ(v) para algún v ∈ V }.

Observación 3.20. Puesto que 0W = ϕ (0V ), el vector cero de W está en


Im(ϕ), de modo que el conjunto Im(ϕ) no es vacío.

Teorema 3.21 (la imagen es subespacio). Sea ϕ : V → W una transforma-


ción lineal de espacios vectoriales sobre F . La imagen Im(ϕ) es un subespacio
de W .
3.3. IMAGEN Y KERNEL DE UNA TRANSFORMACIÓN LINEAL 61

Demostración. Supongamos que w1 , w2 ∈ Im(ϕ) y α, β ∈ F . Debemos


probar que αw1 + βw2 ∈ Im(ϕ).Por denición, existen vectores v1 , v2 ∈ V tales
que ϕ (v1 ) = w1 y ϕ (v2 ) = w2 . Ya que V es un espacio vectorial, αv1 + βv2 ∈ V .
Ahora,

ϕ (αv1 + βv2 ) = αϕ (v1 ) + βϕ (v2 ) [∵ ϕ es lineal]

= αw1 + βw2 .
De esta manera, αw1 + βw2 es la imagen del vector αv1 + βv2 y por lo tanto,
αw1 + βw2 ∈ Im(ϕ) □
Definición 3.22 (kernel). Sea ϕ : V → W una transformación lineal de espacios
vectoriales sobre F . El kernel (o núcleo, o espacio nulo ) de ϕ, denotado por
ker (ϕ), es el conjunto
ker (ϕ) = {v ∈ V : ϕ (v) = 0W } .
Teorema 3.23 (el kernel es subespacio). Sea ϕ : V → W una transformación
lineal de espacios vectoriales sobre F . El kernel ker (ϕ) es un subespacio de V .

Demostración. Supongamos que v1 , v2 ∈ ker(ϕ) y α, β ∈ F . Por denición


de kernel, ϕ(v1 ) = ϕ(v2 ) = 0W . Aplicando ϕ a αv1 + βv2 ∈ V obtenemos
ϕ (αv1 + βv2 ) = αϕ (v1 ) + βϕ (v2 ) , [∵ ϕ es lineal]

= α0W + β0W ,
= 0W + 0W ,
= 0W .
Así, αv1 + βv2 ∈ ker(ϕ). Por lo tanto, ker(ϕ) es un subespacio de V. □
Teorema 3.24. Sea ϕ:V →W una transformación lineal de espacios vectoria-
les sobre F .

(1) ϕ es inyectiva si y sólo si ker (ϕ) = {0V }.


(2) ϕ es sobreyectiva si y sólo si Im(ϕ) = W.
Demostración.
(1) Demostraremos cada implicación.

(⇒) Supongamos que ϕ es inyectiva. Sea v ∈ ker (ϕ). Entonces, ϕ (v) =


0W = ϕ (0V ). Puesto que ϕ es inyectiva, tenemos que v = 0V . Por lo
tanto ker (ϕ) = {0V }.

(⇐) Supongamos que ker (ϕ) = {0V }. Sean v, w ∈ V , tales que ϕ (v) =
ϕ (w). Puesto que ϕ es una transformación lineal, tenemos que
ϕ (v − w) = ϕ (v) − ϕ (w) = 0W .
Esto signica que v − w ∈ ker (ϕ) = {0V }. Luego, v − w = 0V y
v = w. Por lo tanto, ϕ es inyectiva.
62 CAPÍTULO 3. TRANSFORMACIONES LINEALES

(2) Esto es cierto por la denición de sobreyectividad.


Ejemplo 3.25. Consideremos la trasformación lineal ϕ : R3 → R3 dada por

ϕ (x1 , x2 , x3 ) = (x1 + x2 , x2 + x3 , x1 + 2x2 + x3 ) .

Describamos el kernel y la imagen de ϕ.


1) Kernel. El vector (x1 , x2 , x3 ) ∈ ker(ϕ) si y sólo si ϕ (x1 , x2 , x3 ) = (0, 0, 0), es
decir si
(x1 + x2 , x2 + x3 , x1 + 2x2 + x3 ) = (0, 0, 0) ,
lo que signica

x1 + x2 + 0x3 = 0
0x1 + x2 + x3 = 0 (3.1)

x1 + 2x2 + x3 = 0

Por lo tanto, el kernel de ϕ es el conjunto de soluciones del sistema de


ecuaciones lineales homogéneas (3.1). Sea A la matriz aumentada de co-
ecientes del sistema (3.1). Entonces, realizando eliminación Gaussiana
   
1 1 0 0 1 1 0 0
A= 0 1 1 0  ∼ 0 1 1 0 .
1 2 1 0 0 0 0 0

El sistema es consistente y las soluciones son: x1 = α, x2 = −α, x3 = α,


para cualquier α ∈ R. El conjunto de soluciones representa una línea
paralela a (1, −1, 1) a través del origen. Por lo tanto,

ker(ϕ) = (α, −α, α) ∈ R3 : α ∈ R .




2) Imagen. La imagen de ϕ consiste en aquellos (y1 , y2 , y3 ) ∈ R tales que


3

ϕ((x1 , x2 , x3 )) = (y1 , y2 , y3 ), para algún (x1 , x2 , x3 ) ∈ R3 . Esto signica


que

x1 + x2 + 0x3 = y1
0x1 + x2 + x3 = y2 (3.2)

x1 + 2x2 + x3 = y3

Por lo tanto, la imagen de ϕ es la solución del sistema de ecuaciones


lineales no homogéneas (5.3). Sea B la matriz aumentada de coecientes
del sistema (5.3). Entonces, realizando eliminación Gaussiana
   
1 1 0 y1 1 1 0 y1
B= 0 1 1 y2  ∼  0 1 1 y2 .
1 2 1 y3 0 0 0 y3 − y1 − y2
3.4. EL ESPACIO DE LAS TRANSFORMACIONES LINEALES 63

Este sistema tiene soluciones si y sólo si y3 − y1 − y2 = 0. Por lo tanto

Im(ϕ) = (y1 , y2 , y3 ) ∈ R3 : y3 − y1 − y2 = 0 .


Así, la imagen de ϕ es el plano y3 = y1 + y2 en R3 .

Teorema 3.26. Sean ϕ : U → V y τ : V → W transformaciones lineales en-


tre espacios vectoriales sobre un campo F tales que τ ◦ϕ es un isomorsmo.
Entonces,
V = Im (ϕ) ⊕ ker (τ ) .

Demostración. Haremos la demostración en dos pasos.

1) Demostraremos que Im (ϕ) + ker (τ ) = V . Sea v ∈ V un vector arbitrario.


Como τ (v) ∈ W y τ ◦ ϕ : U → W es un isomorsmo, existe u ∈ U tal que
(τ ◦ ϕ) (u) = τ (v). Sea v ′ = ϕ (u) ∈ Im (ϕ) y v ′′ = v − v ′ . Claramente,

v = v ′ + v ′′ ,

donde v ′ ∈ Im (ϕ). Demostraremos que v ′′ ∈ ker (τ ):

τ (v ′′ ) = τ (v − v ′ )
= τ (v) − τ (v ′ )
= (τ ◦ ϕ) (u) − τ (ϕ (u))
= 0W .

Luego, Im (ϕ) + ker (τ ) = V , pues v era arbitrario.

2) Demostraremos que la suma es directa comprobando que Im (ϕ) ∩ ker (τ ) =


{0V }. Sea v ∈ Im (ϕ) ∩ ker (τ ). Como v ∈ Im (ϕ), existeu ∈ U tal que
ϕ (u) = v . Como v ∈ ker (τ ) , τ (v) = 0W . Luego,

(τ ◦ ϕ) (u) = τ (v) = 0W = (τ ◦ ϕ) (0U ) .

Debido a que τ ◦ϕ es un isomorsmo, u = 0U . Luego, v = ϕ (u) = ϕ (0U ) =


0V . Por el Teorema 2.35, V = Im (ϕ) ⊕ ker (τ ).

3.4. El espacio de las transformaciones lineales


Definición 3.27 (Hom(V, W )). Sean V y W espacios vectoriales sobre el mis-
mo campo F . Denotamos al conjunto de todas las transformaciones lineales de
V en W por

Hom(V, W ) = {ϕ : V → W : ϕ es una transformación lineal}.

Cuando V = W , Hom(V, W ) se abrevia End(V ).


64 CAPÍTULO 3. TRANSFORMACIONES LINEALES

Ejemplo 3.28 (0̂ ∈ Hom(V, W )). La transformación cero es una transforma-


ción lineal (Ejemplo 3.4). En consecuencia 0̂ ∈ Hom(V, W ), 0̂(v) = 0W para
todo v ∈V.

Ejemplo 3.29 (I ∈ Hom(V )). La función identidad Identidad es una transfor-


mación lineal (Ejemplo 3.3). En consecuencia I ∈ Hom(V ), IV (v) = v para todo
v ∈V.

Ejemplo 3.30 (φ ⊗ z). Si φ : V → F es un funcional lineal de V (Denición


3.2) y z un vector jo en W , la función ϕ : V → W denida por ϕ(v) = φ(v)z
para todo v ∈ V es una transformación lineal. Para comprobar esto, sean v, w ∈
V y α, β ∈ F elementos arbitrarios. Entonces,

ϕ(αv + βw) = φ(αv + βw)z


= [αφ(v) + βφ(w)] z
= αφ(v)z + βφ(w)z
= αϕ(v) + βϕ(v).

La dependencia de ϕ sobre φ se expresa escribiendo ϕ = φ ⊗ z , el símbolo


sugiere un tipo de producto de φ con z . En consecuencia φ ⊗ z ∈ Hom(V, W ),
(φ ⊗ z) (v) = φ(v)z para todo v ∈V.

Ahora dotaremos de una estructura de espacio vectorial al conjunto Hom(V, W )


sobre el campo F. Para ello se tendrá que denir adecuadamente la suma y la
multiplicación escalar en Hom(V, W ).
Definición 3.31. Sean ϕ, φ ∈ Hom(V, W ) y α ∈ F. Denimos la suma es la
función ϕ + φ : V → W denida por

(ϕ + φ)(v) = ϕ(v) + φ(v), ∀v ∈ V. (3.3)

La multiplicación escalar es la función αϕ : V → W denida por

(αϕ)(v) = αϕ(v), ∀v ∈ V y α ∈ F. (3.4)

Lema 3.32. Si ϕ, φ ∈ Hom(V, W ) y α ∈ F, entonces ϕ + φ ∈ Hom(V, W ) y


αϕ ∈ Hom(V, W ).

Demostración. Demostraremos primero que la función ϕ+φ : V → W es


una transformaciones lineal. Sean v, w ∈ V y α, β ∈ F , entonces

(ϕ + φ)(αv + βw) = ϕ(αv + βw) + φ(αv + βw) [por (3.3)]


= [αϕ(v) + βϕ(w)] + [αφ(v) + βφ(w)] [∵ ϕ, φ son transformaciones lineales]

= α [ϕ(v) + φ(v)] + β [ϕ(w) + φ(w)]


= α(ϕ + φ)(v) + β(ϕ + φ)(w) [por (3.3)] .

Por lo tanto ϕ+φ es una transformación lineal de V en W y ϕ+φ ∈ Hom(V, W ).


3.4. EL ESPACIO DE LAS TRANSFORMACIONES LINEALES 65

Demostremos ahora que la función αϕ : V → W es una transformación


lineal. Sean v, w ∈ V y β, γ ∈ F , entonces

(αϕ)(βv + γw) = αϕ(βv + γw) [por (3.4)]


= α [βϕ(v) + γϕ(w)] [∵ ϕ, es una transformacion lineal]

= (αβ)ϕ(v) + (αγ)ϕ(w)
= β[αϕ(v)] + γ[αϕ(w)]
= β[(αϕ)(v)] + γ[(αϕ)(w)] [por (3.4)]
Por lo tanto αϕ es una transformación lineal de V en W y αϕ ∈ Hom(V, W ). □
Teorema 3.33. Sean V y W espacios vectoriales sobre el mismo campo F , en-
tonces Hom(V, W ) es también un espacio vectorial sobre el campo F con las
operaciones de la Denición 3.31.

Demostración. Demostremos que Hom(V, W ) cumple las propiedades de


espacio vectorial

(EV1) Demostremos que (Hom(V, W ), +) es un grupo abeliano. Si ϕ, φ, ψ ∈


Hom(V, W ), entonces

(1) Cerradura : por el Lema 3.32, Hom(V, W ) es cerrado respecto a la


suma.

(2) Asociatividad de la suma : tenemos que


[ϕ + (φ + ψ)] (v) = ϕ(v) + (φ + ψ)(v)
= ϕ(v) + [φ(v) + ψ(v)]
= [ϕ(v) + φ(v)] + ψ(v)
= (ϕ + φ)(v) + ψ(v)
= [(ϕ + φ) + ψ](v).

(3) Existencia de la identidad aditiva : La transformación cero 0̂ satisface


(0̂+ϕ)(v) = 0̂(v) + ϕ(v)
= 0W + ϕ(v)
= ϕ(v).
Por lo tanto 0̂ es la identidad aditiva en Hom(V, W ).
(4) Existencia del inverso aditivo : El negativo de una transformación li-
neal también es una transformación lineal (Ejemplo 3.5). De esta
manera, si ϕ ∈ Hom(V, W ) tenemos que −ϕ ∈ Hom(V, W ). Entonces

(−ϕ+ϕ)(v) = ( − ϕ)(v) + ϕ(v)


= −ϕ(v)+ϕ(v)
= 0W
= 0̂(v).
Así cada elemento en Hom(V, W ) posee inverso aditivo.
66 CAPÍTULO 3. TRANSFORMACIONES LINEALES

(5) Conmutatividad de la suma : Sean ϕ, φ ∈ Hom(V, W ). Si v ∈ V, en-


tonces

(ϕ + φ)(v) = ϕ(v) + φ(v)


= φ(v) + ϕ(v)
= (φ + ϕ)(v).

Por lo tanto Hom(V, W ) es un grupo abeliano con la operación suma


denida.

(EV2) La vericación de las propiedades restantes es igualmente sencillo, se


dejan al lector como ejercicio.

Palabras clave: transformación lineal, composición de transformaciones


lineales, isomorsmo, relación de isomorfía, imagen y kernel de una transfor-
mación lineal, espacio de las transformaciones lineales.
3.5. EJERCICIOS 67

3.5. Ejercicios
Ejercicio 3.34. Determina si las siguientes funciones son transformaciones li-
neales. Justica detalladamente tu respuesta.

1. τ : R3 −→ R2 denida por τ (x1 , x2 , x3 ) = (x1 , x2 ).

2. σ : R2 −→ R denida por σ (x1 , x2 ) = x1 x2 .

3. ς : R2 −→ R denida por ς (x1 , x2 ) = x1 + x2 .

4. ϕ : R3 −→ R3 denida por ϕ (x1 , x2 , x3 ) = (x1 + 1, x2 , x3 ).

5. ψ : R3 −→ R2 denida por ψ (x1 , x2 , x3 ) = (x1 + 5x3 , 9x2 ).

6. exp : R −→ R denida por exp (x) = ex , ∀x ∈ R.

7. ϕ : Z3 −→ Z3 denida por φ (x) = x2 , ∀x ∈ Z3 .

8. φ : Z3 −→ Z3 denida por φ (x) = x3 , ∀x ∈ Z3 .

9. I : R [x] −→ R [x] denida por

Z x
I (f (x)) = f (t) dt
0

donde f (x) ∈ R [x].

Ejercicio 3.35. Encuentra el rango y el kernel de las siguientes transformaciones


lineales y determina si son funciones inyectivas o sobreyectivas.

1. ϕγ : R2 −→ R2 denida por ϕγ (x1 , x2 ) = (γx1 , γx2 ), donde γ ∈ R.

2. τ : R3 −→ R2 denida por τ (x1 , x2 , x3 ) = (x3 , x2 ).

3. φ : R3 −→ R3 denida por

φ (x1 , x2 , x3 ) = (2x1 − x2 , 5x2 + x3 , 2x1 + 4x2 + x3 ).

4. σ : R3 −→ R3 denida por σ (x1 , x2 , x3 ) = (x1 + x3 , x1 + x3 , x2 + x3 ).

5. ϕ : R3 −→ R denida por ϕ (x1 , x2 , x3 ) = 2x1 − x2 + 3x3 .

6. ς : R2 −→ R3 denida por ς (x1 , x2 ) = (x1 , x2 , x1 + x2 ).

7. τ : R4 −→ R2 denida por τ (x1 , x2 , x3 , x4 ) = (x1 − x4 , x2 − x3 ).

8. φ : Z3 −→ Z3 denida por φ (x) = x3 , ∀x ∈ Z3 .

9. D : R [x] −→ R [x], donde D es la derivada formal de polinomios.

Ejercicio 3.36. Determina si las siguientes funciones son automorsmos. Justi-


ca detalladamente tu respuesta.
68 CAPÍTULO 3. TRANSFORMACIONES LINEALES

1. ϕ : R −→ R denida como ϕ (x) = 5x.

2. ξ : R −→ R denida como ξ (x) = −2.

3. φ : R4 −→ R3 denida como φ (x1 , x2 , x3 , x4 ) = (x1 , x2 , x3 ).

4. τ : R2 −→ R2 denida como τ (x1 , x2 ) = (x2 , x1 ).

5. ω : R2 −→ R2 denida como ω (x1 , x2 ) = (x1 , 0).

6. σ : R3 −→ R3 denida como

σ (x1 , x2 , x3 ) = (−3x1 + 2x2 + x3 , 2x1 − x2 , x1 + x3 ) .

7. ξ : R3 −→ R3 denida como

ξ (x1 , x2 , x3 ) = (2x1 + 3x2 − x3 , 3x1 + 3x3 , x2 + x3 ) .

8. σ : C −→ C denida como σ (x + iy) = x − iy .


2
9. τ : C −→ C denida como τ (x + iy) = (x + iy) .

Ejercicio 3.37. Demuestra los siguientes isomorsmos de espacios vectoriales.

1. Z33 ∼
= (Z3 )Z3 .

2. R4 ∼
= R [x]≤3 , donde R [x]≤3 es el espacio vectorial de polinomios de grado
menor o igual que 3 con coecientes en R.

Ejercicio 3.38. Demuestra que la función ϕ : R3 → R2 denida como

ϕ(x1 , x2 , x3 ) = (3x1 − 2x2 + x3 , x1 − 3x2 − 2x3 ),

es una transformación lineal de R3 sobre R2 . Encuentra y describe el kernel y


la imagen de ϕ.

Ejercicio 3.39. Demuestra que la función ϕ : R2 → R3 denida como

ϕ(x1 , x2 ) = (x1 + x2 , x1 − x2 , x2 ),

es una trasformación lineal de R2 sobre R3 . Encuentra y describe el kernel y la


imagen de ϕ.

Ejercicio 3.40. Sean C el campo de los números complejos, muestra que la


3 3
función ϕ : C → C denida como

ϕ(x1 , x2 , x3 ) = (x1 − x2 + 2x3 , 2x1 + x2 − x3 , −x1 − 2x2 ),

es una transformación lineal de C3 sobre C3 . Encuentra y describe el kernel y


la imagen de ϕ.
3.5. EJERCICIOS 69

Ejercicio 3.41. Sea V = Mn×n (R) el espacio vectorial de las matrices de n×n
sobre el campo R y sea B una una matriz ja de n × n. Si

ϕ(A) = AB − A, ∀A ∈ Mn×n (R).

Demuestra que ϕ es una transformación lineal de V sobre V.

Ejercicio 3.42. Sean U y V espacios vectoriales sobre el campo F y sean ϕ, φ


dos transformaciones lineales de U sobre V sean α1 y α2 dos elementos de F.
Entonces el mapeo ψ denido como

ψ(x) = α1 ϕ(x) + α2 φ(x), ∀x ∈ U,

es una transformación lineal.

Ejercicio 3.43. Sea ϕ : R3 → R3 una transformación lineal denida como

ϕ(x1 , x2 , x3 ) = (2x, 4x − y, 2x + 3y − z).

Demuestra que ϕ es invertible y encuentra las expresiones para ϕ−1 y (ϕ−1 )2 .

Ejercicio 3.44. Sean S y T subespacios de un espacio vectorial V sobre F tales


que S ∩T = {0}. Demuestra que la suma directa interna S ⊕T y la suma directa
externa S ⊞ T son espacios vectoriales isomorfos.

Ejercicio 3.45. Si T : U → V y S : V → W son transformaciones lineales,


demuestra que Im(S ◦ T ) ⊆ Im(S) y ker(T ) ⊆ ker(S ◦ T ).

Ejercicio 3.46. Sea ϕ : V → V una transformación lineal tal que Im(ϕ) ⊆


ker(ϕ − IV ), donde IV es el endomorsmo identidad. Demuestra que ϕ2 = ϕ.
2
Recuerda que ϕ = ϕ ◦ ϕ.

Ejercicio 3.47. Sea V un espacio vectorial sobre F y ϕ una transformación


lineal de V sobre V . Demuestra que las siguientes dos proposiciones acerca de
ϕ son equivalentes
(a) La intersección de la imagen de ϕy el kernel de ϕ es el subespacio cero de
V, es decir Im(ϕ) ∩ ker(ϕ) = {0}.
(b) ϕ(ϕ(x)) = 0 entonces ϕ(x) = 0.

Ejercicio 3.48. Completa la demostración del Teorema 3.33.

Ejercicio 3.49. Sea V el espacio vectorial real o complejo y sea ϕ:V →V un


endomorsmo tal que ϕ2 = IV . Denamos

S = {x ∈ V : ϕ(x) = x} , T = {x ∈ V : ϕ(x) = −x}

Demuestra que S y T son subespacios de V tales que V = S ⊕ T. Sugerencia:


para cada vector x, x = 21 [x + ϕ(x)] + 1
2 [x − ϕ(x)].
70 CAPÍTULO 3. TRANSFORMACIONES LINEALES
Espacio vectorial cociente
4
Sea V un espacio vectorial sobre un campo F y sea S un subespacio de V.
Formaremos un nuevo espacio vectorial a partir de V y S llamado el espacio
cociente de V por S, y lo escribiremos como V /S .
Definición 4.1 (congruencia módulo S). Sea S un subespacio de un espacio
vectorial V sobre un campo F . Decimos que dos vectores w, v ∈ V son con-
gruentes módulo S , y escribimos w ≡ v mod S , si w − v ∈ S .
Lema 4.2 (congruencia módulo S). Sea S un subespacio de un espacio vecto-
rial V sobre un campo F . La relación de congruencia módulo S es una relación
de equivalencia sobre V .

Demostración. Demostraremos que se cumplen las propiedades de relación


de equivalencia.

1) Reexividad. Puesto que 0 ∈ S , tenemos que v −v = 0 ∈ S , para todo v ∈ V .


Por lo tanto, v ≡ v mod S , para todo v ∈V.
2) Simetría. Supongamos que w ≡ v mod S . Entonces w − v ∈ S , y, multipli-
cando por el escalar −1 ∈ F , obtenemos (−1) (w − v) = v − w ∈ S . Por lo
tanto, v = w mod S .
3) Transitividad. Supongamos que u ≡ v mod S y v ≡ w mod S . Entonces u −
v ∈ S y v−w ∈ S . Puesto que S es un subespacio de V , (u − v)+(v − w) =
u − w ∈ S . Por lo tanto, u ≡ w mod S .

Denotemos la clase de equivalencia de v ∈ V para la relación congruen-
cia módulo S por [v]S . Para describir cómo lucen estas clases de equivalencia,
observemos que

[v]S = {w ∈ V : w ≡ v mod S}
= {w ∈ V : w − v ∈ S}
= {w ∈ V : w = v + s para algún s ∈ S}
= {v + s : s ∈ S} .

71
72 CAPÍTULO 4. ESPACIO VECTORIAL COCIENTE

La notación v+S es una forma más intuitiva de representar la clase de equiva-


lencia [v]S :
[v]S = v + S = {v + s : s ∈ S} .
Definición 4.3 (clase lateral). Sea S un subespacio de un espacio vectorial V
sobre un campo F . Para cualquier v ∈ V , la clase de equivalencia v + S se llama
la clase lateral de S en V con representante v .

Observemos que la clase lateral v + S puede ser representada por cualquiera


de sus elementos en el sentido de que (v + s) + S = v + S , para todo s ∈ S . La
clase lateral v+S es un subconjunto de V , pero en general no es un subespacio
de V.
Proposición 4.4 (clases laterales). Sea S un subespacio de un espacio vecto-
rial V sobre un campo F . Sean u, v ∈ V vectores arbitrarios.

(1) El conjunto de clases laterales de S en V forma una partición de V.


(2) u+S =v+S si y sólo si u − v ∈ S.
(3) v+S es un subespacio de V si y sólo si v ∈ S.

Demostración.
(1) Las clases de equivalencia de una relación de equivalencia sobre un conjunto
siempre forman una partición del conjunto (ver Lema 0.7 (3) y (4)).
(2) Sabemos que dos clases de equivalencia u+S y v+S son iguales si y sólo
si u ≡ v mod S (ver Lema 0.7 (2)). Esta última condición es equivalente
a u − v ∈ S.
(3) Supongamos que v + S ≤ V . Entonces, 0 ∈ v + S , así que v + s = 0, para
algún s ∈ S. v = −s ∈ S . Supongamos ahora que v ∈ S . Por la
Luego,
propiedad (2), v + S = 0 + S = S , ya que v − 0 ∈ S . Como S es un
subespacio por hipótesis, entonces v + S = S es un subespacio.


Definición 4.5 (espacio cociente). Sea S un subespacio de un espacio vecto-
rial V sobre un campo F . El espacio cociente, denotado por V /S , es el conjunto
de todas las clases laterales de S en V . En otras palabras,

V /S = {v + S : v ∈ V } .

Observación 4.6. La notación V /S se lee espacio cociente de V módulo S .

Denimos en V /S las operaciones de suma y multiplicación escalar como


sigue: para toda (u + S) , (v + S) ∈ V /S y α ∈ F ,

(u + S) + (v + S) = (u + v) + S,
α (u + S) = αu + S. (4.1)
73

Una dicultad aparece en la denición de estas operaciones. Debido a que los


elementos de V /S son clases de equivalencia (clases laterales), para demostrar
que las operaciones dadas en (4.1) están bien denidas es necesario comprobar
que el resultado en cada operación no depende de los representantes de las clases.
Esta situación es similar a la ocurrida con el grupo cíclico Zm .

Proposición 4.7. Las operaciones + : V /S × V /S → V /S y · : F × V /S → V /S


dadas en (4.1) están bien denidas.

Demostración.

(1) Para demostrar que la suma está bien denida, debemos comprobar que si
u + S = u′ + S y v + S = v ′ + S , entonces (u + S) + (v + S) = (u′ + S) +
(v ′ + S). Por la Proposición 4.4,

u + S = u′ + S ⇒ u − u′ ∈ S
v + S = v ′ + S ⇒ v − v ′ ∈ S.

Como S es un subespacio,

(u − u′ ) + (v − v ′ ) ∈ S.

La expresión anterior puede escribirse como

(u + v) − (u′ + v ′ ) ∈ S,

y esto implica que


(u + v) + S = (u′ + v ′ ) + S,
Por lo tanto,

(u + S) + (v + S) = (u′ + S) + (v ′ + S) .

(2) Para demostrar que la multiplicación escalar está bien denida, debemos
comprobar que si u + S = u′ + S , entonces α(u + S) = α(u′ + S), para
todo α ∈ F . Como u + S = u′ + S implica que u − u′ ∈ S , entonces

α (u − u′ ) ∈ S.

La expresión anterior puede escribirse como

αu − αu′ ∈ S,

y esto implica que


αu + S = αu′ + S.
Por lo tanto, α(u + S) = α(u′ + S).


74 CAPÍTULO 4. ESPACIO VECTORIAL COCIENTE

Teorema 4.8 (V /S es espacio vectorial). Sea S un subespacio de un espacio


V sobre un campo F . El espacio cociente V /S , junto con las operaciones
vectorial
denidas en (4.1), es un espacio vectorial sobre F .

Demostración.
(EV1) Mostraremos primero que V /S es un grupo abeliano con respecto a la
suma. Sean u + S, v + S, w + S ∈ V /S elementos arbitrarios.
(G0) Cerradura : Por denición, (u + S) + (v + S) = (u + v) + S ∈ V /S .
(G1) Asociatividad : Usando la asociatividad de vectores en V , deducimos
lo siguiente:

(u + S) + [(v + S) + (w + S)] = (u + S) + [(v + w) + S]


= [u + (v + w)] + S
= [(u + v) + w] + S
= [(u + v) + S] + (w + S)
= [(u + S) + (v + S)] + (w + S) .

(G2) Identidad aditiva : Si 0 es el vector cero de V , tenemos que


(0 + S) + (u + S) = (u + 0) + S = u + S.

Por lo tanto, 0 + S = S, es la identidad aditiva en V /S .


(G3) Inversos aditivos : Para cualquier u + S ∈ V /S , vemos que (−u) + S
satisface

(u + S) + ((−u) + S) = (u − u) + S = 0 + S.

Por lo tanto, (−u) + S es el inverso aditivo de u + S.


(G4) Conmutatividad : Usando la conmutatividad de la suma en V, de-
ducimos lo siguiente:

(u + S) + (v + S) = (u + v) + S
= (v + u) + S
= (v + S) + (u + S) .

(EV2) Sean α, β ∈ F y u + S, v + S ∈ V /S elementos arbitrarios.

(1)
α [(u + S) + (v + S)] = α [(u + v) + S]
= α (u + v) + S
= (αu + αv) + S
= (αu + S) + (αv + S)
= α (u + S) + α (v + S) .
75

(2)
(α + β) (u + S) = (α + β) u + S
= (αu + βu) + S
= (αu + S) + (βu + S)
= α (S + u) + β (S + u) .

(3)
(αβ) (u + S) = (αβ) u + S
= α (βu) + S
= α (βu + S)
= α [β (u + S)] .

(4)
1 (u + S) = 1u + S = u + S.

Ejemplo 4.9 (interpretación geométrica de V /S). Veamos ahora la interpre-
tación geométrica de algunos espacios cocientes.

(1) Sea V = R2 yS = {(x, 0) : x ∈ R}. En la representación geométrica de R2


como plano cartesiano, S representa el eje x. El espacio cociente

R2 /S = {(x, y) + S : (x, y) ∈ R2 }

es el conjunto de todas las líneas en R2 que son paralelas al eje x. Esto es


porque para cualquier vector v = (v1 , v2 ) ∈ R2 , la clase lateral v+S es
igual a
v + S = (v1 , v2 ) + S = {(v1 + x, v2 ) : x ∈ R} ;
es decir, v + S es la línea y = v2 paralela al eje x. Esta línea está arriba o
abajo del eje x de acuerdo a v2 > 0 o v2 < 0. Si v2 = 0, v + S = S coincide
con el eje x.

(2) 3
 3

Si V = R y S = (x, y, 0) ∈ R , entonces S es el plano xy y para cualquier
v = (v1 , v2 , v3 ) ∈ R3 , la clase lateral v + S representa geométricamente
el plano paralelo al plano xy a través del punto v = (v1 , v2 , v3 ) a una
distancia v3 del plano xy (arriba o abajo del plano xy de acuerdo a v3 > 0
o v3 < 0).

(3) 3
 3

Sea V = R y S = (x, y, z) ∈ R : 5x − 4y + 3z = 0 y 2x − 3y + 4z = 0 .
3
Para cualquier v = (v1 , v2 , v3 ) ∈ R , la clase lateral v+S ∈ V /S representa
geométricamente la línea paralela a la línea determinada por la intersección
de los dos planos:

5(x − v1 ) − 4(y − v2 ) + 3(z − v3 ) = 0, y

2(x − v1 ) − 3(y − v2 ) + 4(z − v3 ) = 0.


76 CAPÍTULO 4. ESPACIO VECTORIAL COCIENTE

Definición 4.10 (proyección canónica). Sea S un subespacio de un espacio


vectorial V sobre un campo F . La función pr : V → V /S denida por

pr(v) = v + S,

es llamada la proyección canónica de V en V /S .

Proposición 4.11 (proyección canónica). La proyección canónica pr : V →


V /S es una transformación lineal sobreyectiva.

Demostración. Para cualquier v, w ∈ V y α, β ∈ F , se cumple que

pr(αv + βw) = (αv + βw) + S


= (αv + S) + (βw + S)
= α(v + S) + β(w + S)
= α pr(v) + β pr(w).

Por lo tanto, pr es una transformación lineal.


Para demostrar que pr es sobreyectiva, sea v+S cualquier elemento de
V /S ; entonces, v ∈ V es la preimagen de v+S bajo la proyección canónica:
pr(v) = v + S . □

Proposición 4.12 (proyección canónica inyectiva). La proyección canónica


pr es inyectiva si y sólo si S = {0}.

Demostración. Si S ̸= {0} debe existir un u ∈ S tal que u ̸= 0, como u − 0 ∈ S


entonces u + S = 0 + S (prop. 4.4), por lo que pr(u) = pr(0) y pr no puede
ser inyectiva. Para el converso, si S = {0} tenemos que para v, w ∈ V , el que
pr(v) = pr(w) implica que v + S = w + S y de nuevo por la proposición 4.4
v − w ∈ S , por lo que v − w = 0 y v = w, así que pr es inyectiva. □

Teorema 4.13 (primer teorema de isomorfı́a). Sea ϕ:V →W una transfor-


F.
mación lineal entre espacios vectoriales sobre Entonces,

V / ker(ϕ) ∼
= Im(ϕ).

Demostración. Recordemos que los elementos del espacio cociente V / ker(ϕ)


son clases laterales:

V / ker(ϕ) = {v + ker(ϕ) : v ∈ V }.

Denamos una función ξ : V / ker(ϕ) → Im(ϕ) como

ξ (v + ker(ϕ)) = ϕ(v).

Demostraremos que ξ es un isomorsmo entre V / ker(ϕ) y Im(ϕ).


77

(1) ξ es una función bien denida. Debido a que el dominio de ξ es un conjunto


de clases laterales, es necesario demostrar que la imagen de cada clase no
depende del representante. Sean v + ker(ϕ) = u + ker(ϕ) clases laterales
iguales. Por la Proposición 4.4 (2), v − u = s ∈ ker(ϕ), para algún s ∈
ker(ϕ). Aplicando ϕ a v −u = s y usando que es una transformación lineal,
obtenemos que

ϕ(v − u) = ϕ(v) − ϕ(u) = ϕ(s) = 0W .

Por lo tanto, ϕ(v) = ϕ(u). Esto demuestra que

ξ(v + ker(ϕ)) = ϕ(v) = ϕ(u) = ξ(u + ker(ϕ)).

(2) ξ es una transformación lineal. Sean v, u ∈ V y α, β ∈ F elementos arbi-


trarios. Usando el hecho que ϕ es una transformación lineal, deducimos lo
siguiente:

ξ (α (u + ker(ϕ)) + β (v + ker(ϕ))) = ξ ((αu + βv) + ker(ϕ))


= ϕ (αu + βv)
= αϕ (u) + βϕ (v)
= αξ (u + ker(ϕ)) + βξ (v + ker(ϕ)) .

(3) ξ es sobreyectiva. Sea w ∈ Im(ϕ) un elemento arbitrario. Por denición del


conjunto Im(ϕ), existe v ∈ V tal que ϕ(v) = w . Luego, v + ker(ϕ) es la
preimagen de w bajo ξ :

ξ(v + ker(ϕ)) = ϕ(v) = w.

(4) ξ es inyectiva. Sean v + ker(ϕ) y u + ker(ϕ) elementos de V / ker(ϕ) tales


que ξ(v + ker(ϕ)) = ξ(u + ker(ϕ)). Por la denición de ξ , tenemos que
ϕ(v) = ϕ(u). Obtenemos las siguientes implicaciones:

ϕ(v) = ϕ(u) ⇒ ϕ(v) − ϕ(u) = 0W ⇒ ϕ(v − u) = 0W ⇒ v − u ∈ ker(ϕ).

Por la Proposición 4.4 (2), deducimos que v + ker(ϕ) = u + ker(ϕ). Esto


demuestra que ξ es inyectiva.

Palabras clave: congruencia módulo un subespacio, clase lateral, espacio


cociente, proyección canónica, primer teorema de isomorfía.
78 CAPÍTULO 4. ESPACIO VECTORIAL COCIENTE

4.1. Ejercicios
Ejercicio 4.14. Considera el espacio cociente R3 /⟨(1, 0, 1)⟩. Determina si las
siguientes armaciones son verdaderas o falsas. Justica detalladamente tu res-
puesta.

1. (1, 0, 1) + ⟨(1, 0, 1)⟩ = (0, 0, 0) + ⟨(1, 0, 1)⟩.

2. (1, 0, 0) + ⟨(1, 0, 1)⟩ = (−1, 0, 1) + ⟨(1, 0, 1)⟩.

3. (1, 0, 0) + ⟨(1, 0, 1)⟩ = (−1, 0, −2) + ⟨(1, 0, 1)⟩.

4. ((3, 0, 1) + ⟨(1, 0, 1)⟩) + ((−2, 1, 1) + ⟨(1, 0, 1)⟩) = (0, 1, 1) + ⟨(1, 0, 1)⟩.

5. ((3, 0, 1) + ⟨(1, 0, 1)⟩) + ((−2, 1, 1) + ⟨(1, 0, 1)⟩) = (1, 1, 1) + ⟨(1, 0, 1)⟩.

Ilustra la interpretación geométrica de cada inciso.

Ejercicio 4.15. Considera el espacio vectorial V = Z32 sobre Z2 .

1. Si S = {(0, 0, 0), (1, 1, 0)}, comprueba que S es un subespacio y escribe


todos los elementos de V /S . ¾Cuántos elementos distintos hay en V /S ?

2. Si T = {(0, 0, 0), (1, 0, 0), (0, 1, 1), (1, 1, 1)}, comprueba que T es un subes-
pacio y escribe todos los elementos de V /T . ¾Cuántos elementos distintos
hay en V /T ?

Ejercicio 4.16. V = S ⊕ T entonces V /S ∼


Demuestra que si = T . (Sugerencia:
Restringe la proyección canónica pr : V → V /S a T , y calcula el kernel y la
imagen de la restricción.)
Ejercicio 4.17. Sea V un espacio vectorial, sean S ≤ V y T ≤ V, y sean
v, w ∈ V vectores jos. Demuestra lo siguiente:

a) v+S ⊆w+T si y sólo si S⊆T y v − w ∈ T.

b) (v + S) ∩ (w + T ) ̸= ∅ si y sólo si v − w ∈ S + T.

c) si z ∈ (v + S) ∩ (w + T ) entonces (v + S) ∩ (z + T ) = z + S ∩ T .

(Nota: Observa que este ejercicio compara clases laterales respecto a subespacios
distintos ).
Ejercicio 4.18. Supongamos que V = S ⊕ T y sean v, w ∈ V . Demuestra que
(v + S) ∩ (w + T ) contiene exactamente un elemento. Sugerencia: use el ejercicio
2 3
4.17. Da una interpreta geométricamente si V = R y si V = R .

Ejercicio 4.19. Sea ϕ : V → W una transformación lineal, S un subespacio de


V tal que S ⊆ ker ϕ, y pr : V → V /S la proyección canónica. Demuestra lo
siguiente:
4.1. EJERCICIOS 79

ϕ
V W

pr
ψ

V /S

Figura 4.1:

a) Existe una (única) transformación lineal ψ : V /S → W tal que ϕ = ψ ◦ pr


(vea Figura 4.1 ).

b) ψ es inyectiva si y sólo si S = ker ϕ.

Ejercicio 4.20. Sea S un subespacio de un espacio vectorial V sobre un campo


F . Sea pr : V → V /S la proyección canónica, ϕ : V → V una transformación
lineal tal que ϕ(S) ⊆ S . Demuestra que existe una (única) transformación lineal
ψ : V /S → V /S tal que ψ ◦ pr = pr ◦ψ (vea Figura 4.2). Sugerencia: Aplica el
Ejercicio 4.19 a la transformación lineal pr ◦ϕ : V → V /S .

ϕ
V V

pr pr

V /S V /S
ψ

Figura 4.2:

Ejercicio 4.21. Donde existe un primero, existe un segundo. Demuestra el si-


guiente resultado llamado el segundo teorema de isomorfía. Sea V un espacio
vectorial, S, T subespacios de V , S ∩T su intersección y S +T su suma. Entonces
S∩T es un subespacio de S , T es un subespacio de S + T , y

S/(S ∩ T ) ∼
= (S + T )/T.

Sugerencia: sea ϕ : V → V /T el mapeo cociente y sea φ = ϕ|S la restricción de


ϕ a S, esto es,φ : S → V /T y φ(x) = x + T para todo x ∈ S . Demuestra que φ
tiene imagen (S + T )/T y kernel S ∩ T .
80 CAPÍTULO 4. ESPACIO VECTORIAL COCIENTE
Bases y dimensión
5
5.1. Independencia Lineal
Recordemos que una combinación lineal de un subconjunto A de un espacio
vectorial V sobre F es una expresión de la forma

α1 v1 + α2 v2 + . . . αn vn ,

donde αi ∈ F , vi ∈ A, i = 1, . . . , n. La combinación lineal es trivial si todos sus


coecientes son cero, y no trivial si al menos uno de los coecientes es distinto
de cero.

Definición 5.1 (linealmente dependiente). Sea A un subconjunto de un es-


pacio vectorial V sobre F . Decimos que A es linealmente dependiente si existe
una combinación lineal de A no trivial que sea igual al vector cero. En otras
palabras, si existen vectores v1 , v2 , . . . , vn ∈ A y escalares α1 , α2 , . . . , αn ∈ F no
todos ceros, tales que

n
X
α1 v1 + α2 v2 + . . . + αn vn = αi vi = 0. (5.1)
i=1

Definición 5.2 (linealmente independiente). Decimos que un subconjunto A


de un espacio vectorial V sobre F es linealmente independiente si no existen
combinaciones lineales de A no triviales que sean iguales al vector cero. En
otras palabras, si se cumple la siguiente implicación: si

n
X
α1 v1 + α2 v2 + . . . + αn vn = αi vi = 0.
i=1

donde αi ∈ F , vi ∈ A, i = 1, . . . , n, entonces αi = 0 para toda i = 1, . . . , n.

Observación 5.3. Por denición, el conjunto vacío ∅ es linealmente indepen-


diente, porque la frase no existen combinaciones lineales de ∅ no triviales que
sean iguales al vector cero siempre es verdadera (no existen combinaciones
lineales de ∅ en lo absuluto).

81
82 CAPÍTULO 5. BASES Y DIMENSIÓN

Ejemplo 5.4. Sea V un espacio vectorial sobre F , y A ⊆ V un subconjunto no


vacío de vectores. Siempre que 0 ∈ A, el conjunto A será linealmente dependiente
porque α0 = 0 para cualquier α ∈ F .

Ejemplo 5.5. Sea F cualquier campo. En el espacio vectorial F n, el conjunto


de n vectores

{e1 = (1, 0, . . . , 0) , e2 = (0, 1, . . . , 0) , . . . , en = (0, 0, . . . , 1)}, (5.2)

es linealmente independiente. Para demostrar esto, supongamos que

α1 e1 + α2 e2 + . . . + αn en = 0

para algunos α1 , α2 , . . . , αn ∈ F . Reescribimos la relación de arriba como

α1 (1, 0, . . . , 0) + α2 (0, 1, . . . , 0) + . . . + αn (0, 0, . . . , 1) = (0, 0, . . . , 0).

Luego,
(α1 , α2 , . . . , αn ) = (0, 0, . . . , 0) ,
y entonces α1 = 0, α2 = 0, . . . , αn = 0. Por lo tanto, este conjunto de n vectores
de Fn es linealmente independiente.

Ejemplo 5.6. El conjunto A = {(1, 0) , (1, 1)} ⊆ R2 es linealmente independien-


te. Para demostrar esto, supongamos que

α1 (1, 0) + α2 (1, 1) = (0, 0) ,

para algunos αi ∈ R. Entonces,

(α1 + α2 , α2 ) = (0, 0)

lo que implica que


α1 + α2 = 0 y α2 = 0.
Por lo tanto, α1 = α2 = 0.

Ejemplo 5.7. El subconjunto A = {(1, 0) , (1, 1) , (0, 1)} de R2 es linealmente


dependiente sobre R porque

(1, 0) − (1, 1) + (0, 1) = (0, 0) = 0.



Ejemplo 5.8. El subconjunto 1, x, 1 + x + x2 de R[x] es linealmente indepen-
diente. Para mostrar esto, sean α1 , α2 , α3 ∈ R escalares tales que

α1 (1) + α2 x + α3 1 + x + x2 = 0.


Entonces,
(α1 + α3 ) + (α2 + α3 ) x + α3 x2 = 0,
de esta manera tenemos que α1 + α3 = 0, α2 + α3 = 0, α3 = 0 de donde
α1 = 0, α2 = 0, α3 = 0. Por lo tanto, el subconjunto{1, x, 1 + x + x2 } ⊆ R[x] es
linealmente independiente.
5.1. INDEPENDENCIA LINEAL 83

Observación 5.9. En ocasiones es conveniente hablar de listas de vectores li-


nealmente independientes, en lugar de conjuntos, usando una denición análoga.
Una lista de vectores de un espacio vectorial V es simplemente una sucesión ni-
ta v1 , v2 , . . . , vn , donde vi ∈ V . Decimos que la lista v1 , v2 , . . . , vn es linealmente
independiente si
α1 v1 + α2 v1 + · · · + αn vn = 0,
implica que αi = 0 para toda i = 0, . . . , n.
Por ejemplo, si v ∈ R3 es cualquier vector distinto de cero, el conjunto
{v} es linealmente independiente; sin embargo, la lista v, v, v es linealmente
dependiente debido a que existe una combinación lineal no trivial igual al
vector cero:
1 1
v − v − v = 0.
2 2
Los resultados de esta sección serán enunciados para conjuntos linealmente inde-
pendientes, pero hay que notar que también son válidos para listas linealmente
independientes (ver Sec. 2.A en [1]).

Definición 5.10 (Dimensión Infinita). Decimos que un espacio vectorial V es


de dimensión innita si existe un conjunto de cardinalidad innita que sea
linealmente independiente. En caso contrario, decimos que V es de dimensión
nita.

Aunque no hayamos denido la dimensión de un espacio vectorial, el párrafo


anterior dene las frases de dimensión innita y de dimensión nita.

Ejemplo 5.11. El espacio vectorial de polinomios


 R [x] es de dimensión innita
porque el conjunto A = 1, x, x2 , x3 , ... es un conjunto innito linealmente
independiente: claramente, para cualquier n ∈ N,

α0 + α1 x + α2 x2 + α3 x3 + ... + αn xn = 0

si y sólo si α0 = α1 = ... = αn = 0.

Lema 5.12 (subconjuntos linealmente independientes). Sea V un espacio


vectorial sobre F . Si A ⊆ V es linealmente independiente, cualquier subconjunto
de A también es linealmente independiente.

Demostración. Ejercicio 5.51. □

Teorema 5.13 (independencia lineal). Sea V un espacio vectorial sobre F . Un


subconjunto A ⊆ V es linealmente independiente si y sólo si ningún elemento
de A es igual a la combinación lineal de otros elementos de A.

Demostración. Demostraremos la siguiente armación equivalente: A es lineal-


mente dependiente si y sólo si algún elemento de A es igual a la combinación
lineal de otros elementos de A.
84 CAPÍTULO 5. BASES Y DIMENSIÓN

(⇒ ) Supongamos que A es linealmente dependiente. Por denición, existen


v1 , . . . , v n ∈ A y escalares α1 , α2 , . . . , αn ∈ F no todos cero, tales que

α1 v1 + α2 v2 + . . . + αn vn = 0. (5.3)

Sin perder generalidad (reetiquetando si es necesario), supongamos que


α1 ̸= 0. Luego,
     
−α2 −α3 −αn
v1 = v2 + v3 + . . . + vn .
α1 α1 α1
Por lo tanto v1 es igual a una combinación lineal de otros vectores en A.
(⇐ ) Supongamos que existe un vector v1 ∈ A que puede escribirse como com-
binación lineal de otros vectores v2 , . . . , vn ∈ A, donde v ̸= vi para toda
i = 2, . . . , n. En otras palabras,

v1 = α2 v2 + α3 v3 + . . . + αn vn ,

Para algunos α2 , . . . , αn ∈ F . Entonces,

1v1 − α2 v2 − α2 v2 − . . . − αn vn = 0,

es una combinación lineal no trivial de elementos de A (porque al menos


el coeciente de v1 es distinto de cero). Por lo tanto, A es linealmente
dependiente.


Ejemplo 5.14. El subconjunto A = {(1, 2) , (1, 1) , (3, 4)} de R2 es linealmente
dependiente. Observemos primero que

α1 (1, 2) ̸= (1, 1) ,

para cualquier escalar α1 . Ahora

α1 (1, 2) + α2 (1, 1) = (3, 4) ,

entonces α1 + α2 = 3 y 2α1 + α2 = 4. Resolviendo, tenemos que α1 = 1, α2 = 2.


Por lo tanto, el conjunto A es linealmente dependiente.

5.2. Conjuntos generadores


Sea A un subconjunto de un espacio vectorial V sobre F . Recordemos que
genF (A) (también denotado como ⟨A⟩ cuando F está claro por el contexto), es
el conjunto de todas las combinaciones lineales de A.

Definición 5.15 (conjunto generador). Sea A un subconjunto de un espacio


vectorial V sobre F . Decimos que A es un conjunto generador de V , o que
genera a V , si genF (A) = V .
5.2. CONJUNTOS GENERADORES 85

Observación 5.16. Si queremos demostrar que ⟨A⟩ = V , entonces debemos


probar solamente la contención V ⊆ ⟨A⟩, puesto que la otra contención ⟨A⟩ ⊆ V
siempre se cumple ya que ⟨A⟩ es un subespacio de V .

Ejemplo 5.17. Consideremos el conjunto

W = (x1 , x2 , x3 ) ∈ R3 : 2x1 + x2 − x3 = 0


Encontraremos un conjunto generador para W. Observemos que

W = {(x1 , x2 , 2x1 + x2 ) : x1 , x2 ∈ R}
= {x1 (1, 0, 2) + x2 (0, 1, 1) : x1 , x2 ∈ R}

Así que A = {(1, 0, 2) , (0, 1, 1)} es un conjunto de vectores de R3 tal que


⟨A⟩ = W . Obviamente, este conjunto generador no es único; por ejemplo,
{(2, 0, 4) , (0, −1, −1)} es otro conjunto generador de W .

Teorema 5.18 (espacios generados e independencia lineal). Sea V un es-


pacio vectorial sobre F y sea A ⊆ V . Entonces:

(1) Si A es linealmente dependiente, existe un v∈A tal que ⟨A \ {v}⟩ = ⟨A⟩.


(2) Si A es linealmente independiente y v ∈ V \ ⟨A⟩, entonces A ∪ {v} es
linealmente independiente.

Demostración.
(1) Por el Teorema 5.13, si A es linealmente dependiente, existe v ∈ A que
puede escribirse como combinación lineal de otros vectores v 1 , . . . , v n ∈ A,
donde v ̸= vj , para toda j. Es decir,

v = α1 v1 + . . . αn vn , (5.4)

para algunos αi ∈ F , i = 1, . . . , n. Obviamente, genF (A \ {v}) ≤ genF (A)


porque A \ {v} ⊆ A. Para demostrar la otra inclusión, consideremos una
Pk
combinación lineal
Pk i=1 βi ai ∈ genF (A). Si v ̸= ai , para toda i, entonces
β a
i=1 i i ∈ gen F (A \ {v}). Si v = ai para alguna i, digamos v = a1 ,
podemos substituir (5.4) en la combinación lineal:

k
X n
X k
X
βi ai = αi vi + βi ai ∈ genF (A \ {v}).
i=1 j=1 i=2

(2) Ejercicio.


Teorema 5.19 (Lema del Intercambio). Sea V un espacio vectorial sobre F ,
y sean A y B subconjuntos nitos de V . Si A genera a V y B es linealmente
independiente, entonces |A| ≥ |B|.
86 CAPÍTULO 5. BASES Y DIMENSIÓN

Demostración. Supongamos que A = {a1 , . . . , an } y B = {b1 , . . . , bm }. Por


reducción al absurdo, supongamos que m > n.
Como b1 ∈ V = ⟨A⟩ existen αi ∈ F no todos cero (porque b1 ̸= ⃗0 ya que B
es linealmente independiente), tales que

b1 = α1 a1 + . . . αn an .

Sin perder generalidad, supongamos que α1 ̸= 0. Luego,

1 α2 αn
a1 = b1 − a2 − · · · − an .
α1 α1 α1
Esto demuestra que podemos reemplazar en A a a1 por b1 para obtener el
conjunto
A1 := {b1 , a2 , . . . , an }
que también genera a V (por un argumento similar al de la demostración del
Teorema 5.18 (1)).
Repetimos el procedimento anterior: como b2 ∈ V = ⟨A1 ⟩, existen βi ∈ F
no todos cero tales que

b2 = β1 b1 + β2 a2 + · · · + βn an .

Si βi = 0 , para toda i ≥ 2, obtenemos la relación b2 = β1 b1 , β1 ̸= 0, lo cual


contradice que {b1 , b2 } es linealmente independiente. Luego, podemos suponer
que β2 ̸= 0, y entonces

1 β1 β3 βn
a2 = b2 − b1 − a3 − · · · − an .
β2 β2 β2 β2
Esto demuestra que podemos reemplazar en A1 a a2 por b2 para obtener el
conjunto
A2 := {b1 , b2 , a3 . . . , an }
que también genera a V.
Después de n repeticiones de este procedimento, podemos reemplazar en
An−1 := {b1 , b2 , . . . , bn−1 , an } a an por bn (el cual existe porque m > n), y
obtenemos que el conjunto

An := {b1 , b2 , . . . , bn }

también genera a V . Sin embargo An ⊂ B y existe bn+1 ∈ B \ An , el cual puede


ser escrito como combinación lineal de otros elementos de B . Esto contradice
que B sea linealmente independiente. Por lo tanto, m ≤ n. □

5.3. Bases
Definición 5.20 (Base). Sea V un espacio vectorial sobre F y sea B ⊆ V .
Decimos que B es una base de V sobre F si B es linealmente independiente y
genF (B) = V .
5.3. BASES 87

Ejemplo 5.21. El conjunto B de n vectores

e1 = (1, 0, . . . , 0) , e2 = (0, 1, . . . , 0) , . . . , en = (0, 0, . . . , 1) ,

es una base para el espacio vectorial Rn sobre R. En el ejemplo 5.5 ya se de-


mostró que este conjunto es linealmente independiente sobre R. Ahora debemos
probar que genR (B) = Rn . Por cerradura, sabemos que genR (B) ⊆ Rn . Así
que debemos demostrar que Rn ⊆ genR (B). Sea v = (α1 , α2 , . . . , αn ) ∈ Rn un
elemento arbitrario. Entonces podemos escribir

(α1 , α2 , . . . , αn ) = α1 (1, 0, . . . , 0) + α2 (0, 1, . . . , 0) + . . . + αn (0, 0, . . . , 1) ,

es decir
v = α1 e1 + α2 e2 + . . . + αn en ,
n
De esta forma R ⊆ genR (B), y genR (B) = Rn . Por lo tanto B es una base de
R n
sobre R. Llamaremos a esta base en particular la base canónica de Rn .
Ejemplo 5.22. Sea V = {0} el espacio vectorial trivial sobre F . El conjunto
{0} no es una base de V porque no es linealmente independiente. Sin embargo,
∅ sí es una base para V porque es linealmente independiente y ⟨∅⟩ = {0} (ver
Denición 2.13).

Teorema 5.23 (Tamaño de las Bases). Sea V un espacio vectorial sobre F, y


sean B y C bases de V . Entonces |B| = |C|.

Demostración. Si V es de dimensión innita, puede consultarse el Teorema


1.12 de [6]. El caso de dimensión nita puede demostrarse fácilmente usando el
Lema del Intercambio, así que se deja como ejercicio. □
La motivación principal para la denición de base se origina de la posibilidad
de obtener un conjunto mínimo de vectores que generen un espacio vectorial
dado.

Teorema 5.24 (definiciones equivalentes de base). Sea V un espacio vecto-


F , y B ⊆ V un subconjunto no vacío. Las siguientes armaciones son
rial sobre
equivalentes:

(1) B es una base de V.

(2) Cualquier vector v∈V puede ser escrito de forma esencialmente única 1
como una combinación lineal de los elementos de B.

(3) B es un conjunto generador de V minimal; es decir, genF (B) = V y si


A ⊊ B , entonces A no genera a V .

(4) B es un conjunto linealmente independiente maximal; es decir, B es lineal-


mente independiente y si A ⊋ B, entonces A es linealmente dependiente.
1 En este contexto, esencialmente única signica que las combinaciones lineales son iguales
salvo por sumas de combinaciones lineales triviales.
88 CAPÍTULO 5. BASES Y DIMENSIÓN

Demostración. Demostraremos cada implicación.

(1) ⇒ (2) Supongamos que B es una base de V. Como V = ⟨B⟩, cualquier


elemento de V puede escribirse como una combinación lineal de vectores
en B . Demostraremos la unicidad. Supongamos que algún v ∈ V es igual a
dos combinaciones lineales distintas de B . Permitiendo coecientes iguales
a 0 si es necesario, podemos suponer que

v = α1 v1 + ... + αn vn = β1 v1 + ... + βn vn

donde αi , βi ∈ F, y vi ∈ B . Entonces

(α1 − β1 ) v1 + ... + (αn − βn ) vn = 0.

Como B es linealmente independiente, esto implica que αi − βi = 0, para


toda i = 1, . . . , n. Por lo tanto, la representación de v como combinación
lineal de vectores de B es única.

(2) ⇒ (3) Sea A ⊊ B . Por reducción al absurdo, supongamos que ⟨A⟩ = V . Sea
w ∈ B \ A, w ̸= 0. Como w también pertenece a V , tenemos que

w = α1 v1 + ... + αn vn

donde αi ∈ F, αi ̸= 0, y vi ∈ A ⊊ B . Luego,

α1 v1 + ... + αn vn − w = 0.

Como 0 =0v1 + ... + 0vn , la igualdad anterior implica que el vector 0 tiene
dos representaciones distintas como combinación lineal de elementos de
B. Esto contradice el punto (2).

(3) ⇒ (4) Supongamos que B es un conjunto generador de V minimal. Prime-


ro demostraremos que B es linealmente independiente. Por reducción al
absurdo, supongamos que B es linealmente dependiente. Por el Teorema
5.18 (1), existe v ∈ B tal que ⟨B \ {v}⟩ = ⟨B⟩ = V , lo que contradice que
B sea generador minimal. Luego, B es linealmente independiente.
Ahora demostraremos que B es linealmente independiente maximal. Por
reducción al absurdo, supongamos que existe A ⊆ V tal que A ⊋ B y A
es linealmente independiente. Sea u ∈ A \ B . Como ⟨B⟩ = V , podemos
escribir a u como combinación lineal de A: sin embargo, por el Teore-
ma 5.13, esto implica que A es linealmente dependiente, lo cual es una
contradicción.

(4) ⇒ (1) Supongamos que B ⊆ V es un conjunto linealmente independiente


maximal. Para demostrar que B
es una base de V , debemos mostrar que
⟨B⟩ = V . Sea v ∈ V , y, por reducción al absurdo, supongamos que existe
v ∈ V \⟨B⟩. Por el Teorema 5.18 (2), esto implica que el conjunto A := B ∪
{v} es linealmente independiente. Como A ⊋ B , esto contradice que B sea
un conjunto linealmente independiente maximal. Por lo tanto, ⟨B⟩ = V .
5.3. BASES 89


Para demostrar el Teorema de Existencia de Bases, necesitamos el Lema de
Zorn, el cual es equivalente al Axioma de Elección. Antes de enunciar el Lema
de Zorn, debemos recordar algunas deniciones.

Definición 5.25 (Conjuntos parcialmente ordernados). Sea P un conjunto


no vacío. Una relación de orden sobre P es una relación ⪯ sobre P que es
reexiva, antisimétrica (i.e. para todo a, b ∈ P , si a ⪯ b y b ⪯ a, entonces a = b)
y transitiva. Nos referimos a un conjunto equipado con una relación de orden
como un conjunto parcialmente ordenado.
Definición 5.26. Sea P un conjunto parcialmente ordenado.

1. Una cadena de P es un subconjunto C ⊆ P totalmente ordenado ; es decir,


para toda a, b ∈ C se tiene que a ⪯ b o b ⪯ a.
2. Una cota superior de un subconjunto A⊆P es un elemento c∈P tal que
a ⪯ c, para toda a ∈ A.
3. Un elemento maximal de P es un elemento m ∈ P tal que si a ∈ P
satisface m ⪯ a, entonces m = a.

Ejemplo 5.27. Consideremos el conjunto P = P({1, 2, 3, 4}); es decir, P es el


conjunto potencia de {1, 2, 3, 4}. La inclusión de conjuntos ⊆ es una relación de
orden sobre P. Una cadena de P es

C := {{1}, {1, 2}, {1, 2, 3}}.

Las cotas superiores de C son {1, 2, 3} y {1, 2, 3, 4}, mientras que {1, 2, 3} es el
único elemento maximal de C. Por otro lado, el conjunto

A := {{3}, {2, 4}, {2, 3}}

no es una cadena (por ejemplo, {3} y {2, 4} no se pueden comparar con la


inclusión) y tiene dos elementos maximales: {2, 4} y {2, 3}.

Lema 5.28 (Zorn). Sea P un conjunto parcialmente ordenado con la propiedad


de que cualquier cadena tiene una cota superior. Entonces P contiene al menos
un elemento maximal.

En el siguiente teorema demostramos que cualquier espacio vectorial distinto


de cero tiene una base. Si el espacio es de dimensión nita, es posible demostrar
esto sin usar el Lema de Zorn; sin embargo, este lema es indispensable cuando
el espacio es de dimensión innita.

Teorema 5.29 (Existencia de bases). Sea V un espacio vectorial sobre F . Las


siguientes armaciones se cumplen:

1. Cualquier conjunto linealmente independiente de V está contenido en una


base de V.
90 CAPÍTULO 5. BASES Y DIMENSIÓN

2. Cualquier conjunto generador de V contiene a una base de V.


3. Existe una base de V.

Demostración. Demostraremos cada punto.

1. Sea I⊆V un conjunto linealmente independiente. Demostraremos que I


está contenido en una base de V. Consideremos al conjunto

I := {A ⊂ V : I ⊂ A y A es linealmente independiente} ,

Claramente, I es no vacío porque I ∈ I. Además, I es un conjunto orde-


nado bajo la inclusión de conjuntos. Consideremos una cadena de I:

C = {Cj : j ∈ J}

donde J es un conjunto de índices. Consideremos la unión de todos los


elementos de C: [
U= Cj .
j∈J

Demostraremos que U es linealmente independiente. Por denición, si v ∈


U , entonces v ∈ Cj , para algún j ∈ J . Luego, si v1 , ..., vk ∈ U , entonces, sin
perder generalidad, podemos suponer que v1 ∈ C1 , v2 ∈ C2 , ..., vk ∈ Ck .
Como C es totalmente ordenado, siempre tenemos que Ci ⊆ Cj , o Cj ⊆ Ci ,
para cualquier i, j ∈ J . Por lo tanto, podemos suponer que

C1 ⊆ C2 ⊆ ... ⊆ Ck .

En particular, {v1 , ..., vk } ⊆ Ck , {v1 , ..., vk } es linealmente


lo implica que
independiente (Ejercicio 5.51 (1.)). Esto demuestra que U es linealmente
independiente, así que U ∈ I . Como Cj ⊆ U , para toda j ∈ J , entonces
U es una cota superior de C. Debido a que C es una cadena arbitraria,
podemos usar el Lema de Zorn; por lo tanto, I contiene al menos un
elemento maximal B ∈ I . Por el Teorema 5.24, B es una base de V que
contiene a I .

2. Sea D⊂V un subconjunto tal que ⟨D⟩ = V . Consideremos el conjunto

S := {A ⊆ D : A es linealmente independiente}.

Ahora, imitando el argumento del punto anterior, podemos demostrar que


S tiene un elemento maximal B ∈ S (Ejercicio 5.58). Por el Lema del In-
tercambio, B es un subconjunto de V linealmente independiente maximal.
Por lo tanto, B es una base de V contenida en D .

3. Si V = {0}, entonces ∅ es una base para V . Si V ̸= {0}, sea v ∈ V tal que


v ̸= 0. El conjunto A = {v} es linealmente independiente, así que por el
punto (1), está contenido en una base de V . En cualquier caso, existe una
base de V .
5.4. DIMENSIÓN 91


En el siguiente resultado, entendemos por algoritmo a un procedimiento que
siempre termina después de un número nito de pasos.

Teorema 5.30 (Existencia de Bases: caso de dimensión finita). Sea V un es-


pacio vectorial de dimensión nita sobre F . Entonces, existe un algoritmo para
encontrar una base de V .

Demostración. Si V = {0}, entonces ∅ es una base para V , así que supongamos


que V ̸= {0}. Sea v1 ∈ V , v1 ̸= 0. Si ⟨v1 ⟩ = V , entonces {v1 } es una base para
V . En caso contrario, sea v2 ∈ V \ ⟨v1 ⟩. Por el Teorema 5.18, el conjunto {v1 , v2 }
es linealmente independiente. Si ⟨v1 , v2 ⟩ = V , entonces {v1 , v2 } es una base para
V . En caso contrario, sea v3 ∈ \⟨v1 , v2 ⟩, y repitamos el proceso anterior. Repetir
este proceso debe terminar en algún momento porque V es de dimensión nita, y
no tiene subconjuntos innitos linealmente independientes. Si el proceso termina
después de n pasos, obtenemos un conjunto {v1 , . . . , vn } el cual genera a V y es
linealmente independiente; por lo tanto, éste es una base de V. □

5.4. Dimensión
Ahora deniremos uno de los conceptos más importantes relacionados con
la teoría de espacios vectoriales.

Definición 5.31 (dimensión). La dimensión de un espacio vectorial V sobre un


campo F , denotada por dimF (V ), es la cardinalidad de cualquier base B de V .
Si el campo F está claro por el contexto, escribimos simplemente dim(V ).

Observación 5.32. La denición anterior tiene sentido gracias al Teorema 5.23.

Observación 5.33. Por el Teorema 5.29, dim (V ) < ∞ si y sólo si V es de


dimensión nita.

Ejemplo 5.34. La dimensión del espacio vectorial trivial es 0 porque |∅| = 0.

Ejemplo 5.35. Como la base canónica {e1 , e2 , . . . , en } de F n tiene n elementos,


deducimos que

dimF (F n ) = n.

Ejemplo 5.36. Sea V un espacio vectorial sobre F. Si v ∈ V , v ̸= 0, entonces

dim (⟨v⟩) = 1,

ya que {v} es una base de ⟨v⟩. Si w ∈ V, entonces {v, w} es linealmente inde-


pendiente si y sólo si

dim (⟨v, w⟩) = 2.


92 CAPÍTULO 5. BASES Y DIMENSIÓN

Ejemplo 5.37. La dimensión de R, visto como espacio vectorial sobre R, es


1 porque {1} es una base. Sin embargo, si consideramos a R como espacio
vectorial sobre Q, entonces {1} no es una base ya que el espacio generado ⟨1⟩ =
{α1 : α ∈ Q} no es igual a R. De hecho, como Q es un conjunto numerable y R
es no numerable, es posible demostrar que el espacio vectorial R sobre Q es de
dimensión innita. En conclusión,

dimR (R) = 1, pero dimQ (R) = ∞.

Observación 5.38. Si S ≤ V y A es una base de S , claramente, A es un


subconjunto de V linealmente independiente. Por el Teorema 5.29 (1), podemos
extender A a una base de V ; esto signica que la base de cualquier subespacio
de V puede extenderse a una base de V .

Ejemplo 5.39. Consideremos el subespacio

S = (x1 , x2 , x3 ) ∈ R3 : x1 = x2 ⊆ R3 .


Debido a que
A = {(1, 1, 0) , (0, 0, 1)}
es un conjunto linealmente independiente que genera a S , tenemos que dimR (S) =
2. El conjunto A puede extenderse a una base de V añadiendo algún vector que
no sea una combinación lineal de los elementos de A; por ejemplo,

B = {(1, 1, 0) , (0, 0, 1) , (1, 0, 0)}

es una base de V que contiene a A.

Ejemplo 5.40. Sabemos que tanto el espacio de polinomios F [x] como el espacio
de series formales F [[x]] son de dimensión innita. El conjunto

B = {1, x, x2 , . . . } = {xi : i ≥ 0},

es una base de F [x] porque B es linealmente independiente y genF (B) = F [x],


y por lo tanto
dimF (F [x]) = |B| = ℵ0 ,
donde ℵ0 es la cardinalidad de los números naturales. Sin embargo, B no es una
base de F [[x]] porque genF (B) ̸= F [[X]]. (Recordemos que las combinaciones

xi no
P
lineales siempre son expresiones nitas; así por ejemplo, la serie formal
i=0
puede ser expresada como una combinación lineal de B ). Entonces, ¾podemos
encontrar una base para F [[x]]? El Teorema de Existencia de Bases asegura
que F [[x]] debe tener una base, pero su demostración es no constructiva y no
especica cómo encontrarla. Sin embargo, aunque nadie sabe explícitamente
cuál es la base de F [[x]], es posible demostrar que debe ser un conjunto no
numerable; por lo tanto, dimF (F [x]) < dimF (F [[x]]).
5.4. DIMENSIÓN 93

Nuestro objetivo ahora es demostrar el Teorema de Dimensión e Isomorfía,


el cual establece que dos espacios vectoriales son isomorfos si y sólo si tienen la
misma dimensión.
El siguiente teorema nos presenta un concepto que será de gran utilidad; su
demostración involucra un procedimiento para `extender' una función denida
sobre una base a una transformación lineal.

Teorema 5.41 (Extensión Lineal). Sean V y W espacios vectoriales sobre F , y


sea B una base para V . Sea f : B −→ W cualquier función que asigna vectores
de W a los elementos de B . Entonces existe una única transformación lineal
ϕ : V −→ W tal que ϕ (b) = f (b), para toda b ∈ B .

Demostración. Para demostrar la existencia, denamos una función ϕ :


V −→ W de la siguiente forma:

ϕ (v) = ϕ (α1 b1 + ... + αn bn ) := α1 f (b1 ) + ... + αn f (bn ) ,

donde v = α1 b1 + · · · + αn bn ∈ V , αi ∈ F y bi ∈ B . Demostraremos que ϕ es


una transformación lineal. Sea u = β1 b1 + ... + βm bm ∈ V , βi ∈ F , y α, β ∈ F .
Sin perder generalidad, supongamos que m ≥ n. Entonces:

ϕ (αv + βu) = ϕ (α (α1 b1 + ... + αn bn ) + β (β1 b1 + ... + βm bm ))


= ϕ ((αα1 + ββ1 ) b1 + ... + (ααn + ββn ) bn + · · · + ββm bm )
= (αα1 + ββ1 ) f (b1 ) + ... + (ααn + ββn ) f (bn ) + · · · + ββm f (bm )
= α [α1 f (b1 ) + ... + αn f (bn )] + β [β1 f (b1 ) + ... + βm f (bm )]
= αϕ (v) + βϕ (u) .

Claramente, ϕ ϕ (b) = f (b), para toda b ∈ B . Para demostrar la


cumple que
unicidad, supongamos que φ : V −→ W , es una transformación lineal tal que
φ (b) = f (b), para toda b ∈ B . Entonces, para cualquier v = α1 b1 +...+αi bn ∈ V ,

φ (v) = φ (α1 b1 + ... + αn bn )


= α1 φ (b1 ) + ... + αn φ (bn )
= α1 f (b1 ) + ... + αn f (bn )
= ϕ (α1 b1 + ... + αn bn ) = ϕ (v) .

Por lo tanto, φ = ϕ. □

Observación 5.42. El teorema anterior implica que sólo es necesario denir


las imágenes de los elementos de la base de un espacio vectorial para denir, de
manera única, una transformación lineal.

Definición 5.43 (Extensión Lineal). La transformación lineal ϕ : V −→ W


denida en el teorema anterior se llama la extensión lineal de f : B −→ W .
94 CAPÍTULO 5. BASES Y DIMENSIÓN

Ejemplo 5.44. Sea B = {(1, 0) , (0, 1)} la base canónica de R2 . Consideremos


3
la función f : B −→ R denida como

f (1, 0) = (1, 0, 1) ,
f (0, 1) = (0, 2, 0) .

Entonces, la extensión lineal de f es la transformación lineal ϕ : R2 −→ R3


denida como

ϕ (x1 , x2 ) = x1 f (1, 0) + x2 f (0, 1)


= x1 (1, 0, 1) + x2 (0, 2, 0)
= (x1 , 2x2 , x1 ) ,

donde x i ∈ R.

Ejemplo 5.45. Consideremos ahora la base B = {(1, 0) , (1, 1)} de R2 , y dena-


2
mos f : B −→ R como

f (1, 0) = (1, −2) ,


f (1, 1) = (−2, 1) .

La extensión lineal de f es la transformación lineal ϕ : R2 −→ R2 denida como

ϕ (x1 , x2 ) = ϕ ((x1 − x2 ) (1, 0) + x2 (1, 1))


= (x1 − x2 ) f (1, 0) + x2 f (1, 1)
= (x1 − x2 ) (1, −2) + x2 (−2, 1)
= (x1 − 3x2 , −2x1 + 3x2 ) .

Ejemplo 5.46. Sea B = {(1, 0, 0) , (0, 1, 0) , (0, 0, 1)} la base canónica de R3 .


Consideremos la función f : B −→ R denida como

f (1, 0, 0) = 3,
f (0, 1, 0) = −2,
f (0, 0, 1) = 2.

Entonces, la extensión lineal de f es la transformación lineal ϕ : R3 −→ R


denida como

ϕ (x1 , x2 , x3 ) = x1 f (1, 0, 0) + x2 f (0, 1, 0) + x3 f (0, 0, 1)


= 3x1 − 2x2 + 2x3 ,

donde x i ∈ R.

El siguiente teorema es uno de los más importantes de la teoría de espacios


vectoriales: establece que las clases de isomorfía de espacios vectoriales están
completamente determinadas por la dimensión de los espacios.
5.4. DIMENSIÓN 95

Teorema 5.47 (Dimensión e Isomorfı́a). Sean V y W espacios vectoriales so-


breF . Entonces, V ∼
= W si y sólo si dim (V ) = dim (W ).

Demostración. Observemos que este teorema no asume que V y W sean de


dimensión nita. Demostraremos cada implicación.

(=⇒) Supongamos que V ∼


y sea ϕ : V −→ W un isomorsmo. Sea B una
=W
base de V . Demostraremos que ϕ (B) es una base de W . Sea w ∈ W . Como
ϕ es sobreyectivo, w = ϕ (v) para algún v ∈ V . Ahora, v = α1 b1 +...+αn bn ,
para algunos αi ∈ F , bi ∈ B , así que

w = ϕ (α1 b1 + ... + αn bn )
= α1 ϕ (b1 ) + ... + αn ϕ (bn ) .

Esto demuestra que ϕ (B) genera a W. Para demostrar que ϕ (B) es li-
nealmente independiente, supongamos que

α1 ϕ (b1 ) + ... + αn ϕ (bn ) = 0W .

Como ϕ es una transformación lineal,

ϕ (α1 b1 + ... + αn bn ) = 0W = ϕ (0V ) ,

así que por inyectividad obtenemos que

α1 b1 + ... + αn bn = 0V .

Como B es linealmente independiente, esto implica que αi = 0, para toda


i. Luego, ϕ (B) es linealmente independiente. Ahora,

|B| = |ϕ (B)|

porque ϕ es una biyección, así que dim (V ) = dim (W ).

(⇐=) Supongamos que dim (V ) = dim (W ). Sea B = {bi : i ∈ I} una base de


V C = {ci : i ∈ I} una base de W . Denamos la función f : B −→ C
y
como f (bi ) = ci . Observemos que f es una biyección, lo que concuerda
con el hecho de que |B| = |C|. Sea ϕ : V −→ W la extensión lineal de
f . Demostraremos que ϕ es biyectiva, y por lo tanto un isomorsmo. Sea
w ∈ W , y, reetiquetando si es necesario, supongamos que

w = α1 c1 + ... + αn cn

donde αi ∈ F . Sea v = α1 b1 + ... + αn bn ∈ V . Observemos que

ϕ (v) = ϕ (α1 b1 + ... + αn bn )


= α1 f (b1 ) + ... + αn f (bn )
= α1 c1 + ... + αn cn = w,
96 CAPÍTULO 5. BASES Y DIMENSIÓN

lo que demuestra que ϕ es sobreyectiva. Para demostrar que ϕ es inyectiva,


sea v ∈ ker (ϕ). Luego, v = γ1 b1 + ... + γn bn , para algunos γi ∈ F , y

ϕ (γ1 b1 + ... + γn bn ) = 0W

Esto implica que

γ1 ϕ (b1 ) + ... + γn ϕ (bn ) = γ1 c1 + ... + γn cn = 0W

lo que implica que γi = 0 para toda i, por la independencia lineal de C.


Luego, ker (ϕ) = {0V }, y ϕ es inyectiva por el Teorema 3.24.


Corolario 5.48. Sea V un espacio vectorial sobre F con dim (V ) = n ∈ N.
Entonces V ∼
= F n.

Observación 5.49. Si B = {b1 , . . . , bn } es una base de V y {e1 , . . . , en } es la


base canónica de F n , entonces podemos considerar la función f : B → F n de-
nida por f (bi ) = ei . La extensión lineal de f es un isomosmo muy importante
n
entre V y F el cual estudiaremos más en la siguiente sección.

Palabras clave: conjunto linealmente independiente, conjunto generador,


lema del intercambio, base, existencia de bases, dimensión, extensión lineal, teo-
rema de dimensión e isomorfía.
5.5. EJERCICIOS 97

5.5. Ejercicios
Ejercicio 5.50. Determina si cada una de las siguientes sentencias son verda-
deras o falsas. Justica tu respuesta:


1. dim Z53 = 5.

2. dim F F < ∞, donde F = R.

3. dimQ (C) = 2.

4. dimR (C) = 2.

5. Si dim (V ) = n, cualquier subconjunto de V de cardinalidad mayor que n


es linealmente independiente.

6. Si dim (V ) = n, cualquier subconjunto de V de cardinalidad mayor que n


genera a V.

7. dim Z32 = 3.

8. dimR R2 = 2.

9. Sea A = {(1, 0, 1) , (0, 1, 1) , (2, −1, 1)} ⊂ R3 , entonces dim (genR A) = 3.

10. Todo espacio vectorial sobre un campo nito tiene dimensión nita.

Ejercicio 5.51. Sea V un espacio vectorial sobre F y sea A⊆V un subconjunto


linealmente independiente.

1. Demuestra que cualquier subconjunto de A es también linealmente inde-


pendiente.

2. Sea v ∈ V \ ⟨A⟩. Demuestra que A ∪ {v} es linealmente independiente.

Ejercicio 5.52. Determina si los siguientes conjuntos B son bases de los espacios
vectoriales V dados a continuación. Justica detalladamente tu respuesta.

(a) B := (1, 0, −1), (−1, 13 , 0), ( 72 , −1, − 12 ) ; V = R3 .




(b) B := {(1, 1, 2), (1, 2, 1), (2, 1, 1)}; V = R3 .

(c) B := {(0, 1, 2), (2, 1, 1), (1, 1, 0)}; V := Z33 .

(d)

B := x2 + 1, x2 + x, x2 ; V := {p(x) ∈ R[x] : grad(p(x)) ≤ 2}.

(e)

B := x2 + x + 1, x2 − x − 1 ; V := {p(x) ∈ R[x] : grad(p(x)) ≤ 2}.

Ejercicio 5.53. Encuentra una base y la dimensión de los siguientes subespacios


3
de R :

1. S1 := ⟨(3, 0, 0)⟩.
98 CAPÍTULO 5. BASES Y DIMENSIÓN

2. S2 := ⟨(2, 0, 0), (0, 0, 0), (1, 0, 0), (0, 0, 1)⟩.


3. S3 := ⟨(1, 0, 0), (1, 1, 0), (1, 1, 1)⟩.
4. S4 := ⟨(1, 1, −1) , (0, 0, 1) , (1, 1, 0)⟩.
5. S5 := ⟨(1, 0, 0) , (0, 0, 0) , (−1, 0, 0) , (0, 0, 1)⟩.

6. S6 := {(x, y, z)|x + y + z = 0}.


7. S7 := {(x, y, z)|x + y = 0}.
8. S8 := S6 ∩ S7 , donde S6 y S7 son los subespacios denidos en los puntos
anteriores.

Ejercicio 5.54. Sea V un espacio vectorial sobre F y sea S≤V un subespacio.

1. Demuestra que dim (S) ≤ dim (V ).


2. Demuestra que si V es de dimensión nita y S ̸= V , entonces dim (S) <
dim (V ).
3. Da un ejemplo de un espacio V y un subespacio S tales que S ̸= V pero
dim(S) = dim(V ).

Ejercicio 5.55. Sea X := {a, b, c}, y considera las funciones fa , fb , fc ∈ RX


denidas de la siguiente manera:

( ( (
1 si x = a, 1 si x = b, 1 si x = c,
fa (x) := fb (x) := fc (x) :=
0 si x ̸= a, 0 si x ̸= b, 0 si x ̸= c.

Demuestra que B := {fa , fb , fc } es una base de RX .

Ejercicio 5.56. Usa el Lema del Intercambio para demostrar que todas las bases
de un espacio vectorial tienen el mismo tamaño.

Ejercicio 5.57. Sin usar el Lema de Zorn, demuestra que cualquier espacio vec-
torial de dimensión nita tiene una base.

Ejercicio 5.58. Sea V un espacio vectorial sobre F y sea D⊂V un subconjunto


tal que ⟨D⟩ = V . Consideremos el conjunto

S := {A ⊆ D : A es linealmente independiente}.

Usa el Lema de Zorn para demostrar que S tiene un elemento maximal.


Dimensiones finitas y coordenadas
6
6.1. Dimensiones nitas
Recordemos del capítulo anterior que la dimensión de un espacio vectorial
V sobre F, denotada por dimF (V ) es igual a la cardinalidad de cualquier base
de V. En esta sección, analizaremos algunas propiedades de la dimensión de
subespacios y espacios vectoriales de dimensión nita.

Teorema 6.1 (dimensión de la suma de subespacios). Sean S y T subespa-


cios de un espacio vectorial de dimensión nita V sobre un campo F . Entonces

dim (S + T ) = dim(S) + dim(T ) − dim (S ∩ T ) .


Demostración. Sea B := {v1 , v2 , . . . , vr } una base de S ∩T . Usaremos el Teore-

ma 5.29: como B es linealmente independiente y B ⊆ S , existe una base B de S

que contiene a B . Supongamos que B = {v1 , . . . , vr , s1 , . . . , sn }. Similarmente,
B ⊆ T , así que existe una base B ′′ de T que contiene a B ; supongamos que
B ′′ = {v1 , . . . , vr , t1 , . . . , tm }. Demostraremos que el conjunto
C := B ′ ∪ B ′′ = {v1 , . . . , vr , s1 , . . . , sn , t1 , . . . , tm }
es una base de S + T. s + t ∈ S + T , con s ∈ S , t ∈ T , un vector arbitrario
Sea
de la suma. Sabemos que s ∈ ⟨B ′ ⟩ y t ∈ ⟨B ′′ ⟩, así que s + t ∈ ⟨B ′ ∪ B ′′ ⟩ = ⟨C⟩.
Por lo tanto, S + T = ⟨C⟩. Para demostrar que C es linealmente independiente,
supongamos que
r
X n
X m
X
αi vi + βi si + γi ti = 0, (6.1)
i=i i=1 i=1
para algunos αi , βi , γi ∈ F . Consideremos
r
X n
X m
X
w := αi vi + βi si = − γi t i .
i=i i=1 i=1

La igualdad anterior implica que w ∈S y w ∈ T, así que w ∈ S ∩ T. Por lo


tanto, existen escalares λi ∈ F tales que
r
X m
X r
X r
X m
X
w= λi vi ⇒ − γi ti = λ i vi ⇒ λ i vi + γi ti = 0.
i=1 i=1 i=1 i=1 i=1

99
100 CAPÍTULO 6. DIMENSIONES FINITAS Y COORDENADAS

Como B ′′ es linealmente independiente, tenemos que λi = 0 y γi = 0 para toda


i. Substituyendo en (6.1), obtenemos

r
X n
X
αi vi + βi si = 0.
i=i i=1

Como B′ es linealmente independiente, deducimos que αi = 0 y βi = 0 para


toda i. Por lo tanto, C es linealmente independiente. Concluimos que

dim(S + T ) = r + n + m = (r + n) + (r + m) − r = dim(S) + dim(T ) − dim(S ∩ T ).

Corolario 6.2 (dimensión de la suma directa). Sean U y W subespacios de


un espacio vectorial de dimensión nita V sobre un campo F . Supongamos que
U ∩ W = {0}, así que la suma de U y W es directa. Entonces,

dim (U ⊕ W ) = dim U + dim W.

Teorema 6.3 (dimensión del espacio cociente). Sea V un espacio vectorial


sobre F de dimensión nita, y sea S ≤ V . Entonces,

dim (V /S) = dim(V ) − dim(S).

Demostración. Sea B = {s1 , . . . , sn } una base de S y sea C = {w1 +


S, . . . , wm + S} una base de V /S . Demostraremos que el conjunto

D = {s1 , . . . , sn , w1 , . . . , wm }

es una base de V . Sea v ∈ V un vector arbitrario y consideremos la clase lateral


v + S. Como C es una base de V /S , existen αi ∈ F tales que

v + S = α1 (w1 + S) + · · · + αm (wm + S) = (α1 w1 + · · · + αm wm ) + S.

Por el Lema de Propiedades Básicas de Clases Laterales,

α1 w1 + · · · + αm wm − v ∈ S.

Como B es una base de S, existen escalares βi ∈ F tales que

m
X n
X n
X m
X
αi wi − v = βi si ⇒ v = βi si + αi wi ∈ ⟨D⟩.
i=1 i=1 i=1 i=1

Esto demuestra que V = ⟨D⟩. Supongamos ahora que existen escalares γi , λi ∈


F tales que

n
X m
X m
X n
X
γi si + λi wi = 0 ⇒ λi wi = − γi si ∈ S. (6.2)
i=1 i=1 i=1 i=1
6.1. DIMENSIONES FINITAS 101

Por el lema de Propiedades Básicas de Clases Laterales,

m
X
λi wi + S = 0 + S,
i=1

lo que implica que

λ1 (w1 + S) + · · · + λm (wm + S) = 0 + S.

Como C es linealmente independiente, esto implica que λi = 0, para toda i.


Substituyendo en (6.2), obtenemos que

γ1 s1 + · · · + γn sn = 0.

Como B linealmente independiente, concluimos que γi = 0 para toda i, así que


D es linealmente independiente. Finalmente,

dim(V ) = n + m = dim(S) + dim(V /S).

Definición 6.4 (rank y nulidad). Sean V y W espacios vectoriales sobre F y


sea ϕ : V → W una transformación lineal. Denimos el rank de ϕ como la
dimensión de la imagen de ϕ:

rk(ϕ) := dim(im(ϕ)).

Denimos la nulidad de ϕ como la dimensión del kernel de ϕ:

nul(ϕ) := dim(ker(ϕ)).

El siguiente teorema tiene una gran variedad de aplicaciones para demostrar


resultados generales sobre transformaciones lineales entre espacios vectoriales
de dimensión nita (ver Ejercicio 6.62).

Teorema 6.5 (rank + nulidad). Sean V y W espacios vectoriales de dimensión


F y sea ϕ : V → W una transformación lineal. Entonces
nita sobre

dim(V ) = rk(ϕ) + nul(ϕ).

Demostración. Por el Primer Teorema de Isomorfía, sabemos que

V / ker(ϕ) ∼
= im(ϕ).

Como espacios isomorfos tienen la misma dimensión, el Teorema 6.3 implica que

dim(im(ϕ)) = dim(V / ker(ϕ)) = dim(V ) − dim(ker(ϕ)).


102 CAPÍTULO 6. DIMENSIONES FINITAS Y COORDENADAS

Teorema 6.6 (Dimensión del espacio de transformaciones lineales). Si V


y W son dos espacios vectoriales de dimensión nita sobre F . Entonces,

dim (Hom (V, W )) = dim(V ) · dim(W ).

Demostración. Supongamos que dim(V ) = m y dim(W ) = n, y sean B =


{v1 , ..., vm } y B ′ = {w1 , .., wn } bases de V y W , respectivamente. Debemos
encontrar una base para Hom (V, W ) y demostrar que tiene mn elementos. Para
cada i = 1, . . . , m y j = 1, . . . , n, denimos fij : B → W como


wj , si k = i
fij (vk ) =
0, si k ̸= i

Sea τij : V → W la extensión lineal de fij : V → W . Demostraremos que el


conjunto C := {τij : 1 ≤ i ≤ m, 1 ≤ j ≤ n} forma una base de Hom (V, W ).
Para comprobar que C es linealmente independiente, supongamos que

n
m X
αij τij = 0, αij ∈ F,
X

i=1 j=1

Evaluando de ambos lados en cada vi ∈ B tenemos

m X
X n n
X
αij τij (vi ) = αij wj = 0,
i=1 j=1 j=1

y como B′ es linealmente independiente, esto implica que αij = 0 para todo i, j .


Para demostrar que C genera a Hom (V, W ), sea τ ∈ Hom (U, V ). Para cada
v∈V existen escalares βi , γij ∈ F tales que

v = β1 v1 + . . . βm vm
τ (vi ) = γi1 w1 + · · · + γ1n wn .

Por lo tanto

n
X n X
X m
τ (v) = βi τ (vi ) = βi γij wj
i=1 i=1 j=1
Xn Xm
= βi γij τij (vi )
i=1 j=1
Xn X m
= γij τij (β1 v1 + · · · + βm vm )
i=1 j=1
Xn X m
= γij τij (v)
i=1 j=1

Luego ⟨C⟩ = Hom (V, W ).


6.2. REPASO: CONCEPTOS Y OPERACIONES BÁSICAS DE MATRICES103

Concluimos que C es base para Hom (U, V ), y por lo tanto dim (Hom (V, W )) =
|C| = mn. □
Recordemos que Mn×m (F ) es el espacio vectorial de matrices de n × m con
entradas en F.
Corolario 6.7. Sean V y W espacios vectoriales de dimensión nita sobre F.
Sean n := dim(V ) y m := dim(W ). Entonces,

Hom(V, W ) ∼
= Mm×n (F ).
Demostración. Observemos que dim(Mm×n (F )) = mn. El resultado queda
establecido usando el Teorema 6.6 y el Teorema de Dimensión e Isomorfía. □

6.2. Repaso: Conceptos y operaciones básicas de


matrices
Como vimos en el Corolario 6.7, existe una conexión muy estrecha entre
transformaciones lineales y matrices. No solo la suma y multiplicación escalar
de transformaciones lineales es análoga a la suma y multiplicación escalar de
matrices; resulta que la composición de transformaciones lineales es análoga a
la multiplicación de matrices. Por tal motivo, en esta sección daremos un breve
repaso sobre algunos conceptos y operaciones básicas de matrices.

Definición 6.8 (multiplicación de matrices). Sea A = (ai,j ) ∈ Mn×m (F ),


D = (di,j ) ∈ Mm×k (F ). Denimos al producto AD como la siguiente matriz de
n × k:
  
a1,1 a1,2 ... a1,m d1,1 d1,2 ... d1,k
 a2,1 a2,2 ... a2,m   d2,1 d2,2 ... d2,k 
AD =  .
  
. .. .   .. . .. .
 .. . . . .

. . .   . . . . 
an,1 an,2 ... an,m dm,1 dm,2 ... dm,k
 Pm P m Pm 
a1,j dj,1 a1,j dj,2 ... a1,j dj,k
 j=1 j=1 j=1 
 m m m 
 P P P 
 a2,j dj,1 a2,j dj,2 ... a2,j dj,k 
=  .
 j=1 j=1 j=1

. . .. .
. . .
 
.
 m . . .
 
m m

 P P P 
an,j dj,1 an,j dj,2 ... an,j dj,k
j=1 j=1 j=1

En otras palabras, el elemento (i, j) del producto AD se obtiene multipli-


cando, respectivamente, los elementos del renglón i de A por los elementos de
la columna j de D, y sumándolos.

Observación 6.9. La multiplicación de una matriz A ∈ Mn×m (F ) por D ∈


Ms×k (F ) está denida si y sólo si m = s, y el producto AD es una matriz de
m × k.
104 CAPÍTULO 6. DIMENSIONES FINITAS Y COORDENADAS

Ejemplo 6.10. Sean

   
1 2 3 x1 x4 x7
A= 4 5 6  y D =  x2 x5 x8  .
7 8 9 x3 x6 x9

Donde x i ∈ R. Entonces,

  
1 2 3 x1 x4 x7
AD =  4 5 6   x2 x5 x8 
7 8 9 x3 x6 x9
 
x1 + 2x2 + 3x3 x4 + 2x5 + 3x6 x7 + 2x8 + 3x9
=  4x1 + 5x2 + 6x3 4x4 + 5x5 + 6x6 4x7 + 5x8 + 6x9  .
7x1 + 8x2 + 9x3 7x4 + 8x5 + 9x6 7x7 + 8x8 + 9x9

Lema 6.11. La multiplicación de matrices es una operación asociativa.

Observación 6.12. La multiplicación de matrices no es una operación conmu-


tativa. Primero observemos que, para A ∈ Mn×m (F ) y D ∈ Ms×k (F ), los
productos AD y DA están denidos si y sólo si n = m = s = k . Sin embargo,
aún en este caso, es sencillo encontrar ejemplos de matrices cuadradas tales que

AD ̸= DA.

Ejemplo 6.13. Sea In la matriz de n×n con elementos diagonales igual a 1 y


elementos no diagonales igual a 0:
 
1 0 ... 0
 0 1 ... 0 
In =  . . .
 
. ..
 .. .
. . . 
.
0 0 ... 1

La matriz In se llama la matriz identidad de n × n, y satisface que

In A = AIn = A

para cualquier A ∈ Mn×n (F ).

Las siguientes deniciones hacen referencia a tipos especiales de matrices


cuadradas.

Definición 6.14 (matriz triangular). Sea A = (ai,j ) ∈ Mn×n (F ). Decimos que


A es triangular superior si ai,j = 0, para toda i > j . Decimos que A es triangular
inferior si ai,j = 0 para toda i < j .

Definición 6.15 (matriz diagonal). Sea A = (ai,j ) ∈ Mn×n (F ). Decimos que


A es diagonal si A es triangular superior e inferior al mismo tiempo.
6.2. REPASO: CONCEPTOS Y OPERACIONES BÁSICAS DE MATRICES105

Ejemplo 6.16. Cualquier matriz triangular superior de M3×3 (R) tiene la forma
 
a1,1 a1,2 a1,3
 0 a2,2 a2,3  ,
0 0 a3,3

donde ai,j ∈ R. Cualquier matriz diagonal de M3×3 (R) tiene la forma

 
a1,1 0 0
 0 a2,2 0 ,
0 0 a3,3

donde ai,i ∈ R.

Observación 6.17. Los subconjuntos de Mn×n (F ) de matrices triangulares su-


periores, triangulares inferiores y diagonales son subespacios de Mn×m (F ).

Definición 6.18 (transpuesta de una matriz). Sea A = (ai,j ) una matriz de


n × m con entradas en F . Denimos a la transpuesta de A como AT = (aj,i );
T
en otras palabras, las columnas de A son las las de A y viceversa.

Ejemplo 6.19. Si
 
1 3 5
A= ,
2 4 6
entonces  
1 2
AT =  3 4 .
5 6

Observemos que A es una matriz de 2×3 mientras que AT es una matriz de


3 × 2. Veamos también que

 
T T
 1 3 5
A = = A.
2 4 6

Teorema 6.20 (propiedades de la transpuesta). Sean A, D ∈ Mn×m (F ). En-


tonces

T
1. AT = A.
T
2. (A + D) = AT + DT .
T
3. (αA) = αAT , ∀α ∈ F .

Demostración. Ejericio 7.32. □


A partir de ahora nos enforaremos en estudiar matrices cuadradas.
106 CAPÍTULO 6. DIMENSIONES FINITAS Y COORDENADAS

Definición 6.21 (inversa de una matriz). Una matriz A ∈ Mn×n (F ) es inver-


tible si existe una matriz A−1 ∈ Mn×n (F ) tal que

AA−1 = A−1 A = In .

En tal caso, decimos que A−1 es la matriz inversa de A.

Observación 6.22. En la siguiente sección veremos que si M ∈ Mn×n (F ) es


una matriz tal que AM = In , entonces M A = In , y viceversa, si M A = In ,
entonces AM = In . Esta es una propiedad muy interesante de las matrices que
puede enunciarse como sigue:

M es un inverso izquierdo de A ⇔ M es un inverso derecho de A.

Esta es una propiedad que siempre se cumple para los elementos de un grupo,
pero no necesariamente para los elementos de cualquier monoide 1 . Así que, como
veremos más adelante, la demostración de que esta propiedad se cumple para
las matrices debe usar resultados propios de la teoría de espacios vectoriales.

Ejemplo 6.23. Consideremos las siguientes matrices en M3×3 (R):


1
− 21 1
   
1 0 2 1 2
A= 0 1 2  y D= 0 −1 2 .
0 1 1 0 1 −1
Observemos que

1
− 12 1
    
1 0 2 1 2 1 0 0
AD =  0 1 2  0 −1 2 = 0 1 0 .
0 1 1 0 1 −1 0 0 1

Por lo tanto, la matriz inversa de A−1 = D.

No es verdad que cualquier matriz tenga una matriz inversa.

Ejemplo 6.24. La matriz


 
1 −1
A= ∈ M2×2 (R)
1 −1
no tiene inversa. Para demostrar esto por reducción al absurdo, supongamos
que AD = I2 , donde
 
d1,1 d1,2
D= .
d2,1 d2,2
Entonces, la igualdad
   
d1,1 − d2,1 d1,2 − d2,2 1 0
AD = = ,
d1,1 − d2,1 d1,2 − d2,2 0 1
1 Un monoide es simplemente un conjunto equipado con una operación binaria asociativa
y con identidad. Por ejemplo, Mn×n (F ) es un monoide.
6.2. REPASO: CONCEPTOS Y OPERACIONES BÁSICAS DE MATRICES107

es equivalente al siguiente sistema de ecuaciones:

d1,1 − d2,1 = 1; d1,2 − d2,2 = 0;


d1,1 − d2,1 = 0; d1,2 − d2,2 = 1.

Esto implica que 1 = 0, lo cual es una contradicción. Por lo tanto, la matriz A


no tiene inversa en M2×2 (R).

Definición 6.25 (matriz invertible). Decimos que una matriz cuadrada A es


−1
invertible si su inversa A existe.

Proposición 6.26 (matrices invertibles). Sean A, D ∈ Mn×n (F ) matrices in-


vertibles. Entonces, el producto AD es invertible y

−1
(AD) = D−1 A−1 .

Demostración. Observemos que

(AD) D−1 A−1 = A DD−1 A−1 = AIn A−1 = In .


 

−1
Por lo tanto, (AD) = D−1 A−1 por denición. □
Observación 6.27. Sea n ≥ 1. El siguiente conjunto

GLn (F ) := {A ∈ Mn×n (F ) : A es invertible},

junto con la multiplicación de matrices es un grupo no abeliano con identidad


In . A este grupo se le conoce como el grupo general lineal de grado n sobre F .
Analicemos más a detalle el caso de las matrices cuadradas de 2 × 2.
Teorema 6.28. Sea A ∈ M2×2 (F ) denida como

 
a b
A= .
c d

Si ad − bc ̸= 0, entonces la matriz inversa de A está dada por


 
1 d −b
A−1 = .
(ad − bc) −c a

Demostración. Vericamos que


  d b
  ad bc ab ab 
a b ad−bc − ad−bc
= ad−bc − ad−bc − ad−bc + ad−bc
c a cd cd bc ad
c d − ad−bc ad−bc ad−bc − ad−bc − ad−bc + ad−bc
 
1 0
= .
0 1


108 CAPÍTULO 6. DIMENSIONES FINITAS Y COORDENADAS

Definición 6.29 (determinante, caso 2 × 2). Sea A = (ai,j ) ∈ M2×2 (F ). De-


nimos el determinante de A como

det (A) = a1,1 a2,2 − a1,2 a2,1 .

Teorema 6.30 (determinante, caso 2 × 2). Sea A ∈ M2×2 (F ). Entonces, A


es invertible si y sólo si det (A) ̸= 0.

El teorema anterior puede generalizarse para el caso de matrices de n × n.


Teorema 6.31 (Linealidad de Matrices). Sea F un campo. Sea A ∈ Mn×m (F )
y sean v, u ∈ Mm×1 (F ). Entonces,

A (αv + βu) = α (Av) + β (Au) ,

para cualquier α, β ∈ F .

Ejemplo 6.32. Consideremos v = (1, 2, 3), u = (0, 1, 0) ∈ R3 , α = 2, β = 3, y


 
1 2 0
A= .
0 1 2

Entonces,
   
  1 0
1 2 0 2  2  + 3  1 
A (αv + βu) =
0 1 2
3 0
 
  2
1 2 0  
= 7
0 1 2
6
 
16
= .
19

Por otro lado,


     
 1   0
1 2 0 1 2 0
α (Av) + β (Au) = 2   2  +3   1 
0 1 2 0 1 2
3 0
   
5 2
= 2 +3
8 1
 
16
= .
19

6.3. Coordenadas
En esta sección sólo consideraremos espacios de dimensión nita sobre F.
Como dichos espacios son isomorfos a F n, donde n es la dimensión del espacio
(Teorema 5.47), nos enfocaremos sólo en estos casos.
6.3. COORDENADAS 109

Definición 6.33 (Coordenadas). Sea B = {b1 , b2 , . . . , bn } una base de F n . Sea


v ∈ F n y sea
v = α1 b1 + α2 b2 + · · · + αn bn , αi ∈ F,
la representación de v como combinación lineal de la base B. Las coordenadas
de un vector v ∈ Fn respecto a B es la matriz de n×1 denida por



α1
 α2 
[v]B :=  .  .
 
 .. 
αn

T
Para ahorrar espacio, también escribimos [v]B = (α1 , α2 , . . . , αn ) , donde T
denota la transpuesta.

Ejemplo 6.34. Consideremos la base D = {(0, 1) , (1, −1)} de R2 . Sea u =


(−4, 1) ∈ R2 . Debido a que

(−4, 1) = −3 (0, 1) − 4 (1, −1) ,


T
tenemos que las coordenadas de u respecto a D son [u]D = (−3, −4) .

Ejemplo 6.35. Consideremos la base canónica B = {(1, 0) , (0, 1)} de R2 . En-


2
tonces, para todo v = (x1 , x2 ) ∈ R , sabemos que

v = x1 (1, 0) + x2 (0, 1) .

Por lo tanto, las coordenadas de (x1 , x2 ) con respecto a B son

 
x1
[(x1 , x2 )]B = .
x2

Sin embargo, esto es diferente si consideramos otra base de R2 . Por ejemplo, si


2
consideramos la base C = {(1, 0) , (1, 1)} de R , tenemos que

(x1 , x2 ) = (x1 − x2 ) (1, 0) + x2 (1, 1) .

Por lo tanto, las coordenadas de (x1 , x2 ) con respecto a C son

 
x1 − x2
[(x1 , x2 )]C = .
x2

Ejemplo 6.36. Consideremos la base B = {(1, 0, 1) , (1, 1, 0) , (0, 1, 1)} de R3 .


3
Encontraremos las coordenadas de v = (x1 , x2 , x3 ) ∈ R con respecto a B .
Queremos encontrar escalares α1 , α2 , α3 ∈ R, tales que

(x1 , x2 , x3 ) = α1 (1, 0, 1) + α2 (1, 1, 0) + α3 (0, 1, 1) .


110 CAPÍTULO 6. DIMENSIONES FINITAS Y COORDENADAS

La igualdad anterior es equivalente al siguiente sistema de ecuaciones:

α1 + α2 = x1 ,
α2 + α3 = x2 ,
α1 + α3 = x3 .

La soluciones del sistema son

1
α1 = (x1 − x2 + x3 ) ,
2
1
α2 = (x1 + x2 − x3 ) ,
2
1
α3 = (−x1 + x2 + x3 ) .
2
Por lo tanto,
1
 
2 (x1 − x2 + x3 )
 
 1

[(x1 , x2 , x3 )]B = 
 2 (x1 + x2 − x3 ) 
.
 
1
2 (−x1 + x2 + x3 )

Observación 6.37. Las coordenadas de un vector de Fn con respecto a una


base B dependen del orden en el cual aparezcan los vectores base en B.

Definición 6.38 (Matriz asociada a una transformación lineal). Sea ϕ : F m →


F n una transformación lineal. Sea B = {b1 , . . . , bm } una base de F m y C =
{c1 , . . . , cn } una base de F n . La matriz asociada a ϕ respecto a B y C es la
matriz de n × m denida por

 
↑ ↑ ↑
[ϕ]C
B :=
 [ϕ (b1 )]C [ϕ (b2 )]C ... [ϕ (bm )]C  .
↓ ↓ ↓

Observación 6.39. Si B y C son las bases canónicas de Fm y F n, respectiva-


mente, denotamos a [ϕ]C
B simplemente por [ϕ].

Ejemplo 6.40. Ahora tomemos ϕ : R3 → R2 , dado por ϕ (x, y, z) = (x − 3y, 4y − z).



Usando como bases B = {(1, 0, 0) , (0, 1, 1) , (0, 0, 2)} y B = {(1, 0) , (1, 1)} pa-
3 2
ra R y R respectivamente, obtenemos la matriz asociada a ϕ, encontrando
primero las imágenes de la base B mediante ϕ,

ϕ (1, 0, 0) = (1, 0)
ϕ (0, 1, 1) = (−3, 3)
ϕ (0, 0, 2) = (0, −2)
6.3. COORDENADAS 111

para luego obtener las coordenadas de dichas imágenes en base B′,


T
[(1, 0)]B ′ = (1, 0)
T
[(−3, 3)]B ′ = (−6, 3)
T
[(0, −2)]B ′ = (2, −2)
 
B′ 1 −6 2
para nalmente escribir la matriz asociada[ϕ]B = .
0 3 −2

Ejemplo 6.41. Sea P1 el subespacio de R[x] de polinomios con grado menor


o igual a 1. Sea ϕ : P1 → R2 , dado por ϕ (ax + b) = (a + 2b, a). Tomemos
′ 2
bases B = {x − 1, 1} y B = {(1, 0) , (1, 1)} para P1 y R respectivamente. Para
obtener la matriz asociada a ϕ, encontramos las imágenes de la base B mediante
ϕ,

ϕ (x − 1) = (−1, 1)
ϕ (1) = (2, 0)

y obtenemos las coordenadas de dichas imágenes en base B′, ya que (−1, 1) =


−2 (1, 0) + (1, 1) y (2, 0) = 2 (1, 0) + 0 (1, 1), entonces

 
−2
(−1, 1)B ′ =
1
 
2
(2, 0)B ′ =
0
 
B′ −2 2
por lo que la matriz asociada es [ϕ]B = .
1 0

Teorema 6.42 (Matriz de una transformación lineal). Sea F un campo, B una


m n m
base de F y C una base de F . Sea ϕ : F → F n una transformación lineal.
m
Entonces, para todo v ∈ F ,

[ϕ]C
B [v]B = [ϕ(v)]C .

Demostración. Sea B = {b1 , ..., bm } una base de Fm y C = {c1 , ..., cn } una


n
base de F . Sea

v = β1 b1 + ... + βm bm ∈ F m
un vector arbitrario. Debido a que

ϕ (v) = ϕ (β1 b1 + ... + βm bm ) = β1 ϕ (b1 ) + ... + βm ϕ (bm ) , ( ∗)

vemos que la transformación ϕ está completamente determinada por los vectores


ϕ (bj ) ∈ F n , j = 1, ..., m. Ahora, como C es una base de F n , es posible escribir
112 CAPÍTULO 6. DIMENSIONES FINITAS Y COORDENADAS

cada ϕ (bj ) como una combinación lineal única de elementos de C:

ϕ (b1 ) = a1,1 c1 + a2,1 c2 + ... + an,1 cn ,


ϕ (b2 ) = a1,2 c1 + a2,2 c2 + ... + an,2 cn ,
.
.
.

ϕ (bm ) = a1,m c1 + a2,m c2 + ... + an,m cn .

Entonces, las coordenadas de ϕ (bj ) con respecto a C son


a1,j
 a2,j 
[ϕ (bj )]C =  .  .
 
 .. 
an,j

Resulta que los escalares ai,j ∈ F determinan completamente la transformación


lineal ϕ. Efectivamente, sustituyendo en (∗)

ϕ (v) = β1 ϕ (b1 ) + ... + βm ϕ (bm )


Xn Xn n
X
= β1 ai,1 ci + β2 ai,2 ci + ... + βm ai,n ci
i=1 i=1 i=1
     
Xm Xm Xm
=  βj a1,j  c1 +  βj a2,j  c2 + ...  βj an,j  cn
j=1 j=1 j=1

por lo que las coordenadas de ϕ (v) con respecto a C son

 Pm 
β a
 j=1 j 1,j 
 m 
 P 
 βj a2,j 
[ϕ (v)]C =  j=1 .
 
.
.
 
 m .
 

 P 
βj an,j
j=1

Por otro lado, la matriz asociada con ϕ respecto a las bases B y C es

 
a1,1 a1,2 a1,3 ... a1,m

 a2,1 a2,2 a2,3 ... a2,m 

[ϕ]C a3,1 a3,2 a3,3 ... a3,m
B = ,
 
. . . .. .
. . . .
 
 . . . . . 
an,1 an,2 an,3 ... an,m

y las coordenadas de v respecto a B son [v]B = (β1 , β2 , . . . , βm )T . Por lo tanto,


6.3. COORDENADAS 113

el producto [ϕ]C
B [v]B es igual a [ϕ(v)]C :
 
a1,1 a1,2 a1,3 ... a1,m    
β a1,1 β1 + a1,2 β2 + ... + a1,m βm
 a2,1 a2,2 a2,3 ... a2,m   1

 β2
   a2,1 β1 + a2,2 β2 + ... + a2,m βm 
 a3,1 a3,2 a3,3 ... a3,m  = .
  
   .. .
.
 .. .
.
.
. .. .
.
 .   . 
 . . . . . 
βm an,1 β1 + an,2 β2 + ... + an,m βm
an,1 an,2 an,3 ... an,m


Si B es la base canónica de Fm y C es la base canónica de F n, las coor-
denadas [v]B y [ϕ (v)]C coinciden con los vectores mismos (excepto que es [v]B
una columna y v una la). En este caso, para simplicar notación, escribimos
el resultado del teorema anterior como

[ϕ]v = ϕ (v) ,

donde los vectores v y ϕ (v) deben ser escritos como columnas.

Ejemplo 6.43. Consideremos la transformación lineal ϕ : R3 → R 2 denida


como
ϕ (x1 , x2 , x3 ) = (2x1 + x3 , 5x2 − 2x3 ) .
Para obtener la matriz [ϕ] (con respecto a las bases canónicas), debemos encon-
trar las imágenes de los elementos de la base:

ϕ (1, 0, 0) = (2, 0) ,
ϕ (0, 1, 0) = (0, 5) ,
ϕ (0, 0, 1) = (1, −2) .

Entonces [ϕ] es una matriz de 2 × 3 y tiene como columnas a los vectores ante-
riores:  
2 0 1
[ϕ] =
0 5 −2
Para vericar que Mϕ v = ϕ (v), v = (x1 , x2 , x3 ) ∈ R3 . Entonces,
sea

 
  x1  
2 0 1  x2  = 2x1 + x3
[ϕ]v = = ϕ (v) .
0 5 −2 5x2 − 2x3
x3

Ejemplo 6.44. ϕ : R3 → R2 la transformación lineal del ejemplo anterior.


Sea
Ahora encontraremos la matriz [ϕ]C
B con respecto a las bases B = {(1, 0, 1) , (0, 2, 0) , (0, 0, 1)}
y C = {(1, 0) , (1, 1)}. Primero encontramos las imágenes de los elementos de B :

ϕ (1, 0, 1) = (3, −2) ,


ϕ (0, 2, 0) = (0, 10) ,
ϕ (0, 0, 1) = (1, −2) .
114 CAPÍTULO 6. DIMENSIONES FINITAS Y COORDENADAS

Ahora encontramos las coordenadas de los vectores anteriores con respecto a C:


     
5 −10 3
[ϕ (1, 0, 1)]C = , [ϕ (0, 2, 0)]C = , [ϕ (0, 0, 1)]C = .
−2 10 −2

Por lo tanto,
 
5 −10 3
[ϕ]C
B = .
−2 10 −2

Ejemplo 6.45. Retomando el Ejemplo 6.40, sea u = (3, −2, 6) ∈ R3 , ya que


T
(3, −2, 6) = 3 (1, 0, 0) − 2 (0, 1, 1) + 4 (0, 0, 2), entonces [u]B = (3, −2, 4) . Por
T
otro lado, ϕ (u) = (9, −14) = 23 (1, 0)−14 (1, 1), por lo que [ϕ (u)]B ′ = (23, −14) .

B
Es fácil comprobar que [ϕ (u)]B ′ = [ϕ]B [u]B .

Observación 6.46. Observemos que [id] = In , donde id : F n → F n es el


endomorsmo identidad.

Observación 6.47. Sea A ∈ Mn×m (F ) y sea {ei : 1 ≤ i ≤ m} la base canónica


m
de F , donde
ei = (0, ..., 0, 1, 0, ..., 0) .
Entonces, por la denición de la multiplicación de una matriz por un vector,
tenemos que Aei es igual a la i-ésima columna de A.

Observación 6.48. El Teorema 6.31 establece que la multiplicación de una ma-


m
triz A ∈ Mn×m (F ) por un vector v ∈ F dene una tranformación lineal
m n
ϕ : F → F como
ϕ (v) = Av T .
Como ϕ (ei ) = Aei coincide con la i-ésima columna de A, tenemos que A = [ϕ].

Teorema 6.49 (Igualdad). Sean ϕ, τ ∈ Hom(F m , F n ) y sean B y C bases cua-


m n
lesquiera de F y F , respectivamente. Entonces,

[ϕ]C C
B = [τ ]B si y sólo si ϕ = τ.

Demostración. ϕ = τ , está claro que [ϕ]C


Si
C
B = [τ ]B . Para demostrar el conver-
so, supongamos que [ϕ]C
B = [τ ] C
B . Luego, las columnas de ambas matrices son
iguales, así que [ϕ(b)]C = [τ (b)]C , para toda b ∈ B . Por propiedades de bases,
las coordenadas de dos vectores respecto a C son iguales si y sólo si los vectores
son iguales; por lo tanto, ϕ(b) = τ (b), para toda b ∈ B . Como una transforma-
ción lineal está completamente determinada por sus imágenes en cualquier base,
deducimos que ϕ = τ. □
La importancia de la denición de multiplicación de matrices recae en la
correspondencia entre multiplicar matrices y obtener la composición de trans-
formaciones lineales. Sabemos que, si ϕ : Fm → Fn y τ : Fk → Fr son trans-
formaciones lineales, la composición ϕ ◦ τ existe si y sólo si m = r.
6.3. COORDENADAS 115

Teorema 6.50 (Multiplicación de matrices). Sean τ : Fk → Fm y ϕ : Fm →


F n transformaciones lineales. Entonces,

[ϕ ◦ τ ]C C B
R = [ϕ]B [τ ]R ,

donde R una base de F k, B una base de Fm y C una base de F n.

Demostración. Sea v ∈ F k. Usaremos repetidas veces el Teorema 6.42:

[ϕ ◦ τ ]C
R [v]R = [ϕ ◦ τ (v)]C
= [ϕ(τ (v))]C
= [ϕ]C
B [τ (v)]B

= [ϕ]C B
B [τ ]R [v]R .

Como el vector v es arbitrario, en particular puede tomar los valores de la base


R, lo que hace que [v]R sean vectores columna canónicos. Por la Observación
6.47, tenemos que las columnas de [ϕ ◦ τ ]C
R deben ser iguales a las columnas de
C B
[ϕ]B [τ ]R , y por lo tanto deben ser matrices iguales. □
Si tomamos siempre las bases canonicas, el teorema anterior establece que
k
la matriz que representa la transformación ϕ ◦ τ : F → F n coincide con el
producto de [ϕ] por [τ ].

Observación 6.51. Por el Teorema de Multiplicación de Matrices, la multipli-


cación de matrices es asociativa, pero no es conmutativa.

Ejemplo 6.52. Consideremos las transformaciones lineales ϕ : R3 −→ R2 y


τ : R3 −→ R3 denidas como

ϕ (x1 , x2 , x3 ) = (2x1 + x3 , 5x2 − 2x3 ) ,


τ (y1 , y2 , y3 ) = (y1 , y2 , y1 + y2 + y3 ) .

En un ejemplo anterior encontramos que

 
2 0 1
[ϕ] = .
0 5 −2

Para encontrar [τ ] calculamos que

τ (1, 0, 0) = (1, 0, 1) ,
τ (0, 1, 0) = (0, 1, 1) ,
τ (0, 0, 1) = (0, 0, 1) ,

así que
 
1 0 0
[τ ] =  0 1 0 .
1 1 1
116 CAPÍTULO 6. DIMENSIONES FINITAS Y COORDENADAS

La composición ϕ ◦ τ : R3 −→ R2 es

ϕ ◦ τ (y1 , y2 , y3 ) = ϕ (y1 , y2 , y1 + y2 + y3 )
= (3y1 + y2 + y3 , −2y1 + 3y2 − 2y3 ) .

Para encontrar [ϕ ◦ τ ] calculamos que

ϕ ◦ τ (1, 0, 0) = (3, −2) ,


ϕ ◦ τ (0, 1, 0) = (1, 3) ,
ϕ ◦ τ (0, 0, 1) = (1, −2) ,

así que
 
3 1 1
[ϕ ◦ τ ] = .
−2 3 −2
Finalmente, comprobamos que

 1 0 0 
2 0 1  0 1 0 
[ϕ][τ ] =
0 5 −2
1 1 1
 
3 1 1
= = [ϕ ◦ τ ].
−2 3 −2

Recordemos que un automorsmo es un endomorsmo biyectivo.

Teorema 6.53 (Endomorfismo). Un endomorsmo ϕ : F n → F n es un auto-


morsmo si y sólo si [ϕ] es una matriz invertible.

Demostración. Demostraremos cada implicación.

(⇒) Sabemos que ϕ : Fn → Fn es biyectivo si y sólo si existe un endomorsmo


−1
ϕ : F → F n tal que
n

ϕ ◦ ϕ−1 = ϕ−1 ◦ ϕ = id,

Por el Teorema 6.42,

[ϕ ◦ ϕ−1 ] = [ϕ][ϕ−1 ] = In

Esto implica que [ϕ]−1 = [ϕ−1 ], así que [ϕ] es invertible.

(⇐) Supongamos que existe una matriz D ∈ Mn×n (F ) tal que [ϕ]D = D[ϕ] =
In . Sabemos que D dene un endomorsmo τ : F n → F n como τ (v) =
Dv T , donde v ∈ F n . Claramente, D = [τ ], así que

[ϕ][τ ] = [ϕ ◦ τ ] = In = [id].

Por el Teorema 6.49, ϕ◦τ = id. Similarmente, demostramos que τ ◦ϕ = id,


así que ϕ es un automorsmo.
6.3. COORDENADAS 117


Teorema 6.54 (Una matriz conmuta con su inversa). Sean M, A ∈ Mn×n (F )
matrices tales que AM = In . Entonces, M A = In .

Demostración. Sea ϕ : F n → F n el endomorsmo asociado con A (i.e. ϕ(v) =


Av T , para todo v ∈ F n ). Denimos τ : F n → F n como τ (v) = M v T , para todo
v ∈ F n . Entonces,

AM = [ϕ][τ ] = [ϕ ◦ τ ] = In = [id].

Por el Teorema 6.49, ϕ ◦ τ = id. Luego, ϕ es sobreyectiva (ya que una preimagen
de v ∈ Fn es w := τ (v) ∈ F n porque ϕ(w) = ϕ(τ (v)) = id(v) = v ). Por el
Teorema Rank + Nulidad,

n = dim(F n ) = rk(ϕ) + nul(ϕ) = n + nul(ϕ) ⇒ nul(ϕ) = 0.

Esto demuestra que ϕ es inyectiva. Es un resultado elemental de funciones que


una función es inyectiva si y sólo si tiene un inverso izquierdo; es decir, existe
una transformación lineal σ : Fn → Fn tal que σ ◦ ϕ = id. Luego,

τ = id ◦ τ = (σ ◦ ϕ) ◦ τ = σ ◦ (ϕ ◦ τ ) = σ ◦ id = σ.

Esto demuestra que [τ ][ϕ] = In , y M A = In . □


Observación 6.55. En general, si X es un conjunto y f : X → X y g : X → X
son funciones, no es verdad que f ◦ g = id implique que g ◦ f = id. Sin embargo,
como lo demuestra el teorema anterior, esto sí es verdad para endomorsmos de
espacios vectoriales.

Definición 6.56 (Matriz del Cambio de Base). Sean B y C son dos bases de
F n . La matriz del cambio de base de B a C es
 
↑ ↑ ↑
P :=  [b1 ]C [b2 ]C ... [bn ]C 
↓ ↓ ↓

donde B = {b1 , . . . , bn }.

Observación 6.57. Veamos que si P es la matriz del cambio de base de B a


C , entonces P = [id]C n
B , donde id : F → F
n
es la función identidad.

Ejemplo 6.58. V = R2 , y las bases B = {(0, 1) , (1, 3)}, B ′ = {(1, 1) , (1, 0)}.
Tomemos

Primero calculamos las coordenadas de los elementos de base B en la base B .
Como (0, 1) = (1, 1) − (1, 0) y (1, 3) = 3 (1, 1) − 2 (1, 0), entonces

T
[(0, 1)]B ′ = (1, −1)T y [(1, 3)]B ′ = (3, −2) ,

por lo que la matriz del cambio de base de B a B′ es


 
1 3
P =
−1 −2
118 CAPÍTULO 6. DIMENSIONES FINITAS Y COORDENADAS

Por otro lado, (1, 1) = −2(0, 1) + (1, 3) y (1, 0) = −3(0, 1) + (1, 3), así que

[(1, 1)]B = (−2, 1)T y [(1, 0)]B = (−3, 1)T ,


por lo que la matriz del cambio de base de B′ a B es
 
−2 −3
Q= .
1 1

Es importante observar que P Q = I2 , por lo que P −1 = Q. Esto no es una


coincidencia como se verá a continuación.

Teorema 6.59 (Cambio de Base). Sea ϕ : F n → F n un endomorsmo, y sean


B y C dos bases de F n . Sea P la matriz del cambio de base de B a C . Entonces:
1. P [v]B = [v]C , para todo v ∈ F n.
2. P es invertible.

B −1
3. [ϕ]C
C = P [ϕ]B P .

Demostración. Demostraremos cada punto:

1. Recordemos que P = [id]C


B. Por el Teorema 6.42,

P [v]B = [id]C
B [v]B = [id(v)]C = [v]C ,

para todo v ∈ F n.
2. Demostraremos que la inversa de P es P −1 = [id]B
C. Por el Teorema 6.50,

[id]C B C C
B [id]C = [id ◦ id]C = [id]C = In .

3. De nuevo por el Teorema 6.50,

−1
P [ϕ]B
BP = [id]C B B C B C C
B [ϕ]B [id]C = [id]B [ϕ ◦ id]C = [id ◦ ϕ]C = [ϕ]C .


Ejemplo 6.60. Consideremos el endomormso ϕ : R2 → R2 denido como

ϕ (x1 , x2 ) = (x1 , 2x1 + x2 ) .


Consideremos las bases B = {e1 = (1, 0) , e2 = (0, 1)} y C = {c1 = (1, 1) , c2 = (1, −1)}.
Las matriz [ϕ]B
B es
 
1 0
[ϕ]B
B = .
2 1
Para encontrar la matriz [ϕ]C
C veamos que
 
2
[ϕ (1, 1)]C = [(1, 3)]C = [2c1 − c2 ]C = ,
−1
 
1
[ϕ (1, −1)]C = [(1, 1)]C = [c1 ]C = .
0
6.3. COORDENADAS 119

Por lo tanto,
 
2 1
[ϕ]C
C = .
−1 0
Escribimos los vectores de B como combinaciones lineales de los vectores de C:
1 1
(1, 0) = (1, 1) + (1, −1) ,
2 2
1 1
(0, 1) = (1, 1) − (1, −1) .
2 2
Por lo tanto, la matriz de cambio de base de BaC es

1 1
 
P = 2 2 .
1
2 − 12

Por el Teorema 6.28,

− 21 − 12
   
−1 1 1 1
P = = .
1 1 11 − 12 1
−1
 
2 −2 − 22 2 1

Ahora podemos comprobar que

1 1
   
−1 1 0 1 1
P [ϕ]B
BP = 2
1
2
2 − 21 2 1 1 −1
1 1
  
2 2 1 1
= 1
2 − 21 3 1
 
2 1
= = [ϕ]C
C.
−1 0

Observación 6.61. Recordemos que

Mn×m (F ) ∼
= Hom(F m , F n ).

Para bases jas B y C de Fm y F n , respectivamente, un isomorsmo entre estos


espacios está dado por

ϕ 7→ [ϕ]C m n
B ∈ Mn×m (F ) , ∀ϕ ∈ Hom(F , F ).

Palabras clave: dimensión de la suma de subespacios, dimensión del espai-


co cociente, teorema rank + nulidad, dimensión del espacio de transformaciones
lineales, multiplicación de matrices, matriz invertible, coordenadas, matriz aso-
ciada a una transformación lineal, matriz del cambio de base.
120 CAPÍTULO 6. DIMENSIONES FINITAS Y COORDENADAS

6.4. Ejercicios
Ejercicio 6.62. Sean V y W espacios vectoriales sobre F de dimensión nita.
Sea ϕ : V → W una transformación lineal cualquiera y sea ϕ0 : V → W la
0W , ∀v ∈ V ). Usa el Teorema Rank +
transformación cero (es decir, ϕ0 (v) = ⃗
Nulidad para demostrar lo siguiente:
a) Si dim (W ) = 1 y ϕ ̸= ϕ0 , entonces ϕ:V →W es sobreyectiva.

b) Si dim (V ) = 1 y ϕ ̸= ϕ0 , entonces ϕ:V →W es inyectiva.

c) Si dim (V ) = dim (W ) y ϕ:V →W es inyectiva, entonces V ∼


= W.
d) Si ϕ:V →W es inyectiva, entonces dim (V ) ≤ dim (W ).
e) Si ϕ:V →W es sobreyectiva, entonces dim (V ) ≥ dim (W ).
f ) Si ϕ:V →W es biyectiva, entonces dim (V ) = dim (W ).

Ejercicio 6.63. Encuentra todos los valores de α∈R tales que

B = {(1, α, −α) , (1 − α, 0, 1) , (0, 1, 1)}

sea una base de R3 .

Ejercicio 6.64. Encuentra todos los valores de α ∈ R tales que el endomorsmo


ϕ : R3 −→ R3 denido por

ϕ (x1 , x2 , x3 ) = (αx1 , x1 + (α − 1) x2 , 2x1 + 3x2 − (α − 2) x3 )

sea un automorsmo.

Ejercicio 6.65. Encuentra la extensión lineal τ : R2 → R2 de la función f :


B −→ R2 , donde B = {(1, 0) , (0, 1)}, y

f (1, 0) = (1, 1) ,
f (0, 1) = (0, 0) .

Ejercicio 6.66. Encuentra las coordenadas un vector arbitrario con respecto a


las siguientes bases:

1. B = {(2, 1) , (1, 2)} ⊆ R2 .


2. B = {(1, 0, 0) , (1, 1, 0) , (1, 1, 1)} ⊆ R3 .

Ejercicio 6.67. Encuentra el dominio, el codominio y la regla de las transfor-


maciones lineales denidas por las siguientes matrices con entradas reales:
6.4. EJERCICIOS 121

 
−10
1. A1 = .
01
 
1 0
2. A2 =  0 1 .
2 2
 
1 0 α
3. A3 =  0 1 0 , donde α ∈ R.
0 0 1

Ejercicio 6.68. Encuentra las matrices con respecto a las bases canónicas de
las siguientes transformaciones lineales:

1. ϕ : R2 → R2 , denida por ϕ (x1 , x2 ) = (x1 + x2 , x1 − x2 ).


2. φ : R3 → R, denida por φ (x1 , x2 , x3 ) = 2x1 + 3x2 − x3 .
3. τ : R3 → R3 , denida por τ (x1 , x2 , x3 ) = (x2 , x3 , x1 ).
4. θ : R 2 → R2 , denida por θ (x1 , x2 ) = (αx1 + βx2 , γx1 + δx2 ), donde
α, β, γ, δ ∈ R.
5. σ : R 3 → R2 , denida por σ (x1 , x2 , x3 ) = (x1 + 2x2 − x3 , x2 + x3 ).

Ejercicio 6.69. Con respecto a las transformaciones de los puntos (3.) y (5.)
del ejercicio anterior, encuentra σ◦τ y [σ][τ ], y comprueba que [σ ◦ τ ] = [σ][τ ].

Ejercicio 6.70. Considera las bases B = {(1, −1) , (1, 1)} y C = {(0, 1) , (1, 1)}
2 2 2
de R , y el endomorsmo ϕ : R → R denido por

ϕ (x1 , x2 ) = (x1 − x2 , x1 + 2x2 ) .

1. Encuentra las matrices [ϕ]B


B y [ϕ]C
C.

2. Encuentra la matriz P del cambio de base B a C.


−1
3. Comprueba que [ϕ]C B
C = P [ϕ]B P .

Ejercicio 6.71. Sea F un campo. Demuestra que la función Φ : Hom(Fm , Fn ) →


Mn×m (F ) denida por Φ(τ ) = [τ ], ∀τ ∈ Hom(F m , F n ) es un isomorsmo de
espacios vectoriales.
122 CAPÍTULO 6. DIMENSIONES FINITAS Y COORDENADAS

Ejercicio 6.72. Sea τ : Rm → Rn una transformación lineal. Demuestra lo


siguiente:

1. τ es inyectiva si y sólo si las columnas de [τ ] son linealmente independien-


tes.

2. τ es sobreyectiva si y sólo si las columnas de [τ ] generan a Rn .


3. τ es biyectiva si y sólo si las columnas de [τ ] son una base de Rn
Teorı́a de Matrices
7
En este capítulo abordaremos algunos conceptos y resultados propios de la
teoría de matrices como los determinantes, las matrices elementales y el Teorema
Fundamental de Matrices Invertibles. Asumimos que el lector ya ha tenido cierta
experiencia operativa con las matrices, así que tomamos un enfoque más teórico
y conceptual.

7.1. Determinante de una matriz


Existen varias deniciones equivalentes del determinante de una matriz. En
esta sección adoptaremos la denición conocida como expansión de Laplace o
expansión por cofactores.
Si A ∈ Mn×n (F ), denotemos por Ai,j a la matriz de (n − 1) × (n − 1)
obtenida después de haber eliminado el renglón i y la columna j de A. La
matriz Ai,j se llama una menor de A.
Definición 7.1 (determinante). Sea A = (ai,j ) una matriz de n × n. Para cual-
quier j = 1, . . . , n jo, el determinante de A a lo largo de la columna j es

n
X
det (A) = (−1)i+j ai,j det(Ai,j )
i=1
n+j
= a1,j det (A1,j ) − a2,j det (A2,j ) + ... + (−1) an,j det (An,j ) .

Observemos que la denición anterior es recursiva, en el sentido de que para


calcular el determinante de una matriz de n×n es necesario saber cómo calcular
el determinante de una matriz de (n − 1) × (n − 1). Este problema no es tan
grave: después de algunos pasos, tendremos que calcular el determinante de una
matriz de 2 × 2, el cual ya se ha denido previamente. De hecho, también es
posible empezar por denir el determinante de una matriz de 1 × 1, A = (a),
como det (A) = a, y entonces el determinante de una matriz de 2 × 2 se obtiene
usando la Denición 7.1.

Observación 7.2. La Denición 7.1 depende de la columna j a lo largo de la


cual se haga la expansión. Sin embargo, es posible demostrar que el resultado

123
124 CAPÍTULO 7. TEORÍA DE MATRICES

del determinante no cambiará, independientemente de la columna a lo largo


de la cual se haga la expansión (ver [9, Corolario 4.17]). Por el Teorema 7.6,
la expansión del determinante también puede hacerse a lo largo de cualquier
renglón, en lugar de cualquier columna.

Ejemplo 7.3. Sea


 
1 0 −2
A =  −2 1 21  .
1
2 0 1
A a lo largo de la columna 1,
Calculamos el determinante de

1 12
    
0 −2 1 0 −2
det (A) = 1 det − (−2) det + det
0 1 0 1 2 1 21
   
1 1 1
= 1 1 · 1 − · 0 + 2 (0 · 1 + 2 · 0) + 0· +2·1
2 2 2
 
1
= 1+0+ 2
2
= 2.

Por otro lado, el determinante de A a lo largo de la columna 2 es


1
     
−2 1 −2 1 −2
det (A) = −0 det 1
2 + 1 det 1 − 0 det 1
1 2 1 −2 2
 2
1
= 1+2
2
= 2.

Ejemplo 7.4. Consideremos el caso general de una matriz de 3 × 3:


 
a1,1 a1,2 a1,3
A =  a2,1 a2,2 a2,3  .
a3,1 a3,2 a3,3
El determinante de A a lo largo de la columna 1 es
   
a2,2 a2,3 a1,2 a1,3
det (A) = a1,1 det − a2,1 det
a3,2 a3,3 a3,2 a3,3
 
a1,2 a1,3
+ a3,1 det
a2,2 a2,3
= a1,1 (a2,2 a3,3 − a2,3 a3,2 ) − a2,1 (a1,2 a3,3 − a1,3 a3,2 )
+ a3,1 (a1,2 a2,3 − a1,3 a2,2 )
= a1,1 a2,2 a3,3 + a1,3 a2,1 a3,2 + a1,2 a2,3 a3,1 − a1,1 a2,3 a3,2
− a1,2 a2,1 a3,3 − a1,3 a2,2 a3,1 .

Invitamos al lector a calcular el determinante a lo largo de las columnas 2 y 3


para comprobar que se obtiene la misma fórmula.
7.1. DETERMINANTE DE UNA MATRIZ 125

Una denición alternativa del determinante de una matriz A = (ai,j ) es la


siguiente
X
det (A) = sign (σ) a1,σ(1) a2,σ(2) ...an,σ(n)
σ∈Sn

donde Sn es el grupo de todas las permutaciones (funciones biyectivas) del con-


junto {1, ..., n}, y sign (σ) ∈ {1, −1} se conoce como el signo de la permutación.
En general, el signo de una transposición (una permutación que intercambia
dos números y ja todos los demás) es −1, y el signo de la composición de k
k
transposiciones es (−1) .

Teorema 7.5 (Propiedades del Determinante). Sea n ≥ 1.

(1) det (In ) = 1.

(2) Si A = (ai,j ) ∈ Tn×n (F ) es triangular superior, triangular inferior, o dia-


gonal, entonces det (A) = a1,1 a2,2 ...an,n .

Demostración. Demostraremos cada punto.

(1) Demostraremos este resultado por inducción sobre n ∈ N. Si n = 2, entonces


 
1 0
I2 = ,
0 1

así que det (I2 ) = 1. Supongamos que det (In ) = 1. Entonces, por deni-
ción de determinante,

det (In+1 ) = 1 det (In ) = 1.

(2) Nuevamente usaremos inducción sobre n ∈ N. Si A ∈ T2,2 (F ), entonces

 
a1,1 a1,2
A= ,
0 a2,2

así que
det (A) = a1,1 a2,2 .
Supongamos que det (D) = d1,1 ...dn,n para toda D = (di,j ) ∈ Tn×n (F ).
Sea A ∈ T(n+1)×(n+1) (F ). Por denición,

det (A) = a1,1 det (A1,1 ) ,

donde A1,1 ∈ Tn×n (F ). Por hipótesis de inducción,

det (A1,1 ) = a2,2 ...an+1,n+1 .

Esto demuestra que det (A) = a1,1 a2,2 ...an+1,n+1 . La demostración es si-
milar para las matrices triangulares inferiores.
126 CAPÍTULO 7. TEORÍA DE MATRICES


Los siguientes resultados son importantes, y sus demostraciones pueden con-
sultarse en [7].

Teorema 7.6 (determinante


 de la transpuesta). Para cualquier A ∈ Mn×n (F ),
T
se cumple que det A = det (A).

Teorema 7.7 (determinante del producto). Sean A, D ∈ Mn×n (F ). Enton-


ces,
det (AD) = det (A) det (D) .

Ejemplo 7.8. Consideremos el caso de las matrices de 2 × 2. Sean


   
a b e f
A= y D= .
c d g h

Entonces
det (A) = ad − bc y det (D) = eh − f g.
El producto de los determinantes es:

det (A) det (D) = (ad − bc) (eh − f g) .

Ahora, el producto de las matrices es


    
a b e f ae + bg af + bh
AD = = .
c d g h ce + dg cf + dh

Por lo tanto,

det (AD) = (ae + bg) (cf + dh) − (af + bh) (ce + dg)
= aecf + aedh + bgcf + bgdh − af ce − af dg − bhce − bhdg
= aedh + bgcf − bhce − af dg
= ad (eh − f g) + cb (f g − eh)
= (ad − cb) (eh − f g)
= det (A) det (D) .

Teorema 7.9 (determinante de una matriz invertible). Una matriz A ∈ Mn×n (F )


es invertible si y sólo si det (A) ̸= 0.

Demostración. Demostraremos cada implicación.

(=⇒) Supongamos que A es invertible. Entonces existe una matriz A−1 ∈


Mn×n (F ) tal que AA−1 = In . Por el Teorema 7.7,

det AA−1 = det (A) det A−1 = det (In ) = 1.


 

−1

Si det (A) = 0, es imposible que det (A) det A = 1. Por lo tanto,
det (A) ̸= 0
7.2. MATRICES ELEMENTALES 127

(⇐=) Ver Teorema 3.25 en [7].


−1 1

Corolario 7.10. Si A ∈ Mn×n (F ) es invertible, entonces det A = det(A) .

Demostración. Este resultado se deduce de la igualdad det (A) det A−1 =




1. □

Corolario 7.11. Sea A ∈ Mn×n (F ). Entonces A es invertible si y sólo si AT es


invertible.

Demostración. Ejercicio 7.39. □

Corolario 7.12. Sea F un campo y n ≥ 1. Entonces,

GLn (F ) := {A ∈ Mn×n (F ) : det(A) ̸= 0}.

Observación 7.13. Por el Corolario 7.10, una matriz con determinante 1 tie-
ne una inversa con determinante 1. Además, el producto de dos matrices con
determinante 1 es una matriz con determinante 1. Por lo tanto, el conjunto

SLn (F ) := {A ∈ Mn×n (F ) : det(A) = 1},

es un subgrupo de GLn (F ), al cual se le conoce como el grupo especial lineal de


grado n sobre F .

7.2. Matrices elementales


Sea A ∈ Mn×n (F ) una matriz cuadrada. Denotamos las las de A como Ri ,
i = 1, ..., n.

Definición 7.14 (matrices elementales). Los tres tipos de operaciones elemen-


tales de la son:

(OE1) Multiplicar por escalar :consiste en reemplazar la la Ri por αRi , donde
α ∈ F , α ̸= 0. Esta operación corresponde a multiplicar A por la izquierda
por la matriz

 
1

 1 

 .. 
 . 
Ei (α) =  ,

 α 

 .. 
 . 
1

donde todos los elementos fuera de la diagonal son 0.


128 CAPÍTULO 7. TEORÍA DE MATRICES

(OE2) Intercambiar : consiste en intercambiar las las Ri y Rj . Esta operación


corresponde a multiplicar A por la izquierda por la matriz

 
1

 1 

 .. 
 . 
 
 0 1 
Ei,j = ,
 
..
 . 
 

 1 0 

 .. 
 . 
1

donde todos los elementos fuera de la diagonal son 0, excepto ai,j = aj,i =
1.
(OE3) Sumar las : consiste en reemplazar la la Ri por Ri + αRj , donde α ∈ F.
Esta operación corresponde a multiplicar A por la izquierda por la matriz

 
1

 1 

 .. 
 . 
Si,j (α) =  ,

 1 

 .. 
 α . 
1

donde todos los elementos fuera de la diagonal son 0 excepto ai,j = α.

Las matrices Ei (α), Ei,j y Si,j denidas anteriormente se llaman matrices ele-
mentales.
Con el objetivo de familiarizar al lector con la denición anterior, en el
Ejercicio 7.36 pedimos caluclar algunas matrices elementales y multiplicarlas
por una matriz arbitraria.

Ejemplo 7.15. Consideremos la matriz


 
1 2 1
A= 2 0 −2  .
−1 2 0

Multiplicar la primera la de A por 2 es equivalente a multiplicar por la matriz


elemental E1 (2):
    
2 0 0 1 2 1 2 4 2
E1 (2) A =  0 1 0  2 0 −2  =  2 0 −2  .
0 0 1 −1 2 0 −1 2 0
7.2. MATRICES ELEMENTALES 129

Intercambiar la segunda y tercera la de A es equivalente a multiplicar por la


matriz elemental E2,3 :
    
1 0 0 1 2 1 1 2 1
E2,3 A =  0 0 1  2 0 −2  =  −1 2 0 .
0 1 0 −1 2 0 2 0 −2

Reemplazar la segunda la por la suma de las dos primeras las de A es equi-
valente a multiplicar por la matriz elemental S2,1 (2):
    
1 0 0 1 2 1 1 2 1
S2,1 (2) A =  2 1 0  2 0 −2  =  4 4 0 .
0 0 1 −1 2 0 −1 2 0

Teorema 7.16 (inversas de matrices elementales). Las matrices elementales


son invertibles, y sus inversas son las siguientes:

−1 1

1. Ei (α) = Ei α ,

−1
2. (Ei,j ) = Ej,i ,
−1
3. (Si,j (α)) = Si,j (−α).

Demostración. Ejercicio.7.37. □

Teorema 7.17 (determinantes de matrices elementales). Los determinantes


de las matrices elementales son los siguientes:

1. det (Er (α)) = α,

2. det (Er,s ) = −1,

3. det (Sr,s ) = 1.

Demostración. Ejercicio 7.43 □

Observación 7.18. Por el teorema anterior, intercambiar dos las de una ma-
triz cambian el signo del determinante. Como el determinante de una matriz es
igual al de su transpuesta, lo mismo sucede si intercambiamos dos columnas.
Por lo tanto, la Denición 7.1 de determinante puede aplicarse a cualquier la
y columna de la matriz (no necesariamente a la primera columna).

Definición 7.19 (forma escalonada reducida). Decimos que una matriz cua-
drada es escalonada reducida si

1. Todas las las cero están en el fondo de la matriz.

2. En cualquier la distinta de cero, el primer elemento distinto de cero es 1.


Este elemento se llama el pivote de la la.
130 CAPÍTULO 7. TEORÍA DE MATRICES

3. Para cualesquiera dos las consecutivas, el pivote de la la inferior está a


la derecha del pivote de la la superior.

4. Si una columna contiene un pivote, entonces todos los demás elementos


de la columna son 0.

Ejemplo 7.20. Las siguientes matrices cuadradas son escalonadas reducidas:


       
1 0 0 1 0 0 1 0 4 1 0 2
 0 1 0  ,  0 0 1 ,  0 1 3  ,  0 0 0  .
0 0 1 0 0 0 0 0 0 0 0 0

Definición 7.21 (equivalencia por filas). Sean A, B ∈ Mn×n (F ). Decimos que


A y B son equivalentes por las si es posible obtener B a partir de A hacien-
do una serie de operaciones elementales de la. En otras palabras, A y B son
equivalentes por las si
B = E1 E2 ...Er A
para algunas matrices elementales Ei .

Teorema 7.22 (equivalencia por filas). La relación de equivalencia por las


entre matrices es una relación de equivalencia.

Demostración. Ejercicio 7.38. □


Teorema 7.23 (forma escalonada reducida). Sea A ∈ Mn×n (F ). Entonces A
es equivalente por las a una única matriz escalonada reducida.

Ejemplo 7.24. Sea


 
1 0 0
A= 0 2 1 .
0 4 2
Observemos que
 
1
B = E2 S3,2 (−2) A
2
donde B es la siguiente matriz escalonada reducida:
 
1 0 0
1
B= 0 1 2
.
0 0 0

Entonces, A y B son equivalentes por las.

El proceso de multiplicar a A por matrices elementales para obtener su forma


escalonada reducida se conoce como el método de Gauss-Jordan (o eliminación
Gaussiana ). Si A es cualquier matriz, encontrar la matriz escalonada reducida
de A equivale a resolver el sistema de ecuaciones lineal homogéneo Ax = 0,
donde x = (x1 , . . . , xn )T ∈ F n es una variable, y ambos x y 0 son vistos como
vectores columna (matrices de n × 1).
7.2. MATRICES ELEMENTALES 131

Teorema 7.25 (matrices invertibles y sistemas de ecuaciones). Sea A ∈ Mn×n (F ).


Las siguientes armaciones son equivalentes:

(1) A es invertible.

(2) El sistema de ecuaciones Ax = b tiene solución única para toda b ∈ F n.

(3) El sistema de ecuaciones Ax = 0 tiene solución única.

(4) A es equivalente por las a la matriz identidad.

Demostración. Demostraremos cada implicación.

(1) ⇒ ( 2) Supongamos que A a := A−1 b ∈ F n es


es invertible. Entonces,
−1
una solución del sistema ya que A(A b) = b. Si c ∈ F n es otra solución,
entonces, despejando de Ac = b, obtenemos que c = A−1 b = a. Por lo
tanto, el sistema tiene solución única.

(2) ⇒ ( 3) El punto (3) es un caso particular del punto (2), así que obvia-
mente (2) implica (3).

( 3) ⇒ (4) Ax = 0 tiene solución única.


Supongamos que el sistema Por
reducción al absurdo, supongamos que A no es equivalente por las a la
matriz identidad. Por el Teorema 7.23, A es equivalente por las a una
única matriz escalonada reducida B ̸= In ; es decir,

B = E1 ..., Er A,

donde Ei son matrices elementales. Multiplicando el sistema Ax = 0 por


estas matrices elementales obtenemos que

E1 ...Er Ax = E1 ...Er 0
Bx = 0,

ya que el producto de cualquier matriz por 0 0. Como B es


es igual a
distinta de la identidad, entonces el último renglón de B debe tener todas
las entradas iguales a 0. Esto implica que el sistema Bx = 0 tiene solucio-
nes innitas ya que hay al menos una variable xn libre. Como todas las
soluciones de Bx = 0 también son soluciones de Ax = 0, esto contradice
que Ax = 0 tenga solución única. Por lo tanto, A es equivalente por las
a la matriz identidad.

(4) ⇒ (1) Supongamos que A es equivalente por las a la matriz identidad.


Entonces
In = E1 ...Er A
para algunas matrices elementales Ei . Por denición, esto signica que A
es una matriz invertible, donde A−1 = E1 ...Er .
132 CAPÍTULO 7. TEORÍA DE MATRICES


Supongamos queA ∈ Mn×n (F ) es una matriz inverible. En la demostración
−1
del teorema anterior vimos que A = E1 ...Er , donde Ei son las matrices ele-
mentales necesarias para escribir a A en su forma escalonada reducida. Por lo
tanto, un método para encontrar la inversa de A consiste en escribir la matriz
ampliada
(A | In )
y aplicar el método de Gauss-Jordan para encontrar

In | A−1 .


Claramente, si no es posible escribir la matriz identidad del lado izquierdo de


esta matriz ampliada, esto signica que la matriz A no es invertible (Teorema
7.25).

7.3. Teorema Fundamental de Matrices Inverti-


bles
Si A ∈ Mn×n (F ) denimos el kernel de A como el conjunto

ker (A) := v ∈ F n : Av T = 0 ,


y el rango de A como
A (F n ) := {Av : v ∈ F n } .
Además, denimos

rk (A) := dim (A (F n )) ,
nul (A) := dim (ker (A)) .

Teorema 7.26 (teorema fundamental de matrices invertibles). Sea A ∈ Mn×n (F ).


Las siguientes armaciones son equivalentes:

(1) A es invertible.

(2) det (A) ̸= 0.

(3) rk (A) = n.

(4) nul (A) = 0.

(5) Las columnas de A forman una base de F n.

(6) Las las de A forman una base de F n.

(7) El sistema de ecuaciones Ax = b tiene solución única para toda b ∈ F n.

(8) El sistema de ecuaciones Ax = 0 tiene solución única.


7.3. TEOREMA FUNDAMENTAL DE MATRICES INVERTIBLES 133

(9) A es equivalente por las a la matriz identidad.

(10) El endomorsmo denido por A es un automorsmo.

Demostración. La equivalencia entre (1) y (2) quedó demostrada en el Teo-


rema 7.9, mientras que las equivalencias entre (1), (7), (8) y (9) quedaron de-
mostradas en el Teorema 7.25. Por el Teorema 6.53, A es invertible si y sólo
si la transformación lineal ϕ : F n → F n , ϕ (v) = Av T , es un automorsmo.
Por lo tanto, nul (ϕ) = nul (A) = 0; por el Teorema 6.5, esto es equivalente a
rk (ϕ) = rk (A) = n. En el Teorema 5.47 demostramos que ϕ es un automorsmo
n
si y sólo si las columnas de A son una base de F .
n
Finalmente, sólo queda demostrar que las las de A son una base de F si
n T

y sólo si sus columnas son una base de F . Como det (A) = det A , A es
T
invertible si y sólo si A es invertible. Entonces, las las de A son una base de
F si y sólo si las las de AT son una base de F n . El teorema queda demostrado
n
T
porque las las de A son las columnas de A. □

Ejemplo 7.27. Demostrar que

B = {(−1, 1, 1) , (1, −1, 1) , (1, 1, −1)}

es una base de R3 es equivalente a demostrar que la matriz

 
−1 1 1
A= 1 −1 1 
1 1 −1

tiene determinante distinto de cero. Calculamos que

det (A) = 4 ̸= 0,

y por lo tanto, B es una base de R3 .

Ejemplo 7.28. Consideremos la transformación lineal ϕ : R2 → R 2 denida


como
ϕ (x1 , x2 ) = (αx1 + (2 − α) x2 , x1 + αx2 )
donde α ∈ R. Encontraremos todos los valores de α tales que ϕ es un automor-
smo. Sabemos que ϕ es un automorsmo si y sólo si la matriz

 
α (2 − α)
Mϕ =
1 α

es invertible, lo cual se cumple si y sólo si

det (Mϕ ) = α2 + α − 2 ̸= 0.

Como α2 + α − 2 = 0 precisamente cuando α = 1 o α = −2 , entonces la función


ϕ es un automorsmo siempre que α ∈ R \ {1, −2}.
134 CAPÍTULO 7. TEORÍA DE MATRICES

Ejemplo 7.29. Sea α ∈ R, y consideremos el conjunto

B = {(1, 0, 0, 0) , (1, α, 1 − α, 0) , (0, 0, α, 1) , (0, 0, 0, 1)} .

Encontraremos todos los valores de α tales que B sea una base de R4 . Conside-
remos la matriz cuyas columnas son los vectores de B:
 
1 1 0 0
 0 α 0 0 
A=
 0 1−α
.
α 0 
0 0 1 1

Entonces,
 
α 0 0
det (A) = det  1 − α α 0  = α2
0 1 1
Por lo tanto, det (A) = 0 si y sólo si α = 0. Esto implica que B es una base de
R4 si y sólo siα ̸= 0.

Palabras clave: determinante, matrices elementales, forma escalonada


reducida, teorema fundamental de matrices invertibles.
7.4. EJERCICIOS DE TEORÍA DE MATRICES 135

7.4. Ejercicios de Teoría de Matrices


Ejercicio 7.30. Considera las siguientes matrices con entradas en R:
   
0 1 4   4 1
1 3 0
A=  3 5 0  , B = , D= 3 0 .
1 2 0
1 2 4 1 2

1. Calcula los productos AD, AA y BA. ¾Es posible calcular los productos
DA y AB ?
2. Si v = (2, 4, 1) ∈ R3 ,y w = (1, 1) ∈ R2 , calcula Av , Dw, Bv y ADw. ¾Es
posible calcular Dv y Bw ?

3. Si e1 = (1, 0, 0), e2 = (0, 1, 0) y e3 = (0, 0, 1), calcula Ae1 + Ae2 + Ae3 .


4. Escribe la matriz identidad I3 y calcula AI3 , BI3 y I3 D. ¾Es posible
calcular I3 B y DI3 ?

Ejercicio 7.31. Sean A, B ∈ M3×3 (Z3 ) matrices denidas como:


   
1 0 0 1 0 1
A =  2 1 2  y D =  1 2 2 .
0 0 1 2 0 1

Calcula las siguientes matrices:

1. A+D y A + 2D.
T
2. AT , D T y (A + 2D) .

T
3. AD y (AD) .

Ejercicio 7.32. Demuestra el Teorema 6.20.

Ejercicio 7.33. Considera los conjuntos Tn×n (F ) de matrices triangulares su-


periores y Dn×n (F ) de matrices diagonales. Demuestra que Tn×n (F ) y Dn×n (F )
son subespacios de Mn×n (F ). Encuentra bases para estos subespacios y escribe
sus respectivas dimensiones.

Ejercicio 7.34. Encuentra el determinante y, en caso de que exista, la inversa,


de cada una de las siguientes matrices de 2 × 2.
 
2 −1
1. 1 en M2×2 (R)
1 2
 
2 2
2. en M2×2 (R) .
2 2
 
0 1
3. en M2×2 (R).
1 0
136 CAPÍTULO 7. TEORÍA DE MATRICES

 
2 4
4. en M2×2 (Z5 ).
4 3
 
1 1
5. en M2×2 (Z3 ).
0 2
Ejercicio
 7.35.
 Encuentra todos los valores α ∈ R que hagan que la matriz
α α−1
sea invertible.
3 α
Ejercicio 7.36. Consideremos una matriz arbitraria A = (ai,j ) ∈ M3×3 (R).
Usando la notación de la Denición 7.14, escribe explícitamente las siguientes
matrices elementales
 
1
E2 (5), E1,2 , y S2,3 ,
2
y calcula los siguientes productos
 
1
E2 (5)A, E1,2 A, y S2,3 A.
2
Ejercicio 7.37. Demuestra el Teorema 7.16.

Ejercicio 7.38. Demuestra que la equivalencia por las es una relación de equi-
valencia.

Ejercicio 7.39. Sea A ∈ Mn×n (F ). Usando el Teorema 7.9, demuestra que A


es invertible si y sólo si AT es invertible.
Ejercicio 7.40. Calcula el determinante de las siguientes matrices y determina
si son matrices invertibles. En caso de ser invertibles, encuentra la matriz inversa.

1.  
1 −1 0
A1 =  0 1 −1  .
−1 0 1
2.  
2 0 0
A2 =  −3 1 0 .
0 70 −3
3.  
1 3 5
A3 =  3 −3 3 
0 −1 −1
4.  
1 0 2 3
 −2 −1 2 0 
A4 =  .
 1 0 3 −4 
0 1 0 −1
7.4. EJERCICIOS DE TEORÍA DE MATRICES 137

5.  
1 7 −6 0
 0 −2 2 3 
A5 = 
 0
.
0 2 1 
0 0 0 0

Ejercicio 7.41. Sea


 
1 1 0
A= α 1 −1  .
0 1 3
Encuentra todos los valores α∈R tales que A es una matriz invertible.

Ejercicio 7.42. Demuestra que si A = (ai,j ) es una matriz triangular inferior,


entonces det (A) = a1,1 a2,2 ...an,n .

Ejercicio 7.43. Encuentra los determinantes de las matrices elementales, justi-


cando tu respuesta.
138 CAPÍTULO 7. TEORÍA DE MATRICES
Autovalores y autovectores
8
8.1. Autovalores y autovectores de una matriz
En este capítulo trataremos el concepto de similitud entre matrices en Mn×n (F ).
Explicaremos cómo la similitud dene una relación de equivalencia y como las
clases de equivalencia se componen de matrices que denen a un mismo en-
domorsmo. Además, encontraremos las propiedades que no cambian entre dos
matrices similares. Resumiendo, determinaremos todas las clases de equivalencia
denidas bajo similitud e identicaremos los invariantes necesarios y sucientes
que las determinan.

Definición 8.1 (similitud de matrices). Sean A1 , A2 ∈ Mn×n (F ) dos matri-


ces. Decimos que A1 es similar, o conjugada, a A2 (y escribimos A1 ∼ A2 ) si
existe una matriz invertible P ∈ Mn×n (F ) tal que

A1 = P −1 A2 P.

Lema 8.2 (similitud de matrices). Si A1 , A2 ∈ Mn×n (F ) matrices similares,


n n n
entonces existe un endomorsmo τ : F → F y dos bases B1 y B2 de F tales
que
A1 = [τ ]B1
B1 y A2 = [τ ]B
B2 .
2

Demostración. Como A1 ∼ A2 , existe una matriz invertible P ∈ Mn×n (F )


−1
tal que A1 = P A2 P . Sea B1 la base canónica de F n y sea B2 el conjunto
de vectores columna de la matriz P . Por el Teorema Fundamental de Matrices
n
Invertibles, B2 también es una base de F . Observemos que P es precisamente
n n
la matriz del cambio de base de B1 a B2 . Sea τ : F → F el endomorsmo tal
B1 −1
que A1 = [τ ]B . Ahora, despejando de A1 = P A 2 P y usando el Teorema del
1
Cambio de Base, obtenemos

A2 = P A1 P −1 = P [τ ]B
B1 P
1 −1
= [τ ]B
B2 .
2


Observación 8.3. El resultado anterior, combinado con el Teorema del Cambio
de Base, puede interpretarse de la siguiente manera: dos matrices son similares

139
140 CAPÍTULO 8. AUTOVALORES Y AUTOVECTORES

si y solo si representan al mismo endomorsmo respecto a dos bases de F n. Por


tal motivo, a partir de ahora nos enfocaremos en estudiar matrices ya que los
resultados obtenidos son fácilmente traducidos al lenguaje de endomorsmos.

Lema 8.4 (similitud como relación de equivalencia). La similitud de matri-


ces es una relación de equivalencia.

Demostración. Ejercicio 8.37.



Ahora quisiéramos determinar representantes para todas las clases de equiva-
lencia de matrices denidas por la similitud. Con este propósito identicaremos
aquellas propiedades comunes entre dos matrices similares, para ello introduci-
remos primero el siguiente concepto.

Definición 8.5 (autovalores y autovectores de una matriz). Sea A ∈ Mn×n (F )


una matriz y λ ∈ F un escalar arbitrario. Decimos que λ es un autovalor de A
n
si existe un vector v ∈ F , v ̸= 0, tal que

Av = λv.
En este caso diremos que el vector v es un λ-autovector de la matriz A.
El siguiente resultado determina un método para encontrar los autovalores
asociados a una matriz.

Proposición 8.6 (autovalores). Sea A ∈ Mn×n (F ) una matriz. Un escalar λ ∈


F es un autovalor de A si y solo si det(λIn − A) = 0.
Demostración.
(⇒) Supongamos que λ A. Entonces por
es un autovalor asociado a la matriz
denición, existe un vector v ∈ F n no nulo tal que Av = λv. Es decir,
λIn v − Av = (λIn − A)v = 0. En consecuencia, v ∈ ker(A − λIn ), lo que
implica que A no es invertible. Por el Teorema Fundamental de Matrices
Invertibles, det(λIn − A) = 0.

(⇐) Supongamos que λ ∈ F es un escalar tal que det(λIn − A) = 0. Entonces,


la matriz λIn − A es una matriz no invertible, y ker(λIn − A) ̸= {0}; esto
n
es, existe un vector v ∈ F no nulo tal que (λIn − A)v = 0. Esto implica
que λ y v cumplen λIn v = Av. Por lo tanto, λ es autovalor de la matriz
A y v es un λ-autovector de A.

Como hemos visto en el resultado anterior, para determinar los autovalores
de la matriz A, es necesario encontrar los escalares λ ∈ k \ {0} para los cuales
det(λIn − A) = 0. Así, en lugar de tomar λ, consideramos una indeterminada x.
De este modo det(xIn − A) esa ahora un polinomio que denotamos por pA (x).

Definición 8.7 (Polinomio caracterı́stico). Sea A ∈ Mn×n (F ) una matriz. El


polinomio denido como pA (x) := det(xIn − A) es llamado el polinomio carac-
terístico de A.
8.1. AUTOVALORES Y AUTOVECTORES DE UNA MATRIZ 141

Armamos que, si la matriz A es una matriz cuadrada n × n, entonces pA (x)


es un polinomio de grado n. Para probar esta armación, lo hacemos por induc-
ción sobre n. Si n = 1, entonces A = (a1,1 ) y det(xIn − A) = x − a1,1 , lo cual
muestra nuestra armación. Suponga cierto para el caso n − 1 y probemos el
caso n + 1.

Así, si A es una matriz n + 1 × n + 1, entonces

det(xIn+1 − A) = (x − a1,1 ) det(xIn+1 − A)1,1 + (8.1)


Pn+1 j
j=2 (−1) a1,j det(xIn+1 − A)1,j

donde (xIn+1 −A)1,j (xIn+1 −A). Notemos que, por


denota a la matriz menor de
hipótesis de inducción det(xIn − A)1,1 es un polinomio de grado n y det(xIn −
A)1,j es un polinomio grado n − 2, para todo j = 2, 3, . . . n + 1. De esta manera,
pA (x) es un polinomio grado n + 1, obteniendo así que nuestra armación es
correcta.
Recordemos que la traza de una matriz
Pn A = (aij ) se dene como la suma
de las entradas en la diagonal: tr(A) := i=1 aii . De la ecuación (8.1) podemos
notar que pA (x) es un polinomio mónico. Mas aún, haciendo algunos cálculos
extra podemos ver que si A es una matriz n × n, entonces

pA (x) = xn − tr(A) xn−1 + · · · + (−1)n det(A)


La demostración formal de este hecho la haremos para el caso n = 2 dejando
como ejercicio para el lector interesado vericar el caso general.

Lema 8.8 (polinomio caracterı́stico, caso 2 × 2). Sea A = (ai,j ) ∈ M2×2 (F ).


Entonces,
pA (x) = x2 − tr(A)x + det(A).
Demostración. Calculamos el polinomio característico de A:
 
x − a1,1 −a1,2
det(xI2 − A) = det
−a2,1 x − a2,2
= (x − a1,1 )(x − a2,2 ) − a1,2 a2,1 ,
= x2 − (a1,1 + a2,2 )x + (a1,1 a2,2 − a1,2 a2,1 )
= x2 − tr(A)x + det(A).

Por la Proposición 8.6 sabemos que λ ∈ F es un autovalor de A si, y solo si,
λ es raíz del polinomio característico pA (x) (es decir, pA (λ) = 0). De lo anterior
y con base en el Teorema Fundamental del Álgebra podemos concluir que una
matriz A ∈ Mn×n (F ) tiene a lo mas n autovalores distintos.

Ejemplo 8.9. Dada la matriz


 
3 2
A= ,
1 2
142 CAPÍTULO 8. AUTOVALORES Y AUTOVECTORES

vericaremos que el polinomio característico de A tiene la forma

pA (x) = x2 − tr(A)x + det(A).


El primer paso es calcular el polinomio característico de A:

x−3 −2
det(xI2 − A) = ,
−1 x−2
= (x − 3)(x − 2) − 2,
= x2 − 5x + 4.

De esto podemos vericar que tr(A) = 5 y det(A) = 4, cumpliendo así la primer


armación. Ahora, para determinar los autovalores, calculamos las raíces del
polinomio característico pA (x) = x2 − 5x + 4 = (x − 4)(x − 1). Por lo tanto, los
autovalores de A son: λ1 = 4 y λ2 = 1.
Ejemplo 8.10. Determinaremos los autovalores asociados a la matriz
 
2 1 1
B= 2 3 2 
3 3 4
y comprobaremos que el negativo de la traza de B corresponde al coeciente del
término lineal en el polinomio característico. Siguiendo los mismos pasos que en
el ejemplo anterior se tiene que

x−2 −1 −1

det(xI3 − B) = −2 x−3 −2

−3 −3 x−4
= x3 − 9x2 + 15x − 7.
Por lo tanto, los autovalores de B son λ1 = 7, λ2 = λ3 = 1. Por último, vemos
que efectivamente 9 = −tr(B) y det(B) = 7.
Por otro lado, no todas las matrices tienen autovalores asociados. Un ejemplo
de ello lo encontramos a continuación.

Ejemplo 8.11. Sea A ∈ M2×2 (R) una matriz denida como


 
0 −1
A := .
1 0

En este caso, pA (x) = x2 + 1 y por lo tanto el polinomio no tiene raíz en R.

Retomando nuestro problema principal, queremos encontrar las propiedades


algebraicas que distinguen a dos matrices similares. Mas aún, determinar las
propiedades necesarias y sucientes que caracterizan a cada clase de equivalencia
dada por la similitud. En este sentido, se tiene el siguiente resultado.
8.1. AUTOVALORES Y AUTOVECTORES DE UNA MATRIZ 143

Proposición 8.12 (polinomios caracterı́sticos de matrices similares). Sean


A1 , A2 ∈ Mn×n (F ) dos matrices. Si A1 ∼ A2 , entonces

pA1 (x) = pA2 (x).

Demostración. Si A1 ∼ A2 , entonces existe una matriz invertible P ∈ Mn×n (F )


−1
tal que A1 = P A2 P . Substituyendo la relación anterior y aplicando propie-
dades de los determinantes, obtenemos

det(xIn − A1 ) = det(xIn − P −1 A2 P )
= det(P −1 (xIn − A2 )P ),
= det(P −1 ) det(xIn − A2 ) det(P ),
det(P )
= det(xIn − A2 ) ,
det(P )
= det(xIn − A2 ).

De ello concluimos que pA1 (x) = pA2 (x). □


Corolario 8.13. Dos matrices similares tienen exactamente los mismos autova-
lores.

El polinomio característico de una matriz no determina completamente la


relación de similitud. A continuación presentamos un ejemplo de dos matrices
A1 , A2 ∈ Mn×n (F ) tales que A1 ̸∼ A2 , pero pA1 (x) = pA2 (x).
Ejemplo 8.14. La única matriz similar a la matriz identidad In es ella misma
ya que para cualquier matriz invertible P ∈ Mn×n (F ) se tiene

P −1 In P = In .

Sea I2 la matriz identidad 2×2 y consideramos


 
1 1
A= ,
0 1

En este caso, I2 ̸∼ A, pero pI2 (x) = pA (x).

Definición 8.15 (autoespacio). Sea A ∈ Mn×n (F ) una matriz y sea λ un au-


tovalor de A. El λ-autoespacio de A es el conjunto

Sλ (A) := {v ∈ F n |Av = λv}.

Observación 8.16. El λ-autoespacio de A es igual al conjunto de todos los


λ-autovectores de A unión con el vector cero.

Definición 8.17 (subespacio invariante). Sea A ∈ Mn×n (F ) una matriz y sea


T un subespacio de F n . Decimos que T es un subespacio invariante bajo A si
para toda t ∈ T se cumple que At ∈ T .
144 CAPÍTULO 8. AUTOVALORES Y AUTOVECTORES

Lema 8.18 (autoespacio es subespacio invariante). Sea A ∈ Mn×n (F ) una


matriz y sea λ un autovalor de A. El λ-autoespacio Sλ (A) es un subespacio de
F n invariante bajo A.

Demostración. Un cálculo sencillo, el cual se deja como ejercicio para el lector,


demuestra que Sλ (A) = ker(λIn − A) (ver Ejercicio 8.40). Por lo tanto, Sλ (A) es
n
un subespacio de F . Para demostrar que es invariante bajo A, sea v ∈ Sλ (A).
Entonces, Av = λv ∈ Sλ (A), ya que Sλ (A) es cerrado bajo la multiplicación de
escalares. Esto demuestra la invarianza bajo A. □
Definición 8.19 (multiplicidades de autovalores). Sea A ∈ Mn×n (F ) una ma-
triz y sea λ un autovalor de A.

La multiplicidad geométrica de λ, denotada por γλ (A), es la dimensión del


autoespacio Sλ (A).
La multiplicidad algebraica de λ, denotada por µλ (A), es el mayor número
natural k tal que (x − λ)k es un factor del polinomio característico pA (x).

Observación 8.20. Sea λ un autovalor asociado a la matriz A ∈ Mn×n (F ).


Siγλ (A) = m, entonces A tiene m λ-autovectores linealmente independientes.
Esto es claro ya que el λ-autoespacio tiene dimensión m.

Ejemplo 8.21. Sea A ∈ M3×3 (F ) una matriz denida como

 
1 0 2
A= 1 3 3 ,
1 2 1

pA (x) = x3 −5x2 −x+5 y los autovalores


entonces el polinomio característico es:
son λ1 = 1, λ2 = −1, λ3 = 5. Utilizando el autovalor λ1 = 1, tendremos que
Sλ1 (A) = ker(I3 − A). Realizando los cálculos correspondientes se verica que
Sλ1 (A) está dado por:

Sλ1 (A) := ⟨(−2, 1, 0)⟩ = {(−2t, t, 0) : t ∈ F } .


Por consiguiente, el espacio vectorial Sλ1 (A) es de dimensión uno y γA (1) =
1. El lector puede vericar de manera análoga que los autovalores λ2 = −1 y
λ3 = 5 tienen la misma multiplicidad geométrica. La multiplicidad algebraica
de cada uno de estos autovalores también es uno porque pA (x) = (x − 1)(x +
1)(x − 5).

Ejemplo 8.22. Consideremos el endomorsmo ϕ : R2 → R2 denido como

ϕ (x1 , x2 ) = (x1 + x2 , −x2 ) .

Entonces,
 
1 1
[ϕ] = .
0 −1
8.1. AUTOVALORES Y AUTOVECTORES DE UNA MATRIZ 145

El polinomio característico de ϕ es
   
1 1 1 0
pϕ (x) = det −x
0 −1 0 1
 
1−x 1
= det
0 −1 − x
= (1 − x) (−1 − x) .

Por lo tanto, los autovalores de ϕ son λ1 = 1 y λ2 = −1. Ahora, los autoespacios


de ϕ son

S1 (ϕ) = {(x1 , x2 ) : ϕ(x1 , x2 ) = (x1 , x2 )} = ⟨(1, 0)⟩,


S−1 (ϕ) = {(x1 , x2 ) : ϕ(x1 , x2 ) = −(x1 , x2 )} = ⟨(1, −2)⟩.

Con esto, obtenemos que

γ1 (ϕ) = µ1 (ϕ) = 1 y γ−1 (ϕ) = µ−1 (ϕ) = 1

Ejemplo 8.23. Sea


 
1 0 0
A= 0 0 1 .
0 1 0
El polinomio característico deA es
   
1 0 0 x 0 0
pA (x) = det  0 0 1  −  0 x 0 
0 1 0 0 0 x
 
1−x 0 0
= det  0 −x 1 
0 1 −x
2

= (1 − x) x − 1
2
= − (x − 1) (x + 1) .

Por lo tanto, 1 y −1 son los autovalores de A. Los autoespacios de A son

S1 (A) = ker(I3 − A) = ⟨(1, 0, 0) , (0, 1, 1)⟩ ,


S−1 (A) = ker(−I3 − A) = ⟨(0, 1, −1)⟩ .

En consecuencia,

γ1 (A) = µ1 (A) = 2 y γ−1 (A) = µ−1 (A) = 1.


146 CAPÍTULO 8. AUTOVALORES Y AUTOVECTORES

Teorema 8.24 (multiplicidades). Sea λ ∈ F un autovalor de la matriz A ∈


Mn×n (F ). Entonces,
1 ≤ γλ (A) ≤ µλ (A) ≤ n.

Demostración. Es claro que ambas multiplicidades deben estar entre 1 y n. Sea


γλ (A) = k . Por denición, el autoespacio Sλ (A) tiene dimensión k , así que sea
B = b1 , . . . , bk una base de Sλ (A). Extendamos B a una base C = {b1 , . . . , bn }
n ′ C
de F . Si A = [τ ] entonces la matriz A = [τ ]C debe tener la forma

 
′ λIk M
A = ,
0 N

donde 0 es una matriz de (n − k) × k, M es una matriz de k × (n − k) y N es


una matriz de (n − k) × (n − k). Como A y A′ son matrices similares (porque
representan al mismo endomorsmo en bases distintas), entonces:

pA (x) = pA′ (x)


= det(xIn − A′ )
 
λ(x − λ)Ik M
= det
0 xIn−k − N
k
= (x − λ) det(xIn−k − N ).

Esto demuestra que la multiplicidad algebraica λ es al menos k.


Definición 8.25 (defectivo, simple y semisimple). Sea λ ∈ F un autovalor


de la matriz A ∈ Mn×n (F ).

Decimos que λ es defectivo, o defectuoso, si γλ (A) < µλ (A).

Decimos que λ es simple si γλ (A) = µλ (A) = 1.

Decimos que λ es semisimple si γλ (A) = µλ (A) > 1.

Una matriz A es semisimple si todos sus autovalores son simples o semisimples.


En otras palabras, la matriz A es semisimple si no tiene autovalores defectivos.

Ejemplo 8.26. Sea A ∈ M3×3 (R) una matriz denida como

 
1 4 3
A =  −2 3 5 .
2 2 0

Entonces el polinomio característico es:

pA (x) = x3 − 4x2 − 5x = x(x − 5)(x + 1).


8.1. AUTOVALORES Y AUTOVECTORES DE UNA MATRIZ 147

Así los autovalores de A son λ1 = 0, λ2 = 5 y λ3 = −1, todos de multiplici-


dad algebraica 1. Por el Teorema 8.24, las multiplicidades geométricas de los
autovalores son todas 1, así que A es semisimple. Los autoespacios de A son:

Sλ1 (A) = {w ∈ R3 |w = (t, −t, t), t ∈ R} = ⟨(1, −1, 1)⟩ ,


Sλ2 (A) = {w ∈ R3 |w = (13t, 7t, 8t), t ∈ R} = ⟨(13, 7, 8)⟩ ,
Sλ3 (A) = {w ∈ R3 |w = (t, −2t, 3t), t ∈ R} = ⟨(1, −2, 3)⟩ .

Ejemplo 8.27. Sea


 
2 0
A= .
2 2
El polinomio característico de A es
 
2−x 0
pA (x) = det
2 2−x
= (2 − x)(2 − x),

por lo tanto 2 es el único autovalor de A con µA (2) = 2. Ahora,

S2 (A) = {(x1 , x2 ) : A(x1 , x2 ) = 2(x1 , x2 )}


= {(x1 , x2 ) : (2x1 , 2x1 + 2x2 ) = (2x1 , 2x2 )}
= {(0, x2 ) : x2 ∈ R} = ⟨(0, 1)⟩.

Así, γ2 (A) = 1 y µ2 (A) = 2. Por lo tanto, 2 es un autovalor defectivo y A no es


semisimple.

Teorema 8.28 (autovectores linealmente independientes). Sean {λ1 , λ2 , . . . , λr }


autovalores distintos de A ∈ Mn×n (F ) y {v1 , . . . , vr } un conjunto de vectores
n
en F tal que, para cada i, vi es un λi -autovector de A. Entonces, el conjunto
{v1 , . . . , vr } es linealmente independiente.

Demostración. La demostración es por inducción sobre r. El caso r=1 está


claro. Supongamos que el teorema es cierto para r−1 y demostraremos que
también es cierto para r. Consideremos una combinación lineal

α1 v1 + · · · + αr vr = 0, (8.2)

donde αi ∈ F . Aplicando la matriz A en ambos lados de (8.2) obtenemos

A(α1 v1 + · · · + αr vr ) = A0
α1 Av1 + · · · + αr Avr = 0
λ1 α1 v1 + · · · + λr αr vr = 0.

Multiplicando por λr ahora de ambos lados en (8.2) obtenemos

λr α1 v1 + · · · + λr αr vr = 0.
148 CAPÍTULO 8. AUTOVALORES Y AUTOVECTORES

Por lo tanto,

(λr − λ1 )α1 v1 + · · · + (λr − λi )αi vi + · · · + (λr − λr−1 )αr−1 vr−1 = 0.

Notemos que la igualdad anterior solo involucra r − 1 vectores, así que por
hipótesis de inducción (λr − λi )αi = 0 i = 1, . . . r − 1. Como λr ̸=
para toda
λi por hipótesis del teorema, tenemos que αi = 0 para toda i = 1, . . . , r −
1. Substituyendo esto en (8.2), tenemos que αr vr = 0 así que αr = 0. Esto
demuestra que el conjunto {v1 , . . . , vr } es linealmente independiente. □

Corolario 8.29. Sea A ∈ Mn×n (F ) una matriz con n autovalores distintos.


Entonces, existe una base de F n formada por autovectores de A.

8.2. Matrices y endomorsmos diagonalizables


Sea D ∈ Mn×n (F ) una matriz diagonal, es decir, una matriz de la forma

 
d11 0 ··· 0
 0 d22 ··· 0 
,
 
 .. .
. ..
 . . . 0 
0 0 ··· dnn

El polinomio característico de D es

n
Y
pD (x) = (x − dii )
i=1

y por lo tanto los autovalores de D son d11 , d22 , . . . , dnn (posiblemente repe-
tidos). Además, para toda i = 1, . . . , n se cumple que el autovalor dii tiene a
ei como autovector asociado, donde ei es el i-ésimo elemento de la base ca-
nónica de F n. De este modo, la información de los valores y autovectores de
una matriz diagonal D se obtiene directamente de sus elementos en la diagonal.
Esto implica que la transformación lineal asociada a D tiene propiedades alge-
braicas y geométricas sencillas de entender. Por ejemplo, si consideramos a D
como transformación lineal, entonces D envía al vector canónico ei al múltiplo
dii ei . En consecuencia, la matriz D envía los ejes coordenados en sí mismos,
comprimiéndolos o estirándolos según el autovalor dii .
Otro tipo de matrices relativamente sencillas de entender son las triangu-
lares superiores ya que en este caso los autovalores también coinciden con los
elementos de su diagonal. Estas matrices las trataremos con más cuidado en la
sección 9.4.

Definición 8.30 (matriz diagonalizable). Sea A ∈ Mn×n (F ) una matriz. De-


cimos que A es diagonalizable si es similar a una matriz diagonal. Es decir, si
−1
existe una matriz invertible P tal que D = P AP es una matriz diagonal.
8.2. MATRICES Y ENDOMORFISMOS DIAGONALIZABLES 149

Lema 8.31 (autovalores de una matriz diagonalizable). Si A es similar a la


matriz diagonal D = (di,i ), entonces {d1,1 , . . . , dn,n } es el conjunto de autova-
lores de A.

Demostración. Como A es similar a D, por el Corolario 8.13, los autovalores


de las matrices A y D son exactamente los mismos. El lema queda demostrado
porque los autovalores de D son {d1,1 , . . . , dn,n }. □
Teorema 8.32 (matriz diagonalizable). La matriz A ∈ Mn×n (F ) es diagona-
n
lizable si y solo si existe una base de F formada por autovectores de A.
Demostración.
(⇒) Supongamos que A es diagonalizable. Por denición, existe una matriz
invertible P ∈ Mn×n (F ) tal que D = P −1 AP , donde D es una matriz
diagonal
 
λ1 0 ··· 0
 0 λ2 ··· 0 
D= . .
 
. ..
 .. .
. . 0 
0 0 ··· λn
Consideremos el conjunto de columnas de P, es decir, el conjunto B =
{P e1 , . . . , P en }, donde ei es el i-ésimo vector de la base canónica de F n.
Por el Teorema Fundamental de Matrices Invertibles, B es una base de
F n. Además, los elementos de B son autovectores de A porque

A(P ei ) = P DP −1 (P ei ) = P Dei = P λi ei = λi (P ei ).
Esto demuestra la primera implicación.

(⇐) Supongamos que B = {v1 , . . . , vn } es una base de F n tal que vi es un λi -


autovector de A. Sea P ∈ Mn×n la matriz cuyas columnas son los vectores
de la base B . Por el Teorema Fundamental de Matrices Invertibles, P es
−1
invertible. Finalmente demostraremos que D := P AP es una matriz
diagonal. Observemos que la i-ésima columna de D es

D(ei ) = P −1 AP (ei ) = P −1 Avi = P −1 λi vi = λi P −1 vi = λi ei .


Por lo tanto, cada columna de D es (0, . . . , λi , . . . , 0)T , lo que demuestra
que D es diagonal.


Observación 8.33. Si A ∈ Mn×n (F ) tiene n autovalores distintos λ1 , . . . , λn ,
por el Teorema 8.28, existe una base de F n formada por autovectores de A.
Por lo tanto, por el Teorema 8.32, A es diagonalizable, y de hecho es similar
a la matriz diagonal D = (dii ), con dii = λi . En conclusión, si A ∈ Mn×n (F )
es una matriz con n autovalores distintos, entonces A es diagonalizable. Sin
embargo, esta condición es suciente mas no es necesaria. En otras palabras,
existen matrices con autovalores repetidos que son diagonalizables, un ejemplo
de ello es la matriz identidad. Por tal motivo es necesario dar condiciones más
precisas para determinar si A es diagonalizable.
150 CAPÍTULO 8. AUTOVALORES Y AUTOVECTORES

Teorema 8.34 (definiciones equivalentes de matriz diagonalizable). Sea A∈


Mn×n (F ). Las siguientes armaciones son equivalentes:
(i) A es diagonalizable.

(ii) Existe una base de Fn formada por autovectores de A.


(iii) F n = Sλ1 (A) ⊕ · · · ⊕ Sλk (A), donde λ1 , ..., λk son los distintos autovalores
de A.

(iv) γλ1 (A) + ... + γλk (A) = n, donde λ1 , ..., λk son los distintos autovalores de
A

Demostración. La equivalencia entre (i) y (ii) quedó establecida en el Teorema


8.32. El resto de las equivalencias quedan como ejercicio. □
Una consecuencia del Teorema Fundamental del Álgebra es que cualquier
polinomio p(x) ∈ C[x] (con coecientes en los números complejos) de grado n
puede factorizarse como p(x) = a(x−r1 )m1 . . . (x−rk )mk donde a es el coeciente
n
principal de p(x) (i.e. el coeciente de x ), r1 , . . . , rk ∈ C son las distintas raíces
de p(x), y n = m1 + · · · + mk . Usaremos este hecho para demostrar el siguiente
teorema.

Teorema 8.35 (matriz compleja diagonalizable). Una matriz A ∈ Mn×n (C)


es diagonalizable si y solo si A es semisimple.

Demostración. Recordemos que, por denición, A es semisimple si y solo si


γλ (A) = µλ (A) para todo autovalor λ ∈ C de A. Sea pA (x) ∈ C[x] el polino-
mio característico de A. Observemos que pA (x) tiene grado n y su coeciente
principal es 1. Por el Teorema Fundamental del Álgebra, tenemos que

p(x) = (x − λ1 )m1 . . . (x − λk )mk ,

donde λ1 , . . . , λk son los distintos autovalores de A y mi = µλi (A), por denición


de multiplicidad algebraica. Además, se cumple que

µλ1 (A) + ... + µλk (A) = n. (8.3)

Ahora demostraremos ambas implicaciones:

(⇒)
Pk
Supongamos queA es diagonalizable. Por el Teorema 8.34, i=1 γλi (A) =
n. Recordemos que γλi (A) ≤ µλi (A) para todo λi . Sin embargo, por (8.3),
Pk Pk
tenemos que i=1 γλi (A) = i=1 µλi (A), lo que implica que γλi (A) =
µλi (A) para todo λi . Por lo tanto, A es semisimple.

(⇐) Si A es semisimple, γλi (A) = µλi (A) para todo λi , y ki=1 γλi (A) =
P
Pk
i=1 µλi (A) = n. Por el Teorema 8.34, A es diagonalizable.


El teorema anterior no es válido para campos donde el Teorema Funda-
mental del Álgebra no se cumple (es decir, campos que no son algebraicamente
cerrados ), como es el caso de R.
8.2. MATRICES Y ENDOMORFISMOS DIAGONALIZABLES 151

Ejemplo 8.36. Sea A ∈ M3×3 (R) una matriz denida como

 
0 −1 0
A :=  1 0 0 .
0 0 1

El polinomio característico de A es

pA (x) = det(xI3 − A) = x3 − x2 + x − 1 = (x − 1)(x2 + 1).

El único autovalor real de A es λ1 = 1, y tenemos que γλ1 (A) = µλ1 (A) = 1. Esto
demuestra que A es semisimple. Sin embargo, A no es diagonalizable porque no
existen 3 λ1 -autovectores linealmente independientes.
Por otro lado, si consideramos a A como una matriz con entradas en C,
entonces A tiene 3 autovalores distintos: λ1 = 1, λ2 = i y λ3 = −i. Luego, en
este caso, A es semisimple y diagonalizable, de acuerdo al teorema anterior.

Palabras clave: similitud de matrices, autovalores y autovectores, polino-


mio característico, autoespacio, subespacio invariante, multiplicidades geomé-
trica y algebraica de autovalores, autovalores defectivos, simples y semisimples,
matrices
152 CAPÍTULO 8. AUTOVALORES Y AUTOVECTORES

8.3. Ejercicios
Ejercicio 8.37. Demuestra que la relación de similitud de matrices es una rela-
ción de equivalencia.

Ejercicio 8.38. Demuestra que si A = (ai,j ) es una matriz triangular superior,


entonces los eigenvalores de A son los elementos de la diagonal.

Ejercicio 8.39. Encuentra los eigenvalores y eigenvectores de cada una de las


siguientes matrices. En cada caso, encuentra también las multiplicidades geo-
métrica y algebraica de cada eigenvalor, y determina si las matrices son diago-
nalizables.
 
1 2
1. A1 = .
2 1
 
1 1
2. A2 = .
0 1
 
2 2
3. A3 = .
1 0
 
2 −3 7
4. A4 =  0 −2 3 .
0 0 0
 
1 0 1
5. A5 =  0 1 0 .
1 0 1

Ejercicio 8.40. Sea A ∈ Mn×n (F ). Demuestra que Sλ (A) = ker(λIn − A).

Ejercicio 8.41. Sea f un endomorsmo de R2 . Determina si f es diagonalizable


en los siguientes casos.

1. f (x, y) = (5x + 3y, −6x − 4y)

2. f (x, y) = (2y, y)

3. f (x, y) = (5x − 3y, 6x + 4y)

Ejercicio 8.42. Sea ϕ : F n → F n un endomorsmo, y sean λ1 , ..., λk los auto-


valores de ϕ. Demuestra lo siguiente:

1. ϕ es diagonalizable si y sólo si γλ1 (ϕ) + ... + γλk (ϕ) = n.

2. ϕ diagonalizable si y sólo si F n = Sλ1 (ϕ) ⊕ .... ⊕ Sλk (ϕ),

3. Si ϕ tiene n autovalores distintos, entonces ϕ es diagonalizable.


8.3. EJERCICIOS 153

Ejercicio 8.43. Sea A ∈ Mn×n (F ) y sea

pA (x) = xn + an−1 xn−1 + an−2 xn−2 + · · · + a1 x + a0

el polinomio característico de A. Demuestra lo siguiente:

1. a0 = (−1)n det(A) (Sugerencia: recuerda que det(αA) = αn det(A) para


cualquier α ∈ C).

2. Si n = 2 o n = 3, comprueba que an−1 = −tr(A). (Esto es algo que


se cumple para cualquier n, pero es más sencillo demostrarlo usando las
herramientas del próximo capítulo).

Ejercicio 8.44. Sea A ∈ Mn×n (C), y sean λ1 , . . . , λ n ∈ C los autovalores de A.


Demuestra que
det(A) = λ1 . . . λn .
( Sugerencia : usa el hecho de que cualquier polinomio mónico p(x) ∈ C[x] puede
factorizarse como p(x) = (x−r1 ) . . . (x−rn ), donde n = deg(p(x)) y r1 , . . . , rn ∈
C son las raíces de p(x)).

Ejercicio 8.45. Sea D ∈ Mn×n (F ) una matriz diagonal. Demuestra que todo
elemento en la diagonal determina es autovalor de D. Demuestra que los ele-
mentos {dii }ni=1 corresponden al conjunto de autovalores para D.

Ejercicio 8.46. {λi }ni=1 un conjunto de autovalores de A distintos entre


Sea
n
si. Suponga que {vi }i=1 un conjunto de vectores tales que vi es un autovector
n
asociado a λi , para cada i = 1, . . . , n. Demuestra que el conjunto {vi }i=1 es
linealmente independiente.

Ejercicio 8.47. Determina dos matrices no equivalentes A, B ∈ Mn×n (F ) tales


que pA (λ) = pB (λ)
154 CAPÍTULO 8. AUTOVALORES Y AUTOVECTORES
Forma Canónica de Jordan
9
En el Capítulo 8, establecimos la similitud de matrices como una relación
de equivalencia. De esta manera, toda matriz A está contenida en una clase de
equivalencia [A].
Además, establecimos condiciones para determinar si una matriz A es dia-
gonalizable. En otras palabras establecemos condiciones para determinar si la
clase [A] tiene un representante diagonal. Sin embargo, no toda matriz A es
diagonalizable, y en este caso será necesario determinar al mejor representante
posible para la clase [A]. El Teorema de la Forma Canónica de Jordan es la
respuesta a nuestra búsqueda del mejor representante, ya que establece que to-
da matriz cuadrada con entradas complejas es similar a una matriz triangular
superior en la forma de Jordan.
Para lograr nuestro objetivo, en la Sección 9.1. introducimos el concepto de
polinomio mínimo y estudiamos sus propiedades básicas. En particular, demos-
tramos el Teorema de Cayley-Hamilton, el cual establece que cualquier matriz
cuadrada es una raíz de su polinomio característico. En la Sección 9.2, demostra-
mos que si el polinomio característico de una matriz se factoriza en polinomios
lineales, entonces dicha matriz es similar a una matriz triangular. En la Sección
9.3, estudiamos endomorsmos nilpotentes que son todos aquellos que se anulan
después de elevarlos a alguna potencia.
En la Sección 9.4, estudiamos matrices complejas, las cuales sabemos que
siempre son similares a una matriz triangular, ya que todo polinomio comple-
jo se factoriza en polinomios lineales (lo cual es una consecuencia del Teorema
Fundamental del Álgebra). Más aún, el Teorema de la Forma Canónica de Jor-
dan nos garantiza que esta matriz triangular tiene una forma especial, llamada
la forma de Jordan. Finalmente, en la Sección 9.5., estudiamos varios casos de
matrices no diagonalizables y describimos cómo es posible encontrar su Forma
Canónica de Jordan.

9.1. Teorema de Cayley-Hamilton


Dada una matriz A ∈ Mn×n (F ) no cero, consideramos sus potencias
2
I, A, A2 , . . . , An .

155
156 CAPÍTULO 9. FORMA CANÓNICA DE JORDAN

Estas matrices son elementos del espacio vectorial Mn×n (F ) el cual tiene di-
mensión n2 . Ahora, ya que tenemos n2 + 1 elementos en un espacio vectorial de
2 2 n2
dimensión n , entonces la lista I, A, A , . . . , A es linealmente dependiente, es
decir, existe una combinación lineal

2 2
−1
αn2 An + αn2 −1 An + · · · + α2 A2 + α1 A + α0 I = 0, (9.1)

donde algunos coecientes αi son distintos de cero. Notemos que, podría pasar
que Am = 0 para algún m, 1 ≤ m ≤ n o que Am = As , con 1 ≤ m, s ≤ n.
En cualquier caso, la lista en cuestión sigue siendo linealmente dependiente (ver
Observación 5.9).
Cabe señalar que la ecuación (9.1) también puede ser considerada como un
polinomio en una variable, para ello sustituimos la matriz A por la variable X
y obtenemos

2 2
−1
αn2 Xn + αn2 −1 Xn + · · · + α2 X2 + α1 X + α0 I. (9.2)

De este modo el polinomio (9.2) se anula en A, debido a (9.1). Por lo tanto,


para toda matriz A ∈ Mn×n (F ) existe un polinomio p(X) que se anula en A.
Esto nos lleva de manera natural a las siguientes preguntas ¾Es el polinomio
(9.2) el único polinomio que se anula en A? En caso de existir varios polinomios
que se anulan en A ¾Cuál es el polinomio de grado mínimo que anula en A?
Para responder a estas preguntas, iniciamos con la siguiente denición.

Definición 9.1 (polinomio mı́nimo). Sea A ∈ Mn×n (F ) una matriz. El poli-


nomio mínimo de A es el polinomio mónico de menor grado que se anula en A
y lo denotaremos como mA (λ).

Proposición 9.2 (existencia del polinomio mı́nimo). Sea A ∈ Mn×n (F ), en-


tonces el polinomio mínimo de A existe y es único.

Demostración. La existencia del polinomio mínimo se obtiene a partir de la


existencia del polinomio (9.2) (ver, Ejercicio 9.48). Para demostrar la unicidad
del polinomio mínimo, suponemos la existencia de dos polinomios minimales
para A, digamos mA (λ) y nA (λ). Al ser ambos polinomios mónicos y del mismo
grado se tiene que su diferenciamA (A) − nA (A) es un polinomio de grado más
pequeño el cual se anula en A. Sin embargo, esto contradice el hecho de que
mA (λ) y nA (λ) sean minimales. □
Proposición 9.3 (matrices similares y sus polinomios mı́nimos). Si
A, B ∈ Mn×n (F ) son dos matrices tales que A ∼ B , entonces el polinomio
mínimo de A y el polinomio mínimo de B coinciden.

Demostración. Ya que A y B son similares, existe una matriz invertible P


tal que A = P −1 BP . Sea mB (λ) el polinomio minimal de B , entonces mB (A) =
mB (P −1 BP ) = P −1 mB (B)P = 0 (ver Ejercicio 9.48). Lo anterior implica que
deg mA (λ) ≤ deg mB (λ). De manera análoga tenemos que mA (B) = 0 y por lo
tanto deg mB (λ) ≤ deg mA (λ). En consecuencia, deg mB (λ) = deg mA (λ) y por
la unicidad del polinomio mínimo concluimos que mA (λ) = mB (λ). □
9.1. TEOREMA DE CAYLEY-HAMILTON 157

Proposición 9.4. Para cualquier matriz A ∈ Mn×n (F ) los polinomios caracte-


rístico y mínimo tienen las mismas raíces salvo multiplicidades.

Demostración. De la Proposición 8.6 sabemos que un escalar es autovalor de


A si, y solo si, es raíz de su polinomio característico. Así, basta demostrar que
t ∈ F es raíz del polinomio mínimo si, y solo si, t es autovalor de A.

(⇒) Sea pues t una raíz de mA (λ), es decir, mA (t) = 0. Entonces el polinomio
mA (λ) tiene un factor (λ − t) y por lo tanto

mA (λ) = (λ − t)q(λ)

siendo q(λ) deg q(λ) < deg mA (λ). Como mA (λ) es el


un polinomio tal que
polinomio de grado más pequeño que se anula en A, tenemos que q(A) ̸= 0,
n
i.e., q(A) no es la matriz cero. Entonces, existe un vector v ∈ F tal que
v ̸∈ Ker(q(A)), equivalentemente q(A)v ̸= 0. De esta manera, si hacemos w :=
q(A)v, tenemos las siguientes igualdades

(A − tIn )w = (A − tIn )q(A)v = mA (A)v = 0,

por lo que w es un autovector de A asociado a t.

(⇐) Ahora suponemos que t es un autovalor de A y demostraremos que t es


raíz del polinomio mA (λ). Para ello veamos que como t es autovalor de A, existe
Pd i
un vector v no nulo tal que Av = tIn v. Ahora, si escribimos mA (λ) = i=0 ai λ ,
Pd i
entonces mA (A) = i=0 ai A obteniendo así las siguientes igualdades:

d
!
X
i
mA (A)v = ai A v,
i=1
d
X
= ai Ai v,
i=1
d
!
X
i
= ai t · v,
i=1
= mA (t) · v

Finalmente, como mA (A) = 0 es la matriz cero, entonces mA (A)v = 0 y


por las igualdades anterioresmA (t) · v = 0. Ahora bien, como v es un vector
no nulo, concluimos que mA (t) = 0, lo que implica que t es raíz del polinomio
minimal. □
Nuestro siguiente paso será mostrar que toda matriz A es raíz de su polino-
mio característico.

Teorema 9.5 (Cayley-Hamilton). Sea A ∈ Mn×n (F ) una matriz, Entonces el


polinomio característico pA (λ) se anula en A, esto es pA (A) = 0.
158 CAPÍTULO 9. FORMA CANÓNICA DE JORDAN

Demostración. pA (λ) = λn + an−1 λn−1 + · · · + a1 λ + a0 al


Denotemos por
polinomio característico de A. Sea (λI − A) la matriz característica de A y C
la matriz adjunta de (λI − A). Por las propiedades de la adjunta (ver, Ejercicio
9.44), sabemos que
(λI − A)C = |λI − A|I. (9.3)

Para el siguiente paso, consideramos las entradas de la matriz característica


como polinomios de grado a lo más uno en la variable λ. De esta manera, ya
que las entradas de C se obtienen a partir de los determinantes de las menores
de (λI − A), entonces las entradas de C son polinomios de grado a lo más n−1
en la variable λ. Esto implica que la matriz adjunta puede ser escrita como un
polinomio en la variable λ donde sus coecientes son matrices de n × n, esto es:

C = Cn−1 λn−1 + Cn−2 λn−2 + · · · + C1 λ + C0 .

Ahora, de la ecuación (9.3) obtenemos

(λI − A)C = (λI − A)(Cn−1 λn−1 + Cn−2 λn−2 + · · · + C1 λ + C0 ) = |λI − A|I.

Ya que |λI − A| = pA (λ), se tiene

(λI−A)(Cn−1 λn−1 +Cn−2 λn−2 +· · ·+C1 λ+C0 ) = (λn +an−1 λn−1 +· · ·+a1 λ+a0 )I.

Por consiguiente, tenemos las siguientes igualdades:

−AC0 = a0 I
C0 − AC1 = a1 I
C1 − AC2 = a2 I
.
.
.

Cn−2 − ACn−1 = an−1 I


Cn−1 = I.

Multiplicando la primer igualdad por I, la segunda por A, la tercera por A2


y así sucesivamente obtenemos:

−AC0 = a0 I
2
AC0 − A C1 = a1 A
A2 C1 − A3 C2 = a 2 A2
.
.
.

An−1 Cn−2 − An Cn−1 = an−1 An−1


An Cn−1 = An .

Sumando todas las igualdades obtenemos que

0 = An + an−1 An−1 + · · · + a1 A + a0 I.
9.2. ENDOMORFISMOS TRIANGULABLES 159

Por lo tanto pA (A) = 0, lo cual demuestra nuestra armación.



Claramente, el polinomio característico y minimal no son los únicos po-
linomios que se anulan en la matriz A. Un ejemplo de un tal polinomio es
q(x) := mA (x) + pA (x). Mas aún, si f, g ∈ F [x] son dos polinomios que se anu-
lan en A, entonces f + g, αf y hf son polinomios que también se anulan en A
para cualquier escalar α ∈ F y cualquier polinomio h ∈ F [x]. Sin embargo todos
los polinomios que se anulan en A tienen algo en común, todos son múltiplos
del polinomio mínimal tal y como se demuestra en el siguiente resultado.
1

Lema 9.6. Si f ∈ F [x] es un polinomio que se anula en A, entonces f es de la


forma f = mA · h para algún polinomio h ∈ F [X].

Demostración. Si f es el polinomio mínimo, entonces no hay nada que


probar. Así suponemos que f es un polinomio que se anula en A y que no es un
múltiplo del polinomio mínimo. De esta manera, deg(f ) > deg(mA ). Aplicando
el algoritmo de la división para polinomios obtenemos que existen dos polinomios
h, r ∈ F [x] tales que

f = mA · h + r
y deg(r) < deg(mA ). Para nalizar la demostración probaremos que r = 0.
Supongamos que r ̸= 0, en este caso como deg(r) < deg(mA ), entonces r(A) ̸= 0.
Por otro lado,

f (A) = mA (A) · h(A) + r(A) = 0


y como los polinomios f y mA sí se anulan en A, entonces r(A) = 0. Sin embargo,
esto es una contradicción y con esto concluimos que la única opción es r = 0.

9.2. Endomorsmos triangulables


Como vimos en el Capítulo 8, existen endomorsmos (matrices) que son
digonalizables y la ventaja de estos endomorsmos es que podemos describir
fácilmente sus propiedades, su valores y sus vectores propios. Sin embargo, no
todo endomorsmo es diagonalizable así que buscaremos una manera más gene-
ral de expresar los endomorsmos. De esta manera, si la matriz asociada a un
endomorsmo es triangular superior (inferior) entonces el endomorsmo puede
ser descrito de manera similar al caso de los endomorsmos diagonalizables. Así
que nuestro siguiente paso es determinar cuando un endomorsmo puede ser
representado por una matriz triangular.

1 Esta observación puede expresarse de la siguiente manera: el conjunto de polinomios que


se anulan en la matriz A determina un ideal en F [x] y ya que el anillo de polinomios en una
variable es un dominio de ideales principales, entonces está generado por un solo polinomio
el cual resulta ser el polinomio minimal. Por esta razón, todo polinomio que se anula en A es
múltiplo de mA .
160 CAPÍTULO 9. FORMA CANÓNICA DE JORDAN

Definición 9.7. Decimos que un endomorsmo φ : V → V es triangulable si


existe una base B de V tal que [φ]B
B es triangular. Similarmente para matrices
A ∈ Mn×n (F ).

Observe que por denición todo endomorsmo diagonalizable es triangulable.


Por tal situación buscaremos un resultado general al dado para diagonalizable.
Para ello necesitaremos las siguientes consideraciones.

Proposición 9.8. Sea φ : V → V un endomorsmo y U un subespacio invarian-


te de V . Entonces φ determina por restricción un endomorsmo φU : U → U y
a su vez determina un endomorsmo φV /U : V /U → V /U en el cociente.

Demostración. El endomorsmo φU : U → U es simplemente la restricción


de φ al subespacio invariante y como tal está denido como φU (u) := φ(u) esto
determina inmediatamente un endomorsmo. Por otra parte, el endomorsmo
φV /U : V /U → V /U se dene de la siguiente manera: φV /U ([v]) := [φ(v)],
para todo [v] ∈ V /U . Es un ejercicio para el lector vericar que φV /U es un
endomorsmo.

Bajo las hipotesis de la proposición anterior se tiene el siguiente resultado.

Proposición 9.9. Todo polinomio que se anula en φ, también se anula en φV /U .

Demostración. Sea q ∈ F [x] un polinomio que se anula en φ y [v] ∈ V /U


un vector cualquiera. Aplicando la Proposición 9.8 se obtiene q(φV /U )([v]) =
[q(φ)(v)] = [0] y, en consecuencia, el polinomio q también se anula en φV /U
obteniendo nuestro resultado.

Corolario 9.10. El polinomio mínimo de φV /U divide al polinomio mínimo de


φ.

Si consideramos un endomorsmo φ : V → V y un subespacio invariante U,


como en la Proposición 9.8. Entonces es posible determinar una base B =
{v1 , v2 , . . . , vr , vr+1 , . . . vn } de V, tal que BU := {v1 , v2 , . . . , vr } es base para
U y BV /U = {[vr+1 ], . . . [vn ]} una base para el espacio cociente. Así, en térmi-
nos de la base B tenemos:

 
B MU M2
[φ]B =
0 M3
donde MU es una matriz r×r y corresponde a la matriz de [φU ]BU
BU . Para
determinar esto observe que para cada i = 1, . . . , r se cumple

n
X
φU (vi ) = aji vj ,
j=1

con aji = 0 si j > r. De esta manera tenemos que MU = (aij )ri,j=1 .


9.2. ENDOMORFISMOS TRIANGULABLES 161

Proposición 9.11. Sea φ : V → V un endomorsmo, U un subespacio inva-


riante de V y q ∈ F [x] un polinomio. Entonces los endomorsmos q(φU ) y q(φ)
coinciden en U .

Demostración. Si q es un polinomio constante, entonces la igualdad se cum-


ple trivialmente. Por lo que supondremos que
Pr q es un polinomio no constante y
i
denotamos q = a
i=0 i x . Sea u ∈ U, entonces

r
X r
X
q(φU )(u) = ai φiU (u) = ai φi (u) = q(φ)(u).
i=0 i=0

y como u es arbitrario en U, entonces q(φU ) = q(φ) en U. □


Corolario 9.12. pφ (φU ) = 0.
Corolario 9.13. El polinomio minimal mφU divide al polinomio minimal mφ .
Demostración. Por propiedad del polinomio mínimo, mφ (φ) = 0. Así de la
proposición anterior mφ (φU ) = mφ (φ) = 0. Y por el Lema 9.6, mφU divide a
mφ .

Ahora que hemos determinado algunas propiedades de los endomorsmos,
entonces determinaremos cuando un endomorsmo es triangulable, compare el
siguiente resultado con el Teorema 8.32.

Teorema 9.14. Sea φ : V → V un endomorsmo tal que su polinomio ca-


racteristico se factoriza en polinomios lineales. Entonces el endomorsmo φ es
triangulable.

Demostración. Demostraremos el teorema mediante inducción sobre la di-


mensión de V . Si dim V = 1, entonces no hay nada que demostrar pues la matriz
asociada a φ es 1 × 1 y por lo tanto es triangular. Ahora suponga cierto para
dim V = n − 1 y probaremos para el caso dim V = n.
Como el polinomio característico se factoriza mediante polinomios lineales,
entoncespφ (x) = (x − λ1 )r1 · · · (x − λs )rs . De esta manera, λ1 es un valor propio
asociado a φ y sea v1 un vector propio asociado a λ1 . Dena U := ⟨v1 ⟩, de
esta manera U es un subespacio invariante y por la Proposición 9.8, se induce
un endomorsmo φV /U : V /U → V /U . Ahora de la Proposición 9.9 sabemos
que pφ se anula en φV /U . Y aplicando el Lema 9.6 se tiene que el polinomio
mínimo mφV /U divide a pφ y en consecuencia mφV /U se factoriza en polinomios
lineales. Ahora, de lo anterior y la Proposición 9.4 tenemos que el polinomio
φV /U se factoriza por polinomios lineales y como dim φV /U = n − 1 entonces
la hipotesis de inducción implica que φV /U es triangulable. Es decir, existe una
′ B′
base B = {[v2 ], [v3 ], . . . , [vn ]} de V /U tal que [φV /U ]B ′ es triangular. Mas aún,
B := {v1 , v2 , . . . , vn } es una base para V y armamos que [φ]B B es triangular
B′
superior. Para vericar esta armación vea que si [φV /U ]B ′ = (bij ) es una matriz
triangular de (n − 1) × (n − 1), entonces
 
λ1 M
[φ]BB = ′
0 [φV /U ]B B′
162 CAPÍTULO 9. FORMA CANÓNICA DE JORDAN

donde M es una submatriz de 1 × (n − 1) y 0 representa una submatriz de


(n − 1) × 1. □

9.3. Endomorsmos nilpotentes


Como antes, U F −espacio vectorial y φ : U → U un endomor-
denotará un
smo. Observe que la composición φ◦φ es nuevamente un endomorsmo de U, el
2 r
cual denotaremos por φ . En general tendremos que φ denota al endomorsmo
obtenido de la composición

φ ◦ φ ◦ · · · ◦ φ.
| {z }
r−veces

Definición 9.15. Sea φ : U → U un endomorsmo, decimos que φ es nilpotente


r
si φ = 0, para algún r > 0. Además diremos que el índice de nilpotencia de φ
r−1
es r si φ ̸= 0.

Ejemplo 9.16. Si consideramos el endomorsmo φ : F 3 → F 3 denido por


φ(x, y, z) = (y, z, 0). Entonces φ es un endomorsmo nilpotente con índice de
3
nilpotencia igual a tres, esto ya que si (x, y, z) ∈ F cualquiera, entonces tene-
mos:

(φ ◦ φ ◦ φ)(x, y, z) = (φ ◦ φ)(φ(x, y, z)) = φ(φ(y, z, 0)) = φ(z, 0, 0) = (0, 0, 0).

Ejemplo 9.17. Sea ψ : F3 → F3 denido por ψ(x, y, z) = (0, z, 0). Entonces ψ


es un endomorsmo nilpotente con índice de nilpotencia igual a dos, pues como
en el ejemplo anterior se tiene:

(ψ ◦ ψ)(x, y, z) = ψ(ψ(x, y, z)) = ψ(0, z, 0)) = (0, 0, 0).

De manera similar, si A ∈ Mn×n es nilpotente entonces Ar = 0 para algún


r > 0. Más aún, por las propiedades del determinante se tiene que |A| = 0.

Proposición 9.18. Si φ:U →U es un endomorsmo nilpotente, entonces cero


es el único autovalor para φ.

Demostración. Sea φ un endomorsmo nilpotente con índice de nilpotencia


r y suponga que t ∈ F es un autovalor de φ. Entonces, existe un vector u ∈ U
distinto de cero tal que

φ(u) = tu
y así φn (u) = tn u = 0. Ello implica que tn = 0 y por lo tanto t = 0. □

Corolario 9.19. Si φ : U → U es un endomorsmo nilpotente con índice de


r
nilpotencia r , entonces el polinomio mínimo de φ es mφ (λ) = λ .

Demostración. Ejercicio 9.47. □


9.3. ENDOMORFISMOS NILPOTENTES 163

Proposición 9.20. Sea φ : U → U un endomorsmo nilpotente con índice de


r−1
nilpotencia r y u ∈ U un vector tal que φ (u) ̸= 0. Entonces el conjunto
{φr−1 (u), φr−2 (u), . . . , φ(u), u},
es un conjunto linealmente independiente.

Demostración. Para demostrar la armación consideramos una combinación


lineal del vector cero, digamos

ar−1 φr−1 (u) + ar−2 φr−2 (u) + · · · + a1 φ(u) + a0 u = 0 (9.4)

y probaremos que ai = 0, para todo i = 0, . . . , r − 1.


Con este n aplicamos φr−1 a ambos lados de la ecuación (9.4) y obtenemos
lo siguiente:

φr−1 (ar−1 φr−1 (u) + ar−2 φr−2 (u) + · · · + a1 φ(u) + a0 u = φr−1 (0)
Tomando en cuenta que φr = 0, tenemos que φ2r−2 = φ2r−1 = · · · = φr = 0 y
en consecuencia la ecuación anterior queda de la siguiente manera:

a0 φr−1 (u) = 0.
Ahora, ya que φr−1 (u) ̸= 0, entonces a0 = 0. De manera análoga, si aplicamos
r−2
φ a la ecuación (9.4) entonces podremos concluir que a1 = 0. Siguiendo este
procedimiento podemos determinar que la combinación lineal es la trivial. En
conclusión, el conjunto es linealmente independiente. □
Sea{φr−1 (u), φr−2 (u), . . . , φ(u), u} el conjunto dado en la Proposición 9.20,
denotaremos por W al espacio generado por este conjunto; esto es:

W := ⟨φr−1 (u), φr−2 (u), . . . , φ(u), u⟩.


El conjunto W es por construcción un subespacio φ-invariante, esto es,
φ(W ) ⊂ W . De esta manera, podemos considerar la restriccíón de φaW
φ|W : W → W
el cual es un endomorsmo de W (ver, Ejercicio 1) y como el conjunto β =
{φr−1 (u), φr−2 (u), . . . , φ(u), u} es una base para W, entonces dim(W ) = r y
[φ|W ]ββ es una matriz r × r.

Proposición 9.21. Sea φ : U → U un endomorsmo nilpotente con índice de


r−1
nilpotencia r y u ∈ U tal que φ (u) ̸= 0. Si β = {φr−1 (u), φr−2 (u), . . . , φ(u), u},
y W ⊂ U es el subespacio generado por β , entonces
 
0 1 0 0 ··· 0
 0 0 1 0 ··· 0 
 
 0 0 0 1 ··· 0 
[φ|W ]ββ = 
 
 0 0 0 0 ... 0 

 
 . . . . .
 .. .. .. .. ..

1 
0 0 0 0 ... 0
164 CAPÍTULO 9. FORMA CANÓNICA DE JORDAN

Demostración. La demostración es un ejercicio para el lector (ver, Ejercicio


9.50).

La forma que tiene la matriz [φ|W ]ββ es conocida como bloque de Jordan,
este tipo de matrices serán estudiadas en el siguiente capítulo. Note además que
el vector φr−1 (u) de la base β es un autovector del endomorsmo φ|W , (ver
Ejercicio 2).

9.4. Forma Canónica de Jordan


En esta sección consideraremos principalmente matrices complejas, es de-
cir, elementos de Mn×n (C). Como todo polinomio con coecientes comple-
jos se factoriza en polinomios lineales (lo cual es una consecuencia del Teo-
rema Fundamental del Álgebra), sabemos por el Teorema 9.14 que toda matriz
A ∈ Mn×n (C) es similar a una matriz triangular superior. En esta sección estu-
diaremos que esta matriz triangular superior tiene de hecho una forma especial.

Definición 9.22 (bloque de Jordan). Una matriz A ∈ Mn×n (F ) es un bloque


de Jordan si cumple las siguientes condiciones:

1. A es triangular superior.

2. Todos los elementos en la diagonal son iguales.

3. Las entradas aii+1 (las que se encuentran sobre la diagonal superior) son
iguales a uno, i.e., aii+1 = 1 para toda i = 1, . . . , n − 1.

Así una matriz de n×n en bloque de Jordan es de la forma

 
λ 1 0 ··· 0 0

 0 λ 1 ··· 0 0 

 0 0 λ ··· 0 0 
. , (9.5)
 
 .. .
.
.
. .. .
. . 
 . . . . . . 

 0 0 0 ··· λ 1 
0 0 0 ··· 0 λ
a esta matriz la denotaremos por BJn (λ).

Ejemplo 9.23. Las siguientes matrices son algunos ejemplos de bloques de Jor-
dan.

 
  3 1 0 0
  2 1 0
1 1  0 3 1 0 
BJ2 (1) = , B3 (2) =  0 2 1  , BJ4 (3) =  .
0 1  0 0 3 1 
0 0 2
0 0 0 3
9.4. FORMA CANÓNICA DE JORDAN 165

Note que la matriz identidad In , con n > 1, no es bloque de Jordan debido a


que las entradas aii+1 = 0.

Al considerar el bloque de Jordan


 
0 1
BJ2 (0) = ,
0 0
2
podemos comprobar que (BJ2 (0)) es la matriz cero y por lo tanto es una ma-
triz nilpotente. En general, las matrices bloque de Jordan BJn (0) son matrices
nilpotentes (ver, Ejercicio 9.49).

Proposición 9.24. Si A es un bloque de Jordan de la forma BJn (λ), entonces


µλ (A) = n y γλ (A) = 1.
Demostración. La demostración es un ejercicio para el lector (ver, Ejercicio
9.51). □
Definición 9.25 (forma de Jordan). Decimos que una matriz en Mn×n (F ) está
en forma de Jordan si la diagonal está compuesta por bloques de Jordan y las
demás entradas son cero. Esto es, si tiene la siguiente estructura
 
BJr1 (λi1 ) 0 0 ··· 0
 0 BJ r 2 (λi 2 ) 0 ··· 0 
, (9.6)
 
. . . .. .
. . . .

 . . . . . 
0 0 0 ··· BJrs (λis )
con n = r1 + r2 + · · · + rs .

Ejemplos: Las siguientes matrices se encuentran en su forma de Jordan.


 
2 1 0
1.  0 2 0 , los bloques de Jordan son BJ2 (2) y BJ1 (1).
0 0 1
 
−3 0 0 0
 0 −3 0 0 
2.  , los bloques de Jordan son BJ1 (−3), BJ1 (−3) y
 0 0 3 1 
0 0 0 3
BJ2 (3).

 
1 0 0 ··· 0
 0 1 0 ··· 0 
3. In =  . . , el bloque BJ1 (1) aparece n veces en la dia-
 
. . ..
 .. .
.
.
. . . 
.
0 0 0 ··· 1
gonal.
166 CAPÍTULO 9. FORMA CANÓNICA DE JORDAN

El siguiente teorema hace que la denición de la forma de Jordan sea parti-


cularmente interesante.

Teorema 9.26 (Teorema de la Forma Canónica de Jordan). Cualquier matriz


A ∈ Mn×n (C) es similar a una matriz en la forma de Jordan.

Si una matriz se encuentra en su forma de Jordan, entonces la matriz es


triangular superior. Así toda la información correspondiente a los autovalores,
su multiplicidad algebraica y geométrica, queda completamente determinada
por los elementos de la diagonal. El número de veces que aparece un mismo
valor en la diagonal indica su multiplicidad algebraica. Por otra parte el número
de bloques de Jordan indica el número de autovectores asociados y con ello su
multiplicidad geométrica. Esto lo haremos evidente en el siguiente resultado.

Proposición 9.27. Sea A ∈ Mn×n (F ) una matriz en forma de Jordan y su-


ponga que los bloques de Jordan de A son {BJr1 (λ1 ), BJr2 (λ2 ), . . . , BJrs (λs )}.
Entonces se cumplen las siguientes armaciones:

1. Los autovalores de A son {λj }sj=1 .


2. Si λi ̸= λi siempre que i ̸= j , entonces la multiplicidad algebraica de λj
es igual a rj .
3. Si λj = λ para todo j, entonces µλ (A) = r1 + · · · rs = n y γλ (A) = s.

Demostración. (1) Ya que A se encuentra en su forma de Jordan, entonces A


es triangular superior. De esta manera, los elementos en la diagonal son{λj }sj=1 .
(2) Esta armación es una consecuencia de la Proposición 9.24.
(3) Para probarlo note que A − λI es una matriz de Jordan tal que sus bloques
son de la forma {BJr1 (0), BJr2 (0), . . . , BJrs (0)}. Además, v es un vector propio
de A si y solo si (A−λI)v = 0. Ahora bien, si hacemos v = (x1 , . . . xn ), entonces

(A − λI)v = (x2 , . . . , xr1 , 0, xr1 +2 , . . . , xr2 , 0, xr2 +2 , . . . , xrs −1 , 0) = 0

De esta manera v es un vector propio de A si, y solo si, es de la forma

v = (x1 , 0, . . . , 0, xr1 , 0, . . . , xs−1 , 0, . . . , xs )

de lo cual concluimos que γλ (A) = s.



Corolario 9.28. Si A es una matriz que está en forma de Jordan y λ es un auto-
valor de A el cual aparece en exactamente m bloques, digamos BJr1 (λ), . . . , BJrm (λ).
Entonces µλ (A) = r1 + · · · + rm y γλ (A) = m.

Por otra parte, si una matriz A no se encuentra en su forma de Jordan, es


posible calcular una matriz B tal que A∼B y B está en su forma de Jordan.
9.5. FORMA CANÓNICA DE JORDAN DE MATRICES NO DIAGONALIZABLES167

s
Proposición 9.29. A ∈ Mn×n (F ) una matriz
Sea
Ps con autovalores {λi }i=1 . Su-
ponga que para cada i, µλi (A) = γλi (A) y i=1 γλi (A) = n. Entonces existe
−1
una matriz C tal que CAC es diagonal y por lo tanto es una matriz en forma
de Jordan.

Demostración. Suponga que µλi = ni , entonces como la multiplicidad al-


gebraica y geométrica coinciden, se tiene que dim(Sλi ) = ni , para cada i. Sea
{vij }nj=1
i
una base para Sλi y por lo tanto es un conjunto linealmente indepen-
diente de vectores propios asociados a λi . Por otro lado sabemos que Σsi=1 ni = n.
n,ni n
Por lo tanto el conjunto {vij }i,j=1 determina una base para F .
De esta forma, si denotamos por C a la matriz cuyas primeras n1 columnas
n1
corresponden a los autovectores {v1j }j=1 , las siguientes n2 columnas correspon-
n2
den a los autovectores {v2j }j=1 y así sucesivamente, i.e.,

C = (v11 v12 · · · v1n1 v21 v22 · · · v2n2 · · · vs−1ns−1 vs1 vs2 · · · vsns ).
Entonces la matriz C es invertible y C −1 AC es una matriz diagonal de la forma
 
λ1 In1 0 0 ··· 0
 0 λ2 In2 0 ··· 0 
.
 
. . . .. .
. . . .

 . . . . . 
0 0 0 ··· λns Ins

Observaci
Ps ón 9.30. Si en la Proposición 9.29 eliminamos la hipótesis

i=1 λi(A) = n, entonces la armación sería


γ falsa (ver, Ejemplo 8.36). Sin em-
bargo, la hipótesis sobre la multiplicidad algebraica puede ser eliminada cuando
el campo F es algebraicamente cerrado. Para ello compare la Proposición 9.29
con la Proposición 8.35.

9.5. Forma Canónica de Jordan de Matrices No


Diagonalizables
Recordemos que una matriz compleja es diagonalizable si y solo si es semi-
simple, es decir, si no tiene autovalores defectivos. Si λ es un autovalor defectivo
de A, entonces para determinar una base de Sλ es necesario un proceso especial.
Veamos el siguiente ejemplo para explicar mejor esta situación.

Ejemplo 9.31. Tomamos la matriz


 
0 1 2
A =  −5 −3 −7  .
1 0 0
En este caso, la matriz A tiene un único autovalor el cual es λ = −1 y tiene
multiplicidad algebraica 3. Ahora para calcular los autovectores consideramos
la matriz característica
168 CAPÍTULO 9. FORMA CANÓNICA DE JORDAN

 
−1 −1 −2
(−1)I − A =  5 2 7 .
−1 0 −1
Se verica que el autovalor −1 tiene un único autovector linealmente indepen-
diente, digamos
 
−1
v =  −1  .
−1
Así, la multiplicidad geométrica es uno, i.e., µλ (A) = 1 y de esta manera A
tiene un único autovalor el cual es defectivo. Esto implica que la matriz no es
diagonalizable (ver, Proposición 8.32). En consecuencia, necesitamos un método
que nos permita determinar su forma de Jordan.

9.5.1. Un solo autovalor defectivo y un solo autovector


asociado
Del primer caso que trataremos se derivará el procedimiento para los casos
subsecuentes, por lo que deberemos poner mayor énfasis a los detalles.

En primer lugar estudiaremos el caso en que la matriz A ∈ Mn×n (C) tiene


un solo autovalor defectivo λ y su espacio asociado Sλ tiene dimensión uno.

En este caso, el polinomio característico de A tiene la forma

pA (λ) = (λ − a)n
siendo a el único autovalor deA. Además, ya que existe un único autovector
asociado tenemos que N ul(aI − A) = 1 y supondremos que ⟨v⟩ = ker(aI − A).
Por otra parte, es posible demostrar que bajo estas condiciones la matriz
caracteristicaaI − A es nilpotente (ver, Ejercicio 9.52) y como el polinomio
minimal de A tiene los mismos factores que el polinomio característico, entonces
mA (λ) = (λ − a)m para algún m, con m ≤ n. El siguiente resultado arma que
con las condiciones descritas anteriormente se cumple que m = n.

Proposición 9.32. Sea A ∈ Mn×n (F ) una matriz cuyo polinomio caracterís-


n
tico es pA (λ) = (λ − a) . Suponga además que el autovalor a tiene un único
autovector asociado. Entonces el polinomio minimal de A es mA (λ) = (λ − a)n .
Demostración. Dado que A tiene un solo autovector asociado al autovalor
a, N ul(aI − A) = 1. Por la Proposición 6.5, rank(aI − A) = n − 1.
entonces
Ahora bien, sabemos que

ker(aI − A) ⊆ ker(aI − A)2 ⊆ ker(aI − A)3 ⊆ · · · ⊆ ker(aI − A)n


y asíN ul(aI − A)m ≤ m para toda m tal que 1 ≤ m ≤ n. Ello implica que para
que (aI − A)m = 0, entonces m = n. Por lo tanto el polinomio característico y
minimal coinciden. □
9.5. FORMA CANÓNICA DE JORDAN DE MATRICES NO DIAGONALIZABLES169

Corolario 9.33. Si A ∈ Mn×n (F ) es una matriz con un solo autovalor y un solo


autovector. Entonces la matriz característica aI − A es nilpotente con índice de
nilpotencia n.

Consideremos una matriz A con las hipótesis de la Proposición 9.32. To-


mando en cuenta la Proposición 9.20, tenemos que existe una base β de Fn tal
que
β = {(A − aI)n−1 (u), (A − aI)n−2 (u), . . . , (A − aI)(u), u}
y la matriz [A − aI]ββ tiene la forma:

 
0 1 0 0 ··· 0

 0 0 1 0 ··· 0 

 0 0 0 1 ··· 0 
β
 
[A − aI]β = 
 0 ..
.
,
 0 0 0 0 

 . . . . ..
 .. . . .

. . . . 1 
0 0 0 0 ... 0
y en consecuencia tenemos

 
a 1 0 0 ··· 0

 0 a 1 0 ··· 0 

 0 0 a 1 ··· 0 
[A]ββ = BJn (a) = 
 
.. . (9.7)
 0 0 0 a . 0 
 
 . . . . ..
 .. . . .

. . . . 1 
0 0 0 0 ... a

Una manera de determinar la base β es la siguiente:

Si A es como antes y v el único autovector de A asociado al autovalor a.


Entonces determinamos vectores u1 , u2 , . . . un−1 ∈ F n tales que

(A − aI)u1 = v,
(A − aI)u2 = u1 ,
.
.
. (9.8)

(A − aI)un−2 = un−3 ,
(A − aI)un−1 = un−2 .

Así la base buscada es

β = {v, u1 , u2 , . . . un−2 , un−1 }. (9.9)


170 CAPÍTULO 9. FORMA CANÓNICA DE JORDAN

Es un ejercicio vericar que la base β cumple las propiedades deseadas, ver


Ejercicio 9.53. A los vectores u1 , u2 , . . . un−2 , un−1 obtenidos mediante el pro-
cedimiento anterior se les conoce como autovectores generalizados de v.

 
3 −2
Ejemplo 9.34. Considere la matriz A := . Entonces, el polinomio
8 −5
característico para A es pA (λ) = (λ + 1)2 y así el único autovalor es λ = −1. El
siguiente paso es determinar los autovectores asociados, para ello resolvemos el
sistema (A − (−1)I)x = 0, es decir:

4x − 2y = 0
8x − 4y = 0.

En este caso la solución está dada por 4x = 2y por lo que un autovector es


v1 = (1, 2)t . Esto implica que tenemos un único autovalor defectivo y un único
autovector linealmente independiente. Por lo que buscaremos el autovector ge-
neralizados de v mediante la solución del sistema:

4x − 2y = 1
8x − 4y = 2.

En este caso la solución está dada por 4x = 1 + 2y y así un vector generali-


zado es v11 = (3/4, 1)t y la base buscada es:

   
1 3/4
β= , .
2 1
Es un ejercicio para el lector comprobar que

   
0 1 −1 1
[A − (−1)I]β = y [A]β =
0 0 0 −1

Note además que si


 
1 3/4
N= ,
2 1
entonces N −1 AN = BJ2 (−1).

9.5.2. Un único autovalor defectivo


Cuando consideramos una matriz A con un solo autovalor, entonces su poli-
nomio característico tiene la forma pA (λ) = (λ − a)n y si suponemos que A tiene
dos autovectores linealmente independientes, tenemos que nul(A − aI) = 2. Así
β
que en este caso buscaremos la base β en la cual matriz [A − aI]β es una matriz
de Jordan. Para ello es necesario encontrar una base adecuada para ker(A − aI),
9.5. FORMA CANÓNICA DE JORDAN DE MATRICES NO DIAGONALIZABLES171

la cual sabemos que se compone de dos vectores, y completaremos dicha base


utilizando la Proposición 5.29.
Supongamos que {v1 , v2 } es una base para ker(A − aI), entonces la base β
buscada es de la forma:

β = {v1 , v11 , v12 , . . . , v1n−2 , v2 },

donde los vectores v11 , v12 , . . . , v1n−2 , son obtenidos con el procedimiento des-
crito en (9.8), esto es:

(A − aI)v11 = v1 ,
(A − aI)v12 = v11 ,
.
.
. (9.10)

(A − aI)v1n−3 = v1n−4 ,
(A − aI)v1n−2 = v1n−3 .

Para aclarar ideas presentamos el siguiente:

Ejemplo 9.35. Para este caso consideraremos la matriz


 
3 −1 1
A= 2 0 1 .
−2 1 0

Para esta matriz el polinomio característico es pA (λ) = −(λ − 1)3 , por lo que el
único autovalor de A es λ = 1. Ahora resolvemos el sistema (A − I)x = 0 para
encontrar los autovectores, esto es:

2x − y + z = 0
2x − y + z = 0
−2x + y − z = 0.

La solución para este sistema se obtiene de resolver 2x = y − z por lo que


nul(A−I) = 2 y obtendremos dos autovectores linealmente independientes. Dos
de los cuales son:    
1 0
v1 =  1  y v2 =  1  .
−1 1
Nuestro siguiente paso es calcular el vector generalizado de v1 , para ello necesi-
tamos una solución del sistema no homogéneo (A − I)x = v1 , a saber:

2x − y + z = 1
2x − y + z = 1
−2x + y − z = −1.
172 CAPÍTULO 9. FORMA CANÓNICA DE JORDAN

v11 = (1, 1, 0)t . De esta manera


Por ejemplo, una solución es: nuestra base
es      
 1 1 0 
β =  1 , 1 , 1  .
−1 0 1
 

Además tenemos que

   
0 1 0 1 1 0
[A − I]β =  0 0 0  y [A]β =  0 1 0 
0 0 0 0 0 0
siendo esta última la forma canónica de Jordan asociada a A.

Observación 9.36. Es necesario señalar que en ocasiones el sistema (A−aI)x =


v1 es inconsistente (no tiene solución) y en consecuencia no es posible encontrar
el vector v11 . En este caso consideramos el vector v2 para determinar la base
β , la cual tendrá la forma:

β = {v1 , v2 , v21 , v22 , . . . , v2n−2 }

y los vectores v21 , v22 , . . . , v2n−2 se obtienen de manera similar a (9.10), esto
es, mediante las siguientes igualdades:

(A − aI)v21 = v2 ,
(A − aI)v22 = v21 ,
.
.
. (9.11)

(A − aI)v2n−3 = v2n−4 ,
(A − aI)v2n−2 = v2n−3 .

Por último, podría suceder que tanto el sistema (A − aI)x = v1 así como
el sistema (A − aI)x = v2 son inconsistentes y por lo tanto es necesario buscar
una base distinta para ker(A − aI).

Para jar ideas consideramos el caso n=3 con A − aI nilpotente con índice
de nilpotencia dos. Suponga además que los autovectores obtenidos son {v1 , v2 }
y que los sistemas (A + I)x = v1 y (A + I)x = v2 son inconsistentes.
Ahora, como mencionamos anteriormente en este caso es necesario conside-
rar una nueva base para ker(A + I). En este caso la estrategia es la siguiente:

Recordando la Proposición 9.32, la base la obtenemos considerando las ecua-


ciones (9.10), vea también (9.11). En este caso el primer sistema que debemos
considerar es:
(A + I)x = α1 v1 + α2 v2 , αi ∈ F.
9.5. FORMA CANÓNICA DE JORDAN DE MATRICES NO DIAGONALIZABLES173

Los escalares α1 y α2 los tomaremos tales que el sistema sea consistente. En-
tonces, obtenemos el vector u tal que

(A + I)u = α1 v1 + α2 v2 ,

y la base buscada es:


β := {α1 v1 + α2 v2 , u, vi }
donde vi es alguno de los autovectores iniciales, elegido de tal manera que β sea
base. Además la forma canónica de Jordan asociada a A es
 
a 1 0
 0 a 0 
0 0 a

En general lo que buscamos es un vector u ∈ ker(A + I)2 \ ker(A + I), y la


base es β = {(A+I)(u), u, vi } con vi linealmente independiente a (A+I)(u) y u.

Ejemplo 9.37. Tomamos la matriz

 
−1 −3 −9
A= 0 5 18  .
0 −2 −7

Para esta matriz tenemos pA (λ) = −(λ + 1)3 y mA (λ) = (λ + 1)2 y por tal
motivo A + I es nilpotente con índice de nilpotencia 2. Además A + I es tal que
ker(A + I)2 = F 3 y ker(A + I) = S−1 .

Al calcular los autovectores de A obtenemos que λ = −1 es un autovalor de


multiplicidad geométrica 2 y multiplicidad algebraica 3.

Los autovectores obtenidos son:

  
1 0
v1 =  0  , v2 =  −3  ,
0 1
y para estos vectores los sistemas (A + I)x = v1 y (A + I)x = v2 son inconsis-
tentes, tal como lo puede vericar el lector.

Procederemos en consecuencia a resolver el sistema (A + I)x = α1 v1 + α2 v2 ,


para αi ∈ F . Esto es,

−3y − 9z = α1
6y + 18z = −3α2
−2y − 6z = α2
174 CAPÍTULO 9. FORMA CANÓNICA DE JORDAN

y para que este sistema sea consistente es necesario que se cumpla −2α1 =
−3α2 , por lo que tomamos α1 = 3 y α2 = 2. De esta manera, la ecuación a
resolver es −3y − 9z = 3 de la cual obtenemos que

3 + 9z
y=− .
3

En consecuencia, un vector solución del sistema es

 
0
u =  −4 
1

el cual es el vector generalizado correspondiente al vector 3v1 +2v2 = (−3, 6, 2)t ,


la base buscada es:

     
 3 0 1 
β =  −6  ,  −4  ,  0 
2 1 0
 

y la forma canónica de Jordan asociada a la matriz A es:

 
−1 1 0
 0 −1 0 .
0 0 −1

A continuación veremos el procedimiento a seguir para el caso general, esto


es: A tiene varios autovalores defectivos.

9.5.3. Varios autovalores defectivos


En el caso general, contamos con una matriz A ∈ Mn×n (F ) con s autovalo-
res distintos por lo que el polinomio característico es de la forma

pA (λ) = (λ − a1 )n1 (λ − a2 )n2 · · · (λ − as )ns

con n1 + n2 + · · · + ns = n. Por otra parte, ya que el polinomio mínimo y el po-


linomio característico tiene los mismos factores, entonces el polinomio mínimo
tiene la siguiente forma:

mA (λ) = (λ − a1 )r1 (λ − a2 )r2 · · · (λ − as )rs .

Utilizando lo anterior tenemos una manera expresar la matriz A como una


matriz diagonal por bloques, tal que para cada autovalor ai se tiene un bloque
9.5. FORMA CANÓNICA DE JORDAN DE MATRICES NO DIAGONALIZABLES175

de la forma
 
BJt1 (ai ) 0 0 ··· 0

 0 BJt2 (ai ) 0 ··· 0 

M J(ai ) = 
 0 0 BJt3 (ai ) · · · 0 

. . . ..
. . .
 
 . . . . 0 
0 0 0 ··· BJtsi (ai )

donde t1 = r1 y t2 , t3 , . . . , tsi ≤ ri con t1 + t2 + · · · + tsi = ni . Además se cumple


que en la base β la matriz A se describe como:

 
M J(a1 ) 0 0 ··· 0

 0 M J(a2 ) 0 ··· 0 

[A]β = 
 0 0 M J(a3 ) · · · 0 .

(9.12)
. . . ..
. . .
 
 . . . . 0 
0 0 0 ··· M J(as )

En general se cumple el siguiente resultado

Teorema 9.38. Sea A ∈ Mn×n (F ) una matriz tal que

pA (λ) = (λ − a1 )n1 (λ − a2 )n2 · · · (λ − as )ns

y
mA (λ) = (λ − a1 )r1 (λ − a2 )r2 · · · (λ − as )rs .
Entonces A tiene una matriz canónica de Jordan asociada de la forma (9.12).

Para jar ideas consideraremos el siguiente par de ejemplos:

Ejemplo 9.39. En este ejemplo trabajaremos con una matriz con dos autova-
lores distintos y ambos defectivos. En este caso tratamos cada valor defectivo
como en el procedimiento 9.10.

Tomamos la matriz A dada por

 
3 −2 4
 2 −4 14 
1 −3 9

y determinemos su Forma Canónica de Jordan asociada. Para ello, el primer


paso será calcular los autovalores. Con este n tenemos que

 
3−λ −2 4
A − λI =  2 −4 − λ 14 
1 −3 9−λ
176 CAPÍTULO 9. FORMA CANÓNICA DE JORDAN

pA (λ) = −(λ − 2)(λ − 3)2 . Es un ejerci-


Por lo que el polinomio característico es:
2
cio para el lector comprobar que mA = (λ − 2)(λ − 3) . De lo anterior vemos que
los autovalores de la matriz son λ1 = 2 y λ2 = 3, este último con multiplicada
algebraica dos. Además del polinomio minimal observamos que la Forma Canó-
nica de Jordan Asociada a la matriz A tiene un bloque de la forma BJ1 (3) y un
bloque del a forma BJ2 (3). Teniendo de esta manera que la matriz de Jordan es:
 
2 0 0
J = 0 3 1 
0 0 3
A continuación vericaremos esta armación calculando los autovectores y
la base β correspondiente.

Primero consideramos λ1 = 2
 
1 −2 4
A − 2I =  2 −6 14 
1 −3 7

y el sistema de ecuaciones obtenido es:

x − 2y + 4z = 0
2x − 6y + 14z = 0
x − 3y + 7z = 0

obteniendo como solución al vector v1 = (2, 3, 1)t .

Ahora realizamos el mismo procedimiento para el autovalor λ2 = 3. Consi-


deramos la matriz

 
0 −2 4
A − 3I =  2 −7 14 
1 −3 6
de donde el sistema de ecuaciones es:

−2y + 4z = 0
2x − 7y + 14z = 0
x − 3y + 6z = 0

y la solución obtenida es v2 = (0, 2, 1)t . Note que este autovalor es defectivo y en


consecuencia la matriz A no es diagonalizable. El siguiente paso es determinar
el vector generalizado correspondiente y con ello la matriz de Jordan asociada.
Para ello seguimos el procedimiento dado en (9.10), es decir resolveremos el
9.5. FORMA CANÓNICA DE JORDAN DE MATRICES NO DIAGONALIZABLES177

sistema (A − 3I)v2,g = v2 explícitamente tendremos:

    
0 −2 4 x 0
 2 −7 14   y  =  2 
1 −3 6 z 1

De donde la solución es v2,g = (1, 2, 1)t el cual es el autovector generalizado


para λ2 = 3. Por lo tanto, la base

     
 2 0 1 
β =  3 , 2 , 2 
1 1 1
 

es tal que
 
2 0 0
[A]ββ =  0 3 1 .
0 0 3

la cual es la matriz de Jordan asociada a A.

Ejemplo 9.40. Para A dada por

 
2 1 1 0 0

 0 2 2 1 0 


 0 0 4 1 0 

 0 0 0 4 1 
0 0 0 0 4

se cumple que pA (λ) = (λ − 2)2 (λ − 4)3 . Por otro lado, se verica que
mA (λ) = pA (λ) y así la matriz de Jordan Asociada a A tiene un bloque BJ2 (2)
y BJ3 (4). En consecuencia, la matriz de Jordan es

 
2 1 0 0 0

 0 2 0 0 0 

J =
 0 0 4 1 0 .

 0 0 0 4 1 
0 0 0 0 4

Para vericar la información tendremos que calcular los valores y autovectores.


Para λ1 = 2 tenemos

 
0 1 1 0 0

 0 0 2 1 0 

A − 2I = 
 0 0 2 1 0 

 0 0 0 2 1 
0 0 0 0 2
178 CAPÍTULO 9. FORMA CANÓNICA DE JORDAN

El sistema obtenido es:

y−z = 0
2z + κ = 0
2z + κ = 0
2κ + ω = 0
ω = 0.

Siendo una solución v1 = (1, 0, 0, 0, 0)t . El siguiente paso es calcular el vector


generalizado para v1 . Para ello seguimos el procedimiento dado en (9.10). Esto
es, resolvemos el sistema (A − 2I)x = v1 el cual es

y−z = 1
2z + κ = 0
2z + κ = 0
2κ + ω = 0
ω = 0,

y donde una solución es v12 = (1, 1, 0, 0, 0).

Ahora para el autovalor λ2 = 4 se tiene

 
−2 1 1 0 0

 0 −2 2 1 0 

A − 4I = 
 0 0 0 1 0 
,
 0 0 0 0 1 
0 0 0 0 0
y el sistema asociado es:

−2x + y + z = 0
−2y + 2z + κ = 0
κ = 0
ω = 0

obteniendo como solución v2 = (1, 1, 1, 0, 0)t .


De este modo, es necesario determinar los distintos autovectores generaliza-
dos para v2 y para ello utilizaremos el procedimiento dado en (9.10). Es decir,
9.5. FORMA CANÓNICA DE JORDAN DE MATRICES NO DIAGONALIZABLES179

vamos a resolver (A − 4I)v21 = v2 , (A − 4I)v22 = v21 , (A − 4I)v23 = v22 . Y


así la base sería.
β = {v1 , v11 , v2 , v21 , v22 }
Entonces resolvemos el sistema (A − 4I)x = v2 , esto es

−2x + y + z = 1
−2y + 2z + κ = 1
κ = 1
ω = 0

y la solución al sistema es: v21 = (1, 1, 1, 1, 0)t , este es nuestro primer vector
generalizado para v2 .

El siguiente paso es resolver el sistema (A − 4I)x = v21 . Obteniendo el


sistema

−2x + y + z = 1
−2y + 2z + κ = 1
κ = 1
ω = 1

y la solución al sistema es: v22 = (1, 1, 1, 1, 1)t .

Corolario 9.41. Sea A ∈ Mn×n (F ) una matriz tal que

pA (λ) = (λ − a1 )n1 (λ − a2 )n2 · · · (λ − as )ns

y
mA (λ) = (λ − a1 )(λ − a2 ) · · · (λ − as ).
Entonces A es diagonalizable.

A continuación mostramos un ejemplo de este caso.

Ejemplo 9.42. Tomemos a A como la matriz denida por


 
3 −1 −1
A= 1 1 −1 
1 −1 1

Para este caso el polinomio característico es: pA (λ) = (λ − 1)(λ − 2)2 , por
lo que los autovalores son: a1 = 1 y a2 = 2 de multiplicidad algebraica 1 y dos
respectivamente. Por otro lado su polinomio minimal es: mA (λ) = (λ−1)(λ−2).
Así, por lo descrito anteriormente tendremos que la forma Canónica de Jordan
J asociada a la matriz A tiene un bloque del tipo BJ1 (1) y un bloque de tipo
180 CAPÍTULO 9. FORMA CANÓNICA DE JORDAN

BJ1 (2) además de tener un tercer bloque de la forma BJt (2) con t ≤ 1. En
conclusión J es diagonal, tal y como comprobaremos a continuación. Para ello
determinaremos los autovectores asociados:

Para λ=1 tendremos que


 
2 −1 −1
A−I = 1 0 −1 
1 −1 0
obteniendo el sistema

2x − y − z = 0
x−z = 0
x−y =0
y donde una solución es:
 
1
v1 =  1 
1
Ahora consideramos el autovalor λ = 2 y tendremos:
 
1 −1 −1
A − 2I =  1 −1 −1 
1 −1 −1
y el sistema correspondiente es:

x−y−z =0
por lo que la solución es:
       
x y+z 1 1
 y  =  y  = y 1 +z 0 
z z 0 1
En consecuencia, los autovectores obtenidos determinan una base y así la ma-
triz es diagonalizable tal y como se había establecido. Además se tiene que si
denimos como N a la matriz cuyas columnas corresponden a los autovectores
 
1 1 1
N = 1 1 0 
1 0 1
Entonces se cumple la siguiente igualdad

J = N −1 AN,
donde  
1 0 0
J = 0 2 0 .
0 0 2
9.5. FORMA CANÓNICA DE JORDAN DE MATRICES NO DIAGONALIZABLES181

9.5.4. Forma Canónica de Jordan para endomorsmos


Consideremos φ : U → U un endomorsmo para un espacio vectorial U
sobre F . Suponga que U es n- dimensional. Sea α = {u1 , u2 , . . . , un } una base
para U , entonces el endomorsmo φ tiene una matriz asociada [φ]α α.

Ahora bien, si hacemos A := [φ]α


α entonces denimos pφ (λ) = pA (λ). Note
que el polinomio característico del endomorsmo φ no depende de la base de la
matriz asociada A y por lo tanto no depende de la base β, vea Ejercicio 9.54.

De manera similar denimos los autovalores asociados al endomorsmo φ


como las raíces del polinomio característico de pA (λ).λ0 es
Similarmente, si
autovalor para φ entonces u ∈ U es un autovector para φ asociado a λ0 si
(φ−λ0 IdU )u = 0. Mas aún, u es un autovector de φ si ([φ]α α
α −λ0 I)[u]α = 0. Por
tal motivo el estudio realizado para el caso de las matrices, aplica similarmente
para cualquier endomorsmo φ.
Ejemplo 9.43. Sea φ : R3 → R3 un endomorsmo denido por

φ(x, y, z) = (−y, 4x + 4y, 3z).


Determinaremos los valores y autovectores asociados a φ así como una base β
para R3 tal que [φ]ββ es una matriz en Forma Canónica de Jordan.

Primero, observamos que


 
0 4 0
[φ]ee =  −1 4 0 
0 0 3
Entonces pφ (λ) = −(λ − 2)2 (λ − 3). Calculemos los autovectores asociados.
Para λ1 = 2
 
−2 4 0
([φ]ee − 2I) =  −1 2 0 
0 0 1
obteniendo el sistema

−2x + 4y = 0
−x + 2y = 0
z = 0
t
y la solución es (x, y, z) = (2y, y, z) y así v1 = (2, 1, 0)t . Por lo tanto el autovalor
λ1 = 2 es defectivo y buscamos su autovalor generalizado. Para ello resolvemos

−2x + 4y = 2
−x + 2y = 1
z = 0
182 CAPÍTULO 9. FORMA CANÓNICA DE JORDAN

de lo cual v11 = (3, 2, 0)t .

Ahora hacemos lo correspondiente con λ2 = 3


 
−3 4 0
([φ]ee − 3I) =  −1 1 0 
0 0 0

y el sistema a resolver es

−3x + 4y = 0
−x + y = 0.

A partir del sistema vemos que la solución es (0, 0, z) por lo que v2 = (0, 0, 1).
En conclusión, la forma canónica de Jordan asociada a φ es

 
2 1 0
[φ]ββ = 0 2 0 
0 0 3

donde la base es       
 2 3 0 
β =  1 , 2 , 0 .
0 0 1
 

Por otra parte, de la forma canónica de Jordan obtenida podemos concluir que
el polinomio minimal asociado a φ es

mφ (λ) = −pφ (λ) = (λ − 2)2 (λ − 3)

tal y como el lector puede vericarlo directamente.

Palabras clave: polinomio mínimo, teorema de Cayley-Hamilton, endo-


morsmo triangulable, endomorsmo nilpotente, bloque de Jordan, forma canó-
nica de Jordan.
9.6. EJERCICIOS 183

9.6. Ejercicios
Ejercicio 9.44. Demuestra que si A ∈ Mn×n (F ) y Adj(A) denota la matriz
adjunta asociada a la matriz A, entonces demuestre que (A)Adj(A) = |A|I .

Ejercicio 9.45. Sea q(x) ∈ F [x] y A, B ∈ Mn×n (F ) dos matrices similares,


−1
es decir A = C BC para una matriz invertible C . Demuestre que q(A) =
−1
C q(B)C.

Ejercicio 9.46. Demuestre que si β = {φr−1 (u), φr−2 (u), . . . , φ(u), u} es la ba-
se dada en la Proposición 9.20 y W el subespacio vectorial generado por β .
Entonces demuestra que:

1. La restricción de φ al subespacio vectorial W es un endomorsmo de W.


2. El vector φr−1 (u) es un autovector del endomorsmo φ|W .

Ejercicio 9.47. Demuestra que si φ : U → U es un endomorsmo nilpotente


con índice de nilpotencia r, entonces mφ (λ) = λr .

Ejercicio 9.48. Dada la existencia del polinomio 9.2 demuestra que existe un
polinomio de grado mínimo que se anula en A.

Ejercicio 9.49. Demuestra que el bloque de Jordan BJn (0) es una matriz nil-
potente.

Ejercicio 9.50. Demuestra la Proposición 9.21.

Ejercicio 9.51. Demuestra la Proposición 9.24.

Ejercicio 9.52. Demuestra que si A ∈ Mn×n (F ) tiene un único autovalor a,


entonces aI − A es nilpotente.

Ejercicio 9.53. Demuestre que con la base β obtenida en la Ecuación 9.9 la


matriz [A]ββ corresponde a la matriz de la Ecuación 9.7.

Ejercicio 9.54.
Sea φ : U → U un endomorsmo para un espacio vectorial U sobre F . Suponga
que U es n- dimensional. Sean α y α′ dos bases para U . Demuestra que el
polinomio característico para φ no depende de la base elegida.

Ejercicio 9.55. Sean A, B ∈ Mn×n (F ) dos matrices similares, es decir A =


N −1 BN para alguna matriz invertible N . Demuestra que Am = N −1 B m N.

Ejercicio 9.56. Demuestra que si A ∼ B , entonces mA (λ) = mB (λ). Ayuda:


Utiliza el hecho de que pA (λ) = pB (λ) y que el polinomio mínimo divide al
polinomio característico, además del Ejercicio 9.55 .
184 CAPÍTULO 9. FORMA CANÓNICA DE JORDAN

Ejercicio 9.57. Sea V un espacio vectorial de dimensión n sobre un campo F.


Demuestra que un operador T : V → V es invertible si, y solo si, no tiene a
λ = 0 como valor propio asociado. Concluye que el polinomio característico de
T tiene término constante distinto de cero.

Ejercicio 9.58. Demuestra que si B una matriz invertible entonces B −1 se pue-


de escribir como un polinomio en términos de B . Ayuda: Utiliza el Ejercicio 9.57
y el Teorema de Cayley Hamilton.

Ejercicio 9.59. Sean a, b, c ∈ R tales que a ̸= c. Determina los valores de b para


los cuales la siguiente matriz es diagonalizable.

 
a b
b c

Ejercicio 9.60. Sea A la matriz denida por

 
1 −1 0
 −1 2 −1 
0 −1 1

Calcula lo siguiente:

1. Polinomio característico.

2. Polinomio minimal.

3. Encuentra una matriz invertible tal que N −1 AN sea diagonal.

Ejercicio 9.61.
 
−1 −3 −9
Sea A =  0 5 18 
0 −2 −7
1. Determina la forma canónica de Jordan de la matriz.

2. Describe el procedimiento que debes seguir para calcular la matriz inver-


tible M tal que M AM −1 = J
3. Calcula la matriz M mencionada en el inciso anterior.
Introducción a la Teorı́a de Códigos
10
La teoría de códigos es el estudio de métodos matemáticos para la transmi-
sión de datos de forma eciente y conable. Se relaciona con disciplinas como la
teoría de la información, las matemáticas puras, la ingeniería electrónica y las
ciencias computacionales, y algunos de sus usos principales son la compresión
de datos, criptografía, corrección de errores y, recientemente, códigos en red.
El escenario abstracto consiste en un emisor que envía un mensaje a un
receptor. Debido a que en cualquier canal de transmisión existe la posibilidad
de el mensaje sea distorsionado (por efectos externos), el objetivo es diseñar un
método que permita detectar o corregir los errores en la transmisión. Llamamos
ruido la distorsión que altera al mensaje en el canal de transmisión.
Un codicador es una función que añade redundancia a los mensajes. Un
mensaje con redundancia se llama palabra código, y la colección de todas éstas
es el código. El procesador de errores es el que se encarga de analizar las palabras
código para detectar las alteraciones.
Inspirados en la comunicación digital moderna, podemos suponer que el men-
saje a transmitir es una cadena de bits, es decir, una cadena de ceros y unos. La
transmisión de códigos en bloque, consiste en dividir los mensajes en subcade-
nas de bits de longitud ja, las cuales son llamadas los bloques del mensaje. El
codicador añade bits de redundancia a cada uno de estos bloques, los cuales
son transmitidos y analizados independientemente por el procesador de errores.

10.1. Deniciones básicas


Definición 10.1 (código lineal binario). Un código lineal binario es un subes-
pacio del espacio vectorial Zn2 .

Como en este capítulo el campo subyacente de nuestros espacios vectoriales


será Z2 , los únicos escalares son 0 y 1, por lo que la multiplicación escalar es
una operación trivial:

0v = 0, y 1v = v, ∀v ∈ Zn2 .

185
186 CAPÍTULO 10. INTRODUCCIÓN A LA TEORÍA DE CÓDIGOS

Por lo tanto, la Denición 10.1 puede reformularse de la siguiente manera: un


código lineal binario es un subconjunto C ⊆ Zn2 tal que:

para cualquier w1 , w2 ∈ C, la suma w1 + w2 también pertenece a C.

A los elementos de C se les llamapalabras código. En estas notas usamos


simplemente la palabra código para referirnos a un código lineal binario.
Ejemplo 10.2. Sea C = {(0, 0, 0), (1, 1, 1)} ⊆ Z32 . Es fácil vericar que C es un
subespacio:

(0, 0, 0) + (0, 0, 0) = (0, 0, 0) ∈ C,


(0, 0, 0) + (1, 1, 1) = (1, 1, 1) ∈ C,
(1, 1, 1) + (1, 1, 1) = (0, 0, 0) ∈ C.

Por lo tanto, C es un código.

Ejemplo 10.3. Sea C = {(0, 0, 0), (1, 1, 1), (1, 0, 0)} ⊆ Z32 . En este caso,

(1, 1, 1) + (1, 0, 0) = (0, 1, 1) ̸∈ C.

Por lo tanto, C no es un código.


Ejemplo 10.4. Sea C el subconjunto de Z42 de todos los vectores que tienen un
número par de unos. Explícitamente:
 
(0,0,0,0), (1,1,0,0), (1,0,1,0), (1,0,0,1),
C= .
(0,1,1,0), (0,1,0,1), (0,0,1,1), (1,1,1,1)

Aunque es bastante laborioso, es posible demostrar con cálculos directos que C


es un subespacio: es necesario comprobar que w1 +w2 ∈ C para toda w1 , w2 ∈ C.
n
En general, el subconjunto de todos los vectores de Z2 que tienen un número
par de unos es un código; demostrar esto se deja como ejercicio.

Definición 10.5 (Longitud, rango y tasa). Sea C ⊆ Zn2 un código.

1. La longitud de C es la dimensión de Zn2 .


2. El rango de C es la dimensión de C.
3. La tasa de C es la razón del rango entre la longitud de C.

Ejemplo 10.6. Sea C = {(0, 0, 0), (1, 1, 1)} ⊆ Z32 . La longitud de C es 3 =


dim(Z32 ). Debido a que {(1, 1, 1)} es una base de C, el rango de C es 1 = dim(C).
1
Por lo tanto, la tasa de C es .
3

Ejemplo 10.7. Sea C el subconjunto de Z42 de todos los vectores que tienen un
número par de unos. La longitud de C es 4 = dim(Z42 ). Demostraremos que

B = {(1, 0, 0, 1), (0, 1, 0, 1), (0, 0, 1, 1)}


10.2. MATRICES GENERADORAS Y VERIFICADORAS 187

es una base de C comprobando primero que todo vector distinto de cero en C


puede escribirse como la suma de vectores en B:

(1, 1, 0, 0) = (1, 0, 0, 1) + (0, 1, 0, 1), (1, 0, 1, 0) = (1, 0, 0, 1) + (0, 0, 1, 1),


(1, 0, 0, 1) = (1, 0, 0, 1), (0, 1, 1, 0) = (0, 1, 0, 1) + (0, 0, 1, 1),
(0, 1, 0, 1) = (0, 1, 0, 1), (0, 0, 1, 1) = (0, 0, 1, 1),
(1, 1, 1, 1) = (1, 0, 0, 1) + (0, 1, 0, 1) + (0, 0, 1, 1).

Además, el conjunto B es linealmente independiente porque si

α1 (1, 0, 0, 1) + α2 (0, 1, 0, 1) + α3 (0, 0, 1, 1) = (0, 0, 0, 0),

entonces α1 = 0, α2 = 0 y α3 = 0. Esto demuestra que el rango de C es


3
3 = dim(C), y, por lo tanto, la tasa de C es 4.

10.2. Matrices generadoras y vericadoras


Definición 10.8 (matriz generadora). Sea C un código de longitud n y rango
k . La matriz de n × k denida como
 
↑ ↑ ↑
G =  b1 b2 ... bk 
↓ ↓ ↓

donde las columnas {b1 , bk , ..., bk } forman una base de C, se llama matriz gene-
radora de C. La matriz generadora de C representa una transformación lineal

TG : Zk2 −→ Zn2

cuya imagen coincide con C.

Sea C n y rango k . Por denición, una matriz ge-


un código de longitud
neradora de C es una matriz G de n × k cuyas columnas son una base de C.
Decimos que G está en forma estándar si sus primeros k renglones son la base
k
canónica de Z2 ; es decir,
 
Ik
G= ,
M
donde Ik es la matriz identidad de k×k
M es una matriz de (n − k) × k .
y
Recordemos que una matriz generadora G de C representa una transforma-
k n
ción lineal Z2 → Z2 , donde n y k son la longitud y el rango de C, respectiva-
mente. Esta situación se puede interpretar de la siguiente forma. Supongamos
que los vectores de Zk2 son mensajes que queremos transmitir. Decimos que
codicamos un mensaje v ∈ Zk2 al multiplicarlo por la matriz generadora G.
Observemos que el vector Gv resultante de la multiplicación es una palabra
código de C.
188 CAPÍTULO 10. INTRODUCCIÓN A LA TEORÍA DE CÓDIGOS

Observación 10.9. Los vectores mensaje tienen k coordenadas porque son ele-
mentos de Zk2 mientras que las palabras código tienen n coordenadas porque son
n
elementos de C ⊆ Z2 . A las n − k coordenadas extra en cada palabra código las
llamamos bits de redundancia.

Ejemplo 10.10 (Triple Repetición). Consideremos el código C = {(0, 0, 0), (1, 1, 1)}
de longitud n = 3 y rango k = 1. Como {(1, 1, 1)} es la única base de C, la
matriz generadora de C es
 
1
G =  1 .
1

Esta matriz representa una transformación lineal Z2 → Z32 . En esta situación,


los vectores mensaje son elementos de Z2 = {0, 1} (cada vector tiene sólo una
coordenada). A continuación codicamos los posibles mensajes:

   
1 1
 1  (1) =  1  ∈ C
1 1
   
1 0
 1  (0) =  0  ∈ C.
1 0

Observemos que cada mensaje se codica como una palabra código haciendo la
triple repetición del contenido del mensaje.

Ejemplo 10.11 (Bit de Paridad). Sea C el subconjunto de Z42 de todos los vec-
tores que tienen un número par de unos. Recordemos que

B = {(1, 0, 0, 1), (0, 1, 0, 1), (0, 0, 1, 1)}

es una base de C. Por lo tanto, una matriz generadora de C es

 
1 0 0
 0 1 0 
G=
 0
.
0 1 
1 1 1

De hecho, G está en su forma estándar porque los primeros 3 renglones forman


a la matriz identidad. Debido a que C tiene rango k = 3, los vectores mensaje
son elementos de Z32 . Ilustramos cómo se codican algunos mensajes con los
10.2. MATRICES GENERADORAS Y VERIFICADORAS 189

siguientes ejemplos:

   
1 0 0   1
 0 1
 1 0 
 1  =  1
 
,
 0 0 1   0 
0
1 1 1 0
   
1 0 0   0
 0 0
 1 0   1
 1  = 

,
 0 0 1   0 
0
1 1 1 1
   
1 0 0   1
 0 1
 1 0   1
 1  = 

.
 0 0 1   1 
1
1 1 1 1

En general, cualquier mensaje (x1 , x2 , x3 ) ∈ Z32 se codica como

   
1 0 0   x1
 0 x 1
 1 0  
  x2  =  x2 
.
 0 0 1   x3 
x3
1 1 1 x1 + x2 + x3

Como podemos observar, las palabra código correspondiente a un mensaje es


igual al mensaje más un bit de redundancia (que toma valor igual a la suma
de las coordenadas) al que llamamos el bit de paridad. En esencia, el bit de
paridad es 0 o 1 dependiendo si el mensaje tiene un número par o impar de
unos, respectivamente.

Definición 10.12 (Matriz Verificadora). Sea C un código de longitud n y ran-


go k . Una matrix vericadora, o de comprobación, de C es una matriz H de
(n − k) × n con la siguiente propiedad:

Hw = ⃗0 si y sólo si w ∈ C.

Una matriz vericadora tiene la forma estándar si sus últimas (n − k) columnas


son la base canónica de Zn−k
2 .

Observación 10.13. Una matriz vericadora H dene una transformación li-


neal

H : Zn2 −→ Zn−k
2 ,
cuyo kernel coincide con C; es decir, ker (H) = C.
190 CAPÍTULO 10. INTRODUCCIÓN A LA TEORÍA DE CÓDIGOS

Teorema 10.14 (Relación con la matriz generadora estándar). Sea C un có-


digo de longitud n y rango k . La matriz
 
Ik
G=
M

es una matriz generadora estándar de C si y sólo si


H= M In−k

es una matriz vericadora estándar de C.

Ejemplo 10.15 (Bit de paridad). Sea C el subconjunto de Z42 de todos los vec-
tores que tienen un número par de unos y consideremos su matriz generadora
estándar  
1 0 0
 0 1 0 
G=
 0
.
0 1 
1 1 1

En este caso, M es la siguiente matriz de 1 × 3:

M = [ 1 1 1 ].

Por lo tanto, la matriz vericadora de C es

H = [ 1 1 1 1 ],

ya que en este caso In−k es la matriz identidad de 1 × 1. Observemos que, para


cualquier (x1 , x2 , x3 , x4 ) ∈ Z42 tenemos que
   
x1 x1
 x2   x2 
 x3  = (x1 + x2 + x3 + x4 ) = 0 si y sólo si  x3  ∈ C,
[ 1 1 1 1 ]   

x4 x4

ya que la suma x1 + x2 + x3 + x4 es cero si y sólo si (x1 , x2 , x3 , x4 ) tiene un


número par de unos.

10.3. Detección y corrección de errores


Definición 10.16 (Peso). Si v ∈ Zn2 es cualquier vector, el peso, denotado como
|v|, es el número de unos en las coordenadas de v .

Ejemplo 10.17. Consideremos el peso de los siguientes vectores:

1. |(0, 0, 0, 0)| = 0.
2. |(1, 0, 1, 1, 0, 0)| = 3.
10.3. DETECCIÓN Y CORRECCIÓN DE ERRORES 191

3. |(1, 1, 1)| = 3.
4. |(0, 0, 1, 0, 0, 0, 1)| = 2.

Definición 10.18 (Distancia de Hamming). Sean u y v dos vectores de Zn2 . La


distancia de Hamming entre u y v se dene como el peso de la suma u + v ; en
símbolos:
d (u, v) = |u + v|.

Ejemplo 10.19. Si u = (1, 1, 0) y v = (1, 0, 1), entonces

d (u, v) = |u + v| = | (1, 1, 0) + (1, 0, 1) | = |(0, 1, 1)| = 2.

Teorema 10.20 (Distancia de Hamming). La distancia de Hamming cumple


u, v, w ∈ Zn2 :
las siguientes propiedades para toda

(1) Es no negativa: d (u, v) ≥ 0, con igualdad si y sólo si u = v.


(2) Es simétrica: d (u, v) = d (v, u).
(3) Cumple la desigualdad del triángulo: d (u, v) ≤ d (u, w) + d (w, v).
Demostración.
(1) El número de unos de en u+v es una cantidad no negativa, así que d(u, v) =
|u + v| ≥ 0. Además,

d(u, v) = 0 ⇔ u + v no tiene unos ⇔ u + v = ⃗0 ⇔ u = v.

(2) Esa propiedad se deduce de la conmutatividad de la suma de vectores:

d(u, v) = |u + v| = |v + u| = d(v, u).

(3) Supongamos que u = (u1 , . . . , un ), v = (v1 , . . . , vn ) y w = (w1 , . . . , wn ).


Observemos que d(u, v) es igual al número de coordenadas donde u y v
dieren. Esto lo escribimos formalmente como

d(u, v) = |{i : ui ̸= vi }| .

Como {i : ui ̸= vi } es la unión disjunta de {i : ui ̸= vi y ui ̸= wi } y


{i : ui ̸= vi y ui = wi }, tenemos que

d(u, v) = |{i : ui ̸= vi y ui ̸= wi }| + |{i : ui ̸= vi y ui = wi }| .

Ahora,

|{i : ui ̸= vi y ui ̸= wi }| ≤ |{i : ui ̸= wi }| = d(u, w),


|{i : ui ̸= vi y ui = wi }| ≤ |{i : wi ̸= vi }| = d(w, v).

Por lo tanto, d(u, v) ≤ d(u, w) + d(w, v).


192 CAPÍTULO 10. INTRODUCCIÓN A LA TEORÍA DE CÓDIGOS


Sea C ⊆ Zn2 un código. Cuando se transmite una palabra código w∈C a
través de un canal, y se produce un error en el i-ésimo bit, el vector que se
recibe es
w′ = w + ei ∈ Zn2
donde ei = (0, . . . , 0, 1, 0, . . . , 0). Observemos que la distancia entre w y w′ es

d(w, w′ ) = |w + w′ | = |w + w + ei | = |⃗0 + ei | = |ei | = 1.


Similarmente, podemos demostrar que si se producen dos errores en bits distin-
tos, la distancia entre la palabra código enviada y el vector recibido será 2. En
general, tenemos la siguiente proposición.

Proposición 10.21. Sea C ⊆ Zn2 un código. Supongamos que se transmite una


palabra código w ∈ C a través de un canal, y se producen t ∈ N errores en bits

distintos. Entonces, la distancia entre w y el vector que se recibe w es igual a t.

De acuerdo a estas observaciones, un código será más eciente para detectar


errores si sus palabras código se encuentran lejanas entre sí. Por ejemplo, si dos
palabras código v, w ∈ C tienen distancia 1, basta con que se cometa un sólo
error en el bit adecuado para que se transmita w y se reciba v ; en esta situación,
es imposible que el destinatario identique si se ha producido un error o no, ya
que podría pensarse que se tansmitió correctamente la palabra código v.
Estas consideraciones sobre la distancia entre palabras código nos lleva a la
siguiente denición.

Definición 10.22 (Distancia Mı́nima). Denimos la distancia mínima de un có-


digo C como
d (C) = mı́n {d (v, w) : v, w ∈ C, v ̸= w} .
En general, mientras más grande sea la distancia mínima de un código, mayor
será su capacidad para detectar errores. El siguiente teorema proporciona una
forma equivalente y más sencilla de calcular la distancia mínima de un código.

Teorema 10.23 (Distancia Mı́nima). Sea C un código. La distancia mínima de


C es igual a su peso mínimo :

d (C) = mı́n |v| : v ∈ C, v ̸= ⃗0 .


n o

Ejemplo 10.24 (Triple repetición). La distancia mínima del código C = {(0, 0, 0), (1, 1, 1)}
es

d (C) = mı́n |v| : v ∈ C, v ̸= ⃗0 = mı́n{|(1, 1, 1)|} = |(1, 1, 1)| = 3.


n o

Ejemplo 10.25 (Bit de paridad). Sea C el subconjunto de Z42 de todos los vec-
tores que tienen un número par de unos (es decir, el conjunto de vectores en Z42
con peso par). Entonces,
 
(0,0,0,0), (1,1,0,0), (1,0,1,0), (1,0,0,1),
C= .
(0,1,1,0), (0,1,0,1), (0,0,1,1), (1,1,1,1)
10.3. DETECCIÓN Y CORRECCIÓN DE ERRORES 193

Por inspección, vemos que el peso mínimo de una palabra código distinta de
cero es 2. Por lo tanto,
d (C) = 2.

Ahora estudiaremos dos teoremas sobre la detección y corrección de errores.

Teorema 10.26 (Detección de Errores). Sea C un código. Existe un procesa-


dor de errores para C que detecte todos los errores en t∈N bits distintos si y
sólo si d (C) ≥ t + 1.

Demostración. Si d (C) ≥ t + 1, entonces el siguiente detector de errores D


puede detectar todos los errores en t bits:
(
′ No error, si w′ ∈ C,
D(w ) =
Error, si w′ ̸∈ C,

donde w′ es el vector recibido. Si H es la matriz vericadora de C, el detector


de errores D también puede escribirse de la siguiente manera:
(
′ No error, si Hw′ = ⃗0,
D(w ) =
Error, si Hw′ ̸= ⃗0.

Si d (C) ≤ t, entonces existen dos palábras código w, v ∈ C tales que


d(w, v) ≤ t: así, al cometer t errores o menos, es posible que se transmita w
y se reciba v , por lo cual es imposible que D detecte el error. □
Teorema 10.27 (Corrección de Errores). Sea C un código. Existe un proce-
sador de errores para C que corrige todos los errores en t∈N bits distintos si
y sólo si d (C) ≥ 2t + 1.

Demostración. Si d (C) ≥ 2t + 1, entonces el siguiente procesador de errores P


puede corregir todos los errores en t bits:
(

′ w, si existe w ∈ C tal que d(w, w ) ≤ t,
P (w ) =
Error, en otro caso,

donde w′ es el vector recibido. □


Los detectores y correctores de errores en los siguientes ejemplos son ilus-
traciones particulares de los detectores y correctores de errores descritos en los
párrafos anteriores.

Ejemplo 10.28 (Triple repetición). Como el código C = {(0, 0, 0), (1, 1, 1)} tie-
ne distancia mínima 3, existe un procesador de errores D para C que detecta
todos los errores en 2 bits distintos, pero no en 3 bits distintos. Este procesador
′ 3
de errores D funciona como sigue: para cualquier vector w ∈ Z2 recibido,
(
′ ′
No error si |w | = 0 o |w | = 3,
D(w′ ) = ′ ′
Error si |w | = 1 o |w | = 2.
194 CAPÍTULO 10. INTRODUCCIÓN A LA TEORÍA DE CÓDIGOS

Además, existe un procesador de errores P para C que corrige todos los errores
en 1 bit que funciona como sigue: para cualquier w′ ∈ Z32 recibido,
(
w = (1, 1, 1) si d((1, 1, 1), w′ ) ≤ 1,
P (w′ ) =
w = (0, 0, 0) si d((0, 0, 0), w′ ) ≤ 1.

Equivalentemente, podemos escribir este procesador de errores como


(
w = (1, 1, 1) si |w′ | ≥ 2,
P (w′ ) =
w = (0, 0, 0) si |w′ | ≤ 1.

Por ejemplo, si se recibe el vector w′ = (1, 0, 0), el procesador de errores asume


que ocurrió un error en el primer bit y lo corrige como w = (0, 0, 0). Por otro
lado, si se recibe el vector w′ = (1, 0, 1), el procesador de errores asume que
ocurrió un error en el segundo bit y lo corrige como w = (1, 1, 1). Si ocurren
errores en dos bits distintos, el procesador de errores corregirá el vector recibido
equivocadamente. Observemos que en este caso el procesador P no tiene la
opción de Error porque siempre existe una palabra código w ∈ C tal que
d(w, w′ ) ≤ 1.

Ejemplo 10.29 (Bit de paridad). Sea C el subconjunto de Z42 de todos los vec-
tores con peso par. Como d (C) = 2, existe un procesador de errores D para C
que detecta errores en 1 bit. Este procesador de errores funciona como sigue:
′ 3
para cualquier w ∈ Z2 recibido,

(

′ No error si |w | es par,
D(w ) = ′
Error si |w | es impar.

Este procesador no puede detectar errores en 2 bits distintos. Por ejemplo, si


se transmite la palabra código (1, 0, 1, 0) y se producen errores en el primer y
segundo bit, se recibe el vector (0, 1, 1, 0) el cual tiene peso par, por lo que D
no reporta error. Por otro lado, no existe ningún procesador de errores para C
que corrija errores.

10.4. Códigos de Hamming


Los códigos de Hamming son una familia importante de códigos linea-
les binarios con varias propiedades excepcionales. Para cada número natural
r ≥ 2, el siguiente algoritmo describe la construcción de la matriz vericado-
ra del código de Hamming Ham(r) el cual tiene longitud n = 2r − 1 y rango
r
k = 2 − r − 1.
Definición 10.30 (algoritmo del código de Hamming). Matriz Vericado-
ra de Ham(r):
Entrada: Un número natural r ≥ 2.
10.4. CÓDIGOS DE HAMMING 195

Procedimiento: Construir una matriz Hr cuyas columnas son todos los


vectores distintos de cero del espacio Zr2 . La matriz Hr debe tener r ren-
glones y 2r − 1 columnas.

Salida: Una matriz vericadora Hr de Ham(r).

Ejemplo 10.31 (Ham (3)). Construiremos el código de Hamming con r = 3,


3 3
el cual tiene longitud n = 2 − 1 = 7 y rango k = 2 − 3 − 1 = 4. El espacio
3
vectorial Z2 tiene 7 vectores distintos de cero:

(1, 0, 0), (0, 1, 0), (0, 0, 1),


(0, 1, 1), (1, 0, 1), (1, 1, 0), (1, 1, 1).

De acuerdo al Algoritmo 10.30, estos vectores forman las columnas de una matriz
vericadora H3 de Ham(3). Para construir esta matriz en su forma estándar,
escribimos la base canónica en las últimas tres columnas de H3 ; el orden del
resto de las columnas de H3 puede elegirse de manera arbitraria. Por ejemplo,
la siguiente es una matriz vericadora H3 :
 
1 0 1 1 1 0 0
H3 =  1 1 1 0 0 1 0 .
0 1 1 1 0 0 1

En este caso, la matriz M del Teorema 10.14 que relaciona a la matriz verica-
dora con la generadora es la siguiente

 
1 0 1 1
M = 1 1 1 0 .
0 1 1 1

Por lo tanto, una matriz generadora G3 de Ham (3) en forma estándar es

 
1 0 0 0

 0 1 0 0 


 0 0 1 0 

G3 = 
 0 0 0 1 


 1 0 1 1 

 1 1 1 0 
0 1 1 1

Por denición de matriz generadora, el conjunto

B = {(1, 0, 0, 0, 1, 1, 0), (0, 1, 0, 0, 0, 1, 1), (0, 0, 1, 0, 1, 1, 1), (0, 0, 0, 1, 1, 0, 1)} ⊆ Z72

es una base de Ham(3).


Por ejemplo, si queremos transmitir el mensaje (1, 0, 0, 1) ∈ Z42 , debemos
196 CAPÍTULO 10. INTRODUCCIÓN A LA TEORÍA DE CÓDIGOS

multiplicar por la matriz generadora

   
1 0 0 0 1
   0 1 0 0    0 
1   1  

 0   0 0 1 0   0 
 0  
 
G  = 
  0 0 0 1  = 1 .
0   0   
 1 0 1 1   0 
1   1  
 1 1 1 0   1 
0 1 1 1 1

Podemos comprobar que (1, 0, 0, 1, 0, 1, 1) ∈ Z72 efectivamente pertenece al códi-


go multiplicando por la matriz vericadora

 
1


 0 
  
1 0 1 1 1 0 0  0  0
HwT =  1
 
1 1 0 0 1 0 
 1  =  0 .

0 1 1 1 0 0 1  0 
 0
 1 
1

Ejemplo 10.32 (Ham(4)). Construiremos el código de Hamming con r = 4, el


4 4
cual tiene longitud n = 2 − 1 = 15 y rango k = 2 − 4 − 1 = 11. El espacio
4
vectorial Z2 tiene 15 vectores distintos de cero:

(1, 0, 0, 0), (0, 1, 0, 0), (0, 0, 1, 0), (0, 0, 0, 1), (1, 1, 0, 0),
(1, 0, 1, 0), (1, 0, 0, 1), (0, 1, 1, 0), (0, 1, 0, 1), (0, 0, 1, 1),
(1, 1, 1, 0), (1, 1, 0, 1), (1, 0, 1, 1), (0, 1, 1, 1), (1, 1, 1, 1).

De acuerdo al Algoritmo 10.30, estos vectores forman las columnas de una matriz
vericadora H4 de Ham(4). Para construir esta matriz en su forma estándar,
escribimos la base canónica en las últimas tres columnas de H4 ; el orden del
resto de las columnas de H4 puede elegirse de manera arbitraria. Por ejemplo,
la siguiente es una matriz vericadora H4 :
 
1 1 1 0 0 0 1 1 1 0 1 1 0 0 0
 1 0 0 1 1 0 1 1 0 1 1 0 1 0 0 
H4 = 
 0
.
1 0 1 0 1 1 0 1 1 1 0 0 1 0 
0 0 1 0 1 1 0 1 1 1 1 0 0 0 1

En este caso, la matriz M del Teorema 10.14 que relaciona a la matriz verica-
dora con la generadora es la siguiente

 
1 1 1 0 0 0 1 1 1 0 1
 1 0 0 1 1 0 1 1 0 1 1 
M =
 0
.
1 0 1 0 1 1 0 1 1 1 
0 0 1 0 1 1 0 1 1 1 1
10.4. CÓDIGOS DE HAMMING 197

Por lo tanto, una matriz generadora G4 de Ham (4) en forma estándar es


 
1 0 0 0 0 0 0 0 0 0 0

 0 1 0 0 0 0 0 0 0 0 0 


 0 0 1 0 0 0 0 0 0 0 0 


 0 0 0 1 0 0 0 0 0 0 0 


 0 0 0 0 1 0 0 0 0 0 0 


 0 0 0 0 0 1 0 0 0 0 0 


 0 0 0 0 0 0 1 0 0 0 0 

G4 = 
 0 0 0 0 0 0 0 1 0 0 0 .


 0 0 0 0 0 0 0 0 1 0 0 


 0 0 0 0 0 0 0 0 0 1 0 


 0 0 0 0 0 0 0 0 0 0 1 


 1 1 1 0 0 0 1 1 1 0 1 


 1 0 0 1 1 0 1 1 0 1 1 

 0 1 0 1 0 1 1 0 1 1 1 
0 0 1 0 1 1 0 1 1 1 1
Teorema 10.33. Para cualquier r ≥ 2, la distancia mínima del código Ham (r)
es
d (Ham(r)) = 3.
El código Ham (r) puede corregir errores de un bit de la siguiente manera.
Supongamos que enviamos la palabra código w ∈ Ham (3) a través de un canal
con ruido y recibimos w′ = w + ei , donde ei representa un error en el i-ésimo

bit; es decir, ei = (0, ..., 1, ..., 0). ¾Cómo podemos recuperar w a partir de w ?
Usaremos la matriz vericadora H = Hr :

Hw′ = H (w + ei ) = Hw + Hei = 0 + Hei = Hei .


Como, Hei es igual a la i-ésima columna de H, así que Hw′ tembién es igual a
la i-ésima columna de H . Esto nos permite identicar que el error de bit ocurrió
en la i-ésima posición.

Ejemplo 10.34. Por ejemplo, supongamos que, en lugar de recibir w = (1, 0, 0, 1, 0, 1, 1) ∈


Ham (3), se produce un error de bit y recibimos w′ = (1, 0, 1, 1, 0, 1, 1). Usamos

la matriz vericadora para corregir w :
 
1
 0 
     
1 0 1 1 1 0 0  1  1
T
H (w′ ) =  1 1 1 0 0 1 0  
 
 1 =
  1 .
0 1 1 1 0 0 1  0 
  1
 1 
1
El vector (1, 1, 1) corresponde a la tercera columna de la matriz vericadora, lo
que implica que el error de bit ocurrió en el tercer bit. Por lo tanto podemos
corregir (1, 0, 1, 1, 0, 1, 1) a (1, 0, 0, 1, 0, 1, 1).
198 CAPÍTULO 10. INTRODUCCIÓN A LA TEORÍA DE CÓDIGOS

Ejemplo 10.35. Supongamos que queremos transmitir el mensaje

v = (1, 0, 1, 0, 1, 0, 1, 0, 1, 0, 1)

por un canal con ruido y queremos añadir redundancia usando el código Ham(4).
Multiplicamos la matriz generadora para obtener la palabra código a transmitir:

   
1 0 0 0 0 0 0 0 0 0 0 1

 0 1 0 0 0 0 0 0 0 0 0 
 

 0 


 0 0 1 0 0 0 0 0 0 0 0 
 1 
 1 


 0 0 0 1 0 0 0 0 0 0 0 
 0  
  0 


 0 0 0 0 1 0 0 0 0 0 0 
 1  
  1 


 0 0 0 0 0 1 0 0 0 0 0 
 0  
  0 


 0 0 0 0 0 0 1 0 0 0 0 
 1  
  1 

w=
 0 0 0 0 0 0 0 1 0 0 0 
 0 =
  0 .


 0 0 0 0 0 0 0 0 1 0 0 
 1  
  1 


 0 0 0 0 0 0 0 0 0 1 0 
 0  
  0 


 0 0 0 0 0 0 0 0 0 0 1 
 1  
  1 


 1 1 1 0 0 0 1 1 1 0 1 
 0  
 1 


 1 0 0 1 1 0 1 1 0 1 1 
 1 
 0 

 0 1 0 1 0 1 1 0 1 1 1   1 
0 0 1 0 1 1 0 1 1 1 1 0

Supongamos que en lugar de recibir w se produce un error en el sexto bit y se


recibe
w′ = (1, 0, 1, 0, 1, 1, 1, 0, 1, 0, 1, 1, 0, 1, 0).
Para corregir el error, multiplicamos w′ por la matriz vericadora:

 
1

 0 


 1 


 0 


 1 

  1   
1 1 1 0 0 0 1 1 1 0 1 1 0 0 0   0
 1
 1 
0 0 1 1 0 1 1 0 1 1 0 1 0 0    0 

 0
 0 = .
1 0 1 0 1 1 0 1 1 1 0 0 1 0    1 
 1 
0 0 1 0 1 1 0 1 1 1 1 0 0 0 1   1

 0 


 1 


 1 


 0 

 1 
0

Como (0, 0, 1, 1) es igual a la sexta columna de la matriz vericadora, esto indica


que se produjo un error en el sexto bit.
10.4. CÓDIGOS DE HAMMING 199

Palabras clave: código lineal binario, longitud, rango, tasa, matriz ge-
neradora, matriz vericadora, peso, distancia de Hamming, distancia mínima,
código de Hamming.
200 CAPÍTULO 10. INTRODUCCIÓN A LA TEORÍA DE CÓDIGOS

10.5. Ejercicios
Ejercicio 10.36. Determina si los siguientes conjuntos son códigos lineales bi-
narios. En caso de que lo sean, calcula su longitud, rango, tasa, distancia mínima
y matriz generadora y vericadora estándar.

1. {(0, 0), (1, 0), (0, 1), (1, 1, 1)}.


2. {(0, 0, 0), (1, 0, 0)}.
3. {(1, 0, 0), (0, 1, 0), (1, 1, 0)}.

4. {(0, 0, 0, 0), (0, 1, 0, 1), (0, 0, 1, 0), (1, 0, 0, 0), (1, 1, 1, 1)}.
5. {(0, 0, 0, 0, 0), (1, 1, 0, 0, 0), (1, 0, 1, 0, 0), (0, 1, 1, 0, 0)}.
6. {(0, 0, 0, 0), (0, 1, 1, 1), (1, 0, 0, 0), (1, 1, 1, 1)}.
7. {(0, 0, 0, 0), (1, 1, 0, 0), (0, 0, 1, 1)}.

8. {(0, 0, 0, 0), (1, 0, 1, 1), (1, 1, 0, 0), (0, 1, 1, 1), (0, 0, 0, 1), (1, 0, 1, 0), (1, 1, 0, 1), (0, 1, 1, 0)}.
9. {(0, 0, 0, 0), (1, 1, 1, 1), (0, 1, 0, 0), (0, 1, 0, 1), (1, 0, 1, 1), (1, 0, 1, 0), (0, 0, 0, 1), (1, 1, 1, 0)}.
10. {(0, 0, 0, 0), (1, 1, 1, 1), (0, 0, 0, 1), (1, 0, 0, 0), (1, 0, 0, 1), (0, 1, 0, 0), (1, 1, 0, 0), (0, 1, 0, 0)}.

Ejercicio 10.37. Sean v, w ∈ Zn2 . Supongamos que v = (v1 , . . . , vn ), y conside-


remos el siguiente conjunto de índices: I(v) = {i : vi = 1}. Denimos el peso de
v como p(v) = |I(v)|. Demuestra lo siguiente:

1. p(v + w) = |(I(v) ∪ I(w)) \ (I(v) ∩ I(w))|.


2. p(v + w) = p(v) + p(w) − 2|I(v) ∩ I(w)|.
3. El conjunto S = {v ∈ Zn2 : p(v) es par} es un subespacio de Zn2 .

Ejercicio 10.38. Encuentra todas las palabras código de Ham(3). ¾Cuantas


hay? Encuentra dos palabras código cuya distancia entre sí sea igual a 3.

Ejercicio 10.39. Usando Ham(3), supongamos que el receptor recibe el mensaje


(1, 0, 0, 1, 0, 1, 0). Identica si ocurrió un error en la transmisión. Suponiendo que
ocurrió sólo un error de bit, corrige el mensaje recibido.
Bibliografı́a

[1] Axler, Sheldon, Linear Algebra Done Right, Tercera Edición, Undergraduate
Texts in Mathematics, Springer International Publishing, 2015.

[2] Castillo Pérez, A., Castillo Ramírez, A., De la Cruz García, E. L., Hernández
Magdaleno, A. M., Conjuntos y Números, Editorial Universitaria, Centro
Universitario de Ciencias Exactas e Ingenierías, Universidad de Guadalajara,
2014.

[3] Castillo Ramírez, Alonso, Un curso en teoría de grupos, Publicaciones Elec-


trónicas, Sociedad Matemática Mexicana, Serie Textos, Vol. 23, 2021.

[4] Hernández Magdaleno, A. M., Castillo Ramírez, A., Álgebra Moderna: Ani-
llos y Campos, Editorial Universitaria, Centro Universitario de Ciencias
Exactas e Ingenierías, Universidad de Guadalajara, 2012.

[5] Lluis-Puebla, Emilio, Álgebra Lineal, Álgebra Multilineal y K-Teoría Alge-


braica Clásica, Publicaciones Electrónicas 9, Sociedad Matemática Mexica-
na, 2008.

[6] Roman, S., Advanced Linear Algebra, Tercera Edición, Graduate Texts in
Mathematics 135, Springer, 2008.
[7] Rose, H.E., Linear Algebra: A Pure Mathematical Apporach. Birkhäuser,
2002.

[8] Pretzel, O., Error-Correcting Codes and Finite Fields, Oxford University
Press, 1992.

[9] Zaldívar, Felipe, Introducción al álgebra lineal, Papirhos, IM-UNAM, México,


2019.

201

También podría gustarte