75% encontró este documento útil (4 votos)
429 vistas484 páginas

Algebra Lineal

El documento es un texto académico sobre álgebra lineal escrito por Ignacio L. Iribarren, publicado por la Academia de Ciencias Físicas, Matemáticas y Naturales y la Universidad Simón Bolívar. Contiene capítulos que abordan temas como espacios vectoriales, transformaciones lineales, matrices, determinantes, anillos, módulos y espacios euclídeos, además de ejercicios para cada sección. La obra ha sido sometida a un proceso de arbitraje y está destinada a la difusión de investigaciones científicas relevantes.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
75% encontró este documento útil (4 votos)
429 vistas484 páginas

Algebra Lineal

El documento es un texto académico sobre álgebra lineal escrito por Ignacio L. Iribarren, publicado por la Academia de Ciencias Físicas, Matemáticas y Naturales y la Universidad Simón Bolívar. Contiene capítulos que abordan temas como espacios vectoriales, transformaciones lineales, matrices, determinantes, anillos, módulos y espacios euclídeos, además de ejercicios para cada sección. La obra ha sido sometida a un proceso de arbitraje y está destinada a la difusión de investigaciones científicas relevantes.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

C O L E C C I Ó N C O N J U N TA A C F I M A N/ U S B

Álgebra
lineal
Ignacio L. Iribarren

ACFIMAN
Academia de Ciencias
Físicas, Matemáticas
y Naturales
Álgebra Lineal

Ignacio L. Iribarren
COLECCIÓN CONJUNTA A C F I M A N / U S B
La Academia de Ciencias Físicas, Matemáticas y Naturales y la Universidad
Simón Bolívar unen sus proyectos editoriales con el fin de dar la mejor
difusión a investigaciones científicas de especial relevancia.

Álgebra lineal
Ignacio L. Iribarren

Todas las obras publicadas bajo nuestro sello han sido sometidas a un proceso de arbitraje.
©2018 Editorial Equinoccio
Reservados todos los derechos. Queda rigurosamente prohibida, sin autorización escrita de los titulares
del Copyright, bajo las sanciones establecidas en las leyes, la reproducción parcial o total de esta obra por
cualquier medio o procedimiento, incluidos la reprografía, la digitalización y cualquier otro tratamiento
informático, así como su difusión parcial o total por los distintos medios de comunicación incluyendo los
electrónicos.
Director
Cristian Álvarez
Editor Jefe
Evelyn Castro
Coordinadora de producción
Patricia González
Administración
Nelson González
Diseño gráfico
Cristin Medina, Luis Müller
Diagramación de este volumen
Jacqueline Geille
Corrección
Gabriel Rodríguez

Hecho el depósito de ley


Depósito legal lfi24420155102066
ISBN 978-980-237-396-3

Universidad Simón Bolívar, Caracas, Venezuela


RIF. G-200000063-5
Teléfono +58 212 9063162
[email protected]
www.equinoccio.com.ve

Academia de Ciencias Físicas,


Matemáticas y Naturales
RIF. J-00248572-8
A Maui
C ONTENIDO

P RÓLOGO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11

PARTE I Espacios vectoriales y matrices

C APÍTULO 1
Espacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17

1.1 Concepto y propiedades básicas . . . . . . . . . . . . . . . . . . . 17


1.1.1 Algunos ejemplos. . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.2 Subespacios. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
1.3 Espacios cocientes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
1.4 Espacios de dimensión finita. . . . . . . . . . . . . . . . . . . . . . 27
1.5 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35

C APÍTULO 2
Transformaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41

2.1 Concepto y propiedades básicas . . . . . . . . . . . . . . . . . . . 41


2.2 Teoremas del isomorfismo . . . . . . . . . . . . . . . . . . . . . . . 53
2.3 Espacios de transformaciones lineales . . . . . . . . . . . . . . 55
2.4 El espacio dual . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
2.5 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60

5
Publicación digital de Editorial Equinoccio
C ONTENIDO

C APÍTULO 3
Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67

3.1 Concepto de matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67


3.2 Matriz asociada a una transformación lineal . . . . . . . . . 68
3.3 Cambios de bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
3.4 La transformación dual . . . . . . . . . . . . . . . . . . . . . . . . . . 84
3.5 Transformaciones elementales . . . . . . . . . . . . . . . . . . . . 89
3.6 Matrices similares. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
3.7 Sistemas de ecuaciones lineales . . . . . . . . . . . . . . . . . . . 104
3.8 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113

C APÍTULO 4
Determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121

4.1 Determinante de una matriz cuadrada . . . . . . . . . . . . . . 122


4.2 Propiedades de los determinantes . . . . . . . . . . . . . . . . . . 125
4.3 Productos de determinantes . . . . . . . . . . . . . . . . . . . . . . 135
4.4 El adjunto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140
4.5 Regla de Cramer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143
4.6 Otros desarrollos de un determinante . . . . . . . . . . . . . . . 145
4.7 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153

PARTE II Anillos y módulos

C APÍTULO 5
Anillos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 163

5.1 Anillos, dominios de integridad y cuerpos . . . . . . . . . . . 163


5.2 Ejemplos de anillos, dominios y cuerpos . . . . . . . . . . . . 166
5.3 Ideales y anillos cocientes. . . . . . . . . . . . . . . . . . . . . . . . 169
5.4 Dominios de integridad. . . . . . . . . . . . . . . . . . . . . . . . . . 175

6
Publicación digital de Editorial Equinoccio
5.5 Dominios de ideal principal (DIP) . . . . . . . . . . . . . . . . . 179
5.6 Dominios euclideanos (DE) . . . . . . . . . . . . . . . . . . . . . . 188
5.7 Polinomios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 195
5.8 Funciones polinómicas . . . . . . . . . . . . . . . . . . . . . . . . . . 202
5.9 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 207

C APÍTULO 6
Módulos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 213

6.1 Concepto y propiedades básicas . . . . . . . . . . . . . . . . . . . 213


6.2 Submódulos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 216
6.3 Módulos cocientes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 222
6.4 Homomorfismos entre módulos . . . . . . . . . . . . . . . . . . . 224
6.5 Teoremas del isomorfismo (módulos). . . . . . . . . . . . . . . 227
6.6 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 228

C APÍTULO 7
Módulos sobre un DIP . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 231

7.1 Módulos FG libres y de torsión . . . . . . . . . . . . . . . . . . . 231


7.2 Descomposición de un módulo FG sobre un DIP. . . . . . 246
7.3 Matrices y módulos libres. . . . . . . . . . . . . . . . . . . . . . . . 270
7.4 Diagonalización de una matriz sobre un DE . . . . . . . . . 278
7.5 Algoritmo de descomposición de un módulo FG . . . . . . 288
7.6 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 294

PARTE III Semejanza y formas canónicas

C APÍTULO 8
El F[x]-módulo inducido por una transformación . . . . . . . . . . . . . . 301

7
Publicación digital de Editorial Equinoccio
C ONTENIDO

8.1 Subespacios ϕ -invariantes . . . . . . . . . . . . . . . . . . . . . . . 301


8.2 El espacio vectorial como F[x]-módulo . . . . . . . . . . . . . 303
8.3 Subespacios ϕ -invariantes cíclicos . . . . . . . . . . . . . . . . . 309
8.4 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 318

C APÍTULO 9
Formas canónicas de matrices semejantes. . . . . . . . . . . . . . . . . . . . 321

9.1 Formas canónicas racionales. . . . . . . . . . . . . . . . . . . . . . 321


9.2 Forma canónica de Jordan . . . . . . . . . . . . . . . . . . . . . . . 327
9.3 El polinomio característico . . . . . . . . . . . . . . . . . . . . . . . 331
9.4 Transformaciones diagonalizables y nilpotentes . . . . . . 342
9.5 Cálculo de las formas canónicas. . . . . . . . . . . . . . . . . . . 359
9.6 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 383

PARTE IV Espacios con producto interior

C APÍTULO 10
Espacios euclídeos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 397

10.1 El producto interior. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 397


10.2 La transformación adjunta . . . . . . . . . . . . . . . . . . . . . . . 409
10.3 Transformaciones normales y hermíticas . . . . . . . . . . . . 418
10.4 Proyecciones ortogonales y teorema espectral . . . . . . . . 427
10.5 Espacios reales y complejos . . . . . . . . . . . . . . . . . . . . . . 434
10.6 Normalidad en espacios euclídeos reales . . . . . . . . . . . . 439
10.7 Isometrías . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 446
10.8 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 455

A PÉNDICES . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 463

8
Publicación digital de Editorial Equinoccio
A Relaciones de equivalencia . . . . . . . . . . . . . . . . . . . . . . . 463
B Operaciones binarias. . . . . . . . . . . . . . . . . . . . . . . . . . . . 467
C Estructuras cocientes. . . . . . . . . . . . . . . . . . . . . . . . . . . . 473

B IBLIOGRAFÍA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 477

Í NDICE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 479

9
Publicación digital de Editorial Equinoccio
P RÓLOGO

Tomarse el trabajo de escribir un texto sobre un tema matemático


suele obedecer a una de estas dos razones: que la literatura al respecto
es muy escasa; o bien, que, no obstante su abundancia, el autor quiere
exponer la teoría como a él le gusta o, mejor, como le hubiera gustado
aprenderla cuando fue estudiante. Naturalmente que ha sido la segunda
de estas razones la que me ha animado a escribir esta obra. La literatura
sobre Álgebra Lineal es abrumadora, existen textos a todos los niveles y
para casi todos los gustos y propósitos, de modo que, si me hace falta un
pretexto, diré que tal como he desarrollado y expuesto la teoría en este
libro es en verdad como hubiese querido asimilarla allá por mis años de
estudiante universitario. Como no se puede complacer a todo el mundo,
no faltará algún lector quien, por la misma razón, escriba otro texto más
de Álgebra Lineal, y seguimos así en sucesión recurrente.
En mi experiencia docente, que incluye el dictado de cursos de Ál-
gebra Lineal un sinnúmero de veces, he notado –y sin duda mis colegas
también– que los alumnos encuentran esta materia muy difícil. No se
me ocurre que se deba a otra cosa que a su nivel de abstracción, que
contrasta con los cursos de Cálculo con los cuales el joven viene ya
familiarizado. Es comprensible, pero no se trata de un mayor grado
de dificultad. Cuando se examina esta teoría, y esta obra en particular,
debemos aceptar que todas las demostraciones son bastante sencillas
y directas, con la posible excepción, a mi juicio, de los Lemas 7.2.2
y 9.5.1, cuyas pruebas son de muchos pasos y los argumentos pueden
considerarse artificiosos.
Los únicos conocimientos previos que se requieren del lector, ele-
mentales y muy pocos por cierto, son una familiarización con la no-
tación y manipulación de conjuntos, y, muy particularmente, un buen

11
Publicación digital de Editorial Equinoccio
P RÓLOGO

dominio del principio de inducción. En cuanto a conocimientos bási-


cos de álgebra, lo necesario está contenido en los apéndices al final del
libro.
Esta obra apela fundamentalmente a una actitud intelectual hacia la
Matemática; va dirigida a un lector a quien le gusta el razonamiento
matemático, que no se conforma con un recetario y una lista de trucos
para resolver problemas. Me dirijo a aquel que exige saber el porqué de
las cosas, para quien una demostración es indispensable, porque quiere
comprender el fenómeno.
La teoría aquí desarrollada se limita a los espacios vectoriales de di-
mensión finita. No obstante, muchas proposiciones no exigen la finito-
dimensionalidad y, en tales casos, no se incluye esa hipótesis en el
enunciado; no obstante y a diferencia de otros textos, no he querido
complicar la vida del lector realizando exploraciones que se dejan in-
conclusas con espacios que no sean de dimensión finita; por eso he
evitado asomar el tema de las bases de Hamel, a dar unos pasos hacia
espacios de Hilbert, etc. Existen otros textos dedicados a estudiar esos
asuntos.
El libro está dividido en cuatro partes.
La primera cubre el Álgebra Lineal básica y elemental: los con-
ceptos fundamentales de espacio vectorial, transformaciones lineales,
bases y matrices, forma reducida escalonada y sistemas de ecuaciones
lineales. La última sección de esa parte se dedica a los determinantes
y con un tratamiento inusual; lo creía novedoso hasta que tropecé con
uno que otro texto que partían de la misma idea. El determinante se
define por inducción, evitando así su definición tradicional que exige el
concepto previo del signo de una permutación, conocimiento bastante
inútil. Todas las propiedades de los determinantes se demuestran apli-
cando el principio de inducción.
La segunda parte se dedica a un estudio de anillos y módulos. Con-
viene declarar que no se trata de la teoría general de estas estructuras,
nos concentramos en anillos que son dominios de integridad y en módu-
los sobre dominios de ideal principal (DIP). El propósito de esta parte
es emplear los teoremas de descomposición de módulos sobre un DIP
para establecer los resultados más profundos del Álgebra Lineal en la

12
Publicación digital de Editorial Equinoccio
tercera parte del libro. El lector interesado en anillos y módulos per se
puede acudir a los tratados específicos y a textos de Álgebra Conmuta-
tiva; por ejemplo, [2], [5], [6], [16], [21], [23], [24], entre los citados en
nuestra bibliografía.
En la tercera parte regresamos al Álgebra Lineal propiamente dicha
para abordar el tema de las formas canónicas bajo la relación de seme-
janza, aprovechando los teoremas de descomposición de módulos. No
nos conformamos con establecer la existencia de las formas canónicas
racional y de Jordan, proporcionamos, además, algoritmos para calcu-
larlas.
Es ciertamente posible definir el polinomio minimal y llegar a las
formas canónicas sin apelar a conocimiento alguno de módulos. Así
lo hacen excelentes textos, como [10], entre muchos otros –la mayoría,
por cierto. Sin embargo, esta ruta no hace un ápice más fácil la teoría.
Considero, además, que el método de convertir un espacio vectorial en
un módulo sobre un dominio de polinomios, inducido por una transfor-
mación lineal, y aplicarle los resultados obtenidos para las descomposi-
ciones de módulos en sumas directas de submódulos cíclicos hace el
fenómeno mucho más transparente y explicable.
Una transformación lineal entre espacios vectoriales de dimensiones
finitas sobre el mismo cuerpo, ϕ : E → G, admite una variedad de matri-
ces asociadas, según las bases elegidas para E y G. Esto da origen a tres
relaciones de equivalencia entre matrices: a las matrices asociadas a la
misma ϕ , cuando permitimos libertad de cambios de bases en ambos
espacios, las llamamos equivalentes; existe para ellas una forma canó-
nica y el asunto se dilucida en la primera parte del libro. Si se permite el
cambio de base en uno de los espacios, digamos en G, y se mantiene la
misma base en E, a las matrices asociadas a ϕ las hemos denominado si-
milares. Este caso se resuelve también en la primera parte y obtenemos
la forma canónica reducida escalonada.
El asunto se complica en el caso ϕ : E → E cuando debemos atener-
nos a la misma base en E como dominio y como codominio; es decir,
se permite cambiar de base, pero la nueva se aplica, en lo concerniente
a matrices asociadas, a E como dominio y como codominio. A las ma-
trices asociadas a ϕ bajo esta restricción las hemos llamado semejantes.

13
Publicación digital de Editorial Equinoccio
P RÓLOGO

Toda la tercera parte del libro se dedica a esta situación y a la exis-


tencia y cálculo de las formas canónicas correspondientes. Es en esto,
precisamente, donde la intervención de los módulos es tan provechosa.
La cuarta y última parte del libro se dedica a los espacios vectoriales,
reales y complejos, dotados de un producto interior. Se definen y se
desarrollan los conceptos de transformación adjunta, normal, hermítica
y unitaria. Una continuación natural de estos temas es el estudio de
las formas bilineales, pero un libro debe darse por terminado en algún
punto y decidí dejarlo hasta ahí. Si la obra merece una segunda edición,
me propongo agregarle un tratamiento de las formas bilineales.
Los ejercicios al final de cada capítulo presentan extensiones y va-
riantes interesantes de lo allí tratado y, sobre todo, aplicaciones ilustra-
tivas de los teoremas. Son de variada dificultad e intención e incito al
lector a probar su entendimiento resolviéndolos. Le garantizo, sin em-
bargo, que ningún ejercicio se invoca como paso en una demostración.
Quiero expresar mi agradecimiento, una vez más, a la Editorial
Equinoccio de la Universidad Simón Bolívar por esta tercera obra que
ha tenido a bien publicarme, muy en particular a su director, profe-
sor Carlos Pacheco, y a su eficaz equipo de colaboradores. La señora
Jacqueline Geille de Di Bartolo merece mi especial reconocimiento por
su escrupulosa revisión del texto y su experta aplicación del programa
LATEX en el diseño de su formato.
Me complace en sumo grado que se trate de una co-edición de
Equinoccio con el Fondo Editorial de la Academia de Ciencias Físi-
cas, Matemáticas y Naturales a la cual me honra pertenecer desde hace
un par de décadas.
He dedicado este libro a mi sobrina María Luisa (Maui), estudiante
universitaria de matemáticas, precisamente porque sus dificultades y
protestas al enfrentar el álgebra lineal por primera vez me dieron la idea
de escribírsela como a mí me gusta.

Ignacio L. Iribarren
Universidad Simón Bolívar
Academia de Ciencias Físicas, Matemáticas y Naturales
Abril 2008

14
Publicación digital de Editorial Equinoccio
PARTE I

Espacios vectoriales y matrices

Publicación digital de Editorial Equinoccio


C APÍTULO 1
Espacios vectoriales

1.1 Concepto y propiedades básicas


Sea E un conjunto, no vacío, provisto de una operación binaria + tal
que la estructura algebraica (E, +) es un grupo abeliano, vale decir que
se cumplen las siguientes propiedades

asociativa: (x + y) + z = x + (y + z) ∀x, y, z ∈ E

conmutativa: x + y = y + x ∀x, y ∈ E

cero: existe un elemento 0 ∈ E tal que x + 0 = 0 + x ∀x ∈ E

inversos: para todo x ∈ E existe un −x ∈ E tal que x − x = 0

La unicidad del 0 y de −x (para cada x) está establecida en el Apén-


dice B. Es costumbre escribir x − y en lugar de x + (−y).
Suponemos además que E está provisto de una ley de composición
externa cuyo conjunto de escalares es un cuerpo cualquiera (F, +, ·), y
que esta ley externa satisface las propiedades siguientes

distributiva 1: α (x + y) = α x + α y ∀α ∈ F ∀x, y ∈ E

distributiva 2: (α + β )x = α x + β x ∀α , β ∈ F ∀x ∈ E

asociativa: (αβ )x = α (β x) ∀α , β ∈ F ∀x ∈ E

producto por 1: 1x = x ∀x ∈ E

17
Publicación digital de Editorial Equinoccio
1 E SPACIOS VECTORIALES

Nótese que cometemos abusos deliberados de notación en beneficio


de la sencillez, en la confianza de que el contexto evitará confusiones.
Adoptamos el mismo símbolo de suma + en E y en el cuerpo F; también
usaremos el 0 en E y en F con significado evidente en cada caso; el
producto en F lo escribimos αβ del mismo modo que el “producto” α x
de un escalar de F por un elemento de E según la ley externa.
La estructura que hemos descrito, compuesta por un grupo abeliano
(E, +) con una ley de composición externa cuyos escalares residen en
un cuerpo F con las propiedades vinculantes enumeradas, se denomina
espacio vectorial. A los elementos de E los llamamos vectores. El 0 ∈ E
suele llamarse el vector nulo, aunque se usa el mismo símbolo 0 para el
cero en el cuerpo F.
Cuando no hay riesgo de confusión, nos referimos simplemente al
espacio vectorial E, dando por entendidas las leyes de composición y
el cuerpo F en cuestión. Si hace falta distinguir el cuerpo, aludimos al
espacio vectorial E sobre el cuerpo F.
Comentario 1.1.1. El espacio vectorial E = {0} (sobre cualquier cuer-
po F) constituido por un solo elemento (forzosamente el vector 0) es de
escaso interés, pero se presenta en ocasiones.
Antes de considerar algunos ejemplos vamos a dejar sentadas unas
cuantas propiedades sencillísimas que se deducen directamente de la
definición del espacio vectorial E. Empleamos letras x, y, z, . . . para de-
signar vectores y letras griegas α , β , λ , . . . para escalares.
Las breves demostraciones están puestas en letra más pequeña.

1. Cancelar vectores: x + z = y + z =⇒ x = y
x = x + (z − z) = (x + z) − z = (y + z) − z = y + (z − z) = y

2. 0x = 0
0 + 0x = 0x = (0 + 0)x = 0x + 0x y cancelamos.

3. λ 0 = 0
0 + λ 0 = λ 0 = λ (0 + 0) = λ 0 + λ 0 y cancelamos.

18
Publicación digital de Editorial Equinoccio
1.1 C ONCEPTO Y PROPIEDADES BÁSICAS

4. λ x = 0 =⇒ λ = 0 o bien x = 0
Si λ = 0, entonces x = 1x = (λ −1 λ )x = λ −1 (λ x) = λ −1 0 = 0

5. Si λ = 0 y λ x = λ y, entonces x = y
x = 1x = (λ −1 λ )x = λ −1 (λ x) = λ −1 (λ y) = (λ −1 λ )y = 1y = y

6. −(α x) = (−α )x ; en particular, −x = (−1)x


α x + (−α )x = (α + (−α ))x = 0x = 0

7. Si x = 0 y α x = β x, entonces α = β
0 = α x − β x = α x + (−β )x = (α + (−β ))x =⇒ α + (−β ) = 0

8. λ (−x) = −λ x
λ (−x) = λ ((−1)x) = (λ (−1))x = (−λ )x = −λ x

1.1.1 Algunos ejemplos


a Posiblemente el ejemplo más trivial de espacio vectorial es el del
propio cuerpo F sobre sí mismo: los vectores son los elementos
de F con la suma en F; la ley externa es el producto en F.

b El ejemplo por excelencia que inspira la definición abstracta de es-


pacio vectorial que hemos dado lo constituye el conjunto F n de
todos los n-tuples ordenados (α 1 , α2 , . . . , αn ) de elementos del
cuerpo F.
La suma se define como

( α1 , α2 , . . . , αn ) + ( β 1 , β 2 , . . . , β n )
= (α1 + β1 , α2 + β2 , . . ., αn + βn )

y es rutinario comprobar que la estructura resultante (Fn , +) es


un grupo abeliano.

19
Publicación digital de Editorial Equinoccio
1 E SPACIOS VECTORIALES

El cuerpo de escalares es F y la ley externa se define como

λ (α1 , α2 , . . ., αn ) = (λ α1 , λ α2 , . . . , λ αn )

Se deja al lector la fácil tarea de verificar que Fn , provisto de la


estructura descrita, es un espacio vectorial sobre F.

c Sea F un cuerpo cualquiera y Pn la familia de todos los polinomios de


coeficientes en F cuyo grado es ≤ n. Con respecto a la suma de
polinomios y el producto (término a término) por un escalar de F,
Pn es un espacio vectorial sobre F.
Los polinomios recibirán un tratamiento riguroso y detenido más
adelante en esta obra, sin suponer conocimiento previo de ellos.

d Sea C(A) el conjunto de todas las funciones f : A ⊂ R → R continuas


en un conjunto fijo A = ∅ de números reales. Definimos f + g
como la suma puntual ( f + g)(x) = f (x) + g(x) y λ f , para todo
escalar λ ∈ R, como (λ f )(x) = λ . f (x).
Dejamos al lector la verificación, primero de que f +g y λ f están
en C(A), y luego que estas operaciones convierten a C(A) en un
espacio vectorial sobre el cuerpo R.

e Sea R[a, b] el conjunto de todas las funciones f : [a, b] → R inte-


grables en el intervalo [a, b]. Si definimos suma de funciones y
producto por un escalar real como en el ejemplo anterior, R[a, b]
es un espacio vectorial sobre R.

f Sea S el conjunto de todas las sucesiones

{an } = {a0 , a1 , a2 , . . ., an , . . . }

de términos reales. Es fácil verificar que S toma estructura de es-


pacio vectorial sobre el cuerpo R de los reales si definimos suma
término a término: {an } + {bn } = {an + bn }; y producto por un
escalar c ∈ R haciendo c{an } = {can }.

20
Publicación digital de Editorial Equinoccio
1.2 S UBESPACIOS

1.2 Subespacios
Definición 1.2.1. Sea E un espacio vectorial sobre un cuerpo F. Deci-
mos que S ⊂ E es un subespacio de E si S = ∅ y cumple la condición

∀ α , β ∈ F & ∀ x, y ∈ S : αx + β y ∈ S

Nótese que forzosamente 0 ∈ S, pues, como S = ∅, existe un x ∈ S


y aplicamos la definición para obtener

0 = 0x + 0x ∈ S

Y puede ocurrir que S sea sólo el subespacio trivial S = {0}.


Se infiere inmediatamente de la definición que S es cerrado con
respecto a la suma de vectores y al producto por un escalar; es decir,
x + y = 1x + 1y ∈ S y λ x = λ x + 0x ∈ S.
Esto significa que, si se quiere, podemos considerar por su cuenta la
estructura S provista de la suma de vectores y de la ley externa sobre F;
es claro que se trata de un espacio vectorial sobre F.
En efecto, la asociatividad y la conmutatividad de la suma de vec-
tores vienen dadas; hemos visto que el vector 0 ∈ S; si x ∈ S, entonces
−x = (−1)x ∈ S; y la veracidad las cuatro propiedades relativas a la ley
externa no requiere comentario.
El ejemplo más sencillo de subespacio de E es tomar un x ∈ E y
considerar (todos los “múltiplos” de x)

x = {λ x | λ ∈ F}

Si x = 0 tenemos el subespacio trivial S = {0}.


El otro subespacio trivial es el propio E.
Es obvio que la intersección en cualquier familia (finita o infinita)
de subespacios –que no puede ser vacía pues siempre contiene al vector
0–es un subespacio. Esto da lugar al concepto de subespacio generado
por cualquier conjunto C ⊂ E, como la intersección en la familia de
todos los subespacios que contienen a C (familia no vacía pues contiene

21
Publicación digital de Editorial Equinoccio
1 E SPACIOS VECTORIALES

al menos a E); podemos designarlo por C y es claro que se trata del


“mínimo” subespacio que contiene a C, en el sentido de que cualquier
subespacio S ⊃ C pertenece a la familia cuya intersección es C y, por
tanto S ⊃ C .
Nótese que nuestro ejemplo (arriba) del subespacio x es precisa-
mente el subespacio generado por el conjunto C = {x}.

Definición 1.2.2. Decimos que un z ∈ E es combinación lineal de los


vectores x1 , x2 , . . . , xm si existen escalares α1 , α2 , . . ., αm tales que

z = α1 x1 + α2 x2 + · · · + αm xm

Es obvio que el vector nulo es expresable como combinación lineal


de cualquier conjunto de vectores (tomamos todos los factores escalares
iguales a 0).
Tomemos un conjunto finito de vectores {x 1 , x2 , . . . , xm }. Es claro
que la familia de todas las combinaciones lineales de éstos constituyen
un subespacio, pues

λ (α1 x1 + α2 x2 + · · · + αm xm ) + γ (β1 x1 + β x2 + · · · + β xm )
= (λ α1 + γβ1 )x1 + (λ α2 + γβ2 )x2 + · · · + (λ αm + γβm )xm

y es obvio que todo subespacio que contenga a {x 1 , x2 , . . . , xm } con-


tiene todas sus combinaciones lineales. Se concluye que el subespacio
x1 , x2 , . . ., xm generado por estos vectores es precisamente el consti-
tuido por todas sus combinaciones lineales.
El lema que sigue es de frecuente utilidad.

Lema 1.2.1. Si cada uno de los vectores y1 , y2 , . . . , yq es combinación


lineal de los vectores x1 , x2 , . . . , x p , entonces todo vector que sea combi-
nación lineal de los y1 , y2 , . . . , yq , es también combinación lineal de los
x1 , x2 , . . . , x p .
Demostración. La hipótesis implica que el subespacio y 1 , y2 , . . ., yq
está contenido en el x1 , x2 , . . ., x p , y todo vector que sea combinación
lineal de los y1 , y2 , . . . , yq es miembro del subespacio y1 , y2 , . . . , yq .

22
Publicación digital de Editorial Equinoccio
1.2 S UBESPACIOS

Por el contrario, la unión de subespacios no es, en general, un subes-


pacio; sin embargo, podemos identificar el subespacio generado por la
unión. Sean en efecto los subespacios S, T de E; es inmediato compro-
bar que el conjunto

S + T = {x + y | x ∈ S , y ∈ T}

es un subespacio y muy obvio que es el “mínimo” que contiene S ∪ T,


es decir que S ∪ T = S + T.
Es de especial interés el caso en el cual S ∩ T = {0}, en cuyo caso
escribimos S ⊕ T (en lugar de S + T) y decimos que S y T están en suma
directa.
Cabe destacar que esto ocurre si, y sólo si, cada vector z ∈ S + T
tiene representación única como z = x + y, donde x ∈ S y y ∈ T. En
efecto, si S ∩ T = {0} y tenemos z = x + y = x + y , entonces x − x =
y − y ∈ S ∩ T, de donde x = x , y = y . Recíprocamente, si la represen-
tación de cada vector de S + T es única y z ∈ S ∩ T, observamos que, si
z = 0, tendríamos dos representaciones distintas z = z + 0 = 0 + z.
La suma de subespacios puede generalizarse de manera obvia a
cualquier número de ellos, para obtener el nuevo subespacio

S1 + S2 + · · · + Sn = {x1 + x2 + · · · + xn | xi ∈ Si para i = 1, 2, . . ., n}

Y la suma es directa S1 ⊕ S2 ⊕ · · · ⊕ Sn cuando

Sk ∩ ∑ Si = {0} para k = 1, 2, . . ., n
i=k

En primer lugar, esta definición de ⊕ es consistente con el caso


n = 2. Y en segundo lugar, veamos que mantiene la propiedad que
caracteriza la unicidad de la representación.

Proposición 1.2.1. Dados los subespacios S 1 , S2 , . . ., Sn del espacio


vectorial E, su suma es directa: S1 ⊕ S2 ⊕ · · · ⊕ Sn , si, y sólo si, cada
z ∈ S1 + S2 + · · · + Sn es expresable de manera única como

z = x1 + x2 + · · · + xn , donde xi ∈ Si , para i = 1, 2, . . ., n

23
Publicación digital de Editorial Equinoccio
1 E SPACIOS VECTORIALES

Demostración. Supongamos que S1 ⊕ S2 ⊕ · · · ⊕ Sn y probemos la uni-


cidad de la representación para cada vector z de ese subespacio.
Para n = 2 la unicidad ha sido demostrada.
Sea cualquier z = x1 + x2 + · · · + xn donde xi ∈ Si para i = 1, 2, . . ., n.
Tomemos uno de estos xk ∈ Sk y probemos que es único. En efecto,
el subespacio
T = ∑ Si
i=k

es tal que Sk ⊕ T y z = xk + y, donde y = ∑i=k xi , de modo que xk (lo


mismo que y) es único.
Recíprocamente, supongamos que, para cada z ∈ S1 + S2 + · · · + Sn ,
la representación z = x1 + x2 + · · · + xn donde xi ∈ Si para i = 1, 2, . . ., n
es única.
Entonces es única la representación z = xk + y, donde y = ∑i=k xi , lo
cual implica que

Sk ∩ ∑ Si = {0} donde 1 ≤ k ≤ n
i=k

es decir, la suma es directa.

1.3 Espacios cocientes


Sea S un subespacio del espacio vectorial E.
Definamos una relación binaria ∼ sobre E tal que, para x, y ∈ E,

x∼y ⇐⇒ x−y ∈ S (1.3.1)

y verifiquemos que se trata de una relación de equivalencia. En efecto,

reflexividad: x ∼ x (∀x ∈ E), pues x − x = 0 ∈ S

simetría: x ∼ y =⇒ y∼x
pues x − y ∈ S implica y − x = −(x − y) ∈ S

24
Publicación digital de Editorial Equinoccio
1.3 E SPACIOS COCIENTES

transitividad: (x ∼ y) ∧ (y ∼ z) =⇒ x∼z
pues x − y, y − z ∈ S implica x − z = (x − y) + (y − z) ∈ S
Ahora comprobemos que la suma de vectores y la ley externa sobre
el cuerpo F son estables con respecto a ∼ (véase el Apéndice C).
Supongamos que (x ∼ x ) ∧ (y ∼ y ); entonces x − x , y − y ∈ S de
donde (x + y) − (x + y ) = (x − x ) + (y − y ) ∈ S, es decir que x + y ∼
x + y y la suma es estable.
Sabemos entonces (Apéndice C) que la suma de vectores en E in-
duce una operación binaria que también llamaremos suma y designamos
por + (por abuso de terminología y notación) en el conjunto cociente
con respecto a ∼ que designamos por
E
S
y podemos afirmar (Apéndice C) que la estructura (E/S, +) es un grupo
abeliano, pues la operación inducida + hereda la asociatividad y la con-
mutatividad; su elemento neutro es 0 = S, ya que
x∈0 ⇐⇒ x∼0 ⇐⇒ x = x−0 ∈ S
y por otro lado, también sabemos que −x = −x.
La clase de equivalencia x puede expresarse en forma conveniente
como
x = x+S (1.3.2)
donde
x + S = {x + y | y ∈ S}
Ocurre que también la ley externa es estable con respecto a ∼.
En efecto, si x ∼ y y λ ∈ F, entonces
x−y ∈ S =⇒ λ x − λ y = λ (x − y) ∈ S =⇒ λx ∼ λy
y, de nuevo por el Apéndice C, queda bien definida una ley de com-
posición externa en E/S, cuyo conjunto de escalares es el cuerpo F, de
modo que
E
∀λ ∈F & ∀x∈ : λx = λx
S

25
Publicación digital de Editorial Equinoccio
1 E SPACIOS VECTORIALES

Es un ejercicio bien trivial verificar que esta ley externa satisface


las cuatro propiedades que hacen del grupo abeliano E/S un espacio
vectorial sobre el cuerpo F.
En resumen, dado un subespacio S de E, queda determinado, de la
manera descrita, el espacio vectorial cociente E/S.
Si queremos emplear la expresión (1.3.2) para los vectores del espa-
cio cociente, es fácil comprobar que
α (x + S) + β (y + S) = (α x + β y) + S
x + S = 0 = S ⇐⇒ x∈S
− (x + S) = −x + S
Nótese que, si S = E, obtenemos el espacio cociente trivial consti-
tuido sólo por el vector nulo.
Y, si S = {0}, es obvio que el espacio cociente es indistinguible del
propio E, pues x ∼ y ⇐⇒ x = y.
Comentario 1.3.1. Pudiera parecer artificiosa la construcción del es-
pacio cociente partiendo de un subespacio y la relación de equivalen-
cia (1.3.1); sin embargo, sucede que tales son las únicas relaciones de
equivalencia sobre E con respecto a las cuales la suma de vectores y la
ley externa son estables.
En efecto, supongamos que la suma y la ley externa en E son esta-
bles con respecto una relación de equivalencia ∼ sobre E.
Sea T = 0 ⊂ E y tomemos x, y ∈ T y α , β ∈ F; entonces, x ∼ 0 y, en
virtud de la estabilidad de la ley externa, α x ∼ α 0 = 0, análogamente,
β y ∼ 0; se infiere ahora por la estabilidad de la suma que α x + β y ∼ 0,
es decir, α x + β y ∈ T, o sea que T es un subespacio de E.
Supóngase que x ∼ y. Como ∼ es una relación de equivalencia,
−y ∼ −y (reflexividad) y, gracias a la estabilidad de la suma, se con-
cluye x − y ∼ 0, vale decir, x − y ∈ T. Recíprocamente, si x − y ∈ T, esto
significa que x − y ∼ 0 y como y ∼ y, la estabilidad de la suma implica
x ∼ y.
Existe pues una correspondencia biunívoca entre la familia de los
subespacios de E y todos los posibles espacios cocientes del espacio
vectorial E. Correspondencia que ha sido descrita de modo preciso en
esta sección.

26
Publicación digital de Editorial Equinoccio
1.4 E SPACIOS DE DIMENSIÓN FINITA

1.4 Espacios de dimensión finita


Definición 1.4.1. Decimos que un espacio vectorial es de dimensión
finita si es generado por un conjunto finito de sus vectores.
Éstos son los espacios vectoriales que nos conciernen en este libro.
De los seis ejemplos de espacios vectoriales dados en la subsección
1.1.1, los tres primeros son de dimensión finita, en tanto que los tres
últimos no lo son. Examinaremos esto con cuidado más adelante.
La siguiente definición es de fundamental importancia para toda la
teoría.

Definición 1.4.2. Decimos que los vectores x1 , x2 , . . . , xm de un espacio


vectorial E sobre un cuerpo F son linealmente dependientes si existen
escalares α1 , α2 , . . . , αm ∈ F, no todos cero, tales que

α1 x1 + α2 x2 + · · · + αm xm = 0

Es obvio que si algún xk = 0 el conjunto x1 , x2 , . . . , xm es linealmente


dependiente, pues escogemos un coeficiente escalar αk = 0 para xk y
hacemos 0 todos los coeficientes restantes.
Por negación lógica, decimos que los vectores x1 , x2 , . . ., xm son li-
nealmente independientes si toda expresión de la forma α 1 x1 + α2 x2 +
· · · + αm xm = 0 implica que α1 = α2 = · · · = αm = 0.
El lema siguiente proporciona una caracterización útil de indepen-
dencia lineal.

Lema 1.4.1. Un conjunto de vectores C = {x1 , x2 , . . . , xm } de un espacio


vectorial E es linealmente independiente si, y sólo si, todo vector z =
α1 x1 + α2 x2 + · · · + αm xm , expresable como combinación lineal de C
determina unívocamente los escalares α 1 , . . . , αm .
Demostración. Supongamos que C es linealmente independiente y que
z admite otra expresión posiblemente distinta z = β 1 x1 + β2 x2 + · · · +
βm xm ; entonces,

(α1 − β1 )x1 + (α2 − β2 )x2 + · · · + (αm − βm )xm = 0

27
Publicación digital de Editorial Equinoccio
1 E SPACIOS VECTORIALES

pero la independencia lineal de C exige que αi − βi = 0 =⇒ αi = βi ,


para i = 1, 2, . . ., m de modo que los escalares αi están determinados por
z de manera única.
Recíprocamente, supongamos que todo vector de E que es combi-
nación lineal de los vectores de C admite expresión única como tal. Esto
implica, en particular, que de 0 = α1 x1 + α2 x2 + · · · + αm xm se infiere
αi = 0 (para i = 1, 2, . . ., m), o sea que C es linealmente independiente.

Definición 1.4.3. Decimos que los vectores x1 , x2 , . . . , xn constituyen


una base del espacio vectorial E sobre el cuerpo F si generan el es-
pacio y son linealmente independientes.
Es claro que un espacio que admite una base de acuerdo con la de-
finición precedente es del tipo que hemos denominado de dimensión
finita. El teorema siguiente establece un resultado fundamental.
Teorema 1.4.1. Si el conjunto de vectores G = {x1 , x2 , . . . , x p } genera
un espacio vectorial E y H = ∅ es un subconjunto de G linealmente
independiente, entonces existe una base B tal que H ⊂ B ⊂ G.
Demostración. Dado que existen en G subconjuntos linealmente inde-
pendientes que contienen a H, por ejemplo, el propio H, sea B uno de
éstos con un máximo número de vectores. Reordenando los vectores de
G si es necesario, pongamos B = {x1 , x2 , . . . , xn }.
Si n = p, es decir B = G, no hay más nada que probar, pues G es
una base.
Si n < p, para n < i ≤ p, el conjunto B ∪ {xi } es linealmente depen-
diente por definición de B (suponemos que xi = 0 para evadir un caso
trivial); luego,
α1 x1 + α2 x2 + · · · + αn xn + β xi = 0
donde no todos los escalares son cero. Si todos los α k fuesen cero,
tendría que ser β = 0 y se infiere que xi = 0 que es falso, y si β = 0,
se concluye que B es linealmente dependiente, falso también. En suma,
β = 0 y al menos un αk = 0. Entonces,
xi = −α1 β −1 x1 − α2 β −1 x2 − · · · − αn β −1 xn

28
Publicación digital de Editorial Equinoccio
1.4 E SPACIOS DE DIMENSIÓN FINITA

En conclusión, todo vector de G es combinación lineal de los vec-


tores de B. Se infiere del Lema 1.2.1 que B genera el espacio y es en
definitiva una base.

Teorema 1.4.2. Un espacio vectorial E = {0} de dimensión finita sobre


un cuerpo F admite una base. Es más, todo conjunto generador de E
contiene una base.
Demostración. De acuerdo con la Definición 1.4.1, existe un conjunto
finito de vectores G = {x1 , x2 , . . . , x p } que genera el espacio E.
Como E = {0}, existen en G subconjuntos que son linealmente in-
dependientes; por ejemplo, H = {xk }, para algún xk = 0. Aplicamos
ahora el teorema precedente y podemos afirmar que existe una base B
de E contenida en G.

Teorema 1.4.3. Si un espacio vectorial admite una base de n ≥ 1 vec-


tores, entonces cualquier conjunto con más de n vectores es linealmente
dependiente.
Demostración. Como el espacio E admite una base de uno o más vec-
tores, E = {0}.
Demostraremos el teorema por inducción en n.
Si n = 1, el espacio admite una base de un vector no nulo {a}. Con-
sideremos el conjunto de dos vectores {x1 , x2 }, ambos = 0, para evitar
un caso trivial.
Dado que {a} es una base, tenemos que x1 = α a , x2 = β a donde
los escalares α y β son ambos forzosamente = 0.
Entonces, β x1 − α x2 = (β α )a − (αβ )a = 0 y x1 , x2 son linealmente
dependientes.
Supongamos ahora que el teorema es cierto para todo espacio vec-
torial que admita una base con menos de n > 1 vectores.
Sea B = {a1 , a2 , . . . , an } una base del espacio vectorial E y consi-
deremos un conjunto cualquiera C = {x1 , x2 , . . . , xn , xn+1 } de n + 1 vec-
tores de E. Supongamos que xn+1 = 0; de lo contrario, C es linealmente
dependiente y ha concluido la demostración.

29
Publicación digital de Editorial Equinoccio
1 E SPACIOS VECTORIALES

Designemos por E = E/ xn+1 al espacio cociente con respecto al


subespacio de E generado por el vector xn+1 .
Tomemos cualquier z ∈ E . Como B es una base, podemos expresar
z = λ1 a1 + λ2 a2 + · · · + λn an , lo cual implica z = λ1 a1 + λ2 a2 + · · · +
λn an en E y significa que {a1 , a2 , . . ., an } es un conjunto generador de
E . De acuerdo con el Teorema 1.4.2, el conjunto {a1 , a2 , . . . , an } con-
tiene una base de E .
Pero, xn+1 = α1 a1 + α2 a2 + · · · + αn an y no todos los αk son cero,
pues xn+1 = 0; luego, α1 a1 + α2 a2 + · · · + αn an = xn+1 = 0, de modo
que el conjunto {a1 , a2 , . . . , an } es linealmente dependiente y, en conse-
cuencia, contiene una base de E con menos de n vectores. En virtud de
la hipótesis inductiva, los vectores x 1 , x2 , . . . , xn de E son linealmente
dependientes; luego, existen escalares β1 , β2 , . . . , βn , no todos cero, que
satisfacen β1 x1 + β2 x2 + · · · + βn xn = 0, pero esto implica que el vec-
tor β1 x1 + β2 x2 + · · · + βn xn de E pertenece al subespacio generado por
xn+1 , es decir,
β1 x1 + β2 x2 + · · · + βn xn = βn+1 xn+1
=⇒ β1 x1 + β2 x2 + · · · + βn xn − βn+1 xn+1 = 0
donde ya sabemos que no todos los β i (i = 1, 2, . . ., n) son cero.
En conclusión el conjunto C es linealmente dependiente.

Corolario 1.4.1. Todas la bases de un espacio vectorial de dimensión


finita contienen igual número de vectores.
Demostración. Si B y B son bases con n y m vectores respectivamente,
ocurre que m ≤ n porque B es linealmente independiente; por razón
análoga, n ≤ m.

Este corolario da pie a la siguiente definición.


Definición 1.4.4. Se define dimensión de un espacio vectorial de di-
mensión finita como el número de vectores de cualquiera de sus bases y
se designa por dim E. Si E = {0}, decimos que E es de dimensión cero.
Los siguientes importantísimos resultados son en el fondo corolarios
del Teorema 1.4.3.

30
Publicación digital de Editorial Equinoccio
1.4 E SPACIOS DE DIMENSIÓN FINITA

Teorema 1.4.4. Si un espacio vectorial E tiene dimensión n ≥ 1, en-


tonces todo subespacio de E es también de dimensión finita y de dimen-
sión ≤ n.
Demostración. Sea S un subespacio de E. Si S = {0}, su dimensión es
cero y hemos concluido.
Si S = {0}, existen en S conjuntos de vectores linealmente inde-
pendientes; por ejemplo, {x}, donde 0 = x ∈ S. Ahora bien, sabemos
por el Teorema 1.4.3 que todo conjunto linealmente independiente no
puede tener más de n vectores; sea pues V ⊂ S un conjunto linealmente
independiente con un máximo número de vectores, forzosamente ≤ n.
Ocurre que V es una base de S, es decir, también genera S.
En efecto, supongamos que existe un z ∈ S que no es combinación
lineal de los vectores de V . Entonces V ∪ {z} ⊂ S es linealmente inde-
pendiente y tiene un vector más que V , pero esto contradice la definición
de V .

Comentario 1.4.1. Desde luego que un espacio vectorial E que no sea


de dimensión finita admite subespacios que sí lo son. Por ejemplo, basta
con tomar un vector a = 0 y el subespacio generado a es de dimen-
sión 1; más general, el subespacio a 1 , a2 , . . ., a p generado por cual-
quier número finito de vectores (linealmente independientes o no) es,
por definición, de dimensión finita.

Teorema 1.4.5. Todo conjunto linealmente independiente de vectores


de un espacio vectorial de dimensión finita puede extenderse a una
base.
Demostración. Sea H = {x1 , x2 , . . . , xk } un conjunto linealmente in-
dependiente en un espacio vectorial E de dimensión finita. Sea G1 =
{y1 , y2 , . . . , ym } un conjunto generador de E. Es obvio que G = H ∪ G 1
es un conjunto generador de E. De acuerdo con el Teorema 1.4.1, existe
una base B con H ⊂ B (⊂ G); es decir, la base B extiende (contiene) al
conjunto H.

31
Publicación digital de Editorial Equinoccio
1 E SPACIOS VECTORIALES

Teorema 1.4.6. Sea E un espacio vectorial de dimensión n. Las si-


guientes propiedades son equivalentes para un conjunto de n vectores
B = {x1 , x2 , . . . , xn }:
1. B es una base;
2. B genera el espacio E;
3. B es linealmente independiente.

Demostración. Que (1) =⇒ (2) viene de la definición de una base.


(2) =⇒ (3): De acuerdo con el Teorema 1.4.2, B contiene una base
porque genera el espacio y, como toda base tiene n vectores, el propio
B es una base y, por ende, linealmente independiente.
(3) =⇒ (1): Según el Teorema 1.4.5, B forma parte de una base,
pero como ésta no puede tener más de n vectores, B es una base.

Todo vector es expresable como combinación lineal de los vectores


de una base, ya que ella genera el espacio. Ocurre que esta expresión es
única y eso caracteriza la condición de base.
Teorema 1.4.7. Sea E un espacio vectorial de dimensión finita sobre un
cuerpo F y G = {x1 , x2 , . . . , x p } un conjunto generador de E.
Entonces, G es una base si, y sólo si, para cada vector z ∈ E la
expresión z = α1 x1 + α2 x2 + · · · + α p x p es única.1
A los escalares α1 , α2 , . . . , α p los llamamos coordenadas de z con
respecto a la base G.
Demostración. De acuerdo con el Lema 1.4.1, la condición del enun-
ciado es equivalente a la independencia lineal de G y, como éste genera
el espacio, es necesario y suficiente que cumpla dicha propiedad para
ser una base.

Hay una relación importante entre las dimensiones de subespacios


que es objeto de la siguiente proposición. Nótese que no se exige que

1 Es decir, los coeficientes escalares αi están unívocamente determinados por z.

32
Publicación digital de Editorial Equinoccio
1.4 E SPACIOS DE DIMENSIÓN FINITA

el espacio vectorial E sea de dimensión finita, sólo se pide a los subes-


pacios en cuestión.

Proposición 1.4.1. Si S y T son subespacios de dimensiones finitas de


un espacio vectorial E, entonces los subespacios S ∩ T y S + T son de
dimensiones finitas y se tiene

dimS + dim T = dim(S + T) + dim(S ∩ T)

Demostración. En virtud del Teorema 1.4.4, S ∩ T es de dimensión


finita, digamos dim(S ∩ T) = k, porque es un subespacio de S (y de T).
Sea B = {x1 , x2 , . . ., xk } una base de S∩T. Como B es un conjunto li-
nealmente independiente de vectores de S y también de T, aplicamos el
Teorema 1.4.5 y lo extendemos a una base BS = {x1 , . . ., xk , y1 , . . . , y p }
de S y a una base BT = {x1 , . . . , xk , z1 , . . . , zq } de T.
Sea ahora w = s + t cualquier vector de S + T, donde s ∈ S , t ∈ T;
entonces
   
k p k q
w = ∑ αixi + ∑ λ j y j + ∑ βixi + ∑ γh zh
i=1 j=1 i=1 h=1
k p q
= ∑ (αi + βi)xi + ∑ λ jy j + ∑ γh z h
i=1 j=1 h=1

lo cual significa que el conjunto G = {x1 , . . . , xk , y1 , . . ., y p , z1 , . . . , zq }


genera el subespacio S + T (que es por tanto de dimensión finita).
Veamos que G es linealmente independiente. Consideremos
k p q
∑ αixi + ∑ β j y j + ∑ γhzh = 0
i=1 j=1 h=1

luego, el vector
k p q
v = ∑ αixi + ∑ β j y j = − ∑ γh zh
i=1 j=1 h=1

33
Publicación digital de Editorial Equinoccio
1 E SPACIOS VECTORIALES

pertenece a S ∩ T, de modo que


k q k q
v = ∑ ηixi = − ∑ γh zh =⇒ ∑ ηixi + ∑ γh zh = 0
i=1 h=1 i=1 h=1
=⇒ γh = 0 (h = 1, . . ., q) por independencia lineal de BT

pero entonces
k p
∑ αixi + ∑ β j y j = 0
i=1 j=1

lo cual implica que todos los escalares α i y β j son cero por independen-
cia lineal de la base BS .
Hemos demostrado que dim(S + T) = k + p + q, en tanto que dim S
+ dim T = (k + p) + (k + q) = (k + p + q) + dim(S ∩ T).

Corolario 1.4.2. Si S y T son subespacios de dimensiones finitas de


un espacio vectorial E, entonces S ⊕ T si, y sólo si, dimS + dim T =
dim(S + T).
Demostración. De acuerdo con la proposición anterior, la fórmula del
enunciado es cierta si, y sólo si, dim(S ∩ T) = 0, es decir, S ∩ T = {0}.

Por obvia aplicación del principio de inducción, este corolario es


válido para cualquier número de subespacios en suma directa; vale de-
cir, si S1 , . . ., Sm son subespacios de dimensiones finitas de un espacio
vectorial E, entonces S1 ⊕ · · · ⊕ Sm si, y sólo si, dim S 1 + · · · + dim Sm =
dim(S1 + · · · + Sm ).
Proposición 1.4.2. Sea E un espacio vectorial de dimensión finita tal
que
E = S1 ⊕ · · · ⊕ Sm
Entonces, si B1 , . . . , Bm son bases de S1 , . . ., Sm respectivamente,
ocurre que
B = B1 ∪ · · · ∪ Bm
es una base de E.

34
Publicación digital de Editorial Equinoccio
1.5 E JERCICIOS

Demostración. En virtud del Corolario 1.4.2,

dim E = dim S1 + · · · + dim Sm

de modo que el número de vectores en B es la dimensión de E, pues


sabemos que Bi y B j , para i = j, no tienen vector en común. Además,
por definición de suma de subespacios, es evidente que B genera el es-
pacio E.
Luego, por el Teorema 1.4.6, B es una base de E.

Examinemos el ejemplo b de la subsección 1.1.1: el espacio vec-


torial Fn de los n-tuples ordenados (α1 , α2 , . . . , αn ) de elementos del
cuerpo F. A los αi los llamaremos coordenadas.
Consideremos los vectores e1 , e2 , . . . , en de Fn , tales que la coorde-
nada de lugar k en ek es 1 y sus restantes coordenadas son 0. Es decir,
e1 = (1, 0, . . ., 0) , e2 = (0, 1, . . ., 0) , en = (0, 0, . . ., 1).
Dada la definición de la ley externa en Fn , es claro que

(α1 , α2 , . . . , αn ) = α1 e1 + α2 e2 + · · · + αn en (1.4.1)

de modo que los e1 , e2 , . . . , en generan el espacio Fn y es evidente (ha-


ciendo la expresión (1.4.1) igual al vector nulo (0, 0, . . ., 0)) que son
linealmente independientes, o sea que constituyen una base.
Se concluye que Fn es un espacio vectorial de dimensión finita n y
a {e1 , e2 , . . . , en } suele llamarse su base canónica.
El ejemplo a es por supuesto un caso particular del b, donde n = 1
y la base canónica es {1}.
En el ejemplo c del espacio vectorial Pn de los polinomios α 0 +
α1t + α2t 2 + · · · + αk t k de coeficientes en el cuerpo F y grado ≤ n, es
trivial verificar que {1,t,t 2, . . . ,t n} constituye una base, de modo que
dim Pn = n + 1.

1.5 Ejercicios

1. Sea Q(
√ 3) el conjunto de todos los números reales de la forma
p + q 3, donde p y q son racionales.

35
Publicación digital de Editorial Equinoccio
1 E SPACIOS VECTORIALES


Demostrar que Q( 3) es un espacio vectorial sobre el cuerpo Q
de los racionales con respecto a la suma en R, y la ley√externa es
el producto ordinario de un racional por un real en Q( 3).

Mostrar una base de Q( 3).
Considerar, de manera
√ análoga,
√ el conjunto de los números reales
de la forma p + q 3 + r 5, donde p, q, r ∈ Q.

2. El conjunto R de los números reales puede considerarse como


un espacio vectorial sobre Q, con respecto a la suma en R y el
producto de un racional por un real.
Probar que este espacio no es de dimensión finita.
Sugerencia: R no es numerable.

3. Mostrar un ejemplo de conjunto no vacío C ⊂ R 2 tal que, para


todo λ ∈ R y todo v ∈ C,

λv ∈ C

pero C no es un subespacio de R2 .

4. Sea G el espacio vectorial sobre R de todas las funciones : R → R


con respecto a las operaciones

( f + g)(x) = f (x) + g(x) (λ f )(x) = λ f (x)

Probar que los conjuntos

S = { f ∈ G | f (−x) = f (x) ∀x ∈ R}
T = { f ∈ G | f (−x) = − f (x) ∀x ∈ R}

son subespacios de G y que G = S ⊕ T.

5. Sean v1 , v2 , . . . , vn , u, w vectores de un espacio vectorial E.

36
Publicación digital de Editorial Equinoccio
1.5 E JERCICIOS

Sean V, S, T los subespacios generados por


{v1 , v2 , . . . , vn } {v1 , v2 , . . . , vn , u} {v1 , v2 , . . . , vn , w}
respectivamente.
Supongamos que w ∈ S, pero w ∈
/ V.
Probar que u ∈ T.

6. Sea E un espacio vectorial sobre un cuerpo F, y sea


{v1 , v2 , . . . , vm }
un conjunto de vectores de E linealmente independientes.
Probar que, para cualquier u ∈ E, ocurre que
{v1 , v2 , . . ., vm−1 , vm + u}
es linealmente independiente, o bien
{v1 , v2 , . . ., vm−1 , vm − u}
es linealmente independiente.
En consecuencia, demostrar (inducción) que si
{u1 , u2 , . . . , um }
es cualquier m-tuple de vectores de E, entonces existe un conjun-
to de vectores {w1 , w2 , . . . , wm } linealmente independiente donde
cada wi es de la forma vi + ui o bien vi − ui .

7. Sea S un subespacio de un espacio vectorial E de dimensión finita.


Probar que existe un subespacio T (no necesariamente único) tal
que E = S ⊕ T.

8. Sean S y T subespacios de un espacio vectorial E de dimensión


finita sobre un cuerpo F.
Probar que existe una base de E que contiene una base de S y una
base de T como subconjuntos.

37
Publicación digital de Editorial Equinoccio
1 E SPACIOS VECTORIALES

9. Determinar si las siguientes identidades son ciertas para todo trío


de subespacios S, T, V de un espacio vectorial E sobre un cuerpo
F. En caso de certidumbre, probarla; y en caso de falsedad, pro-
porcionar un contra-ejemplo.

S + (T ∩ V) = (S + T) ∩ (S + V)
S ∩ [T + (S ∩ V)] = (S ∩ T) + (S ∩ V)

10. Si S, T, V son subespacios de un espacio vectorial E sobre un


cuerpo F, tales que T ⊂ V, probar que

T + (S ∩ V) = (T + S) ∩ V

Mostrar que, en general, existen precisamente ocho subespacios


diferentes que pueden obtenerse de S, T, V mediante sumas e in-
tersecciones. Hacer un diagrama que manifieste las inclusiones
entre estos subespacios y –en caso de ser E de dimensión finita–
explicar cómo se relacionan sus dimensiones.
(Pregunta de examen en la Universidad de Oxford, 1963)

11. Comprobar que

(a) S1 = {(u, v) ∈ C2 | u + iv = 0} es un subespacio de C2 .


(b) S2 = {(u, v, w) ∈ C3 | u + 2v + 3w = 0} es un subespacio de
C3 .
(c) S3 = {(u, v, w, z) ∈ C4 | u+iv = v+iw = w+iz} es un subes-
pacio de C4 .

12. Sea E un espacio vectorial de dimensión finita sobre el cuerpo R.


Si S1 , S2 , . . . , Sm son subespacios de E de la misma dimensión,
probar que existe un subespacio T tal que E = Sk ⊕ T, para k =
1, 2, . . ., m.

38
Publicación digital de Editorial Equinoccio
1.5 E JERCICIOS

13. Sea B una base del espacio vectorial E y C = {u1 , u2 , . . . , u p} un


conjunto de vectores linealmente independientes con p < dimE.
Probar que C puede completarse con vectores de B para constituir
una base de E.

14. Sea S un subespacio de un espacio vectorial E.


Sea v0 ∈ E un vector fijo. Al conjunto
v0 + S = {vo + u | u ∈ S}
se le llama subespacio afín de E.
¿Bajo qué condiciones puede ser v0 + S un subespacio?
Si u0 + S es otro subespacio afín, probar que v0 + S y u0 + S son
iguales o disjuntos.
¿Los subespacios afines v + S tienen algo que ver con el espacio
cociente E/S ?

15. Sea E un espacio vectorial de dimensión finita y F una familia


infinita de subespacios de E. Sea T el subespacio intersección de
todos los subespacios de F .
Probar que existe un número finito S1 , . . ., Sm de subespacios en
F tales que
T = S1 ∩ S2 ∩ · · · ∩ Sm
16. Sea {e1 , e2 , e3 } la base canónica de R3 y sean S1 , S2 , S3 los subes-
pacios generados, respectivamente, por
{e1 , e2 } , {e3 } , {e2 + e3 }

Mostrar que
R3 = S1 + S2 + S3
S1 ∩ S2 = S2 ∩ S3 = S1 ∩ S3 = {0}

¿Es posible que R3 = S1 ⊕ S2 ⊕ S3 ?

39
Publicación digital de Editorial Equinoccio
C APÍTULO 2
Transformaciones lineales

2.1 Concepto y propiedades básicas


Sean E y G dos espacios vectoriales sobre el mismo cuerpo F.

Definición 2.1.1. Decimos que una función ψ : E → G es una trans-


formación lineal si, para todo par de vectores x, y ∈ E y todo par de
escalares α , β ∈ F, se tiene

ψ (α x + β y) = αψ (x) + β ψ (y) (2.1.1)

Se infiere de esta definición que ψ (x + y) = ψ (x) + ψ (y) , ψ (λ x) =


λ ψ (x), para vectores cualesquiera x, y ∈ E y escalar λ ∈ F.1
Es consecuencia inmediata del principio de inducción que, para vec-
tores cualesquiera x1 , x2 , . . . , xk ∈ E y escalares α1 , α2 , . . . , αk ∈ F, se
verifica

ψ (α1 x1 + α2 x2 + · · · + αk xk ) = α1 ψ (x1 ) + α2 ψ (x2 ) + · · · + αk ψ (xk )

Se infiere de inmediato de la definición de la transformación lineal


ψ : E → G que

• ψ (0) = 0 (basta con tomar cualquier x ∈ E y tenemos 0 = 0x, de


donde ψ (0) = 0ψ (x) = 0).

• ψ (−x) = −ψ (x) (consecuencia de que −x = (−1)x).

1 ψ no es otra cosa que un homomorfismo entre las estructuras algebraicas E y G, tal


como se define el concepto general en el Apéndice B.

41
Publicación digital de Editorial Equinoccio
2 T RANSFORMACIONES LINEALES

Comentario 2.1.1. Es obvio que la función idénticamente nula x →


0 (∀x ∈ E) es una transformación lineal que llamaremos la transfor-
mación nula y designaremos usualmente por O. Si G = E, es también
evidente que la función identidad I : E → E, donde I (x) = x (∀x ∈ E),
es una transformación lineal.
Teorema 2.1.1. Sea ψ : E → G una transformación lineal.
Entonces,
1. si S es un subespacio de E,

ψ (S) = {ψ (x) | x ∈ S}

es un subespacio de G;
2. si T es un subespacio de G,

ψ −1 (T) = {x ∈ E | ψ (x) ∈ T}

es un subespacio de E.

Demostración.
(1) Es claro que ψ (S) = ∅, pues 0 = ψ (0) ∈ ψ (S).
Si u = ψ (x), v = ψ (y) están en ψ (S) (tomando x, y ∈ S) y α , β ∈ F,
entonces, sabiendo que α x + β y ∈ S,

α u + β v = αψ (x) + β ψ (y) = ψ (α x + β y) ∈ ψ (S)

(2) Como ψ (0) = 0 ∈ T, entonces ψ −1 (T) = ∅, pues 0 ∈ ψ −1 (T).


Tomemos x, y ∈ ψ −1 (T) y α , β ∈ F, luego, como ψ (x), ψ (y) ∈ T,
se tiene

ψ (α x + β y) = αψ (x) + β ψ (y) ∈ T =⇒ α x + β y ∈ ψ −1 (T)

Una transformación lineal da origen a dos subespacios de particular


interés: el kernel de ψ , definido como

ker ψ = {x ∈ E | ψ (x) = 0}

42
Publicación digital de Editorial Equinoccio
2.1 C ONCEPTO Y PROPIEDADES BÁSICAS

que es un subespacio de E, pues {0} es un subespacio de G y ker ψ =


ψ −1 (0).
Y el rango de ψ , definido precisamente como

Im ψ = ψ (E) = {ψ (x) | x ∈ E}

que es un subespacio de G puesto que E es un subespacio de E.

Proposición 2.1.1. Una transformación lineal ψ : E → G es inyectiva


si, y sólo si, ker ψ = {0} (su kernel es trivial).
Demostración. Si ψ es inyectiva y x ∈ ker ψ , entonces ψ (x) = 0 = ψ (0)
implica que x = 0.
Recíprocamente, supongamos que ker ψ = {0} y sean x, y ∈ E tales
que ψ (x) = ψ (y); entonces,

ψ (x − y) = ψ (x) − ψ (y) = 0 =⇒ x − y ∈ ker ψ =⇒ x=y

Es obvio, por supuesto, que la transformación ψ : E → G es so-


breyectiva si, y sólo si, Im ψ = G.
Un subespacio S del espacio vectorial E da origen a dos transforma-
ciones lineales notables,

• la inyección canónica i : S → E tal que, para todo x ∈ S , i(x) = x,


obviamente una transformación lineal inyectiva;

• y la proyección canónica
E
π : E → tal que ∀x ∈ E : π (x) = x
S
que es una transformación lineal como consecuencia directa de la
definición de la suma y de la ley externa en el espacio cociente; su
sobreyectividad es evidente. También es fácil notar que ker π = S,
pues
x ∈ ker π ⇐⇒ π (x) = x = 0 = S ⇐⇒ x ∈ S

43
Publicación digital de Editorial Equinoccio
2 T RANSFORMACIONES LINEALES

Sea E un espacio vectorial sobre un cuerpo F y supongamos que

E = S1 ⊕ S2 ⊕ · · · ⊕ Sm (2.1.2)

Para j = 1, 2, . . ., m definamos π j : E → E tal que, para cualquier


u = v1 + v2 + · · · + vm ∈ E, donde vk ∈ Sk , se tiene π j (u) = v j .
En primer lugar, la función π j está bien definida, pues todo u ∈ E es
expresable de manera única como la suma indicada arriba (Proposición
1.2.1), o sea que u determina cada vector vk ∈ Sk unívocamente. En
segundo lugar, π j es una transformación lineal, como se comprueba de
inmediato.
A las transformaciones π j se les llama proyecciones sujetas a la des-
composición (2.1.2).
Nótese que tienen las siguientes propiedades de verificación trivial:

1. Im π j = S j ker π j = ∑k= j Sk

2. π 2j = π j

3. π j ◦ πk = O (transformación nula), para j = k

4. π1 + π2 + · · · + πm = I (transformación identidad).

Teorema 2.1.2. Si ψ : E → G es una transformación lineal y el espacio


E es de dimensión finita,2 entonces los subespacios ker ψ e Im ψ son
ambos de dimensión finita y se tiene

dimE = dim(ker ψ ) + dim(Im ψ )

Demostración. ker ψ es de dimensión finita por ser un subespacio de


E (Teorema 1.4.4). Sea {x1 , x2 , . . . , xk } una base de ker ψ que, por el
Teorema 1.4.5, podemos extender a una base B = {x1 , . . . , xk , y1 , . . . , ym }
para E.

2 No hace falta suponer que G sea de dimensión finita.

44
Publicación digital de Editorial Equinoccio
2.1 C ONCEPTO Y PROPIEDADES BÁSICAS

Ahora bien, dado cualquier v = ψ (z) ∈ Im ψ , tenemos


   
k m k m
z = ∑ αi xi + ∑ β j y j =⇒ v = ψ ∑ αixi +ψ ∑ β jy j
i=1 j=1 i=1 j=1
 
m m
=⇒ v=ψ ∑ β jy j = ∑ β j ψ (y j )
j=1 j=1

de manera que el conjunto H = {ψ (y1 ), ψ (y2 ), . . ., ψ (ym )} genera el


subespacio Im ψ . Veamos que H es linealmente independiente.
En efecto,
λ1 ψ (y1 ) + λ2 ψ (y2 ) + · · · + λm ψ (ym ) = 0
 
m m
=⇒ ψ ∑ λ jy j =0 =⇒ ∑ λ j y j ∈ ker ψ
j=1 j=1
m k k m
=⇒ ∑ λ j y j = ∑ ηixi =⇒ ∑ (−ηi)xi + ∑ λ j y j = 0
j=1 i=1 i=1 j=1

lo cual implica que todos los escalares λ j son cero, pues B es lineal-
mente independiente por ser una base.
En suma, H es una base para Im ψ , cuya dimensión es por tanto m,
y dim E = k + m, donde k es la dimensión de ker ψ .

Corolario 2.1.1. Si S es un subespacio del espacio vectorial de dimen-


sión finita E, entonces el espacio cociente E/S es de dimensión finita y
 
E
dim = dim E − dim S
S

Demostración. Sea π : E → E/S la proyección canónica. Sabemos que


su kernel es S y que es sobreyectiva, de modo que Im π = E/S. El
teorema precedente nos dice entonces que
 
E
dim E = dim S + dim
S

45
Publicación digital de Editorial Equinoccio
2 T RANSFORMACIONES LINEALES

Corolario 2.1.2. Sea ψ : E → G una transformación lineal entre espa-


cios de dimensión finita.
1. Si ψ es inyectiva, entonces dimE ≤ dim G;
2. si ψ es sobreyectiva, entonces dim G ≤ dim E;
3. si ψ es biyectiva, entonces dim G = dim E.

Demostración. De acuerdo con el Teorema 2.1.2 tenemos, en todo caso,


dimE = dim(ker ψ ) + dim(Im ψ ). Según la Proposición 2.1.1, si ψ es
inyectiva, entonces dimE = dim(Im ψ ) ≤ dimG. Si ψ fuese sobreyec-
tiva, tendríamos dim E = dim(ker ψ ) + dim G ≥ dim G.
Si ψ es biyectiva, tenemos dim E ≤ dim G y dim G ≤ dimE.

Comentario 2.1.2. Observamos, en consecuencia del corolario prece-


dente, que, si dim E > dim G, no puede existir una transformación lineal
ψ : E → G inyectiva. Y si dim G > dim E, no puede existir una transfor-
mación lineal ψ : E → G sobreyectiva.
Proposición 2.1.2. Si la transformación lineal ψ : E → G es inyectiva
y {x1 , x2 , . . ., xm } es un conjunto linealmente independiente en el es-
pacio E, entonces {ψ (x1 ), ψ (x2 ), . . . , ψ (xm )} es linealmente indepen-
diente en G.
Demostración.
α1 ψ (x1 ) + α2 ψ (x2 ) + · · · + αm ψ (xm ) = 0
=⇒ ψ (α1 x1 + α2 x2 + · · · + αm xm ) = 0
=⇒ α1 x1 + α2 x2 + · · · + αm xm ∈ ker ψ
pero ker ψ = {0}, en virtud de la hipótesis de inyectividad de ψ y la
Proposición 2.1.1; luego,
α1 x1 + α2 x2 + · · · + αm xm = 0
=⇒ αi = 0 (i = 1, 2, . . ., m)
por la independencia lineal de {x1 , x2 , . . . , xm }.

46
Publicación digital de Editorial Equinoccio
2.1 C ONCEPTO Y PROPIEDADES BÁSICAS

Corolario 2.1.3. Si ψ : E → G es una transformación lineal y el es-


pacio E es de dimensión finita, entonces ψ es inyectiva si, para al-
guna base B = {x1 , x2 , . . . , xn } de E, ocurre que el conjunto ψ (B) =
{ψ (x1 ), ψ (x2 ), . . ., ψ (xn )} es linealmente independiente.
Recíprocamente, si ψ es inyectiva, entonces la imagen bajo ψ de
toda base de E es linealmente independiente en G.
Demostración. Cualquiera que sea la base B de E, es claro que ψ (B) =
{ψ (x1 ), ψ (x2 ), . . ., ψ (xn )} genera el subespacio Im ψ y, si además ψ (B)
es linealmente independiente, se infiere que dim(Im ψ ) = n = dim(E),
lo cual implica, por el Teorema 2.1.2 que dim(ker ψ ) = 0 y, según la
Proposición 2.1.1, ψ es inyectiva.
Recíprocamente, si ψ es inyectiva y B es cualquier base de E, la
Proposición 2.1.2 nos dice que ψ (B) es linealmente independiente.

Una transformación lineal ψ : E → G, cuando el espacio E es de


dimensión finita, queda unívocamente determinada con sólo conocer
las imágenes de los vectores de una base de E. Este es un hecho de
fundamental importancia y de consecuencias que serán explotadas a lo
largo del libro. Sobre esto se apoya la representación matricial de una
transformación lineal.
Teorema 2.1.3. Dada una base B = {x1 , x2 , . . . , xn } del espacio vecto-
rial E e igual número de vectores3 y1 , y2 , . . . , yn del espacio G, existe
una transformación lineal única ψ : E → G tal que ψ (x 1 ) = y1 , ψ (x2 ) =
y2 , . . ., ψ (xn ) = yn .
Demostración. Dados los vectores y1 , y2 , . . ., yn del espacio G, podemos
definir una función ψ : E → G del siguiente modo: cualquier z ∈ E ad-
mite una expresión única (Teorema 1.4.7) de la forma z = α1 x1 + α2 x2 +
· · · + αn xn , entonces definimos ψ (z) = α1 y1 + α2 y2 + · · · + αn yn .
Es evidente que ψ (xi ) = yi , para cada vector xi ∈ B.
Por otro lado, si w = β1 x1 + β2 x2 + · · · + βn xn es otro vector cual-
quiera de E y λ , γ ∈ F son escalares, tenemos
λ z + γ w = (λ α1 + γβ1 )x1 + (λ α2 + γβ2 )x2 + · · · + (λ αn + γβn )xn
3 Cualesquiera y no necesariamente distintos.

47
Publicación digital de Editorial Equinoccio
2 T RANSFORMACIONES LINEALES

luego, de acuerdo con la definición de ψ ,

ψ (λ z + γ w) = (λ α1 + γβ1 )y1 + (λ α2 + γβ2 )y2 + · · · + (λ αn + γβn )yn


= λ (α1 y1 + α2 y2 + · · · + αn yn ) + γ (β1 y1 + β2 y2 + · · · + βn yn )
= λ ψ (z) + γψ (w)

o sea que ψ es una transformación lineal.


Si ζ : E → G fuese otra transformación lineal con ζ (xi ) = yi , para
i = 1, 2, . . ., n, tomemos cualquier vector z = α 1 x1 + α2 x2 +· · ·+ αn xn de
E y, precisamente como ζ es por definición una transformación lineal,
resulta ζ (z) = α1 ζ (x1 )+ α2 ζ (x2 )+· · ·+ αn ζ (xn ) = α1 y1 + α2 y2 +· · ·+
αn yn = ψ (z). En consecuencia, ζ = ψ .

Más adelante sacaremos mucho provecho del teorema precedente.


Por lo pronto, veamos algunas consecuencias.
Proposición 2.1.3. Sean E y G espacios vectoriales de dimensiones fini-
tas y ψ : E → G una transformación lineal.
1. ψ es inyectiva si, y sólo si, ψ admite inversa por la izquierda; es
decir, existe una transformación lineal ϕ : G → E tal que ϕ ◦ ψ =
I : E → E es la transformación identidad I (I (x) = x).
2. ψ es sobreyectiva si, y sólo si, ψ admite inversa por la derecha; es
decir, existe una transformación lineal ζ : G → E tal que ψ ◦ ζ =
I : G → G es la transformación identidad en G.

Demostración.
(1) Supongamos que ψ admite una inversa por la izquierda ϕ : G → E y
sea x ∈ ker ψ , o sea ψ (x) = 0. Entonces, x = I (x) = ϕ ◦ ψ (x) = ϕ (0) =
0; de modo que ker ψ = {0} y ψ es inyectiva según la Proposición 2.1.1.
Recíprocamente, supongamos que ψ es inyectiva y tomemos una
base cualquiera B = {x1 , x2 , . . . , xn } de E. En virtud del Corolario 2.1.3,
el conjunto {y1 , y2 , . . ., yn }, donde yi = ψ (xi ) para i = 1, 2, . . ., n, es li-
nealmente independiente en el espacio G y, dado que n = dim E ≤ dim G
(por el Corolario 2.1.2), aplicamos el Teorema 1.4.5 y lo extendemos a
una base {y1 , . . . , yn , z1 , . . . , z p} de G.

48
Publicación digital de Editorial Equinoccio
2.1 C ONCEPTO Y PROPIEDADES BÁSICAS

Aplicando el Teorema 2.1.3, podemos definir una transformación


lineal ϕ : G → E tal que ϕ (yi ) = xi , para i = 1, . . . , n y ϕ (z j ) = w j ( j =
1, . . ., p), donde los w j ∈ E pueden ser vectores cualesquiera de E, si se
quiere hacemos todos w j = 0, pero es indiferente.
Ahora bien, para cualquier xi ∈ B, tenemos ϕ ◦ ψ (xi ) = ϕ (ψ (xi )) =
ϕ (yi ) = xi = I (xi ), donde I : E → E es la transformación identidad.
Como el Teorema 2.1.3 establece que una transformación lineal está
unívocamente determinada por sus valores en una base, hemos probado
que ϕ ◦ ψ = I ; es decir, ψ admite inversa por la izquierda.
(2) Supongamos que ψ admite una inversa por la derecha ζ : G → E, de
modo que ψ ◦ ζ = I : G → G es la transformación identidad. Tomemos
un vector cualquiera v ∈ G, entonces v = I (v) = ψ ◦ ζ (v) = ψ (ζ (v)),
o sea que existe un vector u = ζ (v) ∈ E tal que ψ (u) = v y ψ es so-
breyectiva.
Recíprocamente, suponemos ahora que ψ es sobreyectiva.
Tomemos una base B = {y1 , y2 , . . . , ym } para el espacio G; por la so-
breyectividad de ψ , existen vectores (no necesariamente únicos en cada
caso) wk ∈ E tales que ψ (wk ) = yk , para k = 1, 2, . . ., m. En virtud del
Teorema 2.1.3, queda determinada una transformación lineal ζ : G → E
tal que ζ (yk ) = wk , para k = 1, 2, . . ., m.
Tomemos un yk ∈ B , entonces ψ ◦ ζ (yk ) = ψ (ζ (yk )) = ψ (wk ) = yk
y, apelando al Teorema 2.1.3, hemos probado que ψ ◦ ζ = I : G → G;
es decir, ζ es inversa de ψ por la derecha.

Comentario 2.1.3. Estas transformaciones inversas por la izquierda


y por la derecha no son, en general, únicas. La propia demostración
anterior sugiere la posibilidad de construir inversas distintas.
Una transformación lineal ψ : E → G biyectiva se denomina un iso-
morfismo entre los espacios vectoriales E y G; también se dice que E y
G son isomorfos (bajo ψ ). Y, si los espacios son de dimensión finita, el
Corolario 2.1.2 nos dice que dim E = dim G.
Otro nombre que se usa y usaremos con frecuencia para un isomor-
fismo es el de transformación no-singular. Una transformación lineal

49
Publicación digital de Editorial Equinoccio
2 T RANSFORMACIONES LINEALES

que no sea biyectiva también suele llamarse una transformación singu-


lar.
Como ψ es biyectiva, admite función inversa ψ −1 : G → E que re-
sulta ser también una transformación lineal.
En efecto, sean u, v ∈ G y x = ψ −1 (u) , y = ψ −1 (v), y escalares
α , β ∈ F. Entonces,

ψ (α x + β y) = αψ (x) + β ψ (y) = α u + β v
=⇒ ψ −1 (α u + β v) = α x + β y = αψ −1 (u) + β ψ −1 (v)

y, tratándose de la función inversa, tenemos que ψ ◦ ψ −1 = ψ −1 ◦ ψ =


I , de modo que la misma ψ −1 es inversa por la izquierda y por la
derecha de ψ ; y, en este caso, es única. En efecto, supongamos que
también ϕ ◦ ψ = I , entonces

ϕ = ϕ ◦ (ψ ◦ ψ −1 ) = (ϕ ◦ ψ ) ◦ ψ −1 = ψ −1

y de manera totalmente análoga probamos que una inversa de ψ por la


derecha es también igual a ψ −1 .
Los siguientes resultados son importantes.

Teorema 2.1.4. Si ψ : E → G es una transformación lineal y dimE =


dimG, las siguientes propiedades son equivalentes.

1. ψ es un isomorfismo;

2. ψ es inyectiva;

3. ψ es sobreyectiva.

Demostración. (1) =⇒ (2) es obvio.


(2) =⇒ (3): Tenemos que ker ψ = {0}, luego dim G = dim E = 0 +
dim(Im ψ ), o sea que Im ψ = G y ψ es sobreyectiva.
(3) =⇒ (1): Tenemos que Im ψ = G, luego dim E = dim(ker ψ ) +
dim G =⇒ dim(ker ψ ) = 0 y ψ es inyectiva también, por tanto biyec-
tiva.

50
Publicación digital de Editorial Equinoccio
2.1 C ONCEPTO Y PROPIEDADES BÁSICAS

Teorema 2.1.5. Los espacios vectoriales de dimensiones finitas E y G


(sobre el mismo cuerpo F) son isomorfos si, y sólo si, dim E = dim G.
En tal caso, una transformación lineal ψ : E → G es un isomorfismo
si para alguna base B de E, ocurre que ψ (B) es una base de G.
Recíprocamente, si ψ : E → G es un isomorfismo, entonces la ima-
gen bajo ψ de toda base de E es una base de G.
Demostración. Ya hemos visto que, si existe un isomorfismo entre E y
G, entonces dim E = dim G.
Supongamos ahora que dim E = dim G = n.
Elegimos una base cualquiera B = {x1 , . . ., xn } de E y una base
B = {y1 , . . . , yn } de G. De acuerdo con el Teorema 2.1.3, queda perfec-
tamente definida una transformación lineal ϕ : E → G tal que ϕ (xi ) = yi ,
para i = 1, . . . , n, y, en virtud del Corolario 2.1.3, ϕ es inyectiva. Según
el teorema precedente, esto basta para afirmar que ϕ es un isomorfismo.
Sea pues dim E = dim G y ψ : E → G una transformación lineal.
Si B es una base de E tal que ψ (B) es una base de G, en virtud del
Corolario 2.1.3 ψ es inyectiva, lo cual implica que es un isomorfismo
según el Teorema 2.1.4.
Recíprocamente, si ψ es un isomorfismo y B es una base de E, en-
tonces ψ (B) es linealmente independiente por ser ψ inyectiva (Coro-
lario 2.1.3); pero el número de vectores en ψ (B) es la dimensión de G,
luego ψ (B) es una base de G por el Teorema 1.4.6.

La demostración precedente ya indica que, entre espacios de igual


dimensión, existen tantos isomorfismos como bases se eligen para un
espacio y para el otro. Para ser más precisos, el teorema demuestra
que para cada par de bases B, B en E y en G respectivamente podemos
definir un isomorfismo entre estos espacios; y por otro lado, un iso-
morfismo ψ : E → G hace que cualquier base B de E induzca una base
B = ψ (B) de G.
Ya sabemos que el espacio Fn es de dimensión n. De acuerdo con lo
establecido, podemos afirmar que todo espacio vectorial de dimensión n
es isomorfo con Fn . En tal sentido y desde un punto de vista puramente
algebraico, existe un solo espacio vectorial de dimensión n que es F n .
Para ser más precisos, sea B = {x1 , . . . , xn } una base cualquiera

51
Publicación digital de Editorial Equinoccio
2 T RANSFORMACIONES LINEALES

de E; sabemos que los vectores e1 , e2 , . . ., en de Fn , tales que la co-


ordenada de lugar k en ek es 1 y sus restantes coordenadas son 0, es
decir, e1 = (1, 0, . . ., 0) , e2 = (0, 1, . . ., 0) , en = (0, 0, . . ., 1), constitu-
yen una base (canónica) para Fn . En virtud del Teorema 2.1.5, queda
definido un isomorfismo (canónico) ψ : E → F n tal que ψ (xi ) = ei , para
i = 1, 2, . . ., n. Nótese que, dado cualquier z ∈ E, existe una expresión
única de la forma z = α1 x1 +· · ·+ αn xn ; vale decir, los escalares αi están
unívocamente determinados por z, y tenemos
n n
ψ (z) = ∑ αi ψ (xi ) = ∑ αi ei = (α1 , . . . , αn ) ∈ Fn
i=1 i=1

De modo que, bajo el isomorfismo canónico ψ , la imagen de z es pre-


cisamente el n-tuple ordenado de sus coordenadas con respecto a la
base B.
Es importante dejar sentado de una vez que el compuesto de trans-
formaciones lineales (cuando es posible) es una transformación lineal:
Sean ψ : E → G y ϕ : G → H transformaciones lineales (entre espa-
cios sobre el mismo cuerpo F); entonces, la función ϕ ◦ ψ : E → H es
una transformación lineal.
En efecto, para x, y ∈ E y α , β ∈ F,

(ϕ ◦ ψ )(α x + β y) = ϕ (ψ (α x + β y)) = ϕ (αψ (x) + β ψ (y))


= αϕ (ψ (x)) + β ϕ (ψ (y)) = α (ϕ ◦ ψ )(x) + β (ϕ ◦ ψ )(y)

El isomorfismo entre espacios vectoriales (sobre un mismo cuerpo


F) es una relación de equivalencia.
En efecto, todo espacio E es isomorfo consigo mismo bajo la trans-
formación identidad I : E → E (y bajo cualquier otra transformación
no-singular); si E es isomorfo con G bajo una transformación no-sin-
gular ψ : E → G, entonces G es isomorfo con E bajo la transformación
inversa ψ −1 : G → E; y en cuanto a transitividad, si ψ : E → G es un
isomorfismo y ζ : G → H es otro, sabemos que ζ ◦ ψ : E → H es biyec-
tiva y, además, una transformación lineal, por tanto E es isomorfo con
H bajo ζ ◦ ψ .

52
Publicación digital de Editorial Equinoccio
2.2 T EOREMAS DEL ISOMORFISMO

2.2 Teoremas del isomorfismo


Vamos a establecer ciertos teoremas de carácter técnico que son
útiles y frecuentes instrumentos. Hacemos notar al lector que estos re-
sultados no exigen que los espacios sean de dimensión finita.

Teorema 2.2.1. Primer teorema del isomorfismo.


Si ψ : E → G es una transformación lineal, entonces existe un iso-
morfismo
E
ψ: −→ Im ψ
ker ψ
bien definido por ψ (x) = ψ (x).
Así pues, los espacios E/ ker ψ e Im ψ son isomorfos.
Demostración. En primer lugar, debemos probar que la función ψ está
bien definida. Supongamos que y ∈ x, lo cual equivale a que y = x; debe
entonces tenerse ψ (y) = ψ (x). En efecto, el caso es que x ∼ y o, lo que
es lo mismo, x − y ∈ ker ψ , luego, 0 = ψ (x − y) = ψ (x) − ψ (y) =⇒
ψ (x) = ψ (x) = ψ (y) = ψ (y).
Veamos ahora que ψ es una transformación lineal:
 
ψ (α x + β y) = ψ α x + β y
= ψ (α x + β y) = αψ (x) + β ψ (y)
= αψ (x) + β ψ (y)

Examinemos el kernel de ψ :

x ∈ ker ψ =⇒ 0 = ψ (x) = ψ (x)


=⇒ x ∈ ker ψ =⇒ x = 0

De modo que ker ψ = {0} es pues trivial, lo cual implica, de acuerdo


con la Proposición 2.1.1, que ψ es inyectiva y, como su propia defini-
ción la hace sobreyectiva, se concluye que ψ es un isomorfismo.

53
Publicación digital de Editorial Equinoccio
2 T RANSFORMACIONES LINEALES

Teorema 2.2.2. Segundo teorema del isomorfismo.


Si S y T son subespacios de un espacio vectorial E, entonces los
espacios cocientes
S S+T
S∩T T
son isomorfos
Demostración. Nótese que los espacios cocientes indicados en el enun-
ciado existen, pues S ∩ T es un subespacio del espacio vectorial S, y T
es un subespacio del espacio vectorial S + T.
Consideremos la proyección canónica
S+T
π : S + T →
T
Su restricción al subespacio S ⊂ S + T,
S+T
π1 : S →
T
es desde luego una transformación lineal, la cual es además sobreyec-
tiva; en efecto, s + t + T (donde s ∈ S ,t ∈ T) es cualquier elemento del
espacio (S+T)/T, pero s +t +T = s +T, pues (s+t) −s = t ∈ T, luego
π1 (s) = π (s) = s + T = s + t + T, o sea que s + t + T está en el rango
de π1 .
Veamos ahora que ker π1 = S ∩ T:

s ∈ ker π1 ⇐⇒ (s ∈ S) ∧ (π1 (s) = s + T = T) ⇐⇒ s ∈ S ∩ T

Aplicamos a π1 el Teorema 2.2.1 y resultan isomorfos los espacios


S/ ker π1 e Im π1 , es decir S/(S ∩ T) y (S + T)/T.

Como caso particular obtenemos el siguiente resultado.

Corolario 2.2.1. Si S y T son subespacios de un espacio vectorial E y


E = S ⊕ T, entonces los espacios S y E/T son isomorfos.

54
Publicación digital de Editorial Equinoccio
2.3 E SPACIOS DE TRANSFORMACIONES LINEALES

2.3 Espacios de transformaciones lineales


Dado un par de espacios vectoriales4 E y G sobre un mismo cuerpo
F, el conjunto L (E, G) de todas las transformaciones lineales de E en G
puede convertirse en un espacio vectorial (sobre F) de manera bastante
natural.
Para ψ , ζ ∈ L (E, G) cualesquiera, definimos ψ + ζ : E → G tal que
(ψ + ζ )(x) = ψ (x) + ζ (x) (∀x ∈ E)
y, para un escalar λ ∈ F, definimos λ ψ : E → G tal que
(λ ψ )(x) = λ ψ (x) (∀x ∈ E) (#)
Es un ejercicio rutinario y carente de toda dificultad verificar los
siguientes hechos:
1. Las funciones ψ + ζ y λ ψ pertenecen a L (E, G);
2. la estructura (L (E, G), +) es un grupo abeliano, cuyo neutro es
la transformación nula O : x → 0;
3. la ley de composición externa en L (E, G), definida mediante (#),
satisface las cuatro propiedades pertinentes a la ley externa en la
definición de espacio vectorial.
En síntesis, L (E, G) es un espacio vectorial sobre F con respecto a
las operaciones definidas.
Supongamos ahora que los espacios E y G son de dimensiones fini-
tas.
Vamos a demostrar que L (E, G) es de dimensión finita y
dim L (E, G) = dim E × dim G
Sea X = {x1 , . . . , xn } una base de E y sea Y = {y1 , . . . , ym } una base
de G. Definamos n × m transformaciones lineales ζi j ∈ L (E, G) tales
que, para 1 ≤ i ≤ n , 1 ≤ j ≤ m, hacemos
ζi j (xi ) = y j ζi j (xk ) = 0 , si k = i

4 No es preciso suponer que sean de dimensión finita hasta que se diga lo contrario.

55
Publicación digital de Editorial Equinoccio
2 T RANSFORMACIONES LINEALES

De acuerdo con el Teorema 2.1.3, cada ζi j queda perfectamente definida


como una transformación lineal de E en G.
Tomemos cualquier ψ ∈ L (E, G). Para cada i = 1, . . ., n, tenemos
la expresión única ψ (xi ) = αi1 y1 + · · · + αim ym . Ahora bien,

∑ αi j ζi j ∈ L (E, G)
ij

y consideremos, para cada k = 1, . . ., n,


 
m
ψ − ∑ αi j ζi j (xk ) = ψ (xk ) − ∑ αk j ζk j (xk )
ij j=1
m m
= ∑ αk j y j − ∑ αk j y j = 0
j=1 j=1

Esto significa que

ψ − ∑ αi j ζi j = O
ij

pues la imagen de cada xk ∈ X es 0 bajo ambas y se aplica el Teorema


2.1.3.
Hemos probado que ψ = ∑i j αi j ζi j , o sea que la familia {ζi j } ge-
nera el espacio L (E, G).
En cuanto a la independencia lineal,
 
∑ λi j ζi j = O =⇒ 0= ∑ λi j ζi j (xk )
ij ij
m m
= ∑ λk j ζk j (xk ) = ∑ λk j y j =⇒ λk j = 0
j=1 j=1

para k = 1, . . . , n , j = 1, . . . , m, de modo que el conjunto {ζi j } es line-


almente independiente y, en resumen, una base para el espacio L (E, G)
que tiene por tanto dimensión n × m.
Sean E, G, H espacios vectoriales sobre el mismo cuerpo F y ϕ , ψ :
E → G , τ , η : G → H transformaciones lineales. Hemos visto que la

56
Publicación digital de Editorial Equinoccio
2.3 E SPACIOS DE TRANSFORMACIONES LINEALES

composición de transformaciones lineales es siempre una transforma-


ción lineal. Es fácil verificar que se cumplen las propiedades distributi-
vas:

τ ◦ (ϕ + ψ ) = τ ◦ ϕ + τ ◦ ψ (τ + η ) ◦ ϕ = τ ◦ ϕ + η ◦ ϕ (2.3.1)

En efecto, para todo x ∈ E,

[τ ◦ (ϕ + ψ )](x) = τ [(ϕ + ψ )(x)] = τ (ϕ (x) + ψ (x))


= τ (ϕ (x)) + τ (ψ (x)) = (τ ◦ ϕ )(x) + (τ ◦ ψ )(x)
= (τ ◦ ϕ + τ ◦ ψ )(x)

y la demostración para la distributividad por el otro lado es análoga.


Existe además una propiedad que involucra la composición de trans-
formaciones y el producto de un escalar por una transformación:

α (τ ◦ ϕ ) = (ατ ) ◦ ϕ = τ ◦ (αϕ ) (2.3.2)

para todo α ∈ F. Se trata de una consecuencia trivial de que τ y ϕ son


transformaciones lineales.
El espacio L (E, E) merece especial atención. En este caso existe
una operación binaria adicional que es la composición de transforma-
ciones, pues, si ψ , ϕ ∈ L (E, E), entonces ψ ◦ ϕ , ϕ ◦ ψ ∈ L (E, E).
Por tratarse de la composición de funciones, sabemos que la ope-
ración binaria ◦ es asociativa, no conmutativa en general y existe en
L (E, E) un neutro que es la transformación identidad I : E → E tal
que I (x) = x, para todo x ∈ E. Sólo las biyecciones, vale decir, los
isomorfismos ϕ ∈ L (E, E) admiten inversos con respecto a ◦, precisa-
mente ϕ −1 ∈ L (E, E).
La operación ◦ es distributiva (por ambos lados) con respecto a la
suma en L (E, E), según se estableció en el caso más general (2.3.1). Y
se tiene además la propiedad (2.3.2) que vincula la ley externa sobre F
con la operación ◦.
La estructura (L (E, E), +, ◦) es lo que se denomina un anillo (no
abeliano y con neutro I ).5 Es un anillo que carece de integridad; es

5 Los anillos en general serán estudiados en el Capítulo 5.

57
Publicación digital de Editorial Equinoccio
2 T RANSFORMACIONES LINEALES

decir, pueden existir ψ , ζ ∈ L (E, E), distintas ambas de la transforma-


ción nula O, y sin embargo ψ ◦ ζ = O. Esto sucede cuando ker ψ = {0}
(pero con ψ = O) y 0 = Im ζ ⊂ ker ψ .
En resumen, el conjunto L (E, E) está provisto de dos operaciones
binarias + y ◦, de modo que (L (E, E), +, ◦) es un anillo, y una ley
externa sobre el cuerpo F que hace del grupo (L (E, E), +) un espa-
cio vectorial, y además se cumple la propiedad (2.3.2) entre ◦ y la ley
externa.
La estructura abstracta con estas características suele llamarse un
álgebra lineal.
Si el espacio E es de dimensión finita, ya hemos establecido antes
que también L (E, E) es de dimensión finita y

dimL (E, E) = (dim E)2

2.4 El espacio dual


Damos tratamiento aparte a un caso especial de los espacios de
transformaciones lineales.
Recordemos que el propio cuerpo F puede considerarse como un
espacio vectorial sobre sí mismo, tomando el producto como la ley ex-
terna. Se trata desde luego de un espacio de dimensión 1 y base canó-
nica {1}.
Sea E un espacio vectorial cualquiera sobre F.
El espacio vectorial de transformaciones lineales L (E, F), que de-
signaremos simplemente por E ∗ , se denomina espacio dual de E. Los
elementos de E∗ suelen llamarse funcionales (lineales). Un x∗ ∈ E∗ es,
pues, una transformación lineal x∗ : E → F.
Si E es de dimensión finita, sabemos por las deducciones de la sec-
ción anterior, que E∗ es de dimensión (dimE) × 1, es decir, dim E ∗ =
dim E.
Dada una base X = {x1 , x2 , . . . , xn } y tomando la base canónica {1}
en F, sabemos cómo construir una base para E∗ aplicando las técnicas
de la sección anterior. Sin embargo, vamos a proporcionar una cons-
trucción directa en este caso más sencillo.

58
Publicación digital de Editorial Equinoccio
2.4 E L ESPACIO DUAL

Consideremos el conjunto X ∗ = {x∗1 , x∗2 , . . ., x∗n } en E∗ . Cada x∗k :


E → F queda unívocamente determinada conociendo sólo las imágenes
de los vectores de la base X bajo x∗k (Teorema 2.1.3). Definimos pues
x∗k (xk ) = 1 y x∗k (xi ) = 0 para i = k.
Tomemos cualquier x∗ ∈ E∗ y sean los escalares ai = x∗ (xi ), para
i = 1, 2, . . ., n.
Entonces,
x∗ = a1 x∗1 + a2 x∗2 + · · · + an x∗n
pues  
n
x∗ (xk ) = ak = ∑ aix∗i (xk ) = ak x∗k (xk )
i=1
para cada k = 1, 2, . . ., n (y de nuevo se aplica el Teorema 2.1.3).
Esto significa que el conjunto X ∗ de n elementos genera el espacio
E∗ cuya dimensión es n. En virtud del Teorema 1.4.6, X ∗ es una base
de E∗ y se denomina base dual de X .
También, si se prefiere, podemos verificar directamente que X ∗ es
linealmente independiente:
 
n n
∑ λi x∗i =O =⇒ 0= ∑ λix∗i (xk ) = λk x∗k (xk ) = λk
i=1 i=1

para k = 1, . . ., n.
Nótese además que las coordenadas de un x∗ ∈ E∗ con respecto a la
base X ∗ son los escalares x∗ (x1 ), . . ., x∗ (xn ) en ese orden.
Sea x = α1 x1 + · · · + αn xn cualquier vector de E. Se tiene, para cada
k = 1, . . ., n,

x∗k (x) = x∗k (α1 x1 + · · · + αn xn ) = αk x∗k (xk ) = αk

Se concluye que las coordenadas de x con respecto a la base X son


x∗1 (x), . . ., x∗n (x),
en ese orden, donde los x∗k constituyen la base dual
de X.
Nada impide considerar el espacio doble dual E∗∗ , el dual del dual de
E. Ocurre sin embargo que –para E de dimensión finita– existe una iden-
tificación natural entre E∗∗ y E, es decir, un isomorfismo canónico. Que

59
Publicación digital de Editorial Equinoccio
2 T RANSFORMACIONES LINEALES

estos espacios son isomorfos lo sabemos, en virtud del Teorema 2.1.5,


pues tienen la misma dimensión, pero existe un isomorfismo “natural”
entre ellos.
Definamos Δ : E → E∗∗ tal que, para todo vector x ∈ E, se tiene
Δ(x) : E∗ → F tal que
Δ(x)(x∗ ) = x∗ (x) , para todo x∗ ∈ E∗
Es preciso verificar que Δ(x) ∈ E∗∗ , es decir, que Δ(x) es un fun-
cional lineal. En efecto, para x∗ , y∗ ∈ E∗ y α , β ∈ F, tenemos
Δ(x)(α x∗ + β y∗ ) = (α x∗ + β y∗ )(x)
= α x∗ (x) + β y∗ (x) = α Δ(x)(x∗ ) + β Δ(x)(y∗ )
Ahora comprobamos que Δ es una transformación lineal. Tomamos
x, y ∈ E cualesquiera y escalares α , β ∈ F, entonces, para todo x∗ ∈ E∗ ,
ocurre
Δ(α x + β y)(x∗ ) = x∗ (α x + β y)
= α x∗ (x) + β x∗ (y) = α Δ(x)(x∗ ) + β Δ(y)(x∗ )
= (α Δ(x) + β Δ(y))(x∗ )
y se infiere que Δ(α x + β y) = α Δ(x) + β Δ(y).
Sea x ∈ ker Δ; luego, Δ(x) = O, por tanto, para todo x∗ ∈ E∗ , se tiene
0 = Δ(x)(x∗ ) = x∗ (x); en particular, x∗i (x) = 0 para todos los elementos
x∗i de una base X ∗ de E∗ , dual de una base X en E. Pero hemos visto
que los x∗i (x) (i = 1, . . ., n) son precisamente las coordenadas de x con
respecto a la base X . En conclusión, x = 0, de modo que ker Δ = {0} y Δ
es inyectiva (Proposición 2.1.1). Dado que dimE ∗∗ = dim E, el Teorema
2.1.4 nos dice que Δ es un isomorfismo.
Hay mucho más que decir sobre el tema de los espacios duales.
Volveremos sobre esto más adelante, sobre todo en el estudio de es-
pacios euclídeos.

2.5 Ejercicios
1. Sea E un espacio vectorial y sea ϕ : E → E una transformación
lineal.

60
Publicación digital de Editorial Equinoccio
2.5 E JERCICIOS

Decimos que un vector u ∈ E es fijo bajo ϕ si ϕ (u) = u.


Probar que la familia de los vectores fijos bajo ϕ constituye un
subespacio de E.

2. Sea E un espacio vectorial de dimensión finita sobre C, y sea


ϕ : E → E una transformación lineal.
Para cualquier secuencia λ1 , λ2 , . . . de números complejos, con-
sidérense los subespacios S0 , S1 , S2 , . . . tales que

S0 = E
Sk = (ϕ − λk I )(Sk−1 )

Probar que ϕ (Sk ) ⊂ Sk .

3. Sea B = {e1 , e2 , e3 } la base canónica del espacio R3 .


Considérese la transformación lineal ϕ : R3 → R3 definida por

ϕ (e1 ) = e1 ϕ (e2 ) = ϕ (e3 ) = 2 (e2 + e3 )


1

(a) Determinar la dimensión y una base para ker ϕ .


(b) Determinar una base para Im ϕ .
(c) Probar que Im ϕ ⊕ ker ϕ = R3 .
(d) Comprobar que ϕ ◦ ϕ = I (transformación identidad).
(e) Hallar una base para el subespacio de los vectores fijos bajo
ϕ (véase el ejercicio anterior).

4. Comprobar que la función ϕ : R3 → R4 , tal que

ϕ (x, y, z) = (x + 2y + z, −y + 2z, y + z, x)

es una transformación lineal.


Si B = {e1 , e2 , e3 } es la base canónica de R3 , determinar si los
vectores ϕ (e1 ), ϕ (e2 ), ϕ (e3 ) son linealmente independientes.

61
Publicación digital de Editorial Equinoccio
2 T RANSFORMACIONES LINEALES

Determinar ker ϕ e Im ϕ .
Hacer lo mismo con ψ : R4 → R3 , definida por

ψ (x, y, z,t) = (t, x − z − t, −x + 2z + t)

¿Es ψ sobreyectiva?
Calcular ϕ ◦ ψ . ¿Es biyectiva?

5. Sean E y G espacios vectoriales de dimensiones finitas y sobre el


mismo cuerpo.
Sean ϕ , ψ : E → G transformaciones lineales.
Demostrar que

dim(Im (ϕ + ψ )) ≤ dim(Im ϕ ) + dim(Im ψ )

6. Sean E, G, H espacios vectoriales de dimensiones finitas y sobre


el mismo cuerpo F.
ϕ : E → G y ψ : G → H son transformaciones lineales.
Demostrar que

dim (Im ψ ) + dim (Im ϕ ) − dim G


≤ dim [Im (ψ ◦ ϕ )] ≤ min{dim(Im ψ ), dim(Im ϕ )}

7. Sea E un espacio vectorial de dimensión n sobre un cuerpo F, y


sean ϕi : E → E (i = 1, 2, . . ., n) transformaciones lineales no nulas
que satisfacen

ϕ1 + ϕ2 + · · · + ϕn = I (identidad)

Demostrar que cada una de las siguientes propiedades implica las


otras dos:

(a) dim(Im ϕi ) = 1, para i = 1, 2, . . ., n.

62
Publicación digital de Editorial Equinoccio
2.5 E JERCICIOS

(b) ϕi2 = ϕi , para i = 1, 2, . . ., n.


(c) ϕi ◦ ϕ j = O (transformación nula), siempre que i = j.
(Pregunta de examen en la Universidad de Oxford, 1966)

8. Sea E un espacio vectorial de dimensión finita n ≥ 1.


Considérense las transformaciones lineales ϕ , ψ : E → E tales que
ϕ ◦ ψ = O (transformación nula).
Demostrar que

dim(Im ϕ ) + dim(Im ψ ) ≤ n

9. Sean E y G espacios vectoriales sobre un mismo cuerpo. Supon-


gamos que E es de dimensión finita, S es un subespacio de E y
ψ1 : S → G es una transformación lineal. Demostrar que existe
una transformación lineal ψ : E → G (no necesariamente única)
que extiende a ψ1 ; vale decir, ψ (x) = ψ1 (x), para todo x ∈ S.

10. Sea E un espacio vectorial de dimensión finita sobre un cuerpo F,


y sea τ : E → E una transformación lineal idempotente (τ 2 = τ ).

(a) Si ϕ : E → E es cualquier transformación, probar que

ϕ ◦τ = τ ◦ϕ
si, y sólo si,

ϕ (Im τ ) ⊂ Im τ y ϕ (ker τ ) ⊂ ker τ

(b) Sea T el conjunto de todas las transformaciones : E → E


que conmutan con τ .
Demostrar que T es un subespacio del espacio vectorial
L (E, E), y hallar una expresión de dim T en términos de
dim(ker τ ) y dim(Im τ ).

(Pregunta de examen en la Universidad de Oxford, 1996)

63
Publicación digital de Editorial Equinoccio
2 T RANSFORMACIONES LINEALES

11. Sea S un subespacio de un espacio vectorial de dimensión finita


E. Probar que existe una transformación lineal sobreyectiva ζ :
E → S tal que ζ (x) = x, para todo x ∈ S.

12. Sea E un espacio vectorial de dimensión finita y sea ϕ : E → E


una transformación lineal.
Demostrar que las siguientes propiedades son equivalentes:

(a) E = ker ϕ ⊕ Im ϕ
(b) ker ϕ ∩ Im ϕ = {0}
(c) E = ker ϕ + Im ϕ

13. E, G, H son espacios vectoriales sobre el mismo cuerpo y ϕ : E →


G y ψ : G → H son transformaciones lineales.
Demostrar las siguientes propiedades:

(a) ker ϕ ⊂ ker(ψ ◦ ϕ )


(b) ker(ψ ◦ ϕ ) = ϕ −1 (ker ψ )
(c) Im (ψ ◦ ϕ ) ⊂ Im ψ
(d) ker(ψ ◦ ϕ ) = ker ϕ ⇐⇒ ker ψ ∩ Im ϕ = {0}
(e) Im (ψ ◦ ϕ ) = Im ψ ⇐⇒ ker ψ + Im ϕ = G

14. Sean E, G, H espacios vectoriales de dimensiones finitas y sobre


el mismo cuerpo.
Sean ψ : E → G y ζ : E → H transformaciones lineales.
Demostrar que existe una transformación lineal τ : G → H tal que
τ ◦ ψ = ζ si, y sólo si, ker ψ ⊂ ker ζ .

15. Sean E y G espacios vectoriales de dimensiones finitas y sobre el


mismo cuerpo.
Sean ϕ , ψ : E → G transformaciones lineales.

64
Publicación digital de Editorial Equinoccio
2.5 E JERCICIOS

Entonces, ker ϕ = ker ψ si, y sólo si, existe una transformación


no-singular τ : G → G tal que ϕ = τ ◦ ψ .

16. Sea ψ : E → G una transformación lineal (no es preciso suponer


que los espacios vectoriales E y G sean de dimensiones finitas).
Sea S un subespacio de E y T un subespacio de G tales que
ψ (S) ⊂ T.
Defínase
E G
ψ: → tal que ψ (x) = ψ (x)
S T
Demostrar
(a) ψ está bien definida como función;
(b) ψ es una transformación lineal;
(c) ψ es la única transformación lineal que satisface la identidad
ψ ◦ πE = πG ◦ ψ , donde πE : E → E/S y πG : G → G/T son
las proyecciones canónicas.

17. Sea ψ : E → E una transformación lineal. Supongamos que el


subespacio S de E es ψ -invariante, es decir, ψ (S) ⊂ S.
Probar que existe una transformación lineal
E E
ψ: →
S S
y que es la única que satisface la identidad ψ ◦ π = π ◦ ψ , donde
π : E → E/S es la proyección canónica.

18. E, G, H son espacios vectoriales sobre el mismo cuerpo.


Si existe un isomorfismo ϕ : E → G, demostrar que los espacios
vectoriales L (E, H) y L (G, H) son isomorfos bajo
Φ : L (E, H) → L (G, H)
definida como Φ(ψ ) = ψ ◦ ϕ −1 , para ψ ∈ L (E, H).

65
Publicación digital de Editorial Equinoccio
2 T RANSFORMACIONES LINEALES

19. Mostrar un ejemplo concreto de ψ , ζ ∈ L (E, E), distintas ambas


de la transformación nula O, y tales que ψ ◦ ζ = O.

20. Tercer Teorema del Isomorfismo.


Si S y T son subespacios de un espacio vectorial E y S ⊂ T, en-
tonces los espacios
E/S E
y
T/S T
son isomorfos.

21. Verificar que los vectores


v1 = (1, 1, 1, 1) v2 = (0, 1, 1, 1)
v3 = (0, 0, 1, 1) v4 = (0, 0, 0, 1)
constituyen una base de R4 y determinar la base dual.

22. Sea E un espacio vectorial de dimensión finita y sea E∗ su espacio


dual.
Si ∅ = X ⊂ E, probar que el conjunto
X ∗ = {x∗ ∈ E∗ | x∗ (x) = 0 ∀x ∈ X}
es un subespacio de E∗ .
X ∗ se denomina el aniquilador de X .
Análogamente, si ∅ = Y ∗ ⊂ E∗ , probar que el conjunto
Y = {y ∈ E | y∗ (y) = 0 ∀y∗ ∈ Y ∗ }
es un subespacio de E que se llama aniquilador de Y ∗ .

23. Sea E un espacio vectorial de dimensión finita y sea E∗ su espacio


dual.
Si S es un subespacio de E y S∗ es su aniquilador (ver el ejercicio
anterior), demostrar que
dim E = dim S + dim S∗

66
Publicación digital de Editorial Equinoccio
C APÍTULO 3
Matrices

3.1 Concepto de matriz


Sea C = ∅ un conjunto cualquiera y m, n un par de números natu-
rales (≥ 1). En términos precisos, una matriz sobre C, de dimensiones
m × n, es una función M : {1, . . ., m} × {1, . . ., n} → C. Designamos
por ai j ∈ C la imagen bajo M del par ordenado (i, j). Conocidas las
“dimensiones” m, n y las m.n imágenes a i j correspondientes a cada par
(i, j), es claro que la matriz (la función) está perfectamente determi-
nada. En consecuencia y por abuso de notación, se acostumbra repre-
sentar la matriz en la forma
⎛ ⎞
a11 a12 . . . a1n
⎜ a21 a22 . . . a2n ⎟
M =⎜ ⎝ ... ... ... ... ⎠
⎟ (3.1.1)
am1 am2 . . . amn
y, cuando no hay riesgo de confusión, suele adoptarse la notación abre-
viada M = (ai j ) o bien M = (ai j )m×n . A las imágenes ai j las llamamos
entradas de la matriz, y se distribuyen rectangularmente en m filas y n
columnas. La entrada que ocupa la fila i y la columna j es la imagen
del par (i, j). Así pues, el símbolo (3.1.1) determina –y es determinado
por– la función que hemos denominado matriz.
Conviene introducir de una vez la siguiente definición.

Definición 3.1.1. Dada una matriz M = (a i j )m×n , se define la tras-


puesta de M como

67
Publicación digital de Editorial Equinoccio
3 M ATRICES

⎛ ⎞
a11 a21 · · · am1
⎜a12 a22 · · · am2 ⎟
MT = ⎜
⎝· · ·
⎟ (3.1.2)
··· ··· ··· ⎠
a1n a2n · · · amn
vale decir, la matriz obtenida de M poniendo sus filas como columnas
y conservando el orden. Las columnas de M se convierten, en conse-
cuencia, en las filas de M T .
Llamando ai j y a ji entradas conjugadas,1 podemos dar una descrip-
ción equivalente de la traspuesta como la matriz obtenida de M per-
mutando todas las entradas conjugadas.

Definición 3.1.2. Decimos que una matriz cuadrada es simétrica cuan-


do es igual a su traspuesta o, lo que es lo mismo, cuando cada una
de sus entradas es igual a su conjugada con respecto a la diagonal
principal: ai j = a ji .
Matrices sobre un cuerpo y sobre ciertos anillos son las que intere-
san en esta obra.

3.2 Matriz asociada a una transformación lineal


Sean E y G espacios vectoriales sobre un mismo cuerpo F y de di-
mensiones finitas n, m respectivamente.
Sea ϕ : E → G una transformación lineal.
Elegimos: para E una base X = {x1 , x2 , . . . , xn }, y para G una base
Y = {y1 , y2 , . . ., ym }.
Es importante declarar que, de aquí en adelante, al referirnos a una
base debemos entender que se trata de una base ordenada; es decir,
que la base en cuestión no sólo se compone de los vectores señalados,
sino también se distingue por el orden indicado para estos vectores. Por
ejemplo, si X = {x1 , x2 , x3 } es una base de cierto espacio tridimensional,
{x2 , x1 , x3 } sigue siendo una base, pero la consideramos distinta de X.

1
Las entradas de la diagonal principal a kk son auto-conjugadas y se mantienen en su
sitio.

68
Publicación digital de Editorial Equinoccio
3.2 M ATRIZ ASOCIADA A UNA TRANSFORMACIÓN LINEAL

El Teorema 2.1.3 nos dice que ϕ está unívocamente determinada


por los vectores ϕ (x1 ), ϕ (x2 ), . . . , ϕ (xn ) y éstos a su vez, en virtud del
Teorema 1.4.7, admiten expresión única como combinación lineal de
los vectores de la base Y de G :

ϕ (x1 ) = a11 y1 + a21 y2 + · · · + am1 ym


ϕ (x2 ) = a12 y1 + a22 y2 + · · · + am2 ym
(3.2.1)
··· ··· ··· ··· ···
ϕ (xn ) = a1n y1 + a2n y2 + · · · + amn ym
Así pues, la transformación ϕ determina los m × n coeficientes es-
calares ai j ∈ F; y recíprocamente, los ai j , conocido el lugar que le co-
rresponde a cada uno según (3.2.1), determinan unívocamente la trans-
formación ϕ .
Una manera práctica de expresar esto es asociar a ϕ la matriz
⎛ ⎞
a11 a12 . . . a1n
⎜ a21 a22 . . . a2n ⎟
[ϕ ] = ⎜
⎝ ... ... ... ... ⎠
⎟ (3.2.2)
am1 am2 . . . amn
donde se conviene en tomar como columna j ( j = 1, . . ., n) las coorde-
nadas del vector ϕ (x j ) con respecto a la base Y de G y en el orden que
corresponde.
En síntesis, con respecto a las bases X,Y , la transformación ϕ de-
termina la matriz [ϕ ] de (3.2.2) y recíprocamente. Podemos pues decir
que existe una correspondencia biunívoca (una biyección ΨX,Y ) entre
la familia L (E, G) de todas las transformaciones lineales : E → G y el
conjunto Mm×n de todas las matrices m × n sobre F.
Es obvio que la matriz asociada a la transformación nula O : E → G
es (0)m×n (con respecto a cualquier elección de bases), vale decir, la
matriz m × n cuyas entradas son todas 0.
Pero en la Sección 2.3 hemos dotado al espacio L (E, G) de una rica
estructura algebraica. Es ahora nuestro propósito inducir tal estructura
en el conjunto Mm×n aprovechando la biyección

ΨX,Y : L (E, G) → Mm×n

69
Publicación digital de Editorial Equinoccio
3 M ATRICES

Si ϕ ∈ L (E, G), con matriz ΨX,Y (ϕ ) = (ai j ), y λ ∈ F es cualquier


escalar, es inmediato comprobar que [λ ϕ ] = (λ ai j ), de modo que defi-
nimos λ (ai j ) = (λ ai j ) y, en consecuencia, λ ΨX,Y (ϕ ) = λ [ϕ ] = [λ ϕ ] =
ΨX,Y (λ ϕ ).
Dada otra transformación ψ ∈ L (E, G) de matriz [ψ ] = (bi j ), es
rutinario verificar que [ϕ + ψ ] = (ai j +bi j ). Definimos entonces la suma
de matrices (de iguales diemensiones por supuesto) como (a i j )+(bi j ) =
(ai j + bi j ); por tanto, ΨX,Y (ϕ + ψ ) = [ϕ + ψ ] = [ϕ ] + [ψ ] = ΨX,Y (ϕ ) +
ΨX,Y (ψ ).
Gracias a estas definiciones, la suma + de matrices y el producto de
un escalar por una matriz heredan las mismas propiedades de las opera-
ciones homónimas en L (E, G); es decir, M m×n es un espacio vectorial
isomorfo con L (E, G) bajo ΨX,Y .
Consideremos ahora las transformaciones lineales ϕ : E → G y τ :
G → H, donde hemos elegido bases X = {x1 , x2 , . . . , xn }, Y = {y1 , y2 , . . .
. . . ym }, Z = {z1 , z2 , . . . , z p} para E, G, H respectivamente, y con respecto
a las cuales se tienen las matrices
[ϕ ] = (ai j )m×n [τ ] = (b jk ) p×m
Veamos cuál es la matriz [τ ◦ ϕ ] = (ck j ) p×n asociada a la transfor-
mación compuesta τ ◦ ϕ : E → H, con respecto a las bases X, Z.
La entrada ck j , para 1 ≤ k ≤ p , 1 ≤ j ≤ n, es el coeficiente escalar de
zk en la expresión del vector (τ ◦ ϕ )(x j ) = τ [ϕ (x j )] como combinación
lineal de la base Z.
Ahora bien,
ϕ (x j ) = a1 j y1 + a2 j y2 + · · · + am j ym
de donde
τ [ϕ (x j )] = a1 j τ (y1 ) + a2 j τ (y2 ) + · · · + am j τ (ym )
pero

a1 j τ (y1 ) = a1 j b11 z1 + · · · + a1 j bk1 zk + · · · + a1 j b p1 z p


a2 j τ (y2 ) = a2 j b12 z1 + · · · +a2 j bk2 zk + · · · + a2 j b p2 z p
···
am j τ (ym ) = am j b1m z1 + · · · + am j bkm zk + · · · + am j b pmz p

70
Publicación digital de Editorial Equinoccio
3.2 M ATRIZ ASOCIADA A UNA TRANSFORMACIÓN LINEAL

de modo que el coeficiente escalar de zk en τ [ϕ (x j )] = (τ ◦ ϕ )(x j ) es

ck j = a1 j bk1 + a2 j bk2 + · · · + am j bkm (3.2.3)

Esto motiva la definición que procedemos a dar de producto de ma-


trices, de forma tal que [τ ] × [ϕ ] = [τ ◦ ϕ ]; es decir,

⎛ ⎞ ⎛ ⎞ ⎛ ⎞
b11 · · · b1m a11 · · · a1n c11 · · · c1m
⎜b21 · · · b2m ⎟ ⎜ a21 · · · a2n ⎟ ⎜c21 · · · c2m ⎟
⎜ ⎟×⎜ ⎟=⎜ ⎟
⎝··· ··· ··· ⎠ ⎝ ··· · · · · · · ⎠ ⎝· · · ··· ··· ⎠
b p1 · · · b pm am1 · · · amn c p1 · · · c pm

donde, desde luego, las entradas ck j están dadas por la fórmula (3.2.3).

Comentario 3.2.1. No es difícil recordar la fórmula (3.2.3), si se in-


terpreta la entrada ck j como el “producto” de la fila k de [τ ] por la
columna j de [ϕ ], entendiendo este “producto” en la forma

(r1 , r2 , . . . , rm ) ∗ (q1, q2 , . . . , qm ) = q1 r1 + q2 r2 + · · · + qm rm

Es lo que más adelante definiremos como producto interior o bien


producto escalar en Fm .
En consecuencia de la definición que hemos dado, el producto de
matrices posee las mismas propiedades que la composición de transfor-
maciones: asociatividad, distributividad por ambos lados con respecto
a la suma (expresada en (2.3.1) para transformaciones), y la propiedad
(2.3.2) relacionada con el producto por un escalar.
Las matrices asociadas a transformaciones pertenecientes a L (E, E)
con respecto a bases previamente elegidas en E como dominio y otra
(posiblemente distinta) para E como codominio, son desde luego cua-
dradas n × n y constituyen, como hemos visto, un espacio vectorial
Mn×n isomorfo con L (E, E). Pero, en este caso, el producto de matri-
ces es una operación binaria sobre Mn×n de modo que (Mn×n , +, ×) es
un anillo no abeliano con neutro, isomorfo con el anillo (L (E, E), +, ◦).

71
Publicación digital de Editorial Equinoccio
3 M ATRICES

Si elegimos la misma base en E como dominio y como codominio


–que es el caso más interesante y objeto de estudio en la tercera parte de
este libro–, es inmediato comprobar que el neutro en M n×n con respecto
a ×, vale decir, la matriz asociada a la transformación identidad I :
E → E resulta ser
⎛ ⎞
1 0 ··· 0
⎜ 0 1 ··· 0 ⎟
[I] = I = ⎜ ⎟ (3.2.4)
⎝· · · · · · · · · · · ·⎠
0 0 ··· 1
a la cual llamamos matriz identidad.
Gracias al isomorfismo entre los anillos

(L (E, E), +, ◦) y (Mn×n , +, ×)

podemos afirmar que para una transformación no-singular ϕ ∈ L (E, E),


tenemos [ϕ ]−1 = [ϕ −1 ]; fácil de ver en todo caso, pues

I = [ϕ ◦ ϕ −1 ] = [ϕ ] × [ϕ −1 ]
=⇒ [ϕ −1 ] = [ϕ ]−1
I = [ϕ −1 ◦ ϕ ] = [ϕ −1 ] × [ϕ ]
Un matriz inversible suele llamarse también matriz no-singular.
Volvamos al caso de una transformación lineal ϕ : E → G, cuya ma-
triz asociada [ϕ ] = (ai j )m×n es la expuesta en (3.2.2) con respecto a las
bases X = {x1 , . . . , xn },Y = {y1 , . . . , ym } para E, G respectivamente.
Tomemos un vector z ∈ E cualquiera, no nulo. Sea S = {α z | α ∈ F}
el subespacio generado por z, para el cual elegimos la base {z}.
Sea iz : S → E la inyección canónica; es decir, iz (w) = w, para todo
w ∈ S. Tenemos entonces que la matriz n × 1 asociada a iz , con respecto
a las bases {z}, X es ⎛ ⎞
b1
⎜ b2 ⎟
[iz ] = ⎜ ⎟
⎝· · ·⎠ (3.2.5)
bn
donde z = b1 x1 + b2 x2 + · · · + bn xn es la expresión de z como combi-
nación lineal de la base X.

72
Publicación digital de Editorial Equinoccio
3.2 M ATRIZ ASOCIADA A UNA TRANSFORMACIÓN LINEAL

Ahora bien, la matriz [ϕ ◦ iz] es m × 1 y su única columna está cons-


tituida por las coordenadas de (ϕ ◦ iz )(z) = ϕ (z) con respecto a la base
Y : ϕ (z) = c1 y1 + c2 y2 + · · · + cm ym .
Pero, según la definición de producto de matrices,

[ϕ ] × [iz] = [ϕ ◦ iz] = [ϕ (z)]

En conclusión,
⎛ ⎞ ⎛ ⎞ ⎛ ⎞
a11 · · · a1n b1 c1
⎜ a21 ⎟ ⎜
· · · a2n ⎟ ⎜ b2 ⎟ ⎟ ⎜ ⎟
⎜ × = ⎜ c2 ⎟
⎝ ··· · · · · · · ⎠ ⎝· · ·⎠ ⎝· · ·⎠
am1 · · · amn bn cm

lo cual es trivialmente cierto también en el caso z = 0.


En resumen, hemos demostrado que, si [ϕ ] = (a i j )m×n es la matriz
asociada a la transformación ϕ : E → G con respecto a bases X,Y de E
y G, y z = b1 x1 + · · · + bn xn ∈ E, entonces el producto

(ai j )m×n × (b j )n×1 = (ci )m×1 (3.2.6)

arroja, en forma de columna (ci )m×1 , las coordenadas del vector ϕ (z)
con respecto a la base Y de G.

Lema 3.2.1. Sean M y M  un par de matrices m×n sobre el cuerpo F.


Si para toda matriz C de dimensión n × 1 se tiene M × C = M  × C ,
entonces M = M  . ⎛ ⎞
Demostración. 0
⎜· · ·⎟
⎜ ⎟
Para cada j = 1, . . ., n, sea C j = ⎜ ⎟
⎜1⎟
⎝. . .⎠
0
El 1 aparece en la “fila” j y las restantes entradas son cero.
Entonces, de acuerdo con la hipótesis, M × C j = M  × C j = D j ,
pero la matriz m × 1 dada por D j es a la vez la columna j de M y de
M  . Se concluye que M = M  porque tienen las mismas columnas.

73
Publicación digital de Editorial Equinoccio
3 M ATRICES

Según el lema precedente, (3.2.6) caracteriza la matriz (ai j )m×n .


A una matriz n × n de la forma
⎛ ⎞
d1 0 ··· 0
⎜ 0 d2 ··· 0 ⎟
D =⎜ ⎝· · · · · ·
⎟ (3.2.7)
· · · · · ·⎠
0 0 · · · dn

la llamaremos matriz diagonal, y es práctico adoptar la notación

D = Diag(d1, d2 , . . . , dn )

Con matrices diagonales se puede operar con mucha comodidad. El


lector no tendrá problema en verificar (α , β ∈ F)

α Diag(d1, d2 , . . . , dn ) + β Diag(d1 , d2 , . . . , dn )


= Diag(α d1 + β d1 , α d2 + β d2 , . . . , α dn + β dn )

Diag(d1, d2 , . . . , dn ) × Diag(d1 , d2 , . . . , dn )


= Diag(d1d1 , d2 d2 , . . ., dn dn )

y Diag(d1, d2 , . . ., dn ) es no-singular, si, y sólo si, todo d i = 0, en cuyo


caso
Diag(d1, d2 , . . . , dn )−1 = Diag(d1−1, d2−1 , . . ., dn−1 )

Las n columnas de la matriz M = (ai j )m×n = [ϕ ], asociada a la


transformación ϕ : E → G con respecto a cualquier par de bases X =
{x1 , . . . , xn },Y = {y1 , . . . , ym } de E, G pueden ser consideradas como
vectores del espacio Fm , y generan un subespacio cuya dimensión (≤
min{n, m}) se denomina rank de la matriz M y lo designaremos por
ρ (M ). Obsérvese que la dimensión del subespacio generado por las fi-
las de M en Fn es precisamente ρ (M T ), el rank de la matriz traspuesta
M T de M . Más adelante se demostrará que ρ (M T ) = ρ (M ).
Lema 3.2.2. Sea la transformación ϕ : E → G y [ϕ ] = M = (a i j )m×n su
matriz asociada con respecto a bases X = {x 1 , . . ., xn },Y = {y1 , . . . , ym }

74
Publicación digital de Editorial Equinoccio
3.2 M ATRIZ ASOCIADA A UNA TRANSFORMACIÓN LINEAL

de E y G respectivamente. Entonces, existe una transformación lineal


ψ : E → Fm tal que Im ψ es el subespacio generado por las columnas
de [ϕ ] como vectores del espacio Fm y ker ϕ = ker ψ .
Demostración. Sea η : Fm → G la transformación no-singular tal que
η (e j ) = y j ( j = 1, . . . , m), donde {e1 , . . . , em } es la base canónica de
Fm , es decir, e j = (0, . . ., 1, . . ., 0) (donde el 1 está en el lugar j).2
Sea la transformación ψ : E → Fm definida por ψ = η −1 ◦ ϕ .
Ahora bien, es claro que las coordenadas del vector

ψ (x j ) = (η −1 ◦ ϕ )(x j ) = η −1 [ϕ (x j )]

constituyen precisamente la columna de lugar j en M = [ϕ ], de modo


que el subespacio de Fm generado por las columnas es Im ψ .
Tenemos además que ker ϕ = ker ψ .
En efecto, para todo x ∈ ker ϕ , se tiene que ψ (x) = (η −1 ◦ ϕ )(x) =
η −1 [ϕ (x)] = η −1 (0) = 0; luego, ker ϕ ⊂ ker ψ . Pero de ϕ = η ◦ ψ se
infiere, por idéntico razonamiento, que ker ψ ⊂ ker ϕ .

Proposición 3.2.1. Dada la transformación lineal ϕ : E → G, ocurre


que, para toda matriz M asociada a ϕ con respecto a cualquier par de
bases de E y de G, su rank ρ (M ) = dim(Im ϕ ).
Demostración. Sea ψ : E → Fm la transformación determinada en el
Lema 3.2.2, de modo que el subespacio de F m generado por las colum-
nas de M es Im ψ , por tanto, ρ (M ) = dim(Im ψ ).
Como también ker ϕ = ker ψ , se tiene dim(ker ϕ ) = dim(ker ψ ) = p.
Aplicando ahora el Teorema 2.1.2, obtenemos

ρ (M ) = dim(Im ψ ) = dim(E) − p = dim(Im ϕ )

Proposición 3.2.2. La transformación lineal ϕ : E → G es sobreyec-


tiva si, y sólo si, las columnas de toda matriz M m×n asociada a ϕ con
respecto a cualquier par de bases de E y de G generan el espacio F m .

2 η es no-singular por el Teorema 2.1.5.

75
Publicación digital de Editorial Equinoccio
3 M ATRICES

Demostración. Según la Proposición 3.2.1, ρ (M ) = dim(Im ϕ ).


Ahora bien, ϕ es sobreyectiva si, y sólo si,

m = dim(Im ϕ ) = ρ (M )

Proposición 3.2.3. La transformación lineal ϕ : E → G es inyectiva si,


y sólo si, las columnas de toda matriz M m×n asociada a ϕ con respecto
a cualquier par de bases de E y de G son linealmente independientes en
el espacio Fm o, lo que es lo mismo, ρ (M ) = n.
Demostración. Sea ψ : E → Fm la transformación lineal determinada en
el Lema 3.2.2 tal que Im ψ es el subespacio generado por las columnas
de M como vectores del espacio Fm y ker ϕ = ker ψ .
Tenemos

ϕ inyectiva ⇐⇒ ker ϕ = {0} ⇐⇒ ker ψ = {0} ⇐⇒ ρ (M ) = n

ya que ρ (M ) = dim(E) − dim(ker ψ ).


Pero, como ρ (M ) = n es la dimensión del subespacio generado por
las n columnas de M , se infiere que estas constituyen una base para ese
subespacio de Fm y, por tanto, son linealmente independientes.

Para que el corolario siguiente tenga sentido, es preciso que dim(E)


= dim(G) = n, de modo que todas las matrices en cuestión son cuadra-
das n × n. Es consecuencia tan obvia de las proposiciones 3.2.2 y 3.2.3
que huelga una demostración.
Corolario 3.2.1. La transformación lineal ϕ : E → G es no-singular (un
isomorfismo) si, y sólo si, las columnas de toda matriz M n×n asociada
a ϕ con respecto a cualquier par de bases de E y de G constituyen una
base para el espacio Fn .

3.3 Cambios de bases


E y G son espacios vectoriales sobre un mismo cuerpo F y de di-
mensiones finitas n, m respectivamente.

76
Publicación digital de Editorial Equinoccio
3.3 C AMBIOS DE BASES

Sea ϕ : E → G una transformación lineal, y sea [ϕ ] su matriz aso-


ciada con respecto a bases X = {x1 , . . . , xn },Y = {y1 , . . ., ym } de E y G.
Supongamos que X # = {x#1 , . . . , x#n } e Y # = {y#1 , . . . , y#m } es otro par
de bases para E y G respectivamente, y sea [ϕ ]# la matriz asociada a ϕ
con respecto a las bases X # ,Y # . Nos interesa determinar la relación que
existe entre las matrices [ϕ ] y [ϕ ]# .
Consideremos las transformaciones identidades I E : E → E e IG :
G → G, y sea [IE ] la matriz n × n con respecto a las bases X, X #, e [IG ]
la matriz m × m con respecto a las bases Y,Y # . Es claro que [IE] e [IG ]
son no-singulares por serlo las transformaciones I E e IG .
Si [z] es la matriz n × 1 constituida por las coordenadas del vector
z ∈ E con respecto a X , entonces [z]# = [IE] × [z] es la matriz n × 1
constituida por las coordenadas de z en X # .
Análogamente, si [w] es la matriz m × 1 constituida por las coorde-
nadas del vector w ∈ G con respecto a Y , entonces [w]# = [IG ] × [w] es
la matriz m × 1 constituida por las coordenadas de w en Y # .
Luego, para cualquier z ∈ E (=⇒ ϕ (z) ∈ G), tenemos

[ϕ (z)]# = [IG ] × [ϕ (z)] = [IG ] × ([ϕ ] × [z]) = ([IG] × [ϕ ]) × [z]

pero también,

[ϕ (z)]# = [ϕ ]# × [z]# = [ϕ ]# × ([IE] × [z]) = ([ϕ ]# × [IE]) × [z]

En resumen, para todo z ∈ E,

([IG] × [ϕ ]) × [z] = ([ϕ ]# × [IE]) × [z]

Luego, en virtud del Lema 3.2.1,

[IG ] × [ϕ ] = [ϕ ]# × [IE ]

de donde,

[ϕ ]# = [IG] × [ϕ ] × [IE]−1 (3.3.1)

77
Publicación digital de Editorial Equinoccio
3 M ATRICES

Es claro que para la matriz [ϕ ]X,Y # , con respecto a las bases X,Y # ,
se tiene
[ϕ ]X,Y # = [IG ] × [ϕ ] (3.3.2)
pues [IE ] = I es la matriz identidad n × n.
Análogamente, la matriz [ϕ ]X #,Y , con respecto a las bases X # ,Y ,
satisface
[ϕ ]X # ,Y = [ϕ ] × [IE]−1 (3.3.3)
pues [IG ] = I es la matriz identidad m × m.
Un caso particular de extraordinaria importancia, a cuyo estudio se
dedica la tercera parte de este libro, es el de una transformación ϕ : E →
E cuya matriz n × n asociada [ϕ ] lo es con respecto a la misma base X
en E como dominio y codominio; en tales casos decimos simplemente
“con respecto a la base” X. Sea [ϕ ]# la matriz asociada con respecto a
una nueva base X # en E.
Basta, como es obvio, con particularizar la situación estudiada antes.
Tenemos ahora una sola transformación identidad I : E → E con matriz
[I ] con respecto a bases X , X # y (3.3.1) se convierte en

[ϕ ]# = [I ] × [ϕ ] × [I ]−1 (3.3.4)

Veamos ahora que una relación matricial del tipo (3.3.1) es precisa-
mente la que caracteriza a dos matrices asociadas a una misma transfor-
mación lineal. Es consecuencia de un resultado que conviene destacar
en el lema siguiente.

Lema 3.3.1. Sea ψ : E → E una transformación lineal no-singular y


B = {x1 , . . ., xn } una base de E. Sabemos3 que ψ (B) = B# = {x#1 , . . . , x#n }
donde ψ (xi ) = x#i (para i = 1, . . . , n), es otra base de E.
Sea [ψ ] la matriz asociada a ψ con respecto a la base B.
Sea [I ]# la matriz asociada a la transformación identidad I : E →
E con respecto a la base B# en E como dominio y la base B en E como
codominio.
3 Por el Teorema 2.1.5.

78
Publicación digital de Editorial Equinoccio
3.3 C AMBIOS DE BASES

Entonces, [ψ ] = [I ]#
Demostración. En efecto, las coordenadas de ψ (x j ) = x#j = ∑ni=1 ai j xi
con respecto a B constituyen la columna j de [ψ ]; pero esa es precisa-
mente la columna j de [I ]# , ya que I (x#j ) = x#j = ∑ni=1 ai j xi .

Sea M una matriz m × n sobre F y consideremos

M# = P ×M ×Q

donde P y Q son matrices no-singulares de dimensiones respectivas


m × m y n × n.
Elijamos bases cualesquiera X = {x1 , . . . , xn }, Y = {y1 , . . ., ym } para
E y G respectivamente y sea ϕ : E → G la transformación lineal cuya
matriz asociada con respecto a X,Y es [ϕ ] = M .
Sea η : G → G la transformación asociada a la matriz P −1 con
respecto a la base Y .
Sabemos que Y # = η (Y ) = {y#1 , . . . , y#m } (donde y#j = η (y j )) es otra
base del espacio G.
De acuerdo con el Lema 3.3.1, tenemos que P −1 = [IG ]# es la
matriz asociada a la transformación identidad IG : G → G con respecto
a las bases Y # de G (dominio) e Y de G (codominio). Se infiere que
−1
P = [IG]# = [IG]#

donde [IG ]# es la matriz asociada a IG con respecto a las bases Y de G


(dominio) e Y # de G (codominio).
Sea ahora τ : E → E la transformación asociada a la matriz Q con
respecto a la base X. Designemos por X # = τ (X) = {x#1 , . . . , x#n } (donde
x#i = τ (xi )) la otra base del espacio E.
Nuevamente de acuerdo con el Lema 3.3.1, Q = [IE]# es la matriz
asociada a la transformación identidad IE : E → E con respecto a las
bases X # de E (dominio) y X de E (codominio).
Tenemos entonces

M # = [IG]# × [ϕ ] × [IE ]# = [IG ◦ ϕ ◦ IE]# = [ϕ ]#

79
Publicación digital de Editorial Equinoccio
3 M ATRICES

donde [ϕ ]# es la matriz asociada a ϕ con respecto a las bases X # de E e


Y # de G.
Estos importantes resultados conviene recogerlos en un teorema.
Teorema 3.3.1. Sean E y G espacios vectoriales sobre un mismo cuerpo
F y de dimensiones finitas n, m respectivamente.
Dos matrices m × n sobre F : M , M # corresponden a la misma
transformación lineal ϕ : E → G respecto a pares distintos de bases si,
y sólo si, existen matrices no-singulares P m×m y Qn×n tales que

M# = P ×M ×Q (3.3.5)

Esto conduce de modo natural a una definición.


Definición 3.3.1. Dadas matrices M , M # ∈ Mm×n , decimos que M
es equivalente a M # y se escribe

M∼
= M#

si ambas están asociadas a la misma transformación lineal entre espa-


cios vectoriales de dimensiones n, m.
Es obvio que ∼ = es una relación de equivalencia sobre el espacio
Mm×n y hemos visto que está caracterizada por la relación matricial
(3.3.5).
Veamos que existe una forma canónica con respecto a la equivalen-
cia de matrices.
Hemos establecido que cada clase de equivalencia en Mm×n se co-
rresponde con una sola transformación lineal ϕ : E → G de modo tal que
toda matriz de esa clase está asociada a ϕ con respecto a cierto par de
bases.
Sea r = dim(Im ϕ ) y vamos a identificar una matriz particular y
única [ϕ ]r dentro de la clase de equivalencia de las matrices asociadas
a ϕ.
Tomemos una base X = {x1 , . . . , xr , z1 , . . ., zk } para E tal que {z1 , . . . ,
zk } sea una base para ker ϕ (o sea que r + k = n). Sabemos que {ϕ (x1 ),
. . . , ϕ (xr )} es una base para Im ϕ , la cual extendemos a una base
Y = {ϕ (x1 ), . . ., ϕ (xr ), w1 , . . ., ws } para G (o sea que r + s = m).

80
Publicación digital de Editorial Equinoccio
3.3 C AMBIOS DE BASES

Podemos escribir la matriz asociada a ϕ con respecto a las bases


X,Y como
 
Ir×r Or×k
[ϕ ]r = (3.3.6)
Os×r Os×k
donde Ir×r es la matriz identidad r × r y las O p×q representan matrices
cuyas p × q entradas son todas 0.
De esto se infieren dos consecuencias bien importantes:

1. La relación ∼
= determina un conjunto (el conjunto cociente

Mm×n / = ) de tantas clases de equivalencia como matrices de
dimensión m×n y del tipo (3.3.6) son posibles, o sea min{n, m}+
1 que es el número de posibles valores de r (hay que agregar la
matriz nula, que constituye una clase por sí sola, pues es la única
matriz asociada a la transformación nula).
Nótese que, si m = n, entonces existen n + 1 clases de equivalen-
cia y toda matriz no-singular es equivalente a la matriz identidad
In×n .

2. El número r = dim(Im ϕ ) determina por sí solo la clase de equi-


valencia, pues, conocido r, podemos “construir” la matriz (3.3.6)
que representa la clase.
Recordemos por cierto que, según la Proposición 3.2.1, todas las
matrices de la misma clase de equivalencia tienen rank r y sólo
ellas, pues hemos visto que r determina la clase.

Comentario 3.3.1. Atención: lo establecido arriba no implica que


existan sólo min{n, m} + 1 transformaciones lineales distintas : E → G.
Ocurre que la misma matriz puede estar asociada a diferentes transfor-
maciones con respecto a pares diversos de bases. 4 Eso sí, todas esas
transformaciones tienen rango de la misma dimensión igual al rank de
la matriz (por la Proposición 3.2.1).

4 El Lema 3.3.1 ilustra claramente esta afirmación.

81
Publicación digital de Editorial Equinoccio
3 M ATRICES

Sea M una matriz n × n sobre F y consideremos

M # = P × M × P −1

donde P es una matriz no-singular n × n.


Elijamos una base cualquiera X = {x1 , . . . , xn } para E y sea ϕ : E →
E la transformación lineal cuya matriz asociada con respecto a X es
[ϕ ] = M .
Sea η : E → E la transformación asociada a la matriz P respecto a
la base X .
Sabemos que X # = η (X ) = {x#1 , . . ., x#n } (donde x#j = η (x j )) es otra
base del espacio E.
De acuerdo con el Lema 3.3.1, tenemos que P = [I ]# es la matriz
asociada a la transformación identidad I : E → E con respecto a las
bases X # de E (dominio) e X de E (codominio). Se infiere que
−1
P −1 = [I ]# = [I ]#

donde [I ]# es la matriz asociada a I con respecto a las bases X de E


(dominio) y X # de E (codominio).
Tenemos entonces

M # = [I ]# × [ϕ ] × [I ]# = [I ◦ ϕ ◦ I ]# = [ϕ ]#
donde [ϕ ]# es la matriz asociada a ϕ con respecto a la base X # .
En resumen de lo anterior y de (3.3.4), y en el entendido de que al
elegir base para E la matriz asociada a ϕ : E → E es con respecto a tal
base en E como dominio y como codominio, tenemos:

Teorema 3.3.2. Sea E un espacio vectorial de dimensión n sobre el


cuerpo F.
Dos matrices n × n sobre F : M , M # corresponden a la misma
transformación lineal ϕ : E → E respecto a distintas bases de E si, y
sólo si, existe una matriz n × n no-singular P tal que

M # = P × M × P −1 (3.3.7)

82
Publicación digital de Editorial Equinoccio
3.3 C AMBIOS DE BASES

Definición 3.3.2. Dadas matrices M , M # ∈ Mn×n , decimos que M es


semejante a M # y se escribe
M ∼ M#
si ambas están asociadas a la misma transformación lineal de un espa-
cio en sí mismo.
Es obvio que la semejanza (∼) es una relación de equivalencia sobre
el espacio Mn×n y hemos visto que está caracterizada por la relación
matricial (3.3.7).
Claramente, la manera práctica, digamos concreta, de manejar las
transformaciones lineales es mediante sus matrices asociadas. Mien-
tras más “sencilla” la matriz, pues tanto más expeditos los cálculos que
haya lugar. Si tenemos la libertad de elegir las bases que se quieran en
ambos espacios E y G, hemos resuelto el problema total y satisfacto-
riamente, pues no puede desearse una matriz más simple que (3.3.6) y
hemos caracterizado mediante esa forma canónica todas las clases de
equivalencia bajo ∼ =.
Sin embargo, no en todas las circunstancias en que se aplica el Ál-
gebra Lineal, dentro y fuera de las matemáticas, es permisible una elec-
ción arbitraria de bases. Estudiaremos casos en los cuales una de las dos
bases está dada y sólo podemos cambiar de base en un solo espacio. El
problema más profundo y difícil, es el de hallar matrices “satisfactorias”
asociadas a una transformación ϕ : E → E, donde estamos obligados a
emplear la misma base para E como dominio y como codominio. Es el
caso de la semejanza (∼).
Puede decirse que el tema central del Álgebra Lineal y por tanto
el de este libro es la búsqueda de esas formas canónicas de matrices,
sometida a limitaciones en la escogencia de bases.
Hemos visto que las matrices diagonales ofrecen una manipulación
operativa particularmente sencilla. Estas constituyen pues un cierto
ideal de matriz y las transformaciones a las cuales es posible asociar
una matriz diagonal se llaman diagonalizables, pero no toda transfor-
mación goza de esta feliz propiedad. Veremos en el curso de esta obra
que es preciso conformarse, en el caso general, con formas canónicas
que se “asemejan” lo más posible a una matriz diagonal.

83
Publicación digital de Editorial Equinoccio
3 M ATRICES

3.4 La transformación dual


El lector debe tener muy presente la Sección 2.4.
Sean E, G espacios vectoriales y ϕ : E → G una transformación li-
neal.
Podemos definir una transformación lineal ϕ ∗ : G∗ → E∗ tal que,
para todo g ∈ G∗ , ϕ ∗ (g) ha de ser un funcional lineal ϕ ∗ (g) : E → F
(vale decir, ϕ ∗ (g) ∈ E∗ ) que definimos como

ϕ ∗ (g) = g ◦ ϕ (3.4.1)

o sea, para todo z ∈ E,


ϕ ∗ (g)(z) = g[ϕ (z)]
Por las propiedades de las transformaciones lineales ya establecidas,
sabemos que ϕ ∗ (g) es en efecto un funcional lineal y que también ϕ ∗
es una transformación lineal.
A ϕ ∗ se le denomina la transformación dual de ϕ .
Sea ψ : E → G otra trasformación y α , β ∈ F. Entonces, para todo
g ∈ G∗ ,
(αϕ + β ψ )∗ (g) = g ◦ (αϕ + β ψ ) = α (g ◦ ϕ ) + β (g ◦ ψ )
= αϕ ∗ (g) + β ψ ∗ (g) = (αϕ ∗ + β ψ ∗ )(g)
es decir,

(αϕ + β ψ )∗ = αϕ ∗ + β ψ ∗ (3.4.2)

Esto puede interpretarse como que la dualidad ϕ → ϕ ∗ es una trans-


formación lineal : L (E, G) → L (G∗ , E∗ ) entre estos espacios vectoria-
les de transformaciones lineales.
Sean las transformaciones lineales ϕ : E → G y ζ : G → H, donde,
por supuesto, E, G, H son espacios vectoriales sobre el mismo cuerpo F.
Consideremos las transformaciones
ϕ ∗ : G∗ → E∗ ζ ∗ : H∗ → G∗ ζ ◦ ϕ : E → H (ζ ◦ ϕ )∗ : H∗ → E∗

84
Publicación digital de Editorial Equinoccio
3.4 L A TRANSFORMACIÓN DUAL

Tenemos entonces, para todo h ∈ H∗ ,

(ζ ◦ ϕ )∗ (h) = h ◦ (ζ ◦ ϕ ) = (h ◦ ζ ) ◦ ϕ
= ϕ ∗ (h ◦ ζ ) = ϕ ∗ [ζ ∗ (h)] = (ϕ ∗ ◦ ζ ∗ )(h)

es decir,

(ζ ◦ ϕ )∗ = ϕ ∗ ◦ ζ ∗ (3.4.3)

Si I : E → E es la transformación identidad, su dual I ∗ : E∗ → E∗


es tal que I ∗ (x∗ ) = x∗ ◦ I = x∗ , para todo x∗ ∈ E. O sea que I ∗ es la
transformación identidad.
Sea ϕ : E → G una transformación no-singular. De acuerdo con la
fórmula (3.4.3),

(ϕ −1 )∗ ◦ ϕ ∗ = (ϕ ◦ ϕ −1 )∗ = IG∗∗
ϕ ∗ ◦ (ϕ −1 )∗ = (ϕ −1 ◦ ϕ )∗ = IE∗∗

de modo que también la dual ϕ ∗ : G∗ → E∗ es un isomorfismo y se tiene

(ϕ ∗ )−1 = (ϕ −1 )∗ (3.4.4)

Supongamos ahora que los espacios E, G son de dimensiones finitas


respectivas n, m y tomemos una base X = {x1 , . . . , xn } para E y otra
Y = {y1 , . . . , ym } para G.
Con respecto a estas bases, sea [ϕ ] = (ai j )m×n la matriz asociada a
ϕ . Nos proponemos compararla con la matriz [ϕ ∗ ] = (blk )n×m asociada
a ϕ ∗ : G∗ → E∗ con respecto a las bases duales (véase la Sección 2.4)
X ∗ = {x∗1 , . . . , x∗n } e Y ∗ = {y∗1 , . . . , y∗m } en E∗ y G∗ respectivamente.
La columna k de [ϕ ∗ ] está constituida por las coordenadas del vector

ϕ ∗ (y∗k ) = b1k x∗1 + · · · + b jk x∗j + · · · + bnk x∗n

pero entonces,

85
Publicación digital de Editorial Equinoccio
3 M ATRICES

b jk = ϕ ∗ (y∗k )(x j ) = (y∗k ◦ ϕ )(x j ) = y∗k [ϕ (x j )]


= y∗k (a1 j y1 + · · · + ak j yk + · · · + am j ym ) = ak j

Esto nos dice que la matriz [ϕ ∗ ] es la traspuesta de [ϕ ] (Definición


3.1.1): [ϕ ∗ ] = [ϕ ]T , siempre que [ϕ ∗ ] sea la matriz asociada a ϕ ∗ con
respecto a las bases duales de X ,Y .
La siguiente proposición tiene consecuencias de considerable im-
portancia.
Proposición 3.4.1. Sean E, G espacios vectoriales de dimensión finita y
ϕ : E → G una transformación lineal. Entonces,

dim(Im ϕ ∗ ) = dim(Im ϕ )

Demostración. Tomemos una base X = {x1 , . . . , xk , z1 , . . ., z p } para E tal


que {x1 , . . . , xk } sea una base para ker ϕ .
Sabemos que los vectores {y1 , . . . , y p }, donde yi = ϕ (zi ) (para i =
1, . . ., p), constituyen una base para Im ϕ , la cual extendemos a una base
Y = {y1 , . . . , y p , w1 , . . . , wq } para G.
Sea Y ∗ = {y∗1 , . . ., y∗p , w∗1 , . . . , w∗q } la base dual de Y en G∗ .
Ocurre que {w∗1 , . . . , w∗q } es una base para ker ϕ ∗ . En efecto, su
independencia lineal está asegurada por ser parte de la base Y ∗ . Sea
v∗ ∈ ker ϕ ∗ y
p q
v =∑

αi y∗i + ∑ β j w∗j
i=1 j=1

Entonces, 0 = ϕ ∗ (v∗ ) = v∗ ◦ ϕ ; es decir, (v∗ ◦ ϕ )(x) = v∗ [ϕ (x)] = 0, para


todo x ∈ E. En particular, 0 = v∗ [ϕ (zi )] = v∗ (yi ) = αi (para i = 1, . . . , p);
luego,
q
v∗ = ∑ β j w∗j
j=1

de modo que {w∗1 , . . . , w∗q } también genera ker ϕ ∗ .

86
Publicación digital de Editorial Equinoccio
3.4 L A TRANSFORMACIÓN DUAL

En suma, dim(ker ϕ ∗ ) = q; pero

dim(Im ϕ ∗ ) = dim G∗ − dim(ker ϕ ∗ ) = p = dim(Im ϕ )

De esta proposición se infiere, entre otras cosas, que la transforma-


ción lineal ∗ : L (E, G) → L (G∗ , E∗ ) definida por la dualidad ϕ → ϕ ∗
es un isomorfismo, para espacios E, G de dimensión finita. En efecto,
supongamos que ϕ ∈ ker ∗; entonces,

ϕ ∗ = O =⇒ 0 = dim(Im ϕ ∗ ) = dim(Im ϕ ) =⇒ ϕ = O

O sea que ker ∗ es trivial, luego ∗ es inyectiva, pero dim(L (E, G)) =
(dimE) × (dimG) = dim(L (G ∗ , E∗ )), lo cual implica, por el Teorema
2.1.4, que ∗ es un isomorfismo.

Corolario 3.4.1. Sea la transformación ϕ : E → G y su dual ϕ ∗ : G∗ →


E∗ , donde los espacios E y G son de dimensión finita. Entonces,

1. ϕ ∗ inyectiva ⇐⇒ ϕ sobreyectiva

2. ϕ ∗ sobreyectiva ⇐⇒ ϕ inyectiva

3. Para dim E = dim G:


ϕ ∗ no-singular ⇐⇒ ϕ no-singular
en cuyo caso se verifica la fórmula (3.4.4): (ϕ ∗ )−1 = (ϕ −1 )∗ .

Demostración. Por la Proposición 3.4.1 y por el Teorema 2.1.2, tenemos

dim(Im ϕ ∗ ) = dim(Im ϕ )
dim E∗ = dim E = dim(Im ϕ ) + dim(ker ϕ )
dim G = dim G∗ = dim(Im ϕ ∗ ) + dim(ker ϕ ∗ )

Ahora basta con mirar las identidades a continuación.


(1) dim G = dim(Im ϕ ) + dim(ker ϕ ∗ )
(2) dim E = dim(Im ϕ ∗ ) + dim(ker ϕ )

87
Publicación digital de Editorial Equinoccio
3 M ATRICES

(3) Es consecuencia obvia de (1) y (2).

Recordemos que hemos definido el rank ρ (M ) de una matriz Mm×n


como la dimensión del subespacio generado por sus columnas en F m .
Así mismo, ρ (M T ) es la dimensión del subespacio generado por las
columnas de M T en Fn que son, precisamente, las filas de M . Que
tales dimensiones sean iguales es una propiedad algo sorprendente.

Teorema 3.4.1. Dada una matriz M , ρ (M ) = ρ (M T ).


Demostración. Sean E y G espacios vectoriales de dimensiones respec-
tivas n y m (bien podrían ser, si se quiere, los espacios F n y Fm ). Eli-
jamos bases cualesquiera X = {x1 , . . . , xn }, Y = {y1 , . . . , ym } para E y G
respectivamente y sea ϕ : E → G la transformación lineal cuya matriz
asociada con respecto a X,Y es [ϕ ] = M . En virtud de la Proposición
3.2.1, ρ (M ) = dim(Im ϕ ).
Sabemos que la matriz asociada a la transformación dual ϕ ∗ con
respecto a las bases duales de X ,Y es la traspuesta M T y, por la misma
Proposición 3.2.1, ρ (M T ) = dim(Im ϕ ∗ ). Se infiere entonces de la
Proposición 3.4.1 que ρ (M T ) = ρ (M ).

Este teorema, junto con el Corolario 3.2.1, conducen al siguiente


resultado, donde dim(E) = dim(G) = n para que tenga sentido.

Proposición 3.4.2. La transformación lineal ϕ : E → G es no-singular


si, y sólo si, las filas de toda matriz M n×n asociada a ϕ con respecto a
cualquier par de bases de E y de G constituyen una base de F n .
Demostración. De acuerdo con el Teorema 2.1.4, ϕ : E → G es no-
singular si, y sólo si, dim(Im ϕ ) = ρ (M ) = n. Pero, según el Teorema
3.4.1, ρ (M T ) = ρ (M ). Y ρ (M T ) = n si, y sólo si, las filas de M
constituyen una base para Fn , por el Teorema 1.4.6.

88
Publicación digital de Editorial Equinoccio
3.5 T RANSFORMACIONES ELEMENTALES

3.5 Transformaciones elementales


Sea E un espacio vectorial sobre el cuerpo F y

X = {x1 , . . ., xi , . . . , x j , . . ., xn }

una base para E.


Tomemos un par de subíndices i < j fijos para las consideraciones
que siguen.
Es inmediato verificar que los siguientes conjuntos también son ba-
ses:

• X1 = {x1 , . . . , x j , . . . , xi , . . . , xn }, donde hemos intercambiado de


lugar los vectores xi , x j .

• X2 = {x1 , . . . , λ xi , . . . , x j , . . . , xn }, donde 0 = λ ∈ F.

• X3 = {x1 , . . ., xi , . . . , α xi + x j , . . . , xn }, donde hemos sumado α xi


(α ∈ F) al vector x j .

Definimos una transformación elemental εν : E → E como aquella


donde εν (xk ), para k = 1, . . ., n, es el vector de lugar k en la base Xν
(ν = 1, ν = 2 o bien ν = 3). A ε1 la llamamos transformación elemental
de primer tipo; ε2 es una transformación elemental de segundo tipo; y
ε3 una transformación elemental de tercer tipo.
Toda transformación elemental εν es no-singular, ya que εν (X) = Xν
es una base y se aplica el Teorema 2.1.5.
Nótese que ε1−1 = ε1 , pues (ε1 ◦ ε1 )(xk ) = ε1 (xk ) = xk , para k = i y
k = j. Y por otro lado,

(ε1 ◦ ε1 )(xi ) = ε1 (x j ) = xi (ε1 ◦ ε1 )(x j ) = ε1 (xi ) = x j

o sea que ε1 ◦ ε1 = I . Así pues, la inversa de ε1 es ella misma.


Sea la transformación elemental ε2 : E → E tal que ε2 (xk ) = xk , para
k = i, y ε2 (xi ) = λ −1 xi . Entonces, (ε2 ◦ ε2 )(xk ) = ε2 (xk ) = xk , para k = i.
Además

(ε2 ◦ ε2)(xi ) = ε2 (λ xi ) = λ ε2 (xi ) = λ (λ −1 xi ) = xi

89
Publicación digital de Editorial Equinoccio
3 M ATRICES

De modo que ε2 ◦ ε2 = I . Concluimos, ε2−1 = ε2 .


Por último, sea la transformación elemental ε 3 : E → E tal que ε3 (xk )
= xk , para k = j, y ε3 (x j ) = −α xi + x j . Entonces, (ε3 ◦ ε3 )(xk ) =
ε3 (xk ) = xk , para k = j. Y

(ε3 ◦ ε3 )(x j ) = ε3 (α xi + x j ) = α xi + ε3 (x j ) = α xi + (−α xi + x j ) = x j

O sea que ε3 ◦ ε3 = I y ε3−1 = ε3 .


En resumen, la inversa de cada transformación elemental es una
transformación elemental del mismo tipo.
Examinemos sus matrices asociadas con respecto a la base X (para
E como dominio y como codominio), a las cuales llamaremos matrices
elementales y las designamos por E con un subíndice oportuno según
lo que se quiera destacar.
Dado que ε1 (xk ) = xk para k = i y k = j, las columnas = i y = j
de [ε1] son las mismas de la matriz identidad I; pero, ε 1 (xi ) = x j es la
columna j de I en el lugar i, y ε1 (x j ) = xi es la columna i de I en el
lugar j. En síntesis, la matriz E 1 = [ε1 ] se obtiene intercambiando las
columnas i, j en la matriz identidad I. Es decir, en los lugares (i j) y ( ji)
tenemos un 1, y un 0 en (ii) y en ( j j), y las restantes entradas coinciden
con las correspondientes en I.
En el caso E2 = [ε2 ] observamos que todas sus columnas = i coin-
ciden con la columnas respectivas de I; en tanto que ε 2 (xi ) = λ xi es la
columna i de I, sólo que, en lugar de 1 en el lugar (i, i), tenemos λ o,
lo que es lo mismo, “multiplicamos” por λ la columna i de I. Todo se
reduce a poner λ en la entrada de lugar (ii) en I.
En E3 = [ε3] todas sus columnas = j coinciden con la columnas
respectivas de I; pero ε3 (x j ) = α xi + x j indica que la columna j de la
matriz [ε3 ] tiene entrada α en el lugar (i j) y 1 en ( j j), y las restantes
entradas de la columna son cero. Es lo mismo decir que, en I, hemos
“sumado” a la columna j la columna i “multiplicada” por α .
Otra forma de ver [ε3] es que difiere de I sólo por un α en el lugar
(i j) en vez de 0.
Dada una transformación ϕ : E → G y elegidas bases

X = {x1 , . . . , xi , . . . , x j , . . . , xn } Y = {y1 , . . . , ym }

90
Publicación digital de Editorial Equinoccio
3.5 T RANSFORMACIONES ELEMENTALES

para E y G respectivamente, veamos el efecto de multiplicar [ϕ ] por una


matriz elemental.

• Para k = i y k = j, se tiene (ϕ ◦ ε1 )(xk ) = ϕ (xk ), de modo que la


columna k de [ϕ ◦ ε1 ] coincide con la columna k de [ϕ ].
Pero, de (ϕ ◦ ε1 )(xi ) = ϕ (x j ) y (ϕ ◦ ε1 )(x j ) = ϕ (xi ) se infiere que
las columnas i, j de [ϕ ◦ ε1 ] son las columnas j, i de [ϕ ].
En conclusión, la matriz

[ ϕ ] × [ε1 ] = [ϕ ◦ ε1 ]

se obtiene de [ϕ ] intercambiando sus columnas i, j.

• Para k = i tenemos (ϕ ◦ ε2 )(xk ) = ϕ (xk ), o sea que la columna k


de [ϕ ◦ ε2] coincide con la columna k de [ϕ ].
En tanto, (ϕ ◦ ε2 )(xi ) = ϕ (λ xi ) = λ ϕ (xi ) expresa que toda entrada
de la columna i de [ϕ ] ha sido multiplicada por λ .
En síntesis, la matriz

[ϕ ] × [ε2 ] = [ϕ ◦ ε2 ]

se obtiene de [ϕ ] multiplicando su columna i por λ .

• Para k = j ocurre (ϕ ◦ ε3 )(xk ) = ϕ (xk ), lo que indica que la co-


lumna k de [ϕ ◦ ε3 ] coincide con la columna k de [ϕ ].
Pero, (ϕ ◦ ε3 )(x j ) = ϕ (α xi + x j ) = αϕ (xi ) + ϕ (x j ) significa que
la columna j de [ϕ ◦ ε3 ] se obtiene “sumando” a la columna j de
[ϕ ] su columna i “multiplicada” por α .
En resumen, la matriz

[ ϕ ] × [ε3 ] = [ϕ ◦ ε3 ]

se obtiene de [ϕ ] sumando a su columna j la columna i multipli-


cada por α .

91
Publicación digital de Editorial Equinoccio
3 M ATRICES

Llamaremos una operación elemental de primer tipo el intercambio


de dos columnas (o dos filas) de una matriz; operación elemental de
segundo tipo multiplicar una columna (o fila) por un escalar = 0; y ope-
ración elemental de tercer tipo sumar a una columna (fila) otra columna
(fila) multiplicada por un escalar.
Consideremos ahora transformaciones elementales de cualquiera de
los tres tipos ζν : G → G (ν = 1, 2, 3) y vamos a conocer la matriz [ζν ◦
ϕ ] = [ζν ] × [ϕ ] con respecto a las bases X ,Y (se entiende que [ζν ] es
con respecto a la base Y = {y1 , . . ., ym } de G).
Luego, para 1 ≤ s < t ≤ m y escalares λ , α ∈ F,
ζ1 (ys ) = yt ζ1 (yt ) = ys ζ1 (yk ) = yk (k = s , k = t)
ζ2 (ys ) = λ ys (λ = 0) ζ2 (yk ) = yk (k = s)
ζ3 (yt ) = yt + α ys ζ3 (yk ) = yk (k = t)
Si, para 1 ≤ j ≤ n, se tiene que
ϕ (x j ) = a1 j y1 + a2 j y2 + · · · + as j ys + · · · + at j yt + · · · + am j ym
entonces, la columna j de [ϕ ] está constituida por las entradas
a1 j , a2 j , . . . , as j , . . ., at j , . . ., am j
• Para una transformación elemental del primer tipo,
(ζ1 ◦ ϕ )(x j ) = ζ1 [ϕ (x j )]
= a1 j y1 + a2 j y2 + · · · + as j yt + · · · + at j ys + · · · + am j ym
= a1 j y1 + a2 j y2 + · · · + at j ys + · · · + as j yt + · · · + am j ym
indica que la matriz [ζ1 ◦ ϕ ] = [ζ1 ] × [ϕ ] se obtiene de [ϕ ] permu-
tando las filas s y t.
• Para una transformación elemental del segundo tipo,
(ζ2 ◦ ϕ )(x j ) = ζ2 [ϕ (x j )]
= a1 j y1 + a2 j y2 + · · · + λ as j ys + · · · + at j yt + · · · + am j ym
indica que la matriz [ζ2 ◦ ϕ ] = [ζ2 ] × [ϕ ] se obtiene de [ϕ ] multi-
plicando su fila s por λ .

92
Publicación digital de Editorial Equinoccio
3.6 M ATRICES SIMILARES

• Para una transformación elemental del tercer tipo,

(ζ3 ◦ ϕ )(x j ) = ζ3 [ϕ (x j )]
= a1 j y1 + · · · + as j ys + · · · + at j (yt + α ys ) + · · · + am j ym
= a1 j y1 + · · · + (as j + α at j )ys + · · · + at j yt + · · · + am j ym

indica que la matriz [ζ3 ◦ ϕ ] = [ζ3 ] × [ϕ ] se obtiene de [ϕ ] suman-


do a su fila s la fila t multiplicada por α .

Podemos resumir de este modo: Sea la matriz Mm×n y En×n , Em×m

matrices elementales de cualquiera de los tres tipos; entonces, M × E


se obtiene de M mediate una operación elemental sobre sus columnas
del mismo tipo que E ; y E  ×M proviene de M mediate una operación
elemental sobre sus filas del mismo tipo que E  .
En la sección que sigue veremos cómo se aprovechan las transfor-
maciones elementales.

3.6 Matrices similares


Proseguimos con el tema de matrices asociadas a una misma trans-
formación lineal ϕ : E → G, donde E y G son espacios de dimensión
finita sobre el mismo cuerpo F.
El caso más sencillo y ya resuelto totalmente es el de matrices equi-
valentes ∼= (Definición 3.3.1), donde hay entera libertad de elegir bases
en E y en G.
Un problema de gran importancia es determinar formas canónicas
de matrices asociadas a ϕ : E → E, permitiendo cualquier elección de
base para E, pero comprometidos con la misma en el dominio y en el
codominio. Matrices asociadas a ϕ bajo esta restricción las hemos cali-
ficado (Definición 3.3.2) como semejantes ∼. Su estudio constituye la
tercera parte de esta obra.
En esta sección determinamos las matrices asociadas a ϕ : E → G
cuando la base elegida para E se mantiene fija y podemos escoger bases
cualesquiera para G.

93
Publicación digital de Editorial Equinoccio
3 M ATRICES

Definición 3.6.1. Dadas matrices M , M # ∈ Mm×n , decimos que M


es similar a M # y se escribe
M  M#
si ambas están asociadas a la misma transformación lineal con respecto
a una base común en el dominio y bases posiblemente distintas en el
codominio.
Es obvio que  es una relación de equivalencia sobre Mm×n y, como
siempre, iremos en busca de una forma canónica.
Comentario 3.6.1. Si Mn×n es una matriz no-singular, podemos aso-
ciarla a una transformación ϕ : E → G no-singular con respecto a cual-
quier base X = {x1 , . . ., xn } de E y una base Y de G. Ahora bien, en vir-
tud de la no-singularidad de ϕ , sabemos que Y  = {ϕ (x1 ), . . . , ϕ (xn )}
es una base de G, y es claro que la matriz asociada a ϕ con respecto a
las bases X ,Y  es la matriz identidad I n×n .
Se infiere pues que toda matriz no-singular es similar a la matriz
identidad I. Y se concluye que todo par de matrices no-singulares (de
la misma dimensión) son similares y la forma canónica de su clase es
la matriz identidad.
De acuerdo con lo establecido en la Sección 3.3, podemos afirmar
que M  M # si, y sólo si, existe una matriz no-singular P (de dimen-
siones m × m) tal que M # = P × M .
Esto proporciona una nueva deducción de que toda matriz no-singu-
lar (forzosamente cuadrada) M es similar a la matriz identidad I, pues
I = P × M , donde P = M −1 .
Vamos a obtener otra caracterización más de matrices similares,
para lo cual comenzamos con un par de resultados auxiliares.
Lema 3.6.1. Sean ϕ , ψ : E → G transformaciones lineales.
Entonces, Im ϕ = Im ψ si, y sólo si, existe una transformación no-
singular ζ : E → E tal que ϕ = ψ ◦ ζ .
Demostración.
Si ϕ = ψ ◦ ζ para alguna transformación no-singular ζ : E → E,
entonces ϕ (x) = ψ [ζ (x)], para todo x ∈ E, indica que Im ϕ ⊂ Im ψ .

94
Publicación digital de Editorial Equinoccio
3.6 M ATRICES SIMILARES

Pero ψ = ϕ ◦ ζ −1 , de modo que, por el mismo razonamiento, Im ψ ⊂


Im ϕ .
Recíprocamente, supongamos ahora que Im ϕ = Im ψ = G1 (que
sabemos es un subespacio de G).
La transformación lineal ψ : E → G1 es sobreyectiva, luego (por la
Proposición 2.1.3) admite una transformación inversa θ : G 1 → E por la
derecha, es decir ψ ◦ θ = I1 : G1 → G1 , donde I1 es la transformación
identidad.
Ahora bien, sea B = {x1 , . . . , xk , y1 , . . . , y p } una base para E tal que
{x1 , . . . , xk } es una base para ker ϕ . Es claro que {ϕ (y1 ), . . ., ϕ (y p )}
constituye una base para G1 .
Ocurre que θ es inyectiva, pues admite inversa ψ por la izquierda
(por la Proposición 2.1.3). Luego, {θ [ϕ (y1 )], . . ., θ [ϕ (y p )]} es lineal-
mente independiente en E (Proposición 2.1.2). Sea {z1 , . . . , zk } una base
para ker ψ . Probemos que {z1 , . . . , zk , θ [ϕ (y1 )], . . ., θ [ϕ (y p )]} es una
base para E, para lo cual basta con verificar su independencia lineal.
En efecto,

∑ αizi + ∑ β j θ [ϕ (y j )] = 0
=⇒ 0 = ∑ β j ψ {θ [ϕ (y j )]} = ∑ β j (ψ ◦ θ )[ϕ (y j )] = ∑ β j ϕ (y j )
=⇒ β j = 0 ( j = 1, . . ., p)
=⇒ ∑ αi z i = 0 =⇒ αi = 0 (i = 1, . . ., k)
La transformación lineal ζ : E → E definida por
ζ (xi ) = zi (i = 1, . . . , k)
ζ (y j ) = θ [ϕ (y j )] ( j = 1, . . ., p)
es desde luego no-singular pues, por definición, la imagen de una base
bajo ζ es una base.
Y se tiene,
(ψ ◦ ζ )(xi ) = ψ (zi ) = 0 = ϕ (xi ) (i = 1, . . ., k)
(ψ ◦ ζ )(y j ) = ψ {θ [ϕ (y j )]} = (ψ ◦ θ )[ϕ (y j )] = ϕ (y j ) ( j = 1, . . . , p)
de lo cual se infiere que ψ ◦ ζ = ϕ .

95
Publicación digital de Editorial Equinoccio
3 M ATRICES

Lema 3.6.2. Sean las transformaciones ϕ , ψ : E → G y [ϕ ], [ψ ] sus ma-


trices de dimensión m × n con respecto a bases X,Y de E y G. Entonces,
Im ϕ = Im ψ si, y sólo si, las columnas de [ϕ ] y de [ψ ] generan el mismo
subespacio de Fm .
Demostración. Consideremos la transformación no-singular η : F m → G
tal que η (e j ) = y j ( j = 1, . . . , m), donde {e1 , . . ., em } es la base canónica
de Fm e Y = {y1 , . . . , ym }.
Designemos por S = Im ϕ y T = Im ψ . Nótese que S está generado
por ϕ (X ) y T por ψ (X ).
Ocurre que η −1 (S) es el subespacio de Fm generado por las colum-
nas de [ϕ ]5 y η −1 (T) el generado por las columnas de [ψ ].
Se infiere que
S=T ⇐⇒ η −1 (S) = η −1 (T)

De los lemas 3.6.1 y 3.6.2 obtenemos el siguiente corolario cuya


demostración es innecesaria.
Corolario 3.6.1. Sean ϕ , ψ : E → G transformaciones lineales y [ϕ ], [ψ ]
sus matrices de dimensión m × n con respecto a bases X,Y de E y G.
Entonces, las columnas de [ϕ ] y las de [ψ ] generan el mismo subes-
pacio de Fm si, y sólo si, existe una transformación no-singular ζ : E →
E tal que ϕ = ψ ◦ ζ .
Ahora demostramos el resultado que más nos interesa. El lector
debe tener presente lo establecido en la Sección 3.4.
Proposición 3.6.1. Sean ϕ , ψ : E → G transformaciones lineales y [ϕ ],
[ψ ] sus matrices de dimensión m × n con respecto a bases X,Y de E y G.
Entonces, las filas de [ϕ ] y las de [ψ ] generan el mismo subespacio
de Fn si, y sólo si, existe una transformación no-singular γ : G → G tal
que ϕ = γ ◦ ψ .
Demostración. Consideremos las transformaciones duales
ϕ ∗ , ψ ∗ : G∗ → E∗
5 Que es el conjunto η −1 [ϕ (X)].

96
Publicación digital de Editorial Equinoccio
3.6 M ATRICES SIMILARES

Sabemos que sus matrices con respecto a las bases duales X ∗ ,Y ∗ son las
traspuestas [ϕ ]T , [ψ ]T (de dimensión n × m).
Por tanto, decir que las filas de [ϕ ] y las de [ψ ] generan el mismo
subespacio de Fn es lo mismo que afirmar que las columnas de [ϕ ] T
y las de [ψ ]T generan el mismo subespacio de Fn . Pero, en virtud del
Corolario 3.6.1, esto equivale a la existencia de una transformación no-
singular γ ∗ : G∗ → G∗ tal que ϕ ∗ = ψ ∗ ◦ γ ∗ .6
Se infiere de la fórmula (3.4.3) que ϕ = γ ◦ ψ .

Recapitulamos los resultados obtenidos en términos de matrices:


Sean M , M # un par de matrices de dimensión m × n. Hemos de-
mostrado que las siguientes propiedades son equivalentes:

• M  M #.

• Existe una matriz m × m no-singular P tal que M # = P × M .

• Las filas de M y de M # generan el mismo subespacio de Fn .

Ahora aprovechamos el instrumento de las matrices elementales.


Como una matriz elemental E (de dimensión m × m) de cualquiera
de los tres tipos es no-singular, la matriz M # = E × M es similar a M
y proviene de ésta mediante una operación elemental (del mismo tipo
que E ) sobre sus filas. Y las filas de M # generan el mismo subespacio
de Fn que las de M .
Por obvia inducción, podemos afirmar que la matriz

M # = E1 × · · · × Ek × M

es similar a M , donde las Ei son matrices elementales, y M # se origina


de M mediante una secuencia de operaciones elementales sobre sus
filas, las cuales continúan generando el mismo subespacio de F n que las
de M .
6 Gracias al isomorfismo entre los espacios L (G, G) y L (G ∗ , G∗ ), podemos considerar
que todo elemento de L (G ∗ , G∗ ) es la dual de una transformación: G → G. Además,
sabemos por el Corolario 3.4.1 que γ no-singular ⇐⇒ γ ∗ no-singular.

97
Publicación digital de Editorial Equinoccio
3 M ATRICES

Supondremos que M no es la matriz nula, pues en tal caso no hay


más nada que hacer: ésta constituye por sí sola su clase de equivalencia.
Por una secuencia sistemática de operaciones elementales sobre las
filas de una matriz dada Mm×n (no nula), vamos a obtener una forma
canónica representativa de la clase constituida por las matrices similares
a M.
Llamamos entrada delantera de una fila cualquiera de M al primer
elemento no nulo de esa fila (leyendo de izquierda a derecha). Digamos
que esa entrada delantera ocupa el lugar (columna) k.
Ahora hacemos que la entrada delantera de cada fila (no nula) sea
1, multiplicando la fila por el inverso de su entrada delantera (operación
elemental tipo 2).
Sea k la columna que ocupa la entrada delantera (que ahora es 1)
en una fila cualquiera; sumando esa fila, multiplicada cada vez por un
escalar adecuado, a cada una de las restantes filas, podemos lograr que
todas las demás entradas de la columna k sean cero (operaciones ele-
mentales tipo 3).
Puede muy bien ocurrir que una fila i tenga entrada delantera en la
misma columna ki que otra fila j = i. Al hacer la operación anterior
con la fila i para lograr que las restantes entradas de la columna ki sean
cero, la entrada delantera de la fila j se corre a la derecha y seguramente
deja de ser 1. En ese caso, por operación elemental tipo 2, hacemos 1 la
entrada delantera de la nueva fila j y continuamos el proceso descrito.
Finalmente y mediante la operación elemental de intercambiar filas,
reordenamos las filas así modificadas de modo que
1 ≤ k1 < k2 < · · · < kr ≤ n
donde ki es el lugar (en columna ki )7 de la entrada delantera 1 de la fila
i. Las filas cuyas entradas son todas nulas (si las hay) las colocamos
debajo de la fila r, es decir, como las filas r + 1, r + 2, . . ., m.
Así pues, una fila de lugar i ≤ r tendrá el siguiente aspecto:
ki ki+1 ki+2
0 0 ... 0 1   ...  0  ...  0  ... (fila i)
7
No puede ser k i = k j , pues si i < j, entonces la entrada en (i, k i ) es 1, pero el resto de
las entradas en la columna k i , entre ellas la de lugar ( j, k j ), son cero.

98
Publicación digital de Editorial Equinoccio
3.6 M ATRICES SIMILARES

donde los  son entradas de cualquier valor.


Destacamos el haber asociado a M una secuencia estrictamente cre-
ciente de enteros k1 < k2 < · · · < kr (entre 1 y n) que designaremos por
K (k1 , . . . , kr ) y llamaremos K-invariantes de M .
Por el procedimiento descrito obtenemos una matriz M e  M que
llamamos reducida escalonada y veremos en seguida que es única en
cada clase de matrices similares; se trata pues de una forma canónica
por similitud.
En primer lugar, veamos que estas r filas no nulas son linealmente
independientes, interpretadas como vectores de Fn . Designémoslas por
v1 , v2 , . . . , vr . Para cualquier vector w del subespacio de Fn generado
por éstas: w = (λ1 , λ2 , . . . , λn ) = α1 v1 + α2 v2 + · · · + αr vr , ocurre que
λki = αi (para i = 1, . . ., r), de modo que, si w = (0, . . ., 0) es el vector
nulo de Fn , tenemos que α1 = · · · = αr = 0. Se infiere que v1 , . . . , vr
constituyen una base para el subespacio generado por las filas de M , o
sea que el número r de K-invariantes es el rank ρ (M ) de la matriz (por
el Teorema 3.4.1).
Supongamos ahora que tenemos otra matriz reducida escalonada
Me  M . Probemos que forzosamente Me = Me .
Las filas no nulas u1 , u2 , . . . , ur de Me son pues de la forma (fila i)
y hemos visto que resultan linealmente independientes y, por tanto, su
número es necesariamente el rank r = ρ (M ), así como el número de
sus K-invariantes K (k1 , . . . , kr ).
Por similitud, sabemos que cada u i pertenece al subespacio gene-
rado por {v1 , v2 , . . . , vr }, o sea que ui = β1 v1 + β2 v2 + · · · + βr vr y es
obvio que la entrada delantera (en el lugar ki ) de ui (que es 1) es el
primer β no nulo, de modo que cada ki es igual a uno de los k1 , . . . , kr ;
además, como los k  son todos distintos, dos de ellos no pueden ser igual
al mismo k. En suma, los k  son precisamente los mismos k 1 , . . ., kr , y, al
ordenar los k en forma estrictamente creciente, necesariamente ki = ki
(para i = 1, . . ., r). De esto se infiere que βi = 1 y β j = 0 para j = i;
luego, ui = vi , para i = 1, . . ., r.
En conclusión, la reducida escalonada similar a M es única.
Comentario 3.6.2. Que dos matrices reducidas escalonadas (de la mis-
ma dimensión) compartan los mismos K-invariantes K (k 1 , . . . , kr ) no

99
Publicación digital de Editorial Equinoccio
3 M ATRICES

garantiza que sean similares, es decir, pueden estar asociadas a trans-


formaciones distintas.
Por ejemplo,
⎛ ⎞ ⎛ ⎞
1 0 −2 1 0 5
⎝0 1 3 ⎠ ⎝0 1 −1⎠
0 0 0 0 0 0

son reducidas escalonadas 3 × 3, ambas de rank = 2 y comparten los


K-invariantes K (1, 2). Sin embargo, no son similares. Salta a la vista
que esto se debe a que no son idénticas, pues hemos demostrado que la
reducida escalonada en cada clase de matrices similares es única.
Otra forma de verlo es tener en cuenta que dos matrices son simi-
lares si, y sólo si, las filas no nulas de una y otra generan el mismo
subespacio. Compruebe el lector que eso no ocurre en este ejemplo.
Comentario 3.6.3. Ya que la reducida escalonada es única, su ob-
tención es independiente de la secuencia de operaciones elementales
que apliquemos a la matriz dada, no necesariamente los pasos que
hemos descrito arriba, ni en el mismo orden. En la práctica, es mejor
aprovechar las particularidades que ofrece la matriz original.
Sabemos que una matriz Mn×n es no-singular si, y sólo si, su rank
ρ (M ) = n; luego, su reducida escalonada tendrá sus n filas no nulas, lo
cual implica que K (1, 2, . . ., n) y, en consecuencia, la reducida escalo-
nada es la matriz identidad I (de dimensión n × n), como sabíamos que
tenía que ser, según el Comentario 3.6.1.
Ahora bien, esto significa que

I = E1 × · · · × Ek × M (3.6.1)

donde las Ei son matrices elementales. Y de (3.6.1) obtenemos

M −1 = E1 × · · · × Ek × I

que proporciona un algoritmo para calcular la inversa M −1 : Aplicamos


a las filas de I la misma secuencia de operaciones elementales que
hemos aplicado a las filas de M para obtener I.

100
Publicación digital de Editorial Equinoccio
3.6 M ATRICES SIMILARES

También de (3.6.1) se deduce

M = Ek−1 × · · · × E1−1

Pero sabemos que la inversa de una matriz elemental es también


elemental, por tanto, esta última expresión demuestra que toda matriz
no-singular es el producto de matrices elementales.
Ejemplo de cálculo de una reducida escalonada
Por sencillez, arrancamos con una matriz cuyas entradas delanteras
han sido convertidas en 1.
⎛ ⎞
0 0 1 −2 3 −1 0
⎜0 1 −1 0 2 5 1⎟
⎜ ⎟
⎜0 0 1 −2 3 −1 0⎟
⎜ ⎟
⎝0 0 0 1 4 −2 3⎠
0 0 1 −1 3 −3 2
Operando con la fila 1 hacemos cero las restantes entradas de la
columna 3:
⎛ ⎞
0 0 1 −2 3 −1 0
⎜0
⎜ 1 0 −2 5 4 1⎟ ⎟
⎜0
⎜ 0 0 0 0 0 0⎟ ⎟
⎝0 0 0 1 4 −2 3⎠
0 0 0 1 0 −2 2
Ahora actuamos con la fila 4 para hacer ceros en la columna 4:
⎛ ⎞
0 0 1 0 11 −5 6
⎜0 1 0 0 13 0
⎜ 7 ⎟

⎜0 0 0 0 0 0 0 ⎟
⎜ ⎟
⎝0 0 0 1 4 −2 3 ⎠
0 0 0 0 −4 0 −1
Nótese que la fila 5, que tenía la entrada delantera en la misma co-
lumna 4 que la fila 4, tiene ahora su entrada delantera en la columna 5
y es −4, que convertimos en 1,

101
Publicación digital de Editorial Equinoccio
3 M ATRICES

⎛ ⎞
0 0 1 0 11 −5 6
⎜0
⎜ 1 0 0 13 0 7 ⎟

⎜0
⎜ 0 0 0 0 0 0 ⎟

⎝0 0 0 1 4 −2 3 ⎠
0 0 0 0 1 0 1/4
Por último, operamos con la fila 5 para hacer cero las restantes en-
tradas de la columna 5, colocamos las filas en orden creciente de
entradas delanteras y ponemos la fila nula al final:
⎛ ⎞
0 1 0 0 0 0 15/4
⎜0 0 1 0 0 −5 13/4⎟
⎜ ⎟
⎜0 0 0 1 0 −2 2 ⎟
⎜ ⎟
⎝0 0 0 0 1 0 1/4 ⎠
0 0 0 0 0 0 0

Llegamos así a la reducida escalonada similar a la matriz dada, de


rank = 4 y K (2, 3, 4, 5).
Ejemplo de cálculo de la inversa de una matriz
Sea la matriz
⎛ ⎞
1 2 3
M = ⎝4 5 6 ⎠
7 8 10
No sabemos, a priori, si M es no-singular; sin embargo, como el
cálculo exige la obtención de la reducida escalonada, ésta pondrá de
manifiesto su naturaleza.
Como debemos aplicar a la matriz identidad I la misma secuencia
de operaciones elementales sobre sus filas que la empleada para obtener
la reducida escalonada de M , resulta práctico escribir una matriz a con-
tinuación de la otra y operar con las filas como si se tratase de una sola
matriz, pero en busca de la reducida escalonada de M . Así:

102
Publicación digital de Editorial Equinoccio
3.6 M ATRICES SIMILARES

⎛  ⎞
1 2 3 1 0 0

⎝4 5 6  0 1 0⎠

7 8 10 0 0 1
Operando con la primera fila, convertimos en cero las entradas de-
lanteras de la segunda y tercera filas:
⎛  ⎞
1 2 3   1 0 0
⎝0 −3 −6  −4 1 0⎠

0 −6 −11  −7 0 1
Multiplicamos la segunda fila por −1/3:
⎛  ⎞
1 2 3   1 0 0
⎝0 1 2   4/3 −1/3 0

0 −6 −11  −7 0 1
Operamos con la segunda fila para convertir en cero las entradas de
lugares (1, 2) y (3, 2):
⎛  ⎞
1 0 −1 
 −5/3 2/3 0
⎝0 1 2  4/3 −1/3 0⎠

0 0 1  1 −2 1
Finalmente, operamos con la tercera fila para reducir a cero las en-
tradas de lugares (1, 3) y (2, 3):
⎛  ⎞
1 0 0   −2/3 −4/3 1
⎝0 1 0  −2/3 11/3 −2⎠

0 0 1  1 −2 1
En conclusión, M es no-singular, pues su reducida escalonada es I,
y tenemos
⎛ ⎞
−2/3 −4/3 1
M −1 = ⎝−2/3 11/3 −2⎠
1 −2 1

103
Publicación digital de Editorial Equinoccio
3 M ATRICES

3.7 Sistemas de ecuaciones lineales

Una de las numerosas aplicaciones del Álgebra Lineal consiste en


la solución de los sistemas de ecuaciones lineales. Históricamente, ese
problema es mucho más antiguo y puede decirse que fue el origen del
Álgebra Lineal que estudiamos hoy día.
Sea F un cuerpo cualquiera que el lector puede considerar, si lo
desea, como el cuerpo R de los reales, el C de los complejos o incluso
el Q de los racionales.
El conjunto de ecuaciones


⎪ a11 x1 + a12 x2 + · · · + a1n xn = 0

a21 x1 + a22 x2 + · · · + a2n xn = 0
(3.7.1)

⎪ .................................

am1 x1 + am2 x2 + · · · + amn xn = 0
donde los coeficientes ai j son elementos dados de F, recibe el nombre
de sistema homogéneo de ecuaciones lineales.
El problema consiste en determinar la existencia de elementos x j ∈
F que satisfagan simultáneamente todas estas ecuaciones y calcularlos.
Nótese que siempre existe, por lo menos, la solución trivial: x j = 0
( j = 1, . . ., n).
La similitud de matrices y la reducida escalonada estudiadas en la
sección anterior ofrecen un método eficaz para atacar el problema.
El sistema (3.7.1) puede expresarse más brevemente en forma ma-
tricial:
M ×X = O (3.7.2)
donde M = (ai j )m×n es la matriz de los coeficientes (que suponemos
no nula), X = (x j )n×1 es la “matriz columna” de las n “incógnitas” x j y
O = (0)m×1 es la matriz columna de m ceros.
Si Pm×m es una matriz no-singular, de (3.7.2) inferimos
(P × M ) × X = O (3.7.3)
lo cual significa que, si X es solución de (3.7.2), entonces es solución
de (3.7.3); y, recíprocamente, si X es solución de (3.7.3), la identidad
M × X = P −1 × [(P × M ) × X] = O

104
Publicación digital de Editorial Equinoccio
3.7 S ISTEMAS DE ECUACIONES LINEALES

demuestra que también es solución de (3.7.2).


En síntesis, X es solución del sistema si, y sólo si, M  ×X = O, para
toda matriz M   M (ya que P × M , donde Pm×m es no-singular,
describe la clase de todas las matrices similares a M ).
En particular, si Me es la reducida escalonada de M , con r = ρ (M )
K-invariantes K (k1 , . . ., kr ), entonces Me × X = O tiene el mismo con-
junto X de soluciones que (3.7.2).
Podemos considerar que la matriz M está asociada a una transfor-
mación ϕ : Fn → Fm con respecto a las bases canónicas de ambos es-
pacios. Sabemos que Me está asociada a la misma ϕ con respecto a la
base canónica en Fn y cierta base en Fm . La ecuación (3.7.2) no es otra
cosa que la representación matricial de ϕ (x) = 0, de modo que el con-
junto de sus soluciones es precisamente el subespacio de F n constituido
por ker ϕ .
Dado que r = ρ (M ) = ρ (Me) = dim(Im ϕ ), se tiene

dim(ker ϕ ) = n − r r ≤ min{m, n} (3.7.4)

Hay dos casos posibles.

1. r = n , lo cual implica dim(ker ϕ ) = 0 y ϕ es inyectiva, de modo


que x j = 0 ( j = 1, . . . , n) es la única solución del sistema.

2. r < n.
Entonces Me × X = O, con Me = (bi j ), es de la forma


⎪ xk + b1,k1 +1 xk1 +1 + · · · + b1n xn = 0
⎨ 1
xk2 + b2,k2 +1 xk2 +1 + · · · + b2n xn = 0

⎪ ....................................

xkr + br,kr +1 xkr +1 + · · · + brn xn = 0

y puede expresarse como

105
Publicación digital de Editorial Equinoccio
3 M ATRICES




n




x k1 = − ∑ b1izi

⎪ i=k1 +1

⎪ n
⎨ x = −
k2 ∑ b2izi (3.7.5)
⎪ i=k2 +1



⎪ . . . . . . . . . .........

⎪ n


⎪ x
⎩ r k = − ∑ bri zi
i=kr +1

donde designamos por zi a todas las n − r incógnitas x j distintas


de xk1 , . . . , xkr .
Se infiere ahora que, dando valores arbitrarios a los zi y calcu-
lando los xk1 , . . . , xkr mediante (3.7.5), obtenemos todas las solu-
ciones posibles del sistema (3.7.1).
Vamos a describir una manera de construir cualquier vector vs de
una base {v1 , . . . , vn−r } del subespacio de soluciones ker ϕ , cuya
dimensión, según (3.7.4), es n − r.
Hacemos zs = 1 y z j = 0, para j = s, y sea vs el vector de Fn :
s
vs = (0, . . ., 0, xki , 0, . . ., 1, . . . , 0, xki+1 , 0, . . ., 0, xkr , 0, . . ., 0)

donde el lugar s del 1 debe ser distinto de los lugares k i , y cada xki
es el resultado de las ecuaciones (3.7.5) con zs = 1 y z j = 0, para
j = s.
Por construcción, vs ∈ ker ϕ y es inmediato que los vs son lineal-
mente independientes y, por haber n − r de ellos, constituyen una
base para el subespacio de soluciones ker ϕ .

Comentario 3.7.1. Si m < n, caemos forzosamente en el caso (2), pues


r ≤ m < n.
Ahora abordamos la solución de un sistema no homogéneo de ecua-
ciones lineales:

106
Publicación digital de Editorial Equinoccio
3.7 S ISTEMAS DE ECUACIONES LINEALES



⎪ a11 x1 + a12 x2 + · · · + a1n xn = c1

a21 x1 + a22 x2 + · · · + a2n xn = c2
(3.7.6)

⎪ ..................................

am1 x1 + am2 x2 + · · · + amn xn = cm
donde los escalares ai j y los ci son conocidos y suponemos que no todos
son nulos.
El problema consiste en determinar si existen elementos x 1 , . . ., xn
de F que satisfagan simultáneamente estas m ecuaciones y, de existir,
calcularlos.
Expresado en términos matriciales, como se hizo en (3.7.2), tene-
mos
M ×X = C (3.7.7)
donde M = (ai j )m×n es la matriz de los coeficientes (que suponemos
no nula), X = (x j )n×1 es la “matriz columna” de las n “incógnitas” x j y
C = (ci )m×1 es la matriz columna de las m “constantes” ci .
Con respecto a las bases canónicas de Fn y Fm , la matriz M está
asociada a una transformación ϕ : Fn → Fm . En este contexto, la e-
cuación (3.7.7) equivale a ϕ (x) = c, donde x = (x1 , . . . , xn ) ∈ Fn y c =
(c1 , . . . , cm ) ∈ Fm . Así pues, el problema consiste en determinar si c ∈
Im ϕ , en cuyo caso, queremos calcular los vectores x ∈ Fn tales que
ϕ (x) = c.
Si el rank ρ (M ) = dim(Im ϕ ) = m, entonces ϕ es sobreyectiva y el
sistema (3.7.7) tiene solución para todo c ∈ F m . En tal caso, si n = m,
esto significa que M es no-singular y (3.7.7) tiene solución única X =
M −1 × C, para cada c ∈ Fm . Según el Comentario 2.1.2, ϕ no puede
ser sobreyectiva si n < m.
Sea Me la reducida escalonada de M , con r = ρ (M ) y K-inva-
riantes K (k1 , . . ., kr ); sabemos que existe una matriz no-singular P =
(pi j )m×m tal que Me = P × M . Entonces, en virtud de (3.7.7), tene-
mos
Me × X = P ×C (3.7.8)
Ahora bien, sabemos que las columnas de M e son las imágenes
en Fm , bajo ϕ , de los vectores de la base canónica de Fn y, por tanto,

107
Publicación digital de Editorial Equinoccio
3 M ATRICES

pertenecen (generan) al rango Im ϕ ; pero, las r columnas, de lugares


k1 < · · · < kr y de entradas respectivas
i
0, 0, . . ., 0, 1, 0, 0, . . ., 0, 0 (columna de lugar ki )
  
m

son linealmente independientes y la dimensión del rango es precisa-


mente r. En consecuencia, estas columnas constituyen una base para
Im ϕ , y nótese que se caracterizan por que sus últimas m − r entradas
son cero. Luego, c ∈ Im ϕ si, y sólo si, las entradas de lugares i =
r + 1, r + 2, . . ., m de la matriz columna8 P ×C son cero; es decir,


⎪ pr+1,1 c1 + pr+1,2 c2 + · · · + pr+1,m cm = 0

pr+2,1 c1 + pr+2,2 c2 + · · · + pr+2,m cm = 0
(3.7.9)

⎪ ... ... ... ... ...

pm1 c1 + pm2 c2 + · · · + pmm cm = 0
Si ϕ es sobreyectiva, esto equivale a que ρ (M ) = r = m ≤ n, por
tanto el sistema (3.7.9) no existe, y siempre c ∈ Im ϕ , de modo que el
sistema (3.7.6) tiene soluciones (una sola si n = m).
Supongamos pues que c ∈ Im ϕ , sea porque ϕ es sobreyectiva o
porque c satisface el sistema (3.7.9). Calculemos las soluciones de
(3.7.6).
Lo primero es obtener la fórmula matricial (3.7.8), para lo cual
calculamos la reducida escalonada Me mediante una secuencia de ope-
raciones elementales sobre las filas de M , o sea
Me = E1 × · · · × Ek × M
donde las Ei son matrices elementales, de modo que P = E1 × · · · × Ek
es no-singular y, de (3.7.7) obtenemos
Me × X = P ×C = E1 × · · · × Ek ×C
lo cual nos dice que P ×C se obtiene aplicando a las filas de la matriz
columna C la misma secuencia de operaciones elementales que hemos
aplicado a M para obtener Me .
8 Tenga el lector muy presente la Sección 3.3.

108
Publicación digital de Editorial Equinoccio
3.7 S ISTEMAS DE ECUACIONES LINEALES

P ×C = D es una matriz columna m × 1 con entradas d1 , . . . , dm .


Entonces Me × X = D, con Me = (bi j ), es de la forma


⎪ x + b1,k1 +1 xk1 +1 + · · · + b1n xn = d1
⎨ k1
xk2 + b2,k2 +1 xk2 +1 + · · · + b2n xn = d2

⎪ .....................................

xkr + br,kr +1 xkr +1 + · · · + brn xn = dr

Y de estas últimas ecuaciones obtenemos


⎧ n



⎪ xk1 = d1 − ∑ b1i zi



⎪ i=k1 +1

⎪ n
⎨ x = d −
k2 2 ∑ b z 2i i
(3.7.10)
⎪ i=k2 +1



⎪ ....................

⎪ n


⎪ x
⎩ rk = d r − ∑ bri zi
i=kr +1

donde designamos por zi a todas las n − r incógnitas x j distintas de


xk1 , . . ., xkr .
Dando valores arbitrarios a los zi y calculando los xk1 , . . . , xkr me-
diante (3.7.10), obtenemos todas las soluciones posibles del sistema
(3.7.6).
Por ejemplo, si hacemos todos los z i = 0, obtenemos una solu-
ción particular {x1 , . . ., xn } tal que, x j = 0 si j = ki y xki = di (para
i = 1, . . . , r).
Veamos que basta conocer una solución particular Y0 , sea esta última
o cualquier otra, para conocer todas las soluciones de (3.7.7), si hemos
resuelto el sistema homogéneo asociado M × X = O.
En efecto, Y0 + X , para toda solución X del sistema homogéneo aso-
ciado, es solución de (3.7.7) y recíprocamente; es decir,

y0 + ker ϕ = {y0 + x | ϕ (x) = 0}

(donde ϕ (y0 ) = c) es el conjunto de todas las soluciones de (3.7.7).

109
Publicación digital de Editorial Equinoccio
3 M ATRICES

Tenemos M × (Y0 + X ) = M × Y0 + M × X = M × Y0 = C; y, si
Y  es otra solución de (3.7.7), entonces Y  = Y0 + (Y  − Y0 ) y es obvio
que M × (Y  −Y0 ) = O.
En la práctica es mejor resolver primero el sistema homogéneo aso-
ciado M ×X = O y luego calcular una solución particular cualquiera de
(3.7.7). En todo caso, el cálculo esencial se limita a obtener la reducida
escalonada Me .
Ejemplos de sistemas de ecuaciones lineales
Como un sistema no homogéneo involucra la solución del sistema
homogéneo asociado, sólo ejemplificaremos un par de sistemas no ho-
mogéneos.
Consideremos el sistema

⎨ 2x1 + 2x2 − x3 + x4 = 0
x1 + x2 + x3 + 2x4 = 3 (3.7.11)

x1 − x2 + 2x3 − x4 = 1
Como la columna de constantes C debe ser sometida a las mismas
operaciones elementales que las filas de la matriz M de los coeficientes,
conviene adoptar el mismo procedimiento de “anexión” que se empleó
para el cálculo de la inversa de una matriz:
⎛  ⎞
2 2 −1 1  0
⎝1 1 1 2  3

1 −1 2 −1  1
Operando con las filas, obtenemos la reducida escalonada Me de
la matriz de los coeficientes, junto con la nueva columna de constantes
P ×C:
⎛  ⎞
1 0 0 −1   −1
⎝0 1 0 2  2 ⎠ (3.7.12)

0 0 1 1  2
Como el rank ρ (M ) = ρ (Me ) = 3, la transformación ϕ : R4 → R3 ,
cuyas matrices asociadas son M y Me , es sobreyectiva, de modo que
el sistema (3.7.11) tiene soluciones para cualquier terna de constantes.

110
Publicación digital de Editorial Equinoccio
3.7 S ISTEMAS DE ECUACIONES LINEALES

De (3.7.12) obtenemos

⎨ x1 = x4 − 1
x2 = − 2x4 + 2

x3 = − x4 + 2
y dando valores arbitrarios a x4 se tienen todas las soluciones del sistema
(3.7.11). Si queremos una solución particular, podemos tomar x 4 = 1 y
tenemos
x1 = 0 , x2 = 0 , x3 = 1 , x4 = 1
De acuerdo con las deducciones que hemos hecho, una base para
ker ϕ , cuya dimensión es

dim(ker ϕ ) = dim R4 − dim(Imϕ ) = 4 − 3 = 1

está constituida por el vector (1, −2, −1, 1), de modo que la solución
general del sistema (3.7.11) es

(x1 , x2 , x3 , x4 ) = (0, 0, 1, 1) + λ (1, −2, −1, 1) = (λ , −2λ , 1 − λ , 1 + λ )

donde damos valores numéricos cualesquiera a λ .

Veamos este otro ejemplo




⎪ 2x3 + 7x4 = a

x1 − x2 + x3 + x4 = b
(3.7.13)

⎪ −x1 + x2 − 4x3 + 5x4 = c

−2x1 + 2x2 − 5x3 + 4x4 = d
Empleamos el mismo método a partir de:
⎛  ⎞
0 0 2 7  a
⎜ 1 −1 1 1  b⎟
⎜  ⎟
⎝−1 1 −4 5  c ⎠

−2 2 −5 4  d
Al cabo de las operaciones elementales con las filas para obtener la
reducida escalonada de la matriz de los coeficientes, tenemos

111
Publicación digital de Editorial Equinoccio
3 M ATRICES

⎛  ⎞
1 −1 0 0 
a
⎜0 0 1 0  b ⎟
⎜  ⎟
⎝0 0 0 1  c ⎠

0 0 0 0  d
donde

a = (−9a + 38b + 5c)/33


b = (6a − 7b − 7c)/33
c = (3a + 2b + 2c)/33
d = b−c+d

Se infiere que el sistema (3.7.13) tiene solución si, y sólo si,

d = b − c + d = 0

Y tenemos

x1 = x2 + a (3.7.14)
x3 = b
x4 = c

o sea que, dando valores arbitrarios a x2 , obtenemos todas las soluciones


de (3.7.13).
La reducida escalonada de la matriz de los coeficientes tiene rank
3, de modo que su transformación asociada ψ : R 4 → R4 es singular
y dim(ker ψ ) = 1. Dejamos al lector deducir que el vector (1, 1, 0, 0)
constituye una base para ker ψ .
Si en (3.7.14) hacemos x2 = 0, obtenemos la solución particular x 1 =
a , x2 = 0 , x3 = b , x4 = c . Luego, la solución general del sistema


(3.7.13) puede expresarse

(x1 , x2 , x3 , x4 ) = (a , 0, b, c ) + λ (1, 1, 0, 0) = (a + λ , λ , b , c )

donde λ puede tener valores numéricos cualesquiera.

112
Publicación digital de Editorial Equinoccio
3.8 E JERCICIOS

3.8 Ejercicios
1. Sean A y B dos matrices cuadradas de las mismas dimensiones.
Proporcionar un contra-ejemplo que demuestre que A × B = O
(donde O es la matriz nula) no implica que B × A = O.

2. Sea A una matriz n × n sobre un cuerpo F.


Aplicando el ejercicio (6) de la página 37, probar que existe una
matriz diagonal Dn×n , cuyas entradas diagonales son (+1) o (−1)
y tal que A + D es no-singular.

3. Si la matriz A es semejante a B, justificar que A n es semejante


a B n , para todo natural n ≥ 1.

4. Sean A y B dos matrices cuadradas de la misma dimensión.


Demostrar que

A +B = A ×B =⇒ A ×B = B ×A

5. Sea A una matriz cuadrada.


Demostrar que si A satisface dos de las siguientes propiedades,
entonces cumple la restante:

(a) A T × A = I (matriz identidad).


(b) A 2 = − I.
(c) A T = − A .

6. Sea E un espacio vectorial de dimensión finita sobre un cuerpo F,


y sea ϕ : E → E una transformación lineal.
Supongamos que ϕ conmuta con toda transformación ψ : E → E,
es decir, ϕ ◦ ψ = ψ ◦ ϕ .
Probar que existe un escalar c ∈ F tal que ϕ = c I .

113
Publicación digital de Editorial Equinoccio
3 M ATRICES

Sugerencia: Establecer primero que la matriz asociada a ϕ es


siempre la misma con respecto a cualquier base de E.

7. Dada una matriz cuadrada M = (ai j )n×n sobre un cuerpo F, se


define la traza de M como el elemento

τ (M ) = a11 + a22 + · · · + ann ∈ F

Demostrar que τ : Mn×n → F, donde Mn×n es el espacio vectorial


(sobre F) de todas las matrices n × n con entradas en F, es una
transformación lineal (un funcional).
Probar además que

τ (M × M  ) = τ (M  × M ) (para M , M  ∈ Mn×n )

Infiérase de esta última propiedad que dos matrices semejantes


(Definición 3.3.2) tienen la misma traza.

8. ¿Es el vector (7, −17, 15, 17) combinación lineal de los vectores
(2, −1, 0, 3), (−1, 0, 3, −4), (0, −7, 9, 2) en el espacio R 4 ?

9. Sea la función ϕ : R3 → R3 tal que

ϕ (x, y, z) = (x + y + z, y + z, 2y + z)

Probar que ϕ es una transformación lineal, hallar su matriz aso-


ciada con respecto a la base canónica y determinar ker ϕ .
¿Es ϕ un isomorfismo?

10. Una transformación lineal ϕ : R4 → R4 tiene matriz asociada


⎛ ⎞
1 a a a
⎜a 1 a a⎟
M = ⎜ ⎟
⎝a a 1 a⎠
a a a 1

114
Publicación digital de Editorial Equinoccio
3.8 E JERCICIOS

con respecto a la base canónica de R4 .


Hallar los valores de a ∈ R para los cuales dim (Im ϕ ) < 4.

11. E y G son espacios vectoriales sobre el mismo cuerpo y de dimen-


siones finitas n y m respectivamente.
Sea A la matriz m × n asociada a una transformación lineal ϕ :
E → G con respecto a una base X de E y una base Y de G.
Sea B una matriz n × m.
Demostrar que B está asociada a la transformación dual ϕ ∗ :
G∗ → E∗ si, y sólo si, B tiene igual rank que A : ρ (B) = ρ (A ).
Atención: La traspuesta A T es la asociada a ϕ ∗ con respecto a
las bases duales Y ∗ y X ∗.

12. Sea ϕ : R3 → R3 la transformación lineal definida por


ϕ (e1 ) = (1, −1, 0)
ϕ (e2 ) = (0, −1, 1)
ϕ (e3 ) = (−1, 0, 1)
donde B = {e1 , e2 , e3 } es la base canónica de R3 .
Mostrar la matriz M asociada a ϕ con respecto a B.
Compruébese que B# = {u1 , u2 , u3 }, donde
u1 = (1, 2, 1) u2 = (2, 1, 0) u3 = (−1, 0, 2)
es una base.
Hallar la matriz M # asociada a ϕ con respecto a B# y las matrices
P y P −1 tales que
M # = P × M × P −1

13. Calcular las reducidas escalonadas de las matrices


⎛ ⎞ ⎛ ⎞
1 2 −1 11 2 −3 5
⎝ 3 −1 4 0⎠ ⎝1 2 −1⎠
−3 8 −11 3 3 1 6

115
Publicación digital de Editorial Equinoccio
3 M ATRICES

14. Mediante operaciones elementales, calcular la inversa de la matriz


⎛ ⎞
−3 −2 1
⎝ 11 2 −1⎠
1 5 4

15. Expresar la siguiente matriz y su inversa como producto de ma-


trices elementales ⎛ ⎞
−1 4 3
⎝2 5 −2⎠
7 −8 1

16. Calcular la reducida escalonada M # de la matriz


⎛ ⎞
7 2 −1 0
⎜−17 −1 0 −7⎟
M = ⎜ ⎟
⎝ 15 0 3 9 ⎠
17 3 −4 2

y determinar la matriz P tal que

M# = P ×M

17. Considérese el sistema




⎪ x1 + 2x2 − x3 + 2x4 = 1

3x1 + x2 + x3 + 2x4 = 3

⎪ x − 3x2 + 3x3 − x4 = 1
⎩ 1
5x1 + 5x2 − x3 + 7x4 = a

Determinar para qué valores de a ∈ R el sistema no admite solu-


ciones; y para cuáles valores de a existen soluciones y calcularlas.

18. Considérese el sistema

116
Publicación digital de Editorial Equinoccio
3.8 E JERCICIOS



⎪ (1 + a)x + y + z + t = 1

x + (1 + a)y + z + t = 1

⎪ x + y + (1 + a)z + t = 1

x + y + z + (1 + a)t = b

Determinar los valores de a, b ∈ R para los cuales el sistema ad-


mite soluciones y calcularlas.

19. Determinar cómo el rank ρ (M ) de la matriz


⎛ ⎞
3 1 2
⎜1 2 −1⎟
M = ⎜ ⎟
⎝1 0 1 ⎠
2 b −1

depende del número real b.


Determinar los valores reales a, b, c para los cuales el sistema


⎪ 3x + y + 2z = −1

x + 2y − z = a

⎪ x + z = −1

2x + by − z = c

admite soluciones.
Calcular la solución más general sobre el cuerpo de los reales en
cada uno de los casos de consistencia.

20. Analizar y resolver el sistema




⎪ 3x − y + z = 1

2x + y + 2z = 4

⎪ −x + 2y − z = 2

−4x + 3y + α z = −2

según los posibles valores reales de α .

117
Publicación digital de Editorial Equinoccio
3 M ATRICES

21. Analizar y resolver el sistema para x, y, z, según los valores que


puedan tomar a, b ∈ R,

⎨ x + ay = 2a
bx + 2y + az = 4 − a3

x + ay + bz = 0

22. Una transformación lineal ϕ : R3 → R4 está definida por la matriz


⎛ ⎞
1 2 −3
⎜1 3 1 ⎟
A = ⎜ ⎟
⎝2 5 −4⎠
2 6 2

con respecto a la base canónica.

(a) Hallar una base para ker ϕ .


(b) Determinar para qué valores de a ∈ R el vector
v = (4, 11, a, 22) pertenece a Im ϕ .

23. Hallar una base para el subespacio de R4 generado por los vec-
tores

v1 = (3, 2, 2, 6) v2 = (2, 3, 2, 4)
v3 = (2, 2, 3, 9) v4 = (4, 3, 1, 3) v5 = (3, 3, 1, 1)

24. S y T son subespacios de R4 tales que

• S está generado por


{(1, 1, 1, 0), (1, 1, 0, 1), (1, 0, 1, 1)};
• T está generado por
{(1, −2, 1, 2), (2, 1, −1, 1), (−4, −7, 8, 1)}.

118
Publicación digital de Editorial Equinoccio
3.8 E JERCICIOS

Determinar una base y la dimensión para cada uno de los subes-


pacios
S T S∩T S+T

Mostrar si es el caso que R4 = S ⊕ T.

25. Sean Am×n y Bn×p un par de matrices (sobre un cuerpo F) de


ranks respectivos r y s, y sea t el rank del producto A × B.
Demostrar que t = r o bien t = s si, y sólo si, existen matrices
cuadradas no-singulares P, Q, R tales que
   
−1 Ir O −1 Is O
P ×A ×Q = Q×B ×R =
O O O O

donde Ir , Is son las matrices identidad de dimensiones r × r y


s × s respectivamente.
(Pregunta de examen en la Universidad de Oxford, 1964)

119
Publicación digital de Editorial Equinoccio
C APÍTULO 4
Determinantes

Históricamente, los determinantes aparecieron antes que las matri-


ces. La idea inicial fue de Leibniz (1646-1716) y más tarde Gauss,
en 1801, lo llamó “determinante.” Durante el siglo XIX, tanto alge-
bristas como analistas dedicaron enorme atención al concepto. Fue
el francés Cauchy (1789-1857) el primero que desarrolló sistemática-
mente la teoría. Hoy día los determinantes tienen menor peso en el
álgebra lineal del que disfrutaron en el siglo XIX, aunque su estudio es
indispensable.
En este capítulo exponemos la teoría de determinantes partiendo
de una definición inductiva basada en su desarrollo por menores com-
plementarios de su primera fila. Todas las propiedades usuales se de-
ducen mediante la aplicación reiterada del principio de inducción. Este
método difiere de las dos maneras más acostumbradas de introducir el
concepto: de la definición clásica que describe la formación de los pro-
ductos en el desarrollo del determinante (lo cual carece de toda utilidad,
y exige un tedioso estudio del “orden par o impar de una permutación”);
y del enfoque axiomático atribuido a Weierstrass (1815-97). Pensamos
que el método empleado aquí resultará más grato y accesible al estu-
diante por parecerle más directo que el primero y menos abstracto que
el segundo.
Desarrollamos la teoría de determinantes sobre un anillo conmuta-
tivo con 1 porque necesitaremos esa mayor generalidad más adelante en
el libro; además, si se considerasen sólo determinantes sobre un cuerpo,
nuestras demostraciones no se simplificarían un ápice, pues los inver-
sos multiplicativos no se requieren en ninguna de las pruebas. Determi-
nantes sobre un cuerpo se exigen solamente para la Regla de Cramer,
donde el cuerpo forma parte del planteamiento del problema a resolver.

121
Publicación digital de Editorial Equinoccio
4 D ETERMINANTES

4.1 Determinante de una matriz cuadrada


Sea F un anillo abeliano (conmutativo) con neutro multiplicativo 1.
Los anillos serán estudiados en el Capítulo 5. Por el momento, basta
con saber que un anillo abeliano con 1, se define como una estructura
(F, +, ×) provista de dos operaciones binarias, suma + y producto ×,
tales que (F, +) es un grupo abeliano, la operación × es asociativa y
conmutativa, existe un 1 ∈ F que es neutro con respecto a ×, y el pro-
ducto es distributivo con respecto a la suma.
Nótese que una diferencia importante con un cuerpo es que pueden
existir elementos = 0 que carecen de inverso multiplicativo.
Ejemplo clásico y familiar de anillo abeliano con 1, es la estructura
(Z, +, ×) de los números enteros.
Si el lector lo prefiere, puede tomar F como el dominio Z de los
enteros o como uno de los cuerpos numéricos R de los reales, C de los
complejos o aún Q de los racionales. Ninguno de los razonamientos se
verá afectado.
Sea A una matriz n × n cuyas entradas están en F:
⎛ ⎞
a11 a12 · · · a1n
⎜a21 a22 · · · a2n ⎟
A =⎜
⎝· · ·
⎟ (4.1.1)
··· ··· ···⎠
an1 an2 · · · ann

Definición 4.1.1. A la matriz Ai j , de dimensiones (n − 1) × (n − 1), que


resulta de suprimir la fila i y la columna j de A , la llamamos menor
complementario del elemento ai j .

Definición 4.1.2. Dada una matriz (4.1.1) cuadrada A , definimos su


determinante como el elemento det A ∈ F aplicando el principio de
inducción como sigue:

• para n = 1, A = (a11 ), definimos

det A = a11

122
Publicación digital de Editorial Equinoccio
4.1 D ETERMINANTE DE UNA MATRIZ CUADRADA

• para n > 1, definimos


n
det A = ∑ (−1)1+k a1k det A1k (4.1.2)
k=1

Definición 4.1.3. Llamamos cofactor de ai j al elemento

Ai j = (−1)i+ j det(Ai j ) para i, j ∈ {1, 2, . . ., n} (4.1.3)

Emplearemos cualquiera de los símbolos det A = |A | = A indistin-


tamente.
Podemos expresar el determinante (4.1.2) de modo más sencillo:

A = a11 A11 + a12 A12 + · · · + a1n A1n (4.1.4)

Generalmente se escribe
 
a11 a12 · · · a1n 

a a22 · · · a2n 
A =  21 (4.1.5)
· · · ··· · · · · · · 
an1 an2 · · · ann 
y lo llamamos determinante de orden n.

Comentario 4.1.1. Si elegimos n elementos x1 , x2 , . . . , xn ∈ F y escribi-


mos
A = x1 A11 + x2 A12 + · · · + xn A1n
Es obvio que  
 x1 x2 · · · xn 
 
a21 a22 · · · a2n 
A = 
 
 (4.1.6)
· · · · · · · · · · · · 
an1 an2 · · · ann 

Aplicando la definición de determinante para la matriz 2 × 2, obte-


nemos  
a11 a12 
 
a21 a22  = a11 a22 − a12 a21 (4.1.7)

123
Publicación digital de Editorial Equinoccio
4 D ETERMINANTES

y, análogamente para 3 × 3,
  ⎧
a11 a12 a13  ⎨ a11 a22 a33 − a11 a23 a32
 
a21 a22 a23  = − a12 a21 a33 + a12 a23 a31 (4.1.8)
  ⎩
a31 a32 a33  + a13 a21 a32 − a13 a22 a31

El desarrollo completo de un determinante de orden n, al estilo de


(4.1.7) y de (4.1.8) es la suma de n! términos (precedidos de signos que
no hace falta que nos molestemos en determinar).
En efecto, tal es el caso para orden 1, y, suponiendo que todo de-
terminante de orden n − 1 es la suma de (n − 1)! términos, la fórmula
(4.1.4) indica que un determinante de orden n se expande en n × (n −
1)! = n! términos.
Cada término del desarrollo es el producto de n factores, sólo uno
de cada fila y uno de cada columna. Esto también es clara consecuencia
de la fórmula (4.1.4) y del principio de inducción.
Aplicando la definición (4.1.2) (e inducción), observamos de inme-
diato que, para la matriz identidad I de cualquier dimensión, su deter-
minante  
 1 0 ··· 0 
 
 0 1 ··· 0 
det I =    = 1 (4.1.9)
· · · · · · · · · · · ·
 
 0 0 ··· 1 

Más general, y también por implicación trivial de (4.1.2), para cual-


quier matriz triangular inferior (todas sus entradas por encima de la dia-
gonal principal son cero), tenemos
 
a11 0 · · · 0 
 
a21 a22 · · · 0 
det T =   = a11 a22 . . . ann

· · · · · · · · · · · · 
an1 an2 · · · ann 

Veremos luego que este resultado se mantiene para una matriz trian-
gular superior (todas sus entradas por debajo de la diagonal principal
son cero).

124
Publicación digital de Editorial Equinoccio
4.2 P ROPIEDADES DE LOS DETERMINANTES

4.2 Propiedades de los determinantes


Cuando nos referimos a una línea de un determinante queremos in-
dicar que se trata de una fila o de una columna.
Proposición 4.2.1. Si las entradas de una línea en un determinante A 
tienen un factor común r, entonces A  = rA, donde A es el determinante
obtenido de A cancelando r en cada elemento de la línea en cuestión.
Demostración. Procedemos de nuevo por inducción en el orden n de A  .
El caso n = 1 es obvio. Supongamos que la propiedad es cierta para
determinantes de orden n − 1.
Sea A el determinante en (4.1.5).
Consideremos primero las columnas. Sea A el determinante que
resulta de A al convertir su columna k en ra1k , ra2k , . . . , rank . Aplicamos
la fórmula (4.1.4) a A :
A = a11 A11 + a12 A12 + · · · + ra1k A1k + · · · + a1n A1n
y observamos que cada uno de los determinantes A 1i , para i = k, con-
tiene una columna cuyas entradas tienen el factor común r, entonces,
por la hipótesis inductiva, A 1i = rA1i , y A1k es idéntico a A1k . En conse-
cuencia, A = rA.
El caso de las filas es bastante más evidente. En efecto, si la fila en
cuestión es la primera, el resultado es consecuencia inmediata de (4.1.4)
y la hipótesis inductiva es innecesaria. Si la fila afectada es distinta de la
primera, aplicamos (4.1.4) y la hipótesis inductiva, ya que cada cofactor
tiene una fila de entradas con factor común r.

Corolario 4.2.1. Si todas las entradas de una línea en un determinante


A son cero, entonces A = 0.
Proposición 4.2.2. Si cada entrada de una línea en un determinante
A es la suma de dos1 términos, entonces A = B + C, donde B se ob-
tiene de A restringiendo la línea en cuestión a los primeros sumandos,
y análogamente en C con los segundos sumandos.
1 Esto se generaliza a la suma de cualquier número de términos por obvia inducción.

125
Publicación digital de Editorial Equinoccio
4 D ETERMINANTES

Demostración. Una vez más aplicamos el principio de inducción en el


orden n de A.
La propiedad es obvia para el orden 1. Supongamos que es cierta
para todos los determinantes de orden n − 1.
Durante todo el razonamiento hemos de tener presente el Comen-
tario 4.1.1.
En el caso de una fila, si es la primera, el resultado es consecuencia
trivial de (4.1.4), sin invocar la hipótesis inductiva; y, cuando la fila no
es la primera, se deduce de (4.1.4) y de la hipótesis inductiva aplicada a
los cofactores.
En cuanto a una columna, la proposición es una sencilla consecuen-
cia de (4.1.4) y de la hipótesis inductiva.

Lema 4.2.1. Para 1 ≤ k ≤ n, tenemos


 
0 a12 · · · a1n 

0 a22 · · · a2n 

· · · · · · · · · · · · 
A =  = (−1)k+1 ak1 det Ak1 = ak1 Ak1 (4.2.1)
ak1 ak2 · · · akn 
· · · · · · · · · · · · 

0 an2 · · · ann 
(Ak1 es el cofactor de ak1 en A).
Demostración. Si k = 1, aplicamos la fórmula (4.1.4) y observamos
que A1i = 0 para i > 1 por el Corolario 4.2.1, puesto que A1i tiene una
columna (la primera) de ceros. O sea que A = a11 A11 .
Para 1 ≤ k ≤ n procedemos por inducción en el orden n de A. El
caso n = 2 se verifica por cálculo directo.
Supongamos que el lema es cierto para todo determinante de orden
n − 1 y queremos probar (4.2.1) para el determinante A de orden n.
Si k = 1, el lema ha sido demostrado, de modo que supondremos
1 < k ≤ n, así que a11 = 0.
Aplicamos a A la fórmula (4.1.2):
n
A = ∑ (−1)1+ia1i det A1i (4.2.2)
i=2

126
Publicación digital de Editorial Equinoccio
4.2 P ROPIEDADES DE LOS DETERMINANTES

Ahora bien, cada det A1i es de la forma (4.2.1) y de orden n − 1, por


tanto, según la hipótesis inductiva,

det A1i = (−1)k ak1 det A (i) (4.2.3)

Nótese que ak1 está en la fila k − 1 en det A1i , y su menor comple-


mentario A (i) en A1i resulta de eliminar de A las filas 1 y k, y las
columnas 1 e i. Significa que A (i) es el menor complementario de la
entrada a1i en el menor Ak1 .
Ponemos (4.2.3) en (4.2.2) y obtenemos
n
A = (−1)k+1 ak1 ∑ (−1)i a1i detA (i)
i=2

pero
n
∑ (−1)ia1i det A (i) = detAk1
i=2
según la fórmula (4.1.2), luego A = ak1 Ak1 y hemos concluido.

Lema 4.2.2. El determinante A de orden n en (4.1.5) puede expresarse

A = a11 A11 + a21 A21 + · · · + an1 An1

(Nótese la semejanza con la ecuación (4.1.4), sólo que la expansión se


refiere a la primera columna en lugar de la primera fila).
Demostración. Aplicando el Lemma 4.2.1, tenemos, para k = 1, 2, . . ., n,
 
 0 a12 · · · a1n 
 
 0 a22 · · · a2n 
 
· · · · · · · · · · · · 
A(k) =   = ak1 Ak1 (4.2.4)
a a · · · a 
 k1 k2 kn 
· · · · · · · · · · · · 
 
 0 an2 · · · ann 

(de nuevo, Ak1 es el cofactor de ak1 en A(k) –y también en A).

127
Publicación digital de Editorial Equinoccio
4 D ETERMINANTES

Consideremos ahora las sumas,

s1 = a11 + 0 + · · · + 0
s2 = 0 + a21 + · · · + 0
........................
sn = 0 + 0 + · · · + an1

donde cada sk es una suma de n términos, de los cuales n − 1 son cero,


pero el sumando de lugar k es ak1 .
Ya que sk = ak1 , para cada k = 1, 2, . . ., n, podemos expresar
   
a11 a12 · · · a1n   s1 a12 · · · a1n 
   
a21 a22 · · · a2n   s2 a22 · · · a2n 
   
A = 
· · · · · · · · · · · ·  = · · · · · · · · · · · · 
   
an1 an2 · · · ann   sn an2 · · · ann 

Pero, aplicando la Proposición 4.2.2 al determinante de la derecha,


obtenemos
A = A(1) + A(2) + · · · + A(n)
lo cual, de acuerdo con (4.2.4), es justamente

A = a11 A11 + a21 A21 + · · · + an1 An1

Lema 4.2.3. Si dos filas de un determinante se intercambian de lugar,


el determinante cambia de signo.
Demostración. Consideramos primero el intercambio de dos filas con-
tiguas y demostramos el resultado por inducción en el orden n del de-
terminante.
Para n = 1 no hay nada que probar, y para n = 2 basta con un simple
cálculo directo.
Supongamos que el lema es cierto (en caso de filas adyacentes) para
todo determinante de orden n − 1 ≥ 2.
Tomemos ahora los siguientes determinantes

128
Publicación digital de Editorial Equinoccio
4.2 P ROPIEDADES DE LOS DETERMINANTES

 
 a11 a12 · · · a1n 

 ··· ··· ··· · · · 

 ak1 ak2 ··· akn 
A = 
a a
 k+1,1 k+1,2 · · · ak+1,n 
 ··· ··· ··· · · · 

 an1 an2 · · · ann 
 
 a11 a12 · · · a1n 

 ··· ··· ··· · · · 

a a · · · ak+1,n 
A =  k+1,1 k+1,2
 ak1 ak2 ··· akn 
 ··· ··· ··· · · · 

 an1 an2 · · · ann 
donde hemos intercambiado las filas k y k + 1 de A para obtener A .
Vamos a desarrollar A de acuerdo con el Lema 4.2.2

A = a11 A11 + a21 A21 + · · · + ak+1,1 Ak+1,1 + ak1 Ak1 + · · · + an1 An1

Ahora bien, para i = k e i = k +1, tenemos Ai,1 = −Ai1 por la hipóte-


sis inductiva, ya que Ai,1 es de orden n − 1 y se obtiene de Ai,1 por
intercambio de dos filas adyacentes.
En A la entrada ak+1,1 está en la fila k y columna 1 y su menor
complementario es el mismo A k+1,1 que en A , por tanto

ak+1,1 Ak+1,1 = (−1)k+1 ak+1,1 det(Ak+1,1 ) = −ak+1,1 Ak+1,1

y análogamente

ak1 Ak1 = (−1)k ak1 det(Ak1 ) = −ak1 Ak1

En resumen, A = −A considerando la fórmula para A del Lema


4.2.2.
Hemos probado por inducción que el lema es cierto cuando dos filas
adyacentes se intercambian.
Tomemos ahora un determinante A de orden n e intercambiemos las
filas j y k, donde 1 ≤ j < k ≤ n, para obtener el determinante A .

129
Publicación digital de Editorial Equinoccio
4 D ETERMINANTES

Para lograr A de A intercambiamos primero la fila k con cada una


de las que tiene por encima hasta que ocupe el lugar j. Esta operación
involucra k − j intercambios de filas adyacentes. La antigua fila j es
ahora la fila j + 1, la cual intercambiamos con cada una de las que le
siguen abajo k − ( j + 1) = (k − j) − 1 veces para colocarla en el lugar
fila k. Así pues, un total de 2(k − j) −1 intercambios de filas adyacentes
ha tenido lugar, un número impar de cambios de signo, en consecuencia
A = −A.

Lema 4.2.4. Un determinante con dos filas iguales es cero.


Demostración. Procedemos por inducción en el orden n del determi-
nante.
Para n = 1 no hay nada que probar, y para n = 2 basta un cálculo
directo.
Supongamos que la propiedad es cierta para filas en todo determi-
nante de orden n − 1.
Consideremos un determinante de orden n > 2.
Para comenzar, interesa que la primera fila no sea una de las dos
filas iguales en cuestión. Si fuese el caso, intercambiamos la primera
fila con otra, lo cual sólo afecta el signo en el valor del determinante, de
acuerdo con el lema anterior.
Ahora que ninguna de las dos filas señaladas como iguales es la
primera, el resultado se infiere de (4.1.4) y de la hipótesis inductiva, ya
que todo cofactor es de orden n − 1 y tiene dos filas iguales.

Comentario 4.2.1. El Lema 4.2.4 puede admitir una demostración muy


expedita como sigue.
En virtud del Lema 4.2.3, un intercambio de filas hace que el deter-
minante A cambie de signo, pero, si las filas intercambiadas son iguales,
el determinante queda intacto; entonces, −A = A, por tanto 2A = 0 y
se infiere que A = 0.
Esta prueba es válida, ciertamente, para determinantes sobre los
cuerpos numéricos y para muchos anillos abelianos con 1. El caso es

130
Publicación digital de Editorial Equinoccio
4.2 P ROPIEDADES DE LOS DETERMINANTES

que existen anillos (incluyendo el cuerpo Z2 ) en los cuales 2x = 0 no


implica x = 0.
Corolario 4.2.2. Un determinante no se altera si un múltiplo de una
fila2 se suma3 a otra fila.
Demostración. Es consecuencia inmediata de las Proposiciones 4.2.2,
4.2.1 y del Lema 4.2.4, en ese orden.

Dada cualquier matriz cuadrada A (véase (4.1.1)), ya conocemos,


por la Definición 3.1.1, la traspuesta de A como
⎛ ⎞
a11 a21 · · · an1
⎜a12 a22 · · · an2 ⎟
AT = ⎜ ⎟
⎝· · · · · · · · · · · · ⎠ (4.2.5)
a1n a2n · · · ann
esto es, la matriz obtenida de A poniendo sus filas como columnas,
preservando su orden. Las columnas de A se convierten pues en las
filas de A T .
Si llamamos ai j y a ji entradas conjugadas, podemos proporcionar
una descripción equivalente de la traspuesta A T como la matriz obte-
nida de A intercambiando las entradas conjugadas (las entradas diago-
nales akk son auto-conjugadas y conservan su lugar).
Proposición 4.2.3. Dada una matriz cuadrada A , det A T = det A .
Demostración. Consideremos la matriz A de (4.1.1) y su traspuesta
(3.1.2).
Demostramos la proposición por inducción en el orden n de det A .
El caso n = 1 es obvio, y para n = 2 basta verificar mediante un cálculo
directo.
Supongamos ahora que la propiedad es cierta para todo determi-
nante de orden n − 1 ≥ 2 y la probaremos para un determinante det A
de orden n.
2 Múltiplo de una línea significa que toda entrada de esa línea se multiplica por un
mismo factor.
3 Suma de una línea a otra paralela significa que a cada entrada le sumamos la corres-

pondiente de la paralela.

131
Publicación digital de Editorial Equinoccio
4 D ETERMINANTES

Según la Definición 4.1.2, tenemos


n
det A = ∑ (−1)1+k a1k det(A1k )
k=1

Como cada det A1k es de orden n − 1, la hipótesis inductiva indica


que det(A1kT ) = det A1k , y por tanto, la expresión de arriba toma la
forma
n
det A = ∑ (−1)1+k a1k det(A1kT ) (4.2.6)
k=1
Pero A1kT
es el menor complementario de a1k en la matriz traspuesta
A y su cofactor es precisamente (−1)1+k det(A1kT ); por consiguiente,
T

si la fórmula (4.2.6) es vista como el desarrollo de det A T de acuerdo


con el Lema 4.2.2, concluimos det A T = det A .

Esta última proposición hace muy fácil la traducción de resulta-


dos que se refieren a filas a los análogos que involucran columnas:
trasponemos la matriz, hacemos las operaciones planteadas con sus fi-
las, trasponemos nuevamente y resulta lo mismo que haber efectuado
las operaciones con las columnas de la matriz original. Empleamos el
término línea para referirnos indistintamente a filas o columnas. Algu-
nas de las demostraciones son demasiado obvias para escribirlas.
Así pues, el Lema 4.2.4 se convierte en:
Proposición 4.2.4. Un determinante con dos líneas paralelas iguales
es cero.
El Corolario 4.2.2 es ahora:
Proposición 4.2.5. Un determinante no se altera si un múltiplo de una
línea se suma a otra línea paralela.
El caso del Lema 4.2.3:
Proposición 4.2.6. Si en un determinante se intercambian dos líneas
paralelas, el determinante cambia de signo.
De aquí en adelante aprovechamos el idéntico comportamiento de
filas y columnas.

132
Publicación digital de Editorial Equinoccio
4.2 P ROPIEDADES DE LOS DETERMINANTES

Proposición 4.2.7. Si una línea de un determinante es combinación


lineal de otras líneas paralelas a ella, el determinante es cero.
Demostración. Esto es fácil consecuencia de las Proposiciones 4.2.2,
4.2.1 y 4.2.4.

Proposición 4.2.8. El determinante de una matriz cuadrada triangular


es igual al producto de sus entradas diagonales.
Demostración. El caso de una matriz triangular inferior fue establecido
en la Sección 4.1. Una matriz triangular superior es la traspuesta de una
matriz triangular inferior.

A estas alturas, disponemos de sólo una manera de calcular un de-


terminante, aplicando la definición recursiva 4.1.2. Estamos ahora en
condiciones de presentar otras formas de desarrollar el determinante y
calcular su valor.
La Definición 4.1.2 desarrolla el determinante “por su primera fila.”
Aprenderemos a desarrollarlo por una línea cualquiera.
Consideremos el determinante A = det A de orden n en (4.1.5). To-
memos cualquiera de sus filas, digamos la i. Moviendo esta fila al
primer lugar involucra i − 1 permutaciones con las filas de encima;
luego, si designamos el determinante resultante por A  , tenemos A =
(−1)i−1 A , de acuerdo con el Lema 4.2.3. Aplicamos ahora la fórmula
(4.1.4) a A :

A = (−1)i−1A = (−1)i−1 [ai1 A11 + ai2 A12 + · · · + ain A1n ]

Pero, para todo j, A1 j = (−1)1+ j detAi j , donde Ai j es precisamente


el menor complementario (Definición 4.1.1) de a i j en A , como puede
verse fácilmente (y el signo es el que corresponde al cofactor de la en-
trada en la posición (1, j)). Luego, como (−1) i−1 (−1)1+ j = (−1)i+ j ,

A = ai1 [(−1)i+1 det(Ai1 )] + ai2[(−1)i+2 det(Ai2)] + · · ·


· · · + ain [(−1)i+n det(Ain )]

133
Publicación digital de Editorial Equinoccio
4 D ETERMINANTES

y, para cada j, (−1)i+ j det Ai j no es otro que el cofactor (Definición


4.1.3) Ai j de ai j . Entonces,

A = ai1 Ai1 + ai2 Ai2 + · · · + ain Ain (4.2.7)

para cualquier i = 1, 2, . . ., n. Llamamos a esto “desarrollo por la fila i.”


Ataquemos ahora el desarrollo por una columna.
Tomemos el mismo determinante A = det A de antes. Elegimos
cualquier columna j en A y aplicamos un razonamiento totalmente aná-
logo al anterior, pero ahora con columnas: llevamos la columna j a
ocupar la primera columna, lo cual involucra j − 1 cambios de signo, y
desarrollamos el determinante resultante por el Lema 4.2.2.
Siguiendo los mismos pasos, arribamos a la expresión

A = a 1 j A1 j + a 2 j A2 j + · · · + a n j An j (4.2.8)

para cualquier j = 1, 2, . . ., n.A esto se le llama “desarrollo por la co-


lumna j.”

Comentario 4.2.2. Escojamos n elementos x1 , x2 , . . ., xn cualesquiera y


expresemos
A∗ = x1 Ai1 + x2 Ai2 + · · · + xn Ain
Es perfectamente claro que
 
a11 a12 · · · a1n 

a21 a22 · · · a2n 

· · · ··· · · · · · · 
A = 

 x1 x2 · · · xn 
· · · ··· · · · · · · 

an1 an2 · · · ann 
donde los xk constituyen la fila i.
Análogamente,

A∗∗ = x1 A1 j + x2 A2 j + · · · + xn An j

134
Publicación digital de Editorial Equinoccio
4.3 P RODUCTOS DE DETERMINANTES

es justamente
 
a11 a12 · · · x1 · · · a1n 

a a22 · · · x2 · · · a2n 
A∗∗ =  21
· · · ··· ··· ··· · · · · · · 
an1 an2 · · · xn · · · ann 
donde los xk constituyen la columna j.
Se infiere de la Proposición 4.2.4 que

ak1 Ai1 + ak2 Ai2 + · · · + akn Ain = 0

cuando k = i, y

a1k A1 j + a2k A2 j + · · · + ank An j = 0

cuando k = j.

4.3 Productos de determinantes


Proposición 4.3.1. Sea la matriz cuadrada (n + m) × (n + m)
 
A O
M= (4.3.1)
C B
donde

• la submatriz (o bloque superior) A es n × n;

• la submatriz (bloque inferior) B es m × m;

• la submatriz O es n × m y sus entradas son todas cero;

• la submatriz C es m × n y sus entradas son elementos cuales-


quiera.

135
Publicación digital de Editorial Equinoccio
4 D ETERMINANTES

Entonces, se tiene que

det M = det A × det B

Demostración. Procedemos por inducción en el “tamaño” n del bloque


A = (ai j ).
Si n = 1, entonces det A = a11 y det M = a11 det B = det A ×
det B no es otra cosa que la fórmula (4.1.4), teniendo en cuenta que
los restantes elementos de la primera fila de M son ceros (pues consti-
tuyen O) y que C es simplemente la primera columna de M .
Supongamos que A es de tamaño n > 1 y que la proposición es
cierta siempre que el bloque superior sea de dimensión (n−1)×(n−1).
Aplicamos a M la fórmula (4.1.2) y obtenemos
n
det M = ∑ (−1)1+k a1k det M1k (4.3.2)
k=1

(tengamos presente que, a partir del lugar n, todas las demás entradas
de la primera fila de M son cero).
Ahora bien, es claro que (para cada k = 1, 2, . . ., n) el menor comple-
mentario M1k de a1k en M es precisamente de la misma forma (4.3.1),
pero su bloque superior es el menor complementario A 1k de a1k en la
matriz A y el bloque inferior en M1k es siempre B. Como la dimen-
sión de A1k es (n − 1) × (n − 1), aplicamos la hipótesis inductiva y te-
nemos que det M1k = det A1k × det B, lo cual introducimos en (4.3.2)
y obtenemos
n
det M = ∑ (−1)1+k a1k det A1k × det B
k=1
 
n
= ∑ (−1)1+k a1k det A1k × det B = det A × det B
k=1

en virtud de la fórmula (4.1.2) aplicada a la matriz A .

136
Publicación digital de Editorial Equinoccio
4.3 P RODUCTOS DE DETERMINANTES

El siguiente resultado es una consecuencia bastante inmediata de la


proposición precedente.

Corolario 4.3.1. Sea la matriz cuadrada


⎛ ⎞
A1
⎜ ∗ A2 ⎟
⎜ ⎟
M = ⎜ . ⎟ (4.3.3)
⎝∗ ∗ . . ⎠
∗ ∗ ∗ An

donde cada bloque Ai es una matriz cuadrada; por encima de éstos


todas las entradas son ceros y por debajo las entradas pueden ser ele-
mentos cualesquiera.
Entonces, se tiene que

det M = det A1 × det A2 × · · · × det An

Demostración. Aplicamos el principio de inducción en el número n de


bloques.
Para n = 1, se trata precisamente de la Proposición 4.3.1.
Supongamos que la propiedad es cierta para toda matriz de la forma
(4.3.3) para un número n − 1 ≥ 1 de bloques, y probémosla para la
matriz M del enunciado, con n bloques.
Esta matriz puede considerarse como
 
A1 O
M=
C B

donde C es la submatriz que está debajo de A1 en M y


⎛ ⎞
A2
⎜ ⎟
B = ⎝ ∗ ... ⎠
∗ ∗ An

es una matriz cuadrada, pues tiene tantas filas como la suma de los nú-
meros de filas de las A2 , . . . , An e igual sucede con las columnas, pero

137
Publicación digital de Editorial Equinoccio
4 D ETERMINANTES

esto debe arrojar el mismo número, ya que las A2 , . . ., An son cuadra-


das.
En virtud de la Proposición 4.3.1, obtenemos det M = det A 1 ×
det B, pero B es una matriz de la forma (4.3.3) con n − 1 bloques,
luego, por la hipótesis inductiva, det B = det A 2 × · · · × det An . En con-
secuencia, det M = det A1 × det A2 × · · · × det An y hemos concluido.

Sean

   
a11 a12 · · · a1n  b11 b12 · · · b1n 
 
a a22 · · · a2n  b b22 · · · b2n 
A =  21 B =  21
· · · ··· · · · · · ·  · · · ··· · · · · · · 
an1 an2 · · · ann  bn1 bn2 · · · bnn 
un par de determinantes del mismo orden n.
Aplicando la Proposición 4.3.1 obtenemos
 
a11 a12 · · · a1n 0 · · · 0 
 
a21 a22 · · · a2n 0 · · · 0 
 
··· ··· ··· ··· ··· ··· ···
 
A × B = an1 an2 · · · ann 0 · · · 0  (4.3.4)
 x11 x12 · · · x1n b11 · · · b1n 
 
· · · · · · · · · · · · · · · · · · · · · 
 
xn1 xn2 · · · xnn bn1 · · · bnn 
cualesquiera sean los valores de las entradas xi j .
Como los xi j pueden ser elementos cualesquiera, los elegimos como
se muestra a continuación:
 
a11 a12 · · · a1n 0 0 · · · 0 
 
a21 a22 · · · a2n 0 0 · · · 0 

··· ··· ··· ··· ··· ··· ··· ···
 
an1 an2 · · · ann 0 0 · · · 0 
A×B =   (4.3.5)

−1 0 · · · 0 b11 b12 · · · b1n 
 0 −1 · · · 0 b21 b22 · · · b2n 
 
· · · · · · · · · · · · · · · · · · · · · · · · 
 
0 0 · · · −1 bn1 bn2 · · · bnn 

138
Publicación digital de Editorial Equinoccio
4.3 P RODUCTOS DE DETERMINANTES

Sumando múltiplos de filas a otras filas, transformamos el determi-


nante (4.3.5) en (4.3.7). Esto se logra de la manera siguiente. Tomemos
la fila i (para 1 ≤ i ≤ n), o sea ai1 , ai2 , . . . , ain, 0, 0, . . ., 0, y le sumamos
la fila n + 1 multiplicada por ai1 ; esto hace 0 la entrada (i, 1) y ai1 b1 j la
entrada (i, n+ j) (para j = 1, 2, . . ., n); luego, sumamos la fila n+2, mul-
tiplicada por ai2 a la fila i, haciendo 0 la entrada (i, 2) y ai1 b1 j + ai2 b2 j
la entrada (i, n + j) (para j = 1, 2, . . ., n); continuamos de esta manera,
hasta sumar a la fila n la fila n + n multiplicada por a in , haciendo 0 la
entrada (i, n) y ai1 b1 j + ai2 b2 j + . . . + ain bn j la entrada (i, n + j). Así, la
fila i se ha convertido en 0, 0, . . ., 0, ci1 , ci2 , . . . , cin , de tal modo que la
entrada en (i, n + j) es

ci j = ai1 b1 j + ai2 b2 j + · · · + ain bn j (4.3.6)

Tenemos entonces,
 
0 0 ··· 0 c11 c12 ··· c1n 

0 0 ··· 0 c21 c22 ··· c2n 

· · · · · · ··· ··· ··· ··· ··· · · · 

0 0 ··· 0 cn1 cn2 ··· cnn 
A × B =  (4.3.7)
−1 0 ··· 0 b11 b12 ··· b1n 
 0 −1 ··· 0 b21 b22 ··· b2n 

· · · · · · ··· ··· ··· ··· ··· · · · 

0 0 · · · −1 bn1 bn2 ··· bnn 

Ahora intercambiamos la columna n + 1 con la 1, la n + 2 con la


2, ..., la n + n con la n para obtener un determinante con la forma de
(4.3.5), y habiendo hecho n cambios de signo,
 
c11 c12 · · · c1n 0 0 · · · 0 
 
c21 c22 · · · c2n 0 0 · · · 0 

··· ··· ··· ··· ··· ··· ··· ···
 

n  cn1 cn2 · · · cnn 0 0 · · · 0 
A × B = (−1)  
b11 b12 · · · b1n −1 0 · · · 0 
b21 b22 · · · b2n 0 −1 · · · 0 
 
· · · · · · · · · · · · · · · · · · · · · · · · 
 
bn1 bn2 · · · bnn 0 0 · · · −1

139
Publicación digital de Editorial Equinoccio
4 D ETERMINANTES

Entonces, por la Proposición 4.3.1,


   
c11 c12 · · · c1n  −1 0 · · · 0 
   

n c21 c22 · · · c2n 
  0 −1 · · · 0 
 
A × B = (−1) 
· · · · · · · · · · · ·  × · · · · · · · · · · · · 
   
cn1 cn2 · · · cnn   0 0 · · · −1
y el último determinante arriba, con entradas diagonales −1 es igual a
(−1)n ; en consecuencia,
 
c11 c12 · · · c1n 
 
c21 c22 · · · c2n 
A × B =  

· · · · · · · · · · · · 
cn1 cn2 · · · cnn 

cuyas entradas ci j se calculan por la fórmula (4.3.6).


Pero, de acuerdo con la definición de producto de matrices en la
página 71 y la fórmula (3.2.3), hemos demostrado:
Si A y B son matrices cuadradas del mismo orden, entonces

det(A × B) = det A × det B

4.4 El adjunto
Dado el determinante
 
a11 a12 . . . a1n 

a a22 . . . a2n 
A =  21
· · · ··· · · · · · · 
an1 an2 . . . ann 

de una matriz A , consideremos


 
A11 A21 · · · An1 

A A22 · · · An2 
Ad j(A) =  12 (4.4.1)
··· ··· · · · · · · 
A1n A2n · · · Ann 

140
Publicación digital de Editorial Equinoccio
4.4 E L ADJUNTO

llamado determinante adjunto de A. Nótese que en la matriz A se susti-


tuye cada entrada ai j por su cofactor, se traspone la matriz y se obtiene
el determinante de esta última.
Efectuemos el producto A × Ad j(A).
Para i = j, la entrada en (i, j) es, de acuerdo con (4.3.6) y el Comen-
tario 4.2.2,
ai1 A j1 + ai2 A j2 + · · · + ain A jn = 0
y
ai1 Ai1 + ai2 Ai2 + · · · + ain Ain = A (por (4.1.4))
por tanto  
A 0
 · · · 0 
0 A · · · 0 
A × Ad j(A) =  = An (4.4.2)
· · · · · · · · · · · ·
0 0 ··· A 
Si efectuamos el producto de matrices (que conmutan en este caso)
⎛ ⎞ ⎛ ⎞
a11 a12 · · · a1n A11 A21 · · · An1
⎜a21 a22 · · · a2n ⎟ ⎜A12 A22 · · · An2 ⎟
⎜ ⎟ ⎜ ⎟
⎝· · · · · · · · · · · · ⎠ × ⎝ · · · · · · · · · · · · ⎠
an1 an2 · · · ann A1n A2n · · · Ann
⎛ ⎞
A
⎜ A ⎟
⎜ ⎟
= ⎜ . ⎟ = A I = (det A ) I
⎝ . . ⎠
A

donde I es la matriz identidad.


Es decir,
A × C = C × A = (detA ) I (4.4.3)
donde ⎛ ⎞
A11 A21 · · · An1
⎜A12 A22 · · · An2 ⎟
C = ⎜
⎝···

··· ··· ··· ⎠
A1n A2n · · · Ann

141
Publicación digital de Editorial Equinoccio
4 D ETERMINANTES

Teorema 4.4.1. Una matriz cuadrada A de orden n, sobre un anillo


abeliano F con 1, es inversible (no-singular) si, y sólo si, det A es in-
versible en F.
En tal caso, se tiene que det(A −1 ) = (det A )−1 .
Demostración. Si A es inversible, existe una matriz cuadrada B =
A −1 de orden n tal que A × B = I, pero

det A × det B = det(A × B) = det I = 1

O sea que det A es inversible y (det A )−1 = det B = det(A −1 ).


Recíprocamente, si det A tiene un inverso, digamos r ∈ F, esto es
r det A = 1, apliquemos la fórmula (4.4.3),

A × (r C ) = r (A × C ) = (r detA ) I = I

y se infiere que B = r C = A −1 .

Corolario 4.4.1. Una matriz cuadrada A sobre un cuerpo es inversible


(no-singular) si, y sólo si, det A = 0.
Demostración. Todos los elementos de un cuerpo son inversibles ex-
cepto el 0.

Corolario 4.4.2. Una matriz cuadrada diagonal Diag(c 1, . . . , cn ) sobre


un anillo abeliano con neutro es no-singular si, y sólo si, toda entrada
diagonal ci es inversible.
Demostración. El determinante de Diag(c1, . . . , cn ) es el producto d =
c1 × · · · × cn ; luego, de acuerdo con el Teorema 4.4.1 la matriz es no-
singular si, y sólo si, d es inversible.
Ahora bien, si todo ci es inversible, también lo es d y

d −1 = c−1 −1
n × · · · × c1

Recíprocamente, si d es inversible, entonces

1 = d × d −1 = c1 × (c2 × · · · × cn × d −1 )

142
Publicación digital de Editorial Equinoccio
4.5 R EGLA DE C RAMER

demuestra que c1 es inversible. Del mismo modo se prueba que cada c i


es inversible (recuérdese que el anillo es abeliano).

Corolario 4.4.3. Sea E un espacio vectorial de dimensión finita sobre


el cuerpo F.
Si dos matrices M , M # sobre F corresponden a la misma transfor-
mación lineal ϕ : E → E con respecto a distintas bases de E, es decir,
M ∼ M # , entonces det M = det M # .
Demostración. De acuerdo con el Teorema 3.3.2, existe una matriz no-
singular P tal que
M # = P × M × P −1
Entonces,

det M # = det P × det M × det(P −1 )


= det P × det M × (detP)−1 = det M

Comentario 4.4.1. Este corolario permite referirse al determinante de


la transformación ϕ , sin ambigüedad, como det ϕ = det M , donde M
es una matriz asociada a ϕ con respecto a cualquier base de E (como
dominio y como codominio).
Atención: El recíproco del Corolario 4.4.3 no es cierto. Dos matri-
ces pueden tener el mismo determinante sin ser semejantes.

4.5 Regla de Cramer


Consideremos un sistema de n ecuaciones lineales con n incógnitas
x1 , x2 , . . . , xn , y todos los coeficientes ai j y bi en un cuerpo F,



⎪ a11 x1 + a12 x2 + · · · + a1n xn = b1

a21 x1 + a22 x2 + · · · + a2n xn = b2
(4.5.1)

⎪ ··· ··· ··· ··· ··· ··· ··· ··· ···

an1 x1 + an2 x2 + · · · + ann xn = bn

143
Publicación digital de Editorial Equinoccio
4 D ETERMINANTES

Supongamos que el determinante de los coeficientes


 
a11 a12 · · · a1n 
 
a21 a22 · · · a2n 
Δ =   = 0

· · · · · · · · · · · · 
an1 an2 · · · ann 
Multipliquemos las ecuaciones 1, 2, . . ., n respectivamente por los
cofactores Δ1k , Δ2k , . . ., Δnk , y sumémoslas.
Se obtiene
     
n n n
∑ ai1Δik x1 + ∑ ai2Δik x2 + · · · + ∑ aik Δik xk +
i=1 i=1 i=1
   
n n
···+ ∑ ainΔik xn = ∑ biΔik
i=1 i=1

pero, de acuerdo con el Comentario 4.2.2, los coeficientes de todos los


xi son ceros, excepto el de xk que es Δ; por consiguiente

xk Δ = Δ(k)

donde
 
a11 a12 · · · b1 . . . a1n 

n a a22 · · · b2 . . . a2n 
Δ(k) = ∑ biΔik =  21
· · · · · · 
i=1 · · · ··· ··· ···
an1 an2 · · · bn . . . ann 

y b1 , b2 , . . . , bn constituyen la columna k en este último determinante.


Hemos hallado un conjunto único de soluciones al sistema (4.5.1):

Δ(k)
xk = para k = 1, 2, . . ., n
Δ

144
Publicación digital de Editorial Equinoccio
4.6 OTROS DESARROLLOS DE UN DETERMINANTE

Comentario 4.5.1. La regla de Cramer es sin duda interesante y tiene


muchas aplicaciones teóricas, pero es de muy escasa utilidad para re-
solver un sistema de muchas ecuaciones e incógnitas, pues los cálcu-
los requeridos, aunque rutinarios, resultan excesivos. El método desa-
rrollado en la Sección 3.7 es considerablemente más práctico y eficaz
desde un punto de vista numérico para calcular las soluciones.

4.6 Otros desarrollos de un determinante


El lector puede omitir esta sección si lo prefiere, sin pérdida de con-
tinuidad, pues sus resultados no serán invocados en el resto de la obra.
Estudiaremos otras formas de calcular un determinante, tal vez me-
nos utilizadas, pero convenientes para ciertos tipos de determinantes.
Veamos primero la llamada “expansión por la primera fila y primera
columna.” Si queremos expandir por otra fila y otra columna, distin-
tas de las primeras, siempre podemos moverlas a los primeros lugares
mediante intercambios sucesivos de líneas paralelas, tomando en cuenta
los cambios de signo.
Consideremos el determinante A = det A de la matriz A = (a i j )n×n .
Como elemento inicial en este desarrollo de A tomamos a 11 A11 ,
donde aparecen todos los términos que contienen el factor a 11 (como
se aprecia en (4.1.4)). Tomemos ahora un i = 1 y un j = 1 fijos, y
determinamos todos los términos del desarrollo de A que contienen el
producto a1 j ai1 .
Todos los términos que contienen el factor a 1 j constituyen precisa-
mente
(−1)1+ j a1 j det A1 j
(donde a11 ciertamente no aparece).
Y, en det A1 j , todos los términos con el factor a i1 están compren-
j
didos en (−1)i ai1 det(Ai1 ) (nótese que ai1 ocupa el lugar (i − 1, 1) en
j
A1 j ), el cofactor de ai1 en A1 j , por lo tanto, (−1)1+i+ j a1 j ai1 det(Ai1 )
comprende todos los términos en el desarrollo de A con el factor a 1 j ai1 .
j
Pero, Ai1 es la matriz obtenida de A1 j suprimiéndole la fila i y la
columna 1.

145
Publicación digital de Editorial Equinoccio
4 D ETERMINANTES

j
En resumen, la matriz Ai1 se obtiene de A suprimiéndole sus filas
1 e i y sus columnas j y 1. Luego, A i1j es precisamente el menor Ai1j
(de orden (n − 2) × (n − 2)) de ai j en A11 ; y el cofactor es
A1i j = (−1)(i−1)+( j−1) det(Ai1j ) = −(−1)1+i+ j det(Ai1j )
Así pues, todos los términos en el desarrollo de A que contienen el
producto a1 j ai1 están comprendidos en
−a1 j ai1 A1i j
Consideremos ahora la expansión
a11 A11 − ∑ a1 j ai1 A1i j (4.6.1)
ij

donde ∑i j a1 j ai1 A1i j significa que debemos sumar a1 j ai1 A1i j para todo
par i, j, ambos diferentes de 1.
Por construcción, (4.6.1) ciertamente forma parte del desarrollo de
A y los sumandos son todos diferentes. Además, el desarrollo de (4.6.1)
contiene exactamente
(n − 1)! + (n − 1) × (n − 1) × (n − 2)! = n!
términos, por tanto

A = a11 A11 − ∑ a1 j ai1 A1i j (4.6.2)


ij

y esta es la “expansión por la primera fila y primera columna.”


A la hora de aplicar esta fórmula, quizás sea más cómodo escribirla
A = a11 A11 − ∑(−1)i+ j a1 j ai1 det(Ai1j )
ij

Obsérvese que (4.6.2) puede ser particularmente recomendable para


el caso en que a11 = 0, porque A se reduce entonces a una suma que
involucra sólo determinantes de orden n − 2. También en el caso de un
determinante simétrico4, (4.6.2) es bastante eficiente.
4 Sus entradas conjugadas son iguales.

146
Publicación digital de Editorial Equinoccio
4.6 OTROS DESARROLLOS DE UN DETERMINANTE

Ejemplo 4.6.1. Veamos una aplicación del desarrollo (4.6.2).


Se pide calcular el determinante
 
 3 3 −5 −5
 
−2 2 −3 −2
A =  

 1 0 0 −1
 5 0 0 −1

Movemos la última fila al primer lugar, lo cual significa 3 intercam-


bios de signos (filas) y luego permutamos la segunda columna con la
primera; esto hace un total de 4 cambios de signo, por tanto, el deter-
minante no altera su valor ni su signo y se tiene
 
0 5
 0 −1
3 3 −5 −5
A =  
2 −2 −3 −2 
 
0 1 0 −1

y logramos un 0 en el lugar (1, 1).


Ahora aplicamos la fórmula (4.6.2) y obtenemos (omitiendo los pro-
ductos por 0)

   
−3 −2 −5 −5

A = −(5 × 3)   
+ (5 × 2)  
0 −1 0 −1
   
−2 −3 3 −5
−(−1 × 3)   
+ (−1 × 2)  
1 0 1 0
= −45 + 50 + 9 − 10 = 4

es decir, A = 4.
Una manera más expedita de calcular A, en lugar de utilizar (4.6.2),
es permutar la primera con la tercera columna (el determinante cambia
de signo) y obtenemos
 
−5 3 3 −5
 
−3 2 −2 −2
A = −  

 0 0 1 −1
 0 0 5 −1

147
Publicación digital de Editorial Equinoccio
4 D ETERMINANTES

Si trasponemos la matriz, su determinante es el mismo (Proposición


4.2.3) y se tiene  
−5 −3 0 0 
 
3
 2 0 0 
A = −
 3 −2 1 5 
−5 −2 −1 −1
Ahora le aplicamos la Proposición 4.3.1:
   
−5 −3  1 5 
A = −  ×  = −[(−10 + 9) × (−1 + 5)] = 4
3 2  −1 −1

Lo aconsejable en el cálculo de un determinante, al igual que en la


manipulación de matrices, es aprovechar las características particula-
res del caso para emplear el método más eficaz.
Por último, vamos a deducir una expansión más compleja de A =
det A debida a Laplace.5
En primer lugar, conviene establecer alguna terminología.
Dada una matriz cuadrada, si eliminamos algunas de sus filas e igual
número de sus columnas, quedamos con otra matriz cuadrada que lla-
maremos menor de la matriz original.
Una fila y una columna tienen siempre una entrada en común, su
“intersección,” el elemento que pertenece a esa fila y a esa columna.
Cuando nos referimos a un menor formado por las filas i1 < i2 < · · · < ih
y las columnas j1 < j2 < · · · < jh (en igual número, desde luego) de la
matriz dada, queremos especificar la matriz M de sus “intersecciones,”
esto es ⎛ ⎞
a i1 j1 ai1 j2 · · · ai1 jh
⎜ ai j ai j · · · ai j ⎟
M = ⎜ ⎝ ···
2 1 2 2 2 h⎟
··· ··· ··· ⎠
aih j1 aih j2 · · · aih jh
Eliminando estas filas y estas columnas de la matriz n × n original,
nos queda un menor (n − h) × (n − h) al cual nos referimos como com-
plementario de M , o el complemento de M .

5 Pierre Simon Laplace (1749-1827).

148
Publicación digital de Editorial Equinoccio
4.6 OTROS DESARROLLOS DE UN DETERMINANTE

Si el entero IM = ∑hk=1 (ik + jk ) es par, decimos que el menor M es


de clase par, y si es impar, decimos que es de clase impar.
Como las filas y columnas del complemento M c son precisamente
las desechadas en la formación de M , el entero IMc es tal que IMc +
IM = 2(1 + 2 + · · · + n), un número par, por tanto IM y IMc tienen las
misma paridad; o sea que un menor y su complemento son de la misma
clase.
Obtengamos ahora algunos resultados.
• Consideremos el siguiente determinante
 
 a11 a · · · a a · · · a 
 12 1h 1(h+1) 1n 
 a21 a22 ··· a2h a2(h+1) ··· a2n 

 ··· ··· ··· ··· ··· ··· · · · 

A =  ah1 ah2 ··· ahh ah(h+1) ··· ahn 
a(h+1)1 a(h+1)2 · · · a(h+1)h a(h+1)(h+1) · · · a(h+1)n 
 
 ··· · · · · · · · · · · · · · · · · · · 
 
 an1 an2 ··· anh an(h+1) ··· ann 
(4.6.3)
de una matriz A , dentro de la cual un menor M está formado por
las primeras h filas y las primeras h columnas, y su complemento
Mc lo constituyen los elementos comunes a las filas y columnas
que van desde la h + 1 hasta la n.
Nos proponemos probar que el producto det M × det M c forma
parte del desarrollo del determinante A.
Procedemos por inducción en h, cualquiera que sea el tamaño del
complemento Mc .
Para h = 1, el producto en cuestión es justamente a11 A11 (pues en
este caso A11 = Mc ), que sabemos forma parte del desarrollo del
determinante A.
Supongamos que nuestra afirmación es cierta para h − 1 ≥ 1.
Considerando la expansión de A por su primera fila, la suma
a11 det A11 + · · · + (−1)1+ j a1 j det A1 j + · · ·
· · · + (−1)1+h a1h det A1h

149
Publicación digital de Editorial Equinoccio
4 D ETERMINANTES

forma parte del desarrollo del determinante. No obstante, las


primeras h − 1 filas y primeras h − 1 columnas de cada A1 j cons-
tituyen el menor M1 j de a1 j en M , y el complemento de M1 j en
A1 j es de nuevo Mc , por tanto, en virtud de la hipótesis inductiva,
det M1 j × det Mc forma parte del desarrollo de det A1 j .
Esto implica que la suma

a11 det M11 × det Mc + · · ·


· · · + (−1)1+ j a1 j det M1 j × det Mc + · · ·
· · · + (−1)1+h a1h det M1h × det Mc

forma parte del desarrollo del determinante A. Pero esta suma


puede escribirse

[a11 det(M11 ) + · · · + (−1)1+h a1h det(M1h )] × det(Mc)


= det(M ) × det(Mc)

y hemos concluido.

• Tomemos cualquier determinante A = det A de orden n.


Elegimos h filas en A , de lugares i1 < i2 < · · · < ih y h columnas
cualesquiera j1 < j2 < · · · < jh . Sea M el menor formado por
ellas.
Por intercambios sucesivos de líneas paralelas, queremos colocar
M como se encuentra en (4.6.3). Como el complemento M c se
obtiene mediante la eliminación en A de las filas y columnas que
forman M , estos intercambios dejan M c intacto, pero colocado
en la posición que figura en (4.6.3). Para lograrlo, intercambia-
mos la fila i1 con cada una de las que tiene encima para ponerla
como primera fila; esto exige i1 − 1 intercambios; hacemos lo
mismo con la fila i2 para colocarla como segunda fila, requiriendo
i2 − 2 permutaciones, y así sucesivamente para el resto de las fi-
las hasta la ih que requiere ih − h intercambios con las que tiene
encima para ponerla como fila de lugar h.

150
Publicación digital de Editorial Equinoccio
4.6 OTROS DESARROLLOS DE UN DETERMINANTE

Hemos realizado

(i1 − 1) + (i2 − 2) + · · · + (ih − h)


h
= ∑ ik − (1 + 2 + · · · + h)
k=1

intercambios de filas.
Sometemos las h columnas elegidas a un proceso totalmente aná-
logo, para colocarlas en el primer, segundo, ..., h lugares, lo cual
involucra ∑hk=1 jk − (1 + 2 + . . . + h) intercambios.
Nuestro determinante se ve ahora exactamente como (4.6.3), pero
ha sufrido un total de
h
∑ (ik + jk ) − 2(1 + 2 + · · · + h)
k=1

cambios de signo, que es lo mismo que ∑hk=1 (ik + jk ) cambios de


signo, precisamente la clase del menor M ; en consecuencia, el
nuevo determinante es A si M es de clase par y −A si es de clase
impar.
Nuestro resultado anterior indica que el producto det M ×det M c ,
precedido del signo + o del −, según la clase de M , forma parte
del desarrollo de A.
Tomemos h filas fijas de A. Se nos permite escoger el número
h y las filas a nuestro antojo, pero deben permanecer las mismas
durante el cálculo siguiente.
Formemos todos los menores posibles con estas filas precisas y h
columnas de A; existen
 
n n!
=
h h!(n − h)!
de estos menores. Sus determinantes multiplicados por los deter-
minantes de sus complementos, precedidos del signo correspon-
diente, forman parte del desarrollo de A y son todos distintos.

151
Publicación digital de Editorial Equinoccio
4 D ETERMINANTES

Afirmamos que la suma de todos estos productos (signados) es


precisamente A.
En efecto, el desarrollo de cada producto tiene h!(n−h)! términos
y la suma de ellos tiene
 
n
h!(n − h)! = n!
h
términos, que es el número de términos en el desarrollo de A.
Podemos repetir este razonamiento intercambiando el papel de las
filas por columnas y la conclusión es igualmente válida. Vale de-
cir, elegimos h columnas fijas y formamos los menores con todas
las posibles combinaciones de h filas.
Esta manera de calcular un determinante es la llamada expansión
de Laplace.

Comentario 4.6.1. Si elegimos sólo una línea (fila o columna), y apli-


camos la expansión de Laplace, el resultado no es otra cosa que el
desarrollo del determinante por los elementos de esa línea, es decir, la
expresión (4.2.7) o la (4.2.8), y lo mismo resultaría si elegimos n − 1
líneas paralelas. O sea que la expansión de Laplace es una verdadera
generalización en la forma de desarrollar un determinante.
Obsérvese que la Proposición 4.3.1 es también un caso particular
de la expansión de Laplace.
Ejemplo 4.6.2. Vamos a aplicar la expansión de Laplace a un determi-
nante genérico A de orden 4, eligiendo la primera y la tercera filas.
 
a11 a12 a13 a14 
 
 a21 a22 a23 a24 
A =  

a 31 a32 a 33 a34 
 a41 a42 a43 a44 

Puede formarse un total de


 
4 4!
= = 6
2 2! 2!

152
Publicación digital de Editorial Equinoccio
4.7 E JERCICIOS

menores 2 × 2, seleccionando dos columnas distintas cada vez. De


modo que el desarrollo de A es una suma signada de 6 términos, donde
cada uno es un producto de dos determinantes de orden 2 :

       
a11 a12  a23 a24  a11 a13  a22 a24 

A=−  ×   +   ×  
a31 a32  a43 a44  a31 a33  a42 a44 
       
a11 a14  a22 a23  a12 a13  a21 a24 

−  ×   −   ×  
a31 a34  a42 a43  a32 a33  a41 a44 
       
a12 a14  a21 a23  a13 a14  a21 a22 

+  ×   −   ×  
a32 a34  a41 a43  a33 a34  a41 a42 

A título de ejemplo, en el cuarto sumando en el desarrollo de A :


   
a12 a13  a21 a24 
−   ×  
a32 a33  a41 a44 

el primer factor es el determinante de la matriz constituida por la in-


tersección de la primera y tercera filas de A con la segunda y tercera
columnas; y el segundo factor es el determinante de la matriz que re-
sulta de suprimir la primera y tercera filas de A y la segunda y tercera
columnas. La clase, de tanto el primer factor como el segundo, es im-
par, pues (1 + 3) + (2 + 3) = 9, por consiguiente, el signo ha de ser
negativo.

4.7 Ejercicios
1. Calcular mentalmente el determinante (sobre C)
 
0
 0 0 3 
0 0 5 34i 
A = 
0 1 754 1492i
 i 2517i 347 1872 

153
Publicación digital de Editorial Equinoccio
4 D ETERMINANTES

2. Calcular el determinante (Vandermonde)


 
1 1 1 1
 
a b c d

V4 =  2 2 2 2 
a b c d 
a3 b3 c3 d 3 

Generalizar al caso Vn .

3. Sea A = (ai j ) una matriz n × n en C y sea A = (ai j ) la matriz


obtenida de A conjugando cada una de sus entradas.
Demostrar que
det (A ) = det A
Sugerencia: inducción en n.

4. Sea An = det(ai j )n×n un determinante definido así:


• aii = 1, para i = 1, 2, . . ., n ;
• ai,i+1 = t, para i = 1, 2, . . ., n − 1 ;
• ai,i−1 = 1 − t, para i = 2, 3, . . ., n ;
• los restantes ai j son cero.
Probar que, para todo n > 2, se tiene
An = An−1 − t (1 − t) An−2

Calcular An en términos de n y de t.

5. Para cualquier n ≥ 2, sea el determinante


 
2 1 0 0 ... ... 0

1 2 1 0 ... ... 0

0 1
 2 1 ... ... 0
Δn = 
0 0 1 2 ... ... 0
 .. .. 
0 0 0 1 . .
 
. . . . . . . . . . . . . . . 1
. ..

0 0 0 0 ... 1 2

154
Publicación digital de Editorial Equinoccio
4.7 E JERCICIOS

que puede describirse del siguiente modo:

• toda entrada en la diagonal principal es el número 2;


• todo 2 en la diagonal principal, excepto el primero (esquina
superior izquierda) tiene un 1 a la izquierda y un 1 encima;
• las restantes entradas de Δn son 0.

Calcular Δ2 , Δ3 , Δ4 .
Demostrar (inducción) que, para todo n ≥ 4,

Δn = 2 Δn−1 − Δn−2

6. Sea {a1 , a2 , . . . } una sucesión de enteros ≥ 1, y consideremos la


siguiente familia de determinantes
 
 a1 1 0 0 ... ... 0 
 
−1 a2 1 0 ... ... 0 
 
 0 −1 a3 1 . . . . . . 0 
 
0 0 −1 a . . . . . . 0 
[a1 , a2 , . . . , an−1 , an ] =  4 
 . .. 
.
0 0 0 −1 . .
 
. . . . . . . . . . . . . . . . . . 1 
 
0 0 0 0 . . . −1 a  n

donde cada ai , excepto a1 , tiene un (−1) a la izquierda y un 1


encima; las restantes entradas del determinante son 0.
Calcular [a1 ], [a1, a2 ] y [a1, a2 , a3 ].
Demostrar las siguientes propiedades:

(a) [a1 , a2 , . . . , an ] = an × [a1 , a2 , . . . , an−1 ] + [a1 , a2, . . . , an−2 ]


(b) [a1 , a2 , . . . , an ] = a1 × [a2 , . . . , an ] + [a3, . . . , an ]
(c) [a1 , a2 , . . . , an ] es un entero ≥ 1.
(d) [a1 , a2 , . . . , an−1 , an ] = [an , an−1 , . . . , a2 , a1 ]
(e) [a1 , a2 , . . . , an ] y [a2 , . . . , an ] son primos relativos.

155
Publicación digital de Editorial Equinoccio
4 D ETERMINANTES

(f) [a1 , a2 , . . . , an ] > [a2 , . . . , an ]


(g) [−a1 , −a2 , . . . , −an ] = (−1)n [a1 , a2 , . . ., an ]

Observación: A los enteros pn = [a1 , a2 , . . . , an−1 , an ] se les llama


“cumulantes” y juegan un papel fundamental en la importante
teoría de las fracciones continuas. Su representación como deter-
minantes facilita su manejo y la demostración de sus propiedades.
Su definición más acostumbrada es por recurrencia, empleando la
parte (a).

7. Sean {a1 , a2 , . . . } y {b2 , b3 , . . . } sucesiones de números reales,


donde bk = 0, para todo k.
Para cada natural n ≥ 1, considérese la matriz simétrica
⎛ ⎞
a1 b 2 0 0 . . . . . . 0
⎜ b2 a 2 b 3 0 . . . . . . 0 ⎟
⎜ ⎟
⎜ 0 b 3 a3 b4 . . . . . . 0 ⎟
⎜ ⎟
⎜ ⎟
An = ⎜ 0 0 b4 a4 . . . . . . 0 ⎟
⎜ . .. ⎟
⎜ 0 0 0 b5 . . .⎟
⎜ ⎟
⎝. . . . . . . . . . . . . . . . bn ⎠
. .
0 0 0 0 . . . b n an
que puede describirse como sigue:
• las entradas de la diagonal principal son a1 , a2 , . . . , an ;
• todo ak en la diagonal principal, excepto a1 , tiene bk a la
izquierda y bk encima;
• las restantes entradas de An son 0.
Dado un número real λ y n ≥ 1, sea dn = det(An − λ In ), donde
In es la matriz identidad n × n, y d0 = 1.
Demostrar que, para todo n ≥ 2,
dn = (an − λ ) dn−1 − b2n dn−2

(Parte de pregunta de examen en la Univ. de Oxford, 1968)

156
Publicación digital de Editorial Equinoccio
4.7 E JERCICIOS

8. Sea la matriz cuadrada (n + m) × (n + m)


 
A B
M=
O C

donde

• la submatriz (o bloque superior) A es n × n;


• la submatriz (bloque inferior) C es m × m;
• la submatriz B es n × m y sus entradas son elementos cua-
lesquiera;
• la submatriz O es m × n y sus entradas son todas cero.

Probar que
det M = det A × det C

9. Aplicando la Proposición 4.3.1 o bien el ejercicio anterior, calcu-


lar (¿mentalmente?)
 
−1 18 11 −21 −1 3 
   
 8 −41 1 4 0 6  0 0 1 2
   
0 0 0 −5 1 2  0 0 3 4
 y  
0 0 0 15 −39 3  5 −1 1 6
   
0 0 0 −1 31 −4  2 2 1 5
 
0 0 0 6 7 −8

10. Todas las entradas de la diagonal principal de una matriz n × n


son 0 y el resto de sus entradas es 1.
Mostrar que su determinante es (−1)n−1 (n − 1).

11. Probar que


 
a −b −c −d 
 
b a −d c 
  = (a2 + b2 + c2 + d 2 )2
c d a −b 
 
d −c b a 

157
Publicación digital de Editorial Equinoccio
4 D ETERMINANTES

12. Si A = 0 es un determinante de orden n ≥ 1, es inmediato que


det[Ad j(A)] = An−1 . ¿No es así?

13. Aplicar la regla de Cramer para resolver el sistema




⎪ −3x1 +x2 −2x3 +5x4 = −2

x1 −5x2 +3x3 +0x4 = −6

⎪ 2x1 −2x2 +4x3 −5x4 = −9

6x1 +3x2 −x3 −7x4 = 28

Resolverlo también por los métodos de la Sección 3.7 y comparar


la eficiencia operativa.

14. Requiere conocimiento de la Sección 4.6.


Sea A = (ai j )n×n una matriz simétrica; es decir, ai j = a ji , para
todo i, j entre 1 y n.
Aplicando el método de “expansión por la primera fila y primera
columna,” probar que
n
detA = a11 det(A11 ) − ∑ a21 j det(A j1j )
j=1
 
−2 ∑ (−1) j+k a1 j a1k det(A jk1 )
1< j<k≤n

En cada caso, A jk1 es el menor del elemento a jk en A11 .


Compruébese que en esta fórmula hay un total de

2 (n − 1)(n − 2)
1

determinantes de orden n − 2, en lugar de (n − 1)2 si aplicamos el


mismo método a una matriz no simétrica.

158
Publicación digital de Editorial Equinoccio
4.7 E JERCICIOS

15. Dados los elementos c1 , c2 , . . . , cn de un cuerpo F, deducir una


fórmula para det(ai j ), donde (ai j )n×n es tal que

1
ai j =
1 + ci c j

159
Publicación digital de Editorial Equinoccio
PARTE II

Anillos y módulos

Publicación digital de Editorial Equinoccio


C APÍTULO 5
Anillos

Este es un libro de Álgebra Lineal y su protagonista es el espacio


vectorial. No obstante, una estructura algebraica siempre se relaciona
con otras que es menester conocer también; en este caso, es obvio por
ejemplo que no puede ignorarse la estructura cuerpo, que forma parte
de la definición misma de espacio vectorial.
Pero existen también otras estructuras menos visibles en la “ana-
tomía” de un espacio vectorial, cuyo conocimiento enriquece notable-
mente nuestra teoría y, como se pondrá de manifiesto, la hace maravi-
llosamente transparente.
Se trata de anillos y módulos; para ser más específicos, nos intere-
san ciertas clases particulares de ambos. Cada una de estas estructuras
constituye un vasto y rico territorio del Álgebra, y no es el propósito de
esta obra hacer un estudio extenso de sus teorías respectivas. Por con-
siguiente, nos limitaremos a establecer las propiedades y los resultados
que son realmente pertinentes a nuestros propósitos.

5.1 Anillos, dominios de integridad y cuerpos


Definición 5.1.1. Un anillo es una estructura algebraica (A , +, ×)
constituida por un conjunto A , provisto de dos operaciones binarias
que llamamos, por sencillez, suma + y producto ×, que satisface las
siguientes propiedades:

1. (A , +) es un grupo abeliano, cuyo neutro designamos por 0 y


por (−a) al inverso de a ∈ A con respecto a la suma;

2. el producto es asociativo (suele escribirse ab en lugar de a × b);

163
Publicación digital de Editorial Equinoccio
5 A NILLOS

3. el producto es distributivo con respecto a la suma:

a(b + c) = ab + ac (b + c)a = ba + ca (∀a, b, c ∈ A )

Nótese que A = ∅, pues la definición exige al menos 0 ∈ A ; in-


cluso, puede ocurrir que A esté constituido solamente por 0, en cuyo
caso decimos que se trata del anillo trivial.
Si el producto × es conmutativo, decimos que el anillo es abeliano.

Si existe neutro con respecto al producto, lo designamos por 1 y


decimos que se trata de un anillo con elemento neutro.
Antes de mostrar un buen número de ejemplos, vamos a establecer
unas cuantas propiedades elementales que se deducen directamente de
la definición y que aplicaremos en adelante sin citar expresamente.

• ∀a ∈ A : a0 = 0a = 0.
En efecto, sea b ∈ A el inverso de a0 con respecto a la suma
(a0 + b = 0); entonces,

a0 = a(0 + 0) = a0 + a0
=⇒ 0 = a0 + b = (a0 + a0) + b
= a0 + (a0 + b) = a0 + 0 = a0

y, por razonamiento análogo, 0a = 0.


Si el anillo tuviese neutro 1 y 1 = 0, entonces a = 1a = 0a =
0 (∀a ∈ A ) y estaríamos en presencia del anillo trivial; por tanto,
siempre que se considere un anillo con neutro, supondremos que
1 = 0.

• ∀a, b ∈ A : a(−b) = (−a)b = −(ab).


En efecto,

a(−b) + ab = a((−b) + b) = a0 = 0
=⇒ −(ab) = a(−b)

164
Publicación digital de Editorial Equinoccio
5.1 A NILLOS , DOMINIOS DE INTEGRIDAD Y CUERPOS

y análogo para (−a)b = −(ab).


Esto nos permite escribir −ab en lugar de −(ab) sin ambigüedad
alguna.
También obtenemos la consecuencia: (−a)(−b) = ab.

• Decimos que a ∈ A es divisor de cero si existe un b = 0 tal que


ab = 0.
Siempre 0 es divisor de cero, pero pueden existir divisores de cero
que son = 0, como veremos en los ejemplos.
Si el anillo tiene 1 y a ∈ A admite inverso a −1 , se infiere que a
no es divisor de cero, pues

ab = 0 =⇒ b = (a−1 a)b = a−1 (ab) = 0

pero pueden existir no divisores de cero que carecen de inverso.


Una caracterización conveniente de los no divisores de cero es
que son cancelables1 con respecto al producto.
En efecto, si a ∈ A es cancelable y ab = 0 = a0 (lo mismo si
ba = 0), entonces (por cancelación) b = 0 y a no es divisor de
cero.
Recíprocamente, si a ∈ A no es divisor de cero y tenemos ab = ac
(igual se concluye si ba = ca), entonces

0 = ab − ac = a(b − c)
=⇒ b − c = 0 (pues a no es divisor de cero), luego b = c.

Comentario 5.1.1. En la teoría general de anillos, conviene dis-


tinguir entre cancelable por la derecha y por la izquierda. Aquí,
cancelable lo entendemos por ambos lados. No necesitamos hilar
tan fino.

1 a ∈ A cancelable con respecto al producto significa que ab = ac =⇒ b = c.

165
Publicación digital de Editorial Equinoccio
5 A NILLOS

Definición 5.1.2. La propiedad de carecer de divisores de cero (dis-


tintos de 0) se denomina integridad. Esto equivale a que el conjunto
A ∗ = A − {0} es cerrado con respecto al producto; es decir, ∀a, b ∈
A ∗ : ab = 0.
Definición 5.1.3. Un anillo abeliano, con neutro e integridad se de-
nomina dominio de integridad.
Definición 5.1.4. Un anillo con neutro, en el cual todo elemento dis-
tinto de cero tiene inverso con respecto al producto, se llama anillo de
división.
Un anillo de división tiene integridad, según se infiere de lo de-
mostrado arriba. Y es claro que un anillo de división abeliano es un
cuerpo.
En un anillo de división, (A ∗ , ×) es un grupo.
Comentario 5.1.2. Un famoso teorema de Wedderburn, que no de-
mostraremos ni aplicaremos en esta obra, establece que todo anillo de
división finito es un cuerpo. Es curioso que la finitud implique una
propiedad algebraica como lo es la conmutatividad del producto.
Lo que sí es muy fácil de probar es que un dominio de integridad
finito (D, +, ×) es un cuerpo.
En efecto, sólo hace falta demostrar que todo a ∈ D distinto de 0
admite inverso. Definamos la función f : D → D tal que f (x) = ax.
Se infiere de la integridad que f es inyectiva: f (x) = f (y) =⇒ ax =
ay =⇒ x = y, pues a es cancelable.
Ahora bien, como D es finito, la inyección f es forzosamente so-
breyectiva,2 por tanto, ha de existir un a ∈ D tal que 1 = f (a ) = aa ,
luego, a = a−1 .

5.2 Ejemplos de anillos, dominios y cuerpos


La importancia de estas estructuras reside precisamente en la abru-
madora frecuencia de su aparición en todas las ramas de la matemática
2 De lo contrario, f (D), que tiene igual número de elementos que D, sería un subcon-
junto propio del codominio D.

166
Publicación digital de Editorial Equinoccio
5.2 E JEMPLOS DE ANILLOS , DOMINIOS Y CUERPOS

y aún en otras disciplinas. No es de extrañar que los ejemplos sean nu-


merosos; hemos procurado elegirlos de manera que ilustren la variedad
de casos que suelen presentarse.

• Comencemos por un par de ejemplos que, aunque demasiado sim-


ples, conviene tener en cuenta. Ya hemos mencionado el anillo
trivial constituido únicamente por el 0. El que le sigue en senci-
llez es A = {0, 1}, cuya obvia estructura indica que se trata de
un cuerpo y no hay otro cuerpo con menos elementos.

• Las estructuras numéricas constituyen los ejemplos más familia-


res: los racionales Q, los reales R y los complejos C son cuerpos;
la estructura de los enteros Z es el ejemplo por excelencia de un
dominio de integridad, en el cual sólo 1 y −1 tienen inversos con
respecto al producto (cada uno es inverso de sí mismo). Veremos
que Z es mucho más que esto.

• El mismo Z da origen a multitud de ejemplos de anillos. Tome-


mos un entero cualquiera m ∈ Z y designemos por mZ al conjunto
de todos los múltiplos de m:

mZ = {mx | x ∈ Z}

Como mZ es cerrado con respecto a la suma y producto, es de-


cir, la suma y el producto de dos múltiplos de m es también un
múltiplo de m, podemos considerar la estructura (mZ, +, ×) y es
rutinario comprobar que se trata de un anillo abeliano (sin neu-
tro, si m = 1) y con integridad (en el caso m = 0), y, como está
contenido en Z, es lo que se llama un subanillo de Z.

• La estructura (N, +, ×) de los números naturales no es un anillo,


pues (N, +) no es un grupo.

• Si E es un espacio vectorial sobre un cuerpo F, ya hemos estable-


cido en la Sección 2.3 que la familia L (E, E) de todas las trans-
formaciones lineales: E → E constituye un anillo con respecto a la

167
Publicación digital de Editorial Equinoccio
5 A NILLOS

suma y a la composición de transformaciones. Vimos que se trata


de un anillo no abeliano, con neutro (la transformación identidad
I ) y carente de integridad.
Supongamos que el espacio E es de dimensión finita n y fijemos
una base para E como dominio y codominio; entonces, el anillo
(L (E, E), +, ◦) es isomorfo con el anillo (M n×n , +, ×) de todas
las matrices n × n.

• Sea X un conjunto cualquiera, no vacío, y designemos por F al


conjunto de todas las funciones: X → R. Ocurre que (F, +, ×),
donde la suma y producto son puntuales:

( f + g)(x) = f (x) + g(x) ( f × g)(x) = f (x).g(x) ∀ f , g ∈ F

es un anillo abeliano con neutro y sin integridad. Dejamos al


lector la sencilla comprobación.
Si X = R, los subconjuntos de las funciones continuas o de las
derivables son subanillos del anterior.

• Un elemento x de un anillo tal que x 2 = x se denomina idem-


potente (es obvio que 0 y 1 siempre lo son, pero puede haber
otros). Un anillo cuyos elementos son todos idempotentes se
llama booleano. Estos anillos fueron introducidos inicialmente
por George Boole (1815-64) y tienen enorme importancia en Ló-
gica Matemática, en Informática y en muchas otras disciplinas.
Veamos un ejemplo.
Sea X un conjunto no vacío y P(X ) la familia de todos los sub-
conjuntos de X (incluyendo desde luego el vacío ∅ y el propio
X ).3 Dotamos a P(X) de un par de operaciones binarias: , que
hará el papel de la suma, y la intersección ∩ ordinaria de conjun-
tos representando el producto.

3 P(X) suele llamarse la potencia de X.

168
Publicación digital de Editorial Equinoccio
5.3 I DEALES Y ANILLOS COCIENTES

La operación  suele llamarse diferencia simétrica de conjuntos


y se define como

A  B = (A − B) ∪ (B − A) ∀A, B ∈ P(X)

Dejamos al lector la tarea de verificar que la estructura

(P(X), , ∩)

es un anillo; y es booleano, pues A ∩ A = A.


Los anillos booleanos tienen una riqueza sorprendente de propie-
dades y su teoría es muy extensa, el lector interesado puede con-
sultar, entre otros, el librito [12]. Marshall H. Stone (1903-89)
demostró que todo anillo booleano es isomorfo con uno del tipo
que hemos ejemplificado.

• Consideremos el conjunto G de números complejos de la forma


a + bi, donde a y b son enteros. Es inmediato que G es cerrado
con respecto a la suma y el producto complejos, de modo que
podemos examinar la estructura (G, +, ×) y es fácil comprobar
que se trata de un dominio de integridad. Los números de esta
forma se denominan enteros gaussianos en honor a Carl F. Gauss,
quien fue el primero que los estudió y destacó su importancia en
Teoría de Números.

5.3 Ideales y anillos cocientes


Sea (A , +, ×) un anillo y ∅ = S ⊂ A . Decimos que S es un suba-
nillo de A si cumple las condiciones:

∀a, b ∈ S : a−b ∈ S ab ∈ S (5.3.1)

Nótese que, por definición, S es cerrado con respecto al producto.


Además, como S = ∅, existe un x ∈ S y, en virtud de (5.3.1), 0 = x − x ∈
S; luego, para todo b ∈ S, tenemos (−b) = 0 − b ∈ S y, de nuevo por
(5.3.1), a + b = a − (−b) ∈ S, para todo par a, b ∈ S. O sea que S es

169
Publicación digital de Editorial Equinoccio
5 A NILLOS

también cerrado con respecto a la suma. Podemos pues considerar la


estructura (S, +, ×) y se infiere de inmediato que se trata de un anillo.
De allí el nombre de subanillo de A .
Siempre existen los subanillos triviales {0} y A .
Como ejemplos no triviales, tenemos a los enteros Z como subanillo
del anillo (por ser un cuerpo) de los racionales Q; también Z es un
subanillo del dominio G de los enteros gaussianos mencionados en la
sección anterior.
Pero no son los subanillos las subestructuras de los anillos que más
nos interesan.
Definición 5.3.1. Dado un anillo (A , +, ×), se dice que el subconjunto
no vacío I de A es un ideal (de A ), y se designa por I  A , si satisface
las siguientes propiedades:
∀a, b ∈ I : a − b ∈ I
∀a ∈ I y ∀x ∈ A : ax, xa ∈ I (5.3.2)
Es obvio que I es un subanillo de A , pero la condición (5.3.2) lo
hace mucho más. Por ejemplo, como vimos arriba, Z es un subanillo de
Q y de G, pero no un ideal de ninguno de ellos.
Nuevamente, {0} y A son ideales triviales de A .
Nótese que si (A , +, ×) es un anillo abeliano con neutro, e I  A ,
ocurre
I = A ⇐⇒ 1 ∈ I
En efecto, si I = A , pues obviamente 1 ∈ I; recíprocamente, si 1 ∈ I,
entonces, por (5.3.2), a = a1 ∈ I, para todo a ∈ A .
Supongamos nuevamente que (A , +, ×) es un anillo abeliano con
neutro. Tomemos un a ∈ A y consideremos el conjunto de todos los
“múltiplos” de a:
a = aA = {ax | x ∈ A }
Es claro que a es un ideal de A y a ∈ a (pues a = a1). Se
denomina ideal principal (generado por a). Nótese que es el “mínimo”
ideal que contiene a a, en el sentido de que todo ideal I  A con a ∈ I,
obviamente le ocurre que aA ⊂ I.

170
Publicación digital de Editorial Equinoccio
5.3 I DEALES Y ANILLOS COCIENTES

Proposición 5.3.1. Un anillo abeliano con neutro (A , +, ×) es un cuer-


po si, y sólo si, sus únicos ideales son triviales.
Demostración. Supongamos que A es un cuerpo e I  A . Si I = {0},
entonces existe algún 0 = a ∈ I, lo cual implica que 1 = aa −1 ∈ I, luego
I=A.
Recíprocamente, supongamos que el anillo abeliano con neutro A
admite sólo los ideales triviales. Tomemos un 0 = a ∈ A y conside-
remos el ideal principal aA , que no es {0} pues contiene a; luego
aA = A , de modo que 1 ∈ aA , es decir, existe algún x ∈ A con ax = 1,
o sea que a admite inverso y A es un cuerpo.

Veamos ahora por qué los ideales son importantes.


Sea (A , +, ×) un anillo cualquiera (no es necesario exigir neutro ni
conmutatividad) e I  A .
Definamos una relación binaria en A :

a∼b ⇐⇒ a−b ∈ I (5.3.3)

Se trata de una relación de equivalencia, pues

a − a = 0 ∈ I =⇒ a ∼ a
a ∼ b =⇒ b − a = −(a − b) ∈ I =⇒ b ∼ a
(a ∼ b) ∧ (b ∼ c) =⇒ a − c = (a − b) + (b − c) ∈ I =⇒ a ∼ c

Es claro que la clase de equivalencia de cualquier a ∈ A tiene la


forma
a = a + I = {a + x | x ∈ I}
Designamos por
A
I
al conjunto cociente con respecto a ∼.
Además –y aquí es donde importa la propiedad (5.3.2) de un ideal–
las operaciones + y × del anillo son ambas estables con respecto a ∼.

171
Publicación digital de Editorial Equinoccio
5 A NILLOS

En efecto,

(a ∼ a ) ∧ (b ∼ b ) =⇒ (a + b) − (a + b ) = (a − a ) + (b − b ) ∈ I
=⇒ (a + b) ∼ (a + b )
 
(a ∼ a ) ∧ (b ∼ b ) =⇒ ab − a b = (a − a )b + a (b − b ) ∈ I
=⇒ ab ∼ a b

En consecuencia, las operaciones +, × en A inducen operaciones


binarias respectivas, que designaremos también por +, ×, en el conjunto
cociente A /I (véase el Apéndice C). Estas operaciones inducidas están
definidas así
a+b = a+b a b = ab
Sabemos (Apéndice C) que las propiedades usuales de las opera-
ciones en A son “heredadas” por las operaciones inducidas en A /I.
Concretamente, la suma en A /I es asociativa y conmutativa, 0 = I es
el cero y −a = −a; de modo que (A /I, +) es un grupo abeliano. El
producto en A /I es asociativo y distributivo con respecto a la suma,
pues

a (b + c) = a (b + c) = a (b + c)
= ab + ac = ab + ac = a b + a c

y análogamente se verifica (b + c) a = b a + c a.
En resumen, la estructura cociente (A /I, +, ×) es un anillo, que es
abeliano si lo es A y con neutro 1 si A tiene neutro 1.
Veremos más adelante que el anillo cociente puede bien disfrutar de
propiedades carentes en A . Todo depende del ideal I responsable de la
relación de equivalencia ∼.
Supongamos ahora, argumentando en sentido contrario, que A está
dotado de una relación de equivalencia , con respecto a la cual las
operaciones +, × del anillo son estables. Designemos por J = 0 la clase
de equivalencia de 0 ∈ A .
Ocurre que J es un ideal.

172
Publicación digital de Editorial Equinoccio
5.3 I DEALES Y ANILLOS COCIENTES

En efecto, tomemos a, b ∈ J. Como + es estable con respecto a ,


de (b  0)∧(−b  −b) se infiere 0  −b. O sea que (a  0)∧(−b  0),
de donde a − b  0, es decir, a − b ∈ J.
Y, como también × es estable con respecto a , si a ∈ J y x ∈ A ,
entonces

(a  0) ∧ (x  x) =⇒ ax  0x = 0 =⇒ ax ∈ J

y análogamente xa ∈ J.
Por otro lado, si a  b, como también −b  −b, se infiere que a −
b  0, es decir, a−b ∈ J. Recíprocamente, si a−b ∈ J, entonces a−b 
0, pero b  b, luego (sumando), a  b.
En resumen, toda relación de equivalencia ∼ sobre A , con respecto
a la cual + y × son estables está determinada por un ideal I = 0, de tal
modo que a ∼ b ⇐⇒ a − b ∈ I.

Proposición 5.3.2. Sea (A , +, ×) un anillo.

1. La intersección en una familia cualquiera de ideales de A es un


ideal.

2. Si I  A y J  A , entonces I + J  A , donde

I + J = {x + y | x ∈ I , y ∈ J}

e I + J es el “mínimo” ideal que contiene a I ∪ J.

Demostración. La afirmación (1) es obvia.


(2) Basta con observar que, para x, x ∈ I e y, y ∈ J cualesquiera,

(x + y) − (x + y ) = (x − x ) + (y − y ) ∈ I + J
∀t ∈ A : t(x + y) = tx + ty ∈ I + J

Es obvio que I + J contiene a I y a J y que todo ideal que contenga


a ambos forzosamente ha de contener I + J.

173
Publicación digital de Editorial Equinoccio
5 A NILLOS

Comentario 5.3.1. Es evidente que la parte (2) de la Proposición 5.3.2


es válida, por inducción, para la “suma” de cualquier número finito de
ideales.
Dados los anillos A y A  , decimos que una función ϕ : A → A 
es un homomorfismo si, para todo par de elementos a, b ∈ A se tiene

ϕ (a + b) = ϕ (a) + ϕ (b) ϕ (ab) = ϕ (a) × ϕ (b)

Cuando A = A  , al homomorfismo ϕ se le llama a veces endomor-


fismo.
Son consecuencias inmediatas de esta definición que ϕ (0) = 0 y
ϕ (−a) = −ϕ (a).
Definimos el kernel de ϕ como

ker ϕ = {x ∈ A | ϕ (x) = 0}

Es importante notar que ker ϕ  A .


En efecto, siempre 0 ∈ ker ϕ , de modo que ker ϕ = ∅; si a, b ∈
ker ϕ , entonces ϕ (a − b) = ϕ (a) − ϕ (b) = 0 =⇒ a − b ∈ ker ϕ ; si a ∈
ker ϕ y x ∈ A , entonces ϕ (ax) = ϕ (a) × ϕ (x) = 0 =⇒ ax ∈ ker ϕ , y
análogamente, xa ∈ ker ϕ .
Nótese que ϕ es inyectiva –y acostumbra llamarse un monomor-
fismo– si, y sólo si, ker ϕ = {0}.
Basta con observar:

ϕ (a) = ϕ (b) ⇐⇒ 0 = ϕ (a) − ϕ (b) = ϕ (a − b) ⇐⇒ a − b ∈ ker ϕ

Cuando ϕ es sobreyectiva, suele llamarse un epimorfismo.


Si ϕ es biyectiva, se denomina un isomorfismo. Y, en el caso A =
A  , decimos que se trata de un automorfismo.
El rango Im ϕ es claramente un subanillo de A  , pero no es, en
general, un ideal.
Análogo al caso de los espacios vectoriales (Teorema 2.2.1), tene-
mos el siguiente resultado.

174
Publicación digital de Editorial Equinoccio
5.4 D OMINIOS DE INTEGRIDAD

Teorema 5.3.1. Primer teorema del isomorfismo de anillos.


Si ϕ : A → A  es un homomorfismo entre los anillos A y A  , en-
tonces existe un isomorfismo
A
ϕ: −→ Im ϕ
ker ϕ

bien definido por ϕ (x) = ϕ (x).


Así pues, los anillos A / ker ϕ e Im ϕ son isomorfos.
Demostración. En primer lugar, debemos probar que la función ϕ está
bien definida.
Supongamos que y ∈ x, lo cual equivale a que y = x. Debe entonces
tenerse ϕ (y) = ϕ (x).
En efecto, el caso es que x − y = x − y = 0 o, lo que es lo mismo,
x − y ∈ ker ϕ ; luego, 0 = ϕ (x − y) = ϕ (x) − ϕ (y) =⇒ ϕ (x) = ϕ (x) =
ϕ (y) = ϕ (y).
Veamos ahora que ϕ es un homomorfismo de anillos:
 
ϕ (a + b) = ϕ a + b = ϕ (a + b) = ϕ (a) + ϕ (b) = ϕ (a) + ϕ (b)
 
ϕ (a × b) = ϕ ab = ϕ (ab) = ϕ (a) ϕ (b) = ϕ (a) × ϕ (b)

Examinemos el kernel de ϕ :

x ∈ ker ϕ ⇐⇒ 0 = ϕ (x) = ϕ (x)


⇐⇒ x ∈ ker ϕ ⇐⇒ x = 0

De modo que ker ϕ = {0} es trivial, lo cual implica que ϕ es inyec-


tiva y, como su propia definición la hace sobreyectiva, se concluye que
ϕ es un isomorfismo.

5.4 Dominios de integridad


Ahora dedicamos nuestro estudio a la clase de anillos que realmente
interesan en esta obra, a los dominios de integridad. Recordemos la

175
Publicación digital de Editorial Equinoccio
5 A NILLOS

Definición 5.1.3, según la cual un dominio de integridad (D, +, ×) es


un anillo abeliano con neutro y tal que, para todo par de elementos
a, b ∈ D, ambos distintos de cero, se tiene que ab = 0 (integridad).
Tengamos presente que todo elemento no nulo de D es cancelable,
pues no es divisor de cero.
Un cuerpo es un caso obvio de dominio de integridad. En la Sección
5.2 vimos un par de ejemplos que no son cuerpos: los enteros Z y los
enteros gaussianos G. Encontraremos otros más adelante.

Definición 5.4.1. Sean a, b ∈ D, donde (D, +, ×) es un dominio de


integridad y a = 0. Decimos que a es divisor de b y lo escribimos a|b si
existe un c ∈ D tal que b = ac. También decimos que a es factor de b.
La divisibilidad tiene las siguiente propiedades básicas (que apli-
caremos sin citarlas expresamente en lo sucesivo).

• Si b = ac, es claro que c es único, pues si b = ac = ad, entonces


c = d (cancelabilidad de a por no ser divisor de cero).

• Para todo a = 0, ocurre a|0 y a|a, ya que 0 = a0 y a = a1.

• Si u ∈ D es inversible, entonces u|b, para todo b ∈ D. En efecto,

b = u(u−1 b)

• Si a|b, entonces a|bs, para todo s ∈ D, pues

b = ac =⇒ bs = a(cs)

• Si a|b y a|c, entonces a|(b ± c). En efecto,

(b = ar) ∧ (c = as) =⇒ b ± c = a(r ± s)

• Si a|b y b|d, entonces a|d. En efecto,

(b = ar) ∧ (d = bs) =⇒ d = a(rs)

176
Publicación digital de Editorial Equinoccio
5.4 D OMINIOS DE INTEGRIDAD

Designemos por DI al conjunto de todos los inversibles en el do-


minio de integridad (D, +, ×). Como 1 y (−1) son inversibles (cada
uno es el inverso de sí mismo), tenemos que D I = ∅. Es claro que DI
es cerrado con respecto al producto y la estructura (DI , ×) es un grupo
abeliano.
Designaremos por D ∗ = {a ∈ D | a = 0}.
Nótese que

a ∈ DI ⇐⇒ a|1
(D, +, ×) es un cuerpo ⇐⇒ DI = D ∗

Definición 5.4.2. Decimos que los elementos a, b ∈ D son asociados y


escribimos a  b, si existe un inversible u ∈ D I tal que a = bu.
No hay ambigüedad en la definición, pues  es una relación de equi-
valencia sobre D. En efecto,

a  a pues a = a1
a  b =⇒ ∃u ∈ DI : a = bu =⇒ b = au−1 =⇒ b  a
(a  b) ∧ (b  c) =⇒ ∃u, v ∈ DI : a = bu , b = cv
=⇒ a = c(vu) =⇒ a  c

Lema 5.4.1. Para a, b ∈ D distintos de cero,

(a|b) ∧ (b|a) ⇐⇒ ab

Demostración.
a  b significa que a = bu, de donde b = au−1 ; es decir, (a|b) ∧
(b|a).
Recíprocamente,

(a|b) ∧ (b|a) =⇒ (b = ar) ∧ (a = bs) =⇒ a = a(rs)


=⇒ rs = 1 =⇒ s ∈ DI =⇒ a  b

177
Publicación digital de Editorial Equinoccio
5 A NILLOS

Lema 5.4.2. Para a, b ∈ D,

aD = bD ⇐⇒ ab

Demostración. Si a o b es cero, tanto aD = bD como a  b implica


que ambos son cero y el lema es trivialmente cierto. De modo que
suponemos a y b distintos de cero.
Tenemos, aplicando el lema anterior,

aD = bD ⇐⇒ (a|b) ∧ (b|a) ⇐⇒ ab

Es evidente que la clase de equivalencia por asociatividad de a ∈ D


es el conjunto aDI = {au | u ∈ DI }.

Definición 5.4.3. Se dice que el elemento no inversible a = 0 es irre-


ducible si d|a implica que d es inversible o bien d  a.
Decimos que un elemento es reducible si no es irreducible.
Se infiere de la definición que un elemento = 0 reducible y no in-
versible es expresable como producto de dos elementos no inversibles.
Nótese que, si D es un cuerpo, todos sus elementos son reducibles.

Definición 5.4.4. Se dice que el elemento no inversible p = 0 es primo


si p|ab implica p|a o bien p|b.
Si p es primo, entonces p es irreducible.
En efecto, supongamos que d|p; luego, p = ds, lo cual implica que
p|ds (pues p|p), pero entonces p|d, en cuyo caso (por el Lema 5.4.1)
p  d; o bien p|s, de donde s = pt y, en consecuencia, p = d(pt) =
p(dt), de lo cual obtenemos dt = 1 y d es inversible.
El recíproco no es cierto en general, cuando se trata de un dominio
de integridad cualquiera; es decir, pueden existir elementos irreducibles
que no son primos.
En la sección siguiente veremos, sin embargo, que, en los dominios
particulares que nos interesan y que incluyen a Z, ocurre que primo e
irreducible son cualidades equivalentes.

178
Publicación digital de Editorial Equinoccio
5.5 D OMINIOS DE IDEAL PRINCIPAL (DIP)

5.5 Dominios de ideal principal (DIP)


Definición 5.5.1. Un dominio de ideal principal, en breve, un DIP, es
un dominio de integridad cuyos ideales son todos principales.
Es decir, un DIP es un dominio de integridad (D, +, ×) tal que, si I
es un ideal cualquiera de D (I  D), entonces existe un d ∈ D con

d D = {dx | x ∈ D} = I

forzosamente, d ∈ I, pues d = d1.


Sabemos que un cuerpo C es un dominio de integridad y que sus
únicos ideales son los triviales (Proposición 5.3.1) {0} = 0 C , C = 1 C ,
que son por cierto principales, de modo que un cuerpo es un DIP, pero
poco interesante como tal.
El ejemplo más familiar de un DIP “de buena fe” es precisamente el
dominio (Z, +, ×) de los enteros.
Para demostrarlo, refresquemos primero el algoritmo fundamental
de Z que es la división entera. Ésta establece que, para todo par de
enteros a ≥ 0 y b > 0, existen enteros únicos q (cociente) y r (resto)
tales que
a = bq + r y 0 ≤ r < b
Si a < b, tomamos q = 0 y r = a y la identidad a = b0 + a cumple
la condición.
Supongamos que b < a. Como existen enteros positivos n con nb >
a, aplicamos el principio de la buena ordenación y sea q + 1 el mínimo
de tales n; entonces, bq ≤ a < b(q + 1), de donde 0 ≤ a − bq < b y
hacemos r = a − bq.
En cuanto a la unicidad de q y de r, supongamos que a = bq  + r ,
con r < b, y que b(q − q ) = r − r > 0 (si fuese < 0 consideramos
b(q − q) = r − r > 0). Esto implica que q − q ≥ 1 > 0 y por tanto
b(q − q ) > b, en cambio

(0 ≤ r < b) ∧ (0 ≤ r < b) =⇒ 0 < r − r < b

y obtenemos una contradicción. En consecuencia, b(q − q ) = r − r = 0


y se infiere que r = r y q = q.

179
Publicación digital de Editorial Equinoccio
5 A NILLOS

Sea ahora un ideal I  Z.


Si I = {0}, se trata del ideal principal 0 y hemos acabado.
De lo contrario, existe algún x ∈ I con x = 0. Si fuese x < 0, entonces
0 < −x = x(−1) ∈ I. En definitiva, existen enteros > 0 en I; nuevamente
por el principio de la buena ordenación, sea 0 < d ∈ I el mínimo de
éstos.
Es claro que d Z ⊂ I. Tomemos cualquier 0 ≤ a ∈ I. En virtud del
algoritmo de división, a = dq + r, donde 0 ≤ r < d. Ahora bien, r = a −
dq ∈ I, de modo que, si fuese r > 0 nos topamos con una contradicción
en la definición de d. Por tanto, r = 0 y a = dq ∈ I. Si a ∈ I con a < 0,
de acuerdo con lo demostrado, −a ∈ I y a = (−a)(−1) ∈ d Z. Hemos
probado que I ⊂ d Z.
En conclusión, d Z = I y Z es un DIP.
Volvemos a los DIP en general y procedemos a establecer un con-
junto de propiedades importantes. Esto es necesario porque vamos a
toparnos con otros DIP distintos de Z. Comenzamos por demostrar
que, en ellos, primo e irreducible son la misma cosa.

Proposición 5.5.1. En un DIP, un elemento es primo si, y sólo si, es


irreducible.
Demostración. Ya hemos probado que, en todo dominio de integridad,
un elemento primo es irreducible. Sea pues c un elemento irreducible
en un DIP D y probemos que es primo.
Supongamos que c|ab.
El ideal I = c D + a D es principal, o sea que I = d D; pero c ∈ d D,
por tanto d|c y, como c es irreducible, caben dos alternativas:

1. d es inversible.
Entonces,

1 = dd −1 ∈ d D = I =⇒ ∃ r, s ∈ D : 1 = cr + as
=⇒ b = c(rb) + (ab)s =⇒ c|b

2. d  c.

180
Publicación digital de Editorial Equinoccio
5.5 D OMINIOS DE IDEAL PRINCIPAL (DIP)

Luego, de acuerdo con el Lema 5.4.2, c D = d D = I; pero, a ∈ I


y, en consecuencia, c|a.

El siguiente es un resultado de mucha importancia.


Teorema 5.5.1. Sea D un DIP e I = c D = D un ideal.
Entonces, el anillo cociente D/I es un cuerpo si, y sólo si, c es
primo.
Demostración. Según lo establecido en la Sección 5.3, la estructura
cociente (D/I, +, ×) es un anillo abeliano con neutro 1. Luego, D/I
es un cuerpo si, y sólo si, todo a = 0 (es decir a ∈/ I) admite inverso
en D/I.
Supongamos pues que c es primo y tomemos un a ∈ / I cualquiera.
Sea el ideal J = c D + a D. Como D es un DIP, J = d D y, en vista
de que c ∈ J, se tiene que d|c; pero c es irreducible por ser primo, de
modo que d  c o bien d es inversible.
Si d  c, por el Lema 5.4.2, I = c D = d D = J, pero a ∈ J = I, lo
cual es una contradicción.
Se infiere que d es inversible, y se tiene 1 = dd −1 ∈ J, por tanto,
deben existir r, s ∈ D tales que 1 = cr + as; pero entonces,

1 − as = cr ∈ I =⇒ 1 − a s = 1 − as = 0

es decir, a s = 1 y s = (a)−1 .
Recíprocamente, supongamos que D/I es un cuerpo y c|ab, pero c
no divide a a. Probemos que c|b.
Que c no divide a a equivale a que a ∈
/ I; es decir, a = 0 y por tanto
a admite inverso s ∈ D/I:

as = a s = 1 =⇒ as − 1 = 0 =⇒ as − 1 ∈ I

de donde, as − 1 = cr, para algún r ∈ D. Luego,

1 = as − cr =⇒ b = (ab)s − c(rb)

lo cual implica que c|b.

181
Publicación digital de Editorial Equinoccio
5 A NILLOS

En el caso del DIP de los enteros Z, todos sus ideales son principales
y los anillos cocientes suelen designarse más cómodamente como
Z
Zm =
mZ
Aunque lo que sigue puede verse en el Apéndice A, repetimos el
argumento.
Sin perder generalidad, suponemos m > 0, pues si m < 0, entonces
0 < −m = (−1)m y (−m)  m =⇒ (−m)Z = mZ
Si 0 ≤ a ∈ Z es un entero, le aplicamos el algoritmo de división:
a = mq + r, donde 0 ≤ r < m. Se infiere que a − r = mq ∈ mZ; luego,
a = r. Si fuese a < 0, entonces −a = r, con 0 ≤ r < m, luego, a =
0 − (−a) = m − r = m − r y es claro que 0 ≤ m − r < m. Se infiere que
Zm es un conjunto finito de m elementos:

Zm = {0, 1, . . . , m − 1}

En virtud del Teorema 5.5.1, Zm es un cuerpo si, y sólo si, m es


primo.
Si m > 0 no es primo, entonces m = rs, donde 0 < r < m y 0 < s < m,
y se tiene r . s = rs = 0, lo cual indica que Zm carece de integridad.
Nótese, pues, que el cuerpo Z p (para p primo) tiene precisamente p
elementos.
Una propiedad de carácter técnico de un DIP, pero de mucha utilidad
es la siguiente.

Lema 5.5.1. Sea D un DIP e

I1 ⊂ I2 ⊂ · · · ⊂ In ⊂ · · ·

una sucesión creciente de ideales en D.


Entonces, existe un entero k ≥ 1 tal que, para todo n ≥ k, se tie-
ne In = Ik .

182
Publicación digital de Editorial Equinoccio
5.5 D OMINIOS DE IDEAL PRINCIPAL (DIP)


Demostración. La unión J = In es un ideal.
En efecto, si a, b ∈ J y x ∈ D, entonces

a ∈ Ii , b ∈ I j =⇒ a, b ∈ Im (donde m = max{i, j})


=⇒ a − b ∈ Im =⇒ a − b ∈ J
además, ax ∈ Ii =⇒ ax ∈ J

Ahora bien, como D es un DIP, J = d D y d ∈ J, de modo que


d ∈ Ik , para algún k. Tomemos un a ∈ In , para cualquier n ≥ k; entonces,
a = dr, para algún r ∈ D, pues a ∈ J, lo cual implica que a ∈ Ik . Se
infiere que In ⊂ Ik , pero Ik ⊂ In , y obtenemos In = Ik , para todo n ≥ k.

Comentario 5.5.1. La propiedad establecida en el lema precedente


para un DIP podría atribuirse a un anillo cualquiera y, si la posee,
decimos que se trata de un anillo noetheriano. Ellos desempeñan un
papel relevante en la teoría de anillos. La importancia de la propiedad
fue identificada por la algebrista alemana Emmy Noether (1882-1935).

En seguida hacemos una primera aplicación del Lema 5.5.1.

Teorema 5.5.2. Todo elemento no inversible a = 0 en un DIP D es


divisible por un primo.
Demostración. Si a es primo, es divisible por sí mismo y no hay más
nada que probar; de lo contrario, a = 0 es reducible y, por tanto, ex-
presable como producto de dos factores no inversibles: a = a 1 b1 .
Si a1 es primo, hemos concluido; si no, a D ⊂ a 1 D (pues a1 |a) y
a1 = a2 b2 , donde a2 y b2 son no inversibles (dado que a1 es reducible
por no ser primo).
Si a2 es primo, hemos concluido, pues a 2 |a1 y a1 |a implica a2 |a;
en caso contrario, a1 D ⊂ a2 D y a2 = a3 b3 , donde a3 y b3 son no in-
versibles.
Continuando con este argumento, obtenemos una sucesión creciente
de ideales
a D ⊂ a 1 D ⊂ a2 D ⊂ · · ·

183
Publicación digital de Editorial Equinoccio
5 A NILLOS

donde las inclusiones son estrictas: a i D = ai+1 D, ya que, en cada caso,


ai y ai+1 no son asociados, puesto que bi+1 no es inversible.
Ahora bien, en virtud del Lema 5.5.1, esta sucesión debe hacerse
constante a partir de algún término en adelante, para lo cual un a k debe
ser primo y, como a D ⊂ ak D, entonces ak |a.

Sea D un DIP que no es un cuerpo. Sabemos entonces que D debe


tener infinitos elementos (véase página 166) y, por no ser un cuerpo,
existe algún x ∈ D ∗ no inversible. En virtud del Teorema 5.5.2, existe
un primo p ∈ D que divide a x. En consecuencia:
Corolario 5.5.1. Todo DIP, que no sea un cuerpo, tiene elementos pri-
mos.
Ahora abordamos lo que históricamente ha dado en llamarse el Teo-
rema Fundamental de la Aritmética (en Z) y que es válido en todo DIP.
Teorema 5.5.3. Todo elemento no inversible a = 0 en un DIP D es
expresable como producto
a = u p 1 p2 . . . pn (π )
donde los pi son primos4 y u es un inversible.
Si a = v q1 q2 . . . qm es otra expresión de la misma naturaleza, en-
tonces m = n y cada primo q j está asociado a un pi .
Demostración. Si a es primo, no hay más nada que probar.
Supongamos que a no es primo, entonces, por el Teorema 5.5.2,
a = a1 p1 , donde p1 es primo. Si a1 es inversible, hemos concluido; de lo
contrario, a1 = a2 p2 , con p2 primo y resulta a = a2 p1 p2 . Nuevamente,
si a2 es inversible, hemos terminado. Si no es el caso, continuamos del
mismo modo y obtenemos una sucesión creciente de ideales
a D ⊂ a 1 D ⊂ a2 D ⊂ · · ·
donde las inclusiones son estrictas: a i D = ai+1 D, ya que, en cada caso,
ai y ai+1 no son asociados, puesto que pi+1 no es inversible por ser
primo.
4 No necesariamente distintos.

184
Publicación digital de Editorial Equinoccio
5.5 D OMINIOS DE IDEAL PRINCIPAL (DIP)

Gracias al Lema 5.5.1, esta sucesión se hace constante a partir de


algún término en adelante, para lo cual debemos toparnos con un a n = u
inversible y se tiene a = u p1 p2 . . . pn .
Demostraremos la unicidad (en términos de asociados) de (π ) por
inducción en n.
Si n = 1, a = up y a no puede admitir una expresión con más de un
primo, pues p es irreducible; luego, la única posibilidad es a = vq, de
donde p = u−1 vq y resulta p  q.
Suponemos ahora que la expresión (π ) para todo no inversible = 0
es única (en el sentido del enunciado), cuando el número de factores
primos es n − 1 ≥ 1.
Sea a = u p1 p2 . . . pn y supongamos que también a = v q 1 q2 . . . qm ,
donde v es inversible y los q j son primos. Se infiere que pn divide el
producto v q1 q2 . . . qm y, por ser primo, divide alguno de los factores;
no puede dividir al inversible v, porque p n no es inversible, de modo
que pn divide algún q j . Reordenando, si es preciso, podemos suponer
que pn divide a qm , por tanto qm = wpn , donde w es inversible (pues qm
es irreducible), es decir, qm  pn .
Tenemos entonces,
u p 1 p 2 . . . p n = v q1 q 2 . . . q m
=⇒ u p1 p2 . . . pn = (vw) q1 q2 . . . qm−1 pn
=⇒ a = u p1 p2 . . . pn−1 = (vw) q1 q2 . . . qm−1
Observamos que el elemento a admite una expresión tipo (π ) con
n − 1 factores primos. En virtud de la hipótesis inductiva, n − 1 = m − 1,
de donde n = m y cada q j ( j = 1, . . . , n − 1) está asociado a un pi .

El siguiente concepto es otro que, sin duda, evoca nuestras memo-


rias escolares de aritmética, sólo que ahora en un contexto más general
y abstracto.
Definición 5.5.2. Sea (D, +, ×) un dominio de integridad y sean
a 1 , . . . , an ∈ D ∗
(es decir, todo ai es distinto de cero).

185
Publicación digital de Editorial Equinoccio
5 A NILLOS

Decimos que d ∈ D ∗ es el máximo común divisor del conjunto {a 1 ,


. . . , an } y se escribe
d = mcd (a1 , . . . , an )
si satisface el par de propiedades:
1. d|ai , para i = 1, . . ., n. Es decir, d es divisor común de los a i .

2. Si d  |ai , para i = 1, . . . , n, entonces d  |d. O sea, d es divisible por


todo divisor común de los a i .

Es oportuno destacar que d = mcd (a1 , . . . , an ) (de existir) no es


único, pues también c satisface la Definición 5.5.2 si y sólo si, c  d,
como es fácil de ver, ya que d|c y c|d. Así pues, d DI es el conjunto de
elementos que son máximo común divisor de {a 1 , . . ., an }.
Definición 5.5.3. Decimos que a, b ∈ D ∗ son primos relativos si

mcd (a, b) = 1

Desde luego que no podemos asegurar la existencia del mcd para


todo conjunto finito de elementos = 0 de un dominio de integridad.
Sin embargo,
Teorema 5.5.4. Si D es un DIP y a1 , . . . , an ∈ D ∗ , entonces existe d =
mcd (a1 , . . . , an ) y es expresable como

d = a 1 s1 + a2 s2 + · · · + a n sn

para ciertos s1 , . . ., sn ∈ D.
Demostración. Consideremos el ideal (véase la Proposición 5.3.2 y su
comentario) I = a1 D + a2 D + · · · + an D. Como D es un DIP, se trata
de un ideal principal I = d D.
Ahora bien, como cada ai ∈ I, entonces d|ai ; de modo que d satis-
face la condición (1) de la Definición 5.5.2.
Por otro lado, d ∈ I, o sea que existen s1 , . . . , sn ∈ D tales que

d = a 1 s1 + a2 s2 + · · · + a n sn

186
Publicación digital de Editorial Equinoccio
5.5 D OMINIOS DE IDEAL PRINCIPAL (DIP)

y esta expresión implica que todo divisor común de los a i divide tam-
bién a d, que es la condición (2) de la Definición 5.5.2.
En resumen, d = mcd (a1 , . . . , an ).

Veremos más adelante que, en el caso de ciertos dominios aún más


particulares que un DIP, que incluyen a Z, existe un algoritmo para
calcular el mcd.
Definición 5.5.4. Sea (D, +, ×) un dominio de integridad y

a 1 , . . . , an ∈ D ∗

Decimos que m ∈ D ∗ es el mínimo común múltiplo del conjunto


{a1 , . . . , an } y se escribe

m = mcm (a1 , . . . , an )

si satisface el par de propiedades:


1. ai |m, para i = 1, . . ., n. Es decir, m es múltiplo común de los a i .

2. Si ai |m , para i = 1, . . . , n, entonces m|m . O sea, m divide a todo


múltiplo común de los a i .

Nótese que m = mcm (a1 , . . ., an ) (de existir) no es único, pues h ∈


D∗ satisface la Definición 5.5.4 si y sólo si, h  m, ya que m|h y
h|m. Luego, m DI comprende el conjunto de elementos que son mínimo
común múltiplo de {a 1 , . . ., an }.
Nuevamente, en un DIP siempre podemos asegurar la existencia del
mínimo común múltiplo.
Teorema 5.5.5. Si D es un DIP y a1 , . . ., an ∈ D ∗ , entonces existe m =
mcm (a1 , . . . , an ).
Demostración. Consideremos el ideal (véase la Proposición 5.3.2)

n
J = ai D
i=1

187
Publicación digital de Editorial Equinoccio
5 A NILLOS

que está constituido por todos los múltiplos comunes a los a i .


Es claro que J = {0}, pues el producto 0 = a1 × · · · × an ∈ J.
Como D es un DIP, J = m D es un ideal principal, generado por
algún m ∈ D ∗ .
Dado que m ∈ J, ocurre que m ∈ ai D, para i = 1, . . ., n, o sea que m
es múltiplo común de los a i y por tanto satisface la condición (1) de la
Definición 5.5.4.
Si ai |m , para i = 1, . . . , n, entonces m ∈ J = m D, de donde m|m y
vemos que m satisface la condición (2) de la Definición 5.5.4.
En resumen, m = mcm (a1 , . . . , an ).

Existen muchas relaciones interesantes entre el mcd y el mcm, al-


gunas de las cuales aparecen en los ejercicios. Vale la pena probar una
de ellas aquí:
Si mcd (a, b) = 1, entonces mcm (a, b) = ab. En efecto, ab es desde
luego múltiplo común de a y de b y, si t = aa 1 = bb1 es otro múlti-
plo común, entonces, de 1 = ar + bs obtenemos t = bb 1 ar + aa1 bs =
ab(b1r + a1 s), de modo que ab|t.

5.6 Dominios euclideanos (DE)


Definición 5.6.1. Un dominio euclideano, en breve un DE, es un do-
minio de integridad (D, +, ×) acompañado de una función υ : D ∗ →
Z+ ,5 llamada función euclídea, que posee las siguientes propiedades: 6

1. ∀a, b ∈ D ∗ : υ (a) ≤ υ (ab)

2. ∀a ∈ D y ∀b ∈ D ∗ , existen q, r ∈ D (llamados cociente y resto,


respectivamente) tales que

a = bq + r donde r = 0 o bien υ (r) < υ (b)

5 Z+ es el conjunto de todos los enteros ≥ 0.


6 Obsérvese que υ (0) no está definido.

188
Publicación digital de Editorial Equinoccio
5.6 D OMINIOS EUCLIDEANOS (DE)

La propiedad (2) suele llamarse algoritmo de división entera.


Nótese que ∀a ∈ D ∗ : υ (1) ≤ υ (a).7
Obsérvese que, si a, b ∈ D ∗ y a  b, entonces υ (a) = υ (b).
Esto es consecuencia de que a = bu, donde u ∈ DI , pues υ (b) ≤
υ (bu) = υ (a) y υ (a) ≤ υ (au−1 ) = υ (b).
Atención: El recíproco no es cierto; puede tenerse υ (a) = υ (b) sin
que a y b sean asociados.
La unicidad del cociente y el resto no pueden garantizarse en gene-
ral, pero tenemos la siguiente:
Proposición 5.6.1. Si D es un DE cuya función euclídea υ satisface la
propiedad adicional:

∀a, b ∈ D∗ con a + b = 0 : υ (a + b) ≤ max{υ (a), υ (b)} (5.6.1)

Entonces, el cociente y el resto definidos en la condición (2) de la


Definición 5.6.1 son únicos.
Demostración. Sean a ∈ D y b ∈ D ∗ ; de acuerdo con la condición
(2) de la Definición 5.6.1, a = bq + r para ciertos q, r ∈ D con r =
0 o bien υ (r) < υ (b). Supongamos que a = aq  + r , donde r = 0 o
bien υ (r ) < υ (b).
Si r = 0 y r = 0, ocurre r = b(q − q) =⇒ υ (b) ≤ υ (r ) que es
falso, de modo que también r  = 0 y r = b(q − q ) = 0 =⇒ q = q .
Si r = 0, por argumento análogo aplicado a r  , también r  = 0 y
tenemos b(q−q ) = r −r. Ahora bien, si r = r  , entonces υ (b) ≤ υ (r −
r), pero υ (−r) = υ (r) (pues (−r)  r) y la propiedad (5.6.1) indica que
υ (r − r) ≤ max{υ (r), υ (r  )} < υ (b) y obtenemos una contradicción.
En consecuencia, debe ser r = r , lo cual implica que b(q − q) = 0,
de donde q = q .

Comentario 5.6.1. La propiedad (5.6.1) de la Proposición 5.6.1 es una


condición suficiente para asegurar la unicidad de q y de r, pero cierta-
mente no es necesaria; es decir, un DE puede disfrutar de la unicidad

7 Pues υ (1) ≤ υ (a1).

189
Publicación digital de Editorial Equinoccio
5 A NILLOS

de q y r sin cumplir la propiedad (5.6.1). Tal es el caso de Z con el


valor absoluto como función euclídea.

Lema 5.6.1. Si D es un DE con función euclídea υ , entonces a ∈ D ∗


es inversible si, y sólo si, υ (a) = υ (1).
Demostración. Supongamos que a ∈ DI (a es inversible), entonces
υ (a) ≤ υ (aa−1 ) = υ (1). Además, υ (1) ≤ υ (1a) = υ (a). En suma,
υ (a) = υ (1).
Recíprocamente, supongamos que υ (a) = υ (1).
Aplicando la propiedad (2) de la Definición 5.6.1, tenemos 1 = aq+
r, pero υ (r) < υ (a) = υ (1) no es posible, luego r = 0, y 1 = aq, lo cual
indica que a ∈ DI .

Veamos que Z es un DE con el valor absoluto |a| como función


euclídea.
En efecto, tomemos a, b ∈ Z∗ ; como |b| > 0, entonces 1 ≤ |b| y,
dado que |a| > 0, se infiere |a| ≤ |ab|.
Por otro lado, en la sección anterior se estableció que, si a ≥ 0 y
b > 0, entonces existen q, r ∈ Z (únicos) tales que

a = bq + r donde r = 0 o bien |r| = r < b = |b|

Supongamos ahora que a ≥ 0 y b < 0, entonces existen q, r ∈ Z


tales que

a = (−b)q + r = b(−q) + r donde r = 0 o bien |r| = r < −b = |b|

Si a < 0 y b > 0, entonces existen q, r ∈ Z tales que

−a = bq + r =⇒ a = b(−q) + (−r)
donde r = 0 o bien | − r| = r < b = |b|

Finalmente, si a < 0 y b < 0, entonces existen q, r ∈ Z tales que

−a = (−b)q + r =⇒ a = bq + (−r)
donde r = 0 o bien | − r| = r < −b = |b|

190
Publicación digital de Editorial Equinoccio
5.6 D OMINIOS EUCLIDEANOS (DE)

Desde luego que existen otros DE, como lo son el dominio de los
enteros gaussianos y, de particular interés en esta obra, el dominio de los
polinomios sobre un cuerpo, que será estudiado en la próxima sección.
El teorema que sigue nos dice que un DE es un caso especial de DIP.

Teorema 5.6.1. Todo dominio euclideano (DE) es un DIP.


Demostración. Sea (D, +, ×) un DE con función euclídea υ y conside-
remos un ideal cualquiera I  D.
Si I = {0} = 0 D, se trata de un ideal principal y no hay más nada
que probar. De lo contrario, existen x ∈ I con x = 0 y, por tanto υ (x) ≥ 0.
Tomemos entonces un 0 = d ∈ I tal que υ (d) es el mínimo del conjunto
de enteros ≥ 0: {υ (x) | x ∈ I ∩ D ∗ }.
Es obvio, por definición de ideal, que d D ⊂ I.
Tomemos ahora cualquier x ∈ I. Existen q, r ∈ D tales que x =
dq + r, donde r = 0 o bien υ (r) < υ (d). Pero, si υ (r) < υ (d), entonces
r = x − dq ∈ I que es una contradicción con la definición de d. Por
tanto, r = 0 y x = dq ∈ d D. Hemos probado que I ⊂ d D.
En conclusión, I = d D es un ideal principal.

El siguiente resultado ilustra la naturaleza de los anillos cocientes


de un DE.

Proposición 5.6.2. Sea D un DE de función euclídea υ , y aD un ideal


cualquiera con a = 0.
Entonces, el anillo cociente D/aD se compone del 0 y de todo x tal
que x = 0 y υ (x) < υ (a).
Demostración. Tomemos cualquier x ∈ D.
Luego,

x = 0 ⇐⇒ x ∈ aD ⇐⇒ x = ab ⇐⇒ x = 0 o bien υ (a) ≤ υ (x)

Por otro lado,

/ aD ⇐⇒ x = aq + r , r = 0 , υ (r) < υ (a)


x = 0 ⇐⇒ x ∈

es decir, x − r ∈ aD, por tanto x = r, donde r = 0 y υ (r) < υ (a).

191
Publicación digital de Editorial Equinoccio
5 A NILLOS

O sea que todo elemento x ∈ D/aD, distinto de 0, se puede tomar


con υ (x) < υ (a).

Comentario 5.6.2. No se infiere de la proposición anterior que el anillo


D/aD sea finito, pues pueden existir infinitos x, y ∈ D con x = y y tales
que υ (x) = υ (y) < υ (a). Veremos que así ocurre en los dominios de
polinomios.
El caso Z/aZ sí es finito porque, para cada 0 < k ≤ |a| = υ (a)
existen sólo dos enteros ±k con υ (k) = υ (−k) = k.
Los dominios euclideanos hacen posible un algoritmo para el cál-
culo del máximo común divisor (mcd) de un par de elementos. Es un
proceso que se conoce desde la antigüedad griega –por lo menos– y por
encontrarse en los venerables Elementos de Euclides, se acostumbra
llamar algoritmo de Euclides.
Sea D un DE con función euclídea υ y tomemos a, b ∈ D ∗ .
Aplicaremos repetidamente el algoritmo de división:

a = bq1 + r1

Si r1 = 0, hemos terminado, de lo contrario, υ (r 1 ) < υ (b) y dividi-


mos nuevamente8
b = r 1 q2 + r 2
Si r2 = 0, hemos terminado, si no, υ (r 2 ) < υ (r1 ) y dividimos

r 1 = r2 q3 + r 3

Continuando de esta manera obtenemos una secuencia estrictamente


decreciente de enteros positivos

υ (b) > υ (r1 ) > υ (r2 ) > υ (r3 ) > · · ·

que, por tanto, no puede ser indefinida, de modo que forzosamente


debemos toparnos con un resto rn = 0.

8 Como ayuda a la memoria, conviene recordar la frase “divisor entre resto”.

192
Publicación digital de Editorial Equinoccio
5.6 D OMINIOS EUCLIDEANOS (DE)

Esta secuencia de operaciones, necesariamente finita, es lo que se


llama algoritmo de Euclides.
Afirmamos que el penúltimo resto (el anterior al nulo) es el máximo
común divisor de a y b:
rn−1 = mcd (a, b)
Lo demostraremos por inducción en el número de pasos n.
Si n = 1, quiere decir que r1 = 0, luego a = bq1 y es obvio que
b = r0 = mcd (a, b).
Supongamos que la afirmación es cierta cuando el resto nulo se en-
cuentra al cabo de n − 1 > 0 pasos y probémoslo para el caso de a y b
con n pasos (arriba).
En efecto, el proceso para b y r1 consta precisamente de n −1 pasos;
luego, en virtud de la hipótesis inductiva, r n−1 = mcd (b, r1 ) (que es el
resto anterior al nulo rn ). Esto significa que:
1. rn−1 es divisor común de b y de r1 y por tanto divide también a a,
pues a = bq1 + r1 ;
2. si c es divisor común de a y de b, también divide a r 1 (ya que
r1 = a − bq1 ), lo cual implica que c|rn−1 (por definición de mcd).
En conclusión, rn−1 = mcd (a, b).
Recordemos además que, en virtud del Teorema 5.5.4, el máximo
común divisor d = mcd (a, b) es expresable como
d = sa + tb , para ciertos elementos s,t ∈ D (ξ .1)
y, en muchas circunstancias, interesa conocer s y t.
Pues bien, una vez calculado d mediante el algoritmo de Euclides,
podemos aprovechar sus datos para obtener la expresión (ξ .1).
Definamos, por recurrencia, un par de sucesiones {sk } y {tk } en D.
Hacemos

s0 = 0 t0 = 1
s1 = −1 t 1 = q1
∀k ≥ 1 : sk+1 = qk+1 sk + sk−1 tk+1 = qk+1tk + tk−1

193
Publicación digital de Editorial Equinoccio
5 A NILLOS

Demostremos por inducción que

∀k ≥ 1 : rk = (−1)k (sk a + tk b) (ξ .2)

En efecto, para k = 1, tenemos


r1 = a − q1 b = (−1)(s1 a + t1b)

que satisface la fórmula (ξ .2).


Para k = 2,

r2 = b − q2 r1 = b + q2 (s1 a + t1 b)
= q2 s1 a + (q2t1 + 1)b
= (−1)2 [(q2 s1 + s0 )a + (q2t1 + t0 )b]
= (−1)2 (s2a + t2 b)

también satisface la fórmula (ξ .2).


Supongamos que la fórmula (ξ .2) es cierta para todo natural entre 1
y k y probémosla para k + 1.
Sabemos que rk−1 = rk qk+1 + rk+1 ; luego, aplicando la hipótesis
inductiva y las definiciones de {sk } y {tk }, obtenemos

rk+1 = rk−1 − rk qk+1


= (−1) k−1
(sk−1 a + tk−1 b) − (−1)k (sk a + tk b)qk+1
= (−1)k+1 [ (qk+1 sk + sk−1 )a + (qk+1tk + tk−1 )b ]
= (−1)k+1 (sk+1 a + tk+1 b)
Hemos demostrado (ξ .2) por inducción en k.
Así pues, aplicando el algoritmo de Euclides alcanzamos un resto
rn = 0 y, en consecuencia, d = rn−1 = mcd (a, b); entonces particulari-
zamos la fórmula (ξ .2) a k = n − 1 y obtenemos (ξ .1), donde
s = (−1)n−1 sn−1 t = (−1)n−1tn−1

Será un sencillo y jugoso ejercicio para el lector programar ambos


algoritmos, el de Euclides y el del cálculo de s y t, para ser ejecutados
por una computadora.

194
Publicación digital de Editorial Equinoccio
5.7 P OLINOMIOS

5.7 Polinomios
Por supuesto que el lector está familiarizado con los polinomios
desde la niñez, aunque aquí vamos a pretender que no los conoce; en
primer lugar, porque queremos darle un fundamento preciso y riguroso
al concepto; segundo, porque interesa enmarcar los polinomios en el
contexto de las estructuras algebraicas que estamos estudiando; y por
último, es importante despejar una confusión muy frecuente entre el
ente que llamaremos polinomio y la función polinómica, la cual, aunque
inducida por el polinomio, es un objeto matemático distinto.
Es posible dar un tratamiento mucho más general a los polinomios
que el que vamos a presentar aquí. Pero, fieles a los propósitos que
nos hemos impuesto en este capítulo, vamos a considerar las estructuras
algebraicas involucradas sólo en sus casos particulares que nos interesan
y no en toda su generalidad. Nos limitaremos a polinomios en una sola
indeterminada, definidos sobre un cuerpo, aunque es posible definirlos
sobre un anillo cualquiera y con más de una indeterminada.
Sea (F, +, ×) un cuerpo. El lector puede tomarlo como uno de
los cuerpos numéricos si prefiere, aunque los polinomios sobre cuerpos
finitos son especialmente interesantes.
A todos los efectos prácticos, un polinomio p sobre F es una expre-
sión de la forma

p = a0 + a1 x + a2 x2 + · · · + ak xk + · · · an xn

donde los ai (i = 0, 1, 2, . . ., n) son elementos de F y se llaman coefi-


cientes. La misteriosa x suele llamarse la indeterminada.
Semejante “definición” de polinomio es inaceptable ante las exigen-
cias matemáticas de claridad y de precisión. Eso de una “expresión” es
una idea vaga; la proverbial x no puede quedar como un enigma; y hasta
el símbolo + carece aquí de significado preciso.
Nos proponemos ofrecer una definición matemática inequívoca de
polinomio, que legitime el concepto rudimentario que hemos dado.
Sea S el conjunto de las sucesiones {a0 , a1 , a2 , . . . , an , . . .}, cuyos
términos están en F y tales que a partir de un término en adelante todos
son cero; es decir, sólo un número finito de sus términos son = 0.

195
Publicación digital de Editorial Equinoccio
5 A NILLOS

Vamos a convertir S en un anillo abeliano con neutro. Después


veremos que se trata de un dominio euclideano.
Definimos la suma en S sumando “término a término,”
{a0 , a1 , a2 , . . . } + {b0 , b1 , b2 , . . .} = {a0 + b0 , a1 + b1 , a2 + b2 , . . . }
Debemos asegurarnos de que {a0 + b0 , a1 + b1 , a2 + b2 , . . . } ∈ S .
En efecto, existen naturales r, s tales que an = 0, para todo n ≥ r, y bn =
0, para todo n ≥ s. Es claro que an + bn = 0 para todo n ≥ max{r, s}.
Es evidente que la suma + en S es asociativa y conmutativa; ade-
más, {0, 0, . . .} ∈ S hace claramente el papel de 0 en (S , +). Y
{a0 , a1 , a2 , . . .} + {−a0 , −a1 , −a2 , . . .} = {0, 0, 0, . . .}
confirma que (S , +) es un grupo abeliano.
Procedemos ahora a dotar a S de una operación binaria “producto”
× un tanto más complicada.
Sean a = {a0 , a1 , a2 , . . . } , b = {b0 , b1 , b2 , . . . } ∈ S . Definimos
ab = a × b = c = {c0 , c1 , c2 , . . . }
tal que

cm = ∑ ai b j = a0 bm + a1 bm−1 + · · · + am b0 (5.7.1)
i+ j=m

En primer lugar, ab ∈ S ; pues, si an = 0, para n ≥ r, y bn = 0, para


n ≥ s, entonces cm = 0 siempre que m ≥ r + s + 1.
La conmutatividad de × es clara, y es muy fácil verificar que el
elemento {1, 0, 0, . . .} ∈ S es neutro con respecto al producto ×.
Comprobemos la asociatividad del producto.
Sean a, b, c ∈ S ; entonces, el término de lugar n,
  
[a(bc)]n = ∑ ah × ∑ bi c j = ∑ ah bi c j
h+k=n i+ j=k h+i+ j=n
  
[(ab)c)]n = ∑ ∑ ai b j × ck = ∑ ai b j ck
h+k=n i+ j=h i+ j+k=n

196
Publicación digital de Editorial Equinoccio
5.7 P OLINOMIOS

coincide en ambos productos y por tanto a(bc) = (ab)c.


Y, en cuanto a la distributividad del producto con respecto a la suma,

[a(b + c)]n = ∑ [ah × (bk + ck )]


h+k=n
= ∑ ah bk + ∑ ah ck = (ab)n + (ac)n
h+k=n h+k=n

indica que a(b + c) = ab + ac.


En resumen, (S , +, ×) es un anillo abeliano con neutro, cuyos ele-
mentos llamaremos polinomios sobre el cuerpo F.
Una sencilla y directa comprobación revela que el subconjunto de
S de elementos de la forma {r, 0, 0, . . .} es un subanillo –que resulta
ser un cuerpo, como el lector puede verificar fácilmente– y que la fun-
ción : F → S , tal que r → {r, 0, 0, . . .}, es un homomorfismo inyectivo
(monomorfismo). En consecuencia, acostumbra identificarse el cuerpo
F con los polinomios del tipo {r, 0, 0, . . .} ∈ S ; es decir, se permite
el abuso de notación r = {r, 0, 0, . . .} sin riesgo de error ni confusión.
Cuando queremos destacar que vamos a considerar un r ∈ F como po-
linomio, nos referimos a r como “polinomio constante.”
Nótese que

r {a0 , a1 , a2 , . . . , an , . . . } (#)
= {r, 0, 0, . . .} × {a0 , a1 , a2 , . . . , an , . . . }
= {ra0 , ra1, ra2 , . . ., ran , . . . }

Designemos por x = {0, 1, 0, 0, . . .}.


Aplicando la definición del producto en S , tenemos

x2 = {0, 0, 1, 0, . . .}
x3 = {0, 0, 0, 1, 0, . . .}
... .........
k+1
xk = {0, 0, 0, . . ., 1 , 0, . . .}
... .........

197
Publicación digital de Editorial Equinoccio
5 A NILLOS

Tomemos ahora cualquier polinomio p = {a 0 , a1 , a2 , . . .}. De acuer-


do con (#) (y la identificación apuntada arriba), podemos expresar

p = a0 + a1 x + a2 x2 + · · · + an xn (℘)

donde an = 0 y am = 0 , ∀m > n. Universalmente se adopta esta forma


de expresar un polinomio, en lugar de la modalidad de sucesión, pues
resulta mucho más práctica y manipulable, y designamos por F[x] = S .
Conviene no olvidar, sin embargo, que p es una sucesión en F con sólo
un número finito de sus términos distintos de cero.
Otra manera de obtener la expresión (℘) es percatarse de que F[x]
es un espacio vectorial sobre F, con respecto a la suma de polinomios y
la ley de composición externa

r {a0 , a1 , a2 , . . . , an , . . .} = {ra0 , ra1, ra2 , . . . , ran, . . . }

para todo r ∈ F.
Es trivial verificar que la ley así definida satisface las cuatro propie-
dades requeridas de una ley externa en un espacio vectorial.
Advertencia: El espacio vectorial F[x] no es de dimensión finita.
Decimos que el polinomio p en (℘) (a n = 0) es de grado n y escribi-
mos ∂ (p) = n. Esto define una función ∂ : F[x]∗ → Z+ que posee las
siguientes propiedades.

Proposición 5.7.1. Sean p, q ∈ F[x]∗ . Entonces, se tiene

1. p = {a0 , 0, 0, . . .} , a0 = 0 =⇒ ∂ (p) = 0

2. ∂ (p + q) ≤ max{∂ (p), ∂ (q)}

3. ∂ (pq) = ∂ (p) + ∂ (q)

Demostración.
Sea p el polinomio en (℘) y q = b0 + b1 x + b2 x2 + · · · + bk xk
(1) Proviene de la definición de grado ∂ . Pero nótese que el grado del
“polinomio nulo” {0, 0, . . .} no está definido.

198
Publicación digital de Editorial Equinoccio
5.7 P OLINOMIOS

(2) No perdemos generalidad si suponemos n ≥ k.


Entonces, para n > k,

p + q = (a0 + b0 ) + (a1 + b1 )x + (a2 + b2 )x2 + . . .


+(ak + bk )xk + · · · + (an + 0)xn

y ∂ (p + q) = n.
Si n = k, ocurre

p + q = (a0 + b0 ) + (a1 + b1 )x + (a2 + b2 )x2 + · · · + (an + bn )xn

de modo que ∂ (p + q) = n si an + bn = 0; pero, si bn = −an , entonces


∂ (p + q) < n.
(3) Tenemos

pq = c0 + c1 x + c2 x2 + · · · + cn+k xn+k

pues es fácil ver que, para m > n + k,

cm = ∑ ai b j = 0
i+ j=m

y cn+k = an bk = 0. Luego, ∂ (pq) = ∂ (p) + ∂ (q).

Corolario 5.7.1. (F[x], +, ×) es un dominio de integridad.


Demostración. Consecuencia directa de (3) en la Proposición 5.7.1.

Pero F[x] es mucho más que eso.


Teorema 5.7.1. (F[x], +, ×) es un dominio euclideano (DE) con fun-
ción euclídea ∂ .
Demostración. Comprobemos que F[x] satisface la condición (1) de la
Definición 5.6.1.
Si a, b ∈ F[x]∗ , tenemos (Proposición 5.7.1)

∂ (a) ≤ ∂ (a) + ∂ (b) = ∂ (ab)

199
Publicación digital de Editorial Equinoccio
5 A NILLOS

Ahora veamos que F[x] cumple la propiedad (2) de la Definición


5.6.1.
Sean a ∈ F[x] y b ∈ F[x]∗ .
Si a = 0 o bien ∂ (a) < ∂ (b), entonces a = b0 + a satisface los
requisitos en cuestión.
Supongamos que a = 0 y que, en el transcurso de la prueba que
sigue, ∂ (b) ≤ ∂ (a). Hagamos la demostración por inducción en ∂ (a) =
n.
Si n = 0, entonces a = a0 ∈ F y b = b0 ∈ F; luego, a = b(b−1
0 a0 )+0.
Suponemos ahora que n ≥ 1 y que la propiedad a = bq + r es cierta
para todo polinomio en el papel de a de grado < n.
Tenemos

a = a0 + a1 x + a2 x2 + · · · + an xn
b = b0 + b1 x + b2 x2 + · · · + bk xk (k ≤ n)

y desde luego an = 0 y bk = 0.
El polinomio c = a − (an b−1 k x
n−k )b es tal que ∂ (c) < n; luego, en

virtud de la hipótesis inductiva, existen q 1 , r ∈ F[x] tales que

c = bq1 + r , donde r = 0 o bien ∂ (r) < b

Pero entonces,

a − (an b−1
k x
n−k
)b = bq1 + r =⇒ a = b(an b−1
k x
n−k
+ q1 ) + r

donde q = an b−1
k x
n−k + q y r cumplen las condiciones.
1

Comentario 5.7.1. La demostración del Teorema 5.7.1 proporciona un


algoritmo para calcular el cociente q y el resto r de a “entre” b.
Por ejemplo, sean a = x7 − x3 + 5 y b = x3 + 7 polinomios sobre el
cuerpo Q de los racionales.
Hacemos a = a − x4 b = −7x4 − x3 + 5; como ∂ (a ) > ∂ (b), con-
tinuamos a = a + 7xb = −x3 + 49x + 5 y, nuevamente, ∂ (a ) ≥ ∂ (b);

200
Publicación digital de Editorial Equinoccio
5.7 P OLINOMIOS

luego proseguimos a = a + b = 49x + 12, donde ∂ (a ) < ∂ (b). En-
tonces, reconstruimos el polinomio a,

a = a + x4 b = (a − 7xb) + x4 b = (a − b) − 7xb + x4 b


=⇒ a = (x4 − 7x − 1)b + (49x + 12)
o sea que q = x4 − 7x − 1 , r = 49x + 12

Comentario 5.7.2. Habiendo establecido que F[x] es un DE con fun-


ción euclídea ∂ , puede aplicarse el algoritmo de Euclides y todo lo
deducido en la Sección 5.6.

Corolario 5.7.2. Dados los polinomios a ∈ F[x] y b ∈ F[x] ∗ , existen


q, r ∈ F[x] únicos tales que a = bq + r, con r = 0 o bien ∂ (r) < ∂ (b).
Demostración. El teorema anterior y la Proposición 5.6.1.

Corolario 5.7.3. (F[x], +, ×) es un DIP.


Demostración. Teorema 5.6.1.
De acuerdo con el Lema 5.6.1, sabemos que un polinomio p ∈ F[x] ∗
es inversible si, y sólo si, ∂ (p) = ∂ (1) = 0. Es decir, los únicos poli-
nomios inversibles son los de la forma p = a 0 = 0, los identificables con
elementos no nulos de F, los que hemos llamado “polinomios constan-
tes.” Así pues, todo polinomio de grado > 0 es no inversible.
Nótese que todo polinomio p de grado 1 es irreducible, pues si p =
st, entonces 1 = ∂ (s) + ∂ (t) implica que el grado de uno de los factores
es cero, por tanto inversible, y el otro factor resulta asociado a p.
Si un polinomio p ∈ F[x] de grado ∂ (p) = 2 carece de raíces, es
irreducible. En efecto, si p = st, entonces 2 = ∂ (s) + ∂ (t) y ∂ (s) =
1 , ∂ (t) = 1, pues de lo contrario, p tendría una raíz, de modo que,
digamos ∂ (s) = 0, en cuyo caso s es inversible, y p  t.

Definición 5.7.1. Decimos que un polinomio no nulo en F[x], de grado


n, es mónico si el coeficiente de xn es 1.
Tomemos cualquier polinomio p = a 0 + a1 x + a2 x2 + · · · + an xn ∈
F[x] con ∂ (p) = n, es decir, an = 0. Todo polinomio s asociado a p

201
Publicación digital de Editorial Equinoccio
5 A NILLOS

es tal que p = us (Definición 5.4.2), donde u ∈ F[x] es inversible y por


tanto u ∈ F∗ . Esto significa que el polinomio mónico

μ = a−1 −1 −1 −1 2 −1 n−1
n p = a0 an + a1 an x + a2 an x + · · · + an−1 an x + xn

está asociado a p : p  μ .
Si r es cualquier otro polinomio asociado a p, entonces r = vp,
donde v ∈ F∗ ; luego, r = (van )a−1
n p = (van ) μ y tenemos r  μ .
En resumen, cada clase de equivalencia por asociatividad está repre-
sentada por un polinomio mónico único.
Un ideal cualquiera {0} = I  F[x] es principal, pues hemos visto
que F[x] es un DIP, de modo que I = a F[x], donde a = 0 es un polinomio
en F[x]. Pero, de acuerdo con el Lema 5.4.2, a F[x] = b F[x] ⇐⇒ a  b,
así que elegimos el polinomio mónico único μ  a y resulta I = μ F[x].
En síntesis, podemos afirmar que cada ideal {0} = I  F[x] está
generado por un polinomio mónico μ = 0 único: I = μ F[x].
Si a, b ∈ F[x]∗ , sabemos que el máximo común divisor de a y b
es cualquier elemento (polinomio) de una cierta clase de asociatividad.
Podemos, pues, tomar de esa clase el único polinomio mónico que con-
tiene y considerarlo como el único máximo común divisor de a y b. Lo
mismo puede argumentarse en el caso del mínimo común múltiplo de a
y b y decir que se trata de un polinomio mónico único.

5.8 Funciones polinómicas


Estudiemos ahora las funciones inducidas por un dominio eucli-
deano F[x] de polinomios sobre un cuerpo F. Éstas constituyen una
numerosa y variada familia, como veremos.
Sea L un espacio vectorial sobre el cuerpo F, provisto de un “pro-
ducto” × de modo que (L , +, ×) es un anillo (no necesariamente abe-
liano) con neutro 1, y tal que r(c × d) = (rc) × d = c × (rd), para todo
r ∈ F y todo par c, d ∈ L .9

9 Escribiremos, casi siempre, cd en lugar de c × d, aunque usaremos × cuando con-


venga destacar el producto visualmente.

202
Publicación digital de Editorial Equinoccio
5.8 F UNCIONES POLINÓMICAS

La estructura L es lo que suele llamarse un álgebra lineal sobre


F y disponemos de un ejemplo de suprema importancia en esta obra,
introducido en la Sección 2.3; se trata del espacio L (E, E) de todas las
transformaciones lineales del espacio vectorial E (sobre F) en sí mismo.
En la sección anterior vimos que el mismo F[x] es un álgebra lineal
sobre F.
El propio cuerpo F puede considerarse como un álgebra lineal sobre
F, donde el producto por un escalar y el producto en el anillo (F, +, ×)
(cuerpo en este caso) son la misma operación.
Tomemos un polinomio p = a 0 + a1 x + a2 x2 + · · · + an xn fijo en F[x]
y, por abuso de notación, designamos también por p la función p : L →
L tal que, para todo c ∈ L ,

p(c) = a0 1 + a1 c + a2 c2 + · · · + an cn

(el 1 que aparece en a0 1 es el neutro 1 ∈ L en el anillo (L , +, ×); en


L (E, E) es la transformación identidad I ).
La expresión que define p(c) tiene perfecto sentido en L , pues de-
termina un elemento p(c) ∈ L .
Enfatizamos que el polinomio p y la función p definida arriba son
entes diferentes, de modo que, al designarlos por el mismo símbolo,
cometemos un abuso deliberado que no debe conducir a confusión.
Fijemos un c ∈ L cualquiera y consideremos la función φ c : F[x] →
L tal que, para todo p ∈ F[x], se define φc (p) = p(c).
Es un ejercicio rutinario verificar que φc es un homomorfismo entre
anillos, pues para p, q ∈ F[x],

φc (p + q) = (p + q)(c) = p(c) + q(c) = φc (p) + φc (q)


φc (pq) = (pq)(c) = p(c) × q(c) = φc (p) × φc (q)

El rango Im φc es un subanillo de L , obviamente abeliano (aunque


L no lo sea), y con neutro, puesto que el 1 ∈ L está en Im φ c , ya que
φc (p) = 1, para el polinomio p = 1 ∈ F[x]. Además, Im φ c contiene a
su vez un subanillo isomorfo con F, que es el conjunto de las imágenes
φc (p) de todos los “polinomios constantes” p = a 0 .

203
Publicación digital de Editorial Equinoccio
5 A NILLOS

Por el resto de esta sección nos limitamos al caso L = F. Allí, φ c


es sobreyectiva (un epimorfismo), pues si d ∈ F, entonces φ c (d) = d,
donde consideramos d como “polinomio constante.”
Si ocurre que p(c) = 0, decimos que c es una raíz o un cero del
polinomio p. Si p es el polinomio nulo, la función p es la idénticamente
nula y sus raíces son todos los elementos de F.

Lema 5.8.1. Regla de Ruffini.


Sean p ∈ F[x] y c ∈ F, y

p = q(x − c) + r

(de acuerdo con el Corolario 5.7.2).


Entonces, r = p(c)
Demostración. Según el Corolario 5.7.2, puede ser r = 0, en cuyo caso

p = q(x − c) =⇒ p(c) = φc (p) = φc (q) × φc(x − c) = φc (q) × 0 = 0

o bien, r = 0 y ∂ (r) < ∂ (x − c) = 1; pero entonces, ∂ (r) = 0 y r ∈ F, lo


cual implica

p(c) = φc (p) = φc (q) × φc (x − c) + φc (r) = φc (q) × 0 + r = r

Corolario 5.8.1. Sea p ∈ F[x].


Entonces,
p(c) = 0 ⇐⇒ (x − c) | p

Demostración. Según el Corolario 5.7.2, p = q(x − c) + r y, de acuerdo


con el Lema 5.8.1 r = p(c); pero x − c divide a p si, y sólo si, r = 0.

Teorema 5.8.1. Un polinomio no nulo p ∈ F[x] de grado ∂ (p) = n tiene


no más de n raíces.
Demostración. Procedemos por inducción en n = ∂ (p).

204
Publicación digital de Editorial Equinoccio
5.8 F UNCIONES POLINÓMICAS

Si n = 0, entonces p = a0 = 0 es un polinomio constante que carece


de raices. Para n = 1: p = a0 + a1 x con a1 = 0 tiene sólo una raíz:
−a0 a−1
1 .
Supongamos que el teorema es cierto para todo polinomio de grado
< n y consideremos un p ∈ F[x] con ∂ (p) = n > 1.
Si p carece de raíces, no hay nada que probar.
Supongamos que p admite una raíz c ∈ F : p(c) = 0.
Según el Corolario 5.8.1, p = q(x − c), de modo que ∂ (p) = ∂ (q) +
1 =⇒ ∂ (q) < ∂ (p) = n, es decir, ∂ (q) ≤ n−1. Además, toda raíz d ∈ F
de q (si la tiene) es raíz de p, pues p(d) = φd (p) = φd (q) × φd (x − c) =
q(d) × (d − c) = 0. En virtud de la hipótesis inductiva, q tiene no más
de n − 1 raíces; luego, p no tiene más de (n − 1) + 1 = n raíces.

El teorema precedente provoca de inmediato la pregunta de si todo


polinomio en F[x] de grado ≥ 1 admite al menos una raíz. Es una
cuestión muy profunda y que depende de la íntima naturaleza del cuer-
po F.
Es trivial, desde luego, que un polinomio p = a 0 + a1 x de grado 1
admite una raíz (= −a0 a−11 ), cualquiera que sea el cuerpo F. El asunto
es preguntarse si todo polinomio p de grado ∂ (p) > 1 tiene raíces.
Del Corolario 5.8.1 se infiere que si un polinomio p con ∂ (p) > 1
admite una raíz, entonces p es reducible.
La cuestión planteada es pues equivalente a preguntarse si los únicos
irreducibles en F[x] son los polinomios de grado 1.
Definición 5.8.1. Decimos que un cuerpo F es algebraicamente cerrado
si todo polinomio en F[x] de grado ≥ 1 admite una raíz, o lo que es lo
mismo, si los únicos irreducibles en F[x] son los polinomios cuyo grado
es 1.
El cuerpo R de los números reales no es algebraicamente cerrado,
y los ejemplos de polinomios en R[x], con grado > 1, que carecen de
raíces son muy fáciles de proporcionar; el ejemplo por excelencia es
1 + x2 , también 3 − x + 2x2 , etc. Estos son, por cierto irreducibles, pero
(1 + x2 ) × (3 − x + 2x2 ) es obviamente reducible y carece de raíces.
Tampoco el cuerpo Q de los racionales es algebraicamente cerrado,
como es fácil de ver, dado que Q ⊂ R; por ejemplo, 1 + x2 ∈ Q[x]. Y

205
Publicación digital de Editorial Equinoccio
5 A NILLOS

podemos proporcionar polinomios de mayor grado sin raíces, digamos,


2 − x3 ∈ Q[x].
La naturaleza del cuerpo C de los números complejos fue un enigma
hasta que Gauss demostró en 1799 10 que es algebraicamente cerrado:
todo polinomio en C[x] de grado ≥ 1 admite al menos una raíz en C.
Este resultado recibió el nombre de Teorema Fundamental del Álgebra
y así sigue llamándose por tradición. Gauss dio a conocer tres prue-
bas más durante su vida y, hoy día se conocen muchas demostraciones
distintas (véanse [8], [15], [27]).
No se conoce –ni se considera posible– una prueba del Teorema
Fundamental que utilice exclusivamente nociones algebraicas. Todas
las demostraciones hacen uso de conocimientos topológicos, analíticos
(variable compleja) y desde luego algebraicos en diversas dosis.
No demostraremos el Teorema Fundamental en esta obra, ni será
invocado en prueba alguna. Sólo cuando se establece la forma canónica
de Jordan se exige que el cuerpo F en cuestión sea algebraicamente
cerrado y diremos que tal es el caso con C.
Es consecuencia relativamente inmediata del Teorema Fundamental
que todo polinomio irreducible en R[x] es de grado 1 o 2.
Hagamos una última consideración antes de cerrar esta sección.
Hemos visto que todo polinomio p ∈ F[x] da origen a una función
polinómica p : F → F tal que c ∈ F → p(c).
Es importante preguntarse si dos polinomios distintos pueden in-
ducir la misma función. Pues bien, si el cuerpo F tiene infinitos elemen-
tos, podemos afirmar que, si p, q ∈ F[x] dan origen a la misma función,
entonces p = q, es decir, son idénticos como polinomios.
En efecto, todo elemento de F es raíz del polinomio p − q, pero, si
fuese p − q = 0, el Teorema 5.8.1 indica que p − q tiene sólo un número
finito de raíces; se infiere que p − q ha de ser el polinomio nulo.
En cambio, supongamos que F es un cuerpo finito, 11

F = {c1 , c2 , . . . , cn }

10 Tenía 22 años de edad.


11 Por ejemplo, Zm , donde el entero m es primo.

206
Publicación digital de Editorial Equinoccio
5.9 E JERCICIOS

Entonces, el polinomio p = (x − c 1 )(x − c2 ) . . .(x − cn ) ciertamente


no es nulo (∂ (p) = n); no obstante, induce la función idénticamente
nula c ∈ F → p(c) = 0.

5.9 Ejercicios
1. Segundo teorema del isomorfismo en anillos:
Si I y J son ideales de un anillo A , entonces, los anillos cocientes
I +J I
y
J I ∩J
son isomorfos.

2. Sean D un DIP, A un dominio de integridad y ψ : D → A un


epimorfismo.
Probar que, si ψ no es un isomorfismo, entonces A es un cuerpo.

3. Demostrar que un dominio de integridad que sólo admite un nú-


mero finito de ideales es un cuerpo.
4. Sea A un anillo abeliano con neutro.
Supongamos que J  A es tal que J = A y, si existe un K  A
con J ⊂ K, entonces K = J o bien K = A .
Un ideal J con esa propiedad se llama ideal maximal.
Demostrar que el anillo cociente A /J es un cuerpo si, y sólo si,
J es un ideal maximal.

5. Sea A un anillo abeliano con neutro.


Se dice que A es un anillo noetheriano si satisface la siguiente
propiedad:
Para toda sucesión creciente de ideales de A ,
I1 ⊂ I2 ⊂ · · · ⊂ In ⊂ · · ·

207
Publicación digital de Editorial Equinoccio
5 A NILLOS

existe un entero k ≥ 1 tal que, para todo n ≥ k, se tiene In = Ik


(El Lema 5.5.1 demuestra que todo DIP es un anillo noetheriano).
Probar que todo anillo noetheriano admite ideales maximales.
Más aún, si J  A y J = A , probar que existe un ideal maximal
que contiene a J.

6. Para elementos ai de un DIP, probar que


mcd (a1 , . . . , an ) = mcd (mcd (a1 , . . . , an−1 ), an )

Sugerencia: inducción en n.

7. Para elementos ai , c de un DIP, probar que


mcd (c a1 , . . . , c an ) = c mcd (a1 , . . . , an )

Sugerencia: inducción en n y el ejercicio anterior.

8. Sea D un DIP y sean a, b ∈ D.


Sea m = mcm (a, b). Entonces existen a1 , b1 ∈ D tales que m =
aa1 = bb1 .
Probar que mcd (a1 , b1 ) = 1.

9. Sea D un DIP y sean a, b ∈ D.


Si d = mcd (a, b) y c =mcm (a, b), probar que ab  cd, es decir,
ab = ucd, donde u ∈ D es inversible.
En particular, si mcd (a, b) = 1, entonces ab =mcm (a, b).
Observación: Vale la pena notar que, en consecuencia del resul-
tado
mcd (a, b) × mcm (a, b) = a × b
podemos calcular el mcm (a, b) si conocemos el mcd (a, b). Esto
significa que, si D es un DE, puede aprovecharse el algoritmo
diseñado en la Sección 5.6 para obtener el mcm (a, b).

208
Publicación digital de Editorial Equinoccio
5.9 E JERCICIOS

10. Sea D un DIP y sean a, b, c ∈ D.


Si mcd (a, b) = 1, probar que

a|c y b|c =⇒ (ab) | c

11. Para elementos ai , b de un DIP, sean

m = mcm (a1 , a2 , . . ., an )
di = mcd (ai , b) (i = 1, 2, . . ., n)

Demostrar que

mcd (m, b) = mcm (d1 , d2 , . . ., dn )

Sugerencia: inducción en n.

12. Para elementos ai , b de un DIP, sean

d = mcd (a1 , a2 , . . . , an )
mi = mcm (ai , b) (i = 1, 2, . . ., n)

Demostrar que

mcm (d, b) = mcd (m1 , m2 , . . . , mn )

Sugerencia: inducción en n.

13. Dados los enteros a > b ≥ 1, sea d = mcd (a, b).


Con referencia al ejercicio 6 de la página 155, demostrar que

d = (−1)n+1 a [q2, . . . , qn ] + (−1)n b [q1 , q2 , . . . , qn ]

donde q1 , q2 , . . ., qn son los cocientes sucesivos en el algoritmo de


Euclides aplicado a a y b hasta llegar al máximo común divisor.

209
Publicación digital de Editorial Equinoccio
5 A NILLOS

14. Calcular el máximo común divisor d = mcd (378, 138) y los en-
teros s,t tales que d = 378s + 138t

15. Sea (Zm , +, ·) el anillo cociente de Z con respecto al ideal mZ.


Demostrar que un n ∈ Zm es inversible con respecto al producto
si, y sólo si, mcd (n, m) = 1.

16. Considérese el sistema de ecuaciones lineales




⎪ 6x +2y −z = 7

2x +2y +7z = a

⎪ 2x +4y +2z = a − 2

2x +2y +4z = a + 6

cuyos coeficientes (incluyendo a) están en un cuerpo F.


Estudiar y resolver el sistema cuando

(a) F = R (cuerpo de los reales);


(b) F = Z3 (cuerpo de tres elementos);
(c) F = Z2 (cuerpo de dos elementos).

17. Se dice que un elemento a de un anillo es nilpotente si a k = 0 para


algún entero k ≥ 1.
Dar un ejemplo de un anillo con un elemento nilpotente distinto
de 0.
Si a es nilpotente, demostrar que a − 1 es inversible (en un anillo
con 1).

18. Sea A un anillo abeliano con neutro y sea N el conjunto de sus


elementos nilpotentes.
Demostrar que N es un ideal y que el anillo cociente A /N
carece de elementos nilpotentes = 0.

210
Publicación digital de Editorial Equinoccio
5.9 E JERCICIOS

19. Sea D un DIP y a, b, c ∈ D tales que a | bc y mcd (a, b) = 1.


Probar que a divide a c.

20. Probar que el conjunto de números reales


√ √
Z[ 2] = {p + q 2 | p, q ∈ Z}

es un dominio de integridad con respecto a las operaciones:


√ √ √
(a + b 2) + (c + d 2) = (a + c) + (b + d) 2
√ √ √
(a + b 2) × (c + d 2) = (ac + 2bd) + (ad + bc) 2

21. Demostrar que el dominio (Z[ 2], +, ×) del √ ejercicio anterior es
un dominio euclideano
√ con
√ ∗ respecto a υ : Z[ 2]∗ → Z+ tal que,
para todo a + b 2 ∈ Z[ 2] ,

υ (a + b 2) = |a2 − 2b2 |

(Pregunta de examen en la Universidad de Oxford, 1968)

22. Sea p ∈ F[x] de grado ∂ (p) = 1. Probar que el anillo cociente


F[x]/p es isomorfo con F.

23. Demostrar que el anillo cociente R[x]/(1 + x2 ) es isomorfo con el


cuerpo C de los complejos.

24. Mostrar, mediante ejemplos concretos, que en el dominio Q[x]


de los polinomios sobre el cuerpo Q de los números racionales
existen polinomios irreducibles de todos los grados ≥ 1.

25. Hallar el cociente y el resto en la división euclideana del polino-


mio x2 − 3ix + 5(1 + i) entre x − 1 + i en C[x].

26. Determinar los números reales a y b de modo que el polinomio


x2 + 2 divida a x4 + x3 + ax2 + bx + 2 en R[x].

211
Publicación digital de Editorial Equinoccio
5 A NILLOS

27. Determinar la multiplicidad de la raíz 2 en el polinomio


x5 − 5x4 + 7x3 − 2x2 + 4x − 8

28. Calcular el máximo común divisor de los siguientes polinomios


en Q[x]
a = x3 + 2x2 + 2x + 1 y b = x2 + x + 2

29. Calcular el máximo común divisor y el mínimo común múltiplo


de los polinomios
x5 − x4 − x3 + 2x + 2 x4 + 5x3 + 10x2 + 9x + 5

30. Considérese la función Φ : F[x] → FF , donde FF es el anillo abe-


liano con neutro (operaciones puntuales) de todas las funciones:
F → F.
Se define Φ de modo que, para cada polinomio
p = a0 + a1 x + a2 x2 + · · · + an xn
entonces Φ(p) : F → F es tal que
Φ(p)(c) = p(c) = a0 + a1 c + a2 c2 + · · · + an cn

Demostrar que Φ es un homomorfismo de anillos y que es inyec-


tivo (un monomorfismo) si, y sólo si, F es infinito.

31. Si c1 , c2 , . . . , cm son raíces distintas de un polinomio p ∈ F[x], pro-


bar que
(x − c1 ) × (x − c2 ) × · · · × (x − cm )
divide a p.

32. Si el polinomio p ∈ F[x] de grado ∂ (p) = n admite n raíces dis-


tintas c1 , c2 , . . ., cn , probar que
p = a (x − c1 ) × (x − c2 ) × · · · × (x − cn )
donde a ∈ F.

212
Publicación digital de Editorial Equinoccio
C APÍTULO 6
Módulos

6.1 Concepto y propiedades básicas


Adoptamos el mismo principio que orientó el tratamiento de anillos.
Nuestro estudio de módulos se limita sólo a aquello que es pertinente al
álgebra lineal que desarrollamos en esta obra.
La teoría general de módulos es hoy un vasto, complejo y especiali-
zado territorio del Álgebra. Tocaremos sólo una porción muy reducida
del tema. En la bibliografía se incluyen algunas obras dedicadas a los
módulos para un lector interesado.
Un espacio vectorial es un grupo abeliano provisto de una ley de
composición externa cuyos escalares constituyen un cuerpo; un módulo
responde a la misma descripción, sólo que la estructura de los escalares
es un anillo. Un espacio vectorial es un caso particular de módulo.
Sea M un conjunto no vacío provisto de una operación binaria + tal
que la estructura (M, +) es un grupo abeliano.
Suponemos además que M está provisto de una ley de composición
externa cuyo conjunto de escalares es un anillo con neutro (A , +, ·), y
que esta ley externa satisface las propiedades siguientes

distributiva 1 α (x + y) = α x + α y ∀α ∈ A ∀x, y ∈ M
distributiva 2 (α + β )x = α x + β x ∀α , β ∈ A ∀x ∈ M
asociativa (αβ )x = α (β x) ∀α , β ∈ A ∀x ∈ M
producto por 1 1x = x ∀x ∈ M

Cometemos los mismos abusos de notación –en beneficio de la sen-


cillez– que nos permitimos con los espacios vectoriales. Adoptamos el

213
Publicación digital de Editorial Equinoccio
6 M ÓDULOS

mismo símbolo de suma + en M y en el anillo A ; así como el 0 en


M y en A con significado evidente en cada caso; el producto en A lo
escribimos αβ del mismo modo que el “producto” α x de un escalar de
A por un elemento de M de acuerdo con la ley externa.
Decimos que M, con la estructura descrita, es un módulo sobre A o
también que M es un A -módulo.
Antes de mostrar algunos ejemplos vamos a establecer unas pocas
propiedades básicas que son consecuencia directa de la definición de un
A -módulo M. No debe sorprendernos que estas propiedades elementa-
les sean compartidas con los espacios vectoriales.
Empleamos letras x, y, z, . . . para designar elementos de M y letras
griegas α , β , λ , . . . para elementos de A .
Omitimos las demostraciones por ser idénticas a las dadas en la Sec-
ción 1.1 para un espacio vectorial.

1. Cancelar con respecto a la suma en M:

x+z = y+z =⇒ x = y

2. 0x = 0

3. λ 0 = 0

4. −(α x) = (−α )x ; en particular, −x = (−1)x

5. λ (−x) = −λ x

Es muy importante destacar que, a diferencia de un espacio vecto-


rial, en un módulo M puede ocurrir que λ x = 0, a pesar de que λ = 0 y
x = 0. También puede suceder que λ = 0 y x = y, pero λ x = λ y. Así
mismo, x = 0 y α x = β x no implica, en general, que α = β .
Veamos algunos ejemplos.

• Ya hemos mencionado que todo espacio vectorial es un módulo


(sobre un anillo que es un cuerpo).

214
Publicación digital de Editorial Equinoccio
6.1 C ONCEPTO Y PROPIEDADES BÁSICAS

• Todo anillo A con neutro puede considerarse como un A -mó-


dulo que designamos por A A . En efecto, (A , +) es un grupo
abeliano y el “producto” (ley externa) de un escalar α ∈ A por
un elemento x ∈ A es simplemente el producto α x ∈ A en el
anillo A . Es trivial verificar que, de este modo, A se convierte
en un A -módulo.

• Sea A n el conjunto de todos los n-tuples ordenados


( α1 , α2 , . . . , αn )
de elementos de un anillo A .
La suma se define como
(α1 , α2 , . . . , αn ) + ( β 1 , β 2 , . . . , β n )
= (α1 + β1 , α2 + β2 , . . ., αn + βn )
y es rutinario comprobar que (A n , +) es un grupo abeliano.
El anillo de escalares es A y la ley externa se define como
λ ( α1 , α2 , . . . , αn ) = ( λ α1 , λ α2 , . . . , λ αn )
para cualquier λ ∈ A .
Se deja al lector la verificación de que A n , provisto de la estruc-
tura descrita, es un módulo sobre A .

• Todo grupo abeliano (M, +) puede considerarse como un módulo


sobre el dominio Z de los enteros.
En efecto, para n ∈ Z y x ∈ M, definimos la ley de composición
externa
0x = 0
n
  
∀n > 0 : nx = x + x + · · · + x
−n
  
∀n < 0 : nx = (−n)(−x) = (−x) + (−x) + · · · + (−x)

215
Publicación digital de Editorial Equinoccio
6 M ÓDULOS

con respecto a la cual se comprueba de inmediato que M es un


Z-módulo.
Recíprocamente, es interesante percatarse de que todo Z-módulo
es un grupo abeliano (obvio) cuya ley externa es precisamente la
señalada arriba.
En efecto, si n > 0 y x ∈ M, por propiedad definitoria de la ley
externa, tenemos
n n
     
nx = (1 + 1 + · · · + 1)x = x + x + · · · + x

Y en virtud de las propiedades elementales anotadas arriba: 0x =


0 y, si n < 0, entonces nx = (−n)(−x).
En síntesis, un grupo abeliano (M, +) es lo mismo que un Z-
módulo M, y puede considerarse como uno u otro según con-
venga.

• Sea E un espacio vectorial sobre un cuerpo F y ϕ : E → E una


transformación lineal.
El espacio E es un módulo sobre F[x] de la manera siguiente.
(E, +) es el grupo abeliano del espacio vectorial y la ley externa
se define, para p = a0 + a1 x + · · · + an xn ∈ F[x] y v ∈ E, como
pv = p(ϕ )(v) = (a0 I + a1 ϕ + a2 ϕ 2 + · · · + an ϕ n )(v)

No nos detendremos en este punto a verificar que se trata de un


F[x]-módulo, aunque el lector haría bien en hacerlo. Baste con
decir que este caso es la justificación de la inclusión de módu-
los en un texto de álgebra lineal. Este módulo será estudiado en
detalle más adelante con enorme provecho.

6.2 Submódulos
El lector notará al principio una apreciable semejanza con los es-
pacios vectoriales. Pero, cuidado, a partir de cierto punto los módulos
revelan una conducta muy distinta.

216
Publicación digital de Editorial Equinoccio
6.2 S UBMÓDULOS

Definición 6.2.1. Sea M un módulo sobre un anillo A (con neutro).


Decimos que S ⊂ M es un submódulo de M si S = ∅ y cumple la condi-
ción
∀ α , β ∈ A y ∀ x, y ∈ S : α x + β y ∈ S

Nótese que siempre 0 ∈ S, pues, como S = ∅, existe un x ∈ S y


aplicamos la definición para obtener

0 = 0x + 0x ∈ S

Y puede suceder que S sea sólo el submódulo trivial S = {0}.


Se infiere de inmediato de la definición que S es cerrado con res-
pecto a la suma en M y al producto por un escalar; es decir, x + y =
1x + 1y ∈ S y λ x = λ x + 0x ∈ S.
Esto significa que S provisto de la suma (en M) y de la ley externa
sobre A es un A -módulo por su propia cuenta.
En efecto, la asociatividad y la conmutatividad de la suma vienen
dadas; 0 ∈ S; si x ∈ S, entonces −x = (−1)x ∈ S; y la validez de las
cuatro propiedades relativas a la ley externa no requiere comentario.
Un ejemplo sencillo de submódulo de M es tomar un x ∈ M fijo y
considerar (los “múltiplos” de x)

A x = {λ x | λ ∈ A }

Si x = 0 tenemos el submódulo trivial S = {0}.


Otro submódulo obvio es el propio M.
En un espacio vectorial sobre un cuerpo F, considerado como F-
módulo, los submódulos son precisamente sus subespacios.
Si el anillo A es abeliano y tomamos un λ ∈ A fijo,

λ M = {λ x | x ∈ M}

es un submódulo, pues α (λ x) + β (λ y) = λ (α x + β y).


Si M es un grupo abeliano, visto como Z-módulo, sus submódulos
son precisamente los subgrupos, como es fácil de corroborar.

217
Publicación digital de Editorial Equinoccio
6 M ÓDULOS

Si consideramos un anillo abeliano con neutro A como el módulo


A A , sus submódulos son los ideales de A (basta con mirar la defini-
ción de submódulo).
Es evidente que la intersección en cualquier familia (finita o infinita)
de submódulos –que no es vacía pues siempre contiene a 0 ∈ M– es un
submódulo. Esto permite el concepto de submódulo generado por cual-
quier conjunto X ⊂ M, como la intersección en la familia de todos los
submódulos que contienen a X (familia no vacía pues contiene al menos
a M) y es claro que se trata del “mínimo” submódulo que contiene a X.
Se percibe de inmediato que A x es precisamente el submódulo ge-
nerado por el conjunto {x} ⊂ M. A tales submódulos se les llama cícli-
cos.

Definición 6.2.2. Decimos que el A -módulo M es cíclico si M = A x


para algún x ∈ M.
Un grupo abeliano, considerado como Z-módulo, es cíclico si, y
sólo si, es cíclico como grupo.
Observamos arriba que los submódulos del módulo A A sobre un
anillo abeliano con neutro A son precisamente los ideales de A . Es
evidente que los submódulos cíclicos de A A son los ideales princi-
pales.
Por otro lado, la unión de submódulos no es, en general, un sub-
módulo, pero es fácil identificar el submódulo generado por su unión.
Sean en efecto los submódulos S, T de M; se infiere de inmediato que
el conjunto
S + T = {x + y | x ∈ S , y ∈ T}
es un submódulo y muy obvio que es el “mínimo” que contiene S ∪ T.
Interesa especialmente el caso S ∩ T = {0}, y escribimos S ⊕ T (en
lugar de S + T) y decimos que S y T están en suma directa.
Esto ocurre si, y sólo si, cada z ∈ S + T tiene representación única
como z = x + y, donde x ∈ S y y ∈ T. En efecto, si S ∩ T = {0} y
tenemos z = x + y = x + y , entonces x − x = y − y ∈ S ∩ T, de donde
x = x , y = y . Recíprocamente, si la representación de cada elemento
de S + T es única y z ∈ S ∩ T, observamos que, si z = 0, tendríamos

218
Publicación digital de Editorial Equinoccio
6.2 S UBMÓDULOS

dos representaciones distintas z = z + 0 = 0 + z; o sea que forzosamente


S ∩ T = {0}.
La suma de submódulos se generaliza evidentemente a cualquier
número de ellos, para obtener el nuevo submódulo

S1 + S2 + · · · + Sn = {x1 + x2 + · · · + xn | xi ∈ Si para i = 1, 2, . . ., n}

Y la suma es directa S1 ⊕ S2 ⊕ · · · ⊕ Sn cuando

Sk ∩ ∑ Si = {0} para k = 1, 2, . . ., n
i=k

En primer lugar, esta definición de ⊕ es consistente con el caso


n = 2. Y en segundo lugar, veamos que mantiene la propiedad que
caracteriza la unicidad de la representación.

Proposición 6.2.1. Dados los submódulos S 1 , S2 , . . . , Sn del A -módulo


M, su suma es directa: S1 ⊕ S2 ⊕ · · · ⊕ Sn , si, y sólo si, cada z ∈ S1 +
S2 + · · · + Sn es expresable de manera única como

z = x1 + x2 + · · · + xn , donde xi ∈ Si , para i = 1, 2, . . ., n

Demostración. Tengamos que la suma es directa, y probemos la unici-


dad de la representación para cada z de ese submódulo.
Para n = 2 la unicidad ha sido demostrada.
Sea cualquier z = x1 + x2 + · · · + xn donde xi ∈ Si para i = 1, 2, . . ., n.
Tomemos uno de estos xk ∈ Sk y probemos que es único. En efecto,
el submódulo
T = ∑ Si
i=k

es tal que Sk ⊕ T y z = xk + y, donde y = ∑i=k xi , de modo que xk (lo


mismo que y) es único.
Recíprocamente, supongamos que, para cada z ∈ S1 + S2 + · · · + Sn ,
la representación z = x1 + x2 + · · · + xn donde xi ∈ Si para i = 1, 2, . . ., n
es única.

219
Publicación digital de Editorial Equinoccio
6 M ÓDULOS

Entonces es única la representación z = xk + y, donde y = ∑i=k xi , lo


cual implica que

Sk ∩ ∑ Si = {0} para 1 ≤ k ≤ n
i=k

es decir, S1 ⊕ S2 ⊕ · · · ⊕ Sn .

Resulta conveniente y práctico introducir la siguiente notación.


Sea M un A -módulo.
Si B ⊂ A y X ⊂ M, definimos
 


BX = ∑ βi xi (sumas finitas)  βi ∈ B , xi ∈ X (6.2.1)
i 

Si X = {x}, entonces A {x} = A x = {λ x | λ ∈ A }; pues es obvio


que A x ⊂ A {x}, y un elemento cualquiera de A {x} es de la forma
∑i αi x = (∑i αi )x que pertenece a A x, luego A {x} ⊂ A x.
Si B = {λ }, entonces {λ }M = λ M = {λ x | x ∈ M}. En efecto,
es evidente que λ M ⊂ {λ }M; por otro lado, un elemento cualquiera de
{λ }M es de la forma ∑i λ xi = λ (∑i xi ) ∈ λ M, por tanto {λ }M ⊂ λ M.

Lema 6.2.1. Dado un A -módulo M y ∅ = X ⊂ M, se tiene:

1. Si I  A , entonces IX es un submódulo de M.

2. Si el anillo A es abeliano con neutro e I = d A es un ideal prin-


cipal, entonces IM = d M.

3. A X es el submódulo generado por X.

4. Si X = {x1 , x2 , . . . , xm } es finito, entonces

A X = A x1 + A x2 + · · · + A xm

220
Publicación digital de Editorial Equinoccio
6.2 S UBMÓDULOS

Demostración.
(1) Tomemos un par de elementos cualesquiera de IX ,
z = ∑ λixi , w = ∑ η j yi
i j

donde las sumas son finitas, los λ i , η j ∈ I y los xi , y j ∈ X.


Entonces, para todo α , β ∈ A ,
αz + β w = ∑ αλixi + ∑ β η j yi
i j

y la expresión de la derecha es una suma finita en la cual los coeficientes


escalares αλi , β η j ∈ I (por ser I un ideal) y los xi , y j ∈ X. O sea que
α z + β w ∈ IX y se concluye que IX es un submódulo.
(2) Es obvio que d M ⊂ IM.
Tomemos un z = ∑i λi xi ∈ IM cualquiera. Ocurre que cada λi = d αi ,
pues I = d A ; luego, z = d (∑i αi xi ) ∈ d M. Es decir, IM ⊂ d M.
(3) En primer lugar, X ⊂ A X, pues x = 1x ∈ A X, para cada x ∈ X.
En virtud de (1), A X es un submódulo (pues A  A ) y, como todo
elemento de A X es de la forma ∑i αi xi , donde los xi ∈ X, es claro que
A X está contenido en todo submódulo que contiene a X.
(4) Es evidente que el submódulo A x1 + A x2 + · · · + A xm ⊂ A X, pero
también X ⊂ A x1 + A x2 + · · · + A xm (pues xk = 0x1 + · · · + 1xk + · · · +
0xm ). Y como A X es el submódulo generado por X, según (3), se
concluye que A X = A x1 + A x2 + · · · + A xm .

El tipo especial de módulo que vamos a definir tiene importancia


decisiva en esta obra.
Definición 6.2.3. Decimos que un A -módulo M es de generador finito
(FG) si existe un conjunto finito X ⊂ M que genera M. En otras pala-
bras, de acuerdo con (3) del Lema 6.2.1, M es FG si M = A X, donde
X = {x1 , . . . , xn }, y además se tiene M = A x1 + · · · + A xn (por (4) del
Lema 6.2.1).
Por definición, un módulo cíclico es FG, puesto que está generado
por un solo elemento.

221
Publicación digital de Editorial Equinoccio
6 M ÓDULOS

Un espacio vectorial sobre un cuerpo F, visto como módulo sobre F,


es FG si, y sólo si, es de dimensión finita. Y es cíclico si su dimensión
es 1 o bien se trata del espacio trivial {0}.
Comentario 6.2.1. Ya hemos advertido que el comportamiento de los
módulos puede diferir dramáticamente del de los espacios vectoriales.
Por ejemplo, sabemos que todos los subespacios de un espacio vectorial
de dimensión finita (FG) son de dimensión finita; por el contrario, es
posible que un módulo FG admita algunos submódulos que no son FG.
Ejemplos de tal fenómeno son complicados y los módulos que nos in-
teresan no sufren de tan grave patología. Se entiende que todo depende
de la naturaleza del anillo de escalares.

6.3 Módulos cocientes


Esta sección es casi idéntica a la correspondiente en espacios vecto-
riales.
Sea S un submódulo del A -módulo M.
Definimos una relación binaria ∼ sobre M tal que, para x, y ∈ M,

x∼y ⇐⇒ x−y ∈ S (6.3.1)

y comprobamos que se trata de una relación de equivalencia. En efecto,


Reflexividad: x ∼ x (∀x ∈ M) (pues x − x = 0 ∈ S);
Simetría: x ∼ y =⇒ y ∼ x (pues x − y ∈ S =⇒ y − x = −(x − y) ∈ S);
Transitividad: (x ∼ y) ∧ (y ∼ z) =⇒ x ∼ z (pues x − y, y − z ∈ S implica
x − z = (x − y) + (y − z) ∈ S).
Veamos ahora que la suma en M y la ley externa sobre el anillo A
son estables con respecto a ∼ (Apéndice C):
Si (x ∼ x )∧(y ∼ y ), entonces x−x , y−y ∈ S y (x+y)−(x +y ) =
(x − x ) + (y − y ) ∈ S, o sea que x + y ∼ x + y y la suma es estable.
En consecuencia, la suma en M induce una operación binaria, que
también llamaremos suma y designamos por +, en el conjunto cociente
respecto ∼ (Apéndice C), que designaremos por
M
S

222
Publicación digital de Editorial Equinoccio
6.3 M ÓDULOS COCIENTES

Sabemos (Apéndice C) que la estructura (M/S, +) es un grupo abe-


liano, pues la operación inducida + hereda la asociatividad y la conmu-
tatividad; su elemento neutro es 0 = S, y también sabemos que −x = −x.
La clase de equivalencia x puede expresarse también como

x = x+S (6.3.2)

donde
x + S = {x + y | y ∈ S}
Así mismo, la ley externa es estable con respecto a ∼.
En efecto, si x ∼ y y λ ∈ A , entonces

x−y ∈ S =⇒ λ x − λ y = λ (x − y) ∈ S =⇒ λx ∼ λy

y (Apéndice C) queda bien definida una ley de composición externa en


M/S, cuyo conjunto de escalares es el anillo A ,

∀λ ∈ A , ∀ x ∈ M/S : λx = λx

Se comprueba de inmediato que esta ley externa satisface las cuatro


propiedades que hacen del grupo abeliano M/S un A -módulo.
En síntesis, dado un submódulo S de M, queda definido, de la ma-
nera descrita, el módulo cociente M/S.
Si se quiere emplear la expresión (6.3.2) en el módulo cociente, es
fácil comprobar que

α (x + S) + β (y + S) = (α x + β y) + S
x + S = 0 = S ⇐⇒ x ∈ S
−(x + S) = −x + S

Si fuese S = M, obtenemos el módulo cociente trivial constituido


sólo por el 0.
Y, si S = {0}, el módulo cociente es indistinguible del propio M,
pues x ∼ y ⇐⇒ x = y.

223
Publicación digital de Editorial Equinoccio
6 M ÓDULOS

Comentario 6.3.1. Cabe exactamente el mismo Comentario 1.3.1 rela-


tivo a los espacios vectoriales cocientes y con idénticos argumentos.
Una relación de equivalencia ∼ sobre un A -módulo M, con res-
pecto a la cual son estables la suma en M y la ley externa sobre A , de-
termina un submódulo, que es precisamente S = 0, y ∼ satisface (6.3.1).
Existe pues una correspondencia biunívoca entre la familia de los
submódulos de M y todos los posibles módulos cocientes de M.

6.4 Homomorfismos entre módulos


Tenga el lector muy presente la Sección 2.1 sobre transformaciones
lineales, pues mucho de lo que sigue es análogo y varias de las de-
mostraciones son idénticas.
Sean M y N dos módulos sobre el mismo anillo A .

Definición 6.4.1. Decimos que una función ψ : M → N es un homomor-


fismo si, para todo x, y ∈ M y todo par de escalares α , β ∈ A , se tiene

ψ (α x + β y) = αψ (x) + β ψ (y) (6.4.1)

Se infiere de esta definición que ψ (x + y) = ψ (x) + ψ (y) , ψ (λ x) =


λ ψ (x), para elementos cualesquiera x, y ∈ M y escalar λ ∈ A . Es un
caso específico del concepto general de homomorfismo entre estruc-
turas algebraicas, como puede verse en el Apéndice B.
Por inducción evidente se tiene que, para x1 , x2 , . . . , xk ∈ M cua-
lesquiera y escalares α1 , α2 , . . . , αk ∈ A ,

ψ (α1 x1 + α2 x2 + · · · + αk xk ) = α1 ψ (x1 ) + α2 ψ (x2 ) + · · · + αk ψ (xk )

Además,

• ψ (0) = 0 (tomemos x ∈ M : 0 = 0x =⇒ ψ (0) = 0ψ (x) = 0).

• ψ (−x) = −ψ (x) (consecuencia de que −x = (−1)x).

224
Publicación digital de Editorial Equinoccio
6.4 H OMOMORFISMOS ENTRE MÓDULOS

Es obvio que la función idénticamente nula x → 0 (∀x ∈ M) es un


homomorfismo que llamaremos nulo y que designaremos usualmente
por O. Si N = M, la función identidad I : M → M, donde I (x) =
x (∀x ∈ M), es un homomorfismo.
Si A es un cuerpo, vale decir, si M y N son espacios vectoriales, es
claro que un homomorfismo ψ : M → N es una transformación lineal.
Consideremos el A -módulo A A y sea ψ : A A → A A un homo-
morfismo (endomorfismo) entre módulos. Nótese que, para un escalar
α ∈ A y un elemento x ∈ A , tenemos ψ (α x) = αψ (x). Esto significa
que ψ no es un homomorfismo del anillo A en el anillo A , pues si lo
fuese tendríamos ψ (α x) = ψ (α )ψ (x).
Por ejemplo, se comprueba fácilmente que γ : C → C, tal que γ (a +
bi) = a − bi, es un homomorfismo (automorfismo en este caso) del
cuerpo C de los complejos en sí mismo. Pero γ no es un homomorfismo
(transformación lineal) del C-módulo (espacio vectorial, pues C es un
cuerpo) C C en sí mismo. En efecto, γ (i.i) = (−i).(−i) = i 2 = −1; pero
si γ fuese una transformación lineal, deberíamos tener γ (i.i) = iγ (i) =
i.(−i) = −(i2 ) = 1.
Es importante tener en cuenta la diferencia entre homomorfismos de
anillos y los de módulos.

Teorema 6.4.1. Sea ψ : M → N un homomorfismo.


Entonces,

1. si S es un submódulo de M,

ψ (S) = {ψ (x) | x ∈ S}

es un submódulo de N;

2. si T es un submódulo de N,

ψ −1 (T) = {x ∈ M | ψ (x) ∈ T}

es un submódulo de M.

Demostración. Idéntica a la prueba del Teorema 2.1.1.

225
Publicación digital de Editorial Equinoccio
6 M ÓDULOS

El homomorfismo ψ : M → N origina los submódulos kernel y rango


de ψ , definidos como

ker ψ = {x ∈ M | ψ (x) = 0}
Im ψ = ψ (M) = {ψ (x) | x ∈ M}

que son submódulos de M y de N respectivamente (pues {0} es un sub-


módulo de N y ker ψ = ψ −1 (0); e Im ψ = ψ (M) es un submódulo de N
por ser M submódulo de M).

Proposición 6.4.1. Un homomorfismo ψ : M → N es inyectivo (mono-


morfismo) si, y sólo si, ker ψ = {0}.
Demostración. Idéntica a la prueba de la Proposición 2.1.1.

Un submódulo S de M induce dos homomorfismos “naturales,”

• la inyección canónica i : S → M tal que, para todo x ∈ S , i(x) = x


(obviamente un monomorfismo);

• y la proyección canónica o epimorfismo canónico


M
π : M → tal que ∀x ∈ M : π (x) = x
S
que es un homomorfismo por la definición de la suma y de la ley
externa en el módulo cociente; su sobreyectividad es evidente.
También es fácil notar que ker π = S, pues

x ∈ ker π ⇐⇒ π (x) = x = 0 = S ⇐⇒ x∈S

El compuesto de homomorfismos (cuando es posible) es un homo-


morfismo, y el isomorfismo entre módulos es una relación de equiva-
lencia. Las verificaciones de estos hechos son idénticas a las realizadas
para transformaciones lineales entre espacios vectoriales en la Sección
2.1; en todo caso, esto se encuentra en el Apéndice B.

226
Publicación digital de Editorial Equinoccio
6.5 T EOREMAS DEL ISOMORFISMO ( MÓDULOS )

6.5 Teoremas del isomorfismo (módulos)


Lo que sigue es casi idéntico al contenido de la Sección 2.2, pero
referido a homomorfismos entre módulos.
Teorema 6.5.1. Primer teorema del isomorfismo de módulos.
Si ψ : M → N es un homomorfismo entre A -módulos, entonces
existe un isomorfismo
M
ψ: −→ Im ψ
ker ψ
bien definido por ψ (x) = ψ (x).
Así pues, los módulos M/ ker ψ e Im ψ son isomorfos.
Demostración. Idéntica a la prueba del Teorema 2.2.1, sustituyendo el
término transformación lineal por homomorfismo.

Teorema 6.5.2. Segundo teorema del isomorfismo de módulos.


Si S y T son submódulos de un A -módulo M, entonces los módulos
S S+T
S∩T T
son isomorfos.
Demostración. Idéntica a la prueba del Teorema 2.2.2, sustituyendo la
terminología de espacios vectoriales, subespacios y transformaciones
lineales por las correspondientes de módulos, submódulos y homomor-
fismos.

En particular:
Corolario 6.5.1. Si S y T son submódulos de un A -módulo M y M =
S ⊕ T, entonces los módulos S y M/T son isomorfos.
Comentario 6.5.1. El lector debe estar preguntándose, con razón, si no
existe una teoría que demuestre de una vez por todas esta parafernalia
de resultados análogos que ocurren en grupos, en anillos, en espacios

227
Publicación digital de Editorial Equinoccio
6 M ÓDULOS

vectoriales, en módulos y en otras estructuras algebraicas, relativos a


sus subestructuras y a los homomorfismos entre ellas. En verdad, existe
la llamada Álgebra Universal y también la Teoría de Categorías, donde
se realiza esa tarea para una estructura muy general que se aplica a
estructuras específicas particulares. Cabe agregar que esos extremos
de abstracción, muy en boga entre las décadas 50 a 80 del siglo XX, han
pasado de moda desde entonces, aunque no por incurrir en falsedad.
Una vez montado este andamiaje básico y común a la mayoría de
las estructuras, podemos entonces abordar el estudio específico de la
estructura en cuestión y el tema adquiere mayor interés y profundidad.

6.6 Ejercicios
1. Sea (M, +) un grupo abeliano y designemos por A el conjunto
de todos los endomorfismos ϕ : M → M.
Probar que (A , +, ◦) es un anillo con neutro (no abeliano), cuyas
operaciones son, para ϕ , ψ ∈ A ,

(ϕ + ψ )(x) = ϕ (x) + ψ (x) (ϕ ◦ ψ )(x) = ϕ [ψ (x)]

Demostrar que M es un A -módulo con respecto a la ley externa


definida como ϕ x = ϕ (x), para ϕ ∈ A y x ∈ M.

2. Sean A y B un par de anillos abelianos con neutro y sea τ : A →


B un homomorfismo (entre anillos).
Sea M un B-módulo.
Conservando la suma en M, probar que M es un A -módulo bajo
la ley externa

∀a ∈ A ∀x ∈ M : ax = τ (a)x

3. Sea M un A -módulo, donde A es un anillo abeliano con neutro.


Probar que
J = {a ∈ A | aM = {0}}

228
Publicación digital de Editorial Equinoccio
6.6 E JERCICIOS

es un ideal de A .
Demostrar que M es un (A /J)-módulo con la ley externa

(a + J)x = ax (para a ∈ A x ∈ M)

4. Sea M un A -módulo, donde A es un anillo abeliano con neutro,


y sea J un ideal de A .
Sea el conjunto

JM = {au | a ∈ J y u ∈ M}

Indicar por qué JM no es, necesariamente, un submódulo si A no


es un DIP.
Supóngase que A no es un DIP, y sea N el submódulo generado
por JM.
Probar que M/N es un (A /J)-módulo con respecto a la ley ex-
terna definida por

(a + J) (u + N) = au + N

5. Tercer teorema del isomorfismo de módulos:


Sean S y T submódulos de un módulo M con S ⊂ T.
Demostrar que los módulos cocientes
M/S M
y
T/S T
son isomorfos.

6. Probar que un anillo abeliano con neutro A es un DIP si, y sólo


si, todo submódulo de un A -módulo cíclico es cíclico.

7. Sea S un submódulo de un módulo M.


Si S y M/S son FG, probar que M es FG.

229
Publicación digital de Editorial Equinoccio
6 M ÓDULOS

8. Sea ψ : M → N un homomorfismo entre módulos.


Demostrar que, si ker ψ e Im ψ son FG, entonces existe un sub-
módulo S de M que es FG y tal que M = ker ψ + S.
Se infiere además que M es FG.

9. Sea M un módulo y sea ζ : M → M un homomorfismo idempo-


tente, es decir, ζ 2 = ζ .
Probar que
M = ker ζ ⊕ Im ζ

230
Publicación digital de Editorial Equinoccio
C APÍTULO 7
Módulos sobre un DIP

A partir de ahora particularizamos nuestro estudio de los módulos


para concentrarnos en aquellos que servirán de instrumento para la di-
sección de los temas más profundos y delicados del Álgebra Lineal.
De aquí en adelante, todo anillo involucrado será un dominio de
ideal principal (DIP) D que no es un cuerpo, para no caer en el caso
de espacios vectoriales.1

7.1 Módulos FG libres y de torsión


La clase particular de módulos FG libres sobre un DIP es la más
parecida a un espacio vectorial de dimensión finita.
Sea M un módulo sobre un DIP D. Decimos que el conjunto

{x1 , x2 , . . ., xn } ⊂ M

es linealmente dependiente si existen escalares α1 , . . ., αn ∈ D, no todos


cero, tales que
α1 x1 + α2 x2 + · · · + αn xn = 0
Si algún xk = 0, es evidente que todo conjunto finito que lo con-
tenga es linealmente dependiente, pues tomamos el escalar α k = 0 y los
restantes cero.
Por contraposición, el conjunto {x1 , x2 , . . . , xn } ⊂ M es linealmente
independiente si

α1 x1 + α2 x2 + · · · + αn xn = 0 =⇒ αi = 0 , (i = 1, 2, . . ., n)

1 Significa además que D debe ser infinito (véase página 166).

231
Publicación digital de Editorial Equinoccio
7 M ÓDULOS SOBRE UN DIP

Si un z ∈ M es expresable como z = β1 y1 + · · · + βm ym , para ciertos


y j ∈ M y β j ∈ D, decimos que z es combinación lineal del conjunto
{y1 , . . . , ym }.
El lema siguiente caracteriza la independencia lineal.
Lema 7.1.1. Un conjunto C = {x1 , x2 , . . . , xn } ⊂ M de un D-módulo M
es linealmente independiente si, y sólo si, todo z = α 1 x1 + α2 x2 + · · · +
αm xm , expresable como combinación lineal de C determina unívoca-
mente los escalares α1 , . . ., αm .
Demostración. Idéntica a la prueba del Lema 1.4.1, sustituyendo espa-
cio vectorial por módulo.

Definición 7.1.1. Decimos que los elementos x1 , x2 , . . . , xn de un D-


módulo M constituyen una base si generan M y son linealmente in-
dependientes.
Desde luego que un D-módulo que admite una base es FG, pero el
recíproco no es cierto en general, es decir, existen D-módulos FG que
carecen de base. Por eso cabe la siguiente definición.
Definición 7.1.2. Decimos que un D-módulo M FG es libre si admite
una base B ⊂ M. Si es necesario, decimos que M es libre sobre la base
B, o que B genera libremente a M.2
Un espacio vectorial de dimensión finita es un módulo libre.
Un ejemplo típico de D-módulo libre (que no es un espacio vecto-
rial) es D n , conjunto de todos los n-tuples ordenados de elementos de
D, el cual fue mostrado como ejemplo de módulo sobre un anillo cual-
quiera en la Sección 6.1; en este caso lo consideramos sobre un DIP D.
Es muy fácil verificar que se trata de un D-módulo libre sobre la
base {e1 , e2 , . . . , en } de D n , tal que la coordenada de lugar k en ek es 1
y sus restantes coordenadas son 0.
Por la definición de la ley externa en D n , es claro que

(α1 , α2 , . . . , αn ) = α1 e1 + α2 e2 + · · · + αn en (7.1.1)

2 Nótese que la definición de módulo libre se aplica a los FG. En la teoría general de
módulos no se exige esta restricción.

232
Publicación digital de Editorial Equinoccio
7.1 M ÓDULOS FG LIBRES Y DE TORSIÓN

de modo que los e1 , e2 , . . . , en generan el módulo D n y es obvio (ha-


ciendo la expresión (7.1.1) igual a (0, 0, . . ., 0)) que son linealmente in-
dependientes.
El Teorema 1.4.2 nos dice que todo conjunto generador de un espa-
cio vectorial contiene una base. Esto es falso en módulos libres. Sea,
por ejemplo, el Z-módulo Z Z, que es libre sobre la base {1}, como
caso particular del ejemplo anterior (se trata de Zn con n = 1). Ahora
bien, el conjunto {2, 3} genera Z Z, pues si m ∈ Z Z, podemos expresar
m = −m2 + m3.3 Sin embargo, {2, 3} no es una base, pues no es li-
nealmente independiente, ya que 3.2 − 2.3 = 0, y tampoco {2} ni {3}
son bases, ya que no generan Z Z. Este mismo ejemplo muestra que, si
bien {2, 3} es linealmente dependiente, ninguno de sus dos elementos
es combinación lineal del otro en Z Z.
Es oportuna ahora la siguiente definición sobre los elementos “con
torsión” que juegan un papel de mucha importancia, como se verá en
adelante.
Definición 7.1.3. Decimos que un elemento x del D-módulo M tiene
torsión si existe algún escalar α = 0 en D tal que α x = 0.
Decimos que el elemento x ∈ M es libre de torsión si, para todo
escalar α = 0, se tiene que α x = 0. O, lo que es lo mismo, α x = 0 =⇒
α = 0.
Decimos que el módulo M es libre de torsión si 0 ∈ M es su único
elemento con torsión.
Si todos los elementos de M son de torsión, decimos que M es un
módulo de torsión.
Un espacio vectorial es libre de torsión, puesto que, si el vector x = 0
y α x = 0, sabemos que esto implica que α = 0. También el D-módulo
D D, donde D es un dominio de integridad es libre de torsión.
Comentario 7.1.1. Nótese que módulo libre y módulo libre de torsión
son dos conceptos distintos. Sin embargo, de acuerdo con el siguiente
resultado y su recíproco (Teorema 7.1.5) estos conceptos resultan equi-
valentes en módulos FG sobre un DIP.
3 Nótese que el m a la derecha de la igualdad figura como un escalar, en tanto que 2 y
3 son elementos del módulo Z Z.

233
Publicación digital de Editorial Equinoccio
7 M ÓDULOS SOBRE UN DIP

Proposición 7.1.1. Un D-módulo M libre es libre de torsión.


Demostración. Sea B = {x1 , x2 , . . . , xn } una base de M y tomemos cual-
quier z = α1 x1 + α2 x2 + · · · + αn xn = 0; luego, al menos un αk = 0.
Supongamos que λ z = 0. Entonces,

λ α1 x1 + λ α2 x2 + · · · + λ αn xn = 0

pero la independencia lineal de B implica que todos los coeficientes es-


calares son cero, en particular, λ αk = 0, de donde λ = 0 por integridad
de D. Así pues, z es libre de torsión.

Comentario 7.1.2. A diferencia de espacios vectoriales, un módulo,


aún sobre un DIP, puede ser FG y no ser libre; es decir, admite un
generador finito pero carece de bases. Por ejemplo, consideremos el
Z-módulo finito Zn (el módulo cociente Z/nZ). Es obvio que Zn es FG,
simplemente por el hecho de ser finito, pero no es libre, pues no es libre
de torsión; es más, todos sus elementos tienen torsión: nx = 0, para
todo x ∈ Zn .
Teorema 7.1.1. Un D-módulo M es libre sobre una base B = {x 1 , x2 , . . .
. . . , xn } si, y sólo si, cada xi es libre de torsión y M = Dx1 ⊕ Dx2 ⊕ · · · ⊕
Dxn .
Demostración. M = Dx1 ⊕ Dx2 ⊕ · · · ⊕ Dxn implica que B genera a M
y, como la suma ⊕ es directa, la expresión de cada elemento de M como
combinación lineal de B es única (Proposición 6.2.1); en consecuencia,
α1 x1 + α2 x2 + · · · + αn xn = 0 implica que αi xi = 0, para i = 1, 2, . . ., n
y, como cada xi es libre de torsión, se infiere que αi = 0. Por tanto, B es
linealmente independiente y, en definitiva, una base.
Recíprocamente, si B es una base, de acuerdo con el Lema 6.2.1 y
la Definición 6.2.3, M = DX = Dx1 + Dx2 + · · · + Dxn (pues B genera
a M).
Ahora bien, si z ∈ M, la representación z = α1 x1 + α2 x2 + · · · + αn xn
es única, por la independencia lineal de B (Lema 7.1.1) y cada sumando
αi xi ∈ Dxi . Se infiere que la suma es directa M = Dx1 ⊕Dx2 ⊕· · ·⊕Dxn
por la Proposición 6.2.1.

234
Publicación digital de Editorial Equinoccio
7.1 M ÓDULOS FG LIBRES Y DE TORSIÓN

Y la Proposición 7.1.1 indica que todo x i es libre de torsión.

Los módulos libres comparten importantes propiedades con los es-


pacios vectoriales de dimensión finita.

Teorema 7.1.2. Dada una base B = {x1 , x2 , . . . , xn } del D-módulo M e


igual número de elementos y1 , y2 , . . . , yn de un D-módulo N, existe un
homomorfismo único ψ : M → N tal que ψ (x i ) = yi para i = 1, 2, . . ., n.
Demostración. Idéntica a la prueba del Teorema 2.1.3, con las sustitu-
ciones obvias de términos de espacio vectorial y transformación lineal
por módulo y homomorfismo.

Nótese que el D-módulo N del teorema precedente no tiene que ser


libre.

Teorema 7.1.3. Si un D-módulo M es libre, todas sus bases tienen igual


número de elementos.
Demostración. En virtud del Corolario 5.5.1, podemos elegir un escalar
primo p ∈ D que genera un ideal J = p D y, de acuerdo con el Teorema
5.5.1, el anillo cociente D/J es un cuerpo.
Sabemos (Lema 6.2.1) que JM = p M = {px | x ∈ M} es un submó-
dulo de M.
Consideremos el grupo abeliano (M/JM, +) con respecto a la suma
inducida y dotémoslo de otra ley de composición externa sobre el cuer-
po D/J definida como

(α + J)(x + JM) = α x + JM (α ∈ D , x ∈ M)

Es preciso comprobar que esta ley externa está bien definida; es


decir, si α + J = β + J y x + JM = y + JM, debe ser (α + J)(x + JM) =
(β + J)(y + JM), o sea α x + JM = β y + JM. En efecto, como α − β ∈ J
y x − y ∈ JM, se tiene

α x − β y = α (x − y) + (α − β )y ∈ JM

luego, α x + JM = β y + JM.

235
Publicación digital de Editorial Equinoccio
7 M ÓDULOS SOBRE UN DIP

Es rutinario verificar que, con esta ley externa, M/JM es un espacio


vectorial sobre el cuerpo D/J.
Sea ahora B = {x1 , x2 , . . ., xn } una base de M y tomemos cualquier
vector z + JM del espacio vectorial M/JM.
Se tiene z = α1 x1 + α2 x2 + · · · + αn xn ; luego,
z + JM =
(α1 + J)(x1 + JM) + (α2 + J)(x2 + JM) + · · · + (αn + J)(xn + JM)
O sea que el conjunto
X = {x1 + JM , x2 + JM , . . . , xn + JM}
genera el espacio vectorial M/JM.
Probemos ahora que X es linealmente independiente:
(α1 + J)(x1 + JM) + (α2 + J)(x2 + JM) + · · ·
· · · + (αn + J)(xn + JM) = 0 = JM
=⇒ (α1 x1 + α2 x2 + · · · + αn xn ) + JM = 0
=⇒ α1 x1 + α2 x2 + · · · + αn xn ∈ JM = p M
=⇒ α1 x1 + α2 x2 + · · · + αn xn = pw
pero w = β1 x1 + β2 x2 + · · · + βn xn , entonces, por independencia lineal
de la base B,
(α1 − pβ1 )x1 + (α2 − pβ2 )x2 + · · · + (αn − pβn )xn = 0
=⇒ αi − pβi = 0 (i = 1, 2, . . ., n)
=⇒ αi = pβi ∈ p D = J (i = 1, 2, . . ., n)
=⇒ αi + J = J = 0 (en D/J) (i = 1, 2, . . ., n)
En conclusión, X es una base para el espacio vectorial M/JM.
Hemos demostrado que una base de n elementos del D-módulo M
induce una base de n vectores en el espacio vectorial M/JM. Pero, en
virtud del Corolario 1.4.1, todas las bases de un espacio vectorial tienen
igual número de vectores; luego, toda base del D-módulo M tiene n
elementos.

236
Publicación digital de Editorial Equinoccio
7.1 M ÓDULOS FG LIBRES Y DE TORSIÓN

Comentario 7.1.3. El importante teorema precedente es cierto para


todo módulo libre FG sobre un anillo abeliano con neutro A , y la de-
mostración es básicamente la misma, pero exige la existencia en A del
ideal J que tenga la propiedad de nuestro p D; vale decir, J = A y, si
existe un K  A con J ⊂ K, entonces K = J o bien K = A . J es lo que
se llama un ideal maximal.
Nuestro estudio de la teoría de anillos en el Capítulo 5 se limitó
muy estrictamente a los conocimientos necesarios para el objeto de esta
obra. Por eso, no hizo falta entrar en el tema de los ideales maximales
en el caso general.
El Teorema 7.1.3 justifica la siguiente definición.
Definición 7.1.4. Se denomina rank de un D-módulo libre al número
de elementos de cualquiera de sus bases.
Proposición 7.1.2. Sean M y N un par de D-módulos y ψ : M → N un
isomorfismo.
Si M es libre y de rank n, entonces N también es libre y de rank n.
Y, para toda base B de M, ocurre que ψ (B) es una base de N.
Recíprocamente, dos D-módulos libres M y N de igual rank son
isomorfos. Y, si ϕ : M → N es un homomorfismo tal que ϕ (B) es una
base de N para alguna base B de M, entonces ϕ es un isomorfismo.
Demostración. Sea B = {x1 , x2 , . . . , xn } una base de M. Basta con probar
que ψ (B) = {ψ (x1 ), ψ (x2 ), . . . , ψ (xn )} es una base de N.
En efecto, si w ∈ N, entonces ψ −1 (w) = α1 x1 + α2 x2 + · · · + αn xn ,
de donde w = α1 ψ (x1 ) + α2 ψ (x2 ) + · · · + αn ψ (xn ). O sea que ψ (B)
genera N.
Como ψ es inyectiva, sabemos que ker ψ = {0} (Proposición 6.4.1);
luego,
β1 ψ (x1 ) + β2 ψ (x2 ) + · · · + βn ψ (xn ) = 0
=⇒ ψ (β1 x1 + β2 x2 + · · · + βn xn ) = 0
=⇒ β1 x1 + β2 x2 + · · · + βn xn ∈ ker ψ
=⇒ β1 x1 + β2 x2 + · · · + βn xn = 0
=⇒ βi = 0 (i = 1, 2, . . ., n)

237
Publicación digital de Editorial Equinoccio
7 M ÓDULOS SOBRE UN DIP

por tanto ψ (B) es linealmente independiente.


Supongamos ahora que M y N son D-módulos libres sobre bases
respectivas X = {x1 , x2 , . . ., xn } e Y = {y1 , y2 , . . . , yn }. En virtud del
Teorema 7.1.2, existe un homomorfismo ϕ : M → N tal que ϕ (x i ) = yi ,
para i = 1, 2, . . ., n.
Dado que Y es una base, todo elemento y ∈ N es expresable como
y = ∑ βi yi , de modo que
 
y = ∑ βi ϕ (xi ) = ϕ ∑ βi xi
luego, ϕ es sobreyectiva.
Por otro lado,

x = ∑ αi xi ∈ ker ϕ =⇒ ϕ (x) = ∑ αi yi = 0
=⇒ αi = 0 (i = 1, . . ., n) =⇒ x=0
nos dice que ker ϕ = {0}, por tanto ϕ es inyectiva.
En resumen, ϕ es un isomorfismo.

Corolario 7.1.1. Dos D-módulos cíclicos libres no triviales 4 son iso-


morfos.
Demostración. Ambos tienen el mismo rank = 1.

Comentario 7.1.4. La descomposición de un D-módulo libre L = Dx 1


⊕ Dx2 ⊕ · · · ⊕ Dxn en suma directa de submódulos cíclicos, como se
establece en el Teorema 7.1.1, es esencialmente única. En efecto, de
acuerdo con ese mismo teorema, esta descomposición es posible si, y
sólo si, {x1 , . . . , xn } es una base, y según el Teorema 7.1.3, todas las
bases tienen igual número de elementos. En cuanto a los submódulos
cíclicos (todos no triviales) Dx i , son isomorfos entre sí e isomorfos con
los de cualquier otra descomposición, en virtud del Corolario 7.1.1.
La siguiente es una caracterización de los módulos FG en términos
de módulos libres.
4 = {0}.

238
Publicación digital de Editorial Equinoccio
7.1 M ÓDULOS FG LIBRES Y DE TORSIÓN

Proposición 7.1.3. Un D-módulo M es FG si, y sólo si, existe un epi-


morfismo ψ : L → M, donde L es un D-módulo libre.
En tal caso, si L es libre sobre una base B = {x 1 , x2 , . . ., xn }, en-
tonces el conjunto ψ (B) = {ψ (x1 ), ψ (x2 ), . . . , ψ (xn )} genera M.
Demostración. Supongamos que existe un epimorfismo ψ : L → M y
L es libre sobre la base B. Tomemos cualquier v ∈ M; como ψ es so-
breyectiva, existe al menos un u = α1 x1 + α2 x2 + · · · + αn xn ∈ L con
ψ (u) = v, es decir,
v = α1 ψ (x1 ) + α2 ψ (x2 ) + · · · + αn ψ (xn )
De modo que ψ (B) genera M.
Recíprocamente, supongamos que M es FG, generado por un con-
junto C = {u1 , u2 , . . . , un }. Sea L un D-módulo libre de rank n sobre
una base B = {x1 , x2 , . . . , xn }, por ejemplo, D n .
Aplicando el Teorema 7.1.2, existe un homomorfismo ψ : L → M tal
que ψ (xi ) = ui , para i = 1, 2, . . ., n.
Como el submódulo Im ψ de M contiene a
C = {ψ (x1 ), ψ (x2 ), . . ., ψ (xn )}
se infiere que Im ψ = M.

Comentario 7.1.5. La proposición anterior podría enunciarse menos


formalmente diciendo que los D-módulos FG son precisamente las imá-
genes homomórficas de D-módulos libres.
El siguiente lema es de carácter técnico y será aplicado en varias
oportunidades.
Lema 7.1.2. Sea ϕ : M → L un epimorfismo entre D-módulos.
Si L es libre de rank n, entonces M admite un submódulo L ∗ isomorfo
con L y tal que
M = L∗ ⊕ (ker ϕ )

Demostración. Supongamos que L es libre sobre la base {w 1 , w2 , . . . , wn }.


Como ϕ es un epimorfismo, existen u i ∈ M tales que ϕ (ui ) = wi , para
cada i = 1, 2, . . ., n.

239
Publicación digital de Editorial Equinoccio
7 M ÓDULOS SOBRE UN DIP

En virtud del Teorema 7.1.2, existe un (único) homomorfismo ψ :


L → M tal que ψ (wi ) = ui , para i = 1, 2, . . ., n.
Nótese que ϕ ◦ ψ : L → L es el homomorfismo identidad, pues

(ϕ ◦ ψ )(wi ) = ϕ [ψ (wi )] = ϕ (ui ) = wi (i = 1, 2, . . ., n)

y, por el Teorema 7.1.2, ϕ ◦ ψ = I .


Ahora bien, L∗ = Im ψ es un submódulo de M.
Probemos que M = L∗ ⊕ (ker ϕ ).
En efecto, tomemos cualquier x ∈ M y sea y = ψ [ϕ (x)] ∈ L∗ ; luego,

ϕ (x − y) = ϕ (x) − (ϕ ◦ ψ )[ϕ (x)] = 0


=⇒ z = x − y ∈ ker ϕ =⇒ x = y + z

Esto significa que M = L∗ + (ker ϕ ).


Veamos que la suma es directa:
v ∈ L∗ ∩(ker ϕ ) implica que ϕ (v) = 0 y existe un u ∈ L con ψ (u) = v,
entonces

u = I (u) = (ϕ ◦ ψ )(u) = ϕ [ψ (u)] = ϕ (v) = 0


=⇒ v = ψ (u) = 0

Por último,

w ∈ ker ψ =⇒ ψ (w) = 0
=⇒ 0 = ϕ [ψ (w)] = (ϕ ◦ ψ )(w) = I (w) = w

indica que ker ψ = {0}, de modo que ψ es inyectivo.


Y, como ψ : L → L∗ es un epimorfismo, se infiere que L y L∗ son
isomorfos bajo ψ .

Un módulo libre sobre un anillo cualquiera puede admitir submódu-


los que no son libres. No obstante, si el anillo es un DIP obtenemos el
siguiente resultado satisfactorio.
Teorema 7.1.4. Si L es un D-módulo libre de rank n, entonces todo
submódulo de L es libre y de rank ≤ n.

240
Publicación digital de Editorial Equinoccio
7.1 M ÓDULOS FG LIBRES Y DE TORSIÓN

Demostración. Demostramos el teorema por inducción sobre el rank.


Si n = 1, nuestro módulo L = Dx es cíclico sobre una base {x}.
Sea S un submódulo de L. Es inmediato que I = {α ∈ D | α x ∈ S}
es un ideal de D y fácil de percibir que IL = S.
Ahora bien, como D es un DIP, I = d D es un ideal principal gene-
rado por un d ∈ D y, por el Lema 6.2.1 y el hecho de que L = Dx,

S = IL = d L = {du | u ∈ L} = {α (dx) | α ∈ D}

Si d = 0, entonces S = {0} es libre de rank 0 < 1.


Si d = 0, entonces S está generado por {dx}, que es linealmente
independiente, pues (como {x} lo es),

0 = α (dx) = (α d)x =⇒ αd = 0 =⇒ α =0

(por ser d = 0 y D un dominio de integridad). Luego, S es libre sobre


la base {dx} y su rank es 1.
Supongamos ahora que L es libre sobre una base B = {x1 , x2 , . . ., xn }
y que todo D-módulo libre de rank < n satisface la tesis del teorema.
En virtud del Teorema 7.1.1, L = Dx1 ⊕ Dx2 ⊕ · · · ⊕ Dxn y podemos
expresar L = Dx1 ⊕ L# , donde L# = Dx2 ⊕ · · · ⊕ Dxn es libre y de rank
n − 1. Y Dx1 es libre con rank 1.
Sea S un submódulo de L y probemos que S es libre y de rank ≤ n.
Sea π : L → L/L# el epimorfismo canónico.
El segundo teorema del isomorfismo de módulos (Teorema 6.5.2)
nos dice que

L Dx1 ⊕ L# Dx1
= es isomorfo con
L# L# Dx1 ∩ L#

Pero, como Dx1 ∩ L# = {0}, ocurre que Dx1 /(Dx1 ∩ L# ) es trivial-


mente isomorfo con Dx1 .
En síntesis,
L
es isomorfo con Dx1
L#
y, por la Proposición 7.1.2, L/L# es libre y de rank 1.

241
Publicación digital de Editorial Equinoccio
7 M ÓDULOS SOBRE UN DIP

Ahora bien, la restricción πS : S → S de π a S –donde π (S) = S es


un submódulo de L/L# (Teorema 6.4.1)– es un epimorfismo y, en virtud
de la hipótesis inductiva, S es libre y de rank ≤ 1.
Ahora aplicamos el Lema 7.1.2 al epimorfismo π S .
Existe entonces un submódulo F de S, isomorfo con S  tal que S =
F ⊕ (ker πS ). Luego, F es libre y de rank ≤ 1 (Proposición 7.1.2); y
ker πS = S ∩ L# es un submódulo de L# , el cual, por la hipótesis induc-
tiva, es libre y de rank ≤ n − 1.
Se concluye que S es libre y de rank ≤ 1 + (n − 1) = n.

Corolario 7.1.2. Todo submódulo de un D-módulo cíclico libre es cí-


clico libre o trivial.
Demostración. Un D-módulo cíclico libre es de rank 1. Entonces, de
acuerdo con el teorema, todo submódulo es libre y de rank 1, en cuyo
caso es cíclico, o de rank 0 y es trivial.

Comentario 7.1.6. No obstante el parecido de los módulos libres so-


bre un DIP con los espacios vectoriales de dimensión finita, existen
diferencias significativas entre ambos. Una diferencia importante es la
siguiente.
Si S es un subespacio de un espacio vectorial E que tiene la misma
dimensión que E, es claro que S = E, pues toda base de S es también
una base de E.
Por el contrario, un submódulo N de un D-módulo libre L puede
tener su mismo rank y, sin embargo, no ser igual a L. A pesar de todo
N y L son isomorfos, por la Proposición 7.1.2.
Un ejemplo bien sencillo es el Z-módulo Z Z de los enteros, el cual
es libre sobre la base {1}, de modo que tiene rank 1 (es cíclico). Su
submódulo cíclico 3 Z es libre sobre la base {3}; sin embargo, 3 Z no
es igual a Z Z; en particular, 1 ∈
/ 3 Z.

Comentario 7.1.7. Otra diferencia que vale la pena destacar entre los
módulos libres sobre un DIP y los espacios vectoriales de dimensión
finita es la siguiente.

242
Publicación digital de Editorial Equinoccio
7.1 M ÓDULOS FG LIBRES Y DE TORSIÓN

Dado cualquier subespacio S de un espacio vectorial E de dimen-


sión finita, siempre existe otro subespacio T (no necesariamente único)
tal que E = S ⊕ T.
En cambio, si N es un submódulo de un D-módulo libre L, no pode-
mos asegurar que exista otro submódulo N  tal que L = N ⊕ N . Tal es
el caso en el ejemplo del comentario anterior: para 3 Z no existe un
submódulo cuya suma directa con éste sea Z Z.
Decimos que un submódulo N de un D-módulo libre L es comple-
mentable si existe algún submódulo N tal que L = N ⊕ N .
Ahora obtenemos una consecuencia importante del teorema anterior
y es el recíproco de la Proposición 7.1.1.
Teorema 7.1.5. Un D-módulo FG y libre de torsión es libre.
Demostración. Supongamos que el D-módulo libre de torsión M está
generado por el conjunto G = {v1 , v2 , . . ., vn }, donde todo vi = 0.
G admite subconjuntos linealmente independientes; por ejemplo,
cada {vi }, pues vi es libre de torsión.
Sea {u1 , . . . , uk } un subconjunto linealmente independiente de G con
un máximo número de elementos.
Reordenando G si es preciso, podemos escribir
G = {u1 , . . ., uk , w1 , . . . wm } (donde k + m = n)
Ahora bien, para cada j = 1, . . ., m, el conjunto {u1 , . . . , uk , w j } es
linealmente dependiente. Luego, a j w j + b j1 u1 + · · · + b jk uk = 0, donde
no todos los coeficientes escalares son cero. Si todos los b ji son cero,
entonces a j w j = 0, lo cual implica que también a j = 0 (pues w j = 0
es libre de torsión) y caemos en una contradicción. Por tanto, algunos
b ji = 0 y, si a j = 0, tendríamos ∑ b ji ui = 0 que contradice la indepen-
dencia lineal de los ui .
En conclusión, tenemos a j w j +b j1 u1 +· · ·+b jk uk = 0, donde a j = 0
y no todos los b ji son cero.
Luego, a j w j = −b j1 u1 − · · · − b jk uk .
Sea a = a1 × a2 × · · · × am (por integridad, a = 0). Entonces, de la
expresión para cada a j w j , obtenemos
aw j = c j1 u1 + · · · + c jk uk

243
Publicación digital de Editorial Equinoccio
7 M ÓDULOS SOBRE UN DIP

donde no todos los c ji son cero.


Es claro que el submódulo aM = {av | v ∈ M} es tal que

aM ⊂ Du1 ⊕ · · · ⊕ Duk

puesto que, si v ∈ M, entonces v = ∑ αi ui + ∑ β j w j y tenemos


k m
av = ∑ (aαi )ui + ∑ β j (aw j )
i=1 j=1

que es una combinación lineal de los u i .


Pero, por el Teorema 7.1.1, Du1 ⊕ · · · ⊕ Duk es un D-módulo li-
bre sobre la base {u1 , . . ., uk }; luego, en virtud del Teorema 7.1.4, el
submódulo aM es libre.
Ahora bien, ψ : M → aM tal que ψ (v) = av, para todo v ∈ M, es un
epimorfismo y, además,

v ∈ ker ψ =⇒ av = ψ (v) = 0 =⇒ v=0

pues a = 0 y M es libre de torsión. Luego, ψ es un monomorfismo.


En síntesis, ψ es un isomorfismo y M es libre en virtud de la Proposi-
ción 7.1.2 (ya que también ψ −1 : aM → M es un isomorfismo).

Comentario 7.1.8. Este teorema y la Proposición 7.1.1 permiten afir-


mar que un D-módulo es libre si, y sólo si, es FG y libre de torsión.

La siguiente es una propiedad importante de los módulos FG sobre


un DIP, que no se cumple para módulos sobre anillos en general.
Teorema 7.1.6. Todo submódulo de un módulo FG sobre un DIP es FG.
Demostración. Sea M un D-módulo FG, donde D es un DIP y sea S un
submódulo de M. Deseamos probar que S es FG.
De acuerdo con la Proposición 7.1.3, existe un epimorfismo ψ : L →
M, donde L es un D-módulo libre (de rank n).
Según el Teorema 6.4.1, T = ψ −1 (S) es un submódulo de L, y es
claro que la restricción ψ : T → S es un epimorfismo; pero T es un

244
Publicación digital de Editorial Equinoccio
7.1 M ÓDULOS FG LIBRES Y DE TORSIÓN

D-módulo libre (de rank ≤ n), en virtud del Teorema 7.1.4. En conse-
cuencia, S es FG por la Proposición 7.1.3.

El lema que sigue y su corolario son de carácter técnico y de mucha


utilidad.
Lema 7.1.3. Sea M un módulo FG sobre un DIP D.
Entonces, si
S1 ⊂ S2 ⊂ · · · ⊂ Sn ⊂ · · ·
es una sucesión creciente de submódulos de M, existe un entero k ≥ 1
tal que, para todo n ≥ k, se tiene Sn = Sk .

Demostración. Ocurre que la unión T = Sn es un submódulo. En
efecto, si x, y ∈ T y α , β ∈ D, entonces
x ∈ Si , y ∈ S j =⇒ x, y ∈ Sm (donde m = max{i, j})
=⇒ α x + β y ∈ Sm =⇒ α x + β y ∈ T
Gracias al Teorema 7.1.6, T es FG, generado por {u1 , . . ., u p } ⊂ T.
Como cada ui está contenido en algún Sni , se infiere que {u1 , . . ., u p }
⊂ Sk , donde k = max{n1 , . . . , n p}. Pero entonces, T ⊂ Sk y, como Sk ⊂
T, tenemos que Sk = T y resulta que, para todo n ≥ k, debe ser Sn = Sk .

Comentario 7.1.9. La propiedad que el lema anterior demuestra para


módulos FG sobre un DIP puede considerarse para módulos sobre
anillos arbitrarios, y aquellos que la disfrutan se denominan módulos
noetherianos. Observe el lector que el Lema 5.5.1 establece que un DIP
posee una propiedad análoga, es de los anillos llamados noetherianos.
La versión general del Lema 7.1.3 es que todo módulo FG sobre
un anillo noetheriano es noetheriano, pero no necesitamos aquí ese
resultado que pertenece a la teoría general de módulos.
El recíproco del Lema 7.1.3 es cierto y se encuentra entre los ejer-
cicios al final del capítulo. No hace falta en nuestra teoría.
Definición 7.1.5. Sea F = ∅ una familia (finita o infinita) de submó-
dulos de un D-módulo M. Se dice que T ∈ F es un máximo en F si
para cualquier S ∈ F tal que T ⊂ S, ocurre que S = T.

245
Publicación digital de Editorial Equinoccio
7 M ÓDULOS SOBRE UN DIP

Es importante notar que la misma familia F puede tener más de


un máximo (o ninguno). Lo que define a un submódulo máximo en la
familia F es que no está propiamente contenido en ningún miembro
de F .

Corolario 7.1.3. Toda familia F = ∅ de submódulos de un módulo FG


sobre un DIP tiene un máximo.
Demostración. Lo probamos por reducción al absurdo.
Supongamos que F carece de máximo. Entonces, cualquier S1 ∈ F
no es un máximo, por tanto existe un S 2 ∈ F con S1 ⊂ S2 y S1 = S2 ;
y tampoco S2 es un máximo, luego existe un S 3 ∈ F con S2 ⊂ S3 y
S2 = S3 . Obtenemos así, por inducción, una sucesión de submódulos
S1 ⊂ S2 ⊂ · · · ⊂ Sn ⊂ · · · que no satisface la tesis del Lema 7.1.3.
Se concluye que F debe tener algún máximo.

7.2 Descomposición de un módulo FG sobre un DIP


Como en la sección anterior, D designa un DIP.

Proposición 7.2.1. Dado un D-módulo M, el conjunto Mtor de sus ele-


mentos de torsión es un submódulo.
Demostración. Nótese que Mtor = ∅, pues siempre 0 ∈ Mtor .
Tomemos x, y ∈ Mtor cualesquiera y escalares α , β ∈ D. Como x, y
tienen torsión, existen escalares r, s ∈ D ∗ (distintos de cero) tales que
rx = sy = 0 y rs = 0 (por integridad). Entonces,

rs(α x + β y) = sα (rx) + rβ (sy) = 0

por tanto α x + β y ∈ Mtor y Mtor es un submódulo por la Definición


6.2.1.

Comentario 7.2.1. En la proposición anterior no hace falta la hipótesis


de que M sea FG. Pero son los módulos FG los que nos interesan.

246
Publicación digital de Editorial Equinoccio
7.2 D ESCOMPOSICIÓN DE UN MÓDULO FG SOBRE UN DIP

Proposición 7.2.2. Sea M un D-módulo FG. Entonces, el D-módulo


cociente M/Mtor es libre.
Demostración. Sea C = {u1 , . . . , un } un conjunto generador de M y
tomemos cualquier x + Mtor ∈ M/Mtor . Pero x = α1 u1 + · · · + αn un ,
luego

x + Mtor = (α1 u1 + · · · + αn un ) + Mtor


= α1 (u1 + Mtor ) + · · · + αn (un + Mtor )

lo cual indica que M/Mtor es FG, pues es generado por el conjunto

{u1 + Mtor , . . ., un + Mtor }

Veamos ahora que M/Mtor es libre de torsión.


En efecto, supongamos que x + Mtor ∈ M/Mtor no es cero, es decir,
x∈/ Mtor y que λ x + Mtor = Mtor (o sea λ x = λ x = 0). Entonces λ x ∈
Mtor y por tanto existe un escalar r = 0 tal que 0 = r(λ x) = (rλ )x;
pero x es libre de torsión, luego rλ = 0, lo cual implica que λ = 0 (por
integridad de D). En conclusión, x + Mtor = 0 es libre de torsión.
En resumen, el D-módulo M/Mtor es FG y libre de torsión. Según
el Teorema 7.1.5, M/Mtor es libre.

El siguiente teorema sobre la estructura de un D-módulo FG es de


considerable importancia.
Teorema 7.2.1. Si M es un D-módulo FG, entonces M = L ⊕ Mtor ,
donde L es un submódulo libre.
Si también M = F ⊕ Mtor , donde F es un submódulo libre, entonces
F es isomorfo con L.
Demostración. Consideremos el epimorfismo canónico
M
π : M −→
Mtor
De acuerdo con la Proposición 7.2.2, el módulo cociente M/Mtor es
libre; luego, en virtud del Lema 7.1.2, M = L ⊕ (ker π ) donde L es libre
y sabemos que ker π = Mtor .

247
Publicación digital de Editorial Equinoccio
7 M ÓDULOS SOBRE UN DIP

Supongamos que M = F ⊕ Mtor , donde F es un submódulo libre.


Entonces, según el Corolario 6.5.1, tanto F como L son isomorfos con
el módulo cociente M/Mtor y, por tanto, son isomorfos entre sí.

Dado un D-módulo M y ∅ = X ⊂ M, consideremos el subconjunto


de D
IX = {α ∈ D | α x = 0 ∀x ∈ X}
Fácilmente se verifica que IX es un ideal de D.
En efecto, IX = ∅, pues siempre 0 ∈ IX , y se tiene

α , β ∈ IX =⇒ ∀x ∈ X : α x = β x = 0
=⇒ ∀x ∈ X : (α − β )x = α x − β x = 0 =⇒ α − β ∈ IX

Además,

α ∈ IX , r ∈ D
=⇒ ∀x ∈ X : (rα )x = r(α x) = r0 = 0 =⇒ rα ∈ IX

Como D es un DIP, IX es un ideal principal generado por un ω (X) ∈


D, es decir, IX = ω (X) D. Al escalar ω (X ) se le llama orden de X.
Nótese que ω (X ) no es un elemento único de D, pues puede ser
cualquiera de una clase por asociatividad. Es decir, si d = ω (X), en-
tonces cualquier e  d también satisface IX = e D.
Si ω (X ) es inversible, lo cual equivale a que ω (X) = 1, es claro que
X = {0}.
Dado un elemento a ∈ M, es evidente que ω (a) = 0 si, y sólo si, a
es libre de torsión.
Si ω (X ) = 0, es obvio que todos los elementos = 0 de X tienen
torsión, y, para cada a ∈ X , ocurre que ω (a) divide a ω (X).
En particular, si ω (M) = 0, entonces el módulo M es con torsión. El
recíproco no es, en general, cierto; un D-módulo M con torsión puede
bien tener orden cero. No es así si el módulo es FG, y es importante
destacarlo:
Proposición 7.2.3. Si M es un D-módulo FG con torsión, entonces
ω (M) = 0.

248
Publicación digital de Editorial Equinoccio
7.2 D ESCOMPOSICIÓN DE UN MÓDULO FG SOBRE UN DIP

Demostración. Sea {x1 , . . . , xn } un conjunto generador de M y ai =


ω (xi ) = 0 (i = 1, . . ., n).
Es obvio que el producto a = ai × · · · × an = 0 satisface aM = {0};
por tanto,
a = r ω (M) = 0 =⇒ ω (M) = 0

Corolario 7.2.1. Si S es un submódulo del D-módulo M que es FG con


torsión, entonces ω (S) = 0 y ω (S) divide a ω (M).
Demostración. Por la Proposición 7.2.3, ω (M) = 0.
Es claro que ω (M)S = {0}, luego ω (S) = 0, y ω (S) divide a ω (M).

Comentario 7.2.2. Si X tiene más de un elemento y ω (X) = 0, no


podemos asegurar que todos sus elementos = 0 sean libres de tor-
sión. Por ejemplo, si X = {a, b} y a es libre de torsión, tendremos
ω (X )a = 0 =⇒ ω (X ) = 0, pero b puede bien tener torsión.
El lema siguiente es fundamental. Nótese que no es preciso exigir
que el módulo en cuestión sea FG, aunque es indispensable que sea
sobre un DIP.
Lema 7.2.1. Sea M un D-módulo de torsión, cuyo orden ω (M) = ab =
0 es tal que mcd (a, b) = 1.
Entonces,
M = aM ⊕ bM
donde los órdenes son

ω (aM) = b ω (bM) = a

Además,

Ma = {x ∈ M | ax = 0} = bM
Mb = {x ∈ M | bx = 0} = aM

Demostración. En virtud del Teorema 5.5.4, existen escalares r, s ∈ D


tales que 1 = ar + bs.

249
Publicación digital de Editorial Equinoccio
7 M ÓDULOS SOBRE UN DIP

Luego, para todo x ∈ M, tenemos


x = a(rx) + b(sx)
por tanto, M = aM + bM.
Veamos que la suma es directa:
x ∈ aM ∩ bM =⇒ x = au = bv
=⇒ x = arx + bsx = (ar)(bv) + (bs)(au)
= r(abv) + s(abu) = 0
=⇒ aM ∩ bM = {0}
Comprobemos ahora que ω (aM) = b.
En efecto, sea d ∈ D tal que du = 0, para todo u ∈ aM.
Entonces,
∀x ∈ M : ax ∈ aM =⇒ 0 = d(ax) = (da)x =⇒ ω (M) | da
=⇒ da = t(ab) =⇒ d = tb =⇒ b = ω (aM)
De manera totalmente análoga se establece que ω (bM) = a.
Por último, para todo bu ∈ bM se tiene a(bu) = (ab)u = 0, luego
bM ⊂ Ma .
Tomemos cualquier x ∈ Ma . Como 1 = ar + bs y ax = 0, se tiene
x = r(ax) + b(sx) = b(sx) =⇒ x ∈ bM
y, en consecuencia, Ma ⊂ bM.
En conclusión, Ma = bM.
Análogamente se prueba que Mb = aM.

Más adelante veremos cuán importante es el corolario siguiente.


Corolario 7.2.2. Sea D un DIP y M un D-módulo cíclico de torsión,
generado por g ∈ M, cuyo orden ω (M) = a1 × a2 × · · · × am = 0 es tal
que mcd (ai , a j ) = 1, para i = j.
Entonces M admite una descomposición en suma directa de submó-
dulos cíclicos
M = M1 ⊕ M 2 ⊕ · · · ⊕ M m

250
Publicación digital de Editorial Equinoccio
7.2 D ESCOMPOSICIÓN DE UN MÓDULO FG SOBRE UN DIP

de órdenes ω (Mi ) = ai , para i = 1, 2, . . ., m, y cada Mi está generado


por bi g, donde
bi = ∏ a j
j=i

(bi es el producto de los a j , exceptuando ai ).


Demostración. Haremos la prueba por inducción en el número m de
factores (primos por pares) de ω (M).
Comencemos por m = 2.
Recordemos (página 217) que, para cualquier b ∈ D, ocurre que
bM = {bx | x ∈ M} es un submódulo de M.
Tenemos que ω (M) = a1 ×a2 = 0 y mcd (a1 , a2 ) = 1. Aquí, b1 = a2
y b 2 = a1 .
En virtud del Lema 7.2.1,

M = M1 ⊕ M2

donde M1 = b1 M y M2 = b2 M y sus órdenes son

ω (M1 ) = a1 ω (M2 ) = a2

Como M = Dg es cíclico, todo x ∈ M es de la forma x = cg, para


algún c ∈ D; en particular, para cualquier y = b1 x ∈ M1 , se tiene

y = b1 x = b1 (cg) = c (b1 g)

o sea que M1 está contenido en el submódulo cíclico D(b 1 g) generado


por b1 g. Recíprocamente, todo z ∈ D(b1 g) es de la forma z = d(b1 g) =
b1 (dg) ∈ M1 .
En resumen, M1 es un submódulo cíclico generado por b 1 g.
De manera totalmente análoga, se deduce que M2 es un submódulo
cíclico generado por b2 g.
Supongamos ahora que ω (M) = a1 ×a2 ×· · ·×am = 0, donde m > 2
y mcd (ai , a j ) = 1, para i = j, y que la tesis es cierta para todo D-
módulo cuyo orden es un producto de m−1 factores (primos por pares).
Véase que b1 = a2 × · · · × am ; luego, ω (M) = a1 × b1 y mcd (a1 , b1 )
= 1. Aplicamos entonces lo demostrado para el caso m = 2 y se infiere

251
Publicación digital de Editorial Equinoccio
7 M ÓDULOS SOBRE UN DIP

que M = M1 ⊕ N, donde M1 es un submódulo cíclico de orden ω (M 1 ) =


a1 y generado por b1 g; en tanto que N es un submódulo (un D-módulo)
cíclico de orden ω (N) = b1 = a2 × · · · × am generado por a1 g.
En virtud de la hipótesis inductiva, aplicada a N,

N = M2 ⊕ · · · ⊕ Mm

donde, para i = 2, . . ., m, tenemos que ω (Mi ) = ai y Mi es cíclico, ge-


nerado por  
∏ a j (a1 g) = bi g
j=1, j=i

En conclusión,

M = M1 ⊕ N = M 1 ⊕ M 2 ⊕ · · · ⊕ M m

satisface la tesis del enunciado.

Definición 7.2.1. Decimos que un D-módulo de torsión M es primario


si su orden es de la forma p k , donde p ∈ D es un primo.
Ahora sacamos partido al Lema 7.2.1.
Tengamos presente el Teorema 5.5.3 (Teorema Fundamental de la
Aritmética), según el cual, todo elemento no inversible a = 0 en un DIP
D es expresable como producto

a = s pk11 pk22 . . . pkmm

donde los pi son primos distintos y s es un inversible. En general, los


primos cuyo producto es a no tienen que ser distintos, de modo que en la
expresión anterior hemos expresado el producto del primo p i , repetido
ki veces como la potencia pki i .

Teorema 7.2.2. (Teorema de descomposición primaria) Sea M un D-


módulo de torsión de orden ω (M) = p k11 pk22 . . . pkmm donde los pi ∈ D
son primos distintos.

252
Publicación digital de Editorial Equinoccio
7.2 D ESCOMPOSICIÓN DE UN MÓDULO FG SOBRE UN DIP

Entonces M es suma directa de m submódulos primarios,


M = M p1 ⊕ M p2 ⊕ · · · ⊕ M pm

donde cada M pi es de orden pki i :


 

k
M pi = {x ∈ M | pki i x = 0} = pjj M
j=i

Si también
M = Mq1 ⊕ Mq2 ⊕ · · · ⊕ Mqn
h
donde cada Mq j es de orden q j j y q j es un primo, entonces, n = m
y (reordenando los sumandos si es preciso) q i  pi con hi = ki , para
i = 1, 2, . . ., m.
Demostración. Procedemos por inducción en el número m de primos
distintos.
Para m = 1, tenemos ω (M) = pk11 y es obvio que

M p1 = {x ∈ M | pk11 x = 0}
y no hay más nada que probar.
En el caso m = 2 tenemos ω (M) = pk11 pk22 . Como mcd (pk11 , pk11 ) =
1, aplicamos directamente el Lema 7.2.1.
Supongamos que el teorema es cierto para m − 1 ≥ 1 y probémoslo
para m.
Tenemos pues un D-módulo M de torsión, cuyo orden es ω (M) =
k1 k2
p1 p2 . . . pkmm donde los pi ∈ D son m > 1 primos distintos.
Designemos por r = pk22 pk33 . . . pkmm . Entonces,

ω (M) = pk11 r y mcd (pk11 , r) = 1


Luego, por el Lema 7.2.1, M = M p1 ⊕ Mr y, en virtud de la hipótesis
inductiva,
Mr = M p2 ⊕ M p3 ⊕ · · · ⊕ M pm
=⇒ M = M p1 ⊕ M p2 ⊕ · · · ⊕ M pm

253
Publicación digital de Editorial Equinoccio
7 M ÓDULOS SOBRE UN DIP

donde cada M pi es de orden pki i .


Nuevamente por el Lema 7.2.1 y la hipótesis inductiva,
 
∏ pjj
k
M p1 = r M = M
j=1
y para i = 2, 3, . . ., m :
 

k
Mr = pk11 M M pi = pjj Mr
j=1,i
   
∏ ∏ pjj
k k
=⇒ M pi = pk11 pjj M = M
j=1,i j=i

Supongamos que también

M = Mq1 ⊕ Mq2 ⊕ · · · ⊕ Mqn


h
donde cada Mq j es de orden q j j y q j es un primo.
Es claro que q = qh11 qh22 . . . qhnn satisface q M = {0} y, si t M = {0},
entonces, para cada j = 1, . . . , n, ocurre t Mq j = {0}, lo cual implica que
h h
cada q j j divide a t; es decir, t es múltiplo común de los q j j y por tanto
es divisible por su mínimo común múltiplo que es q. 5 Esto significa que
q = ω (M).
Pero el Teorema 5.5.3 nos dice que la expresión

ω (M) = pk11 pk22 . . . pkmm

es única (en términos de asociatividad), luego n = m y (reordenando si


es necesario) qi  pi con hi = ki .

El lema a continuación no tiene otro objeto que fraccionar la de-


mostración del teorema capital que lo sigue.

h
5
q es el mcm porque los q j j son primos relativos por pares.

254
Publicación digital de Editorial Equinoccio
7.2 D ESCOMPOSICIÓN DE UN MÓDULO FG SOBRE UN DIP

Lema 7.2.2. Sea M un D-módulo FG de torsión y de orden p k , donde


p ∈ D es primo.6
Entonces M es suma directa

M = C⊕H

donde C es un submódulo cíclico de orden p k .


Demostración. Existe algún u ∈ M cuyo orden es precisamente p k .
En efecto, como todo elemento de M es de torsión y p k M = {0}, el
orden de cada uno divide a pk y, puesto que p es primo, es de la forma
pe , donde e ≤ k.
Sea pm el orden con máximo exponente m ≤ k entre todos los ele-
mentos de M. Es obvio entonces que p m M = {0}, de modo que pk |pm ,
lo cual implica que k ≤ m. En suma, m = k.
Sea el submódulo cíclico C = A u = {au | a ∈ A }, de orden pk por
construcción.
Sea F la familia de todos los submódulos S de M que están en suma
directa con C; es decir, tales que C ∩ S = {0}. Ocurre que F = ∅, pues
al menos {0} ∈ F .
En virtud del Corolario 7.1.3, existe algún máximo H ∈ F y tene-
mos que
N = C⊕H ($)
Todo se reduce a demostrar que N = M (y ya sabemos que N ⊂ M).
Para probar N = M, basta con establecer que, si x ∈ M, entonces

px ∈ N =⇒ x∈N (†)

pues entonces,

∀x ∈ M : pk x = 0 ∈ N =⇒ pk−1 x ∈ N
=⇒ · · · =⇒ px ∈ N =⇒ x ∈ N

Nos dedicamos pues a probar (†).

6
Es decir, M es un D-módulo primario FG.

255
Publicación digital de Editorial Equinoccio
7 M ÓDULOS SOBRE UN DIP

Tomemos un px = au + h ∈ N, donde a ∈ A y h ∈ H. Ahora bien,

pk−1 (px) = pk x = 0 =⇒ pk−1 au + pk−1 h = 0


=⇒ pk−1 au = −pk−1 h ∈ C ∩ H = {0} =⇒ (pk−1 a)u = 0
=⇒ pk−1 a = rpk =⇒ a = rp =⇒ px = rpu + h

Por tanto,
p(x − ru) = h (‡)
Hagamos la siguiente suposición

y = x − ru ∈
/N (∇)

Entonces, H ⊂ T = A y + H y T = H (pues y = 1y ∈ A y ⊂ T e
y∈/ H). En virtud de la maximalidad de H, esto significa que T ∈ / F ; en
consecuencia, C ∩ T = {0}.
Se infiere que existe un elemento de la forma cu = dy + h , donde

cu = 0 h ∈ H (δ .1)

Luego,
dy = cu − h ∈ N (δ .2)
Si p no divide a d, entonces, como py = h, según (‡), y aplicando
(δ .2), obtenemos

mcd (p, d) = 1 =⇒ 1 = sp + td
=⇒ y = s(py) + t(dy) = sh + t(dy) ∈ N

lo cual contradice la suposición (∇).


Luego, p debe dividir a d, de modo que, aplicando (δ .2),

d = d p =⇒ cu = d  (py) + h =⇒ cu = d  h + h ∈ H
=⇒ cu ∈ C ∩ H =⇒ cu = 0

lo cual contradice (δ .1).


En resumen, la suposición (∇) conduce inexorablemente a contra-
dicciones. Se concluye que (∇) es falsa, de modo que debe ser y =

256
Publicación digital de Editorial Equinoccio
7.2 D ESCOMPOSICIÓN DE UN MÓDULO FG SOBRE UN DIP

x − ru ∈ N, de donde x = y + ru ∈ N y hemos probado (†) que, como


vimos, implica que N = M y, en virtud de ($), tenemos M = C ⊕ H.

Ahora abordamos un resultado mucho más profundo que el teorema


de descomposición primaria y para el cual la condición FG del módulo
es indispensable. La demostración se apoya sobre el lema anterior. Este
es el teorema que justifica nuestra excursión por el terreno de los módu-
los, pues de él se desprende el aparato que transparenta el espectro7 de
una transformación lineal.
Teorema 7.2.3. Sea M un D-módulo FG de torsión y de orden p k ,
donde p ∈ D es primo.
Entonces M es suma directa

M = C1 ⊕ C2 ⊕ · · · ⊕ Cn

de submódulos cíclicos Ci de órdenes respectivos pki con

k = k1 ≥ k2 ≥ · · · ≥ kn

Demostración. Según el Lema 7.2.2, podemos expresar


M = C1 ⊕ H1

donde C1 es un submódulo cíclico de orden p ki , con k1 = k.


Si H1 = {0}, hemos concluido la demostración.
Supongamos que H1 = {0}.
Ahora bien, en virtud del Teorema 7.1.6, todo submódulo de M es
FG; luego, H1 es un D-módulo FG, obviamente de torsión (por serlo
M) y cuyo orden es pk2 , donde k2 ≤ k1 = k (pues pk H1 = {0}).
Aplicamos entonces a H1 el Lema 7.2.2 y H1 = C2 ⊕ H2 donde C2 es
un módulo cíclico de orden pk2 . En consecuencia, M = C1 ⊕ C2 ⊕ H2 .
Si H2 = {0}, hemos terminado. De lo contrario, seguimos adelante por
obvia inducción y obtenemos una sucesión creciente de submódulos

C1 ⊂ C1 ⊕ C2 ⊂ C1 ⊕ C2 ⊕ C3 ⊂ · · ·
7 El uso de la palabra espectro es intencional.

257
Publicación digital de Editorial Equinoccio
7 M ÓDULOS SOBRE UN DIP

la cual, de acuerdo con el Lema 7.1.3 debe ser finita; es decir, forzosa-
mente llegaremos a un Hn = {0} y M = C1 ⊕ C2 ⊕ · · · ⊕ Cn .

Ahora nos encaminamos a probar la unicidad de la descomposición


establecida en el teorema anterior. Necesitaremos tres lemas previos.

Lema 7.2.3. Dos D-módulos cíclicos de torsión son isomorfos si, y sólo
si, tienen el mismo orden.
Demostración. Sea M = Du un D-módulo cíclico de torsión y de orden
ω (M) = ω (u) = d = 0.
Consideremos el D-módulo D D (que por cierto es cíclico y libre
sobre la base {1}) y el epimorfismo ψ : D D → M tal que, para a ∈ D,
ψ (a) = au.
Ahora bien, por definición de d = ω (u),

ker ψ = {a ∈ D | 0 = ψ (a) = au} = d D

(d D es por supuesto un submódulo de D D, al mismo tiempo que es un


ideal de D).
En virtud del Teorema 6.5.1, se infiere que cualquier D-módulo cí-
clico de torsión M con orden d es isomorfo con D D/d D. Por tanto, dos
D-módulos cíclicos de torsión y del mismo orden son isomorfos.
Recíprocamente, supongamos ahora que Du y Dv son módulos cí-
clicos de órdenes respectivos d = ω (u) = 0 y e = ω (v) = 0 y existe un
isomorfismo ϕ : Du → Dv.
Entonces,

ϕ (eu) = eϕ (u) = 0 =⇒ eu ∈ ker ϕ = {0}


=⇒ eu = 0 =⇒ e = sd

Pero ϕ −1 : Dv → Du es también un isomorfismo; luego, aplicando


el mismo argumento, obtenemos d = te.
Por tanto, e = (st)e =⇒ st = 1 =⇒ d  e, lo cual significa que d
es el orden de ambos módulos.

258
Publicación digital de Editorial Equinoccio
7.2 D ESCOMPOSICIÓN DE UN MÓDULO FG SOBRE UN DIP

Lema 7.2.4. Sea M un D-módulo tal que p M = {0}, para un primo


p ∈ D.
Entonces, M es un espacio vectorial sobre el cuerpo 8 D/p D.
Demostración. La estructura (M, +) es un grupo abeliano. Dotemos
a M de una ley de composición externa sobre el cuerpo D/p D del si-
guiente modo.
Para x ∈ M y a + p D ∈ D/p D, definimos (a + p D)x = ax ∈ M
(donde ax es el producto del escalar a ∈ D por el elemento x del D-
módulo M).
Es preciso verificar que esta ley externa está bien definida. En efec-
to, para todo x ∈ M,

a + p D = b + p D =⇒ a − b ∈ p D =⇒ a − b = rp
=⇒ ax − bx = (a − b)x = r(px) = 0
=⇒ (a + p D)x = ax = bx = (b + p D)x

Es ahora rutinario comprobar que la ley externa definida satisface


las cuatro propiedades de la ley externa en un espacio vectorial.

Lema 7.2.5. Sea S un submódulo de un D-módulo M. Entonces, para


cualquier c ∈ D,
S(c) = {x ∈ S | cx = 0}
es un submódulo y, si M admite una descomposición

M = S1 ⊕ S2 ⊕ · · · ⊕ Sn

entonces,
(c) (c) (c)
M(c) = S1 ⊕ S2 ⊕ · · · ⊕ Sn

Demostración. S(c) = ∅, pues al menos 0 ∈ S(c) . Si α , β ∈ D y x, y ∈


S(c) , entonces α x + β y ∈ S y c(α x + β y) = α (cx) + β (cy) = 0 implican
que α x + β y ∈ S(c) . De modo que S(c) es un submódulo.
Supongamos que M = S1 ⊕ S2 ⊕ · · · ⊕ Sn .

8 Véase el Teorema 5.5.1 en la página 181.

259
Publicación digital de Editorial Equinoccio
7 M ÓDULOS SOBRE UN DIP

Tomemos cualquier x ∈ M(c) . Entonces, como x ∈ M, tenemos x =


x1 + x2 + · · · + xn , donde cada xk ∈ Sk . Ocurre que 0 = cx = cx1 + cx2 +
· · · + cxn ; pero esa representación es única (Proposición 6.2.1), entonces
(c) (c) (c)
cada cxk = 0, de modo que xk ∈ Sk y se infiere que M(c) = S1 + S2 +
(c)
· · · + Sn .
(c)
Por definición, cada Sk ⊂ Sk o sea que
(c) (c)
Sk ∩ ∑ Si ⊂ Sk ∩ ∑ Si = {0}
i=k i=k

(c)
y la suma de los Sk es directa.

Teorema 7.2.4. Sea M un D-módulo FG de torsión y de orden p k ,


donde p ∈ D es primo.
Entonces, la expresión de M, según el Teorema 7.2.3,

M = C1 ⊕ C2 ⊕ · · · ⊕ Cn

como suma directa de submódulos cíclicos C i de órdenes respectivos


pki con k = k1 ≥ k2 ≥ · · · ≥ kn , es única.
Demostración. Sea M = C1 ⊕ C2 ⊕ · · · ⊕ Cm otra descomposición en
suma directa de submódulos cíclicos de órdenes respectivos

ph1 , ph2 , . . . , phm con h 1 ≥ h2 ≥ · · · ≥ hm

.
Vamos a demostrar primero que m = n.
En virtud del Lema 7.2.5,
(p) (p) (p) (p) (p) (p)
M(p) = C1 ⊕ C2 ⊕ · · · ⊕ Cn = C1 ⊕ C2 ⊕ · · · ⊕ Cm ()

y ningún sumando es {0}. En efecto, Ci es de orden pki con ki ≥ 1, en-


tonces existe algún x ∈ Ci tal que y = pki −1 x = 0 y tenemos py = pki x =
(p) (p)
0, por tanto 0 = y ∈ Ci . Por idéntico argumento, cada C j = {0}.

260
Publicación digital de Editorial Equinoccio
7.2 D ESCOMPOSICIÓN DE UN MÓDULO FG SOBRE UN DIP

Ahora bien, dado que pM(p) = {0} (por definición de M(p)), el Lema
7.2.4 indica que M(p) es un espacio vectorial sobre el cuerpo D/p D y
() lo expresa como suma directa de subespacios uni-dimensionales,
luego m = n es la dimensión del espacio vectorial M (p) .
Probaremos que ki = hi , para i = 1, 2, . . ., n, por inducción en k1 .
Si k1 = 1, forzosamente k2 = · · · = kn = 1 y pM = {0}, entonces
también h1 = h2 = · · · = hn = 1 (pues, si h1 > 1, existe un x ∈ C1 con
px = 0).
Supongamos ahora que los exponentes correspondientes son iguales
siempre que k1 = k − 1 y demostrémoslo para k1 = k.
Tenemos k = k1 ≥ k2 ≥ · · · ≥ kr > 1 y h1 ≥ h2 ≥ · · · ≥ hs > 1 con
ki = 1, para r < i ≤ n, y h j = 1, para s < j ≤ n.
Se infiere que

pM = pC1 ⊕ pC2 ⊕ · · · ⊕ pCr = pC1 ⊕ pC2 ⊕ · · · ⊕ pCs ()

Para 1 ≤ i ≤ r, tomemos Ci = Dui y

pCi = {paui | a ∈ D} = D pui

indica que pCi es un submódulo cíclico de orden p ki −1 y, por razona-


miento análogo, pCj es un submódulo cíclico de orden p h j −1 , ambos
del D-módulo FG pM de torsión y orden p k−1 .
Por lo demostrado arriba, r = s.
En particular, el orden de pC1 es pk1 −1 y k1 − 1 = k − 1.
Luego, en virtud de la hipótesis inductiva aplicada a la expresión
(), ki − 1 = hi − 1, para i = 1, . . . , r y los submódulos cíclicos C i y Ci
son isomorfos por tener el mismo orden p ki (Lema 7.2.3).

Ahora vamos a probar que M no puede descomponerse más; es de-


cir, que ninguno de los submódulos cíclicos en el Teorema 7.2.4 es suma
directa de submódulos no triviales.

Lema 7.2.6. Sea N un submódulo de un D-módulo cíclico M = Du.


Entonces, existe un d ∈ D tal que N = D(du) = dM.

261
Publicación digital de Editorial Equinoccio
7 M ÓDULOS SOBRE UN DIP

Demostración. El conjunto de escalares I = {a ∈ D | au ∈ N} es un


ideal de D. En efecto, si a, b ∈ I y r ∈ D, ocurre

(a − b)u = au − bu ∈ N =⇒ a − b ∈ I
(ar)u = r(au) ∈ N =⇒ ar ∈ I

Pero D es un DIP, por tanto I es un ideal principal I = d D y se


verifica N = D(du). En efecto,

x∈N =⇒ x = au =⇒ a ∈ I =⇒ a = bd
=⇒ x = b(du) ∈ D(du)

Luego, N ⊂ D(du).

y ∈ D(du) =⇒ y = c(du) ∈ N (pues d ∈ I y du ∈ N)

Luego, D(du) ⊂ N.
En conclusión, N = D(du).
Por otro lado,

x = a(du) ∈ D(du) ⇐⇒ x = d(au) ∈ dM

indica que D(du) = dM.

Comentario 7.2.3. Es importante destacar que el lema anterior pone


de manifiesto que todo submódulo de un D-módulo cíclico es cíclico.

Lema 7.2.7. Sea M = Du un D-módulo cíclico de torsión de orden p k ,


donde p ∈ D es primo y k ≥ 1.
Entonces M sólo admite los k + 1 submódulos siguientes

{0} = pk M ⊂ pk−1 M ⊂ pk−2 M ⊂ · · · ⊂ p1 M ⊂ p0 M = M

Demostración. Sea N un submódulo cualquiera de M. Según el lema


anterior, N = dM = D(du), para un cierto d ∈ D.

262
Publicación digital de Editorial Equinoccio
7.2 D ESCOMPOSICIÓN DE UN MÓDULO FG SOBRE UN DIP

Si e = mcd (pk , d), entonces e|d, y (por el Teorema 5.5.4) e = rpk +


sd, para ciertos r, s ∈ D. Entonces,

eu = r(pk u) + sdu = s(du) ∈ N

por tanto e = td, es decir, d|e. Se infiere que d  e, es decir, e = f d,


donde f ∈ D es inversible.
Pero e|pk y p es primo, luego e = f  pi , donde f  es inversible y
0 ≤ i ≤ k.
En conclusión, d = ( f −1 f  )pi y se tiene N = pi M (pues f −1 f  es
inversible, de modo que d  pi ).

Corolario 7.2.3. Un D-módulo cíclico de torsión M = Du de orden p k ,


donde p ∈ D es primo y k ≥ 1 no es suma directa de submódulos no
triviales.
Demostración. Aplicando el Lema 7.2.7 sobre los posibles submódulos
de M, supongamos que M = pi M ⊕ p j M, donde 0 ≤ i ≤ j ≤ k.
Entonces, por el Lema 7.2.7 y el hecho de que la suma es directa,

p j M ⊂ pi M =⇒ p j M = pi M ∩ p j M = {0}

Teorema 7.2.5. Sea M un D-módulo FG.


Entonces, M no es suma directa de submódulos no triviales si, y
sólo si, M es cíclico libre o cíclico primario (de orden potencia de un
primo).
Tales módulos suelen llamarse “irreducibles.”
Demostración. Por el Corolario 7.2.3 sabemos que un D-módulo cíclico
de torsión y de orden pk , donde p ∈ D es primo y k ≥ 1 no es suma
directa de submódulos no triviales.
Supongamos que M = {0} es cíclico libre sobre una base {u} y
M = M1 ⊕ M2 . De acuerdo con el Lema 7.2.6, M1 = d1 M y M2 = d2 M
y es claro que

d1 d2 u ∈ M 1 ∩ M 2 =⇒ d 1 d2 u = 0 =⇒ d 1 d2 = 0

263
Publicación digital de Editorial Equinoccio
7 M ÓDULOS SOBRE UN DIP

pues u es libre de torsión; pero entonces d 1 = 0 o bien d2 = 0 (por


integridad de D), lo cual implica que M1 o bien M2 es {0}.
Recíprocamente, supongamos que M es un D-módulo FG que no es
suma directa de submódulos no triviales.
Por el Teorema 7.2.1, M = L ⊕ Mtor donde L es un submódulo libre
y Mtor es el submódulo de los elementos de torsión de M. Entonces, de
acuerdo con nuestra suposición, sucede una de estas dos alternativas:

1. Mtor = {0}. Entonces M = L es libre y, como no es suma di-


recta de submódulos no triviales, necesariamente es cíclico (con-
secuencia del Teorema 7.1.1).
2. L = {0}. Entonces M = Mtor es un D-módulo FG de torsión que
no es suma directa de submódulos no triviales. Es consecuencia
de los Teoremas 7.2.2 y 7.2.3 que M debe ser cíclico primario.

Recapitulación:
Sea M es un D-módulo FG, donde D es un DIP.

1. (Teorema 7.2.1) M = L ⊕ Mtor , donde L es un submódulo libre y


Mtor es el submódulo de los elementos de torsión.
Esta descomposición es única en el sentido de que, si M = F ⊕
Mtor , con F libre, entonces F y L son isomorfos.

2. (Teorema 7.1.1) L es un D-módulo libre sobre una base cual-


quiera {x1 , x2 , . . ., xl }, entonces

L = Dx1 ⊕ Dx2 ⊕ · · · ⊕ Dxl

y esta descomposición es única (Comentario 7.1.4), en el sentido


de que el número de submódulos cíclicos Dx i es siempre l y todos
los módulos cíclicos libres son isomorfos.
Es importante agregar que ningún Dxi admite descomposición no
trivial en suma directa (Corolario 7.1.2).

264
Publicación digital de Editorial Equinoccio
7.2 D ESCOMPOSICIÓN DE UN MÓDULO FG SOBRE UN DIP

3. (Teorema 7.2.2) Mtor es un D-módulo FG con torsión y de orden


ω (M) = pk11 pk22 . . . pkmm donde los pi ∈ D son primos distintos,
entonces Mtor es suma directa de m submódulos primarios,

Mtor = M p1 ⊕ M p2 ⊕ · · · ⊕ M pm

donde cada M pi es de orden pki i y esta descomposición es única


(en el sentido expresado en el Teorema 7.2.2).

4. (Teorema 7.2.3) Cada M pi es un D-módulo FG de torsión y de


orden pki i , donde pi ∈ D es primo, entonces M pi es suma directa

M pi = Ci1 ⊕ Ci2 ⊕ · · · ⊕ Cini


k
de submódulos cíclicos Ci j de órdenes respectivos pi i j con ki =
ki1 ≥ ki2 ≥ · · · ≥ kini .
Ya hemos demostrado en el Teorema 7.2.4 la unicidad de esta
descomposición.

5. En resumen, el D-módulo FG M admite la siguiente descompo-


sición única en suma directa de submódulos
M= Dx1 ⊕ Dx2 ⊕ ... ⊕ Dxl
⊕ C11 ⊕ C12 ⊕ ... ⊕ C1n1
⊕ C21 ⊕ C22 ⊕ ... ⊕ C2n2 (7.2.1)
... ... ... ... ... ... ... ...
⊕ Cm1 ⊕ Cm2 ⊕ ... ⊕ Cmnm

donde los Dxi son cíclicos libres y los Ci j son cíclicos de torsión
k
de órdenes respectivos pi i j con ki = ki1 ≥ ki2 ≥ · · · ≥ kini .
En virtud del Teorema 7.2.5, no es posible mayor descomposición
de M en suma directa de submódulos no triviales.

*****************************

265
Publicación digital de Editorial Equinoccio
7 M ÓDULOS SOBRE UN DIP

Un D-módulo FG de torsión admite otra descomposición en suma


directa de submódulos cíclicos que es de considerable importancia. La
obtendremos como consecuencia del lema siguiente.
Lema 7.2.8. Sea M un D-módulo FG de torsión.
Si M es expresable
M = S1 ⊕ S2 ⊕ · · · ⊕ Sn
como suma directa de submódulos cíclicos S i , de órdenes respectivos
ai = 0 y tales que9 mcd (ai , a j ) = 1 para i = j, entonces M es cíclico de
orden a1 × a2 × · · · × an .
Demostración. Procedemos por inducción en el número n de sumandos
cíclicos.
Si n = 1 no hay nada que probar.
Supongamos que n = 2:
M = S1 ⊕ S2
S1 = Du1 S2 = Du2
ω (S1 ) = ω (u1 ) = a1 ω (S2 ) = ω (u2 ) = a2 mcd (a1 , a2 ) = 1
Entonces, todo x ∈ M es de la forma x = α u1 + β u2 y, como 1 =
r1 a1 + r2 a2 (para ciertos r1 , r2 ∈ D) y a1 u1 = a2 u2 = 0, tenemos que
α = α r 1 a1 + α r 2 a2 β = β r 1 a1 + β r 2 a2
=⇒ x = (α r1 a1 + α r2 a2 )u1 + (β r1 a1 + β r2 a2 )u2
=⇒ x = (α r2 a2 )u1 + (β r1 a1 )u2
=⇒ x = (α a2 + β a1 )(r2 u1 + r1 u2 )
Luego, M es cíclico generado por r2 u1 + r1 u2 .
Por otro lado, (a1 a2 )M = {0} significa que el orden d = ω (M) di-
vide a a1 a2 .
Pero, dS1 = {0} y dS2 = {0} implican que a1 |d y a2 |d; es decir, d
es múltiplo común de a 1 y a2 , y, como éstos son primos relativos, su mí-
nimo común múltiplo es a 1 a2 (véase la página 188). En consecuencia,
a1 a2 divide a d.
9 Los ai son primos relativos por pares.

266
Publicación digital de Editorial Equinoccio
7.2 D ESCOMPOSICIÓN DE UN MÓDULO FG SOBRE UN DIP

En resumen, a1 a2  d y a1 × a2 es el orden de M.
Supongamos que la tesis es cierta cuando se trata de n − 1 ≥ 1
sumandos cíclicos que cumplen las condiciones del enunciado y con-
sideremos M = S1 ⊕ S2 ⊕ · · · ⊕ Sn .
Entonces, M = S1 ⊕ N, donde N = S2 ⊕ · · · ⊕ Sn .
Aplicamos la hipótesis inductiva a N y se concluye que N es cíclico
de orden b = a2 × · · · × an .
Ahora bien, si un primo p ∈ D es divisor común de a 1 y de b, en-
tonces p ha de dividir a algún ai con i > 1 (por definición de primo), pero
esto no es posible puesto que mcd (a 1 , ai ) = 1. Luego, mcd (a1 , b) =
1.10 Se infiere (caso n = 2) que M es cíclico de orden a1 × b = a1 ×
a2 × · · · × a n .

Teorema 7.2.6. (Descomposición por factores invariantes) Sea M un


D-módulo FG de torsión de orden d = ω (M) = 0.
Entonces, M es suma directa
M = M1 ⊕ M2 ⊕ · · · ⊕ Mh
de submódulos cíclicos M j de órdenes respectivos d j = 0 que satisfacen
d1 = d y dh | dh−1 | . . . | d1
y esta descomposición es única.
A los escalares d j –unívocamente determinados por M– se les llama
factores invariantes.
Demostración. Sea d = pk11 pk22 . . . pkmm la expresión única (salvo por el
orden de los factores y en términos de asociatividad) de d como pro-
ducto de primos pi .
En virtud de los Teoremas 7.2.2 y 7.2.3, M es suma directa

M= C11 ⊕ C12 ⊕ ... ⊕ C1n1


⊕ C21 ⊕ C22 ⊕ ... ⊕ C2n2
(0)
... ... ... ... ... ... ... ...
⊕ Cm1 ⊕ Cm2 ⊕ ... ⊕ Cmnm

10 Consecuencia del Teorema 5.5.2.

267
Publicación digital de Editorial Equinoccio
7 M ÓDULOS SOBRE UN DIP

k
de submódulos cíclicos no triviales C i j de órdenes respectivos pi i j con
ki = ki1 ≥ ki2 ≥ · · · ≥ kini y esta descomposición es única.
Ahora bien, (0) puede expresarse como
M = M1 ⊕ M 2 ⊕ · · · ⊕ M h
donde
M j = C1 j ⊕ C2 j ⊕ · · · ⊕ Cm j
es decir, agrupamos el lado derecho de (0) por “columnas.” Nótese que,
en general, las “filas” de (0) no tienen la misma “longitud,” por tanto
h = max{n1 , . . . , nm }. O sea que M j puede bien ser la suma directa de
menos de m de los Ci j , pues si n j < j, entonces Ci j no existe.
Los sumandos (existentes) C1 j , C2 j , . . . Cm j son de órdenes respec-
tivos
k k k
p11 j , p22 j , . . . , pmm j
claramente primos relativos por pares, de modo que, por el Lema 7.2.8,
k k k
M j es cíclico de orden d j = p11 j × p22 j × · · · × pmm j .
Nótese que M1 tiene el mismo orden d1 = d que M. Y como ki1 ≥
ki2 ≥ · · · ≥ kini , es claro que
dh | dh−1 | . . . | d1
Supongamos que M admite otra descomposición en suma directa de
submódulos cíclicos con las características del enunciado. Aplicamos
entonces a cada sumando el Teorema de Descomposición Primaria 7.2.2
y, como todo submódulo de un módulo cíclico es cíclico (Comentario
7.2.3), obtenemos la expresión de M en suma directa de submódulos cí-
clicos coincidente con (0), cuya unicidad ha sido establecida (Teorema
7.2.4). Invirtiendo el proceso de acuerdo con la demostración realizada
arriba llegamos a idéntica descomposición.

Ejemplo 7.2.1. Es oportuno un ejemplo para ilustrar la argumentación


del teorema anterior.
Sea M un D-módulo FG de torsión de orden
d = p51 × p32 × p43 × p24

268
Publicación digital de Editorial Equinoccio
7.2 D ESCOMPOSICIÓN DE UN MÓDULO FG SOBRE UN DIP

donde p1 , p2 , p3 , p4 son primos distintos. Supongamos que M admite la


siguiente descomposición en suma directa de submódulos cíclicos:
M = C11 ⊕ C12 ⊕ C13
⊕ C21 ⊕ C22
⊕ C31 ⊕ C32 ⊕ C33 ⊕ C34
⊕ C41
Supongamos además que los órdenes respectivos de los C i j son los
siguientes, que colocamos en la misma distribución visual,
p51 p31 p21

p32 p2

p43 p33 p33 p23

p24
Tenemos entonces los submódulos cíclicos
M1 = C11 ⊕ C21 ⊕ C31 ⊕ C41
M2 = C12 ⊕ C22 ⊕ C32
M3 = C13 ⊕ C33
M4 = C34
y se verifica
M = M1 ⊕ M 2 ⊕ M 3 ⊕ M 4
donde, según el Lema 7.2.8, los M j son cíclicos y sus órdenes respec-
tivos son
d1 = ω (M1 ) = p51 × p32 × p43 × p24
d2 = ω (M2 ) = p31 × p2 × p33
d3 = ω (M3 ) = p21 × p33
d4 = ω (M4 ) = p23
Nótese que ciertamente d1 = d y d4 | d3 | d2 | d1 .

269
Publicación digital de Editorial Equinoccio
7 M ÓDULOS SOBRE UN DIP

7.3 Matrices y módulos libres


A partir de esta sección y hasta el final del capítulo abordamos la
tarea de calcular las descomposiciones de un D-módulo FG en suma
directa de submódulos cíclicos. Para ello empleamos matrices sobre el
DIP D.
Dado que los D-módulos libres comparten tantas propiedades con
los espacios vectoriales de dimensión finita, no debe sorprender la ana-
logía entre los homomorfismos y las transformaciones lineales junto con
sus respectivas matrices asociadas.
Tomemos un par de D-módulos libres L y F de ranks n, m respecti-
vamente.
Sea ϕ : L → F un homomorfismo.
Sea X = {x1 , x2 , . . . , xn } una base para L e Y = {y1 , y2 , . . . , ym } una
base para F.
Destacamos, como siempre que intervienen matrices, que se trata de
bases ordenadas. Bases constituidas por los mismos elementos, pero en
orden distinto, se consideran bases diferentes.
El Teorema 7.1.2 nos dice que ϕ está unívocamente determinado
por los elementos ϕ (x1 ), ϕ (x2 ), . . ., ϕ (xn ) y éstos a su vez (Lema 7.1.1)
admiten expresión única como combinación lineal de los elementos de
la base Y de F :

ϕ (x1 ) = a11 y1 +a21 y2 + · · · + am1 ym


ϕ (x2 ) = a12 y1 +a22 y2 + · · · + am2 ym
(7.3.1)
···
ϕ (xn ) = a1n y1 +a2n y2 + · · · + amn ym
Como el homomorfismo ϕ determina los m × n coeficientes escalares
ai j ∈ D, y, recíprocamente, los ai j , conocido el lugar que le corresponde
a cada uno según (7.3.1), determinan unívocamente a ϕ , asociamos a ϕ
la matriz
⎛ ⎞
a11 a12 . . . a1n
⎜ a21 a22 . . . a2n ⎟
[ϕ ] = ⎜⎝ ... ... ... ... ⎠

am1 am2 . . . amn

270
Publicación digital de Editorial Equinoccio
7.3 M ATRICES Y MÓDULOS LIBRES

donde se conviene en tomar como columna j ( j = 1, . . ., n) las coorde-


nadas del elemento ϕ (x j ) con respecto a la base Y de F y en el orden
que corresponde.
Es obvio que la matriz asociada al homomorfismo nulo O : L → F es
(0)m×n (con respecto a cualquier elección de bases).
Con idénticos argumentos a los empleados para los espacios de
transformaciones lineales entre espacios vectoriales, podemos afirmar
que el conjunto H (L, F) de todos los homomorfismos: L → F es un
D-módulo.
Si λ ∈ D es cualquier escalar, es inmediato que [λ ϕ ] = (λ ai j ),
donde λ ϕ : L → F es el homomorfismo (λ ϕ )(x) = λ ϕ (x).
Si ψ : L → F es otro homomorfismo de matriz [ψ ] = (b i j ) (con res-
pecto a las mismas bases X,Y ), se verifica que [ϕ + ψ ] = (ai j + bi j ),
donde ϕ + ψ : L → F es el homomorfismo (ϕ + ψ )(x) = ϕ (x) + ψ (x).
En consecuencia, si definimos suma de matrices m × n sobre D
como (ai j )+(bi j ) = (ai j +bi j ) y producto por un escalar como λ (ai j ) =
(λ ai j ), hemos dotado al conjunto M m×n de las matrices m × n sobre D
de estructura de D-módulo isomorfo con H (L, F).
Sean ahora los homomorfismos ϕ : L → F y τ : F → H, donde H es
otro D-módulo libre de rank p y hemos elegido bases
X = {x1 , x2 , . . . , xn }, Y = {y1 , y2 , . . . , ym }, Z = {z1 , z2, . . . , z p }
para L, F, H respectivamente, y con respecto a las cuales se tienen las
matrices
[ϕ ] = (ai j )m×n [τ ] = (b jk ) p×m
Razonando de manera idéntica a como se hizo en la Sección 3.2, se
comprueba que la matriz [τ ◦ ϕ ] = (ck j ) p×n asociada al homomorfismo
compuesto τ ◦ ϕ : L → H, con respecto a las bases X, Z, es precisamente
[τ ◦ ϕ ] = (ck j ) p×n = (b jk ) p×m × (ai j )m×n
donde ck j = a1 j bk1 + a2 j bk2 + · · · + am j bkm ; es decir, [τ ◦ ϕ ] es el pro-
ducto de las matrices [τ ] y [ϕ ] (en ese orden).
Se infiere que el producto de matrices sobre D posee las mismas
propiedades que la composición de homomorfismos: asociatividad, dis-
tributividad por ambos lados con respecto a la suma, y la propiedad

271
Publicación digital de Editorial Equinoccio
7 M ÓDULOS SOBRE UN DIP

α ([τ ] × [ϕ ]) = (α [τ ]) × [ϕ ] = [τ ] × (α [ϕ ]) relacionada con el producto


por un escalar.
En síntesis, las matrices sobre un DIP D poseen las mismas propie-
dades operativas que las establecidas para matrices sobre un cuerpo en
la Sección 3.2.
Las matrices asociadas a homomorfismos en H (L, L), con respecto
a bases previamente elegidas en L como dominio y otra (posiblemente
distinta) para L como codominio, son desde luego cuadradas n × n
y constituyen, como hemos visto, un D-módulo M n×n isomorfo con
H (L, L). Pero, en este caso, el producto de matrices es una operación
binaria sobre Mn×n de modo tal que (Mn×n , +, ×) es un anillo, no abe-
liano con neutro, isomorfo con el anillo (H (L, L), +, ◦).
Si elegimos la misma base en L como dominio y como codominio,
es claro que el neutro en Mn×n con respecto a ×, vale decir, la matriz
asociada al homomorfismo identidad I : L → L resulta ser la matriz
identidad
⎛ ⎞
1 0 ··· 0
⎜ 0 1 ··· 0 ⎟
[I] = I = ⎜ ⎟
⎝· · · · · · · · · · · ·⎠
0 0 ··· 1
Gracias a que los anillos (H (L, L), +, ◦) y (Mn×n , +, ×) son iso-
morfos, ocurre que, para un automorfismo ϕ ∈ H (L, L), se tiene [ϕ ]−1
= [ϕ −1 ].
Conservamos el nombre de matriz no-singular para una matriz in-
versible.
Sea nuevamente el homomorfismo ϕ : L → F, de matriz asociada
[ϕ ] = (ai j )m×n , con respecto a las bases X = {x1 , . . . , xn },Y = {y1 , . . . , ym }
para los D-módulos libres L, F respectivamente.
Tomemos un elemento z ∈ L cualquiera, no nulo, y sea S = Dz el
submódulo cíclico libre sobre la base {z}.
Sea iz : S → L la inyección canónica; es decir, iz (w) = w, para todo
w ∈ S. La matriz n × 1 asociada a iz , con respecto a las bases {z}, X es

272
Publicación digital de Editorial Equinoccio
7.3 M ATRICES Y MÓDULOS LIBRES

entonces ⎛ ⎞
b1
⎜ b2 ⎟
[iz] = ⎜ ⎟
⎝· · ·⎠
bn
donde z = b1 x1 + b2 x2 + · · · + bn xn es la expresión de z como combi-
nación lineal de la base X.
Razonando de modo idéntico a como se hizo en la Sección 3.2, se
concluye que
(ai j )m×n × (b j )n×1 = (ci )m×1
donde (ci )m×1 es la matriz columna de las coordenadas del elemento
ϕ (z) con respecto a la base Y de F.

Lema 7.3.1. Sean M y M  un par de matrices m × n sobre el DIP D.


Si para toda matriz C de dimensión n × 1 se tiene M × C = M  × C ,
entonces M = M  .
Demostración. Idéntica a la del Lema 3.2.1.

El homomorfismo ϕ : L → F tiene a [ϕ ] por matriz asociada con


respecto a bases X = {x1 , . . . , xn },Y = {y1 , . . . , ym } de L y F.
Supongamos que X # = {x#1 , . . . , x#n } e Y # = {y#1 , . . . , y#m } es otro par
de bases para L y F respectivamente, y sea [ϕ ]# la matriz asociada a ϕ
con respecto a las bases X #,Y # . Vamos a determinar la relación que
existe entre las matrices [ϕ ] y [ϕ ]# .
Consideremos los homomorfismos identidad I L : L → L e IF : F →
F, y sea [IL ] la matriz n × n con respecto a las bases X, X #, e [IF ] la
matriz m × m con respecto a las bases Y,Y # . Desde luego que [IL ] e
[IF ] son no-singulares puesto que I L e IF son automorfismos.
Si [z] es la matriz n × 1 constituida por las coordenadas del elemento
z ∈ L con respecto a X , entonces [z]# = [IL ] × [z] es la matriz n × 1
constituida por las coordenadas de z en X # .
Análogamente, si [w] es la matriz m × 1 constituida por las coorde-
nadas del elemento w ∈ F con respecto a Y , entonces [w]# = [IF ] × [w]
es la matriz m × 1 constituida por las coordenadas de w en Y # .

273
Publicación digital de Editorial Equinoccio
7 M ÓDULOS SOBRE UN DIP

Luego, para cualquier z ∈ L, tenemos

[ϕ (z)]# = [IF ] × [ϕ (z)] = [IF ] × ([ϕ ] × [z]) = ([IF ] × [ϕ ]) × [z]

pero también,

[ϕ (z)]# = [ϕ ]# × [z]# = [ϕ ]# × ([IL ] × [z]) = ([ϕ ]# × [IL ]) × [z]

En resumen, para todo z ∈ L,

([IF ] × [ϕ ]) × [z] = ([ϕ ]# × [IL ]) × [z]

Luego, en virtud del Lema 7.3.1,

[IF ] × [ϕ ] = [ϕ ]# × [IL ]

de donde,

[ϕ ]# = [IF ] × [ϕ ] × [IL]−1
Veamos ahora que una relación matricial de este tipo caracteriza a
dos matrices asociadas al mismo homomorfismo. Requerimos un lema
análogo al Lema 3.3.1.
Lema 7.3.2. Sea L un D-módulo libre sobre una base B = {x 1 , . . ., xn }
y sea ψ : L → L un automorfismo.
Sabemos11 que ψ (B) = B# = {x#1 , . . . , x#n }, donde ψ (xi ) = x#i (para
i = 1, . . . , n), es otra base de L.
Si [ψ ] es la matriz asociada a ψ con respecto a la base B e [I ] #
la matriz asociada al homomorfismo identidad I : L → L con respecto
a la base B# en L como dominio y la base B en L como codominio,
entonces, [ψ ] = [I ]# .
Demostración. Idéntica a la prueba del Lema 3.3.1.

Sea M una matriz m × n sobre D y consideremos

M# = P ×M ×Q
11 Por la Proposición 7.1.2.

274
Publicación digital de Editorial Equinoccio
7.3 M ATRICES Y MÓDULOS LIBRES

donde P y Q son matrices no-singulares de dimensiones respectivas


m × m y n × n.
Elijamos bases cualesquiera X = {x1 , . . . , xn }, Y = {y1 , . . ., ym } para
los D-módulos libres L y F respectivamente y sea ϕ : L → F el homo-
morfismo cuya matriz asociada respecto X,Y es [ϕ ] = M .
Sea η : F → F el automorfismo cuya matriz asociada es P −1 con
respecto a la base Y .
Sabemos que Y # = η (Y ) = {y#1 , . . . , y#m } (donde y#j = η (y j )) es otra
base del módulo F.
De acuerdo con el Lema 7.3.2, tenemos que P −1 = [IF ]# es la
matriz asociada al automorfismo identidad I F : F → F con respecto a
las bases Y # de F (dominio) e Y de F (codominio). Se infiere que
−1
P = [IF ]# = [IF ]#

donde [IF ]# es la matriz asociada a IF con respecto a las bases Y de F


(dominio) e Y # de F (codominio).
Sea ahora τ : L → L el automorfismo cuya matriz asociada es Q
con respecto a la base X . Entonces X # = τ (X) = {x#1 , . . . , x#n } (donde
x#i = τ (xi )) es otra base del módulo L.
Nuevamente de acuerdo con el Lema 7.3.2, Q = [IL ]# es la matriz
asociada al automorfismo identidad I L : L → L con respecto a las bases
X # de L (dominio) e X de L (codominio).
Tenemos entonces

M # = [IF ]# × [ϕ ] × [IL ]# = [IF ◦ ϕ ◦ IL ]# = [ϕ ]#

donde [ϕ ]# es la matriz asociada a ϕ con respecto a las bases X # de L e


Y # de F.
Recapitulamos como se hizo en la Sección 3.3 con el Teorema 3.3.1
y con la Definición 3.3.1.

Teorema 7.3.1. Sean L y F un par de D-módulos libres de ranks n, m


respectivamente.

275
Publicación digital de Editorial Equinoccio
7 M ÓDULOS SOBRE UN DIP

Dos matrices M , M # sobre D, de dimensión m × n, corresponden


al mismo homomorfismo ϕ : L → F con respecto a pares distintos de ba-
ses si, y sólo si, existen matrices no-singulares P m×m y Qn×n tales que
M# = P ×M ×Q (7.3.2)
Definición 7.3.1. Dadas matrices M , M # ∈ Mm×n sobre un DIP D,
decimos que M es equivalente a M # y se escribe
M∼
= M#
si ambas están asociadas al mismo homomorfismo entre D-módulos
libres de ranks n, m.
Es obvio que ∼ = es una relación de equivalencia sobre el módulo
Mm×n y hemos visto que está caracterizada por la relación matricial
(7.3.2).
Nótese que, lo mismo que con matrices sobre un cuerpo, una matriz
n × n sobre D es no-singular si, y sólo si, es equivalente a la matriz
identidad I.
En efecto, la matriz identidad está asociada a un isomorfismo, al
cual está asociada toda matriz equivalente a ella que es, por tanto, no-
singular.
Recíprocamente, si ϕ : L → F es un isomorfismo entre dos D-mó-
dulos libres L y F, ambos de rank n, y X = {x 1 , . . . , xn } es una base para
L, sabemos12 que Y = {ϕ (x1 ), . . ., ϕ (xn )} es una base para F. Es claro
que [ϕ ] = I con respecto a las bases X ,Y ; y toda matriz no-singular está
asociada a un isomorfismo.
Dado un D-módulo libre L sobre una base
X = {x1 , . . . , xi , . . . , x j , . . . , xn }
(con i < j fijos para lo que sigue) procedemos de modo totalmente
análogo a la Sección 3.5 y definimos los siguientes endomorfismos
εν : L → L (ν = 1, 2, 3), que por comodidad también llamamos trans-
formaciones elementales:

12 Por la Proposición 7.1.2.

276
Publicación digital de Editorial Equinoccio
7.3 M ATRICES Y MÓDULOS LIBRES

1. ε1 (xk ) = xk cuando k = i , k = j
ε1 (xi ) = x j , ε1 (x j ) = xi
define una transformación elemental del primer tipo.

2. Para un λ ∈ D inversible,

ε2 (xk ) = xk cuando k = i
ε2 (xi ) = λ xi

define una transformación elemental del segundo tipo.

3. Para un α ∈ D,

ε3 (xk ) = xk cuando k = j
ε3 (x j ) = α xi + x j

define una transformación elemental del tercer tipo.13

Nótese que la única diferencia con las transformaciones elementales


de la Sección 3.5 es que, en la del segundo tipo, se exige que el factor
escalar λ ∈ D sea inversible. Pero esta diferencia es sólo aparente, pues
en un cuerpo todo elemento = 0 es inversible.
Aplicando razonamientos idénticos a los de la Sección 3.5, podemos
afirmar que toda transformación elemental es un automorfismo y que su
inversa es una transformación elemental del mismo tipo.
Análogamente para matrices sobre D, llamaremos una operación
elemental de primer tipo al intercambio de dos columnas (o dos filas);
operación elemental de segundo tipo multiplicar una columna (o fila)
por un escalar inversible; y operación elemental de tercer tipo sumar a
una columna (fila) otra columna (fila) multiplicada por un escalar.
La matriz asociada a εν con respecto a la base X (en L como do-
minio y como codominio) se obtiene efectuando sobre las columnas de
la matriz identidad I la misma operación elemental tipo ν representada

13 Aquí no tiene que ser i < j, lo que importa es que i = j.

277
Publicación digital de Editorial Equinoccio
7 M ÓDULOS SOBRE UN DIP

por εν . La llamamos matriz elemental tipo ν y la designamos por E con


un subíndice oportuno según lo que se quiera destacar.
Sea Mm×n una matriz sobre D y En×n , Em×m  matrices elementales
de cualquiera de los tres tipos.
Nuevamente por argumentos idénticos a los empleados en la Sec-
ción 3.5, se prueba que M × E se obtiene de M mediate una operación
elemental sobre sus columnas del mismo tipo que E ; y E  ×M proviene
de M mediate una operación elemental sobre sus filas del mismo tipo
que E  .
Cabe destacar el hecho de que toda matriz obtenida de M mediante
operaciones elementales sobre sus filas y sus columnas es equivalente
a M , es decir, está asociada al mismo homomorfismo, aunque con res-
pecto a bases distintas (consecuencia de que toda matriz elemental es
no-singular y del Teorema 7.3.1).

7.4 Diagonalización de una matriz sobre un DE


Lo que haremos en esta sección puede lograrse con matrices sobre
un DIP, pero la argumentación es más elaborada; por otro lado, la apli-
cación al álgebra lineal del algoritmo que vamos a desarrollar involucra
sólo matrices sobre un dominio euclideano (DE), de modo que nos limi-
tamos a ese caso particular. Tenga presente el lector la Sección 5.6.
En el curso de esta sección D representa un dominio euclideano
acompañado de su función euclídea υ : D ∗ → Z+ (Definición 5.6.1).
Sean L y F un par de D-módulos libres de ranks respectivos n, m y
ϕ : L → F un homomorfismo.
Suponemos conocida la matriz asociada a ϕ con respecto a ciertas
bases X,Y de L y F respectivamente:
⎛ ⎞
a11 a12 . . . a1n
⎜ a21 a22 . . . a2n ⎟
M =⎜ ⎝ ... ... ... ... ⎠
⎟ (7.4.1)
am1 am2 . . . amn
Mediante una secuencia de operaciones elementales sobre filas y
columnas, nos proponemos transformar M en una matriz diagonal de

278
Publicación digital de Editorial Equinoccio
7.4 D IAGONALIZACIÓN DE UNA MATRIZ SOBRE UN DE

cualidades especiales.
Para evitar el caso trivial, vamos a suponer que ϕ no es el homo-
morfismo nulo, de manera que la matriz M no es la nula y, por tanto,
alguna de sus entradas es = 0. Mediante operaciones elementales del
primer tipo (intercambios de filas y columnas), colocamos ese elemento
en el lugar (1, 1); es decir, a11 = 0. La matriz resultante, que seguimos
visualizando como M , está asociada a ϕ , desde luego, aunque con res-
pecto a bases con los mismos elementos de X y de Y , pero posiblemente
en orden distinto.
Supongamos que en la primera fila existe un a1 j = 0 que no es di-
visible por a11 . Entonces, a1 j = a11 q + r, donde r = 0 y υ (r) < υ (a11 ).
Aplicamos a M una operación elemental del tercer tipo sumando a la
columna j la columna 1 multiplicada por (−q) y el elemento de lu-
gar (1, j) se convierte en r; intercambiamos la primera columna con
la columna j, resultando que el elemento de lugar (1, 1) es ahora r y
υ (r) < υ (a11 ). De igual modo, con cada entrada = 0 de la primera
columna que no sea divisible por el elemento en (1, 1), aplicamos el
mismo procedimiento (operando en este caso con filas).
Se obtiene así una secuencia de entradas = 0 en el lugar (1, 1) con
función euclídea estrictamente decreciente que, por ser de enteros po-
sitivos, debe terminar. Esto quiere decir que, necesariamente, se llega
al caso en el cual la entrada en (1, 1), que designaremos por d1 , divide
toda entrada de la primera fila y de la primera columna.
Sea ⎛ ⎞
d1 a12 . . . a1n
⎜ a   ⎟
M = ⎜ 21 a22 . . . a2n ⎟
⎝... ... ... ... ⎠
am1 am2 . . . amn
esta nueva matriz.
Cada entrada (1, j) de la primera fila ( j = 2, . . . , n) es pues de la
forma a1 j = t j d1 . Sumamos a la columna j la primera columna multi-
plicada por (−t j ) y el elemento de lugar (1, j) se convierte en 0. De este
modo convertimos en cero todas las entradas de la primera fila distintas
de la primera.
Por el mismo método, pero ahora operando con filas, hacemos 0

279
Publicación digital de Editorial Equinoccio
7 M ÓDULOS SOBRE UN DIP

todas las entradas de lugares (i, 1), con i = 2, . . ., m, de la primera co-


lumna.
Obtenemos entonces una matriz equivalente a M de la forma
⎛ ⎞
d1 0 . . . 0
⎜ 0 b22 . . . b2n ⎟
M  = ⎜
⎝. . . . . . . . . . . . ⎠
⎟ (7.4.2)
0 bm2 . . . bmn

Nos interesa ahora que d1 divida a todo bhk .


Supongamos que existe algún bhk = 0 que no es divisible por d1 .
Entonces, sumamos la fila h a la primera fila y nos encontramos de
nuevo con una matriz en las condiciones de (7.4.1). Aplicamos otra vez
el algoritmo que hace cero todas las entradas (distintas de la primera)
de la primera fila y primera columna, logrando una matriz de la forma
(7.4.2), pero el nuevo elemento de lugar (1, 1), digamos c 11 , es tal que
υ (c11 ) < υ (d1 ).
Repetimos este proceso toda vez que alguna entrada = 0 de lugar
(h, k), con h > 1 y k > 1, en matrices resultantes del tipo (7.4.2), no
sea divisible por la entrada en (1, 1). Ocurre que los valores υ (•) de
esos vértices (1, 1) constituyen una secuencia estrictamente decreciente
de enteros positivos que, por tanto, debe terminar. Esto significa que
llegaremos a una matriz (7.4.2) en la cual d1 divide a toda entrada bhk .
En resumen y mediante las operaciones elementales descritas sobre
las filas y las columnas de la matriz M en (7.4.1), hemos obtenido una
matriz M  (7.4.2), tal que el elemento d1 divide a todas las entradas bhk .
Nótese que han sido sólo operaciones elementales del primero y del
tercer tipo.
Si la “matriz interior” (bhk )(m−1)×(n−1) es nula, hemos terminado.
De lo contrario, tengamos presentes las siguientes observaciones:
• El intercambio de dos filas (columnas) de (7.4.2), distintas ambas
de la primera, no altera la primera fila ni la primera columna de
M  (ni, obviamente, la divisibilidad por d 1 ).
• Sean 1 < h1 ≤ m y 1 < h2 ≤ m. En la matriz (7.4.2), sumamos a
la fila h2 la fila h1 multiplicada por un q ∈ D. En primer lugar, la

280
Publicación digital de Editorial Equinoccio
7.4 D IAGONALIZACIÓN DE UNA MATRIZ SOBRE UN DE

primera fila y la primera columna de M  no se alteran; y en se-


gundo lugar, todo elemento de la fila h2 (del segundo en adelante)
toma la forma bh2 k + qbh1 k (k = 2, . . . , n) que es divisible por d1 .
Análogamente, una operación elemental del tercer tipo con co-
lumnas de M  , distintas ambas de la primera columna, no alteran
la forma de (7.4.2) y mantienen la divisibilidad por d 1 .

En consecuencia, aplicamos a (bhk )(m−1)×(n−1) el mismo algoritmo


que nos llevó de la forma (7.4.1) a la (7.4.2) y obtenemos una matriz de
la forma ⎛ ⎞
d1 0 0 ... 0
⎜ 0 d2 0 . . . 0 ⎟
⎜ ⎟
⎜ 0 0 c33 . . . c3n ⎟

M =⎜ ⎜ ⎟ (7.4.3)
0 0 c . . . c ⎟
⎜ 43 4n ⎟
⎝. . . . . . . . . . . . . . . ⎠
0 0 cm3 . . . cmn
en la cual d1 |d2 y d2 divide a todo chk .
Si la “matriz interior” (chk )(m−2)×(n−2) es nula, hemos terminado.
De no ser así, aplicamos a ella el mismo proceso anterior.
En conclusión, vamos a obtener, al cabo de un número finito de
aplicaciones del procedimiento descrito, una matriz “diagonal” de la
forma ⎛ ⎞
d1 0 0 . . . 0 . . . 0
⎜ 0 d2 0 . . . 0 . . . 0 ⎟
⎜ ⎟
⎜ 0 0 d3 . . . 0 . . . 0 ⎟
⎜ ⎟
⎜. . . . . . . . . . . . . . . . . . . . .⎟
M =⎜
# ⎜ ⎟ (7.4.4)
0 0 0 . . . d . . . 0 ⎟
⎜ s ⎟
⎜ 0 0 0 ... 0 ... 0 ⎟
⎜ ⎟
⎝. . . . . . . . . . . . . . . . . . . . .⎠
0 0 0 ... 0 ... 0
en la cual cada di divide al siguiente di+1 (i = 1, . . . , s − 1).
De acuerdo con el Teorema 7.3.1 y la Definición 7.3.1, la matriz
M está asociada al homomorfismo ϕ : L → F, pues M ∼
#
= M # , con
respecto a bases X = {x1 , . . . , xn } de L e Y = {y1 , . . . , ym } de F y tene-
# # # # # #

281
Publicación digital de Editorial Equinoccio
7 M ÓDULOS SOBRE UN DIP

mos ϕ (x#j ) = d j y#j ( j = 1, . . . , s), ϕ (x#k ) = 0 (k = s + 1, . . . , n), de lo cual


se infiere que los elementos d1 y#1 , . . . , dsy#s generan el rango de ϕ .
Además, si α1 d1 y#1 + · · · + αs ds y#s = 0, entonces α j d j = 0 para j =
1, . . ., s por independencia lineal de los y#1 , . . . , y#s (pues forman parte de
la base Y # ), y se concluye que α j = 0 ( j = 1, . . ., s) por integridad de D.
Así pues, d1 y#1 , . . . , dsy#s constituyen una base para el rango Im ϕ de
ϕ , el cual es un D-módulo libre (Teorema 7.1.4) de rank s.
O sea que el entero s ≥ 1 depende sólo de ϕ y es por tanto un in-
variante con respecto a la equivalencia de matrices. De hecho, la matriz
M # es única en su clase de equivalencia, es decir, se trata de una forma
canónica. Pero no interesa a nuestros propósitos demostrar esa unici-
dad.
A una matriz de las características de (7.4.4) suele llamársele forma
normal de Smith.14
La matriz M # se obtuvo de la M por una secuencia de operaciones
elementales sobre filas y columnas. Sabemos (Sección 7.3) que esto se
traduce en la ecuación matricial M # = P × M × Q, donde tanto P
como Q es un producto de matrices elementales.

Comentario 7.4.1. Por cierto que es fácil probar que {x #s+1 , . . . , x#n }
constituye una base para ker ϕ y se infiere la fórmula

rank(L) = rank(ker ϕ ) + rank(Im ϕ )

análoga a la de las transformaciones lineales entre espacios vectoriales.

Comentario 7.4.2. En la práctica, se aprovechan las particularidades


de M para acelerar el proceso en busca de M #. Por ejemplo, si se
detecta una entrada inversible c, se lleva por intercambios de filas y co-
lumnas al puesto (1, 1), multiplicamos la primera fila por c −1 , de modo
que la esquina (1, 1) se convierte en 1 y nos habremos ahorrado mu-
cho trabajo; si encontramos otros inversibles, hacemos algo parecido
en etapas posteriores. También es posible que podamos “fabricar” in-
versibles mediante operaciones elementales del tercer tipo. En fin, si

14 En honor al matemático irlandés Henry J. S. Smith (1826-83).

282
Publicación digital de Editorial Equinoccio
7.4 D IAGONALIZACIÓN DE UNA MATRIZ SOBRE UN DE

efectuamos el proceso “a mano,” es cuestión de ingeniarse para abre-


viar etapas.
Otra manera, desde luego, es programar el algoritmo y encomen-
darlo a una computadora.
Consideremos el caso de un isomorfismo ϕ : L → F, donde necesa-
riamente L y F tienen el mismo rank n.
Sea ⎛ ⎞
a11 a12 . . . a1n
⎜a21 a22 . . . a2n ⎟
A =⎜ ⎟
⎝. . . . . . . . . . . . ⎠ (7.4.5)
an1 an2 . . . ann
la matriz no-singular asociada a ϕ con respecto a ciertas bases X,Y de
L y F respectivamente.
Aplicamos a A el algoritmo descrito y obtenemos una matriz dia-
gonal, también no-singular desde luego,
⎛ ⎞
d1 0 . . . 0
⎜ 0 d2 . . . 0 ⎟
A#=⎜ ⎟
⎝. . . . . . . . . . . .⎠ (7.4.6)
0 0 . . . dn
Pero, de acuerdo con el Corolario 4.4.2, la no-singularidad de A #
equivale a que todo di es inversible. Luego, a cada fila i de A # apli-
camos una operación elemental del segundo tipo multiplicándola por
di−1 y obtenemos la matriz identidad I de orden n.
Se infiere que I = P × A × Q, donde P y Q son productos de
matrices elementales. Luego,
A = P −1 × I × Q −1 = P −1 × Q −1
Pero P = E1 × · · · × Er (donde las Ek son matrices elementales),
entonces
P −1 = Er−1 × · · · × E1−1
y sabemos que las inversas de matrices elementales son también matri-
ces elementales. Así pues, P −1 y, desde luego, Q −1 son productos de
matrices elementales, lo mismo que A = P −1 × Q −1 .
Hemos demostrado la siguiente proposición.

283
Publicación digital de Editorial Equinoccio
7 M ÓDULOS SOBRE UN DIP

Proposición 7.4.1. Una matriz cuadrada sobre un DE es no-singular


si, y sólo si, es un producto de matrices elementales.
El lema que sigue tiene consecuencias importantes que serán apro-
vechadas en la próxima sección. Nótese el carácter constructivo de su
demostración.

Lema 7.4.1. Sea D un DE y L un D-módulo libre.


Sea N = {0} cualquier submódulo de L.
Entonces, existe una base B = {z1 , . . . , zn} de L y escalares d1 , . . . , ds
(1 ≤ s ≤ n) tales que d1 |d2 | . . . |ds y {d1 z1 , . . ., ds zs } es una base de N.
Demostración. En virtud del Teorema 7.1.4, N es un D-módulo libre de
rank s ≤ n y, como no es nulo, s ≥ 1.
Consideremos el monomorfismo (la inyección canónica) η : N → L
tal que η (u) = u, para todo u ∈ N.
Sea M la matriz n × s asociada a η con respecto a un par de bases
(cualesquiera) para N y L respectivamente.
Aplicando a M el algoritmo expuesto en esta sección, obtenemos
una matriz equivalente en la forma normal de Smith 15
⎛ ⎞
d1 0 0 . . . 0
⎜ 0 d2 0 . . . 0 ⎟
⎜ ⎟
⎜ 0 0 d3 . . . 0 ⎟
⎜ ⎟
⎜. . . . . . . . . . . . . . .⎟
M =⎜
# ⎜ ⎟ (7.4.7)
0 0 0 . . . d ⎟
⎜ s ⎟
⎜ 0 0 0 . . . . . .⎟
⎜ ⎟
⎝. . . . . . . . . . . . . . .⎠
0 0 0 ... 0

en la cual d1 |d2 | . . .|ds .


Esta matriz M # está asociada a η con respecto a bases {w1 , . . ., ws }
de N y B = {z1 , . . ., zn } de L. Y es claro que, para cada i = 1, . . ., s,
tenemos que wi = η (wi ) = di zi .

15 Nótese que el rango de η es precisamente N y su rank es s.

284
Publicación digital de Editorial Equinoccio
7.4 D IAGONALIZACIÓN DE UNA MATRIZ SOBRE UN DE

Comentario 7.4.3. Es muy importante destacar el carácter construc-


tivo del lema precedente. Si conocemos bases cualesquiera para L
y N, podemos construir la matriz M asociada a la inyección canó-
nica η con respecto a éstas. Aplicamos entonces a M el algoritmo
desarrollado en esta sección y obtenemos la forma normal de Smith
M # = P × M × Q, con lo cual habremos determinado los escalares
d1 , . . . , ds . Sólo resta identificar la base B.
Como conocemos la base inicial X = {x1 , . . . , xn } de L, sabemos por
la Sección 7.3 y el Lema 7.3.2 que la matriz P −1 = [IL ] está asociada
al automorfismo identidad I L : L → L con respecto a las bases B, X ;
es decir, IL (z j ) = z j , de modo que la columna j de P −1 está cons-
tituida por las coordenadas de z j con respecto a la base X. Luego, si
determinamos P −1 , podemos calcular los integrantes de B.
Ahora bien, P = E1 × · · · × Er , donde Ei es la matriz representante
de la operación elemental número i realizada sobre las filas de M (en
el proceso de llegar a M # ). Luego, podemos expresar

P −1 = Er−1 × · · · × E1−1 × I

lo cual indica que puede calcularse P −1 efectuando, en orden con-


trario, las inversas de las mismas operaciones elementales sobre las
filas de la matriz identidad I de dimensión n × n.

Ejemplo 7.4.1. Consideremos el Z-módulo Z4 , que es libre sobre su


base canónica X :

e1 = (1, 0, 0, 0) e2 = (0, 1, 0, 0) e3 = (0, 0, 1, 0) e4 = (0, 0, 0, 1)

Sea N un submódulo de Z4 libre (Teorema 7.1.4) sobre una base W


constituida por

w1 = (11, 5, 9, −12) w2 = (−3, −4, 6, −1) w3 = (7, 8, −2, 3)

(ocúpese el lector de verificar la independencia lineal de W ).


Buscamos una base B = {z1 , z2 , z3 , z4 } de Z4 y enteros d1 | d2 | d3
tales que {d1 z1 , d2 z2 , d3 z3 } sea una base de N.

285
Publicación digital de Editorial Equinoccio
7 M ÓDULOS SOBRE UN DIP

Seguimos los pasos descritos en el Comentario 7.4.3.


Sea η : N → Z4 la inyección canónica. Su matriz 4 × 3 asociada,
con respecto a las bases W, X es
⎛ ⎞
11 −3 7
⎜ 5 −4 8 ⎟
M =⎜ ⎟
⎝ 9 6 −2⎠
−12 −1 3
Aplicamos a M el algoritmo de diagonalización expuesto en la Sec-
ción 7.4, mediante operaciones elementales sobre sus filas y columnas.
Designaremos por f i la fila i y por ck la columna k de M , e impro-
visamos la siguiente notación para las operaciones elementales:

• fi ←→ f j representa el intercambio de la fila i con la fila j.


Nótese que la operación inversa es la misma.

• − fi indica la multiplicación de la fila i por (−1). Recordemos


que, aparte del neutro 1, el (−1) es el único entero inversible.
Nótese que la operación inversa es la misma.

• fi + λ f j significa que sumamos a la fila i la fila j multiplicada por


el entero λ . Obsérvese que la fila j permanece intacta.
La operación inversa es precisamente f i − λ f j .

Lo anterior es textualmente idéntico para las operaciones con co-


lumnas, sustituyendo “fila” por “columna” y las f por c :

ck ←→ ch − ck ck + λ ch

El listado que mostramos a continuación de operaciones elementales


sobre M no es en absoluto el único que conduce a la matriz equivalente
M # , pero utiliza con provecho las particularidades de M . El lector
bien puede fabricar el suyo.

286
Publicación digital de Editorial Equinoccio
7.4 D IAGONALIZACIÓN DE UNA MATRIZ SOBRE UN DE

Leemos de izquierda a derecha y luego la próxima linea:

c1 ←→ c2 f1 ←→ f4 − c1 f2 − 4 f1 f3 + 6 f1
f4 − 3 f1 c2 + 12c1 c3 − 3c1 c2 + 23c3 f2 ←→ f4
c3 + 2c2 f3 + 7 f4 f4 + f3 f3 + 2 f4 f3 − 18 f2
f4 + 7 f2 f4 − 4 f3 f3 + 4 f4 f3 ←→ f4

Al cabo de estas operaciones elementales sobre M obtenemos la


matriz equivalente en su forma normal de Smith:
⎛ ⎞
1 0 0
⎜0 1 0⎟
M# = ⎜ ⎟
⎝0 0 2⎠
0 0 0
que está asociada a la misma η con respecto a las bases {z1 , z2 , 2z3 } de
N y B = {z1 , z2, z3 , z4 } de Z4 .
Sabemos que existen matrices no-singulares P4×4 y Q3×3 tales que
M = P × M × Q.
#

De acuerdo con el Comentario 7.4.3, debemos hallar P −1 , cuya


columna j está constituida por las coordenadas de z j con respecto a la
base X de Z4 .
Ahora bien, P −1 se obtiene aplicando a las filas de la matriz iden-
tidad I4×4 las inversas de las operaciones elementales ejecutadas sobre
las filas de M y en orden contrario.
Aplicamos pues a las filas de I4×4 las siguientes operaciones

f3 ←→ f4 f3 − 4 f4 f4 + 4 f3 f4 − 7 f2 f3 + 18 f2
f3 − 2 f4 f4 − f3 f3 − 7 f4 f2 ←→ f4 f4 + 3 f1
f3 − 6 f1 f2 + 4 f1 f1 ←→ f4

y conseguimos la matriz
⎛ ⎞
3 1 0 0
⎜ 4 −39 −41 11 ⎟
P −1 = ⎜ ⎟
⎝−6 305 313 −84⎠
1 0 0 0

287
Publicación digital de Editorial Equinoccio
7 M ÓDULOS SOBRE UN DIP

En consecuencia, los elementos de la base B son

z1 = (3, 4, −6, 1) z2 = (1, −39, 305, 0)


z3 = (0, −41, 313, 0) z4 = (0, 11, −84, 0)

y la base de N está constituida por

z1 = (3, 4, −6, 1) z2 = (1, −39, 305, 0) 2z3 = (0, −82, 626, 0)

Si queremos estar seguros de no habernos equivocado en los cálcu-


los, debemos comprobar que se verifica la identidad M × Q = P −1 ×
M # , para lo cual es preciso conocer la matriz Q, que proviene de
aplicar a las columnas de la matriz identidad I3×3 la misma secuencia
de operaciones elementales hechas sobre la columnas de M ; a saber,

c1 ←→ c2 − c1 c2 + 12c1 c3 − 3c1 c2 + 23c3 c3 + 2c2

que arrojan ⎛ ⎞
0 1 2
Q = ⎝−1 57 117⎠
0 23 47
Se confirma entonces que
⎛ ⎞
3 1 0
⎜ 4 −39 −82⎟
M ×Q = ⎜ ⎟ −1
⎝−6 305 626 ⎠ = P × M
#

1 0 0

7.5 Algoritmo de descomposición de un módulo FG


Vamos a aplicar los resultados de la sección anterior a fin de diseñar
un algoritmo que nos permita calcular la descomposición de un módulo
FG sobre un dominio euclideano (DE) en suma directa de submódulos
cíclicos, tal como fue establecido teóricamente en la Sección 7.2.
Nos dedicamos primero a obtener la descomposición por factores
invariantes, cuya existencia y unicidad fue demostrada en el Teorema

288
Publicación digital de Editorial Equinoccio
7.5 A LGORITMO DE DESCOMPOSICIÓN DE UN MÓDULO FG

7.2.6, pues de ella se desglosa la suma directa en cíclicos irreducibles,


como veremos al final.
En adelante, D designa un DE.
Sea M un D-módulo FG, generado por el conjunto
{u1 , . . . , un } ⊂ M
De acuerdo con la Proposición 7.1.3, existe un D-módulo libre L
sobre una base X = {e1 , e2 , . . . , en }, y un epimorfismo θ : L → M tal
que θ (ek ) = uk , para k = 1, . . . , n.
Si el lector prefiere algo más concreto, aunque no hace falta para
lo que sigue, puede considerar el D-módulo libre L = D n y su base
canónica X = {e1 , e2 , . . ., en }.16
N = ker θ es un submódulo de L de rank s (1 ≤ s ≤ n) y supongamos
que conocemos una base17 W de N.
Sea M la matriz n × s asociada a la inyección canónica η : N → L
con respecto a las bases W y X . Esto presume que sabemos expresar
cada elemento de W como combinación lineal de X.
El Lema 7.4.1 y su Comentario 7.4.3 nos dicen que, a partir de estos
datos, podemos hallar, gracias al algoritmo allá descrito, una base B =
{z1 , . . . , zn } de L y escalares d1 , . . ., ds tales que d1 |d2 | . . .|ds y {d1 z1 , . . .
. . . , ds zs } es una base de N.
En virtud del Teorema 7.1.1, podemos expresar
N = D(d1 z1 ) ⊕ D(d2 z2 ) ⊕ · · · ⊕ D(ds zs ) (7.5.1)
Ahora bien, para i = 1, 2, . . ., s, ocurre que θ (zi ) ∈ M genera un sub-
módulo cíclico (obvio) Mi = D θ (zi ) de M cuyo orden es di .
En efecto, di θ (zi ) = θ (di zi ) = 0, pues di zi ∈ N = ker θ , indica que
θ (zi ) es de torsión; y, si 0 = cθ (zi ) = θ (czi ), entonces czi ∈ N, pero la
suma en (7.5.1) es directa, de modo que necesariamente
czi ∈ D(di zi ) =⇒ czi = α (di zi ) = (α di )zi =⇒ c = α di
(pues los zi son libres de torsión por el Teorema 7.1.1).
16 La coordenada de lugar k en e k es 1 y sus restantes coordenadas son 0.
17 Conocer una base de N es una condición clave de carácter práctico.

289
Publicación digital de Editorial Equinoccio
7 M ÓDULOS SOBRE UN DIP

Puede ocurrir que algún dk sea inversible. En tal caso,

θ (zk ) = θ (dk−1 dk zk ) = dk−1 θ (dk zk ) = 0

y Mk = {0} se descarta.
Tomemos ahora un z j con s + 1 ≤ j ≤ n.
Veamos que θ (z j ) es libre de torsión (Definición 7.1.3).
En efecto,

0 = c θ (z j ) = θ (cz j )
=⇒ cz j ∈ N
=⇒ cz j = α1 d1 z1 + · · · + αs ds zs
=⇒ (α1 d1 )z1 + · · · + (αs ds )zs + (−c)z j = 0
=⇒ c = 0

(por independencia lineal de {z1 , . . . , zs , z j }).


Se infiere (Teorema 7.1.1) que el submódulo cíclico L j = D θ (z j )
de M es libre.
Sea x ∈ M.
Como θ es sobreyectiva, existe algún w ∈ L tal que θ (w) = x.
Pero B = {z1 , . . . , zn } es una base de L, luego

w = α1 z1 + · · · + αs zs + αs+1 zs+1 + · · · + αn zn

entonces,

x = θ (w) = α1 θ (z1 ) + . . . + αs θ (zs )


+ αs+1 θ (zs+1 ) + · · · + αn θ (zn )

Y, como x es cualquier elemento de M, esto implica que

M = M1 + · · · + Ms + L1 + · · · + Ln−s (7.5.2)

Vamos a probar que la suma de submódulos a la derecha de (7.5.2)


es directa invocando la Proposición 6.2.1, según la cual la expresión de
cada x ∈ M como

x = α1 θ (z1 ) + · · · + αs θ (zs ) + αs+1 θ (zs+1 ) + · · · + αn θ (zn )

290
Publicación digital de Editorial Equinoccio
7.5 A LGORITMO DE DESCOMPOSICIÓN DE UN MÓDULO FG

es única.
Supongamos que también

x = β1 θ (z1 ) + · · · + βs θ (zs ) + βs+1 θ (zs+1 ) + · · · + βn θ (zn )

Entonces,

0 = (α1 − β1 )θ (z1 ) + · · · + (αs − βs )θ (zs)


+ (αs+1 − βs+1 )θ (zs+1 ) + · · · + (αn − βn )θ (zn )
= θ [(α1 − β1 )z1 + · · · + (αs − βs )zs
+ (αs+1 − βs+1 )zs+1 + · · · + (αn − βn )zn ]

implica que

(α1 − β1 )z1 + · · · + (αs − βs )zs + (αs+1 − βs+1 )zs+1 + · · · + (αn − βn )zn

está en ker θ = N, por tanto,

(α1 − β1 )z1 + · · · + (αs − βs )zs


+ (αs+1 − βs+1 )zs+1 + · · · + (αn − βn )zn
= γ1 (d1 z1 ) + · · · + γs (ds zs )
=⇒ (α j − β j ) = 0 ( j = s + 1, . . ., n)
=⇒ α j = β j ( j = s + 1, . . ., n)

por la independencia lineal de {z1 , . . . , zn }.


Entonces,

(α1 − β1 )z1 + · · · + (αs − βs )zs = γ1 (d1 z1 ) + · · · + γs (dszs )

lo cual implica, en virtud de (7.5.1) y la Proposición 6.2.1, que, para


i = 1, . . . , s,

(αi − βi )zi = γi (di zi )


=⇒ (αi − βi )zi ∈ N
=⇒ αi θ (zi ) − βi θ (zi ) = θ [(αi − βi )zi ] = 0
=⇒ αi θ (zi ) = βi θ (zi )

291
Publicación digital de Editorial Equinoccio
7 M ÓDULOS SOBRE UN DIP

En resumen,

αk θ (zk ) = βk θ (zk ) (k = 1, . . ., n)

de modo que la suma (7.5.2) es directa:

M = M1 ⊕ · · · ⊕ Ms ⊕ L1 ⊕ · · · ⊕ Ln−s (7.5.3)

y M1 ⊕ · · · ⊕ Ms = Mtor no es otra cosa que la representación única de


Mtor por factores invariantes establecida en el Teorema 7.2.6 (sólo que
aquí la suma de los Mi está en orden inverso, lo cual es indiferente).
En (7.5.3) hemos obtenido la descomposición de M = M tor ⊕ L∗
(Teorema 7.2.1), donde L∗ = L1 ⊕ · · · ⊕ Ln−s .
Si queremos obtener la descomposición de Mtor en suma directa de
submódulos cíclicos primarios, invocamos el Corolario 7.2.2.
En efecto, si di es potencia de un primo, Mi se deja como está.
Supongamos que un dk = a1 ×a2 ×· · · ×am , donde mcd (ai , a j ) = 1,
para i = j, y cada ai es la potencia de un primo.
De acuerdo entonces con el Corolario 7.2.2,
(k) (k) (k)
Mk = M1 ⊕ M2 ⊕ · · · ⊕ M m
(k)
donde cada Mi es un submódulo cíclico (primario) de orden a i y ge-
nerado por bi θ (zk ), con
bi = ∏ a j
j=i

Haciendo esto con cada Mk cuyo orden dk no sea la potencia de


un primo, obtenemos la descomposición única de M en suma directa de
submódulos cíclicos primarios. Y además –de suma importancia teórica
y práctica– conocemos el generador bi θ (zk ) de cada submódulo cíclico
(k)
primario Mi .

Ejemplo 7.5.1. Sea M un Z-módulo FG, generado por el conjunto

{u1 , u2 , u3 , u4 } ⊂ M

292
Publicación digital de Editorial Equinoccio
7.5 A LGORITMO DE DESCOMPOSICIÓN DE UN MÓDULO FG

En virtud de la Proposición 7.1.3, existe un epimorfismo θ : Z 4 → M


tal que θ (ek ) = uk , para k = 1, 2, 3, 4, donde X = {e1 , e2 , e3 , e4 } es la
base canónica del Z-módulo libre Z4 .
Supongamos que ker θ es, por casualidad, el submódulo N de Z 4 del
ejemplo 7.4.1, de base W constituida por

w1 = (11, 5, 9, −12) w2 = (−3, −4, 6, −1) w3 = (7, 8, −2, 3)

La matriz 4 × 3 asociada a la inyección canónica η : N → Z4 con


respecto a las bases W y X es pues,
⎛ ⎞
11 −3 7
⎜ 5 −4 8 ⎟
M =⎜ ⎟
⎝ 9 6 −2⎠
−12 −1 3

Procedemos como en el ejemplo 7.4.1 y hallamos la base B de Z 4


constituida por los elementos

z1 = (3, 4, −6, 1) z2 = (1, −39, 305, 0)


z3 = (0, −41, 313, 0) z4 = (0, 11, −84, 0)

y los enteros d1 = 1, d2 = 1, d3 = 2, de modo que la base de N es

z1 = (3, 4, −6, 1) z2 = (1, −39, 305, 0) 2z3 = (0, −82, 626, 0)

De acuerdo con lo establecido en esta sección, obtenemos la si-


guiente expresión de M en suma directa

M = M 1 ⊕ M2 ⊕ M3 ⊕ L

donde cada Mi es un submódulo cíclico de orden d i , generado por θ (zi )


(i = 1, 2, 3) y L es un submódulo cíclico libre sobre la base θ (z 4 ).
Ahora bien, como d1 = d2 = 1, tenemos M1 = M2 = {0} y los
descartamos; luego,
M = M3 ⊕ L

293
Publicación digital de Editorial Equinoccio
7 M ÓDULOS SOBRE UN DIP

y M3 es un submódulo cíclico de orden d 3 = 2, generado por

v1 =θ (z3 ) = θ (−41e2 + 313e3 ) =


− 41θ (e2 ) + 313θ (e3 ) = −41u2 + 313u3

y L es un cíclico libre, generado por

v2 = θ (z4 ) = θ (11e2 − 84e3 ) = 11θ (e2 ) − 84θ (e3 ) = 11u2 − 84u3

En resumen, M = Z v1 ⊕ Z v2 , donde podemos expresar

v1 = −41u2 + 313u3 v2 = 11u2 − 84u3

en términos de los elementos generadores dados de M.


Como Z v1 es de orden 2, está constituido sólo por los elementos
{0, v1 }, y por el Lema 7.2.3 es isomorfo con el Z-módulo cociente Z 2 ;
en tanto que Z v2 es libre de rank 1 y, por consiguiente, isomorfo con Z Z.
Así pues, todo x ∈ M es expresable de manera única como x = av1 +bv2 ,
donde a es 0 o 1 y b es un entero cualquiera.
Nótese que, en este caso particular, M = Z v1 ⊕ Z v2 es la descom-
posición de M por factores invariantes y también su descomposición en
suma directa de submódulos cíclicos irreducibles.

7.6 Ejercicios
1. Recíproco del Lema 7.1.3:
Sea M un módulo sobre un DIP D.
Si, para toda sucesión creciente de submódulos de M,

S1 ⊂ S2 ⊂ · · · ⊂ Sn ⊂ · · ·

existe un entero k ≥ 1 tal que, para todo n ≥ k, se tiene Sn = Sk ,


entonces el módulo M es FG.
¿Es preciso que D sea un DIP?

294
Publicación digital de Editorial Equinoccio
7.6 E JERCICIOS

2. Sea ψ : L → N un isomorfismo entre D-módulos libres.


Si B = {u1 , u2 , . . . , un } es una base de L, probar que

{ψ (u1 ), ψ (u2 ), . . ., ψ (un )}

es una base de N.

3. El Z-módulo Z2 es libre y de rank 2. Probar que (2, 0) y (0, 6)


son linealmente independientes y generan un submódulo S que
es, por tanto, de rank 2. No obstante, muéstrese que S = Z 2 .

4. Considérese el Z-módulo libre Z2 .


Probar que u = (a, b) ∈ Z2 puede extenderse a una base de Z2 si,
y sólo si, mcd (a, b) = 1.
Sea u = (5, 12). Hallar un v ∈ Z2 tal que {u, v} sea una base.

5. Sea L un D-módulo libre (D es un DIP) y sean N y P submódulos


de L.
Si N es complementable (véase el Comentario 7.1.7 en página
242), probar que

rank (N + P) + rank (N ∩ P) = rank N + rank P

6. Sea L un D-módulo libre (D es un DIP).


Probar que un submódulo N de L es complementable si, y sólo si,
el D-módulo cociente L/N es libre de torsión.
Atención: Téngase presente que L es FG, como parte de nuestra
Definición 7.1.2 de módulo libre.

7. El conjunto Q de los números racionales es un Z-módulo con


respecto a la suma de racionales y el producto de un entero por
un racional. Probar que se trata de un módulo libre de torsión,
pero no es libre. Explicar a qué se debe esto.

295
Publicación digital de Editorial Equinoccio
7 M ÓDULOS SOBRE UN DIP

8. Probar que un D-módulo FG es isomorfo con un módulo cociente


de un módulo libre.

9. Sea M un D-módulo FG (D es un DIP), y sea N un submódulo


tal que, para 0 = a ∈ D y u ∈ M, ocurre

au ∈ N =⇒ u∈N

Probar que existe un submódulo libre L tal que M = N ⊕ L.

10. Sea M un módulo FG de torsión sobre un DIP D.


Si μ ∈ D es el orden de M y p ∈ D es un primo que divide a μ ,
probar que M admite un submódulo cíclico de orden p.

11. Hemos visto (página 215) que un grupo abeliano puede consi-
derarse como un Z-módulo, cuyos submódulos son precisamente
sus subgrupos, y un subgrupo cíclico es lo mismo que un submó-
dulo cíclico.
Enunciar los Teoremas 7.2.2, 7.2.3, 7.2.4, 7.2.5, 7.2.6 para grupos
abelianos FG.

12. Explicar por qué un grupo abeliano finito es un Z-módulo FG y


de torsión.
Utilizando la descomposición en sumas directas de subgrupos
(submódulos) cíclicos, caracterizar todos los grupos abelianos po-
sibles de órdenes (número de elementos) 19, 24 y 168.

13. Sea M un grupo abeliano finito de m > 1 elementos y supóngase


que m es divisible por un primo p.
Considerando M como Z-módulo, probar que el grupo M admite
un subgrupo de p elementos (Cauchy).

296
Publicación digital de Editorial Equinoccio
7.6 E JERCICIOS

14. Dada la matriz ⎛ ⎞


−4 −6 7
M = ⎝2 2 4⎠
6 6 15
sobre el dominio euclideano Z de los enteros, calcular su forma
normal de Smith M # y las matrices P y Q tales que

M# = P ×M ×Q

15. Dada la matriz


⎛ ⎞
1−x 1+x x
M = ⎝ x 1 − x 1⎠
1 + x 2x 1

sobre el dominio euclideano Q[x], calcular su forma normal de


Smith M # y las matrices P y Q tales que

M# = P ×M ×Q

297
Publicación digital de Editorial Equinoccio
PARTE III

Semejanza y formas canónicas

Publicación digital de Editorial Equinoccio


C APÍTULO 8
El F[x]-módulo inducido por una
transformación

En este capítulo regresamos a los espacios vectoriales y a las trans-


formaciones lineales. Haremos buen uso de la maquinaria que hemos
desarrollado sobre anillos y módulos para atacar eficazmente el tema
más profundo que hemos dejado pendiente: las matrices semejantes y
sus formas canónicas.
Sea E un espacio vectorial de dimensión finita n sobre un cuerpo F.
Vamos a considerar una transformación lineal ϕ : E → E fija durante
toda la discusión que sigue.
En adelante, al referirnos a una matriz asociada a ϕ con respecto a
una base X, entenderemos que hemos tomado la misma base X para E
como dominio y como codominio de ϕ . Todas estas matrices son se-
mejantes, de acuerdo con la Definición 3.3.2 y, según el Teorema 3.3.2,
dos cualesquiera M , M # de ellas están relacionadas por una ecuación
matricial del tipo M # = P × M × P −1 , donde P es una matriz no-
singular.
Como se logró en los casos de matrices equivalentes y de matrices
similares, nos proponemos hallar unas formas canónicas satisfactorias
para las matrices semejantes. Entendemos por “satisfactoria” una ma-
triz que se acerque lo más posible a una matriz diagonal y, para conside-
rarse una forma canónica, debe ser única en su tipo como representante
de su clase de equivalencia por semejanza.

8.1 Subespacios ϕ -invariantes


El siguiente concepto es fundamental en el camino que seguiremos.

301
Publicación digital de Editorial Equinoccio
8 E L F[x]- MÓDULO INDUCIDO POR UNA TRANSFORMACIÓN

Definición 8.1.1. Decimos que un subespacio S de E es invariante con


respecto a la transformación lineal ϕ : E → E –más brevemente, ϕ -
invariante– si ϕ (S) ⊂ S; es decir, si

∀x ∈ S : ϕ (x) ∈ S

Ya veremos que existen muchos de estos subespacios = {0}.


Por ejemplo, si ϕ es singular, sabemos que esto equivale a que el
subespacio ker ϕ = {0}. Es evidente que ker ϕ es ϕ -invariante.
Por lo pronto, supongamos que se tiene una descomposición en
suma directa
E = S1 ⊕ · · · ⊕ Sm
donde los Si son subespacios ϕ -invariantes de dimensiones respectivas
n1 , . . . , nm . Sabemos (Corolario 1.4.2) que n = n1 + · · · + nm .
Sean B1 , . . . , Bm bases de S1 , . . ., Sm respectivamente. Entonces, por
la Proposición 1.4.2,
B = B 1 ∪ · · · ∪ Bm
es una base de E. Convenimos en respetar el orden de los vectores en
cada Bk y formamos la base B agregando una a continuación de la otra,
las bases ordenadas B1 , . . . , Bm .
Examinemos la matriz [ϕ ]B con respecto a la base B.
Dado cualquier x j ∈ B, la columna j de [ϕ ]B está constituida por
las coordenadas del vector ϕ (x j ) con respecto a la base B. Ahora bien,
x j pertenece a una sola base Bk , pues éstas son disjuntas dos-a-dos.
Pero el subespacio Sk es ϕ -invariante, luego ϕ (x j ) ∈ Sk , de modo que
ϕ (x j ) es combinación lineal de los vectores de la base Bk solamente;
en consecuencia, todas las entradas de la columna j en filas 1 hasta la
n1 + · · · + nk−1 y de fila n1 + · · · + nk + 1 hasta la n son cero; es decir, la
columna j tiene las siguientes entradas (véalas el lector verticalmente):

0 .
. . 0 . . . 0 .
. . 0 a1 . . . ank 0 .
. . 0 . . . 0 .
. . 0
n1 nk−1 nk+1 nm

donde a1 . . . ank son las coordenadas de ϕ (x j ) con respecto a la base Bk .


De hecho, la ϕ -invariancia, nos permite considerar la restricción
ϕk : Sk → Sk , tal que ϕk (x) = ϕ (x), para todo x ∈ Sk , obviamente una

302
Publicación digital de Editorial Equinoccio
8.2 E L ESPACIO VECTORIAL COMO F[x]- MÓDULO

transformación lineal, cuya matriz nk × nk , con respecto a la base Bk


designamos por [ϕk ].
Es claro, por lo anterior, que las entradas de la columna j de [ϕ ] B
que van de la fila n1 + · · · + nk−1 + 1 hasta la n1 + · · · + nk constituyen
precisamente la columna j − (n1 + · · · + nk−1 ) de la matriz [ϕk ].
Se infiere que
⎛ ⎞
[ϕ1 ]
⎜ [ϕ2 ] ⎟
⎜ ⎟
[ϕ ]B = ⎜ .. ⎟
⎝ . ⎠
[ϕm ]
donde los espacios vacíos están integrados por ceros.
La idea esencial que perseguimos es la de obtener una descompo-
sición de E en suma directa de subespacios ϕ -invariantes, única con
respecto a ϕ , y unas bases para ellos de forma tal que las matrices [ϕk ]
sean particularmente “satisfactorias.”

Ejemplo 8.1.1. Supongamos que dim E = 9 y E = S1 ⊕ S2 ⊕ S3 , donde


los subespacios S1 , S2 , S3 son ϕ -invariantes de bases

B1 = {x1 , x2 , x3 } B2 = {y1 , y2 } B3 = {z1 , z2 , z3 , z4 }

Formamos la base B = {x1 , x2 , x3 , y1 , y2 , z1 , z2 , z3 , z4 } de E.


Supongamos que las matrices de las restricciones de ϕ a los subes-
pacios Sk , con respecto a las bases Bk son

[ϕ1 ] = (ai j )3×3 [ϕ2 ] = (bhk )2×2 [ϕ3 ] = (clm )4×4

Entonces, [ϕ ]B es la matriz que está en la parte superior de la página


304.

8.2 El espacio vectorial como F[x]-módulo


Recuerde el lector las Secciones 5.7 y 5.8 sobre polinomios y fun-
ciones polinómicas.

303
Publicación digital de Editorial Equinoccio
8 E L F[x]- MÓDULO INDUCIDO POR UNA TRANSFORMACIÓN

⎛ ⎞
a11 a12 a13 0 0 0 0 0 0
⎜a21 a22 a23 0 0 0 0 0 0⎟
⎜ ⎟
⎜a31 a32 a33 0 0 0 0 0 0⎟
⎜ ⎟
⎜0 0 0 b b 0 0 0 0⎟
⎜ 11 12 ⎟
[ϕ ]B = ⎜
⎜ 0 0 0 b 21 b 22 0 0 0 0⎟ ⎟
⎜0 0 0 0 0 c11 c12 c13 c14 ⎟
⎜ ⎟
⎜0 0 0 0 0 c21 c22 c23 c24 ⎟
⎜ ⎟
⎝0 0 0 0 0 c31 c32 c33 c34 ⎠
0 0 0 0 0 c41 c42 c43 c44
................................................................
8.2.1.
Tenemos el espacio vectorial E de dimensión finita n sobre un cuer-
po F y una transformación lineal ϕ : E → E.
Sabemos que la estructura F[x] de los polinomios sobre F es un do-
minio euclideano (DE), cuya función euclídea ∂ es el grado del polino-
mio.
Vamos a definir un F[x]-módulo E, inducido por ϕ , como sigue.
Disponemos del grupo abeliano (E, +) de los vectores de E con res-
pecto a la suma. Dotaremos E de una ley de composición externa, cuyo
conjunto de escalares es F[x].
Sea p = a0 + a1 x + a2 x2 + · · · + am xm un polinomio cualquiera de
F[x] y v ∈ E.
Definimos
pv = a0 v + a1 ϕ (v) + a2 ϕ 2 (v) + · · · + am ϕ m (v) (8.2.1)
—se entiende, desde luego, que ϕ k es la composición de la función ϕ
consigo misma k veces.
Otra forma de expresar (8.2.1) es1
pv = (a0 I + a1 ϕ + a2 ϕ 2 + · · · + am ϕ m )(v) (8.2.2)
donde
p(ϕ ) = a0 I + a1 ϕ + a2 ϕ 2 + · · · + am ϕ m
1 Recordemos que I : E → E es la transformación identidad.

304
Publicación digital de Editorial Equinoccio
8.2 E L ESPACIO VECTORIAL COMO F[x]- MÓDULO

es, desde luego una transformación lineal p(ϕ ) : E → E.


Las expresiones (8.2.1) y (8.2.2) también pueden escribirse como

pv = p(ϕ )(v) (8.2.3)

Se infiere de la definición dada que, si u, v ∈ E, entonces p(u + v) =


pu + pv.
También es claro que, si p, q ∈ F[x] y v ∈ E, ocurre (p + q)(v) =
pv + qv.
Es obvio finalmente que, si p es el polinomio constante p = 1, en-
tonces p(ϕ ) = I y pv = 1v = I (v) = v.
Para concluir que E es un F[x]-módulo con respecto a esta ley ex-
terna, falta verificar que, para p, q ∈ F[x] y v ∈ E, se cumple la identidad
(pq)v = p(qv). Esto admite una comprobación directa, pero, para ser
pedantes, probémoslo del siguiente modo.
Supongamos que p = axm es un monomio y q = b0 + b1 x + · · · +
k
bk x ; entonces,

pq = ab0 xm + ab1 xm+1 + · · · + abk xm+k


=⇒ (pq)(v) = ab0 ϕ m (v) + ab1ϕ m+1 (v) + · · · + abk ϕ m+k (v)
= aϕ m [b0 (v) + b1 ϕ (v) + · · · + bk ϕ k (v)] = p(qv)

lo cual es cierto, en particular, si m = 0, es decir, si ∂ (p) = 0.


Ahora procedemos por inducción en ∂ (p), sabiendo que (pq)v =
p(qv) es cierto para ∂ (p) = 0. Supongamos que se cumple para todo
polinomio de grado < m y demostrémoslo para ∂ (p) = m.
Tenemos,

p = a0 + a1 x + a2 x2 + · · · + am xm = r + s
donde r = a0 + a1 x + · · · + am−1 xm−1 y s = am xm

Por lo probado antes y dado que ∂ (r) < m, se tiene

(pq)v = (rq + sq)v = (rq)v + (sq)v


= r(qv) + s(qv) = (r + s)(qv) = p(qv)

305
Publicación digital de Editorial Equinoccio
8 E L F[x]- MÓDULO INDUCIDO POR UNA TRANSFORMACIÓN

En resumen, E es un F[x]-módulo de la manera descrita.


La primera observación es que se trata de un módulo FG.
En efecto, sea B = {u1 , . . ., un } una base del espacio vectorial E,
entonces, para cada vector v ∈ E existen escalares c1 , . . ., cn ∈ F tales
que

v = c1 u1 + · · · + cn un =⇒ v = p1 u1 + · · · + pn un

donde los pi = ci son polinomios constantes, o sea que {u 1 , . . . , un }


genera el F[x]-módulo E y éste es FG.
Ahora bien, de acuerdo con el Teorema 1.4.3, todo conjunto con
más de n vectores de E es linealmente dependiente. Luego, para todo
vector v ∈ E, el conjunto de n + 1 vectores

v , ϕ (v) , ϕ 2 (v) , . . . , ϕ n (v)

es linealmente dependiente y, en consecuencia, existen escalares ai ∈ F


(i = 0, 1, 2, . . ., n) no todos cero tales que

a0 v + a1 ϕ (v) + a2 ϕ 2 (v) + · · · + an ϕ n (v) = 0 (∗)

Pero esto significa que existe un polinomio p = a 0 + a1 x + a2 x2 +


· · · + an xn , que no es nulo, tal que pv = 0.
Se infiere que el F[x]-módulo E es de torsión (Definición 7.1.3) y,
como es FG, la Proposición 7.2.3 indica que E tiene un orden ω (E) = 0.
Pero sabemos que ω (E) es cualquier elemento de una clase por asocia-
tividad en F[x] y, como se trata de polinomios, elegimos su representante
mónico único μ que se denomina polinomio minimal de ϕ . De (∗) se
infiere que ∂ (μ ) ≤ n.
Nótese que, para todo v ∈ E ocurre que μ v = 0 y, para un polinomio
p ∈ F[x], se tiene

∀v ∈ E : pv = 0 ⇐⇒ μ|p (8.2.4)

En resumen, E es un F[x]-módulo FG de torsión, cuyo orden es un


polinomio mónico μ , de grado ≤ n, llamado polinomio minimal de ϕ .

306
Publicación digital de Editorial Equinoccio
8.2 E L ESPACIO VECTORIAL COMO F[x]- MÓDULO

Si el polinomio minimal fuese constante = 0, es decir, ∂ (μ ) = 0,


que es lo mismo en F[x] que inversible, y, por ser mónico, μ = 1, se
tendría que E = {0}.
Es preciso enfatizar que el F[x]-módulo E ha sido estructurado en
base a la transformación ϕ y el polinomio minimal depende exclusiva-
mente de ϕ .
Interesa caracterizar los submódulos de E en términos de subespa-
cios vectoriales.

Proposición 8.2.1. Sea ∅ = S ⊂ E.


Entonces, S es un submódulo del F[x]-módulo E si, y sólo si, S es un
subespacio ϕ -invariante del espacio vectorial E.
Demostración. Supongamos que S es un submódulo del F[x]-módulo E,
y sean u, v ∈ S y a, b ∈ F. Entonces, a y b pueden considerarse como
polinomios constantes y, dado que S es un submódulo, ocurre que au +
bv ∈ S; de modo que S es un subespacio.
Por otra parte, por ser S un submódulo, para todo polinomio p ∈
F[x] y todo v ∈ E, se tiene que pv ∈ S; en particular, si p = x, tenemos
ϕ (v) = xv ∈ S, o sea que S es ϕ -invariante.
Recíprocamente, supongamos que S es un subespacio ϕ -invariante
del espacio vectorial E.
Luego,

u∈S =⇒ ϕ (u) ∈ S =⇒ ϕ k (u) ∈ S ∀ k = 0, 1, 2, . . .

y, por ser S un subespacio, se infiere que pu ∈ S, para todo p ∈ F[x].


Entonces, para u, v ∈ S y p, q ∈ F[x], ocurre pu + qv ∈ S, también
por ser S un subespacio, y se concluye que S es un submódulo.

En lo sucesivo, se considerará un subespacio ϕ -invariante indistin-


tamente como submódulo del F[x]-módulo E.
De acuerdo con el Corolario 7.2.1, un subespacio ϕ -invariante S,
como submódulo de E, es de torsión y su orden es un polinomio mónico
único μS que divide a μ .
Y es claro que S = {0} ⇐⇒ μS = 1.

307
Publicación digital de Editorial Equinoccio
8 E L F[x]- MÓDULO INDUCIDO POR UNA TRANSFORMACIÓN

Gracias a la ϕ -invariancia podemos considerar la restricción ϕS :


S → S de ϕ a S, y también nos referimos a μS como el polinomio mini-
mal de la transformación ϕS .
El siguiente resultado es una caracterización de singularidad de fre-
cuente utilidad.
Proposición 8.2.2. Sea E un espacio vectorial de dimensión finita sobre
un cuerpo F y sea ϕ : E → E una transformación lineal de polinomio
minimal μ ∈ F[x].
Entonces, ϕ es singular si, y sólo si, el polinomio x divide a μ .
Demostración. En cualquier caso, ker ϕ es un subespacio ϕ -invariante
y ϕ es singular si, y sólo si, ker ϕ = {0}.
Sea μκ el polinomio minimal de la restricción de ϕ a ker ϕ . Hemos
visto que μκ divide a μ .
Para todo v ∈ ker ϕ , se tiene que xv = ϕ (x) = 0, por tanto μκ divide
a x, pero x es irreducible en F[x], por tanto μκ –como es mónico– es
igual a 1 o bien a x.
Pero μκ = 1 ⇐⇒ ker ϕ = {0} ⇐⇒ ϕ es no-singular.
En conclusión, μκ = x ⇐⇒ ϕ es singular.

Corolario 8.2.1. Sea E un espacio vectorial de dimensión finita sobre


un cuerpo F.
Si ϕ : E → E es una transformación lineal no-singular, entonces su
inversa ϕ −1 es un polinomio en ϕ .
Demostración. En virtud de la proposición precedente, el polinomio
minimal μ de ϕ no es divisible por x. Luego, μ es de la forma
μ = a0 + a1 x + · · · + xm
donde a0 = 0.
Se infiere que
μ ( ϕ ) = a0 I + a 1 ϕ + · · · + ϕ m = O
=⇒ ϕ ◦ (−a1 a−1 −1 −1 m−1
0 I − a 2 a0 ϕ − · · · − a0 ϕ ) = I
=⇒ ϕ −1 = −a1 a−1 −1 −1 m−1
0 I − a 2 a0 ϕ − · · · − a0 ϕ

308
Publicación digital de Editorial Equinoccio
8.3 S UBESPACIOS ϕ - INVARIANTES CÍCLICOS

8.3 Subespacios ϕ -invariantes cíclicos


Continuamos con un espacio vectorial E de dimensión finita n sobre
un cuerpo F y una transformación lineal ϕ : E → E, la cual induce el
F[x]-módulo E con las propiedades establecidas en la sección anterior.
La siguiente definición tiene sentido a la luz de la Proposición 8.2.1.

Definición 8.3.1. Decimos que un subespacio ϕ -invariante S de E es


cíclico si S es un submódulo cíclico del F[x]-módulo E.
Esto significa que existe un v ∈ E tal que S = F[x]v; es decir,

S = { pv | p ∈ F[x] }

Teorema 8.3.1. Sea E un espacio vectorial de dimensión finita sobre un


cuerpo F y sea ϕ : E → E una transformación lineal.
Sea S = {0} un subespacio ϕ -invariante de E.
Entonces, S es cíclico si, y sólo si, existe un vector v ∈ S tal que

v , ϕ (v) , ϕ 2 (v) , . . . , ϕ k−1 (v)

constituyen una base de S para un cierto entero k ≥ 1.


En tal caso, v es un generador de S y, si μS es el polinomio minimal
de la restricción ϕS de ϕ a S, se tiene que dim S = k = ∂ (μS ).
Demostración. Supongamos que S es un subespacio ϕ -invariante y que
existe un vector v ∈ S tal que {v , ϕ (v) , ϕ 2 (v) , . . . , ϕ k−1 (v)} es una
base del subespacio S.
Entonces, cualquier u ∈ S es expresable como

u = a0 v + a1 ϕ (v) + a2 ϕ 2 (v) + · · · + ak−1 ϕ k−1 (v)


= (a0 I + a1 ϕ + a2 ϕ 2 + · · · + ak−1 ϕ k−1 )(v) = qv

donde q = a0 + a1 x + a2 x2 + · · · + ak−1 xk−1 , o sea que S es cíclico


generado por v.
Recíprocamente, supongamos que S es cíclico, generado por un v ∈
S, y sea μS el polinomio minimal de ϕ S , de grado ∂ (μS ) = k ≤ n.
Como S = {0}, se tiene que ∂ (μS ) ≥ 1.

309
Publicación digital de Editorial Equinoccio
8 E L F[x]- MÓDULO INDUCIDO POR UNA TRANSFORMACIÓN

Tomemos un u ∈ S cualquiera.
Entonces u = pv, para algún polinomio p ∈ F[x]; pero existen poli-
nomios únicos q, r con p = qμ S +r, donde r = 0, en cuyo caso u = pv =
q(μS v) = 0, o bien r = 0 y ∂ (r) < k, es decir, r = b0 +b1 x +b2 x2 +· · · +
bk−1 xk−1 y ocurre

u = pv = (qμS + r)v = q(μS v) + rv = rv


= b0 v + b1 ϕ (v) + b2 ϕ 2 (v) + · · · + bk−1 ϕ k−1 (v)

es decir, u es combinación lineal de los vectores

v , ϕ (v) , ϕ 2 (v) , . . . , ϕ k−1 (v)

que, por tanto, generan el subespacio S.


Y son linealmente independientes (en el espacio vectorial E).
En efecto,

a0 v + a1 ϕ (v) + a2 ϕ 2 (v) + · · · + ak−1 ϕ k−1 (v) = 0

significa que qv = 0, donde q = a0 + a1 x + a2 x2 + · · · + ak−1 xk−1 , lo


cual implica que, para todo u = pv ∈ S, se verifica

qu = q(pv) = (qp)v = (pq)v = p(qv) = 0

luego μS debe dividir a q, pero esto no es posible si q = 0 (pues en ese


caso ∂ (q) < k = ∂ (μS )), de manera que, forzosamente, q es el polino-
mio nulo y ai = 0 (i = 0, 1, . . ., k − 1).
En conclusión, B = {v , ϕ (v) , ϕ 2 (v) , . . . , ϕ k−1 (v)} es una base del
subespacio S.
En particular, si μS = x + a, entonces ϕ (v) = (x + a)v − av = −av y
se infiere que S es simplemente el subespacio ϕ -invariante de dimensión
1 de base {v}.

De este teorema se desprenden dos corolarios interesantes.

Corolario 8.3.1. Sea E un espacio vectorial de dimensión finita sobre


un cuerpo F y sea ϕ : E → E una transformación lineal.

310
Publicación digital de Editorial Equinoccio
8.3 S UBESPACIOS ϕ - INVARIANTES CÍCLICOS

Si S = {0} es un subespacio ϕ -invariante de E y μS es el polinomio


minimal de ϕS , entonces existe un v ∈ S cuyo orden, como elemento del
F[x]-módulo E, es μS .
Demostración. Sea ∂ (μS ) = k ≥ 1.
S es un F[x]-módulo FG de torsión y de orden μS . De acuerdo con el
Teorema 7.2.6, aplicado a S, existe un submódulo cíclico (un subespacio
ϕ -invariante cíclico) T de S de orden μS .
Según el Teorema 8.3.1, el generador v ∈ T del subespacio ϕ -inva-
riante cíclico T es tal que los vectores

v , ϕ (v) , ϕ 2 (v) , . . . , ϕ k−1 (v)

constituyen una base B de T.


Sea ωv ∈ F[x] el orden de v como elemento del F[x]-módulo S. Sabe-
mos que ωv | μS .
Todo polinomio p = a 0 + a1 x + · · · + ak−1 xk−1 tal que

0 = pv = a0 v + a1 ϕ (v) + · · · + ak−1 ϕ k−1 (v)

es forzosamente nulo, por independencia lineal de B. De modo que


∂ (ωv ) ≥ k pero, como ωv divide a μS , debe ser ∂ (ωv ) ≤ k. Se infiere
que ∂ (ωv ) = k, lo cual implica que ωv = μS (pues ambos son mónicos).

Corolario 8.3.2. Sea E un espacio vectorial de dimensión finita sobre


un cuerpo F y sea ϕ : E → E una transformación lineal.
Sea S = {0} un subespacio ϕ -invariante de E y μS es el polinomio
minimal de ϕS .
Entonces, S es cíclico si, y sólo si, ∂ (μS ) = dim S.
Demostración. Si S es cíclico, parte de las conclusiones del Teorema
8.3.1 es que ∂ (μS ) = dimS.
Recíprocamente, supongamos que S = {0} es un subespacio ϕ -
invariante de E tal que el polinomio minimal μ S de ϕS satisface la condi-
ción ∂ (μS ) = dim S = k ≥ 1.
De acuerdo con el Corolario 8.3.1, existe un v ∈ S tal que su orden
ωv como elemento del F[x]-módulo S es tal que ∂ (ωv ) = k.

311
Publicación digital de Editorial Equinoccio
8 E L F[x]- MÓDULO INDUCIDO POR UNA TRANSFORMACIÓN

El conjunto B de k vectores

v , ϕ (v) , ϕ 2 (v) , . . . , ϕ k−1 (v)

está en S en virtud de la ϕ -invariancia. Para probar que constituyen una


base de S, basta con verificar su independencia lineal, ya que dimS = k
(Teorema 1.4.6).
En efecto, si

a0 v + a1 ϕ (v) + · · · + ak−1 ϕ k−1 (v) = 0

esto quiere decir que pv = 0, donde p = a0 +a1 x+· · · +ak−1 xk−1 . Pero,
si p no es nulo, entonces ωv | p, lo cual no es posible, pues ∂ (p) ≤ k −
1 < ∂ (ωv ) = k; de modo que p es nulo y ai = 0, para i = 0, 1, . . ., k − 1.
Ahora bien, ya que B es una base de S, todo vector u ∈ S es ex-
presable como

u = b0 v + b1 ϕ (v) + · · · + bk−1 ϕ k−1 (v)

es decir, u = qv, donde q = b0 + b1 x + · · ·+ bk−1 xk−1 , o sea que v genera


el F[x]-módulo S que es, por tanto, cíclico.

Veamos cómo es la matriz [ϕS ] asociada a ϕS (restricción de ϕ al


subespacio cíclico S generado por v ∈ S) con respecto a la base estable-
cida en el Teorema 8.3.1.
El polinomio minimal de ϕ S es de la forma

μS = a0 + a1 x + · · · + ak−1 xk−1 + xk

Ahora bien, el vector de lugar j, para j = 1, 2, . . ., k − 1, de la base


es ϕ j−1 (v), o sea que la columna de lugar j en la matriz [ϕS ] está
constituida por las coordenadas de ϕ [ϕ j−1 (v)] = ϕ j (v) con respecto
a la misma base, por tanto, las entradas de la columna j (para j =
1, 2, . . ., k − 1) son (véasela verticalmente)
j+1
0 0 ... 0 1 0 0 ... 0

312
Publicación digital de Editorial Equinoccio
8.3 S UBESPACIOS ϕ - INVARIANTES CÍCLICOS

En particular, la columna de lugar k − 1 está constituida por

0 0 0 ... 0 1

En cuanto a la última columna (lugar k), se trata de las coordenadas


de ϕ [ϕ k−1 (v)] = ϕ k (v). Pero,

0 = μS v = a0 v + a1 ϕ (v) + · · · + ak−1 ϕ k−1 (v) + ϕ k (v)


=⇒ ϕ k (v) = (−a0 )v + (−a1 )ϕ (v) + · · · + (−ak−1 )ϕ k−1 (v)

lo cual quiere decir que la columna k es (véasela verticalmente)

−a0 − a1 ... − ak−1

En conclusión, tenemos
⎛ ⎞
0 0 0 0 ... 0 −a0
⎜1 0 0 0 ... 0 −a1 ⎟
⎜ ⎟
⎜0 1 0 0 ... 0 −a2 ⎟
⎜ ⎟
⎜ ... 0 −a3 ⎟
[ϕS ] = ⎜ 0 0 1 0 ⎟ (8.3.1)
⎜0 0 0 1 ... 0 −a4 ⎟
⎜ ⎟
⎜ .. .. ⎟
⎝. . . . . . . . . . . . . ... . ⎠
0 0 0 0 . . . 1 −ak−1

Nótese que las entradas de la diagonal principal son

0 0 0 ... 0 − ak−1

Si μS = a0 + x, entonces [ϕS ] = (−a0 ). En particular, a0 = 0, sig-


nifica que v ∈ ker ϕ , es decir, S ⊂ ker ϕ y obviamente [ϕS ] = (0).
Conviene introducir la siguiente definición.

Definición 8.3.2. Dado un polinomio mónico cualquiera, no constante,

p = a0 + a1 x + · · · + am−1 xm−1 + xm ∈ F[x]

313
Publicación digital de Editorial Equinoccio
8 E L F[x]- MÓDULO INDUCIDO POR UNA TRANSFORMACIÓN

decimos que la matriz m × m


⎛ ⎞
0 0 0 0 ... 0 −a0
⎜1 0 0 0 ... 0 −a1 ⎟
⎜ ⎟
⎜0 1 0 0 ... 0 −a2 ⎟
⎜ ⎟
⎜ ... 0 −a3 ⎟
C(p) = ⎜ 0 0 1 0 ⎟
⎜0 0 0 1 ... 0 −a4 ⎟
⎜ ⎟
⎜ .. .. ⎟
⎝. . . . . . . . . . . . . ... . ⎠
0 0 0 0 . . . 1 −am−1

es la matriz compañera del polinomio p.

Ejemplo 8.3.1. Sea p = −1 + 2x + 5x2 − 3x3 + x4 . Entonces,


⎛ ⎞
0 0 0 1
⎜1 0 0 −2⎟
C(p) = ⎜ ⎟
⎝0 1 0 −5⎠
0 0 1 3

es la matriz compañera de p.
Así pues, (8.3.1) puede expresarse como

[ϕS ] = C(μS ) (8.3.2)

El lema siguiente va a interesar más adelante.

Lema 8.3.1. Dado un polinomio mónico p, con ∂ (p) ≥ 1, sobre el


cuerpo F, se tiene
det(xI −C(p)) = p
(donde I es la matriz identidad de orden ∂ (p)).
Demostración. Sea p = a0 + a1 x + · · · + am−1 xm−1 + xm ∈ F[x], de
modo que su matriz compañera C(p) es la que aparece en la Definición
8.3.2.

314
Publicación digital de Editorial Equinoccio
8.3 S UBESPACIOS ϕ - INVARIANTES CÍCLICOS

Tenemos,
 
 x 0 0 0 . . . 0 a 
 0 
−1 x 0 0 . . . 0 a 
 1 
 0 −1 x 0 ... 0 a2 

 0 −1 x . . . 0 a3 
det(xI −C(p)) =  0 (Δ)
0 0 −1 . . . 0 a4 
 0
 .. 
. . . . . . . . . . . . . . . . . . . 
 
0 0 0 0 . . . −1 x + am−1 
Aplicamos el principio de inducción en el grado ∂ (p).
Para ∂ (p) = 1, es el caso de p = a + x y
C(p) = (−a) =⇒ det(xI −C(p)) = det(x + a) = x + a = p
Por no dejar, veamos el caso ∂ (p) = 2, es decir p = a + bx + x2 ;
entonces,
   
0 −a  x a 
C(p) = =⇒ det(xI −C(p)) =  
1 −b −1 x + b
=⇒ det(xI −C(p)) = x(x + b) + a = p
Supongamos que la fórmula del enunciado es cierta siempre que el
grado del polinomio sea m − 1 y probémoslo para ∂ (p) = m, donde
p = a0 + a1 x + · · · + am−1 xm−1 + xm .
Si desarrollamos el determinante (Δ) por los elementos de su pri-
mera fila, se obtiene lo siguiente, donde q = a 1 +a2 x+· · ·+am−1 xm−2 +
xm−1 e I∗ es la matriz identidad (m − 1) × (m − 1),

det(xI −C(p)) =
 
−1 x 0 0 . . . 0 
 
 0 −1 x
 0 . . . 0 
0
 0 −1 x . . . 0 
x det(xI∗ −C(q)) + (−1)m+1 a0 ×  0 0 0 −1 . . . 0  =

 . 
 . . . . . . . . . . . . . . . .. 
 
0 0 0 0 . . . −1

315
Publicación digital de Editorial Equinoccio
8 E L F[x]- MÓDULO INDUCIDO POR UNA TRANSFORMACIÓN

x det(xI∗ −C(q)) + (−1)m+1 a0 × (−1)m−1 =


(−1)2m a0 + x det(xI∗ −C(q)) = a0 + xq = p
aplicando la hipótesis inductiva a det(xI ∗ −C(q)), ya que ∂ (q) = m−1.

Es importante considerar el caso especial donde el polinomio mini-


mal del subespacio es de la forma (x − c)k .
Teorema 8.3.2. Sea E un espacio vectorial de dimensión finita n sobre
un cuerpo F y sea ϕ : E → E una transformación lineal.
Si S = {0} es un subespacio ϕ -invariante cíclico de E, generado
por v ∈ S, y μS = (x − c)k es el polinomio minimal de ϕ S , entonces los
vectores2
v , (ϕ − cI )(v) , (ϕ − cI )2 (v) , . . . , (ϕ − cI )k−1 (v)
constituyen una base de S que se denomina base de Jordan.
Demostración. En primer lugar, ninguno de los vectores de la presunta
base es 0, pues v = 0 (ya que S = {0}) y, si (ϕ − cI )i (v) = 0, para
1 ≤ i ≤ k − 1, entonces pS = {0}, donde p = (x − c)i , lo cual implica
que μS | p y esto no es posible puesto que ∂ (p) = i < k = ∂ (μ S ). Son
además todos distintos, pues de ser (ϕ − cI ) i (v) = (ϕ − cI ) j (v), con
0 ≤ i < j ≤ k − 1, concluiríamos que
[(x − c) j − (x − c)i ]S = {0} =⇒ μS | (x − c) j − (x − c)i
que no es posible, ya que ∂ [(x − c) j − (x − c)i ] = j < k = ∂ (μS ).
Por el Teorema 8.3.1 sabemos que dim S = ∂ (μS ) = k, de manera
que basta con probar que la supuesta base, constituida por k vectores
distintos, es linealmente independiente. 3
En efecto,
a0 v + a1 (ϕ − cI )(v) + a2 (ϕ − cI )2 (v) + · · ·
· · · + ak−1 (ϕ − cI )k−1 (v) = 0

2 I es la transformación identidad en E.
3 Por el Teorema 1.4.6.

316
Publicación digital de Editorial Equinoccio
8.3 S UBESPACIOS ϕ - INVARIANTES CÍCLICOS

significa que qv = 0, donde

q = a0 + a1 (x − c) + a2 (x − c)2 + · · · + ak−1 (x − c)k−1

pero entonces, para todo u = pv ∈ S, se tiene

qu = q(pv) = (qp)v = (pq)v = p(qv) = 0

Luego, μS debe dividir a q, lo cual no es posible si q = 0 (pues en ese


caso ∂ (q) < k = ∂ (μS )), o sea que, necesariamente, q es el polinomio
nulo y ai = 0 (i = 0, 1, . . ., k − 1).

Veamos la forma de la matriz [ϕS ], asociada a la transformación ϕS


del teorema precedente, con respecto a la base de Jordan.
Su primera columna está constituida por las coordenadas del vector
ϕ (v) con respecto a la base que nos ocupa. Podemos expresar

ϕ (v) = cv + (ϕ − cI )(v)

de modo que esa primera columna es (verticalmente):

c 1 0 0 ... 0 0

Una columna de lugar j, donde 1 < j < k, tiene por entradas las
coordenadas de

ϕ [(ϕ − cI ) j (v)]
= (ϕ − cI ) [(ϕ − cI ) j (v)] + c (ϕ − cI ) j (v)
= c (ϕ − cI ) j (v) + (ϕ − cI ) j+1 (v)

Por tanto, la columna j (para j = 2, . . ., k − 1) es (verticalmente):


j
0 0 ... 0 c 1 0 ... 0

o sea que c ocupa en [ϕS ] el lugar ( j, j) en la diagonal principal y tiene


un 1 justo debajo en ( j + 1, j).

317
Publicación digital de Editorial Equinoccio
8 E L F[x]- MÓDULO INDUCIDO POR UNA TRANSFORMACIÓN

Por último, la columna de lugar k comprende las coordenadas del


vector
ϕ [(ϕ − cI )k−1 (v)]
= (ϕ − cI ) [(ϕ − cI )k−1 (v)] + c (ϕ − cI )k−1 (v)
= (ϕ − cI )k (v) + c (ϕ − cI )k−1 (v)
= c (ϕ − cI )k−1 (v)
ya que (ϕ − cI )k (v) = μS v = 0.
La columna k es pues
0 0 ... 0 c
En definitiva, tenemos la matriz k × k (los espacios vacíos están
poblados por 0)
⎛ ⎞
c
⎜1 c ⎟
⎜ ⎟
⎜ 1 c ⎟
⎜ ⎟
⎜ 1 c ⎟
[ϕS ] = ⎜ ⎟ (8.3.3)
⎜ .. ⎟
⎜ 1 . ⎟
⎜ ⎟
⎝ . .. c ⎠
1 c
cuando μS = (x − c)k y con respecto a la base de Jordan.
También en este caso, ocurre que
det(xI − [ϕS ]) = (x − c)k = μS
lo cual es muy fácil de ver, pues el determinante det(xI − [ϕS ]) es trian-
gular y las entradas de su diagonal principal son todas x − c.

8.4 Ejercicios
1. La transformación lineal ϕ : R3 → R3 tiene
⎛ ⎞
1 −2 3
⎝−1 18 5⎠
0 4 2

318
Publicación digital de Editorial Equinoccio
8.4 E JERCICIOS

por matriz asociada con respecto a la base canónica.


Hallar una base para el subespacio ϕ -invariante cíclico generado
por el vector (1, −3, 3).

2. Sea E un espacio vectorial de dimensión finita y sea ϕ : E → E


una transformación lineal.
Sea S un subespacio ϕ -invariante.
¿Podemos asegurar que existe un subespacio ϕ -invariante T tal
que E = S ⊕ T?

3. Sea E un espacio vectorial de dimensión finita 4, sobre el cuerpo


R, y sea ϕ : E → E una transformación lineal cuyo polinomio
minimal es μ = x4 − 3x3 + x2 − 2x + 1.
Mostrar una matriz asociada a ϕ .

4. Sea E un espacio vectorial de dimensión finita 4, sobre el cuerpo


Q de los racionales, y sea ϕ : E → E una transformación lineal
cuyo polinomio minimal es μ = x 4 − 3.
Probar que el Q[x]-módulo E, inducido por ϕ , es cíclico y gene-
rado por todo vector = 0 de E.

5. Sea E un espacio vectorial de dimensión finita sobre el cuerpo Q


de los racionales, y sea ϕ : E → E una transformación lineal cuyo
polinomio minimal es μ = (x 2 + 2)2 (x2 − x + 1).
Probar que E = S ⊕ T, donde S y T son subespacios ϕ -invariantes
tales que los polinomios minimales de las restricciones de ϕ son
(x2 + 2)2 y x2 − x + 1 respectivamente.
Si dimE = 6, mostrar una matriz asociada a ϕ .

319
Publicación digital de Editorial Equinoccio
8 E L F[x]- MÓDULO INDUCIDO POR UNA TRANSFORMACIÓN

6. La transformación lineal ϕ : Q4 → Q4 tiene


⎛ ⎞
0 0 0 5
⎜1 0 0 0⎟
⎜ ⎟
⎝0 1 0 0⎠
0 0 1 0

por matriz asociada con respecto a cierta base.


Probar, sin realizar operaciones, que ϕ 4 = 5 I .

7. E es un espacio vectorial de dimensión finita sobre R, y ϕ : E → E


una transformación lineal cuyo polinomio minimal es

μ = −3 + 2x + x3 − 5x4 + x7

Decir por qué ϕ es no-singular y expresar ϕ −1 como polinomio


en ϕ .

8. Sea E un espacio vectorial de dimensión finita 5 sobre C y sea


ϕ : E → E una transformación lineal de polinomio minimal

μ = (x + 2i)5 (i ∈ C es la unidad imaginaria)

Mostrar dos matrices distintas asociadas a ϕ .


Sugerencia: una de ellas con respecto a la base de Jordan.

320
Publicación digital de Editorial Equinoccio
C APÍTULO 9
Formas canónicas de matrices semejantes

9.1 Formas canónicas racionales


Lo de “racionales” se refiere a que el cuerpo F puede ser cualquiera,
no se exige que sea algebraicamente cerrado.
Tenemos un espacio vectorial E de dimensión finita sobre un cuerpo
F y una transformación lineal ϕ : E → E, cuyo polinomio minimal es μ
y de grado ∂ (μ ) = k ≥ 1.
De acuerdo con la Sección 8.2, sabemos que ϕ induce en E la es-
tructura de un F[x]-módulo FG de torsión de orden μ .
Aplicando el Teorema Fundamental de la Aritmética 5.5.3, el po-
linomio minimal admite la expresión única (salvo por el orden de los
factores)
μ = pk11 × pk22 × · · · × pkmm
donde los pi son polinomios mónicos irreducibles.
Sugerimos al lector que tenga presente la Recapitulación hecha en
la página 264.
Pues bien, el F[x]-módulo E admite dos descomposiciones funda-
mentales, cada una única en su tipo, en suma directa de submódulos cí-
clicos de torsión; en otras palabras, el espacio vectorial E es expresable,
de manera única en cada caso, como suma directa de subespacios ϕ -
invariantes cíclicos.
La primera descomposición es consecuencia del Teorema 7.2.3:
E = S11 ⊕ S12 ⊕ · · · ⊕ S1n1
⊕ S21 ⊕ S22 ⊕ · · · ⊕ S2n2
... ... ... ... ... .........
⊕ Sm1 ⊕ Sm2 ⊕ · · · ⊕ Smnm

321
Publicación digital de Editorial Equinoccio
9 F ORMAS CANÓNICAS DE MATRICES SEMEJANTES

donde los Si j son subespacios ϕ -invariantes cíclicos de polinomios mi-


k
nimales respectivos μSi j = pi i j con ki = ki1 ≥ ki2 ≥ · · · ≥ kini .
En virtud del Teorema 7.2.5, no es posible mayor descomposición
de E en suma directa de subespacios ϕ -invariantes no triviales.
Nótese que, por el Teorema 8.3.1,

∑ dim Si j ∑ ∂ (pi i j )
k
dim E = =
i, j i, j

En cada subespacio Si j elegimos la base presentada en el Teorema


8.3.1, con respecto a la cual la matriz asociada a la restricción ϕSi j re-
k k
sulta ser la matriz compañera de pi i j , es decir [ϕSi j ] = C(pi i j ) (según
(8.3.2)).
Para cada i = 1, 2, . . ., m, hacemos la siguiente consideración.
Colocando las bases ordenadas de Si1 , Si2 , . . ., Sini , una después de
otra, obtenemos una base para el subespacio Ti = Si1 ⊕ Si2 ⊕ · · · ⊕ Sini ,
con respecto a la cual, según se estableció en la Sección 8.1, la matriz
asociada a ϕTi resulta ser

⎛ ⎞
C(pki i1 )
⎜ ⎟
⎜ C(pki i2 ) ⎟

M(pi ) = [ϕTi ] = ⎜ ⎟
..
. ⎟
⎝ ⎠
kin
C(pi i )

(donde los espacios vacíos están compuestos por ceros).


Ahora ponemos estas bases ordenadas de cada Ti , una después de
otra, y obtenemos una base para el espacio E, con respecto a la cual,
nuevamente por la Sección 8.1, la matriz asociada a ϕ es
⎛ ⎞
M(p1 )
⎜ M(p2 ) ⎟
⎜ ⎟
[ϕ ] = ⎜ . ⎟
⎝ . . ⎠
M(pm )

322
Publicación digital de Editorial Equinoccio
9.1 F ORMAS CANÓNICAS RACIONALES

Esta matriz es la única en su tipo (salvo por el orden que se dé a


las M(pi ) dentro de [ϕ ]) asociada a ϕ y se denomina forma canónica
racional primaria.
La segunda descomposición se debe a la aplicación del Teorema
7.2.6 de los factores invariantes.
El espacio vectorial E (F[x]-módulo E) es expresable como suma
directa
E = S1 ⊕ S2 ⊕ · · · ⊕ Sh
de subespacios ϕ -invariantes cíclicos (submódulos cíclicos) S j con poli-
nomios minimales (órdenes) respectivos μ j , de grados ∂ (μ j ) = dim S j
≥ 1, que satisfacen

μh = μ (minimal de ϕ ) y μ1 | μ2 | . . . | μh

y esta descomposición, junto a los μ j , es única (aquí hemos invertido el


orden en el cual aparecen los S j en el Teorema 7.2.6).
En virtud del Teorema 8.3.1, tenemos
h h
dimE = ∑ dim S j = ∑ ∂ (μ j )
j=1 j=1

Nuevamente elegimos la base ordenada presentada en el Teorema


8.3.1 para cada S j y, respetando su orden, las agregamos sucesivamente
para constituir una base para el espacio E.
De acuerdo con la fórmula (8.3.2), tenemos

[ϕS j ] = C(μ j )

donde C(μ j ) es la matriz compañera (Definición 8.3.2) del polinomio μ j .


Apelando una vez más a lo establecido en la Sección 8.1, obtenemos
la matriz
⎛ ⎞
C(μ1 )
⎜ C(μ2 ) ⎟
⎜ ⎟
[ϕ ] = ⎜ .. ⎟ (9.1.1)
⎝ . ⎠
C(μh )

323
Publicación digital de Editorial Equinoccio
9 F ORMAS CANÓNICAS DE MATRICES SEMEJANTES

y esta matriz es la única en su tipo asociada a ϕ y se denomina forma


canónica racional.
Ejemplo 9.1.1. Sea E un espacio vectorial de dimensión finita sobre el
cuerpo Q de los números racionales y ϕ : E → E una transformación
lineal cuyo polinomio minimal

μ = x × (x3 − 5) × (x2 + 2x − 2)

ya ha sido expresado como producto de factores irreducibles

p1 = x p2 = x3 − 5 p3 = x2 + 2x − 2

Supongamos que E admite la siguiente descomposición en suma di-


recta de subespacios ϕ -invariantes cíclicos:

E = S11 ⊕ S12 ⊕ S13 (9.1.2)


⊕ S21
⊕ S31 ⊕ S32

Supongamos además que los polinomios minimales respectivos de


los Si j son los siguientes, que colocamos en la misma distribución vi-
sual.
x x x

(x3 − 5)

(x2 + 2x − 2) (x2 + 2x − 2)
Nótese que dim E = (1 + 1 + 1) + 3 + (2 + 2) = 10.
Las matrices compañeras de estos polinomios, colocadas en el mis-
mo orden visual son:

(0) (0) (0)

⎛ ⎞
0 0 5
⎝1 0 0⎠
0 1 0

324
Publicación digital de Editorial Equinoccio
9.1 F ORMAS CANÓNICAS RACIONALES

   
0 2 0 2
1 −2 1 −2
Luego,
⎛ ⎞ ⎞ ⎛
0 0 0 5
M(p1 ) = ⎝ 0 ⎠ M(p2 ) = ⎝1 0 0⎠
0 0 1 0
⎛ ⎞
0 2
⎜1 −2 ⎟
M(p3 ) = ⎜ ⎟
⎝ 0 2⎠
1 −2
En conclusión, la forma canónica racional primaria asociada a ϕ es:
⎛ ⎞
0
⎜ 0 ⎟
⎜ ⎟
⎜ 0 ⎟
⎜ ⎟
⎜ 0 0 5 ⎟
⎜ ⎟
⎜ 1 0 0 ⎟
[ϕ ] = ⎜⎜ ⎟
0 1 0 ⎟
⎜ ⎟
⎜ 0 2 ⎟
⎜ ⎟
⎜ 1 −2 ⎟
⎜ ⎟
⎝ 0 2⎠
1 −2

Se trata, por supuesto, de una matriz 10 × 10, donde los espacios vacíos
están poblados por ceros.
Construyamos ahora la forma canónica racional asociada a ϕ .
La propia demostración del Teorema 7.2.6 nos indica cómo obtener
la descomposición por factores invariantes a partir de la suma directa en
cíclicos irreducibles que tenemos arriba.
Los factores invariantes son entonces los minimales

μ1 = x μ2 = x(x2 + 2x − 2) μ3 = μ = x(x3 − 5)(x2 + 2x − 2)

325
Publicación digital de Editorial Equinoccio
9 F ORMAS CANÓNICAS DE MATRICES SEMEJANTES

de los subespacios ϕ -invariantes cíclicos respectivos

E = S1 ⊕ S2 ⊕ S3

Desarrollando los μ j obtenemos las matrices compañeras


⎛ ⎞
0 0 0
C(μ1 ) = (0) C(μ2 ) = ⎝1 0 2 ⎠
0 1 −2
⎛ ⎞
0 0 0 0 0 0
⎜1
⎜ 0 0 0 0 −10⎟

⎜0 1 0 0 0 10 ⎟

C(μ3 ) = ⎜
⎜0
⎜ 0 1 0 0 5 ⎟⎟
⎝0 0 0 1 0 2 ⎠
0 0 0 0 1 −2
De éstas obtenemos finalmente la forma canónica racional de [ϕ ]:
⎛ ⎞
0
⎜ 0 0 0 ⎟
⎜ ⎟
⎜ 1 0 2 ⎟
⎜ ⎟
⎜ 0 1 −2 ⎟
⎜ ⎟

⎜ 0 0 0 0 0 0 ⎟ ⎟
[ϕ ] = ⎜ ⎟
⎜ 1 0 0 0 0 −10 ⎟

⎜ 0 1 0 0 0 10 ⎟ ⎟
⎜ 0 0 1 0 0 5 ⎟
⎜ ⎟
⎝ 0 0 0 1 0 2 ⎠
0 0 0 0 1 −2

Es importante notar que la dimensión del espacio y el polinomio


minimal de ϕ no bastan para determinar las formas canónicas. Todo
depende de la descomposición de E en suma directa de subespacios
ϕ -invariantes cíclicos. La descomposición (9.1.2) es un dato en este
ejemplo.

326
Publicación digital de Editorial Equinoccio
9.2 F ORMA CANÓNICA DE J ORDAN

El mismo polinomio minimal μ = x × (x 3 − 5) × (x2 + 2x − 2) ha


podido dar lugar, por ejemplo, a la descomposición
E = S11 ⊕ S12
⊕ S21 ⊕ S22
⊕ S31
con sus minimales respectivos
x x

(x3 − 5) (x3 − 5)

(x2 + 2x − 2)
que también concuerdan con dim E = (1 + 1) + (3 + 3) + 2 = 10.
En este caso, E = S1 ⊕ S2 es la descomposición por factores inva-
riantes, donde los minimales son
μ1 = x(x3 − 5) μ2 = μ = x(x3 − 5)(x2 + 2x − 2)
Invitamos al lector a hallar la forma canónica racional primaria y la
forma canónica racional que corresponden.
No hay ambigüedad. Lo que ocurre es que debemos conocer la
transformación ϕ específica que determina la descomposición única del
espacio en suma directa de subespacios ϕ -invariantes cíclicos. La se-
gunda descomposición corresponde a una transformación distinta de la
anterior. Más adelante en este capítulo resolveremos el asunto.

9.2 Forma canónica de Jordan


Tenemos el espacio vectorial E de dimensión finita sobre un cuerpo
F y una transformación lineal ϕ : E → E de polinomio minimal μ , tal
que ∂ (μ ) = k ≥ 1.
Supongamos que el polinomio minimal es el producto de factores
irreducibles de primer grado, es decir,
μ = (x − c1 )k1 × (x − c2 )k2 × · · · × (x − cm )km

327
Publicación digital de Editorial Equinoccio
9 F ORMAS CANÓNICAS DE MATRICES SEMEJANTES

donde k1 + k2 + · · · + km = k.
Del Teorema 7.2.3 se infiere la descomposición en suma directa
E = S11 ⊕ S12 ⊕ · · · ⊕ S1n1
⊕ S21 ⊕ S22 ⊕ · · · ⊕ S2n2
... ... ... ... ... ... ...
⊕ Sm1 ⊕ Sm2 ⊕ · · · ⊕ Smnm
donde los Si j son subespacios ϕ -invariantes cíclicos de polinomios mi-
nimales respectivos μSi j = (x−ci )ki j con ki1 ≤ ki2 ≤ · · · ≤ kini = ki (aquí,
por conveniencia, ordenamos los Si1 , Si2 , . . . , Sini en sentido contrario al
enunciado en el Teorema 7.2.3)
En virtud del Teorema 7.2.5, no es posible mayor descomposición
de E en suma directa de subespacios ϕ -invariantes no triviales.
Nótese que, por el Teorema 8.3.1,
dim E = ∑ dim Si j = ∑ ki j
i, j i, j

En cada subespacio Si j elegimos la base de Jordan (Teorema 8.3.2),


con respecto a la cual la matriz ki j × ki j asociada es (8.3.3)
⎛ ⎞
ci
⎜ 1 ci ⎟
⎜ ⎟
⎜ 1 c ⎟
⎜ i ⎟
⎜ 1 ci ⎟
[ϕSi j ] = ⎜ ⎟
⎜ .. ⎟
⎜ 1 . ⎟
⎜ ⎟
⎝ . . . ci ⎠
1 ci
Atención: Si ki j = 1, entonces [ϕSi j ] = (ci ).
Para cada i = 1, 2, . . ., m, colocamos las bases ordenadas de
Si1 , Si2 , . . . , Sini
una después de otra, y obtenemos una base para el subespacio
Ti = Si1 ⊕ Si2 ⊕ · · · ⊕ Sini

328
Publicación digital de Editorial Equinoccio
9.2 F ORMA CANÓNICA DE J ORDAN

con respecto a la cual, según se estableció en la Sección 8.1, la matriz


asociada a ϕTi resulta ser una Ji de dimensiones

(ki1 + . . . kini ) × (ki1 + . . . kini )

⎛ ⎞
[ϕSi1 ]
⎜ [ϕSi2 ] ⎟
⎜ ⎟
Ji = [ϕTi ] = ⎜ .. ⎟
⎝ . ⎠
[ϕSini ]
⎛ ⎞
ci
⎜ ci ⎟
⎜ ⎟
⎜ .. ⎟
⎜ . ⎟
⎜ ⎟
= ⎜ ci ⎟
⎜ ⎟
⎜ . . ⎟
⎜ 1 . ⎟
⎜ .. ⎟
⎝ . ci ⎠
1 ci
donde las primeras entradas diagonales ci , que carecen de un 1 justo
debajo, corresponden a casos

ki1 = ki2 = · · · = kil = 1

A partir de allí, ki j > 1, para j = l + 1, . . ., ni .


Ahora ponemos estas bases ordenadas de cada Ti , una a continua-
ción de otra, y se obtiene una base para el espacio E = T1 ⊕ · · · ⊕ Tm
con respecto a la cual, otra vez por la Sección 8.1, la matriz asociada a
ϕ es
⎛ ⎞
J1
⎜ J2 ⎟
⎜ ⎟
[ϕ ] = ⎜ . ⎟
⎝ . . ⎠
Jm
Esta matriz asociada a ϕ es la única en su tipo (salvo por el orden
que se dé a las Ji dentro de [ϕ ]) y se denomina forma de Jordan.

329
Publicación digital de Editorial Equinoccio
9 F ORMAS CANÓNICAS DE MATRICES SEMEJANTES

Ésta no puede considerarse como una forma “canónica” puesto que


no todo polinomio minimal es “totalmente reducible:” μ = (x − c 1 )k1 ×
· · · × (x − cm )km , de modo que no toda transformación de E en E va a
admitir una matriz en forma de Jordan; en tal sentido, ésta no es repre-
sentativa de todas las clases de equivalencia por semejanza.
Si el cuerpo F es algebraicamente cerrado, es decir, que los únicos
polinomios irreducibles en F[x] son los de grado 1; 1 por ejemplo, si F es
el cuerpo C de los números complejos; entonces, toda transformación
lineal de E en E tiene una matriz asociada en forma de Jordan. En este
caso, es válido referirse a ésta como la forma canónica de Jordan.2

Ejemplo 9.2.1. Sea E un espacio vectorial de dim E = 10 sobre el cuer-


po C de los números complejos y sea ϕ : E → E una transformación
lineal cuyo polinomio minimal μ ya hemos factorizado en irreducibles:

μ = (x − 2)2 (x − 3) (x − 5)3

Supongamos –y este es un dato en el ejemplo– que E admite la si-


guiente descomposición en suma directa de subespacios ϕ -invariantes
cíclicos:

E = S11 ⊕ S12
⊕ S21 ⊕ S22
⊕ S31 ⊕ S32

con sus minimales respectivos

(x − 2) (x − 2)2

(x − 3) (x − 3)

(x − 5)2 (x − 5)3

1
Sabemos que esto equivale a que todo polinomio no constante en F[x] admite una raíz
en F.
2 En honor al matemático francés Camille Jordan (1838-1922).

330
Publicación digital de Editorial Equinoccio
9.3 E L POLINOMIO CARACTERÍSTICO

Entonces,
⎛ ⎞
⎛ ⎞ 5
2   ⎜1 5 ⎟
3 ⎜ ⎟
J1 = ⎝ 2 ⎠ J2 = ⎜
J3 = ⎜ 5 ⎟
3 ⎟
1 2 ⎝ 1 5 ⎠
1 5

Luego, la forma canónica de Jordan asociada a la transformación


ϕ es ⎛ ⎞
2
⎜ 2 ⎟
⎜ ⎟
⎜ 1 2 ⎟
⎜ ⎟
⎜ 3 ⎟
⎜ ⎟
⎜ 3 ⎟
[ϕ ] = ⎜ ⎟
⎜ 5 ⎟
⎜ ⎟
⎜ 1 5 ⎟
⎜ ⎟
⎜ 5 ⎟
⎜ ⎟
⎝ 1 5 ⎠
1 5

9.3 El polinomio característico


Sea E un espacio vectorial de dimensión finita n sobre un cuerpo F
y sea ϕ : E → E una transformación lineal.
Sea M una matriz asociada a ϕ con respecto a una base cualquiera
de E.
Consideremos el polinomio det(xI − M ) en F[x], donde I es la ma-
triz identidad n × n.

——————————–

Ejemplo 9.3.1. Supongamos que dim E = 2 y sea


 
a b
M =
c d

331
Publicación digital de Editorial Equinoccio
9 F ORMAS CANÓNICAS DE MATRICES SEMEJANTES

una matriz asociada a ϕ .


Entonces,
 
x − a −b 
det(xI − M ) =  
−c x − d 
= (x − a) (x − d) − cb = x2 − (a + d) x + (ad − cb)
——————————–
Supongamos que M # es también una matriz asociada a ϕ con res-
pecto a otra base de E. Según el Teorema 3.3.2, ocurre que M # =
P × M × P −1 , donde P es una matriz no-singular.
Luego,
xI − M # = x (P × P −1 ) − (P × M × P −1 )
= P × (xI − M ) × P −1
=⇒ det(xI − M # ) = det(P) × det(xI − M ) × det(P −1 )
= det(P) × det(P)−1 × det(xI − M ) = det(xI − M )
De modo que el polinomio det(xI − M ) es el mismo para todas las
matrices asociadas a ϕ ; es decir, det(xI−M ) es invariante con respecto
a matrices semejantes, depende únicamente de la transformación ϕ .
Esto permite la siguiente
Definición 9.3.1. Dada una transformación lineal ϕ : E → E, donde E
es un espacio vectorial de dimensión finita n sobre un cuerpo F, y M
una matriz asociada a ϕ con respecto a cualquier base de E, decimos
que
χ = det(xI − M )
es el polinomio característico de ϕ .
Sabemos que, cualquiera que sea el cuerpo F, la forma canónica
racional de ϕ existe y está unívocamente determinada por ϕ .
Según (9.1.1), sea pues
⎛ ⎞
C(μ1 )
⎜ C(μ2 ) ⎟
⎜ ⎟
[ϕ ] = ⎜ .. ⎟
⎝ . ⎠
C(μh )

332
Publicación digital de Editorial Equinoccio
9.3 E L POLINOMIO CARACTERÍSTICO

la forma canónica racional de ϕ (de dimensión n × n), donde las matri-


ces “interiores” C(μi ) son las matrices compañeras de los polinomios
μi (Definición 8.3.2); y sabemos que μ1 | μ2 | . . . | μh y μh = μ es el po-
linomio minimal de ϕ .
Ahora bien, como la diagonal principal de cada C(μi ) forma parte
de la diagonal principal de [ϕ ], es obvio que
⎛ ⎞
xI1 −C(μ1 )
⎜ xI2 −C(μ2 ) ⎟
⎜ ⎟
xI − [ϕ ] = ⎜ .. ⎟
⎝ . ⎠
xIh −C(μh )

(Ii es la matriz idéntica de dimensiones ∂ (μi ) × ∂ (μi )).


De acuerdo con el Corolario 4.3.1,

χ = det(xI − [ϕ ])
= det(xI1 −C(μ1 )) × det(xI2 −C(μ2 )) × · · · × det(xIh −C(μh ))

Pero, en virtud del Lema 8.3.1,

det(xIi −C(μi )) = μi (i = 1, 2, . . ., h)

Luego,

χ = μ1 × μ2 × · · · × μh (μh = μ ) (9.3.1)

O sea que μ | χ y por tanto todos los factores primos de μ se en-


cuentran en χ . Recíprocamente, de (9.3.1) se infiere que χ | μ h (pues
μ1 | μ2 | . . . | μh ), luego, todo factor primo de χ se encuentra en μ .
Hemos demostrado el importante teorema siguiente.
Teorema 9.3.1. Sea E un espacio vectorial de dimensión finita sobre
un cuerpo F y sea ϕ : E → E una transformación lineal de polinomio
minimal μ y polinomio característico χ .
Entonces, χ es un polinomio mónico de grado ∂ (χ ) = dim E, μ
divide a χ y ambos polinomios tienen exactamente los mismos factores
primos.

333
Publicación digital de Editorial Equinoccio
9 F ORMAS CANÓNICAS DE MATRICES SEMEJANTES

Así pues, si
μ = pk11 × pk22 × · · · × pkmm
es la factorización única del polinomio minimal como producto de po-
linomios mónicos irreducibles p i , donde todo ki ≥ 1, entonces el poli-
nomio característico es de la forma

χ = pl11 × pl22 × · · · × plmm


donde 1 ≤ ki ≤ li , para i = 1, 2, . . ., m y
m m
∂ (χ ) = ∑ ∂ (plii ) = ∑ l1∂ (pi ) = dim E
i=1 i=1

Aplicando el Teorema 7.2.3 obtenemos

E = S11 ⊕ S12 ⊕ · · · ⊕ S1n1


⊕ S21 ⊕ S22 ⊕ · · · ⊕ S2n2
... ... ... ... ... ... ...
⊕ Sm1 ⊕ Sm2 ⊕ · · · ⊕ Smnm

donde los Si j son subespacios ϕ -invariantes cíclicos de polinomios mi-


k
nimales respectivos μSi j = pi i j con ki = ki1 ≥ ki2 ≥ · · · ≥ kini .
Los subespacios

Ti = Si1 ⊕ Si2 ⊕ · · · ⊕ Sini

para i = 1, . . ., m, son ciertamente ϕ -invariantes, aunque no cíclicos si


ni > 1 (véase el Teorema 7.2.5), y el minimal de la restricción de ϕ a T i
es claramente μi = pki i .
Tenemos que E = T1 ⊕ · · · ⊕ Tm y, en virtud del Teorema 7.2.2, esta
es la descomposición primaria del F[x]-módulo E en suma directa de
submódulos primarios (subespacios ϕ -invariantes de minimal μ i = pki i ).
Designemos por μi j el polinomio minimal de la restricción de ϕ al
subespacio Si j . Como cada Si j es cíclico, el Corolario 8.3.2 indica que
dim Si j = ∂ (μi j ) = ki j ∂ (pi ). En consecuencia,

dim Ti = (ki1 + ki2 + · · · + kini ) ∂ (pi )

334
Publicación digital de Editorial Equinoccio
9.3 E L POLINOMIO CARACTERÍSTICO

Pero, si χi es el polinomio característico de la restricción ϕi : Ti →


Ti de ϕ al subespacio ϕ -invariante Ti , debe ser χi = phi i (según el Teo-
rema 9.3.1), de modo que dim T i = hi ∂ (pi ) y se infiere que

hi = ki1 + ki2 + · · · + kini (9.3.2)

Por otra parte, en la Sección 8.1 se estableció que, si elegimos una


base ordenada Bi para cada Ti y ponemos una a continuación de la otra
para formar una base B de E, entonces, la matriz asociada a ϕ con res-
pecto a B resulta ser
⎛ ⎞
[ϕ1 ]B1
⎜ [ϕ2 ]B2 ⎟
⎜ ⎟
[ϕ ]B = ⎜ . ⎟
⎝ . . ⎠
[ϕm ]Bm

Luego,
⎛ ⎞
xI1 − [ϕ1 ]B1
⎜ xI2 − [ϕ2 ]B2 ⎟
⎜ ⎟
xI − [ϕ ]B = ⎜ .. ⎟
⎝ . ⎠
xIm − [ϕm ]Bm

e inferimos, haciendo uso de la Proposición 4.3.1, que

χ = det (xI − [ϕ ]B ) = χ1 × χ2 × · · · × χm
= ph11 × ph22 × · · · × phmm

En virtud de (9.3.2) y de la unicidad de la descomposición de χ en


factores primos, concluimos que el exponente l i de pi en la factorización
de χ es

li = ki1 + ki2 + · · · + kini para i = 1, 2, . . ., m (9.3.3)

335
Publicación digital de Editorial Equinoccio
9 F ORMAS CANÓNICAS DE MATRICES SEMEJANTES

El corolario a continuación es una consecuencia muy inmediata del


Teorema 9.3.1 y suele conocerse como el “Teorema de Cayley-Hamil-
ton” en memoria del inglés Arthur Cayley (1821-95) y del irlandés
William Rowan Hamilton (1805-65), a quienes se atribuye su descu-
brimiento.
Corolario 9.3.1. (Cayley-Hamilton) Sea E un espacio vectorial de di-
mensión finita n sobre un cuerpo F y sea ϕ : E → E una transformación
lineal de polinomio característico

χ = a0 + a1 x + · · · + an−1 xn−1 + xn

Entonces,

χ (ϕ ) = a0 I + a1 ϕ + · · · + an−1 ϕ n−1 + ϕ n = O

es la transformación nula.
Y, si M es una matriz asociada a ϕ con respecto a cualquier base
de E, ocurre que

χ (M ) = a0 I + a1 M + · · · + an−1 M n−1 + M n = O

es la matriz nula.
Demostración. Como χ es múltiplo del polinomio minimal de ϕ , se
infiere de la doble implicación (8.2.4) en la Sección 8.2, que χ v = 0,
para todo v ∈ E, o sea que χ (ϕ ) = O es la transformación nula.
En virtud del isomorfismo que existe entre la estructura L (E, E) de
las transformaciones lineales de E en E y la estructura de las matrices
Mn×n , establecido en la Sección 3.2, ocurre que χ (M ) = O es la matriz
nula, cualquiera que sea la matriz M asociada a ϕ .

Si dim E = n y χ = a0 + a1 x + · · · + xn , obsérvese que el coeficiente


a0 viene siendo el valor de χ –como función polinómica– en 0, es decir,
a0 = χ (0) = det(−ϕ ) = (−1)n det ϕ .
En virtud del Corolario 4.4.1, sabemos que

ϕ es no-singular ⇐⇒ det ϕ = 0

336
Publicación digital de Editorial Equinoccio
9.3 E L POLINOMIO CARACTERÍSTICO

O sea que

ϕ es no-singular ⇐⇒ χ (0) = 0 (9.3.4)

Esto también se infiere del Teorema 9.3.1 y del Corolario 4.4.1.

Comentario 9.3.1. Supongamos que conocemos la transformación ϕ :


E → E mediante una matriz asociada M con respecto a cierta base de
E, también conocida.
El polinomio característico se consigue calculando el determinante
χ = det(xI − M ).
El próximo paso es expresar χ como producto de sus factores pri-
mos. No se ha descubierto un algoritmo finito para realizar tal opera-
ción, de modo que tendríamos que proceder por tanteo y confiar en la
suerte.
Supongamos que se ha logrado la factorización de χ . Se plantea
entonces la necesidad de hallar el polinomio minimal μ .
En vista del Teorema 9.3.1, es posible calcular μ formando el poli-
nomio de mínimo grado, producto de los mismos factores primos de χ ,
tal que la matriz μ (M ) sea nula.
Teóricamente, esto es posible, pero podemos imaginar la magnitud
de la tarea para cualquier dimensión de E más o menos grande.
Desde un punto de vista práctico, este procedimiento, desde la fac-
torización de χ y los pasos siguientes, no es viable. Más adelante es-
tableceremos un algoritmo satisfactorio por otra vía.
Comentario 9.3.2. Matrices no semejantes pueden tener el mismo
polinomio característico. Es más, un par de matrices no semejan-
tes pueden compartir los mismos polinomios minimal y característico,
de modo que éstos, siendo invariantes con respecto a la semejanza,
no caracterizan la transformación lineal, como sí lo hacen las formas
canónicas matriciales.
Sin embargo, para un espacio de dimensión n ≤ 3 los polinomios ca-
racterístico y minimal sí determinan unívocamente la transformación.
En efecto, si n = 1, no hay otra opción que μ = χ = a + x y es obvio
que [ϕ ] = (−a) es la forma canónica.

337
Publicación digital de Editorial Equinoccio
9 F ORMAS CANÓNICAS DE MATRICES SEMEJANTES

Consideremos el caso en que n = 2. Las alternativas son las si-


guientes.
1. χ = a0 +a1 x+x2 irreducible (que no es posible si F es algebraica-
mente cerrado) y, forzosamente, por el Teorema 9.3.1, μ = χ .
En este caso, E es cíclico (Corolario 8.3.2) y la forma canónica
racional y racional primaria es
 
0 −a0
1 −a1

2. χ = (x −a)(x −b), donde a = b, y, de nuevo por el Teorema 9.3.1,


debe ser μ = χ (y también ahora E es cíclico por el Corolario
8.3.2).
Entonces,    
a 0 0 −ab
0 b 1 a+b
son, respectivamente, la forma de Jordan, coincidente con la ca-
nónica racional primaria, y la canónica racional.

3. χ = (x − a)2 , μ = x − a.
En este caso, E = S1 ⊕ S2 es la descomposición de E en suma
directa de subespacios ϕ -invariantes cíclicos y μ S1 = μS2 = x − a
son los minimales respectivos. Las formas canónicas racional,
racional primaria y de Jordan coinciden:
 
a 0
0 a

4. χ = μ = (x − a)2 . Nuevamente, E es cíclico y, en virtud del Coro-


lario 7.2.3, no admite descomposición en suma directa de subes-
pacios ϕ -invariantes no triviales.
Luego,    
0 −a2 a 0
1 2a 1 a

338
Publicación digital de Editorial Equinoccio
9.3 E L POLINOMIO CARACTERÍSTICO

son, respectivamente, las formas canónicas racional (y racional


primaria) y la de Jordan.
También para dim E = 3 el conocimiento de los polinomios minimal
y característico basta para determinar las formas canónicas. Este es
un ejercicio para el lector.
Supongamos ahora, por ejemplo, que el espacio E es sobre el cuerpo
R de los reales y de dimensión dim E = 4.
Sea ϕ : E → E una transformación lineal, cuyos polinomios carac-
terístico y minimal son

χ = (x + 1)2 (x2 + 2) μ = (x + 1) (x2 + 2)

expresados por sus factores primos.


El espacio E podría admitir estas dos descomposiciones distintas en
suma directa de subespacios ϕ -invariantes cíclicos

E = S1 ⊕ S2 ⊕ S3 de minimales respectivos x + 1 x+1 x2 + 2

o bien

E = T1 ⊕ T2 de minimales respectivos (x + 1)2 x2 + 2

que corresponden a transformaciones diferentes.


Para saber de cuál descomposición se trata y adjudicar las formas
canónicas correspondientes, es preciso conocer la transformación ϕ
específica, no basta el conocimiento de χ y de μ .
Tenemos el espacio vectorial E de dimensión finita n sobre un cuer-
po F y ϕ : E → E una transformación lineal de polinomio caracterís-
tico χ .
Si χ es irreducible, entonces el minimal es necesariamente μ = χ
(Teorema 9.3.1); E es cíclico (Corolario 8.3.2) y no admite descompo-
sición en suma directa de subespacios ϕ -invariantes no triviales (Coro-
lario 7.2.3). Las formas canónicas racional y racional primaria coinci-
den con la matriz compañera C(μ ).
Supongamos que χ admite alguna raíz c ∈ F : χ (c) = 0. Decimos
entonces que c es un valor característico de ϕ .

339
Publicación digital de Editorial Equinoccio
9 F ORMAS CANÓNICAS DE MATRICES SEMEJANTES

Al conjunto de los valores característicos de ϕ se le llama el espectro


de la transformación ϕ .
Recordemos que una transformación lineal ψ : E → E es singular
si, y sólo si det[ψ ] = 0, cualquiera que sea la matriz [ψ ] asociada a ψ
(véase el Corolario 4.4.1).
Luego,
χ (c) = 0 ⇐⇒ det(cI − [ϕ ]) = 0 ⇐⇒ ker (cI − ϕ ) = {0}
⇐⇒ ∃ v = 0 : (cI − ϕ )(v) = 0 ⇐⇒ ∃ v = 0 : ϕ (v) = cv
En síntesis, c ∈ F es un valor característico de ϕ si, y sólo si, existe
un vector v ∈ E no nulo tal que ϕ (v) = cv.
A un tal vector v se le llama vector característico3 asociado a c; hay
muchos otros asociados al mismo valor característico.
De hecho, el conjunto de los vectores característicos asociados al
valor característico c es precisamente el conjunto de los vectores no
nulos del subespacio ϕ -invariante ker (cI − ϕ ).
Vale la pena notar que, como
0 es un valor característico de ϕ ⇐⇒ χ (0) = 0
se infiere entonces, de la doble implicación (9.3.4), que

ϕ es singular ⇐⇒ 0 es un valor característico de ϕ


(9.3.5)
Comentario 9.3.3. Sea V = {α v | α ∈ F} el subespacio generado por el
vector característico v = 0, obviamente dimV = 1. De ϕ (α v) = (α c)v
se infiere que V es un subespacio ϕ -invariante. Además, puesto que
ϕ k (v) = ck v, es claro que, para todo polinomio p ∈ F[x], pv = p(c)v y
en consecuencia, V es cíclico generado por v.
Sin embargo, es perfectamente posible que V no sea uno de los com-
ponentes de la descomposición de E en suma directa de subespacios
ϕ -invariantes cíclicos.
3 En inglés, por tradición proveniente del alemán, se les llama eigenvalue al valor ca-
racterístico y eigenvector al vector característico.

340
Publicación digital de Editorial Equinoccio
9.3 E L POLINOMIO CARACTERÍSTICO

Por ejemplo, supongamos que E = R 2 y μ = χ = (x−2)2 . Entonces,


 
2 0
[ϕ ] =
1 2
es la forma de Jordan de ϕ , con respecto a la base (de Jordan)
{(1, 0) , (ϕ − 2I )(1, 0)} = {(1, 0) , (1, 1)}
Por otro lado, 2 es un valor característico de ϕ y se tiene que, para
el vector v = (0, 1),
       
2 0 0 0 0
[ϕ (v)] = × = =2
1 2 1 2 1
es decir, ϕ (v) = 2v de modo que v = (0, 1) es un vector característico
asociado a 2. No obstante, el propio E es cíclico (Corolario 8.3.2)
y, por el Corolario 7.2.3, no admite descomposición en suma directa
de subespacios ϕ -invariantes no triviales, o sea que el subespacio ϕ -
invariante V de dimensión 1 generado por v no puede ser uno de ellos.
No existe un subespacio ϕ -invariante S = {0} tal que E = V ⊕ S.
Para el espacio vectorial E de dimensión finita sobre un cuerpo F,
consideremos el caso de una transformación lineal ϕ : E → E, cuyo po-
linomio minimal sea de la forma
μ = (x − c1 )k1 × (x − c2 )k2 × · · · × (x − cm )km
(lo que ocurre siempre, si F es algebraicamente cerrado).
Su polinomio característico debe ser
χ = (x − c1 )l1 × (x − c2 )l2 × · · · × (x − cm )lm
donde l1 + l2 + · · · + lm = dim E y 1 ≤ ki ≤ li , para i = 1, 2, . . ., m.
Nos remitimos a la Sección 9.2, donde se estableció que nuestra ϕ
admite una forma de Jordan
⎛ ⎞
J1
⎜ J2 ⎟
⎜ ⎟
[ϕ ] = ⎜ .. ⎟
⎝ . ⎠
Jm

341
Publicación digital de Editorial Equinoccio
9 F ORMAS CANÓNICAS DE MATRICES SEMEJANTES

en la cual, para i = 1, 2, . . ., m,
⎛ ⎞
ci
⎜ ci ⎟
⎜ ⎟
⎜ .. ⎟
⎜ . ⎟
⎜ ⎟
Ji = ⎜⎜
ci ⎟

⎜ .
1 .. ⎟
⎜ ⎟
⎜ . ⎟
⎝ . . ci ⎠
1 ci
es de dimensiones

(ki1 + · · · + kini ) × (ki1 + · · · + kini ) = li × li

de acuerdo con la fórmula (9.3.3). Y hemos visto más arriba que l i es la


multiplicidad de la raíz ci de χ .
Podemos pues afirmar:

La diagonal principal en la forma de Jordan de ϕ está consti-


tuida por sus valores característicos c1 , c2 , . . ., cm , donde cada ci
se repite li veces, que es el exponente de (x − ci ) en el polinomio
característico de ϕ .

9.4 Transformaciones diagonalizables y nilpotentes


Definición 9.4.1. Sea E un espacio vectorial de dimensión finita sobre
un cuerpo F.
Decimos que una transformación lineal ϕ : E → E es diagonalizable
si existe una base en E con respecto a la cual la matriz asociada a ϕ es
diagonal.
Ya conocemos (página 74) las matrices diagonales y hemos desta-
cado sus ventajas operativas. Considerando que una transformación li-
neal usualmente se define y se maneja mediante sus matrices asociadas,
es un feliz acontecimiento cuando nos topamos con una transformación

342
Publicación digital de Editorial Equinoccio
9.4 T RANSFORMACIONES DIAGONALIZABLES Y NILPOTENTES

diagonalizable. Por desgracia, sin embargo, éstas son muy poco fre-
cuentes, como se pondrá de manifiesto, a causa de las exigentes propie-
dades requeridas. Y precisamente debido a que no toda transformación
es diagonalizable, una matriz diagonal no puede considerarse como una
forma canónica.
El resultado fundamental de esta sección es la siguiente caracteri-
zación de las transformaciones diagonalizables.
Teorema 9.4.1. Sea E un espacio vectorial de dimensión finita n sobre
un cuerpo F y sea ϕ : E → E una transformación lineal.
Las siguientes propiedades son equivalentes:

1. ϕ es diagonalizable.

2. Existe una base de E constituida por vectores característicos de ϕ .

3. El polinomio minimal de ϕ es de la forma

μ = (x − c1 ) × (x − c2 ) × · · · × (x − cm )

donde 1 ≤ m ≤ dimE y ci = c j para i = j.

De cumplirse una de estas propiedades, la base responsable por la


matriz diagonal de ϕ es una constituida por vectores característicos, y
las entradas diagonales en la matriz diagonal asociada son los valores
característicos, cada uno repetido según su multiplicidad como raíz del
polinomio característico de ϕ .
La forma de Jordan es precisamente la matriz diagonal.
Demostración. Probaremos las implicaciones

(1) =⇒ (2) =⇒ (3) =⇒ (1)

[(1) =⇒ (2)] : Adoptando la notación de la página 74, supongamos que

D = Diag(d1, d2 , . . . , dn )

es una matriz diagonal asociada a ϕ con respecto a cierta base B =


{v1 , v2 , . . . , vn }.

343
Publicación digital de Editorial Equinoccio
9 F ORMAS CANÓNICAS DE MATRICES SEMEJANTES

En primer lugar, el polinomio característico de ϕ es

χ = det(xI − D)
= det(Diag(x − d1, x − d2 , . . . , x − dn ))
= (x − d1 ) × (x − d2 ) × · · · × (x − dn )

de modo que d1 , d2 , . . . , dn son los valores característicos de ϕ (no ne-


cesariamente distintos).
Ahora bien, la columna j de D está constituida por las coordenadas
de ϕ (v j ) con respecto a la base B, vale decir,

0 ... 0 dj 0 ... 0

por tanto, ϕ (v j ) = d j v j y v j es un vector característico.


Así pues, la base B está constituida por vectores característicos.
[(2) =⇒ (3)] : Sea B = {v1 , v2 , . . . , vn } una base de E constituida por
vectores característicos de ϕ , y sean {c1 , c2 , . . ., cm } los valores carac-
terísticos distintos 4 asociados a los vectores de B. Evidentemente que
1 ≤ m ≤ n.
Consideremos el polinomio p = (x −c 1 ) ×(x −c2 ) ×· · · ×(x −cm ) y
veamos a E como el F[x]-módulo inducido por ϕ . Es claro que B genera
el módulo E.
Tenemos que, para i = 1, 2, . . ., n,

p(ϕ )(vi ) = [(ϕ − c1 I ) ◦ (ϕ − c2 I ) ◦ · · · ◦ (ϕ − cm I )] (vi ) = 0

pues vi está asociado a algún valor característico c j y por tanto5

(ϕ − c j I )(vi ) = ϕ (vi ) − c j vi = 0

En consecuencia, p(ϕ ) = O es la transformación nula (Teorema


2.1.3), es decir, pE = {0}.

4 No puede descartarse que vectores distintos de B correspondan a un mismo valor


característico.
5 Nótese que las transformaciones (ϕ − c I ) conmutan entre sí con respecto a la com-
j
posición ◦.

344
Publicación digital de Editorial Equinoccio
9.4 T RANSFORMACIONES DIAGONALIZABLES Y NILPOTENTES

Se infiere que el polinomio minimal μ de ϕ divide a p. Pero sabe-


mos que μ debe tener por factores a todos los (x − ci ) (por ser factores
primos del polinomio característico), de modo que forzosamente μ = p.

[(3) =⇒ (1)] : En virtud del Teorema 9.3.1, el polinomio característico


de ϕ ha de ser

χ = (x − c1 )l1 × (x − c2 )l2 × · · · × (x − cm )lm

donde todo li ≥ 1, y l1 + l2 + · · · + lm = n.
Caemos en un caso particular de lo tratado en la Sección 9.2, cuya
adaptación no está demás reproducir.
Por el Teorema 7.2.3 obtenemos la descomposición en suma directa

E = S11 ⊕ S12 ⊕ · · · ⊕ S1l1


⊕ S21 ⊕ S22 ⊕ · · · ⊕ S2l2
... ... ... ... ... .........
⊕ Sm1 ⊕ Sm2 ⊕ · · · ⊕ Smlm

de subespacios ϕ -invariantes cíclicos Si j con polinomios minimales res-


pectivos μSi j = (x−ci ). O sea que cada Si j es unidimensional y la matriz
asociada es [ϕSi j ] = (ci ) con respecto a la base de Jordan, en este caso
de un solo vector.
El conjunto ordenado de estos vectores es una base B i para el subes-
pacio ϕ -invariante

Ti = Si1 ⊕ Si2 ⊕ · · · ⊕ Sili

Gracias a la igualdad (9.3.3) de la página 335, dim T i = li .


La matriz asociada a ϕTi con respecto a la base Bi resulta ser de
dimensiones li × li :
⎛ ⎞
ci
⎜ ci ⎟
⎜ ⎟
Ji = [ϕTi ] = ⎜ .. ⎟
⎝ . ⎠
ci

345
Publicación digital de Editorial Equinoccio
9 F ORMAS CANÓNICAS DE MATRICES SEMEJANTES

Ahora juntamos sucesiva y ordenadamente las bases B i y, como

E = T1 ⊕ T2 ⊕ · · · ⊕ Tm

obtenemos una base B responsable de la matriz


⎛ ⎞
J1
⎜ J2 ⎟
⎜ ⎟
[ϕ ] = ⎜ . ⎟
⎝ . . ⎠
Jm

que es diagonal y cuyas entradas diagonales son los valores caracte-


rísticos ci , cada uno repetido según su multiplicidad l i como raíz del
polinomio característico.

Según el teorema precedente, si conocemos los polinomios minimal


y característico de la transformación diagonalizable ϕ

μ = (x − c1 ) × (x − c2 ) × · · · × (x − cm )
χ = (x − c1 )l1 × (x − c2 )l2 × · · · × (x − cm )lm

estamos en posesión de la matriz diagonal asociada. Pero podemos de-


terminar algo más: la base responsable.
En efecto, la transformación ϕ vendrá dada por una matriz A con
respecto a una base también conocida B0 . Por el Teorema 9.4.1, sabe-
mos que la base B, con respecto a la cual la matriz asociada a ϕ es una
matriz diagonal D, está constituida por vectores característicos, y cada
uno de los asociados al valor característico ci pertenece al subespacio
ker (ϕ − ci I ) de dimensión li .
Luego, si las coordenadas de un vector característico, con respecto
a la base B0 , son λ1 , λ2 , . . . , λn , entonces deben satisfacer la ecuación
matricial
(A − ci I) × X = O ()
donde X es la matriz columna n × 1 constituida por las λ j e I es la
matriz identidad n × n.

346
Publicación digital de Editorial Equinoccio
9.4 T RANSFORMACIONES DIAGONALIZABLES Y NILPOTENTES

Pero () no es otra cosa que un sistema homogéneo de ecuaciones


lineales que aprendimos a resolver en la Sección 3.7; más aún, en esa
sección se estableció un método para hallar una base de ker (ϕ −ci I ), y
eso es precisamente lo que nos interesa para cada valor característico ci .
La unión ordenada de estas bases, que vendrán expresadas en términos
de la base B0 , es la base B que estamos buscando.
Otra manera de hallar la base responsable de la matriz diagonal es
aplicar los métodos de la siguiente Sección 9.5.
El próximo resultado se refiere a la existencia de una base que diago-
naliza simultáneamente a un par de transformaciones diagonalizables.
Teorema 9.4.2. Sea E un espacio vectorial de dimensión finita n sobre
un cuerpo F y sean ϕ , ψ : E → E un par de transformaciones lineales
diagonalizables.
Entonces, existe una base de E con respecto a la cual las matrices
asociadas a ϕ y a ψ son ambas diagonales si, y sólo si
ϕ ◦ψ = ψ ◦ϕ

Demostración. Supongamos que las matrices asociadas a ϕ y a ψ son


ambas diagonales, con respecto a la base B = {v1 , . . . , vn }.
De acuerdo con el Teorema 9.4.1, cada vi es vector característico de
ϕ y de ψ ; es decir,
ϕ (vi ) = ci vi ψ (vi ) = di vi
para ciertos valores característicos ci y di de ϕ y de ψ respectivamente.
Ahora bien, para cada i = 1, . . ., n,
(ϕ ◦ ψ )(vi ) = ϕ [ψ (vi )] = ϕ (di vi ) = di ϕ (vi ) = di ci vi
(ψ ◦ ϕ )(vi ) = ψ [ϕ (vi )] = ψ (ci vi ) = ci ψ (vi ) = ci di vi
=⇒ (ϕ ◦ ψ )(vi ) = (ψ ◦ ϕ )(vi )
Se infiere que ϕ ◦ ψ = ψ ◦ ϕ por el Teorema 2.1.3.
Recíprocamente, supongamos que ϕ y ψ conmutan y sean
μϕ = (x − c1 ) × (x − c2 ) × · · · × (x − cr )
μψ = (x − d1 ) × (x − d2 ) × · · · × (x − ds )

347
Publicación digital de Editorial Equinoccio
9 F ORMAS CANÓNICAS DE MATRICES SEMEJANTES

sus polinomios minimales respectivos, de acuerdo con el Teorema 9.4.1.


Considerando E como el F[x]-módulo inducido por ϕ , el Teorema
(de descomposición primaria) 7.2.2 indica que E es suma directa de
subespacios ϕ -invariantes

E = T1 ⊕ T2 ⊕ · · · ⊕ Tr

donde cada

Ti = {v ∈ E | (x − ci )v = 0} = ker (ϕ − ci I )

Análogamente, E es suma directa de subespacios ψ -invariantes

E = U1 ⊕ U2 ⊕ · · · ⊕ Us

donde cada U j = ker (ψ − d j I ).


Veamos, en primer lugar, que cada subespacio U j es ϕ -invariante.
En efecto, tomemos un u ∈ U j cualquiera. Se tiene que ψ (u) = d j u
y en consecuencia,

(ψ − d j I ) [ϕ (u)] = ψ [ϕ (u)] − d j ϕ (u)


= ϕ [ψ (u)] − d j ϕ (u) = d j ϕ (u) − d j ϕ (u) = 0
=⇒ ϕ (u) ∈ ker (ψ − di I ) = U j

De manera totalmente análoga se prueba que todo Ti es ψ -invarian-


te, pero no vamos a necesitarlo.
Tomemos cualquier v ∈ Ti .
Como E = U1 ⊕ · · · ⊕ Us , ocurre que v admite la expresión única

v = u1 + u2 + · · · + us (σ .1)

donde u j ∈ U j ( j = 1, 2, . . ., s).
Ahora bien,

ci v = ϕ (v) = ϕ (u1 ) + ϕ (u2 ) + · · · + ϕ (us )


ci v = ci u1 + ci u2 + · · · + ci us

348
Publicación digital de Editorial Equinoccio
9.4 T RANSFORMACIONES DIAGONALIZABLES Y NILPOTENTES

expresan el vector ci v como una suma de vectores ϕ (u j ) ∈ U j en un


caso, y ci u j ∈ U j en el otro. Pero ci v admite sólo una expresión de esta
naturaleza (Proposición 1.2.1), luego
ϕ (u j ) = ci u j
Esto significa que u j ∈ Ti , para j = 1, 2, . . ., s.
En resumen, hemos probado que u j ∈ Ti ∩ U j , para j = 1, 2, . . ., s.
Y, como v es cualquier vector de Ti , la expresión (σ .1) demuestra que
Ti = (Ti ∩ U1 ) ⊕ (Ti ∩ U2 ) ⊕ . . . ⊕ (Ti ∩ Us ) (σ .2)
Tengamos en cuenta que todo vector no nulo w ∈ T i ∩ U j es vector
característico de ϕ (por estar en Ti = ker (ϕ − ci I )), y vector caracte-
rístico de ψ (por estar en U j = ker (ψ − d j I )).
En cada subespacio Ti ∩ U j = {0} elegimos una base Bi j y las junta-
mos para obtener, gracias a (σ .2), una base Bi para Ti que, como hemos
visto, está constituida por vectores característicos de ϕ y de ψ .
De este modo, obtenemos bases B1 , B2 , . . . , Br para los subespacios
respectivos T1 , T2, . . . , Tr .
Como E = T1 ⊕ T2 ⊕ · · · ⊕ Tr , se tiene que
!
r
B = Bi
i=1

es una base de E y está constituida por vectores característicos de ϕ y


de ψ . En virtud del Teorema 9.4.1, las matrices asociadas a ϕ y a ψ con
respecto a la base B son diagonales.

De acuerdo con el Teorema 9.4.1, es condición necesaria y sufi-


ciente para que una transformación lineal sea diagonalizable el que su
polinomio minimal sea producto de factores de primer grado distintos
dos-a-dos (carece de raíces múltiples). No obstante, si el minimal es
producto de factores de primer grado pero admitiendo raíces múltiples,
el teorema que sigue indica que la transformación es expresable, de ma-
nera única, como suma de una diagonalizable más una nilpotente, cuya
definición introducimos en seguida.

349
Publicación digital de Editorial Equinoccio
9 F ORMAS CANÓNICAS DE MATRICES SEMEJANTES

Definición 9.4.2. Sea E un espacio vectorial sobre un cuerpo F.


Decimos que la transformación lineal ψ : E → E es nilpotente si
existe un entero s ≥ 1 tal que ψ s = O (transformación nula).
La transformación nula es nilpotente trivialmente, pero ciertamente
existen transformaciones nilpotentes no nulas; por ejemplo, si Im ψ ⊂
ker ψ , es claro que ψ 2 = O. Y el Corolario 9.4.1 (abajo) proporciona
toda la numerosa familia de las transformaciones nilpotentes.
La caracterización siguiente de nilpotencia es bastante obvia, pero
vale la pena destacarla para futura referencia.
Lema 9.4.1. Sea E un espacio vectorial de dimensión finita sobre un
cuerpo F.
Entonces, la transformación lineal ϕ : E → E es nilpotente si, y sólo
si, su polinomio minimal es de la forma x k , para un entero k ≥ 1.
En tal caso, el polinomio característico de ϕ es x n , donde n = dimE
y k ≤ n.
Demostración. Si ϕ es nilpotente, entonces ϕ m = O, para algún natural
m ≥ 1, y esto quiere decir que p(ϕ ) = O, donde p = xm ; en consecuen-
cia, el minimal μ de ϕ divide a xm , lo cual implica que μ = xk , para
cierto entero k ≥ 1.
Recíprocamente, si el minimal de ϕ es μ = xk , para un entero k ≥ 1,
entonces ϕ k = μ (ϕ ) = 0 y ϕ es nilpotente.
Como el polinomio característico χ tiene los mismos factores irre-
ducibles de μ y su grado es n, forzosamente χ = xn y desde luego que
k ≤ n, pues μ divide a χ .
Corolario 9.4.1. Sea E un espacio vectorial de dimensión finita n sobre
un cuerpo F.
Una transformación lineal ϕ : E → E es nilpotente si, y sólo si, ad-
mite una matriz asociada triangular (página 124), cuya diagonal prin-
cipal está constituida por ceros.
Demostración. Sea T una matriz triangular asociada a ϕ y tal que las
entradas de su diagonal principal son todas 0.
Es claro que la matriz xI − T es triangular y todas las entradas de su
diagonal principal son x. Se infiere que el polinomio característico de ϕ
es χ = det (xI − T ) = xn .

350
Publicación digital de Editorial Equinoccio
9.4 T RANSFORMACIONES DIAGONALIZABLES Y NILPOTENTES

Como el minimal μ de ϕ divide a χ y tiene los mismos factores


irreducibles, forzosamente μ = xk , para cierto entero k ≤ n. En virtud
del lema precedente, ϕ es nilpotente.
Recíprocamente, supongamos que ϕ es nilpotente. De acuerdo con
el Lema 9.4.1, su polinomio minimal es de la forma μ = x k , para algún
natural k ≤ n.
Según se estableció en la Sección 9.2, ϕ admite una matriz asociada
en forma de Jordan (pues su minimal es producto de factores de primer
grado), la cual es triangular (inferior) y cuyas entradas en la diagonal
principal son precisamente los valores característicos de ϕ , pero éstos
son todos cero, ya que μ = xk .

Teorema 9.4.3. Descomposición de Dunford.


Sea E un espacio vectorial de dimensión finita n sobre un cuerpo F
y sea ϕ : E → E una transformación lineal cuyo polinomio minimal es
de la forma

μ = (x − c1 )k1 × (x − c2 )k2 × · · · × (x − cm )km

(donde ci = c j para i = j).


Entonces existen transformaciones lineales δ , ν : E → E que satis-
facen las siguientes condiciones:

• ϕ = δ +ν

• δ es diagonalizable y de polinomio minimal

(x − c1 ) × (x − c2 ) × · · · × (x − cm )

• ν es nilpotente.

• δ ◦ν = ν ◦δ

• δ y ν son polinomios en ϕ .

Si δ  : E → E es una transformación diagonalizable, ν  : E → E es


nilpotente, ϕ = δ  + ν  y δ  ◦ ν  = ν  ◦ δ  , entonces δ = δ  y ν  = ν .

351
Publicación digital de Editorial Equinoccio
9 F ORMAS CANÓNICAS DE MATRICES SEMEJANTES

Demostración. En virtud del Teorema 7.2.2 de Descomposición Pri-


maria aplicado al F[x]-módulo E inducido por ϕ , el espacio E es ex-
presable de manera única como

E = S1 ⊕ S2 ⊕ · · · ⊕ Sm (9.4.1)

donde cada S j es un subespacio ϕ -invariante tal que el polinomio mini-


mal de la restricción de ϕ a S j es (x − c j )k j .
Sean π1 , π2 , . . . , πm las proyecciones correspondientes a la suma di-
recta (9.4.1) (véase la página 44), y consideremos la transformación
lineal δ : E → E tal que δ = c1 π1 + c2 π2 + · · · + cm πm .
En primer lugar, obsérvese que, para un vector cualquiera u = v1 +
v2 + · · · + vm ∈ E, donde vk ∈ Sk , se tiene

(ϕ ◦ δ )(u) = ϕ (c1 v1 + c2 v2 + · · · + cm vm )
= c1 ϕ (v1 ) + c2 ϕ (v2 ) + · · · + cm ϕ (vm )
= δ [ϕ (v1 ) + ϕ (v2 ) + · · · + ϕ (vm )] = (δ ◦ ϕ )(u)

ya que ϕ (vk ) ∈ Sk por la ϕ -invariancia de Sk .


De modo que ϕ y δ conmutan: ϕ ◦ δ = δ ◦ ϕ .
Nótese que cada c j es un valor característico de δ , pues si 0 = v ∈ S j ,
entonces δ (v) = c j v.
Es más, p = (x − c1 ) × (x − c2 ) × · · · × (x − cm ) es el polinomio
minimal de δ , pues, para cada v j ∈ S j ,

p(δ )(v j ) = [(δ − c1 I ) ◦ (δ − c2 I ) ◦ · · · ◦ (δ − cm I )](v j ) = 0

ya que las transformaciones δ − ck I conmutan y (δ − c j I )(v j ) = 0.


Se infiere del Teorema 9.4.1 que δ es diagonalizable.
Consideremos ahora la transformación lineal ν = ϕ − δ .
Obsérvese que

ϕ = ϕ ◦ I = ϕ ◦ (π1 + · · · + πm ) = ϕ ◦ π1 + ϕ ◦ π2 + · · · + ϕ ◦ πm

luego,

ν = (ϕ − c1 I ) ◦ π1 + (ϕ − c2 I ) ◦ π2 + · · · + (ϕ − cm I ) ◦ πm

352
Publicación digital de Editorial Equinoccio
9.4 T RANSFORMACIONES DIAGONALIZABLES Y NILPOTENTES

Dado que π 2j = π j y π j ◦ πk = O (para j = k), se infiere que, para


todo natural s ≥ 1,

ν s = (ϕ − c1 I )s ◦ π1 + (ϕ − c2 I )s ◦ π2 + · · · + (ϕ − cm I )s ◦ πm

Pero, para un u = v1 + v2 + · · · + vm ∈ E, donde cada vk ∈ Sk , se tiene

[(ϕ − c j I )k j ◦ π j ](u) = (ϕ − c j I )k j (v j ) = 0

ya que π j (u) = v j y (x − c j )k j es el polinomio minimal de la restricción


de ϕ al subespacio ϕ -invariante S j .
En consecuencia, si tomamos un natural s ≥ max{k 1 , k2 , . . . , km },
ocurre que ν s = O (transformación nula), es decir, ν es una transforma-
ción nilpotente.
Como δ conmuta con ϕ , es obvio que conmuta con ν .
Vamos a establecer una propiedad importante de las proyecciones π j .
Para j = 1, 2, . . ., m, los m polinomios

qj = ∏(x − ci )ki
i= j

constituyen un conjunto de máximo común divisor 1.


En virtud del Teorema 5.5.4, existen polinomios p 1 , p2 , . . ., pm ∈
F[x] tales que
1 = p 1 q1 + p2 q2 + · · · + p m qm
de donde

I = p1 q1 ( ϕ ) + p2 q2 ( ϕ ) + · · · + p m qm ( ϕ )

Sea ahora u = v1 + v2 + · · · + vm un vector cualquiera de E, donde


v j ∈ S j , y sabemos que esta expresión es única.
Tenemos entonces

u = p1 q1 (ϕ )(u) + p2 q2 (ϕ )(u) + · · · + pm qm (ϕ )(u)

Pero,

(x − c j )k j p j q j (ϕ )(u) = p j μ (ϕ )(u) = 0 =⇒ p j q j (ϕ )(u) ∈ S j

353
Publicación digital de Editorial Equinoccio
9 F ORMAS CANÓNICAS DE MATRICES SEMEJANTES

ya que, de acuerdo con el Teorema 7.2.2,

S j = {w ∈ E | (x − c j )k j w = (ϕ − c j I )k j (w) = 0}

En virtud de la unicidad de la representación de u, se infiere que

p j q j (ϕ )(u) = v j = π j (u) (∀u ∈ E)


=⇒ π j = p j q j (ϕ )

es decir, cada proyección π j es un polinomio en ϕ y se infiere que δ es


un polinomio en ϕ , al igual que ν .
Supongamos que δ  , ν  : E → E son transformaciones lineales que
satisfacen las propiedades

• ϕ = δ  + ν

• δ  es diagonalizable y ν  es nilpotente.

• δ  ◦ ν = ν ◦ δ 

Es claro que δ  y ν  conmutan con ϕ y, por tanto, conmutan con


todo polinomio en ϕ . En particular, δ  y ν  conmutan con δ y ν ; en
síntesis, δ , ν , δ  , ν  conmutan dos-a-dos.
Tenemos que
δ − δ  = ν − ν
(pues ϕ = δ + ν = δ  + ν  ).
Ahora bien, como δ y δ  son ambas diagonalizables y conmutan,
el Teorema 9.4.2 indica que existe una base con respecto a la cual las
matrices asociadas a δ y δ  son diagonales. Se infiere que la transfor-
mación δ − δ  es diagonalizable.
Por otro lado, como ν y ν  conmutan, se tiene, para todo entero
r ≥ 1,  
r
j r
(ν − ν ) = ∑ (−1)
 r
ν  r− j ◦ ν j
j=0 j
En consecuencia, si ν s = O y ν t = O, tomamos un entero r ≥ s + t
y se verifica que (ν  − ν )r = O.

354
Publicación digital de Editorial Equinoccio
9.4 T RANSFORMACIONES DIAGONALIZABLES Y NILPOTENTES

O sea que ν  − ν es nilpotente, de modo que su polinomio minimal


es de la forma xk ; pero ν  − ν = δ − δ  es, a su vez, diagonalizable, lo
cual implica, por el Teorema 9.4.1, que el minimal de ν  − ν ha de ser
x (no puede tener factores repetidos) y se concluye que ν  − ν = O, es
decir, ν  = ν , de donde δ  = δ .

La unicidad de la descomposición de Dunford es clave en muchas


argumentaciones.
Por ejemplo, tomemos la transformación ϕ : E → E del enunciado
del Teorema 9.4.3 y sea ϕ = δ + ν su descomposición de Dunford.
Vamos a determinar la descomposición de Dunford de ϕ k , para cual-
quier entero k > 1.
Como δ y ν conmutan, podemos aplicar la fórmula del binomio,
   
k k−1 k k−2 2
ϕ =δ +
k k
δ ◦ν + δ ◦ν +···
1 2
 
k
···+ δ ◦ ν k−1 + ν k = δ k + ν ◦ θ
k−1
donde
     
k k−1 k k−2 k
θ = δ + δ ◦ν +···+ δ ◦ ν k−2 + ν k−1
1 2 k−1
Es obvio que ν y θ conmutan, por tanto, (ν ◦ θ ) n = ν n ◦ θ n = O, ya
que ν n = O. De modo que la trasformación ν ◦ θ es nilpotente.
Por otro lado, δ k es diagonalizable, pues es claro que su polinomio
minimal es (x − ck1 ) × (x − ck2 ) × · · · × (x − ckm ) o, si se quiere, pode-
mos considerar la matriz diagonal Diag(d 1 , . . ., dn ) asociada a δ (cada
di es igual a un c j , pero puede haber repeticiones) y es evidente que
Diag(d1, . . . , dn )k = Diag(d1k , . . . , dnk ) está asociada a δ k .
Finalmente, δ k y ν ◦ θ conmutan, puesto que conmutan δ y ν .
En conclusión, ϕ k = δ k + ν ◦ θ es la descomposición de Dunford
de ϕ k .
Si esta misma ϕ fuese no-singular, también podemos hallar la des-
composición de Dunford de ϕ −1 en términos de δ y de ν . Es un “ejer-
cicio guiado” al final del capítulo.

355
Publicación digital de Editorial Equinoccio
9 F ORMAS CANÓNICAS DE MATRICES SEMEJANTES

Igual que en el enunciado del Teorema 9.4.3, consideremos un espa-


cio vectorial E de dimensión finita n, sobre un cuerpo F, y sea ϕ : E → E
una transformación lineal de polinomio minimal

μ = (x − c1 )k1 × (x − c2 )k2 × · · · × (x − cm )km

(donde ci = c j para i = j).


De acuerdo con lo establecido en la Sección 9.2, ϕ admite una ma-
triz asociada J en forma de Jordan, con respecto a cierta base B de E.
Ahora bien, J es una matriz triangular (inferior) cuya diagonal prin-
cipal está constituida por los valores característicos c j , cada uno repe-
tido un número de veces igual al exponente de x − c j en el polinomio
característico χ de ϕ .
Es muy fácil de ver que podemos expresar

J = D+N (9.4.2)

donde D es la matriz diagonal, cuya diagonal principal es la misma de


J, y N es la matriz triangular (inferior) que difiere de J sólo en que las
entradas de su diagonal principal son todas cero. En virtud del Coro-
lario 9.4.1, la matriz N está asociada (con respecto a la base B) a una
transformación nilpotente.
En resumen, la matriz D determina (está asociada a) una transfor-
mación diagonalizable δ : E → E, con respecto a la base B de E, y N
determina una transformación nilpotente ν : E → E, con respecto a la
base B. La identidad (9.4.2) significa que ϕ = δ + ν .
Además, es claro que el polinomio minimal de δ es (x − c 1 ) × (x −
c2 ) × · · · × (x − cm ), pues ésta es diagonalizable, de valores característi-
cos c j , y se aplica el Teorema 9.4.1.
Nos interesa determinar que estas transformaciones δ y ν son pre-
cisamente aquellas cuya existencia única fue establecida en el Teorema
9.4.3, para lo cual sólo falta comprobar que conmutan.
Como D es la matriz diagonal asociada a δ con respecto a la base
B = {u1 , u2 , . . . , un }, es claro que cada ui es un vector característico
de δ , aunque varios de éstos pueden estar asociados al mismo valor
característico.

356
Publicación digital de Editorial Equinoccio
9.4 T RANSFORMACIONES DIAGONALIZABLES Y NILPOTENTES

Tengamos ahora muy presente la construcción de la base B, respon-


sable de la forma de Jordan J de ϕ , tal como se realizó en la Sección
9.2, y el Teorema 8.3.2 en particular.
A cada valor característico c j le corresponde un w ∈ E tal que los
vectores

ui = w
ui+1 = (ϕ − c j I )(w) = (ϕ − c j I )(ui )
ui+2 = (ϕ − c j I )2 (w) = (ϕ − c j I )(ui+1 )
... . .............. . .................
ui+k = (ϕ − c j I )k (w) = (ϕ − c j I )(ui+k−1 )
son parte de la base B, para un cierto entero k ≥ 0 y

(ϕ − c j I )(ui+k ) = (ϕ − c j I )k+1 (w) = 0

Todos los miembros de la base B se generan de esa forma, y pueden


corresponderle al mismo valor característico c j otros vectores w = w
con la facultad indicada arriba.
Luego,

ϕ (ui ) = c j w + (ϕ − c j I )(w) = c j ui + ui+1


ϕ (ui+1 ) = c j ui+1 + (ϕ − c j I )(ui+1) = c j ui+1 + ui+2
ϕ (ui+2 ) = c j ui+2 + (ϕ − c j I )(ui+2) = c j ui+2 + ui+3
....... . ....................... . ............
ϕ (ui+k ) = c j ui+k + (ϕ − c j I )(ui+k ) = c j ui+k

En consecuencia, para s = 0, 1, . . ., k − 1,

(ϕ ◦ δ )(ui+s ) = c j ϕ (ui+s ) = c2j ui+s + c j ui+s+1


= δ (c j ui+s + ui+s+1 ) = (δ ◦ ϕ )(ui+s )

y finalmente

(ϕ ◦ δ )(ui+k ) = c j ϕ (ui+k ) = c2j ui+k = (δ ◦ ϕ )(ui+k )

Se infiere que ϕ ◦ δ = δ ◦ ϕ , ya que toman el mismo valor para cada


vector de la base B. Esto implica que δ y ν = ϕ − δ conmutan.

357
Publicación digital de Editorial Equinoccio
9 F ORMAS CANÓNICAS DE MATRICES SEMEJANTES

Vemos pues que la descomposición de Dunford es esencialmente


lo mismo que la forma de Jordan. Tenemos así otra demostración del
Teorema 9.4.3, partiendo de la forma de Jordan, con la ventaja de saber
cómo hallar δ y ν : basta con calcular la forma de Jordan.
Hemos considerado instructivo, sin embargo, dar una prueba inde-
pendiente (Teorema 9.4.3) que, además, establece la unicidad de la des-
composición ϕ = δ + ν y revela algo adicional acerca de la naturaleza
de δ y de ν y de la relación entre ellas.
Los textos que no conducen a las formas canónicas por la vía de
módulos suelen demostrar nuestro Teorema 9.4.3 e ir de allí a la forma
de Jordan.6 Es un camino distinto –cuidado si más difícil– al seguido
en esta obra y ciertamente menos revelador.
Ejemplo 9.4.1. Tomemos el Ejemplo 9.2.1 de la página 330.
Allí se tiene un espacio vectorial E sobre el cuerpo C de los com-
plejos, con dim E = 10.
La transformación lineal ϕ : E → E tiene polinomio minimal
μ = (x − 2)2 (x − 3) (x − 5)3
y hemos hallado su forma de Jordan

⎛ ⎞
2
⎜ 2 ⎟
⎜ ⎟
⎜ 1 2 ⎟
⎜ ⎟
⎜ 3 ⎟
⎜ ⎟
⎜ 3 ⎟
J = ⎜ ⎟
⎜ 5 ⎟
⎜ ⎟
⎜ 1 5 ⎟
⎜ ⎟
⎜ 5 ⎟
⎜ ⎟
⎝ 1 5 ⎠
1 5

6 Véanse, por ejemplo, [14] y [22].

358
Publicación digital de Editorial Equinoccio
9.5 C ÁLCULO DE LAS FORMAS CANÓNICAS

Luego, J = D + N, donde
⎛ ⎞
2
⎜ 2 ⎟
⎜ ⎟
⎜ 2 ⎟
⎜ ⎟
⎜ 3 ⎟
⎜ ⎟
⎜ 3 ⎟
D = ⎜ ⎟
⎜ 5 ⎟
⎜ ⎟
⎜ 5 ⎟
⎜ ⎟
⎜ 5 ⎟
⎜ ⎟
⎝ 5 ⎠
5
⎛ ⎞
0
⎜ 0 ⎟
⎜ ⎟
⎜ 1 0 ⎟
⎜ ⎟
⎜ 0 ⎟
⎜ ⎟
⎜ 0 ⎟

N = ⎜ ⎟
0 ⎟
⎜ ⎟
⎜ 1 0 ⎟
⎜ ⎟
⎜ 0 ⎟
⎜ ⎟
⎝ 1 0 ⎠
1 0

9.5 Cálculo de las formas canónicas


En las secciones anteriores hemos demostrado la existencia y las
propiedades de las formas canónicas asociadas a una transformación
lineal ϕ : E → E, donde E es un espacio vectorial de dimensión finita,
y la escogencia de una base compromete a E como dominio y como
codominio en lo referente a matrices asociadas a ϕ .
En algunas circunstancias y para ciertos razonamientos, basta con lo
establecido en ese capítulo. Por ejemplo, para demostrar el importante
Teorema 9.3.1 y el célebre resultado de Cayley-Hamilton (Corolario
9.3.1), fue suficiente con saber la existencia y la estructura de la forma
canónica racional.

359
Publicación digital de Editorial Equinoccio
9 F ORMAS CANÓNICAS DE MATRICES SEMEJANTES

Pero no debemos conformarnos con ese estado de cosas. Es abso-


lutamente deseable el saber calcular esas formas canónicas y, además,
determinar las bases responsables.
Concretamente, la transformación ϕ nos vendrá dada por una ma-
triz A y la base correspondiente. Nos proponemos deducir un pro-
cedimiento, un algoritmo si se quiere, para manipular la matriz A y
transformarla en la forma canónica que se pretenda, y hallar la base que
la provoca.
Afortunadamente, la tarea esencial ha sido hecha ya en la Sección
7.5, a la cual haremos referencia constante e incitamos al lector a re-
frescarla.

—————— —————— ——————

Sea E un espacio vectorial de dimensión finita n sobre un cuerpo F.


Sea ϕ : E → E una transformación lineal, cuya matriz asociada es
A = (ai j )n×n con respecto a una base B = {v1 , v2 , . . . , vn } de E.
Interesa ahora considerar E como el F[x]-módulo, inducido por ϕ
(Sección 8.2). Se trata de un módulo FG, de hecho, generado por B, y de
torsión, cuyo orden es el polinomio minimal μ de ϕ , que no conocemos
de antemano.
De acuerdo con la Proposición 7.1.3, existe un F[x]-módulo libre L
de rank n sobre una base X = {e1 , e2 , . . ., en }, y un epimorfismo θ : L →
E tal que θ (ei ) = vi , para i = 1, 2, . . ., n.
Según se desprende de la Sección 7.5, la clave del asunto está en
hallar una base para el submódulo libre N = ker θ .
En el caso que nos ocupa, la cuestión se resuelve felizmente gracias
al lema siguiente.

Lema 9.5.1. Los siguientes elementos de L :

ε j = xe j − (a1 j e1 + a2 j e2 + · · · + an j en ) ( j = 1, 2, . . ., n) (Ω)

constituyen una base Y = {ε1 , ε2 , . . . , εn } de N = ker θ .

360
Publicación digital de Editorial Equinoccio
9.5 C ÁLCULO DE LAS FORMAS CANÓNICAS

Demostración. Conocida la matriz A = [ϕ ]B = (ai j ), tengamos en


cuenta que, para j = 1, 2, . . ., n,

ϕ (v j ) = a1 j v1 + a2 j v2 + · · · + an j vn

En consecuencia,

θ (ε j ) = xv j − (a1 j v1 + a2 j v2 + · · · + an j vn )
= ϕ (v j ) − (a1 j v1 + a2 j v2 + · · · + an j vn ) = 0

O sea que los elementos ε1 , ε2 , . . . , εn están en N.


Sea M ⊂ L el conjunto de todos los elementos de la forma

ρ = p1 ε1 + p2 ε2 + · · · + pn εn + c1 e1 + c2 e2 + · · · + cn en

donde los pi ∈ F[x], y son polinomios constantes los c j ∈ F.


M tiene las siguientes propiedades:
(1) Si a, b ∈ F y ρ1 , ρ2 ∈ M, es evidente que aρ1 + bρ2 ∈ M.
En particular, ρ1 + ρ2 ∈ M.
(2) Si ρ ∈ M, entonces xρ ∈ M.
En efecto, como

xe j = ε j + (a1 j e1 + a2 j e2 + · · · + an j en ) ( j = 1, 2, . . ., n)

entonces

xρ = xp1 ε1 + xp2 ε2 + · · · + xpn εn + c1 xe1 + c2 xe2 + · · · + cn xen


= xp1 ε1 + xp2 ε2 + · · · + xpn εn
     
n n n
+ c1 ε1 + ∑ ai1 ei + c2 ε2 + ∑ ai2 ei + · · · + cn εn + ∑ ain ei
i=1 i=1 i=1
= (xp1 + c1 )ε1 + (xp2 + c2 )ε2 + · · · + (xpn + cn )εn
     
n n n
+ ∑ c j a1 j e1 + ∑ c j a2 j e2 + · · · + ∑ c j an j en
j=1 j=1 j=1

que ciertamente está en M.

361
Publicación digital de Editorial Equinoccio
9 F ORMAS CANÓNICAS DE MATRICES SEMEJANTES

Y se infiere por obvia inducción: ρ ∈ M =⇒ xk ρ ∈ M, para todo


entero k ≥ 1.
(3) Si ρ ∈ M, se deduce de las propiedades (1) y (2) que, para todo
polinomio p ∈ F[x], se tiene p ρ ∈ M.
Luego, de (1) obtenemos

p, q ∈ F[x] ρ 1 , ρ2 ∈ M =⇒ p ρ1 + q ρ2 ∈ M

En conclusión, M es un submódulo de L (Definición 6.2.1).


Ahora bien, todo elemento de L es de la forma p1 e1 + · · · + pn en ,
donde los p j son polinomios en F[x]. Pero es evidente que todo e j ∈ M
y, como M es un submódulo de L, entonces p 1 e1 + · · · + pn en ∈ M.
Se concluye que M = L.
Tomemos cualquier u ∈ N; entonces, puesto que u ∈ L = M,

u = p1 ε1 + p2 ε2 + · · · + pn εn + c1 e1 + c2 e2 + · · · + cn en
=⇒ 0 = θ (u) = c1 v1 + c2 v2 + · · · + cn vn

ya que, según vimos antes, los ε j están en N y por tanto θ (p j ε j ) =


p j θ (ε j ) = 0.
Se tiene pues que c1 v1 + c2 v2 + · · · + cn vn = 0, lo cual implica que
ci = 0, para i = 1, 2, . . ., n, por la independencia lineal de {v1 , v2 , . . ., vn }.
Nos quedamos con u = p1 ε1 + p2 ε2 + · · · + pn εn , lo cual indica que
el conjunto Y = {ε1 , ε2 , . . . , εn } genera el submódulo N = ker θ .
Veamos por último que Y es linealmente independiente.
Sean p1 , . . . , pn ∈ F[x] y hagamos uso de (Ω) en la siguiente expre-
sión

p 1 ε 1 + p2 ε 2 + · · · + p n ε n = 0
   
n n
=⇒ p1 xe1 − ∑ ai1 ei + p2 xe2 − ∑ ai2 ei +
i=1 i=1
 
n
· · · + pn xen − ∑ ain ei = 0
i=1

362
Publicación digital de Editorial Equinoccio
9.5 C ÁLCULO DE LAS FORMAS CANÓNICAS

   
n n
=⇒ xp1 − ∑ a1 j p j e1 + xp2 − ∑ a2 j p j e2 +
j=1 j=1

 
n
· · · + xpn − ∑ an j p j en = 0
j=1

n
=⇒ xpk − ∑ ak j p j = 0 (k = 1, 2, . . ., n)
j=1

por la independencia lineal de {e1 , e2 , . . . , en }.


Supongamos que no todos los p j son nulos y tomemos, entre éstos,
un pk de máximo grado.
Tenemos entonces,
n n
xpk − ∑ ak j p j = 0 =⇒ xpk = ∑ ak j p j
j=1 j=1

que es imposible, pues ∂ (xpk ) = 1 + ∂ (pk ) y ∂ (∑nj=1 ak j p j ) ≤ ∂ (pk ).


Se infiere que todos los pi son nulos y por tanto {ε 1 , ε2, . . . , εn } es
linealmente independiente.
En resumen Y = {ε1 , ε2 , . . . , εn } es una base del submódulo libre
N = ker θ .

Comentario 9.5.1. No obstante que N es un submódulo de L y del


mismo rank n, esto no significa que N sea igual a L (véase el Comen-
tario 7.1.6).
Siguiendo los pasos de la Sección 7.5, sea η : N → L la inyección
canónica, η (u) = u, para todo u ∈ N.
Determinemos la matriz M (de dimensiones n × n), sobre el do-
minio euclideano F[x], asociada a η con respecto a la base Y del Lema
9.5.1 en N, y la base X en L.

363
Publicación digital de Editorial Equinoccio
9 F ORMAS CANÓNICAS DE MATRICES SEMEJANTES

La columna j de M está constituida por las coordenadas de η (ε j )


con respecto a la base X. De acuerdo entonces con (Ω) del Lema 9.5.1,
tenemos

η (ε j ) = ε j = xe j − (a1 j e1 + a2 j e2 + · · · + an j en )
= (−a1 j )e1 + (−a2 j )e2 + · · · + (x − a j j )e j + · · · + (−an j )en

O sea que
⎛ ⎞
x − a11 −a12 . . . −a1n
⎜ −a21 x − a22 . . . −a2n ⎟
M = ⎜
⎝ ...

... ... ... ⎠
−an1 −an2 . . . x − ann

y podemos expresarla más cómodamente como

M = xI − A (9.5.1)

donde I es desde luego la matriz identidad n × n.


Aplicamos ahora a la matriz M el algoritmo concebido en la Sec-
ción 7.4 para llevarla a la forma normal de Smith (página 281):
⎛ ⎞
μ1 0 0 . . . 0
⎜ 0 μ2 0 . . . 0 ⎟
⎜ ⎟
M =⎜#
⎜ 0 0 μ 3 . . . 0 ⎟

⎝. . . . . . . . . . . . . . .⎠
0 0 0 . . . μn
donde cada polinomio μi divide al siguiente μi+1 (i = 1, . . . , n − 1), y
μn = μ es el polinomio minimal de ϕ (que no lo conocíamos al princi-
pio).
Esta matriz M # está asociada a la misma inyección canónica η , con
respecto a una base Z1 de N y una base Z = {z1 , z2 , . . . , zn } de L, tales
que Z1 = {μ1 z1 , μ2 z2 , . . . , μn zn } (Lema 7.4.1 y su Comentario 7.4.3).
Si algún μ j = a es un polinomio constante, ∂ (μ j ) = 0 (un inversible
en F[x]), entonces el submódulo generado por

θ (z j ) = θ [(a−1 a)z j ] = a−1 θ (az j ) = a−1 θ (μ j z j ) = 0

364
Publicación digital de Editorial Equinoccio
9.5 C ÁLCULO DE LAS FORMAS CANÓNICAS

es S j = {0}. Y, como μi | μ j , para 1 ≤ i ≤ j, ocurre que también ∂ (μi ) =


0, de modo que Si = {0}.
Sea k ≥ 1 el mínimo subíndice para el cual ∂ (μk ) ≥ 1.
Según lo establecido en la Sección 7.5, podemos ahora expresar el
F[x]-módulo E como suma directa de submódulos cíclicos no triviales,
vale decir, podemos expresar el espacio vectorial E como suma directa
de subespacios ϕ -invariantes cíclicos no triviales:

E = Sk ⊕ Sk+1 ⊕ · · · ⊕ Sn (ℜ)

donde cada submódulo cíclico Si (k ≤ i ≤ n) está generado por θ (zi )


y es de orden μi , o lo que es lo mismo, cada subespacio ϕ -invariante
cíclico Si tiene dimensión ∂ (μi ) ≥ 1 y μi es el polinomio minimal de la
restricción ϕSi .
En síntesis, (ℜ) es la descomposición única de E por factores inva-
riantes.
En consecuencia, la forma canónica racional de ϕ es (véanse las
páginas 323 y 323)
⎛ ⎞
C(μk ) 0 0 ... 0
⎜ 0 C(μk+1 ) 0 ... 0 ⎟
⎜ ⎟
A =⎜
#
⎜ 0 0 C( μ k+2 ) . . . 0 ⎟

⎝ ... ... ... ... ... ⎠
0 0 0 . . . C(μn )

donde C(μi ) es la matriz compañera del polinomio μi .


La base responsable se consigue, primero, hallando Z por el método
del Comentario 7.4.3 (página 285) que expresa cada zi como combi-
nación lineal de X : zi = ∑ j p j e j (donde los pi son por supuesto poli-
nomios) y entonces θ (zi ) = ∑ j p j v j = ui ∈ E es el generador de Si , cuya
base, si h = ∂ (μi ) ≥ 1, es Ui = {ui , ϕ (ui ), . . ., ϕ h−1 (ui )}.
La unión ordenada U = Uk ∪Uk+1 ∪ · · · ∪Un es la base responsable
de la forma racional A # .
Sabemos que las matrices semejantes A y A # están vinculadas
por la ecuación A # = T × A × T −1 , donde T es una matriz n × n no-
singular.

365
Publicación digital de Editorial Equinoccio
9 F ORMAS CANÓNICAS DE MATRICES SEMEJANTES

De acuerdo con la Sección 3.3 y el Lema 3.3.1 en particular, la ma-


triz T está asociada a la transformación identidad I : E → E con res-
pecto a la base B en el dominio y la base U en el codominio. Pero hemos
obtenido los vectores de la base U como combinación lineal de los de
la base B, o sea que podemos conocer la matriz T −1 inmediatamente.
El conocimiento de T −1 ofrece una verificación de nuestras opera-
ciones. En primer lugar, debe ser det(T −1 ) = 0, para asegurarnos de la
no-singularidad de T ; y luego, debe tenerse que T −1 × A # = A × T −1 .
Una vez obtenidos los factores invariantes μ1 , μ2 , . . ., μn y la forma
canónica racional A # , la dificultad en calcular la forma canónica racio-
nal primaria y, si ha lugar, la forma de Jordan, va a depender de nuestra
capacidad de expresar el polinomio minimal μ = μ n como producto de
factores primos.
Si tal factorización se ha logrado, es obvio que también se tiene la de
los μi , para i = k, k + 1, . . ., n, gracias a que cada uno divide al siguiente.
Tomemos un μ j (k ≤ j ≤ n). Si es potencia de un primo, S j es
irreducible (Teorema 7.2.5) y forma parte de la descomposición racional
primaria de E y lo dejamos como está.
Supongamos que μ j = q1 × · · · × qr , donde los ql son potencias de
polinomios irreducibles distintos.
Aplicamos entonces el Corolario 7.2.2 y obtenemos la descomposi-
ción
S j = T1 ⊕ T2 ⊕ · · · ⊕ Tr
en suma directa de subespacios ϕ -invariantes cíclicos T l de minimales
respectivos ql de grado ∂l = ∂ (ql ) ≥ 1 y, lo que es muy importante, de
generadores wl = bl θ (z j ) = bl u j , donde

bl = ∏ qh
h=l

y con esos generadores podemos formar las bases

{wl , ϕ (wl ), ϕ 2 (wl ), . . . , ϕ ∂l −1 (wl )}


= {bl u j , bl ϕ (u j ), bl ϕ 2 (u j ), . . . , bl ϕ ∂l −1 (u j )}

para cada Tl .

366
Publicación digital de Editorial Equinoccio
9.5 C ÁLCULO DE LAS FORMAS CANÓNICAS

Nótese que, habiendo calculado la base


U j = {u j , ϕ (u j ), . . . , ϕ h−1 (u j )}
con anterioridad, los cálculos de estas nuevas bases para los T l se fa-
cilita bastante, pues sólo hace falta formar los polinomios b l .
Es claro que los Tl forman parte de la descomposición de E en
subespacios ϕ -invariantes cíclicos primarios. Hacemos esto para cada
S j (k ≤ j ≤ n), constituimos las bases respectivas y las colocamos una
a continuación de otra. De tal manera, obtenemos la forma racional
primaria A ℘ de ϕ y su base responsable.
También aquí, desde luego, A ℘ = R × A × R−1 , donde R es una
matriz n × n no-singular y, conocida la base responsable de A ℘, tene-
mos R−1 inmediatamente; o sea que la igualdad R −1 × A ℘ = A × R−1
nos ofrece una manera de verificar nuestras operaciones.
Ejemplo 9.5.1. Consideremos la matriz
⎛ ⎞
−5 −3 −2 4
⎜2 0 1 −1⎟⎟
A =⎜ ⎝ 10 7 4 −9⎠
2 0 1 0
asociada a una transformación lineal ϕ : C4 → C4 , con respecto a la
base canónica B :
v1 = (1, 0, 0, 0) v2 = (0, 1, 0, 0) v3 = (0, 0, 1, 0) v4 = (0, 0, 0, 1)
del espacio vectorial C4 sobre el cuerpo C de los números complejos.
Sea el epimorfismo θ : L → C4 , donde L es un C[x]-módulo libre
sobre una base X = {e1 , e2 , e3 , e4 }, tal que θ (ei ) = vi , para i = 1, 2, 3, 4.
El submódulo N = ker θ de L tiene la base Y = {ε1 , ε2 , ε3 , ε4 } des-
crita por (Ω) en el Lema 9.5.1. Sea η : N → L la inyección canónica;
su matriz asociada con respecto a la base Y en N y la base X en L es
(9.5.1), adaptada a este caso particular,
⎛ ⎞
x+5 3 2 −4
⎜ −2 x −1 1⎟⎟
M = xI − A = ⎜ ⎝ −10 −7 x − 4 9 ⎠
−2 0 −1 x

367
Publicación digital de Editorial Equinoccio
9 F ORMAS CANÓNICAS DE MATRICES SEMEJANTES

Aplicamos a M el algoritmo diseñado en la Sección 7.4 para lle-


varla a la forma normal de Smith, mediante una secuencia de operacio-
nes elementales sobre sus filas y sus columnas.
Designamos por f i la fila i y por κ j la columna j de M , y em-
pleamos la notación usada en la página 286 para las operaciones ele-
mentales:

• fi ←→ f j representa el intercambio de la fila i con la fila j.


La operación inversa es la misma.
• a fi indica la multiplicación de la fila i por el polinomio constante
0 = a ∈ C. Recordemos que éstos son los inversibles en C[x].
La operación inversa es a−1 fi .
• fi + p f j significa que sumamos a la fila i la fila j multiplicada por
el polinomio p ∈ C[x]. La fila j permanece intacta.
La operación inversa es precisamente f i − p f j .

Idéntica notación y observaciones se aplican a las operaciones con


columnas, sustituyendo las f por κ .
La siguiente secuencia de operaciones elementales sobre las filas y
columnas de M , leídas de izquierda a derecha,
κ 1 − 2κ 3 κ 4 + xκ 3 f1 + 2 f4 f2 − f4 f3 + (x − 4) f4
f3 + 2 f1 κ4 + (x + 1)κ2
2
f1 + 3 f3 f2 + x f3
κ4 + (−3x + 1)κ1 f2 ←→ f4 κ1 ←→ κ3
f1 ←→ f2 f2 ←→ f3 (−1)κ1 (−1)κ2
conducen a su forma normal de Smith:
⎛ ⎞
1 0 0 0
⎜0 1 0 0 ⎟
M# = ⎜ ⎝0 0 x + 1

0 ⎠
0 0 0 x3 + 1
Se observa que E = S3 ⊕ S4 es la expresión del espacio vectorial
E como suma directa de subespacios ϕ -invariantes cíclicos no triviales,

368
Publicación digital de Editorial Equinoccio
9.5 C ÁLCULO DE LAS FORMAS CANÓNICAS

donde μ3 = x + 1 y μ4 = x3 + 1 son los polinomios minimales de las


restricciones de ϕ a S3 y S4 respectivamente. Los subespacios S1 =
S2 = {0} son triviales, pues μ1 = μ2 = 1 son inversibles (polinomios
constantes, según se ve en M # ).
Sabemos ahora que el polinomio minimal de ϕ es μ = μ 4 = x3 + 1.
Se infiere que la forma canónica racional es
 
C(x + 1)
A =#
C(x3 + 1)
o sea ⎛ ⎞
−1 0 0 0
⎜0 0 0 −1⎟

A# = ⎜
⎝0 1 0 0⎠
0 0 1 0
Calculemos ahora la base responsable de A # .
Seguimos los pasos del Comentario 7.4.3 para calcular primero la
base Z = {z1 , z2 , z3 , z4 } del módulo libre L.
Sabemos que M # = P × M × Q, donde P, Q son matrices 4 × 4
no-singulares (sobre C[x]).
La columna j de P −1 está constituida por las coordenadas de z j
con respecto a la base X (véase el Comentario 7.4.3, pág. 285). Interesa
pues calcular P −1 para conocer los integrantes de Z.
Para obtener P −1 , aplicamos a las filas de la matriz identidad 4 × 4
la secuencia, en orden inverso, de las inversas de las operaciones ele-
mentales que ejecutamos sobre las filas de M para llevarla a M # . Es
decir,

f2 ←→ f3 f1 ←→ f2 f2 ←→ f4 f2 − x f3
f1 − 3 f3 f3 − 2 f1 f3 − (x − 4) f4 f2 + f4 f1 − 2 f4

y obtenemos ⎛ ⎞
−2 −3 1 0
⎜ 1 −x 0 1⎟⎟
P −1 = ⎜
⎝4 − x 7 −2 0⎠
1 0 0 0

369
Publicación digital de Editorial Equinoccio
9 F ORMAS CANÓNICAS DE MATRICES SEMEJANTES

De las columnas de P −1 obtenemos la base Z:


z1 = −2e1 + e2 + (4 − x)e3 + e4
z2 = −3e1 − xe2 + 7e3
z3 = e1 − 2e3
z4 = e2

Cada subespacio ϕ -invariante cíclico Si está generado por ui = θ (zi ).


Se puede anticipar (y el lector puede verificarlo) que

u1 = θ (z1 ) = −2v1 + v2 + 4v3 − ϕ (v3 ) + v4 = 0


u2 = θ (z2 ) = −3v1 − ϕ (v2 ) + 7v3 = 0

generan los subespacios triviales S1 y S2 .


El subespacio ϕ -invariante cíclico S3 , de dimensión ∂ (μ3 ) = 1 está
generado por

u3 = θ (z3 ) = v1 − 2v3 = (1, 0, −2, 0)

Y el subespacio ϕ -invariante cíclico S4 , de dimensión ∂ (μ4 ) = 3


está generado por

u4 = θ (z4 ) = v2 = (0, 1, 0, 0)

En consecuencia, la base U4 de S4 está constituida por los vectores

u4 = (0, 1, 0, 0)
ϕ (u4 ) = (−3, 0, 7, 0)
ϕ 2 (u4 ) = (1, 1, −2, 1)

(donde ϕ (u4 ) y ϕ 2 (u4 ) se calculan empleando la matriz A ).


Se concluye que la base responsable de la forma canónica racional
A # está constituida por los vectores

(1, 0, −2, 0) (0, 1, 0, 0) (−3, 0, 7, 0) (1, 1, −2, 1)

370
Publicación digital de Editorial Equinoccio
9.5 C ÁLCULO DE LAS FORMAS CANÓNICAS

Si queremos aplicar la verificación sugerida arriba, tenemos


⎛ ⎞
1 0 −3 1
⎜0 1 0 1⎟⎟
T −1 = ⎜ ⎝−2 0 7 −2⎠
0 0 0 1

y el lector puede corroborar que det (T −1 ) = 1 = 0 y además,


⎛ ⎞
−1 −3 1 0
⎜0 0 1 −1⎟ ⎟ = A × T −1
T −1 × A # = ⎜⎝2 7 −2 0 ⎠
0 0 1 0

Podemos estar seguros de que A # = T × A × T −1 .


Vamos ahora en busca de la forma canónica de Jordan, ya que el
cuerpo en cuestión es C.
Sabemos que el polinomio característico es μ = μ4 = x3 + 1, que
admite la descomposición

μ = (x + 1) (x − α ) (x − ᾱ )

donde √ √
α = 12 (1 + 3 i) ᾱ = 12 (1 − 3 i)
En vista de la forma del polinomio minimal, el Teorema 9.4.1 in-
dica que nuestra transformación ϕ es diagonalizable; y que las entradas
diagonales de su matriz diagonal asociada son los valores característi-
cos 1, α , ᾱ , cada uno repetido tantas veces como su multiplicidad en el
polinomio característico. La matriz diagonal viene a ser la forma de
Jordan.
El polinomio característico es, por definición χ = det(xI − A ) =
det M ; pero, como éste es invariante con respecto a la semejanza, es
mucho más fácil calcular

χ = det(xI − A # ) = det M #
= (x + 1) (x3 + 1) = (x + 1)2 (x − α ) (x − ᾱ )

371
Publicación digital de Editorial Equinoccio
9 F ORMAS CANÓNICAS DE MATRICES SEMEJANTES

Tenemos pues que la forma de Jordan de ϕ es la matriz diagonal


⎛ ⎞
−1
⎜ −1 ⎟
[ϕ ]D = ⎜⎝


α
ᾱ

Como ya conocemos los generadores u3 y u4 de los subespacios ϕ -


invariantes cíclicos S3 y S4 , tenemos a mano el método para hallar la
base responsable de la matriz diagonal [ϕ ]D (véase la página 367).
En efecto, la matriz diagonal [ϕ ]D proviene de la descomposición

C4 = T 1 ⊕ T 2 ⊕ T 3 ⊕ T 4

donde S3 = T1 y
S4 = T2 ⊕ T3 ⊕ T4
O sea que el generador w1 (y base) del subespacio T1 es el propio
u3 . En tanto que los generadores de T2 , T3 , T4 son, respectivamente,

w2 = (x − α ) (x − ᾱ )(u4 ) = ϕ 2 (u4 ) − ϕ (u4 ) + u4 = (4, 2, −9, 1)

w3 = (x + 1) (x − ᾱ )(u4 ) = ϕ 2 (u4 ) + αϕ (u4 ) − ᾱ u4


= (1 − 3α , α , −2 + 7α , 1)

w4 = (x + 1) (x − α )(u4 ) = ϕ 2 (u4 ) + ᾱϕ (u4 ) − α u4


= (1 − 3ᾱ , ᾱ , −2 + 7ᾱ , 1)

Y, como cada uno de los T2 , T3 , T4 es unidimensional, el generador


es a su vez la base.
En conclusión, la base de C4 responsable por la matriz [ϕ ]D es
{w1 , w2 , w3 , w4 }.
Aquí también debe cumplirse la relación [ϕ ] D = R × A × R−1 , para
una cierta matriz R no-singular; de modo que podemos verificar R −1 ×

372
Publicación digital de Editorial Equinoccio
9.5 C ÁLCULO DE LAS FORMAS CANÓNICAS

[ϕ ]D = A × R−1 , y sabemos que


⎛ ⎞
1 4 1 − 3α 1 − 3ᾱ
⎜0 2 α ᾱ ⎟
R−1 = ⎜ ⎝−2 −9 −2 + 7α −2 + 7ᾱ ⎠

0 1 1 1
En la Sección 9.4 vimos que el cálculo de la base responsable de
[ϕ ]D también puede atacarse mediante la solución de sistemas homogé-
neos de ecuaciones lineales –en este ejemplo, tres. Dejamos esta tarea
al lector como ejercicio.
Comentario 9.5.2. El algoritmo diseñado en la Sección 7.4 para llevar
una matriz M sobre un DE a la forma normal de Smith, ejecutando
operaciones elementales sobre sus filas y sus columnas, cumple por
supuesto su cometido inexorablemente, pero su aplicación fiel es propia
de una computadora o de una persona carente de iniciativa. El proceso
puede abreviarse y simplificarse significativamente si se aprovechan
con ingenio las características particulares de la matriz M ; muestra
de esto es la secuencia de operaciones empleada en el ejemplo prece-
dente para obtener M # ; quién quita que a un lector se le ocurra una
secuencia más corta e imaginativa.
Ejemplo 9.5.2. Vamos a aprovechar los métodos que hemos desarro-
llado hasta ahora para abordar el tema de las sucesiones definidas por
una ley de recurrencia lineal. Este es un tópico de importancia que
suele estudiarse en cursos de Cálculo Numérico. Tiene aplicaciones
muy frecuentes dentro y fuera de las matemáticas.
Sea S el conjunto de todas las sucesiones

{sn } = {s0 , s1 , . . ., sn , . . . }

en el cuerpo C de los números complejos, es decir, cuyos términos s n


son elementos de C.
Es trivial comprobar que S es un espacio vectorial sobre C, con
respecto a la suma

{sn } + {tn} = {sn + tn }

373
Publicación digital de Editorial Equinoccio
9 F ORMAS CANÓNICAS DE MATRICES SEMEJANTES

y con respecto al producto por un escalar λ ∈ C,

λ {sn } = {λ sn }

Cabe notar que este espacio no es de dimensión finita, pero nuestro


interés va dirigido a un tipo de subespacio de S que sí lo es.
Sean a, b ∈ C un par de escalares fijos durante toda la discusión que
sigue. Suponemos que no son ambos cero, para evitar casos triviales.
Consideremos el subconjunto S(a, b) de S constituido por todas las
sucesiones {sn } que satisfacen la siguiente propiedad (ley de recurren-
cia), para n > 2,
sn = asn−1 + bsn−2 (r.1)
y los términos s0 , s1 ∈ C son cualesquiera.
Nótese que, si obedecemos la definición, el cálculo de cada término
de {sn } exige conocer los dos anteriores. Nuestro propósito es deducir
una fórmula que exprese sn en función de n.
Quizás el ejemplo más célebre de esta clase de sucesión es la de
Fibonacci, en la cual a = b = 1 y s0 = 0, s1 = 1 (es obvio que todos los
términos de esta sucesión son números enteros positivos).
Basta un instante de reflexión para asegurarse de que S(a, b) es un
subespacio vectorial de S.
En adelante, daremos nuestra atención al espacio vectorial S(a, b).
Nótese que toda sucesión {sn } en S(a, b) está unívocamente deter-
minada por sus dos primeros términos s 0 y s1 .
Designemos por v el elemento en S(a, b) cuyos primeros términos
son 1 y 0 respectivamente, y por w el de 0 y 1 como primero y segundo
términos. Así pues,

v = {1, 0, b, ab, a2b + b2 , . . .}


w = {0, 1, a, a2 + b, a3 b + 2ab, . . .}

Es claro que v y w son linealmente independientes, pues, si cv +


dw = {c, d, . . .} = O, donde O es la sucesión cuyos términos son todos
0 (el vector nulo en S(a, b)), se infiere que c = d = 0.

374
Publicación digital de Editorial Equinoccio
9.5 C ÁLCULO DE LAS FORMAS CANÓNICAS

Por otro lado, para cualquier {s n } ∈ S(a, b), la sucesión s0 v + s1 w


está en S(a, b) y sus dos primeros términos son s 0 y s1 , luego

{sn } = s0 v + s1 w (r.2)

En resumen, el espacio S(a, b) es de dimensión finita 2, con una


base B = {v, w}, y (r.2) es la expresión de cualquier {sn } en S(a, b)
como combinación lineal de B.
Definamos ahora la función ϕ : S(a, b) → S(a, b) tal que, para {s n }
= {s0 , s1, . . . , sn , . . . } en S(a, b),

ϕ ({sn }) = {s1 , s2, . . . , sn , . . . }

o sea, la acción de ϕ sobre {sn } es suprimir su primer término.


Cabe notar que ϕ está bien definida, es decir, ϕ ({s n }) ∈ S(a, b),
pues ϕ ({sn }) es una sucesión que satisface la ley de recurrencia (r.1).
Además, ϕ es una transformación lineal, como se ve de inmediato.
Determinemos la matriz A asociada a ϕ con respecto a la base B.
Tenemos, aprovechando (r.2),

ϕ (v) = bw ϕ (w) = v + aw (r.3)

De modo que  
0 1
A = (r.4)
b a
Interesa ahora obtener las formas canónicas de A .
Consideremos a S(a, b) como el C[x]-módulo inducido por ϕ y sea
L un C[x]-módulo libre sobre una base X = {e 1 , e2 }, de manera que
θ : L → S(a, b) es el epimorfismo definido por θ (e 1 ) = v y θ (e2 ) = w
(de acuerdo con la Proposición 7.1.3).
Sea N = ker θ y sea η : N → L la inyección canónica (η (u) = u,
para todo u ∈ N).
La matriz M (de dimensiones 2 × 2), sobre C[x], asociada a η con
respecto a la base Y en N (según el Lema 9.5.1), y la base X en L resulta
ser  
x −1
M =
−b x − a

375
Publicación digital de Editorial Equinoccio
9 F ORMAS CANÓNICAS DE MATRICES SEMEJANTES

Mediante el algoritmo de la Sección 7.4, llevamos M a su forma


normal de Smith  
1 0
M =
#
0 x2 − ax − b
donde μ = x2 − ax − b resulta ser el polinomio minimal de ϕ , y M #
está asociada a la misma transformación η , con respecto a una base Z 1
de N y una base Z = {z1 , z2 } de L, tales que Z1 = {z1 , μ z2 }.
El hecho de que ∂ (μ ) = dim S(a, b) nos dice que S(a, b) es cíclico
(Corolario 8.3.2) y μ = χ .
De aquí obtenemos la forma canónica racional de ϕ
 
0 b
A =#
1 a
que no nos reporta mayor provecho.
Lo que sí nos interesa es hallar el vector generador de S(a, b) y la
base responsable de A # .
Primero tenemos que encontrar la base Z, aplicando el método ex-
puesto en el Comentario 7.4.3. Dejamos al lector que concluya
z1 = e1 + (a − x) e2 z2 = e2
Los generadores de los subespacios ϕ -invariantes cíclicos de S(a, b)
en su descomposición por factores invariantes son: θ (z 1 ) que genera
un subespacio trivial, pues su minimal 1 es inversible, y θ (z 2 ) = θ (e2 )
= w que genera todo el espacio S(a, b).
Ahora bien, como C es algebraicamente cerrado, sabemos que el
minimal es totalmente reducible:
μ = x2 − ax − b = (x − α ) (x − β )
Consideremos primero el caso α = β .
Nótese que α + β = a y αβ = −b.
En virtud del Teorema 9.4.1, ϕ es diagonalizable y su matriz diago-
nal asociada coincide con su forma canónica de Jordan:
 
α 0
AD =
0 β

376
Publicación digital de Editorial Equinoccio
9.5 C ÁLCULO DE LAS FORMAS CANÓNICAS

Nos interesa particularmente hallar la base responsable.


Comenzamos por invocar el Corolario 7.2.2, según el cual el C[x]-
módulo cíclico S(a, b) es expresable como suma directa de submódulos
cíclicos (subespacios ϕ -invariantes cíclicos):

S(a, b) = S1 ⊕ S2

cuyos polinomios minimales respectivos son x − α y x − β .


Nuevamente por el Corolario 7.2.2 y aplicando (r.3), se obtiene el
generador de S1 :

(x − β ) θ (z2 ) = (x − β ) θ (e2 ) = (x − β ) w
= ϕ (w) − β w = v + aw − β w
= v + (α + β )w − β w = v + α w

Y como dimS1 = 1, su generador v + α w es una base de S1 .


Procedemos de modo análogo con S2 . Su generador es

(x − α ) θ (z2 ) = (x − α ) θ (e2 ) = (x − α ) w
= ϕ (w) − α w = v + aw − α w
= v + (α + β )w − α w = v + β w

O sea que v + β w es generador y base de S2 al mismo tiempo.


Se infiere que BD = {v + α w, v + β w} es la base responsable por la
matriz diagonal A D .
Sabemos que AD = T × A × T −1 , para una cierta matriz T de
dimensión 2 × 2 no-singular; y, como conocemos la base B D , es inme-
diato que  
−1 1 1
T =
α β
de donde se obtiene, por cualquiera de los procedimientos ya conoci-
dos,  
−1 β −1
T = (β − α )
−α 1

377
Publicación digital de Editorial Equinoccio
9 F ORMAS CANÓNICAS DE MATRICES SEMEJANTES

Ahora bien, de AD = T × A × T −1 obtenemos A = T −1 × AD × T


y se infiere

A 2 = (T −1 × AD × T ) × (T −1 × AD × T ) = T −1 × (AD )2 × T

Por simple inducción obtenemos, para todo natural n ≥ 1,

A n = T −1 × (AD )n × T

Recordemos que, por definición de ϕ , el primer término de la suce-


sión ϕ ({sn }) es s1 y, en general, el primer término de ϕ n ({sn }) es sn ,
para todo natural n ≥ 1.
En consecuencia,
     n   
sn s0 −1 α 0 s
=A × n
= T × ×T × 0
sn+1 s1 0 β n s1
 
−1 (α β − αβ )s0 + (β − α n )s1
n n n
= (β − α )
(α n+1 β − αβ n+1 )s0 + (β n+1 − α n+1 )s1
de donde obtenemos

(α n β − αβ n )s0 + (β n − α n )s1
sn =
β −α

que es la expresión de sn en función de n.


En el caso particular de la sucesión de Fibonacci, s 0 = 0 y s1 = 1,
√ √
α = 12 (1 + 5) β = 12 (1 − 5)

por tanto,
 √ n  √ n 
1 1+ 5 1− 5
sn = √ −
5 2 2

Consideremos ahora el caso α = β ; luego, μ = (x− α )2 y el espacio


(C[x]-módulo) S(a, b) es cíclico irreducible (por el Teorema 7.2.5). Ya
se determinó que su generador es w ∈ S(a, b).

378
Publicación digital de Editorial Equinoccio
9.5 C ÁLCULO DE LAS FORMAS CANÓNICAS

Por consiguiente, la base BJ de Jordan es {w, ϕ (w) − α w} (Teorema


8.3.2); es decir,
BJ = {w, v + α w}
según (r.3) y dado que a = 2α .
Luego, la forma canónica de Jordan de ϕ es
 
α 0
AJ =
1 α

y tenemos AJ = R × A × R−1 , donde


   
−1 0 1 −α 1
R = R =
1 α 1 0

Se infiere, igual que antes, que A n = R−1 × AJn × R y, por sencilla


inducción, obtenemos
 n 
α 0
AJ =
n
nα n−1 α n

En consecuencia, para n ≥ 1,
     n   
sn s0 −1 α 0 s
= A ×n
= R × ×R× 0
sn+1 s1 nα n−1 α n s1

de donde se infiere que

sn = nα n−1 s1 − (n − 1)α n s0

Se conocen métodos más elementales e incluso más expeditos para


obtener estos resultados en el estudio de las sucesiones definidas por una
ley de recurrencia lineal; el lector probablemente se habrá tropezado con
alguno. El propósito de este ejemplo ha sido el de abordar el tema para
destacar la versatilidad de la teoría desarrollada en este capítulo. Una
ventaja importante en el procedimiento que hemos empleado aquí es su
adaptabilidad a casos más generales.

379
Publicación digital de Editorial Equinoccio
9 F ORMAS CANÓNICAS DE MATRICES SEMEJANTES

Vamos a ofrecer otro enfoque, acaso más directo, del tema de las
sucesiones definidas por una ley de recurrencia lineal.
Sea {sn } una sucesión en el cuerpo C de los complejos tal que, para
todo natural n, donde p ≥ 1 es un entero dado,

sn+p+1 = a0 sn + a1 sn+1 + · · · + a p sn+p (9.5.2)

y los a0 , a1 , . . . , a p ∈ C son fijos y conocidos.


También se conocen s0 , s1 , . . . , s p.
La fórmula recurrente (9.5.2) puede expresarse en forma matricial
como
 
sn+1 sn+2 . . . sn+p+1 =
⎛ ⎞
0 0 0 ... 0 a0
⎜ 1 0 0 ... 0 a1 ⎟
⎜ ⎟
  ⎜ 0 1 0 ... 0 a2 ⎟
sn sn+1 . . . sn+p × ⎜ ⎜. . . . . . . . . . . .

⎜ ... ... ⎟⎟
⎝ 0 0 0 ... 0 a p−1 ⎠
0 0 0 ... 1 ap

la cual puede escribirse más brevemente

Xn+1 = Xn × M (9.5.3)

donde  
Xk = sk sk+1 . . . sk+p
para todo entero k ≥ 0, y M = C(q) no es otra que la matriz compañera
del polinomio

q = −a0 − a1 x − a2 x2 − · · · − a p x p−1 + x p

según la Definición 8.3.2 (página 313).


Sea ϕ : C p+1 → C p+1 la transformación lineal cuya matriz asociada
es M , con respecto a la base canónica {e0 , e1 , . . ., e p } del espacio C p+1 ;
es decir, e j = (0, 0, . . ., 0, 1, 0, . . ., 0), donde el 1 ocupa el lugar j, para
j = 0, 1, . . ., p.

380
Publicación digital de Editorial Equinoccio
9.5 C ÁLCULO DE LAS FORMAS CANÓNICAS

Nótese que M es la forma canónica racional asociada a ϕ .


A través de M obtenemos
ϕ (e0 ) = e1
ϕ 2 (e0 ) = ϕ (e1 ) = e2
............
ϕ j (e0 ) = ϕ (e j−1 ) = e j
............
ϕ (e0 ) = ϕ (e p−1 ) = e p
p

De modo que {e0 , ϕ (e0 ), . . ., ϕ j (e0 ), . . ., ϕ p (e0 )} es una base (pre-


cisamente la misma base canónica). En virtud del Teorema 8.3.1, pode-
mos afirmar que el espacio C p+1 es cíclico con respecto a ϕ y, por el
Corolario 8.3.2 y el Lema 8.3.1,
μ = χ = det(xI − M ) = det(xI −C(p)) = q
donde μ y χ son los polinomios minimal y característico de ϕ .
De la fórmula (9.5.3) se deduce de inmediato, por inducción,
Xn = X0 × M n (9.5.4)
para todo n ≥ 1.
Si queremos expresar sn en función de n, el problema se reduce a
calcular la matriz M n y obtener la primera entrada de la matriz “hori-
zontal” Xn del producto (9.5.4).
Un método recomendable para calcular M n consiste en obtener su
forma canónica de Jordan J –posible porque el cuerpo es C, y supo-
niendo que hemos sido capaces de factorizar q en irreducibles de primer
grado.
Como J = P ×M ×P −1 , donde P es una matriz (p+1)×(p+1)
no-singular, tenemos M = P −1 × J × P.
Se deduce por inducción que M n = P −1 ×J n ×P, para todo n ≥ 1,
ya que
M j+k = M j × M k = (P −1 × J j × P) × (P −1 × J k × P)
= P −1 × J j+k × P

381
Publicación digital de Editorial Equinoccio
9 F ORMAS CANÓNICAS DE MATRICES SEMEJANTES

De modo que (9.5.4) se convierte en

Xn = X0 × (P −1 × J n × P) (9.5.5)

para todo n ≥ 1.
En la obtención de J se calculan P y P −1 .
Si J es diagonal (en caso de que M sea diagonalizable), estamos
en la situación más afortunada, pues, si J = Diag(d 1, . . . , dr ), entonces
J n = Diag(d1n, . . . , drn ). En caso contrario, es posible hallar una fórmula
general para J n , pero no vamos a entrar en eso. En la práctica, casi
siempre puede intuirse la forma de J n y verificarla por inducción.
De la fórmula (9.5.5) obtenemos la expresión de s n en función de n.
Ejemplo 9.5.3. Consideremos la sucesión {sn } tal que s0 = s1 = s2 = 1
y, para todo n ≥ 0,

sn+3 = 45sn − 39sn+1 + 11sn+2

En este caso tenemos


⎛ ⎞
0 0 45
M = ⎝1 0 −39⎠
0 1 11

tal que    
sn+1 sn+2 sn+3 = sn sn+1 sn+2 × M
Los polinomios minimal y característico:
 
 x
 0 −45 
μ = χ = det(xI − M ) = −1 x 39  = (x − 3)2 (x − 5)
 0 −1 x − 11

Por los métodos expuestos en esta sección hallamos (hágalo el lec-


tor) la forma de Jordan J y la matriz P
⎛ ⎞ ⎛ ⎞ ⎛ ⎞
3 0 0 1 3 9 −5 −30 9
1
J = ⎝1 3 0⎠ P = ⎝0 1 6 ⎠ P −1 = ⎝ 6 16 −6⎠
4
0 0 5 1 5 25 −1 −2 1

382
Publicación digital de Editorial Equinoccio
9.6 E JERCICIOS

tales que J = P × M × P −1 .
Tenemos
   
sn sn+1 sn+2 = 1 1 1 × (P −1 × J n × P) ()

Un tanteo sugiere que


⎛ ⎞
3n 0 0
J n = ⎝n3n−1 3n 0 ⎠
0 0 5n

y se verifica por inducción.


Como lo que nos interesa es sn , basta con calcular la primera co-
lumna de P −1 × J n × P y aplicar la fórmula ().
El lector puede hacer ese cálculo para obtener finalmente:

sn = −4 n 3n−1 + 5n

válida para todo n ≥ 0.

9.6 Ejercicios
1. E es un espacio vectorial sobre el cuerpo C y dimE = 6.
Si la transformación lineal ϕ : E → E tiene polinomio minimal
μ = (x − 2)2 (x − 3) (x − 5)3, hallar su matriz asociada en forma
canónica racional y de Jordan.

2. E es un espacio vectorial sobre un cuerpo F y dim E = 3.


Conocidos los polinomios minimal y característico de una trans-
formación lineal ϕ : E → E, hallar en cada caso posible, las formas
canónicas respectivas.

3. Sea E un espacio vectorial de dimensión finita n sobre un cuerpo


F y sea ϕ : E → E una transformación lineal de polinomio carac-
terístico
χ = a0 + a1 x + · · · + an−1 xn−1 + xn

383
Publicación digital de Editorial Equinoccio
9 F ORMAS CANÓNICAS DE MATRICES SEMEJANTES

Si M es cualquier matriz asociada a ϕ , probar que

an−1 = − τ (M )

donde τ (M ) es la traza de M (véase el ejercicio 7 en la página


114).
Infiérase que dos matrices semejantes tienen la misma traza. En
consecuencia, podemos referirnos a la traza de la transformación
ϕ sin ambigüedad.

4. Sea E un espacio vectorial sobre C provisto de una base

{v1 , v2 , . . ., vn }

Se define una transformación lineal ϕ : E → E tal que, para 1 ≤


i ≤ n − 1,
ϕ (vi ) = vi+1
y ϕ (vn ) = v1 .
Calcular el polinomio característico de ϕ , y hallar una base de E
con respecto a la cual la matriz asociada a ϕ es diagonal.
(Pregunta de examen en la Universidad de Oxford, 1968)

5. Sea E un espacio vectorial de dimensión finita n sobre el cuerpo


C y sean ϕ , ψ : E → E un par de transformaciones lineales que
conmutan: ϕ ◦ ψ = ψ ◦ ϕ .
Demostrar que existe una base de E con respecto a la cual las
matrices asociadas a ϕ y a ψ están ambas en forma de Jordan.

6. Sea E un espacio vectorial de dimensión finita sobre un cuerpo F


y sea ϕ : E → E una transformación lineal.
Si ϕ es nilpotente, probar que su traza τ (ϕ ) = 0.
¿Es el recíproco cierto?

384
Publicación digital de Editorial Equinoccio
9.6 E JERCICIOS

7. Las matrices a continuación están asociadas a sendas transforma-


ciones lineales : R3 → R3 con respecto a la base canónica.
⎛ ⎞ ⎛ ⎞ ⎛ ⎞
4 0 −1 4 1 −2 4 1 −3
⎝−1 1 3⎠ ⎝−1 2 2 ⎠ ⎝−1 2 1 ⎠
0 −1 4 0 0 3 0 0 2

Calcular sus formas canónicas racionales y formas de Jordan, con


las bases responsables en cada caso.

8. Sea ϕ : R3 → R3 una transformación lineal no diagonalizable que


satisface (ϕ + I )2 = O.
Hallar su forma canónica racional y su forma de Jordan.

9. Una transformación lineal ϕ : R4 → R4 tiene por matriz asociada


(con respecto a la base canónica)
⎛ ⎞
2α − 5 1 1 4−α
⎜ 0 α 0 0 ⎟
M = ⎜ ⎝ 5 − α −1 α − 1 α − 4⎠

2α − 10 2 2 8−α

Determinar el polinomio minimal de ϕ según los valores de α ∈ R


y hallar las formas canónicas de M en cada caso.

10. Sea E un espacio vectorial de dimensión 4 sobre C, y sea ϕ : E →


E una transformación lineal, cuya matriz asociada es
⎛ ⎞
1 1 −5 −1
⎜1 4 −7 −5⎟
⎜ ⎟
⎝0 0 −1 0 ⎠
2 1 −5 −2
con respecto a cierta base de E.
Sabiendo que 2 es un valor característico de ϕ , hallar su forma
canónica de Jordan.

385
Publicación digital de Editorial Equinoccio
9 F ORMAS CANÓNICAS DE MATRICES SEMEJANTES

11. Si todos los valores característicos de una matriz cuadrada M


sobre C son reales, probar que M es semejante a una matriz cuyas
entradas son todas reales.

12. Probar que toda matriz n ×n sobre C es semejante a su traspuesta.


Sugerencia: Comprobar que tienen la misma forma de Jordan.
¿Qué puede decirse sobre las matrices sobre R?

13. E es un espacio vectorial de dimensión finita sobre un cuerpo F,


y ϕ : E → E es una transformación lineal tal que ϕ 2 = 3 ϕ .
Determinar el polinomio minimal de ϕ .
¿Es ϕ no-singular? ¿Es ϕ diagonalizable?

14. E es un espacio vectorial sobre un cuerpo F y dimE = n ≥ 1.


Sea ϕ : E → E una transformación lineal idempotente:

ϕ2 = ϕ

Determinar el polinomio minimal de ϕ .


¿Es ϕ no-singular? ¿Es ϕ diagonalizable?
Determinar sus formas racional y de Jordan.

15. Sea E un espacio vectorial de dimensión n sobre un cuerpo F y


sea ϕ : E → E una transformación lineal idempotente.
Probar que
E = ker ϕ ⊕ Im ϕ

Deducir que existe una base de E con respecto a la cual la matriz


n × n asociada a ϕ es  
Ir O
O O
donde Ir es la matriz identidad r × r, con r = dim(Im ϕ ), y las
matrices internas O tienen todas sus entradas nulas.

386
Publicación digital de Editorial Equinoccio
9.6 E JERCICIOS

Si ψ , τ : E → E son un par de transformaciones lineales tales que


ψ = ψ ◦ τ e Im ψ = Im τ , probar que ker ψ = ker τ y deducir
que τ es idempotente.
En consecuencia, establecer la existencia de una transformación
no-singular γ : E → E tal que ψ = γ ◦ τ .
(Pregunta de examen en la Universidad de Glasgow, 1967)

16. E es un espacio vectorial sobre un cuerpo F y dimE = n ≥ 1.


Sea ϕ : E → E una transformación lineal que satisface

ϕ2 = I (transformación identidad)

¿Es ϕ no-singular? ¿Es ϕ diagonalizable?


Determinar sus formas racional y de Jordan.

17. E es un espacio vectorial sobre un cuerpo F y dimE = n ≥ 1.


Sea ϕ : E → E una transformación lineal que satisface

ϕ 2 = −I

¿Es ϕ no-singular? ¿Es ϕ diagonalizable?


Determinar sus formas racional y de Jordan.

18. E es un espacio vectorial sobre un cuerpo F y de dimensión finita


≥ 3.
Sea ϕ : E → E una transformación diagonalizable que satisface
ϕ5 = I .
Probar que ϕ 2 = I .

19. E es un espacio vectorial de dimensión finita sobre un cuerpo F.


Sea ϕ : E → E una transformación lineal que satisface ambas
condiciones:

387
Publicación digital de Editorial Equinoccio
9 F ORMAS CANÓNICAS DE MATRICES SEMEJANTES

• ϕ 3 − 3 ϕ 2 + 2 ϕ = O (transformación nula)
• ϕ 8 + 16 ϕ 4 = O

Probar que ϕ = O.
Sugerencia: El polinomio minimal de ϕ divide todo polinomio
que se anula en ϕ.

20. Probar que las matrices (sobre los reales)


⎛ ⎞ ⎛ ⎞
−2 −3 −4 −9 72 52
A = ⎝−1 0 0⎠ B = ⎝ 1 −5 −4⎠
2 2 3 −3 20 15

son semejantes.

21. Probar que el término constante del polinomio característico de


ϕ : E → E es (−1)n det(ϕ ), donde n = dim E. (Téngase presente
el Corolario 4.4.3.)

22. Extender el Teorema 9.4.2 al caso de una familia finita o infinita


de transformaciones diagonalizables que conmutan dos-a-dos.

23. Sea ϕ : R4 → R4 una transformación lineal de matriz asociada


⎛ ⎞
1 1 1 1
⎜1 1 1 1⎟
M = ⎜ ⎟
⎝1 1 1 1⎠
1 1 1 1

con respecto a la base canónica.


A simple vista: ¿Cuál es la dimensión de ker ϕ ?
Probar que ϕ es diagonalizable y hallar la base responsable de su
matriz diagonal asociada.

388
Publicación digital de Editorial Equinoccio
9.6 E JERCICIOS

24. En el ejercicio (5) de 4.7 (página 154), expresar Δn en función de


n, para todo n ≥ 4.

25. Sea {sn } una sucesión en C tal que s0 = 1, s1 = −2, s2 = 5 y, para


todo n > 3,
sn = 2sn−1 + 5sn−2 − 6sn−3

Empleando el método del Ejemplo 9.5.2 o del Ejemplo 9.5.3, ha-


llar una fórmula que exprese sn en función de n.

26. Sea la sucesión {sn } en Q tal que s0 = 2 y s1 = 1 y, para todo


n ≥ 0,  
1 1 −1
sn+2 = 2 × +
sn+1 sn
Hallar la expresión de sn en función de n.
Sugerencia: considerar tn = 1/sn

27. Sea la sucesión {un } en R tal que u0 = 1 y u1 = 2 y, para todo


n > 0,

u2n+1 = u2n + u2n−1


u2n = u2n−1 + 2u2n−2

Hallar la expresión de un en función de n.


Sugerencia: Nótese que, para todo n,

Un+1 = A ×Un

donde    
2 1 u2n
A = Un =
2 2 u2n+1

Diagonalizar A y deducir A n .

389
Publicación digital de Editorial Equinoccio
9 F ORMAS CANÓNICAS DE MATRICES SEMEJANTES

28. Sea E un espacio vectorial de dimensión finita sobre un cuerpo F


algebraicamente cerrado.
Probar que una transformación lineal ϕ : E → E es nilpotente si,
y sólo si, todos sus valores característicos son cero.
Discutir esta afirmación en caso de que el cuerpo F no sea alge-
braicamente cerrado.

29. Sea E un espacio vectorial de dimensión finita sobre C y sean


ϕ , ψ : E → E transformaciones lineales que conmutan (ϕ ◦ ψ =
ψ ◦ ϕ ).
Si c ∈ C es un valor característico de ϕ , probar que

ker(ϕ − cI )

es un subespacio ψ -invariante y que existe un v ∈ E que es vector


característico de ϕ y de ψ .
Deducir, por inducción en m, que si

ϕ1 , ϕ2 , . . . , ϕm : E → E

son transformaciones lineales que conmutan dos-a-dos, entonces


existe un vector característico común a todas ellas.
(Parte de pregunta de examen en la Univ. de Glasgow, 1966.)

30. Sea E un espacio vectorial de dimensión finita sobre un cuerpo F,


y sea ψ : E → E una transformación lineal.
Supongamos que el subespacio S de E es ψ -invariante y sea
E E
ψ: →
S S
la transformación lineal establecida en el ejercicio (17) de la pá-
gina 65.
Sean μ el polinomio minimal de ψ , μ S el minimal de la restric-
ción de ψ a S, y μ ∗ el minimal de ψ .

390
Publicación digital de Editorial Equinoccio
9.6 E JERCICIOS

Probar que μ divide al producto μS × μ ∗ .


Deducir que si F es algebraicamente cerrado, entonces el polino-
mio minimal de cualquier transformación lineal ϕ : E → E divide
a su polinomio característico.
(Pregunta de examen en la Universidad de Oxford, 1981)

31. E es un espacio vectorial de dimensión 5.


Sea ϕ : E → E una transformación lineal nilpotente: ϕ 3 = O, pero
ϕ 2 = O.
Mostrar las formas racional y de Jordan de ϕ .

32. Probar que la matriz


⎛ ⎞
1 1 0 0
⎜−1 −1 0 0 ⎟
⎜ ⎟
⎝0 1 2 −2⎠
1 0 2 −2

es nilpotente y hallar su forma de Jordan.


Suponiendo que se trata de la matriz asociada a una transforma-
ción lineal ϕ : R4 → R4 con respecto a la base canónica, hallar la
base responsable de la forma de Jordan.

33. Sea E un espacio vectorial de dimensión finita sobre C, y sea


ϕ : E → E una transformación lineal.
Si p, p1 , p2 ∈ C[x] son polinomios tales que p = p 1 × p2 y p1 , p2
son primos relativos, probar

ker p(ϕ ) = ker p1 (ϕ ) ⊕ ker p2 (ϕ )

Demostrar que las siguientes propiedades son equivalentes:

(a) existe una base de E constituida por vectores característicos


de ϕ ;

391
Publicación digital de Editorial Equinoccio
9 F ORMAS CANÓNICAS DE MATRICES SEMEJANTES

(b) para todo polinomio q ∈ C[x], se tiene

ker q(ϕ )2 = ker q(ϕ )

(c) el polinomio minimal μ de ϕ es de la forma


μ = (x − c1 ) × (x − c2 ) × · · · × (x − cr )

(Pregunta de examen en la Universidad de Oxford, 1971)

34. Sea A una matriz n ×n sobre C con valores característicos c1 , c2 ,


. . . , cn (no necesariamente distintos).
Sea p ∈ C[x] un polinomio cualquiera.
Demostrar que
det p(A ) = p(c1 ) × p(c2 ) × · · · × p(cn )

Deducir que los valores característicos de p(A ) son

p(c1 ), p(c2 ), . . . , p(cn )

(Parte de pregunta de examen en la Univ. de Glasgow, 1964.)

35. Sea ϕ : E → E una transformación lineal que admite la descom-


posición de Dunford ϕ = δ + ν .
Vale decir, existen transformaciones lineales δ , ν : E → E que
conmutan y tales que δ es diagonalizable, ν es nilpotente y ϕ =
δ + ν.
Si ϕ es no-singular, hallar la descomposición de Dunford de ϕ −1
mediante los siguientes pasos:
(a) Indicar por qué δ es no-singular y expresar

ϕ = δ ◦ (I + δ −1 ◦ ν )
de donde se infiere que I + δ −1 ◦ ν es no-singular (¿por
qué?).

392
Publicación digital de Editorial Equinoccio
9.6 E JERCICIOS

(b) Se tiene entonces

ϕ −1 = (I + δ −1 ◦ ν )−1 ◦ δ −1

y designemos por η = δ −1 ◦ ν .
Como δ −1 y ν conmutan y ν es nilpotente, entonces η es
nilpotente.
Probar que

(I + η )−1 = I − η + η 2 − · · ·
· · · + (−1) j η j + · · · + (−1)n−1 η n−1

pues η n = O, donde n = dim E.


(c) Se infiere

ϕ −1 = (I − η + η 2 + · · · + (−1)n−1 η n−1 ) ◦ δ −1
= δ −1 + (−η + η 2 + · · · + (−1)n−1 η n−1 ) ◦ δ −1
 
n−1
= δ −1
+η ◦ ∑ (−1) j η j−1 ◦ δ −1 = δ −1 + τ
j=1

(d) Indicar por qué


• δ −1 y τ = η ◦ (∑n−1 j j−1 ◦ δ −1 ) conmutan;
j=1 (−1) η
• δ −1 es diagonalizable;
• τ es nilpotente.
Se concluye que ϕ −1 = δ −1 + τ es la descomposición de
Dunford de ϕ −1 .

36. Sea E un espacio vectorial de dimensión finita sobre R, y sea


τ : E → E una transformación lineal tal que τ 2 = I .
Si c ∈ R es un valor característico de τ , probar que c = ±1.
Si v = 0 no es un vector característico de τ , probar que v + τ (v) y
v − τ (v) son vectores característicos de τ .

393
Publicación digital de Editorial Equinoccio
9 F ORMAS CANÓNICAS DE MATRICES SEMEJANTES

Deducir que E = S⊕T, donde τ (u) = u, para todo u ∈ S, y τ (w) =


−w, para todo w ∈ T.
Si ϕ : E → E es otra transformación lineal que satisface ϕ ◦ τ = τ ◦
ϕ y ϕ 2 = I , probar que los subespacios S y T son ϕ -invariantes,
y deducir que existe una base de E con respecto a la cual las ma-
trices asociadas a ϕ y a τ son ambas diagonales.
(Parte de pregunta de examen en la Univ. de Oxford, 1978)

394
Publicación digital de Editorial Equinoccio
PARTE IV

Espacios con producto interior

Publicación digital de Editorial Equinoccio


C APÍTULO 10
Espacios euclídeos

10.1 El producto interior


En todo este capítulo consideraremos espacios vectoriales única-
mente sobre el cuerpo R de los reales y sobre el cuerpo C de los com-
plejos. Nuestro interés estará centrado en espacios de dimensión finita
como corresponde a esta obra, aunque ciertas definiciones y varios re-
sultados iniciales no exigen esta limitación.
Dado un espacio vectorial E sobre el cuerpo F (que es R o C), vamos
a enriquecer su estructura dotándolo de una nueva “operación” llamada
producto interior.1 Tiene su origen en el propósito de “medir la longi-
tud” de los vectores y los “ángulos entre ellos,” muy particularmente la
“perpendicularidad,” a la que preferimos llamar ortogonalidad.
Es oportuno recordar que la función a + bi → a − bi es un automor-
fismo C → C que suele llamarse conjugación.
Se acostumbra escribir a + bi = a − bi y se dice que a − bi es el
conjugado de a + bi, o que éstos son complejos conjugados.
En todo caso, es un ejercicio rutinario comprobar que se trata de una
biyección, cuya inversa es ella misma; y, para α , β ∈ C,

α =α α ±β = α ±β α −1 = (α )−1 (si α = 0)
αβ = α β αα = |α |2

Nótese que α ∈ R ⇐⇒ α = α

Definición 10.1.1. Sea E un espacio vectorial sobre el cuerpo F (que es


R o C).

1 En muchos textos también recibe el nombre de producto escalar.

397
Publicación digital de Editorial Equinoccio
10 E SPACIOS EUCLÍDEOS

Un producto interior en E es una función E × E → F, donde adop-


tamos la notación (u, v) → u, v ∈ F, que satisface las siguientes pro-
piedades:

Positivo definido Para todo vector v ∈ E, v, v es un número real ≥ 0


y se tiene
v, v = 0 ⇐⇒ v = 0

Simetría conjugada Para todo par de vectores u, v ∈ E ocurre

v, u = u, v

Nótese que, si el cuerpo F es R, esta propiedad es precisamente


la simetría del producto interior:

v, u = u, v

Linealidad por la izquierda Para todo par de escalares α , β ∈ F y


vectores u, v, w ∈ E, se tiene

α u + β v, w = α u, w + β v, w

Anotemos unas consecuencias inmediatas de la definición.


En primer lugar,

u, α v + β w = α v + β w, u = α v, u + β w, u
= α v, u + β w, u = α u, v + β u, w

Es decir,
u, α v + β w = α u, v + β u, w (10.1.1)
para todo par de escalares α , β ∈ F y vectores u, v, w ∈ E.
Si F es R, esto expresa la linealidad por la derecha.

398
Publicación digital de Editorial Equinoccio
10.1 E L PRODUCTO INTERIOR

En resumen, para el caso F = R, tenemos



⎨ α u + β v, w = α u, w + β v, w
(10.1.2)

u, α v + β w = α u, v + β u, w
para todo par de escalares α , β ∈ R y vectores u, v, w ∈ E.
Para F = R, (10.1.2) se expresa diciendo que el producto interior es
bilineal.
Una segunda y bastante obvia consecuencia de la definición es que,
para todo vector v ∈ E, ocurre
v, 0 = 0, v = 0 (10.1.3)
pues, 0, v = 0 0, v = 0 0, v = 0 por la linealidad por la izquierda
(aquí el lector debe percatarse de que el primer 0 en 00 está en F y
el segundo es el vector nulo; es el abuso deliberado de notación por
sencillez).
Finalmente, una tercera consecuencia que se aplica con frecuencia:
∀w ∈ E : u, w = v, w =⇒ u=v (10.1.4)
En efecto, ∀w ∈ E : u − v, w = 0. Tómese w = u − v y
u − v, u − v = 0 =⇒ u−v = 0
Definición 10.1.2. Un espacio vectorial sobre R o C, provisto de un
producto interior se denomina espacio euclídeo. 2
En un espacio euclídeo podemos definir la “longitud” de un vector,
que se acostumbra llamar norma del vector.
Definición 10.1.3. Si v es un vector cualquiera en un espacio euclídeo
E (sobre R o C), al número real positivo
"
v = v, v
lo llamamos norma de v.
Vamos a deducir las propiedades básicas de la norma.
2 En muchos textos lo llaman espacio de producto interior; preferimos, por brevedad,
espacio euclídeo.

399
Publicación digital de Editorial Equinoccio
10 E SPACIOS EUCLÍDEOS

Teorema 10.1.1. Desigualdad de Schwarz.3


Para todo par de vectores u, v de un espacio euclídeo E se cumple
la desigualdad
| u, v | ≤ u v
La igualdad ocurre si, y sólo si, u y v son linealmente dependientes.
Demostración. Si v = 0, la desigualdad es obvia, de modo que supone-
mos v = 0.
Tomemos un par de escalares cualesquiera a, c ∈ C. Entonces,
0 ≤ au − cv, au − cv = a u, au − cv − c v, au − cv
= a(a u, u − c u, v ) − c(a v, u − c v, v )
= |a|2u2 − (ac u, v + ac v, u ) + |c|2v2
= |a|2u2 − 2ℜ(ac u, v ) + |c|2v2

pues ac u, v = ac v, u y la suma de un número complejo α con su


conjugado α es dos veces su parte real ℜα .
En particular, hagamos a = v2 > 0 y c = u, v . Entonces, la ex-
presión obtenida para au − cv, au − cv se convierte en
0 ≤ au − cv, au − cv = u2 v4 − 2v2 | u, v |2 + v2 | u, v |2
= u2 v4 − v2 | u, v |2
=⇒ u2 v2 − | u, v |2 ≥ 0 =⇒ | u, v |2 ≤ u2 v2
y extrayendo raíz cuadrada positiva tenemos la desigualdad de Schwarz.
La prueba, cuando el espacio E es sobre los reales R, es idéntica,
eliminando la barra horizontal que indica el conjugado en todos los ca-
sos, y ℜ(ac u, v ) = ac u, v .
Supongamos que u y v son linealmente dependientes; digamos u =
α v, para un cierto α ∈ C.
Entonces,
| u, v |2 = | α v, v |2 = |α |2v4
u2v2 = | α v, α v |v2 = |α |2v4

3 Por el matemático alemán Hermann Schwarz (1843-1921).

400
Publicación digital de Editorial Equinoccio
10.1 E L PRODUCTO INTERIOR

y la desigualdad de Schwarz se convierte en una igualdad.


Recíprocamente, supongamos que | u, v | = u v.
Tomando a = v2 y c = u, v , desarrollamos au − cv, au − cv
como antes y obtenemos au − cv, au − cv = 0, lo cual implica au −
cv = 0 y u, v son linealmente dependientes.

Nótese que la norma es una función: E → R+ (v → v ≥ 0, para


todo v ∈ E). Sus propiedades fundamentales son las siguientes.

Teorema 10.1.2. La norma en un espacio euclídeo E (sobre R o C)


posee las siguientes propiedades:

1. Para todo vector v ∈ E, ocurre v ≥ 0; y v = 0 si, y sólo si,


v = 0.

2. Para todo vector v ∈ E y todo escalar a ∈ C (o R), ocurre av =


|a|v.

3. Para todo par de vectores u, v ∈ E, se tiene u + v ≤ u + v.

Demostración. (1) y (2) son consecuencias obvias de la definición de


norma.
Demostremos (3) aplicando la desigualdad de√Schwarz y teniendo
en cuenta que, para un α = a + bi ∈ C : 2|a| ≤ 2 a2 + b2 = 2|a + bi|;
es decir, 2|ℜα | ≤ 2|α |.

u + v2 = u + v, u + v = u2 + 2ℜ u, v + v2


≤ u2 + 2|ℜ u, v | + v2 ≤ u2 + 2| u, v | + v2
≤ u2 + 2uv + v2 = (u + v)2

Comentario 10.1.1. Hemos definido la norma en base al producto in-


terior. No obstante, ésta puede definirse independientemente como la
función E → R+ que goza de las propiedades enunciadas en el Teo-
rema 10.1.2.

401
Publicación digital de Editorial Equinoccio
10 E SPACIOS EUCLÍDEOS

Un espacio vectorial provisto de una norma se denomina espacio


normado.
Hemos establecido que todo espacio euclídeo es un espacio nor-
mado, cuya norma está inducida por el producto interior según la De-
finición 10.1.3. Lo contrario no es cierto, el concepto de espacio nor-
mado es más general que el de espacio euclídeo; es decir, un espacio
vectorial puede poseer una norma que no proviene de producto interior
alguno.
Hasta ahora no nos hemos referido a la dimensión del espacio eu-
clídeo o normado. En esta obra nos conciernen los espacios euclídeos
de dimensión finita y sus propiedades algebraicas. Los espacios nor-
mados y euclídeos, de dimensión finita y más aún los que no lo son,
dan origen a vastas teorías analíticas y topológicas que, naturalmente,
constituyen ramas del Análisis Matemático bajo los nombres de espa-
cios de Banach y de Hilbert. Son teorías de enorme riqueza y pro-
fundidad, donde se conjugan las estructuras algebraicas, topológicas y
analíticas del espacio.

Definición 10.1.4. Decimos que los vectores u y v de un espacio eu-


clídeo E son ortogonales si u, v = 0.
No hay ambigüedad en esta definición, pues

u, v = 0 ⇐⇒ v, u = 0

ya que u, v = v, u y un número complejo (o real) es cero si, y sólo si,


es cero su conjugado.
Más general, se dice que un conjunto de vectores X = ∅ en un es-
pacio euclídeo E es ortogonal si x, y = 0, para todo x, y ∈ X con x = y,
y que es ortonormal si, además, x = 1, para todo x ∈ X.
Si X = {x1 , x2 , . . . , xm } es un subconjunto ortonormal de un espacio
euclídeo E y v = a1 x1 + a2 x2 + · · · + am xm , donde los ai son escalares,
entonces

v, xi = a1 x1 + a2 x2 + · · · + am xm , xi = ai xi , xi = ai

es decir, ai = v, xi , para i = 1, 2, . . ., m.

402
Publicación digital de Editorial Equinoccio
10.1 E L PRODUCTO INTERIOR

Definición 10.1.5. Decimos que una base {v1 , v2 , . . . , vn } de un espacio


euclídeo E es ortonormal si vi , v j = 0, para i = j, y vi  = 1, para
i = 1, 2, . . ., n.
Según vimos arriba, la expresión de un vector u ∈ E como com-
binación lineal de los vectores de una base ortonormal {v 1 , v2 , . . ., vn }
resulta ser

u = u, v1 v1 + u, v2 v2 + · · · + u, vn vn (10.1.5)

El ejemplo clásico de espacio euclídeo de dimensión finita es el que


atribuye a Rn y a Cn un producto interior que podríamos considerar
canónico o, si se quiere, estándar.
Sea {e1 , e2 , . . . , en } la base canónica de Cn (o de Rn ), donde ek =
(0, 0, . . ., 0, 1, 0, . . ., 0) y el 1 ocupa el lugar k.
Sean u = a1 e1 + a2 e2 + · · · + an en y v = c1 e1 + c2 e2 + · · · + cn en un
par de vectores cualesquiera de Cn .
Definimos
u, v = a1 c1 + a2 c2 + · · · + an cn
y si fuese Rn , hacemos
u, v = a1 c1 + a2 c2 + · · · + an cn
Dejamos que el lector se asegure de que hemos definido un producto
interior en el espacio correspondiente.
La norma de un vector v será entonces
#
v = |a1 |2 + |a2 |2 + · · · + |an |2

Nótese que ei , e j = 0, para i = j, y ei  = 1. Luego, {e1 , e2 , . . . , en }


es una base ortonormal.
Sean E y G dos espacios vectoriales sobre F (que es R o C) y sea
ψ : E → G una transformación lineal no-singular.
Si G es un espacio euclídeo, la transformación ψ induce un producto
interior en E del siguiente modo:
∀u, v ∈ E : u, v = ψ (u), ψ (v)

403
Publicación digital de Editorial Equinoccio
10 E SPACIOS EUCLÍDEOS

Sólo un par de verificaciones no son obvias de inmediato:


0 = v, v = ψ (v), ψ (v) =⇒ ψ (v) = 0 =⇒ v = 0
pues ψ es no-singular.
Y, para escalares α , β y vectores u, v, w ∈ E,
α u + β v, w = ψ (α u + β v), ψ (w)
= αψ (u) + β ψ (v), ψ (w) = α ψ (u), ψ (w) + β ψ (v), ψ (w)
= α u, w + β v, w
La importancia de esto es que permite convertir a todo espacio vec-
torial de dimensión finita en espacio euclídeo.
En efecto, supongamos que E es un espacio vectorial de dimensión
n ≥ 1 sobre el cuerpo F (que es R o C), y tomemos el espacio Fn que
consideramos euclídeo de acuerdo con el ejemplo anterior, definiendo
su producto interior empleando la base canónica {e1 , . . . , en }.
Elegimos cualquier base {v1 , . . . , vn } de E; entonces, ψ : E → Fn ,
tal que ψ (vi ) = ei (para i = 1, . . . , n) define una transformación lineal
no-singular (Teorema 2.1.5).
De acuerdo con lo demostrado arriba, u, v = ψ (u), ψ (v) define
un producto interior en E.
Es fácil percatarse de que, para todo par de vectores u = a1 v1 +· · · +
an vn y v = c1 v1 + · · · + cn vn de E, se tendrá u, v = a1 c1 + · · · + an cn .
Nótese que {v1 , . . . , vn } es una base ortonormal en E con respecto a este
producto interior inducido por ψ .
En resumen, todo espacio vectorial de dimensión finita sobre R o
C puede dotarse de un producto interior inducido por cualquiera de sus
bases.
Proposición 10.1.1. Todo conjunto X = {x1 , x2 , . . ., xm } ortogonal de
vectores no nulos en un espacio euclídeo E es linealmente indepen-
diente.
Demostración. En efecto, si a1 x1 + a2 x2 + · · · + am xm = 0, donde los ai
son escalares, entonces
0 = (a1x1 + a2 x2 + · · · + am xm ), xk = ak xk , xk =⇒ ak = 0

404
Publicación digital de Editorial Equinoccio
10.1 E L PRODUCTO INTERIOR

para k = 1, 2, . . ., m (nótese que xk , xk > 0, pues xk = 0).

Un resultado de gran importancia que probaremos en seguida es


que las bases ortonormales no solamente existen siempre, sino que, me-
diante un algoritmo, puede construirse una base ortonormal a partir de
cualquier base.
Teorema 10.1.3. Proceso de ortogonalización de Gram-Schmidt.
Dada una base X = {x1 , x2 , . . ., xm } de un subespacio S de un espa-
cio euclídeo E, el conjunto Z = {z1 , z2 , . . ., zm } tal que z1 = x1 e induc-
tivamente, para k = 2, . . . , m,
k−1  
xk , zi
zk = xk − ∑ zi (10.1.6)
i=1 zi 2

es una base ortogonal de S.


En particular, si E es de dimensión finita, de toda base de E puede
obtenerse una base ortogonal por la fórmula inductiva (10.1.6).
Demostración. El conjunto Z = {z1 , z2 , . . . , zm } está definido inducti-
vamente en el enunciado y, precisamente por inducción en k, vamos a
probar, en el siguiente orden, que
1. cada zk es combinación lineal de {x1 , x2 , . . . , xk } y, por tanto, zk ∈ S;

2. cada zk = 0;

3. cada zk es ortogonal a z j , para j = 1, 2, . . ., k − 1.


Para k = 1, se tiene que z1 = x1 y las tres propiedades se cumplen
trivialmente.
Aunque la inducción no lo exige, vamos a verificar que
   
x2 , z1 x2 , x1
z2 = x2 − z1 = x2 − x1
z1 2 x1 2
satisface las tres condiciones.
En efecto, la propia expresión para z2 lo define como combinación
lineal de {x1 , x2 } y, por tanto, z2 ∈ S.

405
Publicación digital de Editorial Equinoccio
10 E SPACIOS EUCLÍDEOS

Si fuese z2 = 0, tendríamos
 
x2 , x1
x2 = x1
x1 2
que contradice la independencia lineal de la base X.
Por último,
$   %
x2 , x1
z2 , z1 = z2 , x1 = x2 − x1 , x1
x1 2
 
x2 , x1
= x2 , x1 − x1 , x1 = 0
x1 2
Supongamos ahora que disponemos de z 1 , z2 , . . . , zk−1 y que satis-
facen las tres propiedades en cuestión.
Consideremos el vector zk definido por la fórmula (10.1.6).
En primer lugar, como cada zi , para 1 ≤ i ≤ k − 1, es combinación
lineal de {x1 , . . . , xi }, (10.1.6) indica que zk es combinación lineal de
{x1 , x2 , . . ., xk } y pertenece al subespacio S.
Por la misma razón, si fuese zk = 0, obtendríamos
k−1  
xk , zi
xk − ∑ zi = 0
i=1 zi 2

lo cual expresa que {x1 , . . . , xk } es linealmente dependiente, contradi-


ciendo el que X es una base. De modo que zk = 0.
Sea 1 ≤ j ≤ k − 1. Se tiene, en virtud de la hipótesis inductiva,
k−1  
xk , zi
zk , z j = xk , z j − ∑ zi , z j
i=1 zi 2
 
xk , z j
= xk , z j − z j, z j = 0
z j 2

En resumen, Z = {z1 , z2 , . . ., zm } es un conjunto ortogonal, consti-


tuido por vectores = 0 y todos ellos en S. Por la Proposición 10.1.1, Z
es linealmente independiente y, como m = dimS, se trata de una base
(ortogonal) de S.

406
Publicación digital de Editorial Equinoccio
10.1 E L PRODUCTO INTERIOR

Una vez obtenida una base ortogonal Z = {z1 , z2 , . . ., zm }, es obvio


que podemos convertirla en una base ortonormal W = {w1 , w2 , . . . , wm },
haciendo wk = zk −1 zk .
Aplicar el proceso de Gram-Schmidt a un caso concreto es un mero
ejercicio mecánico que bien puede encomendarse a una computadora.
El lector encontrará alguno entre los ejercicios al final del capítulo.

Proposición 10.1.2. Sea E un espacio euclídeo sobre R o C.


Si ∅ = X ⊂ E, entonces el conjunto

X ⊥ = {v ∈ E | v, x = 0 , ∀x ∈ X}

es un subespacio de E.
Demostración. En primer lugar, X ⊥ = ∅, pues el vector nulo 0 ∈ X ⊥ .
Tomemos u, v ∈ X ⊥ cualesquiera y sean α , β un par de escalares.
Entonces, para todo x ∈ X, ocurre

α u + β v, x = α u, x + β v, x = 0
=⇒ αu + β v ∈ X⊥

En particular, E⊥ = {0} y 0⊥ = E.4

Lema 10.1.1. Sea S un subespacio de un espacio euclídeo E.


Si T es un subespacio de E y T ⊂ S⊥ , entonces S∩T = {0}; es decir,
S y T están en suma directa.
En tal caso, decimos que S y T están en suma orto-directa y escribi-
mos S  T en lugar de S ⊕ T.
Demostración. Como S y T son subespacios, S ∩ T = ∅. Tomemos un
x ∈ S ∩ T. Entonces, x, x = 0 y, por tanto, x = 0.

4 Cuando X está constituido por un solo vector x, simplificamos la notación poniendo


x⊥ en lugar de {x} ⊥ .

407
Publicación digital de Editorial Equinoccio
10 E SPACIOS EUCLÍDEOS

Teorema 10.1.4. Sea S un subespacio de un espacio euclídeo E.


Si S es de dimensión finita, entonces

E = S  S⊥ y (S⊥ )⊥ = S

Al subespacio S⊥ se le llama complemento ortogonal de S.


Demostración. Aplicando el Teorema 10.1.3, sea Z = {z1 , z2 , . . ., zm }
una base ortonormal de S.
Tomemos un vector v ∈ E cualquiera y sea

w = v, z1 z1 + v, z2 z2 + · · · + v, zm zm

Es claro que w ∈ S y que v = w + (v − w).


Veamos que v − w ∈ S⊥ .
En efecto, basta con observar que

v − w, zk = v, zk − w, zk = v, zk − v, zk zk , zk = 0

para k = 1, 2, . . ., m.
Luego, E = S + S⊥ y se infiere del Lema 10.1.1 que E = S  S⊥ .
Si tomamos un u ∈ S cualquiera, ocurre que u, v = v, u = 0, para
todo v ∈ S⊥ , luego, u ∈ (S⊥ )⊥ . Se infiere que S ⊂ (S⊥ )⊥ .
Tomemos ahora un w ∈ (S⊥ )⊥ cualquiera. En virtud de lo ya de-
mostrado, w = u + v, donde u ∈ S y v ∈ S⊥ ; entonces,

0 = w, v = u, v + v, v = v, v
=⇒ v = 0 =⇒ w = u ∈ S

o sea que (S⊥ )⊥ ⊂ S y concluimos S = (S⊥ )⊥ .

Nótese que el teorema precedente no exige que el espacio E sea


de dimensión finita, sólo que el subespacio S lo sea. Si S no es de
dimensión finita –en cuyo caso, a fortiori, tampoco lo es E–, no puede
asegurarse que S⊥ (que ciertamente existe) sea complemento ortogonal
de S; es decir, bien puede ocurrir que S  S⊥ = E.
El siguiente corolario es una consecuencia obvia del teorema, pero
conviene destacarlo.

408
Publicación digital de Editorial Equinoccio
10.2 L A TRANSFORMACIÓN ADJUNTA

Corolario 10.1.1. Sea E un espacio euclídeo de dimensión finita.


Si S es un subespacio de E, entonces E = S  S⊥ y se tiene

dim E = dim S + dim S⊥ y (S⊥ )⊥ = S

10.2 La transformación adjunta


Dado un espacio euclídeo cualquiera E sobre el cuerpo F (que es
R o C), es consecuencia de la definición de producto interior que, si
tomamos un v ∈ E fijo, la función gv : E → F tal que gv (u) = u, v , para
todo u ∈ E, es un funcional lineal (véase la página 58).
Es un hecho de enorme importancia y consecuencias de mucho al-
cance el que todo funcional v∗ ∈ E∗ es de esta forma cuando E es de
dimensión finita.
Teorema 10.2.1. (Riesz-Fréchet5) Sea E un espacio euclídeo de dimen-
sión finita y sea E∗ su espacio dual.
Entonces, a cada v∗ ∈ E∗ corresponde un vector único v ∈ E tal que

v (u) = u, v , para todo u ∈ E.
En consecuencia, la función ψ : E → E∗ tal que ψ (v)(x) = x, v
es biyectiva, y tiene la propiedad de que, para u, v ∈ E y u ∗ , v∗ ∈ E∗ y
escalares α , β ,

ψ (α u + β v) = αψ (u) + β ψ (v)
−1
ψ (α u∗ + β v∗ ) = αψ −1 (u∗ ) + β ψ −1 (v∗ )

Si E es un espacio euclídeo sobre los reales, entonces ψ es una


transformación lineal no-singular (un isomorfismo).
Demostración. Vamos a proceder en forma un tanto heurística.
Tomemos un v∗ ∈ E∗ fijo, pero genérico.
Si v∗ es el funcional nulo, entonces v = 0 y hemos concluido. Su-
pongamos que v∗ = 0, por tanto Im v∗ = F y dim(Im v∗ ) = 1.

5 Por el húngaro Frederic Riesz (1880-1956) y el francés Maurice Fréchet (1878-1973).

409
Publicación digital de Editorial Equinoccio
10 E SPACIOS EUCLÍDEOS

Designemos por S = ker v∗ . De acuerdo con el Corolario 10.1.1,


E = S  S⊥ y

1 = dim(Im v∗ ) = dim E − dim(ker v∗ ) = dim E − dim S = dim S⊥

Así pues, cualquier vector w ∈ E tal que v∗ (w) = 0 (es decir, w ∈/


∗ ⊥
ker v ) sirve de base para S .
Si existe un vector que cumple la condición del enunciado, ha de ser
de la forma v = cw, para algún escalar c = 0 que deseamos determinar.
Tomando v como base de S⊥ , todo u ∈ E es expresable, de manera
única, como u = av + z = acw + z, donde z ∈ S = ker v∗ .
Tenemos entonces,

u, v = a v, v + z, v = a v, v = accw2

y, por otro lado,

v∗ (u) = av∗ (v) + v∗ (z) = acv∗ (w)

Queremos hallar v de modo que v∗ (u) = u, v , para todo u ∈ E; es


decir, acv∗ (w) = accw2 , para todo valor de a.
En consecuencia, c debe satisfacer

cv∗ (w) = ccw2 =⇒ v∗ (w) = cw2

o sea
v∗ (w) v∗ (w)
c = =⇒ v = w
w2 w2
y nótese que w es cualquier vector de E con v∗ (w) = 0.
En cuanto a la unicidad del vector v ∈ E tal que v∗ (u) = u, v , para
todo u ∈ E, supongamos que v  ∈ E también corresponde a v∗ del mismo
modo; entonces, u, v = u, v , para todo u ∈ E, y, de acuerdo con la
propiedad (10.1.4) del producto interior, se concluye que v  = v.
Queda así definida una función biyectiva ψ : E → E∗ tal que ψ (v)(x)
= x, v (∀ v, x ∈ E).
Sean u, v ∈ E y α , β un par de escalares.

410
Publicación digital de Editorial Equinoccio
10.2 L A TRANSFORMACIÓN ADJUNTA

Entonces, para todo x ∈ E,

ψ (α u + β v)(x) = x, α u + β v = α x, u + β x, v
= αψ (u)(x) + β ψ (v)(x) = [αψ (u) + β ψ (v)](x)
=⇒ ψ (α u + β v) = αψ (u) + β ψ (v)

Como esta última igualdad es cierta, cualesquiera sean los escalares


α , β , también es cierta

ψ (α u + β v) = αψ (u) + β ψ (v)
=⇒ α u + β v = ψ −1 [αψ (u) + β ψ (v)]
=⇒ ψ −1 (α u∗ + β v∗ ) = αψ −1 (u∗ ) + β ψ −1 (v∗ )

donde u = ψ −1 (u∗ ) y v = ψ −1 (v∗ ).

Hay otra forma de demostrar la parte esencial del Teorema de Riesz-


Fréchet empleando una base ortonormal, cuya existencia nos asegura el
Teorema 10.1.3 (Gram-Schmidt):
Tenemos un funcional v∗ ∈ E∗ . Sea Z = {z1 , z2 , . . ., zn } una base
ortonormal de E; entonces, si u = a1 z1 + a2 z2 + · · · + an zn es cualquier
vector de E, obtenemos

v∗ (u) = a1 v∗ (z1 ) + a2 v∗ (z2 ) + · · · + an v∗ (zn ) = u, v

donde v = v∗ (z1 )z1 + v∗ (z2 )z2 + · · · + v∗ (zn )zn .


O sea que ψ (v∗ ) = v∗ (z1 )z1 + v∗ (z2 )z2 + · · · + v∗ (zn )zn .
En particular, si E = Cn y elegimos la base canónica {e1 , e2 , . . ., en }
como base ortonormal, entonces, si v∗ es un funcional, tenemos que
v = (v∗ (e1 ), v∗ (e2 ), . . . , v∗ (en )). En el caso E = Rn , simplemente se
prescinde de las barras horizontales.
Comentario 10.2.1. Cuando el espacio E no es de dimensión finita, la
validez del Teorema de Riesz-Fréchet, también llamado Teorema de re-
presentación de Riesz, exige ciertas hipótesis adicionales. En ese con-
texto más general, se trata de un resultado de considerable profundi-
dad y de aplicaciones de primordial importancia en áreas del Análisis

411
Publicación digital de Editorial Equinoccio
10 E SPACIOS EUCLÍDEOS

Matemático, particularmente en teorías de integración de Lebesgue y


afines.
Lo que sigue se relaciona estrechamente con los conceptos de es-
pacio dual y de transformación dual estudiados en las secciones 2.4 y
3.4.
Sean E y G espacios euclídeos de dimensiones finitas.
Sea ϕ : E → G una transformación lineal y sea ϕ ∗ : G∗ → E∗ su
transformación dual.
Recordemos que

∀g∗ ∈ G∗ : ϕ ∗ (g∗ ) = g∗ ◦ ϕ

En virtud del Teorema de Riesz-Fréchet 10.2.1, existen las biyec-


ciones
ψ1 : E → E∗ ψ2 : G → G∗
tales que, para u ∈ E y v ∈ G, tenemos

∀x ∈ E : ψ1 (u)(x) = x, u ∀y ∈ G : ψ2 (v)(y) = y, v

Definimos la transformación adjunta de ϕ como la función ϕ& : G →


E tal que
ϕ& = ψ1−1 ◦ ϕ ∗ ◦ ψ2 (10.2.1)

Verifiquemos, en primer lugar, que ϕ& es una transformación lineal.


En efecto, tomemos g, h ∈ G cualesquiera y sean ψ2 (g) = g∗ , ψ2 (h)
= h∗ . Entonces, para todo par de escalares α , β ,

ϕ&(α g + β h) = (ψ1−1 ◦ ϕ ∗ )(α g∗ + β h∗ )


= ψ1−1 [αϕ ∗ (g∗ ) + β ϕ ∗ (h∗ )] = α (ψ1−1 ◦ ϕ ∗ )(g∗ ) + β (ψ1−1 ◦ ϕ ∗ )(h∗)
= α ϕ&(g) + β ϕ&(h)

La propiedad más significativa de la transformación adjunta es la


siguiente.

412
Publicación digital de Editorial Equinoccio
10.2 L A TRANSFORMACIÓN ADJUNTA

Para vectores e ∈ E y g ∈ G, tenemos

ϕ (e), g = ψ2 (g)[ϕ (e)] = (ψ2 (g) ◦ ϕ )(e) = ϕ ∗ [ψ2 (g)](e)


= [(ϕ ∗ ◦ ψ2 )(g)](e) = [(ψ1 ◦ ψ1−1 ◦ ϕ ∗ ◦ ψ2 )(g)](e)
= [(ψ1 ◦ ϕ&)(g)](e) = ψ1 [ϕ&(g)](e) = e, ϕ&(g)

Hemos demostrado que, para vectores e ∈ E y g ∈ G cualesquiera,

ϕ (e), g = e, ϕ&(g) (10.2.2)

Es más, esta propiedad caracteriza a la adjunta.


En efecto, si γ : G → E también satisface ϕ (e), g = e, γ (g) , para
todo e ∈ E y g ∈ G, entonces

γ (g), e = e, γ (g) = ϕ (e), g = e, ϕ&(g) = ϕ&(g), e

para cada g ∈ G y todo e ∈ E. En virtud de la propiedad (10.1.4) del


producto interior, γ (g) = ϕ&(g); es decir, γ = ϕ&.
En muchos textos la expresión (10.2.2) se toma como definición de
la adjunta, cuya existencia se deriva del Teorema 10.2.1.
Vamos ahora a hallar la matriz n × m asociada a ϕ& : G → E con res-
pecto a bases ortonormales Y = {g1 , g2 , . . . , gm } y X = {e1 , e2 , . . ., en },
en G y en E respectivamente.
La columna de lugar j (1 ≤ j ≤ m) de la matriz [ϕ&]n×m está consti-
tuida por las coordenadas del vector ϕ&(g j ) con respecto a la base X. De
acuerdo con la expresión (10.1.5) y la fórmula (10.2.2), tenemos

ϕ&(g j ) = ϕ&(g j ), e1 e1 + ϕ&(g j ), e2 e2 + · · · + ϕ&(g j ), en en


= e1 , ϕ&(g j ) e1 + e2 , ϕ&(g j ) e2 + · · · + en , ϕ&(g j ) en
= ϕ (e1 ), g j e1 + ϕ (e2 ), g j e2 + · · · + ϕ (en ), g j en

o sea que la entrada de lugar (i, j) de la matriz [ϕ&] es ϕ (ei ), g j .


Pero, la columna i (1 ≤ i ≤ n) de la matriz [ϕ ] con respecto a las
bases X e Y está constituida por las coordenadas de ϕ (ei ) con respecto

413
Publicación digital de Editorial Equinoccio
10 E SPACIOS EUCLÍDEOS

a la base Y . Entonces, de nuevo por (10.1.5),

ϕ (ei ) = ϕ (ei ), g1 g1 + ϕ (ei ), g2 g2 + · · ·


· · · + ϕ (ei ), g j g j + · · · + ϕ (ei ), gm gm

de modo que la entrada de lugar ( j, i) en la matriz [ϕ ] es ϕ (ei ), g j .


Se infiere que la matriz [ϕ&] es la traspuesta conjugada de [ϕ ]; es
decir, para obtener [ϕ&] hallamos la traspuesta de [ϕ ] y conjugamos todas
sus entradas.
Es claro que, si E y G son espacios euclídeos reales, [ ϕ&] es sim-
plemente la traspuesta de [ϕ ], o sea [ϕ&] = [ϕ ]T . Significa que, en el
caso de espacios euclídeos reales, según se estableció en la Sección 3.4,
[ϕ&] = [ϕ ∗ ], en el entendido de que [ϕ&] es con respecto a bases ortonor-
males en ambos espacios y que [ϕ ∗ ] se refiere a las bases duales respec-
tivas.
La adjunta reúne un conjunto de propiedades de bastante importan-
cia y, por fortuna, de fácil demostración. Las agrupamos en un solo
teorema.
Teorema 10.2.2. Sean E y G espacios euclídeos de dimensiones finitas.
Sean ϕ , γ : E → G transformaciones lineales.
Entonces, sus adjuntas ϕ&, γ& : G → E disfrutan de las siguientes pro-
piedades.

1. Si α , β son escalares cualesquiera, ocurre


αϕ + β γ = α ϕ& + β γ&

2. La función Ad j : L (E, G) → L (G, E) tal que Ad j(ϕ ) = ϕ& es


biyectiva y
&
ϕ
&=ϕ

Si los espacios E y G son reales, Ad j es una transformación lineal


no-singular (un isomorfismo).

414
Publicación digital de Editorial Equinoccio
10.2 L A TRANSFORMACIÓN ADJUNTA

3. Si ϕ es no-singular, también lo es ϕ& y se cumple ϕ' &)−1 .


−1 = (ϕ

4. Si E = G, se tiene ϕ'
◦ γ = γ&◦ ϕ&.

5. (ker ϕ )⊥ = Im ϕ&
ker ϕ& = (Im ϕ )⊥
dim(Im ϕ&) = dim(Im ϕ )

6. ϕ sobreyectiva ⇐⇒ ϕ& inyectiva.

7. ϕ inyectiva ⇐⇒ ϕ& sobreyectiva.

8. ker (ϕ ◦ ϕ&) = ker ϕ& ker (ϕ& ◦ ϕ ) = ker ϕ

9. Im (ϕ& ◦ ϕ ) = Im ϕ& Im (ϕ ◦ ϕ&) = Im ϕ

10. Si E = G y S es un subespacio ϕ -invariante de E, entonces S ⊥ es


un subespacio ϕ&-invariante.

Demostración. En varias de las pruebas se aplica la caracterización de


la adjunta dada por la propiedad (10.2.2).
(1) Para e ∈ E y g ∈ G,


e, (αϕ + β γ )(g) = (αϕ + β γ )(e), g = αϕ (e) + β γ (e), g
= α ϕ (e), g + β γ (e), g = α e, ϕ&(g) + β e, γ&(g)
= e, α ϕ&(g) + β γ&(g) = e, (α ϕ& + β γ&)(g)
=⇒ 
αϕ + β γ = α ϕ& + β γ&

(2) Para e ∈ E y g ∈ G,

&
g, ϕ (e) = ϕ (e), g = e, ϕ&(g) = ϕ&(g), e = g, ϕ
&(e)

415
Publicación digital de Editorial Equinoccio
10 E SPACIOS EUCLÍDEOS

=⇒ &
g, ϕ (e) = g, ϕ
&(e) (∀g ∈ G)
=⇒ &
ϕ
&(e) = ϕ (e) (∀e ∈ E)
=⇒ &
ϕ
& = ϕ

Esto implica la biyectividad de Ad j.


Si los espacios son reales, Ad j es una transformación lineal en virtud
de (1) y no-singular por lo que acabamos de probar.
(3) Si ϕ es no-singular, también lo es la transformación dual y, según
(3.4.4), se verifica (ϕ ∗ )−1 = (ϕ −1 )∗ . De acuerdo con la definición
(10.2.1) de adjunta ϕ& = ψ1−1 ◦ ϕ ∗ ◦ ψ2 , se infiere que ϕ& es biyectiva
(no-singular), puesto que es el compuesto de tres biyecciones.
Además,

(ϕ&)−1 = ψ2−1 ◦ (ϕ ∗ )−1 ◦ ψ1 = ψ2−1 ◦ (ϕ −1 )∗ ◦ ψ1 = ϕ'


−1

(4) Nuevamente por (10.2.1), tenemos

ϕ& = ψ −1 ◦ ϕ ∗ ◦ ψ γ& = ψ −1 ◦ γ ∗ ◦ ψ

(aquí ψ1 = ψ2 = ψ , ya que E = G).


En virtud de (3.4.3), sabemos que (ϕ ◦ γ ) ∗ = γ ∗ ◦ ϕ ∗ . Entonces,

◦ γ = ψ −1 ◦ (ϕ ◦ γ )∗ ◦ ψ = ψ −1 ◦ γ ∗ ◦ ϕ ∗ ◦ ψ
ϕ'
= (ψ −1 ◦ γ ∗ ◦ ψ ) ◦ (ψ −1 ◦ ϕ ∗ ◦ ψ ) = γ&◦ ϕ&

(5) Tomemos e ∈ ker ϕ ⊂ E y ϕ&(g) ∈ Im ϕ& ⊂ E. Luego,

e, ϕ&(g) = ϕ (e), g = 0, g = 0

de modo que (ker ϕ )⊥ = Im ϕ&.

416
Publicación digital de Editorial Equinoccio
10.2 L A TRANSFORMACIÓN ADJUNTA

Sean ahora ϕ (e) ∈ Im ϕ ⊂ G y g ∈ ker ϕ& ⊂ G. Entonces,

ϕ (e), g = e, ϕ&(g) = e, 0 = 0

y se concluye que ker ϕ& = (Im ϕ )⊥ .


Finalmente,

dim(Im ϕ ) = dim E − dim(Im ϕ ) ⊥


= dim E − dim(ker ϕ&) = dim(Im ϕ&)

(6) y (7). De acuerdo con lo establecido en (5), tenemos

Im ϕ = G ⇐⇒ {0} = (Im ϕ )⊥ = ker ϕ&


ker ϕ = {0} ⇐⇒ E = (ker ϕ )⊥ = Im ϕ&

(8) ker ϕ& ⊂ ker(ϕ ◦ ϕ&) es obvio.


Ahora bien,

g ∈ ker (ϕ ◦ ϕ&) =⇒ ϕ [ϕ&(g)] = 0


=⇒ 0 = ϕ [ϕ&(g)], g = ϕ&(g), ϕ&(g)
=⇒ ϕ&(g) = 0 =⇒ g ∈ ker ϕ&

de donde ker(ϕ ◦ ϕ&) ⊂ ker ϕ&.


En cuanto a la otra igualdad, aplicamos (2) y la anterior,

&
ker (ϕ& ◦ ϕ ) = ker (ϕ& ◦ ϕ &
&) = ker ϕ
& = ker ϕ

(9) Aplicamos (5), (8) y el teorema 10.1.4 para obtener

(Im ϕ&)⊥ = ker ϕ = ker (ϕ& ◦ ϕ )


=⇒ Im ϕ& = ker (ϕ& ◦ ϕ )⊥ = Im (ϕ& ◦ ϕ )

417
Publicación digital de Editorial Equinoccio
10 E SPACIOS EUCLÍDEOS

Por otro lado,


&
Im (ϕ ◦ ϕ&) = Im (ϕ &
& ◦ ϕ&) = Im ϕ
& = Im ϕ

(10) Tomemos cualquier v ∈ S⊥ . Entonces, para todo u ∈ S, se tiene

ϕ (u) ∈ S =⇒ 0 = ϕ (u), v = u, ϕ
&(v) =⇒ ϕ&(v) ∈ S⊥

10.3 Transformaciones normales y hermíticas


Definición 10.3.1. Sea E un espacio euclídeo de dimensión finita.
Decimos que una transformación lineal ϕ : E → E es normal si con-
muta con su adjunta: ϕ ◦ ϕ& = ϕ& ◦ ϕ .
Pronto veremos por qué estas transformaciones son particularmente
interesantes. De hecho, más adelante estudiaremos ciertas clases im-
portantes de transformaciones que son normales.
Entre los casos especiales de transformaciones normales, conviene
introducir de una vez el siguiente.

Definición 10.3.2. Sea E un espacio euclídeo de dimensión finita.


Decimos que una transformación lineal ϕ : E → E es hermítica, 6
también llamada autoadjunta, si es igual a su adjunta.
La transformación identidad I : E → E es hermítica, pues I (u), v
= u, v = u, I (v) , de modo que I& = I .

Comentario 10.3.1. Hemos visto que, si ϕ : E → E es una transforma-


ción lineal y su matriz asociada con respecto a una base ortonormal es
[ϕ ], entonces la matriz [ϕ&] asociada a la adjunta ϕ&, con respecto a la
misma base, es la traspuesta conjugada de [ϕ ]. Esto no implica que, si

6 Por el matemático francés Charles Hermite (1822-1901).

418
Publicación digital de Editorial Equinoccio
10.3 T RANSFORMACIONES NORMALES Y HERMÍTICAS

ϕ es una transformación hermítica, la matriz [ϕ ] deba ser simétrica y


de entradas reales. Por ejemplo,
 
−1 1 + 2i
1 − 2i 3
es igual a su traspuesta conjugada.
Claro está que, si el espacio euclídeo E es sobre el cuerpo de los
reales, la matriz asociada a una transformación hermítica con respecto
a una base ortonormal es forzosamente simétrica. Es por eso que las
transformaciones hermíticas en espacios reales son llamadas en mu-
chos textos transformaciones simétricas.
El teorema siguiente demuestra un conjunto de propiedades funda-
mentales de las transformaciones normales.
Teorema 10.3.1. Sea E un espacio euclídeo de dimensión finita.
Una transformación normal ϕ : E → E goza de las siguientes pro-
piedades:
1. Todo polinomio en ϕ es normal.

2. Si ϕ es no-singular, entonces ϕ −1 es normal.

3. ∀u ∈ E : ϕ (u) = ϕ&(u)

4. ker ϕ = ker ϕ&

5. Para todo natural k ≥ 1, se tiene


ker ϕ = ker ϕ k

6. El polinomio minimal de ϕ es producto de polinomios irreduci-


bles distintos.

7. c es un valor característico de ϕ si, y sólo si, c es un valor carac-


terístico de ϕ& :
ϕ (u) = c u ⇐⇒ ϕ&(u) = c u

419
Publicación digital de Editorial Equinoccio
10 E SPACIOS EUCLÍDEOS

8. Todo valor característico de una transformación hermítica es real


(su parte imaginaria es nula).

9. Sean S y T subespacios ϕ -invariantes de E.


Si los polinomios minimales de las restricciones de ϕ a S y a T
son primos relativos, entonces

∀u ∈ S y ∀v ∈ T : u, v = 0

10. Si c1 y c2 son valores característicos distintos de ϕ y

ϕ (u) = c1 u ϕ (v) = c2 v

entonces u, v = 0.

Demostración.
(1) Es consecuencia inmediata del Teorema 10.2.2, del cual se infiere
que la adjunta de ϕ k es ϕ&k , para todo entero k ≥ 1, y de los resultados
de la Sección 2.3.
(2) Si ϕ es no-singular, también lo es su adjunta, de acuerdo con el
Teorema 10.2.2, y ϕ&−1 = ϕ' −1 . Se infiere, desde luego, que ϕ ◦ ϕ
&=
ϕ& ◦ ϕ es no-singular.
Ahora bien,

ϕ&−1 ◦ ϕ −1 = (ϕ ◦ ϕ&)−1 = (ϕ& ◦ ϕ )−1 = ϕ −1 ◦ ϕ&−1

(3) Cada expresión en la siguiente secuencia de igualdades es real, por


tanto se omite la barra de conjugación compleja.

ϕ (u)2 = ϕ (u), ϕ (u) = u, ϕ


&[ϕ (u)]
= u, ϕ [ϕ&(u)] = ϕ [ϕ&(u)], u = ϕ&(u), ϕ&(u) = ϕ&(u)2

(4) Aplicamos el Teorema 10.2.2 y obtenemos

ker ϕ = ker (ϕ& ◦ ϕ ) = ker (ϕ ◦ ϕ&) = ker ϕ&

420
Publicación digital de Editorial Equinoccio
10.3 T RANSFORMACIONES NORMALES Y HERMÍTICAS

(5) Sea σ = ϕ ◦ ϕ&. Es claro que σ : E → E es una transformación lineal


y hermítica:
σ& = ϕ ◦ ϕ& = ϕ&
& ◦ ϕ& = ϕ ◦ ϕ& = σ
Demostremos que ker σ = ker σ k , para todo natural k ≥ 1. Es obvio
que ker σ ⊂ ker σ k .
Vamos a probar que ker σ k ⊂ ker σ por inducción en k.
Para k = 1 no hay nada que probar. Supongamos que la proposición
es cierta para k − 1 ≥ 1 y probémosla para k.
En efecto, si u ∈ ker σ k , entonces σ k (u) = 0 y tenemos, en vista de
que σ& = σ,

0 = σ k (u), σ k−2 (u) = σ k−1 (u), σ k−1 (u)


=⇒ σ k−1 (u) = 0 =⇒ u ∈ ker σ k−1 =⇒ u ∈ ker σ

En conclusión, ker σ = ker σ k y nótese que σ k = ϕ&k ◦ ϕ k , gracias a


que ϕ y ϕ& conmutan. Luego, aplicando el Teorema 10.2.2,

ker ϕ = ker (ϕ& ◦ ϕ ) = ker σ = ker σ k = ker (ϕ&k ◦ ϕ k ) = ker ϕ k

(6) Sea μ = pk11 × pk22 × · · · × pkmm el polinomio minimal de ϕ expresado


como producto de polinomios mónicos irreducibles distintos p i , con
ki ≥ 1. Nos proponemos demostrar que ki = 1, para i = 1, 2, . . ., m.
k
Tomemos un k j ≥ 1 y expresemos μ = p j j × q, donde

q = ∏ pki i
i= j

La transformación lineal γ = p j [q(ϕ )] es normal por la propiedad


(1) en el enunciado.
k
Ahora bien, μ (ϕ ) = p j j [(q(ϕ )] = γ k j es la transformación nula.
Pero, en virtud de (5),

E = ker μ (ϕ ) = ker γ k j = ker γ


=⇒ γ = (p j × q)(ϕ ) es la transformación nula
=⇒ μ divide a p j × q =⇒ k j = 1

421
Publicación digital de Editorial Equinoccio
10 E SPACIOS EUCLÍDEOS

(7) Se verifica de inmediato que la transformación ϕ − cI es normal,


pues ϕ− cI = ϕ& − cI (aplicando el Teorema 10.2.2).
Luego, por (4), ker (ϕ − cI ) = ker (ϕ& − cI ), y por tanto

ϕ (u) = c u ⇐⇒ u ∈ ker (ϕ − cI ) ⇐⇒
u ∈ ker (ϕ& − cI ) ⇐⇒ ϕ&(u) = c u

(8) Es una consecuencia inmediata de (7), pues

c u = ϕ (u) = ϕ&(u) = c u

para un vector u = 0. O sea que c u = c u y se infiere que c = c, lo cual


quiere decir que c ∈ R.
(9) Sean μS y μT los polinomios minimales respectivos de las restric-
ciones de ϕ a los subespacios ϕ -invariantes S y T. Como son pri-
mos relativos, existen polinomios p, q tales que pμ S + qμT = 1; luego,
pμS (ϕ ) + qμT (ϕ ) = I .
Tomemos vectores u ∈ S y v ∈ T cualesquiera.
Entonces, u = (pμS (ϕ ) + qμT (ϕ ))(u) = q(ϕ ) ◦ μT (ϕ )(u) y se tiene

'
u, v = q(ϕ ) ◦ μT (ϕ )(u), v = u, q( ϕ )[μ
T (ϕ )(v)] = u, 0 = 0

pues, según (4), v ∈ ker μT (ϕ ) ⇐⇒ v ∈ ker μ


T (ϕ ).

(10) De acuerdo con (7), tenemos ϕ&(v) = c2 v, de manera que

c1 u, v = c1 u, v = ϕ (u), v = u, ϕ
&(v)
= u, c2 v = c2 u, v =⇒ u, v = 0

Teorema 10.3.2. Sea E un espacio euclídeo de dimensión finita y sea


N ⊂ L (E, E) la familia de las transformaciones normales.
Entonces N es un subespacio de L (E, E).
Además, si ϕ , γ ∈ N y ϕ& ◦ γ = γ ◦ ϕ&, entonces ϕ ◦ γ ∈ N .
Demostración. Sean ϕ , γ : E → E transformaciones normales y α , β
escalares. Queremos probar que la transformación αϕ + β γ es normal.

422
Publicación digital de Editorial Equinoccio
10.3 T RANSFORMACIONES NORMALES Y HERMÍTICAS

De acuerdo con el Teorema 10.2.2, sabemos que la adjunta de αϕ +


β γ es α ϕ& + β γ& y, aplicando lo establecido en la Sección 2.3 sobre
L (E, E), es rutinario verificar que αϕ + β γ y α ϕ& + β γ& conmutan.
Nótese que también

&
& ◦ γ& = γ'
ϕ ◦ γ& = ϕ ◦ ϕ& = ϕ&' &
◦ γ = γ&◦ ϕ
& = γ&◦ ϕ

Podemos ahora expresar

(ϕ ◦ γ ) ◦ (ϕ'
◦ γ ) = ϕ ◦ γ ◦ γ& ◦ ϕ& = ϕ ◦ γ&◦ γ ◦ ϕ& = ϕ ◦ γ& ◦ ϕ& ◦ γ
= γ&◦ ϕ ◦ ϕ& ◦ γ = (γ&◦ ϕ&) ◦ (ϕ ◦ γ ) = (ϕ' ◦ γ ) ◦ (ϕ ◦ γ )

lo cual indica que ϕ ◦ γ ∈ N .

De aquí en adelante y en el tema de las transformaciones normales,


será preciso tratar por separado a los espacios euclídeos complejos y a
los reales. Ocurre que el caso real es bastante más complicado.
El siguiente resultado es fundamental en el caso complejo y una
clara consecuencia del Teorema 10.3.1.

Teorema 10.3.3. Sea E un espacio euclídeo de dimensión finita sobre C.


Una transformación lineal ϕ : E → E es normal si, y sólo si, existe
una base ortonormal de E constituida por vectores característicos de ϕ .
Demostración. Supongamos que ϕ es normal.
De acuerdo con la propiedad (6) del Teorema 10.3.1 y tratándose
del cuerpo C, el polinomio minimal de ϕ es de la forma

μ = (x − c1 ) × (x − c2 ) × · · · × (x − cm )

donde 1 ≤ m ≤ dim E y c j = ck para j = k.


Según el Teorema 9.4.1, existe una base B de E constituida por vec-
tores característicos de ϕ .
Sea B = B1 ∪ B2 ∪ · · · ∪ Bm , donde Bi es el subconjunto de B cons-
tituido por vectores característicos correspondientes al valor caracterís-
tico ci .
O sea que Bi es una base del subespacio Ei = ker(ϕ − ci I ).

423
Publicación digital de Editorial Equinoccio
10 E SPACIOS EUCLÍDEOS

Se infiere de la propiedad (10) del Teorema 10.3.1 que E es ex-


presable como suma orto-directa
E = E1  E2  · · ·  Em
En virtud del Teorema 10.1.3 (Gram-Schmidt), podemos construir,
a partir de Bi , una base ortonormal Hi de Ei = ker(ϕ − ci I ).
La unión ordenada H = H1 ∪ H2 ∪ · · · ∪ Hm es una base ortonormal
de E constituida por vectores característicos de ϕ .
Recíprocamente, supongamos que existe una base ortonormal H =
{u1 , u2 , . . . , un } de E constituida por vectores característicos de la trans-
formación lineal ϕ : E → E.
Entonces, para cada ui (asociado al valor característico ci ), tenemos,
por la propiedad (7) del Teorema 10.3.1,
(ϕ& ◦ ϕ )(ui ) = ϕ&(ci ui ) = ci ϕ&(ui ) = ci ci ui = |ci |2 ui
(ϕ ◦ ϕ&)(ui ) = ϕ (ci ui ) = ci ϕ (ui ) = ci ci ui = |ci |2 ui
En conclusión, ϕ& ◦ ϕ = ϕ ◦ ϕ& y ϕ es normal.

Comentario 10.3.2. Sea E un espacio euclídeo de dimensión finita so-


bre R y sea ϕ : E → E una transformación normal.
Si el polinomio minimal de ϕ es de la forma
μ = (x − c1 ) × (x − c2 ) × · · · × (x − cm )
donde los valores característicos c i son reales, entonces existe una base
ortonormal de E constituida por vectores característicos de ϕ .
La demostración es idéntica a la dada en el teorema precedente.
Invocando nuevamente el Teorema 9.4.1, el Teorema 10.3.3 puede
enunciarse de modo equivalente:
Teorema 10.3.4. Sea E un espacio euclídeo de dimensión finita sobre C.
La transformación lineal ϕ : E → E es normal si, y sólo si, es dia-
gonalizable con respecto a una base ortonormal de E constituida por
vectores característicos.

424
Publicación digital de Editorial Equinoccio
10.3 T RANSFORMACIONES NORMALES Y HERMÍTICAS

Corolario 10.3.1. Sea E un espacio euclídeo de dimensión finita sobre C.


Una transformación normal ϕ : E → E es hermítica si, y sólo si,
todos sus valores característicos son reales.
Demostración. Por la propiedad (8) del Teorema 10.3.1 sabemos que,
si ϕ es hermítica, sus valores característicos son reales.
Recíprocamente, supongamos que ϕ es normal y que sus valores
característicos son reales. En virtud del Teorema 10.3.3, existe una base
ortonormal H de E constituida por vectores característicos de ϕ .
Luego, para cada ui ∈ H asociado al valor característico ci ∈ R, te-
nemos, aplicando (7) del Teorema 10.3.1 y habida cuenta de que c i = ci ,

ϕ (ui ) = ci ui = ϕ&(ui )

De manera que ϕ = ϕ& y ϕ es hermítica.

En el próximo teorema reunimos las propiedades más significativas


de las transformaciones hermíticas.

Teorema 10.3.5. Sea E un espacio euclídeo de dimensión finita sobre C.


Una transformación hermítica ϕ : E → E goza de las siguientes pro-
piedades:

1. El polinomio minimal de ϕ es de la forma

μ = (x − c1 ) × (x − c2 ) × · · · × (x − cm )

y todos los valores característicos ci son reales.

2. Todo polinomio en ϕ de coeficientes reales es una transforma-


ción hermítica.

3. Si ϕ es no-singular, entonces ϕ −1 es hermítica.

4. Si γ : E → E es también hermítica y a, b ∈ R, entonces aϕ + bγ es


hermítica. En particular, ϕ + γ es hermítica.

425
Publicación digital de Editorial Equinoccio
10 E SPACIOS EUCLÍDEOS

5. Si γ : E → E es también hermítica, entonces ϕ ◦ γ es hermítica si,


y sólo si, ϕ ◦ γ = γ ◦ ϕ .

Demostración.
(1) En virtud de la propiedad (6) del Teorema 10.3.1 y tratándose del
cuerpo C, el polinomio minimal de ϕ es de la forma

μ = (x − c1 ) × (x − c2 ) × · · · × (x − cm )

y todos los valores característicos ci son reales según (8) del mismo
Teorema 10.3.1.
(2) Del Teorema 10.2.2 se infiere que la adjunta de la transformación
p(ϕ ), donde p es un polinomio de coeficientes reales, es p( ϕ&).
(3) De acuerdo con el Teorema 10.2.2, si ϕ es no-singular, entonces su
adjunta ϕ& = ϕ es no-singular y su inversa es ϕ' &)−1 = ϕ −1 .
−1 = (ϕ

(4) También de acuerdo con el Teorema 10.2.2,

a
ϕ + bγ = aϕ& + bγ& = aϕ + bγ

(5) Nuevamente por el Teorema 10.2.2, si ϕ y γ conmutan, tenemos

ϕ'
◦ γ = γ&◦ ϕ& = γ ◦ ϕ = ϕ ◦ γ

Recíprocamente, si ϕ ◦ γ es hermítica, se tiene

ϕ ◦ γ = ϕ'
◦ γ = γ&◦ ϕ& = γ ◦ ϕ

Teorema 10.3.6. Sea E un espacio euclídeo de dimensión finita sobre C.


La transformación lineal ϕ : E → E es hermítica si, y sólo si, es
diagonalizable con respecto a una base ortonormal de E constituida por
vectores característicos y su matriz diagonal asociada es de entradas
reales.

426
Publicación digital de Editorial Equinoccio
10.4 P ROYECCIONES ORTOGONALES Y TEOREMA ESPECTRAL

Comentario 10.3.3. Una matriz A simétrica n × n y de entradas re-


ales siempre puede considerarse asociada a una transformación her-
mítica, con respecto a la base ortonormal canónica del espacio C n .
En consecuencia de los Teoremas 10.3.5 y 10.3.6, podemos afirmar
que A tiene n valores característicos reales y que es diagonalizable
con respecto a una base ortonormal constituida por vectores caracte-
rísticos.

Comentario 10.3.4. La familia de las transformaciones hermíticas H ,


ciertamente un subconjunto de L (E, E), no es un subespacio si el cuer-
po es C. En cambio, si E es un espacio euclídeo sobre R, se infiere
de (4) en el Teorema 10.3.5 que H es un subespacio de L (E, E) (y de
N ).

10.4 Proyecciones ortogonales y teorema espectral


Definición 10.4.1. Sea E un espacio euclídeo y sea S un subespacio tal
que E = S  S⊥ .
Llamamos proyección ortogonal sobre S a la transformación lineal
π : E → E tal que, para todo w = u + v en E, donde u ∈ S y v ∈ S⊥ , se
tiene π (w) = u.
Que π es una transformación lineal se comprueba directamente y
sin dificultad.
Obsérvese que Im π = S y ker π = S⊥ . Además, es obvio que π es
idempotente: π 2 = π .

Proposición 10.4.1. Sea E un espacio euclídeo de dimensión finita.


La transformación lineal π : E → E es una proyección ortogonal si,
y sólo si, π es hermítica e idempotente.
Demostración. Supongamos que E = S  S⊥ y π es una proyección
ortogonal sobre S.
Ya hemos observado que π es idempotente.
Sean w = u+v y w = u +v vectores cualesquiera de E, con u, u ∈ S

427
Publicación digital de Editorial Equinoccio
10 E SPACIOS EUCLÍDEOS

y v, v ∈ S⊥ , entonces

π (w), w = u, u + v = u, u + u, v = u, u
= u, u + v, u = u + v, u = w, π (w )
=⇒ π& = π

Recíprocamente, supongamos que la transformación lineal π : E →


E es hermítica e idempotente.
Como el propio E es de dimensión finita, se aplica el Teorema 10.1.4
y tenemos
E = Im π  (Im π )⊥
De acuerdo con (5) en el Teorema 10.2.2 y dado que π = π&, tenemos
(Im π )⊥ = ker π , por tanto

E = Im π  ker π

Tomemos cualquier w = u + v en E, donde u ∈ Im π y v ∈ ker π .


Entonces, π (w) = π (u) y tenemos

u ∈ Im π y π (u) ∈ Im π =⇒ π (u) − u ∈ Im π
=⇒ π (π (u) − u) = π 2 (u) − π (u) = π (u) − π (u) = 0
=⇒ π (u) − u ∈ (Im π ) ∩ (ker π ) =⇒ π (u) − u = 0

es decir, π (w) = π (u) = u.

Ahora consideramos el caso de dos proyecciones ortogonales en


juego.
Proposición 10.4.2. Sea E un espacio euclídeo de dimensión finita.
Si π , ρ : E → E son proyecciones ortogonales, entonces

1. π ◦ ρ = ρ ◦ π ⇐⇒ π ◦ ρ es una proyección ortogonal

2. π ◦ ρ = 0 ⇐⇒ ρ ◦π = 0

3. π + ρ es una proyección ortogonal ⇐⇒ π ◦ρ = 0

428
Publicación digital de Editorial Equinoccio
10.4 P ROYECCIONES ORTOGONALES Y TEOREMA ESPECTRAL

4. π − ρ es una proyección ortogonal ⇐⇒ π ◦ρ = ρ ◦π = ρ

Demostración. Tengamos muy presente la Proposición 10.4.1.


(1) Que π y ρ conmutan equivale a que π ◦ ρ es hermítica por el Teo-
rema 10.3.5. Por otro lado, su conmutatividad equivale a la idempoten-
cia
(π ◦ ρ )2 = π 2 ◦ ρ 2 = π ◦ ρ
(2)
π ◦ρ = 0 ⇐⇒ π
◦ρ = ρ ◦π = 0
(3) De acuerdo con el Teorema 10.2.2, π+ ρ = π& + ρ& = π + ρ . O sea
que la transformación π + ρ es hermítica en todo caso; de modo que
sólo debemos probar que es idempotente si, y sólo si, π ◦ ρ = 0.
Supongamos que π ◦ ρ = 0. Entonces,

(π + ρ ) 2 = π + π ◦ ρ + ρ ◦ π + ρ = π + ρ

(aplicando (1)).
Recíprocamente, supongamos que π + ρ es idempotente. Luego,

(π + ρ )2 = π + π ◦ ρ + ρ ◦ π + ρ = π + ρ
=⇒ π ◦ ρ + ρ ◦ π = 0 =⇒ ρ ◦ (π ◦ ρ + ρ ◦ π ) ◦ ρ = 0
=⇒ 2 (ρ ◦ π ◦ ρ ) = 0 =⇒ 0 = (ρ ◦ π ) ◦ ρ = −(π ◦ ρ )

ya que ρ ◦ π = −(π ◦ ρ ).
(4) Tenemos π − ρ = π& − ρ& = π − ρ , gracias al Teorema 10.2.2. Por
tanto, π − ρ es hermítica; falta probar que es idempotente si, y sólo si,
π ◦ ρ = ρ ◦ π = ρ.
En efecto, supongamos que π ◦ ρ = ρ ◦ π = ρ . Entonces,

(π − ρ )2 = π − (π ◦ ρ + ρ ◦ π ) + ρ = π − 2 ρ + ρ = π − ρ

Supongamos ahora que (π − ρ )2 = π − ρ . Se infiere que

π ◦ρ +ρ ◦π = 2ρ =⇒ ρ ◦ (π ◦ ρ + ρ ◦ π ) ◦ ρ = 2 ρ
=⇒ ρ ◦π ◦ρ = ρ

429
Publicación digital de Editorial Equinoccio
10 E SPACIOS EUCLÍDEOS

Entonces,

π ◦ρ +ρ ◦π = 2ρ =⇒ (π ◦ ρ ) ◦ ρ + ρ ◦ π ◦ ρ = 2 ρ
=⇒ π ◦ρ = ρ

y de π ◦ ρ + ρ ◦ π = ρ + ρ ◦ π = 2 ρ se infiere también que ρ ◦ π = ρ .

Todavía hay muchas otras propiedades interesantes de las proyec-


ciones ortogonales que preferimos remitir a los ejercicios al final del
capítulo. Baste con las establecidas arriba para pasar a un teorema de
fundamental importancia en la teoría de las transformaciones normales.
Teorema 10.4.1. (Teorema espectral de las transformaciones normales)

Sea E un espacio euclídeo de dimensión finita sobre C.


Una transformación lineal ϕ : E → E es normal si, y sólo si, existen
proyecciones ortogonales π j : E → E ( j = 1, 2, . . ., m) tales que

πi ◦ π j = 0 para i = j
I = π1 + π2 + · · · + πm

donde I : E → E es la transformación identidad, y

ϕ = c1 π1 + c2 π2 + · · · + cm πm (10.4.1)

donde los c j ∈ C constituyen el espectro de ϕ , es decir, la totalidad de


sus distintos valores característicos.
A la expresión (10.4.1) se le llama resolución espectral de ϕ .
Demostración. Supongamos que ϕ es normal.
En virtud de (6) en el Teorema 10.3.1, el polinomio minimal de ϕ
es de la forma

μ = (x − c1 ) × (x − c2 ) × · · · × (x − cm )

ya que los únicos polinomios irreducibles en C[x] son los de primer


grado y ci = c j para i = j.

430
Publicación digital de Editorial Equinoccio
10.4 P ROYECCIONES ORTOGONALES Y TEOREMA ESPECTRAL

El Teorema 9.4.1 nos dice que existe una base B de E constituida


por vectores característicos de ϕ .
Ordenemos la base de modo que B = B1 ∪ B2 ∪ · · · ∪ Bm , donde B j es
el subconjunto de B constituido por vectores característicos correspon-
dientes al valor característico c j .
Así pues, B j es una base del subespacio E j = ker(ϕ − c j I ), consti-
tuido por los vectores característicos asociados a c j .
Se infiere de (10) en el Teorema 10.3.1 que E es expresable como
suma orto-directa
E = E1  E2  · · ·  Em (ω )
Para 1 ≤ j ≤ m, sea
( j  · · ·  Em
T j = E1  E2  · · ·  E
( j significa que omitimos E j de (ω ).
donde E
Es claro que E = E j  T j , para j = 1, 2, . . ., m.
Definamos π j : E → E tal que
∀u ∈ E j : π (u) = u y ∀v ∈ T j : π (v) = 0
o sea que π j es una proyección ortogonal sobre E j .
Es obvio que πi ◦ π j = 0, para i = j, pues de la definición se infiere
que Im π j = E j ⊂ Ti = ker πi .
Dado cualquier u ∈ E, se deduce de (ω ) que
u = u1 + u2 + · · · + um donde u j ∈ E j
π j (u) = u j ϕ (u j ) = c j u j ( j = 1, 2, . . ., m)
luego,
I (u) = u = (π1 + π2 + · · · + πm )(u)
=⇒ I = π1 + π2 + · · · + πm
además,
ϕ (u) = ϕ (u1 ) + ϕ (u2 ) + · · · + ϕ (um )
= c1 u1 + c2 u2 + · · · + cm um = (c1 π1 + c2 π2 + · · · + cm πm )(u)
=⇒ ϕ = c1 π1 + c2 π2 + . . . + cm πm

431
Publicación digital de Editorial Equinoccio
10 E SPACIOS EUCLÍDEOS

Recíprocamente, si la transformación lineal ϕ : E → E satisface las


propiedades del enunciado, entonces, por el Teorema 10.2.2 y el hecho
de que toda proyección ortogonal es hermítica (Proposición 10.4.1), te-
nemos
ϕ& = c1 π1 + c2 π2 + . . . + cm πm
que ciertamente conmuta con ϕ , habida cuenta de que

π 2j = π j y πi ◦ π j = 0 (para i = j)

de manera que ϕ es normal.

Si la transformación normal ϕ : E → E es no-singular, sabemos que


esto equivale, gracias a la doble implicación (9.3.5), a que todos sus
valores característicos c j son distintos de 0.
En consecuencia, es fácil comprobar que

ϕ −1 = c−1 −1 −1
1 π1 + c2 π2 + · · · + cm πm

Comentario 10.4.1. Si E es un espacio euclídeo de dimensión finita


sobre R y ϕ : E → E es una transformación normal cuyo polinomio
minimal es de la forma

μ = (x − c1 ) × (x − c2 ) × · · · × (x − cm )

con los c j ∈ R, entonces ϕ satisface las propiedades enunciadas en el


Teorema 10.4.1 con idéntica demostración.
El siguiente es una aplicación interesante del Teorema 10.4.1.
Teorema 10.4.2. Sea E un espacio euclídeo de dimensión finita sobre C.
Una transformación lineal ϕ : E → E es normal si, y sólo si, su
adjunta es un polinomio en ϕ , es decir, ϕ& = p(ϕ ), donde p ∈ C[x].
Demostración. Si la adjunta de ϕ es un polinomio en ϕ , es evidente que
ϕ& y ϕ conmutan, de modo que ϕ es normal.
Supongamos ahora que ϕ es normal.
De acuerdo con el Teorema 10.4.1, sea

ϕ = c1 π1 + c2 π2 + · · · + cm πm

432
Publicación digital de Editorial Equinoccio
10.4 P ROYECCIONES ORTOGONALES Y TEOREMA ESPECTRAL

la resolución espectral (10.4.1) de ϕ , donde c1 , c2 , . . . , cm son sus distin-


tos valores característicos (el espectro de ϕ ).
Como π 2j = π j y πi ◦ π j = 0 (para i = j), se prueba de inmediato por
inducción que, para todo natural n ≥ 1,

ϕ n = cn1 π1 + cn2 π2 + · · · + cnm πm

En consecuencia, para todo polinomio p ∈ C[x], se tiene

p(ϕ ) = p(c1 ) π1 + p(c2 ) π2 + · · · + p(cm ) πm (℘.1)

Tomemos un ck fijo y sean

dk = ∏(ck − c j ) qk = dk−1 ∏(x − c j )


j=k j=k

Obsérvese que 0 = dk ∈ C y qk ∈ C[x].


Por construcción, es claro que

qk (ck ) = 1 qk (c j ) = 0 (para j = k)

Luego, en virtud de (℘.1),

qk (ϕ ) = qk (ck ) πk = πk (℘.2)

o sea que cada proyección ortogonal es un polinomio en ϕ .


Pero, por el Teorema 10.2.2,

ϕ& = c1 π1 + c2 π2 + · · · + cm πm

Entonces, de (℘.2) obtenemos

ϕ& = c1 q1 (ϕ ) + c2 q2 (ϕ ) + · · · + cm qm (ϕ )

que es un polinomio en ϕ .

433
Publicación digital de Editorial Equinoccio
10 E SPACIOS EUCLÍDEOS

10.5 Espacios reales y complejos


Un lector cuyo interés en espacios euclídeos se limite exclusiva-
mente a aquellos sobre el cuerpo C de los complejos puede omitir esta
sección y la que sigue.
El tema central que nos ocupa aquí es la construcción de un espacio
euclídeo complejo inducido por un espacio euclídeo sobre el cuerpo R.
Esto resulta muy conveniente en el tratamiento de las transformaciones
normales en los espacios euclídeos reales, caso bastante más compli-
cado que en los espacios complejos.
Sea E un espacio vectorial sobre R. Nos proponemos construir un
espacio vectorial sobre C a partir de E.
Designaremos este nuevo espacio por EC . El conjunto de sus vec-
tores es el producto cartesiano E × E; es decir, un elemento (vector) de
EC es un par ordenado (u, v), donde u, v ∈ E.
Definimos la suma + en EC como (u, v) + (u, v ) = (u + u, v + v ).
Dado que (E, +) es un grupo abeliano, es rutinario verificar que (EC , +)
es también un grupo abeliano, con (0, 0) como neutro y (−u, −v) como
inverso de (u, v).
Es claro que el conjunto V de elementos de E C de la forma (u, 0) es
un grupo abeliano con respecto a la misma operación binaria + definida
(se trata de un subgrupo de (EC , +)).
La ley de composición externa en EC , cuyos escalares son los nú-
meros complejos, es un tanto más artificiosa.
Si a es real, es decir, un número complejo cuya parte imaginaria es
cero, entonces, para cualquier (u, v) ∈ EC , definimos a(u, v) = (au, av).
Es una trivialidad verificar que V es un espacio vectorial sobre R con
respecto a esta ley externa de escalares reales.
La función f : E → V tal que f (u) = (u, 0), para todo u ∈ E, es ob-
viamente una transformación lineal no-singular; vale decir, los espacios
vectoriales reales E y V son isomorfos. Esto permite –cuando resulte
práctico– el abuso de notación al designar por u al vector (u, 0) ∈ V ⊂
EC , sin mayor riesgo de confusión.
Ahora definimos, para la unidad imaginaria i ∈ C y cualquier v =

434
Publicación digital de Editorial Equinoccio
10.5 E SPACIOS REALES Y COMPLEJOS

(v, 0) ∈ V ,
iv = i (v, 0) = (0, v) ∈ EC
Podemos entonces expresar, ya que (u, v) = (u, 0) + (0, v),

(u, v) = u + i v (10.5.1)

Definimos finalmente, para todo a + bi ∈ C y todo (u, v) ∈ E C ,

(a + bi) (u, v) = (au − bv, bu + av) (10.5.2)

Con la notación adoptada inferimos

(a + bi) (u, v) = (au − bv, 0) + (0, bu + av)


= a (u, 0) − b (v, 0) + b (0, u) + a (0, v)
= au − bv + b iu + a iv
= (a + bi) (u + iv)

Es decir,
(a + bi) (u, v) = (a + bi) (u + iv) (10.5.3)
Vale la pena destacar (y lo usaremos en breve) que

(a + bi) (u, 0) = (a + bi) u = (au, bu)

No ofrece la menor dificultad la (tediosa) comprobación de que esta


ley externa (10.5.2) posee las propiedades deseadas

α (w + w ) = α w + α w (α + β ) w = α w + β w
(αβ ) w = α (β w) 1w = w

para α , β ∈ C y w, w ∈ EC .
Así pues, EC es un espacio vectorial sobre C con respecto a las
operaciones definidas.
Comentario 10.5.1. El espacio EC , considerado como espacio real
tomando sólo escalares reales, no es otra cosa que E 2 y V es un subes-
pacio propio de éste, o sea que V no es la “particularización real” del
espacio complejo EC .

435
Publicación digital de Editorial Equinoccio
10 E SPACIOS EUCLÍDEOS

Supongamos ahora que E es de dimensión finita y B es una base:


B = {x1 , x2 , . . . , xn }.
Sea (u, v) un vector cualquiera de EC . Se tiene,

u = a1 x1 + a2 x2 + · · · + an xn v = b1 x1 + b2 x2 + · · · + bn xn

(donde los coeficientes escalares ak , bk son desde luego reales).


Entonces,

(u, v) = (a1 x1 , b1 x1 ) + (a2 x2 , b2 x2 ) + · · · + (an xn , bn xn )


= (a1 + b1 i) (x1 , 0) + (a2 + b2 i) (x2 , 0) + · · · + (an + bn i) (xn , 0)

indica que B# = {(x1 , 0), (x2, 0), . . ., (xn , 0)} genera el espacio EC .
Además, B# es linealmente independiente, pues

(a1 + b1 i) (x1 , 0) + (a2 + b2 i) (x2 , 0) + · · · + (an + bn i) (xn, 0) = (0, 0)


=⇒ (a1 x1 , b1 x1 ) + (a2x2 , b2 x2 ) + · · · + (an xn , bn xn ) = (0, 0)
=⇒ (a1 x1 + a2 x2 + · · · + an xn , b1 x1 + b2 x2 + · · · + bn xn ) = (0, 0)
=⇒ a1 x1 + a2 x2 + · · · + an xn = 0 y b1 x1 + b2 x2 + · · · + bn xn = 0
=⇒ ak = bk = 0 (k = 1, 2, . . ., n) por independencia lineal de B
=⇒ ak + bk i = 0 (k = 1, 2, . . ., n)

En conclusión, dim EC = dim E y, para una base B = {x1 , x2 , . . ., xn }


de E, se tiene que B# = {(x1 , 0), (x2, 0), . . ., (xn , 0)} es una base de EC .
Una transformación lineal ϕ : E → E induce una transformación li-
neal ϕC : EC → EC tal que, para w = (u, v) ∈ EC , se tiene ϕC (w) =
(ϕ (u), ϕ (v)). Es decir (por (10.5.1)),

ϕC (w) = ϕ (u) + i ϕ (v)

Es preciso verificar que ϕC es una transformación lineal.


En efecto, tomemos vectores w = (u, v) , w = (u , v ); entonces,

ϕC (w + w ) = ϕC [(u + u, v + v )]] = ϕ (u) + ϕ (u ) + i [ϕ (v) + ϕ (v )]


= [ϕ (u) + i ϕ (v)] + [ϕ (u) + i ϕ (v )] = ϕC (w) + ϕC (w )

436
Publicación digital de Editorial Equinoccio
10.5 E SPACIOS REALES Y COMPLEJOS

Sean ahora α = a + bi y w = (u, v) ∈ EC ; entonces,

ϕC (α w) = ϕC (au − bv, bu + av) = ϕ (au − bv) + i ϕ (bu + av)


= (a + bi) ϕ (u) + i (a + bi) ϕ (v) = α [ϕ (u) + i ϕ (v)] = αϕC (w)

Nótese que, si I : E → E es la transformación identidad, entonces


IC es claramente la transformación identidad en EC .
Supongamos que γ : E → E es otra transformación lineal, la cual
induce γC : EC → EC .
Tenemos, para todo w = (u, v) ∈ EC ,

(ϕC ◦ γC )(w) = ϕC [(γ (u), γ (v))] =


((ϕ ◦ γ )(u), (ϕ ◦ γ )(v)) = (ϕ ◦ γ )C (w)

O sea que
ϕC ◦ γC = (ϕ ◦ γ )C (10.5.4)
En particular, si p(ϕ ) es un polinomio en ϕ de coeficientes reales
se infiere7 que p(ϕ )C = p(ϕC ).
También de (10.5.4) se infiere que, si ϕ es no-singular, entonces ϕ C
es no-singular y se tiene

(ϕC )−1 = (ϕ −1 )C (10.5.5)

(ya que ϕC ◦ (ϕ −1 )C = (ϕ ◦ ϕ −1 )C = IC ).
Sea (ai j )n×n la matriz asociada a ϕ con respecto a cierta base B =
{x1 , x2 , . . . , xn }. Vamos a hallar la matriz n × n asociada a ϕC con res-
pecto a la base B# = {(x1 , 0), (x2, 0), . . ., (xn , 0)}.
La columna j de [ϕC ] está constituida por las coordenadas del vector
ϕC (x j , 0) con respecto a B# . Pero,

ϕC (x j , 0) = (ϕ (x j ), 0) = a1 j (x1 , 0) + a2 j (x2 , 0) + · · · + an j (xn , 0)

de modo que la columna j de [ϕC ] es precisamente la columna j de


[ϕ ] = (ai j ).

7 Si p tuviese coeficientes complejos, p(ϕ ) carece de sentido como transformación


lineal E → E.

437
Publicación digital de Editorial Equinoccio
10 E SPACIOS EUCLÍDEOS

En síntesis, la matriz [ϕC ] con respecto a la base B# es igual a la


matriz [ϕ ] con respecto a la base B.
De esto se infiere que ϕ y ϕC tienen el mismo polinomio caracterís-
tico:
χ (ϕC ) = χ (ϕ )
Supongamos ahora que E es un espacio euclídeo sobre R. Nos pro-
ponemos dotar a EC de un producto interior inducido por el de E.
Para (u, v) = u + iv , (u , v ) = u + iv ∈ EC , definimos

u + iv, u + iv = u, u + v, v + i [ v, u − u, v ] (10.5.6)

Nuevamente omitimos, por trivial, la comprobación de que se trata


de un producto interior en EC .
En particular, para u = (u, 0) , u = (u , 0) ∈ V , ocurre

(u, 0) , (u , 0) = u, u
"
También notamos que (u, v) = u2 + v2 .
Consideremos una transformación lineal ϕ : E → E y su adjunta ϕ& :
E → E.
Determinemos la adjunta ϕ )C : EC → EC de ϕC , que es la única trans-
formación lineal que satisface ϕC (u, v), (u, v ) = (u, v), ϕ )C (u , v ) ,
para todo par (u, v), (u, v ) ∈ EC .

ϕC (u, v), (u, v ) = (ϕ (u), ϕ (v)), (u, v )


= ϕ (u), u + ϕ (v), v + i ϕ (v), u − i ϕ (u), v
= &(u ) + v, ϕ&(v ) + i v, ϕ
u, ϕ &(u ) − i u, ϕ
&(v )
= (u, v), (ϕ&(u ), ϕ&(v ))

Esto implica, de acuerdo con la caracterización (10.2.2), que

ϕ)C = (ϕ&)C (10.5.7)

438
Publicación digital de Editorial Equinoccio
10.6 N ORMALIDAD EN ESPACIOS EUCLÍDEOS REALES

10.6 Normalidad en espacios euclídeos reales


Sea E un espacio euclídeo sobre R y de dimensión finita.
Consideremos una transformación normal ϕ : E → E cuyo polino-
mio minimal sea de la forma
μ = (x − a)2 + b2
donde a, b ∈ R y b > 0.
Es decir, μ es un polinomio irreducible en R[x] que tiene dos raíces
complejas conjugadas λ = a + bi y λ = a − bi.
En lo sucesivo nos referimos a los conceptos y resultados estableci-
dos en la Sección 10.5.
Consideremos el espacio euclídeo EC sobre C y la transformación
lineal ϕC : EC → EC .
Sabemos que dimEC = dim E y ϕC (u, v) = (ϕ (u), ϕ (v)), para todo
par de vectores u, v ∈ E.
De (10.5.7) y (10.5.4) obtenemos
ϕC ◦ ϕ
)C = ϕC ◦ (ϕ&)C = (ϕ ◦ ϕ&)C = (ϕ& ◦ ϕ )C = ϕ
)C ◦ ϕC

lo cual significa que la transformación ϕC es normal.


Ahora bien, ϕ y ϕC comparten el mismo polinomio característico
χ , de modo que el polinomio minimal de ϕ C –por ser divisor de χ
y tener los mismos factores primos– es una potencia de μ , pero, por
la propiedad (6) del Teorema 10.3.3, debe ser producto de polinomios
irreducibles distintos. En consecuencia, el minimal de ϕ C es μ .
En virtud del Teorema 10.3.3, existe una base ortonormal de E C
constituida por vectores característicos.
Sea
Bλ = {(u1 , v1 ), (u2, v2 ), . . ., (um , vm )}
la parte de esa base formada por los vectores característicos asociados
al valor característico λ .
(λ )
Es claro que Bλ es la base del subespacio EC = ker(ϕC − λ I ).
Tomemos un (u j , v j ) ∈ Bλ ; entonces,
ϕC (u j , v j ) = λ (u j , v j ) = (a + bi) (u j , v j ) = (au j − bv j , bu j + av j )

439
Publicación digital de Editorial Equinoccio
10 E SPACIOS EUCLÍDEOS

Luego,
ϕ (u j ) = au j − bv j ϕ (v j ) = bu j + av j (Λ.1)
Observemos que
ϕC (u j , −v j ) = (ϕ (u j ), −ϕ (v j ))
= (au j − bv j , −bu j − av j ) = (a − bi) (u j , −v j ) = λ (u j , −v j )
O sea que (u j , −v j ) ∈ EC es un vector característico asociado al
valor característico λ y (u j , −v j ) = (u j , v j ) = 1.
Por otro lado, para j = k, tenemos que
0 = (u j , v j ), (uk , vk ) = u j , uk + v j , vk + i [ v j , uk − u j , vk ]
lo cual implica que
u j , uk + v j , vk = 0 y v j , uk = u j , vk (Λ.2)
Luego,
(u j , −v j ), (uk , −vk ) = u j , uk + v j , vk + i [ u j , vk − v j , uk ] = 0
En resumen, Bλ = {(u1, −v1 ), (u2, −v2 ), . . . , (um , −vm )} es un con-
junto ortonormal (por tanto linealmente independiente) en E C de vec-
tores característicos asociados al valor característico λ .
Nótese además que (u j , v j ), (uk , −vk ) = 0, para todo par j, k (igua-
les o distintos) entre 1 y m, puesto que son vectores característicos aso-
ciados a distintos valores característicos (λ y λ ), gracias a la propiedad
(10) en el Teorema 10.3.1.
(λ )
Bλ es pues la base de un subespacio T ⊂ EC = ker(ϕC − λ I ). Se
tiene entonces que
(λ ) (λ )
m = dim EC = dim T ≤ dim EC
Ahora bien, si repetimos la argumentación comenzando por tomar
la parte de la base ortonormal de EC constituida por los vectores carac-
(λ )
terísticos asociados a λ , llegaremos a la conclusión de que dim E C ≤
(λ )
dim EC .

440
Publicación digital de Editorial Equinoccio
10.6 N ORMALIDAD EN ESPACIOS EUCLÍDEOS REALES

En conclusión,
(λ ) (λ )
m = dim EC = dim EC

y Bλ ∪ Bλ es una base ortonormal de EC , constituida por vectores ca-


racterísticos de ϕC .
Como dim E = dim EC , se infiere además que dimE = 2m.
Para cada j = 1, 2, . . ., m, sea S j el subespacio de E generado por
{u j , v j }.
Veamos que {u j , v j } es linealmente independiente (en el espacio E).
En efecto, si cu j + dv j = 0, para escalares c, d ∈ R, también (apli-
cando (Λ.1))

ϕ (cu j + dv j ) = cϕ (u j ) + d ϕ (v j ) = (acu j − bcv j ) + (bdu j + adv j )


= b(du j − cv j ) = 0 =⇒ du j − cv j = 0

De las ecuaciones cu j + dv j = 0 y du j − cv j = 0 se deduce que


(c2 + d 2 ) u
j = 0 y, en consecuencia,

c2 + d 2 = 0 =⇒ c = d = 0

Así pues, {u j , v j } es una base para el subespacio S j y, por tanto,


dimS j = 2.
Gracias a (Λ.1), podemos afirmar que S j es ϕ -invariante.
Probemos ahora que, para j = k, los subespacios S j y Sk están en
suma orto-directa (página 407). Para ello, basta con comprobar que u j
y v j son ortogonales con cada vector de {uk , vk }.
Sabemos que (u j , v j ) y (uk , −vk ) son ortogonales ( j = k); luego,

0 = (u j , v j ), (uk , −vk ) = u j , uk − v j , vk + i [ v j , uk + u j , vk ]

En consecuencia,

u j , uk = v j , vk y v j , uk = − u j , vk

que, junto a (Λ.2), conduce de inmediato a la conclusión

u j , uk = v j , vk = v j , uk = u j , vk = 0

441
Publicación digital de Editorial Equinoccio
10 E SPACIOS EUCLÍDEOS

Tenemos pues que S1  S2  · · ·  Sm y se trata de un subespacio de


E, cuya dimensión es ∑ j (dimS j ) = 2m = dim E.
Hemos demostrado que

E = S1  S2  · · ·  Sm

y conocemos una base {u j , v j } para cada S j .


Nótese que el polinomio minimal de la restricción ϕ S j de ϕ al subes-
pacio S j es μ y el polinomio característico de ϕ es χ = μ m .
De las ecuaciones (Λ.1) calculamos la matriz [ϕS j ]2×2 asociada a la
restricción ϕS j de ϕ al subespacio S j ; por comodidad, adoptaremos la
notación (λ ) para designarla, pues es la misma para j = 1, . . ., m.
 
a b
(λ ) = (10.6.1)
−b a
La matriz 2m × 2m asociada a ϕ con respecto a la base

Bμ = {u1 , v1 , u2 , v2 , . . . , um , vm }

que designaremos por [ϕ ] μ , es por consiguiente


⎛ ⎞
(λ )
⎜ (λ ) ⎟
⎜ ⎟
[ϕ ] μ = ⎜ . ⎟ (10.6.2)
⎝ . . ⎠
(λ )

donde la matriz (λ ) se repite m veces a lo largo de la diagonal.


Consideremos ahora el caso general.
Sea E un espacio euclídeo sobre R y de dimensión finita y sea ϕ :
E → E una transformación normal.
En virtud de (6) en el Teorema 10.3.1, el polinomio minimal de ϕ
es de la forma

μ = (x − c1 ) × (x − c2 ) × · · · × (x − cr ) × μ1 × μ2 × · · · × μn
donde los ci son reales y cada μ j es un polinomio de segundo grado con
raíces complejas conjugadas λ j = a j + ib j y λ j = a j − ib j .

442
Publicación digital de Editorial Equinoccio
10.6 N ORMALIDAD EN ESPACIOS EUCLÍDEOS REALES

El polinomio característico de ϕ es de la forma

χ = (x − c1 )h1 × (x − c2 )h2 × · · · × (x − cr )hr × μ1m1 × μ2m2 × · · · × μnmn

Nótese que
r n
dim E = ∑ hk + 2 ∑ m j
k=1 j=1

Al espacio E, considerado como R[x]-módulo con respecto a ϕ (vé-


ase la Sección 8.2 y la Proposición 8.2.1 en particular), le aplicamos el
Teorema de Descomposición Primaria 7.2.2 y obtenemos la expresión

E = E1 ⊕ E2 ⊕ · · · ⊕ Er ⊕ T1 ⊕ T2 ⊕ · · · ⊕ Tn

donde los Ek y T j son subespacios ϕ -invariantes tales que el polinomio


minimal de la restricción de ϕ a Ek es x − ck y a T j es μ j .
El subespacio
T0 = E1 ⊕ E2 ⊕ · · · ⊕ Er
es claramente ϕ -invariante y el polinomio minimal de la restricción de
ϕ a T0 es
μ0 = (x − c1 ) × (x − c2 ) × · · · × (x − cr )
En virtud de la propiedad (9) en el Teorema 10.3.1, podemos afirmar
que E es expresable como la suma orto-directa

E = T 0  T1  T2  · · ·  Tn (10.6.3)

de subespacios ϕ -invariantes.
Tomemos cualquier T j (0 ≤ j ≤ n).
Sea

V = T0  T1  T2  · · ·  T j  T j+1 · · ·  Tn

Es evidente que T j ⊂ V⊥ . Pero, según el Corolario 10.1.1,

dim T j = dim E − dimV = dimV ⊥

de manera que T j = V⊥ .

443
Publicación digital de Editorial Equinoccio
10 E SPACIOS EUCLÍDEOS

Ahora bien, el subespacio V es ϕ -invariante; luego, de acuerdo con


la propiedad (10) en el Teorema 10.2.2, T j = V⊥ es ϕ&-invariante.
Así pues, el subespacio T j es ϕ -invariante y ϕ&-invariante. Esto sig-
nifica que la adjunta de la transformación lineal ϕ j : T j → T j (restric-
ción de ϕ a T j ) es ϕ& j : T j → T j (restricción de ϕ& a T j ), pues ϕ& j satisface
la caracterización (10.2.2). Además, como ϕ ◦ ϕ& = ϕ& ◦ ϕ en E, esto tam-
bién ocurre en T j . Se infiere que ϕ j : T j → T j es normal.
Según el Comentario 10.3.2 al Teorema 10.3.3, aplicado al subes-
pacio T0 , existe una base ortonormal B0 de T0 constituida por vectores
característicos de ϕ , asociados a los valores característicos c1 , . . . , cr .
Con respecto a B0 , la matriz (diagonal) [ϕ ]0 asociada a la restricción
de ϕ a T0 es
⎛ ⎞
D1
⎜ D2 ⎟
⎜ ⎟
[ϕ ]0 = ⎜ . ⎟
⎝ . . ⎠
Dr

donde Dk = Diag(ck , . . ., ck ) es una matriz diagonal hk × hk en la cual el


mismo valor característico ck se repite hk veces a lo largo de la diagonal.
De acuerdo con lo establecido antes en esta sección, el subespacio
ϕ -invariante T j , para 1 ≤ j ≤ n, cuyo polinomio minimal es μ j de raíces
complejas conjugadas λ j = a j + ib j y λ j = a j − ib j , es expresable como
suma orto-directa

T j = S j1  S j2  · · ·  S jm j

Cada S jl es ϕ -invariante y tiene una base X jl (de dos vectores) con


respecto a la cual la matriz asociada a la restricción de ϕ es, según
(10.6.1),  
aj bj
(λ j ) = (10.6.4)
−b j a j
Entonces
Bμ j = X j1 ∪ X j2 ∪ · · · ∪ X jm j

444
Publicación digital de Editorial Equinoccio
10.6 N ORMALIDAD EN ESPACIOS EUCLÍDEOS REALES

es una base ordenada de T j y la unión ordenada

B = B0 ∪ Bμ1 ∪ Bμ2 ∪ · · · ∪ Bμn

es una base de E, en consecuencia de (10.6.3).


Luego, la matriz [ϕ ] asociada a ϕ con respecto a la base B es
⎛ ⎞
[ϕ ]0
⎜ [ϕ ]μ1 ⎟
⎜ ⎟
⎜ [ϕ ]μ2 ⎟
[ϕ ] = ⎜ ⎟ (10.6.5)
⎜ .. ⎟
⎝ . ⎠
[ϕ ]μn

donde [ϕ ]μ j es una matriz 2m j × 2m j tal como (10.6.2) con λ = λ j y


(λ j ) es (10.6.4).
Recíprocamente, es interesante destacar que, si existe una base B de
E con respecto a la cual la matriz asociada a una transformación lineal
ϕ : E → E es de la forma (10.6.5), entonces ϕ es normal.
En efecto, la matriz asociada a la adjunta ϕ&, con respecto a la misma
base B, es la traspuesta de (10.6.5), que difiere de ésta sólo en que las
“submatrices” (λ j ) se convierten en sus traspuestas
 
a j −b j
bj aj

y nótese que
     2 
aj bj a j −b j a j + b2j 0
× = =
−b j a j bj aj 0 a2j + b2j
   
a j −b j aj bj
×
bj aj −b j a j

Es fácil, por tanto, darse cuenta de que [ϕ ] × [ϕ&] = [ϕ&] × [ϕ ], lo cual


equivale a ϕ ◦ ϕ& = ϕ& ◦ ϕ .

445
Publicación digital de Editorial Equinoccio
10 E SPACIOS EUCLÍDEOS

10.7 Isometrías
Definición 10.7.1. Sean E y G espacios euclídeos de dimensiones finitas
sobre el cuerpo F (que es R o C).
Decimos que la transformación lineal ϕ : E → G es unitaria si, para
todo par de vectores u, v ∈ E se tiene u, v = ϕ (u), ϕ (v) .
En seguida probamos ciertas propiedades básicas de las transforma-
ciones unitarias.
Proposición 10.7.1. Sean E y G espacios euclídeos de dimensiones fini-
tas sobre el cuerpo F (que es R o C).
Una transformación unitaria ϕ : E → G tiene las siguientes propie-
dades:
1. ∀u ∈ E : u = ϕ (u)

2. ϕ es inyectiva y su adjunta es inversa por la izquierda, es decir,


ϕ& ◦ ϕ = I (donde I : E → E es la transformación identidad).

3. Si X = {u1 , u2 , . . . , uk } es un conjunto ortonormal, entonces el


conjunto {ϕ (u1 ), ϕ (u2 ), . . ., ϕ (uk )} es ortonormal.

Demostración.
(1) ∀u ∈ E : u2 = u, u = ϕ (u), ϕ (u) = ϕ (u)2
(2) Tenemos
u ∈ ker ϕ =⇒ 0 = ϕ (u) = u =⇒ u=0
O sea que ker ϕ = {0} y, en consecuencia, ϕ es inyectiva.
Por otro lado, para cualquier v ∈ E y todo vector u ∈ E,
u, v = ϕ (u), ϕ (v) = u, ϕ
&(ϕ (v)) =⇒ (ϕ& ◦ ϕ )(v) = v
lo cual implica que ϕ& ◦ ϕ = I : E → E.
(3) Evidente por la Definición 10.7.1 y por (1).

Nótese que, de acuerdo con el Corolario 2.1.2, es preciso que dimE


≤ dimG para que exista alguna transformación unitaria de E en G.

446
Publicación digital de Editorial Equinoccio
10.7 I SOMETRÍAS

Definición 10.7.2. Sean E y G espacios euclídeos de dimensiones finitas


sobre el cuerpo F (que es R o C) y tales que dim E = dim G.
Una isometría ϕ de E en G es una transformación unitaria ϕ : E → G.

En tal caso, se dice que los espacios euclídeos E y G son isomé-


tricos.
Esta definición requiere algunas explicaciones.
Según la Proposición 10.7.1, una transformación unitaria ϕ : E → G
es inyectiva y, si dim E = dim G, el Teorema 2.1.4 indica que ϕ es no-
singular, es decir un isomorfismo y, por su definición, “preserva” el
producto interior u, v = ϕ (u), ϕ (v) y la norma u = ϕ (u).
Es claro además, que la isometría es una relación de equivalencia
entre espacios euclídeos (sobre el mismo cuerpo).
En efecto, la isometría es obviamente reflexiva, puesto que la trans-
formación identidad I : E → E es una isometría trivialmente.
La isometría de E con G bajo ϕ es también simétrica, pues, para
todo par de vectores u , v ∈ G, se tiene

ϕ −1 (u ), ϕ (v )−1 = ϕ (ϕ −1 (u )), ϕ (ϕ −1(v )) = u , v

En cuanto a la transitividad, si los espacios E, G y H tienen la misma


dimensión y ϕ : E → G y ψ : G → H son transformaciones unitarias, es
directo y trivial verificar que ψ ◦ ϕ : E → H es unitaria.
Nuestro interés a partir de ahora es estudiar las isometrías, de ma-
nera que, en adelante, consideraremos siempre transformaciones uni-
tarias E → E, donde E es un espacio euclídeo sobre C o R y de dimen-
sión finita.
Podemos entonces agregar una definición equivalente, aunque re-
dundante.
Definición 10.7.3. Sea E un espacio euclídeo de dimensión finita sobre
el cuerpo F (que es R o C).
Una isometría sobre E es una transformación lineal no-singular ϕ :
E → E tal que u, v = ϕ (u), ϕ (v) , para todo par de vectores u, v ∈ E.

Establecemos ahora una caracterización de las isometrías.

447
Publicación digital de Editorial Equinoccio
10 E SPACIOS EUCLÍDEOS

Teorema 10.7.1. Sea E un espacio euclídeo de dimensión finita y sea


ϕ : E → E una transformación lineal.
Entonces, ϕ es una isometría si, y sólo si, ϕ es no-singular y su
adjunta ϕ& = ϕ −1 .
Demostración. Si ϕ es una isometría, hemos visto que se trata de una
transformación no-singular y por la Proposición 10.7.1 sabemos que
ϕ& ◦ ϕ = I . Entonces,

ϕ& = ϕ& ◦ I = (ϕ& ◦ ϕ ) ◦ ϕ −1 = I ◦ ϕ −1 = ϕ −1

Recíprocamente, supongamos que ϕ es no-singular y que ϕ& = ϕ −1 .


Luego, para todo par de vectores u, v ∈ E,

u, v = u, ϕ −1 (ϕ (v)) = u, ϕ&(ϕ (v)) = ϕ (u), ϕ (v)

Como toda transformación no-singular conmuta con su inversa, ob-


tenemos de inmediato esta importante consecuencia.

Corolario 10.7.1. Sea E un espacio euclídeo de dimensión finita.


Toda isometría en E es una transformación normal.

Teorema 10.7.2. Sea E un espacio euclídeo de dimensión finita.


Entonces, el conjunto U ⊂ L (E, E) de todas las isometrías en E es
un grupo con respecto a la composición de transformaciones.
A (U , ◦) se le llama grupo unitario en L (E, E).
Demostración. En primer lugar, es preciso verificar que U es cerrado
con respecto a la composición.
En efecto, sean ϕ , ψ : E → E isometrías; entonces, para todo par de
vectores u, v ∈ E,

(ϕ ◦ ψ )(u), (ϕ ◦ ψ )(v) = ϕ (ψ (u)), ϕ (ψ (v)) = ψ (u), ψ (v) = u, v

lo cual indica que ϕ ◦ ψ ∈ U y tiene sentido considerar la estructura


(U , ◦).

448
Publicación digital de Editorial Equinoccio
10.7 I SOMETRÍAS

La asociatividad es propia de la composición de transformaciones,


y la transformación identidad I : E → E es obviamente una isometría,
por tanto I ∈ U y es desde luego el neutro en la estructura (U , ◦).
Como la transformación inversa de una isometría ϕ : E → E es ϕ −1 ,
falta sólo verificar que ésta pertenece a U :

ϕ −1 (u), ϕ −1(v) = ϕ (ϕ −1 (u)), ϕ (ϕ −1(v)) = u, v

Es interesante examinar cómo se comportan las isometrías con res-


pecto al producto por un escalar.
Proposición 10.7.2. Sea E un espacio euclídeo de dimensión finita so-
bre el cuerpo F (que es R o C), y sea ϕ : E → E una isometría.
Sea c ∈ F un escalar.
Entonces, c ϕ es una isometría si, y sólo si, |c| = 1.
Demostración. Supongamos que |c| = 1.
Para todo par de vectores u, v ∈ E,

c ϕ (u), c ϕ (v) = c c ϕ (u), ϕ (v) = |c| u, v = u, v

Recíprocamente, supongamos que c ∈ F y que c ϕ es una isometría.


Tomemos un vector u = 0 en E; entonces u > 0 y, aplicando (1)
en la Proposición 10.7.1, tenemos

u = (c ϕ )(u) = c (ϕ (u)) = |c| ϕ (u) = |c| u


=⇒ |c| = 1

Los siguientes resultados son importantes y revelan la naturaleza de


las isometrías.
Teorema 10.7.3. Sea E un espacio euclídeo de dimensión finita y sea
ϕ : E → E una transformación lineal.
Las siguientes propiedades son equivalentes:
1. ϕ es una isometría.

449
Publicación digital de Editorial Equinoccio
10 E SPACIOS EUCLÍDEOS

2. Si X = {v1 , v2 , . . . , vn } es una base ortonormal de E, entonces


Y = {ϕ (v1 ), ϕ (v2 ), . . ., ϕ (vn )} es una base ortonormal.

Demostración.
(1) =⇒ (2): Es inmediato. En efecto,

ϕ (v j ), ϕ (vk ) = v j , vk = 0 (para j = k)
ϕ (v j ) = v j  = 1

y recordemos que todo conjunto ortogonal de vectores es linealmente


independiente, e Y tiene n = dim E vectores.
(2) =⇒ (1): ϕ es no-singular (por el Teorema 2.1.5).
Sea u = a1 v1 + a2 v2 + · · · + an vn un vector cualquiera de E y tome-
mos un vk ∈ X fijo.
Luego,

u, ϕ −1 (ϕ (vk )) = u, vk = ak
n
= ∑ aj ϕ (v j ), ϕ (vk ) = ϕ (u), ϕ (vk ) = u, ϕ&(ϕ (vk ))
j=1

Esto significa que

∀u ∈ E : u, ϕ −1 (ϕ (vk )) = u, ϕ&(ϕ (vk ))


=⇒ ϕ −1 (ϕ (vk )) = ϕ&(ϕ (vk )) (∀ ϕ (vk ) ∈ Y )
=⇒ ϕ −1 = ϕ& (recuérdese el Teorema 2.1.3)

y ϕ es una isometría en virtud del Teorema 10.7.1.

Teorema 10.7.4. Sea E un espacio euclídeo de dimensión finita (sobre


R o C).
Una isometría ϕ : E → E goza de las siguientes propiedades:

1. Si c es un valor característico de ϕ , entonces |c| = 1.

450
Publicación digital de Editorial Equinoccio
10.7 I SOMETRÍAS

2. Si A es la matriz asociada a ϕ con respecto a una base ortonor-


mal X en E, entonces A −1 = A T , donde A T es la traspuesta
conjugada de A (simplemente la traspuesta A T si el espacio es
sobre R).

3. | det ϕ | = 1.
Si el espacio E es sobre R, entonces det ϕ = ±1.

Demostración.
(1) Si c es un valor característico de ϕ , entonces ϕ (v) = c v para un
vector v = 0; luego, aplicando la Proposición 10.7.1,
|c| v = c v = ϕ (v) = v > 0 =⇒ |c| = 1

(2) Hemos visto en la Sección 10.2 que la matriz asociada a la adjunta


de ϕ (con respecto a la misma base ortonormal X) es A T .
De acuerdo con el Teorema 10.7.1,
[ϕ ]−1 = [ϕ −1 ] = [ϕ&] = A T
=⇒ A × A T = A T × A = I (matriz identidad)

(3) Recordemos (Corolario 4.4.3) que todas las matrices asociadas a ϕ


tienen el mismo determinante y por eso podemos referirnos a det ϕ sin
ambigüedad.
Por tanto, apelando a (2), det ϕ = det A ; en consecuencia,
1 = det I = det(A × A T ) = det A × det(A )
= det A × det A = | det A | = | det ϕ |

Una matriz cuadrada A (sobre R o C) tal que A T = A −1 suele


llamarse matriz ortogonal.
Obtenemos ahora una caracterización de las isometrías entre las
transformaciones normales.

451
Publicación digital de Editorial Equinoccio
10 E SPACIOS EUCLÍDEOS

Teorema 10.7.5. Sea E un espacio euclídeo de dimensión finita sobre


C y sea ϕ : E → E una transformación normal.
Entonces, ϕ es una isometría si, y sólo si, cada uno de sus valores
característicos c j es tal que |c j | = 1.
Demostración. En el Teorema 10.7.4 se estableció que, si ϕ es una
isometría, cada uno de sus valores característicos c j es tal que |c j | = 1.
Recíprocamente, como ϕ es normal y el cuerpo es C, el Teorema
10.3.3 nos dice que existe una base ortonormal X = {u 1 , u2 , . . . , un } de
vectores característicos.
Tomemos cualquier u j ∈ X y sea c j el valor característico al cual
está asociado.
Entonces, ϕ (u j ) = c j u j y, de acuerdo con (7) en el Teorema 10.3.1,
ϕ&(u j ) = c j u j .
Luego, como |c j | = 1, tenemos

(ϕ& ◦ ϕ )(u j ) = (ϕ ◦ ϕ&)(u j ) = c j c j u j = |c j |2 u j = u j

O sea que ϕ& ◦ ϕ = ϕ ◦ ϕ& = I , de modo que ϕ& = ϕ −1 y ϕ es una


isometría en virtud del Teorema 10.7.1.

Sea E un espacio euclídeo de dimensión finita n sobre C y sea ϕ :


E → E una isometría.
Como ϕ es una transformación normal, el Teorema 10.3.3 nos dice
que existe una base ortonormal de E constituida por vectores caracterís-
ticos de ϕ . Con respecto a tal base, la matriz asociada a ϕ es diagonal:
[ϕ ] = Diag(c1 , c2 , . . . , cn ), donde las entradas c j (no necesariamente dis-
tintas unas de otras) comprenden todos los valores característicos de ϕ .
En vista del Teorema 10.7.4, podemos afirmar que

[ϕ ]−1 = Diag(c1, c2 , . . ., cn )

con respecto a la misma base, desde luego.


Examinemos el caso cuando el espacio euclídeo E es sobre el cuerpo
R de los reales.
Sea EC el espacio euclídeo sobre C inducido por E, y sea ϕC : EC →
EC la transformación inducida por ϕ , todo ello según lo establecido en

452
Publicación digital de Editorial Equinoccio
10.7 I SOMETRÍAS

la Sección 10.5. Sabemos que dim EC = dim E y que ϕ )C = (ϕ&)C (por


(10.5.7)).
Además, dado que ϕ es no-singular y ϕ& = ϕ −1 , se infiere de (10.5.5)
que ϕC es no-singular y que
)C = (ϕ&)C = (ϕ −1 )C = (ϕC )−1
ϕ

En conclusión y gracias al Teorema 10.7.1, podemos afirmar que ϕ C


es una isometría.
Remitimos al lector a la Sección 10.6. La única diferencia en este
caso es que las raíces complejas conjugadas λ j = a j +ib j y λ j = a j −ib j
(donde b j > 0) de los polinomios de segundo grado, factores del poli-
nomio minimal de ϕ (que es el mismo de ϕ C ), son tales que a2j + b2j = 1
(por (1) en el Teorema 10.7.4, puesto que son valores característicos de
ϕC ).
Como

a2j + b2j = 1 =⇒ |a j | ≤ 1 y |b j | ≤ 1

podemos afirmar que existe un único θ j ∈ R, con 0 < θ j < π tal que
a j = cos θ j y b j = sen θ j y λ j = cos θ j + i sen θ j .
La matrices (10.6.4) son pues
 
cos θ j sen θ j
(λ j ) =
−sen θ j cos θ j

Las bases ortonormales dan lugar a una forma más especializada de


semejanza de matrices.
Definición 10.7.4. Dadas matrices M , M # de la misma dimensión n ×
n, decimos que M es orto-semejante a M # y se escribe

M  M #

si ambas están asociadas a la misma transformación lineal ϕ : E → E,


donde E un espacio euclídeo de dimensión finita n sobre un cuerpo F
(que es R o C) con respecto a bases ortonormales de E.

453
Publicación digital de Editorial Equinoccio
10 E SPACIOS EUCLÍDEOS

Consideramos, pues, sólo bases ortonormales de E para asociar ma-


trices a transformaciones lineales.
Es obvio que la orto-semejanza es una relación de equivalencia so-
bre la familia M de todas las matrices de dimensiones n × n.
También es evidente que matrices orto-semejantes son semejantes,
de acuerdo con la Definición 3.3.2, es decir,

M  M # =⇒ M ∼ M#

Supongamos pues que M  M # , de modo que M y M # están


asociadas a la misma transformación lineal ϕ : E → E con respecto a
bases ortonormales X = {u1 , u2 , . . . , un } y X # = {v1 , v2 , . . ., vn } respec-
tivamente.
Según el Teorema 3.3.2, existe una matriz n × n no-singular P tal
que
M # = P × M × P −1
En cuenta de lo establecido en la Sección 3.3, la matriz P está
asociada a una transformación lineal η : E → E con respecto a la base
X , y es tal que η (u j ) = v j , para j = 1, 2, . . ., n. En virtud del Teorema
10.7.3, η es una isometría y, dado que P es una matriz asociada con
respecto a una base ortonormal, tenemos que P −1 = P T , donde P T
es la traspuesta conjugada de P.
En resumen, podemos afirmar que M  M # si, y sólo si, existe una
matriz ortogonal P tal que

M # = P × M × PT

Es natural plantearse la cuestión de formas canónicas con respecto


a la orto-semejanza. Se trata de un tema bastante complicado que no
vamos a abordar en esta obra; más aún, no ha llegado a establecerse una
forma universalmente aceptada como lo han sido las formas racional y
de Jordan. En el caso especial y muy particular de una transformación
normal la situación está felizmente resuelta, pues es diagonalizable con
respecto a una base ortonormal.

454
Publicación digital de Editorial Equinoccio
10.8 E JERCICIOS

10.8 Ejercicios
1. Sea E un espacio euclídeo sobre C y sea S un subespacio de E.
Supongamos que un vector u ∈ E satisface la propiedad

∀v ∈ S : u, v + v, u ≤ v, v

Probar que u ∈ S⊥ .

2. Dado un espacio euclídeo E y la norma de acuerdo a la Definición


10.1.3, demostrar que los vectores u, v ∈ E son ortogonales si, y
sólo si,
u + v2 = u2 + v2

3. Ley del paralelogramo:


Dado un espacio euclídeo E y la norma de acuerdo a la Definición
10.1.3, demostrar que, para todo par de vectores u, v ∈ E,

u + v2 + u + v2 = 2 u2 + 2 v2

4. Identidad de Apolonio:
Dado un espacio euclídeo E y la norma de acuerdo a la Definición
10.1.3, demostrar que, para todo u, v, w ∈ E,
 2
1  1 
w − u2 + w − v2 = u − v2 + 2 
w − (u + v) 

2 2

5. Sea E el espacio vectorial sobre R de todos los polinomios en R[x]


de grado ≤ 2.
Verificar que, para f , g ∈ E,
* 1
f,g = f .g
0

455
Publicación digital de Editorial Equinoccio
10 E SPACIOS EUCLÍDEOS

define un producto interior en E.


Comprobar que
√ √
{ 1, 3(1 − 2x), 5(6x2 − 6x + 1) }

es una base ortonormal de E.


Demostrar que la función ψ : E → R, tal que ψ ( f ) = f  (0) (de-
rivada segunda en 0), define un funcional lineal, es decir, ψ ∈ E∗ .
Hallar un p ∈ E tal que f , p = ψ ( f ), para todo f ∈ E.
(Parte de pregunta de examen en la Univ. de Oxford, 1996)

6. Probar que, en una matriz ortogonal, tanto sus filas como sus
columnas constituyen bases ortonormales de R n o Cn , según el
cuerpo.

7. Sea S un subespacio de dimensión finita de un espacio euclídeo E.


Probar que, dado cualquier u ∈ E, el conjunto (subespacio afín)

u + S = {u + s | s ∈ S}

contiene un elemento único que pertenece a S⊥ .


Sugerencia: considerar una base ortonormal para S.

8. Sea X = {x1 , x2 , . . . , xm } un subconjunto ortonormal de un espacio


euclídeo E.
Demostrar que X es una base de E si, y sólo si, para todo par de
vectores u, v ∈ E, se verifica

u, v = u, x1 v, x1 + u, x2 v, x2 + · · · + u, xm v, xm

9. Sea E un espacio euclídeo de dimensión finita y sea ∅ = X ⊂ E.


Probar que (X ⊥ )⊥ está contenido en el subespacio generado por X.

456
Publicación digital de Editorial Equinoccio
10.8 E JERCICIOS

10. (Recíproco de la propiedad (3) en el Teorema 10.3.1).


Sea E un espacio euclídeo de dimensión finita sobre C, y sea ϕ :
E → E una transformación lineal.
Probar

∀u ∈ E : ϕ (u) = ϕ&(u) =⇒ ϕ es normal

11. Sea E un espacio euclídeo de dimensión finita sobre C, y sea ϕ :


E → E una transformación lineal.
Demostrar que ϕ es normal si, y sólo si, para todo subespacio S
de E,
S es ϕ -invariante =⇒ S⊥ es ϕ -invariante

12. Sea E un espacio euclídeo sobre C y sea ϕ : E → E una transfor-


mación lineal.
Probar que las transformaciones ϕ1 , ϕ2 : E → E definidas por
1 1
ϕ1 = (ϕ + ϕ&) ϕ2 = (ϕ − ϕ&)
2 2i
son hermíticas y satisfacen

ϕ = ϕ1 + iϕ2 ϕ& = ϕ1 − iϕ2

13. Dada la matriz (sobre R)


⎛ ⎞
0 1 1
M = ⎝1 0 1⎠
1 1 0
hallar una matriz ortogonal real P tal que

P × M × PT

es una matriz diagonal.


Calcular el polinomio minimal de M .

457
Publicación digital de Editorial Equinoccio
10 E SPACIOS EUCLÍDEOS

14. Sea E un espacio euclídeo sobre C y sea ϕ : E → E una transfor-


mación lineal.
Probar que ϕ ◦ ϕ& + ϕ& ◦ ϕ es una transformación hermítica.

15. Sea E un espacio euclídeo de dimensión finita y sea ϕ : E → E


una trasformación normal.
Demostrar:
(a) ϕ es nilpotente =⇒ ϕ = O.
(b) ϕ2 = ϕ (idempotente) =⇒ ϕ es hermítica.
(c) ϕ 3 = ϕ 2 =⇒ ϕ es idempotente.

16. Sea E un espacio euclídeo de dimensión finita.


Decimos que una transformación hermítica ϕ : E → E es positiva
si, para todo vector v = 0, ocurre
ϕ (v), v > 0

Demostrar que si ϕ es positiva, entonces existe una transforma-


ción positiva ψ : E → E tal que ψ 2 = ϕ .

Sea E un espacio vectorial de dimensión finita sobre C y sea ϕ :


E → E una transformación lineal nilpotente.
Probar que existe una transformación lineal ψ : E → E tal que
ψ2 = I + ϕ.
Sugerencia: Probar por inducción que existe un polinomio p k ∈
C[x] de grado ∂ (pk ) = k − 1 tal que xk divide a 1 + x + p2k , para
todo k.
Empleando la forma canónica de Jordan, demostrar que si τ : E →
E es una transformación no-singular, entonces existe una transfor-
mación lineal γ : E → E tal que γ 2 = τ .

458
Publicación digital de Editorial Equinoccio
10.8 E JERCICIOS

(Pregunta de examen el el Imperial College de la Universidad de


Londres, 1966)

17. Sea E un espacio euclídeo de dimensión finita sobre C, y sea ϕ :


E → E una transformación lineal.
Si ϕ& = −ϕ , probar que ϕ es normal y que todos sus valores ca-
racterísticos son imaginarios puros (parte real nula).

18. Sea E un espacio euclídeo y sean π , ρ : E → E un par de proyec-


ciones ortogonales.
Demostrar:

π ◦ρ = O ⇐⇒ ∀u ∈ Im π y ∀v ∈ Im ρ : u, v = 0

19. Completar la matriz


⎛ ⎞
6 3 ∗
1⎝
−2 6 ∗⎠
7
3 ∗ ∗

de modo que sea ortogonal y con determinante positivo.

20. Las matrices


       
0 0 1 0 2 0 2 0
0 i 0 −i 0 3 1 3

corresponden a sendas transformaciones lineales : C2 → C2 con


respecto a la base ortonormal canónica.
Determinar, en cada caso, si se trata de una transformación nor-
mal, hermítica, una isometría o ninguna de las tres.

21. Mostrar una matriz diagonalizable 3 × 3 sobre C que no es normal.

459
Publicación digital de Editorial Equinoccio
10 E SPACIOS EUCLÍDEOS

22. Definir una transformación normal ϕ : C4 → C4 mediante su ma-


triz asociada con respecto a la base ortonormal canónica de C4 .
Definir otra que no sea hermítica.

23. Sea ϕ : R3 → R3 una transformación lineal cuya matriz asociada es


⎛ √ ⎞
1 0 √3
⎝ 0 3⎠
√ √1
3 3 0

con respecto a la base ortonormal canónica.


Indicar por qué ϕ es normal, y calcular una base ortonormal de
vectores característicos con respecto a la cual la matriz de ϕ es
diagonal.

24. Sea ϕ : C3 → C3 una transformación lineal cuya matriz asociada es


⎛ ⎞
1 0 0
⎝ i −i 1⎠
2 −1 i

con respecto a la base ortonormal canónica de C3 .


Hallar la matriz asociada a ϕ& y determinar si ϕ es hermítica.

25. Sean A y B matrices hermíticas n × n sobre C.


Demostrar:

A + iB es normal ⇐⇒ A ×B = B ×A

26. Sea A una matriz hermítica n × n sobre C.


Demostrar:

(a) A + iI es no-singular (I es la matriz identidad n × n).


(b) (A + iI)−1 (A − iI) es ortogonal.

460
Publicación digital de Editorial Equinoccio
10.8 E JERCICIOS

27. Sea E un espacio euclídeo de dimensión finita sobre C y sea ϕ :


E → E una transformación normal.
Si las matrices A y B están asociadas a ϕ , es decir, A ∼ B,
demostrar que A y B son orto-semejantes: A  B.

461
Publicación digital de Editorial Equinoccio
A PÉNDICES

A Relaciones de equivalencia
Sea E un conjunto cualquiera (finito o infinito). Recordemos que
una relación binaria sobre E es cualquier subconjunto R del producto
cartesiano E × E, vale decir, un conjunto R de pares ordenados1 (x, y),
donde x, y ∈ E. El nombre es sugerente, pues (x, y) ∈ R es un modo de
señalar que x está relacionado con y (bajo R).
Relación binaria es un concepto muy básico y general. Viene siendo
una manera de precisar la idea de establecer relaciones entre los elemen-
tos de un conjunto.
Si H es el conjunto de los humanos,

S = {(x, y) | x, y ∈ H ∧ (x es hijo de y)}

define una relación binaria S sobre H.


También

| = {(n, m) | n, m ∈ N ∧ (n divide a m)}

define una relación binaria “ | ” sobre el conjunto N de los números na-


turales. En este caso se prefiere escribir n|m en lugar de (n, m) ∈ |.
Ciertas relaciones binarias con atributos especiales merecen nombre
propio y estudio particular por la frecuencia de su aparición y por sus

1 El par ordenado (x, y) es simplemente el conjunto constituido por los elementos x, y


pero distinguimos el lugar de x y de y; más preciso,

(x, y) = (u, v) ⇐⇒ (x = u) ∧ (y = v)

463
Publicación digital de Editorial Equinoccio
A PÉNDICES

propiedades significativas. Tal es el caso de una relación de equivalen-


cia: se trata de una relación binaria ∼2 sobre un conjunto E, para la cual
empleamos la notación x ∼ y, que se lee x equivalente a y, para expresar
que el par (x, y) está en la relación, y cumple las siguientes propiedades

x∼x (∀x ∈ E) (reflexividad)


x ∼ y ⇐⇒ y ∼ x (simetría)
(x ∼ y) ∧ (y ∼ z) =⇒ x∼z (transitividad)

Ninguna de las relaciones binarias S o “ | ” ejemplificadas arriba es


relación de equivalencia.
Dada una relación de equivalencia ∼ sobre E, definimos, para cada
a ∈ E, el conjunto
a = {x ∈ E | x ∼ a}
que recibe el nombre de clase de equivalencia de a. Se trata pues del
conjunto de todos aquellos elementos de E que son equivalentes a a.
En virtud de la reflexividad, a = ∅, pues siempre a ∈ a (y puede
ocurrir que a conste de ese solo elemento).
Lema A.1. a ∼ b ⇐⇒ a = b.
Demostración. En efecto, si a ∼ b y x ∈ a, entonces x ∼ a y por tran-
sitividad x ∼ b, luego x ∈ b. O sea que a ⊂ b e invirtiendo los papeles
de a y b (empleando la simetría de ∼) obtenemos b ⊂ a; en resumen,
a = b.
Recíprocamente, si a = b, entonces a ∈ b, de donde a ∼ b.

De esto podemos inferir que dos clases de equivalencia son iguales


o disjuntas, pues si existe algún z ∈ x ∩ y, entonces

(z ∼ x) ∧ (z ∼ y)
=⇒ (x ∼ z) ∧ (z ∼ y) (por simetría)
=⇒ x ∼ y (por transitividad)
=⇒ x = y (por el Lema A.1)

2 El símbolo ∼ es frecuente pero se usan también otros como ≡, ∼


=, ≈ etc.

464
Publicación digital de Editorial Equinoccio
A R ELACIONES DE EQUIVALENCIA

Además, es obvio que


!
E = a
a∈E
En síntesis, las clases de equivalencia constituyen una partición de
E; es decir, forman una familia de conjuntos disjuntos dos-a-dos cuya
unión es E.
Recíprocamente, sea P una partición de E constituida por conjun-
tos disjuntos dos-a-dos cuya unión es E. Podemos definir una relación
de equivalencia ∼ sobre E cuyas clases de equivalencia son los conjun-
tos de P. Basta con definir
x∼y ⇐⇒ x, y ∈ A para algún A ∈ P
En otras palabras, x ∼ y si, y sólo si, x e y pertenecen a un mismo
conjunto de P.
Así pues, una relación de equivalencia sobre E es lo mismo que es-
tablecer una partición de E. Expresado de modo más pretencioso: existe
una correspondencia biunívoca entre las relaciones de equivalencia so-
bre E y las particiones de E.
El conjunto de las clases de equivalencia suele denominarse con-
junto cociente y se escribe mediante un símbolo conveniente; en este
caso general escribiríamos
E

Cuando es posible distinguir en cada clase de equivalencia, un único


elemento caracterizado por determinados atributos, éste se toma como
representante o forma canónica de su clase en esa relación de equiva-
lencia.
Por ejemplo, consideremos el conjunto C de todas las infinitas cir-
cunferencias en el plano cartesiano; definimos sobre C la relación de
equivalencia ≈ según la cual circ1 ≈ circ2 significa que las circunfe-
rencias circ1 y circ2 tienen radios iguales. Ahora bien, es claro que
cada clase de equivalencia contiene una circunferencia única cuyo cen-
tro coincide con el origen de coordenadas y tomamos ésta como re-
presentante de su clase de equivalencia. Es la “forma” canónica que,

465
Publicación digital de Editorial Equinoccio
A PÉNDICES

para expresarlo en estilo geométrico, decimos que es la “posición” ca-


nónica de la circunferencia. Nótese que cada clase de equivalencia está
unívocamente determinada por la magnitud de un radio, es decir por un
número real ≥ 0. Existe pues un conjunto infinito de clases de equiva-
lencia, tantas como números reales.
Veamos un ejemplo menos sencillo, caso particular de conceptos
desarrollados en esta obra.
Sea Z el conjunto de los números enteros y tomemos un m > 1 fijo.
Definimos, para a, b ∈ Z,

a≡b (mod m) ⇐⇒ a − b = ṁ

donde ṁ significa múltiplo de m.


Dejamos al lector la fácil tarea de comprobar que se trata de una
relación de equivalencia. Ésta se llama congruencia y a ≡ b (mod m)
se lee a congruente con b módulo m. Si no hay riesgo de confusión
escribimos simplemente a ≡ b.
El conjunto cociente acostumbra designarse por Zm . Vamos a inves-
tigar su composición.
Sea a ∈ Z un entero cualquiera y apliquémosle el algoritmo de di-
visión entera por m. Sabemos que existen enteros únicos q, r tales que
0 ≤ r < m y a = mq + r; luego, a ≡ r ya que a − r = ṁ y, en consecuen-
cia del Lema A.1, a = r. Se infiere que Zm es un conjunto finito de m
elementos:
Zm = {0, 1, . . . , m − 1}
y podemos decir que r (0 ≤ r < m) es la representación canónica de la
clase de equivalencia (de r) constituida por

{r, r ± m, r ± 2m, r ± 3m, r ± 4m, . . . }

466
Publicación digital de Editorial Equinoccio
B O PERACIONES BINARIAS

B Operaciones binarias
Sea E un conjunto cualquiera no vacío. Una operación binaria sobre
E, también llamada ley de composición interna, es una función f : E ×
E → E.
En la práctica siempre se elige un símbolo, por ejemplo ∗, y para ex-
presar f (a, b) = c se usa la notación a ∗ b = c. En virtud de su definición
(como una función), destacamos que

1. a ∗ b existe para todo par de elementos a, b ∈ E;

2. a ∗ b es un elemento único de E, para cada par a, b ∈ E y en ese


orden.

Nos referimos al par (E, ∗) como una estructura algebraica y, si no


hay lugar a confusión, aludimos simplemente a la estructura E.
Los ejemplos de operaciones binarias en matemáticas son dema-
siado abundantes, los más familiares son quizás la suma + y el pro-
ducto × (generalmente simbolizado por un punto) en las estructuras de
los números complejos C, reales R, racionales Q, enteros Z y natura-
les N. También la unión e intersección de conjuntos son operaciones
binarias. En fin, los ejemplos son interminables.
Algunas propiedades usuales (y muy deseables) que puede tener –
¡no siempre!– una operación binaria son las siguientes:

• Asociativa: (a ∗ b) ∗ c = a ∗ (b ∗ c) ∀a, b, c ∈ E

• Conmutativa: a ∗ b = b ∗ a ∀a, b ∈ E
En este caso decimos que la estructura E es abeliana.1

• Elemento neutro: Cuando existe un e ∈ E tal que

a∗e = e∗a = a ∀a ∈ E

1 En honor al matemático noruego Niels Henrik Abel (1802-29).

467
Publicación digital de Editorial Equinoccio
A PÉNDICES

En tal caso, el elemento neutro e ha de ser único, pues otro e ∈ E


que cumpla la condición satisface e ∗ e = e y e ∗ e = e, lo cual
implica –véase (2) arriba– que e = e.

• Inversos: En caso de existir neutro e ∈ E, tomemos un a ∈ E.


Decimos que a ∈ E (si existe) es inverso de a si

a ∗ a  = a ∗ a = e

(es obvio que el neutro e es siempre inverso de sí mismo).


Si ∗ es asociativa, a es único, pues para otro a ∈ E que cumpla
la condición ocurre

a = a ∗ e = a ∗ (a ∗ a) = (a ∗ a) ∗ a = e ∗ a = a

El inverso de a acostumbra designarse por a−1 y, si se emplea la


notación aditiva (+) para la operación, lo usual es (−a).

Nótese que las primeras tres propiedades son de carácter global, es


decir, comprometen a la totalidad de la estructura (E, ∗); en cambio,
la referida a los inversos concierne elementos individuales. Cuando un
elemento admite inverso, decimos que es inversible.
Vale notar que, si a, b ∈ E admiten inversos, entonces

(a ∗ b) ∗ (b−1 ∗ a−1 ) = e = (b−1 ∗ a−1 ) ∗ (a ∗ b)

es decir, a ∗ b es también inversible y (a ∗ b) −1 = b−1 ∗ a−1 .


En las estructuras numéricas, tanto la suma como el producto tienen
las propiedades asociativa y conmutativa, con neutros respectivos 0 y
1; en N, aparte de los neutros, ningún número tiene inverso; en Z todo
entero n tiene inverso (−n) con respecto a la suma +, pero sólo 1 y
(−1) tienen inversos con respecto al producto; en Q, R, C todo número
a tiene inverso (−a) con respecto a la suma y todo a = 0 tiene inverso
a−1 con respecto al producto.
Dentro del tema de operaciones binarias conviene incluir el con-
cepto de ley de composición externa.

468
Publicación digital de Editorial Equinoccio
B O PERACIONES BINARIAS

Tenemos un conjunto E = ∅ y otro conjunto F no vacío, a cuyos


elementos llamamos escalares u operadores. Una ley de composición
externa en E con escalares en F es una función: F × E → E y, para
expresar que (λ , x) → y, donde λ ∈ F y x, y ∈ E, escribimos λ x = y.
Usualmente, E y F suelen estar provistos de operaciones binarias.
Un conjunto de cualquier naturaleza provisto de operaciones bina-
rias y leyes de composición externas es una estructura algebraica y la
disciplina llamada Álgebra consiste en el estudio de estas estructuras.
Desde luego que dentro de esa infinita variedad se distinguen algunas
estructuras que por la frecuencia de su aparición en diversas ramas de la
matemática y fuera de ésta, así como por la riqueza de sus propiedades,
reciben nombres particulares y su estudio se convierte en vastas y pro-
fundas teorías. Tal es el caso del Álgebra Lineal, objeto de este libro,
que se concentra en la estructura algebraica llamada espacio vectorial.
Otras estructuras notables son los grupos, anillos, cuerpos, módu-
los, algunas de las cuales son tratadas en esta obra porque inciden en
su desarrollo. Esto es normal. El estudio de cualquiera de estas estruc-
turas no suele permanecer aislado de otras. Un espacio vectorial está
íntimamente vinculado a cuerpos, anillos y módulos.
Definamos la estructura grupo, quizá la más fundamental de todas.
Consiste en un conjunto E = ∅ provisto de una operación binaria ∗ –es
decir (E, ∗)–, que satisface las siguientes propiedades:
G1 La operación ∗ es asociativa.

G2 Existe un elemento neutro e ∈ E con respecto a ∗.

G3 Todo elemento a ∈ E admite inverso a −1 en E.

Si la operación ∗ es conmutativa, decimos que el grupo (E, ∗) es


conmutativo o abeliano.
Los grupos se asoman por todas partes y los ejemplos son harto
numerosos.
En las estructuras numéricas, (N, +) no es un grupo y tampoco lo
es (N, ×) ni (Z, ×) (ausencia de inversos); pero (Z, +) es un grupo
abeliano.

469
Publicación digital de Editorial Equinoccio
A PÉNDICES

Sea A un conjunto cualquiera no vacío y B el conjunto de todas las


biyecciones: A → A.
La composición de funciones2 (◦) es una operación binaria sobre
B que es asociativa y no conmutativa; la identidad o función identidad
(I(x) = x) es el neutro con respecto a ◦; y, para cada f ∈ B, la función
inversa f −1 es el inverso de f con respecto a ◦. O sea que (B, ◦) es un
grupo (no abeliano).
Otra estructura notable y, al igual que los grupos, objeto de una
extensa y rica teoría es la que recibe el nombre de cuerpo. Se trata
de una estructura (F, +, ·) con dos operaciones binarias que llamamos
siempre, por sencillez, suma y producto, con las siguientes propiedades:

C1 (F, +) es un grupo abeliano, cuyo elemento neutro suele designarse


por 0.

C2 (F∗ , ·), donde F∗ = F − {0}, es un grupo abeliano, cuyo elemento


neutro suele designarse por 1.

C3 Distributividad del producto con respecto a la suma:

a · (b + c) = a · b + a · c

En lugar de a · b, en ocasiones se escribe a × b, aunque es preferible


en la práctica escribir simplemente ab.
Los ejemplos clásicos de cuerpos son los numéricos: cuerpo de los
racionales (Q, +, ·), de los reales (R, +, ·) y de los complejos (C, +, ·).
Ni qué decir que existe multitud de cuerpos distintos de éstos.
Un concepto de enorme importancia en el estudio de las estructuras
algebraicas es el de homomorfismo entre dos estructuras del mismo
tipo, digamos (E, ∗) y (G, •). Es una función ϕ : E → G tal que

ϕ (a ∗ b) = ϕ (a) • ϕ (b) ∀a, b ∈ E (H )

2 ( f ◦ g)(x) = f (g(x))

470
Publicación digital de Editorial Equinoccio
B O PERACIONES BINARIAS

Por ejemplo, consideremos la estructura (R+ , ·) de los números re-


ales > 0 con respecto al producto y la estructura aditiva de los reales
(R, +). La función logaritmo log : R + → R es un homomorfismo.
Si hay más operaciones en E e igual número de ellas en G, como
en el caso de los cuerpos, ϕ debe cumplir esta propiedad para cada
pareja de operaciones de lado y lado. Por ejemplo, si se tiene (E, ∗, ⊗)
y (G, •, ), entonces ϕ debe satisfacer, además de (H ),

ϕ (a ⊗ b) = ϕ (a)  ϕ (b) ∀a, b ∈ E

Y en caso de que las estructuras estén provistas de una ley de com-


posición externa bajo el mismo conjunto de escalares F, se exige

ϕ (λ a) = λ ϕ (a) ∀a ∈ E , ∀λ ∈ F

Si ϕ es inyectiva, decimos que se trata de un monomorfismo; y si


ϕ es sobreyectiva, nos referimos a ella como un epimorfismo. A un
homomorfismo de una estructura con ella misma, ϕ : E → E, le decimos
endomorfismo.
Un homomorfismo ϕ entre (E, ∗) y (G, •) se denomina isomorfismo
si la función ϕ es biyectiva. Decimos entonces que las estructuras (E, ∗)
y (G, •) son isomorfas y, en ese caso, podemos considerarlas idénticas
a todos los efectos algebraicos; la naturaleza de los elementos de E
puede ser muy distinta a la de los de G así como la naturaleza de las
operaciones, pero el comportamiento algebraico de una y otra estructura
es el mismo.
Si ϕ : E → G es un isomorfismo, la función inversa ϕ −1 : G → E
también lo es. En efecto, para todo par de elementos a , b ∈ G,

ϕ [ϕ −1 (a ) ∗ ϕ −1 (b )] = ϕ [ϕ −1 (a )] • ϕ [ϕ −1 (b )] = a • b


=⇒ ϕ −1 (a • b ) = ϕ −1 (a ) ∗ ϕ −1 (b )

Y si existe una ley de composición externa en E y en G bajo el


mismo conjunto F de escalares, tenemos, para todo a  ∈ G y todo λ ∈ F,

ϕ [λ ϕ −1 (a )] = λ ϕ [ϕ −1 (a )] = λ a =⇒ ϕ −1 (λ a ) = λ ϕ −1 (a )

471
Publicación digital de Editorial Equinoccio
A PÉNDICES

El ejemplo del logaritmo (arriba) es un isomorfismo entre (R + , ·)


y (R, +), pues sabemos que la función log es biyectiva y su función
inversa3 es exp : R → R+ (exp(x) = ex ).
Cuando el isomorfismo es de una estructura con ella misma, ϕ : E →
E, lo llamamos automorfismo . 4
Un ejemplo muy sencillo de automorfismo lo proporciona el cuerpo
de los complejos (C, +, ·) con la biyección ψ : C → C tal que, para todo
a + bi ∈ C, hacemos ψ (a + bi) = a − bi (el conjugado de a + bi). Es un
ejercicio bien trivial demostrar que ψ es un homomorfismo (hay que
probarlo para la suma y para el producto).
Por último, si ϕ : E → G y η : G → H son homomorfismos, es in-
mediato que el compuesto η ◦ ϕ : E → H es un homomorfismo.

3 Suponemos que la base de logaritmos es e, aunque lo mismo da si fuese cualquier


real > 1.
4 No es el caso de log, pues es un isomorfismo entre estructuras distintas.

472
Publicación digital de Editorial Equinoccio
C E STRUCTURAS COCIENTES

C Estructuras cocientes
Sea un conjunto E = ∅ provisto de una operación binaria ∗ y de una
relación de equivalencia ∼.
Decimos que la operación ∗ es estable con respecto a ∼ si cumple
la siguiente propiedad:

(a ∼ a ) ∧ (b ∼ b ) =⇒ a ∗ b ∼ a  ∗ b (Φ)

Si E está provisto de una ley de composición externa cuyo conjunto


de escalares es F, decimos que la ley externa es estable con respecto a
∼ si se satisface la propiedad

a ∼ a =⇒ λ a ∼ λ a (∀λ ∈ F) (Ψ)

La importancia crucial de la propiedad (Φ) es que permite que ∗


induzca una operación binaria ⊗ sobre el conjunto cociente definida del
siguiente modo
E
a ⊗ b = a∗b ∀ a, b ∈

Esta definición da lugar a una aparente ambigüedad, ya que si toma-
mos a ∈ a y b ∈ b vamos a tener a = a , b = b y, para que la operación
⊗ esté bien definida, debe tenerse que a ∗ b = a ∗ b, pero esto podemos
asegurarlo en virtud de (Φ), pues a ∼ a y b ∼ b y aplicamos el Lema
A.1.
En el caso de la ley externa, gracias a (Ψ) podemos definir una ley
externa inducida en el conjunto cociente de esta manera

λa = λa ∀a ∈ E , ∀λ ∈ F

Entonces, si a ∈ a tenemos que a = a y debe tenerse λ a = λ a, lo


cual viene de (Ψ) pues a ∼ a y aplicamos nuevamente el Lema A.1.
Propiedades usuales de la operación binaria ∗ se transmiten o, si se
quiere expresar así, son heredadas por la operación inducida ⊗.

473
Publicación digital de Editorial Equinoccio
A PÉNDICES

1. ∗ asociativa =⇒ ⊗ asociativa
prueba:

(a ⊗ b) ⊗ c = (a ∗ b) ⊗ c
= (a ∗ b) ∗ c = a ∗ (b ∗ c)
= a ⊗ (b ∗ c) = a ⊗ (b ⊗ c)

2. ∗ conmutativa =⇒ ⊗ conmutativa
prueba: a ⊗ b = a ∗ b = b ∗ a = b ⊗ a

3. e ∈ E es neutro respecto a ∗ =⇒ e es neutro respecto a ⊗


prueba: a ⊗ e = a ∗ e = a y análogamente e ⊗ a = a

4. si existe neutro e en (E, ∗) y a ∈ E admite inverso c, entonces a


tiene a c por inverso con respecto a ⊗.
prueba: a ⊗ c = a ∗ c = e y análogamente c ⊗ a = e

Comentario C.1. Es muy importante destacar que estas propiedades


se transmiten sólo en la dirección indicada. Es decir, la operación in-
ducida ⊗ puede gozar de propiedades (como cualquiera de las señala-
das y otras) que no son compartidas por ∗.
Por ejemplo, la estructura cociente puede tener elemento neutro sin
que lo posea (E, ∗); y la ley inducida ⊗ puede ser conmutativa sin que
lo sea ∗. En esta obra se presentan varias situaciones así.
Un ejemplo interesante, caso particular de resultados que son trata-
dos en este libro, lo constituye el conjunto Z de los enteros provisto de
la congruencia módulo m > 1 que se examinó en el Apéndice A. Ocurre
que Z es una estructura con dos operaciones binarias, suma y producto,
cuyas propiedades nos son familiares; (Z, +, ·) es lo que llamamos un
dominio de integridad, estructura que se estudia en el Capítulo 5.
En el Apéndice A se vio que el conjunto cociente Zm es finito y
constituido por {0, 1, . . . , m − 1}.

474
Publicación digital de Editorial Equinoccio
C E STRUCTURAS COCIENTES

Ocurre que la suma y producto en Z son estables con respecto a la


congruencia.
En efecto,

(a ≡ a ) ∧ (b ≡ b ) =⇒ (a − a = ṁ) ∧ (b − b = ṁ)

luego,

(a + b) − (a + b ) = (a − a ) + (b − b) = ṁ =⇒ a + b ≡ a + b
ab − a b = (a − a )b + (b − b)a = ṁ =⇒ ab ≡ a b

El conjunto cociente adquiere pues una estructura (Zm , +, ·) con res-


pecto a las operaciones inducidas por la suma y producto en Z, que
designamos por los mismos símbolos por sencillez.
En virtud de la herencia de propiedades por las operaciones induci-
das, podemos afirmar que (Zm , +) es un grupo abeliano, donde el 0 es
el neutro; y el producto en Zm es asociativo y conmutativo con neutro 1.
Pero en Zm pueden ocurrir cosas que no pasan en la estructura de Z. Por
ejemplo, si m = 30, tenemos que 6 · 5 = 30 = 0 y 7 · 13 = 91 = 1, lo cual
ilustra que el producto de dos elementos distintos de 0 en Z m puede ser
0, y que algún elemento de Zm , distinto de 1 y de −1 = m − 1, puede
tener inverso con respecto al producto.
También una ley externa estable transmite muchas de sus propieda-
des a la ley externa inducida. Cabe la misma observación anterior sobre
la invalidez de la herencia inversa.
Dada una estructura (E, ∗) cuya operación ∗ es estable con respecto
a una relación de equivalencia ∼ sobre E, se establece, de modo natu-
ral, el homomorfismo canónico, también llamado proyección canónica,
E
π : E → tal que π (x) = x (∀x ∈ E)

—que π es un homomorfismo viene a ser lo mismo que repetir la propia
definición de la operación inducida ⊗.
Si E está provisto de una ley externa, también estable con respecto
a ∼ , es inmediato que π es un homomorfismo que comprende la ley
externa en E y la inducida por ésta en la estructura cociente.

475
Publicación digital de Editorial Equinoccio
B IBLIOGRAFÍA

[1] Adkins, William A. & Weintraub, Steven H. Algebra: An Approach


via Module Theory, Springer 1992

[2] Atiyah, M. F. & MacDonald, I. G. Introduction to Commutative


Algebra, Addison-Wesley 1969

[3] Birkhoff G. & MacLane S. A Survey of Modern Algebra, MacMil-


lan 1961

[4] Blyth, T. S. Module Theory: an approach to linear algebra, Oxford


University Press 1977

[5] Bourbaki, N. Commutative Algebra, Addison-Wesley 1972

[6] Burton, D. M. A First Course in Rings and Ideals, Addison-Wesley


1970

[7] Curtis, Morton L. Abstract Linear Algebra, Springer 1990

[8] Fine, B. & Rosenberger, G. The Fundamental Theorem of Algebra,


Springer 1997

[9] Goldhaber, J. K. & Ehrlich, G. Algebra, MacMillan 1970

[10] Greub, W. H. Linear Algebra, Springer (3rd ed.) 1967

[11] Halmos, Paul. Finite-dimensional Vector Spaces, Van Nostrand


(2nd ed.) 1958

[12] Halmos, Paul. Lectures on Boolean Algebras, Van Nostrand 1967

477
Publicación digital de Editorial Equinoccio
B IBLIOGRAFÍA

[13] Hartley, B. & Hawkes, T. O. Rings, Modules and Linear Algebra,


Chapman and Hall 1970
[14] Hoffman, K. & Kunze, R. Linear Algebra, Prentice-Hall 1961
[15] Iribarren, Ignacio L. “Sobre el Teorema Fundamental del Álge-
bra,” Boletín de la Academia de Ciencias Físicas, Matemáticas y
Naturales, Caracas, Vol. LXVI No. 1-2 (Abril, 2006), págs. 9-14
[16] Jacobson, N. Lectures in Abstract Algebra. Vol. I & II, Van Nos-
trand 1953-61
[17] James, Ioan. Remarkable Mathematicians, (MAA) Cambridge
Univ. Press 2004
[18] Kleiner, Israel. A History of Abstract Algebra, Birkhäuser, Boston
2007
[19] Lang, Serge. Algebra, Addison-Wesley 1965
[20] MacLane, S. & Birkhoff, G. Algebra, MacMillan 1970
[21] McCoy, Neal H. The Theory of Rings, MacMillan 1968
[22] Nomizu, K. Fundamentals of Linear Algebra, McGraw-Hill 1966
[23] Northcott, D. G. Lessons on Rings, Modules and Multiplicities,
Cambridge University Press 1968
[24] Ribenboim, Paulo. Rings and Modules, Interscience 1969
[25] Roman, Steven. Advanced Linear Algebra, Springer (2nd ed.)
2005
[26] Serre, Jean-Pierre. A Course in Arithmetic, Springer 1973
[27] Stewart, Ian. Galois Theory, Chapman & Hall (3rd. ed.) 2004
[28] van der Waerden, B. L. Algebra, Vol. I, Frederick Ungar (7th ed.)
1973

478
Publicación digital de Editorial Equinoccio
Í NDICE

Abel, N. H., 467 combinación lineal, 22, 232


abeliano, 467 complejos conjugados, 397
algoritmo complemento ortogonal, 408
de división entera, 189 congruencia, 466
de Euclides, 192 conjugación, 397
anillo, 163 conjunto
abeliano, 164 cociente, 465
booleano, 168 ortogonal, 402
con neutro, 164 ortonormal, 402
de división, 166 coordenada, 32, 35
noetheriano, 183, 207 cuerpo, 166, 470
trivial, 164 algebraicamente cerrado, 205,
aniquilador, 66 330
automorfismo, 174, 472
DE, 188
base, 28, 232 dependencia lineal, 27, 231
canónica, 35 descomposición de Dunford, 351
de Jordan, 316 desigualdad de Schwarz, 400
dual, 59 determinante, 122
ortogonal, 405 determinante adjunto, 141
ortonormal, 403 diferencia simétrica, 169
bilineal, 399 dimensión, 30
Boole, George, 168 cero, 30
dimensión finita, 27
Cauchy, Augustin-Louis, 121, 296 DIP, 179
Cayley, A., 336 división entera, 179
clase de equivalencia, 464 divisibilidad, 176
cofactor, 123

479
Publicación digital de Editorial Equinoccio
Í NDICE

divisor de cero, 165 canónica de Jordan, 330


dominio canónica racional, 324
de ideal principal, 179 canónica racional prima-
de integridad, 166, 176 ria, 323
euclideano, 188 de Jordan, 329
normal de Smith, 282
ecuaciones lineales, 104 Fréchet, M., 409
elemento función
idempotente, 168 euclídea, 278
irreducible, 178 euclidea, 188
nilpotente, 210 funcional, 58
primo, 178
reducible, 178 Gauss, C. F., 121, 169, 206
elementos asociados, 177 grado de un polinomio, 198
endomorfismo, 174, 471 Gram-Schmidt
enteros gaussianos, 169 proceso de, 405
entrada delantera, 98 grupo, 166, 469
epimorfismo, 174, 471 grupo unitario, 448
canónico, 226
Hamilton, W. R., 336
espacio
Hermite, Charles, 418
dual, 58
homomorfismo, 174, 470
euclídeo, 399
canónico, 475
normado, 402
vectorial, 18 ideal, 170
vectorial cociente, 26 maximal, 207, 237
espacios isométricos, 447 principal, 170
espectro, 340 independencia lineal, 27, 231
estructura algebraica, 467, 469 integridad, 166
expansión de Laplace, 152 inyección canónica, 43, 226, 284
isometría, 447
factores invariantes, 267
isomorfismo, 49, 174, 471
FG, 221
Fibonacci Jordan
sucesión de, 374 base de, 316
forma forma canónica de, 330
canónica, 80, 465 forma de, 329

480
Publicación digital de Editorial Equinoccio
Jordan, C., 327, 330 semejante, 83
simétrica, 68
K-invariantes, 99 similar, 94
K (k1 , . . . , kr ), 99 traspuesta, 67, 86, 131
kernel, 42, 174, 226 traspuesta conjugada, 414
Laplace, P. S., 148 triangular inferior, 124
L (E, E), 57 triangular superior, 124
Leibniz, Gottfried, 121 menor, 148
ley de composición menor complementario, 122
externa, 468 monomorfismo, 174, 471
interna, 467 Noether, Emmy, 183
ley de recurrencia, 374
L (E, G), 55 operación binaria, 467
libre de torsión, 233 orden, 248

máximo común divisor, 185 partición, 465


módulo, 214 polinomio, 195, 197
cíclico, 218 característico, 332
cociente, 223 constante, 197
FG (generador finito), 221 mónico, 201
irreducible, 263 minimal, 306
libre, 232 primos relativos, 186
noetheriano, 245 producto cartesiano, 463
primario, 252 producto interior, 397
mínimo común múltiplo, 187 proyección, 44
matriz, 67 proyección canónica, 43, 226, 475
compañera, 313 proyección ortogonal, 427
diagonal, 74, 343 raíz, 204
elemental, 90, 278 rank, 74, 81, 88, 237
equivalente, 80, 276 relación
identidad, 72, 272 binaria, 463
no-singular, 72, 272
de equivalencia, 464
orto-semejante, 453 resolución espectral, 430
ortogonal, 451 Riesz, F., 409
reducida escalonada, 99 Ruffini, 204

481
Publicación digital de Editorial Equinoccio
Í NDICE

Schwarz, Hermann, 400 identidad, 42


Smith, H. J. S., 282 nilpotente, 350
solución particular, 109 no-singular, 49
Stone, M. H., 169 normal, 418
subanillo, 169 singular, 50
subespacio, 21 unitaria, 446
afín, 39 traza, 114, 384
cíclico, 309
generado, 21 valor característico, 340
invariante, 301 vector característico, 340
submódulo, 217 vectores ortogonales, 402
complementable, 243 Wedderburn, J. H. M., 166
generado, 218 Weierstrass, Karl, 121
suma directa, 23, 218
suma orto-directa, 407

Teorema
espectral, 430
Fundamental de la Aritmética,
184
Fundamental del Álgebra, 206
Teorema de
descomposición primaria, 252
Cayley-Hamilton, 336
representación de Riesz, 411
Riesz-Fréchet, 409
torsión, 233
transformación
adjunta, 412
autoadjunta, 418
diagonalizable, 83, 342
dual, 84
elemental, 89, 276
hermítica, 418
idempotente, 427

482
Publicación digital de Editorial Equinoccio
C O L E C C IÓ N C O N J U NTA A C F I M A N / U SB

Ignacio L. Iribarren profesor


titular (jubilado) de la Univer-
sidad Simón Bolívar, con más
de cuarenta años de experiencia
docente en cursos de pre y post-
grado en casi todas las ramas
de la matemática. Recibió su
formación y títulos académicos
en la Universidad de Oxford La La literatura sobre álgebra lineal es abundante: existen
durante la década de los sesenta, textos a todos los niveles y para casi todos los gustos y pro-
y comenzó su carrera profesoral pósitos. Esta obra apela a un lector a quien le gusta el ra-
por concurso en la Facultad de zonamiento matemático y no se conforma con un recetario
Ingeniería de la Universidad y una lista de trucos para resolver problemas. Se quiere in-
Central de Venezuela. Es profe- teresar a aquel que exige saber el porqué de las cosas, para
sor fundador de la USB donde quien una demostración es indispensable, porque anhela
fuera el primer jefe del Departa- entender el fenómeno.
mento de Matemáticas, primer Este libro puede ser empleado como texto u obra de
director de la División de Física
consulta en cursos universitarios de álgebra lineal, con un
y Matemáticas y vicerrector aca-
énfasis en el rigor matemático. Comprende la parte básica
démico. Rector de la Universidad
Metropolitana en Caracas (1985-
y elemental de espacios vectoriales, transformaciones linea-
1994) e Individuo de Número de les, bases y matrices, sistemas de ecuaciones lineales y de-
la Academia de Ciencias Físicas, terminantes, y más adelante entra en la teoría de las formas
Matemáticas y Naturales desde canónicas racional y de Jordan, aplicando propiedades de
1986, la cual presidió por dos pe- módulos, a cuyo tratamiento se dedica una parte de la obra.
ríodos consecutivos (1997-2001). A todos los resultados teóricos siguen métodos y algoritmos
Iribarren es autor de numerosas eficaces para calcularlos. Los únicos conocimientos requeri-
publicaciones divulgativas y dos son una familiarización con la notación y manipulación
especializadas, entre ellas los de conjuntos, así como un buen dominio del principio de
libros Topología de espacios mé- inducción. En cuanto a conocimientos básicos de álgebra, lo
tricos (Editorial Limusa-Wiley,
necesario está contenido en los apéndices al final del libro.
México), Cálculo diferencial en
espacios normados y Un segundo
curso de integración. La integral
de Henstock-Kurzweil (ambos en
Equinoccio).

También podría gustarte