100% encontró este documento útil (2 votos)
584 vistas132 páginas

Introducción al Álgebra Lineal

Este documento presenta un resumen de tres oraciones del libro "Álgebra Lineal" de Alonso Takahashi: 1. El libro introduce conceptos básicos de álgebra lineal como espacios vectoriales, transformaciones lineales, sistemas de vectores y bases en menos de cien páginas. 2. Explica métodos como la eliminación gaussiana para resolver sistemas de ecuaciones lineales, y la noción de dimensión, rango y nulidad de transformaciones lineales y matrices. 3. También cubre temas como autovalores,

Cargado por

Andres felipe
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
100% encontró este documento útil (2 votos)
584 vistas132 páginas

Introducción al Álgebra Lineal

Este documento presenta un resumen de tres oraciones del libro "Álgebra Lineal" de Alonso Takahashi: 1. El libro introduce conceptos básicos de álgebra lineal como espacios vectoriales, transformaciones lineales, sistemas de vectores y bases en menos de cien páginas. 2. Explica métodos como la eliminación gaussiana para resolver sistemas de ecuaciones lineales, y la noción de dimensión, rango y nulidad de transformaciones lineales y matrices. 3. También cubre temas como autovalores,

Cargado por

Andres felipe
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

Algebra Lineal

Machu Picchu, octubre de 1979


Algebra Lineal

Alonso Takahashi
Profesor Emérito
Departamento de Matemáticas – Facultad de Ciencias

Universidad Nacional de Colombia


Algebra Lineal

Takahashi Orozco, Alonso R.


Algebra Lineal
512.5 2002

c Alonso Takahashi
!
Facultad de Ciencias
Universidad Nacional de Colombia

Primera reimpresión, 2002


ISBN 958-628-080-2

Portada: Clara I. Bermúdez S.


Con detalle de un grabado de Maurits Cornelis Escher.

Impresión:
Unibiblos
Universidad Nacional de Colombia
Bogotá, D.C.
COLOMBIA
Prefacio

Esta es una obra introductoria, orientada a exponer nociones, procedimien-


tos y resultados básicos. Su propósito no es el desarrollo completo y mi-
nucioso de una materia sino la organización de un trabajo autónomo de
lectura; en lugar de suplantar al profesor y al estudiante se ha buscado
conseguir un lector.

Manteniendo un nivel elemental, y en poco más de cien páginas, se han


destacado los aspectos que hacen del álgebra lineal una materia privile-
giada: su simplicidad conceptual, en contraste con su poder casi sorpren-
dente; la naturaleza geométrica de sus nociones cuya ulterior algebrización
permite aplicarlas en los ámbitos más diversos; el carácter algorı́tmico de
sus procedimientos y, en especial, la magia de la forma escalonada.

En la selección de cada tema y en su presentación se ha intentado


revelar la esencia del asunto con el fin de configurar un núcleo alrededor
del cual se puedan estructurar distintos cursos de acuerdo con necesidades
especiales. No se dan muchos pormenores en las deducciones pero se ha
realizado un esfuerzo considerable para señalar en cada caso los puntos
de partida y el camino a seguir para llegar a las conclusiones enunciadas.
Aunque no hay ejercicios explı́citos, la lectura del texto es en sı́ misma un
ejercicio continuo del cual hace parte la verificación de los ejemplos, los
cuales esperan, en su mayorı́a, una elaboración por parte del lector. El
resultado es un texto cuya lectura supone mucha escritura.

En el conocimiento genuino de un tema, ası́ como en los seres más or-


ganizados, pueden distinguirse tres componentes: un esqueleto, un sistema
muscular y un fluido vital. Este libro tiene más de lo primero que de lo
-3

segundo y, por ello, necesita ser complementado con problemas rutinarios,


extensiones de la teorı́a, desarrollos especı́ficos y aplicaciones. Lo tercero
sólo puede aportarlo, por supuesto, el lector.

Para facilitar el uso del libro se incluye una tabla de abreviaturas y


sı́mbolos y un ı́ndice alfabético detallado. Las fórmulas se numeran dentro
de cada sección; por ejemplo, (2), §19 (o §19, (2)), se refiere a la ecuación
(2) de la sección 19, mientras que (2), §36 es la ecuación (2) de la sección 36;
cuando la referencia tiene lugar en la misma sección ésta no se menciona.

La realización de este trabajo contó con el apoyo del Departamento de


Matemáticas de la Universidad Nacional. Al profesor Gustavo Rubiano le
agradezco el estı́mulo y la ayuda para llevar a cabo esta edición.
Índice

Prefacio -4

Preliminares 1

1 Eliminación 9
§ 1 Soluciones de ecuaciones lineales . . . . . . . . . . . . . . . 9
§ 2 Problemas equivalentes . . . . . . . . . . . . . . . . . . . . . 10
§ 3 Notaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
§ 4 El método de eliminación . . . . . . . . . . . . . . . . . . . 12
§ 5 Descripción general del método de eliminación . . . . . . . 17
§ 6 Conclusiones . . . . . . . . . . . . . . . . . . . . . . . . . . 21
§ 7 Comentarios . . . . . . . . . . . . . . . . . . . . . . . . . . . 21

2 Dimensión 23
§ 8 Espacios vectoriales . . . . . . . . . . . . . . . . . . . . . . 23
§ 9 Subespacios . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
§ 10 Transformaciones lineales e isomorfismos . . . . . . . . . . . 25
§ 11 Sistemas de vectores. Combinaciones lineales . . . . . . . . 27
§ 12 La transformación asociada a un sistema . . . . . . . . . . . 28
§ 13 Generación . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
§ 14 Libertad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
§ 15 Bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
§ 16 Sistemas equivalentes . . . . . . . . . . . . . . . . . . . . . . 35
§ 17 Rango . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37

3 Linealidad 39
§ 18 Álgebra de transformaciones . . . . . . . . . . . . . . . . . . 39
§ 19 Álgebra de matrices . . . . . . . . . . . . . . . . . . . . . . 40
§ 20 Transformaciones y matrices . . . . . . . . . . . . . . . . . . 44
§ 21 Nulidad y rango . . . . . . . . . . . . . . . . . . . . . . . . 45
§ 22 Inversión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
§ 23 Cambio de base . . . . . . . . . . . . . . . . . . . . . . . . . 47

-2
ÍNDICE -1

§ 24 Matrices elementales . . . . . . . . . . . . . . . . . . . . . . 48
§ 25 Formas bilineales . . . . . . . . . . . . . . . . . . . . . . . . 50

4 Diagonalización 52
§ 26 Autovalores y autovectores . . . . . . . . . . . . . . . . . . 53
§ 27 Operadores y matrices diagonalizables . . . . . . . . . . . . 56
§ 28 Descomposición espectral . . . . . . . . . . . . . . . . . . . 58
§ 29 Diagonalización simultánea . . . . . . . . . . . . . . . . . . 58

5 Ortogonalidad 60
§ 30 Producto interno . . . . . . . . . . . . . . . . . . . . . . . . 60
§ 31 Proyección ortogonal de un vector sobre otro . . . . . . . . 62
§ 32 Proyección ortogonal de un vector sobre un subespacio . . . 64
§ 33 Ortonormalización . . . . . . . . . . . . . . . . . . . . . . . 65
§ 34 Bases ortonormales . . . . . . . . . . . . . . . . . . . . . . . 65
§ 35 Proyecciones ortogonales . . . . . . . . . . . . . . . . . . . . 66
§ 36 Diagonalización ortonormal . . . . . . . . . . . . . . . . . . 67
§ 37 Representación de funcionales. Adjunción . . . . . . . . . . 68
§ 38 El álgebra L(U) . . . . . . . . . . . . . . . . . . . . . . . . . 70
§ 39 Formas sesquilineales . . . . . . . . . . . . . . . . . . . . . . 72

6 Normalidad 74
§ 40 Operadores normales . . . . . . . . . . . . . . . . . . . . . . 74
§ 41 El teorema espectral . . . . . . . . . . . . . . . . . . . . . . 75
§ 42 Operadores autoadjuntos, unitarios y positivos . . . . . . . 76
§ 43 Matrices simétricas . . . . . . . . . . . . . . . . . . . . . . . 79
§ 44 Matrices ortogonales . . . . . . . . . . . . . . . . . . . . . . 80
§ 45 Matrices positivas . . . . . . . . . . . . . . . . . . . . . . . 81

7 Aplicaciones 84
§ 46 Rectas y planos . . . . . . . . . . . . . . . . . . . . . . . . . 84
§ 47 Proyecciones y mı́nimos cuadrados . . . . . . . . . . . . . . 87
§ 48 Ángulos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
§ 49 Volúmenes . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
§ 50 El producto externo en R3 . . . . . . . . . . . . . . . . . . . 91
§ 51 Aplicaciones a la estadı́stica . . . . . . . . . . . . . . . . . . 92

Apéndice 97
§ 52 Determinantes . . . . . . . . . . . . . . . . . . . . . . . . . 97
§ 53 La forma de Jordan . . . . . . . . . . . . . . . . . . . . . . 105
§ 54 Soluciones óptimas . . . . . . . . . . . . . . . . . . . . . . . 110

Sı́mbolos y abreviaturas 114


0 ÍNDICE
Preliminares

En esta sección se recuerdan varias nociones y se establecen algunas con-


venciones.

Demostraciones. En el tratamiento cotidiano de la matemática la for-


malización completa es, de hecho, inabordable. No hay una descripción
rigurosa del rigor; una demostración se considera válida cuando hace ver
la certeza de sus afirmaciones a un público convenientemente familiariza-
do con los términos y las relaciones empleados y con los procedimientos
aceptados para su encadenamiento.

Definiciones. Los términos técnicos tienen como fin abreviar el texto. Su


adopción se indica destacándolos tipográficamente y fijando su sentido
la primera vez que aparecen.

Funciones. Una función T de un conjunto U en un conjunto V asigna


a cada elemento u de U un elemento, bien determinado, v de V, el cual se
llama la imagen de u por T , o el valor de T en u y se denota T (u) o T u.
Para aludir a esta situación se usan notaciones como
T
U −→ V , v = Tu .
T S
Dadas U −→ V y V −→ W, se define la función compuesta S ◦ T (o,
simplemente ST ),
ST ! W
U

1
2 PRELIMINARES

conviniendo que, para cada u de U:

(ST )(u) = S(T (u)).


T S R
De acuerdo con esta definición, si U −→ V −→ W −→ X entonces

R(ST ) = (RS)T.

Para cada conjunto U existe una única función R, de U en U, tal que,


cualesquiera sean T y S, si
T S
X −→ U −→ Y ,

entonces RT = T y SR = S. Esta función R se llama la identidad de U,


se denota 1 (ó 1U , si hay lugar a confusión) y está definida por 1(u) = u
(para todo u de U).

Si T : U −→ V es una función y M ⊂ U, la imagen de M por T es


el subconjunto T &M' de V formado por las imágenes de los elementos de
M. La imagen de U se llama el recorrido de T y se denota RT . Para
todo v de V se tiene que

v ∈ RT si y sólo si existe un u en U tal que v = T (u) .

A menudo escribiremos &T ' en lugar de RT . Cuando RT = V se dice


que T es sobreyectiva. Por otra parte, si siempre que u1 )= u2 se tiene
que T (u1 ) )= T (u2 ) (es decir, si T (u1 ) = T (u2 ) implica u1 = u2 ), se
dice que T es inyectiva. Cuando T es inyectiva y sobreyectiva se dice
que es biyectiva; en este caso, cada elemento v de V determina un único
elemento u de U tal que T (u) = v. Se define ası́ una función T −1 : V −→ U,
la inversa de T , tal que, para todo u de U y todo v de V:

u = T −1 (v) si y sólo si T (u) = v .

Si dos funciones, T : U −→ V y S : V −→ U, son tales que ST = 1U


entonces T es inyectiva y S es sobreyectiva.

De una función T de U en U se dice que es un operador en U; un


subconjunto M de U es T –invariante si T &M' ⊂ M. En este caso T
puede considerarse como un operador en M, esto es, T define, de manera
obvia, un operador en M, a saber, la restricción de T a M.
VECTORES GEOMÉTRICOS Y SU REPRESENTACIÓN ANALÍTICA 3

Vectores geométricos y su representación analı́tica. En el plano


los vectores se representan por medio de segmentos orientados (flechas).
Se considera que dos flechas representan el mismo vector si son paralelas y
tienen la misma longitud y sentido (cfr. § 46). Dados dos vectores a y b, y
un escalar t, la suma a + b corresponde a la diagonal del paralelogramo M
determinado por a y b (ley del paralelogramo); el producto ta es el vector
paralelo a a, cuya longitud es |t| veces la longitud de a y cuyo sentido es
igual u opuesto al de a según que t > 0 ó t < 0. Por último, el producto
interno a · b, escrito también &a, b', es igual al producto de la longitud de
a por la longitud de b por el coseno del ángulo entre a y b.

Llamando U al plano e introduciendo un sistema rectangular de coorde-


nadas cartesianas, cada vector está representado por una flecha que parte
del origen, pudiendo entonces identificarse con un punto del plano (el ex-
tremo de la flecha). En consecuencia, los vectores del plano pueden repre-
sentarse analı́ticamente por medio de parejas ordenadas de números:

a = (x, y) , b = (u, v) , etc.

Estas parejas son ordenadas porque

a = b si y sólo si x = u y y=v . (1)

La pareja (0, 0) es el vector cero y se denota 0.

Consideraciones geométricas sencillas revelan la expresión analı́tica de


las operaciones, a saber:

a + b = (x, y) + (u, v) = (x + u , y + v) (2)

ta = t(x, y) = (tx, ty) , (3)

y la fórmula para cos(α − β) muestra que

a · b = xu + yv . (4)

Por último, la longitud *a* del vector a viene dada por


!
*a* = x2 + y 2 . (5)
4 PRELIMINARES

Los vectores unitarios


e1 = (1, 0) y e2 = (0, 1)
permiten escribir un vector cualquiera a = (x, y) en la forma
a = xe1 + ye2 .
Transformaciones. Una transformación τ del plano transforma cada
punto a del plano en un punto b del plano (el cual puede coincidir con el
primero). En otros términos, τ es un operador en el plano U, y puede
visualizarse por medio de diagramas como el de la figura 1.
......................
........ ......
. . ...... .
..... . . . ....
y ............... y ................ . ... . . . . .....
.
.... .................................
U .
.
. ...
.. . . . . . ..
... . . . . . . ......
. . . . U.
..
... .................. .... ...
... ......... . . . . . ............ .
. ... . . . . . . .....
. . . . . . ..
.... . . . . . . ....... ....
...
...
...
... . . . . . . .....
.... . . . . . . ...
.... .
τ
...............................................................
...
.
. ...
...
...
...
.
...
... . . . . . ....
.
.
............................................... . .
... . . ................. . . ....
. . .
.
..
... ..... . . . . . . .... .............................. ....
..... . . . . . ... ..................................... ... . . . . . ...
...
...
...
..... . . . . ...................
..... . . ............... ...
... ...
.... ............... . . ...
.
.
.
.
.
.
....
..
.... . . . . ...
.
... . . . . . ....
τ &M'
... ... ... . .............. . . . . . . ....
...
... a
... . . . . ..
...
.. ............ . ......
. ...
...
b ... ....
..... .......... . . . . ....
.
... ..
........... . . . ... ... ... ...... . . . . ...
... M
.................... . . .......... ..
.... .....
......... . . . . ....
. . . ......
... ........... .
........ ..... ...
... ....... ......................... ... ..... .......... . . ..........
... ....... ... ..... .......... .........
....... ..... ..........
... ............ ... .........
.. ..... .. ....
................................................................................................................................................................ .............................................................................................................................................................................................
.... ....
. x . x
Figura 1

Supongamos, por ejemplo, que ρ es una rotación de 30o en sentido


positivo, esto es, ρ es la transformación que a cada vector lo hace girar
30o en sentido contrario al de las agujas del reloj, y que π es la proyección
(ortogonal) sobre la recta y = x. Pueden, entonces, considerarse las trans-
formaciones ρπ , πρ, ρ2 (= ρρ), ρ3 , π 2 , etc; también ρ−1 (pero no π −1 ).
Tomando por ejemplo, a = (−1, 11) y usando un poco de geometrı́a y
trigonometrı́a se puede ver que
5 √ √
ρπ (a) = ( 3 − 1, 3 + 1) y
2
1 √
πρ(a) = (5 3 − 6) (1, 1) .
2
Observaciones elementales permiten representar y manipular más efi-
cientemente estas transformaciones: considerando el paralelogramo M de-
terminado por dos vectores a y b y su imagen ρ &M' bajo la rotación ρ
(ver figura 2), se ve que:
ρ(a + b) = ρa + ρb .
TRANSFORMACIONES 5

Análogamente se observa que

ρ(ta) = tρa
para cualquier vector a y cualquier número t.

ρ(a + b)
......
............
........ ..
....................
" "
ρ&M' ..
.
.... ... . . ...
.... . . .. . . . ..
.... . ...... . . . ....
..... . . ... . . . . ...
..... . ........... ...... .......
ρ ......................
............. ......
.
..
. .. .
..... .. . . ....... . .... . . ......
..... . . . . ..... . . . .. . . . ...
. .
........ ....... ..... . . . .. . ... . . . . . . . . . ..
...... ...... . .......... ...... . ...... . ....
.............
......................
............. . ...... ..
.....................................
a+b
. .
.
... . . . . . .... . . . . . . . . . ..
..... . . . . . ... . . . . . . . . . ..
.... . . . . . . . ... . . . . . . . . . . .........
ρ(a) .........
.... .... .... ..
.... .... ... .... ...
..
...
...
..
.. . . . . .. . . . . .. ........ ........ ......... . ...... . ...... ................. .... .... .
.............. . . . . ...... . . ... . .
..... . . . .. . . . .. ..... . . . . . . . ............
. . .... ...
M ............ . . . . . ...... . . . . ..
............ ....................... ............ ..... . . . . . . . .... . . . . .. ..... . ...
..... . .. . . . . . . .... . ............. .. . ..... ....
....
.. M
.............. . . . . . . . . ...... . . . . . ..
b ............................................................... b
.... . . . . . . .. . . . ...... ..... . . . . .....
............. . ................................... ...... ........
...
.. .
.
..
..
....
...
..
.. . . . . . . . . . . . . ..... . . . . . . . .
................................................................................ ...
.. . . . . . . . . . . ........ . . . . . . . . . ..
ρ (b) .
.............. . ...... ................... ............
.. . . . . . . .. . .... . . . . ....
.
....
....
....
.
.

...
...
.... . . . . . . . . . ....... . . . . . . . . . . ... .. . . . . . .. . .... . . . . ..... ....
.......................................................................... ...
. .... . . . . .. . ..... . . . . ....
... .. . . . .. . .... .. . . .... . . . ...
. ..
.
.
... .................................................. ... a .... .. . . .. .... . . .. ..... ... .... .. a
........................................................................ ... . .. . .. ...... . . ...... .... . .... ......
................................................................. .... . .. ... ..... .. ...... .... .... ....
........................................................................ .... . ... ... . ................ .... ... ....
.
.. . . ....... . . . ............... ... . ...... ....... ....... ◦ .... .... ....
................................... .... ..... ....... .....30 ... ....
.. ........................... ................... .... ..... .... .
................. ! ........ .... !

Figura 2

Se puede comprobar que la transformación π también goza de estas


dos propiedades. De una función que tenga estas propiedades diremos que
es una transformación lineal.

Para conocer una transformación lineal basta conocerla en dos vectores


no colineales. Los vectores e1 y e2 constituyen un caso particularmente
simple; en efecto, si τ es una transformación lineal se tiene que, cualquiera
sea a = (x, y):

τa = τ (xe1 + ye2 ) = τ (xe1 ) + τ (ye2 ) = xτ e1 + y τ e2 .

Si escribimos τ a = (u, v) y además τ e1 = (α1 , α2 ) y τ e2 = (β1 , β2 )


se puede ver que
"
u = α1 x + β1 y
(6)
v = α2 x + β2 y .

Los cuatro números α1 , β1 , α2 , β2 determinan completamente la trans-


formación τ y constituyen su matriz,
# $
α1 β1
M=
α2 β2 ,
6 PRELIMINARES

la cual también se denota [τ ].

Nótese que los elementos que aparecen en la primera (resp. segunda)


columna de la matriz de τ son, precisamente, las componentes del vector
τ e1 (resp. del vector τ e2 ).
Conviniendo representar los vectores (x, y) en la forma
# $
x
y ,

las ecuaciones (6), las cuales expresan las componentes de la imagen τ a


en términos de las componentes del vector original a, pueden escribirse,
en forma más compacta, ası́:
# $ # $# $
u α1 β1 x
= (7)
v α2 β2 y .
Si σ es otra transformación lineal cuya matriz es
# $
ξ1 η1
L=
ξ2 η2 ,
puede comprobarse que στ es de nuevo una transformación lineal y que
su matriz K puede obtenerse a partir de L y de M mediante la siguiente
regla de multiplicación:
# $# $ # $
ξ1 η1 α1 β1 ξ1 α1 + η1 α2 ξ1 β1 + η1 β2
K = LM = =
ξ2 η2 α2 β2 ξ2 α1 + η2 α2 ξ2 β1 + η2 β2 .

Resulta entonces que [στ ] = [σ ] [τ ], entendiéndose este producto en el


sentido que acaba de indicarse. Esta forma de multiplicación es del mismo
tipo de la adoptada implı́citamente en las fórmulas (6) y (7).

Por analogı́a con los vectores, puede también definirse la suma de dos
matrices y el producto de una matriz por un número:
# $ # $ # $
ξ1 η1 α1 β1 ξ1 + α1 η1 + β1
+ =
ξ2 η2 α2 β2 ξ2 + α2 η2 + β2 ,

# $ # $
ξ1 η1 λξ1 λη1
λ =
ξ2 η2 λξ2 λη2 ·
MATRICES 7

Volviendo al ejemplo inicial, puede verse que


# √ $ # $
3/2 √−1/2 1/2 1/2
[ρ] = , [π ] =
1/2 3/2 1/2 1/2 ,

con lo cual puede calcularse, ρπ (a), para cualquier a. En efecto,


# $ # √ $# $# $
x 3/2 √−1/2 1/2 1/2 x
ρπ (a) = [ρπ ] y = 1/2 3/2 1/2 1/2 y ·

5 √ √
En particular, si a = (−1, 11) entonces ρπ (a) = ( 3 − 1 , 3 + 1).
2
Espacios euclidianos. Las consideraciones hechas en relación con el
plano pueden generalizarse introduciendo, para cada n ≥ 1, el espacio
euclidiano n–dimensional cuyos elementos son las n–plas ordenadas

(x1 , . . . , xn ) ,

de números reales, a las cuales se extienden directamente las definiciones


(1) a (5).

Matrices. Según se ha observado, la necesidad de manejar entes cuyas


caracterı́sticas numéricas no pueden disponerse eficientemente en forma de
n–plas, motiva la introducción de dispositivos más complejos: una matriz
m × n es una tabla formada por mn componentes numéricas dispuestas en
m filas y n columnas. Si A es una matriz, sus componentes se denotan
aij ó aij , lo cual se lee “a,i,j”. Nótese que aij , la (i, j)–componente de A, es
el elemento situado en el lugar (i, j), es decir, en la fila i y la columna j.
La fórmula A = [aij ] es una abreviación de
 
a11 · · · a1n
A =  · ··· · 
am1 ··· am
n ·

Denotando por ai la i–ésima fila y por aj la j–ésima columna, puede


escribirse
 1 
a
 .. 
A =  .  y también A = [a1 , . . . , an ] .
am
8 PRELIMINARES

Esto quiere decir que no queremos distinguir, por ejemplo, entre


## $ # $ # $$ # $
2 −1 0 2 −1 0
, , y
0 1 8 0 1 8 ·

El uso de superı́ndices tiene muchas ventajas y una desventaja: la


posible confusión con exponentes; los usaremos, a discreción, cuando no
exista este riesgo. Nótese que aij es la i–ésima componente de aj y la
j–ésima componente de ai .

El conjunto de todas las matrices m × n se denota Mm,n , y a él pueden


extenderse las nociones de igualdad, suma y multiplicación por escalar.

La matriz B = [bij ], donde bij = aji para todo i y todo j, es la tras-


puesta de A y se denota At . Es claro que si A está en Mm,n entonces At
está en Mn,m .

Para cada n el conjunto Mn,1 (resp. M1,n ) se denota Rn (resp. Rn ) y


sus elementos se llaman n–vectores columna (resp. n–vectores fila). El
producto de un elemento a de Rn (de componentes ai ) por un elemento x
de Rn (de componentes xi ) es la suma de los productos de las componentes
correspondientes:
 1 
x
 .. 
ax = [a1 , . . . , an ]  .  = a1 x1 + · · · + an xn . (8)
xn

Esto generaliza la convención implı́cita en las fórmulas (7) y (6).

Tanto Rn como Rn son representaciones matriciales del espacio eucli-


diano n–dimensional. Los elementos de R1 y de R1 se identifican con los
números reales: tampoco queremos distinguir entre [a] y a.

En lugar de Mn,n se escribe Mn y sus elementos se llaman matri-


ces (cuadradas) de orden n. En una matriz cuadrada A los elementos aii
forman la diagonal (principal) de A.
Capı́tulo 1

Eliminación

En este capı́tulo se describe un algoritmo, es decir, un procedimiento sis-


temático, una receta, para analizar y resolver ecuaciones lineales simultá-
neas.

§1 Soluciones de ecuaciones lineales

La expresión
−5 { }1 + 3 { }2 − { }3 = −2
es una manera, sin duda extravagante, de escribir una ecuación lineal
con tres incógnitas. Las ternas ordenadas (−17, 1, 90), (1, 2, 3), (0, 0, 2),
(2, 3, 1) son soluciones de ella. En particular, (1, 2, 3) y (2, 3, 1) son dos
soluciones distintas. En cambio (3, 1, 2) no es una solución.

En general, una ecuación lineal con n incógnitas puede escribirse en la


forma

E : a1 { }1 + · · · + an { }n = b .

Los números a1 , . . . , an son los coeficientes y b es el término inde-


pendiente. Cuando éste es cero se dice que la ecuación es homogénea.
Una solución de E es una n–pla ordenada (s1 , . . . , sn ) de números que

9
10 CAPÍTULO 1. ELIMINACIÓN

satisface la ecuación, es decir, tal que

a1 s1 + · · · + an sn = b .

Un sistema de ecuaciones lineales o problema lineal (P) consta de


un cierto número m de ecuaciones (lineales) con un cierto número n de
incógnitas y está determinado por su matriz,

(1) · · · (n)
 
a11 ··· a1n b1
 .. 
 
 · ··· · .  (P)
am
1 ··· am
n bm

donde, por ejemplo, la segunda fila

f2 : [a21 , . . . , a2n ; b2 ]

representa la segunda ecuación del problema, a saber

a21 { }1 + · · · + a2n { }n = b2 .

Una solución de (P) es una n–pla (s1 , . . . , sn ) que satisface cada una
de las m ecuaciones del problema; las soluciones de (P) constituyen su
conjunto solución. Un problema es consistente si tiene, por lo menos,
una solución. En caso contrario, es decir, cuando el conjunto solución es
vacı́o, se dice que es inconsistente.

Al sustituir por ceros todos los términos independientes se obtiene el


sistema o problema homogéneo asociado a (P); su conjunto solución se
llama el núcleo del sistema. Un problema homogéneo es siempre consis-
tente pues (0, 0, . . . , 0) es una solución (es la llamada solución trivial).

§2 Problemas equivalentes

Dos problemas se dicen equivalentes si tienen el mismo conjunto solu-


ción. Es claro que al cambiar el orden en que aparecen las ecuaciones en
§ 3. NOTACIONES 11

un problema se obtiene otro equivalente; y también que si a dos problemas


equivalentes se les agregan las mismas ecuaciones se obtienen dos proble-
mas que también son equivalentes (entre sı́). Por último, al multiplicar una
ecuación (esto es, cada uno de sus coeficientes y su término independiente)
de un problema por un número, distinto de 0, resulta otro equivalente. Dos
problemas inconsistentes son equivalentes (no hay una solución de uno de
ellos que no lo sea del otro).

Dadas dos ecuaciones

E : a1 { }1 + · · · + an { }n = h ,

F : b1 { }1 + · · · + bn { }n = k ,

y un número λ, la ecuación

E" : (a1 + λb1 ){ }1 + · · · + (an + λbn ){ }n = h + λk,

obtenida sumándole, a la primera, λ veces la segunda, se denota E +


λF . Por cómputo directo se comprueba que toda solución de E y F lo es
también de E " ; como, a su vez, E es precisamente E " + (−λ)F , se concluye
que los problemas {E, F } y {E " , F } son equivalentes. Por lo tanto: si a
una de las ecuaciones de un problema lineal se le suma un múltiplo de otra
de ellas, el nuevo problema es equivalente al original.

§3 Notaciones

Las incógnitas se denotan usualmente por medio de letras como t, x, y, etc


con o sin ı́ndices. Ası́, en la formulación matricial (P) podemos escribir
x1 , . . . , xn en lugar de (1), . . . , (n) resultando la siguiente forma explı́cita
del problema:
 1 1
 a1 x + · · · + a1n xn = b1
· ··· · ·
 m 1
a1 x + · · · + an x = b ,m n m

lo cual también puede escribirse en la forma


x1 a1 + · · · + xn an = b ,
12 CAPÍTULO 1. ELIMINACIÓN

siendo a1 , a2 , . . . , an las columnas de coeficientes y b la de términos inde-


pendientes.

Otra forma de escribir el problema es

Ax = b ,

explı́citamente
   1   
a11 · · · a1n x b1
·   ...
   . 
 · ···  =  .. 
am
1 ··· am
n xn bm ,
. /0 1 . /0 1 . /0 1
A x b
donde el producto Ax es el vector columna cuyas componentes se obtienen
multiplicando cada una de las filas de A por x. Anotemos de paso que
esta multiplicación (de una matriz m × n por un n–vector columna) goza
de las propiedades

A(x1 + x2 ) = Ax1 + Ax2 , A(λx) = λAx , (L)

según se comprueba efectuando las operaciones indicadas.

Con esta notación el problema homogéneo asociado es

Ax = 0 . (H)

Su conjunto solución y, en general, el conjunto solución de Ax = b, es


un subconjunto de Rn .

§4 El método de eliminación

Si en un problema lineal las incógnitas pueden clasificarse en dos grupos


de tal manera que cada una de las primeras (incógnitas principales) pueda
expresarse en términos de las segundas (parámetros) el conjunto solución
puede describirse inmediatamente. Ejemplo: en el problema
" √ 2
−3x1 + 2x − 6x4 + 4x5 = −1
6x2 + 2x3 + 2x4 − x5 = 4,
§ 4. EL MÉTODO DE ELIMINACIÓN 13

las incógnitas x1 y x3 pueden despejarse en términos de x2 , x4 y x5 :



2 2 4 1
x =
1
x − 2x4 + x5 +
3 3 3
1
x3 = −3x2 − x4 + x5 + 2 .
2
Las soluciones se obtienen dándole a los parámetros x2 , x4 y x5 valo-
res arbitrarios y calculando los correspondientes valores de x1 y x3 . Por
ejemplo,
√ para x2 = 3, x4 = 0 y x5 = −1/4 se obtiene la solución
( 2, 3, −57/8, 0, −1/4).

El método de eliminación consiste en transformar el problema dado


en otro equivalente y del tipo anterior. Esto se logra por medio de las
siguientes operaciones elementales, las cuales, según se observó en la
§ 2, no alteran el conjunto solución:

(I) : intercambiar ecuaciones,

(M) : multiplicar una ecuación por un número distinto de 0,

(S) : sumar a una ecuación un múltiplo de otra ecuación (del mismo


problema).

Estas operaciones corresponden a operaciones similares sobre las filas


de la matriz del problema y se indican en la forma siguiente:

[fi ↔ fj ] : intercambiar las filas i–ésima y j–ésima,

[cfi ] : multiplicar la i–ésima fila por c (c )= 0),

[fi + cfj ] : sumar a la fila i–ésima la fila j–ésima multiplicada por c. Ob-
sérvese que, por ejemplo, [f1 + f2 ] es diferente de [f2 + f1 ].

Con el fin de facilitar la discusión general pueden utilizarse las siguien-


tes operaciones auxiliares:

(C): intercambiar dos columnas de coeficientes (teniendo en cuenta que


hay un cambio correspondiente en el orden de las incógnitas). Para
indicar el intercambio de las columnas i–ésima y j–ésima (de coefi-
cientes) se escribe [(i) ↔ (j)],
14 CAPÍTULO 1. ELIMINACIÓN

(O): suprimir filas nulas (filas de ceros), pues estas corresponden a ecua-
ciones triviales y superfluas. Se escribe ]fi [ para indicar la supresión
de fi .

Puede suponerse que ninguna columna de coeficientes es nula pues ello


indicarı́a que la incógnita correspondiente no figura en el problema.

Por otra parte, la columna de términos independientes puede ser nula


(problemas homogéneos).

Ejemplo A. Para resolver el problema lineal




 2y 4 + y 5 = 0

2y 1 + 2y 3 − 4y 4 = −2

 2y 1 + y 2 + 3y 3 − 5y 4 = −1
 1
3y + y 2 + 4y 3 − 5y 4 + y 5 = −2 ,

escribimos su matriz y efectuamos, sucesivamente, las siguientes opera-


ciones:

Primer paso (reducción de la 1a. columna): poner un 1 en el lugar (1, 1)


(1a. fila, 1a. columna) y ceros en el resto de la 1a. columna,

[f1 ↔ f2 ] , [1/2 f1 ] , [f3 − 2f1 ] , [f4 − 3f1 ] .

Segundo paso (reducción de la 2a. columna): poner un 1 en el lugar


(2, 2) (2a. fila, 2a. columna) y ceros en el resto de la 2a. columna,

[f2 ↔ f3 ] , [f4 − f2 ] .

Tercer paso (reducción de la 3a. columna): poner un 1 en el lugar (3, 3)


y ceros en el resto de la 3a. columna,

[(3) ↔ (4)] , [1/2 f3 ] , [f1 + 2f3 ] , [f2 + f3 ] , [f4 − 2f3 ] , ]f4 [ .

Se obtiene ası́ un problema equivalente, a saber,


§ 4. EL MÉTODO DE ELIMINACIÓN 15

y1 y2 y4 y3 y5

1 0 0 1 1 −1

0 1 0 1 1/2 1

0 0 1 0 1/2 0
,
en el cual y 3 y y 5 pueden tomarse como parámetros. Llamándolas λ y µ,
respectivamente, se observa que todas las soluciones pueden obtenerse de
la fórmula
         
y1 −λ −µ −1 −1 −1 −1
 y2   −λ −1/2µ +1   −1   −1/2   1 
         
 y4 = −1/2µ  = λ 0  + µ  −1/2  +  0 
         
 y3   λ   1   0   0 
y5 µ 0 1 0 ,

dándole a λ y µ valores arbitrarios. El problema tiene infinitas soluciones;


en realidad, puede decirse que hay un número doblemente infinito de solu-
ciones, ya que hay dos parámetros que pueden variar independientemente.
Obsérvese, por último, que los vectores que aparecen en la fórmula final
provienen directamente de la forma reducida de la matriz.

Ejemplo B. Para hallar el conjunto solución de


    
1 1 1 1 r 5
 2   
 5 3 3 
  12 
 1  s   
 1 −2 1    =  −4 
 

 
 1 2 1 −1   t   0 
1 −1 −3 −2 u −11 ,
escribimos la matriz y seguimos la misma receta.

Primer paso (reducción de la 1a. columna):


[f2 − 2f1 ] , [f3 − f1 ] , [f4 − f1 ] , [f5 − f1 ] .
Segundo paso (reducción de la 2a. columna):
[f2 ↔ f4 ] , [f1 − f2 ] , [f4 − 3f2 ] , [f5 + 2f2 ] .
16 CAPÍTULO 1. ELIMINACIÓN

Tercer paso (reducción de la 3a. columna):

[−1/3 f3 ] , [f1 − f3 ] , [f4 − f3 ] , [f5 + 4f3 ] .

Cuarto paso (reducción de la 4a. columna):

[1/7 f4 ] , [f1 − 3f4 ] , [f2 + 2f4 ] , [f5 + 7f4 ] , ]f5 [ .

La forma final es
r s t u
     
1 0 0 0 1 r 1
 0 1 0 0 −1   s   −1 
 ,
es decir    
 0 0 1 0 3   t = 3 
0 0 0 1 2 u 2 .
El problema tiene una sola solución, i.e. su conjunto solución tiene
un solo elemento, a saber, el vector de componentes 1, −1, 3 y 2 (en este
orden).

Ejemplo C.

 2t1 + 2t2 − 4t3 + 2t4 = 8
2t1 + 2t2 + t3 + t4 = 6

−2t1 − 2t2 + 4t3 − 2t4 = 3.

Al cabo del primer paso, [1/2 f1 ] , [f2 − 2f1 ] , [f3 + 2f1 ], se observa ya
que el problema es inconsistente. Sin embargo, en aras de la uniformidad,
puede continuarse el proceso.

El segundo paso, [(2) ↔ (3)] , [1/5, f2 ] , [f1 + 2f2 ], conduce a la matriz


t1 t3 t2 t4

1 0 1 3/5 16/5

0 1 0 −1/5 −2/5

0 0 0 0 11
.

Como no se pueden reducir más columnas de coeficientes se procede con


§ 5. DESCRIPCIÓN GENERAL DEL MÉTODO DE ELIMINACIÓN 17

la de términos independientes, obteniéndose finalmente

t1 t3 t2 t4

1 0 1 3/5 0

0 1 0 −1/5 0

0 0 0 0 1
.

La última ecuación es 0 = 1 y, por lo tanto, el problema carece de


soluciones.

§5 Descripción general del método de eliminación

Consideramos un problema con m ecuaciones y n incógnitas. El sı́mbolo ×


se usará para señalar lugares ocupados por números, en general distintos
entre sı́.

Primer paso (reducción de la 1a. columna):

1
x ··· xn 
1
 a1 ··· a1n b1  (P)
 · ··· · · 
am1 ··· am
n bm .

Una operación (I) permite llevar un coeficiente c1 )= 0 al lugar (1, 1).


Multiplicando la 1a. fila por 1/c1 se obtiene un 1 en el lugar (1, 1). Usando
la primera fila y operaciones (S) pueden anularse los restantes elementos
de la 1a. columna.
18 CAPÍTULO 1. ELIMINACIÓN

Segundo paso (reducción de la 2a. columna):

 
1 × × ··· × ×
 
 0 × × ··· × × 
 
 · · · ··· · · 
 
0 × × ··· × × .

Si en la matriz que queda, al omitir la 1a. fila y la 1a. columna


(y también la última columna), hay un coeficiente c2 )= 0, éste puede
llevarse al lugar (2, 2) mediante una operación (I) y una operación (C).
Multiplicando la 2a. fila por 1/c2 se obtiene un 1 en el lugar (2, 2). Usando
la 2a. fila y operaciones (S) pueden anularse los restantes elementos de la
2a. columna.

Tercer paso (reducción de la 3a. columna):

 
1 0 × ··· × ×
 
 0 1 × ··· × × 
 
 · · · ··· · · 
 
0 0 × ··· × × .

Si en la matriz que queda, al omitir la 1a. y 2a. filas y la 1a. y 2a.


columnas (y también la última columna), hay un coeficiente c3 =) 0, éste
puede llevarse al lugar (3, 3) mediante . . . etcétera.

La operación (O) se aplica cada vez que haya lugar. Como paso final,
y si es el caso, se reduce la columna de términos independientes.

Debido a que en cada paso se desciende un escalón, el proceso termina


después de un cierto número r de pasos, siendo r ≤ m; a este número r lo
llamamos la caracterı́stica del problema. La forma final, escalonada (o
reducida), de la matriz, debe ser una de las siguientes:
§ 5. DESCRIPCIÓN GENERAL DEL MÉTODO DE ELIMINACIÓN 19

A)
 

 1 ··· 0 c11 · · · c1p d1
 
r  · ··· · · ··· · · 

 0 ··· 1 cr1 · · · crp dr .
. /0 1
n

En este caso r < n y (p = n − r > 1).

B)
 

 1 ··· 0 d1
 
r  · ··· · · 

 0 ··· 1 dr .
. /0 1
n

En este caso r = n.

C)
 
 1 ··· 0 × ··· × 0

 · · · · · · ··· · ·
r  0 ··· 1 × ··· × 0



 0 ··· 0 0 ··· 0 1 .
. /0 1
n

En el segundo caso el problema tiene una sola solución, a saber, el


vector de componentes d1 , . . . , dn (ver ejemplo B). En el tercero el problema
es inconsistente (ver ejemplo C).

Consideremos más detenidamente el primer caso (ver ejemplo A):

Sea t1 , . . . , tr , tr+1 , . . . , tr+p (r + p = n) el ordenamiento de las incógnitas


en la forma final, la cual corresponde al problema equivalente
 1
 t + c11 tr+1 + c12 tr+2 + · · · + c1p tr+p = d1
· · · · · ··· · ·

tr + c1 t
r r+1 + c2 t
r r+2 + ··· + cp tr+p =
r r
d ,
20 CAPÍTULO 1. ELIMINACIÓN

en donde se pueden despejar inmediatamente t1 , . . . , tr en términos de las


incógnitas restantes. Simplificando la notación mediante las definiciones

λ1 = tr+1 , λ2 = tr+2 , . . . , λp = tr+p (= tn ) ,

todas las soluciones del problema pueden obtenerse de la fórmula


   
t1 − c11 λ1 − c12 λ2 − · · · − c1p λp + d1
 ..   .. 
 .   . 
 r   
 t   − cr1 λ1 − cr2 λ2 − · · · − crp λp + d 
r
 r+1   
 t = λ1 
   
 tr+2   λ2 
   
 ..   .. 
 .   . 
tn λp ,

la cual puede también escribirse en la forma


         1 
t1 −c11 −c12 −c1p d
 ..   ..   ..   ..   .. 
 .   .   .   .   . 
 r         
 t   −cr1   −cr2   −crp   dr 
 r+1         
 t  = λ1  1  + λ2  0  + · · · + λp  0  +  0  (1)
         
 tr+2   0   1   0   0 
         
 ..   ..   ..   ..   .. 
 .   .   .   .   . 
tn 0 0 1 0 ,

dándole a λ1 , λ2 , . . . , λp valores arbitrarios. El problema tiene infinitas


soluciones; puede decirse que tiene un número p veces infinito de soluciones
pues hay p parámetros independientes.

La fórmula (1) se llama la solución general del problema. Obsérvese


que los vectores que allı́ aparecen pueden escribirse inmediatamente a par-
tir de la forma final de la matriz.

Devolviendo las incógnitas a su orden original, y llamando x al vector


que las tiene por componentes, la solución general toma la forma

x = λ1 h1 + · · · + λp hp + c . (2)
§ 6. CONCLUSIONES 21

Haciendo λ1 = · · · = λp = 0 se observa que c es una solución (particu-


lar) del problema (P). Un instante de reflexión muestra que la expresión

λ1 h1 + · · · + λp hp , (3)

es la solución general del problema homogéneo asociado (H).

§6 Conclusiones

Si un problema es consistente, sólo caben dos posibilidades:

a) si r < n el problema tiene infinitas soluciones,


b) si r = n el problema tiene una sola solución.

Como r ≤ m, siempre que m < n debe tenerse que r < n. Se concluye


que si, en un sistema consistente, el número m de ecuaciones es menor que
el número n de incógnitas entonces el problema tiene infinitas soluciones.
Esto se aplica, en particular, a los problemas homogéneos, los cuales son
siempre consistentes:

Teorema. Todo problema homogéneo con más incógnitas que ecuaciones


tiene soluciones diferentes de la trivial.

En otros términos: cuando hay más grados de libertad (incógnitas) que


restricciones (ecuaciones) el problema tiene soluciones no triviales.

§7 Comentarios

(1) Las operaciones (C), responsables del posible desordenamiento de las


incógnitas en la forma final, no son esenciales y se han introducido aquı́
sólo para simplificar la descripción general del proceso de eliminación. Una
vez comprendido éste puede prescindirse de aquellas.

(2) Cuando se trata de un problema homogéneo Ax = 0, no es necesario


escribir la columna de términos independientes y el método se limita a
obtener la forma reducida de la matriz A.
22 CAPÍTULO 1. ELIMINACIÓN

(3) La forma final (escalonada, reducida) de una matriz es única. De-


mostrarlo no es difı́cil aunque la descripción del argumento y la notación
pueden ser un poco engorrosas. Por otra parte, los pasos del algoritmo
de eliminación pueden especificarse de tal modo que el proceso mismo sea
único. Por ejemplo: en el primer paso (ver § 5) se mira la primera columna
y se busca, de arriba hacia abajo, su primer elemento no nulo; éste será
c1 . . . . En el segundo paso, y después de las omisiones indicadas, se busca,
de izquierda a derecha, la primera columna no nula, y en ella se busca, de
arriba hacia abajo, el primer elemento no nulo; éste será c2 . . . etcétera.
Capı́tulo 2

Dimensión

Los vectores son objetos matemáticos que pueden ser sumados entre sı́ y
multiplicados por escalares (números) y que se agrupan en conjuntos lla-
mados espacios vectoriales. En cada espacio se trata de seleccionar un
puñado básico de vectores, los menos posibles que, combinados adecuada-
mente, generen cualquier otro vector. El número de vectores básicos puede
entenderse como el número de grados de libertad que hay en el espacio.

La recta y el plano (y también la recta y el espacio) pueden ponerse en


correspondencia biunı́voca, pudiendo entonces decirse que los tres tienen
el mismo número de elementos. Sin embargo, “espacialmente” son muy
diferentes: en la recta hay un solo grado de libertad, en el plano dos y en
el espacio tres. Esto nos indica que, a pesar de tener el mismo número
de elementos o puntos, dos conjuntos pueden diferir notablemente en su
“forma de extenderse”.

§8 Espacios vectoriales

El conjunto solución, o núcleo, de un problema homogéneo Ax = 0, con


n incógnitas, es un subconjunto U de Rn que goza de las propiedades
siguientes:

23
24 CAPÍTULO 2. DIMENSIÓN

(A.1) Si u y v son elementos de U entonces u + v también está en U.

(A.2) u+(v+w) = (u+v)+w y u+v = v+u para todo u, v, w de U.

(A.3) Hay un elemento neutro 0 (es el vector cero) de U tal que u + 0 = u,


para todo u de U.

(A.4) Para cada u de U hay un elemento, −u, de U tal que u + (−u) = 0

(M.1) Si u es un elemento de U entonces λu también está en U, cualquiera


sea el número λ.

Además, si λ y µ son números cualesquiera y u y v son elementos


cualesquiera de U, entonces:

(M.2) λ(µu) = (λµ)u , 1 · u = u , 0 · u = 0.

(AM) λ(u + v) = λu + λv y (λ + µ)u = λu + µu.

De § 3 (L) se deducen (A.1), (M.1) y parte de (A.3) y (A.4). Las demás


son propiedades generales de las operaciones en Rn .

Un conjunto U en el cual estén definidas una adición y una multipli-


cación por escalares (números) que satisfagan las propiedades enumeradas,
se llama un espacio vectorial y sus elementos se llaman vectores. Den-
tro de lo posible se escribirá 0, a, u, v, etc para denotar elementos de un
espacio vectorial.

En lugar de u+ (−v) se escribe u − v. En lugar de λu se puede escribir


uλ. Si λ )= 0, en lugar de (1/λ)u se puede escribir u/λ.

Las propiedades básicas de los espacios vectoriales implican otras rela-


ciones familiares, como: (−1)u = −u, −(u + v) = −u − v, (λ − µ)u =
λu − µu, etc.

Ejemplos. (1) Las matrices m × n forman un espacio vectorial, en par-


ticular Rn y Rn son espacios vectoriales.

(2) El conjunto F(S, U) de todas las funciones de un conjunto dado S en


un espacio vectorial dado U (con las operaciones definidas puntualmente)
es un espacio vectorial.
§ 9. SUBESPACIOS 25

Nota. En lo que sigue U, V, W designarán espacios vectoriales.

§9 Subespacios

Si M es un subconjunto no vacı́o de U tal que u + v y λu están en M


siempre que u y v están en M (y λ es un escalar), entonces M es a su
vez un espacio vectorial, con las operaciones heredadas de U. En este caso
se dice que M es un subespacio de U. Tanto U como {0} son siempre
subespacios de U; {0} es el subespacio trivial.

Los conjuntos de la forma M + c = {u + c : u ∈ N }, obtenidos


por traslación de un subespacio M a lo largo de un vector c se llaman
variedades (lineales).

Ejemplos. (1) El conjunto solución de un problema lineal es una varie-


dad de Rn (n = número de incógnitas). Si el problema es homogéneo,
su conjunto solución (núcleo) es un subespacio. Puede demostrarse que,
recı́procamente, todo subespacio de Rn es un núcleo.

(2) El conjunto Pn de todas las funciones polinómicas de grado menor que


n es un subespacio de F(R, R).

(3) Si N1 , . . . , Ns son subespacios de U, entonces:


a) el conjunto N1 + . . . + Ns de todas las sumas u1 + · · · + us , con ui en
Ni es el menor de los subespacios de U que contienen a todos los Ni .
b) el conjunto N1 ∩ . . . ∩ Ns formado por los vectores que están, a la vez,
en todos los Ni es el mayor de los subespacios contenidos en todos los Ni .
En particular, si M y N son subespacios de U, entonces M + N y M ∩ N
también lo son.

§ 10 Transformaciones lineales e isomorfismos


Una función T : U −→ V es una transformación lineal (t.l.) si, para
todo u, u1 , u2 de U y todo escalar λ,

T (u1 + u2 ) = T (u1 ) + T (u2 ) y T (λu) = λT (u) .


26 CAPÍTULO 2. DIMENSIÓN

En otras palabras, T preserva las operaciones (sumas y productos por


escalar). De estas propiedades básicas se deducen otras como: T (0) = 0,
T (u1 − u2 ) = T (u1 ) − T (u2 ), etc.

Si T es además biyectiva se dice que es un isomorfismo. En este caso


T −1 : V −→ U es también un isomorfismo. Toda relación en U puede
trasladarse a V y recı́procamente. Estos espacios son, esencialmente, la
misma cosa. Se dice que son isomorfos.

Ejemplos. (1) La identidad 1 de U es una t.l. de U en U.

(2) Toda t.l. T de R en R es de la forma T (x) = ax. A menos que a = 0,


ésta es un isomorfismo.

(3) Si A es una matriz m × n y definimos T (u) = Au, para cada u de Rn ,


entonces T : Rn −→ Rm es una transformación lineal.

(4) Rm y Rm son isomorfos. Un intercambio de coordenadas en Rm (resp.


en Rm ) es un isomorfismo de este espacio sobre sı́ mismo.

(5) Si k ≤ n y, para cada x ∈ Rk , definimos x(n) = [x1 , . . . , xk , 0, . . . , 0]t


(∈ Rn ), entonces el conjunto Rk(n) formado por todos estos vectores es un
subespacio de Rn , isomorfo a Rk : es una copia de Rk inmersa en Rn .

Hay una caracterización sencilla de la inyectividad para transforma-


ciones lineales:

[1] Una condición necesaria y suficiente para que una transformación lineal
T : U −→ V sea inyectiva es que, para todo u de U,

T (u) = 0 =⇒ u = 0 .

Demostración. (i) Si T es inyectiva y T (u) = 0, entonces T (u) = T (0).


Luego u = 0.

(ii) Si T satisface la condición y T (u1 ) = T (u2 ) entonces T (u1 − u2 ) =


T (u1 ) − T (u2 ) = 0. Luego u1 − u2 = 0, es decir, u1 = u2 . ♠

Nociones fundamentales, como las de espacio vectorial y transformación


lineal, esquematizan los rasgos esenciales de una teorı́a. Al revelar los
§ 11. SISTEMAS DE VECTORES. COMBINACIONES LINEALES 27

elementos que actúan en la obtención de los resultados centrales, permiten


generalizar los enunciados y simplificar los argumentos. El precio ineludible
es una mayor abstracción. Algo de esto puede percibirse en la § 54.

§ 11 Sistemas de vectores. Combinaciones li-


neales

Un sistema de n vectores de un espacio U es una n–pla ordenada A, de


vectores de U:
A = [u1 , · · · , un ] .
Cuando no hay riesgo de confusión se escribe u1 , . . . , un en lugar de
[u1 , . . . , un ].

De todo vector de la forma

x1 u1 + · · · + xn un ,

donde x1 , . . . , xn son escalares, diremos que es una combinación lineal


(c.l.) de A (o de los vectores u1 , . . . , un ), con coeficientes x1 , . . . , xn . En
particular u + v es una c.l. de u y v y λu es una c.l. de u.

Varias situaciones pueden describirse en términos de combinaciones


lineales. Por ejemplo:

(1) Un subconjunto M de U es un subespacio si y sólo si toda c.l. de


elementos de M está de nuevo en M.

(2) Una función T : U −→ V es una t.l. si y sólo si la imagen de toda c.l.


de elementos de U es la c.l. de sus imágenes, con los mismos coeficientes.
Esto es,

T (x1 u1 + · · · + xn un ) = x1 T (u1 ) + · · · + xn T (un )

(es decir, la función T preserva combinaciones lineales).

Un sistema [a1 , . . . , an ] en Rm puede visualizarse como una matriz


m × n. A su vez, una tal matriz puede considerarse como un sistema de n
vectores de Rm o como un sistema de m vectores de Rn (ver Preliminares).
28 CAPÍTULO 2. DIMENSIÓN

Operaciones elementales (sobre un sistema A de vectores). Son de tres


clases:

(I) intercambiar dos vectores de A,

(M) multiplicar un vector (de A) por un escalar distinto de 0,

(S) sumar a un vector un múltiplo de otro vector (del sistema).

Para indicar que B es el sistema obtenido a partir de A, por medio de


una operación elemental, escribimos

A!B .

Es claro que, entonces, cada elemento de B es una c.l. de A.

Considerando separadamente los tres casos se ve que si A ! B entonces


también B ! A.

§ 12 La transformación asociada a un sistema

Con un sistema A = [u1 , . . . , un ] en un espacio U quizás lo único que


uno puede hacer es formar combinaciones lineales. De hecho, estamos
en presencia de una función, a saber, la función à que a cada elemento
x = [x1 , . . . , xn ]t de Rn le hace corresponder el vector x1 u1 + · · · + xn un
de U.

Esta función
à : Rn −→ U ,

es claramente una t.l. y se llama la transformación asociada al sistema


A (o la transformación lineal de A). En realidad, puede considerarse que
à es lo mismo que A, sólo que visto en su aspecto dinámico. Cuando no
sea útil destacar la diferencia se puede escribir A en lugar de Ã.

Un problema lineal en U es una ecuación de la forma Ax = b, esto


es,
x1 u1 + · · · + xn un = b ,
§ 13. GENERACIÓN 29

donde A = [u1 , . . . , un ] es un sistema y b un elemento de U . Su conjunto


solución, {x ∈ Rn : Ax = b}, es una variedad de Rn . Si b = 0 el
problema es homogéneo.

Dos problemas, Ax = b y Bx = d, donde A (resp. B), es un sistema


de n vectores de U (resp. V), son equivalentes cuando dichos problemas
tienen el mismo conjunto solución. En los espacios euclidianos estas no-
ciones coinciden con las introducidas en las §§ 1 y 2, y la notación Ax
corresponde a la de la § 3.

§ 13 Generación

El conjunto &A' de todas las combinaciones lineales de un sistema dado A


de vectores de U es un subespacio de U y se llama el subespacio generado
por A.

Toda c.l. de elementos de &A' está de nuevo en &A'. En otros términos:


toda combinación lineal de combinaciones lineales de un sistema A es de
nuevo una c.l. de A. Esta observación permite afirmar que si A ! B
entonces &B' ⊂ &A' y, finalmente, que

[2] Si A ! B entonces &A' = &B'.

Si A es un sistema de vectores de un subespacio M de U entonces


&A' ⊂ M. Cuando &A' = M se dice que A genera a M. Si A genera
al espacio total U se dice que es generador. Es claro que &A' no es otra
cosa que el recorrido de la función Ã. En consecuencia:

[3] El sistema A es generador si y sólo si la transformación à es sobreyec–


tiva.

Notas. (1) En lugar de decir que el sistema [u1 , . . . , un ] genera a un


subespacio M se acostumbra decir que los vectores u1 , . . . , un generan
a M. En consonancia con esto, y con lo dicho en la § 11, en lugar de
&[u1 , . . . , un ]' se escribe &u1 , . . . , un '.

(2) Si T : U −→ V es una t.l. y A = [u1 , . . . , un ] es un sistema de


30 CAPÍTULO 2. DIMENSIÓN

n vectores de U entonces, por abuso de notación, escribiremos T &A' =


[T u1 , . . . , T un ]; éste es un sistema de n vectores de V. Si A genera a un
subespacio M de U entonces T &A' genera al subespacio T &M' de V.

§ 14 Libertad

Una relación de dependencia en un sistema A = [u1 , . . . , un ] es una


relación de la forma

x1 u1 + · · · + xn un = 0 , (1)

en la cual hay, por lo menos, un coeficiente diferente de cero.

Si en A existe una relación de dependencia se dice que es linealmente


dependiente (l.d.). Esto equivale a decir que alguno de los vectores de A
es combinación lineal de los restantes. En efecto:

(i) Si en (1) tenemos que xi )= 0 entonces el vector correspondiente ui


puede expresarse como c.l. de los restantes. (Obsérvese que, en este caso,
ui puede excluirse del sistema sin alterar el subespacio generado).

(ii) La recı́proca es inmediata.

Es claro que si 0 está en A entonces A es l.d. y 0 puede ser excluido


sin alterar el subespacio generado.

Cuando A no es linealmente dependiente se dice que es linealmente


independiente (l.i.) o libre. Esto es: A es l.i. si y sólo si ninguno de los
ui es c.l. de los restantes.

Explı́citamente: A es l.i. si y sólo si, para todo x1 , . . . , xn ,

x1 u1 + · · · + xn un = 0 =⇒ x1 = · · · = xn = 0 . (2)

En otros términos: una condición necesaria y suficiente para que A sea


l.i. es que la única c.l. de A igual al vector 0 sea la que tiene todos los
coeficientes nulos (la llamada combinación lineal trivial).

Nótese que si u )= 0 entonces [u] es linealmente independiente.


§ 14. LIBERTAD 31

Geométricamente, dos vectores son l.d. cuando son colineales, tres


vectores son l.d. cuando son coplanarios.

Si llamamos x al elemento de Rn de componentes x1 , . . . , xn , la condi-


ción (2), en términos de Ã, se formula ası́: para todo x de Rn

Ã(x) = 0 =⇒ x = 0 .

Por lo tanto, según [1] (§ 10):

[4] El sistema A es libre si y sólo si la transformación à es inyectiva.

Como toda t.l. T : U −→ V preserva combinaciones lineales, también


preserva la dependencia, i.e. : si A = [a1 , . . . , ap ] ⊂ U es l.d. entonces
T &A' = [T a1 , . . . , T ap ] ⊂ V también lo es. O, lo que es lo mismo: si T &A'
es libre entonces A es libre.

En Rm , un sistema [a1 , . . . , an ] es libre si y sólo si el problema ho-


mogéneo

x1 a1 + · · · + xn an = 0 (3)

no tiene soluciones diferentes de la trivial. Esto permite usar el método de


eliminación para dilucidar asuntos de libertad (!).

Cuando n > m el sistema (3) tiene más incógnitas que ecuaciones y el


teorema de la § 6 implica que

[5] Un sistema libre en Rm no puede tener más de m elementos.

Nota. En lugar de decir que el sistema [u1 , . . . , un ] es l.i. (resp. es l.d.),


se acostumbra decir que (los vectores) u1 , . . . , un son l.i. (resp. son l.d.).

Se dice que los subespacios, no triviales, N1 , . . . , Ns , de U, son (li-


nealmente) independientes cuando todo sistema de vectores no nulos
[u1 , . . . , us ], con ui ∈ Ni , es linealmente independiente. Esto equivale a
decir que una suma de la forma u1 + · · · + us , con ui ∈ Ni , sólo puede ser
0 cuando cada uno de los ui es 0.

Ejemplos. (1) Si todo elemento de M = N1 + · · · + Ns puede escribirse


de manera única en la forma u1 + · · · + us , con ui ∈ Ni , entonces los Ni
32 CAPÍTULO 2. DIMENSIÓN

son independientes; y recı́procamente. En este caso se dice que M es la


suma directa de los Ni y se escribe

M = N1 ⊕ · · · ⊕ Ns .

(2) Los vectores u1 , . . . , us constituyen una base de un subespacio M si y


sólo si M es la suma directa de los subespacios Ni = &ui '.

§ 15 Bases

Al formular las nociones de generación y libertad en términos de la transfor-


mación asociada se observa cierta dualidad entre ellas. Existe una relación
más cuantitativa. En un espacio V tomemos A = [u1 , . . . , um ] generador
y B = [v 1 , . . . , v p ] libre. Como T = Ã : Rm −→ V es sobreyectiva, existen
ai ∈ Rm tales que T (ai ) = v i , i = 1, . . . , p. El sistema A = [a1 , . . . , ap ]
de Rm es libre puesto que T &A' = B es libre. Entonces p ≤ m.

Acabamos de probar que

[6] En un espacio vectorial un sistema libre no puede tener más elementos


que un sistema generador.

Cuando un sistema es libre y generador se dice que es una base.

Lo anterior nos permite afirmar que:

[7] Dos bases cualesquiera (de un mismo espacio) tienen igual número de
elementos.

Se dice que U tiene dimensión finita n, y se escribe

dim U = n ,

si U tiene una base con n elementos. En lo que sigue sólo consideraremos


espacios de dimensión finita; para U = {0} se conviene que dim U = 0.

Ejemplos. (1) La llamada base canónica de Rn , denotada por I,


está formada por los vectores columna e1 = [1, 0, . . . , 0]t , . . . , en =
[0, 0, . . . , 1]t . Entonces dim Rn = n; también dim Rn = n. Obsérvese
§ 15. BASES 33

que I = [e1 , . . . , en ] es la matriz [δji ], donde δji es la delta de Kronecker.


Una matriz de la forma [λ1 e1 , . . . , λn en ] se llama matriz diagonal y se
denota ∆(λ1 , . . . , λn ).

(2) Los vectores h1 , . . . , hp que figuran en la solución general de un sistema


de ecuaciones (ver § 5, (2) y (3)) constituyen una base del núcleo.

(3) Si Bi es una base del subespacio no trivial Ni (para i = 1, . . . , s) en-


tonces los Ni son independientes si y sólo si la “reunión” B = [ B1 , . . . , Bs ]
es una base de N1 + · · · + Ns (suma que, en este caso, es directa).

Considerando un sistema B = [u1 , . . . , un ] de vectores de un espacio U


y aplicando los resultados [3] (§ 13) y [4] (§ 14) se deduce que

[8] B es una base si y sólo si B̃ es un isomorfismo.

Por lo tanto B es una base si y sólo si cada u de U puede escribirse, de


manera única, en la forma u = x1 u1 + · · · + xn un ; los números xi son las
coordenadas o componentes de u en la base B; el elemento [x1 , . . . , xn ]t
de Rn es el vector de coordenadas de u en la base B y se denota [u]B .
Escribiendo B en lugar de B̃ (ver § 12) se tiene que

[u]B = B −1 u .

El estudio de los espacios de dimensión finita puede, en gran parte,


reducirse al estudio de los espacios euclidianos. Cada uno de ellos, siendo
isomorfo a un Rn , tiene la potencia del continuo. La diferencia radica en
la dimensión: si dim V > dim U se necesitan más vectores para generar a
V que para generar a U; en este sentido el primero es “más voluminoso”.

Para que un sistema sea libre no debe tener demasiados elementos


mientras que para ser generador debe tener suficientes. Se comprueba sin
dificultad que todo sistema más pequeño que uno libre es libre y todo
sistema más grande que un generador es generador.

Parece también natural que a un sistema libre que no genere el espacio


se le puedan agregar “cuidadosamente” otros elementos sin perturbar la
independencia y que en un sistema generador pero dependiente haya ele-
mentos superfluos que puedan quitarse sin alterar su carácter generador.
34 CAPÍTULO 2. DIMENSIÓN

Para precisar lo anterior consideremos un espacio U y supongamos


que A = [u1 , . . . , up ] es libre y que v es un vector de U que no está en
&A'. Entonces el sistema A1 = [u1 , . . . , up , v] es aún libre. En efecto:
supongamos que
x1 u1 + · · · + xp up + xv = 0

y veamos que x1 = · · · = xp = x = 0. En primer lugar, x no puede ser


diferente de 0 pues en tal caso v estarı́a en &A'. Entonces x = 0 y por lo
tanto x1 u1 + · · · + xp up = 0 resultando que también x1 = · · · = xp = 0
(puesto que A es libre).

(Si A puede obtenerse a partir de B suprimiendo algunos vectores,


escribimos A ⊂ B.)

Ahora podemos probar la proposición esbozada arriba:

[9] Si A ⊂ C, siendo A libre y C generador, existe una base B tal que


A ⊂ B ⊂ C.

Demostración. Sean A = [u1 , . . . , up ] y C = [u1 , . . . , up , v 1 , . . . , v q ].

(i) Si v 1 ∈ &A', este vector puede descartarse sin alterar el carácter gene-
rador de C.

(ii) Si v 1 )∈ &A' entonces el sistema A1 = [u1 , . . . , up , v 1 ] es libre y está


contenido en C. Y estamos en la situación original.

Continuando ası́ llegamos a v q obteniéndose al final el B deseado. ♠

Enunciemos algunos casos particulares:

[10] Todo sistema A, libre pero no generador, puede completarse hasta ob–
tener una base.

Basta aplicar [9] a A y al sistema generador C obtenido agregando a


continuación de los elementos de A los elementos de cualquier generador.

[11] Todo sistema C, no reducido a [0], contiene un subconjunto libre ma-


ximal.

Es decir: existe un subconjunto B el cual es libre y tal que no existe


§ 16. SISTEMAS EQUIVALENTES 35

ningún D, libre, con


B ⊂ D⊂C .
$ =

En efecto, basta tomar v ∈ C, v )= 0, y aplicar [9] al espacio &C' con


A = [v]. Se ve inmediatamente que un tal B es, siempre, una base de &C'.

[12] Todo sistema generador pero dependiente puede reducirse hasta obte-
ner una base.

Ejemplos. (4) Sean M y N dos subespacios de U. Una base [u1 , . . . , us ]


de M ∩ N puede extenderse hasta una base [u1 , . . . , us , v 1 , . . . , v p ] de M
(resp. [u1 , . . . , us , w 1 , . . . , wq ] de N ); es fácil ver que [u1 , . . . , us , v 1 , . . . , v p ,
w1 , . . . , wq ] es una base de M+N . Entonces, la igualdad (s+p)+(s+q) =
(s + p + q) + s indica que

dim M + dim N = dim (M + N ) + dim (M ∩ N ) .

Si M ∩ N = {0}, la suma es directa y se tiene que

dim (M ⊕ N ) = dim M + dim N .

Por lo tanto, si dim M + dim N > dim (M + N ) ([Link]. si dim M +


dim N > dim U), entonces M ∩ N )= {0}.

(5) Si T : U −→ V es una t.l. y [u1 , . . . , un ] es una base de U, entonces el


sistema [T u1 , . . . , T un ] contiene una base de RT .

§ 16 Sistemas equivalentes

Diremos que dos sistemas

A = [u1 , . . . , up ] ⊂ U y B = [v 1 , . . . , v p ] ⊂ V

son equivalentes si los problemas homogéneos por ellos determinados lo


son (ver § 12). En este caso la correspondencia ui ↔ v i preserva todas las
relaciones de dependencia. En efecto, si para ciertos números x1 , . . . , xp se
cumple que x1 u1 + · · · + xp up = 0 entonces también x1 v 1 + · · · + xp vp = 0,
y recı́procamente.
36 CAPÍTULO 2. DIMENSIÓN

En particular, si C es un subconjunto libre maximal de A, su corres-


pondiente es un subconjunto libre maximal de B.

Si a un sistema A de vectores de Rm ,

A = [a1 , . . . , an ] ,

se le aplica el algoritmo de eliminación, sin intercambio de columnas, se


obtiene, al final, un sistema equivalente

B = [b1 , . . . , bn ] ,

de vectores de Rr (donde r es la caracterı́stica del sistema). En otras pala-


bras: si sobre las filas de una matriz se efectúan operaciones elementales,
incluyendo supresión de filas nulas, el sistema formado por sus columnas se
transforma en otro equivalente. Lo mismo vale intercambiando los términos
“fila” y “columna”.

En la forma final B, las r columnas reducidas forman un subconjunto


libre maximal. Los vectores ai correspondientes forman entonces un sub-
conjunto libre maximal de A.

Un sistema libre L = [l1 , . . . , lp ] ⊂ Rm puede completarse procediendo


en forma análoga con la matriz

[l1 , . . . lp , e1 , . . . , em ] .

Ejemplo. Dados los siguientes elementos de R5


         
1 −1 −1 0 −3
 2   −3   0   0   −10 
         
a1 = 
 −2  , a2 = 
  2  , a3 = 
  2  , a4 = 
  1  , a5 = 
  9 ;

 12   −15   −6   −3   −57 
−4 5 2 1 19
   
0 −3
 −1   −8 
   
x=
 0 ,
 y=
 9  ,

 −2   −51 
1 17
sea A = [a1 , . . . , a5 ] y sea I = [e1 , . . . , e5 ] la base canónica. Aplicándole a
la matriz B = [A, I, x, y] el algoritmo de eliminación, sin intercambio de
§ 17. RANGO 37

columnas, [Link]. [f2 − 2f1 ] , [f3 + 2f1 ] , [f4 − 12f1 ] , [f5 + 4f1 ] , [−f2 ] ,
[f1 + f2 ] , [f4 + 3f2 ] , [f5 − f2 ] , [f4 + 3f3 ] , [f5 − f3 ] , [f4 ↔ f5 ] ,
[f1 + f4 ] , [f2 + f4 ] , [f5 + 3f4 ], se llega a la forma final C,

B = [ a1 a2 a3 a4 a5 e1 e2 e3 e4 e5 x y]
4 4 4 4 4 4 4 4 4 4 4 4
 
1 0 −3 0 1 3 0 −1 0 1 1 −1
 0 1 −2 0 4 2 0 −1 0 1 1 2
 
C= 0 0 0 1 3 2 0 1 0 0 0 3
 0 0 0 0 0 0 1 −1 0 1 0 0
0 0 0 0 0 0 0 0 1 3 1 0 ,

en la cual se lee (¿magia?) la siguiente información sobre A:

1. A no es libre, pues, [Link]., a3 = −3a1 −2a2 . También a5 = a1 +4a2 +3a4 .

2. A no es generador, pues, [Link]., e2 no está en &A'.

3. [a1 , a2 , a4 ] es un subconjunto libre maximal de A, el cual puede com–


pletarse obteniéndose la base [a1 , a2 , a4 , e2 , e4 ].

4. x no está en &A'.

5. y sı́ está en &A'; explı́citamente: y = −a1 + 2a2 + 3a4 .

§ 17 Rango
Se llama rango de un sistema A, y se denota rg A, la dimensión del
subespacio generado por A:

rg A = dim &A' .

Como cualquier subconjunto libre maximal de un sistema es una base


del subespacio por él generado, vemos que el rango de un sistema A de
n vectores de Rm es igual al número de columnas reducidas al aplicar el
algoritmo de eliminación a la matriz A, y este número es, precisamente, la
caracterı́stica r del problema homogéneo asociado a A.
38 CAPÍTULO 2. DIMENSIÓN

Teniendo en cuenta que las operaciones elementales no alteran el subes-


pacio generado y que las filas (no nulas) que aparecen en la forma final son
linealmente independientes, se ve que su número (que es de nuevo igual a
la caracterı́stica del problema), es también el rango del sistema de vectores
de Rn formado por las filas de A.

Al aplicar el algoritmo de eliminación a una matriz m × n se está


entonces calculando, simultáneamente, el rango del sistema formado por
sus columnas y el del sistema formado por sus filas, y ambos resultan ser
iguales. Este número se llama el rango de la matriz.

En el ejemplo de la § 16 es claro que rg A = 3.


Capı́tulo 3

Linealidad

Diversas situaciones pueden idealizarse bajo la forma de un dispositivo que,


a partir de ciertas causas o estı́mulos, produce unos efectos o respuestas
que son proporcionales a esos estı́mulos o, más general, que obedecen al
principio de superposición de los efectos. Con más precisión: al aplicar una
suma de estı́mulos se obtiene como efecto la suma de los efectos individuales
y al multiplicar un estı́mulo el efecto se multiplica por el mismo factor.
El modelo matemático adecuado es una transformación lineal T : U →
V entre dos espacios vectoriales U y V. El mismo modelo incluye las
transformaciones geométricas como rotaciones, proyecciones y simetrı́as.

§ 18 Álgebra de transformaciones

El conjunto L(U, V) de todas las transformaciones lineales de un espacio


vectorial U en otro, V, es un espacio vectorial; es a su vez un subespacio de
F(U, V) (ver § 8, ej. (2)) y, por lo tanto, para S, T en L(U, V), λ escalar,
y para todo u de U:

(S + T )u = Su + T u y (λT )u = λ(T u) .

El espacio L(U, R) es el dual de U y se denota U " ; sus elementos se


llaman funcionales o formas lineales en U.

39
40 CAPÍTULO 3. LINEALIDAD

La compuesta de dos transformaciones lineales,


T! S!
U V W
"
ST
es también una transformación lineal llamada el producto de S y T y
denotada ST . Directamente se comprueba que

S(T1 + T2 ) = ST1 + ST2 , (S1 + S2 )T = S1 T + S2 T ,


(1)
λ(ST ) = (λS)T = S(λT ) , R(ST ) = (RS)T ,

siempre que las operaciones estén definidas. Esto ocurre, en particular,


cuando V = U; el espacio L(U, U) se llama el álgebra de U y se denota
L(U); sus elementos se llaman operadores lineales (de U).

Ejemplo. Si U = N1 ⊕ · · · ⊕ Ns y, para cada j (= 1, . . . , s) y cada


u = u1 + · · · + us , con ui en Ni , se define Pj u = uj entonces las Pj son
operadores lineales de U. Estas Pj son las proyecciones asociadas a la
descomposición de U como suma directa de los Ni y tienen3s las siguientes
propiedades: a) Pj2 = Pj , b) Pj Pk = 0 si j )= k, c) j=1 Pj = 1.

Nota. Un álgebra es un espacio vectorial en el cual está definida una


multiplicación asociativa y bien relacionada con la suma y el producto por
escalar, pero no necesariamente conmutativa; es en este sentido que L(U)
es un álgebra. Dos álgebras son isomorfas cuando existe entre ellas una
biyección que preserva todas las operaciones (1).

§ 19 Álgebra de matrices

Un sistema B = [v 1 , . . . , v n ] de n vectores de un espacio V da origen a la


transformación lineal T = B̃ : Rn → V. El sistema B puede recuperarse a
partir de T ; en efecto, B = T &I' = [T e1 , . . . , T en ], donde I = [e1 , . . . , en ]
es la base canónica de Rn .

En general, si A = [u1 , . . . , un ] es una base de un espacio U, puede


definirse una t.l. T : U → V en la forma siguiente:
§ 19. ÁLGEBRA DE MATRICES 41

1. Se define en la base, conviniendo que

T u1 = v 1 , . . . , T un = v n .

2. Se extiende por linealidad: como cada u de U puede escribirse, de


manera única, en la forma u = λ1 u1 + · · · + λn un , se conviene que

T u = λ1 v 1 + · · · + λn vn .

De esta manera T queda bien definida y es lineal. Se observa además que


B = T &A' = [T u1 , . . . , T un ].

Estos hechos se usarán enseguida para relacionar matrices y transfor-


maciones.

A) Tomemos una matriz A de m filas y n columnas, es decir, un ele–


mento del conjunto Mm,n :

A = [a1 , . . . , an ] , ai ∈ Rm .

La t.l. asociada τ = Ã es un elemento de L(Rn , Rm ) tal que, para cada


x = [x1 , . . . , xn ]t de Rn (ver § 12) :

τ (x) = Ax = a1 x1 + · · · + an xn . (1)

En particular

Aei = ai para i = 1, . . . , n . (2)

Cuando m = 1 la matriz A es un vector fila, digamos a = [a1 , . . . , an ], y


entonces (1) conduce a la siguiente regla para multiplicar filas por columnas
(cfr. Preliminares, (8)):
 1 
x
 .. 
ax = [a1 , . . . , an ]  .  = a1 x1 + · · · + an xn . (3)
xn

Es claro que ax = xt at .

De la relación (1) se deduce que

[1] La i–ésima componente de Ax es ai x.


42 CAPÍTULO 3. LINEALIDAD

B) Tomemos ahora una t.l. τ : Rn → Rm , es decir, un elemento de


L(Rn , Rm ).

Entonces τ &I' = [τ e1 , . . . , τ en ] es un elemento de Mm,n y se llama la


matriz de τ . Designándola [τ ] tenemos que

[τ ] = [τ e1 , . . . , τ en ] .

La matriz de 1, la identidad de Rn , es I y se llama la matriz unidad


de orden n (cfr. § 15, ejemplo (1)).

La relación τ = Ã es equivalente a la relación A = [τ ].

Si A es la matriz de τ entonces la t.l. asociada a A es τ. Esto es: la


transformación de [τ ] es τ .

Por otra parte si τ es la transformación de una matriz A entonces la


matriz asociada a τ es precisamente A. Esto es: la matriz de à es A.

Se concluye que la correspondencia entre transformaciones lineales de


Rn en Rm , por un lado, y matrices m × n, por el otro, tiene carácter
biyectivo permitiendo trasladar a las matrices todas las operaciones entre
transformaciones lineales. Por ejemplo, la suma A + B de dos matrices
m × n es la matriz m × n de la suma ρ + σ de la t.l. ρ determinada por
A y la t.l. σ determinada por B. Similarmente se define λA. Con estas
operaciones se tiene que:

[2] Mm,n es un espacio vectorial isomorfo a L(Rn , Rm ).

En particular (Rn )" , es decir, L(Rn , R) (ver § 18), es isomorfo a M1,n ,


es decir, a Rn .

El producto AB, donde A es una matriz m × n y B es una matriz


n × p es, por definición, la matriz m × p del producto ρσ : Rp → Rm de la
t.l. ρ : Rn → Rm , determinada por A, y la t.l. σ : Rp → Rn , determinada
por B.

Como B = [b1 , . . . , bp ] tenemos que

AB = [(ρσ)e1 , . . . , (ρσ)ep ] = [Ab1 , . . . , Abp ] ,


§ 19. ÁLGEBRA DE MATRICES 43

o también:
A[b1 , . . . , bp ] = [Ab1 , . . . , Abp ] . (4)
Escribiendo C = AB vemos que cik es la i–ésima componente de Abk .
Entonces, de acuerdo con [1] y (3) :
cik = ai bk = ai1 b1k + · · · + ain bnk .
Esta regla de multiplicación puede esquematizarse ası́:

     (k) 
..
     . 
     
     
 ai   bk  =  · · · ai bk · · · (i)
     
     .. 
     . 
.
(m × n) (n × p) (m × p)

De acuerdo con la definición dada, las propiedades de la multiplicación


matricial son las mismas de la composición entre transformaciones lineales
(ver (1), § 18) y de ellas se derivan. En realidad, se ha aprovechado la
correspondencia biunı́voca entre L(Rn , Rm ) y Mm,n para trasladar a este
último conjunto toda la estructura del primero. En particular, resulta que
Mn es un álgebra isomorfa a L(Rn ).

Anotemos algunos hechos y peculiaridades:

1. El producto AB sólo está definido cuando el número de columnas de A


es igual al número de filas de B.

2. En general AB )= BA.

3. Es posible que AB = 0 con A )= 0 y B )= 0.

4. Es posible que AB = 0 pero BA )= 0.

5. Si AB está definida entonces (AB)t = B t At .

6. AI = A, IB = B siempre que el producto esté definido.


44 CAPÍTULO 3. LINEALIDAD

§ 20 Transformaciones y matrices

Consideremos ahora una transformación lineal T : U → V, una base


A = [u1 , . . . , un ] de U y una base B = [v 1 , . . . , v m ] de V. En esta situación,
la transformación T : U → V queda representada por una transformación
τ : Rn → Rm, de tal manera que, el diagrama

U T !V
" "
A B

Rn !Rm
τ

es conmutativo, es decir, T A = B τ (nótese que estamos escribiendo A, B


en lugar de Ã, B̃ (ver § 12)). Explı́citamente, τ = B −1 T A y se llama la
transformación lineal inducida por T , con respecto a las bases A y B. La
matriz C de τ se llama la matriz de T con respecto a (las bases) A y B;
cuando U = V y A = B se dice, sencillamente, “con respecto a la base A”.

Como C = τ &I' = B −1 T A&e1 , . . . , en ' = [B −1 (T u1 ), . . . , B −1 (T un )],


tenemos que C es una matriz m × n cuyas columnas son

ci = [T ui ]B , i = 1, . . . , n .

Además, como T = B τ A−1 , entonces v = T u es equivalente a τ (A−1 u) =


B −1 v, es decir, a

[v]B = C [u]A .

Si A ∈ Mm,n entonces A es la matriz de à con respecto a las bases


canónicas de Rn y Rm .

Al tratar de desentrañar la estructura de un operador salta a la vista


la utilidad de considerar bases que, aunque no sean simples (como las
canónicas), sean convenientes para analizar ese operador particular, debido
a que la matriz correspondiente es sencilla, por ejemplo, diagonal.
§ 21. NULIDAD Y RANGO 45

§ 21 Nulidad y rango

Dada una transformación lineal T : U → V, el conjunto NT = {u ∈ U :


T (u) = 0} es un subespacio de U y se llama el núcleo de T ; su dimensión
es la nulidad de T y se denota ν(T ). Es claro que T es inyectiva si y sólo
si NT = {0}, es decir, si y sólo si ν(T ) = 0.

Por otra parte, el recorrido RT de T es un subespacio de V cuya di-


mensión se llama el rango de T y se denota ρ(T ). La t.l. T es sobreyectiva
si y sólo si RT = V, es decir, si y sólo si ρ(T ) = dim V.

Cuando V = U, tanto NT como RT son subespacios T –invariantes.

Para una t.l. τ : Rn → Rm , con matriz A, se tiene que Nτ es el núcleo


o conjunto solución del problema homogéneo

Ax = 0 , (1)

de tal manera que ν(τ ) = n − r, siendo r la caracterı́stica del sistema.

Por otra parte, como A = [τ e1 , . . . , τ en ], resulta que Rτ es el subes-


pacio de Rm generado por las columnas de A. El rango de este sistema
(que es la caracterı́stica r del problema (1) y también el rango de la matriz
A) es entonces ρ(τ ). En consecuencia ν(τ ) + ρ(τ ) = n.

Para una t.l. cualquiera T : U → V, si A y B son bases de U y de V,


respectivamente, se tiene que NT = A&Nτ ' y RT = B&Rτ ', siendo τ la t.l.
inducida por T . El resultado puede entonces trasladarse inmediatamente
a T obteniéndose la llamada ecuación dimensional, ν(T ) + ρ(T ) = n,
esto es:
dim NT + dim RT = dim U . (2)

§ 22 Inversión

Aplicando la ecuación dimensional a un operador T : U → U se observa


que
46 CAPÍTULO 3. LINEALIDAD

[3] Un operador lineal es inyectivo si y sólo si es sobreyectivo.

Si S y T son operadores lineales de U tales que

ST = 1 ,

entonces T es inyectivo y S es sobreyectivo, es decir, ambos son biyectivos


e inversos uno del otro. Y entonces también se tiene que

TS = 1 .

Estos resultados se trasladan de la manera usual a las matrices: si A


es una matriz n × n y existe una matriz X tal que AX = I, entonces
también XA = I. Si tal X existe es única: si Y fuera otra, tendrı́amos
que YAX = (YA)X = IX = X y también YAX = Y(AX) = Y I = Y .
Se dice entonces que A es regular o invertible; la matriz X se llama la
inversa de A y se denota A−1 . Obsérvese que A es regular si y sólo si Ã
es biyectiva y, en este caso, la matriz de Ã−1 es precisamente la inversa de
A.

Es claro que A es regular si y sólo si (el sistema formado por sus


columnas) es linealmente independiente (y, por lo tanto, una base de Rn ),
es decir, si y sólo si el problema

Ax = 0

no tiene soluciones diferentes de la trivial.

Si A y B son regulares (y del mismo orden), entonces AB es regular y

(AB)−1 = B −1 A−1 .

Si A es regular At también lo es y

(At )−1 = (A−1 )t .

Entonces: A es regular si y sólo si el sistema formado por sus filas es


linealmente independiente (y es, por lo tanto, una base de Rn ).

Si A = [a1 , . . . , an ] es regular, entonces (ver § 19, (2)):

A−1 ai = ei , (i = 1, . . . , n) . (1)
§ 23. CAMBIO DE BASE 47

Cuando A no es regular se dice que es singular.

Como AX = A[x1 , . . . , xn ] = [Ax1 , . . . , Axn ] y, por otra parte, I =


[e1 , . . . , en ], la condición AX = I es equivalente a los siguientes n sistemas
de ecuaciones
Ax1 = e1 , . . . , Axn = en .
Como todos ellos tienen la misma matriz, pueden analizarse simultá-
neamente aplicando el algoritmo de eliminación a la matriz [A, I] hasta
reducir todas las columnas de A. La matriz A será invertible si y sólo si la
forma final es del tipo [I, B] y, en este caso, B es A−1 .

Por último, se observa que:

[4] Una matriz A es regular si y sólo si puede transformarse en I mediante


operaciones elementales sobre sus filas o columnas.

§ 23 Cambio de base
Supongamos que en un espacio n–dimensional U hay una base A, llamémos-
la azul, y una base B, blanca. ¿Cómo se expresan las coordenadas blancas
en términos de las azules? Basta considerar la matriz P de la identidad,
con respecto a las bases A y B (ver §§ 15 y 20):
U 1 !U
" "
A B

Rn !Rn
ι
[u]B = P [u]A .

Receta: para hallar la matriz P que expresa las coordenadas blancas


en términos de las azules se expresan los vectores azules en términos de los
blancos. Los coeficientes ası́ obtenidos constituyen las columnas de P .

Como ι es un isomorfismo, P es invertible y


[u]A = P −1 [u]B .
48 CAPÍTULO 3. LINEALIDAD

Ahora puede demostrarse que dos matrices A y B representan una


misma transformación T : U → V, con respecto a bases diferentes (tanto
en U como en V), si y sólo si existen matrices P y Q, invertibles, tales que

QA = BP .

En particular, A y B representan a un mismo operador T de U si y


sólo si existe P invertible tal que

B = P −1 AP .

En este caso se dice que A y B son semejantes.

§ 24 Matrices elementales

Son las obtenidas aplicando operaciones elementales a la matriz unidad


I = [e1 , . . . , en ]. Hay tres clases:

(I) Eij = [. . . , ej , . . . , ei , . . .] : intercambiando las columnas i–ésima y


(i) (j)
j–ésima de I (los ı́ndices entre paréntesis indican el lugar),

(M) Ei (λ) = [. . . , λei , . . .] : multiplicando la i–ésima columna de I por


(i)
λ ()= 0),

(S) Eij (λ) = [. . . , ei + λej , . . . , ej , . . .] : sumándole a la i–ésima columna


(i) (j)
λ veces la j–ésima columna (de I).

Directamente se comprueba que:

[5] La traspuesta de una matriz elemental es una matriz elemental de la


misma clase. Especı́ficamente:
t
Eij = Eij , (Ei (λ))t = Ei (λ) , (Eij (λ))t = Eji (λ) .

Sea ahora A = [a1 , . . . , an ] una matriz de n columnas. Como


§ 24. MATRICES ELEMENTALES 49

AEij = [Ae1 , . . . , Aej , . . . , Aei , . . . , Aen ]


(i) (j)

= [a1 , . . . , aj , . . . , ai , . . . an ] ,
(i) (j)

se observa que:

(I) multiplicar A por Eij equivale a intercambiar las columnas i–ésima


y j–ésima de A.

Análogamente se comprueba que:

(M) multiplicar A por Ei (λ) equivale a multiplicar la i–ésima columna de


A por λ, y

(S) multiplicar A por Eij (λ) equivale a sumarle a la i–ésima columna


λ veces la j–ésima columna (de A).

Por ejemplo, la secuencia:

Ej (λ) = [. . . , ei , . . . , λej , . . .] → [. . . , ei + λej , . . . , λej , . . .]


1
→ [. . . , ei + λej , . . . , (λej ) , . . .] = Eij (λ) ,
λ
muestra que, al multiplicar Ej (λ) por Eij (1) y luego por Ej (1/λ), se ob-
tiene Eij (λ); es decir

Eij (λ) = Ej (λ) Eij (1) Ej (1/λ) . (1)

Ası́ mismo, las tres secuencias siguientes:

(a) Eij = [. . . , ej , . . . , ei , . . .] → [. . . , ei , . . . , ej , . . .] = I ,
(i) (j) (i) (j)

1
(b) Ei (λ) = [. . . , λei , . . .] → [. . . , (λei ), . . .] = I ,
λ
(i) (i)

(c) Eij (λ) = [. . . , ei + λej , . . . , ej , . . .] → [. . . , (ei + λej ) + µej , . . . , ej , . . .]


(i) (j) (i) (j)
= Eij (λ + µ)
50 CAPÍTULO 3. LINEALIDAD

muestran, respectivamente, que

(a) Eij Eij = I


(b) Ei (λ)Ei (1/λ) = I (2)
(c) Eij (λ)Eij (µ) = Eij (λ + µ); en particular Eij (λ)Eij (−λ) = I,

permitiendo afirmar que

[6] Toda matriz elemental es regular y su inversa es una matriz elemental


de la misma clase. Especı́ficamente
−1
Eij = Eij , (Ei (λ))−1 = Ei (1/λ) , (Eij (λ))−1 = Eij (−λ) .

Descomposición de matrices invertibles. Si A es invertible entonces


puede transformarse en I mediante operaciones elementales sobre sus co-
lumnas (ver [4], § 22), es decir, existen matrices elementales E1 , E2 , . . . , Es
tales que
A E1 E2 · · · Es = I ,
y entonces A = Es−1 · · · E2−1 E1−1 . Teniendo en cuenta [6] se ve que

[7] Toda matriz regular es producto de matrices elementales.

§ 25 Formas bilineales

El tránsito de la linealidad a la multilinealidad, o sea la linealidad en varias


variables, puede ilustrarse en un caso sencillo, pero de importancia especial,
considerando las funciones reales definidas en el conjunto U × U, de todas
las parejas ordenadas (u, v) de elementos de U, y que son lineales en cada
una de sus variables. Con más precisión: diremos que una función

f :U ×U →R

es una forma bilineal en U si para, u, v, ui , v i en U y λ ∈ R,

(B.1) f (u1 + u2 , v) = f (u1 , v) + f (u2 , v) y


f (u, v 1 + v 2 ) = f (u, v 1 ) + f (u, v 2 ) ,
§ 25. FORMAS BILINEALES 51

(B.2) f (λu, v) = λf (u, v) y f (u, λv) = λf (u, v).

Las formas bilineales forman un subespacio de F(U × U, R), el cual es


isomorfo a Mn : dada una base [u1 , . . . , un ] de U, a cada forma bilineal f
se le hace corresponder la matriz A tal que aij = f (ui , uj ).

Nota. Debido a la eventual aparición de exponentes en el tratamiento


de formas bilineales y temas relacionados, muchas veces escribiremos aij
(resp. xi ) en lugar de aij (resp. xi ).

Si f (u, v) = f (v, u), para todo u y v, se dice que f es simétrica. La


forma cuadrática asociada a una forma bilineal simétrica f es la función
q : U → R tal que q(u) = f (u, u) para todo u de U.

Se dice que f (o que q) es:

(a) positiva si q(u) ≥ 0 para todo u,

(b) definida si q(u) = 0 implica u = 0.

En Rn una forma cuadrática está determinada por un polinomio de


segundo grado en n variables:
4
q(x1 , . . . , xn ) = aij xi xj
i,j

o, en forma matricial, q(x) = xt A x.

Una interpretación obvia de (B.1) y (B.2) conduce a la noción general


de función bilineal sobre U × V, con valores en W:

f : U × V −→ W,

donde U, V y W son espacios vectoriales con los mismos escalares.

Ejemplo. La función f : U " × U −→ R, f (φ, u) = φ(u), llamada eva-


luación, es una forma bilineal: es lineal en la primera variable por la
definición de las operaciones (ver § 18) y en la segunda por la linealidad
de φ.
Capı́tulo 4

Diagonalización

Todo operador lineal en R está definido por una ecuación de la forma


y = ax , donde a es una constante (escalar) .
En R2 cada operador T está definido por dos ecuaciones
y1 = a11 x1 + a12 x2
y2 = a21 x1 + a22 x2 ,
observándose que, en general, cada yi depende tanto de x1 como de x2 .

Cuando cada yi depende únicamente del xi correspondiente,


y1 = λ1 x1
y2 = λ2 x2 ,
es decir, cuando la matriz de T es diagonal, se ve que T (u) = λ1 u para todo
u en el primer eje coordenado, U1 y T (u) = λ2 u para todo u en el segundo,
U2 : estas dos rectas son subespacios T –invariantes, unidimensionales, en
los cuales T se comporta como lo hace un operador lineal de R.

Con miras a descifrar la estructura de un operador T se trata de des-


componer el espacio total en subespacios T –invariantes unidimensionales.
Si N es un tal subespacio, y u es un elemento de N entonces T u debe ser
de la forma λu, esto es : T actúa en N como simple multiplicación por
escalar, o cambio de escala, como sucede en R.

52
§ 26. AUTOVALORES Y AUTOVECTORES 53

§ 26 Autovalores y autovectores
Sea T un operador lineal en un espacio vectorial U. Si u es un vector y λ
un escalar tales que
u )= 0 y T u = λu ,
se dice que λ es un autovalor (o valor propio) y que u es un autovector
(o vector propio) de T , que se corresponden. También se dice en este
caso que u es un λ–autovector de T . Obsérvese que los dos conceptos se
definen simultáneamente.

La idea subyacente es geométrica: un autovector de T es un vector (no


nulo) que no cambia de dirección al ser transformado por T .

Con frecuencia escribiremos T −λ en lugar de T −λ1, donde 1 es la iden-


tidad 1U de U. Ası́ mismo, si A es una matriz cuadrada entonces se escribe
A − λ en lugar de A − λI, donde I es la matriz unidad correspondiente.

Es claro que u es un λ–autovector de T si y sólo si u es un 0–autovector


de T −λ, de modo que los λ–autovectores de T son precisamente los vectores
no nulos del núcleo de T − λ.

Para cada escalar λ, el núcleo Nλ de T − λ es T –invariante y se llama


el λ–subespacio propio de T ; su dimensión es la multiplicidad geo-
métrica de λ. Un escalar λ es un autovalor de T si y sólo si Nλ )= {0}.

También es fácil ver que u es un autovector de T si y sólo si el subes-


pacio generado por u es unidimensional y T –invariante.

Estas mismas definiciones se aplican a una matriz A ∈ Mn , considerada


como un operador en Rn , a saber, el operador asociado Ã.

Si A es la matriz de un operador T de U, con respecto a una base B


de U, entonces A y T tienen los mismos autovalores y el isomorfismo B̃
establece una correspondencia biunı́voca entre los autovectores de A y los
de T .

Sea A ∈ Mn . Un escalar λ es un autovalor de A si y sólo si el problema


homogéneo

(A − λ)x = 0 , (1)
54 CAPÍTULO 4. DIAGONALIZACIÓN

tiene soluciones diferentes de la trivial, es decir (ver [1], § 52) si y sólo si

det (A − λ) = 0 . (2)

De acuerdo con la fórmula (7) de la § 52, ésta es una ecuación polinómica


de grado n en λ; es la llamada ecuación caracterı́stica de A y tiene la
forma

p(λ) = det (A − λ) = a0 + a1 λ + a2 λ2 + · · · + (−1)n λn = 0 .

Si λ1 , . . . , λn son sus raı́ces tenemos que p(λ) = (λ1 − λ) . . . (λn − λ) y,


haciendo λ = 0, se observa que

det A = λ1 . . . λn . (3)

Si suponemos que λ1 , . . . , λs son las raı́ces distintas de p(λ), entonces

p(λ) = (λ1 − λ)m1 · · · (λs − λ)ms ,

siendo mj la multiplicidad (algebraica) de λj . Esta multiplicidad nunca


es inferior a la geométrica. Para verlo, escribamos α = λj y tomemos una
base [b1 , . . . , bk ] de Nα = {x ∈ Rn : Ax = αx}. Completándola obtenemos
una base B = [b1 , . . . , bn ] de Rn . Si ci es la i–ésima columna de la matriz
C = B −1 AB, entonces, para 1 ≤ i ≤ k:

ci = (B −1 AB)ei = B −1 Abi = B −1 (αbi ) = αB −1 bi = αei ,

(ver § 19, (2) y § 22, (1)), por lo tanto:

p(λ) = det (A − λ) = det B(C − λ)B −1 = det (C − λ) = (α − λ)k q(λ) ,

lo cual prueba que k, la multiplicidad geométrica de α, es menor o igual


que su multiplicidad algebraica.

Recapitulando: las raı́ces de (2) son precisamente los autovalores de


A. Para hallar los autovectores primero se hallan las raı́ces de (2) y luego,
para cada raı́z λ = λj , se resuelve el problema (1), es decir se halla una
base de su núcleo; los elementos no nulos de éste son los λj –autovectores
de la matriz A.

Notas. (1) En este punto irrumpe un elemento extraño al espı́ritu de


nuestro tema pues, salvo en dimensión uno, la ecuación caracterı́stica no
§ 26. AUTOVALORES Y AUTOVECTORES 55

es lineal. Esto a su vez franquea la entrada a los números complejos, pues


los ceros de un polinomio pueden no ser reales.

Admitiendo a los complejos como campo de escalares, la existencia de


valores propios se basa en el teorema fundamental del álgebra, el cual es,
esencialmente, un resultado del análisis complejo. La existencia de auto-
valores y de autovectores no es entonces un hecho trivial. Su profundidad
se refleja en sus formidables consecuencias.

Espacios complejos. Puede comprobarse sin dificultad que los desarro-


llos realizados hasta ahora continúan siendo válidos al sustituir R por C.
Los espacios vectoriales cuyos escalares están en C se llaman espacios
complejos.

El espacio Cn . El conjunto de todas las n–plas ordenadas de números


complejos se denota Cn . Su estructura es similar a la de Rn , salvo por el
producto interno (ver § 30, ejemplo (1)).

Como los complejos incluyen a los reales, resulta que Rn es un sub-


conjunto (mas no un subespacio) de Cn . En particular [e1 , . . . , en ] es una
base de Cn , de modo que dim Cn = n. (También es posible considerar a
Cn como un espacio vectorial sobre R y en este caso su dimensión es 2n y
Rn es un subespacio. Pero este punto de vista no es útil aquı́).

Cada elemento z de Cn puede escribirse, de manera única, en la forma

z = x + iy con x, y ∈ Rn .

Si, además, w = u + iv (con u, v ∈ Rn ) y λ = µ + iν (con µ, ν ∈ R),


inmediatamente se comprueba que:

(i) z = x − iy ,

(ii) z + w = x + u + i(y + v),

(iii) λz = µx − νy + i(νx + µy).

(iv) Si A es una matriz real y z = x + iy es un λ–autovector de A, con


λ = µ + iν, entonces

Ax = µx − νy y Ay = νx + µy , (4)
56 CAPÍTULO 4. DIAGONALIZACIÓN

y además z es un λ–autovector de A.

Notas. (2) Algunas veces, en lugar de R ó C escribiremos K; en lo suce-


sivo U será un espacio complejo de dimensión n y A, B, . . . serán matrices
complejas n × n, salvo que se diga otra cosa.

(3) Si A = [aij ] entonces la matriz A = [bij ] con bij = aij se llama la


conjugada de A.

§ 27 Operadores y matrices diagonalizables


Se dice que un operador T en U es diagonalizable si existe una base B
de U tal que la matriz de T con respecto a B es diagonal; se dice entonces
que B es una base adecuada para T .

Directamente se comprueba que B es una base adecuada para T si y


sólo si la base canónica es adecuada para el operador τ , inducido por T ,
con respecto a la base B (ver § 20).

Decimos que una matriz A es diagonalizable si el operador à lo es, es


decir (ver § 23), si existe una matriz regular U tal que
U −1 AU
es una matriz diagonal.

Esta propiedad depende de la abundancia de autovectores:

[1] Una matriz A, de orden n, es diagonalizable si y sólo si existe una base


U de Kn constituida exclusivamente por autovectores de A.

Demostración. Sea U = [u1 , . . . , un ] una base de Kn tal que cada ui es


un λi –autovector y sea Λ = ∆(λ1 , . . . , λn ). Entonces, (ver § 19, (4)):
U Λ = U [λ1 e1 , . . . , λn en ] = [λ1 U e1 , . . . , λn U en ]
= [λ1 u1 , . . . , λn un ] ,
AU = A[u1 , . . . , un ] = [Au1 , . . . , Aun ] .
Como Aui = λi ui y, además, U es invertible, entonces U −1 AU = Λ . Los
mismos cómputos prueban la recı́proca. ♠
§ 27. OPERADORES Y MATRICES DIAGONALIZABLES 57

Este resultado se traslada sin dificultad a operadores:

[1’] Un operador T en U es diagonalizable si y sólo si existe una base


de U constituida exclusivamente por autovectores de T .

En otros términos : Una base es adecuada para T si y sólo si todos sus


elementos son autovectores de T .

Dicho de otro modo: para que T sea diagonalizable basta que haya
suficientes autovectores para generar a U (ver [12], § 15).

Hay un criterio de independencia de autovectores:

[2] Autovectores correspondientes a autovalores distintos son linealmente


independientes.

Demostración. Supongamos que λ1 , . . . , λp son distintos y que, para


cada i, ui es un λi –autovector. Como u1 )= 0 se tiene que [u1 ] es lineal-
mente independiente.

Suponiendo ahora que Ak = [u1 , . . . , uk ], k < p, es l.i., probemos que


Ak+1 = [u1 , . . . , uk , uk+1 ] es l.i. En caso contrario uk+1 ∈ &Ak ' :

uk+1 = µ1 u1 + · · · + µk uk . (1)

Aplicando A obtenemos:

λk+1 uk+1 = λ1 µ1 u1 + · · · + λk µk uk . (2)

Multiplicando (1) por λk+1 y restando de (2) se obtiene:

0 = (λ1 − λk+1 )µ1 u1 + · · · + (λk − λk+1 )µk uk .

Como Ak es libre y λk+1 )= λi para i = 1, . . . , k tendremos que µ1 =


· · · = µk = 0, lo cual implica que uk+1 = 0. Pero esto es imposible pues
uk+1 es un autovector. ♠

En consecuencia:

[3] Si una matriz n × n tiene n autovalores distintos es diagonalizable.


58 CAPÍTULO 4. DIAGONALIZACIÓN

§ 28 Descomposición espectral

Si λ1 , . . . , λs son los distintos autovalores de T , entonces los subespacios


propios correspondientes, Nj = {u ∈ U : T u = λj u}, j = 1, . . . , s, son
independientes.

El operador T es diagonalizable si y sólo si U = N1 ⊕ · · · ⊕ Ns . Esta es


la descomposición espectral del espacio U subordinada al operador
diagonalizable T .

Si P1 , . . . , Ps son las proyecciones asociadas a esta descomposición, (ver


§ 18, ejemplo), entonces, para cada j, T Pj = λj Pj y, como 1 = P1 +· · ·+Ps ,
entonces T = λ1 P1 + · · · + λs Ps . Esta es la forma espectral de T .

Cuando T no es diagonalizable, la suma directa N1 ⊕· · ·⊕Ns no alcanza


a ser igual a U. El sistema (libre) B obtenido reuniendo sendas bases de
los Nj no es una base de U. No obstante, es posible completar B hasta
obtener una base en la cual la matriz de T sea aproximadamente diagonal.
Hablamos de la forma canónica de Jordan (ver § 53).

§ 29 Diagonalización simultánea

Supongamos que T y S conmutan (i.e. T S = ST ) y son diagonalizables;


podemos entonces, por una parte, usar la descomposición espectral de U
subordinada a T y, por la otra, tomar una base [v 1 , . . . , v n ] adecuada para
S. Empecemos escribiendo
v 1 = w1 + · · · + ws , con w j ∈ Nj , (j = 1, . . . , s) ,
y observemos que T (Sw1 ) = S(T w1 ) = S(λ1 w1 ) = λ1 (Sw 1 ), es decir,
Sw1 ∈ N1 . En general, Swj ∈ Nj para j = 1, . . . , s.

Si µ1 es el autovalor de v 1 tenemos que


Sv 1 = Sw1 + · · · + Sws y también Sv 1 = µ1 v 1 = µ1 w1 + · · · + µ1 ws .
Debido a la unicidad de la descomposición tenemos que
Swj = µ1 wj para j = 1, . . . , s ,
§ 29. DIAGONALIZACIÓN SIMULTÁNEA 59

o sea que, cada uno de los vectores wj , componentes de v1 , es un autovector


de S, a menos que sea 0.

Descomponiendo igualmente a v 2 , . . . , v n , y excluyendo los componen-


tes nulos, se obtiene un sistema de vectores que genera a U (pues los v i
lo hacen) y son, a la vez, autovectores de S y de T . Dicho sistema puede
reducirse a una base que será adecuada tanto para S como para T .

Suponiendo que existe una base adecuada para los operadores S1 , . . . , Sn


y que T conmuta con todos ellos, se observa que el resultado es válido para
cualquier número de operadores diagonalizables que conmutan dos a dos.
Para matrices tenemos entonces que: si A1 , . . . , An son diagonalizables y
conmutan dos a dos, entonces existe una matriz regular U tal que, para
cada i = 1, . . . , n, la matriz U −1 Ai U es diagonal (y recı́procamente).
Capı́tulo 5

Ortogonalidad

Las nociones discutidas hasta ahora, en el contexto de los espacios vec-


toriales, tienen bastante sabor geométrico. Han quedado por fuera, sin
embargo, conceptos como los de ángulo, perpendicularidad, proyección or-
togonal y distancia, entre los cuales hay conexiones significativas. En el
caso del plano se observa claramente que estas ideas están relacionadas con
la de producto interno. La extensión a Rn de las nociones correspondien-
tes es bastante natural y sirve de enlace con la formulación general que
desarrollaremos en este capı́tulo.

§ 30 Producto interno

Un producto interno (p.i.) en un espacio complejo U es una función que


a cada par de vectores u, v de U le hace corresponder un número complejo,
denotado &u, v', de tal manera que:

(PI.1) &u, v 1 + v 2 ' = &u, v 1 ' + &u, v 2 ',

(PI.2) &λu, v' = λ&u, v',

(PI.3) &v, u' = &u, v',

(PI.4) &u, u' ≥ 0. Además &u, u' = 0 si y sólo si u = 0.

60
§ 30. PRODUCTO INTERNO 61

Otras propiedades útiles del producto interno se derivan fácilmente de


las anteriores propiedades básicas. Por ejemplo :

&u1 + u2 , v' = &u1 , v' + &u2 , v' ,


&u, λv' = λ&u, v' ,
4 4 4
& λi ui , µj v j ' = λi µj &ui , v j ' ,
i j i,j
&u, 0' = &0, u' = 0 .

Además, &u, v' = 0, para todo v, si y sólo si u = 0.

Ejemplo. (1) Para z = [z1 , . . . , zn ]t , w = [w1 , . . . , wn ]t en Cn se define

&z, w' = z1 w 1 + · · · + zn wn = w# z , donde w# = wt .

Este es un producto interno en Cn y coincide con el producto interno


usual en Rn (cuando z, w ∈ Rn ).

Si z = x + iy y w = u + iv (x, y, u, v ∈ Rn ) entonces

&z, w' = &x, u' + &y, v' − i (&x, v' − &y, u') .

Norma. La norma o longitud asociada a un producto interno es la


función
*u* = &u, u'1/2 .
De esta definición se deducen las siguientes propiedades básicas:

(N.1) Para todo u, *u* ≥ 0. Además, *u* = 0 si y sólo si u = 0.

(N.2) Para todo u y todo λ, *λu* = |λ| *u*.

La distancia entre u y v es la longitud de su diferencia:

*u − v* .

Si u es tal que *u* = 1, se dice que es un vector unitario; para todo


u )= 0 el vector u/*u* es unitario.

Vectores ortogonales. Cuando &u, v' = 0 se dice que u y v son orto-


gonales, y se escribe u ⊥ v.
62 CAPÍTULO 5. ORTOGONALIDAD

Si R y S son subconjuntos no vacı́os de U, tales que u ⊥ v para todo


u ∈ R y todo v ∈ S, se dice que R y S son ortogonales y se escribe R ⊥ S.
En lugar de {u} ⊥ S se escribe u ⊥ S y se dice que u es ortogonal a S. El
conjunto de todos los vectores ortogonales a S es un subespacio llamado el
ortogonal de S y denotado S ⊥ . En general S ⊂ S ⊥⊥ (= (S ⊥ )⊥ ).

Ejemplos. (2) El conjunto solución de un sistema homogéneo, Ax = 0 ,


es el ortogonal de (las columnas de) At .

(3) Para que un vector sea ortogonal a un subespacio N basta que sea
ortogonal a un sistema de generadores de N .

Sistemas ortonormales. Se dice que un sistema A = [u1 , . . . , un ] de


vectores no nulos es ortogonal si ui ⊥ uj siempre que i )= j. Si, además,
los ui son todos unitarios se dice que A es un sistema ortonormal.

Hay relación entre ortogonalidad y libertad:

[1] Todo sistema ortogonal es libre.

Demostración. Supongamos que x1 u1 + · · · + xk uk = 0 y escribamos


u = x1 u1 + · · · + xk uk . Multiplicando por u1 tenemos que, por una
parte, &u, u1 ' = &0, u1 ' = 0, y, por la otra, &u, u1 ' = x1 &u1 , u1 ' + · · · +
xk &uk , u1 ' = x1 *u1 *2 .

Como *u1 * )= 0 se concluye que x1 = 0. Similarmente se deduce que


los otros coeficientes deben ser nulos. ♠

Ejemplo. (4) Dados z y w como en el ejemplo (1), si z ⊥ z entonces


x ⊥ y, *x* = *y* y *z* √ =√ *x*√ + *y*
2 2
√ . Si el sistema [z, z, w, w]
2

es ortonormal entonces [ 2x, 2y, 2u, 2v] también lo es y genera el


mismo subespacio. La generalización es directa.

§ 31 Proyección ortogonal de un vector sobre


otro

Sea u0 un vector unitario. Para cada vector u existe un único escalar κ0


tal que u − κ0 u0 es ortogonal a u0 .
§ 31. PROYECCIÓN ORTOGONAL DE UN VECTOR SOBRE OTRO 63

En efecto, la condición u − κ0 u0 ⊥ u0 , i.e. &u − κ0 u0 , u0 ' = 0, es


equivalente a
κ0 = &u, u0 ' .
......
.................
...... ......... ...
.. .. ...... ... ...
... .. . .
..... ... .
. .... .
... ... .. ... ...
. ..
.... ... .
.... .
... . . . ....
. .
... ...
.
. . .
.. .. ... .
... .
...
........ ...... .... .
....... .... ...
..... . .... .
y .. . .
...
u ...
.. .. ...
. .... N
.. . ... ... .... .
... ... ... ..
. .... ..................... ...
.. .
.
.. .....
. . ..
... ... ........... ..
.
...
. ..
.
...
..
...
...........
.
..........
..........
..........
x = κ0 u0
... .. .
.....
...
. ...
.. ..........
... ..........
... .........
. .... ...................
............................
.
......... ..............
......
......
...... ......... u0
......

Este número κ0 es la componente de u a lo largo de u0 . El vector


x = κ0 u0 = &u, u0 'u0 es la proyección (ortogonal) de u sobre u0 , o la
parte de u paralela a u0 , su longitud es |κ0 | y se caracteriza por ser el
elemento de la recta N , determinada por u0 , más próximo a u. En efecto,
para un elemento cualquiera λu0 de N se tiene que

*u − λu0 *2 = &u − λu0 , u − λu0 '


= &u, u' − λ&u, u0 ' − λ&u0 , u' + λλ&u0 , u0 '
= *u*2 − λκ0 − λκ0 + λλ .

Restando y sumando κ0 κ0 , es decir, |κ0 |2 , se observa que

*u − λu0 *2 = *u*2 − |κ0 |2 + |λ − κ0 |2 ,

donde se ve que *u − λu0 *2 , y por lo tanto *u − λu0 *, es mı́nima precisa-


mente cuando λ = κ0 , es decir, cuando λu0 = x.

También se ve allı́ (haciendo λ = κ0 ) que |κ0 | ≤ *u* (i.e. “la proyección


(ortogonal) no puede ser mayor que lo proyectado”), es decir

|&u, u0 '| ≤ *u* .

Si v es un vector cualquiera, no nulo, y tomamos u0 = v/*v* obtene-


mos la célebre

Desigualdad de Schwarz. Para todo u y todo v

|&u, v'| ≤ *u* *v* .


64 CAPÍTULO 5. ORTOGONALIDAD

Si alguno de los vectores es nulo la desigualdad se cumple trivialmente.

Este hecho permite obtener la última de las propiedades básicas de la


norma, a saber, la desigualdad del triángulo:

(N.3) Para todo u y todo v, *u + v* ≤ *u* + *v*.

§ 32 Proyección ortogonal de un vector sobre un


subespacio

Para generalizar la noción de proyección consideremos ahora un vector


u y un subespacio N , generado por un sistema ortonormal [u1 , . . . , uk ].
Buscar un elemento de N cuya distancia a u sea mı́nima significa buscar
escalares λi tales que *u − Σ λi ui * sea mı́nima. Un cómputo similar al
anteriormente efectuado muestra que

*u − Σ λi ui *2 = *u*2 − Σ|κi |2 + Σ|λi − κi |2 ,

donde κi = &u, ui ' es la componente de u a lo largo de ui . Se concluye


que el vector
x = κ1 u1 + · · · + κk uk
es el elemento de N más próximo a u. Este vector x se llama la proyec-
ción (ortogonal) de u sobre N o la parte de u en N y está caracterizado
por la propiedad de que el vector

y = u−x

es ortogonal a N , es decir, está en N ⊥ . Este vector y se llama la parte


de u ortogonal a N .

Es claro que x = 0 si y sólo si u ⊥ N . También es claro que u ∈ N si


y sólo si y = 0, de modo que si u ∈ ) N y definimos

uk+1 = y/*y*

entonces uk+1 es una combinación lineal de u1 , . . . , uk , u, y el sistema


ampliado [u1 , . . . , uk , uk+1 ] es también ortonormal.
§ 33. ORTONORMALIZACIÓN 65

§ 33 Ortonormalización

A partir de un sistema libre B = [v 1 , . . . , v p ] puede construirse, paso a


paso, uno ortonormal A = [u1 , . . . , up ], de tal manera que, para cada i,

&Ai ' = &Bi ' ,

donde Ai = [u1 , . . . , ui ] y Bi = [v 1 , . . . , v i ], para i = 1, . . . , p. En parti-


cular &A' = &B'.

El primer paso es obvio: como B es libre entonces v 1 )= 0 y podemos


definir
u1 = v 1 /*v 1 * .

Suponiendo ahora que ya hemos construido Ak , k < p, que satisface los


requerimientos, observamos que v k+1 )∈ &Ak ' y entonces el último resultado
de la § 32, con u = v k+1 y N = &Ak ', permite obtener un vector uk+1 tal
que [u1 , . . . , uk , uk+1 ] es ortonormal y uk+1 , es c.l. de u1 , . . . , uk y v k+1
y, por lo tanto, de v 1 , . . . , v k y v k+1 ; en consecuencia &Ak+1 ) ⊂ &Bk+1 ' y
entonces &Bk+1 ' = &Ak+1 ', ya que tienen la misma dimensión. Es decir,
&Ak+1 ' satisface los requerimientos. De esta manera llegamos a Ap que es
el A buscado.

Este es el llamado proceso (de ortogonalización) de Gram–Schmidt.

§ 34 Bases ortonormales

El proceso de ortogonalización garantiza la existencia de bases ortonor-


males, las cuales brindan ventajas en un espacio con producto interno.
En efecto, el mismo procedimiento seguido para establecer [1] en la § 30
muestra que:

[2] Las componentes xi de un vector u en una base ortonormal [u1 , . . . , un ]


vienen dadas por

xi = &u, ui ' , i = 1, . . . , n .
66 CAPÍTULO 5. ORTOGONALIDAD

Además: *u*2 = |x1 |2 + · · · + |xn |2 (Pitágoras).

En particular, si x ∈ Kn y [e1 , . . . , en ] es la base canónica, entonces

xi = &x, ei ' , i = 1, . . . , n y *x*2 = |x1 |2 + · · · + |xn |2 .

Nota. A menudo se usa el término ortogonal (resp. unitario) para referirse


a un sistema (o matriz) [a1 , . . . , an ] ortonormal en Rn (resp. Cn ).

§ 35 Proyecciones ortogonales

Dado un subespacio N de U, la función P : U → U que a cada u de U


le hace corresponder su proyección ortogonal sobre N (ver § 32), es un
operador lineal y se llama, por supuesto, la proyección (ortogonal) sobre
N ; su recorrido es N y su núcleo es N ⊥ , de modo que

dim N + dim N ⊥ = dim U . (1)

Nótese que, como N ⊂ N ⊥⊥ y dim N ⊥⊥ = dim U − dim N ⊥ =


dim N , entonces N = N ⊥⊥ .

La proyección (ortogonal) sobre N ⊥ es Q = 1 − P . En realidad U =


N ⊕ N ⊥ y P y Q son las proyecciones asociadas a esta descomposición de
U, (ver § 18, ejemplo).

Dos subespacios N1 y N2 , con proyecciones P1 y P2 , respectivamente,


son ortogonales si y sólo si P1 P2 = 0. En particular, P Q = 0.

Si U = Kn y P0 es la proyección sobre el subespacio (unidimensional)


generado por un vector unitario u0 , se tiene que

P0 (u) = &u, u0 'u0 = u0 &u, u0 '


= u0 (u#0 u) = (u0 u#0 )u , para todo u de Kn ,

de modo que u0 u#0 es precisamente la matriz de P0 .

Si [u1 , . . . , un ] es una base ortonormal de Kn , cada u de Kn se expresa


en la forma
u = x1 u1 + · · · + xn un ,
§ 36. DIAGONALIZACIÓN ORTONORMAL 67

donde (ver [2], § 34) xi ui = &u, ui 'ui = (ui u#i )u. Entonces:
u = &u, u1 'u1 + · · · + &u, un 'un = (u1 u#1 + · · · + un u#n )u , (2)
para todo u de Kn . Por lo tanto
u1 u#1 + · · · + un u#n = I .
Ejemplo. En toda variedad S = N + c (ver § 9) hay un vector de norma
mı́nima, a saber, la proyección ortogonal de c (o de cualquier otro elemento
de S) sobre N ⊥ . Tal vector es el único elemento de S ∩ N ⊥ .

§ 36 Diagonalización ortonormal

Como las bases ortonormales son muy convenientes, dado un operador


T nos preguntamos si existe una base adecuada para T (ver § 27) que
sea ortonormal. Si éste es el caso diremos que T es ortonormalmente
diagonalizable (⊥–diagonalizable). La noción se aplica a matrices vı́a el
operador asociado (cfr. § 26).

Los resultados de las §§ 27 y 28 pueden ajustarse a esta situación. En


particular, si T es ⊥–diagonalizable, en la descomposición subordinada a
T (ver § 28) los subespacios Nj son mutuamente ortogonales y cada Pj es
la proyección ortogonal sobre Nj . A la descomposición espectral de U,
U = N1 ⊕ · · · ⊕ Ns ,
corresponde la forma espectral de T ,
s
4
T = λj Pj , (1)
1

donde (ver § 3
18, ejemplo): a) Pj2 = Pj para todo j = 1, . . . , s, b) Pj Pk = 0
si j )= k, c) s1 Pj = 1U .

Puede demostrarse que tal descomposición es única.

Estas relaciones implican que, para cualquier polinomio f (t),


s
4
f (T ) = f (λj )Pj . (2)
1
68 CAPÍTULO 5. ORTOGONALIDAD

Si los λj son, todos, distintos de 0 entonces T es invertible, y recı́pro-


camente. En este caso T −1 = Σλ−1 j Pj .

Los resultados anteriores se reformulan de la manera usual para ma-


trices. En este caso se puede también proceder directamente como sigue:
sea A una matriz de orden n y sea U = [u1 , . . . , un ] una base ortonormal,
adecuada para A, con Aui = ξi ui (i = 1, . . . , n). Para todo u de Kn se
tiene que (ver § 35, (2)):

Au = A(&u, u1 'u1 + · · · + &u, un 'un )


= &u, u1 'ξ1 u1 + · · · + &u, un 'ξn un
= [ξ1 (u1 u#1 ) + · · · + ξn (un u#n )]u ,

y, finalmente,
n
4
A= ξi Ki ,
1

donde Ki es la matriz de la proyección ortogonal sobre la recta (subespacio


unidimensional) generada por ui . Agrupando los sumandos correspondien-
tes a los ξi repetidos, se obtiene la expresión correspondiente a la forma
espectral (1).

§ 37 Representación de funcionales. Adjunción

Cada elemento v de U presenta una faceta dinámica cuando observamos


que, con v fijo, la expresión &u, v' define un funcional de U:

ϕv : U → K ,

donde ϕv (u) = &u, v', para todo u de U. Dos vectores distintos no pueden
originar un mismo funcional.

Nos preguntamos si todo funcional ϕ : U → K es de esta forma. Es


claro que, si hay un elemento v de U tal que ϕ(u) = &u, v' (para todo u de
U), entonces v es ortogonal a todo elemento u del núcleo N de ϕ, de modo
que v debe ser buscado en N ⊥ y, si existe, será tanto más fácil hallarlo
cuanto más pequeño sea N ⊥ ; en particular, si ϕ = 0 necesariamente v = 0.
§ 37. REPRESENTACIÓN DE FUNCIONALES. ADJUNCIÓN 69

Cuando ϕ )= 0, su recorrido es K (pues no es {0}) y entonces la ecuación


dimensional indica que dim N = dim U − 1, concluyéndose que dim N ⊥ =
1 (ver § 35, (1)); es decir, N ⊥ = &u0 ', para algún u0 con *u0 * = 1 y
entonces el v buscado debe ser de la forma λu0 . Como, para cada u de U,
debe cumplirse que

ϕ(u) = &u, v' = &u, λu0 ' = λ&u, u0 ' (1)

y, por otra parte, u = x + y con x ∈ N ⊥ y y ∈ N , donde x = &u, u0 'u0


(ver § 31), entonces

ϕ(u) = ϕ(x) + ϕ(y) = ϕ(x) = &u, u0 'ϕ(u0 ) . (2)

Comparando (1) y (2) se ve que basta tomar λ = ϕ(u0 ).

Se establece ası́ una correspondencia biyectiva, entre U y U " , la cual


permite visualizar los elementos de U como funcionales y recı́procamente.

Supongamos ahora que T : U → V es una transformación lineal en-


tre espacios con producto interno. Cada elemento v de V determina un
funcional ψ = ψv : U → K, ψ(u) = &T u, v', el cual, según la discusión
anterior, determina un elemento de U (que depende tanto de T como de
v, y por ello se denota T # v) caracterizado por la condición

ψ(u) = &u, T # v' ,

para todo u de U. Queda ası́ definida una función T # : V → U, llamada la


adjunta de T que verifica la siguiente relación de adjunción: para todo u
de U y todo v de V,

(RA) &u, T # v' = &T u, v' .

Esta condición caracteriza a T # , sin involucrar explı́citamente la identifi-


cación entre vectores y funcionales, y permite demostrar las propiedades
básicas de la operación - ; por ejemplo:

(S ± T )# = S # ± T # (λT )# = λT #

1# = 1 T ## = (T # )# = T (3)

(ST )# = T # S # ,
70 CAPÍTULO 5. ORTOGONALIDAD

siempre que las sumas y productos estén definidos. Además, T es invertible


si y sólo si T # lo es y, en este caso,

(T −1 )# = (T # )−1 .

Si A = [a1 , . . . , an ] = [aij ] es una matriz m × n, su adjunta A# es, por


definición, la matriz de la adjunta de la transformación T definida por A.

Sea A# = [b1 , . . . , bm ] = [bij ]. Aplicando (RA) con T = Ã, u = ei ,


(1 ≤ i ≤ n) y v = f j , (1 ≤ j ≤ m) (vectores de las bases canónicas de Kn
y Km , respectivamente) y, teniendo en cuenta [2], de la § 34, obtenemos:

&ei , T # f j ' = &ei , A# f j ' = &ei , bj ' = bij 
* =⇒ bij = aji

&T ei , f j ' = &Aei , f j ' = &ai , f j ' = aji

En otros términos A# es la conjugada (ver § 26, nota (3)) de la traspuesta


(ver Preliminares) de A:

A# = At . (4)

En particular, cada fila de A# es la conjugada de la traspuesta de


la correspondiente columna de A. Al multiplicar A# por A, el elemento
situado en la fila i y la columna k del producto es igual al producto interno
de ak por ai (ver § 30, ej. (1)). Por lo tanto: A es ortonormal si y sólo si
A# A = I.

En el caso real

A# = At , (5)

y la matriz real A es ortogonal si y sólo si At A = I.

§ 38 El álgebra L(U )

Cuando V = U, la adjunción - es una operación en L(U), la cual, debido


a que T ## = T , se llama una involución. Ahora L(U ) (y por lo tanto
Mn ) ha adquirido una estructura polifacética: es un espacio vectorial,
§ 38. EL ÁLGEBRA L(U ) 71

posee una multiplicación con elemento unidad, una involución (y hasta


es posible dotarla de una norma) y todo ello muy bien armonizado (ver
§ 37, (3) y § 18, (1)). Tiene, no obstante algunas peculiaridades, como
la no conmutatividad, que provienen de su misma naturaleza. Con esta
salvedad, L(U) es muy parecida al álgebra de todas las funciones complejas
definidas sobre un conjunto (y, más particularmente, al campo complejo
C) con la conjugación como involución.

En L(U) surgen posibilidades de interacción entre un operador y su


adjunto, las cuales resultan especialmente fructı́feras. Por ejemplo, es claro
que, según (RA) (ver § 37), para todo u, v de U,

Tu ⊥ v si y sólo si u ⊥ T #v ,

lo cual, aunque no parece a primera vista, implica que

[3] Un subespacio N es T –invariante si y sólo si su ortogonal N ⊥ es T # –


invariante.

Demostración. Supongamos que N es T –invariante y tomemos v ∈ N ⊥ .


Para todo u de N se cumple que T u ∈ N y entonces T u ⊥ v, es decir,
u ⊥ T # v. En otros términos, T # v ∈ N ⊥ .

La recı́proca es inmediata ya que N ⊥⊥ = N y T ## = T . ♠

Es posible que un operador coincida con su adjunto. Por ejemplo, si P


es la proyección (ortogonal) sobre un subespacio N entonces, dados u, v
en U, puede escribirse

u = u1 + u2 y v = v1 + v2 con u1 , v 1 ∈ N y u2 , v 2 ∈ N ⊥

y entonces

&P u, v' = &u1 , v 1 + v 2 ' = &u1 , v 1 ' + &u1 , v 2 ' = &u1 , v 1 '

y &u, P v' = &u1 + u2 , v 1 ' = &u1 , v 1 ' + &u2 , v 1 ' = &u1 , v 1 ' .

Por lo tanto P # = P .

Esto llama la atención sobre los operadores ⊥–diagonalizables pues,


72 CAPÍTULO 5. ORTOGONALIDAD

para un tal operador T , la forma espectral (§ 36, (1)) indica que


s
4
T =
#
λj Pj , (1)
1

de donde se deduce que los operadores ⊥–diagonalizables conmutan con


su adjunto. Especı́ficamente
s
4
T T = TT =
# #
|λj |2 Pj .
1

Por último, comparando (1) con (§ 36, (2)) se concluye que, si T es


⊥–diagonalizable, entonces su adjunto es un polinomio en T (basta tomar
un polinomio f (t) tal que f (λj ) = λj para j = 1, . . . , s).

§ 39 Formas sesquilineales

El producto interno usual de Rn , &x, y' = x1 y1 + · · · + xn yn , el cual es


una forma bilineal simétrica (ver § 25), no puede extenderse directamente
a Cn , pues no siempre se tendrı́a &x, x' ≥ 0, lo cual es necesario para
introducir una noción razonable de longitud (por ejemplo, en C2 el vector
[1, i]t tendrı́a norma 0). La modificación necesaria no es mayor (ver § 30,
ejemplo (1)) pero altera la simetrı́a, y parte de la linealidad en la segunda
variable. Esto conduce a modificar la noción de forma bilineal con el fin
de hacerla útil en espacios complejos: de una función f : U × U → C que
satisface las propiedades (B.1) de la § 25 y

(B.2" ) : f (λu, v) = λf (u, v) y f (u, λv) = λf (u, v),

se dice que es una forma sesquilineal (sesqui = 1 12 ). Si, además, f (u, v) =


f (v, u) se dice que f es hermitiana; las otras nociones de la § 25 se aplican
aquı́ y todas coinciden, en el caso real, con las allı́ tratadas.

Representación. Para cada operador T en U, la ecuación


f (u, v) = &T u, v' (1)
define una forma sesquilineal. Recı́procamente, si f es una forma sesqui-
lineal, cada u de U define un funcional lineal ϕ(v) = f (u, v), determinando
§ 39. FORMAS SESQUILINEALES 73

entonces un elemento w de U tal que ϕ(v) = &v, w' (para todo v ∈ U) :


queda definido ası́ un operador T , que a u le hace corresponder w, y este
operador obviamente satisface (1).

La modificación introducida tiene por fin tratar el caso complejo. Sin


embargo, la idea básica sigue siendo la multilinealidad en el producto carte-
siano.

Nota. El producto cartesiano permite juntar elementos de clases distintas,


sin revolverlos. Por eso es útil para combinar cosas que, en principio, no
son combinables; por ejemplo, sumar o multiplicar vectores de espacios
distintos. Para ilustrarlo tomemos dos espacios vectoriales U y V, con
bases [u1 , . . . , um ] y [v 1 , . . . , v n ], respectivamente.

a) la suma directa (externa) U ⊕ V es el espacio vectorial formado por


el conjunto U × V con las operaciones

(x, y) + (u, v) = (x + u, y + v), λ(u, v) = (λu, λv).

Cada u ∈ U (resp. v ∈ V) puede identificarse con (u, 0) (resp. (0, v));


además (u, v) = (u, 0) + (0, v); en este sentido (u, v) representa la suma
de u y v.

Los vectores (ui , 0), (0, v j ) forman una base de U ⊕ V. Entonces:

dim U ⊕ V = dim U + dim V.

b) el producto tensorial U ⊗ V es el dual del espacio vectorial W de


todas las formas bilineales sobre U × V. Si u ∈ U y v ∈ V, definimos:

(u ⊗ v)(ϕ) = ϕ(u, v), para todo ϕ ∈ W.

Entonces u ⊗ v ∈ U ⊗ V; este vector es el producto (tensorial) de u y v.


Los vectores ui ⊗ v j forman una base de U ⊗ V. Por lo tanto:

dim U ⊗ V = dim U · dim V.


Capı́tulo 6

Normalidad

Con la descomposición espectral un operador ⊥–diagonalizable queda di-


secado en fragmentos (proyecciones) a partir de los cuales puede inferirse
su comportamiento global, colmándose ası́ prácticamente todas las aspira-
ciones relativas al análisis individualizado del operador. Falta, no obstante,
demarcar efectivamente la clase de los operadores ⊥– diagonalizables. Por
lo pronto sólo sabemos que un tal operador debe conmutar con su adjunto,
razón por la cual dirigimos nuestra atención hacia esa propiedad.

§ 40 Operadores normales

De un operador T : U → U tal que

T #T = T T #

se dice que es un operador normal. Esta condición vincula estrechamente


a T con T # , vı́a la relación de adjunción. Tomemos, por ejemplo, v ∈ U :

*T v*2 = &T v, T v' = &v, T # T v'


= &v, T T # v' = &T # v, T # v' = *T # v*2 .

Esto muestra que:

74
§ 41. EL TEOREMA ESPECTRAL 75

[1] Si T es un operador normal, entonces, para todo v de U :

*T v* = *T # v* .

De aquı́ se deduce que

T v = 0 si y sólo si T #v = 0 ,

y entonces: v es un 0–autovector de T si y sólo si v es un 0–autovector de


T # . Esta relación se generaliza con sólo observar que (T − µ)# = T # − µ y
que T − µ es normal si y sólo si T lo es:

[2] Si T es normal entonces v es un µ–autovector de T si y sólo si v


es un µ autovector de T # .

El conjunto de todos los autovalores de T es el espectro de T y se


denota Spec T . Con esta notación Spec T # = Spec T , para T normal.

Ahora se puede afinar un resultado anterior (ver [2], § 27): suponga-


mos que u es un λ–autovector y v es un µ–autovector de T , con λ )= µ,
entonces:

&T u, v' = &λu, v' = λ&u, v' 
* =⇒ &u, v' = 0 .

&u, T v' = &u, µv' = µ&u, v'
#

Hemos demostrado que:

[3] Autovectores correspondientes a autovalores distintos, de un operador


normal, son ortogonales.

En otros términos: para autovalores λ, µ de un operador normal T se


cumple que Nλ ⊥ Nµ , siempre que λ )= µ.

§ 41 El teorema espectral

Consideremos un operador T en un espacio complejo U de dimensión n.


Entonces T tiene, por lo menos, un autovector u1 (ver § 26, nota), y puede
suponerse que *u1 * = 1.
76 CAPÍTULO 6. NORMALIDAD

Si T es normal, u1 es un autovector de T # , es decir, el subespacio N


generado por u1 es unidimensional y T # –invariante. Entonces N ⊥ tiene
dimensión n − 1 y es T (y T # )–invariante. Esto permite considerar a T
como un operador en N ⊥ , el cual es normal (pues la relación T # T = T T # se
mantiene), pudiendo reiterarse el proceso. Esta es la clave para el siguiente
teorema fundamental.

Teorema espectral. Todo operador normal en un espacio complejo es


ortonormalmente diagonalizable.

Demostración. Después de las consideraciones anteriores sólo falta or-


ganizar el argumento inductivo:
1. Si dim U = 1 la afirmación es trivial.
2. Supongamos que el enunciado ha sido demostrado para espacios de
dimensión n − 1 y tomemos U con dim U = n.
Según se ha visto, T es normal en N ⊥ y dim N ⊥ = n − 1, de modo que
existe una base ortonormal [u2 , . . . , un ] de N ⊥ formada por autovectores
de T . Entonces [u1 , u2 , . . . , un ] es una base ortonormal de U formada por
autovectores de T . ♠

§ 42 Operadores autoadjuntos, unitarios y posi-


tivos

La analogı́a entre operadores y números complejos puede usarse como prin-


cipio heurı́stico para identificar y estudiar clases importantes de operado-
res.

El cuerpo C tiene varios subconjuntos notables: los reales, R; los com-


plejos de módulo uno, U; los reales positivos (en el sentido de no negativos),
R+ ; los reales estrictamente positivos, R+ 0 ; los complejos no nulos, C0 .

Los tres primeros se caracterizan ası́:


(1) z ∈ R si y sólo si z = z,
(2) z ∈ U si y sólo si zz = 1,
§ 42. OPERADORES AUTOADJUNTOS, UNITARIOS Y POSITIVOS 77

(3) z ∈ R+ si y sólo si z = ww para algún w de C (o también, si y


sólo si z = x2 para algún x de R).
El cuarto consta de los elementos no nulos de R+ y, debido a que, en
los números, no ser nulo equivale a tener inverso, el quinto no es otro que
el conjunto de los complejos invertibles.

En consonancia con tales caracterizaciones se dice que un operador T


es
(1) autoadjunto (simétrico en el caso real, hermitiano en el caso
complejo) si T # = T ,
(2) unitario (ortogonal, en el caso real) si T # T = 1. Esto equivale a
decir que T es invertible y T −1 = T # ,
(3) positivo, y se escribe T ≥ 0, si existe un operador S tal que
S # S = T . Si T es positivo e invertible se dice que es estrictamente
positivo y se escribe T > 0.
Estos operadores son todos normales, es decir, ⊥–diagonalizables y
la naturaleza de sus espectros corrobora la analogı́a que ha inspirado sus
definiciones. En efecto, sean T un operador, λ un autovalor de T y u un λ–
autovector. Podemos suponer que *u* = 1, y ası́ &T u, u' = &λu, u' = λ.
Con base en las hipótesis 1) T # = T , 2) T # T = 1, 3) T = S # S, pueden
efectuarse los siguientes cálculos, respectivamente:

1) λ = &T u, u' = &u, T # u' = &u, T u' = λ.

2) &T u, T u' = &u, T # T u' = &u, u' = 1

3) λ = &T u, u' = &S # Su, u' = &Su, Su' ≥ 0 (si T es invertible,


S es invertible y entonces Su )= 0, de modo que &Su, Su' > 0),

los cuales indican que, si T es autoadjunto (resp. unitario, positivo, estric-


tamente positivo), entonces sus autovalores son reales (resp. de módulo
1, positivos, estrictamente positivos), esto es, Spec T está en R (resp. U,
R+ , R+0 ). Para operadores normales, la recı́proca también es cierta y se
demuestra usando la forma espectral.

Si T = S 2 , con S autoadjunto, entonces T ≥ 0; si, además, S es inver-


tible, entonces T es invertible y, por lo tanto, T > 0. Recı́procamente, si
78 CAPÍTULO 6. NORMALIDAD

3
T ≥ 0, su forma espectral, T = λj Pj , permite hallar un S, autoadjunto,
tal que S 2 = T , a saber

4 !
S= λj Pj . (1)

Si T > 0 entonces λj > 0, para todo j, luego S es invertible. En con-


secuencia, un operador T es positivo (resp. estrictamente positivo) si y
sólo si T = S 2 para algún S autoadjunto (resp. autoadjunto e invertible).
El operador S puede escogerse positivo (como√ se hizo en (1)); en tal caso
es único y se llama la raı́z cuadrada, T , de T . La analogı́a con los
números es notable: z ∈ R+ (resp. z ∈ R+ 0 ) si y sólo si z = x para algún
2

x real (resp. real y distinto de cero); en tal caso existe un único x > 0 tal

que x2 = z, a saber, x = z.

Recordemos también que un operador cualquiera T es invertible si y


sólo si sus autovalores son todos diferentes de cero (i.e. están en C0 ).

El carácter de T se refleja, además, en su forma cuadrática asociada


q(u) = &T u, u'. En efecto, si T es autoadjunto (resp. positivo, estric-
tamente positivo), los mismos cálculos 1) y 3) muestran que q(u) es real
(resp. positiva, positiva definida). Para la recı́proca basta tomar T , λ y
u como antes; en efecto, como q(u) = &T u, u' = λ se ve que, si q(u)
es real (resp. positiva, positiva definida), entonces los autovalores de T
son reales (resp. positivos, estrictamente positivos), de modo que, si T es
normal, entonces es autoadjunto (resp. positivo, estrictamente positivo).

Para un operador autoadjunto T : U −→ U, el número p de autova-


lores mayores que 0 puede considerarse como una medida de su grado de
positividad. Para el mismo efecto, podrı́a también considerarse el máximo
m de la dimensión de los subespacios en los cuales su forma cuadrática es
positiva definida. Por fortuna estos valores coinciden. Para verlo, tómese
una base ortonormal de U formada por autovectores ui , con autovalores
correspondientes λi , de los cuales los primeros p son los positivos: λi > 0
para i = 1, . . . , p y λi ≤ 0 para i = p + 1, . . . , n.

Sea M un subespacio de dimensión s tal que q(u) > 0 para todo


u ∈ M, siempre que u )= 0. Si fuera s > p entonces (ver § 15, ejemplo
§ 43. MATRICES SIMÉTRICAS 79

(4)) existirı́a un u ∈ M ∩ &up+1 , . . . , un ' , u )= 0:


n
4
u= xi ui , con xi )= 0 , para algún i.
p+1
3n
Entonces T u = p+1 xi λi ui y, por lo tanto:
n
4
0 < q(u) = &T u, u' = x2i λi ≤ 0 .
p+1

Esta contradicción prueba que s ≤ p. Luego m ≤ p.


3p
Por otra parte, si u ∈ &u1 , . . . , up ', u )= 0, entonces q(u) = 1 x2i λi
es mayor que 0. Esto prueba que m ≥ p. Conclusión: m = p.

Nota. Las nociones y resultados anteriores se trasladan de la manera


usual a las matrices. En particular, A es normal si y sólo si A# A = AA# y es
autoadjunta si coincide con A# , es decir, con la conjugada de su traspuesta
(ver § 37, (4)).

§ 43 Matrices simétricas

De una matriz real autoadjunta, es decir, tal que At = A, se dice que es


simétrica (ver § 42 y § 37, (5)). Como, en este caso, sus autovalores son
reales, el teorema espectral indica que existe una matriz ortogonal P tal
que la matriz Λ = P t AP es diagonal.

Esto puede aplicarse a la matriz de una forma cuadrática


4
q(x1 , . . . , xn ) = aij xi xj , esto es, q(x) = xt Ax ,

interpretando la ecuación
x = Py
como un cambio de coordenadas ortogonales (de las xi a las yi , o sea, de
la base canónica I a la base P ) que transforma a q en la forma cuadrática

q0 (y) = q(P y) = y t Λy ,
80 CAPÍTULO 6. NORMALIDAD

es decir: 4
q0 (y1 , . . . , yn ) = λi yi2 .
Se obtiene ası́ el llamado teorema de los ejes principales:
3
[4] Para toda forma cuadrática real j hay un cambio de coordena–
aij xi x3
das ortogonales que la lleva a la forma λi yi2 (donde los λi son los
autovalores de A).

Hay también una versión para el caso complejo, es decir, para A her-
mitiana.

§ 44 Matrices ortogonales

Una matriz real A es ortogonal si At A = I, es decir, si A es invertible y


A−1 = At (ver § 42); como sus autovalores están en U, son de la forma
λ = µ + iν, con µ2 + ν 2 = 1. En particular, pueden ser 1 ó −1 (cuando
ν = 0). Si ν )= 0 entonces λ no es real y λ es también un autovalor.

Por el teorema espectral existe una base ortonormal de Cn compuesta


por autovectores de A, la cual será de la forma
[p1 , . . . , pr , q 1 , . . . , q s , z 1 , z 1 , . . . , z t , z t ] , r + s + 2t = n ,
donde los pj (resp. los q j ) son 1–autovectores (resp. (−1)–autovectores)
y los z j = xj + iy j son λj –autovectores, con λj = µj + iνj (νj )= 0). Es
posible que r ó s ó t sean nulos.

De acuerdo con el ejemplo (4) de la § 30, el sistema [z 1 , z 1 , . . .√, zt, zt]


puede√sustituirse por el sistema [u1 , v 1 , . . . , ut , v t ], donde uj = 2xj y
v j = 2y j , y por lo tanto (ver § 26, (4)):
Auj = µj uj − νj v j y Av j = νj uj + µj v j . (1)
Entonces P = [p1 , . . . , pr , q 1 , . . . , q s , u1 , v 1 , . . . , ut , v t ] es una base or-
tonormal de Rn . Calculando AP , y teniendo en cuenta (1) y que Apj = pj
y Aq j = −qj , se obtiene:
AP = [p1 , . . . , pr , −q 1 , . . . , −q s , µ1 u1 − ν1 v 1 , ν1 u1 + µ1 v1 ,
. . . , µ t ut − νt v t , νt ut + µ t v t ] .
§ 45. MATRICES POSITIVAS 81

Recordando que la j–ésima columna de P es P ej se tiene que AP =


P Γ, donde Γ es la matriz en cuya diagonal aparecen los números 1, . . . , 1
(r veces), −1, . . . , −1 (s veces), luego los t bloques
# $ # $
µ 1 ν1 µ t νt
M1 = , . . . , Mt =
−ν1 µ1 −νt µt

y ceros en los otros lugares. Para indicar esto escribimos

Γ = ∆(1, . . . , 1, −1, . . . , −1, M1 , . . . , Mt ) .

Como µ2j +νj2 = 1 puede escogerse θj tal que cos θj = µj y sen θj = −νj ,
y entonces tenemos que:

[5] Para cada matriz ortogonal A existe una matriz ortogonal P tal que:

P t AP = ∆(1, . . . , 1, −1, . . . , −1 M1 , . . . , Mt ) , r + s + 2t = n ,
. /0 1 . /0 1
r s

donde # $
cos θj −sen θj
Mj = , j = 1, . . . , t .
sen θj cos θj

§ 45 Matrices positivas

Si A es positiva (ver § 42, Nota) entonces la forma cuadrática asociada


&Ax, x' es positiva. La positividad de esta forma se toma a veces como
definición. Hemos visto que, para matrices normales, esta condición im-
plica la positividad de A en el sentido aquı́ adoptado. En realidad, A es
entonces autoadjunta (simétrica, en el caso real).

Resumimos algunas equivalencias útiles, ya obtenidas:

[6] Para una matriz normal A los enunciados siguientes son equivalentes:

(i) A es estrictamente positiva (A > 0), es decir, A es invertible y exis-


te B tal que A = B # B.
(ii) Los autovalores de A son mayores que 0.
82 CAPÍTULO 6. NORMALIDAD

(iii) Existe una matriz C autoadjunta e invertible tal que C 2 = A (una


raı́z cuadrada de A).
(iv) La forma cuadrática &Ax, x' es definida positiva.

Para la positividad simple (A ≥ 0) es válido un enunciado similar.

Estos conceptos son útiles en el campo de la optimización ya que, según


el criterio basado en la fórmula de Taylor, el carácter de una función de
varias variables en un punto crı́tico (primeras derivadas nulas) depende
de la matriz de las segundas derivadas en ese punto. Es entonces muy
deseable tener un criterio para la positividad de una matriz A.

Para llegar a una prueba efectiva de positividad, obsérvese, en primer


lugar, que el determinante de una matriz A > 0, siendo el producto de sus
autovalores (ver § 26, (3)), es también mayor que 0.

Si A es una matriz de orden n y k ≤ n, la matriz Ak obtenida supri-


miendo las filas y columnas de ı́ndice superior a k es la k–ésima submatriz
principal de A; su determinante, det Ak , es el k–ésimo menor principal.

Para cada x de Rk (ver § 10, ejemplo (5))

&Ax(n) , x(n) ' = &Ak x, x' . (1)

Aplicando [6], (iv), se ve que, si A > 0 entonces Ak > 0 y, por la


observación anterior, det Ak > 0.

El mismo argumento puede generalizarse: sea AK la matriz obtenida


suprimiendo las filas y columnas cuyos ı́ndices están en un subconjunto K
de {1, . . . , n} (caso particular: si K = {k + 1, . . . , n}, AK = Ak ); entonces
A > 0 implica det AK > 0.

En realidad, estamos en presencia de un criterio de positividad:

[7] Una matriz autoadjunta A es estrictamente positiva si y sólo si todos


sus menores principales son mayores que 0.

Para demostrar la implicación que falta, se procede por inducción. El


caso n = 1 es trivial. Supongamos entonces que el criterio es válido para
matrices de orden n−1 y supongamos que A es de orden n y que det Ak > 0
§ 45. MATRICES POSITIVAS 83

para todo k (en particular, det A > 0). Como lo propio ocurre con la
matriz An−1 , la hipótesis implica que An−1 > 0. La relación (1), con
k = n − 1, muestra que

q(x) = &Ax, x' > 0 ,

para todo x )= 0, en el subespacio Rn−1 n−1


(n) de R . Como dim R(n) = n − 1,
n

por lo menos n − 1 de los n autovalores λ1 , . . . , λn de A son mayores que


0 (ver § 42). Pero λ1 . . . λn = det A > 0. Por lo tanto λi > 0, para todo i.
Entonces A > 0.

Para la positividad (A ≥ 0) hay un criterio similar en el cual, sin


embargo, hay que tener en cuenta todas las AK y no sólo las principales.
Capı́tulo 7

Aplicaciones

La utilidad del álgebra lineal se manifiesta tanto en la misma matemática


como fuera de ella. Muchas situaciones, una vez desechados los aspectos
incidentales, pueden describirse apropiadamente en términos de espacios
vectoriales, bases, transformaciones lineales, ortogonalidad, álgebra matri-
cial, etc.

Este capı́tulo sólo pretende dar una idea sobre algunas aplicaciones,
mostrando que los desarrollos efectuados anteriormente proporcionan he-
rramientas eficaces para resolver diversos problemas y para formular con-
ceptos arrojando nueva luz sobre su significado.

§ 46 Rectas y planos
Si en el plano (o en el espacio) se introduce un sistema ortogonal de coor-
denadas, cada elemento x de R2 (resp. de R3 ) puede interpretarse:
1) como un punto P (de coordenadas xi ),
2) como un segmento orientado (flecha) que va del origen 0 al punto P .
−→ −→
Es útil convenir que dos segmentos orientados P1 Q1 y P2 Q2 representan
el mismo vector cuando tienen igual longitud, dirección (están sobre rectas

84
§ 46. RECTAS Y PLANOS 85

paralelas) y sentido (el segmento P1 P2 no encuentra a Q1 Q2 ). Las flechas


de origen 0 son entonces las representantes canónicas de los vectores. El
término punto se usa como sinónimo de vector.

Rectas. Si a y u son vectores fijos, con u )= 0, el conjunto de los vectores


x tales que

x = a + su , (s ∈ R) (1)

es la recta que pasa por a y es paralela a u (ver fig. 3). Se dice que (1) es
la ecuación de esta recta. .....
..........
.........
...................
.......... ......
" ..
......
" ... . ....
.. .
...........
.......... ......... ...
. . ..
. ..
....... .......... .... ...
....... .......... .....
.......... .....

!
.................. ..
.... x .......... .....
..
.. .
....... ..... .
............ ......
. ..
...... ...
...... .....
....... ..... ..........
...... .
.......... ........
..
...
..
....
.....
.
..
b ..
....... ........ .... ... .. ..... ..
.
.. .. .... ... ..... ..
.......
...
... .... ......
.
....... ..... .
.....
. .
.
...... ..... ............ .. ..... ...
....... ..... ........ u ... a .....
...... .... ....... ... ..... ...
. .
......
.. .
. .
...
.
..
........ .... ..... . ..............
. b−a
!
..
.. . ... ..... ...
. .... ...
..
... .... ...... .
..... ..........
....... .... ............. .. ..........
....... ..... ... ..... ..........
...... ..... ........
.. ..... ..........
........... ................. ... ....... ..........
.
... . ................ ...
.
.. .. . .... ......... ...................
.... .......
....... .......................
! !
. .. ....
.... a .........
....... ......
....................
..........
.
.. .......... .
.........
.
.......... ......
........... .........
........

Figura 3 Figura 4

Dados dos puntos a y b, la recta que pasa por a y b es la recta que


pasa por a y es paralela a b − a (ver fig. 4); su ecuación es entonces
x = a + s(b − a) o también, x = (1 − s)a + sb.

Cuando 0 ≤ s ≤ 1 se obtienen los puntos de esta recta que están entre


a y b. Estos constituyen el segmento ab :

x ∈ ab ⇐⇒ x = (1 − s)a + sb , (0 ≤ s ≤ 1) .

La longitud de ab es *b − a*.

Planos. Un plano puede determinarse de dos maneras:

(1a) Dando uno de sus puntos a, y dos vectores, u y v, linealmente


independientes y paralelos a él (ver fig. 5); la ecuación en este caso es

x = a + su + tv , (s, t ∈ R) .
86 CAPÍTULO 7. APLICACIONES

"
............................
... ....................
... ...................
... ...................
. ...
.
...................
......
.... .
...
.. .. ...
.. ...
.
.
. .
..
.. . ◦ .....
..
.a .. .
.....
... x ...
....
... ... .. .... ...
... .. .... ...
........................ . ... ...
...................... ..... .....
. ....................... .. ...
... .... ................................ ...
... ...... ....................
.. ......
... ......... v
''
( .
. ... .
..........
....... !
#%%
&
# u
$
#
Figura 5

(2a) Dando uno de sus puntos a y un vector p perpendicular. Un punto


x estará en el plano si y sólo si (x − a) ⊥ p :

&x − a, p' = 0 ,

o también
p1 x1 + p2 x2 + p3 x3 = q ,
donde q = p1 a1 + p2 a2 + p3 a3 . Se observa que el plano en cuestión no
es otra cosa que el conjunto solución de una ecuación lineal. Entonces el
conjunto solución de un problema lineal es la intersección de varios planos.

Estas nociones pueden introducirse sin modificación en Rn ; en este


caso se habla de hiperplanos. Por ejemplo: el conjunto solución de un
problema lineal es una intersección de hiperplanos.

" "
............
.............. ......
.............. ......... ....
..............
...
....
....
............... .
.. .. .... ....
...
.............. .....
.
...
........... ..... ...
............ ....... .......
.............. .... ..... .. .............. ... ..
.............. ...... ....
. ....
................. .
. ..
.
.............. .
... .....
..
.. ..
. ................
...... ..
... .
...
.
.
a2 .............
......
..............
.......... ..
x ..
..
a3 .....
..... .................
.............. .....
... .........................
...
... ... .
. ........... .... ..
.............. .... .........
..
..
......... .... ............. ... ......... .... .
....
...
... .... ...... ... ... ..........
...
... ........
..
.. .. .... . ............ .. .. .. ..............
.. ... .... .. .. .. .. ... .................... ........
..... . ........
. . .. a1 ... .........
a2 ........... a1
. .
....... ...... ..
. ........................
.
....... ....... ...............
. ....... .... ........ ..
....
......
... ....... ................
.
.. ...... ..............
.......
...... ................. ..............
... .......... ..................... ... ...... ..............
.......................................
. ! ........ ..............
................. !
) )
) )
*
) *
)
Figura 6 Figura 7
§ 47. PROYECCIONES Y MÍNIMOS CUADRADOS 87

Paralelepı́pedos. Dado un sistema A = [a1 , . . . , ak ] de vectores de Rn ,


con 1 ≤ k ≤ n, el paralelepı́pedo k–dimensional determinado por A es el
conjunto prl A formado por los vectores x de la forma s1 a1 +· · ·+sk ak con
0 ≤ si ≤ 1 para todo i = 1, . . . , k. Para k = 1, 2, 3 (en R3 ) esto corresponde
a un segmento, un paralelogramo (ver fig. 6) y un paralelepı́pedo (ver fig.
7), respectivamente.

§ 47 Proyecciones y mı́nimos cuadrados

Sea A un sistema de n vectores de Km y R el subespacio generado por


A, es decir, el recorrido de la transformación lineal à : Kn → Km . Dado
b ∈ Km , el problema lineal

Ax = b (1)

es consistente si y sólo si b ∈ R. En su defecto, es decir, cuando no existe


ningún x de Rn tal que Ax = b (i.e. tal que *b − Ax* = 0) se busca un x0
de Kn tal que *b − Ax0 * sea mı́nima, esto es (ver § 32), tal que el vector
Ax0 sea la proyección (ortogonal) de b sobre el subespacio R; esto equivale
a decir que, para todo x de Kn ,

&Ax, b − Ax0 ' = 0 .

En otros términos, &x, A# (b − Ax0 )' = 0, para todo x de Kn , es decir,


A# (b
− Ax0 ) = 0, o también

A# Ax0 = A# b , (2)

el cual será, necesariamente, un problema consistente. Habrá solución


única cuando A# A sea regular:

x0 = (A# A)−1 A# b . (3)

En este caso, la proyección p de b sobre R viene dada por

p = Ax0 = A(A# A)−1 A# b , (4)

lo cual muestra, en particular, que la matriz de la proyección P : Km → Km


sobre R (ver § 35) es A(A# A)−1 A# .
88 CAPÍTULO 7. APLICACIONES

El error, h = b − p, es la parte de b ortogonal a R. Para hallar su


magnitud *h* observamos que, como b = p + h y p ⊥ h, entonces

*h*2 = &h, h' = &h, b' = &b − p, b' = &b, b' − &p, b' .

Usando (4), la relación de adjunción (§ 37, (RA)) y la fórmula para la


inversa (§ 52, 8), se obtiene:
1
*h*2 = &b, b' − &(Cof A# A)t A# b , A# b' . (5)
det A# A
Es obvia la utilidad de criterios que garanticen la regularidad de A# A.
Hay uno que se deriva del hecho siguiente:

[1] El núcleo de A# A coincide con el de A (y, por lo tanto, A y A# A tienen


la misma nulidad).

Demostración. (i) Si Ax = 0 entonces (A# A)x = A# (Ax) = 0.

(ii) Si A# Ax = 0 entonces &x, A# Ax' = 0, es decir, &Ax, Ax' = 0, esto es,


Ax = 0. ♠

Como A y A# A tienen el mismo número de columnas se deduce que

[2] El rango de A coincide con el de A# A.

En particular, si A tiene rango n, es decir, si las columnas de A son


linealmente independientes, entonces A# A es regular, y recı́procamente.

Se dice que (3) es la solución óptima, del problema (1), en el sentido


de los mı́nimos cuadrados. Si A es regular x0 coincide con la solución
usual. Cuando A# A no es regular se llama mı́nima solución óptima de
(1) a la solución x0 de (2) que tiene norma mı́nima; también en este caso
hay una matriz A− (que coincide con (A# A)−1 A# cuando A# A es regular)
tal que x0 = A− b. Esta matriz se llama la seudoinversa de A (ver § 54, 2).

Ejemplo. En el plano cartesiano, hallar la recta y = αx + β que mejor se


ajusta a n puntos dados (a1 , b1 ), . . . , (an , bn ), en el sentido de los mı́nimos
cuadrados, equivale a encontrar la solución óptima del problema

αai + β = bi , i = 1, . . . , n .
§ 48. ÁNGULOS 89

es decir, Ax = b, donde A = [a, 1], con a = [a1 , . . . , an ]t , 1 = [1, . . . , 1]t ,


x = [α, β]t y b = [b1 , . . . , bn ]t .

§ 48 Ángulos

En R2 o en R3 se tiene que

&a, b' = *a* *b* cos θ ,

siendo θ el ángulo entre a y b.

La desigualdad de Schwarz permite definir el ángulo θ entre dos vec-


tores, no nulos, a y b de Rn , mediante la relación

&a, b'
cos θ = .
*a* *b*

La identidad sen2 θ + cos2 θ = 1 conduce a la siguiente ecuación para


sen θ:

*a*2 *b*2 sen2 θ = *a*2 *b*2 − &a, b'2 . (1)

Estas nociones pueden formularse en forma idéntica en cualquier espa-


cio real con producto interno.

§ 49 Volúmenes

El n–volumen, |prl A|, del paralelepı́pedo n–dimensional prl A, determi-


nado por un sistema A de n vectores de Rm , se define inductivamente:

(i) para A = [a], el 1–volumen de prl [a] es la norma de a, es decir,


&a, a'1/2 ;

(ii) suponiendo definido el n–volumen, el (n + 1)–volumen de prl B (siendo


B = [b, a1 , . . . , an ]) es, por definición, el n–volumen (“área”) de la base
prl A (donde A = [a1 , . . . , an ]) multiplicado por la altura, es decir, por la
90 CAPÍTULO 7. APLICACIONES

magnitud (norma) de la parte h, de b, ortogonal al subespacio R generado


por A (ver fig. 8):
|prl B| = |prl A| *h* .

....... ......
......... .........
...... .. ...... ..
...... .. ...... ..
......... .....
. ......... .....
.
 ..
b ......
......
......
.
...
......
......
......
.
...
...
.


........ ........... ..
..
..
...
..
...
h
 ...
...
... ...
.
..
...
.
...
..
...
.
.
...
...
.
..
.
..
...
...
.
.

... .. .. .. ..
*h* ... .
.... .
.... .
.... .
....
. ......... . .....
... ... ...

 ... .....
... ... ............
a2
......
........ ...
... ......
......
......
 .... .... ......... ... ............
.
... ......
............ ........
....................................................................................................................................................................
a1

Figura 8

Como era de esperarse, esta noción está relacionada con la de determi-


nante :

[3] Para todo sistema A en Rm se tiene que

|prl A| = (det At A)1/2 .

(Si A no es libre, la definición de prl A y el criterio [1’] de la § 52, muestran


que ambos miembros de la igualdad son nulos. Por ello, y con miras a la
demostración, puede suponerse que A es libre).

Demostración. Por inducción: (i) Si A = [a] entonces, por definición,


|prl A| = &a, a'1/2 = (at a)1/2 = (det at a)1/2 .

(ii) Tomemos ahora B = [b, a1 , . . . , ak ]. Efectuando los cómputos perti-


nentes se comprueba que
# $
λ xt
B tB = , donde A = [a1 , . . . , an ] , λ = &b, b' y x = At b .
x At A

De acuerdo con la relación (6) de la § 52, tenemos que

det B t B = &b, b' det At A − &(Cof At A)t At b, At b' ,

lo cual, teniendo en cuenta § 47 (5), muestra que

|prl B|2 = *h*2 det At A = det B t B . ♠


§ 50. EL PRODUCTO EXTERNO EN R3 91

Ejemplo. Si a, b ∈ Rn , el área |prl A| del paralelogramo determinado por


A = [a, b] viene dada por
8 8
8 &a, a' &a, b' 8
8
|prl A| = det 8
2 8 = *a*2 *b*2 − &a, b'2 . (1)
&b, a' &b, b' 8

§ 50 El producto externo en R3

Cada par a, b de vectores de R3 definen (ver [5], § 52) un funcional ϕ :


R3 → R, a saber,

ϕ(x) = det [x, a, b] , x ∈ R3 ,

determinando, por lo tanto, un vector v tal que ϕ(x) = &x, v' (ver § 37).
Este vector v se llama el producto externo (o vectorial) de a y b, en
este orden, y se denota a ∧ b; por consiguiente, para todo x de R3 :

&x, a ∧ b' = det [x, a, b] . (1)

Las propiedades de la función det indican que a ∧ b es ortogonal a los


vectores a y b y que:

a ∧ (b + c) = (a ∧ b) + (a ∧ c) , (a + b) ∧ c = (a ∧ c) + (b ∧ c)

λ(a ∧ b) = (λa) ∧ b = a ∧ (λb) , a ∧ b = −b ∧ a .


Además, a ∧ b = 0 si y sólo si a y b son linealmente dependientes.

Para hallar la longitud de a ∧ b usamos (1) con x = v (= a ∧ b)


obteniendo *a ∧ b*2 = det A, donde A = [v, a, b]. Si ahora calculamos
At A (teniendo en cuenta que &v, a' = &v, b' = 0) y luego det At A (el
cual, por otra parte, es igual a (det A)2 ), vemos que, si a ∧ b )= 0, entonces

*a ∧ b*2 = *a*2 *b*2 − &a, b'2 .

Es decir: la norma de a ∧ b es igual al área del paralelogramo de lados a y


b (ver § 49 (1)). Esta relación también es válida cuando a ∧ b = 0 pues, en
92 CAPÍTULO 7. APLICACIONES

este caso, a y b son linealmente dependientes. Por lo tanto, y de acuerdo


con (§ 48, (1)),

*a ∧ b* = *a* *b* sen θ , (0 ≤ θ ≤ π) .

Haciendo x = ei en (1) se ve que las componentes de a∧b (ver § 34) son


los cofactores (ver § 52, 5) de la primera columna de [x, a, b], justificándose
ası́ la escritura
   
e1 a1 b1 e1 e2 e3
a ∧ b = det  e2 a2 b2  = det  a1 a2 a3 
e3 a3 b3 b1 b2 b3 ·

§ 51 Aplicaciones a la estadı́stica

Para describir un fenómeno aleatorio con n resultados elementales 3posibles,


1, . . . , n, cada uno de los cuales tiene una probabilidad Pi > 0, Pi = 1,
se considera el espacio muestral Ω = {1, . . . , n} y la función de probabilidad
P = (P1 , . . . , Pn ).

Variables aleatorias. Una función X : Ω → R, que a cada resultado


posible le asigna un valor numérico, se llama una variable aleatoria
(v.a.). Si xi = X(i), i = 1, . . . , n, la v.a. X puede identificarse con el vector
[x1 , . . . , xn ]t de modo que las variables aleatorias de Ω son, simplemente,
los elementos de Rn .

Además de las operaciones usuales de Rn , se define el producto de dos


variables aleatorias X = [x1 , . . . , xn ]t y Y = [y1 , . . . , yn ]t :

XY = [x1 y1 , . . . , xn yn ]t .

La variable aleatoria [λ, . . . , λ]t se denota λ.

Esperanza. La esperanza, valor esperado o media EX de la v.a. X es


el promedio de sus valores, ponderado con los Pi como pesos:
4
EX = xi Pi .
§ 51. APLICACIONES A LA ESTADÍSTICA 93

La función E : Rn → R es un funcional (lineal).

Si µ = EX entonces la v.a.

X̂ = X − µ = [x1 − µ, . . . , xn − µ]t

representa la dispersión de los valores de X con respecto al valor promedio


µ. Es claro que la media de X̂ es 0.

Producto interno. Si X y Y son variables aleatorias se define


4
&X, Y ' = E(XY ) = xi yi Pi .

Este es un producto interno en Rn y se obtiene del producto interno


usual ponderándolo con los pesos Pi .

Este producto interno determina una norma * *:


4
*X*2 = &X, X' = x2i Pi .

Se dice que X es una v.a. normalizada si EX = 0 y *X* = 1.

Covarianza, varianza y desviación. La covarianza, Cov (X, Y ), de


dos v.a. X y Y , con medias µ y ν, respectivamente, es el p.i. de X̂ y Ŷ :
4
Cov (X, Y ) = &X̂, Ŷ ' = (xi − µ) (yi − ν)Pi .

Al número Cov (X, X) se le llama la varianza de X y se denota V ar X:


4
V ar X = *X̂*2 = (xi − µ)2 Pi .

La raı́z cuadrada de V ar X, es decir, la norma de X̂, es la desviación


(estándar) de X y se denota σX .

La varianza y la desviación miden el grado de dispersión de los valores


de una v.a. con respecto a su media.

Nota. El producto interno y la norma que acaban de definirse son diferen-


tes del producto interno y la norma usuales de Rn . Para evitar confusiones
puede escribirse bt a (= at b) para designar el producto interno usual de a
y b.
94 CAPÍTULO 7. APLICACIONES

Correlación. Sean X y Y dos v.a. con medias µ y ν respectivamente.


El coseno del ángulo entre X̂ y Ŷ (en el sentido del p.i. & , ') se llama
coeficiente de correlación de X y Y y se denota ρ(X, Y ):

3
&X̂, Ŷ ' Cov (X, Y ) (xi − µ) (yi − ν)Pi
ρ(X, Y ) = = = 3 3 .
*X̂* *Ŷ * σX σY ( (xi − µ)2 Pi )1/2 ( (yi − ν)2 Pi )1/2

Este número indica en qué medida las dos v.a. (vectores) tienen orien-
taciones similares. Cuando ρ(X, Y ) = 0, es decir, cuando X ⊥ Y , se dice
que las v.a. X y Y son no correlacionadas.

Sistemas de variables aleatorias. Sea X = [X1 , . . . , Xk ] un sistema


de k variables aleatorias en Ω (ver § 11). Los elementos de &X ' son las
combinaciones lineales de las Xi , es decir, los vectores U de la forma U =
X p con p en Rk .

La matriz, simétrica y de orden k,

C = [cij ] donde cij = Cov (Xi , Xj ) ,

es la matriz de covarianza de X .

Si todas las Xi tienen media 0, entonces cij = &Xi , Xj '. Si U = X p y


V = X q, con p = [λ1 , . . . , λk ]t y q = [µ1 , . . . , µk ]t , entonces EU = EV =
0 y, además,
4 4 4
Cov (U, V ) = & λi Xi , µj Xj ' = λi µj cij = q t C p .
i j i,j

Componentes principales. Como la matriz C es simétrica, el teorema


de los ejes principales implica que C tiene autovalores λ1 ≥ · · · ≥ λk ,
y autovectores correspondientes p1 , . . . , pk tales que P = [p1 , . . . , pk ] es
ortogonal y
Pt C P = Λ (= ∆(λ1 , . . . , λk )) .

Las variables aleatorias Yi = Xpi , i = 1, . . . , k, se llaman las compo-


nentes principales de X .
§ 51. APLICACIONES A LA ESTADÍSTICA 95

Como "
0 si i )= j
Cov (Yi , Yj ) = ptj C pi =
λi si i = j ,
resulta que las Yi son no correlacionadas y la varianza de Yi es λi ; en
particular, λi ≥ 0, para todo i, es decir, C es positiva. Si λi = 0 entonces
*Yi *2 = 0, es decir, Yi es cero, y recı́procamente.

Si Y1 , . . . , Yr son las Yi no nulas (i.e. tales que λi > 0), y definimos


1
Ui = √ Yi , i = 1, . . . , r ,
λi

se ve que [U1 , . . . , Ur ] es una base ortonormal del subespacio &X '.


3
Sea
3 p2 un vector unitario de R (i.e. p p = 1). Entonces p =
k t xi pi
con xi = 1, y 4
V ar (X p) = x2i λi .
3 2 3 2
Como xi λi ≤ xi λ1 , se deduce que esta varianza es máxima (y
vale λ1 ) para p = p1 .

Las componentes principales son entonces combinaciones de las varia-


bles aleatorias originales, no correlacionadas entre sı́ y con varianza grande,
en términos de las cuales pueden expresarse todas las otras combinaciones,
disminuyendo ası́ el número de variables, y concentrando la atención en
los factores que presentan más variabilidad.

Regresión. Sea X = [X1 , . . . , Xk ] un sistema de variables aleatorias y


supongamos que se desea conocer la mejor manera (en el sentido de los
mı́nimos cuadrados) de expresar otra variable aleatoria Y como combi-
nación de las Xi . Este problema, llamado de regresión, consiste en hallar
la solución óptima del problema

Xp = Y .

Usualmente X es linealmente independiente y, por lo tanto, X t X es


invertible. Entonces (ver § 47, (3))

p = (X t X )−1 X t Y .
96 CAPÍTULO 7. APLICACIONES

... De allı́ la función de penitencia, de iniciación,


que tienen las primeras cien páginas; (...)

¿Qué significa pensar en un lector capaz de superar


el escollo penitencial de las primeras cien páginas?
Significa exactamente escribir cien páginas con
el objeto de construir un lector idóneo para las siguientes.

Umberto Eco, Apostillas a El Nombre de la Rosa


Apéndice

§ 52 Determinantes

Un sistema [a1 , . . . , an ] de n vectores de Kn , es decir, una matriz n × n,


puede considerarse como un paralelepı́pedo n–dimensional orientado o n–
bloque de “aristas” ai al cual se busca asignarle un volumen (orientado)
que, en el caso real y para n = 1, 2, 3, corresponda a la abscisa de un punto,
al área de un paralelogramo orientado y al volumen de un paralelepı́pedo
orientado, respectivamente. Queremos, por supuesto, que el volumen de
un bloque que tiene a B como base sea igual a su altura por el área de B:

.
...............................
.................. .......
..................
.
..... .
. .
. .
.. .
. .................. .......
.......
# $ ......................
..................
.. .......
...
............
....... ..................
λ
0
.............
............
" .......
.......
........
....... ..................
...... .
. .
. .
. ..
. .
. .
..................
.......... ....
.

...............................
0 90 :
...........
.................... ............
.................. ................................... .................... c
.................. .........................
..
...
... .................. .......................... .............
......... d
.........
. .......
90 : ...................... .......
....... ..................
..
............. ............ .............. .....................
.....
............
a ............. ........... .............
........ ...................................
b .....

 
λ 0 0 # $
  a c
volumen de 0 a c = λ área de
b d ·
0 b d

En particular, el volumen del n–cubo unidad I = [e1 , . . . , en ] será 1 (y no


−1, pues queremos llamar positiva la “orientación” de I), y el volumen

97
98 APÉNDICE

del n–bloque [λ1 e1 , . . . , λn en ], obtenido magnificando las aristas de I por


factores λ1 , . . . , λn , respectivamente, será λ1 . . . λn .

Si para cada operador σ en Rn el cociente


dσ = vol σ &M '/vol M , con vol M )= 0 ,

no dependiera del n–bloque M , entonces dσ serı́a un coeficiente de mag-


nificación (de σ ), el cual no serı́a otra cosa que el volumen de la matriz A
de σ . En efecto:

dσ = vol σ &I'/vol I = vol σ &I' = vol A . (∗)

Si τ es otro operador, con matriz B, entonces

vol στ &M ' vol σ &τ &M '' vol τ &M '
dστ = = = dσ dτ ,
vol M vol τ &M ' vol M

y, como la matriz de στ es AB, tendrı́amos, de acuerdo con (*), que:

vol AB = vol A vol B .

La noción de volumen (orientado) de un n–bloque se formaliza mediante


la noción de determinante.

Nota. En lo que sigue A y B denotarán matrices n × n cualesquiera, a


menos que se diga otra cosa.

1. Definición. Se llama determinante, de orden n, a una función detn


que a cada matriz le asigna un número, de tal manera que:
# $
λ 0
(D.1) detn+1 = λ detn B , (n = 1, 2, . . .) ,
0 B

y, además, det1 [λ] = λ.

(D.2) detn AB = detn A detn B .

Nota. Nuestra introducción heurı́stica no garantiza de manera alguna


que, para cada n, exista efectivamente una función que satisfaga (D.1) y
(D.2). En principio puede no existir ninguna (o existir varias).
§ 52. DETERMINANTES 99

En lo que sigue asumiremos la existencia y unicidad de detn , para cada


n y, como no hay riesgo de confusión, la denotaremos det.

2. Propiedades básicas. La propiedad (D.1) implica que

det ∆(λ1 , . . . , λn ) = λ1 . . . λn .

En particular, como Ei (λ) = ∆(1, . . . , λ, . . . , 1), entonces


(i)

det Ei (λ) = λ . (1)

Aplicando (D.2) a la relación (1) de la § 24, y teniendo en cuenta (1),


se ve que det Eij (λ) = det Eij (1), para todo λ )= 0.

Análogamente, de las relaciones Eij (1) Eij (−1) = I y Eij (1) Eij (1) =
Eij (2) (ver § 24, (2), (c) ), y teniendo en cuenta que det Eij (2) = det Eij (1),
se deduce primero que det Eij (1) )= 0 y luego que det Eij (1) det Eij (1) =
det Eij (1), concluyéndose que det Eij (1) = 1. Por lo tanto:

det Eij (λ) = 1 , para todo λ . (2)

Calculando det A Ei (λ) y det A Eij (λ) se observa que:

[M ] Al multiplicar una columna de A por λ el determinante queda multi–


plicado por λ.

En particular: si hay una columna nula el determinante es nulo.

[S] Si a una columna de A se le suma un múltiplo de otra, el determinante


no se altera.

Por lo tanto: si a una columna se le suma una combinación lineal de


las otras columnas el determinante no se altera.

Estas propiedades, aplicadas en la secuencia

A = [ . . . , a, . . . , b, . . . ] → [ . . . , a, . . . , b + a, . . . ] →
[ . . . , a − (b + a), . . . , b + a, . . . ]
= [ . . . , −b, . . . , b + a, . . . ] → [ . . . , −b, . . . , (b + a) − b, . . . ]
= [ . . . , −b, . . . , a, . . . ] → [ . . . , b, . . . , a, . . . ] ,
100 APÉNDICE

muestran que

[I] Si se intercambian dos columnas de A el determinante cambia de signo.

Se deduce que: si A tiene dos columnas iguales entonces det A = 0.

Para referirse a la propiedad [I] se dice que la función det es anti-


simétrica. Como caso particular de esta propiedad tenemos que:

det Eij = −1 . (3)

De (1), (2), (3) y de [5] (§ 24) se deduce que, para toda matriz elemental
E,
det E t = det E . (4)

Las propiedades [I], [M ] y [S] muestran que las operaciones elementales


(sobre las columnas) no alteran el carácter de nulidad del determinante i.e.
si es nulo (resp. no nulo) continúa siendo nulo (resp. no nulo).

Criterio de libertad. Si el sistema A = [a1 , . . . , an ] de Kn es lineal-


mente dependiente, es decir, si uno de los ai es c.l. de los restantes,
entonces, según [S], dicho ai puede reducirse a 0 sin alterar el determinante
y entonces det A = 0. Por otra parte, si A es libre entonces puede
transformarse en I mediante operaciones elementales, y entonces det A )=
0. En resumen:

[1] Una matriz A es regular si y sólo si det A )= 0.

En otras palabras: el problema Ax = 0 tiene soluciones diferentes de


la trivial si y sólo si det A = 0.

Aún más, un sistema A de n vectores en Km es libre si y sólo si A# A


lo es (ver [2], § 47). Por lo tanto:

[1’] Un sistema A de vectores es libre si y sólo si det A# A )= 0.

Determinante de la traspuesta. Si A es regular entonces es producto


de matrices elementales (ver § 24, [7]) y entonces (4) implica que

[2] Para toda matriz A, det At = det A.


§ 52. DETERMINANTES 101

Cuando A es singular sus columnas (y también sus filas) son linealmente


dependientes y entonces [2] se cumple trivialmente (0 = 0).

Del mismo enunciado [2] se deduce que

[3] Las propiedades del determinante con respecto a las filas son entera–
mente análogas a las propiedades con respecto a las columnas.

3. Regla de Cramer. Designaremos A{b}i la matriz obtenida poniendo


b en el lugar de ai (la i–ésima columna de A).

Si s = [s1 , s2 , . . . , sn ]t es solución del problema lineal

Ax = b ,

es decir, si As = b, esto es

s1 a1 + s2 a2 + · · · + sn an = b ,

la secuencia de operaciones

A = [a1 , a2 , . . . , an ] → [s1 a1 , a2 , . . . , an ]
→ [s1 a1 + (s2 a2 + · · · + sn an ), a2 , . . . , an ] = A{b}1 ,

muestra que
det A{b}1 = s1 det A .
De la misma manera se muestra que, en general,

det A{b}i = si det A .

En consecuencia,

[4] Si det A )= 0, el problema Ax = b tiene una única solución s cuyas


componentes son

si = det A{b}i / det A ; i = 1, 2, . . . , n .

4. Multilinealidad. Conservando fijas las columnas a2 , . . . , an puede


definirse la función,

f1 (x) = det [x, a2 , . . . , an ] .


102 APÉNDICE

De acuerdo con [M]:


f1 (λx) = λf1 (x) .
En realidad f1 es lineal. Para verlo supongamos, en primer lugar, que
[a2 , . . . , an ] es libre. Entonces existe a tal que [a, a2 , . . . , an ] es una base
de Kn . Dados x, y en Kn , puede escribirse
x = λa + λ2 a2 + · · · + λn an , y = µa + µ2 a2 + · · · + µn an .
La expresión correspondiente para x + y es entonces
x + y = (λ + µ)a + ν2 a2 + · · · + νn an , donde νi = λi + µi .
Teniendo en cuenta la expresión de x, y usando [S] y luego [M ], se
obtiene:
f1 (x) = det [x, a2 , . . . , an ] = det [λa, a2 , . . . , an ] = λc ,
siendo c = det [ a, a2 , . . . , an ]. Similarmente f1 (y) = µc y f1 (x + y) =
(λ + µ)c. Entonces
f1 (x + y) = f1 (x) + f1 (y) .
Cuando [a2 , . . . , an ] es linealmente dependiente, esta igualdad se cum-
ple trivialmente (0 = 0 + 0). Análogamente se definen f2 , . . . , fn y se
demuestra que son lineales. Este hecho se expresa diciendo que

[5] La función det es lineal en cada uno de sus n argumentos.

Por esto se dice que det es n–lineal o multilineal de orden n.

5. Relación inductiva. El menor Aij de A es la matriz (n − 1) × (n − 1)


obtenida suprimiendo la i–ésima fila y la j–ésima columna de A. La matriz
intermedia, de forma n×(n−1), obtenida suprimiendo la j–ésima columna
()
de A, se denota Aj .

El cofactor αij de A es el determinante de A{ei }j . La matriz [αij ] se


denota Cof A.

Los conceptos anteriores están relacionados: efectuemos los j–1 inter-


cambios de columnas, seguidos de los i–1 intercambios de filas y, final-
mente, la sustracción de múltiplos de la 1a. columna a cada una de las
otras, indicados en la secuencia siguiente:
§ 52. DETERMINANTES 103

   
a11 ··· 0 ··· a1n 0
..
 ··· ··· . ... . ··· ···  
 . 

 
A{ei }j =  ai1 ··· 1 ··· ain →
 1
()
Aj


 
 ··· ··· . ... . ··· ···  

..
.


an1 ··· 0 ··· ann 0
(j)
   
1 ai1 · · · ain 1 0 ··· 0
 0   0 
   
→ .. → .. 
 . Aij   . Aij 
0 0 .

Recordando la definición de αij , y teniendo en cuenta (D.1), se puede


ver que
αij = (−1)i+j det Aij . (5)
Fijemos ahora una columna, por ejemplo, ak . Por linealidad en el
k–ésimo argumento (y recordando que ak = a1k e1 + · · · + ank en ) tenemos
que
det A = a1k det A{e1 }k + · · · + ank det A{en }k ,
es decir:
det A = a1k α1k + · · · + ank αnk .
Una relación análoga es válida para filas. Entonces:

[6] El determinante de una matriz es igual a la suma de los productos de


los elementos de una lı́nea (fila o columna) por los cofactores corres–
pondientes.

6. Desarrollo por una fila y una columna. Sea M una matriz de


orden n + 1, la cual representaremos en la forma
# $
λ yt
M= , donde λ ∈ K ; x, y ∈ Kn y A ∈ Mn ,
x A,

(las filas y columnas de M se numerarán de 0 hasta n). Desarrollando


104 APÉNDICE

det M por la primera fila obtenemos:


n
4
det M = λ det A − (−1)j+1 y j det Mj0 ,
j=1

pero Mj0 = [x, a1 , . . . , aj−1 , aj+1 , . . . , an ] y entonces

det Mj0 = (−1)j−1 det [a1 , . . . , aj−1 , x, aj+1 , . . . , an ] .

Desarrollando el último determinante por la j–ésima columna (en don-


de los cofactores coinciden con los de A), llamando C a la matriz (Cof A)t
(i.e. cij = αji ) y haciendo las sustituciones del caso, se tiene que
4
det M = λ det A − (cj x)y j = &Cx, y' .

Este es el desarrollo de A por la 1a. fila y la 1a. columna. Explı́


citamente:
# $
λ yt
det = λ det A − &(Cof A)t x , y' . (6)
x A

7. Orientación. Se dice que una base A = [a1 , . . . , an ] de Rn está


positivamente (resp. negativamente) orientada si det A > 0 (resp.
det A < 0). La base canónica tiene orientación positiva.

En R3 una base [a, b, c] tiene orientación positiva si c señala en el


sentido de avance de un tornillo derecho que gire de a hacia b.

8. Fórmula para A−1 . Si A es regular y B = A−1 entonces (ver §22),


para todo k = 1, . . . , n:
A bk = ek ,
es decir, bk es la solución del problema Ax = ek y entonces, por la regla
de Cramer,
bik = det A{ek }i / det A = αki / det A .
En otros términos:
1
A−1 = (Cof A)t ,
det A
§ 53. LA FORMA DE JORDAN 105

lo cual es equivalente a A(Cof A)t = (det A)I.

9. Existencia y unicidad. La relación inductiva [6] permite expresar


detn en términos de detn−1 . Como para n = 1 necesariamente

det [a] = a ,

se concluye que detn es única.

En realidad puede demostrarse que det A es un polinomio en las com-


ponentes de A; explı́citamente:
4
det A = ± a1i1 · · · anin , (7)

donde (i1 , . . . , in ) es una permutación de (1, . . . , n) y el signo está dado


por det [ei1 , . . . , ein ].

La existencia puede demostrarse usando la misma relación para definir


inductivamente detn y mostrar que satisface las propiedades (D.1) y (D.2).

§ 53 La forma de Jordan

Con el propósito de diagonalizar un operador T de U se construye, para


cada autovalor λ, una base del subespacio propio (§ 26) correspondiente.
La reunión de tales bases es un sistema libre, de autovectores de T , tal que
cualquier otro autovector es combinación lineal del sistema. El operador T
es diagonalizable si y sólo si dicho sistema es una base de U; en el caso de
una matriz A, el sistema constituye una matriz invertible B tal que B −1 AB
es diagonal. Cuando A no es diagonalizable, el sistema obtenido no es
generador, pero ¿podrı́a ser completado para obtener B tal que B −1 AB
sea aproximadamente diagonal?

Para examinar el asunto, supongamos que A es una matriz no diagona-


lizable, que tiene un solo autovalor λ (con multiplicidad algebraica tres) y
que el subespacio propio correspondiente es unidimensional, con base [u1 ].
Queremos tener otros dos vectores, u1 y u2 , tales que B = [u1 , u2 , u3 ] sea
106 APÉNDICE

una base y la matriz J = B −1 AB tenga la siguiente forma “casi” diagonal


 
λ a 0
J= 0 λ b 
0 0 λ ,
en la cual, como sucederı́a si A fuese diagonalizable, λ aparece repetido
tres veces en la diagonal. Teniendo en cuenta que (cfr. § 27)
AB = A[u1 , u2 , u3 ] = [Au1 , Au2 , Au3 ] , y
BJ = B[λe1 , λe2 + ae1 , λe3 + be2 ]
= [λu1 , λu2 + au1 , λu3 + bu2 ] ,
se ve que la condición B −1 AB = J, es decir, AB = BJ, es equivalente a
las siguientes:

1) Au1 = λu1 . Esto significa que u1 es, como hemos dicho, un λ–


autovector de A.

2) Au2 = λu2 + au1 . Nótese que a no puede ser nulo (si lo fuera, u2 serı́a
otro autovector, independiente de u1 ) y entonces podemos cambiar u2 por
au2 : Au2 = λu2 + u1 .

3) Como en el caso anterior, la condición queda ası́: Au3 = λu3 + u2 .

Si existen vectores ui que satisfagan estas condiciones, ellos forman


una base que reduce la matriz A a la forma J, con a = b = 1.

1. Bases de Jordan. Las observaciones anteriores sugieren que, en el


caso general, se busquen cadenas
u1 , . . . , um ,
con m ≥ 1, tales que:

1) T u1 = λu1 (⇐⇒ (T − λ)u1 = 0), i.e. u1 es un autovector, con valor


propio λ.

2) T uj = λuj + uj−1 (⇐⇒ (T − λ)uj = uj−1 ), para j = 2, . . . , m.

Diremos, en este caso, que u1 , . . . , um es una λ–cadena de Jordan


para T . Una base constituida por tales cadenas es una base de Jordan
(de U) para T . Vamos a ver que todo operador tiene una base de Jordan.
§ 53. LA FORMA DE JORDAN 107

La afirmación es trivial en espacios de dimensión 1. Por otra parte hay,


según veremos, una forma de extender una base de Jordan de RT para
obtener una base de Jordan de U (recuérdese que T puede ser considerado
como un operador en RT , pues éste es T –invariante). Por consiguiente
podemos proceder por inducción sobre n (= dim U). Para organizar el
argumento necesitamos que m = dim RT < n (⇐⇒ p = dim NT ≥ 1 ⇐⇒
NT )= {0} ⇐⇒ 0 es un autovalor de T ). Pero esto puede suponerse pues
T debe tener algún autovalor λ0 y, como toda base de Jordan para T − λ0
lo es también para T (toda λ–cadena para T − λ0 es una (λ + λ0 )–cadena
para T ), el argumento se aplicarı́a a T − λ0 .

Supongamos entonces que m < n y que (hipótesis de inducción) RT


tiene una base de Jordan para T . En esta base hay, en general, dos tipos
de cadenas:

u1 , . . . , uh ,
(m vectores, en total) (1)
v1, . . . , vk .

Las del primer tipo (digamos que hay s de ellas) son 0–cadenas (nótese
que h no es fijo). Las del segundo tipo son λ–cadenas, con λ )= 0 (nótese
que ni λ ni k son fijos). Entre los ui y los vj hay, en total, m elementos.

Los s vectores u1 , siendo 0–autovectores, están en NT y, como son


linealmente independientes, pueden completarse con r vectores, designados
genéricamente con x, para formar una base de NT (nótese que r + s = p).
Además, como cada uh está en RT , existe u, en U, tal que T u = uh .

Afirmamos que la colección de vectores denotada abreviadamente por

base de NT ........................... x Hay r vectores x (cada uno es una 0-


← cadena).
base de RT .................... u1 , . . . , uh , u ← Hay s de estas 0-cadenas (en particular,
hay s vectores u1 y s vectores u).
base de U ........... v1 , . . . , vk ← Estas son λ-cadenas, con λ != 0.

es una base de Jordan, de U, para T .

Observemos, en primer lugar, que a los m vectores originales se agre-


garon r vectores x y s vectores u. Total: m+r+s = m+p = n (= dim U).
108 APÉNDICE

En consecuencia, basta probar que son linealmente independientes. Para


ello, supongamos que

ξx + α1 u1 + α2 u2 + · · · + αh−1 uh−1 + αh uh + αu
+ β1 v 1 + β2 v 2 + · · · + βk−1 v k−1 + βk vk = 0,

(recuérdese que ξx es algo de la forma ξ1 x1 + . . . + ξr xr , etc).

Aplicando T y reuniendo algunos términos se obtiene:

0 + 0 + α2 u1 + · · · + αh−1 uh−2 + αh uh−1 + αuh


+ (β1 λ + β2 )v 1 + (β2 λ + β3 )v 2 + · · · + (βk−1 λ + βk )v k−1 + βk λv k = 0.

Como (1) es linealmente independiente se tiene, primero: α2 = · · · = αh =


α = 0; y luego (debido a que λ )= 0) : βk = 0 (=⇒ βk−1 = 0 =⇒ · · · =⇒
β1 = 0). Por lo tanto
ξx + α1 u1 = 0 .
Pero, como los vectores x junto con los vectores u1 forman una base de
NT , entonces también los escalares ξ y los escalares α1 son nulos. Ası́
concluye la demostración de existencia.

2. Unicidad. Demostraremos que el número de λ–cadenas de longitud


dada está determinado por las nulidades de (T − λ)k , k = 1, 2, . . . . Como
las λ–cadenas de T son 0–cadenas de T − λ, basta ver que el número ζj de
0–cadenas de longitud j está determinado por los números νk = dimensión
del núcleo Nk de T k . Nótese que µk = n − νk es la dimensión del recorrido
Rk de T k .

Dada una base de Jordan para T , con n (= dim U) elementos, sea N


(resp. M) el subespacio generado por las 0–cadenas (resp. λ–cadenas, con
λ )= 0). Entonces N y M son T –invariantes y U = N ⊕ M. Además T k
es invertible en M, de tal modo que Nk ⊂ N y M ⊂ Rk , para todo k.

Formemos dos sistemas de vectores, Ak y Bk , ası́: i) Sea u1 , . . . , um


una 0–cadena; si m ≤ k, a todos los ui los ponemos en Ak ; si m > k
entonces u1 , . . . , uk estarán en Ak y u1 , . . . , um−k estarán en Bk . ii) A
todos los elementos de las λ–cadenas (con λ )= 0) los ponemos en Bk .

Obsérvese que si nk (resp. mk ) es el número de elementos de Ak (resp.


§ 53. LA FORMA DE JORDAN 109

Bk ), entonces nk + mk = n. Además:

nk = ζ1 + 2ζ2 + · · · + kζk + kζk+1 + · · · + kζn , k = 1, . . . , n .

También puede verse que Ak ⊂ Nk y Bk ⊂ Rk . Por lo tanto nk ≤ νk y


mk ≤ µk , y entonces

n = n k + m k ≤ νk + µ k = n ,

concluyéndose que nk = νk . Entonces los ζj satisfacen las ecuaciones

ζ1 + 2ζ2 + · · · + kζk + kζk+1 + · · · + kζn = νk , k = 1, . . . , n .

Si de cada ecuación, empezando por la última, se sustrae la anterior y,


luego, de cada ecuación, empezando por la primera, se sustrae la siguiente,
se ve rápidamente que

ζk = −νk−1 + 2νk − νk+1 , k = 1, . . . , n ,

donde hay que tomar ν0 = 0 y νn+1 = νn . Esto prueba que los ζk no


dependen de la base.

3. La forma de Jordan. En la matriz J de un operador con respecto


a una base de Jordan, cada λj –cadena de longitud k da origen al bloque
k×k
 
λj 1. .
.. . 
Jk (λj ) =  .. 1
.
λj .

Puede haber varios bloques con el mismo λj . La matriz J consta de blo-


ques como éste situados a lo largo de la diagonal mientras que en los demás
lugares hay ceros. Esta es la forma de Jordan, la cual es única, salvo por
el orden en que aparecen los bloques. Desarrollando det (J − λ), repetida-
mente, por la primera columna, se ve que los elementos que aparecen en la
diagonal son los autovalores, repetidos según su multiplicidad algebraica.
110 APÉNDICE

§ 54 Soluciones óptimas

1. Problemas lineales generales. Un problema lineal es una


ecuación de la forma

Tu = v , (C)

donde T : U −→ V es una transformación lineal y v es un vector fijo


de V. Una solución de (C) es cualquier vector u de U que satisface
la ecuación; las soluciones de (C) constituyen su conjunto solución (o
solución general) S. El problema es consistente si tiene, por lo menos,
una solución; esto ocurre si y sólo si v ∈ RT . En caso contrario se dice
que es inconsistente.

Cuando v = 0 el problema es homogéneo:

Tu = 0 . (H)

Por contraposición, (C) es un problema completo. Un problema ho-


mogéneo es siempre consistente: su conjunto solución es el núcleo N de
T , y éste, siendo un subespacio, contiene siempre al vector 0 (la solución
trivial). Si (H) tiene una solución u0 )= 0 entonces tiene infinitas (pues
λu0 ∈ N , para todo λ).

Si u# es una solución de (C), entonces

S = N + u# (1)

lo cual quiere decir que las soluciones de (C) son precisamente los vectores
de la forma u + u# , con u en N . En otros términos: S es la variedad lineal
obtenida trasladando N por medio de una solución particular de (C).

Cuando el problema (C) es consistente sólo caben dos alternativas: o


bien tiene una sola solución, o bien tiene infinitas, y ello ocurre según que
el problema homogéneo (H) tenga sólo la solución trivial o tenga soluciones
diferentes de la trivial, respectivamente.

Nota. Sea T : U −→ V una t.l., sobreyectiva, cuyo núcleo es el subespacio


N de U. Cada v de V determina una variedad lineal de U, a saber, la
solución general de T u = v. El espacio U se fracciona en variedades
§ 54. SOLUCIONES ÓPTIMAS 111

disyuntas dos a dos; una por cada elemento de V. Queda establecida ası́
una biyección entre V y el conjunto U/N de todos los subconjuntos de U
de la forma N + u, por medio de la cual se puede trasladar a U/N toda
la estructura de V y definir una t.l. Φ : U −→ U/N , Φ(u) = N + u, cuyo
núcleo es N . Una vez reproducida, de esta manera, la situación original,
se puede prescindir de V y de T . El espacio vectorial U/N es el cociente
de V por N (se obtiene dividiendo a U en variedades “paralelas” a N )
y Φ es su transformación canónica. Puede decirse que U/N encarna la
apariencia que toma U cuando nos negamos a distinguir entre elementos
de U cuya diferencia es sólo un elemento de N . Cuando U es, por ejemplo,
el plano y N es una recta (por el origen), U/N es el plano, pero no como
conjunto de puntos sino como conjunto de rectas (las paralelas a N ).

2. Inversa generalizada. Supongamos que el problema T u = v es


inconsistente. Ante la imposibilidad de hallar un elemento de RT que sea
igual a v, nos preguntamos si, en presencia de un producto interno en V,
existe un elemento de RT cuya distancia a v sea lo más pequeña posible.
Se trata entonces de buscar un elemento u de U que minimice a *T u − v*.
Es lo que se llama una solución aproximada, óptima en el sentido de los
mı́nimos cuadrados (minimizar * *, es minimizar * *2 y * *2 es, en
Rn , una suma de cuadrados). Para hallar una de tales soluciones basta
tomar w = la proyección ortogonal de v sobre RT (éste es el elemento de
RT más próximo a v; ver § 32) y resolver el problema

Tu = w ,

el cual es consistente, puesto que w ∈ RT .

Supongamos ahora que el problema T u = v es consistente pero que su


solución no es única (i.e. existen infinitas soluciones). Nos preguntamos si,
en presencia de un producto interno en U, existe una solución mı́nima.
La respuesta es sı́: el conjunto solución, siendo una variedad lineal, tiene
un único vector de norma mı́nima (ver § 35, ejemplo). Se comprueba sin
dificultad que la función que a cada w de RT le asigna la solución mı́nima
de T u = w es una transformación lineal T ◦ : RT −→ U.

Suponiendo que U y V son espacios con producto interno, pueden jun-


tarse las dos observaciones anteriores: para cada v de V existe una mı́nima
solución óptima, y una sola, del problema lineal T u = v. Para hallarla
112 APÉNDICE

se toma primero la proyección ortogonal w de v sobre RT . Se halla una


solución particular u0 del problema (consistente) T u = w. La proyección
de u0 sobre el ortogonal del núcleo de T es el u buscado. Es claro que
u = T ◦ w, de modo que, si P es la proyección (ortogonal) sobre RT , en-
tonces u = T ◦ P v. La transformación lineal

T − = T ◦ P : V −→ U

es la seudoinversa (o inversa generalizada de Moore–Penrose) de T .

Si A es una matriz m × n y T : Rm −→ Rn es su transformación lineal


asociada, entonces la matriz A− de T − : Rn −→ Rm es la seudoinversa de
A. Para cada b ∈ Rm existe un único vector x, de norma mı́nima, que
minimiza a *Ax − b*, a saber, x = A− b.
113
114 SÍMBOLOS Y ABREVIATURAS

Sı́mbolos y abreviaturas

=⇒ implica
⇐⇒ si y sólo si
♠ fin de la demostración
t.l. transformación lineal
c.l. combinación lineal
l.d. linealmente dependiente
l.i. linealmente independiente, libre
p.i. producto interno
⊥ ortogonal, ortogonalmente
v.a. variable aleatoria
RA relación de adjunción
R números reales
R+ números reales no negativos
R+ 0 números reales (estrictamente) positivos
C números complejos
C0 números complejos no nulos
U números complejos de módulo 1
K números reales o números complejos
xi i–ésima componente del vector columna x
aj j–ésima componente del vector fila a
ai i–ésima fila de la matriz A
aj j–ésima columna de la matriz A
aij i–ésima componente del vector columna aj
j–ésima componente del vector fila ai
(i, j)–componente de la matriz A
[aij ] matriz de componentes aij
δji delta de Kronecker (δii = 1 y δji = 0 si i )= j)
SÍMBOLOS Y ABREVIATURAS 115

& , ', 3, 60, 93 [fi ↔ fj ], [cfi ], [fi + cfj ], 13


* *, 3, 61, 93 [(i) ↔ (j)], 13
1, 1U , 2, 26 ]fi [, 14
A, 27 F(S, U), 24, 39
Ã, 28 I, 32, 42
&A', 29 (I), 13, 28, 48, 49
A# , 70 Jk (λj ), 109
A, 56 L(U, V), 39
A−1 , 46 L(U), 40, 70
A− , 88, 112 λ, 92
At , 8 (M), 13, 28, 48, 49
A > 0, 81 Mm,n , Mn , 8, 41, 43
A ≥ 0, 82 M + c, 25
[a1 , . . . , an ], 7, 27 M ∩ N , 25
ab, 85 M + N , 25
a · b, 3 N1 ∩ . . . ∩ Ns , 25
a ∧ b, 91 N1 + . . . + Ns , 25
AB, 42 N1 ⊕ . . . ⊕ Ns , 31
A ⊂ B, 34 Nλ , 53
A ! B, 28 NT , 45
A{b}i , 101 ν(T ), 45
()
Aij , Aj , 102 (O), 14
aij , 7, 51 Pn , 25
−→
Ak , AK , 82 P Q, 84
ax, 8, 41 prl A, 87
αij , 102 |prl A|, 89, 91
(C), 13 Rn , Rn , 8, 24
Cn , 55, 61 Rk(n) , 26
Cof A, 102 RT , 2, 45
Cov, (X, Y ), 93 R⊥S, 62
∆(λ1 , . . . , λn ), 32 rg A, 37
det A, detn A, 98 ρ(T ), 45
dim U, 32 ρ(X, Y ), 94
e1 , e2 , . . . , en , 4, 32, 70 (S), 13, 28, 48, 49
Eij , Ei (λ), Eij (λ), 48 S ◦ T , ST , 1, 40
EX, 92 S ⊥ , S ⊥⊥ , 62
f j , 70 Spec T , 75
116 SÍMBOLOS Y ABREVIATURAS

σX , 93
&T ', 2
T # , 69
T ◦ , 111
T −1 , 2, 26
T − , 112
T ≥ 0, T > 0, 77
T &A', 29
T &M', 2
T (u), T u, 1
[τ ], 6, 42
[u1 , . . . , un ], 27
&u1 , . . . , un ', 29
[u]B , 33
U/N , 111
U −→ V, 1, 25
R⊥S, 62
V arX, 93
w# , 61
X , 94
X̂, 93
(x, y), (x1 , . . . , xn ), 3, 7
x(n) , 26
x + iy, 55
XY , 92
z, 55
Índice alfabético

adición, 24 componente(s), 7
adjunción, 68, 69, 71 principales, 94
adjunta, 69 composición, 43
álgebra, 40, 43 compuesta, 1, 40
algoritmo, 9 conjugada (matriz), 56
ángulo, 89 conjunto solución, 10, 29, 110
antisimétrica, 100 consistente, 10
autoadjunto, 76, 77 coordenadas, 33
autovalor, 53 coseno, 3
autovector, 53 covarianza, 93
Cramer (regla de), 101
base, 32
criterio
(cambio de), 47
de inyectividad, 100
adecuada, 56
de libertad, 100
canónica, 32
de regularidad, 100
de Jordan, 106
orientada, 104
definición en la base, 41
ortonormal, 65
definiciones, 1
biyectiva, 2
definida, 51
cadena de Jordan, 106 delta de Kronecker, 33, 114
cambio de base, 47 demostraciones, 1
canónica, 111 dependencia lineal, 30
caracterı́stica, 18 desarrollo de un determinante, 103
cociente, 111 descomposición, 50
coeficiente, 9, 94 espectral, 58
de correlación, 94 desigualdad de Schwarz, 63
cofactor, 102 desigualdad del triángulo, 64
combinación lineal, 27, 29 desviación estándar, 93
completo (problema), 110 determinante, 98

117
118 ÍNDICE ALFABÉTICO

diagonal, 8 extiensión por linealidad, 41


diagonalizable, 56
diagonalización, 52 forma
ortonormal, 67 bilineal, 50
simultánea, 58 cuadrática, 51
dimensión, 32 de Jordan, 58
directa definida, 51
suma, 32 escalonada, 18
distancia, 61 espectral, 58, 77
dual, 39 final reducida, 18
hermitiana, 72
Eco, Umberto, 96 lineal, 39
ecuación reducida, 18
caracterı́stica, 54 sesquilineal, 72
dimensional, 45 simétrica, 51
homogénea, 9 función, 1
lineal, 9 biyectiva, 2
elementales compuesta, 1
(matrices), 48 identidad, 2
(operaciones), 13, 28 inversa, 2
eliminación, 9, 13 inyectiva, 2
equivalentes sobreyectiva, 2
(problemas), 10, 29, 35 funcional, 39
(sistemas), 29, 35
escalar, 24 generado (subespacio), 29
escalonada, 18 generador, 29
espacio Gram–Schmidt, 65
complejo, 55 hermitiano(a), 72, 77
dual, 39 hiperplano, 86
euclidiano, 7, 8 homogéneo(a), 9, 10, 29, 110
vectorial, 23, 24
espectral identidad, 2
(descomposición), 58 igualdad, 3, 7, 8
teorema, 76 imagen, 1, 2
espectro, 75 incógnita(s), 9
esperanza, 92 principales, 12
estrictamente positiva, 81, 82 inconsistente, 10, 110
evaluación, 51 independencia lineal, 30
ÍNDICE ALFABÉTICO 119

inducida, 44 positiva, 81
invariante, 2 regular, 46
inversa, 2, 46 semejantes, 48
(fórmula para la), 104 simétrica, 79
de una matriz elemental, 50 singular, 47
generalizada, 111, 112 traspuesta, 8
invertible, 46 unidad, 42
involución, 70 maximal, 34
inyectiva, 2 media, 92
isomorfismo, 26 menor, 102
isomorfos, 26 principal, 82
isomorfos(as), 26, 40, 42, 51 método de eliminación, 13
mı́nimos cuadrados, 87, 88, 111
Jordan, 58, 105, 109 Moore–Penrose, 112
multilineal, 101, 102
ley del paralelogramo, 3 multiplicación, 6, 8, 12, 24, 40, 43
libre, 30 multiplicidad
lineal algebraica, 54
(combinación), 27, 29 geométrica, 53, 54
(ecuación), 9
(operador), 40 n–pla ordenada, 7
(problema), 10, 28, 110 norma, 3, 61
(transformación), 5, 25 normal, 74
(variedad), 25, 67, 110, 111 núcleo, 10, 45
forma, 39 nulidad, 45
linealmente dependiente, 30
independiente, 30 operaciones elementales, 13, 28
longitud, 3 operador, 2
autoadjunto, 77
matriz(ces), 5, 7, 10 diagonalizable, 57
cuadrada, 8 estrictamente positivo, 77
diagonal, 33 hermitiano, 77
elemental, 48 invertible, 46
estrictamente positiva, 81, 82 lineal, 40
inversa, 46 normal, 74
invertible, 46 ortogonal, 77
normal, 79 positivo, 77
ortogonal, 80 simetrico, 77
120 ÍNDICE ALFABÉTICO

unitario, 77 inductiva, 102


orden, 8, 98 relación de adjunción, 69, 71
orientación, 97, 104 representación de funcionales, 68
ortogonal, 62, 64, 77, 80 restricción, 2
ortonormal, 62 rigor, 1
ortonormalización, 65
satisfacer, 9, 10
parámetro, 12 Schwarz, 63
paralelepı́pedo, 87 segmento, 85
pareja ordenada, 3 semejantes, 48
parte, 63, 64 sesquilineal, 72
Pitágoras, 66 seudoinversa, 88, 112
plano, 85 simétrica
positiva(o), 51, 77, 79 (forma bilineal), 51
problema lineal, 10, 28, 110 (matriz), 79
completo, 110 simétrico (operador), 77
consistente, 10, 110 singular, 47
homogéneo, 10, 110 sistema, 10, 27, 94
inconsistente, 10, 110 ortonormal, 62
problemas equivalentes, 10, 29 sistemas equivalentes, 35
proceso de ortogonalización, 65 sobreyectiva, 2
producto, 3, 6, 8, 40, 42 solución, 10, 110, 111
externo, 91 óptima, 88, 111
externo (o vectorial), 91 general, 20, 110
interno, 3, 93 mı́nima, 88, 111
tensorial, 73 trivial, 110
proyección ortogonal, 63, 64, 66 soluciones, 9
proyecciones asociadas, 40 subespacio, 25
generado, 29
raı́z cuadrada, 78 propio, 53
rango, 45 subespacios independientes, 31
recorrido, 2, 45 submatriz principal, 82
recta, 85 suma, 3, 6, 8
reducida, 18 directa, 32
regresión, 95 externa, 73
regular, 46
relación teorema, 21
de dependencia, 30 de los ejes principales, 80
ÍNDICE ALFABÉTICO 121

espectral, 75, 76
término independiente, 9
transformación
canónica, 111
de una matriz, 41, 42
inducida, 44
lineal, 5, 25
transformación asociada, 28
traspuesta, 8, 48, 100
trivial, 10, 30, 110

unidad, 42, 48
unitario, 77

valor, 1
propio, 53
variable
aleatoria, 92
normalizada, 93
normalizada, 93
varianza, 93
variedad lineal, 25, 110
vector(es), 24
cero, 3, 24
columna, 8
de coordenadas, 33
fila, 8
geométrico, 3
ortogonales, 61
propio, 53
unitario, 61
volumen, 89

También podría gustarte