Introducción al Álgebra Lineal
Introducción al Álgebra Lineal
Alonso Takahashi
Profesor Emérito
Departamento de Matemáticas – Facultad de Ciencias
c Alonso Takahashi
!
Facultad de Ciencias
Universidad Nacional de Colombia
Impresión:
Unibiblos
Universidad Nacional de Colombia
Bogotá, D.C.
COLOMBIA
Prefacio
Prefacio -4
Preliminares 1
1 Eliminación 9
§ 1 Soluciones de ecuaciones lineales . . . . . . . . . . . . . . . 9
§ 2 Problemas equivalentes . . . . . . . . . . . . . . . . . . . . . 10
§ 3 Notaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
§ 4 El método de eliminación . . . . . . . . . . . . . . . . . . . 12
§ 5 Descripción general del método de eliminación . . . . . . . 17
§ 6 Conclusiones . . . . . . . . . . . . . . . . . . . . . . . . . . 21
§ 7 Comentarios . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2 Dimensión 23
§ 8 Espacios vectoriales . . . . . . . . . . . . . . . . . . . . . . 23
§ 9 Subespacios . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
§ 10 Transformaciones lineales e isomorfismos . . . . . . . . . . . 25
§ 11 Sistemas de vectores. Combinaciones lineales . . . . . . . . 27
§ 12 La transformación asociada a un sistema . . . . . . . . . . . 28
§ 13 Generación . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
§ 14 Libertad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
§ 15 Bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
§ 16 Sistemas equivalentes . . . . . . . . . . . . . . . . . . . . . . 35
§ 17 Rango . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
3 Linealidad 39
§ 18 Álgebra de transformaciones . . . . . . . . . . . . . . . . . . 39
§ 19 Álgebra de matrices . . . . . . . . . . . . . . . . . . . . . . 40
§ 20 Transformaciones y matrices . . . . . . . . . . . . . . . . . . 44
§ 21 Nulidad y rango . . . . . . . . . . . . . . . . . . . . . . . . 45
§ 22 Inversión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
§ 23 Cambio de base . . . . . . . . . . . . . . . . . . . . . . . . . 47
-2
ÍNDICE -1
§ 24 Matrices elementales . . . . . . . . . . . . . . . . . . . . . . 48
§ 25 Formas bilineales . . . . . . . . . . . . . . . . . . . . . . . . 50
4 Diagonalización 52
§ 26 Autovalores y autovectores . . . . . . . . . . . . . . . . . . 53
§ 27 Operadores y matrices diagonalizables . . . . . . . . . . . . 56
§ 28 Descomposición espectral . . . . . . . . . . . . . . . . . . . 58
§ 29 Diagonalización simultánea . . . . . . . . . . . . . . . . . . 58
5 Ortogonalidad 60
§ 30 Producto interno . . . . . . . . . . . . . . . . . . . . . . . . 60
§ 31 Proyección ortogonal de un vector sobre otro . . . . . . . . 62
§ 32 Proyección ortogonal de un vector sobre un subespacio . . . 64
§ 33 Ortonormalización . . . . . . . . . . . . . . . . . . . . . . . 65
§ 34 Bases ortonormales . . . . . . . . . . . . . . . . . . . . . . . 65
§ 35 Proyecciones ortogonales . . . . . . . . . . . . . . . . . . . . 66
§ 36 Diagonalización ortonormal . . . . . . . . . . . . . . . . . . 67
§ 37 Representación de funcionales. Adjunción . . . . . . . . . . 68
§ 38 El álgebra L(U) . . . . . . . . . . . . . . . . . . . . . . . . . 70
§ 39 Formas sesquilineales . . . . . . . . . . . . . . . . . . . . . . 72
6 Normalidad 74
§ 40 Operadores normales . . . . . . . . . . . . . . . . . . . . . . 74
§ 41 El teorema espectral . . . . . . . . . . . . . . . . . . . . . . 75
§ 42 Operadores autoadjuntos, unitarios y positivos . . . . . . . 76
§ 43 Matrices simétricas . . . . . . . . . . . . . . . . . . . . . . . 79
§ 44 Matrices ortogonales . . . . . . . . . . . . . . . . . . . . . . 80
§ 45 Matrices positivas . . . . . . . . . . . . . . . . . . . . . . . 81
7 Aplicaciones 84
§ 46 Rectas y planos . . . . . . . . . . . . . . . . . . . . . . . . . 84
§ 47 Proyecciones y mı́nimos cuadrados . . . . . . . . . . . . . . 87
§ 48 Ángulos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
§ 49 Volúmenes . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
§ 50 El producto externo en R3 . . . . . . . . . . . . . . . . . . . 91
§ 51 Aplicaciones a la estadı́stica . . . . . . . . . . . . . . . . . . 92
Apéndice 97
§ 52 Determinantes . . . . . . . . . . . . . . . . . . . . . . . . . 97
§ 53 La forma de Jordan . . . . . . . . . . . . . . . . . . . . . . 105
§ 54 Soluciones óptimas . . . . . . . . . . . . . . . . . . . . . . . 110
1
2 PRELIMINARES
R(ST ) = (RS)T.
a · b = xu + yv . (4)
ρ(ta) = tρa
para cualquier vector a y cualquier número t.
ρ(a + b)
......
............
........ ..
....................
" "
ρ&M' ..
.
.... ... . . ...
.... . . .. . . . ..
.... . ...... . . . ....
..... . . ... . . . . ...
..... . ........... ...... .......
ρ ......................
............. ......
.
..
. .. .
..... .. . . ....... . .... . . ......
..... . . . . ..... . . . .. . . . ...
. .
........ ....... ..... . . . .. . ... . . . . . . . . . ..
...... ...... . .......... ...... . ...... . ....
.............
......................
............. . ...... ..
.....................................
a+b
. .
.
... . . . . . .... . . . . . . . . . ..
..... . . . . . ... . . . . . . . . . ..
.... . . . . . . . ... . . . . . . . . . . .........
ρ(a) .........
.... .... .... ..
.... .... ... .... ...
..
...
...
..
.. . . . . .. . . . . .. ........ ........ ......... . ...... . ...... ................. .... .... .
.............. . . . . ...... . . ... . .
..... . . . .. . . . .. ..... . . . . . . . ............
. . .... ...
M ............ . . . . . ...... . . . . ..
............ ....................... ............ ..... . . . . . . . .... . . . . .. ..... . ...
..... . .. . . . . . . .... . ............. .. . ..... ....
....
.. M
.............. . . . . . . . . ...... . . . . . ..
b ............................................................... b
.... . . . . . . .. . . . ...... ..... . . . . .....
............. . ................................... ...... ........
...
.. .
.
..
..
....
...
..
.. . . . . . . . . . . . . ..... . . . . . . . .
................................................................................ ...
.. . . . . . . . . . . ........ . . . . . . . . . ..
ρ (b) .
.............. . ...... ................... ............
.. . . . . . . .. . .... . . . . ....
.
....
....
....
.
.
...
...
.... . . . . . . . . . ....... . . . . . . . . . . ... .. . . . . . .. . .... . . . . ..... ....
.......................................................................... ...
. .... . . . . .. . ..... . . . . ....
... .. . . . .. . .... .. . . .... . . . ...
. ..
.
.
... .................................................. ... a .... .. . . .. .... . . .. ..... ... .... .. a
........................................................................ ... . .. . .. ...... . . ...... .... . .... ......
................................................................. .... . .. ... ..... .. ...... .... .... ....
........................................................................ .... . ... ... . ................ .... ... ....
.
.. . . ....... . . . ............... ... . ...... ....... ....... ◦ .... .... ....
................................... .... ..... ....... .....30 ... ....
.. ........................... ................... .... ..... .... .
................. ! ........ .... !
Figura 2
Por analogı́a con los vectores, puede también definirse la suma de dos
matrices y el producto de una matriz por un número:
# $ # $ # $
ξ1 η1 α1 β1 ξ1 + α1 η1 + β1
+ =
ξ2 η2 α2 β2 ξ2 + α2 η2 + β2 ,
# $ # $
ξ1 η1 λξ1 λη1
λ =
ξ2 η2 λξ2 λη2 ·
MATRICES 7
5 √ √
En particular, si a = (−1, 11) entonces ρπ (a) = ( 3 − 1 , 3 + 1).
2
Espacios euclidianos. Las consideraciones hechas en relación con el
plano pueden generalizarse introduciendo, para cada n ≥ 1, el espacio
euclidiano n–dimensional cuyos elementos son las n–plas ordenadas
(x1 , . . . , xn ) ,
Eliminación
La expresión
−5 { }1 + 3 { }2 − { }3 = −2
es una manera, sin duda extravagante, de escribir una ecuación lineal
con tres incógnitas. Las ternas ordenadas (−17, 1, 90), (1, 2, 3), (0, 0, 2),
(2, 3, 1) son soluciones de ella. En particular, (1, 2, 3) y (2, 3, 1) son dos
soluciones distintas. En cambio (3, 1, 2) no es una solución.
E : a1 { }1 + · · · + an { }n = b .
9
10 CAPÍTULO 1. ELIMINACIÓN
a1 s1 + · · · + an sn = b .
(1) · · · (n)
a11 ··· a1n b1
..
· ··· · . (P)
am
1 ··· am
n bm
f2 : [a21 , . . . , a2n ; b2 ]
a21 { }1 + · · · + a2n { }n = b2 .
Una solución de (P) es una n–pla (s1 , . . . , sn ) que satisface cada una
de las m ecuaciones del problema; las soluciones de (P) constituyen su
conjunto solución. Un problema es consistente si tiene, por lo menos,
una solución. En caso contrario, es decir, cuando el conjunto solución es
vacı́o, se dice que es inconsistente.
§2 Problemas equivalentes
E : a1 { }1 + · · · + an { }n = h ,
F : b1 { }1 + · · · + bn { }n = k ,
y un número λ, la ecuación
§3 Notaciones
Ax = b ,
explı́citamente
1
a11 · · · a1n x b1
· ...
.
· ··· = ..
am
1 ··· am
n xn bm ,
. /0 1 . /0 1 . /0 1
A x b
donde el producto Ax es el vector columna cuyas componentes se obtienen
multiplicando cada una de las filas de A por x. Anotemos de paso que
esta multiplicación (de una matriz m × n por un n–vector columna) goza
de las propiedades
Ax = 0 . (H)
§4 El método de eliminación
[fi + cfj ] : sumar a la fila i–ésima la fila j–ésima multiplicada por c. Ob-
sérvese que, por ejemplo, [f1 + f2 ] es diferente de [f2 + f1 ].
(O): suprimir filas nulas (filas de ceros), pues estas corresponden a ecua-
ciones triviales y superfluas. Se escribe ]fi [ para indicar la supresión
de fi .
[f2 ↔ f3 ] , [f4 − f2 ] .
y1 y2 y4 y3 y5
1 0 0 1 1 −1
0 1 0 1 1/2 1
0 0 1 0 1/2 0
,
en el cual y 3 y y 5 pueden tomarse como parámetros. Llamándolas λ y µ,
respectivamente, se observa que todas las soluciones pueden obtenerse de
la fórmula
y1 −λ −µ −1 −1 −1 −1
y2 −λ −1/2µ +1 −1 −1/2 1
y4 = −1/2µ = λ 0 + µ −1/2 + 0
y3 λ 1 0 0
y5 µ 0 1 0 ,
La forma final es
r s t u
1 0 0 0 1 r 1
0 1 0 0 −1 s −1
,
es decir
0 0 1 0 3 t = 3
0 0 0 1 2 u 2 .
El problema tiene una sola solución, i.e. su conjunto solución tiene
un solo elemento, a saber, el vector de componentes 1, −1, 3 y 2 (en este
orden).
Ejemplo C.
2t1 + 2t2 − 4t3 + 2t4 = 8
2t1 + 2t2 + t3 + t4 = 6
−2t1 − 2t2 + 4t3 − 2t4 = 3.
Al cabo del primer paso, [1/2 f1 ] , [f2 − 2f1 ] , [f3 + 2f1 ], se observa ya
que el problema es inconsistente. Sin embargo, en aras de la uniformidad,
puede continuarse el proceso.
1 0 1 3/5 16/5
0 1 0 −1/5 −2/5
0 0 0 0 11
.
t1 t3 t2 t4
1 0 1 3/5 0
0 1 0 −1/5 0
0 0 0 0 1
.
1
x ··· xn
1
a1 ··· a1n b1 (P)
· ··· · ·
am1 ··· am
n bm .
1 × × ··· × ×
0 × × ··· × ×
· · · ··· · ·
0 × × ··· × × .
1 0 × ··· × ×
0 1 × ··· × ×
· · · ··· · ·
0 0 × ··· × × .
La operación (O) se aplica cada vez que haya lugar. Como paso final,
y si es el caso, se reduce la columna de términos independientes.
A)
1 ··· 0 c11 · · · c1p d1
r · ··· · · ··· · ·
0 ··· 1 cr1 · · · crp dr .
. /0 1
n
B)
1 ··· 0 d1
r · ··· · ·
0 ··· 1 dr .
. /0 1
n
En este caso r = n.
C)
1 ··· 0 × ··· × 0
· · · · · · ··· · ·
r 0 ··· 1 × ··· × 0
0 ··· 0 0 ··· 0 1 .
. /0 1
n
x = λ1 h1 + · · · + λp hp + c . (2)
§ 6. CONCLUSIONES 21
λ1 h1 + · · · + λp hp , (3)
§6 Conclusiones
§7 Comentarios
Dimensión
Los vectores son objetos matemáticos que pueden ser sumados entre sı́ y
multiplicados por escalares (números) y que se agrupan en conjuntos lla-
mados espacios vectoriales. En cada espacio se trata de seleccionar un
puñado básico de vectores, los menos posibles que, combinados adecuada-
mente, generen cualquier otro vector. El número de vectores básicos puede
entenderse como el número de grados de libertad que hay en el espacio.
§8 Espacios vectoriales
23
24 CAPÍTULO 2. DIMENSIÓN
§9 Subespacios
[1] Una condición necesaria y suficiente para que una transformación lineal
T : U −→ V sea inyectiva es que, para todo u de U,
T (u) = 0 =⇒ u = 0 .
x1 u1 + · · · + xn un ,
A!B .
Esta función
à : Rn −→ U ,
§ 13 Generación
§ 14 Libertad
x1 u1 + · · · + xn un = 0 , (1)
x1 u1 + · · · + xn un = 0 =⇒ x1 = · · · = xn = 0 . (2)
Ã(x) = 0 =⇒ x = 0 .
x1 a1 + · · · + xn an = 0 (3)
M = N1 ⊕ · · · ⊕ Ns .
§ 15 Bases
[7] Dos bases cualesquiera (de un mismo espacio) tienen igual número de
elementos.
dim U = n ,
[u]B = B −1 u .
(i) Si v 1 ∈ &A', este vector puede descartarse sin alterar el carácter gene-
rador de C.
[10] Todo sistema A, libre pero no generador, puede completarse hasta ob–
tener una base.
[12] Todo sistema generador pero dependiente puede reducirse hasta obte-
ner una base.
§ 16 Sistemas equivalentes
A = [u1 , . . . , up ] ⊂ U y B = [v 1 , . . . , v p ] ⊂ V
Si a un sistema A de vectores de Rm ,
A = [a1 , . . . , an ] ,
B = [b1 , . . . , bn ] ,
[l1 , . . . lp , e1 , . . . , em ] .
columnas, [Link]. [f2 − 2f1 ] , [f3 + 2f1 ] , [f4 − 12f1 ] , [f5 + 4f1 ] , [−f2 ] ,
[f1 + f2 ] , [f4 + 3f2 ] , [f5 − f2 ] , [f4 + 3f3 ] , [f5 − f3 ] , [f4 ↔ f5 ] ,
[f1 + f4 ] , [f2 + f4 ] , [f5 + 3f4 ], se llega a la forma final C,
B = [ a1 a2 a3 a4 a5 e1 e2 e3 e4 e5 x y]
4 4 4 4 4 4 4 4 4 4 4 4
1 0 −3 0 1 3 0 −1 0 1 1 −1
0 1 −2 0 4 2 0 −1 0 1 1 2
C= 0 0 0 1 3 2 0 1 0 0 0 3
0 0 0 0 0 0 1 −1 0 1 0 0
0 0 0 0 0 0 0 0 1 3 1 0 ,
4. x no está en &A'.
§ 17 Rango
Se llama rango de un sistema A, y se denota rg A, la dimensión del
subespacio generado por A:
rg A = dim &A' .
Linealidad
§ 18 Álgebra de transformaciones
(S + T )u = Su + T u y (λT )u = λ(T u) .
39
40 CAPÍTULO 3. LINEALIDAD
§ 19 Álgebra de matrices
T u1 = v 1 , . . . , T un = v n .
T u = λ1 v 1 + · · · + λn vn .
A = [a1 , . . . , an ] , ai ∈ Rm .
τ (x) = Ax = a1 x1 + · · · + an xn . (1)
En particular
Es claro que ax = xt at .
[τ ] = [τ e1 , . . . , τ en ] .
o también:
A[b1 , . . . , bp ] = [Ab1 , . . . , Abp ] . (4)
Escribiendo C = AB vemos que cik es la i–ésima componente de Abk .
Entonces, de acuerdo con [1] y (3) :
cik = ai bk = ai1 b1k + · · · + ain bnk .
Esta regla de multiplicación puede esquematizarse ası́:
(k)
..
.
ai bk = · · · ai bk · · · (i)
..
.
.
(m × n) (n × p) (m × p)
2. En general AB )= BA.
§ 20 Transformaciones y matrices
U T !V
" "
A B
Rn !Rm
τ
ci = [T ui ]B , i = 1, . . . , n .
[v]B = C [u]A .
§ 21 Nulidad y rango
Ax = 0 , (1)
§ 22 Inversión
ST = 1 ,
TS = 1 .
Ax = 0
(AB)−1 = B −1 A−1 .
Si A es regular At también lo es y
A−1 ai = ei , (i = 1, . . . , n) . (1)
§ 23. CAMBIO DE BASE 47
§ 23 Cambio de base
Supongamos que en un espacio n–dimensional U hay una base A, llamémos-
la azul, y una base B, blanca. ¿Cómo se expresan las coordenadas blancas
en términos de las azules? Basta considerar la matriz P de la identidad,
con respecto a las bases A y B (ver §§ 15 y 20):
U 1 !U
" "
A B
Rn !Rn
ι
[u]B = P [u]A .
QA = BP .
B = P −1 AP .
§ 24 Matrices elementales
= [a1 , . . . , aj , . . . , ai , . . . an ] ,
(i) (j)
se observa que:
(a) Eij = [. . . , ej , . . . , ei , . . .] → [. . . , ei , . . . , ej , . . .] = I ,
(i) (j) (i) (j)
1
(b) Ei (λ) = [. . . , λei , . . .] → [. . . , (λei ), . . .] = I ,
λ
(i) (i)
§ 25 Formas bilineales
f :U ×U →R
f : U × V −→ W,
Diagonalización
52
§ 26. AUTOVALORES Y AUTOVECTORES 53
§ 26 Autovalores y autovectores
Sea T un operador lineal en un espacio vectorial U. Si u es un vector y λ
un escalar tales que
u )= 0 y T u = λu ,
se dice que λ es un autovalor (o valor propio) y que u es un autovector
(o vector propio) de T , que se corresponden. También se dice en este
caso que u es un λ–autovector de T . Obsérvese que los dos conceptos se
definen simultáneamente.
(A − λ)x = 0 , (1)
54 CAPÍTULO 4. DIAGONALIZACIÓN
det (A − λ) = 0 . (2)
det A = λ1 . . . λn . (3)
z = x + iy con x, y ∈ Rn .
(i) z = x − iy ,
Ax = µx − νy y Ay = νx + µy , (4)
56 CAPÍTULO 4. DIAGONALIZACIÓN
y además z es un λ–autovector de A.
Dicho de otro modo: para que T sea diagonalizable basta que haya
suficientes autovectores para generar a U (ver [12], § 15).
uk+1 = µ1 u1 + · · · + µk uk . (1)
Aplicando A obtenemos:
En consecuencia:
§ 28 Descomposición espectral
§ 29 Diagonalización simultánea
Ortogonalidad
§ 30 Producto interno
60
§ 30. PRODUCTO INTERNO 61
Si z = x + iy y w = u + iv (x, y, u, v ∈ Rn ) entonces
&z, w' = &x, u' + &y, v' − i (&x, v' − &y, u') .
*u − v* .
(3) Para que un vector sea ortogonal a un subespacio N basta que sea
ortogonal a un sistema de generadores de N .
y = u−x
uk+1 = y/*y*
§ 33 Ortonormalización
§ 34 Bases ortonormales
xi = &u, ui ' , i = 1, . . . , n .
66 CAPÍTULO 5. ORTOGONALIDAD
§ 35 Proyecciones ortogonales
donde (ver [2], § 34) xi ui = &u, ui 'ui = (ui u#i )u. Entonces:
u = &u, u1 'u1 + · · · + &u, un 'un = (u1 u#1 + · · · + un u#n )u , (2)
para todo u de Kn . Por lo tanto
u1 u#1 + · · · + un u#n = I .
Ejemplo. En toda variedad S = N + c (ver § 9) hay un vector de norma
mı́nima, a saber, la proyección ortogonal de c (o de cualquier otro elemento
de S) sobre N ⊥ . Tal vector es el único elemento de S ∩ N ⊥ .
§ 36 Diagonalización ortonormal
donde (ver § 3
18, ejemplo): a) Pj2 = Pj para todo j = 1, . . . , s, b) Pj Pk = 0
si j )= k, c) s1 Pj = 1U .
y, finalmente,
n
4
A= ξi Ki ,
1
ϕv : U → K ,
donde ϕv (u) = &u, v', para todo u de U. Dos vectores distintos no pueden
originar un mismo funcional.
(S ± T )# = S # ± T # (λT )# = λT #
1# = 1 T ## = (T # )# = T (3)
(ST )# = T # S # ,
70 CAPÍTULO 5. ORTOGONALIDAD
(T −1 )# = (T # )−1 .
A# = At . (4)
En el caso real
A# = At , (5)
§ 38 El álgebra L(U )
Tu ⊥ v si y sólo si u ⊥ T #v ,
u = u1 + u2 y v = v1 + v2 con u1 , v 1 ∈ N y u2 , v 2 ∈ N ⊥
y entonces
&P u, v' = &u1 , v 1 + v 2 ' = &u1 , v 1 ' + &u1 , v 2 ' = &u1 , v 1 '
y &u, P v' = &u1 + u2 , v 1 ' = &u1 , v 1 ' + &u2 , v 1 ' = &u1 , v 1 ' .
Por lo tanto P # = P .
§ 39 Formas sesquilineales
Normalidad
§ 40 Operadores normales
T #T = T T #
74
§ 41. EL TEOREMA ESPECTRAL 75
*T v* = *T # v* .
T v = 0 si y sólo si T #v = 0 ,
§ 41 El teorema espectral
3
T ≥ 0, su forma espectral, T = λj Pj , permite hallar un S, autoadjunto,
tal que S 2 = T , a saber
4 !
S= λj Pj . (1)
x real (resp. real y distinto de cero); en tal caso existe un único x > 0 tal
√
que x2 = z, a saber, x = z.
§ 43 Matrices simétricas
interpretando la ecuación
x = Py
como un cambio de coordenadas ortogonales (de las xi a las yi , o sea, de
la base canónica I a la base P ) que transforma a q en la forma cuadrática
q0 (y) = q(P y) = y t Λy ,
80 CAPÍTULO 6. NORMALIDAD
es decir: 4
q0 (y1 , . . . , yn ) = λi yi2 .
Se obtiene ası́ el llamado teorema de los ejes principales:
3
[4] Para toda forma cuadrática real j hay un cambio de coordena–
aij xi x3
das ortogonales que la lleva a la forma λi yi2 (donde los λi son los
autovalores de A).
Hay también una versión para el caso complejo, es decir, para A her-
mitiana.
§ 44 Matrices ortogonales
Como µ2j +νj2 = 1 puede escogerse θj tal que cos θj = µj y sen θj = −νj ,
y entonces tenemos que:
[5] Para cada matriz ortogonal A existe una matriz ortogonal P tal que:
P t AP = ∆(1, . . . , 1, −1, . . . , −1 M1 , . . . , Mt ) , r + s + 2t = n ,
. /0 1 . /0 1
r s
donde # $
cos θj −sen θj
Mj = , j = 1, . . . , t .
sen θj cos θj
§ 45 Matrices positivas
[6] Para una matriz normal A los enunciados siguientes son equivalentes:
para todo k (en particular, det A > 0). Como lo propio ocurre con la
matriz An−1 , la hipótesis implica que An−1 > 0. La relación (1), con
k = n − 1, muestra que
Aplicaciones
Este capı́tulo sólo pretende dar una idea sobre algunas aplicaciones,
mostrando que los desarrollos efectuados anteriormente proporcionan he-
rramientas eficaces para resolver diversos problemas y para formular con-
ceptos arrojando nueva luz sobre su significado.
§ 46 Rectas y planos
Si en el plano (o en el espacio) se introduce un sistema ortogonal de coor-
denadas, cada elemento x de R2 (resp. de R3 ) puede interpretarse:
1) como un punto P (de coordenadas xi ),
2) como un segmento orientado (flecha) que va del origen 0 al punto P .
−→ −→
Es útil convenir que dos segmentos orientados P1 Q1 y P2 Q2 representan
el mismo vector cuando tienen igual longitud, dirección (están sobre rectas
84
§ 46. RECTAS Y PLANOS 85
x = a + su , (s ∈ R) (1)
es la recta que pasa por a y es paralela a u (ver fig. 3). Se dice que (1) es
la ecuación de esta recta. .....
..........
.........
...................
.......... ......
" ..
......
" ... . ....
.. .
...........
.......... ......... ...
. . ..
. ..
....... .......... .... ...
....... .......... .....
.......... .....
!
.................. ..
.... x .......... .....
..
.. .
....... ..... .
............ ......
. ..
...... ...
...... .....
....... ..... ..........
...... .
.......... ........
..
...
..
....
.....
.
..
b ..
....... ........ .... ... .. ..... ..
.
.. .. .... ... ..... ..
.......
...
... .... ......
.
....... ..... .
.....
. .
.
...... ..... ............ .. ..... ...
....... ..... ........ u ... a .....
...... .... ....... ... ..... ...
. .
......
.. .
. .
...
.
..
........ .... ..... . ..............
. b−a
!
..
.. . ... ..... ...
. .... ...
..
... .... ...... .
..... ..........
....... .... ............. .. ..........
....... ..... ... ..... ..........
...... ..... ........
.. ..... ..........
........... ................. ... ....... ..........
.
... . ................ ...
.
.. .. . .... ......... ...................
.... .......
....... .......................
! !
. .. ....
.... a .........
....... ......
....................
..........
.
.. .......... .
.........
.
.......... ......
........... .........
........
Figura 3 Figura 4
x ∈ ab ⇐⇒ x = (1 − s)a + sb , (0 ≤ s ≤ 1) .
La longitud de ab es *b − a*.
x = a + su + tv , (s, t ∈ R) .
86 CAPÍTULO 7. APLICACIONES
"
............................
... ....................
... ...................
... ...................
. ...
.
...................
......
.... .
...
.. .. ...
.. ...
.
.
. .
..
.. . ◦ .....
..
.a .. .
.....
... x ...
....
... ... .. .... ...
... .. .... ...
........................ . ... ...
...................... ..... .....
. ....................... .. ...
... .... ................................ ...
... ...... ....................
.. ......
... ......... v
''
( .
. ... .
..........
....... !
#%%
&
# u
$
#
Figura 5
&x − a, p' = 0 ,
o también
p1 x1 + p2 x2 + p3 x3 = q ,
donde q = p1 a1 + p2 a2 + p3 a3 . Se observa que el plano en cuestión no
es otra cosa que el conjunto solución de una ecuación lineal. Entonces el
conjunto solución de un problema lineal es la intersección de varios planos.
" "
............
.............. ......
.............. ......... ....
..............
...
....
....
............... .
.. .. .... ....
...
.............. .....
.
...
........... ..... ...
............ ....... .......
.............. .... ..... .. .............. ... ..
.............. ...... ....
. ....
................. .
. ..
.
.............. .
... .....
..
.. ..
. ................
...... ..
... .
...
.
.
a2 .............
......
..............
.......... ..
x ..
..
a3 .....
..... .................
.............. .....
... .........................
...
... ... .
. ........... .... ..
.............. .... .........
..
..
......... .... ............. ... ......... .... .
....
...
... .... ...... ... ... ..........
...
... ........
..
.. .. .... . ............ .. .. .. ..............
.. ... .... .. .. .. .. ... .................... ........
..... . ........
. . .. a1 ... .........
a2 ........... a1
. .
....... ...... ..
. ........................
.
....... ....... ...............
. ....... .... ........ ..
....
......
... ....... ................
.
.. ...... ..............
.......
...... ................. ..............
... .......... ..................... ... ...... ..............
.......................................
. ! ........ ..............
................. !
) )
) )
*
) *
)
Figura 6 Figura 7
§ 47. PROYECCIONES Y MÍNIMOS CUADRADOS 87
Ax = b (1)
A# Ax0 = A# b , (2)
*h*2 = &h, h' = &h, b' = &b − p, b' = &b, b' − &p, b' .
αai + β = bi , i = 1, . . . , n .
§ 48. ÁNGULOS 89
§ 48 Ángulos
En R2 o en R3 se tiene que
&a, b'
cos θ = .
*a* *b*
§ 49 Volúmenes
....... ......
......... .........
...... .. ...... ..
...... .. ...... ..
......... .....
. ......... .....
.
..
b ......
......
......
.
...
......
......
......
.
...
...
.
........ ........... ..
..
..
...
..
...
h
...
...
... ...
.
..
...
.
...
..
...
.
.
...
...
.
..
.
..
...
...
.
.
... .. .. .. ..
*h* ... .
.... .
.... .
.... .
....
. ......... . .....
... ... ...
... .....
... ... ............
a2
......
........ ...
... ......
......
......
.... .... ......... ... ............
.
... ......
............ ........
....................................................................................................................................................................
a1
Figura 8
§ 50 El producto externo en R3
determinando, por lo tanto, un vector v tal que ϕ(x) = &x, v' (ver § 37).
Este vector v se llama el producto externo (o vectorial) de a y b, en
este orden, y se denota a ∧ b; por consiguiente, para todo x de R3 :
a ∧ (b + c) = (a ∧ b) + (a ∧ c) , (a + b) ∧ c = (a ∧ c) + (b ∧ c)
§ 51 Aplicaciones a la estadı́stica
XY = [x1 y1 , . . . , xn yn ]t .
Si µ = EX entonces la v.a.
X̂ = X − µ = [x1 − µ, . . . , xn − µ]t
3
&X̂, Ŷ ' Cov (X, Y ) (xi − µ) (yi − ν)Pi
ρ(X, Y ) = = = 3 3 .
*X̂* *Ŷ * σX σY ( (xi − µ)2 Pi )1/2 ( (yi − ν)2 Pi )1/2
Este número indica en qué medida las dos v.a. (vectores) tienen orien-
taciones similares. Cuando ρ(X, Y ) = 0, es decir, cuando X ⊥ Y , se dice
que las v.a. X y Y son no correlacionadas.
es la matriz de covarianza de X .
Como "
0 si i )= j
Cov (Yi , Yj ) = ptj C pi =
λi si i = j ,
resulta que las Yi son no correlacionadas y la varianza de Yi es λi ; en
particular, λi ≥ 0, para todo i, es decir, C es positiva. Si λi = 0 entonces
*Yi *2 = 0, es decir, Yi es cero, y recı́procamente.
Xp = Y .
p = (X t X )−1 X t Y .
96 CAPÍTULO 7. APLICACIONES
§ 52 Determinantes
.
...............................
.................. .......
..................
.
..... .
. .
. .
.. .
. .................. .......
.......
# $ ......................
..................
.. .......
...
............
....... ..................
λ
0
.............
............
" .......
.......
........
....... ..................
...... .
. .
. .
. ..
. .
. .
..................
.......... ....
.
...............................
0 90 :
...........
.................... ............
.................. ................................... .................... c
.................. .........................
..
...
... .................. .......................... .............
......... d
.........
. .......
90 : ...................... .......
....... ..................
..
............. ............ .............. .....................
.....
............
a ............. ........... .............
........ ...................................
b .....
λ 0 0 # $
a c
volumen de 0 a c = λ área de
b d ·
0 b d
97
98 APÉNDICE
vol στ &M ' vol σ &τ &M '' vol τ &M '
dστ = = = dσ dτ ,
vol M vol τ &M ' vol M
det ∆(λ1 , . . . , λn ) = λ1 . . . λn .
Análogamente, de las relaciones Eij (1) Eij (−1) = I y Eij (1) Eij (1) =
Eij (2) (ver § 24, (2), (c) ), y teniendo en cuenta que det Eij (2) = det Eij (1),
se deduce primero que det Eij (1) )= 0 y luego que det Eij (1) det Eij (1) =
det Eij (1), concluyéndose que det Eij (1) = 1. Por lo tanto:
A = [ . . . , a, . . . , b, . . . ] → [ . . . , a, . . . , b + a, . . . ] →
[ . . . , a − (b + a), . . . , b + a, . . . ]
= [ . . . , −b, . . . , b + a, . . . ] → [ . . . , −b, . . . , (b + a) − b, . . . ]
= [ . . . , −b, . . . , a, . . . ] → [ . . . , b, . . . , a, . . . ] ,
100 APÉNDICE
muestran que
De (1), (2), (3) y de [5] (§ 24) se deduce que, para toda matriz elemental
E,
det E t = det E . (4)
[3] Las propiedades del determinante con respecto a las filas son entera–
mente análogas a las propiedades con respecto a las columnas.
Ax = b ,
es decir, si As = b, esto es
s1 a1 + s2 a2 + · · · + sn an = b ,
la secuencia de operaciones
A = [a1 , a2 , . . . , an ] → [s1 a1 , a2 , . . . , an ]
→ [s1 a1 + (s2 a2 + · · · + sn an ), a2 , . . . , an ] = A{b}1 ,
muestra que
det A{b}1 = s1 det A .
De la misma manera se muestra que, en general,
En consecuencia,
a11 ··· 0 ··· a1n 0
..
··· ··· . ... . ··· ···
.
A{ei }j = ai1 ··· 1 ··· ain →
1
()
Aj
··· ··· . ... . ··· ···
..
.
an1 ··· 0 ··· ann 0
(j)
1 ai1 · · · ain 1 0 ··· 0
0 0
→ .. → ..
. Aij . Aij
0 0 .
det [a] = a ,
§ 53 La forma de Jordan
2) Au2 = λu2 + au1 . Nótese que a no puede ser nulo (si lo fuera, u2 serı́a
otro autovector, independiente de u1 ) y entonces podemos cambiar u2 por
au2 : Au2 = λu2 + u1 .
u1 , . . . , uh ,
(m vectores, en total) (1)
v1, . . . , vk .
Las del primer tipo (digamos que hay s de ellas) son 0–cadenas (nótese
que h no es fijo). Las del segundo tipo son λ–cadenas, con λ )= 0 (nótese
que ni λ ni k son fijos). Entre los ui y los vj hay, en total, m elementos.
ξx + α1 u1 + α2 u2 + · · · + αh−1 uh−1 + αh uh + αu
+ β1 v 1 + β2 v 2 + · · · + βk−1 v k−1 + βk vk = 0,
Bk ), entonces nk + mk = n. Además:
n = n k + m k ≤ νk + µ k = n ,
§ 54 Soluciones óptimas
Tu = v , (C)
Tu = 0 . (H)
S = N + u# (1)
lo cual quiere decir que las soluciones de (C) son precisamente los vectores
de la forma u + u# , con u en N . En otros términos: S es la variedad lineal
obtenida trasladando N por medio de una solución particular de (C).
disyuntas dos a dos; una por cada elemento de V. Queda establecida ası́
una biyección entre V y el conjunto U/N de todos los subconjuntos de U
de la forma N + u, por medio de la cual se puede trasladar a U/N toda
la estructura de V y definir una t.l. Φ : U −→ U/N , Φ(u) = N + u, cuyo
núcleo es N . Una vez reproducida, de esta manera, la situación original,
se puede prescindir de V y de T . El espacio vectorial U/N es el cociente
de V por N (se obtiene dividiendo a U en variedades “paralelas” a N )
y Φ es su transformación canónica. Puede decirse que U/N encarna la
apariencia que toma U cuando nos negamos a distinguir entre elementos
de U cuya diferencia es sólo un elemento de N . Cuando U es, por ejemplo,
el plano y N es una recta (por el origen), U/N es el plano, pero no como
conjunto de puntos sino como conjunto de rectas (las paralelas a N ).
Tu = w ,
T − = T ◦ P : V −→ U
Sı́mbolos y abreviaturas
=⇒ implica
⇐⇒ si y sólo si
♠ fin de la demostración
t.l. transformación lineal
c.l. combinación lineal
l.d. linealmente dependiente
l.i. linealmente independiente, libre
p.i. producto interno
⊥ ortogonal, ortogonalmente
v.a. variable aleatoria
RA relación de adjunción
R números reales
R+ números reales no negativos
R+ 0 números reales (estrictamente) positivos
C números complejos
C0 números complejos no nulos
U números complejos de módulo 1
K números reales o números complejos
xi i–ésima componente del vector columna x
aj j–ésima componente del vector fila a
ai i–ésima fila de la matriz A
aj j–ésima columna de la matriz A
aij i–ésima componente del vector columna aj
j–ésima componente del vector fila ai
(i, j)–componente de la matriz A
[aij ] matriz de componentes aij
δji delta de Kronecker (δii = 1 y δji = 0 si i )= j)
SÍMBOLOS Y ABREVIATURAS 115
σX , 93
&T ', 2
T # , 69
T ◦ , 111
T −1 , 2, 26
T − , 112
T ≥ 0, T > 0, 77
T &A', 29
T &M', 2
T (u), T u, 1
[τ ], 6, 42
[u1 , . . . , un ], 27
&u1 , . . . , un ', 29
[u]B , 33
U/N , 111
U −→ V, 1, 25
R⊥S, 62
V arX, 93
w# , 61
X , 94
X̂, 93
(x, y), (x1 , . . . , xn ), 3, 7
x(n) , 26
x + iy, 55
XY , 92
z, 55
Índice alfabético
adición, 24 componente(s), 7
adjunción, 68, 69, 71 principales, 94
adjunta, 69 composición, 43
álgebra, 40, 43 compuesta, 1, 40
algoritmo, 9 conjugada (matriz), 56
ángulo, 89 conjunto solución, 10, 29, 110
antisimétrica, 100 consistente, 10
autoadjunto, 76, 77 coordenadas, 33
autovalor, 53 coseno, 3
autovector, 53 covarianza, 93
Cramer (regla de), 101
base, 32
criterio
(cambio de), 47
de inyectividad, 100
adecuada, 56
de libertad, 100
canónica, 32
de regularidad, 100
de Jordan, 106
orientada, 104
definición en la base, 41
ortonormal, 65
definiciones, 1
biyectiva, 2
definida, 51
cadena de Jordan, 106 delta de Kronecker, 33, 114
cambio de base, 47 demostraciones, 1
canónica, 111 dependencia lineal, 30
caracterı́stica, 18 desarrollo de un determinante, 103
cociente, 111 descomposición, 50
coeficiente, 9, 94 espectral, 58
de correlación, 94 desigualdad de Schwarz, 63
cofactor, 102 desigualdad del triángulo, 64
combinación lineal, 27, 29 desviación estándar, 93
completo (problema), 110 determinante, 98
117
118 ÍNDICE ALFABÉTICO
inducida, 44 positiva, 81
invariante, 2 regular, 46
inversa, 2, 46 semejantes, 48
(fórmula para la), 104 simétrica, 79
de una matriz elemental, 50 singular, 47
generalizada, 111, 112 traspuesta, 8
invertible, 46 unidad, 42
involución, 70 maximal, 34
inyectiva, 2 media, 92
isomorfismo, 26 menor, 102
isomorfos, 26 principal, 82
isomorfos(as), 26, 40, 42, 51 método de eliminación, 13
mı́nimos cuadrados, 87, 88, 111
Jordan, 58, 105, 109 Moore–Penrose, 112
multilineal, 101, 102
ley del paralelogramo, 3 multiplicación, 6, 8, 12, 24, 40, 43
libre, 30 multiplicidad
lineal algebraica, 54
(combinación), 27, 29 geométrica, 53, 54
(ecuación), 9
(operador), 40 n–pla ordenada, 7
(problema), 10, 28, 110 norma, 3, 61
(transformación), 5, 25 normal, 74
(variedad), 25, 67, 110, 111 núcleo, 10, 45
forma, 39 nulidad, 45
linealmente dependiente, 30
independiente, 30 operaciones elementales, 13, 28
longitud, 3 operador, 2
autoadjunto, 77
matriz(ces), 5, 7, 10 diagonalizable, 57
cuadrada, 8 estrictamente positivo, 77
diagonal, 33 hermitiano, 77
elemental, 48 invertible, 46
estrictamente positiva, 81, 82 lineal, 40
inversa, 46 normal, 74
invertible, 46 ortogonal, 77
normal, 79 positivo, 77
ortogonal, 80 simetrico, 77
120 ÍNDICE ALFABÉTICO
espectral, 75, 76
término independiente, 9
transformación
canónica, 111
de una matriz, 41, 42
inducida, 44
lineal, 5, 25
transformación asociada, 28
traspuesta, 8, 48, 100
trivial, 10, 30, 110
unidad, 42, 48
unitario, 77
valor, 1
propio, 53
variable
aleatoria, 92
normalizada, 93
normalizada, 93
varianza, 93
variedad lineal, 25, 110
vector(es), 24
cero, 3, 24
columna, 8
de coordenadas, 33
fila, 8
geométrico, 3
ortogonales, 61
propio, 53
unitario, 61
volumen, 89