APUNTES DE ÁLGEBRA LINEAL Y GEOMETRÍA 2
RICHARD MUÑIZ
R
Isometrı́as en 3 .
La situación es un poco más compleja y quedará más clara más adelante, cuando
R
veamos valores y vectores propios. Las isometrı́as en 3 están estrechamente rela-
cionadas con el movimiento de un cuerpo rı́gido (bueno, esto es cierto en cualquier
dimensión, pero desde el punto de vista de la mecánica clásica, dimensión 3 es lo
que tiene más sentido). En Fı́sica, un cuerpo rı́gido es un objeto tal que las distacias
entre pares de puntos de éste permanecen fijas en el tiempo. Si fijamos un sistema
de coordenadas, un cuerpo rı́gido en un instante t0 será un cierto conjunto de puntos
X0 ⊂ 3 R
Si el rı́gido está en movimiento, en otro instante t estará dado por el conjunto Xt ⊂
R 3
. Como las distancias entre pares de puntos es constante, existirá una isometrı́a
φt : R3 → R3
tal que
Xt = φt (X0 ).
Toda isometrı́a es la composición de una traslación con una isometrı́a lineal. La
traslación estará dada por el movimiento de un punto de referencia del rı́gido. Usual-
mente, se toma como punto de referencia el centro de masas porque es el que tiene la
ecuación de movimiento más simple, aunque si el rı́gido tiene un punto fijo, es mejor
tomar ese punto como referencia. Podemos escribir entonces el rı́gido en un tiempo
t como
Xt = Tt (X0 ) + ~o(t),
siendo ~o(t) el punto de referencia (notar que Tt tiene tres grados de libertad y ~o(t)
otros tres, por lo cual el rı́gido tiene seis grados de libertad):
Date: 2024.
25
26
en la figura contigua se z′
muestra el rı́gido en el z = z′
instante inicial y su po-
sición un cierto tiempo t
posterior; los ejes rojos b
están fijos mientras que b
los azules se mueven con y = y′
x=x ′ x′ y′
el rı́gido.
El movimiento de un punto cualquiera del rı́gido estará dado por
p~(t) = Tt (p0 ) + ~o(t).
Como Tt es ortogonal, debe ser det Tt = ±1, pero como el rı́gido debe moverse de
forma continua no puede ser det Tt = −1, ya que T0 = id. De esta manera, Tt es una
transformación lineal ortogonal con determinante 1.
Definición 0.1. La rotación con eje dado por un vector ~n 6= 0 y ángulo θ ∈ [0, 2π)
es la transformación lineal
R(~n, θ) : R3 → R3,
tal que R(~n, θ)~n = ~n y rota los vectores del plano perpendicular a ~n un ángulo θ en
sentido antihorario de acuerdo a la regla de la mano derecha, como se muestra en la
figura.
~n
R R
Lema 0.1. Sea T : 3 → 3 una transformación lineal ortogonal tal que det T = 1.
Entonces, T es una rotación.
Demostración. Primero vamos a encontrar el eje de rotación. Para esto debemos
encontrar un vector ~n 6= 0 tal que T ~n = ~n. Esto es, se debe cumplir (T − id)~n = 0,
o equivalentemente, debemos tener ker(T − id) 6= 0. Lo anterior es posible si y sólo
si det(T − id) 6= 0. Definamos
q(t) = det(T − t id).
27
Tenemos que q(t) es un polinomio de grado 3 con coeficientes reales, ya que si toma-
mos la matriz asociada a T en la base canónica será
a11 − t a12 a13
det(T − t id) = a23 a22 − t a23 = −t3 + (algo)t2 + tr(T )t + det T.
a31 a32 a33 − t
Recordemos que todo polinomio de grado impar con coeficientes reales tiene nece-
sariamente alguna raı́z real (si es de grado par no es cierto). Como nuestro polino-
mio es de grado 3 deberá tener al menos una raı́z real λ, pero esto nos dice que
ker(T − λ id) 6= 0 y entonces existe un vector v 6= 0 tal que T v = λv. Como T es
ortogonal, debe ser kT vk = kvk y por lo tanto, |λ| = 1. Ası́ que λ = ±1. En ambos
casos, dado que T es ortogonal, todo vector perpendicular a v es mandado por T a
un vector perpendicular a v, i.e. T {v}⊥ ⊂ {v}⊥ . Si tomamos una base ortonormal de
{v}⊥ , digamos {v1 , v2 }, la matriz asociada a T en la base {v, v1 , v2 } será de la forma
±1 0 0
A = 0 a22 a23 .
0 a32 a33
a22 a23
Si λ = −1, entonces será det = −1 pues det T = 1. Pero como vimos
a32 a33
antes, toda matriz ortogonal 2 × 2, de determinante −1, tiene un vector fijo. Por lo
tanto 1 siempre es raı́z de q(t) y existe ~n 6= 0 tal que T ~n = ~n como querı́amos.
Un argumento análogo al anterior muestra que, en el plano perpendicular a ~n, T es
una rotación de un cierto ángulo θ. El ángulo θ se puede calcular fácilmente ya que
tendremos
det T − 1
cos θ = ,
2
pues tomando una b.o.n. {~n, v1 , v2 } la matriz asociada a T es de la forma
1 0 0
0 cos θ − sen θ .
0 sen θ cos θ
28
1. Espacios vectoriales complejos
1.1. Números complejos. Todo lo que hicimos con números reales, lo podemos
hacer también con números complejos. Antes de pasar a ver espacios vectoriales sobre
los complejos, vamos primero a definirlos y establecer sus propiedades básicas. La idea
de los números complejos se remonta al siglo XVI y apareció naturalmente al tratar
de hallar las raı́ces de polinomios de grados 3 y 4, y obtener una fórmula similar a
la de Bahskara. Si bien para los polinomios de grado 2 debemos considerar números
complejos, puesto que por ejemplo x2 + 1 no tiene raı́ces “reales”, en tales casos
podemos decir que no tienen raı́ces y quedarnos contentos, sin embargo en grado 3
o 4 los números complejos aparecen como pasos intermedios y es insoslayable operar
con ellos incluso aunque al final se llegue a un número real. Acá pongo “reales”
entre comillas, ya que estrictamente hablando, el concepto de número real como lo
conocemos hoy es posterior al de número complejo. Fue Descartes quien acuñó los
términos “números imaginarios” para las raı́ces de números negativos y “reales”,
por contraposición, para los “números de verdad” que son raı́ces de polinomios (con
coeficientes naturales) en las siguientes lı́neas de La Géométrie:
“Au reste, tant les vraies racines que les fausses ne sont pas toujours réelles,
mais quelquefois seulement imaginaires, c’est-à-dire qu’on peut bien toujours
en imaginer autant que j’ai dit en chaque équation, mais qu’il n’y a quelquefois
aucune quantité qui corresponde à celles qu’on imagine.1”
Lo que Descartes llamó número real, hoy en dı́a es lo que se conoce como número
algebraico (raı́ces de polinomios con coeficientes enteros). En ese momento existı́a el
concepto de número irracional, pero todavı́a no el de un número que no fuera raı́z
de un polinomio; es más adelante que se descubre que π no es raı́z de ningún polino-
mio con coeficientes enteros. Los números algebraicos también tienen estructura de
cuerpo, pero esa es otra historia...
Para introducir los números complejos, podemos tomar como punto de partida el
hecho de que no hay ningún número real cuyo cuadrado sea -1, y agregarlo ad hoc
(a prepo). Inventemos entonces un nuevo número, que denotamos por i (la notación
es debida a Leonard Euler), de manera que i2 = −1. Como queremos poder sumar
y multiplicar en nuestro nuevo sistema numérico, necesariamente deberemos condsi-
derar expresiones de la forma x + iy siendo x e y números reales. Ası́ que podemos
decir que los números complejos son esas expresiones y operar intuitivamente para
ver si forman un cuerpo, esto es, el conjunto de los números complejos lo definimos
como
C
= {z = x + iy : x, y ∈ }. R
1Además, tanto las raı́ces verdaderas como las falsas [negativas] no siempre son reales, sino que
a veces sólo son imaginarias, es decir, siempre podemos imaginar tantas como he dicho en cada
ecuación, pero a veces no hay cantidades que correspondan a las que imaginamos.
29
Si z1 = x1 + iy1 , z2 = x2 + iy2 ∈ C podemos operar alegremente utilizando que
i2 = −1:
z1 + z2 = x1 + iy1 + x2 + iy2 = (x1 + x2 ) + i(y1 + y2 ) ∈ C
z1 z2 = (x1 + iy1 )(x2 + iy2 ) = x1 x2 + x1 iy2 + iy1 x2 + iy1 iy2
= x1 x2 + i(x1 y2 + y1 x2 ) + i2 y1 y2 = x1 x2 − y1 y2 + i(x1 y2 + y1 x2 ) ∈ C.
Para dar una definición formal deberı́amos considerar a como C R2 y definir las
operaciones de manera que coincidan con las expresiones anteriores:
C = R2
con la suma usual de R2, y la multiplicación definida por
(x1 , y1)(x2 , y2 ) = (x1 x2 − y1 y2 , x1 y2 + y1 x2 ).
R
Las operaciones anteriores definen una estructura de cuerpo en 2 . Ya sabemos que
+ es conmutativa, tiene neutro, y todo elemento tiene inverso. Falta verificar las pro-
piedades de la multiplicación, y la distributiva. Pero la multiplicación es claramente
conmutativa, y (1, 0) es el neutro. Para ver que todo elemento no nulo (x, y) tiene
un inverso multiplicativo debemos resolver el sistema
(
xx′ − yy ′ = 1
xy ′ + yx′ = 0
para x′ , y ′. Es fácil ver que la solución es
x y
x′ = 2 2
, y′ = − 2 .
x +y x + y2
La distributiva queda como ejercicio.
Al considerar los pares de la forma (x, 0) las operaciones son las usuales con los
números reales y podemos identificar a los reales como este subconjunto de los com-
plejos
R R
≡ {(x, 0) : x ∈ } ⊂ . C
Por otro lado, observemos que (0, 1)2 = (−1, 0) = −(1, 0), y si (1, 0) lo identificamos
con 1 (tiene sentido porque es el neutro), tenemos que (0, 1) es una raı́z cuadrada de
−1. Entonces podemos ahora definir la unidad imaginaria como i = (0, 1) y tendremos
que todo complejo se escribe como z = x + iy con x, y ∈ .p R
El módulo de un número complejo z = x + iy es |z| := x2 + y 2 y su complejo
conjugado es z̄ := x − iy. Tenemos las siguientes propiedades, que son fáciles de
verificar:
z̄
• zz̄ = |z|2 (si z 6= 0, esto nos dice que z −1 = 2 ),
|z|
¯
• z̄ = z (tomar conjugado dos veces es lo mismo que no hacer nada),
30
• zw = z̄ w̄,
• |zw| = |z||w|.
Vamos a definir ahora la función exponencial. La idea es encontrar una función
f: C C
→ de manera que se cumpla la regla de los exponentes
f (z + w) = f (z)f (w),
y vamos a tomar el número e como base, es decir pedimos que
f (1) = e.
Estas condiciones se puede probar que determinan una única función. La podemos
definir explı́citamente de la siguiente forma: Si x es real, simplemente tomamos
f (x) = ex , la exponencial usual en los reales con base e. Por otro lado, podemos
definir
f (iy) = cos y + i sen y.
Las identidades trigonométricas para el coseno y el seno de la suma de dos ángulos:
cos(θ1 + θ2 ) = cos θ1 cos θ2 − sen θ1 sen θ2 ,
sen(θ1 + θ2 ) = cos θ1 sen θ2 + sen θ1 cos θ2 ,
nos dicen que f (i(y1 + y2 )) = f (iy1 )f (iy2 ), con lo cual se cumple la regla de los
exponentes. Escribiremos de ahora en más f (z) = ez para denotar esta función. Lo
C
anterior define el valor de ez para todo z ∈ ya que si z = x + iy debemos tener
ez = ex+iy = ex eiy = ex (cos y + i sen y).
Descomposición polar. Utilizando la exponencial, todo complejo lo podemos escribir
en la forma z = reiθ con r = |z| y θ ∈ [0, 2π). Este θ se llama argumento principal de z
y también se denota por Arg(z). Como las funciones trigonométricas son periódicas de
Z
perı́odo 2π es claro que eiθ+2kπ = eiθ para todo k ∈ , estos otros ángulos (para k 6= 0)
se llaman argumentos secundarios de z. Es conveniente no restringirnos al intervalo
[0, 2π) cuando operamos, porque de esta manera podemos escribir eiθ1 eiθ2 = ei(θ1 +θ2 )
sin preocuparnos por si θ1 + θ2 ∈ [0, 2π). A partir de la descomposición polar es muy
31
simple dar una interpretación geométrica a la mul-
tiplicación de números complejos. Primeramente
i R
observemos que multiplicar por un complejo de wz b
módulo 1 es realizar una rotación antihoraria de
ángulo igual a su argumento. Todo complejo de w
b
α+θ
módulo 1 es de la forma eiθ y si z = reiα tendremos
ρr
que eiθ z = rei(α+θ) . Si multiplicamos por w = ρeiθ
ρ
b
z
r
además de rotar estaremos multiplicando el módu- α
θ
lo por ρ, esto es una rotohomotecia. Podemos ver
esto en el plano complejo, como se muestra en la R
figura contigua.
1.2. C C
-espacios vectoriales. La definición de -espacio vectorial es exactamen-
R
te la misma que la de -espacio vectorial, cambiando R C
por . Y todas las demás
definiciones se realizan de la misma forma, cambiando R C
por donde corresponda
(combinación lineal, conjunto ℓ.i., generador, base, transformación lineal, matriz aso-
C
ciada). Esto funciona no sólo para , sino que vale para cualquier cuerpo numérico
K R C
, pero nosotros estudiaremos sólo los casos de y , y ocacionalmente podrı́a ser
Q . Acá no hay mucho más que agregar, en las notas de la semana 1 cambian por R
C K
(o ) y todo es igual. Donde hay diferencia es en el producto interno, y eso lo
tratamos a continuación.
1.3. Producto interno complejo. La definición de producto interno en un - C
R
espacio vectorial es casi la misma que para un -espacio vectorial, pero con una
pequeña diferencia: no es simétrica sino que es sesquisimétrica. Esta diferencia es
necesaria para que el producto escalar de un vector con sı́ mismo sea siempre un
número real y poder ası́ definir la norma como un real positivo.
Definición 1.1. Un producto interno, o producto hermitiano, en un C−espacio vec-
torial V es una función de pares de vectores
h , i: V × V → C,
que verifica las siguientes propiedades: esto es necesario para
que hu, ui sea real,
hu + v, wi = hu, wi + hv, wi
hau, vi = ahu, vi
hu, vi = hv, ui y para que esto
tenga sentido
hu, ui≥ 0 y hu, ui = 0 si y sólo si u = 0,
∀ u, v, w ∈ V , ∀ a ∈ C.
32
La anterior definición de producto p interno nos permite definir la norma de un vec-
tor igual que antes, esto es, kvk := hu, ui. Tanto la desigualdad de Cauchy-Schwarz
como la desigualdad triangular seguirán valiendo tal cual se enunciaron anteriormen-
te. En el caso de Cauchy-Schwarz la demostración que hicimos no funciona tal cual,
pero dados u, v con v 6= 0, tenemos que
2 |hu, vi|2
0 6 u − hu,vi
kvk2
v = kuk 2
− ,
kvk2
de donde se deduce que
|hu, , vi| 6 kukkvk,
y la igualdad se da si y sólo si u y v son colineales.
Análogamente al caso real, se define la distancia entre dos vectores como dist(u, v) :=
ku−vk, decimos que u y v son perpendiculares si hu, vi = 0, etc. El proceso de Gram-
Schmidt funciona tal cual. La definición de proyección ortogonal sobre un subespacio
es también la misma que antes. Si {v1 , . . . , vn } es una b.o.n. todo vector v ∈ V se
escribe como n
X
v= hv, vi ivi ,
i=1
es decir, los coeficientes de Fourier se calculan igual. En definitiva, sólo hay que
tener cuidado cuando damos vuelta el producto interno, ¡no nos podemos olvidar de
conjugar!
Ejemplo 1.1. En Cn podemos definir un producto interno con la fórmula
n
X
h(z1 , . . . , zn ), (w1, . . . , wn )i = zi wi .
i=1
Este es el que llamamos producto interno usual o estándar.
Centro de Matemática, Facultad de Ciencias
Email address:
[email protected]