Resumen Álgebra Lineal 2019-1
Profesor Jairo Bochi
Santiago González Rendel
Septiembre 2019
Parte 1
1 Determinantes
Motivación: Cálculo de áreas y volúmenes de paralelogramos (R2 ) y paralelepípedos (R3 ).
Encontrar una buena generalización para cualquier dimensión.
Cálculo de áreas de paralelógramos en R2 :
y
(a + b, c + d) Dado un paralelógramo de esta forma,
(b, d)
su área con signo A será
A((a, c), (b, d)) = a · d − b · c
(a, c)
x .
1.1 Funciones Multilineales
Sea K ⊆ C cuerpo.
Sean V1 , V2 , . . . , Vk , W espacios vectoriales sobre K
Definición. Una función f : V1 ×V2 ×· · ·×Vk −→ W se llama multilineal si f (v1 , v2 , . . . , vk )
es función lineal de cada uno de los vi (suponiendo los demás vi fijos).
6
OJO: mulitilineal =⇒ lineal
Definición. Sea f : V × · · · × V −→ W una función multilineal.
f se dice alternada si f (v1 , . . . , vk ) = 0 cuando existen i, j distintos tales que vi = vj .
1
1.2 Teorema Principal de la Teoría de Determinantes
Teorema 1. (TPTD)
Sea V espacio vectorial sobre K, de dimensión n.
Sea (u1 , . . . , un ) base de V .
Entonces existe una única función
D:V
|
× ·{z
· · × V} −→ K
n
que posee las siguientes propiedades:
• P1: D es función multilineal.
• P2: D es alternada
• P3: D(u1 , . . . , un ) = 1
n
ai,j · ui , esta función está definida por
P
De hecho, dados vj =
i=1
X
D(v1 , . . . , vn ) = sgn(σ) · aσ(1),1 · . . . · aσ(n),n (1)
σ∈Sn
Corolario. .
El conjunto de todas las funciones V × · · · × V −→ K
que son multilineales alternadas (P1, P2) es un espacio vectorial de dimensión 1.
De hecho, este espacio µ es de la siguiente forma:
µ = {c · D ; c ∈ K}
2
Sobre Transformaciones Lineales
Proposición 1. Si T : V −→ W es lineal inyectiva entonces:
A ⊆ V conjunto L.I. =⇒ T (A) ⊆ W es conjunto L.I.
Corolario. dim(V ) ≤ dim(W )
Proposición 2. Si T : V −→ W es transformación lineal biyectiva, entonces su inversa
T −1 : W −→ V es transformación lineal.
Definición. Un isomorfismo es una transformación lineal biyectiva T : V −→ W
Observación. En este caso dim(V ) = dim(W )
Proposición 3. Supongamos dim(V ) = dim(W ). Sea T : V −→ W lineal. Son equivalentes:
• T es isomorfismo
• T es inyectiva
• T es sobreyectiva
Proposición 4. Sea T : V −→ W lineal. Son equivalentes:
• T es isomorfismo
• T lleva alguna base de V en base de W
• T lleva toda base de V en base de W
Definición. Una transformación lineal T : V −→ W se llama operador lineal si V = W
3
1.3 Determinante de un Operador Lineal
Sea V espacio vectorial sobre K con dimensión n.
Sea la función D : V
|
× ·{z
· · × V} −→ K multilineal alternada no idénticamente nula (D ≡
6 0).
n
Definición. Dado T : V −→ V operador lineal, sea f : V
|
× ·{z
· · × V} −→ K función definida
n
por f (v1 , . . . , vn ) := D(T (v1 ), . . . , T (vn )). Esta es una función multilineal alternada. Por
ende, usando el corolario del Teorema 1, ∃ c ∈ K tal que f ≡ c · D. Esta constante c depende
sólamente del operador T y se llama el determinante de T . Notación: c = det(T )
Definición. (Equivalente) El determinante de T es:
D(T (v1 ), . . . , T (vn ))
det(T ) :=
D(v1 , . . . , vn )
Donde (v1 , . . . , vn ) es cualquier base de V .
Notemos que si (u1 , . . . , un ) es base tal que D(u1 , . . . , un ) = 1, D está únicamente deter-
minado y tenemos que para cualquier operador T ∈ L(V ), det(T ) ≡ D(T (u1 ), . . . , T (un )).
1.4 Propiedades de Determinantes de Operadores
Proposición 5. Un operador lineal T : V −→ V es isomorfismo si y sólo si det(T ) 6= 0.
Proposición 6. Sean T, S operadores lineales sobre V . Entonces det(T ◦S) = det(T )·det(S).
1
Proposición 7. Si T : V −→ V es isomorfismo, entonces det(T −1 ) =
det(T )
Definición. Dos operadores lineales T : V −→ V , S : W −→ W son conjugados (o similares)
si existe isomorfismo H : V −→ W tal que H ◦ T = S ◦ H
T
V V
Nota: Todo espacio vectorial de dimensión n
. sobre K tiene isomorfismo con Kn H H
W W
. S
Proposición 8. Si T, S son conjugados entonces det(T ) = det(S)
4
Representación de Transformaciones Lineales por medio de Matrices
Sean V, W espacios vectoriales sobre K, con dim(V ) = n y dim(W ) = m.
Fijemos B = (v1 , . . . , vn ) base de V , B̃ = (w1 , . . . , wm ) base de W .
Definición. Dada T : V −→ W transformación lineal, la matriz de T con respecto a B, B̃
es la matriz m × n, notación [T ]B̃B = (aij ) i∈{1,...,m} tal que ∀ j ∈ {1, . . . , n},
j∈{1,...,n}
m K
X z}|{
T ( vj ) = aij · wi
|{z}
|{z} i=1
V W
Sea A = [T ]B̃B . Consideremos la transformación lineal LA : Kn −→ Km definida por
LA (x) = A · x, i.e.:
c1 a11 ... a1n c1 a11 c1 + · · · + a1n cn
. . .. .. . ..
.. = .. .. =
∈ Km
LA . .
.
cn am1 ... amn cn am1 c1 + · · · + amn cn
Definimos isomorfismos IB : V −→ Kn , IB̃ : W −→ Km de la siguiente forma:
n
X
IB (v) = IB ( cj vj ) = (c1 , . . . , cn )
j=1
Xn
IB̃ (B) = IB̃ ( bj wj ) = (b1 , . . . , bn )
j=1
Hecho: LA ◦ IB = IB̃ ◦ T
Es decir, el siguiente diagrama es conmutativo:
T
V W
IB IB̃
Kn Km
LA
Corolario. (Caso V = W, B̃ = B)
Todo operador lineal T es conjugado (o similar) a un operador LA : Kn −→ Kn
Donde A = [T ]BB v 7−→ Av
5
1.5 Determinante de una Matriz Cuadrada
Mn×n (K) = {Matrices de n × n}
n
Hay una identificación Mn×n (K) ←→ K
|
· · × Kn}
× ·{z
n
v1 . . . vn = (v1 , . . . , vn )
|{z}
(biyección)
Definición. El determinante de una matriz n × n es la única función det: Mn×n (K) −→ K
que cumple las siguientes propiedades:
• P1: Es lineal como función de cada columna.
• P2: Si la matriz tiene dos columnas iguales, entonces su imagen es 0.
• P3: det(In ) = 1
Relación con el Determinante de un Operador Lineal
Proposición 9. Si T : V −→ V es operador lineal y A = [T ]BB es su matriz con respecto a
una base B de V , entonces det(T ) = det(A)
Definición. Dada una matriz A, su matriz transpuesta (notación: A> ) es la matriz que se
obtiene intercambiando filas y columnas.
Proposición 10. Si A es una matriz cuadrada, entonces det(A) = det(A> )
Consecuencias:
• el determinante es lineal como función de filas y columnas.
• det(A) = 0 si A tiene dos filas o dos columnas iguales.
6
Propiedades del Determinante
Proposición 11. (Determinante de matriz bloque-triangular)
Sea A una matriz bloque-triangular (triangular por bloques), esto es, una matriz de la forma
!
B ∗
A=
0 C
Con B y C bloques cuadrados. Entonces el determinante de la matriz es el producto del
determinante de los bloques cuadrados:
det(A) = det(B) · det(C)
Corolario. (Determinante de matriz triangular)
a11
a22
*
det .. = a11 · a22 · . . . · ann
.
0 ann
Expansión de Laplace
Sea A una matriz n × n.
Dados i, j ∈ {1, . . . , n}, definimos la submatriz Aij de tamaño (n − 1) × (n − 1), obtenida al
borrar la i-ésima fila y la j-ésima columna de la matriz A.
Proposición 12. (Expansiones de Laplace)
Sea A = (aij )i,j∈{1,...,n} , entonces:
1. ∀ i ∈ {1, . . . , n}
n
det(A) =
X
(−1)i+j aij det(Aij ) (Expansión del determinante
. j=1 por la i-ésima fila)
2. ∀ j ∈ {1, . . . , n}
n
. (−1)i+j aij det(Aij ) (Expansión del determinante
X
det(A) =
. i=1 por la j-ésima columna)
Dato: Si A es una matriz de n × n, el cálculo de su determinante por medio de la fórmula (1) del
TPTD requiere (n − 1) · n! + n + 1 operaciones ((n − 1) · n! multiplicaciones y n + 1 sumas). Por
otro lado, el método de escalonamiento requiere O(3) (del orden de n3 ; función acotable por k · n3 ,
k constante) operaciones.
7
Regla de Cramer (1750)
Supongamos dado un sistema lineal con n incógnitas y n ecuaciones. Este se puede escribir en
forma matricial:
Ax = b
donde A y b son dados, A es matriz de n × n, b es matriz de n × 1 y x es matriz de n × 1.
Para i ∈ {1, . . . , n}, sea A[i; b] la matriz obtenida al reemplazar la i-ésima columna de A por b.
Si det(A) 6= 0, entonces la única solución es
x1
.. det(A[i; b])
x = . , donde xi =
det(A)
xn
Proposición 13. (Fórmula para A−1 )
! >
(−1)i+j det(Aij )
Si A = (aij )i,j∈{1,...n} y det(A) 6= 0, entonces A−1 es
det(A) i,j∈{1,...n}
8
Parte 2
2 Valores Propios
Sea V espacio vectorial sobre un cuerpo K ⊆ C de dimensión n.
Sea T : V −→ V operador lineal.
Definición. λ se llama valor propio del operador T , si existe v ∈ V tal que v 6= 0, T (v) = λv.
Tal vector v se llama vector propio asociado al valor propio λ.
¿Cómo se encuentran los valores propios?
T : V −→ V, λ es valor propio de T ⇐⇒ ∃v 6= 0 tal que T (v) = λv
⇐⇒ ∃v 6= 0 ; (λId − T )(v) = 0 ⇐⇒ Ker(λId − T ) 6= {0}
∴ λ es valor propio de T ⇐⇒ det(λId − T ) = 0
Definición. La función pT (λ) := det(λId − T ) se llama el polinomio característico del operador T .
Los valores propios de T son las raíces de su polinomio característico.
Definición. Si A ∈ Mn×n (K) entonces
pA (λ) := det(λIn − A) se llama polinomio característico de A.
Si A = [T ]B es la matriz del operador T con respecto a alguna base B, entonces pT ≡ pA .
Este es un polinomio de grado exactamente n. Luego, T tiene a lo más n valores propios distintos.
2.1 Vectores Propios y Diagonalización
Proposición 14. Sea V espacio vectorial de dimensión finita.
Sea T : V −→ V operador lineal.
Sean v1 , . . . , vk vectores propios asociados a los valores propios λ1 , . . . , λk respectivamente.
Si los λi ’s son distintos (i 6= j =⇒ λi 6= λj ), entonces los v1 , . . . , vk son L.I.
Corolario. Si dim(V ) = n y el operador T : V −→ V tiene n valores propios distintos, entonces
existe base de V formada por vectores propios de T .
Definición. Un operador lineal T : V −→ V se dice diagonalizable si existe base de V formada
por vectores propios de T .
Observación. T es diagonalizable ⇐⇒ existe base B de V tal que la matriz [T ]B es diagonal.
Observación. La recíproca del corolario es falsa.
9
Definición. Una matriz A ∈ Mn×n (K) es diagonalizable si es similar a una matriz diagonal.
Es decir: A = CDC −1 , donde C ∈ Mn×n (K) es invertible y D ∈ Mn×n (K) es diagonal.
λ1
Si esto se cumple, D =
.. , donde λ1 , . . . , λn son los valores propios de A.
.
λn
Además, C = (v1 . . . vn ), con vi vector propio asociado a λi , actuando como columna de la matriz.
n
λ1
n n −1
Esto puede resultar muy útil, ya que A = CD C = C
.. −1
C .
.
λnn
2.2 Polinomio Característico
Hecho: Matrices similares tienen el mismo polinomio característico.
En particular, si A es diagonalizable con A = CDC −1 , entonces pA ≡ pD .
λ1
!
Sea D = .. . Entonces:
.
λn
x−λ
1
pD (x) =
.. = (x − λ1 ) · · · (x − λn )
.
x−λn
x −(λ1 + · · · + λn )xn−1 + · · · + (−1)n λ1 · · · λn
= |{z}n
| {z }
término principal término constante
Proposición 15. (1) Matrices similares tienen el mismo polinomio característico.
. (2) Operadores conjugados tienen el mismo polinomio característico.
Teorema Fundamental del Álgebra.
Si p es polinomio con coeficientes complejos de grado n, entonces p se factoriza como:
p(x) = c(x − λ1 ) . . . (x − λn )
Donde c, λ1 , . . . , λn ∈ C, c 6= 0
Observación. Los λ1 , . . . , λn son las raíces del polinomio p.
El número de veces que una raíz aparece en la lista λ1 , . . . , λn se llama la multiplicidad de la raíz.
10
Definición. Supongamos K = C.
Sea λ valor propio de un operador o matriz cuadrada. Es decir, λ es raíz de su polinomio carac-
terístico.
La multiplicidad algebráica del valor propio λ es su multiplicidad como raíz del polinomio carac-
terístico.
Definición. Si K ⊆ C, A ∈ Mn×n (K), los valores propios complejos de A son los valores propios
de A, considerada como matriz en Mn×n (C)
Observación. El determinante de un operador o matriz A es igual al producto de sus valores
propios complejos λi , repetidos de acuerdo a sus multiplicidades. ( det(A) = λ1 . . . λn )
Traza de una Matriz
Definición. La traza de una matriz A = (aij )i,j∈{1,...,n} es
tr(A) := a11 + · · · + ann
El coeficiente de xn−1 en pA (x) es −a11 − · · · − ann = −tr(A)
Observación. La traza de una matriz A es igual a la suma de sus valores propios complejos λi ,
repetidos de acuerdo a sus multiplicidades. ( tr(A) = λ1 + · · · + λn )
Propiedades de la Traza
1. tr : Mn×n (K) ∈ K es función lineal.
2. Matrices similares tienen la misma traza
3. ∀ A, B ∈ Mn×n (K), tr(AB) = tr(BA)
d
4. tr(A) = τ (A) = det(In + tA)
dt t=0
Observación. AB y BA no son siempre similares (conjugadas), pero si una de ellas es invertible:
AB = A(BA)A−1
Teorema 2. ∀ A, B ∈ Mn×n (K), AB y BA tienen el mismo polinomio característico.
11
2.3 Suma Directa
Sean W1 , . . . , Wk ⊆ V subespacios vectoriales.
Definición. (Suma)
k
X
Wi = W1 + · · · + Wk := {w1 + · · · + wk ; wj ∈ Wj }
i=1
Proposición 16. Sean W1 , . . . , Wk ⊆ V subespacios vectoriales. Sea W := W1 + · · · + Wk .
Las siguientes condiciones son equivalentes:
1. Todo w ∈ W se descompone como suma w = w1 + · · · + wk (wi ∈ Wi ) de una única manera
2. Si w1 ∈ W1 , . . . , wk ∈ Wk son tales que w1 + · · · + wk = 0, entonces w1 = · · · = wk = 0
3. ∀ i ∈ {1, . . . , k} , Wi ∩ Wj = {0}
P
j6=i
4. dim W = dim W1 + · · · + dim Wk
Definición. Los espacios W1 , . . . , Wk ⊆ V están en suma directa si cumplen cualquiera de las
cuatro condiciones anteriores.
Notación: W1 ⊕ · · · ⊕ Wk := W1 + · · · + Wk = W
12
2.4 Espacios Propios y Multiplicidades Geométricas
Supongamos λ ∈ K valor propio del operador T : V −→ V
Definición. El espacio propio asociado a λ es:
Eλ := {v ∈ V | T (v) = λv} = {0} ∪ {vectores propios asociados a λ}
Observación. Eλ es subespacio de V con dimensión a lo menos 1.
Definición. La multiplicidad geométrica del valor propio λ es la dimensión de Eλ
Proposición 17. Cualquier que sea el valor propio, su multiplicidad geométrica es menor o igual
a su multiplicidad algebráica.
Proposición 18. Sea T : V −→ V operador lineal, dim(V ) = n. Las siguientes condiciones son
equivalentes:
1. T es diagonalizable
2. La suma de las multiplicidades geométricas de los valores propios de T es n
3. V es suma directa de los espacios propios asociados a los valores propios de T
Proposición 19. Sea T : V −→ V operador lineal. Si λ1 , . . . , λk son valores propios distintos del
operador T , entonces los espacios propios Eλ1 , . . . , Eλk están en suma directa.
Observación. Eλi := {v ∈ V ; T (v) = λi v} = Ker(λi Id − T )
Corolario. La suma de las multiplicidades geométricas de los valores propios de un operador lineal
en V es menor o igual a n = dim(V )
13
2.5 Triangularización
Definición. Decimos que una matriz A ∈ Mn×n (K) es triangularizable si es similar a una matriz
triangular superior (o inferior, son equivalentes). Es decir: ∃ C, U ∈ Mn×n (K), donde C es invertible
λ1 ∗
!
y U es triangular superior (U = .. ).
.
λn
14
Parte 3
3 Espacios de Producto Interno
15
Parte 4
4 Formas Bilineales / Formas Cuadráticas
Sea K = R o C
Sean V , W espacios vectoriales sobre K, ambos de dimensión finita.
4.1 Función Bilineal
Una función bilineal es f : V × W −→ K , tal que f es lineal con respecto a cada una de las dos
variables. Si V = W entonces f se llama forma bilineal.
Matriz de una Función Bilineal
Sean B1 = (v1 , ..., vm ) base de V , B2 = (w1 , ..., wn ) base de W .
Entonces A = (aij ) := (f (vi , wj )) será la matriz de f con respecto a las bases B1 , B2 .
Notación: A = [f ]B1 ,B2
Notemos que:
f (v, w) = [v]>
B1 · A · [w]B2 (2)
Afirmación: Dado f : V × W −→ R, existe una única transformación lineal T : V −→ W tal que
f (v, w) = hT v, wi ∀ v ∈ V, w ∈ W
4.2 Formas Bilineales
Proposición 20. Sea f : V × V −→ K forma bilineal.
Son equivalentes:
• La matriz de f con respecto a alguna base es invertible.
• La matriz de f con respecto a cualquier base es siempre invertible.
• ∀ v ∈ V no-nulo, ∃ w ∈ W tal que f (v, w) 6= 0
• ∀ w ∈ W no-nulo, ∃ v ∈ V tal que f (v, w) 6= 0
• f es no degenerada.
16
Definición. Sea f : V × V −→ K forma bilineal.
Decimos que f es simétrica si:
∀ v, w ∈ V, f (v, w) = f (w, v)
Decimos que f es anti-simétrica si:
∀ v, w ∈ V, f (v, w) = −f (w, v)
Definición. Una forma bilineal se dice simplética si es no-degenerada y anti-simétrica.
Proposición 21. Toda forma bilineal se puede escribir de manera única como:
f = f1 + f2
donde f1 es una forma bilineal simétrica y f2 es una forma bilineal anti-simétrica.
De hecho,
f (v, w) + f (w, v)
f1 =
2
f (v, w) − f (w, v)
f2 =
2
17
A partir de ahora consideramos K = R
Proposición 22. Sea V espacio con producto interno. Dada forma bilineal f : V × V −→ R, existe
único operador lineal T : V −→ V , tal que f (v, w) = hv, T wi. Recíprocamente, dado operador T ,
la fórmula define a una única forma bilineal f .
Teorema 3. Sea f : V × V −→ R forma bilineal simétrica.
Entonces existe base B de V tal que la matriz de f con respecto a B es una matriz diagonal.
Además, si V tiene producto interno, se puede encontrar B base ortonormal.
4.3 Formas Cuadráticas
V espacio vectorial sobre R, de dimensión n ∈ N.
Definición. Una forma cuadrática es una función q : V −→ R tal que q(v) = f (v, v), donde
f : V × V −→ R es alguna forma bilineal.
Ahora utilizando la proposición 2, notamos que:
q(v) = f (v, v) = f1 (v, v) + f2 (v, v)
Pero como f2 es anti-simétrica, f2 (v, v) = −f2 (v, v) = 0. Por ende,toda forma cuadrática es
igual a la parte simétrica de una forma bilineal. Utilizando (1) es posible concluir las siguientes
afirmaciones:
• Sea f (v, w) forma bilineal simétrica, entonces la matriz A de f es simétrica (A = A| )
• Existe única matriz simétrica que representa a q(v) = f (v, v)
• Sea B una base de V y A una matriz de q con respecto a B:
a1,1 . . . a1,n x1
n n
.. .. .. = X X a x x
q(v) = f (v, v) = [v]|B · A · [v]B = x1 . . . xn ..
. . . . i,j i j
i=1 j=1
an,1 . . . an,n xn
Observación. Estas cuentas muestran que una forma cuadrática q : V −→ R es una función
polinomial homogénea de grado 2 (en términos de las coordenadas de una base).
18
Corolario. (Del Teorema @@@@). Dados producto interno en V y forma cuadrática q, existe base
ortonormal B y existen λ1 . . . λn ∈ R tales que:
x1
..
[v]B = . ⇒ q(v) = λ1 x21 + . . . + λn x2n
xn
Y f (v, w) = hv, T wi, T auto-adjunto
• Los λ1 . . . λn son los valores propios de T
• B es base de vectores propios de T
Teorema 4. (Teorema de Sylvester) Dada forma cuadrática q : V −→ R, existe base B de V
y existen números enteros k ≥ 0, l ≥ 0 tales que k + l ≤ n y
x1
..
∀ v ∈ V, [v]B = . ⇒ q(v) = x21 + . . . + x2k − x2k+1 − . . . − x2k+l (?)
xn
(Coeficientes ∈ {−1, 0, 1})
Además, los números k y l son únicamente determinados a partir de q.
(Ley de Inercia de Sylvester)
Definición. Una forma cuadrática se llama
• definida positiva si q(v) > 0 ∀ v 6= 0
• definida negativa si q(v) < 0 ∀ v 6= 0
Observación. La restricción de una forma cuadrática q : V −→ R a un subespacio U ⊆ V es una
forma cuadrática q|U : U −→ R
Lema 1. Supongamos que q cumple (?).
Definimos
k 0 = max{dimU | U ⊆ V es subespacio tal que q|U es definida positiva}
(Podemos usar max porque el conjunto es finito y no vacío, pues contiene al 0)
Entonces k 0 = k.
Observación. El lema implica la Ley de Inercia de Sylvester.
19
Definición. (k, l) se llama la signatura de q.
Entonces:
• Signatura (0, 0) ⇐⇒ q ≡ 0
• Signatura (n, 0) ⇐⇒ q es definida positiva
• Signatura (0, n) ⇐⇒ q es definida negativa
• Signatura (k, l), con k + l = n ⇐⇒ q es no-degenerada
Recetas 2 × 2, (A matriz de q forma cuadrática)
Signatura info. sobre A
(0, 0) A=0
(2, 0) λ1 > 0, λ2 > 0
(1, 1) λ1 > 0 > λ2
det A tr A Signatura
− ∗ (1, 1)
+ + (1, 1)
+ 0 no existe
+ − (0, 2)
0 + (1, 0)
0 0 (0, 0)
0 − (0, 1)
20
Sea V espacio vectorial sobre K con dimensión n
Un funcional lineal es una función f : V −→ K lineal.
Notación:
V ∗ := {f : V −→ K | f funcional lineal}
Este es un espacio vectorial sobre K
Definición. V ∗ es el espacio dual de V
Si fijamos producto interno en V , entonces ∀ w ∈ V , la fórmula fw (v) := hv, wi define a un
funcional lineal fw ∈ V ∗ .
Consideremos la transformación: T : V −→ V ∗
w 7−→ fw
Por Teorema de Riesz: T es biyección.
Corolario: Si K = R entonces T : V −→ V ∗ es isomorfismo.
Supongamos K = R, dim(V ) = n ∈ N
Proposición 23. Sea q forma cuadrática q : V −→ R
Entonces q tiene signatura (k, l) si y sólo si existen f1 , . . . , fn ∈ V ∗ L.I. tales que
q = f12 + · · · + fk2 − fk+1
2 2
− · · · − fk+l
21
4.4 Conjuntos definidos por ecuaciones algebráicas
Definición. Un conjunto algebráico es
X = {(x1 , . . . , xn ) ∈ Rn ; f (x1 , . . . , xn ) = 0}
donde f es un polinomio (con coeficientes reales) en n variables.
El grado de X es el grado de f .
Propósito: Clasificar conjuntos algebráicos de grado ≤ 2 módulo cambios de coordenadas:
En Rn consideramos el producto interno euclidiano.
Definición. Una transformación T : Rn −→ Rn es afín si:
T (x) = L(x) + C
donde L : Rn −→ Rn es lineal y C ∈ Rn es constante. Si L es ortogonal entonces la T se llama
isometría afín.
Observación. T : Rn −→ Rn es isometría afín si y sólo si:
∀ x, y ∈ Rn , kT (x) − T (y)k = kx − yk
Observación. El conjunto de las isometrías afines forma un grupo con la operación de composición:
• La composición de isometrías afines es una isometría afín.
• Toda isometría afín tiene inversa, la cual es una isometría afín.
Observación. Si X ⊆ Rn es un conjunto algebráico de grado d y T : Rn −→ Rn es isometría afín
entonces T (X) es conjunto algebráico de grado d.
"Componer con isometría afín es básicamente lo mismo que hacer cambios de coordenadas"
22
Sea f : Rn −→ R función polinomial,
X = {x ∈ Rn ; f (x) = 0}.
Si su grado es 1:
Entonces, módulo cambio de coordenadas, X es un plano {(x1 , . . . , xn ) ∈ Rn ; x1 = 0}.
Es decir, existe isometría afín T tal que T (X) es igual al plano {x1 = 0}
Si su grado es 2:
f (x) = q(x) + l(x) + k
Con q homogénea de grado 2 (forma cuadrática), l homogénea de grado 1 (funcional lineal), k ∈ Rn
constante.
Luego f (x) = 0 se puede escribir, módulo cambio de coordenadas, de la siguiente forma:
λ1 x21 + · · · + λr x2r + bxr+1 + c = 0
donde 1 ≤ r ≤ n, λ1 , . . . , λn 6= 0, b, c ∈ R. Si n = r, no hay término bxr+1 (b = 0).
Observación. si r < n ∧ b 6= 0, podemos suponer c = 0 componiendo con otra isometría.
Casos de interés
n=2: (x1 , x2 ) = (x, y)
Las posibilidades son: (Ejemplo)
• Vacío (x2 + y 2 + 1 = 0)
• Punto (x2 + y 2 = 0)
• Recta (x2 = 0)
• Par de Rectas (x2 − y 2 = 0)
x2 y 2
• Elipse ( + 2 = 1)
a2 b
x2 y 2
• Hipérbola ( − 2 = 1)
a2 b
x2
• Parábola ( − y = 0)
a2
Nota: La parábola se puede ver como un límite de elipses sumando +y 2
23
n=3: (x1 , x2 , x3 ) = (x, y, z)
(Saltando los casos aburridos: vacío, degeneradas...)
x2 y 2 z 2
• Conos ( + 2 − 2 = 0)
a2 b c
x2 y 2 z 2
• Elipsoide ( + 2 + 2 = 1)
a2 b c
x2 y 2 z 2
• Hiperbolóide de una hoja ( + 2 − 2 = 1)
a2 b c
x2 y 2 z 2
• Hiperbolóide de dos hojas ( − 2 − 2 = 1)
a2 b c
x2 y 2
• Paraboloide Elíptico (z = + 2)
a2 b
x2 y 2
• Parabolóide Hiperbólico (z = − 2)
a2 b
24