0% encontró este documento útil (0 votos)
89 vistas24 páginas

Resumen de Álgebra Lineal 2019-1

Este documento presenta un resumen sobre álgebra lineal. Introduce conceptos como determinantes, funciones multilineales, el teorema principal de la teoría de determinantes, propiedades de determinantes de operadores lineales, y representación de transformaciones lineales mediante matrices. Explica cómo calcular determinantes de operadores lineales y matrices cuadradas, y la relación entre ellos.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
0% encontró este documento útil (0 votos)
89 vistas24 páginas

Resumen de Álgebra Lineal 2019-1

Este documento presenta un resumen sobre álgebra lineal. Introduce conceptos como determinantes, funciones multilineales, el teorema principal de la teoría de determinantes, propiedades de determinantes de operadores lineales, y representación de transformaciones lineales mediante matrices. Explica cómo calcular determinantes de operadores lineales y matrices cuadradas, y la relación entre ellos.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.

Resumen Álgebra Lineal 2019-1

Profesor Jairo Bochi


Santiago González Rendel
Septiembre 2019

Parte 1

1 Determinantes
Motivación: Cálculo de áreas y volúmenes de paralelogramos (R2 ) y paralelepípedos (R3 ).
Encontrar una buena generalización para cualquier dimensión.

Cálculo de áreas de paralelógramos en R2 :


y
(a + b, c + d) Dado un paralelógramo de esta forma,
(b, d)
su área con signo A será
A((a, c), (b, d)) = a · d − b · c
(a, c)
x .

1.1 Funciones Multilineales


Sea K ⊆ C cuerpo.
Sean V1 , V2 , . . . , Vk , W espacios vectoriales sobre K

Definición. Una función f : V1 ×V2 ×· · ·×Vk −→ W se llama multilineal si f (v1 , v2 , . . . , vk )


es función lineal de cada uno de los vi (suponiendo los demás vi fijos).
6
OJO: mulitilineal =⇒ lineal

Definición. Sea f : V × · · · × V −→ W una función multilineal.


f se dice alternada si f (v1 , . . . , vk ) = 0 cuando existen i, j distintos tales que vi = vj .

1
1.2 Teorema Principal de la Teoría de Determinantes
Teorema 1. (TPTD)
Sea V espacio vectorial sobre K, de dimensión n.
Sea (u1 , . . . , un ) base de V .
Entonces existe una única función

D:V
|
× ·{z
· · × V} −→ K
n

que posee las siguientes propiedades:

• P1: D es función multilineal.

• P2: D es alternada

• P3: D(u1 , . . . , un ) = 1
n
ai,j · ui , esta función está definida por
P
De hecho, dados vj =
i=1
X
D(v1 , . . . , vn ) = sgn(σ) · aσ(1),1 · . . . · aσ(n),n (1)
σ∈Sn

Corolario. .
El conjunto de todas las funciones V × · · · × V −→ K
que son multilineales alternadas (P1, P2) es un espacio vectorial de dimensión 1.
De hecho, este espacio µ es de la siguiente forma:

µ = {c · D ; c ∈ K}

2
Sobre Transformaciones Lineales

Proposición 1. Si T : V −→ W es lineal inyectiva entonces:

A ⊆ V conjunto L.I. =⇒ T (A) ⊆ W es conjunto L.I.

Corolario. dim(V ) ≤ dim(W )

Proposición 2. Si T : V −→ W es transformación lineal biyectiva, entonces su inversa


T −1 : W −→ V es transformación lineal.

Definición. Un isomorfismo es una transformación lineal biyectiva T : V −→ W

Observación. En este caso dim(V ) = dim(W )

Proposición 3. Supongamos dim(V ) = dim(W ). Sea T : V −→ W lineal. Son equivalentes:

• T es isomorfismo

• T es inyectiva

• T es sobreyectiva

Proposición 4. Sea T : V −→ W lineal. Son equivalentes:

• T es isomorfismo

• T lleva alguna base de V en base de W

• T lleva toda base de V en base de W

Definición. Una transformación lineal T : V −→ W se llama operador lineal si V = W

3
1.3 Determinante de un Operador Lineal
Sea V espacio vectorial sobre K con dimensión n.
Sea la función D : V
|
× ·{z
· · × V} −→ K multilineal alternada no idénticamente nula (D ≡
6 0).
n

Definición. Dado T : V −→ V operador lineal, sea f : V


|
× ·{z
· · × V} −→ K función definida
n
por f (v1 , . . . , vn ) := D(T (v1 ), . . . , T (vn )). Esta es una función multilineal alternada. Por
ende, usando el corolario del Teorema 1, ∃ c ∈ K tal que f ≡ c · D. Esta constante c depende
sólamente del operador T y se llama el determinante de T . Notación: c = det(T )

Definición. (Equivalente) El determinante de T es:

D(T (v1 ), . . . , T (vn ))


det(T ) :=
D(v1 , . . . , vn )

Donde (v1 , . . . , vn ) es cualquier base de V .

Notemos que si (u1 , . . . , un ) es base tal que D(u1 , . . . , un ) = 1, D está únicamente deter-
minado y tenemos que para cualquier operador T ∈ L(V ), det(T ) ≡ D(T (u1 ), . . . , T (un )).

1.4 Propiedades de Determinantes de Operadores


Proposición 5. Un operador lineal T : V −→ V es isomorfismo si y sólo si det(T ) 6= 0.

Proposición 6. Sean T, S operadores lineales sobre V . Entonces det(T ◦S) = det(T )·det(S).
1
Proposición 7. Si T : V −→ V es isomorfismo, entonces det(T −1 ) =
det(T )
Definición. Dos operadores lineales T : V −→ V , S : W −→ W son conjugados (o similares)
si existe isomorfismo H : V −→ W tal que H ◦ T = S ◦ H
T
V V
Nota: Todo espacio vectorial de dimensión n
. sobre K tiene isomorfismo con Kn H H

W W
. S
Proposición 8. Si T, S son conjugados entonces det(T ) = det(S)

4
Representación de Transformaciones Lineales por medio de Matrices

Sean V, W espacios vectoriales sobre K, con dim(V ) = n y dim(W ) = m.


Fijemos B = (v1 , . . . , vn ) base de V , B̃ = (w1 , . . . , wm ) base de W .

Definición. Dada T : V −→ W transformación lineal, la matriz de T con respecto a B, B̃


es la matriz m × n, notación [T ]B̃B = (aij ) i∈{1,...,m} tal que ∀ j ∈ {1, . . . , n},
j∈{1,...,n}

m K
X z}|{
T ( vj ) = aij · wi
|{z}
|{z} i=1
V W

Sea A = [T ]B̃B . Consideremos la transformación lineal LA : Kn −→ Km definida por


LA (x) = A · x, i.e.:
      
c1 a11 ... a1n c1 a11 c1 + · · · + a1n cn
.  . .. ..  . ..
 ..  =  ..   ..  = 
 ∈ Km
 
LA    . .    
. 
cn am1 ... amn cn am1 c1 + · · · + amn cn

Definimos isomorfismos IB : V −→ Kn , IB̃ : W −→ Km de la siguiente forma:


n
X
IB (v) = IB ( cj vj ) = (c1 , . . . , cn )
j=1
Xn
IB̃ (B) = IB̃ ( bj wj ) = (b1 , . . . , bn )
j=1

Hecho: LA ◦ IB = IB̃ ◦ T
Es decir, el siguiente diagrama es conmutativo:

T
V W

IB IB̃

Kn Km
LA

Corolario. (Caso V = W, B̃ = B)
Todo operador lineal T es conjugado (o similar) a un operador LA : Kn −→ Kn
Donde A = [T ]BB v 7−→ Av

5
1.5 Determinante de una Matriz Cuadrada
Mn×n (K) = {Matrices de n × n}
n
Hay una identificación Mn×n (K) ←→ K
|
· · × Kn}
× ·{z
    n

v1  . . . vn  = (v1 , . . . , vn )


   
|{z}
(biyección)

Definición. El determinante de una matriz n × n es la única función det: Mn×n (K) −→ K


que cumple las siguientes propiedades:

• P1: Es lineal como función de cada columna.

• P2: Si la matriz tiene dos columnas iguales, entonces su imagen es 0.

• P3: det(In ) = 1

Relación con el Determinante de un Operador Lineal

Proposición 9. Si T : V −→ V es operador lineal y A = [T ]BB es su matriz con respecto a


una base B de V , entonces det(T ) = det(A)

Definición. Dada una matriz A, su matriz transpuesta (notación: A> ) es la matriz que se
obtiene intercambiando filas y columnas.

Proposición 10. Si A es una matriz cuadrada, entonces det(A) = det(A> )

Consecuencias:
• el determinante es lineal como función de filas y columnas.

• det(A) = 0 si A tiene dos filas o dos columnas iguales.

6
Propiedades del Determinante

Proposición 11. (Determinante de matriz bloque-triangular)


Sea A una matriz bloque-triangular (triangular por bloques), esto es, una matriz de la forma
!
B ∗
A=
0 C

Con B y C bloques cuadrados. Entonces el determinante de la matriz es el producto del


determinante de los bloques cuadrados:

det(A) = det(B) · det(C)

Corolario. (Determinante de matriz triangular)


 
a11

 a22
* 

det  ..  = a11 · a22 · . . . · ann

 . 

0 ann

Expansión de Laplace
Sea A una matriz n × n.
Dados i, j ∈ {1, . . . , n}, definimos la submatriz Aij de tamaño (n − 1) × (n − 1), obtenida al
borrar la i-ésima fila y la j-ésima columna de la matriz A.

Proposición 12. (Expansiones de Laplace)


Sea A = (aij )i,j∈{1,...,n} , entonces:

1. ∀ i ∈ {1, . . . , n}
n
det(A) =
X
(−1)i+j aij det(Aij ) (Expansión del determinante
. j=1 por la i-ésima fila)

2. ∀ j ∈ {1, . . . , n}
n
. (−1)i+j aij det(Aij ) (Expansión del determinante
X
det(A) =
. i=1 por la j-ésima columna)

Dato: Si A es una matriz de n × n, el cálculo de su determinante por medio de la fórmula (1) del
TPTD requiere (n − 1) · n! + n + 1 operaciones ((n − 1) · n! multiplicaciones y n + 1 sumas). Por
otro lado, el método de escalonamiento requiere O(3) (del orden de n3 ; función acotable por k · n3 ,
k constante) operaciones.

7
Regla de Cramer (1750)
Supongamos dado un sistema lineal con n incógnitas y n ecuaciones. Este se puede escribir en
forma matricial:
Ax = b

donde A y b son dados, A es matriz de n × n, b es matriz de n × 1 y x es matriz de n × 1.

Para i ∈ {1, . . . , n}, sea A[i; b] la matriz obtenida al reemplazar la i-ésima columna de A por b.
Si det(A) 6= 0, entonces la única solución es

x1
 
 ..  det(A[i; b])
x =  . , donde xi =
det(A)
xn

Proposición 13. (Fórmula para A−1 )


 ! >
(−1)i+j det(Aij )
Si A = (aij )i,j∈{1,...n} y det(A) 6= 0, entonces A−1 es  
det(A) i,j∈{1,...n}

8
Parte 2

2 Valores Propios
Sea V espacio vectorial sobre un cuerpo K ⊆ C de dimensión n.
Sea T : V −→ V operador lineal.

Definición. λ se llama valor propio del operador T , si existe v ∈ V tal que v 6= 0, T (v) = λv.
Tal vector v se llama vector propio asociado al valor propio λ.

¿Cómo se encuentran los valores propios?

T : V −→ V, λ es valor propio de T ⇐⇒ ∃v 6= 0 tal que T (v) = λv


⇐⇒ ∃v 6= 0 ; (λId − T )(v) = 0 ⇐⇒ Ker(λId − T ) 6= {0}

∴ λ es valor propio de T ⇐⇒ det(λId − T ) = 0

Definición. La función pT (λ) := det(λId − T ) se llama el polinomio característico del operador T .

Los valores propios de T son las raíces de su polinomio característico.

Definición. Si A ∈ Mn×n (K) entonces


pA (λ) := det(λIn − A) se llama polinomio característico de A.

Si A = [T ]B es la matriz del operador T con respecto a alguna base B, entonces pT ≡ pA .


Este es un polinomio de grado exactamente n. Luego, T tiene a lo más n valores propios distintos.

2.1 Vectores Propios y Diagonalización


Proposición 14. Sea V espacio vectorial de dimensión finita.
Sea T : V −→ V operador lineal.
Sean v1 , . . . , vk vectores propios asociados a los valores propios λ1 , . . . , λk respectivamente.
Si los λi ’s son distintos (i 6= j =⇒ λi 6= λj ), entonces los v1 , . . . , vk son L.I.

Corolario. Si dim(V ) = n y el operador T : V −→ V tiene n valores propios distintos, entonces


existe base de V formada por vectores propios de T .

Definición. Un operador lineal T : V −→ V se dice diagonalizable si existe base de V formada


por vectores propios de T .

Observación. T es diagonalizable ⇐⇒ existe base B de V tal que la matriz [T ]B es diagonal.

Observación. La recíproca del corolario es falsa.

9
Definición. Una matriz A ∈ Mn×n (K) es diagonalizable si es similar a una matriz diagonal.
Es decir: A = CDC −1 , donde C ∈ Mn×n (K) es invertible y D ∈ Mn×n (K) es diagonal.

λ1
 

Si esto se cumple, D = 
 .. , donde λ1 , . . . , λn son los valores propios de A.

.
λn
Además, C = (v1 . . . vn ), con vi vector propio asociado a λi , actuando como columna de la matriz.
 n
λ1

n n −1
Esto puede resultar muy útil, ya que A = CD C = C 
 ..  −1
C .
.
λnn

2.2 Polinomio Característico


Hecho: Matrices similares tienen el mismo polinomio característico.
En particular, si A es diagonalizable con A = CDC −1 , entonces pA ≡ pD .
λ1
!
Sea D = .. . Entonces:
.
λn
x−λ
1
pD (x) =
.. = (x − λ1 ) · · · (x − λn )

.
x−λn
x −(λ1 + · · · + λn )xn−1 + · · · + (−1)n λ1 · · · λn
= |{z}n
| {z }
término principal término constante

Proposición 15. (1) Matrices similares tienen el mismo polinomio característico.


. (2) Operadores conjugados tienen el mismo polinomio característico.

Teorema Fundamental del Álgebra.


Si p es polinomio con coeficientes complejos de grado n, entonces p se factoriza como:

p(x) = c(x − λ1 ) . . . (x − λn )

Donde c, λ1 , . . . , λn ∈ C, c 6= 0

Observación. Los λ1 , . . . , λn son las raíces del polinomio p.

El número de veces que una raíz aparece en la lista λ1 , . . . , λn se llama la multiplicidad de la raíz.

10
Definición. Supongamos K = C.
Sea λ valor propio de un operador o matriz cuadrada. Es decir, λ es raíz de su polinomio carac-
terístico.
La multiplicidad algebráica del valor propio λ es su multiplicidad como raíz del polinomio carac-
terístico.

Definición. Si K ⊆ C, A ∈ Mn×n (K), los valores propios complejos de A son los valores propios
de A, considerada como matriz en Mn×n (C)

Observación. El determinante de un operador o matriz A es igual al producto de sus valores


propios complejos λi , repetidos de acuerdo a sus multiplicidades. ( det(A) = λ1 . . . λn )

Traza de una Matriz

Definición. La traza de una matriz A = (aij )i,j∈{1,...,n} es

tr(A) := a11 + · · · + ann

El coeficiente de xn−1 en pA (x) es −a11 − · · · − ann = −tr(A)

Observación. La traza de una matriz A es igual a la suma de sus valores propios complejos λi ,
repetidos de acuerdo a sus multiplicidades. ( tr(A) = λ1 + · · · + λn )

Propiedades de la Traza

1. tr : Mn×n (K) ∈ K es función lineal.

2. Matrices similares tienen la misma traza

3. ∀ A, B ∈ Mn×n (K), tr(AB) = tr(BA)



d
4. tr(A) = τ (A) = det(In + tA)
dt t=0

Observación. AB y BA no son siempre similares (conjugadas), pero si una de ellas es invertible:

AB = A(BA)A−1

Teorema 2. ∀ A, B ∈ Mn×n (K), AB y BA tienen el mismo polinomio característico.

11
2.3 Suma Directa
Sean W1 , . . . , Wk ⊆ V subespacios vectoriales.

Definición. (Suma)
k
X
Wi = W1 + · · · + Wk := {w1 + · · · + wk ; wj ∈ Wj }
i=1

Proposición 16. Sean W1 , . . . , Wk ⊆ V subespacios vectoriales. Sea W := W1 + · · · + Wk .


Las siguientes condiciones son equivalentes:

1. Todo w ∈ W se descompone como suma w = w1 + · · · + wk (wi ∈ Wi ) de una única manera

2. Si w1 ∈ W1 , . . . , wk ∈ Wk son tales que w1 + · · · + wk = 0, entonces w1 = · · · = wk = 0

3. ∀ i ∈ {1, . . . , k} , Wi ∩ Wj = {0}
P
j6=i

4. dim W = dim W1 + · · · + dim Wk

Definición. Los espacios W1 , . . . , Wk ⊆ V están en suma directa si cumplen cualquiera de las


cuatro condiciones anteriores.
Notación: W1 ⊕ · · · ⊕ Wk := W1 + · · · + Wk = W

12
2.4 Espacios Propios y Multiplicidades Geométricas
Supongamos λ ∈ K valor propio del operador T : V −→ V

Definición. El espacio propio asociado a λ es:

Eλ := {v ∈ V | T (v) = λv} = {0} ∪ {vectores propios asociados a λ}

Observación. Eλ es subespacio de V con dimensión a lo menos 1.

Definición. La multiplicidad geométrica del valor propio λ es la dimensión de Eλ

Proposición 17. Cualquier que sea el valor propio, su multiplicidad geométrica es menor o igual
a su multiplicidad algebráica.

Proposición 18. Sea T : V −→ V operador lineal, dim(V ) = n. Las siguientes condiciones son
equivalentes:

1. T es diagonalizable

2. La suma de las multiplicidades geométricas de los valores propios de T es n

3. V es suma directa de los espacios propios asociados a los valores propios de T

Proposición 19. Sea T : V −→ V operador lineal. Si λ1 , . . . , λk son valores propios distintos del
operador T , entonces los espacios propios Eλ1 , . . . , Eλk están en suma directa.

Observación. Eλi := {v ∈ V ; T (v) = λi v} = Ker(λi Id − T )

Corolario. La suma de las multiplicidades geométricas de los valores propios de un operador lineal
en V es menor o igual a n = dim(V )

13
2.5 Triangularización
Definición. Decimos que una matriz A ∈ Mn×n (K) es triangularizable si es similar a una matriz
triangular superior (o inferior, son equivalentes). Es decir: ∃ C, U ∈ Mn×n (K), donde C es invertible
λ1 ∗
!
y U es triangular superior (U = .. ).
.
λn

14
Parte 3

3 Espacios de Producto Interno

15
Parte 4

4 Formas Bilineales / Formas Cuadráticas


Sea K = R o C
Sean V , W espacios vectoriales sobre K, ambos de dimensión finita.

4.1 Función Bilineal


Una función bilineal es f : V × W −→ K , tal que f es lineal con respecto a cada una de las dos
variables. Si V = W entonces f se llama forma bilineal.

Matriz de una Función Bilineal


Sean B1 = (v1 , ..., vm ) base de V , B2 = (w1 , ..., wn ) base de W .
Entonces A = (aij ) := (f (vi , wj )) será la matriz de f con respecto a las bases B1 , B2 .

Notación: A = [f ]B1 ,B2

Notemos que:

f (v, w) = [v]>
B1 · A · [w]B2 (2)

Afirmación: Dado f : V × W −→ R, existe una única transformación lineal T : V −→ W tal que

f (v, w) = hT v, wi ∀ v ∈ V, w ∈ W

4.2 Formas Bilineales


Proposición 20. Sea f : V × V −→ K forma bilineal.
Son equivalentes:

• La matriz de f con respecto a alguna base es invertible.

• La matriz de f con respecto a cualquier base es siempre invertible.

• ∀ v ∈ V no-nulo, ∃ w ∈ W tal que f (v, w) 6= 0

• ∀ w ∈ W no-nulo, ∃ v ∈ V tal que f (v, w) 6= 0

• f es no degenerada.

16
Definición. Sea f : V × V −→ K forma bilineal.
Decimos que f es simétrica si:

∀ v, w ∈ V, f (v, w) = f (w, v)

Decimos que f es anti-simétrica si:

∀ v, w ∈ V, f (v, w) = −f (w, v)

Definición. Una forma bilineal se dice simplética si es no-degenerada y anti-simétrica.

Proposición 21. Toda forma bilineal se puede escribir de manera única como:

f = f1 + f2

donde f1 es una forma bilineal simétrica y f2 es una forma bilineal anti-simétrica.


De hecho,

f (v, w) + f (w, v)
f1 =
2
f (v, w) − f (w, v)
f2 =
2

17
A partir de ahora consideramos K = R

Proposición 22. Sea V espacio con producto interno. Dada forma bilineal f : V × V −→ R, existe
único operador lineal T : V −→ V , tal que f (v, w) = hv, T wi. Recíprocamente, dado operador T ,
la fórmula define a una única forma bilineal f .

Teorema 3. Sea f : V × V −→ R forma bilineal simétrica.


Entonces existe base B de V tal que la matriz de f con respecto a B es una matriz diagonal.
Además, si V tiene producto interno, se puede encontrar B base ortonormal.

4.3 Formas Cuadráticas


V espacio vectorial sobre R, de dimensión n ∈ N.

Definición. Una forma cuadrática es una función q : V −→ R tal que q(v) = f (v, v), donde
f : V × V −→ R es alguna forma bilineal.

Ahora utilizando la proposición 2, notamos que:

q(v) = f (v, v) = f1 (v, v) + f2 (v, v)

Pero como f2 es anti-simétrica, f2 (v, v) = −f2 (v, v) = 0. Por ende,toda forma cuadrática es
igual a la parte simétrica de una forma bilineal. Utilizando (1) es posible concluir las siguientes
afirmaciones:

• Sea f (v, w) forma bilineal simétrica, entonces la matriz A de f es simétrica (A = A| )

• Existe única matriz simétrica que representa a q(v) = f (v, v)

• Sea B una base de V y A una matriz de q con respecto a B:

a1,1 . . . a1,n x1
  
n n
 .. ..   ..  = X X a x x
 
q(v) = f (v, v) = [v]|B · A · [v]B = x1 . . . xn ..
 . . .   .  i,j i j
i=1 j=1
an,1 . . . an,n xn

Observación. Estas cuentas muestran que una forma cuadrática q : V −→ R es una función
polinomial homogénea de grado 2 (en términos de las coordenadas de una base).

18
Corolario. (Del Teorema @@@@). Dados producto interno en V y forma cuadrática q, existe base
ortonormal B y existen λ1 . . . λn ∈ R tales que:

x1
 
 .. 
[v]B =  .  ⇒ q(v) = λ1 x21 + . . . + λn x2n
xn

Y f (v, w) = hv, T wi, T auto-adjunto

• Los λ1 . . . λn son los valores propios de T

• B es base de vectores propios de T

Teorema 4. (Teorema de Sylvester) Dada forma cuadrática q : V −→ R, existe base B de V


y existen números enteros k ≥ 0, l ≥ 0 tales que k + l ≤ n y

x1
 
 .. 
∀ v ∈ V, [v]B =  .  ⇒ q(v) = x21 + . . . + x2k − x2k+1 − . . . − x2k+l (?)
xn
(Coeficientes ∈ {−1, 0, 1})

Además, los números k y l son únicamente determinados a partir de q.


(Ley de Inercia de Sylvester)

Definición. Una forma cuadrática se llama

• definida positiva si q(v) > 0 ∀ v 6= 0

• definida negativa si q(v) < 0 ∀ v 6= 0

Observación. La restricción de una forma cuadrática q : V −→ R a un subespacio U ⊆ V es una


forma cuadrática q|U : U −→ R

Lema 1. Supongamos que q cumple (?).


Definimos

k 0 = max{dimU | U ⊆ V es subespacio tal que q|U es definida positiva}

(Podemos usar max porque el conjunto es finito y no vacío, pues contiene al 0)


Entonces k 0 = k.

Observación. El lema implica la Ley de Inercia de Sylvester.

19
Definición. (k, l) se llama la signatura de q.

Entonces:

• Signatura (0, 0) ⇐⇒ q ≡ 0

• Signatura (n, 0) ⇐⇒ q es definida positiva

• Signatura (0, n) ⇐⇒ q es definida negativa

• Signatura (k, l), con k + l = n ⇐⇒ q es no-degenerada

Recetas 2 × 2, (A matriz de q forma cuadrática)

Signatura info. sobre A


(0, 0) A=0
(2, 0) λ1 > 0, λ2 > 0
(1, 1) λ1 > 0 > λ2

det A tr A Signatura
− ∗ (1, 1)
+ + (1, 1)
+ 0 no existe
+ − (0, 2)
0 + (1, 0)
0 0 (0, 0)
0 − (0, 1)

20
Sea V espacio vectorial sobre K con dimensión n
Un funcional lineal es una función f : V −→ K lineal.
Notación:

V ∗ := {f : V −→ K | f funcional lineal}

Este es un espacio vectorial sobre K

Definición. V ∗ es el espacio dual de V

Si fijamos producto interno en V , entonces ∀ w ∈ V , la fórmula fw (v) := hv, wi define a un


funcional lineal fw ∈ V ∗ .

Consideremos la transformación: T : V −→ V ∗
w 7−→ fw

Por Teorema de Riesz: T es biyección.

Corolario: Si K = R entonces T : V −→ V ∗ es isomorfismo.

Supongamos K = R, dim(V ) = n ∈ N

Proposición 23. Sea q forma cuadrática q : V −→ R


Entonces q tiene signatura (k, l) si y sólo si existen f1 , . . . , fn ∈ V ∗ L.I. tales que

q = f12 + · · · + fk2 − fk+1


2 2
− · · · − fk+l

21
4.4 Conjuntos definidos por ecuaciones algebráicas
Definición. Un conjunto algebráico es

X = {(x1 , . . . , xn ) ∈ Rn ; f (x1 , . . . , xn ) = 0}

donde f es un polinomio (con coeficientes reales) en n variables.

El grado de X es el grado de f .

Propósito: Clasificar conjuntos algebráicos de grado ≤ 2 módulo cambios de coordenadas:


En Rn consideramos el producto interno euclidiano.

Definición. Una transformación T : Rn −→ Rn es afín si:

T (x) = L(x) + C

donde L : Rn −→ Rn es lineal y C ∈ Rn es constante. Si L es ortogonal entonces la T se llama


isometría afín.

Observación. T : Rn −→ Rn es isometría afín si y sólo si:

∀ x, y ∈ Rn , kT (x) − T (y)k = kx − yk

Observación. El conjunto de las isometrías afines forma un grupo con la operación de composición:

• La composición de isometrías afines es una isometría afín.

• Toda isometría afín tiene inversa, la cual es una isometría afín.

Observación. Si X ⊆ Rn es un conjunto algebráico de grado d y T : Rn −→ Rn es isometría afín


entonces T (X) es conjunto algebráico de grado d.

"Componer con isometría afín es básicamente lo mismo que hacer cambios de coordenadas"

22
Sea f : Rn −→ R función polinomial,

X = {x ∈ Rn ; f (x) = 0}.

Si su grado es 1:

Entonces, módulo cambio de coordenadas, X es un plano {(x1 , . . . , xn ) ∈ Rn ; x1 = 0}.


Es decir, existe isometría afín T tal que T (X) es igual al plano {x1 = 0}

Si su grado es 2:

f (x) = q(x) + l(x) + k

Con q homogénea de grado 2 (forma cuadrática), l homogénea de grado 1 (funcional lineal), k ∈ Rn


constante.
Luego f (x) = 0 se puede escribir, módulo cambio de coordenadas, de la siguiente forma:

λ1 x21 + · · · + λr x2r + bxr+1 + c = 0

donde 1 ≤ r ≤ n, λ1 , . . . , λn 6= 0, b, c ∈ R. Si n = r, no hay término bxr+1 (b = 0).

Observación. si r < n ∧ b 6= 0, podemos suponer c = 0 componiendo con otra isometría.

Casos de interés
n=2: (x1 , x2 ) = (x, y)
Las posibilidades son: (Ejemplo)

• Vacío (x2 + y 2 + 1 = 0)

• Punto (x2 + y 2 = 0)

• Recta (x2 = 0)

• Par de Rectas (x2 − y 2 = 0)


x2 y 2
• Elipse ( + 2 = 1)
a2 b
x2 y 2
• Hipérbola ( − 2 = 1)
a2 b
x2
• Parábola ( − y = 0)
a2
Nota: La parábola se puede ver como un límite de elipses sumando +y 2

23
n=3: (x1 , x2 , x3 ) = (x, y, z)
(Saltando los casos aburridos: vacío, degeneradas...)

x2 y 2 z 2
• Conos ( + 2 − 2 = 0)
a2 b c
x2 y 2 z 2
• Elipsoide ( + 2 + 2 = 1)
a2 b c
x2 y 2 z 2
• Hiperbolóide de una hoja ( + 2 − 2 = 1)
a2 b c
x2 y 2 z 2
• Hiperbolóide de dos hojas ( − 2 − 2 = 1)
a2 b c
x2 y 2
• Paraboloide Elíptico (z = + 2)
a2 b
x2 y 2
• Parabolóide Hiperbólico (z = − 2)
a2 b

24

También podría gustarte