0% encontró este documento útil (0 votos)
18 vistas129 páginas

Wuolah Free Libro Algebra

Cargado por

rctwich
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
18 vistas129 páginas

Wuolah Free Libro Algebra

Cargado por

rctwich
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

Libro-Algebra.

pdf

emaza

Álgebra Lineal

1º Grado en Ingeniería Mecánica

Escuela de Ingenierías Industriales


Universidad de Málaga

Reservados todos los derechos.


No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10679672

Álgebra para Ingeniería

Carlos Bejines

23 de octubre de 2023

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10679672

C. Bejines

—2—

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10679672

Índice general

1. Sistemas de ecuaciones y espacios vectoriales 5


1.1. Sistemas de ecuaciones lineales . . . . . . . . . . . . . . . . . . . . . . 5
1.1.1. Conjuntos y estructuras algebraicas . . . . . . . . . . . . . . . 5
1.1.2. Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.1.3. Resolución de sistemas lineales . . . . . . . . . . . . . . . . . . 10
1.1.4. Estructuras algebraicas . . . . . . . . . . . . . . . . . . . . . . 12
1.2. Espacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.2.1. Linealidad y sistema generador . . . . . . . . . . . . . . . . . 15
1.2.2. Base y dimensión . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.2.3. Subespacios vectoriales . . . . . . . . . . . . . . . . . . . . . . 20
1.2.4. Cambio de base . . . . . . . . . . . . . . . . . . . . . . . . . . 25

2. Aplicaciones lineales 27
2.1. Definiciones y resultados iniciales . . . . . . . . . . . . . . . . . . . . 27
2.1.1. Funciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.1.2. Aplicaciones lineales . . . . . . . . . . . . . . . . . . . . . . . 28
2.1.3. Núcleo e imagen de una aplicación lineal . . . . . . . . . . . . 29
2.1.4. Aplicaciones lineales como matrices . . . . . . . . . . . . . . . 31
2.2. Diagonalización . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.2.1. Matrices semejantes . . . . . . . . . . . . . . . . . . . . . . . . 35
2.2.2. Autovalores y autovectores . . . . . . . . . . . . . . . . . . . . 35
2.2.3. Caracterización de las matrices diagonalizables . . . . . . . . . 38
2.2.4. Algoritmo para la diagonalización . . . . . . . . . . . . . . . . 40
2.3. Forma canónica de Jordan . . . . . . . . . . . . . . . . . . . . . . . . 42
2.3.1. Bloques de Jordan . . . . . . . . . . . . . . . . . . . . . . . . 42
2.3.2. Algoritmo para la forma canónica de Jordan . . . . . . . . . . 45

3. Espacio afín y euclídeo 49


3.1. Espacio euclídeo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
3.1.1. Producto escalar . . . . . . . . . . . . . . . . . . . . . . . . . 49
3.1.2. Norma y ángulo . . . . . . . . . . . . . . . . . . . . . . . . . . 51
3.1.3. Ortogonalidad . . . . . . . . . . . . . . . . . . . . . . . . . . . 52

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
Álgebra Lineal
Banco de apuntes de la
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10679672

ÍNDICE GENERAL C. Bejines

3.1.4. Proyección ortogonal . . . . . . . . . . . . . . . . . . . . . . . 55


3.1.5. Método de Gram-Schmidt . . . . . . . . . . . . . . . . . . . . 56
3.1.6. Diagonalización ortogonal . . . . . . . . . . . . . . . . . . . . 57
3.2. Espacio afín . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
3.2.1. Nociones básicas: Puntos, subespacios y distancias . . . . . . . 62
3.2.2. Ecuaciones paramétricas y cartesianas . . . . . . . . . . . . . 64
3.2.3. Sistema de referencia . . . . . . . . . . . . . . . . . . . . . . . 66
3.2.4. Posición relativa . . . . . . . . . . . . . . . . . . . . . . . . . . 66
3.2.5. El espacio real R3 . . . . . . . . . . . . . . . . . . . . . . . . . 68

4. Transformaciones Geométricas 77
4.1. Isometrías . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
4.1.1. Transformaciones ortogonales . . . . . . . . . . . . . . . . . . 77
4.1.2. Isometrías en el plano . . . . . . . . . . . . . . . . . . . . . . 78
4.1.3. Isometrías en el espacio . . . . . . . . . . . . . . . . . . . . . . 80
4.2. Movimientos rígidos . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
4.2.1. Transformaciones afines . . . . . . . . . . . . . . . . . . . . . 85
4.2.2. Movimientos rígidos en el plano . . . . . . . . . . . . . . . . . 87
4.2.3. Movimientos rígidos en el espacio . . . . . . . . . . . . . . . . 90

5. Curvas y Superficies 99
5.1. Cónicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
5.1.1. La elipse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
5.1.2. La hipérbola . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
5.1.3. La parábola . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
5.1.4. Ecuación general de una cónica . . . . . . . . . . . . . . . . . 104
5.1.5. Cálculo de los elementos geométricos . . . . . . . . . . . . . . 113
5.1.6. Creación de una cónica . . . . . . . . . . . . . . . . . . . . . . 118
5.2. Cuádricas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123

—4—

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10679672

Capítulo 1

Sistemas de ecuaciones y espacios


vectoriales

1.1. Sistemas de ecuaciones lineales


En el ámbito de las matemáticas, existen varios conceptos y herramientas que son
esenciales para comprender y analizar diversas áreas de estudio. En esta sección, se
presentan varias nociones fundamentales para entender la asignatura Álgebra Lineal.

1.1.1. Conjuntos y estructuras algebraicas


Los conjuntos nos permiten organizar y agrupar elementos, estableciendo
relaciones entre ellos y determinando su pertenencia a un conjunto específico. Estos
conceptos son fundamentales para clasificar y estructurar datos en diversas áreas,
desde el análisis de datos hasta la teoría de conjuntos.

Definición 1.1. Un conjunto es una colección de objetos llamados elementos. El


cardinal de un conjunto es el número de elementos que tiene.

Se representan mediante llaves y pueden tener elementos enumerados o definidos


mediante una propiedad común. Por ejemplo, el conjunto {rojo, azul, amarillo} y el
conjunto formado por los tres colores primarios son iguales.

Ejemplos 1.2. Los siguientes conjuntos serán utilizados frecuentemente.

 Los números naturales, N = {1, 2, 3, . . . }.

 Los números enteros, Z = {0, 1, −1, 2, −2, 3, −3, . . . }.

 Los números racionales, Q = { pq | p ∈ Z, q ∈ N}.

 Los números reales, R.

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10679672

1.1. Sistemas de ecuaciones lineales C. Bejines

 Los números complejos, C = {a + bi | a, b ∈ R}.


Definición 1.3. Sea A y B dos conjuntos. Se dice que
 A está contenido en B, A ⊆ B, si todos los elementos de A están en B. Decimos
que A es un subconjunto de B.
 A es igual a B, A = B, si A ⊆ B y B ⊆ A.
Definición 1.4. Sea A y B dos subconjuntos de un conjunto E.
 Se define el complementario de A en E como
Ac := {x ∈ E | x ∈
/ A}.

 Se define la intersección de A y B en E como


A ∩ B := {x ∈ E | x ∈ A, x ∈ B}.

 Se define la unión de A y B en E como


A ∪ B := {x ∈ E | x ∈ A o x ∈ B}.

 Se define el producto cartesiano A × B como


A × B := {(x, y) | x ∈ A, y ∈ B}.

Proposición 1.5. Si A y B son dos subconjuntos de un conjunto E, entonces se


tienen las siguientes propiedades:
1. A ∩ B ⊆ A ⊆ A ∪ B.
2. A ∩ Ac = ∅ (conjunto vacío).
3. A ∪ Ac = E (conjunto total).
4. A ∩ A = A = A ∪ A (Idempotencia).
5. A ∩ B = B ∩ A y A ∪ B = B ∪ A (Conmutatividad).
6. A ∩ (B ∩ C) = (A ∩ B) ∩ C y A ∪ (B ∪ C) = (A ∪ B) ∪ C (Asociatividad).
7. A ∪ (B ∩ C) = (A ∪ B) ∩ (A ∪ C) (Distributividad).
8. A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C) (Distributividad).
9. (A ∩ B)c = Ac ∪ B c (Leyes de Morgan).
10. (A ∪ B)c = Ac ∩ B c (Leyes de Morgan).
Definición 1.6. Sea E un conjunto. Se define partes de E, como el conjunto
formado por todos los subconjuntos de E y se denota por P(E).

—6—

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10679672

1.1. Sistemas de ecuaciones lineales Universidad de Málaga

1.1.2. Matrices
Las matrices nos ayudan a organizar datos en forma tabular y realizar operacio-
nes matemáticas en conjuntos de datos. Son indispensables para resolver sistemas
de ecuaciones lineales, transformar y analizar datos en aplicaciones científicas y
tecnológicas, y representar relaciones y transformaciones lineales.

Definición 1.7. Una matriz es una tabla de valores (reales o complejos) represen-
tada de la siguiente forma:
 
a11 a12 . . . a1n
 a21 a22 . . . a2n 
 
 .. .. . . .. 
 . . . . 
am1 am2 . . . amn m×n

 Si m = n, decimos que la matriz es cuadrada.

 Si todos los valores de la matriz son cero, decimos que es la matriz nula.

 Matriz fila: matriz de tamaño 1 × n.

 Matriz columna: matriz de tamaño n × 1.

 Matriz diagonal: Todos los elementos que no están en la diagonal valen cero.

 Matriz triangular superior: Todos los elementos por debajo de la diagonal valen
cero.

 Matriz triangular inferior: Todos los elementos por encima de la diagonal valen
cero.

 Matriz identidad: Matriz diagonal cuyos valores en la diagonal son todos


iguales a uno.

Definición 1.8. Consideremos la matriz A = (aij )m×n . Se define la matriz


traspuesta At de A como At = (aji )n×m .

 A es simétrica si A = At .

 A es antisimétrica si A = −At .

Proposición 1.9. Consideremos la matriz A = (aij )m×n . Se tienen las siguientes


propiedades.

1. A = (At )t .

—7—

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10679672

1.1. Sistemas de ecuaciones lineales C. Bejines

2. (A + B)t = At + B t .
3. λAt = (λA)t .
4. (AB)t = B t At .
Definición 1.10. Las siguientes acciones sobre una matriz son conocidas como
operaciones elementales.
1. Intercambiar dos filas.
2. Multiplicar una fila por un escalar no nulo.
3. Sumar a una fila el producto de otra fila por un escalar.
Dos matrices son equivalentes si puedo pasar de una a la otra usando operaciones
elementales.
Una matriz escalonada por filas es una forma específica de organizar una matriz
donde cada fila no nula comienza con más ceros a la izquierda que la fila anterior.
Definición 1.11. Una matriz escalonada reducida por filas es una matriz que
cumple lo siguiente:
1. El primer elemento no nulo de cada fila, conocido como pivote o líder, es igual
a 1.
2. Cada fila no nula comienza con más ceros a la izquierda que la fila anterior.
3. El resto de valores en la columna de los pivotes son ceros.
Si los pivotes no son todos iguales a 1 y no se cumple la condición 3, diremos
simplemente que la matriz está escalonada.
Ejemplo 1.12. La siguiente matriz es una matriz escalonada reducida por filas
 
1 0 2 0
 0 1 5 0 
0 0 0 1
Proposición 1.13. Dada una matriz, su matriz escalonada reducida es única.
El método de Gauss-Jordan es un procedimiento para transformar una matriz
en su forma escalonada reducida. Implica seleccionar pivotes en la matriz y realizar
operaciones elementales con el objetivo de obtener ceros tanto por encima como por
debajo de los pivotes seleccionados. Posteriormente, se normalizan los pivotes a un
valor de uno (multiplicando por un escalar) y se continúa haciendo ceros por encima
de ellos. Al seguir estos pasos, se obtiene la forma escalonada reducida por filas, que
se caracteriza por tener ceros en todas las posiciones por debajo y por encima de
cada pivote, y donde cada pivote es igual a uno.

—8—

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10679672

1.1. Sistemas de ecuaciones lineales Universidad de Málaga

Ejemplo 1.14. Apliquemos el método de Gauss-Jordan a la matriz


 
1 3
A=
2 1

1. Restamos a la segunda fila el doble de la primera.


 
1 3
A=
0 −5

2. Merece la pena notar que ahora mismo es una matriz escalonada, pero no
reducida. A continuación, multiplicamos la segunda fila por −1
5
.
 
1 3
A=
0 1

3. Restamos a la primera fila el triple de la segunda.


 
1 0
A=
0 1

La matriz identidad es la escalonada reducida por filas de A.


Definición 1.15. El rango de una matriz se define como el número de filas no
nulas de su matriz escalonada reducida.
Definición 1.16. Sea A una matriz cuadrada. Supongamos que existe otra matriz
B tal que AB = BA = Id. Entonces decimos que B es la matriz inversa de A y
la denotaremos por B = A−1 .
Proposición 1.17. Sea A una matriz cuadrada n × n. Las siguientes condiciones
son equivalentes:
1. Existe la inversa de A.

2. La matriz escalonada reducida de A es la identidad.

3. El rango de A es n.
Para hallar la inversa de una matriz, podemos recurrir al método de Gauss-
Jordan aplicada a la matriz original yuxtapuesta con la matriz identidad a la derecha.
Una vez hayamos transformado la matriz original en su matriz escalonada reducida
por filas, pueden ocurrir dos circunstancias:
1. Si la matriz escalonada reducida es la identidad, entonces la inversa ha quedado
a la derecha, donde estaba la identidad.

—9—

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10679672

1.1. Sistemas de ecuaciones lineales C. Bejines

2. Si la matriz escalonada reducida no es la identidad, entonces no existe inversa.

Ejemplo 1.18. Tomemos la matriz A del ejemplo 1.14. Como vimos, su matriz
escalonada reducida es la identidad, por lo que ya sabemos que tiene inversa.

1. Colocamos la matriz identidad I a la derecha de la matriz A.


 
1 3 1 0
(A|I) =
2 1 0 1

2. Restamos a la segunda fila el doble de la primera.


 
1 3 1 0
0 −5 −2 1

−1
3. Multiplicamos la segunda fila por 5
.
 
1 3 1 0
−1
0 1 25 5

4. Restamos a la primera fila el triple de la segunda.


−1 −3
 
1 0 5 5
2 −1
0 1 5 5

5. Como hemos obtenido la matriz escalonada reducida a la izquierda y coincide


con la identidad, lo que nos queda a la derecha es la inversa de A, es decir,
−1 −3
 
−1 5 5
A = 2 −1
5 5

1.1.3. Resolución de sistemas lineales


Definición 1.19. Un sistema de ecuaciones lineales es un conjunto de
ecuaciones lineales dispuestas en filas. Pueden ser representadas de forma matricial
como
AX = B,
donde A son los coeficientes de las incógnitas (X) igualadas a los términos
independientes (B). La matriz ampliada es la formada por la matriz de coeficientes
y los términos independientes dispuestos como una columna extra (A|B).

— 10 —

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10679672

1.1. Sistemas de ecuaciones lineales Universidad de Málaga

Ejemplo 1.20. Consideremos el siguiente sistema de ecuaciones lineales:


x + 2y = 5
4x − 2y = 10
3y = 3
Su forma matricial es    
1 2   5
 4 −2  x =  10 
y
0 3 3
y su matriz ampliada es  
1 2 5
 4 −2 10 
0 3 3
Teorema 1.21 (Rouché-Frobenius). Sea AX = B un sistema de ecuaciones lineales,
M la matriz ampliada y n el número de incógnitas.
1. Si r(A) = r(M ) = n, tenemos un sistema compatible determinado, es decir,
una única solución.
2. Si r(A) = r(M ) < n, tenemos un sistema compatible indeterminado, es decir,
infinitas soluciones.
3. Si r(A) 6= r(M ), tenemos un sistema incompatible, es decir, no hay solución.
Ejemplo 1.22. Consideremos el siguiente sistema de ecuaciones lineales:

 2x + y − z = 1
x + z = 4
3x + y = 5

Para resolver este sistema utilizando el método de Gauss-Jordan, podemos re-


presentar el sistema de ecuaciones como una matriz ampliada y realizar operaciones
elementales para transformarla a su forma escalonada reducida:
 
2 1 −1 1
 1 0 1 4 
3 1 0 5
Realizamos operaciones elementales para simplificar la matriz.

1. Intercambiamos las dos primeras filas.


 
1 0 1 4
 2 1 −1 1 
3 1 0 5

— 11 —

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10679672

1.1. Sistemas de ecuaciones lineales C. Bejines

2. Restamos a la segunda fila el doble de la primera y a la tercera fila, el triple


de la primera.
 
1 0 1 4
 0 1 −3 −7 
0 1 −3 −7

3. Restamos la segunda fila a la tercera:


 
1 0 1 4
 0 1 −3 −7 
0 0 0 0

Ahora tenemos la matriz en su forma escalonada reducida. La primera columna


representa la variable x, la segunda columna representa la variable y, y la tercera
columna representa la variable z. La última columna representa los términos
independientes (constantes).
Aplicamos el teorema de Rouché-Frobenius para concluir que estamos en un
sistema compatible indeterminado porque r(A) = r(M ) = 2 < 3. Tenemos infinitas
soluciones que depende de un parámetro, por ejemplo, z = λ. El conjunto de
soluciones es:

x = 4−λ
y = −7 + 3λ
z = λ
para λ ∈ R.

Cuando queremos resolver un sistema de ecuaciones lineales, debemos reducir


la matriz a su forma escalonada reducida por filas. Una manera de hacerlo en el
lenguaje de programación R es usando el comando rref (ver la Figura 1.1).
Este comando es versátil y ofrece diversas utilidades. Por un lado, permite
calcular el rango de una matriz y aplicar el teorema de Rouché-Frobenuis. Además
más adelante exploraremos cómo utilizarlo para verificar la independencia lineal de
múltiples vectores o determinar una base para un subespacio vectorial.
Si queremos realizar el determinante, la traspuesta o la inversa de una matriz
cuadrada, podemos hacerlo en R como se detalla en la Figura 1.2.

1.1.4. Estructuras algebraicas


Las estructuras algebraicas nos ayudan a estudiar las propiedades y compor-
tamientos de conjuntos que están equipados con operaciones específicas. Estos
conceptos son cruciales para desarrollar teorías matemáticas, modelar la realidad,

— 12 —

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10679672

1.1. Sistemas de ecuaciones lineales Universidad de Málaga

# Código de R
library ( pracma ) # librería necesaria para la función rref
matriz <- matrix (c(1 ,1 , -2 ,1 ,0 ,1 , -1 ,2 ,2 , -1 , -1 , -4) ,
nrow = 3, ncol = 4, byrow = TRUE )
# La matriz
print(matriz)

## [,1] [,2] [,3] [,4]


## [1,] 1 1 -2 1
## [2,] 0 1 -1 2
## [3,] 2 -1 -1 -4
# La forma escalonada reducida
rref ( matriz )

## [,1] [,2] [,3] [,4]


## [1,] 1 0 -1 -1
## [2,] 0 1 -1 2
## [3,] 0 0 0 0

Figura 1.1: Forma escalonada reducida

# Código de R
library( pracma )
A <- matrix (c(2,3,-1,0,3,1,1,2,-2) , nrow = 3, ncol = 3, byrow = TRUE )
print(A)

## [,1] [,2] [,3]


## [1,] 2 3 -1
## [2,] 0 3 1
## [3,] 1 2 -2
# Determinante de A
det(A)

## [1] -10
# Traspuesta de A
t(A)

## [,1] [,2] [,3]


## [1,] 2 0 1
## [2,] 3 3 2
## [3,] -1 1 -2
# Inversa de A
inv(A)

## [,1] [,2] [,3]


## [1,] 0.8 -0.4 -0.6
## [2,] -0.1 0.3 0.2
## [3,] 0.3 0.1 -0.6

Figura 1.2: Algunas operaciones para matrices

demostrar resultados y resolver sistemas de ecuaciones en una amplia gama de áreas

— 13 —

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10679672

1.1. Sistemas de ecuaciones lineales C. Bejines

de estudio.
Definición 1.23. Sea X un conjunto no vacío (X 6= ∅). Una operación binaria
interna en X es una asignación ∗ : X × X → X por la cual, a dos elementos de
X le corresponde otro elemento de X. El par (X, ∗) denota la estructura algebraica
del conjunto X y la operación interna ∗.
Generalmente, las funciones tienen una notación prefija: f (x, y). Sin embargo,
cuando son operaciones internas, solemos utilizar notación infija: x ∗ y.
Definición 1.24. Sea X un conjunto y ∗ una operación interna en X.
 La operación ∗ es asociativa si para todo x, y, z ∈ X,

x ∗ (y ∗ z) = (x ∗ y) ∗ z.

 La operación ∗ es conmutativa si para todo x, y, z ∈ X,

x ∗ y = y ∗ x.

 La operación ∗ tiene elemento neutro si existe e ∈ X tal que para todo


x ∈ X,
x ∗ e = e ∗ x = x.

Definición 1.25. Sea ∗ una operación binaria interna en un conjunto X. Suponga-


mos que existe un elemento neutro e. Dado un elemento x ∈ X, decimos que x0 es
el elemento simétrico, opuesto o inverso de x si

x ∗ x0 = e = x0 ∗ x.

La suma y producto son las operaciones más comunes. Cuando la operación es la


suma, al elemento simétrico se le llama opuesto y se denota por −x. Cuando la
operación es el producto, al elemento simétrico se le llama inverso y se denota por
x−1 .
Definición 1.26. Consideremos K un conjunto y dos operaciones binarias internas
en K, + y ∗. Decimos que (K, +, ∗) es un cuerpo si
 La operación + en K es asociativa, conmutativa, tiene elemento neutro
(denotado por 0) y elemento opuesto.
 La operación ∗ en K \ {0} es asociativa, conmutativa, tiene elemento neutro
(denotado por 1) y elemento inverso.
 Se cumple la propiedad distributiva, es decir, para todo x, y, z ∈ K, se tiene
que
x ∗ (y + z) = (x ∗ y) + (x ∗ z).

— 14 —

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10679672

1.2. Espacios vectoriales Universidad de Málaga

Definición 1.27. Sea V un conjunto y (K, +, ∗) un cuerpo. Consideremos una


operación binaria interna + : V × V → V y una operación externa · : K × V → V
(llamada producto por escalares). Decimos que (V, +, ·) es un espacio vectorial
sobre K si:

 La operación + en V es asociativa, conmutativa, tiene elemento neutro


(denotado por 0) y elemento opuesto.

 El elemento neutro 1 ∈ K verifica que 1 · u = u para todo u ∈ V .

 Para todo λ, µ ∈ K y todo u ∈ V se verifica que (λµ) · u = λ · (µ · u).

 Para todo λ, µ ∈ K y todo u ∈ V se verifica que (λ + µ) · u = λ · u + µ · u.

 Para todo λ ∈ K y todo u, v ∈ V se verifica que λ · (u + v) = λ · u + λ · v.

Ejemplos 1.28. A continuación mostramos los tres ejemplos de espacios vectoriales


más importantes.

 El conjunto (Rn , +, ·) sobre el cuerpo R, donde + denota a la suma de vectores


y · denota al producto usual de un número por un vector, es un espacio
vectorial.

 El conjunto (Mn (R), +, ·) sobre el cuerpo R, donde + denota a la suma de


matrices y · denota al producto usual de un número por una matriz, es un
espacio vectorial.

 El conjunto (R[x], +, ·) sobre R donde + denota a la suma de polinomios y


· denota al producto usual de un número por un polinomio, es un espacio
vectorial.

1.2. Espacios vectoriales


En la definición 1.27, hemos introducido el concepto de espacio vectorial. En
general, los elementos de este espacio se denominan vectores, mientras que los
elementos del cuerpo se conocen como escalares. A lo largo de este capítulo,
trabajamos con un cuerpo genérico K. Para facilitar la comprensión, se recomienda
pensar en los números reales, es decir, K = R. Esto simplifica el análisis y nos
permite aplicar los conceptos a situaciones prácticas más fácilmente.

1.2.1. Linealidad y sistema generador


En esta sección, veremos algunas nociones básicas de un espacio vectorial.

— 15 —

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10679672

1.2. Espacios vectoriales C. Bejines

Definición 1.29. Sea V un espacio vectorial sobre un cuerpo K y S = {v1 , v2 , . . . , vn } ⊆


V . Decimos que el conjunto S es linealmente independiente si
n
X
λi vi = 0, λi ∈ K =⇒ λi = 0, para todo i.
i=1

En caso contrario, diremos que son linealmente dependientes.


Si u ∈ V puede escribirse como
u = λ1 v1 + λ2 v2 + · · · + λn vn ,
entonces decimos que u es combinación lineal de v1 , v2 , . . . , vn , es decir, el vector
u depende linealmente de los vectores v1 , v2 , . . . , vn .
La interpretación geométrica de una combinación lineal es la representación de
un vector como una suma ponderada de otros vectores. Estos señalan la dirección y
los coeficientes indican la magnitud, como puede observarse en la figura 1.3.
Definición 1.30. Sea V un espacio vectorial sobre un cuerpo K y S ⊆ V . Decimos
que el conjunto S es sistema generador de V si todo u ∈ V es combinación lineal
de los vectores de S.
Un ejemplo trivial es considerar S = V . Claramente, S es sistema generador de
V porque todo vector de V pertenece a S. A continuación, mostramos otro ejemplo
sencillo.
Ejemplo 1.31. Consideremos como espacio vectorial R2 sobre R y un conjunto S
formado por los siguientes tres vectores de R2 ,
S = {(1, 0), (1, 2), (0, 1)}.
Para comprobar que S es sistema generador de R2 , debemos ver que todo u ∈ R2 es
combinación lineal de los vectores de S, es decir,
u = λ1 (1, 0) + λ2 (1, 2) + λ3 (0, 1)
Como u ∈ R2 , tenemos que u = (a, b). Simplificando la anterior igualdad, nos queda:
(a, b) = (λ1 + λ2 , 2λ2 + λ3 )
Por lo tanto, tenemos el siguiente sistema de ecuaciones lineales, donde las incógnitas
son λ1 , λ2 , λ3 :
λ1 + λ2 = a
2λ2 + λ3 = b
Podemos resolver por el método de Gauss. Tras aplicar el teorema de Rouché-
Frobenius, tenemos un sistema compatible indeterminado. Por lo tanto, existe
solución (de hecho, infinitas) y consecuentemente, u se puede expresar como
combinación lineal de los vectores de S.

— 16 —

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10679672

1.2. Espacios vectoriales Universidad de Málaga

Figura 1.3: El vector w es combinación lineal de u y v.

1.2.2. Base y dimensión


Definición 1.32. Sea V un espacio vectorial sobre un cuerpo K y S ⊆ V . Decimos
que el conjunto S es base de V si es un sistema generador de V linealmente
independiente.
Veamos un ejemplo de base y comparémoslo con el presentado anteriormente.
Ejemplo 1.33. Consideremos como espacio vectorial R2 sobre R y un conjunto S
formado por los siguientes dos vectores de R2 ,

S = {(1, 0), (1, 2)}.

Para comprobar que S es base de R2 , debemos ver dos cosas:


1. S es sistema generador.
2. S es linealmente independiente.

— 17 —

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10679672

1.2. Espacios vectoriales C. Bejines

Para lo primero, tomamos u ∈ R2 , es decir, u = (a, b). Por lo que

(a, b) = λ1 (1, 0) + λ2 (1, 2)

Equivalentemente,
λ1 + λ2 = a
2λ2 = b
Podemos resolver por el método de Gauss. Tras aplicar el teorema de Rouché-
Frobenius, tenemos un sistema compatible determinado cuyas soluciones son
λ1 = a − b/2
λ2 = b/2
Por lo tanto, existe solución única y u puede expresarse como
b b
(a, b) = (a − )(1, 0) + (1, 2). (1.1)
2 2
Para comprobar que S es linealmente independiente, debemos ver si

λ1 (1, 0) + λ2 (1, 2) = (0, 0) ⇒ λ1 = λ2 = 0.

Como deriva al mismo sistema de ecuaciones lineales, podemos aprovechar la


ecuación (1.1) asignando (a, b) = (0, 0) y concluir que
0 0
(0, 0) = (0 − )(1, 0) + (1, 2) = 0(1, 0) + 0(1, 2).
2 2
Por tanto, S es cumple las dos condiciones y es una base.
En el ejemplo 1.33, es importante destacar que el sistema era compatible deter-
minado, mientras que en el ejemplo 1.31, el sistema era compatible indeterminado.
Como veremos en el teorema 1.39, si tenemos una base, cualquier vector del espacio
vectorial se puede expresar de forma única en términos de esa base.
Por otro lado, es relevante reconocer que {(1, 0), (1, 2)} no es la única base
del espacio vectorial R, ya que {(1, 0), (0, 1)} también es un conjunto linealmente
independiente que genera R2 . Por lo tanto, existen múltiples bases posibles para
un mismo espacio vectorial. Lo sorprendente es que todas las bases distintas de un
mismo espacio vectorial tienen el mismo número de elementos, como se detalla en
la proposición 1.34. Esto nos proporciona una medida de la dimensionalidad del
espacio vectorial.
Proposición 1.34. Sea V un espacio vectorial sobre un cuerpo K. Supongamos que
B1 y B2 son bases finitas de V , entonces |B1 | = |B2 |.
Definición 1.35. Sea V un espacio vectorial sobre un cuerpo K. Se define la
dimensión de V como el cardinal de una base de V y se denota por dim(V ).

— 18 —

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10679672

1.2. Espacios vectoriales Universidad de Málaga

Teorema 1.36. Sea V es un espacio vectorial sobre un cuerpo K y A una matriz


formada por los elementos (vectores) de un sistema generador de V , entonces

dim(V ) = r(A).

Si tenemos un conjunto de vectores que genera un espacio vectorial, para


determinar la dimensión podemos recurrir recurrir a escalonar la matriz de dichos
vectores y contar el número de filas no nulas (rango).
Teorema 1.37. Sea V es un espacio vectorial sobre un cuerpo K y S un conjunto
de vectores de V . Consideremos la matriz A formada por los elementos (vectores)
de S, entonces r(A) es el número de vectores independientes de S.
Proposición 1.38. Sea V un espacio vectorial sobre un cuerpo K y S ⊆ V .
1. El conjunto S es linealmente dependiente si y solo si existe algún vector v ∈ S
que es combinación lineal del resto de vectores.

2. Si S es linealmente independiente y u ∈ V no es combinación lineal de vectores


de S, entonces el conjunto S 0 = S ∪ {u} es linealmente independiente.
Teorema 1.39. Sea V un espacio vectorial sobre un cuerpo K y B ⊆ V . Si B es
base de V , entonces la expresión de u ∈ V como combinación lineal de vectores de
B es única.
Definición 1.40. Sea V un espacio vectorial sobre un cuerpo K y B una base de
V . Sea u ∈ V tal que
u = λ1 v1 + λ2 v2 + · · · + λn vn .
Los escalares λ1 , λ2 , . . . , λn son llamados coordenadas de u respecto a la base B.
Ejemplo 1.41. Consideremos el espacio vectorial real R3 . Una base puede ser Bc =
{(1, 0, 0), (0, 1, 0), (0, 0, 1)}. Como el cardinal es 3, tenemos que dim(R3 ) = 3. A esta
base se la conoce como base canónica de R3 . Las coordenadas del vector (2, 3, 1) en
la base B son precisamente (2, 3, 1)Bc porque

(2, 3, 1) = 2(1, 0, 0) + 3(0, 1, 0) + (0, 0, 1).

Esto es una característica innata de la base canónica que no sucede en general. Por
ejemplo, si tomamos la base B 0 = {(2, 0, 3), (0, 0, −2), (0, 1, 0)}, las coordenadas del
vector (2, 3, 1) serían (1, 1, 3)B 0 porque

(2, 3, 1) = (2, 0, 0) + (0, 0, −2) + 3(0, 1, 0).

Es importante resaltar la importancia del orden de los vectores en una base.


Cualquier permutación de los elementos de la base puede potencialmente alterar las
coordenadas de los vectores.

— 19 —

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10679672

1.2. Espacios vectoriales C. Bejines

1.2.3. Subespacios vectoriales


Un subespacio vectorial es un conjunto que, dentro de un espacio vectorial, pre-
senta propiedades particulares en relación a la adición de vectores y la multiplicación
por escalares. Veamos cómo se definen y caracterizan estos subespacios.

Definición 1.42. Sea V es un espacio vectorial sobre un cuerpo K y U ⊆ V .


Decimos que U es un subespacio vectorial de V si es un espacio vectorial sobre K.

Para evitar la necesidad de verificar todos los axiomas de espacio vectorial,


podemos hacer uso del siguiente resultado:

Proposición 1.43. Sea V un espacio vectorial sobre un cuerpo K y U ⊆ V . Tenemos


que U es subespacio vectorial de V si y solo si:

1. Para todo u, v ∈ U , se tiene que u + v ∈ U .

2. Para todo u ∈ U y todo λ ∈ K, se tiene que λu ∈ U .

Si V es un espacio vectorial, {0} y V son subespacios vectoriales de V . Son


llamados subespacios vectoriales triviales.

Nota 1.44. Los resultados y definiciones de la sección anterior son válidos para
subespacios vectoriales ya que estos son también espacios vectoriales.

Definición 1.45. Sea V un espacio vectorial sobre un cuerpo K y S ⊆ V . Se define


el subespacio vectorial generado por S, y se denota por L(S), como el menor
subespacio vectorial de V que contiene a S, es decir,
n
nX o
L(S) := λi vi | λi ∈ K, vi ∈ S .
i=1

Cuando tenemos un sistema generador de un subespacio vectorial, podemos


utilizar el proceso de escalonamiento para obtener una base y determinar la
dimensión del subespacio.
Las filas no nulas del sistema escalonado corresponden a vectores linealmente
independientes que generan el subespacio vectorial. Por lo tanto, estos vectores
forman una base. Consecuentemente, la dimensión del subespacio vectorial se
determina contando el número de filas no nulas en el sistema escalonado.

Definición 1.46. Si W es un subespacio vectorial de S y B es una base de W ,


diremos que B es la base canónica de W si sus vectores dispuestos en filas en una
matriz forman una matriz escalonada reducida.

El siguiente resultado nos ofrece una manera rápida de comprobar si dos


subespacios vectoriales coinciden.

— 20 —

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10679672

1.2. Espacios vectoriales Universidad de Málaga

Proposición 1.47. Dos subespacios vectoriales son iguales si y solo si sus bases
canónicas coinciden.
Proposición 1.48. Si AX = 0 es un sistema de ecuaciones lineales homogeneo,
entonces el conjunto de soluciones tiene estructura de espacio vectorial.
Un subespacio vectorial puede definirse mediante un sistema generador de
vectores (Definición 1.45) o a través de las soluciones de un sistema de ecuaciones
lineales (Proposición 1.48). Cuando representamos un subespacio vectorial utilizando
un sistema generador, generalmente compuesto por una base, las ecuaciones que
empleamos se conocen como ecuaciones paramétricas del subespacio. Por otro
lado, si representamos el subespacio mediante un sistema de ecuaciones lineales,
estas ecuaciones se denominan ecuaciones cartesianas del subespacio. Ambas
formas de expresión nos brindan información sobre la estructura y las propiedades
del subespacio.
El uso de ecuaciones paramétricas y ecuaciones cartesianas en la representación
de subespacios vectoriales es fundamental para comprender las relaciones entre los
vectores en el subespacio y cómo se pueden describir en términos de parámetros
o coordenadas. Esto nos permite estudiar y analizar las propiedades geométricas y
algebraicas de los subespacios en diferentes contextos y aplicaciones.
Ejemplo 1.49. Consideremos el espacio vectorial real R3 y U es subespacio vectorial
generado por los vectores (1, 0, 1) y (1, 2, 0). Entonces, por la definición 1.45, tenemos
que
U = (x, y, z) ∈ R3 | (x, y, z) = λ1 (1, 0, 1) + λ2 (1, 2, 0), λ1 , λ2 ∈ R


Por lo tanto, las ecuaciones paramétricas de U son


x = λ1 + λ2
y = 2λ2
z = λ1

Ejemplo 1.50. Consideremos el espacio vectorial real R3 y U es subespacio vectorial


que es solución del siguiente sistema de ecuaciones lineales homogéneo.

x +2y −z = 0
3x +2z = 0
En términos simples, podemos describir U como el conjunto de todos los vectores
(x, y, z) en R3 que satisfacen esas ecuaciones:

U = (x, y, z) ∈ R3 | x + 2y − z = 0, 3x + 2z = 0 .


Estas ecuaciones son las ecuaciones cartesianas de U , es decir, son la forma algebraica
que nos permite caracterizar los vectores en U en términos de sus coordenadas en
el espacio R3 .

— 21 —

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10679672

1.2. Espacios vectoriales C. Bejines

Para convertir ecuaciones paramétricas a ecuaciones cartesianas, necesitamos


eliminar los parámetros y expresar las ecuaciones en términos de variables indepen-
dientes. Esto implica encontrar una relación algebraica directa entre las variables
sin hacer referencia a los parámetros que se utilizan en las ecuaciones paramétricas.

Ejemplo 1.51. Consideraremos las ecuaciones paramétricas del ejemplo 1.49:

x = λ1 + λ2
y = 2λ2
z = λ1

Estas ecuaciones paramétricas pueden interpretarse como un sistema de ecuaciones


en el que los términos independientes son x, y, y z. Para obtener las ecuaciones car-
tesianas, debemos hacer que el sistema sea compatible realizando varias operaciones
elementales:
     
1 1 x 1 1 x 1 1 x
 0 2 y → 0 2 y  →  0 0 y + 2z − 2x 
1 0 z 0 −1 z − x 0 −1 z−x

Es claro que el rango de la matriz A es 2. Para que el rango de la matriz ampliada


también sea 2, debemos imponer la condición:

y + 2z − 2x = 0,

la cual es nuestra ecuación cartesiana resultante.

Para pasar de ecuaciones cartesianas a ecuaciones paramétricas, resolvemos


el sistema de ecuaciones lineales homogeneo. Al obtener las soluciones, podemos
expresar las variables en función de los parámetros (ver el ejemplo 1.22).

Proposición 1.52. Sea V es un espacio vectorial sobre un cuerpo K. Si W1 , W2 son


dos subespacios vectoriales de V , entonces W1 ∩ W2 es un subespacio vectorial de
V.

Sin embargo, la unión de subespacios vectoriales no es necesariamente un


subespacio vectorial.

Definición 1.53. Sea V es un espacio vectorial sobre un cuerpo K y W1 , W2 dos


subespacios vectoriales de V . Se define la suma de W1 y W2 , y se denota por W1 +W2 ,
como el menor subespacio vectorial de V que contiene a W1 y a W2 , es decir,

W1 + W2 = L(W1 ∪ W2 ).

Si además, W1 ∩ W2 = {0}, diremos que la suma es directa y la denotaremos por


W1 ⊕ W2 .

— 22 —

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10679672

1.2. Espacios vectoriales Universidad de Málaga

Proposición 1.54. Sea V es un espacio vectorial sobre un cuerpo K. Si W1 , W2 son


dos subespacios vectoriales de V , entonces W1 + W2 es un subespacio vectorial de
V.
Definición 1.55. Sea V es un espacio vectorial sobre un cuerpo K y W1 , W2 dos
subespacios vectoriales de V . Diremos que W1 y W2 son suplementarios si W1 ⊕W2 =
V.
Nota 1.56. Los espacios suplementarios son una forma de descomponer un espacio
vectorial en subespacios más pequeños y, a menudo, se utilizan en teoría de la
representación, álgebra abstracta y otras ramas de las matemáticas.
Para concluir esta sección, primero presentamos uno de los teoremas más
significativos del capítulo, el cual nos proporciona un método para calcular la
dimensión de la intersección y la suma de subespacios vectoriales. Por último,
mostramos un ejemplo de cómo se obtienen las bases canónicas del subespacio suma
y el subespacio intersección.
Teorema 1.57 (Dimensión). Sea V es un espacio vectorial sobre un cuerpo K. Si
W1 , W2 son dos subespacios vectoriales de V , entonces

dim(W1 + W2 ) = dim(W1 ) + dim(W2 ) − dim(W1 ∩ W2 ). (1.2)

Merece la pena apreciar que si W1 y W2 son suplementarios, entonces la fórmula


(1.2) se puede simplificar a

dim(V ) = dim(W1 ) + dim(W2 ).

Ejemplo 1.58. Vamos a determinar las bases canónicas de U + V y U ∩ V , donde


U y V son los siguientes subespacios vectoriales de R4 :

x = λ1
 + λ3 
y = λ1 + λ2 x + y − z + t = 0

U≡ V ≡

 z = 2λ1 + 2λ3 y − z + 2t = 0
t = − λ2 + λ3

Para determinar U + V , vamos a obtener vectores que generen U y vectores V . Para


U nos fijamos en sus ecuaciones paramétricas y obtenemos que
 
U = L (1, 1, 2, 0), (0, 1, 0, −1), (1, 0, 2, 1) .

Para obtener un sistema generador de V , resolvemos el sistema de ecuaciones


impuesto por sus ecuaciones cartesianas, el cual nos da el siguiente conjunto solución
(se omite el proceso de Gauss-Jordan):
n o
4
V = (x, y, z, t) ∈ R | (x, y, z, t) = (µ2 , µ1 − 2µ2 , µ1 , µ2 ), µ1 , µ2 ∈ R

— 23 —

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10679672

1.2. Espacios vectoriales C. Bejines

Equivalentemente,  
V = L (0, 1, 1, 0), (1, −2, 0, 1) .
Por lo tanto,
 
U + V = L (1, 1, 2, 0), (0, 1, 0, −1), (1, 0, 2, 1), (0, 1, 1, 0), (1, −2, 0, 1) .
Es importante señalar que estos cinco vectores no tienen porqué ser una base de
U +V , pues podría existir alguna combinación lineal entre ellos y, consecuentemente,
no ser un conjunto linealmente independiente. Para determinar el número de vectores
independientes, vamos a hacer la escalonada (ver Teorema 1.36). Además, como la
base cónica corresponde a las filas no nulas de la escalonada reducida, es aconsejable
hacer el proceso para obtener la matriz escalonada reducida (Gauss-Jordan).
   
1 1 2 0 1 0 0 −1
0 1 0 −1 0 1 0 −1
   
1 0 2 1  → 0 0 1 1 
   
0 1 1 0  0 0 0 0 
3 −2 0 1 0 0 0 0
Concluimos que la base canónica de U + V es
n o
BU +V = (1, 0, 0, −1), (0, 1, 0, −1), (0, 0, 1, 1) .
Para obtener el subespacio vectorial U ∩ V , primero vamos a obtener las ecuaciones
cartesianas de U y luego resolver el sistema de ecuaciones lineales dado por la unión
de todas las ecuaciones cartesianas de U y de V .
1. Obtención de las ecuaciones cartesianas de U aplicando Gauss-Jordan:
   
1 0 1 x 1 0 1 x
 1 1 0 y 
  0 1 −1 y − x 
 → 
 2 0 2 z   0 0 0 z − 2x 
0 −1 1 t 0 0 0 t+y−x
Por lo tanto, las ecuaciones cartesianas son t + y − x = 0 y z − 2x = 0.
2. El sistema de ecuaciones lineales a resolver es el siguiente:


 x + y − z + t = 0
y − z + 2t = 0


 −2x + z = 0
−x + y + t = 0

Se omite el proceso de resolución. Se trata de un sistema compatible


indeterminado cuyo conjunto solución depende de un parámetro y es el
siguiente:
n o
4
S = (x, y, z, t) ∈ R | (x, y, z, t) = (α, 0, 2α, α), α ∈ R

— 24 —

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10679672

1.2. Espacios vectoriales Universidad de Málaga

Concluimos que la base canónica de U ∩ V es


n o
BU ∩V = (1, 0, 2, 1) .

1.2.4. Cambio de base


Si consideramos un vector u ∈ V , las coordenadas de u estarán determinadas
por la base que estemos utilizando, como se ilustra en el siguiente ejemplo.

Ejemplo 1.59. Tomemos como referencia el espacio vectorial real R3 y u = (2, 3, 1).
Consideremos las siguientes bases de R3 :

B1 = {(1, 1, 1), (0, 2, 0), (1, 0, 0)} B2 = {(0, 1, 1), (−1, 1, 0), (−5, 2, 1)}.

Es sencillo comprobar que las coordenadas de u en la base B1 son (1, 1, 1)B1 y las
coordenadas de u en la base B2 son (2, 3, −1)B2 .

A continuación, mostramos que existe una relación entre las coordenadas de un


vector en diferentes bases.

Proposición 1.60. Sea V un espacio vectorial de dimensión n y consideremos dos


bases de V : B1 y B2 . Si u ∈ V tiene coordenadas (λ1 , λ2 , ..., λn ) en la base B1 y
coordenadas (µ1 , µ2 , ..., µn ) en la base B2 , entonces existe una matriz P de tamaño
n × n tal que    
λ1 µ1
 λ2   µ2 
P  ..  =  .. 
   
. .
λn µn

Definición 1.61. A la matriz P de la proposición 1.60 se le llama matriz de


cambio de base de B1 a B2 .

La matriz de cambio de base es una herramienta fundamental en el álgebra lineal


que nos permite representar un mismo vector en diferentes bases. Esta matriz nos
proporciona una forma de transformar las coordenadas de un vector de una base a
otra, lo que resulta especialmente útil al estudiar transformaciones lineales y sistemas
de ecuaciones lineales. Al comprender la matriz de cambio de base, podemos analizar
y comparar vectores y sus representaciones en diferentes bases de manera eficiente
y precisa.

Proposición 1.62. Sea V un espacio vectorial de dimensión n y P la matriz de


cambio de base de B1 a B2 , entonces:

1. P lleva por columnas las coordenadas de los vectores de B1 respecto de B2 .

— 25 —

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10679672

1.2. Espacios vectoriales C. Bejines

2. P tiene inversa.

3. P −1 es la matriz cambio de base de B2 a B1 .

Ejemplo 1.63. Consideremos el espacio vectorial real R2 y tomemos como bases


los siguientes conjuntos:
B1 = {(1, 1), (0, 4)}
B2 = {(0, 3), (2, 3)}
Vamos a determinar las coordenadas de (1, 1) y (0, 4) en la base B2 .
−1 1
(1, 1) = (0, 3) + (2, 3)
6 2
4
(0, 4) = (0, 3) + 0(2, 3)
3
Por lo que la matriz de cambio de base B1 a B2 es:
 
−1/6 4/3
1/2 0

— 26 —

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10679672

Capítulo 2

Aplicaciones lineales

En el capítulo 1, hemos explorado y estudiado la estructura de un espacio


vectorial. Ahora vamos a introducir un tipo especial de funciones que preservan
la estructura algebraica de un espacio vectorial: las aplicaciones lineales.

2.1. Definiciones y resultados iniciales


2.1.1. Funciones
Las funciones son herramientas esenciales para describir relaciones entre conjun-
tos y modelar situaciones del mundo real. Nos permiten analizar el comportamiento
de variables y resolver problemas de optimización y predicción en campos como la
física, la economía y la ingeniería.
Definición 2.1. Sea A y B dos conjuntos. Una función o aplicación de A a B
es una regla matemática que asocia a cada elemento x ∈ A, otro elemento y ∈ B,
llamado imagen de x. Una función f de A a B se denota por f : A → B y a la
imagen de x ∈ A, se la denota por f (x).
Ejemplo 2.2. La función idA : A → A definida como idA (x) = x es conocida como
la función identidad en el conjunto A.
Definición 2.3. Sea f : A → B una función.
 Si y ∈ B, se define la preimagen o imagen recíproca de y a través de f
como el siguiente conjunto:
f −1 (y) = {x ∈ A | f (x) = y}.

 Si S ⊆ A, se define la imagen de S a través de f como el siguiente conjunto:


f (S) = {y ∈ B | y = f (x) para algún x ∈ S}.
Si S = A, f (A) se suele denotar también por Im f .

27

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10679672

2.1. Definiciones y resultados iniciales C. Bejines

 Decimos que f es inyectiva si para todo x, y ∈ A tal que x 6= y, entonces


f (x) 6= f (y).

 Decimos que f es sobreyectiva si para todo y ∈ B, existe x ∈ A tal que


f (x) = y, es decir, f (A) = B.

 Decimos que f es biyectiva si es inyectiva y sobreyectiva simultáneamente.

Definición 2.4. Sea f : A → B y g : B → C dos funciones. Se define la


composición g ◦ f : A → C de la siguiente forma

(g ◦ f )(x) = g(f ((x)).

Se lee “g de f” o “f seguida de g”.

Definición 2.5. Sea f : A → B. Si existe g : B → A tal que

f ◦ g = idB g ◦ f = idA

entonces decimos que g es la función inversa de f y se denota por g = f −1 . Para


garantizar la existencia de la función inversa, es necesario que f sea biyectiva.

Proposición 2.6. Sea f : A → B, g : B → C y h : C → D tres funciones.

1. Siempre se cumple que

h ◦ (g ◦ f ) = (h ◦ g) ◦ f (Asociatividad)

2. En general,
g ◦ f 6= f ◦ g (No conmutatividad)

3. La composición de funciones inyectivas es una función inyectiva.

4. La composición de funciones sobreyectivas es una función sobreyectiva.

5. Si f : A → B y g : B → C son biyectivas, entonces

(g ◦ f )−1 = f −1 ◦ g −1 .

2.1.2. Aplicaciones lineales


Las aplicaciones lineales son funciones que mantienen la estructura de un
espacio vectorial al preservar las operaciones de suma vectorial y multiplicación por
escalares. En otras palabras, estas funciones conservan las propiedades de adición y
multiplicación por escalares en los espacios vectoriales en los que actúan.

— 28 —

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10679672

2.1. Definiciones y resultados iniciales Universidad de Málaga

Definición 2.7. Sea U y V dos espacios vectoriales sobre el mismo cuerpo K y


consideremos una función f : U −→ V . Diremos que f es una aplicación lineal o
transformación lineal si

 Para todo u, v ∈ U ,
f (u + v) = f (u) + f (v).

 Para todo u ∈ U y λ ∈ K,
f (λu) = λf (u).

Ejemplo 2.8. Mostramos a continuación varias funciones que son aplicaciones


lineales.

 f : R2 −→ R3 definida por f (x, y) = (x + y, 0, 2x − y).

 f : R4 −→ R2 definida por f (x, y, z, t) = (x + y + 3z − t, t − 2y).

 f : R2 −→ R2 definida por f (x, y) = (y, −x).

Teorema 2.9. Sea f : U −→ V una aplicación lineal entre los espacios vectoriales
U y V . Entonces,

1. f (0U ) = 0V .

2. Si W es subespacio vectorial de U , entonces f (W ) es subespacio vectorial de


V.

3. Si {u1 , u2 , . . . , un } es un sistema generador de un subespacio vectorial W ⊆


U , entonces {f (u1 ), f (u2 ), . . . , f (un )} es un sistema generador del subespacio
vectorial f (W ) ⊆ V .

4. Si {u1 , u2 , . . . , un } es linealmente dependiente, entonces {f (u1 ), f (u2 ), . . . , f (un )}


es linealmente dependiente.

5. Si {u1 , u2 , . . . , un } es linealmente independiente, entonces no podemos asegurar


nada de {f (u1 ), f (u2 ), . . . , f (un )}.

El teorema 2.9 nos ayuda a entender cómo funciona las imagenes de los vectores
a través de una aplicación lineal.

2.1.3. Núcleo e imagen de una aplicación lineal


Definición 2.10. Sea f : U −→ V una aplicación lineal entre los espacios vectoriales
U y V.

— 29 —

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10679672

2.1. Definiciones y resultados iniciales C. Bejines

 Definimos el núcleo de f , o Ker f , como el siguiente conjunto,

Ker f := {u ∈ U | f (u) = 0}.

Además, Ker f tiene estructura de subespacio vectorial de U .

 Definimos la imagen de f , como el siguiente conjunto,



Im f = f (U ) = v ∈ V | v = f (u) para algún u ∈ U .

Por el teorema 2.9, f (U ) tiene estructura de espacio vectorial.

Dada una aplicación lineal f : U −→ V , para determinar los subespacios


vectoriales de la definición 2.10, por normal general, recurrimos a lo siguiente:

1. Si queremos hallar el Ker f , podemos utilizar la propia definición para obtener


las ecuaciones cartesianas de ese subespacio vectorial.

2. Si queremos hallar la Im f , bastará considerar un sistema generador de U para


construirnos un sistema generador de Im f usando el teorema 2.9.

Definición 2.11. Sea U y V dos espacios vectoriales sobre el mismo cuerpo K y


f : U −→ V una aplicación lineal. Entonces,

 Si f es inyectiva, decimos que es un monomorfismo.

 Si f es sobreyectiva, decimos que es un epimorfismo.

 Si f es biyectiva, decimos que es un isomorfismo.

 Si U = V , decimos que f es un endomorfismo.

 Si f es un endomorfismo biyectivo, decimos que es un automorfismo.

Si existe un isomorfismo entre dos espacios vectoriales, entonces su estructura es


la misma. Consecuentemente, trabajar en U o en V es, en esencia, lo mismo.

Proposición 2.12. Sea U y V dos espacios vectoriales sobre el mismo cuerpo K.


El conjunto de aplicaciones lineales de U a V tiene estructura de espacio vectorial.
A dicho conjunto, lo vamos a denotar por

HomK (U, V ).

Teorema 2.13. Sea f : U −→ V una aplicación lineal entre dos espacios vectoriales.

1. f es un monomorfismo si y solo si Ker f = {0}.

2. f es un epimorfismo si y solo si Im f = V .

— 30 —

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10679672

2.1. Definiciones y resultados iniciales Universidad de Málaga

Teorema 2.14. Sea f : U −→ V una aplicación lineal entre dos espacios vectoriales.

dim(Ker f ) + dim(Im f ) = dim(U ).

Como consecuencia de este resultado, tenemos el siguiente:

Proposición 2.15. Sea f : U −→ V una aplicación lineal entre dos espacios


vectoriales. Si U y V tienen la misma dimensión, entonces las siguientes afirmaciones
son equivalentes:

1. f es un monomorfismo.

2. f es un epimorfismo.

3. f es un isomorfismo.

Los monomorfismos nos preservan la independencia lineal, en consecuencia:

Proposición 2.16. Un monomorfismo f : U −→ V transforma bases de U en bases


de f (U ) ⊆ V . Si f es un isomorfismo, f transforma bases de U en bases de V .

Teorema 2.17. Todo espacio vectorial V sobre K de dimensión n es isomorfo al


espacio vectorial Kn .

Este resultado es importante porque nos está diciendo que si tengo es un espacio
vectorial cualquiera sobre R, entonces si conozco que la dimensión es igual a n,
entonces es cómo trabajar con los vectores de Rn .

2.1.4. Aplicaciones lineales como matrices


Las aplicaciones lineales y las matrices están relacionadas: podemos asociar una
matriz a una aplicación lineal y, a su vez, construir una aplicación lineal a partir de
una matriz.

Proposición 2.18. Sea U y V dos espacios vectoriales sobre el mismo cuerpo K.


Supongamos que la dimensión de U y V son n y m respectivamente. Entonces, existe
un isomorfismo entre el conjunto de aplicaciones lineales de U a V y el conjunto de
matrices de tamaño m × n, es decir,

HomK (U, V ) ∼
= Mm×n (K).

La representación matricial de la aplicación lineal depende de las bases de cada


espacio vectorial.

— 31 —

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10679672

2.1. Definiciones y resultados iniciales C. Bejines

Definición 2.19. Sea f : U −→ V una aplicación lineal entre espacios vectoriales.


Consideremos una base B1 de U y una base B2 de V , entonces la matriz de f
respecto a las bases B1 y B2 es la matriz A que cumple la siguiente ecuación:

Y = AX,

donde X son las coordenadas de los vectores de U en la base B1 , e Y las coordenadas


de los imagenes de los vectores de U a través de f en la base B2 .
Nota 2.20. Cuando trabajemos con las bases canónicas, nos referiremos simple-
mente a la matriz asociada a f , omitiendo mencionar las bases específicas.
A continuación, mostramos la construcción de la matriz asociada a una aplicación
lineal.
Proposición 2.21. Sea f : U −→ V una aplicación lineal entre espacios vectoriales.
Consideremos una base B1 de U y una base B2 de V . La matriz asociada a f respecto
a B1 y B2 tiene por columnas las coordenadas de las imagenes de los vectores de B1
respecto de B2 . Además, el tamaño de dicha matriz es m × n, donde m =dim(V ) y
n =dim(U ).
Ejemplo 2.22. Tomemos la aplicación lineal f : R3 −→ R2 definida por f (x, y, z) =
(2x − z, 0). Consideremos los conjuntos

B1 = {(1, 1, 0), (0, 1, 3), (1, 0, 1)} B2 = {(1, 1), (0, 2)}.

Es fácil de comprobar que B1 es base de R3 y que B2 es base de R2 . La matriz


asociada a f respecto a B1 y B2 tiene por columnas las coordenadas de las imagenes
de los vectores de B1 respecto de B2 , así que:
 Las imagenes de los vectores de la base B1 son

f (1, 1, 0) = (2, 0), f (0, 1, 3) = (−3, 0), f (1, 0, 1) = (1, 0).

 Las coordenadas de (2, 0) en B2 son (2, −1)B2 porque

(2, 0) = 2(1, 1) − 1(0, 2).

 Las coordenadas de (−3, 0) en B2 son (−3, 32 )B2 porque


3
(−3, 0) = -3(1, 1) + (0, 2).
2

 Las coordenadas de (1, 0) en B2 son (1, − 21 )B2 porque


1
(1, 0) = 1(1, 1) − (0, 2).
2

— 32 —

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10679672

2.1. Definiciones y resultados iniciales Universidad de Málaga

Por consiguiente, la matriz buscada es


 
2 −3 1
A=
−1 23 − 12

En otras palabras, si consideramos las coordenadas X de un vector en R3 respecto


a la base B1 , entonces las coordenadas Y = AX representan la imagen de ese vector
respecto a la base B2 . Aquí, A es la matriz asociada a la aplicación lineal respecto
de las bases B1 y B2 .

Proposición 2.23. Sea f : U −→ V y g : V −→ W dos aplicaciones lineales entre


espacios vectoriales con bases B1 , B2 , B3 respectivamente. Si A es la matriz asociada
a f respecto a B1 y B2 y B es la matriz asociada a g respecto a B2 y B3 , entonces
la matriz asociada a g ◦ f respecto a B1 y B3 es BA.

Ejemplo 2.24. Consideremos tres espacios vectoriales: U , V , y W , con bases


respectivas B1 = {u1 , u2 }, B2 = {v1 , v2 }, y B3 = {w1 , w2 }. Supongamos que tenemos
las siguientes aplicaciones lineales:

f : U −→ V y g : V −→ W,
donde f se define como:

f (u1 ) = 2v1 − v2 , f (u2 ) = v1 + 3v2


y g se define como:

g(v1 ) = w1 + w2 , g(v2 ) = 2w1 − w2 .


Queremos encontrar la matriz asociada a la composición g ◦ f respecto a las
bases B1 y B3 . Primero, encontramos las matrices asociadas a f y g respecto a sus
respectivas bases. La matriz asociada a f respecto a B1 y B2 es
 
2 1
A=
−1 3
y la matriz asociada a g respecto a B2 y B3 es
 
1 2
B=
1 −1
Por lo tanto, multiplicamos estas matrices:
    
1 2 2 1 0 7
BA = =
1 −1 −1 3 3 −2

— 33 —

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10679672

2.1. Definiciones y resultados iniciales C. Bejines

Por lo tanto, la matriz asociada a g ◦ f respecto a las bases B1 y B3 es


 
0 7
.
3 −2
También podríamos haber calculado g ◦ f : U −→ W y después haber obtenido la
matriz asociada:

g ◦ f (u1 ) = g(2v1 − v2 ) = 2g(v1 ) − g(v2 ) = 2w1 + 2w2 − 2w1 + w2 = 3w2 .


g ◦ f (u2 ) = g(v1 + 3v2 ) = g(v1 ) + 3g(v2 ) = w1 + w2 + 6w1 − 3w2 = 7w1 − 2w2 .
Conocidas las imagenes de la base B1 a través de g ◦ f , podemos obtener sus
coordenadas en la base B3 y concluir que la matriz asociada a g ◦ f es
 
0 7
.
3 −2
Recordemos que este ejemplo es solo un caso específico y que la propiedad sigue
siendo válida en general para cualquier elección de aplicaciones lineales y bases.
Teorema 2.25. Sea f : U −→ V una aplicación lineal y consideremos B1 , B10 dos
bases de U y B2 , B20 dos bases de V . Supongamos que P es la matriz de cambio de
B1 a B10 y Q es la matriz de cambio de base de B2 a B20 . Si A es la matriz asociada
a f respecto a B1 y B2 , entonces la matriz asociada a f respecto a B10 y B20 es
A = Q−1 HP
Para comprender mejor el teorema anterior, observemos el siguiente diagrama.
f :U V
H
B10 B20

P Q

A
B1 B2

Podemos observar que una forma alternativa de trabajar con la matriz A es


recorrer la secuencia P , luego A, y finalmente Q−1 . Por lo tanto, tenemos
A = Q−1 HP
Nota 2.26. Dada una aplicación lineal f : U −→ V y un vector u ∈ U , lo más
importante de esta sección es entender que f (u) coincide con A · u, donde A es la
matriz asociada a f .

— 34 —

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10679672

2.2. Diagonalización Universidad de Málaga

2.2. Diagonalización
En esta sección, exploraremos la diagonalización de endomorfismos. Apren-
deremos cómo descomponer una aplicación lineal en una forma más simple y
estructurada, utilizando bases adecuadas. Descubriremos las condiciones y las
implicaciones de la diagonalización, y veremos cómo esta técnica nos brinda
información valiosa sobre las propiedades de los endomorfismos.

2.2.1. Matrices semejantes


Definición 2.27. Sea A, B ∈ Mn (K). Decimos que A es semejante a B si existe
una matriz regular P tal que
A = P −1 BP.
Proposición 2.28. Si dos matrices cuadradas A y B son semejantes, entonces
1. |A| = |B|.
2. tr(A) = tr(B).
3. Para cualquier valor de n ∈ N, podemos afirmar que An y B n son semejantes,
debido a la siguiente igualdad:

An = P −1 B n P.

Nota 2.29. Obsérvese que si tenemos un endomorfismo en el teorema 2.25, entonces


las matrices A y H son semajantes.
Definición 2.30. Sea A ∈ Mn (K). Decimos que A es diagonalizable si es
semejante a una matriz diagonal, es decir, si existe una matriz P tal que

D = P −1 AP

donde D es una matriz diagonal. A la matriz P se le llama matriz de paso.

2.2.2. Autovalores y autovectores


Recordemos que una matriz diagonal es una matriz cuadrada en la que todos los
elementos fuera de la diagonal principal son iguales a cero. En este contexto, nos
encontramos con el desafío de la diagonalización de matrices cuadradas. La pregunta
que surge es si es factible transformar una matriz A en una forma diagonal. Para
abordar esta interrogante, es necesario introducir los siguientes conceptos clave.
Definición 2.31. Sea A ∈ Mn (K) y λ ∈ K. Decimos que λ es un autovalor de A
si existe v ∈ Kn no nulo tal que
Av = λv.

— 35 —

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10679672

2.2. Diagonalización C. Bejines

Definición 2.32. Sea A ∈ Mn (K) y λ un autovalor de A. Un vector no nulo v ∈ K


es llamado autovector de A asociado a λ si

Av = λv.

Para calcular los autovalores asociados a una matriz cuadrada A, debemos tener
en cuenta que

Av = λv ⇐⇒ Av − λv = ~0 ⇐⇒ (A − λI)v = ~0.

Este sistema de ecuaciones lineales homogéneo que estamos considerando tiene


soluciones no triviales (distintas de v = ~0) si y solo si el sistema es compatible
indeterminado, es decir, si el rango de la matriz (A − λI) es menor que el tamaño
de la matriz (r(A − λI) < n). Para determinar los valores de λ que cumplen esta
condición, debemos verificar para qué valores el determinante de la matriz (A − λI)
es igual a cero, es decir:

|A − λI| = 0.
El determinante de (A − λI) es una expresión que depende de la variable λ, por
lo tanto, obtenemos un polinomio al que llamamos polinomio característico. Las
raíces de este polinomio son los autovalores de A.

Nota 2.33. Es importante recordar el isomorfismo existente entre los endomorfismos


(aplicaciones lineales de un espacio vectorial en sí mismo) y las matrices cuadradas.
En las definiciones anteriores, la expresión Av es equivalente a f (v), donde f es la
aplicación lineal asociada a la matriz A. Esto nos permite intercambiar el uso de la
notación matricial con la notación de aplicaciones lineales según sea conveniente en
el contexto dado.

Proposición 2.34. Sea A, B ∈ Mn (K). Si A y B son semajantes, entonces tienen


el mismo polinomio característico.

Ejemplo 2.35. Vamos a determinar los autovales de la siguiente matriz:


 
3 1 1
A = 1 3 1
1 1 3

Para ello, calculamos su polinomio característico p(λ) mediante el determinante


|A − λI|:
|A − λI| = −λ3 + 9λ − 24λ + 20.
Buscamos las raíces de este polinomio. Observamos que λ = 2 es una raíz porque al
restar ese valor a la diagonal obtenemos una matriz singular (determinante nulo).

— 36 —

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10679672

2.2. Diagonalización Universidad de Málaga

También podemos aplicar el método de Ruffini para verificar que λ = 2 es una raíz.
Por lo tanto, podemos factorizar el polinomio de la siguiente manera:
p(λ) = −λ3 + 9λ2 − 24λ + 20 = (λ − 2)(−λ2 + 7λ − 10).
Resolviendo el polinomio de segundo grado restante, encontramos las otras dos
raíces: 2 y 5. Por lo tanto, el polinomio se puede descomponer de la siguiente forma:
p(λ) = −(λ − 2)2 (λ − 5)
y los autovalores son λ1 = 2 y λ2 = 5.
Proposición 2.36. Los autovectores asociados a un autovalor λ de una matriz
A ∈ Mn (K) forman el siguiente subespacio vectorial de Kn :
Wλ = Ker(A − λI) = {v ∈ Kn | (A − λI)v = ~0}
Para calcular los autovectores asociados a un autovalor, simplemente resolvemos
el sistema de ecuaciones lineales homogéneo (A − λI)v = ~0.
Ejemplo 2.37. Vamos a determinar los autovectores de la siguiente matriz:
 
3 1 1
A = 1 3 1
1 1 3
En el ejemplo 2.35, ya hemos determinado los autovalores: λ1 = 2 y λ2 = 5. Para
calcular los autovectores asociados a cada autovalor, debemos resolver el sistema de
ecuaciones lineales homogéneo (A − λI)v = ~0.
1. Para λ1 = 2, tenemos el siguiente sistema en su forma matricial:
    
1 1 1 x 0
1 1 1  y = 0
 
1 1 1 z 0
Aplicando el método de Gauss-Jordan para obtener la forma escalonada
reducida por filas, obtenemos:
    
1 1 1 x 0
0 0 0 y  = 0
0 0 0 z 0
Equivalentemente, el sistema se reduce a la ecuación x + y + z = 0. Por lo
tanto, los autovectores asociados a λ1 = 2 son aquellos que satisfacen esta
ecuación, es decir, el conjunto
W2 = {(x, y, z) ∈ R3 | x + y + z = 0}.
Podemos expresar este conjunto como:

W2 = L (1, −1, 0), (1, 0, −1) .

— 37 —

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10679672

2.2. Diagonalización C. Bejines

2. Para λ2 = 5, tenemos el siguiente sistema en su forma matricial:


    
−2 1 1 x 0
 1 −2 1  y  = 0
1 1 −2 z 0
Aplicando el método de Gauss-Jordan para obtener la forma escalonada
reducida por filas, obtenemos:
    
1 0 −1 x 0
0 1 −1 y  = 0
0 0 0 z 0

Los autovectores asociados a λ2 = 5 está formado por el conjunto solución de


este sistema, por tanto

W5 = {(x, y, z) ∈ R3 | x − z = 0, y − z = 0}.

Podemos expresar este conjunto como:



W5 = L (1, 1, 1) .

2.2.3. Caracterización de las matrices diagonalizables


Definición 2.38. Sea A ∈ Mn (K) y λ un autovalor de A.
 Llamaremos multiplicidad algebraica de λ, ma(λ), a su multiplicidad como
raíz del polinomio característico.

 Llamaremos multiplicidad geométrica de λ, mg(λ), a la dimensión del


subespacio vectorial Wλ , es decir, n − rg(A − λI).
Teorema 2.39. Sea A ∈ Mn (K) y λ un autovalor de A. Entonces,

1 ≤ mg(λ) ≤ ma(λ).

Teorema 2.40. Sea A ∈ Mn (K) y λ1 , λ2 , ..., λr los autovalores de A. Tenemos que


A es diagonalizable si y solo si se cumplen las dos siguientes condiciones:
1. ma(λ1 ) + ma(λ2 ) + ...ma(λr ) = n.

2. Para cada i = 1, 2, ..., r, se tiene que ma(λi ) = mg(λi ).


Ejemplo 2.41. Siguiendo con la matriz
 
3 1 1
A = 1 3 1
1 1 3

— 38 —

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10679672

2.2. Diagonalización Universidad de Málaga

del ejemplo 2.35, vamos a determinar la multiplicidad algebraica y geométrica de


sus dos autovalores.
Para λ1 = 2, observamos que su multiplicidad algebraica es 2 porque es una
raíz doble en el polinomio característico p(λ). Además, su multiplicidad geométrica
también es 2 porque la dimensión del subespacio W2 es 2.
Por otro lado, para λ2 = 5, notamos que tiene multiplicidad algebraica 1 ya
que es una raíz simple en el polinomio característico p(λ). Además, su multiplicidad
geométrica es 1 porque la dimensión del subespacio W5 es 1. Podemos concluir que

ma(2) = mg(2) = 2, ma(5) = mg(5) = 1,

lo que indica que la matriz A es diagonalizable según el teorema 2.40.

Teorema 2.42. Sea A ∈ Mn (K). Supongamos que A es diagonalizable, lo que


significa que existe una matriz diagonal D ∈ Mn (K) tal que D = P −1 AP para
alguna matriz invertible P . En tal caso, se cumplen las siguientes propiedades:

1. Como A y D son semejantes, det(A) = det(D).

2. Los autovalores de A son iguales a los autovalores de D. Consecuentemente,


los elementos de la matriz diagonal D son los autovalores de A.

3. La matriz invertible P está compuesta por los autovectores correspondientes


a los autovalores de A colocados en columnas, haciendo coincidir las columnas
de los autovectores con las columnas de sus autovalores.

Estas propiedades son consecuencia directa de la diagonalización de la matriz A


y son fundamentales para comprender la relación entre las matrices diagonalizables
y sus autovalores y autovectores.

Ejemplo 2.43. Vamos a encontrar la forma diagonal D y la matriz de paso P de


la matriz  
3 1 1
A= 1 3
 1
1 1 3
Teniendo en cuenta los ejemplos anteriores, conocemos sus autovalores, sus auto-
vectores y tenemos la certeza de que es diagonalizable. Aplicando el teorema 2.42,
tenemos que
D = P −1 AP,
donde  
2 0 0
D = 0 2 0
0 0 5

— 39 —

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10679672

2.2. Diagonalización C. Bejines

y  
1 1 1
P =  −1 0 1 
0 −1 1
Nota 2.44. Es importante destacar que la matriz de paso P utilizada en la
diagonalización de una matriz no es única. Hay varias formas de elegir los
autovectores que formarán las columnas de P . Por ejemplo, podríamos haber
permutado los autovectores seleccionados o incluso haber elegido otros autovectores,
ya que hay infinitos en el conjunto asociado a cada autovalor.
Además, la matriz diagonal D tampoco es única. Esto se debe a que podemos
elegir el orden en el que colocamos los autovalores en la diagonal de D, lo cual
afectará la correspondiente matriz de transformación P .
Estas observaciones reflejan la no unicidad en la diagonalización de una
matriz y nos permiten comprender que existen diferentes formas de expresar una
matriz diagonalizada, dependiendo de las elecciones realizadas en la selección de
autovectores y la ordenación de los autovalores.

2.2.4. Algoritmo para la diagonalización


Gracias a los resultados previos, podemos establecer un método general para
determinar si una matriz A ∈ Mn (K) es diagonalizable y, en caso afirmativo, obtener
la matriz diagonal D y la matriz de paso P .

1. Calcular el polinomio característico p(λ) de A.

2. Encontrar las raíces del polinomio característico, que corresponden a los


autovalores.

3. Verificar si la suma de las multiplicidades algebraicas es igual a n. Si no lo es,


entonces A no es diagonalizable.

4. Calcular las multiplicidades geométricas para cada autovalor. Si alguna mul-


tiplicidad geométrica difiere de su multiplicidad algebraica correspondiente,
entonces A no es diagonalizable.

5. Obtener las bases de los subespacios vectoriales Wλi asociados a los autovalo-
res.

6. La matriz diagonal D se construye utilizando los autovalores de A.

7. La matriz de cambio de base P se forma tomando autovectores que forman


una base de los subespacios vectoriales Wλi y colocándolos como columnas de
P . Debemos asegurarnos de que la columna de cada autovector en coincida
con la columna de su autovalor en D.

— 40 —

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10679672

2.2. Diagonalización Universidad de Málaga

Este algoritmo proporciona una guía paso a paso para verificar la diagonalización
de una matriz y obtener las matrices de cambio de base (P ) y diagonal (D).
En el lenguaje de programación R, es posible obtener los autovalores, autovec-
tores, forma diagonal D y matriz de paso P de una matriz cuadrada A, tal como se
indica en la Figura 2.1. Este procedimiento también se aplica para calcular la forma
canónica de Jordan en caso de que la matriz no sea diagonalizable.

# Código de R

# Definimos la matriz que queremos diagonalizar.


A <- matrix(c(3,1,1,1,3,1,1,1,3), nrow = 3, byrow = T)
A

## [,1] [,2] [,3]


## [1,] 3 1 1
## [2,] 1 3 1
## [3,] 1 1 3
# Obtenemos la información de sus autovalores y autovectores
info <- eigen(A)
autovalores <- info$values # Nos devuelve los autovalores
autovalores

## [1] 5 2 2
P <- info$vectors # Nos devuelve los autovectores normalizados
P

## [,1] [,2] [,3]


## [1,] -0.5773503 0.8164966 0.0000000
## [2,] -0.5773503 -0.4082483 -0.7071068
## [3,] -0.5773503 -0.4082483 0.7071068
D <- diag(autovalores) # Nos devuelve la matriz diagonal formada por los autovalores
D

## [,1] [,2] [,3]


## [1,] 5 0 0
## [2,] 0 2 0
## [3,] 0 0 2

Figura 2.1: Método para diagonalizar una matriz.

En el lenguaje de programación R, es importante mencionar que la multiplicación


de matrices se realiza utilizando el operador “ %* %” en lugar del operador
tradicional. En la figura 2.2, se realiza una verificación para comprobar si las
matrices obtenidas en la figura 2.1 cumplen la igualdad D = P −1 AP . Sin embargo,
se observan pequeñas diferencias del orden de 10−15 debido a las limitaciones de
precisión inherentes a los cálculos numéricos realizados por el programa. Para mitigar
este problema, es posible utilizar la función round para redondear los elementos de
la matriz resultante a un número específico de dígitos decimales. De esta manera,
se logra un mejor control sobre los valores numéricos y se evitan discrepancias
insignificantes causadas por el error de redondeo.

— 41 —

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10679672

2.3. Forma canónica de Jordan C. Bejines

library( pracma ) # Necesaria para la función inv.


inv(P) %*% A %*% P # Vemos que no coindice con D

## [,1] [,2] [,3]


## [1,] 5.000000e+00 7.550500e-16 -4.038956e-16
## [2,] 1.092506e-15 2.000000e+00 -4.951091e-17
## [3,] 6.458434e-16 1.518226e-16 2.000000e+00
# Al redondear con round(), mitigamos las limitaciones de precisión
round( inv(P) %*% A %*% P, digits = 6 )

## [,1] [,2] [,3]


## [1,] 5 0 0
## [2,] 0 2 0
## [3,] 0 0 2

Figura 2.2: Comando round para mitigar las limitaciones de precisión.

2.3. Forma canónica de Jordan


Cuando nos encontramos con matrices que no pueden ser diagonalizadas, surge
la necesidad de utilizar la forma canónica de Jordan, una herramienta fundamental
que nos permite obtener una representación casi diagonal de estas matrices.

2.3.1. Bloques de Jordan


Definición 2.45. Un bloque de Jordan es una matriz cuadrada que tiene todos
los elementos de la diagonal idénticos, la línea encima de la diagonal son unos, y el
resto son ceros.

Ejemplo 2.46. Las siguientes matrices son bloques de Jordan. Notése el caso
extremo: una matriz 1 × 1 no contradice la definición.
 
2 1 0  
0 2 1 1 1 
4
0 1
0 0 2

Las siguientes matrices no son bloques de Jordan.


     
2 1 0 2 1 0 2 0 0
0 2 0 0 3 1 1 2 0
0 0 2 0 0 2 0 1 2

Definición 2.47. Una matriz de Jordan es una matriz cuadrada formada por
bloques de Jordan en su diagonal y el resto de valores es cero.

— 42 —

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10679672

2.3. Forma canónica de Jordan Universidad de Málaga

Ejemplo 2.48. La siguiente matriz es una matriz de Jordan.


 
2 1 0 0 0 0
0 2 1 0 0 0
 
0 0 2 0 0 0
 
0 0 0 1 1 0
 
0 0 0 0 1 0
0 0 0 0 0 4

Nota 2.49. Todas las matrices diagonales son matrices de Jordan cuyos bloques de
Jordan tienen tamaño 1 × 1.

Teorema 2.50. Consideremos una matriz cuadrada A ∈ Mn (K). Entonces A es


semejante a una matriz J de Jordan si y solo si la suma de las multiplicidades
algebraicas es n. Es decir, existe una matriz regular P tal que

J = P −1 AP
P
si y solo si ma(λi ) = n.
Diremos que J es la forma canónica de Jordan de la matriz A.

Definición 2.51. Sea A ∈ Mn (K) y λ un autovalor de A. Se define el subespacio


generalizado asociado al autovalor λ de orden i como:

Wλi := Ker(A − λI)i = {v ∈ Kn | (A − λI)i v = 0}.

Proposición 2.52. En las condiciones de la definición 2.51, si i < j, entonces

Wλi ⊆ Wλj .

Además, Wλ = Wλ1 (ver proposición 2.36).

Dada una matriz cuadrada A ∈ Mn (K) y un autovalor λ, podemos generarnos


infinitos subespacios generalizados creando la siguiente cadena:

Wλ1 ⊆ Wλ2 ⊆ Wλ3 ⊆ Wλ4 ⊆ . . .

Eventualmente, los subespacios generalizados estacionan, es decir, se repiten conti-


nuamente (matemáticamente: existe k ∈ N tal que Wλk = Wλk+1 ).

Definición 2.53. Sea A ∈ Mn (K) y λ un autovalor de A. Se define el subespacio


máximo como aquel subespacio generalizado de mayor dimensión y se denota por
Mλ .

— 43 —

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10679672

2.3. Forma canónica de Jordan C. Bejines

Ejemplo 2.54. Se sabe que la matriz


 
3 1 −1 −1
0 2 0 1
A= 1

1 1 0
0 0 0 2

tiene como único autovalor λ = 2 con ma(2) = 4. Vamos a averiguar cuáles son los
subespacios generalizados asociados a λ = 2.

 Para W21 , calculamos las ecuaciones cartesianas:


  
1 1 −1 −1 x
0 0 0 1  y 
 
(A − 2I)v =  1 1 −1 0  z 

0 0 0 0 t

y obtenemos que

W21 = {(x, y, z, t) ∈ R4 | x + y − z = 0, t = 0}.

Observemos que este subespacio generalizado tiene dimensión 2 porque viene


en R4 y tiene dos ecuaciones cartesianas (4 − 2 = 2).

 Para W22 , calculamos las ecuaciones cartesianas:


   
1 1 −1 −1 1 1 −1 −1 x
 0 0 0 1  0 0 0
  1  y 
 
(A − 2I)2 v = 
1 1 −1 0  1 1 −1 0  z 

0 0 0 0 0 0 0 0 t

equivalentemente,
  
0 0 0 0 x
0 0 0 0 y 
(A − 2I)2 v = 
0
 
0 0 0 z 
0 0 0 0 t

y obtenemos que
W22 = R4 .
Observemos que este subespacio generalizado tiene dimensión 4 y que es el
subespacio maximo (no hay ninguno más grande, el siguiente sería W23 = R4
de nuevo). Por lo que tenemos dos subespacios generalizados asociados a λ = 2.
Además, W21 tiene dimensión 2 y W22 tiene dimensión 4.

— 44 —

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10679672

2.3. Forma canónica de Jordan Universidad de Málaga

Proposición 2.55. La dimensión del subespacio máximo asociado a un autovalor


coincide con su multiplicidad algebraica.

Sea A ∈ Mn (K) y λ un autovalor de A. Consideremos los subespacios


generalizados asociados al autovalor λ. Podemos crearnos un diagrama en el que
aparezca la cadena de subespacios generalizados junto con vectores que formen una
base de cada subespacio. Este diagrama deberá cumplir lo siguiente:

1. Están escritos todos los subespacios generalizados del autovalor λ.

2. Debajo del primer subespacio generalizado Wλ1 , los vectores que aparecen
forman una base.

3. Debajo del segundo (tercero, cuarto, etc) subespacio generalizado Wλi , apa-
recen vectores que amplian la base anterior (Wλi−1 ) para formar una base de
Wλi .

4. Los vectores se disponen por fila, de tal manera que el anterior sea la imagen
del posterior a través de A − λI.

Teorema 2.56. Sea A ∈ Mn (K), λ un autovalor de A y J una forma canónica de


Jordan de A. Consideremos el diagrama de subespacios generalizados asociados a λ.
Entonces,

 El número de filas de vectores indica el número de bloques de Jordan asociados


al autovalor λ que tiene la matriz de Jordan J.

 El número de vectores en cada fila indica el tamaño de cada bloque de Jordan.

Teorema 2.57. Sea A ∈ Mn (K), λ un autovalor de A y P la matriz de paso para


conseguir una forma canónica de Jordan J = P −1 AP . Consideremos el diagrama de
subespacios generalizados asociados a λ. Entonces la matriz P están formados por
los vectores del diagrama (dispuestos en columnas) ordenados teniéndose en cuenta
la disposición de bloques de Jordan de la matriz J.

2.3.2. Algoritmo para la forma canónica de Jordan


Gracias a estos resultados, podemos establecer un método general para
comprobar si una matriz A ∈ Mn (K) es semajante a una matriz de Jordan y,
en caso de serlo, dar la matriz de Jordan J.

1. Calcular el polinomio característico p(λ) de A.

2. Calcular las raíces del polinomio característico. Estas raíces son los autovalores.

— 45 —

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10679672

2.3. Forma canónica de Jordan C. Bejines

3. Comprobar si la suma de las multiplicidades algebraicas es igual a n. Si no es


igual, entonces A no es semajante a una matriz de Jordan.

4. Obtener los subespacios generalizados asociados a los autovalores.

5. Se crea el diagrama de subespacios generalizados para cada autovalor. Cada


fila de vectores del diagrama me genera un bloque de Jordan asociado a su
autovalor. El tamaño de ese bloque de Jordan viene determinado por el número
de vectores en esa fila.

6. La matriz de Jordan J buscada está formada por esos bloques de Jordan.

7. La matriz regular P que buscamos está formada por los autovectores (dis-
puestos en columnas) de la base de los subespacios generalizados, teniendo en
cuenta que los autovectores asociados a un bloque de Jordan son los vectores
por filas del diagrama. La colocación de los bloques de Jordan en J determinan
la colocación de los autovectores en la matriz de paso P .

Ejemplo 2.58. Vamos a buscar una forma canónica de Jordan de la matriz A del
ejemplo 2.54. Recordamos que
 
3 1 −1 −1
0 2 0 1
A=
1

1 1 0
0 0 0 2

Si hacemos el polinomio característico, al hallar las raíces obtenemos un único


autovalor: λ = 2 con multiplicidad algebraica 4. Los subespacios generalizados
asociados a λ = 2 fueron calculados en el ejemplo 2.54. Ellos son los siguientes:

W21 = {(x, y, z, t) ∈ R4 | x + y − z = 0, t = 0}

W22 = R4 .

Tenemos el siguiente diagrama (arriba de cada subespacio generalizado he puesto


su dimensión):
2 4
W21 ⊆ W22
v1 ← v2
v3 ← v4
La primera fila está formada por dos vectores (v1 y v2 ), esto genera un bloque de
Jordan de orden 2. La segunda fila está también formada por dos vectores (v3 y v4 ),

— 46 —

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10679672

2.3. Forma canónica de Jordan Universidad de Málaga

por lo que genera también un bloque de Jordan de orden 2. Por lo tanto, la matriz
de Jordan que buscamos es  
2 1 0 0
0 2 0 0
J =0

0 2 1
0 0 0 2
La matriz de paso P está formada por los vectores v1 , v2 , v3 y v4 que procedemos a
calcular. Primero debemos encontrar los de la derecha, es decir, v2 y v4 . Debemos
coger dos vectores independientes de W22 que no se encuentren en W21 . Por ejemplo,
tenemos que
v2 = (0, 1, 0, 0) 6∈ W21 y v4 = (0, 0, 0, 1) 6∈ W21 .
Y claramente, v2 y v4 pertenecen a W22 .
Calculamos ahora v1 y v3 :

v1 = (A − 2I)v2 = (1, 0, 1, 0).

v3 = (A − 2I)v4 = (−1, 1, 0, 0).


Por lo que la matriz de paso es
 
1 0 −1 0
0 1 1 0
P =
1

0 0 0
0 0 0 1

Se concluye que
J = P −1 AP,
es decir,
   −1   
2 1 0 0 1 0 −1 0 3 1 −1 −1 1 0 −1 0
0 2 0 0 0
  1 1 0 0
  2 0 1  0
  1 1 0

0 = 
0 2 1 1 0 0 0 1 1 1 0  1 0 0 0
0 0 0 2 0 0 0 1 0 0 0 2 0 0 0 1

— 47 —

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10679672

2.3. Forma canónica de Jordan C. Bejines

— 48 —

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10679672

Capítulo 3

Espacio afín y euclídeo

En este capítulo, exploraremos el espacio afín euclídeo, que combina las ideas
del espacio afín y el espacio euclídeo. Estudiaremos las propiedades y operaciones
básicas del espacio afín, así como la estructura métrica del espacio euclídeo. Veremos
cómo las coordenadas y la métrica se combinan para describir de manera precisa las
propiedades espaciales.

3.1. Espacio euclídeo


En esta sección, nos enfocaremos en el producto escalar y el espacio euclídeo.
Aprenderemos sobre su definición y propiedades, y cómo se utiliza para medir
magnitudes y ángulos entre otras técnicas.

3.1.1. Producto escalar


Definición 3.1. Sea V un espacio vectorial real. Se define un producto escalar
h, i : V × V −→ R como una forma bilineal simétrica y definida positiva, es decir,
 Para todo u, v, w ∈ V y λ, µ ∈ R,

hu, λv + µwi = λhu, vi + µhu, wi.

 Para todo u, v, w ∈ V y λ, µ ∈ R,

hλu + µv, wi = λhu, wi + µhv, wi.

 Para todo u, v ∈ V ,
hu, vi = hv, ui.

 Para todo u ∈ V no nulo,


hu, ui > 0.

49

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10679672

3.1. Espacio euclídeo C. Bejines

Definición 3.2. Un espacio euclídeo es un espacio vectorial real V junto con un


producto escalar h, i : V × V −→ R.

Nota 3.3. Tanto en la definición de producto escalar como de espacio euclídeo,


hemos utilizado el cuerpo de los números reales como escalares. Sin embargo, es
posible generalizar el concepto usando como escalares un cuerpo genérico K.

Ejemplo 3.4. A continuación, mostramos tres ejemplos de espacios euclídeos


(V, h, i).

 Si V = Rn , un ejemplo es el producto escalar usual,


n
X
h(x1 , x2 , . . . , xn ), (y1 , y2 , . . . , yn )i = xi y i .
i=1

El producto escalar usual de vectores nos proporciona una herramienta


fundamental para medir relaciones y propiedades geométricas en el espacio
tridimensional (longitudes, ángulos, proyecciones,etc.). Además, se utiliza en
muchas áreas de la física y las matemáticas, como la mecánica clásica, el cálculo
vectorial y la geometría analítica.

 Si V = Rn [x], un ejemplo es el producto escalar de Hermitian,

Z b
hp(x), q(x)i = p(x) · q(x) dx
a

donde q(x) representa el conjugado complejo de q(x), y la integral se realiza


sobre el intervalo [a, b].
Este producto escalar es ampliamente utilizado en áreas como el análisis de
señales, la teoría de la información y la teoría de la aproximación para medir
similitudes y distancias entre polinomios complejos.

 Si V = Mn (R), un ejemplo es el producto escalar de Frobenius,

n X
X m
hA, Bi = aij · bij
i=1 j=1

donde A = (aij ) y B = (bij ) son matrices del mismo tamaño.


Este producto escalar es útil en aplicaciones como la comparación de similitud
o distancia entre matrices, y en la formulación de problemas de optimización
y análisis de matrices.

— 50 —

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10679672

3.1. Espacio euclídeo Universidad de Málaga

3.1.2. Norma y ángulo


Definición 3.5. Sea (V, h, i) un espacio euclídeo, se define la norma de u como
p
kuk = hu, ui.

A la norma de un vector, también se le conoce como módulo o longitud. Decimos


que u ∈ Rn es unitario si su norma es igual a 1.
Proposición 3.6. Sea (V, h, i) un espacio euclídeo y u ∈ V , el vector
1
u0 = u
kuk
es unitario y tiene la misma dirección que u.
El ángulo entre dos vectores en el espacio euclídeo se puede definir utilizando el
producto escalar.
Definición 3.7. Sea (V, h, i) un espacio euclídeo y u, v ∈ V . Se define el ángulo
entre u y v como aquel θ ∈ [0, π] que cumple la siguiente fórmula:

hu, vi
cos(θ) = (3.1)
kukkvk
Esta igualdad nos permite determinar el ángulo entre dos vectores utilizando el
producto escalar y nos proporciona una medida precisa de la orientación relativa de
los vectores en el espacio euclídeo. Equivalentemente, la fórmula puede reescribirse
como
hu, vi = kukkvk cos(θ).
Ejemplo 3.8. Consideremos el espacio euclídeo formado por el espacio vectorial
real R2 y el producto escalar usual h, i. Vamos a determinar qué ángulo α forman
los siguientes vectores:
u = (2, 1) v = (1, 3)
Aplicando la fórmula (3.1), obtenemos que

hu, vi 5 1
cos(α) = =√ √ =√
kukkvk 5 10 2
π
Por lo tanto, α = 4
. Gráficamente lo podemos comprobar usando Geogebra (ver
Figura 3.1).
Teniendo en cuenta que −1 ≤ cos(θ) ≤ 1, se obtiene la desigualdad de Cauchy-
Schwarz. A partir de las propiedades de los triángulos, se obtiene la desigualdad
triangular.

— 51 —

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10679672

3.1. Espacio euclídeo C. Bejines

Figura 3.1: El ángulo entre u y v.

Teorema 3.9. Sea (V, h, i) un espacio euclídeo y u, v ∈ V . Se cumplen las siguientes


desigualdades.

1. Desigualdad de Cauchy-Schwarz:

|hu, vi| ≤ kukkvk.

2. Desigualdad triangular:

ku + vk ≤ kuk + kvk.

3.1.3. Ortogonalidad
Definición 3.10. Sea (V, h, i) un espacio euclídeo y u, v ∈ V . Decimos que u es
ortogonal a v si
hu, vi = 0.

Debido a la simetría del producto escalar, si u es ortogonal a v, entonces v es


ortogonal a u.

Nota 3.11. En geometría, los términos ortogonal y perpendicular a menudo


se utilizan indistintamente para describir la relación de 90 grados entre objetos
matemáticos. Sin embargo, ortogonal se refiere a la relación entre vectores que son
mutuamente perpendiculares, mientras que perpendicular se utiliza específicamente
para describir la relación entre líneas, planos o elementos geométricos que forman
un ángulo recto de 90 grados.

Definición 3.12. Sea (V, h, i) un espacio euclídeo y S ⊆ V .

— 52 —

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10679672

3.1. Espacio euclídeo Universidad de Málaga

 Diremos que S es un conjunto ortogonal si dados u, v ∈ S, tenemos que


hu, vi = 0 para todo u 6= v.

 Diremos que S es un conjunto ortonormal si S es un conjunto ortogonal y


cada vector u ∈ S es unitario.

 Diremos que S es una base ortogonal si S es una base y un conjunto


ortogonal.

 Diremos que S es una base ortonormal si S es una base y un conjunto


ortonormal.

Ejemplo 3.13. Consideremos el espacio euclídeo (R3 , h, i) con el producto escalar


usual. Consideremos los siguientes conjuntos:

S1 = {(1, 1, 0), (0, 3, 2)}, S2 = {(0, 1, 0), (1, 0, 0)}

S3 = {(1, 2, 3), (0, 2, 5), (0, 0, −1)}


Tenemos que S1 no es un conjunto ortogonal porque sus vectores no son ortogonales.
Por otro lado, S2 es un conjunto ortonormal porque sus vectores son ortogonales
entre sí y a su vez, también son unitarios. Sin embargo, S2 no es base de R3 .
Por último, S3 es una base porque los tres vectores forman una base pero no son
ortogonales dos a dos.

Definición 3.14. Sea (V, h, i) un espacio euclídeo y W un subespacio vectorial de


V . El complemento ortogonal de W se denota por W ⊥ y se define como

W ⊥ := {u ∈ V | hw, ui = 0, para todo w ∈ W }.

Nota 3.15. Gracias a la simetría del producto escalar, es importante destacar la


diferencia con el concepto de ortogonalidad definido para formas bilineales. En el
caso de las formas bilineales, la noción de ortogonalidad requería una definición tanto
por la izquierda como por la derecha (ver definición ??). Sin embargo, en el contexto
de los espacios euclídeos, esta simetría del producto escalar permite simplificar la
definición del complemento ortogonal y considerar únicamente la condición hw, ui =
0 para todo w en W . Esto simplifica el proceso y proporciona una relación más
directa entre el subespacio W y su complemento ortogonal W ⊥ .

Ejemplo 3.16. Consideremos el espacio euclídeo (R3 , h, i) con el producto escalar


usual y el subespacio vectorial W definido por

W ≡ x − y + 2z = 0.

— 53 —

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10679672

3.1. Espacio euclídeo C. Bejines

El complemento ortogonal W ⊥ es
W ⊥ = {u ∈ R3 | hw, ui = 0, para todo w ∈ W }.
Una base de W es B = {(1, 1, 0), (2, 0, −1)}, luego cualquier vector w ∈ W es una
combinación lineal de ellos, es decir,
w = a(1, 1, 0) + b(2, 0, −1) para algún a, b ∈ R.
Buscamos los vectores (x, y, z) ∈ R3 que sean ortogonales a todo w ∈ W , es decir,
ha(1, 1, 0) + b(2, 0, −1), (x, y, z)i = 0,
para todo a, b ∈ R. Aplicando las propiedades del producto escalar, podemos
simplificar y obtener que la igualdad
ah(1, 1, 0), (x, y, z)i + bh(2, 0, −1), (x, y, z)i = 0
debe ser cierta para todo a, b ∈ R. En particular, si para a = 1 y b = 0 tenemos la
igualdad
h(1, 1, 0), (x, y, z)i = 0.
Análogamente, para a = 0 y b = 1, tenemos la igualdad
h(2, 0, −1), (x, y, z)i = 0.
Por lo tanto, concluimos que W ⊥ es

⊥ x + y = 0
W ≡
2x − z = 0
Proposición 3.17. Sea (V, h, i) un espacio euclídeo y W un subespacio vectorial de
V . Entonces,
 La intersección de W y W ⊥ es el vector nulo, es decir,
W ∩ W ⊥ = {~0}.

 La suma de W y W ⊥ es el espacio vectorial V , es decir,


W + W ⊥ = V.

 A partir de los dos apartados anteriores, se concluye que W y W ⊥ son


subespacios suplementarios, es decir,
W ⊕ W ⊥ = V.
Como consecuencia, todo vector v ∈ V , puede expresarse como
v = w1 + w2 ,
donde w1 ∈ W y w2 ∈ W ⊥ .

— 54 —

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10679672

3.1. Espacio euclídeo Universidad de Málaga

3.1.4. Proyección ortogonal


La proyección ortogonal de un vector sobre un subespacio conserva la dirección
del vector original, pero lo proyecta sobre el subespacio de manera perpendicular.

Definición 3.18. Sea (V, h, i) un espacio euclídeo y u, v ∈ V . Se define la


proyección ortogonal de v sobre u como

hu, vi
proyu (v) := u.
hu, ui

Proposición 3.19. Consideremos un espacio euclídeo (V, h, i). Si u, v ∈ V , entonces

v = proyu (v) + (v − proyu (v)).

Además, proyu (v) y (v − proyu (v)) son ortogonales entre sí.

A continuación, mostramos cómo es la proyección de un vector sobre un


subespacio.

Definición 3.20. Consideremos un espacio euclídeo (V, h, i) y U un subespacio


vectorial de V . Si v ∈ U y B = {u1 , . . . , uk } es una base ortogonal de U , se define
la proyección ortogonal de v sobre U como
k k
X X hui , vi
proyU (v) = proyui (v) = ui . (3.2)
i=1 i=1
hui , ui i

Nota 3.21. Si v ∈ U , entonces proyU (v) = v.

Ejemplo 3.22. Consideremos un espacio euclídeo (R3 , h, i junto con el producto


escalar usual. Vamos a calcular la proyección ortogonal de v = (5, −1, 2) sobre el
subespacio 
W ≡ L (1, 1, 0), (0, 0, 2) .
Tenemos que BW = {(1, 1, 0), (0, 0, 2)} es una base de W que es ortogonal porque

h(1, 1, 0), (0, 0, 2)i = 1 · 0 + 1 · 0 + 0 · 2 = 0.

Por lo tanto,

h(1, 1, 0), (5, −1, 2)i h(0, 0, 2), (5, −1, 2)i
proyW (5, −1, 2) = (1, 1, 0) + (0, 0, 2),
h(1, 1, 0), (1, 1, 0)i h(0, 0, 2), (0, 0, 2)i
equivalentemente,
4 4
proyW (5, −1, 2) = (1, 1, 0) + (0, 0, 2) = (2, 2, 2).
2 4

— 55 —

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10679672

3.1. Espacio euclídeo C. Bejines

Proposición 3.23. Sea (V, h, i) un espacio euclídeo, U un subespacio vectorial de


V y v ∈ V . El vector de U más próximo a v es la proyección de v sobre U .
Si tenemos una base ortonormal, teniendo en cuenta la fórmula (3.2), obtenemos
el siguiente resultado.
Proposición 3.24. Sea (V, h, i) un espacio euclídeo, y B = {u1 , u2 , . . . , un } una
base ortonormal de V . La combinación lineal de u ∈ V en la base B es
u = λ1 u1 + λ2 u2 + · · · + λn un .
donde λi = hu, ui i. En otras palabras, el cálculo de las coordenadas de u en la base
B se puede determinar a partir del producto escalar.

3.1.5. Método de Gram-Schmidt


El método de Gram-Schmidt es una técnica utilizada para obtener una base or-
togonal o ortonormal a partir de una base arbitraria de un subespacio vectorial. Este
método permite construir una base de vectores que son mutuamente perpendiculares
(ortogonales) o incluso ortonormales, lo que simplifica muchos cálculos y análisis en
álgebra lineal. El proceso de Gram-Schmidt se realiza iterativamente, definiendo
nuevos vectores a partir de los vectores originales y las proyecciones ortogonales.
Método de Gram-Schmidt: Consideremos un espacio euclídeo (V, h, i), un
subespacio vectorial W ⊆ V y una base BW = {u1 , u2 , . . . , uk } de W . El método
de Gram-Schmidt se estructura en siguientes pasos para determinar los vectores de
una nueva base:

e1 = u1 ,
e2 = u2 − proye1 (u2 ),
e3 = u3 − proye1 (u3 ) − proye2 (u3 ),
.. .
. = ..
= un − k−1
P
ek i=1 proyei (uk ).
Siguiendo estas pautas, obtenemos una base ortogonal {e1 , e2 , . . . , ek } para W .
Si queremos una base ortonormal, normalizamos cada vector dividiéndolo por su
norma para que tenga longitud 1 y la misma dirección, es decir, si e0i = keeii k . De esta
forma, el conjunto {e01 , e02 , . . . , e0k } es una base ortonormal de W .
Ejemplo 3.25. Consideremos el espacio vectorial euclídeo R3 con el producto
escalar usual y el subespacio vectorial W ≡ h(1, −1, 0), (1, 0, −1)i. Para obtener
una base ortonormal de W podemos aplicar el método de Gram-Schmidt a la base
BW = {(1, −1, 0), (1, 0, −1)}.

e1 = (1, −1, 0),


h(1,−1,0),(1,0,−1)i
e2 = (1, 0, −1) − h(1,−1,0),(1,−1,0)i
· (1, −1, 0) = ( 12 , 12 , −1)

— 56 —

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10679672

3.1. Espacio euclídeo Universidad de Málaga

Por lo que el conjunto {(1, −1, 0), ( 21 , 12 , −1)} es una base ortogonal de W . Para
conseguir una base ortonormal, procedemos a normalizar cada uno de los vectores:

(1, −1, 0) → ( √12 , − √12 , 0)


( 12 , 12 , −1) → ( √16 , √16 , − √26 )

Se concluye que una base ortonormal de W es {( √12 , − √12 , 0), ( √16 , √16 , − √26 )}.

3.1.6. Diagonalización ortogonal


La diagonalización ortogonal es un proceso de diagonalización mediante el cual
una matriz se descompone en una forma más simple y útil. Consiste en encontrar
un conjunto de autovectores de la matriz que son ortogonales entre sí. Estos
autovectores se normalizan para tener una longitud de 1 y luego se utilizan para
formar una matriz de paso P , que es una matriz ortogonal (su inversa coincide con su
traspuesta). Como es sabido, la matriz diagonal está compuesta por los autovalores.
Esta diagonalización permite simplificar operaciones matriciales y facilita el análisis
y resolución de problemas en diversas áreas, como la mecánica cuántica, el análisis
de estructuras y el procesamiento de señales.
Definición 3.26. Sea A ∈ Mn (R). Decimos que A es una matriz ortogonal si su
inversa es su traspuesta, es decir, A−1 = At .
Proposición 3.27. Sea P ∈ Mn (R). Las siguientes afirmaciones sin equivalentes:
1. P es una matriz ortogonal.

2. Las columnas de P son vectores unitarios y mutuamente ortogonales.

3. Las filas de P son vectores unitarios y mutuamente ortogonales.


Definición 3.28. Sea A ∈ Mn (R). Decimos que A es diagonalizable ortogonal-
mente si existe una matriz diagonal D y una matriz ortogonal P tal que

D = P t AP

Nota 3.29. Trivialmente, si una matriz es diagonalizable ortogonalmente, entonces


es diagonalizable. Además, la elección de la matriz ortogonal P no es única, pues
depende de los autovectores escogidos y su colocación.
El siguiente resultado pone de manifiesto la importancia de las matrices
simétricas en este contexto.
Proposición 3.30. Sea A ∈ Mn (R).
 Si A es simétrica, entonces A es diagonalizable.

— 57 —

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10679672

3.1. Espacio euclídeo C. Bejines

 A es simétrica si y solo si A es diagonalizable ortogonalmente.


Si queremos diagonalizar ortogonalmente una matriz simétrica A, debemos
diagonalizarla teniendo en cuenta que los autovectores de la matriz de paso P
deben ser ortogonales entre sí. El siguiente resultado nos indica que los autovectores
asociados a distintos autovalores son siempre ortogonales.
Proposición 3.31. Sea A ∈ Mn (R) y λ1 , λ2 dos autovalores de A. Si A es simétrica,
entonces dos autovectores cualesquiera asociados a λ1 y λ2 respectivamente, son
ortogonales entre sí.
Este resultado es de suma importancia y tiene una consecuencia directa: si todos
los autovalores son distintos entre sí, la matriz de paso P , obtenida durante el
proceso de diagonalización de una matriz simétrica, estará compuesta por vectores
ortogonales.
Sin embargo, cuando tenemos algún autovalor con una multiplicidad algebraica
mayor a 1, no podemos garantizar que los autovectores asociados sean ortogonales.
En estos casos, podemos aplicar el método de Gram-Schmidt para obtener una
base ortogonal del subespacio vectorial correspondiente a dicho autovalor. De esta
forma, todos los vectores de la matriz P serán ortogonales entre sí. Esta técnica
nos permite mantener la propiedad de ortogonalidad, incluso en situaciones donde
la matriz simétrica presenta autovalores repetidos.
Para acabar la sección, veamos un ejemplo de diagonalización ortogonal.
Ejemplo 3.32. Vamos a diagonalizar ortogonalmente la siguiente matriz:
 
3 −2 4
A =  −2 6 2 
4 2 3
Como A es simétrica, acorde a la proposición 3.30 podemos asegurar que A
es diagonalizable ortogonalmente. Primero, calculamos los autovalores haciendo el
determinante de A − λI,
|A − λI|= −λ3 + 12λ2 − 21λ − 98
Aplicando el método de Ruffini, obtenemos que las tres raíces de dicho polinomio
son 7, 7, −2. Ahora vamos a calcular los subespacios de autovectores asociados al
autovalor 7 y al autovalor −2, es decir,
W7 = Ker(A − 7I) W−2 = Ker(A + 2I)
1. Para W7 , tenemos
    
−4 −2 4 x 0
 −2 −1 2   y  =  0 
4 2 −4 z 0

— 58 —

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10679672

3.1. Espacio euclídeo Universidad de Málaga

Si escalonamos la matriz y simplificamos, nos queda que W7 está formado por


los autovectores que cumplen la siguiente ecuación cartesiana

W7 ≡ 2x + y − 2z = 0.

Equivalentemente, W7 = L (1, 0, 1), (1, −2, 0)
2. Para W−2 , tenemos
    
5 −2 4 x 0
 −2 8 2   y  =  0 
4 2 5 z 0
Si escalonamos la matriz y simplificamos, nos queda el siguiente sistema de
ecuaciones lineales equivalente:
    
1 0 1 x 0
 0 1 1  y  =  0 
2
0 0 0 z 0

Por lo tanto, W−2 = L (2, 1, −2)
Ya tenemos tres autovectores, dos para el autovalor 7 y uno para el autovalor
−2. Gracias a la proposición 3.31, sabemos que los autovectores asociados a
distintos autovalores son ortogonales. Sin embargo, no podemos afirmar que los
autovectores correspondientes al autovalor 7 sean ortogonales entre sí. De hecho,
estos autovectores no son ortogonales como comprobamos a continuación:

h(1, 0, 1), (1, −2, 0)i = 1 6= 0.

Para considerar dos autovectores que generen el mismo subespacio vectorial,


podemos recurrir al proceso de Gram-Smidth.
e1 = (1, 0, 1)
e2 = (1, −2, 0) − proy(1,0,1) (1, −2, 0)

Desarrollando e2 , tenemos que


h(1,0,1),(1,−2,0)i
e2 = (1, −2, 0) − h(1,0,1),(1,0,1)i
(1, 0, 1)

= (1, −2, 0) − 12 (1, 0, 1)

= ( 12 , −2, − 21 )
Esto implica que

W7 = L (1, 0, 1), (1, −2, 0) = L ((1, 0, 1), (1, −4, −1))

— 59 —

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10679672

3.2. Espacio afín C. Bejines

Merece la pena apreciar que el vector e2 ha sido multiplicado por 2 para eliminar las
fracciones. Como sabemos, esto no cambia la dirección del vector. Para construirnos
la matriz ortogonal P , los autovectores también deben ser unitarios, por lo que los
normalizamos. √
k(1, 0, 1)k = √2
k(1, −4, −1)k = 3 2
k(2, 1, −2)k = 3
Se concluye que la matriz ortogonal P y la matriz diagonal D son
 1 1 2

√ √
 
2 3 2 3 7 0 0
P =  0 3−4 √ 1 
D= 0 7 0 

2 3 
√1 −1
√ −2 0 0 −2
2 3 2 3

En la figura 3.2, se comprueba con el programa R que la matriz P es ortogonal


y que se cumple la igualdad D = P t AP .
Una matriz que no es simétrica puede diagonalizarse, pero no necesariamente de
manera ortogonal. La diagonalización de una matriz implica encontrar una matriz
diagonal D y una matriz regular P tal que D = P −1 AP , donde A es la matriz
original.
Las matrices simétricas tienen una propiedad especial: todos sus autovalores son
reales y sus autovectores asociados son ortogonales entre sí. Esto significa que si
diagonalizamos una matriz simétrica, podemos encontrar una matriz P formada por
autovectores ortogonales y unitarios, la cual es precisamente la matriz ortogonal que
buscamos.
Sin embargo, para una matriz no simétrica, los autovalores pueden ser complejos
y los autovectores asociados no necesariamente son ortogonales. En este caso, aún
podemos diagonalizar la matriz, pero la matriz P que contiene los autovectores ya no
es necesariamente ortogonal. De hecho, la diagonalización de una matriz no simétrica
involucra una matriz de paso P que puede ser invertible pero no necesariamente
ortogonal.
En resumen, una matriz no simétrica puede diagonalizarse, pero su diagonali-
zación no implica una matriz ortogonal P , a diferencia de las matrices simétricas
donde esto es posible gracias a la propiedad especial de sus autovectores.

3.2. Espacio afín


El espacio afín es un concepto fundamental en geometría que estudia la relación
entre puntos y vectores. Se compone de un conjunto de puntos y un espacio
vectorial asociado. Los puntos pueden desplazarse mediante vectores, lo que permite
representar traslaciones. El espacio afín no tiene un punto de origen fijo y se centra
en las propiedades intrínsecas de los puntos y vectores.

— 60 —

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10679672

3.2. Espacio afín Universidad de Málaga

# Código de R
library ( pracma ) # librería necesaria
# Escribimos la matriz A
A <- matrix (c(3,-2,4,-2,6,2,4,2,3),
nrow = 3, ncol = 3, byrow = TRUE )
# Escribimos la matriz P
P <- matrix (c(1/sqrt(2),(1)/(3*sqrt(2)),2/3,
0,-4/(3*sqrt(2)),1/3,
1/sqrt(2),-1/(3*sqrt(2)),-2/3),
nrow = 3, ncol = 3, byrow = TRUE )
print(P) # la matriz ortogonal P

## [,1] [,2] [,3]


## [1,] 0.7071068 0.2357023 0.6666667
## [2,] 0.0000000 -0.9428090 0.3333333
## [3,] 0.7071068 -0.2357023 -0.6666667
# Vamos a comprobar que los vectores columna son unitarios y ortogonales entre sí.
sqrt(sum(P[,1]*P[,1])) # norma del vector columna 1.

## [1] 1
sqrt(sum(P[,2]*P[,2])) # norma del vector columna 2.

## [1] 1
sqrt(sum(P[,3]*P[,3])) # norma del vector columna 3.

## [1] 1
sum(P[,1]*P[,2]) # producto escalar del vector columna 1 y 2.

## [1] 0
sum(P[,1]*P[,3]) # producto escalar del vector columna 1 y 3.

## [1] 0
sum(P[,2]*P[,3]) # producto escalar del vector columna 2 y 3.

## [1] 0
round( inv(P), digits = 7) # la inversa de P. Se aprecia que es la traspuesta de P.

## [,1] [,2] [,3]


## [1,] 0.7071068 0.0000000 0.7071068
## [2,] 0.2357023 -0.9428090 -0.2357023
## [3,] 0.6666667 0.3333333 -0.6666667
#Comprobamos que D = Pˆt * A * P.
round( t(P) %*% A %*% P, digits = 7 ) # t(P) denota a la traspuesta de P.

## [,1] [,2] [,3]


## [1,] 7 0 0
## [2,] 0 7 0
## [3,] 0 0 -2
Figura 3.2: Comprobación de que P es una matriz ortogonal y que se cumple la
igualdad D = P t AP en el ejemplo 3.2

— 61 —

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10679672

3.2. Espacio afín C. Bejines

3.2.1. Nociones básicas: Puntos, subespacios y distancias


Definición 3.33. Un espacio afín es un conjunto no vacío A, un espacio vectorial
V y una función f : A × A −→ V que verifica

 Para todo P, Q, R ∈ A, se tiene que f (P Q) + f (QR) = f (P R).

 Si P ∈ A y v ∈ V , entonces existe un único Q ∈ A tal que f (P Q) = v.

A los elementos de A se les llama puntos. De manera simplificada, se usa


f (P Q) = P Q. Esta notación nos permite describir de manera concisa las relaciones
entre puntos y vectores en el espacio afín. En concreto, si consideramos dos puntos
P y Q pertenecientes al espacio afín A, el vector P Q representa el desplazamiento
desde el punto P hasta el punto Q.

En general, a un espacio afín (A, V, f ) lo denotaremos por A.

Ejemplo 3.34. Tomemos el conjunto A = R3 y el espacio vectorial V = (R3 , +, ·)


sobre el cuerpo R. Aunque estos conjuntos son los mismos, se destaca que V posee
una estructura algebraica. Si a cada par de puntos P = (x, y, z) y Q = (x0 , y 0 , z 0 ), la
función f : A × A −→ V asigna el vector (x0 − x, y 0 − y, z 0 − z), obtenemos el espacio
afín R3 .

Definición 3.35. Sea A un espacio afín. Se define la dimensión del espacio afín
como la dimensión del espacio vectorial V asociado a A, es decir, el número de
elementos de una base de V .

Definición 3.36. Sea A un espacio afín y U ⊆ A. Diremos que U es subespacio


afín, o variedad afín, si existe un punto P y un subespacio vectorial W tal que
U = P + W , donde

P + W := {P + w | w ∈ W } = {Q | P Q = w, para algún w ∈ W },

Si B es una base de W , diremos que los vectores de B son los vectores de dirección
de U .

La idea es que los subespacios afines son traslaciones de los subespacios


vectoriales.

Teorema 3.37. Sea A un espacio afín y U ⊆ A un subespacio afín tal que U =


P + W.

1. Si los puntos P, Q ∈ U , entonces el vector P Q pertenece al subespacio vectorial


asociado, es decir, P Q ∈ W .

2. Si Q ∈ U , entonces U = P + W = Q + W .

— 62 —

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10679672

3.2. Espacio afín Universidad de Málaga

3. Si U = P +W = P +W 0 para otro subespacio vectorial W 0 , entonces W = W 0 .


Por consiguiente, sus bases canónicas coinciden.

Definición 3.38. Sea A un espacio afín y S ⊆ A un conjunto de puntos. El menor


subespacio afín que contenga a S es llamado subespacio afín generado por S y
se denota por L(S). Si S = {P1 , P2 , . . . , Pk }, entonces
L(S) := P1 + L(P1 P2 , P1 P3 , . . . , P1 Pk ).
Definición 3.39. Sea A un espacio afín y U1 , U2 dos subespacios afines. El menor
subespacio afín que contenga a U1 y a U2 es llamado subespacio suma de U1 y U2 ,
es decir, U1 + U2 .
Proposición 3.40. Sea A un espacio afín y U1 = P + W1 y U2 = Q + W2 dos
subespacios afines.
1. Si U1 ∩ U2 6= ∅, entonces
U1 + U2 = R + (W1 + W2 )
donde el punto R ∈ U1 ∩ U2 .
2. Si U1 ∩ U2 = ∅, entonces
U1 + U2 = S + (hP Qi + W1 + W2 )
donde el punto S ∈ U1 ∪ U2 .
Teorema 3.41. Sea A un espacio afín y U1 y U2 dos subespacios afines con
intersección no vacía. Entonces,
dim(U1 + U2 ) = dim(U1 ) + dim(U2 ) − dim(U1 ∩ U2 ).
Cuando el espacio vectorial asociado al espacio afín posea una estructura
euclidiana, lo que implica que cuenta con un producto escalar, diremos que tenemos
un espacio afín euclideo. En este contexto, es posible definir distancias entre puntos
del espacio afín.
Definición 3.42. Sea A un espacio afín euclídeo con producto escalar h, i. Definimos
la distancia entre dos puntos P y Q como la norma del vector P Q, es decir,
p
d(P, Q) := kP Qk= hP Q, P Qi. (3.3)
Ejemplo 3.43. Consideremos el espacio afín euclideo R2 con el producto escalar
usual. Vamos a calcular la distancia entre el punto P (1, 1) y Q(5, 4) de la figura 3.3.
p
kP Qk= h(4, 3), (4, 3)i = 5.

— 63 —

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10679672

3.2. Espacio afín C. Bejines

Figura 3.3: La distancia entre P y Q.

Nota 3.44. La fórmula (3.3) para calcular la distancia entre dos puntos en un
espacio afín euclideo se basa en el mismo principio que el teorema de Pitágoras,
donde los cuadrados de las longitudes de los lados se suman para obtener la longitud
de la hipotenusa en un triángulo rectángulo.

Proposición 3.45. Sea A un espacio afín euclideo y P, Q, R ∈ A. Se verifican las


siguientes propiedades.

 d(P, Q) = 0 si y solo si P = Q.

 d(P, Q) = d(Q, P ).

 d(P, R) ≤ d(P, Q) + d(Q, R).

Definición 3.46. Sea A un espacio afín euclideo y U1 , U2 dos subespacios afines.


Definimos la distancia entre U1 y U2 de la siguiente forma:

d(U1 , U2 ) := mı́n{d(P, Q) | P ∈ U1 , Q ∈ U2 }

Trivialmente, si dos subespacios afines se cortan, su distancia es cero.

3.2.2. Ecuaciones paramétricas y cartesianas


Teniendo en cuenta los conceptos y propiedades de los espacios vectoriales, pode-
mos determinar tanto las ecuaciones paramétricas como las ecuaciones cartesianas
de un subespacio afín.
Para obtener las ecuaciones paramétricas de un subespacio afín U , primero
debemos identificar su dimensión y elegir un punto P ∈ U . Luego, expresamos
el subespacio afín U como la suma de P y un subespacio vectorial asociado W . Por

— 64 —

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10679672

3.2. Espacio afín Universidad de Málaga

otro lado, para obtener las ecuaciones cartesianas de un subespacio afín, eliminamos
los parámetros de las ecuaciones paramétricas y expresamos el sistema resultante en
términos de ecuaciones lineales.
Ejemplo 3.47.  Consideremos el espacio afín R4 , el subespacio vectorial W =
L (2, 0, 1, 0) y el punto P = (1, 1, 0, 3). El subespacio afín U = P + W es

U = (1, 1, 0, 3) + L (2, 0, 1, 0) .
Por lo tanto, su dimensión es 1 ya que la base del subespacio vectorial asociado tiene
un único elemento. Sus ecuaciones paramétricas son:
x = 1 + 2λ
y = 1
z = λ
t = 3
Podemos obtener las ecuaciones cartesianas eliminando los parámetros de las
ecuaciones paramétricas. Como tiene dimensión 1, se obtienen las siguientes tres
ecuaciones cartesianas:
x − 2z = 1
y = 1
t = 3
Ejemplo 3.48. Consideremos
 el espacio afín R3 , el subespacio vectorial W =
L (1, 1, 1), (0, 1, −1) y el punto P = (1, 2, 3). El subespacio afín U = P + W
es
U = (1, 2, 3) + h(1, 1, 1), (0, 1, −1)i.
Como el subespacio vectorial W tiene dimensión 2, la dimensión de U es 2. Sus
ecuaciones paramétricas son:
x = 1+α
y = 2+α+β
z = 3+α−β
Podemos eliminar los parámetros de las ecuaciones paramétricas para obtener las
ecuaciones cartesianas. Dado que dim(U ) = 2 y estamos en el espacio afín R3 , se
obtiene una única ecuación cartesiana al hacer que el sistema de ecuaciones lineales
sea compatible:
     
x−1 1 0 x−1 1 0 x−1 1 0
 y−2 1 1 → y−x−1 0 1 → y−x−1 0 1 
z − 3 1 −1 z − x − 2 0 −1 z + y − 2x − 3 0 0
Para que el sistema de ecuaciones lineales sea compatible, se debe cumplir
z + y − 2x − 3 = 0,
la cual es la ecuación cartesiana buscada.

— 65 —

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10679672

3.2. Espacio afín C. Bejines

3.2.3. Sistema de referencia


En un espacio afín, un sistema de referencia consiste en un punto de origen
O y una base B del espacio vectorial asociado que definen los direcciones y
magnitudes de los ejes del sistema de coordenadas. Las coordenadas se expresan
como combinaciones lineales de los vectores de base y representan las medidas en
cada dimensión. Formalmente, tenemos la siguiente definición.
Definición 3.49. Sea A un espacio afín, O ∈ A y B una base del espacio vectorial
asociado. Diremos que el par {O, B} es un sistema de referencia, donde al
punto O lo llamaremos origen del sistema de referencia. Si P ∈ A, definimos las
coordenadas del punto P en el sistema de referencia {O, B} como las coordenadas
del vector OP en la base B.
La principal idea de un sistema de referencia es establecer una estructura y
una forma sistemática de describir y ubicar puntos en un espacio afín. Proporciona
un marco de trabajo para la medición, la representación gráfica, la realización de
cálculos y el análisis de relaciones espaciales entre objetos.
Nota 3.50. En el espacio afín Rn , si tomamos como origen el punto O(0, 0, . . . , 0)
y la base canónica BC , entonces {O, BC } es llamado sistema de referencia canónico.
Ejemplo 3.51. Consideremos el espacio afín R2 y el sistema de referencia R =
{O, B}, donde O = (1, 2) y B = {u, v} = {(−1, 2), (1, 1)} (ver figura 3.4). Vamos a
calcular las coordenadas del punto P (0, 1) en R. Para ello, vamos a determinar las
coordenadas del vector OP = (−1, −1) en la base B. Tenemos que,

(−1, −1) = λ1 (−1, 2) + λ2 (1, 1)

obteniendo el sistema de ecuaciones lineales


−λ1 + λ2 = −1
2λ1 + λ2 = −1

Tras resolverlo, obtenemos que λ1 = 0 y λ2 = −1, por lo que las coordenadas del
punto P en R son (0, −1).
Considerando que los vectores u y v definen los ejes del sistema de referencia
R, podemos visualmente determinar las coordenadas de otros puntos, como Q(5, 3),
R(−2, 5) y S(2, 6) (ver Figura 3.5). Observando de manera visual, encontramos que
las coordenadas de esos puntos son (−1, 3)R , (2, −1)R y (1, 2)R respectivamente.

3.2.4. Posición relativa


En general, analizar la posición relativa de dos subespacios afines nos proporciona
información valiosa sobre su relación espacial y nos permite comprender mejor las

— 66 —

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10679672

3.2. Espacio afín Universidad de Málaga

Figura 3.4: Sistema de referencia Figura 3.5: Ejes del sistema de referencia

propiedades y características de los subespacios en estudio. Esto es fundamental en


muchas áreas de las matemáticas, la física y la ingeniería, y nos ayuda a resolver
problemas y tomar decisiones basadas en la estructura geométrica de los subespacios
afines.
Para estudiar la posición relativa de dos subespacios afines, se pueden utilizar
varios métodos y técnicas. Aquí se presentan algunas estrategias comunes:

1. Análisis de intersección: Para determinar si los dos subespacios afines se


intersectan, se resuelve el sistema de ecuaciones que representa ambos
subespacios. Si el sistema tiene solución, significa que hay puntos en común y
los subespacios se intersectan. Si el sistema no tiene solución, los subespacios
no se intersectan.
2. Análisis de inclusión: Para verificar si un subespacio afín está contenido en
el otro, se examina si la intersección de ambos subespacios tiene la misma
dimensión que uno de ellos. Si esto se cumple, significa que el subespacio de
menor dimensión está contenido en el otro.
3. Análisis de paralelismo: Para determinar si los subespacios afines son paralelos,
se comparan los vectores de dirección de ambos subespacios. Si los vectores
de dirección son combinación lineal de los vectores de dirección del otro
subespacio, los subespacios son paralelos.
4. Análisis de ortogonalidad: Para estudiar si los subespacios afines son ortogo-
nales, se comprueba si el subespacio vectorial asociado a uno de está contenido
en el complemento ortogonal del otro.

En resumen, el estudio de la posición relativa de dos subespacios afines implica


el análisis de las ecuaciones que los describen, la comparación de los vectores

— 67 —

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10679672

3.2. Espacio afín C. Bejines

de dirección y el uso de conceptos geométricos relacionados. Dependiendo de la


dimensión de los subespacios y la información disponible, diferentes métodos y
técnicas pueden aplicarse para determinar su posición relativa.
Nota 3.52. Es significativo destacar que en un espacio tridimensional, dos planos
afines no pueden ser ortogonales. Esto se debe a cada complemento ortogonal de los
planos vectoriales asociados tiene dimensión 1, por lo que no puede contener al otro
plano vectorial. Sin embargo, diremos que dos planos son perpendiculares si sus
vectores normales son ortogonales.
Ejemplo 3.53. Consideremos el espacio afín R3 y los subespacios afines

x + 3y − z = 2
U1 ≡ 3x − 2y − 3z = 1 U2 ≡
x +z =4

Para estudiar la posición relativa de U1 y U2 analizamos su intersección, es decir,


los puntos en los que los subespacios afines se cortan. Esto es equivalente a resolver
el sistema de ecuaciones lineales no homogeneo. Tras resolverlo por Gauss-Jordan,
nos da una única solución:
51 5 37
x= y= z= .
22 11 22
Los subespacios U1 y U2 se cortan en un único punto. Como la dim(U1 ) = 2 y
dim(U2 ) = 1 y se cortan solomente en un punto, ninguno está contenido en el otro.
Como la intersección es no vacía, no pueden ser paralelos. Veamos si son ortogonales:
Una base de del subespacio vectorial asociado a U1 es

B1 = {(2, 3, 0), (0, 3, −2)}.

Una base de del subespacio vectorial asociado a U2 es

B2 = {(3, −2, −3)}.

Realizamos el producto escalar entre el vector de la base B2 con los vectores de B1 :

h(3, −2, −3), (2, 3, 0)i = 0 h(3, −2, −3), (0, 3, −2)i = 0

Por lo tanto, el subespacio afín U2 (una recta afín) es perperdicular al subespacio


afín U1 (un plano afín).

3.2.5. El espacio real R3


En esta sección, utilizaremos las herramientas y conceptos aprendidos específica-
mente en el contexto del espacio tridimensional, R3 . Aplicaremos estas herramientas
para analizar y resolver problemas relacionados con figuras y objetos en el espacio

— 68 —

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10679672

3.2. Espacio afín Universidad de Málaga

tridimensional. Al enfocarnos en R3 , podremos aprovechar las propiedades y


características únicas de este espacio para obtener resultados precisos y significativos.
Exploraremos conceptos como distancias, haces de planos, volúmenes y otras
técnicas específicas de R3 para abordar diferentes situaciones y resolver problemas
prácticos en este contexto tridimensional.

Nota 3.54. Es importante destacar que los resultados y conceptos presentados en


esta sección se pueden trasladar fácilmente al trabajar en R2 , considerando la pérdida
de una dimensión.

Una operación de gran interés en el espacio es el producto vectorial, que


toma dos vectores y devuelve un tercer vector que es perpendicular a ambos. El
producto vectorial es una operación importante en el ámbito de la geometría y
el análisis vectorial, ya que nos permite obtener un vector que es ortogonal a los
vectores originales, lo que resulta fundamental en la obtención de subespacios afines
ortogonales o el cálculo de distancias.

Definición 3.55. Se define el producto vectorial, o producto cruz, × : R3 ×


R3 −→ R3 como sigue:

i j k
0 0 0
(x, y, z) × (x , y , z ) := x y z
x0 y 0 z 0

donde los vectores i, j, k son las componentes del vector.

Ejemplo 3.56. Vamos a determinar un vector perpendicular a (1, 2, 3) y (2, 0, −1).


Para ello, aplicaremos el producto vectorial para obtener un vector perpendicular a
ambos.
i j k
(x, y, z) × (x0 , y 0 , z 0 ) := 1 2 3 = (−2, 7, −4)
2 0 −1

Proposición 3.57. Consideremos el espacio real R3 con el producto escalar usual.


Si tomamos los vectores u, v, w ∈ R3 , entonces

 Perpendicularidad: u × v es ortogonal a u y a v.

 Propiedad anticonmutativa: u × v = −v × u.

 En general, el producto vectorial no es asociativo, es decir,

(u × v) × w 6= u × (v × w).

 Propiedad distributiva: u × (v + w) = u × v + u × w.

— 69 —

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10679672

3.2. Espacio afín C. Bejines

 Área del paralelogramo que forman los vectores u y v:

A = ku × vk.

 Área del triángulo que forman los vectores u y v:


1
A = ku × vk.
2

 Volumen del paralepípedo que forman los vectores u, v y w:

V = hu, v × wi.

 Volumen del tetraedro que forman los vectores u, v y w:


1
V = hu, v × wi.
6

Nota 3.58. La operación hu, v × wi también es conocida como producto mixto y


es equivalente a hacer el determinante de los tres vectores directamente.

Ejemplo 3.59. Consideremos el espacio afín R3 con el producto escalar usual y los
puntos P (0, 0, 2), Q(3, 1, 2) y R(1, 2, 3). Vamos a calcular el área que del triángulo
que forman estos tres puntos. Para ello, construiremos los vectores P Q y P R, es
decir, dos lados del triángulo y aplicaremos la fórmula del área. Tenemos que,

P Q = (3, 1, 0) y P R = (1, 2, 1).

Por lo tanto,

i j k √
1 1 1 35
A = k(3, 1, 0) × (1, 2, 1)k= 3 1 0 = k(1, −3, 5)k=
2 2 2 2
1 2 1

En el espacio R3 , los subespacios afines se pueden clasificar en cuatro categorías


distintas en función de su dimensión. Estas categorías son:

1. Punto: Un subespacio afín de dimensión cero.

2. Recta: Un subespacio afín de dimensión uno.

3. Plano: Un subespacio afín de dimensión dos.

4. Espacio: El propio espacio R3 es un subespacio afín de dimensión tres.

— 70 —

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10679672

3.2. Espacio afín Universidad de Málaga

Figura 3.6: Haz de planos que pasan por una recta.

En diversos contextos, resulta interesante determinar todos los planos que


contienen una recta r (ver la figura 3.6). Mediante el uso de las ecuaciones cartesianas
de la recta r y aplicando las propiedades de un sistema de ecuaciones lineales, la
ecuación cartesiana de cualquier plano que contiene a r puede expresarse como una
combinación lineal de las ecuaciones cartesianas de la recta r. Esto ofrece una forma
práctica y generalizada de encontrar los diferentes planos que se intersectan con la
recta r.
Proposición 3.60. Consideremos el espacio tridimensional R3 con el producto
escalar usual y una recta arbitraria r definida por las siguientes ecuaciones:
(
a1 x + b 1 y + c 1 z + d 1 = 0
r≡
a2 x + b 2 y + c 2 z + d 2 = 0
El haz de planos que pasa por la recta r está dado por la ecuación:

λ1 (a1 x + b1 y + c1 z + d1 ) + λ2 (a2 x + b2 y + c2 z + d2 ) = 0
donde λ1 y λ2 no pueden ser ambos iguales a cero simultáneamente. Supongamos
que λ2 6= 0 y consideremos k = λ1 /λ2 . Entonces, cualquier plano π que contenga a
la recta r puede ser expresado de la siguiente forma:
π ≡ k(a1 x + b1 y + c1 z + d1 ) + a2 x + b2 y + c2 z + d2 = 0 (3.4)
La ecuación (3.4) representa el haz de planos que pasa por la recta r, donde k
puede tomar cualquier valor real excepto cuando λ2 = 0. La expresión general nos
permite representar una familia infinita de planos que contienen a la recta r.

— 71 —

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10679672

3.2. Espacio afín C. Bejines

Ejemplo 3.61. Dado el punto P (−1, 1, 0) y la recta r definida por



2x + y − z = −2
r≡
−x + 4y = 1
Vamos a determinar el plano π que contiene a la recta r y al punto P , es decir,
P ∈ π y r ⊆ π.
1. Haz de planos que contiene a r. Acorde a la fórmula (3.4), tenemos que
cualquier plano que contenga a r es de la forma
π ≡ k(2x + y − z + 2) − x + 4y − 1 = 0

2. P ∈ π. Entre todos los planos posibles, nos quedamos con aquél que cumpla
la condición deseada:
k(2 · (−1) + 1 − 0 + 2) − (−1) + 4 · 1 − 1 = 0,
por lo que k = −4. Sustituyendo el valor de k en el haz de planos, concluimos
que el plano que contiene a r y a P es
π ≡ 7x + 8y − 4z = −7.

En cuanto al cálculo de distancias, estamos familiarizados con la forma de


calcular la distancia entre dos puntos en el espacio. Sin embargo, al calcular la
distancia entre un punto P y un subespacio afín U de dimensión mayor, se utiliza
una técnica diferente basada en la definición 3.46. Buscaremos el punto Q ∈ U que se
encuentre más cerca de P . Encontrar este punto nos permitirá calcular la distancia
entre el punto P y el subespacio U .
Ejemplo 3.62. Consideremos el espacio afín R3 con el producto escalar usual, el
punto P (4, 2, 4) y el plano π ≡ 3x + 4z = 3. Nos interesa calcular la distancia entre
el punto P y el plano π, es decir, d(P, π). El punto Q ∈ π más cercano a P es la
proyección ortogonal del punto en el plano. Dado que la proyección es perpendicular
al plano, podemos considerar la recta r perpendicular al plano que pasa por P . La
intersección de la recta y el plano, nos dará Q. Una vez obtenido, podemos calcular
la distancia requerida.
1. La recta r. Su dirección es perpendicular a la base de π, por lo que podemos
tomar el vector normal del plano ~n(3, 0, 4) como vector de dirección y el punto
P para construirnos r = P + L (3, 0, 4) , es decir,

x = 4 + 3λ

r≡ y=2

z = 4 + 4λ

Otra opción para obtener el vector director de r es sacar una base del plano y
hacer el complemento ortogonal.

— 72 —

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10679672

3.2. Espacio afín Universidad de Málaga

2. Ecuaciones cartesianas de r. Para obtener el punto de intersección Q, debemos


conseguir las ecuaciones cartesianas de r.
     
3 x−4 12 4x − 16 12 4x − 16
 0 y−2 → 0 y−2 → 0 y−2 
4 z−4 12 3z − 12 0 4x − 3z − 4

Por el teorema de Rouché-Frobenius, para que el sistema sea compatible


debemos exigir que el rango de la matriz de coeficientes coincida con el rango
de la matriz ampliada. Por lo tanto, las ecuaciones cartesianas de r son:

y = 2
r≡
4x − 3z = 4

3. El punto Q. Para obtenerlo, debemos hallar la intersección π ∩ r. Al resolver


el sistema de ecuaciones lineales compuesto por las ecuaciones cartesianas de
ambos subespacios, nos queda que

π ∩ r = Q = (1, 2, 0)

4. La distancia entre el punto y el plano, d(P, π). Por último, calculamos la


distancia entre P y Q, teniendo en cuenta que P Q es el vector (−3, 0, −4).
p
d(P, π) = d(P, Q) = kP Qk = (−3)2 + 02 + (−4)2 = 5

La distancia entre el punto P y el plano π es igual a 5.

Si queremos hallar la distancia entre dos subespacios afines U1 y U2 de dimensión


mayor que cero, el proceso es análogo. Buscaremos entre todos los puntos P ∈ U1 y
Q ∈ U2 que minimicen la distancia d(P, Q).
Ejemplo 3.63. Consideremos el espacio afín R3 con el producto escalar usual y las
siguientes dos rectas afines:

x = 1 + 2λ
 
x + y + z = 1
r ≡ y =2−λ s≡
 y − z = 3
z =3+λ

Para calcular la distancia entre las rectas r y s, debemos buscar dos puntos, P ∈ r
y Q ∈ s, cuya distancia sea mínima. Si nos fijamos en la hipotética recta t que une
P y Q cuyo vector de dirección es P Q, debemos apreciar que es perpendicular a
r y s. Podemos considerar el plano π1 que contiene a la recta r y a la recta t.
Análogamente, podemos considerar el plano π2 que contiene a la recta s y a la recta
t. La intersección de ambos planos es la recta t, t = π1 ∩ π2 , la cual contiene a

— 73 —

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10679672

3.2. Espacio afín C. Bejines

los puntos P y Q. Recordemos que P ∈ r ∩ t y Q ∈ s ∩ t, por lo que al resolver


los sistemas de ecuaciones correspondientes, obtendremos los puntos P y Q. Así,
podremos hallar la distancia entre las rectas r y s midiendo la longitud del vector
P Q.
1. Vectores directores. El vector director de r es dr = (2, −1, 1). El vector director
de s es el perpendicular a los vectores normales de los planos por los que viene
intersecados, es decir, ds = (1, 1, 1) × (0, 1, −1) = (−2, 1, 1). Por último, el
vector dt es perpendicular a dr y ds , es decir, dt = dr × ds = (−2, 4, 0), el cual
podemos cambiarlo por (−1, 2, 0) ya que su dirección es la misma. En resumen,
dr = (2, −1, 1) ds = (−2, 1, 1) dt = (−1, 2, 0)

2. El plano π1 . Para construirnos este plano, escogemos un punto de r y los


vectores dr y dt . 
 x = 1 + 2λ − µ
π1 ≡ y = 2 − λ + 2µ
z = 3 + λ

Otra opción hubiese sido considerar un punto de r y el vector normal dr × dt


para construirnos así la ecuación cartesiana de π1 . Para el plano π2 lo haremos
así.
3. El plano π2 . Para construirnos este plano, escogemos un punto de s y el
vector dt × ds = (2, 1, 3), el cual será el vector normal de π2 . Como punto
podemos tomar el (−2, 3, 0), por lo que podemos obtener su ecuación cartesiana
imponiendo que ese punto cumpla la condición:
π2 ≡ 2x + y + 3z = −1

4. El punto P ∈ r ∩ t = r ∩ π2 . Primer obtenemos las ecuaciones cartesianas de


r a partir de sus ecuaciones paramétricas.
   
2 x−1 0 x − 2z + 5
 −1 y − 2  →  0 y + z − 5 
1 z−3 1 z−3
Por lo tanto, 
x − 2z = −5
r≡
y + z = 5
Resolvemos ahora el sistema de ecuaciones lineales compuesto por las ecuacio-
nes cartesianas de r y de π2 . En su forma matricial, aplicando Gauss-Jordan,
nos queda lo siguiente:
   
1 0 −2 −5 1 0 0 −11/3
 0 1 1 5  →  0 1 0 13/3 
2 1 3 −1 0 0 1 2/3

— 74 —

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10679672

3.2. Espacio afín Universidad de Málaga

Este sistema de ecuaciones lineales es compatible determinado cuya solución


es el punto P (−11/3, 13/3, 2/3).

5. El punto Q ∈ s ∩ t = s ∩ π1 . Primer obtenemos las ecuaciones cartesianas de


π1 para posteriormente, resolver la intersección.
   
2 −1 x − 1 0 −1 x − 2z + 5
 −1 2 y − 2  →  0 2 y + z − 5 
1 0 z−3 1 0 z−3
 
0 −1 x − 2z + 5
→  0 0 y + 5 + 2x − 3z 
1 0 z−3
Por lo tanto,
π1 ≡ 2x + y − 3z = −5
Resolvemos ahora el sistema de ecuaciones lineales compuesto por las ecuacio-
nes cartesianas de s y de π1 . En su forma matricial, aplicando Gauss-Jordan,
nos queda lo siguiente:
   
1 1 1 1 1 0 0 −10/3
 0 1 −1 3  →  0 1 0 11/3 
2 1 −3 −5 0 0 1 2/3

Este sistema de ecuaciones lineales es compatible determinado cuya solución


es el punto Q(−10/3, 11/3, 2/3).

6. La distancia entre rectas, d(r, s).


r  √
1 2  −2 2 5
d(r, s) = d(P, Q) = kP Qk= + + 02 =
3 3 3

— 75 —

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10679672

3.2. Espacio afín C. Bejines

— 76 —

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10679672

Capítulo 4

Transformaciones Geométricas

El capítulo está dedicado a las transformaciones que podemos realizar en el plano


y el espacio sin modificar la forma y tamaño de los objetos matemáticos.

4.1. Isometrías
En esta sección, nos enfocaremos en el estudio de las isometrías, que son un caso
particular de aplicaciones lineales que preservan la longitud y el ángulo entre los
vectores.
Definición 4.1. Sea (U, h, i1 ) y (V, h, i2 ) dos espacios vectoriales euclídeos. Una
isometría es una aplicación lineal T : U −→ V tal que
hT (u), T (v)i2 = hu, vi1
para todo u, v ∈ U .
Específicamente, nos centraremos en las transformaciones ortogonales, que son
isometrías que también son endomorfismos. En el plano vectorial R2 y en el espacio
vectorial R3 , exploraremos estas transformaciones y analizaremos cómo afectan a los
vectores y objetos geométricos en esos espacios.

4.1.1. Transformaciones ortogonales


Las transformaciones ortogonales son un caso particular de isometrías. Estas
tienen diversas aplicaciones y son fundamentales en el estudio de la geometría, la
mecánica o el procesamiento de imágenes, entre otros campos.
Definición 4.2. Sea (V, h, i) un espacio vectorial euclídeo. Una transformación
ortogonal es un endomorfismo T : V −→ V tal que
hT (u), T (v)i = hu, vi
para todo u, v ∈ V .

77

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10679672

4.1. Isometrías C. Bejines

Como consecuencia de la definición, una transformación ortogonal preserva la


norma y el ángulo entre vectores.
Una propiedad importante es que la matriz asociada a dicha transformación es
una matriz ortogonal.
Proposición 4.3. Sea V un espacio vectorial. Un endomorfismo T : V −→ V es
una transformación ortogonal si y solo si su matriz asociada es ortogonal, es decir,
T (u) = P · u,
donde P es una matriz ortogonal.
Recordemos que una matriz ortogonal P es una matriz cuadrada cuya inversa es
igual a su transpuesta. Esto implica que su determinante solo puede ser 1 o −1, lo
que las diferencia de otras matrices no ortogonales.

1 = |I| = |P −1 P | = |P −1 ||P | = |P t ||P | = |P |2 .


Esta característica esencial las convierte en herramientas clave para describir las
isometrías y transformaciones geométricas en el plano o en el espacio.
Como las transformaciones ortogonales preservan el producto escalar, tenemos
el siguiente resultado.
Proposición 4.4. Si P es una matriz ortogonal y λ es un autovalor real de P ,
entonces λ ∈ {1, −1}.
El concepto de vector fijo mediante una transformación ortogonal nos será útil
a la hora de clasificar isometrías.
Definición 4.5. Sea T : Rn −→ Rn una transformación ortogonal. Decimos que un
vector u ∈ Rn es un vector fijo de T si T (u) = u.

4.1.2. Isometrías en el plano


Nuestro enfoque para estudiar las isometrías en el plano se centra en analizar las
matrices ortogonales de tamaño dos por dos. Vamos a estudiar todas las posibles
configuraciones considerando una matriz ortogonal arbitraria P = (aij )2×2 . Como P
es ortogonal, se tiene que
a211 + a221 = 1, a212 + a222 = 1,
a211 + a212 = 1, a221 + a222 = 1.
Además, como el determinante de P está restringido a 1 o −1, tenemos la siguiente
condición.
a11 a22 − a12 a21 ∈ {1, −1}.
A raíz de estas observaciones, podemos obtener el siguiente resultado.

— 78 —

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10679672

4.1. Isometrías Universidad de Málaga

Proposición 4.6. Si P = (aij )2×2 es una matriz ortogonal, entonces existe α ∈


[−π, π] tal que P puede describirse como una de las dos siguientes matrices
   
cos α −sen α cos α sen α
sen α cos α sen α − cos α
Si P tiene la forma de la primera matriz, su determinante es 1 y representa un
giro. En cambio, si P tiene la forma de la segunda matriz, su determinante es −1
y corresponde a una reflexión.
Proposición 4.7. Si T es una transformación ortogonal en R2 , podemos clasificarla
de la siguiente manera:
1. Si la dimensión del conjunto de vectores fijos es 0, se trata de un giro con el
punto fijo en el origen (0, 0).
2. Si la dimensión del conjunto de vectores fijos es 1, se trata de una reflexión
con la recta de simetría definida por los vectores fijos.
3. Si la dimensión del conjunto de vectores fijos es 2, se trata de la identidad (un
giro de 0 grados). Todos los vectores son fijos.
Ejemplo 4.8. Vamos a clasificar la siguiente isometría de R2 .
 3 4 
T = 5 5
− 45 35
Sabemos que T es una transformación ortogonal si su matriz es ortogonal, es decir,
si su inversa es la traspuesta. Comprobémoslo:
 3 4 3
− 45
  
t 5 5 5
1 0
TT = = =I
− 54 35 4
5
3
5
0 1
Si hacemos el determinante de T , obtenemos que |T | = 1, por lo que se trata de un
giro. Para llegar a esta conclusión, también podríamos haber estudiado los vectores
fijos aplicando la proposición 4.7. El ángulo de giro α ∈ [0, 2π] cumple que cos α = 35
y sen α = − 54 . Por lo tanto, α = −0.92 radianes.
Nota 4.9. En el ejemplo anterior, también podemos encontrar el ángulo de giro al
observar cómo un vector se transforma bajo la matriz ortogonal. Por ejemplo,
 3 4    3 
5 5
1 5
4 3 =
−5 5 0 − 45
Es decir, el vector (1, 0) se gira hasta convertirse en ( 53 , − 54 ). Podemos aplicar la
fórmula del ángulo entre vectores para encontrar el ángulo de giro:
h(1, 0), ( 35 , − 45 )i 3
cos α = 3 4 = .
k(1, 0)kk( 5 , − 5 )k 5

— 79 —

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10679672

4.1. Isometrías C. Bejines

Por lo que α ∈ {0.92, −0.92}. Teniendo en cuenta de que el vector se encuentra en


el cuarto cuadrante, tenemos que α = −0.92 radiantes.
Veamos otro ejemplo.
Ejemplo 4.10. Vamos a clasificar la siguiente isometría de R2 .
 
1 0
T =
0 −1

Veamos que efectivamente, T es una matriz ortogonal:


    
t 1 0 1 0 1 0
TT = =
0 −1 0 −1 0 1

Como |T | = −1, tenemos una simetría cuya recta de reflexión está formada por los
vectores fijos de T . A continuación, obtenemos dicha recta.
    
1 0 x x
=
0 −1 y y

Equivalentemente, tenemos el siguiente sistema


      
1 0 x x 0
− =
0 −1 y y 0
       
1 0 x 1 0 x 0
⇒ − =
0 −1 y 0 1 y 0
    
0 0 x 0
⇒ =
0 −2 y 0
Por lo que la recta de reflexión tiene como ecuación cartesiana −2y = 0. Una base
de la recta es {(1, 0)}.

4.1.3. Isometrías en el espacio


En esta sección, continuaremos nuestro estudio sobre las isometrías, pero ahora
nos enfocaremos en el espacio tridimensional. Analizaremos detalladamente todas
las posibles matrices ortogonales de tamaño tres por tres.
Si consideramos dos matrices ortogonales P y Q, es relevante destacar que su
producto P Q también es una matriz ortogonal. La razón es que la inversa de (P Q)
es igual a la transpuesta de (P Q), es decir,

(P Q)−1 = Q−1 P −1 = Qt P t = (P Q)t .

Debido a esta propiedad, podemos afirmar lo siguiente:

— 80 —

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10679672

4.1. Isometrías Universidad de Málaga

Proposición 4.11. Si T1 y T2 son dos transformaciones ortogonales, entonces la


composición T1 ◦ T2 también es una transformación ortogonal.
Para matrices ortogonales de tamaño tres por tres, el polinomio característico
tiene grado de 3. Si examinamos las posibles raíces del polinomio característico,
existen solo dos combinaciones distintas:
1. Todos los autovalores son reales: En este caso, los tres autovalores de la matriz
ortogonal son números reales. Además, por la proposición 4.4, deben valen 1
o −1.
2. Solo existe un único autovalor real: En esta situación, la matriz ortogonal tiene
un autovalor real y dos autovalores complejos conjugados. Por la proposición
4.4, el autovalor real es 1 o −1.
Teorema 4.12. Si T : R3 −→ R3 es una transformación ortogonal, entonces
su matriz asociada T es una de las tres siguientes posibilidades en cierta base
ortonormal {v1 , v2 , v3 }.
1. Si T es un giro respecto de un eje, entonces T solo posee únicamente un
autovalor real, λ = 1, y su determinante es 1. Además, T es semejante a una
matriz de la forma  
1 0 0
 0 cos α −sen α 
0 sen α cos α
donde v1 indica el eje y α el ángulo de giro.
2. Si T es una simetría respecto de un plano, entonces T posee tres
autovalores reales, es una matriz simétrica y su determinante es −1. Además,
T es semejante a una matriz de la forma
 
−1 0 0
 0 1 0 
0 0 1
donde v2 y v3 forman una base del plano.
3. Si T es una composición de una simetría respecto de un plano y un
giro respecto de un eje, entonces T posee únicamente un autovalor real,
λ = −1, es una matriz no simétrica y su determinante es −1. Además, T es
semejante a una matriz de la forma
 
−1 0 0
 0 cos α −sen α 
0 sen α cos α
donde v1 indica el eje de giro y los otros dos vectores v2 y v3 forman una base
del plano de reflexión.

— 81 —

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10679672

4.1. Isometrías C. Bejines

El teorema previamente mencionado nos permite comprender que cada trans-


formación ortogonal se corresponde de forma única con una de las tres matrices
presentadas, siempre y cuando seleccionemos una base ortonormal apropiada.

Ejemplo 4.13. Vamos a clasificar y determinar los elementos geométricos de la


transformación ortogonal T : R3 −→ R3 definida por

1
T (x, y, z) = (−11x + 10y − 2z, 2x + 5y + 14z, 10x + 10y − 5z)
15
Por lo que su matriz asociada respecto a la base canónica es
 
−11 10 −2
1 
T = 2 5 14 
15
10 10 −5

Primero, veamos que efectivamente es una matriz ortogonal,


     
−11 10 −2 −11 2 10 1 0 0
1  1 
TTt = 2 5 14  10 5 10  =  0 1 0 
15 15
10 10 −5 −2 14 −5 0 0 1

Aplicando el teorema 4.12, como su determinante es |T | = 1, tenemos que T es un


giro respecto de un eje. Como esta recta permanece invariante a través de T , el eje
es el conjunto de vectores fijos de T , es decir, los vectores que cumplen la condición
T (x, y, z) = (x, y, z). Equivalentemente,
    
−11 10 −2 x x
1 
2 5 14   y  =  y 
15
10 10 −5 z z

Resolviendo el sistema de ecuaciones lineales por el método de Gauss-Jordan,


obtenemos que la solución es el conjunto L (1, 3, 2) . Para determinar el ángulo
de giro, podemos tomar un vector u perpendicular a (1, 3, 2) y calcular el ángulo
entre u y T (u).

1. Escogemos el vector u = (2, 0, −1) que es ortogonal a (1, 3, 2) porque


h(1, 3, 2), (2, 0, −1)i = 0.

2. Determinamos T (u),
    
−11 10 −2 2 −20
1  1 
T (u) = 2 5 14   0  = −10 
15 15
10 10 −5 −1 25

— 82 —

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10679672

4.1. Isometrías Universidad de Málaga

3. Calculamos el ángulo α,
hu, T (u)i 13
cos α = =−
kukkT (u)k 15
Por lo tanto, α = 2.619 radiantes o α = −2.619 radiantes. Recordemos que
estamos en el espacio, por lo que el sentido de giro es respecto a la regla del
sacacorchos impuesta por el producto vectorial × entre u y T (u):
 
i j k −1
2 0 −1 =  −3 
−20 −10 25
15 15 15
−2
Como (−1, −3, −2) tiene sentido opuesto a nuestro semieje (1, 3, 2), asi que
tenemos que el ángulo de giro entorno al semieje formado por L (1, 3, 2) es
α = −2.619 radiantes.

Una solución equivalente es que T es un giro entorno al eje L (−1, −3, −2) de
ángulo α = 2.619 radiantes.
Veamos otro ejemplo.
Ejemplo 4.14. Vamos a clasificar y determinar los elementos geométricos de la
transformación ortogonal T : R3 −→ R3 definida por
1
T (x, y, z) = (19x + 8y − 4z, 8x − y + 16z, −4x + 16y + 13z)
21
Por lo que su matriz asociada respecto a la base canónica es
 
19 8 −4
1 
T = 8 −1 16 
21
−4 16 13
Primero, veamos que efectivamente es una matriz ortogonal,
     
19 8 −4 19 8 −4 1 0 0
1 1
TTt =  8 −1 16   8 −1 16  =  0 1 0 
21 21
−4 16 13 −4 16 13 0 0 1
Aplicando el teorema 4.12, como T es simétrica y su determinante es |T | = −1,
tenemos que T es una simetría respecto a un plano. El plano de simetría está formado
por los vectores fijos, es decir, aquellos que cumplen la condición T (x, y, z) = (x, y, z).
    
19 8 −4 x x
1 
8 −1 16   y  =  y 
21
−4 16 13 z z
Resolviendo el sistema de ecuaciones lineales por el método de Gauss-Jordan,
obtemos que el plano de simetría es
π ≡ x − 4y + 2z = 0.

— 83 —

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10679672

4.1. Isometrías C. Bejines

Finalmente, procedemos a dar un ejemplo del proceso inverso, es decir, la


construcción de una transformación ortogonal a partir de una información dada.
Para lograr esto, haremos uso del teorema 4.12 junto con las propiedades de las
matrices semejantes.

Ejemplo 4.15. Supongamos que queremos construir una reflexión con respecto al
plano vectorial π ≡ 2x − y + z = 0. La transformación ortogonal que buscamos, en
una base ortonormal {v1 , v2 , v3 }, es de la forma
 
−1 0 0
A= 0 1 0 
0 0 1

donde v2 y v3 forman una base del plano. Una base del plano es {(1, 2, 0), (0, 1, 1)}.
Como el vector normal (2, −1, 1) es ortogonal al plano, tras normalizarlo, podremos
tomarlo como v1 . Por lo tanto, la base ortonormal B = {v1 , v2 , v3 } es
n 2 −1 1   1 2   1 1 o
B= √ , √ , √ , √ , √ , 0 , 0, √ , √
6 6 6 5 5 2 2
Tenemos que A es la matriz asociada a la transformación T respecto a la base B.
Para obtener la fórmula de T debemos obtener la matriz H asociada a T respecto
a la base canónica Bc . Si P es la matriz de cambio de base de B a Bc , acorde al
teorema 2.25, tenemos que
A = P −1 HP.
Equivalentemente, H = P AP −1 . Por la proposición 1.60, sabemos que P está
formada por las coordenadas de los vectores de B en la base Bc dispuestos en
columnas. Por lo tanto,  2 
√ √1 0
 −16 √25 √1 
P = √ 6 5 2 
1 1

6
0 √2
Como los vectores columnas son unitarios y ortogonales entre sí, tenemos que P
es ortogonal. Esto implica que P −1 = P t . Por lo tanto, la matriz H asociada a T
respecto a la base Bc es
 2 −1 1     √2 √1   −1 −4 
√ √ √
−1 0 0 0 3
√ 0
 6 6 6
 −16 √25 √1   √−4 30
H =  √15 √25 0   0 1 0   √ = 3 √2 
 
6 5 2   30 5 10
0 √12 √12 0 0 1 √1
6
0 √12 0 √210 1

La fórmula de la transformación T : R3 −→ R3 es
 −1 −4 −4 3 2 2 
T (x, y, z) = x + √ y, √ x + y + √ z, √ y + z
3 30 30 5 10 10

— 84 —

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10679672

4.2. Movimientos rígidos Universidad de Málaga

4.2. Movimientos rígidos


En la sección previa, exploramos las transformaciones ortogonales en contextos de
espacios vectoriales. Ahora, enfocamos nuestra atención en el concepto análogo en el
ámbito de los espacios afines: los movimientos rígidos. Estos movimientos rígidos son
isomorfismos que mantienen inalterada la distancia entre puntos dentro del espacio
afín. Nuestro análisis se centrará en los casos de R2 y R3 .

4.2.1. Transformaciones afines


Las transformaciones afines, también conocidas como aplicaciones afines, se
pueden entender como aplicaciones lineales que han sido desplazadas en su posición
original.

Definición 4.16. Consideremos A1 y A2 como dos espacios afines, y V1 y V2 como los


espacios vectoriales respectivos asociados a cada uno. Una función F : A1 −→ A2 se
denomina transformación afín si existe un punto O ∈ A1 , que será tomado como
origen, tal que la función F ∗ : V1 −→ V2 definida como

F ∗ (OP ) := F (O)F (P ) (4.1)

es una aplicación lineal. Si A1 = A2 , decimos que F es una afinidad.

Proposición 4.17. Si F : A1 −→ A2 es una transformación afín y P, Q ∈ A1 ,


entonces
F ∗ (P Q) = F (P )F (Q).

Proposición 4.18. Si F : A1 −→ A2 y G : A2 −→ A3 son transformaciones afines,


entonces G ◦ F : A1 −→ A3 es una transformación afín.

Como la formula (4.1) corresponde a una aplicación lineal, también podemos


expresar matricialmente una transformación afín. Consideremos la matriz A asociada
a la aplicación lineal F ∗ , teniendo en cuenta la construcción del vector F (O)F (P ),
concluimos que la formula (4.1) equivale a:

A · OP = F (P ) − F (O).

Gracias a la proposición 4.17, podemos imponer que el punto O ∈ A1 sea siempre el


origen. Formalmente, tenemos el siguiente resultado.

Proposición 4.19. Sea F : A1 −→ A2 una transformación afín. Entonces

F (P ) = F (O) + A · OP

— 85 —

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10679672

4.2. Movimientos rígidos C. Bejines

para todo P ∈ A1 , donde O es el origen de coordenadas. Equivalentemente,


      
y1 a11 a12 . . . a1n x1 c1
 y2   a21 a22 . . . a2n   x2   c2 
   
 ..  =  ..   ..  +  ..  (4.2)
   
.. .. ..
 .   . . . .  .   . 
ym am1 am2 . . . amn xn cm

Nota 4.20. Es relevante notar que una aplicación afín F está completamente
determinada si conocemos la imagen del origen, F (O), y la matriz asociada a la
aplicación lineal F ∗ .

Una notación matricial más compacta que la presentada en la fórmula (4.2) es


la siguiente:
    
1 1 0 0 ... 0 1
 y1   c1 a11 a12 . . . a1n   x1 
    
 y2   c2 a21 a22 . . . a2n   x2 
 =  
 ..   .. .. .. . . ..   .. 
 .   . . . . .  . 
ym cm am1 am2 . . . amn xn
Llegados a este punto, vamos a analizar los movimientos rígidos, un caso
particular de a transformaciones afines.

Definición 4.21. Sea F : A1 −→ A2 una transformación afín. Decimos que F es


un movimiento rígido si preserva la distancia entre puntos, es decir, si

d(P, Q) = d(F (P ), F (Q))

para todo P, Q ∈ A1 .

Como la distancia entre puntos viene definida por la norma, y esta a su vez, por
el producto escalar, obtenemos el siguiente resultado.

Proposición 4.22. Sea F : A1 −→ A2 una transformación afín. Tenemos que F es


un movimiento rígido si y solo si F ∗ es una isometría.

Nota 4.23. La relación entre un movimiento rígido y una isometría se encuentra


en la aplicación lineal asociada, F ∗ , de la transformación afín F . Si F representa
un movimiento rígido, entonces la parte lineal F ∗ junto con la parte de traslación,
F (O), preservarán las distancias y las propiedades geométricas. Esto significa que F ∗
debe ser una isometría, ya que es la que garantiza la conservación de las distancias.

En los casos donde los espacios afines euclideos coincidan, podemos hablar del
término punto fijo.

— 86 —

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10679672

4.2. Movimientos rígidos Universidad de Málaga

Definición 4.24. Sea F : A −→ A un movimiento rígido y P ∈ A. Decimos que P


es un punto fijo si F (P ) = P .

Definición 4.25. Sea F : A −→ A es un movimiento rígido.

1. Decimos que F es directo si el determinante de la matriz asociada a F ∗ es 1.

2. Decimos que F es inverso (o indirecto) si el determinante de la matriz asociada


a F ∗ es −1.

4.2.2. Movimientos rígidos en el plano


En esta sección, abordamos el estudio de los movimientos rígidos que ocurren en
el plano afin euclideo R2 . Para que una transformación afín F en el plano sea con-
siderada un movimiento rígido es necesario que su correspondiente transformación
lineal F ∗ sea una isometría en R2 (tal y como establece la proposición 4.22).
Recordemos que las isometrías en el plano son exclusivamente las rotaciones y
las reflexiones. En consecuencia, un movimiento rígido F en el plano se expresa de
la siguiente manera: F : R2 −→ R2 , definida por la relación F (X) = AX + C,
 0     
x a11 a12 x c
= + 1
y0 a21 a22 y c2
En esta expresión, (x0 , y 0 ) = F (x, y), (c1 , c2 ) = F (0, 0) y la matriz A = (aij )
representa una isometría en el plano, la cual debe ser una rotación o una reflexión.
Por lo tanto, los movimientos rígidos dependen del valor de (c1 , c2 ) y el tipo de
isometría.

1. Si A representa un giro de ángulo α, al combinarlo con una traslación, se


origina una nueva rotación. Esta rotación tiene un centro de giro diferente
al anterior y un ángulo de rotación igual a α. En el caso especial en el que el
ángulo de giro es cero (A es la identidad), el resultado es una traslación. La
identidad es una traslación cuyo vector de traslación es el vector nulo.

2. Si A representa una reflexión respecto a la recta r, al aplicar una traslación


obtenemos lo siguiente:

 Si el vector de traslación no es proporcional al vector de dirección de r,


entonces se obtiene una nueva simetría respecto de otra recta s.
 Si el vector de traslación es proporcional al vector de dirección de r,
entonces se obtiene una simetría deslizante cuyo eje es la recta r.

Teorema 4.26. Sea F : R2 −→ R2 un movimiento rígido y P el conjunto de puntos


fijos.

— 87 —

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10679672

4.2. Movimientos rígidos C. Bejines

1. Si dim(P) = 2, todos los puntos son fijos y por lo tanto, el movimiento es la


identidad (un giro de 0 grados).
2. Si dim(P) = 1, tenemos una simetría cuyos puntos fijos forman la recta de
reflexión.
3. Si dim(P) = 0, tenemos una rotación cuyo centro de giro es el único punto
fijo de P. El ángulo de giro se determina a partir de la matriz asociada a F ∗ .
4. Si P = ∅ y el movimiento es directo, tenemos una traslación mediante el
vector F (0, 0).
5. Si P = ∅ y el movimiento es inverso, tenemos una simetría deslizante cuyo
eje de simetría deslizante es el subespacio invariante.
Vale la pena señalar que en un subespacio invariante, los puntos dentro de este
no necesariamente son fijos.
Definición 4.27. Sea F : Rn −→ Rn un movimiento rígido definido por F (X) =
C + AX. El subespacio invariante de F es el conjunto solución del siguiente sistema
de ecuaciones
(A − I)2 X = −(A − I)C
Ejemplo 4.28. Vamos a estudiar la siguiente afinidad:
 0     
x 0 −1 x 4
= +
y0 1 0 y 2
 
0 −1
Como es una matriz ortogonal (su inversa es su traspuesta), tenemos que
1 0
es una isometría. Por lo tanto, la afinidad es un movimiento rígido de R2 . Además,
se trata de un movimiento directo (determinante igual a 1). Procedemos a calcular
los puntos fijos.       
x 0 −1 x 4
= +
y 1 0 y 2
Esto implica que los puntos fijos satisfacen las siguientes ecuaciones:
x=4−y y = 2 + x.
Si resolvemos este sistema, obtenemos un sistema compatible determinado cuya
única solución es (1, 3). Atendiendo al teorema 4.26, tenemos que el movimiento es
un giro cuyo centro es O = (1, 3). Como la isometría es
 
0 −1
1 0
tenemos que cos α = 0 y sen α = 1. Por lo tanto, α = π/2. Otra alternativa práctica
para determinar α hubiese sido estudiar el ángulo entre un vector y su transformado
a través de dicha isometría utilizando el producto escalar usual.

— 88 —

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10679672

4.2. Movimientos rígidos Universidad de Málaga

Ejemplo 4.29. Realizaremos un estudio completo de la siguiente afinidad:


 0     
x 0 −1 x 0
= +
y0 −1 0 y 2
 
0 −1
Como es una matriz ortogonal, tenemos que es una isometría. Por lo
−1 0
tanto, la afinidad es un movimiento rígido de R2 . Además, se trata de un movimiento
inverso (determinante igual a −1). Procedemos a calcular los puntos fijos.
      
x 0 −1 x 0
= +
y −1 0 y 2

Esto implica que el conjunto de puntos fijos es solución del siguiente sistema:

x = −y y = 2 − x.

Si empleamos el teorema de Rouché-Frobenius, llegamos a un sistema incompatible,


lo que significa que no hay puntos fijos presentes. Según lo establecido en el teorema
4.26, el movimiento se caracteriza como una simetría deslizante. Nuestra siguiente
tarea consiste en calcular el eje y el vector de traslación.

1. Eje de simetría afín. La definición 4.27 establece que el subespacio invariante


que buscamos se calcula resolviendo el sistema de ecuaciones (A − I)2 X =
−(A − I)C.
 2     
−1 −1 x −1 −1 0
=−
−1 −1 y −1 −1 2

De forma más simplificada, obtenemos


    
2 2 x 2
=
2 2 y 2

Por lo que la recta afín invariante mediante F es r ≡ x + y = 1.

2. Vector de traslación. Tenemos conocimiento de que el vector de traslación en


una simetría deslizante se alinea con el eje de simetría. Por lo tanto, será
suficiente elegir un elemento P del eje y observar a qué punto se transforma.
Optaremos por el punto P = (1, 0), que trivialmente pertenece a r ≡ x+y = 1.
        
1 0 −1 1 0 0
F = + =
0 −1 0 0 2 1

es decir, F (1, 0) = (0, 1). Concluimos que el vector de translación es (−1, 1).

— 89 —

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10679672

4.2. Movimientos rígidos C. Bejines

Ejemplo 4.30. Realizaremos un estudio completo de la siguiente afinidad:


      
x 0 −1 x 3
F = +
y −1 0 y 3
 
0 −1
Como es una matriz ortogonal, tenemos una isometría. Por lo tanto, la
−1 0
afinidad es un movimiento rígido de R2 . Además, se trata de un movimiento inverso
porque su determinante es −1. Procedemos a calcular los puntos fijos.
      
x 0 −1 x 3
= +
y −1 0 y 3

Por lo tanto, los puntos fijos de F son la solución del siguiente sistema de ecuaciones:

x=3−y y = 3 − x.

Aplicando el teorema de Rouché-Frobenius, obtenemos un sistema compatible


indeterminado, cuya solución es

{(x, y) ∈ R2 | x + y = 3}.

Atendiendo al teorema 4.26, concluimos que el movimiento es una simetría, y su eje


corresponde a la recta afín x + y = 3.

4.2.3. Movimientos rígidos en el espacio


Nos centraremos ahora en el estudio de los movimientos rígidos que tienen lugar
en el espacio afín euclídeo R3 . Una transformación afín F : R3 −→ R3 debe cumplir
que su correspondiente transformación lineal F ∗ sea una isometría en R3 , conforme
lo establecido por la proposición 4.22.
Recordemos que las isometrías en el espacio tridimensional comprenden úni-
camente las rotaciones en torno un eje, las reflexiones respecto un plano y la
composición de ambas. En consecuencia, la representación de un movimiento rígido
F : R3 −→ R3 , definida mediante la relación F (X) = AX + C, se representa
matricialmente de la siguiente forma:
 0     
x a11 a12 a13 x c1
y 0  =  a21 a22 a23  y  + c2 
z0 a31 a32 a33 z c3
donde A = (aij ) es una isometría en R3 . Por lo tanto, tenemos los siguientes
movimientos rígidos en el espacio:

— 90 —

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10679672

4.2. Movimientos rígidos Universidad de Málaga

1. Si A representa un giro de ángulo α respecto un eje, al combinarlo con una


traslación, se origina una nueva rotación. Este giro tiene un centro diferente
al anterior y el eje también es desplazado. Si el vector de traslación sigue la
dirección del eje, entonces tenemos un movimiento helicoidal. En el caso
especial en el que el ángulo de giro es cero (A es la identidad), el resultado es
una traslación. La identidad es una traslación cuyo vector de traslación es
el vector nulo.

2. Si A representa una reflexión respecto a un plano π, al aplicar una traslación,


obtenemos una nueva simetría respecto de otro plano, excepto si el vector de
traslación es combinación lineal de los vectores de la base de π. En este caso,
obtenemos una simetría deslizante.

3. Si A representa la composición de un giro y una simetría, al aplicar


una traslación tenemos la combinación de las tres funciones, es decir, una
composición de giro, simetría y traslación.

Teorema 4.31. Sea F : R3 −→ R3 un movimiento rígido, P el conjunto de puntos


fijos y S el subespacio invariante. Entonces,

1. Si dim(P) = 3, el movimiento es la identidad.

2. Si dim(P) = 2, el movimiento es una reflexión respecto al plano formado por


P.

3. Si dim(P) = 1, el movimiento es un giro respecto al eje formado por P. El


ángulo de giro puede determinarse con el producto escalar entre un vector
ortogonal al eje y su imagen.

4. Si dim(P) = 0, el movimiento es una composición de un giro respecto de un


eje y una simetría respecto a un plano. El eje está formado por la recta que
pasa por el único punto fijo y tiene como vector de dirección un autovector
asociado al autovalor −1. El plano de simetría es perpendicular al eje y pasa
por el punto fijo. El ángulo de giro puede determinarse con el producto escalar
entre un vector ortogonal al eje y su imagen.

5. Si P = ∅ y dim(S) = 1, obtenemos un movimiento helicoidal. El eje es el


subespacio invariante, el ángulo puede determinarse con el producto escalar
entre un vector ortogonal y su imagen y el vector de traslación tomando un
punto del eje y su imagen.

6. Si P = ∅ y dim(S) = 2, obtenemos una simetría deslizante. El plano


de reflexión es el subespacio invariante y el vector de traslación puede
determinarse tomando un punto del plano y su imagen.

— 91 —

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10679672

4.2. Movimientos rígidos C. Bejines

7. Si P = ∅ y dim(S) = 3, obtenemos una traslación. El vector de traslación


puede determinarse tomando un punto del espacio y su imagen.
Ejemplo 4.32. Vamos a realizar un estudio completo de la afinidad F : R3 −→ R3
definida por F (x, y, z) = (x0 , y 0 , z 0 ), donde
x0 = 2 − z, y 0 = 2 − y, z 0 = 2 + x.
La forma matricial de la afinidad determinada por estas ecuaciones es la siguiente:
      
x 0 0 −1 x 2
F y  =  0 −1 0  y  + 2
z 1 0 0 z 2
Tenemos que
    
0 0 −1 0 0 1 1 0 0
AAt = 0 −1 0   0 −1 0 = 0 1 0
1 0 0 −1 0 0 0 0 1
por lo que la matriz es ortogonal. De la proposición 4.22 se deduce que F es un
movimiento rígido. Si estudiamos los puntos fijos aplicando el método de la matriz
escalonada y el teorema de Rouché-Frobenius, obtenemos un sistema compatible
determinado cuya única solución es P = (0, 1, 2). Por el teorema 4.31, tenemos que
es la composición de un giro y una simetría. Además, se especifica como determinar
sus elementos notables.
1. Para determinar un autovector asociado al autovalor −1, calculamos el
Ker(A − (−1)I) = {(x, y, z) ∈ R3 | (A + I)(x, y, z)t = (0, 0, 0)t }. Tenemos
que la solución de ese sistema en su forma matricial
    
1 0 −1 x 0
0 0 0  y  = 0
1 0 1 z 0
es el conjunto S = {(0, λ, 0) ∈ R3 | λ ∈ R}, por lo que un autovector es
u = (0, 1, 0).
2. Eje pasa por P y tiene dirección u, por lo que es

 x = 0
r≡ y = 1 + λ
x = 2

3. El plano de reflexión es perpendicular a r y pasa por P . Esto conlleva a que


su vector normal sea u, por lo que concluimos que es
π ≡ y = 1.

— 92 —

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10679672

4.2. Movimientos rígidos Universidad de Málaga

4. Para el ángulo de giro, consideremos el vector v = (1, 0, 0), el cual se transforma


en Av = (0, 0, 1). Si estudiamos el ángulo entre ambos vectores (ver definición
3.1), obtenemos que α = π/2. Para determinar si el giro es horario o antihorario
en la dirección del eje, realizamos el producto vectorial v × Av:

i j k
1 0 0 = −j
0 0 1

Como (0, −1, 0) tiene sentido opuesto a nuestro semieje L 0, 1, 0) , tenemos
que el ángulo de giro es realmente −π/2 en torno al semieje (0, 1, 0).
Equivalentemente, el ángulo es π/2 en torno al semieje (0, −1, 0).

Ejemplo 4.33. En función de los parámetros a y b, vamos a realizar un estudio


completo de afinidad F (X) = AX + C definida por
      
x 1 0 0 x 2
F y =
   0 0 a   y + 1
 
z 0 1 0 z b

La afinidad es un movimiento rígido si y solo si A es una matriz ortogonal. Veamos


cuándo lo es:
    
1 0 0 1 0 0 1 0 0
t
AA =  0 0 a   0 0 1  =  0 a2 0 
0 1 0 0 a 0 0 0 1

Concluimos que A es matriz ortogonal si y solo si a ∈ {1, −1}. En el resto de casos,


F no es un movimiento.

1. Si a = 1, tenemos el siguiente movimiento rígido:


      
x 1 0 0 x 2
F y  =  0 0 1  y  + 1
z 0 1 0 z b

Los puntos fijos de F verifican el siguiente sistema de ecuaciones:

x + 2 = x
z + 1 = y
y + b = z

Tras aplicar el teorema de Rouché-Frobenius, obtenemos un sistema incompa-


tible independientemente del valor del parámetro b, por lo que el conjunto de

— 93 —

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10679672

4.2. Movimientos rígidos C. Bejines

puntos fijos P es vacío. Procedemos a estudiar el subespacio invariante S de


F,  2     
0 0 0 x 0 0 0 2
 0 −1 1  y  = −  0 −1 1  1
0 1 −1 z 0 1 −1 b
equivalentemente,
    
0 0 0 x 0
 0 2 −2  y  = 1 − b
0 −2 2 z b−1
Si aplicamos el teorema de Rouché-Frobenius, obtenemos un sistema compa-
tible indeterminado cuyo conjunto de soluciones es
1−b
+ λ2 , λ2 )R3 | λ1 , λ2 ∈ R

S = (λ1 ,
2
Como dim(S) = 2, aplicado el teorema 4.31, tenemos una simetría deslizante
cuyo plano de reflexión es

 x = λ1
π≡ y = 1−b2
+ λ2
z = λ2

Para el vector de traslación, tomamos un punto del plano, por ejemplo P =


(0, 1−b
2
, 0), y calculamos su imagen:
    
1 0 0 0 2
1−b 
F (P ) =  0 0 1  
2
+ 1

0 1 0 0 b

Por lo que F (P ) = (2, b, 3−b


2
). Concluimos que el vector de traslación, P F (P ),
es  3b − 1 3 − b 
2, , .
2 2
2. Si a = −1, tenemos el siguiente movimiento rígido:
      
x 1 0 0 x 2
F y  =  0 0 −1  y  + 1
z 0 1 0 z b
Los puntos fijos de F verifican el siguiente sistema de ecuaciones:
x + 2 = x
−z + 1 = y
y + b = z

— 94 —

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10679672

4.2. Movimientos rígidos Universidad de Málaga

De nuevo, tras aplicar el teorema de Rouché-Frobenius, obtenemos un sistema


incompatible independientemente del valor del parámetro b, por lo que el
conjunto de puntos fijos P es vacío. Procedemos a estudiar el subespacio
invariante S de F ,
 2     
0 0 0 x 0 0 0 2
 0 −1 −1  y  = −  0 −1 −1  1
0 1 −1 z 0 1 −1 b
equivalentemente,
    
0 0 0 x 0
 0 0 2   y  = b + 1
0 −2 0 z b−1
Si resolvemos este sistema, obtenemos que es compatible indeterminado cuyo
conjunto de soluciones es
n 1 − b 1 + b o
S = λ, , |λ∈R
2 2
Como dim(S) = 1, aplicado el teorema 4.31, tenemos un movimiento helicoidal
cuyo eje es la recta afín 
 x = λ
r≡ y = 1−b 2
z = 1+b

2

Para el cálculo del ángulo de giro tomamos un vector perpendicular al eje y hallamos
su imagen mediante la isometría A. Como el vector de dirección de r es (1, 0, 0),
podemos tomar como vector perpendicular u = (0, 1, 0). Tenemos que Au = (0, 0, 1),
por lo que el ángulo α es π/2. Como u × Au = (1, 0, 0), tenemos que el giro es de π/2
en el sentido del semieje (1, 0, 0). Por último, para el vector de traslación tomamos
un punto P ∈ r y veamos cuál es su imagen. Tomando P = (0, 1−b 2
, 1+b
2
), su imagen
mediante F es
      
1 0 0 0 2 2
F (P ) =  0 0 −1   1−b 2
 + 1 =  1−b 
2
1+b 1+b
0 1 0 2
b 2

Concluimos que el vector de traslación es (2, 0, 0).


En los siguientes ejemplos exploraremos el enfoque opuesto: en lugar de
identificar el tipo de movimiento, construiremos el que elijamos.
Ejemplo 4.34. El objetivo de este ejemplo es encontrar el movimiento F : R3 −→
R3 que es una reflexión respecto al plano afín π ≡ x+2y−2z = 1. Para ello, debemos
encontrar las matrices A, C tales que F (X) = AX + C sea el movimiento deseado.

— 95 —

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10679672

4.2. Movimientos rígidos C. Bejines

1. Como estamos en una simetría respecto a un plano, gracias al teorema 4.12,


sabemos que existe una matriz asociada a la transformación ortogonal de la
forma  
−1 0 0
T = 0 1 0 
0 0 1
en cierta base ortonormal B = {v1 , v2 , v3 }, donde v1 es el autovector en la
dirección del vector normal del plano y v2 , v3 forman una base del plano. Por
lo tanto,
A = P T P t.
donde P es la matriz de cambio de base de B a BC , es decir, la matriz que
lleva por columnas las coordenadas de los vectores de B respecto de BC .
A continuación, presentamos el diagrama correspondiente para favorecer una
comprensión más clara.

A
BC BC

P P

T
B B

2. Vamos a determinar la base ortonormal B. El vector v1 es proporcional al


vector normal del plano, (1, 2, −2), y unitario. Como la norma de (1, 2, −2) es
3, tenemos que
 1 2 −2 
v1 = , , .
3 3 3
El vector v2 tiene que ser ortogonal a v1 y unitario. Podemos tomar el vector
(0, 1, 1) y normalizarlo:
 1 1 
v2 = 0, √ , √ .
2 2
Por último, el vector v3 debe ser ortogonal a los dos anteriores y unitario, así
que podemos tomar v1 × v2 y normalizarlo:

v1 × v2 1
v3 = = √ (4, −1, 1).
kv1 × v2 k 3 2

— 96 —

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10679672

4.2. Movimientos rígidos Universidad de Málaga

3. Como P lleva por columnas las coordenadas de v1 , v2 y v3 respecto de la base


canónica, tenemos que P es
 1 4

3
0 √
 2 √1 3−1 √
2
P = 3

2 3 2 
−2 √1 1

3 2 3 2

Por lo que A = P T P t es

7 − 32
 
9
0 9
A= √
0 1 0 
− 32 7
9
0 9

4. Para calcular C, seleccionaremos un punto P ∈ π y estableceremos que este


punto sea fijo, ya que estamos tratando con una reflexión respecto a π. Por
ejemplo, si tomamos P = (1, 0, 0), se cumple F (P ) = P . Dado que F (P ) =
AP + C, podemos derivar la siguiente condición.

− 32
   7    
1 9
0 9
1 c1
0 =  0 1 0  0 + c2 

0 − 32 7 0 c3
0 9 9

Simplificando, obtenemos que


   2 
c1 9
 c2  =  0 

c3 32
9

Concluimos que el movimiento rígido F : R3 −→ R3 que es una reflexión respecto


al plano π ≡ x + 2y − 2z = 1 está definido por
√    2 
− 32
   7
x 9
0 9
x 9
F y  =  √0 1 0  y  +  √0 
z − 32 7 z 32
0 9 9 9

Nota 4.35. Por lo general, el proceso de calcular un movimiento rígido no es


exclusivo. En el ejemplo 4.34, es viable llegar a la misma solución empleando enfoques
alternativos, como la imposición de condiciones adicionales. Por ejemplo, en el caso
de la matriz A, podríamos haber establecido que los vectores en la base de π se
transformen en sí mismos, y que el vector normal se transforme en su inverso.
Ejemplo 4.36. Vamos a determinar el movimiento F : R3 −→ R3 que es una
simetría deslizante respecto al plano afín π ≡ x+2y−2z = 1 con vector de traslación
(2, 1, 0). Para ello, debemos encontrar las matrices A, C tales que F (X) = AX + C
sea el movimiento deseado.

— 97 —

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10679672

4.2. Movimientos rígidos C. Bejines

1. Como estamos en una simetría deslizante, la matriz A corresponde a una


simetría. Para su cálculo, procedemos como en el ejemplo 4.34. Como el plano
afín es el mismo, llevaremos a la misma solución:

− 32
 7 
9
0 9
A =  √0 1 0 
− 32 7
9
0 9

2. Para calcular la matriz C, necesitamos considerar cómo actúa el movimiento


sobre los puntos del plano π: en este caso, se desplazan a lo largo del vector
(2, 1, 0). Por ejemplo, el punto P = (1, 0, 0) se transforma en F (P ) = (3, 1, 0).
Dado que F (P ) = AP + C, podemos derivar la siguiente condición.

7 − 32
      
3 9
0 9
1 c1
1 =  0 1 0  0 + c2 

0 − 32 7 0 c3
9
0 9

Simplificando, obtenemos que


   20 
c1 9
 c2  =  1 

c3 32
9

Concluimos que el movimiento rígido F : R3 −→ R3 que es una simetría deslizante


respecto al plano π ≡ x + 2y − 2z = 1 cuyo vector de traslación es (2, 1, 0) está
definido por √     20 
− 32
   7
x 9
0 9
x 9
F y  =  √0 1 0  y  +  √1 
z − 32 7 z 32
9
0 9 9

Nota 4.37. Es importante destacar que en el ejemplo 4.36, el vector (2, 1, 0) es un


elemento del plano vectorial x + 2y − 2z = 0. Si esta condición no se cumpliera, el
movimiento no trasladaría los puntos a lo largo del plano afín π, lo que implicaría
que no sería una simetría deslizante.

— 98 —

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10679672

Capítulo 5

Curvas y Superficies

A lo largo de la historia, las cónicas y las cuádricas han cautivado a matemáticos


destacados, trazando un viaje de descubrimientos que ha enriquecido nuestra
comprensión de estas formas geométricas.
En la antigüedad, en torno al 350 a.C., Menecmo inició la exploración de las
cónicas, aunque la falta de registros directos limita nuestros detalles sobre sus
avances. Años después, Apolonio de Perga (262-190 a.C.) marcó un hito crucial
al clasificar las cónicas en elipses, hipérbolas y parábolas, enriqueciendo este
conocimiento con términos fundamentales como foco y directriz. Los matemáticos
de la antigua Grecia, como Euclides y Arquímedes (siglos III y II a.C.), también
sembraron las semillas de las cuadricas al explorar intersecciones de planos y conos.
Existe cierta controversia entre los historiadores acerca de si Arquímedes empleó
espejos parabólicos para incendiar naves enemigas durante la batalla de Siracusa.
Sin embargo, lo que no está en disputa es su profundo interés en estas curvas y
superficies.
En el Renacimiento, la creatividad matemática alcanzó nuevas alturas. René
Descartes (1596-1650) trazó un puente entre estas curvas y superficies geométricas y
las ecuaciones algebraicas mediante la Geometría Analítica, revolucionando la forma
en que las comprendemos. Johannes Kepler (1570-1630) reveló la naturaleza elíptica
de las órbitas planetarias, un hallazgo paradigmático plasmado en Astronomia Nova
y Bernard Bolzano (1781-1848) categorizó las cuádricas según la forma de sus
ecuaciones.

5.1. Cónicas
Las cónicas son curvas que se obtienen al intersectar un plano con un cono
generalizado en el espacio. Dependiendo del ángulo y la posición del plano con
respecto al eje del cono, se obtienen todos los tipos de cónicas.

99

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10679672

5.1. Cónicas C. Bejines

5.1.1. La elipse
Su definición geométrica establece que una elipse es el conjunto de todos los
puntos en un plano, para los cuales la suma de las distancias hacia dos puntos fijos,
denominados focos, permanece invariante. Esta constante resultante es igual a la
longitud del eje mayor de la elipse. Sus elementos geométricos son:

1. Focos: Son dos puntos fijos dentro de la elipse, denotados como F y F 0 . Si P


y Q son dos puntos de la elipse, entonces

d(P, F ) + d(P, F 0 ) = d(Q, F ) + d(Q, F 0 ).

2. Centro: Es el punto medio de los focos.

3. Eje mayor: Es la recta que pasa por los dos focos.

4. Eje menor: Es la recta que es perpendicular al eje mayor y pasa por el centro.

En la figura 5.1 se muestra los elementos geométricos de una elipse.

Figura 5.1: Elementos geométricos de una elipse.

En términos generales, la determinación de estos elementos geométricos no suele


ser una tarea sencilla. No obstante, cuando la ecuación que describe la cónica se

— 100 —

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10679672

5.1. Cónicas Universidad de Málaga

encuentra en su forma reducida, que será estudiada en la sección 5.1.4, estos cálculos
se simplifican notablemente. La forma reducida de la elipse es:
x2 y 2
+ 2 = 1, (5.1)
a2 b
donde a y b son reales positivos. Observando la figura 5.2, que corresponde a una
elipse en su forma reducida, y teniendo en cuenta su representación algebraica,
podemos realizar las siguientes observaciones:
1. El centro O, los focos F y F 0 , así como los puntos A y A0 , están situados
en el eje X. Del mismo modo, el centro O, junto con los puntos B y B 0 , se
encuentran en el eje Y . Por supuesto, O = (0, 0).
2. Podemos sustituir x = 0 e y = 0 en la ecuación (5.1) para calcular los valores
de los puntos de intersección con los ejes. Al realizar esta operación, podemos
llegar a la siguiente conclusión:

A = (a, 0) A0 = (−a, 0) B = (0, b) B 0 = (0, −b)

3. Como los focos están sobre el eje X y son simétricos entre sí respecto el origen,
existe c ∈ R+ tal que

F = (c, 0) F 0 = (−c, 0).

4. Por un lado, tenemos que el eje mayor mide el segmento AA0 , es decir, 2a. Por
otro lado, la suma de las distancias de un punto de la elipse a los focos es igual
al eje mayor. Por lo tanto, tenemos que

d(B, F ) + d(B, F 0 ) = 2a.

Como B está en la mediatriz de los dos focos, d(B, F ) = d(B, F 0 ) = a.


5. Existe un triángulo rectángulo que relaciona estas tres magnitudes, por lo que
es posible determinar el valor de c aplicando el teorema de Pitágoras.

c 2 = a2 − b 2 .

5.1.2. La hipérbola
Su definición geométrica establece que una hipérbola es el conjunto de todos
los puntos en un plano, para los cuales la diferencia de las distancias hacia dos
puntos fijos, denominados focos, es constante. Esta constante resultante es igual a
la longitud del segmento entre los focos y se llama distancia focal. Los elementos
geométricos de una hipérbola son:

— 101 —

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10679672

5.1. Cónicas C. Bejines

Figura 5.2: Propiedades de los elementos geométricos de una elipse.

1. Focos: Son dos puntos fijos dentro de la hipérbola, denotados como F y F 0 .


Dados dos puntos P y Q en la hipérbola, la diferencia de las distancias a los
dos focos es la misma:
d(P, F ) − d(P, F 0 ) = d(Q, F ) − d(Q, F 0 )
Vale la pena apreciar que esta constante coincide con 2a, es decir, la distancia
entre los vértices de las hipérbolas.
2. Centro: Es el punto medio de los focos.
3. Ejes: Son la recta que pasa por los focos y su perpendicular que pasa por el
centro.
4. Asíntotas: Las hipérbolas tienen dos rectas que se acerca cada vez más a la
curva, pero nunca la tocan.
La forma reducida de la hipérbola es:
x2 y 2
− 2 = 1, (5.2)
a2 b
donde a y b son reales positivos. La figura 5.3 muestra una hipérbola en su forma
reducida considerando a = 3 y b = 4.
Los ejes de una hipérbola en su forma reducida coinciden con los ejes cartesianos
y el centro es O = (0, 0). Para determinar los focos a partir de la ecuación reducida,
si F = (c, 0), entonces ese valor c verifica la siguiente fórmula:
c 2 = a2 + b 2 .

— 102 —

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10679672

5.1. Cónicas Universidad de Málaga

Figura 5.3: Hipérbola en su forma reducida.

Para el cálculo de las dos asíntotas oblicuas, como ambas pasan por (0, 0),
necesitamos únicamente la pendiente para cada una, las cuales son ab y −b
a
. Por
lo tanto, las asíntotas son:

b b
y= x y=− x
a a

5.1.3. La parábola
Una parábola se define geométricamente como el conjunto de todos los puntos
en un plano que están equidistantes de un punto fijo llamado foco y una línea recta
llamada directriz. La distancia entre un punto en la parábola y el foco es igual a la
distancia entre ese punto y la directriz. Sus elementos geométricos son

1. Foco: Es un punto fijo que, junto a la directriz, define la posición de la


parábola.

2. Directriz: Es una recta que, junto con el foco, define la posición de la parábola.

3. Vértice o centro: Es el punto medio entre el foco y la directriz.

4. Eje de simetría: Es la recta que pasa por el vértice y es perpendicular a la


directriz.

— 103 —

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10679672

5.1. Cónicas C. Bejines

Si P es un punto de la parábola, entonces la distancia al foco F es igual a la


distancia a la directriz d, es decir,
d(P, F ) = d(P, d).
La parábola es simétrica con respecto a su eje de simetría, el vértice es el punto más
cercano al foco y la directriz es la recta que refleja los rayos paralelos al eje de simetría
para que converjan en el foco. Estas curvas se encuentran en muchas aplicaciones del
mundo real, desde la óptica de las lentes utilizadas en antenas parabólicas y faros
de automóviles, hasta en la física de los movimientos de proyectiles.
En su forma reducida, dependiendo del eje donde se encuentre el foco, tiene una
expresión algebraica u otra.
 Si el foco está en el eje X, la parábola es horizontal y su ecuación reducida es
y 2 = 2px.

 Si el foco está en el eje Y , la parábola es vertical y su ecuación reducida es


x2 = 2py.

donde p es un número real e indica, en valor abosluto, la distancia entre el foco


y la directriz. En la figura 5.4 se muestra una parábola horizontal junto con sus
elementos geométricos.
En esta cónica, el cálculo de sus elementos geométricos en su forma reducida es
bastante directo. El centro es el origen de coordenadas y el eje de simetría es el eje X
o el eje Y dependiendo de si la parábola es horizontal o vertical, respectivamente. La
directriz sigue la fórmula x = − p2 (parábola horizontal) o y = − p2 (parábola vertical).
El foco es F = ( p2 , 0) (parábola horizontal) o F = (0, p2 ) (parábola vertical).

5.1.4. Ecuación general de una cónica


Hasta este punto, hemos examinado las tres cónicas más relevantes: la elipse,
la hipérbola y la parábola. Desde una perspectiva algebraica, una cónica se define
como el conjunto de soluciones de una ecuación polinómica de segundo grado en
dos variables, la cual es conocida como la ecuación general de la cónica. En esta
sección, exploraremos el procedimiento para transformar esta ecuación general a su
forma reducida, lo que nos permitirá identificar y comprender mejor estas figuras
geométricas.
Proposición 5.1. Una cónica está compuesta por la solución de una ecuación
polinómica de segundo grado en dos variables. De forma general, esa ecuación es
ax2 + 2bxy + cy 2 + 2dx + 2ey + f = 0, (5.3)
donde a, b, c, d, e, f ∈ R.

— 104 —

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10679672

5.1. Cónicas Universidad de Málaga

Figura 5.4: Parábola horizontal.

La solución de la ecuación (5.3) es el conjunto


    
n
2 a b x x o
(x, y) ∈ R | (x, y) + 2(d, e) +f =0
b c y y

o equivalentemente,
  
n f d e 1 o
(x, y) ∈ R2 | 1 x y  d a b x = 0


e b c y

En un sistema de coordenadas apropiado, la ecuación de una cónica puede ser


transformada en una forma reducida y más simple.

Definición 5.2. Considere la cónica descrita por la siguiente ecuación polinómica


    
a b x x
(x, y) + 2(d, e) +f =0
b c y y
 
a b
Decimos que es una ecuación reducida de la cónica si es diagonal y se
b c
cumple lo siguiente:
 
a b
1. Si λ = 0 no es autovalor de entonces no hay monomios de grado 1.
b c

— 105 —

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10679672

5.1. Cónicas C. Bejines

 
a b
2. Si λ = 0 es autovalor de entonces el número de monomios de grado 1
b c
es a lo sumo uno.
Nota 5.3. Las ecuaciones reducidas de las cónicas son las siguientes, donde a, b, p 6=
0.
 Elipse (real).
x2 y 2
+ 2 = 1.
a2 b
 Elipse imaginaria.
x2 y 2
+ 2 = −1.
a2 b
 Punto.
x2 y 2
+ 2 = 0.
a2 b
 Hipérbola.
x2 y 2
− 2 = 1.
a2 b
 Dos rectas secantes.
x2 y 2
− 2 = 0.
a2 b
 Parábola (horizontal).
y 2 = 2px.

 Parábola (vertical).
x2 = 2py.

 Dos rectas paralelas.

x 2 = a2 (o también y 2 = a2 ).

 Dos rectas imaginarias paralelas.

x2 = −a2 (o también y 2 = −a2 ).

 Dos rectas coincidentes.

x2 = 0 (o también y 2 = 0).

 Recta.
ax + by + c = 0.

— 106 —

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10679672

5.1. Cónicas Universidad de Málaga

Merece la pena apreciar que la circunsferencia es una caso particular de elipse


tomando a = b.

Definición 5.4. Diremos que una cónica es no degenerada si es una elipse, una
hipérbola o una parábola.

Cuando tenemos una cónica en su forma general (ver ecuación 5.3), el enfoque
clave consiste en transformarla a su ecuación reducida. Esta transformación es
fundamental para reconocer la cónica y, por lo tanto, para determinar sus atributos
geométricos.
Para simplificar la ecuación, utilizaremos un cambio de variables que equivale
a una rotación. Específicamente, aplicaremos una diagonalización ortogonal a la
matriz simétrica  
a b
b c
Después, a través de una traslación, moveremos la cónica al eje de coordenadas
completando cuadrados para facilitar la eliminación de los términos de primer grado.
De esta manera, conseguiremos la ecuación reducida que caracteriza la cónica de
manera más simple y comprensible.

Proposición 5.5. Sea p(x) ∈ R2 [x] definido por p(x) = ax2 + bx + c. Entonces,
 b 2 b2 c
p(x) = x + − 2+
2a 4a a
Este procedimiento de eliminar el término de grado 1 es conocido como completar
cuadrados. Si q(x) = x2 + bx, la fórmula se reduce a
 b  2 b2
q(x) = x + −
2 4
En relación al próximo resultado, es importante considerar que cuando tratamos
con un polinomio p ∈ R2 [x, y], la ecuación p(x, y) = 0 describe a una cónica descrita
según la ecuación (5.3).

Teorema 5.6. Considere el polinomio p : R2 −→ R definido por


    
a b x x
p(x, y) = (x, y) + 2(d, e) +f
b c y y

donde a, b, c, d, e, f ∈ R.

1. Existe una matriz diagonal D y una matriz ortogonal Q tal que


 
a b
= QDQt
b c

— 107 —

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10679672

5.1. Cónicas C. Bejines

Consecuentemente, p(x, y) = 0 equivale a


   0  0
0 0 λ1 0 x x
(x , y ) 0 + 2(d, e)Q 0 + f = 0
0 λ2 y y
 0  
x t x
donde =Q y λ1 , λ2 son los autovalores de D.
y0 y
2. Si se realiza el proceso de completar cuadrados descrito en la proposición 5.5
y el cambio de variable correspondiente a la traslación asociada, entonces se
obtiene la ecuación reducida de la cónica.
Nota 5.7. En las condiciones del teorema 5.6, si c1 y c2 corresponden a los
términos de traslación del proceso de completar cuadrados respecto de las variables
x e y respectivamente, entonces la ecuación reducida se ha obtenido al realizar el
movimiento rígido F : R2 −→ R2 definido por
     
x t x c
F =Q + 1
y y c2
sobre la curva que define la igualdad p(x, y) = 0.
Ejemplo 5.8. Vamos a analizar qué cónica describe la siguiente ecuación polinómi-
ca:
52x2 + 73y 2 − 72xy − 384x + 362y + 657 = 0.
En su forma matricial, tenemos
    
 52 −36 x  x
x y + D E + 657 = 0 (5.4)
−36 73 y y
 
52 −36
Si diagonalizamos ortogonalmente la matriz , tenemos que
−36 73
3 t
  4 3
  4 
52 −36 − 25 0 −
= 53 4 5 5
3 4
5
−36 73 5 5
0 100 5 5

Por el teorema 5.6, la ecuación (5.4) es equivalente a


  0   0
 4 −3
 
0 0
 25 0 x x
x y + −384 362 3 4 5 5 + 657 = 0
0 100 y0 5 5
y0
 0  4 3   
x 5 5
x
donde = . Equivalentemente,
y0 − 35 54 y

25x02 + 100y 02 − 90x0 + 520y 0 + 657 = 0 (5.5)

Ahora completamos cuadrados en cada variable.

— 108 —

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10679672

5.1. Cónicas Universidad de Málaga

   2  2   2
 25x02 − 90x0 = 25 x02 − 18 0
5
x = 25 x0 − 95 − 95 = 25 x0 − 59 − 81.
   2  2   2
 100y 02 + 520y 0 = 100 y 02 + 52
10
y 0
= 100 y 0
+ 26
10
+ 26
10
= 100 y 0
+ 26
10

676.
Por lo que la ecuación (5.5) equivale a
 9 2  26 2
25 x0 − − 81 + 100 y 0 − − 676 + 657 = 0
5 10
Si hacemos los siguientes cambios de variables

x00 = x0 − 9
5
y 00 = y 0 + 26
10

obtenemos la ecuación reducida


x002
25x002 + 100y 002 = 100 ⇐⇒ + y 002 = 1.
4
que corresponde a una elipse. El movimiento rígido que hemos llevado a cabo para
conseguir la ecuación reducida ha sido F : R2 −→ R2 definido por
   4 3    9
x 5 5
x −
F = 3 4 + 265
y −5 5 y 10

En la figura 5.5, podemos ver cómo se transforma la elipse original, mediante la


composición de un giro y una traslación, en una elipse horizontal centrada en el eje
de coordenadas.
Ejemplo 5.9. Estudiemos la ecuación reducida de la siguiente cónica:

x2 − 6xy − 7y 2 + 10x + 2y + 1 = 0.
 
1 −3
Empezamos diagonalizando ortogonalmente la matriz Tenemos que sus
−3 −7
autovalores son las raíces del polinomio característico:

1−λ −3
= λ2 + 6λ − 16.
−3 −7 − λ

Sus autovalores son λ1 = 2 y λ2 = −8. Pasamos a obtener los autovectores:


 Para λ1 = 2 tenemos:     
−1 −3 x 0
= ,
−3 −9 y 0
luego un autovector para el autovalor 2 es (−3, 1).

— 109 —

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10679672

5.1. Cónicas C. Bejines

Figura 5.5: Movimiento de la elipse del ejemplo 5.8.

 Para λ2 = −8 tenemos:
    
9 −3 x 0
= ,
−3 1 y 0
luego un autovector para el autovalor −8 es (1, 3).
Los dos autovectores se encuentran en una relación de ortogonalidad, como se
estableció previamente en la proposición 3.27. Para que estos autovectores puedan
formar una base ortonormal, debemos realizar un proceso de normalización sobre
cada autovector. Vale la pena recordar que nuestro objetivo es realizar una
transformación de giro, por lo que la disposición de los autovectores en la matriz Q
debe ser tal que el determinante de la matriz sea igual a 1. Esto, a su vez, tiene un
impacto en cómo organizamos los autovalores en la matriz diagonal. En consecuencia,
podemos afirmar que la matriz Q toma la forma:
!
√1 −3

10 10
Q= √3 √1
10 10

Por el teorema 5.6, la ecuación x2 − 6xy − 7y 2 + 10x + 2y + 1 = 0 puede reescribirse


de la siguiente forma:
! 
  0
√1 −3
x0

−8 0 x √
(x0 , y 0 ) 0 + (10, 2) √310 √110 + 1 = 0.
0 2 y 10 10
y0

— 110 —

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10679672

5.1. Cónicas Universidad de Málaga

 0  
x t x
donde =Q . Simplificándo,
y0 y
16 28
− 8x02 + 2y 02 + √ x0 − √ y 0 + 1 = 0. (5.6)
10 10
Para eliminar los términos de grado 1, procedemos a completar cuadrados.
   2   2
 −8x02 + √1610 x0 = −8 x02 − √210 x0 = −8 x0 − √110 − 10
1
= −8 x0 − √110 + 10
8

   2   2
02 √28 y 0
 2y − 10
= 2 y 02 − √14 y 0
10
= 2 y0 − √7
10
− 49
10
= 2 y0 − √7
10
− 98
10

Si hacemos los siguientes cambios de variables


x00 = x0 − √1
10
y 00 = y 0 − √7
10

y los sustituimos en la ecuación (5.6), obtenemos


8 98
−8x002 + 2y 002 + − + 1 = 0.
10 10
Equivalentemente, obtenemos la ecuación reducida
y 002
x002 − = −1.
4
que corresponde a una hipérbola. El movimiento rígido que hemos llevado a cabo
para conseguir la ecuación reducida ha sido F : R2 −→ R2 definido por
!  !
1 3 1

 
x √ √ x √
10 10 10
F = +
y − √310 √110 y − √710

La hipérbola x2 − 6xy − 7y 2 + 10x + 2y + 1 = 0 está dibujada en la figura 5.6, junto


con sus dos asíntotas.

Ejemplo 5.10. Estudiemos la ecuación reducida de la siguiente cónica:


√ √
x2 + y 2 + 2xy + 6 2x − 2 2y + 26 = 0.
 
1 1
Primero debemos diagonalizar ortogonalmente la matriz . Este proceso, el
1 1
cual omitimos, concluye que
√ √ !  √2 √ !t
2 2 2
 
1 1 − 2 0 −
= √22 √22 √2
2
√2
2
1 1 0 0
2 2 2 2

— 111 —

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10679672

5.1. Cónicas C. Bejines

Figura 5.6: Hipérbola de ecuación x2 − 6xy − 7y 2 + 10x + 2y + 1 = 0.


√ √
Por lo tanto, la cónica que se describe con la ecuación x2 +y 2 +2xy +6 2x−2 2y +
26 = 0 equivale a
√ √ ! 
02
√ √  2
− 2
x0
2x + 6 2 −2 2 √2 √2 + 26 = 0,
2 2 y0
2 2

 0 √ √ ! 
2 2
x 2√ √2
x
donde = . Equivalentemente,
y0 − 2 2 y
2 2

2x02 + 8y 0 + 4x0 + 26 = 0.

Teniendo en cuenta que 2x02 + 4x0 = 2(x0 + 1)2 − 2, podemos simplificar la expresión
anterior por

2(x0 + 1)2 − 2 + 8y 0 + 26 = 0 ⇐⇒ 2x002 + 8(y 0 + 24) = 0 ⇐⇒ x002 + 4y 00 = 0

donde y 00 = y 0 + 3 y x00 = x0 + 1. Esta igualdad corresponde a la ecuación reducida


de una parábola. Para obtener esta expresión, hemos aplicado el movimiento F :
R2 −→ R2 definido por
√ √ ! 
2 2
   
x 2 2
x 1
F = √
2

2
+
y − y 3
2 2

— 112 —

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10679672

5.1. Cónicas Universidad de Málaga

5.1.5. Cálculo de los elementos geométricos


En las secciones sobre elipse, hipérbola y parábola, hemos visto como hallar los
elementos geométricos de estas cónicas no degeneradas en su forma reducida. Para
determinar los elementos geométricos de una cónica en su forma general, podemos
recurrir al siguiente procedimiento:

1. Transformamos la cónica en su forma reducida aplicando un movimiento rígido


F.

2. Determinamos sus elementos geométricos.

3. Deshacemos el movimiento rígido sobre los elementos geométricos aplicando


F −1 .

En el caso de la elipse, la hipérbola y la parábola, debemos obtener todos sus


elementos geométricos. En el caso de las cónicas degeneradas, bastará únicamente
con su centro, es decir, la preimagen del (0, 0) mediante el movimiento rígido que
se haya llevado a cabo. Veamos los elementos geométricos de las tres cónicas no
degeneradas que ya identificamos en los ejemplos anteriores.

Ejemplo 5.11. Como vimos en el ejemplo 5.8, la ecuación general

52x2 + 73y 2 − 72xy − 384x + 362y + 657 = 0

corresponde a una elipse. Tras haber realizado el movimiento F : R2 −→ R2 definido


por    4 3    9
x 5 5
x −
F = + 265
y − 35 54 y 10

obtuvimos la ecuación reducida


x002
+ y 002 = 1.
4
Esta igualdad implica que el semieje mayor sea a = 2 y el semieje menor b = 1. Por
lo tanto, √
c2 = a2 − b2 ⇐⇒ c = 3
A√raíz de este
√ hecho, tenemos que los focos, en su forma reducida,√ se situan en
( 3, 0) y (− 3, 0). Para determinar el foco F1 del que procede ( 3, 0), debemos
deshacer el movimiento, es decir, encontrar el par (x, y) tal que
√   4 3
    9
3 5 5
x −
= + 265
0 − 35 4
5
y 10

— 113 —

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10679672

5.1. Cónicas C. Bejines

Si simplificamos, nos queda el sistema de ecuaciones



4x + 3y = 9 + 5 3
−3x + 4y = −13

Tras aplicar el método de Gauss-Jordan, obtenemos como única solución el punto


correspondiente a uno de los focos:
 75 20√3 79 15√3 
F1 = + ,− −
7 7 7 7
Para el otro foco F2 , repetimos el proceso encontrando el par (x, y) tal que
 √   4 3    9
− 3 5 5
x −
= 3 4 + 265
0 −5 5 y 10

La solución de este sistema, y por tanto el otro foco buscado, es:


 75 20√3 79 15√3 
F2 = − ,− +
7 7 7 7
Para el centro C, podemos simplemente hacer el punto medio de los dos focos:

F1 + F2  75 79 
C= ⇐⇒ C = ,−
2 7 7
El segmento del eje mayor contenido en la cónica mide 2a = 4 y el eje
 √ mayor es
√ 
la
20 3 15 3
recta r que une los dos focos. Un vector de dirección es F1 − C = 7
,− 7 ,
por lo que la recta es: √
x = 75

+ 20 √3λ
r≡ 7
y = − 79 7
− 15 3λ
Por otro lado, el segmento del eje menor contenido en la cónica mide 2b = 2 y el eje
menor es la recta s que es perpendicular a r y pasa por el centro C, es decir,

x = 75

+ 15 √3λ
s≡ 7
y = − 79 7
+ 20 3λ

Nota 5.12. Es posible que al hacer el giro de la diagonalización ortogonal, el eje


mayor sea el eje Y en lugar del eje X. Esto debe tenerse en cuenta a la hora de
revertir el movimiento rígido, puesto que los focos de la elipse son de la forma (0, c).

Ejemplo 5.13. En el ejemplo 5.9 estudiamos la siguiente ecuación general:

x2 − 6xy − 7y 2 + 10x + 2y + 1 = 0,

— 114 —

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10679672

5.1. Cónicas Universidad de Málaga

la cual correspondía a una hipérbola cuya ecuación reducida era

y 002
x002 − = −1.
4
El movimiento rígido que habíamos llevado a cabo para conseguir la ecuación
reducida fue F : R2 −→ R2 definido por
!  !
√1 √3 − √1
 
x 10 10 x 10
F = +
y − √310 √110 y − √710

Observando la ecuación reducida, obtenemos que a = 1 y b = 2, por lo que c = 5
y, consecuentemente,

1. Los focos de la hipérbola en su forma reducida son


√ √
( 5, 0) y (− 5, 0)

2. Las asíntotas de la hipérbola en su forma reducida son

y = 2x y y = −2x

Para determinar los elementos geométricos de la hipérbola original, deshacemos el


movimiento rígido.

1. Cálculo de los focos. Primero, buscamos la preimagen de ( 5, 0):
!  !
√1 √3 − √1
√ 
5 10 10 x 10
= +
0 − √310 √110 y − √710

cuya única solución es


 1 3 
F1 = √ − 2, √ + 1 .
2 2

Análogamente, calculamos la preimagen de (− 5, 0):
 √  1 3
! 
1
!
− 5 √
10

10 x − √
10
= +
0 − √310 √110 y − √710

cuya única solución es


 1 3 
F2 = − √ − 2, − √ + 1 .
2 2

— 115 —

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10679672

5.1. Cónicas C. Bejines

2. El centro C es el punto medio de los focos, por lo que


F1 + F2
C= ⇐⇒ C = (−2, 1).
2
3. Ejes de la hipérbola. Estos están formados por la recta r que pasa por los focos
y la recta s que es perpendicular a r y pasa por el centro. Por lo tanto,

x = −2 + λ
r≡
y = 1 + 3λ

x = −2 − 3λ
s≡
y = 1 + λ

4. Cálculo de las asíntotas. Para lograr esto, debemos verificar la preimagen de


las rectas y = 2x e y = −2x, lo que nos permitirá construir las asíntotas de la
hipérbola original. Vamos a realizar este proceso paso a paso.
Para la recta y = 2x, calcularemos la preimagen de los puntos (0, 0) y (1, 2).
Ya hemos determinado que F −1 (0, 0) = (−2, 1). Ahora, verificaremos qué par
(x, y) cumple con la siguiente condición:
!  !
1 3 1

 
1 √ √ x √
10 10 10
= +
2 − √310 √110 y − √710

La solución de este sistema es el punto


r r 
−1
 5 5
F (1, 2) = −2− ,1 +
2 2
Tomando el centro como punto y un vector proporcional a F −1 (1, 2) −
F −1 (0, 0), concluimos que una asíntota es

x = −2 − λ
t1 ≡
y = 1 + λ
De forma análoga, para la recta y = −2x, calcularemos la preimagen de los
puntos (0, 0) y (1, −2). Teniendo en cuenta que F −1 (0, 0) = (−2, 1), basta con
verificar qué par (x, y) cumple con la siguiente condición:
!  !
√1 √3 − √1
 
1 10 10 x 10
= +
−2 − √310 √110 y − √710

La solución de este sistema es el punto


−1
 7 1 
F (1, −2) = − 2 + √ , 1 + √
10 10

— 116 —

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10679672

5.1. Cónicas Universidad de Málaga

Tomando el centro como punto y un vector proporcional a F −1 (1, −2) −


F −1 (0, 0), concluimos que la otra asíntota es

x = −2 + 7λ
t2 ≡
y = 1 + λ

Nota 5.14. De manera similar a lo observado en el caso de la elipse, es posible


que al aplicar una transformación de giro a la hipérbola mediante la diagonalización
ortogonal, el eje que se convierta en el eje mayor sea el eje Y en lugar del eje X.
Como resultado, se obtiene una ecuación reducida en la que el coeficiente negativo
se encuentra junto a la variable x en lugar de la variable y. Este hecho debe tenerse
en cuenta cuando se considere revertir del movimiento rígido, ya que los focos de la
hipérbola adquirirían una expresión de la siguiente forma: (0, c).

Ejemplo 5.15. En el ejemplo 5.10, estudiamos la ecuación general


√ √
x2 + y 2 + 2xy + 6 2x − 2 2y + 26 = 0,

la cual correspondía a una parábola cuya ecuación reducida resultó ser

x002 + 4y 00 = 0.

Para obtener esta expresión, recurrimos al movimiento F : R2 −→ R2 definido por


√ √ ! 
2 2
   
x 2 2
x 1
F = √
2

2
+
y −2 y 3
2

Vamos a determinar los elementos geométricos de la parábola original. Debemos


tener el cuenta que la ecuación reducida corresponde a una parábola vertical del
tipo
x2 = 2py.
Por lo tanto, el valor del parámetro p es − 81 .

1. Foco: La parábola en su forma reducida tiene el foco en (0, p2 ). Para hallar el


foco de la parábola original, debemos determinar el par (x, y) tal que
√ √ ! 
2 2
   
0 2√ √2
x 1
1 = +
− 16 −2 2 2 y 3
2

La solución de este sistema de ecuaciones es


 33 65 
F = √ ,− √
16 2 16 2

— 117 —

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10679672

5.1. Cónicas C. Bejines

2. Vértice: El centro de la parábola original es F −1 (0, 0), es decir, la solución de


√ √ ! 
2 2
   
0 2 2
x 1
= √
2

2
+
0 −2 y 3
2

Tras aplicar Gauss-Jordan, obtenemos que el vértice o centro es


√ √ 
C= 2, −2 2

3. Eje de simetría: Como es la recta que une el centro y el foco, tenemos que el
eje de simetría de la parábola original es
 √
x = 2 + λ

r≡
y = −2 2 − λ

donde el vector de dirección se ha obtenido proporcionalmente a F − C.

4. Directriz: Es la recta perpendicular al eje de simetría que pasa por el punto


F −1 (0, − p2 ). Resolviendo el sistema de ecuaciones asociado, se obtiene que

1  31 63 
F −1 (0, )= √ ,− √
16 16 2 16 2
Esto implica que la directriz es
(
x = 1631√2 + λ
d≡
y = − 1663√2 + λ

5.1.6. Creación de una cónica


Hasta este momento, hemos identificado qué tipo de cónica se deriva de una
ecuación general y hemos determinado sus elementos geométricos. En esta sección,
cambiaremos de enfoque y veremos ejemplos de cómo realizar lo contrario: encontrar
la ecuación general de una cónica específica que deseamos construir.
Para lograr esto, seguiremos los siguientes intuitivos pasos:

1. Construirnos la ecuación reducida de la cónica.

2. La desplazamos a la posición deseada.

3. La rotamos a la posición final.

Veamos varios ejemplos.

— 118 —

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10679672

5.1. Cónicas Universidad de Málaga

Ejemplo 5.16. Supongamos que queremos construir una circunsferencia de centro


(4, 2) y radio 3. Como se trata de una circunferencia, estamos ante una elipse en la
que a = b. Además, el radio es 3, así que a = b = 3. Esto implica que la ecuación
reducida de una circunsferencia de radio 3 es
x2 y 2
+ = 1.
9 9
El centro en su forma reducida es el (0, 0). Para que la circunsferencia esté centrada
en (4, 2), debemos aplicar una traslación mediante el vector (4, 2), es decir, vamos a
realizar este cambio de variable:
x0 = x + 4
y0 = y + 2

Sustituyendo en nuestra ecuación, nos queda lo siguiente:

(x0 − 4)2 (y 0 − 2)2


+ = 1.
9 9
Además, al ser una circunsferencia, aplicar una rotación carece de sentido, por lo
que hemos terminado. El movimiento que hemos efectuado sobre la cónica en su
forma reducida para transformarla en la deseada ha sido F : R2 −→ R2 definido por
      
x 1 0 x 4
F = +
y 0 1 y 2

y la ecuación general de la circunsferencia con centro (4, 2), desarrollando la ecuación


anterior, es
x2 − 8x + y 2 − 3y + 11 = 0

Ejemplo 5.17. Supongamos que queremos construir una hipérbola con focos

F1 = (2, 6) y F2 = (10, 0)

que pase por P = (10, 6).

1. La ecuación reducida de una hipérbola es

x2 y 2
− 2 =1
a2 b
Por un lado, la distancia entre ambos focos es d(F1 , F2 ) = 10, por lo que
2c = 10 implica c = 5. A partir de la figura 5.3, tenemos que

a2 + b2 = 25.

— 119 —

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10679672

5.1. Cónicas C. Bejines

Por otro lado, P = (10, 6) pertenece a la hipérbola y

d(P, F1 ) − d(P, F2 ) = 8 − 6 = 2,

así que |d(Q, F ) − d(Q, F 0 )| = 2 para cualquier punto de la hipérbola. En


particular, para el punto A = (a, 0),

d(A, F ) − d(A, F 0 ) = 2 ⇐⇒ (c + a) − (c − a) = 2a.



Por lo tanto, a = 1. Esto implica que b = 24. Ya tenemos la ecuación
reducida:
y2
x2 − =1
24
2. El centro es el punto medio de los focos, es decir,
F1 + F2
C= = (6, 3).
2
Por lo que el vector de traslación que usaremos es (6, 6). Mientras que el eje
X de la hipérbola en su forma reducida contiene los focos (−c, 0) y (c, 0), en
la ecuación general que estamos buscando, el eje es la recta que conecta los
focos F1 y F2 . Esto implica que el vector que originalmente unía los focos en
la ecuación reducida, se transforma en el vector que conecta F1 y F2 . En otras
palabras, el vector (10, 0) se transforma en el vector (8, −6) mediante un giro.
Calculemos el ángulo α tal que
    
8 cos α −sen α 10
=
−6 sen α cos α 0

Equivalentemente, cos α = 54 y sen α = − 35 . Por lo tanto, el movimiento que


debemos efectuar en nuestra ecuación reducida es F : R2 −→ R2 definido por
   4 3    
x 5 5
x 6
F = 3 4 +
y −5 5 y 3

Vamos a aportar la inversa de F , por lo que vamos a despejar el par (x, y).
 0
x = 45 x + 53 y + 6
y 0 = − 35 x + 54 y + 3

15x0 = 12x + 9y + 90

⇐⇒
20y 0 = −12x + 16y + 60

De aquí deducimos que 25y = 15x0 + 20y 0 − 150. Siguiendo un procedimiento


análogo, obtenemos que 25x = 20x0 − 15y 0 − 75.

— 120 —

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10679672

5.1. Cónicas Universidad de Málaga

Sustituyendo en la ecuación reducida, tenemos:

y2 (20x0 − 15y 0 − 75)2 (15x0 + 20y 0 − 150)2


x2 − = 1 ⇐⇒ − =1
24 252 24 · 252
Tras un procedimiento de simplificación, concluimos que la ecuación general de la
hipérbola que buscábamos es:

15x2 − 24xy − 108x + 8y 2 + 96y + 156 = 0,

la cual podemos visualizar en la figura 5.7.

Figura 5.7: Hipérbola de ecuación 15x2 − 24xy − 108x + 8y 2 + 96y + 156 = 0.

Ejemplo 5.18. Supongamos que queremos construir la parábola que tiene como
directriz y = x − 1 y foco F = (−1, 3). Si partimos de la forma reducida asociada
a una parábola vertical, vamos a buscar el movimiento rígido F : R2 −→ R2 que
transforma la parábola x2 = 2py en la parábola deseada.

1. Para el vector de traslación necesitamos saber el vértice de la parábola final.


Sabemos que se encuentra en el eje de simetría y está en el punto medio entre
el foco F (−1, 3) y la directriz d ≡ y = x − 1. Primero, el eje de simetría es

r ≡ y = −x + 2

— 121 —

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10679672

5.1. Cónicas C. Bejines

Segundo, la intersección Q = r ∩ d es el punto del plano que es solución de


ambas ecuaciones cartesianas, es decir,
3 1
Q= , .
2 2
Por último, tenemos que el vértice de la parábola es el punto medio entre F y
Q,
F + Q 1 7
C= = ,
2 4 4
Por lo que ya tenemos el vector de traslación.

2. La directriz de la parábola x2 = 2py es y = − p2 , lo que implica que el vector


de dirección es (1, 0). Cuando apliquemos el movimiento rígido F , este vector
de dirección se convierte en (1, 1), que es el vector de dirección de la nueva
directriz y = x − 1. Un sencillo cálculo nos da como resultado que el ángulo
α es igual a π4 , lo que implica que la matriz ortogonal correspondiente a la
rotación sea √ √ !
2 2
√2
−√2
2 2
2 2

Es importante tener en cuenta que en una parábola vertical, el foco se


encuentra arriba de la recta y = − p2 . En este caso, el nuevo foco mantiene
esta disposición relativa al girar la directriz. Si la disposición fuera diferente,
el giro debería realizarse en la dirección opuesta, lo que cambiaría el ángulo
como consecuencia.

El movimiento rígido F : R2 −→ R2 que transforma la parábola vertical en la


parábola que queríamos construir es:
√ √ ! 
2 2
  1
x − x
F = √22 √22 + 47
y y 42 2

El cambio de variable que debemos realizar es


( √ √
x0 = √22 x − √22 y + 1
4
y 0 = 22 x + 22 y + 7
4

De lo que se deduce que   


x = √1 x0 + y 0 −2
2 
y = √1 y 0 − x0 3
−2
2

— 122 —

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10679672

5.2. Cuádricas Universidad de Málaga

Vamos a aplicar este cambio de variable a la ecuación reducida x2 = 2pxy .


Recordemos que p es el parámetro que indica la distancia entre el foco y la directriz.
En otras palabras, p = d(F, Q) = kF Qk= √52 . Por lo tanto,
 1  2 10  1  3 
x2 = 2py ⇐⇒ √ x0 + y 0 − 2 = √ √ y 0 − x0 −
2 2 2 2
Simplificando y desarrollando los cuadrados, obtenemos la ecuación general de la
parábola deseada:

x02 + 2x0 y 0 + 6x0 + y 02 − 14y 0 + 19 = 0.

En la figura 5.8, mostramos la visualización de la parábola.

Figura 5.8: Parábola de ecuación x2 + 2xy + 6x + y 2 − 14y + 19 = 0.

5.2. Cuádricas
Las cuádricas incluyen varios tipos de superficies, como elipsoides, hiperboloides,
paraboloides, conos, cilindros y esferas. Cada uno de estos tipos de cuádricas tiene
propiedades geométricas y matemáticas específicas. Las cuádricas son una parte
importante de la geometría algebraica y tienen aplicaciones en campos como la
física y la ingeniería, especialmente en la descripción de formas y superficies en el
espacio tridimensional.

— 123 —

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10679672

5.2. Cuádricas C. Bejines

Definición 5.19. Una cuádrica es el lugar geométrico de los puntos que son
solución de una ecuación polinómica de segundo grado en tres variables. De forma
general, esa ecuación es

A1 x2 + A2 y 2 + A3 z 2 + 2B1 xy + 2B2 xz + 2B3 yz + 2C1 x + 2C2 y + 2C3 z + D = 0, (5.7)

donde Ai , Bi , Ci , D ∈ R para i ∈ {1, 2, 3}.


La solución de la ecuación 5.7 es el conjunto
    
n A1 B1 B2 x x o
(x, y, z) ∈ R3 | (x, y, z) B1 A2 B3  y  + 2(C1 , C2 , C3 ) y  + D = 0 ,
B2 B3 A3 z z
o equivalentemente,
  
D C1 C2 C3 1
n  C1 A1 B1 B2  x
  o
(x, y, z) ∈ R3 | 1 x y z 

=0 .
C 2 B1 A2 B3  y 
C3 B2 B3 A3 z
En un sistema de coordenadas adecuado, la ecuación puede reducirse a una
ecuación reducida sin cambiar el conjunto de soluciones. Las ecuaciones reducidas
de las cuádricas son las siguientes, donde a, b, c, p 6= 0. Debe tenerse en cuenta que
las variables son intercambiables, no necesariamente la primera variable siempre
aparece o es positiva.
 Elipsoide (real).
x2 y 2 z 2
+ 2 + 2 = 1.
a2 b c
 Elipsoide imaginario.
x2 y 2 z 2
+ 2 + 2 = −1.
a2 b c
 Hipérboloide de una hoja.
x2 y 2 z 2
+ 2 − 2 = 1.
a2 b c
 Hipérboloide de dos hojas.
x2 y 2 z 2
− 2 − 2 = 1.
a2 b c

 Cono (real).
x2 y 2 z 2
+ 2 − 2 = 0.
a2 b c

— 124 —

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10679672

5.2. Cuádricas Universidad de Málaga

 Cono imaginario ( = punto).

x2 y 2 z 2
+ 2 + 2 = 0.
a2 b c

 Paraboloide elíptico.
x2 y 2
+ 2 − 2cz = 0.
a2 b
 Paraboloide hiperbólico.
x2 y 2
− 2 − 2cz = 0.
a2 b
 Cilindro elíptico (real).
x2 y 2
+ 2 = 1.
a2 b
 Cilindro elíptico imaginario.
x2 y 2
+ 2 = −1.
a2 b

 Cilindro hiperbólico.
x2 y 2
− 2 = 1.
a2 b
 Dos planos secantes.
x2 y 2
− 2 = 0.
a2 b
 Dos planos imaginarios secantes ( = recta).

x2 y 2
+ 2 = 0.
a2 b

 Cilindro parabólico.
y 2 = 2px.

 Dos planos paralelos.


x 2 = a2 .

 Dos planos imaginarios paralelos.

x2 = −a2 .

 Dos planos coincidentes.


x2 = 0.

— 125 —

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10679672

5.2. Cuádricas C. Bejines

 Plano.
ax + by + cz + d = 0.

Nota 5.20. La esfera es una caso particular de elipsoide tomando a = b = c.

En la figura 5.9, mostramos todos los tipos de cuádricas (no imaginarias).

Figura 5.9: Cuádricas reales.

Para obtener la ecuación reducida de una cuádrica se realiza el mismo proceso


que para las cónicas: diagonalización ortogonal y completamos cuadrados.

— 126 —

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10679672

5.2. Cuádricas Universidad de Málaga

Teorema 5.21. Considere el polinomio p : R3 −→ R definido por


    
A1 B1 B2 x x
p(x, y, z) = (x, y, z) B1 A2 B3  y  + 2(C1 , C2 , C3 ) y  + D
B2 B3 A3 z z

donde Ai , Bi , Ci , D ∈ R para todo i ∈ {1, 2, 3}.

1. Existe una matriz diagonal D y una matriz ortogonal Q tal que


 
A1 B1 B2
B1 A2 B3  = QDQt
B2 B3 A3

Consecuentemente, p(x, y, z) = 0 equivale a


   0  0
λ1 0 0 x x
0 0 0 
(x , y , z ) 0 λ2 0   y + 2(C1 , C2 , C3 )Q y 0  + D = 0
0 
0 0 λ3 z0 z0
 0  
x x
0 t 
donde y = Q y y λ1 , λ2 , λ3 son los autovalores de D.

z0 z
2. Si se realiza el proceso de completar cuadrados descrito en la proposición 5.5
y el cambio de variable correspondiente a la traslación asociada, entonces se
obtiene la ecuación reducida de la cuádrica.

Nota 5.22. En las condiciones del teorema 5.21, si c1 , c2 y c3 corresponden a los


términos de traslación del proceso de completar cuadrados respecto de las variables
x, y, z respectivamente, entonces la ecuación reducida se ha obtenido al realizar el
movimiento rígido F : R2 −→ R2 definido por
     
x t x c
F =Q + 1
y y c2

sobre la superficie que define la igualdad p(x, y, z) = 0.

Si deseamos construir una superficie cuádrica, al igual que con las cónicas,
comenzamos creando su ecuación reducida y luego aplicamos un movimiento rígido
para trasladarla y orientarla según nuestras preferencias. Este enfoque nos permite
manipular y diseñar cuádricas de manera efectiva para adaptarlas a nuestras
necesidades y visualizar sus propiedades de manera más conveniente.

— 127 —

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.

También podría gustarte