Álgebra para Ingeniería
Carlos Bejines
11 de septiembre de 2023
C. Bejines
—2—
Índice general
1. Sistemas de ecuaciones y espacios vectoriales 5
1.1. Sistemas de ecuaciones lineales . . . . . . . . . . . . . . . . . . . . . . 5
1.1.1. Conjuntos y estructuras algebraicas . . . . . . . . . . . . . . . 5
1.1.2. Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.1.3. Resolución de sistemas lineales . . . . . . . . . . . . . . . . . . 10
1.1.4. Estructuras algebraicas . . . . . . . . . . . . . . . . . . . . . . 12
1.2. Espacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.2.1. Linealidad y sistema generador . . . . . . . . . . . . . . . . . 15
1.2.2. Base y dimensión . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.2.3. Subespacios vectoriales . . . . . . . . . . . . . . . . . . . . . . 20
1.2.4. Cambio de base . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2. Aplicaciones lineales 25
2.1. Definiciones y resultados iniciales . . . . . . . . . . . . . . . . . . . . 25
2.1.1. Funciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.1.2. Aplicaciones lineales . . . . . . . . . . . . . . . . . . . . . . . 26
2.1.3. Núcleo e imagen de una aplicación lineal . . . . . . . . . . . . 27
2.1.4. Aplicaciones lineales como matrices . . . . . . . . . . . . . . . 29
2.2. Diagonalización . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.2.1. Matrices semejantes . . . . . . . . . . . . . . . . . . . . . . . . 33
2.2.2. Autovalores y autovectores . . . . . . . . . . . . . . . . . . . . 33
2.2.3. Caracterización de las matrices diagonalizables . . . . . . . . . 36
2.2.4. Algoritmo para la diagonalización . . . . . . . . . . . . . . . . 38
2.3. Forma canónica de Jordan . . . . . . . . . . . . . . . . . . . . . . . . 40
2.3.1. Bloques de Jordan . . . . . . . . . . . . . . . . . . . . . . . . 40
2.3.2. Algoritmo para la forma canónica de Jordan . . . . . . . . . . 43
3. Espacio afín y euclídeo 47
3.1. Espacio euclídeo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
3.1.1. Producto escalar . . . . . . . . . . . . . . . . . . . . . . . . . 47
3.1.2. Norma y ángulo . . . . . . . . . . . . . . . . . . . . . . . . . . 49
3.1.3. Ortogonalidad . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
3
ÍNDICE GENERAL C. Bejines
3.1.4. Proyección ortogonal . . . . . . . . . . . . . . . . . . . . . . . 53
3.1.5. Método de Gram-Schmidt . . . . . . . . . . . . . . . . . . . . 54
3.1.6. Diagonalización ortogonal . . . . . . . . . . . . . . . . . . . . 55
3.2. Espacio afín . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
3.2.1. Nociones básicas: Puntos, subespacios y distancias . . . . . . . 60
3.2.2. Ecuaciones paramétricas y cartesianas . . . . . . . . . . . . . 62
3.2.3. Sistema de referencia . . . . . . . . . . . . . . . . . . . . . . . 64
3.2.4. Posición relativa . . . . . . . . . . . . . . . . . . . . . . . . . . 64
3.2.5. El espacio real R3 . . . . . . . . . . . . . . . . . . . . . . . . . 66
4. Transformaciones Geométricas 75
4.1. Isometrías . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
4.1.1. Transformaciones ortogonales . . . . . . . . . . . . . . . . . . 75
4.1.2. Isometrías en el plano . . . . . . . . . . . . . . . . . . . . . . 76
4.1.3. Isometrías en el espacio . . . . . . . . . . . . . . . . . . . . . . 78
4.2. Movimientos rígidos . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
4.2.1. Transformaciones afines . . . . . . . . . . . . . . . . . . . . . 83
4.2.2. Movimientos rígidos en el plano . . . . . . . . . . . . . . . . . 85
4.2.3. Movimientos rígidos en el espacio . . . . . . . . . . . . . . . . 88
5. Curvas y Superficies 97
5.1. Cónicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
5.1.1. La elipse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
5.1.2. La hipérbola . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
5.1.3. La parábola . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
5.1.4. Ecuación general de una cónica . . . . . . . . . . . . . . . . . 102
5.1.5. Cálculo de los elementos geométricos . . . . . . . . . . . . . . 111
5.1.6. Creación de una cónica . . . . . . . . . . . . . . . . . . . . . . 116
5.2. Cuádricas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121
—4—
Capítulo 1
Sistemas de ecuaciones y espacios
vectoriales
1.1. Sistemas de ecuaciones lineales
En el ámbito de las matemáticas, existen varios conceptos y herramientas que son
esenciales para comprender y analizar diversas áreas de estudio. En esta sección, se
presentan varias nociones fundamentales para entender la asignatura Álgebra Lineal.
1.1.1. Conjuntos y estructuras algebraicas
Los conjuntos nos permiten organizar y agrupar elementos, estableciendo
relaciones entre ellos y determinando su pertenencia a un conjunto específico. Estos
conceptos son fundamentales para clasificar y estructurar datos en diversas áreas,
desde el análisis de datos hasta la teoría de conjuntos.
Definición 1.1. Un conjunto es una colección de objetos llamados elementos. El
cardinal de un conjunto es el número de elementos que tiene.
Se representan mediante llaves y pueden tener elementos enumerados o definidos
mediante una propiedad común. Por ejemplo, el conjunto {rojo, azul, amarillo} y el
conjunto formado por los tres colores primarios son iguales.
Ejemplos 1.2. Los siguientes conjuntos serán utilizados frecuentemente.
Los números naturales, N = {1, 2, 3, . . . }.
Los números enteros, Z = {0, 1, −1, 2, −2, 3, −3, . . . }.
Los números racionales, Q = { pq | p ∈ Z, q ∈ N}.
Los números reales, R.
5
1.1. Sistemas de ecuaciones lineales C. Bejines
Los números complejos, C = {a + bi | a, b ∈ R}.
Definición 1.3. Sea A y B dos conjuntos. Se dice que
A está contenido en B, A ⊆ B, si todos los elementos de A están en B. Decimos
que A es un subconjunto de B.
A es igual a B, A = B, si A ⊆ B y B ⊆ A.
Definición 1.4. Sea A y B dos subconjuntos de un conjunto E.
Se define el complementario de A en E como
Ac := {x ∈ E | x ∈
/ A}.
Se define la intersección de A y B en E como
A ∩ B := {x ∈ E | x ∈ A, x ∈ B}.
Se define la unión de A y B en E como
A ∪ B := {x ∈ E | x ∈ A o x ∈ B}.
Se define el producto cartesiano A × B como
A × B := {(x, y) | x ∈ A, y ∈ B}.
Proposición 1.5. Si A y B son dos subconjuntos de un conjunto E, entonces se
tienen las siguientes propiedades:
1. A ∩ B ⊆ A ⊆ A ∪ B.
2. A ∩ Ac = ∅ (conjunto vacío).
3. A ∪ Ac = E (conjunto total).
4. A ∩ A = A = A ∪ A (Idempotencia).
5. A ∩ B = B ∩ A y A ∪ B = B ∪ A (Conmutatividad).
6. A ∩ (B ∩ C) = (A ∩ B) ∩ C y A ∪ (B ∪ C) = (A ∪ B) ∪ C (Asociatividad).
7. A ∪ (B ∩ C) = (A ∪ B) ∩ (A ∪ C) (Distributividad).
8. A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C) (Distributividad).
9. (A ∩ B)c = Ac ∪ B c (Leyes de Morgan).
10. (A ∪ B)c = Ac ∩ B c (Leyes de Morgan).
Definición 1.6. Sea E un conjunto. Se define partes de E, como el conjunto
formado por todos los subconjuntos de E y se denota por P(E).
—6—
1.1. Sistemas de ecuaciones lineales Universidad de Málaga
1.1.2. Matrices
Las matrices nos ayudan a organizar datos en forma tabular y realizar operacio-
nes matemáticas en conjuntos de datos. Son indispensables para resolver sistemas
de ecuaciones lineales, transformar y analizar datos en aplicaciones científicas y
tecnológicas, y representar relaciones y transformaciones lineales.
Definición 1.7. Una matriz es una tabla de valores (reales o complejos) represen-
tada de la siguiente forma:
a11 a12 . . . a1n
a21 a22 . . . a2n
.. .. .. ..
. . . .
am1 am2 . . . amn m×n
Si m = n, decimos que la matriz es cuadrada.
Si todos los valores de la matriz son cero, decimos que es la matriz nula.
Matriz fila: matriz de tamaño 1 × n.
Matriz columna: matriz de tamaño n × 1.
Matriz diagonal: Todos los elementos que no están en la diagonal valen cero.
Matriz triangular superior: Todos los elementos por debajo de la diagonal valen
cero.
Matriz triangular inferior: Todos los elementos por encima de la diagonal valen
cero.
Matriz identidad: Matriz diagonal cuyos valores en la diagonal son todos
iguales a uno.
Definición 1.8. Consideremos la matriz A = (aij )m×n . Se define la matriz
traspuesta At de A como At = (aji )n×m .
A es simétrica si A = At .
A es antisimétrica si A = −At .
Proposición 1.9. Consideremos la matriz A = (aij )m×n . Se tienen las siguientes
propiedades.
1. A = (At )t .
—7—
1.1. Sistemas de ecuaciones lineales C. Bejines
2. (A + B)t = At + B t .
3. λAt = (λA)t .
4. (AB)t = B t At .
Definición 1.10. Las siguientes acciones sobre una matriz son conocidas como
operaciones elementales.
1. Intercambiar dos filas.
2. Multiplicar una fila por un escalar no nulo.
3. Suma a una fila el producto de otra fila por un escalar.
Dos matrices son equivalentes si puedo pasar de una a la otra usando operaciones
elementales.
Una matriz escalonada por filas es una forma específica de organizar una matriz
donde cada fila no nula comienza con más ceros a la izquierda que la fila anterior.
Definición 1.11. Una matriz escalonada reducida por filas es una matriz que
cumple lo siguiente:
1. El primer elemento no nulo de cada fila, conocido como pivote o líder, es igual
a 1.
2. Cada fila no nula comienza con más ceros a la izquierda que la fila anterior.
3. El resto de valores en la columna de los pivotes son ceros.
Si los pivotes no son todos iguales a 1 y no se cumple la condición 3, diremos
simplemente que la matriz está escalonada.
Ejemplo 1.12. La siguiente matriz es una matriz escalonada reducida por filas
1 0 2 0
0 1 5 0
0 0 0 1
Proposición 1.13. Dada una matriz, su matriz escalonada reducida es única.
El método de Gauss-Jordan es un procedimiento para transformar una matriz
en su forma escalonada reducida. Implica seleccionar pivotes en la matriz y realizar
operaciones elementales con el objetivo de obtener ceros tanto por encima como por
debajo de los pivotes seleccionados. Posteriormente, se normalizan los pivotes a un
valor de uno (multiplicando por un escalar) y se continúa haciendo ceros por encima
de ellos. Al seguir estos pasos, se obtiene la forma escalonada reducida por filas, que
se caracteriza por tener ceros en todas las posiciones por debajo y por encima de
cada pivote, y donde cada pivote es igual a uno.
—8—
1.1. Sistemas de ecuaciones lineales Universidad de Málaga
Ejemplo 1.14. Apliquemos el método de Gauss-Jordan a la matriz
1 3
A=
2 1
1. Restamos a la segunda fila el doble de la primera.
1 3
A=
0 −5
2. Merece la pena notar que ahora mismo es una matriz escalonada, pero no
reducida. A continuación, multiplicamos la segunda fila por −1
5
.
1 3
A=
0 1
3. Restamos a la primera fila el triple de la segunda.
1 0
A=
0 1
La matriz identidad es la escalonada reducida por filas de A.
Definición 1.15. El rango de una matriz se define como el número de filas no
nulas de su matriz escalonada reducida.
Definición 1.16. Sea A una matriz cuadrada. Supongamos que existe otra matriz
B tal que AB = BA = Id. Entonces decimos que B es la matriz inversa de A y
la denotaremos por B = A−1 .
Proposición 1.17. Sea A una matriz cuadrada n × n. Las siguientes condiciones
son equivalentes:
1. Existe la inversa de A.
2. La matriz escalonada reducida de A es la identidad.
3. El rango de A es n.
Para hallar la inversa de una matriz, podemos recurrir al método de Gauss-
Jordan aplicada a la matriz original yuxtapuesta con la matriz identidad a la derecha.
Una vez hayamos transformado la matriz original en su matriz escalonada reducida
por filas, pueden ocurrir dos circunstancias:
1. Si la matriz escalonada reducida es la identidad, entonces la inversa ha quedado
a la derecha, donde estaba la identidad.
—9—
1.1. Sistemas de ecuaciones lineales C. Bejines
2. Si la matriz escalonada reducida no es la identidad, entonces no existe inversa.
Ejemplo 1.18. Tomemos la matriz A del ejemplo 1.14. Como vimos, su matriz
escalonada reducida es la identidad, por lo que ya sabemos que tiene inversa.
1. Colocamos la matriz identidad I a la derecha de la matriz A.
1 3 1 0
(A|I) =
2 1 0 1
2. Restamos a la segunda fila el doble de la primera.
1 3 1 0
0 −5 −2 1
−1
3. Multiplicamos la segunda fila por 5
.
1 3 1 0
−1
0 1 25 5
4. Restamos a la primera fila el triple de la segunda.
−1 −3
1 0 5 5
2 −1
0 1 5 5
5. Como hemos obtenido la matriz escalonada reducida a la izquierda y coincide
con la identidad, lo que nos queda a la derecha es la inversa de A, es decir,
−1 −3
−1 5 5
A = 2 −1
5 5
1.1.3. Resolución de sistemas lineales
Definición 1.19. Un sistema de ecuaciones lineales es un conjunto de
ecuaciones lineales dispuestas en filas. Pueden ser representadas de forma matricial
como
AX = B,
donde A son los coeficientes de las incógnitas (X) igualadas a los términos
independientes (B). La matriz ampliada es la formada por la matriz de coeficientes
y los términos independientes dispuestos como una columna extra (A|B).
— 10 —
1.1. Sistemas de ecuaciones lineales Universidad de Málaga
Ejemplo 1.20. Consideremos el siguiente sistema de ecuaciones lineales:
x + 2y = 5
4x − 2y = 10
3y = 3
Su forma matricial es
1 2 5
4 −2 x = 10
y
0 3 3
y su matriz ampliada es
1 2 5
4 −2 10
0 3 3
Teorema 1.21 (Rouché-Frobenius). Sea AX = B un sistema de ecuaciones lineales,
M la matriz ampliada y n el número de incógnitas.
1. Si r(A) = r(M ) = n, tenemos un sistema compatible determinado, es decir,
una única solución.
2. Si r(A) = r(M ) < n, tenemos un sistema compatible indeterminado, es decir,
infinitas soluciones.
3. Si r(A) 6= r(M ), tenemos un sistema incompatible, es decir, no hay solución.
Ejemplo 1.22. Consideremos el siguiente sistema de ecuaciones lineales:
2x + y − z = 1
x + z = 4
3x + y = 5
Para resolver este sistema utilizando el método de Gauss-Jordan, podemos re-
presentar el sistema de ecuaciones como una matriz ampliada y realizar operaciones
elementales para transformarla a su forma escalonada reducida:
2 1 −1 1
1 0 1 4
3 1 0 5
Realizamos operaciones elementales para simplificar la matriz.
1. Intercambiamos las dos primeras filas.
1 0 1 4
2 1 −1 1
3 1 0 5
— 11 —
1.1. Sistemas de ecuaciones lineales C. Bejines
2. Restamos a la segunda fila el doble de la primera y a la tercera fila, el triple
de la primera.
1 0 1 4
0 1 −3 −7
0 1 −3 −7
3. Restamos la segunda fila a la tercera:
1 0 1 4
0 1 −3 −7
0 0 0 0
Ahora tenemos la matriz en su forma escalonada reducida. La primera columna
representa la variable x, la segunda columna representa la variable y, y la tercera
columna representa la variable z. La última columna representa los términos
independientes (constantes).
Aplicamos el teorema de Rouché-Frobenius para concluir que estamos en un
sistema compatible indeterminado porque r(A) = r(M ) = 2 < 3. Tenemos infinitas
soluciones que depende de un parámetro, por ejemplo, z = λ. El conjunto de
soluciones es:
x = 4−λ
y = −7 + 3λ
z = λ
para λ ∈ R.
Cuando queremos resolver un sistema de ecuaciones lineales, debemos reducir
la matriz a su forma escalonada reducida por filas. Una manera de hacerlo en el
lenguaje de programación R es usando el comando rref (ver la Figura 1.1).
Este comando es versátil y ofrece diversas utilidades. Por un lado, permite
calcular el rango de una matriz y aplicar el teorema de Rouché-Frobenuis. Además
más adelante exploraremos cómo utilizarlo para verificar la independencia lineal de
múltiples vectores o determinar una base para un subespacio vectorial.
Si queremos realizar el determinante, la traspuesta o la inversa de una matriz
cuadrada, podemos hacerlo en R como se detalla en la Figura 1.2.
1.1.4. Estructuras algebraicas
Las estructuras algebraicas nos ayudan a estudiar las propiedades y compor-
tamientos de conjuntos que están equipados con operaciones específicas. Estos
conceptos son cruciales para desarrollar teorías matemáticas, modelar la realidad,
— 12 —
1.1. Sistemas de ecuaciones lineales Universidad de Málaga
# Código de R
library ( pracma ) # librería necesaria para la función rref
matriz <- matrix (c(1 ,1 , -2 ,1 ,0 ,1 , -1 ,2 ,2 , -1 , -1 , -4) ,
nrow = 3, ncol = 4, byrow = TRUE )
# La matriz
print(matriz)
## [,1] [,2] [,3] [,4]
## [1,] 1 1 -2 1
## [2,] 0 1 -1 2
## [3,] 2 -1 -1 -4
# La forma escalonada reducida
rref ( matriz )
## [,1] [,2] [,3] [,4]
## [1,] 1 0 -1 -1
## [2,] 0 1 -1 2
## [3,] 0 0 0 0
Figura 1.1: Forma escalonada reducida
# Código de R
library( pracma )
A <- matrix (c(2,3,-1,0,3,1,1,2,-2) , nrow = 3, ncol = 3, byrow = TRUE )
print(A)
## [,1] [,2] [,3]
## [1,] 2 3 -1
## [2,] 0 3 1
## [3,] 1 2 -2
# Determinante de A
det(A)
## [1] -10
# Traspuesta de A
t(A)
## [,1] [,2] [,3]
## [1,] 2 0 1
## [2,] 3 3 2
## [3,] -1 1 -2
# Inversa de A
inv(A)
## [,1] [,2] [,3]
## [1,] 0.8 -0.4 -0.6
## [2,] -0.1 0.3 0.2
## [3,] 0.3 0.1 -0.6
Figura 1.2: Algunas operaciones para matrices
demostrar resultados y resolver sistemas de ecuaciones en una amplia gama de áreas
— 13 —
1.1. Sistemas de ecuaciones lineales C. Bejines
de estudio.
Definición 1.23. Sea X un conjunto no vacío (X 6= ∅). Una operación binaria
interna en X es una asignación ∗ : X × X → X por la cual, a dos elementos de
X le corresponde otro elemento de X. El par (X, ∗) denota la estructura algebraica
del conjunto X y la operación interna ∗.
Generalmente, las funciones tienen una notación prefija: f (x, y). Sin embargo,
cuando son operaciones internas, solemos utilizar notación infija: x ∗ y.
Definición 1.24. Sea X un conjunto y ∗ una operación interna en X.
La operación ∗ es asociativa si para todo x, y, z ∈ X,
x ∗ (y ∗ z) = (x ∗ y) ∗ z.
La operación ∗ es conmutativa si para todo x, y, z ∈ X,
x ∗ y = y ∗ x.
La operación ∗ tiene elemento neutro si existe e ∈ X tal que para todo
x ∈ X,
x ∗ e = e ∗ x = x.
Definición 1.25. Sea ∗ una operación binaria interna en un conjunto X. Suponga-
mos que existe un elemento neutro e. Dado un elemento x ∈ X, decimos que x0 es
el elemento simétrico, opuesto o inverso de x si
x ∗ x0 = e = x0 ∗ x.
La suma y producto son las operaciones más comunes. Cuando la operación es la
suma, al elemento simétrico se le llama opuesto y se denota por −x. Cuando la
operación es el producto, al elemento simétrico se le llama inverso y se denota por
x−1 .
Definición 1.26. Consideremos K un conjunto y dos operaciones binarias internas
en K, + y ∗. Decimos que (K, +, ∗) es un cuerpo si
La operación + en K es asociativa, conmutativa, tiene elemento neutro
(denotado por 0) y elemento opuesto.
La operación ∗ en K \ {0} es asociativa, conmutativa, tiene elemento neutro
(denotado por 1) y elemento inverso.
Se cumple la propiedad distributiva, es decir, para todo x, y, z ∈ K, se tiene
que
x ∗ (y + z) = (x ∗ y) + (x ∗ z).
— 14 —
1.2. Espacios vectoriales Universidad de Málaga
Definición 1.27. Sea V un conjunto y (K, +, ∗) un cuerpo. Consideremos una
operación binaria interna + : V × V → V y una operación externa · : K × V → V
(llamada producto por escalares). Decimos que (V, +, ·) es un espacio vectorial
sobre K si:
La operación + en V es asociativa, conmutativa, tiene elemento neutro
(denotado por 0) y elemento opuesto.
El elemento neutro 1 ∈ K verifica que 1 · u = u para todo u ∈ V .
Para todo λ, µ ∈ K y todo u ∈ V se verifica que (λµ) · u = λ · (µ · u).
Para todo λ, µ ∈ K y todo u ∈ V se verifica que (λ + µ) · u = λ · u + µ · u.
Para todo λ ∈ K y todo u, v ∈ V se verifica que λ · (u + v) = λ · u + λ · v.
Ejemplos 1.28. A continuación mostramos los tres ejemplos de espacios vectoriales
más importantes.
El conjunto (Rn , +, ·) sobre el cuerpo R, donde + denota a la suma de vectores
y · denota al producto usual de un número por un vector, es un espacio
vectorial.
El conjunto (Mn (R), +, ·) sobre el cuerpo R, donde + denota a la suma de
matrices y · denota al producto usual de un número por una matriz, es un
espacio vectorial.
El conjunto (R[x], +, ·) sobre R donde + denota a la suma de polinomios y
· denota al producto usual de un número por un polinomio, es un espacio
vectorial.
1.2. Espacios vectoriales
En la definición 1.27, hemos introducido el concepto de espacio vectorial. En
general, los elementos de este espacio se denominan vectores, mientras que los
elementos del cuerpo se conocen como escalares. A lo largo de este capítulo,
trabajamos con un cuerpo genérico K. Para facilitar la comprensión, se recomienda
pensar en los números reales, es decir, K = R. Esto simplifica el análisis y nos
permite aplicar los conceptos a situaciones prácticas más fácilmente.
1.2.1. Linealidad y sistema generador
En esta sección, veremos algunas nociones básicas de un espacio vectorial.
— 15 —
1.2. Espacios vectoriales C. Bejines
Definición 1.29. Sea V un espacio vectorial sobre un cuerpo K y S = {v1 , v2 , . . . , vn } ⊆
V . Decimos que el conjunto S es linealmente independiente si
n
X
λi vi = 0, λi ∈ K =⇒ λi = 0, para todo i.
i=1
En caso contrario, diremos que son linealmente dependientes.
Si u ∈ V puede escribirse como
u = λ1 v1 + λ2 v2 + · · · + λn vn ,
entonces decimos que u es combinación lineal de v1 , v2 , . . . , vn , es decir, el vector
u depende linealmente de los vectores v1 , v2 , . . . , vn .
La interpretación geométrica de una combinación lineal es la representación de
un vector como una suma ponderada de otros vectores. Estos señalan la dirección y
los coeficientes indican la magnitud, como puede observarse en la figura 1.3.
Definición 1.30. Sea V un espacio vectorial sobre un cuerpo K y S ⊆ V . Decimos
que el conjunto S es sistema generador de V si todo u ∈ V es combinación lineal
de los vectores de S.
Un ejemplo trivial es considerar S = V . Claramente, S es sistema generador de
V porque todo vector de V pertenece a S. A continuación, mostramos otro ejemplo
sencillo.
Ejemplo 1.31. Consideremos como espacio vectorial R2 sobre R y un conjunto S
formado por los siguientes tres vectores de R2 ,
S = {(1, 0), (1, 2), (0, 1)}.
Para comprobar que S es sistema generador de R2 , debemos ver que todo u ∈ R2 es
combinación lineal de los vectores de S, es decir,
u = λ1 (1, 0) + λ2 (1, 2) + λ3 (0, 1)
Como u ∈ R, tenemos que u = (a, b). Simplificando la anterior igualdad, nos queda:
(a, b) = (λ1 + λ2 , 2λ2 + λ3 )
Por lo tanto, tenemos el siguiente sistema de ecuaciones lineales, donde las incógnitas
son λ1 , λ2 , λ3 :
λ1 + λ2 = a
2λ2 + λ3 = b
Podemos resolver por el método de Gauss. Tras aplicar el teorema de Rouché-
Frobenius, tenemos un sistema compatible indeterminado. Por lo tanto, existe
solución (de hecho, infinitas) y consecuentemente, u se puede expresar como
combinación lineal de los vectores de S.
— 16 —
1.2. Espacios vectoriales Universidad de Málaga
Figura 1.3: El vector w es combinación lineal de u y v.
1.2.2. Base y dimensión
Definición 1.32. Sea V un espacio vectorial sobre un cuerpo K y S ⊆ V . Decimos
que el conjunto S es base de V si es un sistema generador de V linealmente
independiente.
Veamos un ejemplo de base y comparémoslo con el presentado anteriormente.
Ejemplo 1.33. Consideremos como espacio vectorial R2 sobre R y un conjunto S
formado por los siguientes dos vectores de R2 ,
S = {(1, 0), (1, 2)}.
Para comprobar que S es base de R2 , debemos ver dos cosas:
1. S es sistema generador.
2. S es linealmente independiente.
— 17 —
1.2. Espacios vectoriales C. Bejines
Para lo primero, tomamos u ∈ R, es decir, u = (a, b). Por lo que
(a, b) = λ1 (1, 0) + λ2 (1, 2)
Equivalentemente,
λ1 + λ2 = a
2λ2 = b
Podemos resolver por el método de Gauss. Tras aplicar el teorema de Rouché-
Frobenius, tenemos un sistema compatible determinado cuyas soluciones son
λ1 = a − b/2
λ2 = b/2
Por lo tanto, existe solución única y u puede expresarse como
b b
(a, b) = (a − )(1, 0) + (1, 2). (1.1)
2 2
Para comprobar que S es linealmente independiente, debemos ver si
λ1 (1, 0) + λ2 (1, 2) = (0, 0) ⇒ λ1 = λ2 = 0.
Como deriva al mismo sistema de ecuaciones lineales, podemos aprovechar la
ecuación (1.1) asignando (a, b) = (0, 0) y concluir que
0 0
(0, 0) = (0 − )(1, 0) + (1, 2) = 0(1, 0) + 0(1, 2).
2 2
Por tanto, S es cumple las dos condiciones y es una base.
En el ejemplo 1.33, es importante destacar que el sistema era compatible deter-
minado, mientras que en el ejemplo 1.31, el sistema era compatible indeterminado.
Como veremos en el teorema 1.39, si tenemos una base, cualquier vector del espacio
vectorial se puede expresar de forma única en términos de esa base.
Por otro lado, es relevante reconocer que {(1, 0), (1, 2)} no es la única base
del espacio vectorial R, ya que {(1, 0), (0, 1)} también es un conjunto linealmente
independiente que genera R2 . Por lo tanto, existen múltiples bases posibles para
un mismo espacio vectorial. Lo sorprendente es que todas las bases distintas de un
mismo espacio vectorial tienen el mismo número de elementos, como se detalla en
la proposición 1.34. Esto nos proporciona una medida de la dimensionalidad del
espacio vectorial.
Proposición 1.34. Sea V un espacio vectorial sobre un cuerpo K. Supongamos que
B1 y B2 son bases finitas de V , entonces |B1 | = |B2 |.
Definición 1.35. Sea V un espacio vectorial sobre un cuerpo K. Se define la
dimensión de V como el cardinal de una base de V y se denota por dim(V ).
— 18 —
1.2. Espacios vectoriales Universidad de Málaga
Teorema 1.36. Sea V es un espacio vectorial sobre un cuerpo K y A una matriz
formada por los elementos (vectores) de un sistema generador de V , entonces
dim(V ) = r(A).
Si tenemos un conjunto de vectores que genera un espacio vectorial, para
determinar la dimensión podemos recurrir recurrir a escalonar la matriz de dichos
vectores y contar el número de filas no nulas (rango).
Teorema 1.37. Sea V es un espacio vectorial sobre un cuerpo K y S un conjunto
de vectores de V . Consideremos la matriz A formada por los elementos (vectores)
de S, entonces r(A) es el número de vectores independientes de S.
Proposición 1.38. Sea V un espacio vectorial sobre un cuerpo K y S ⊆ V .
1. El conjunto S es linealmente dependiente si y solo si existe algún vector v ∈ S
que es combinación lineal del resto de vectores.
2. Si S es linealmente independiente y u ∈ V no es combinación lineal de vectores
de S, entonces el conjunto S 0 = S ∪ {u} es linealmente independiente.
Teorema 1.39. Sea V un espacio vectorial sobre un cuerpo K y B ⊆ V . Si B es
base de V , entonces la expresión de u ∈ V como combinación lineal de vectores de
B es única.
Definición 1.40. Sea V un espacio vectorial sobre un cuerpo K y B una base de
V . Sea u ∈ V tal que
u = λ1 v1 + λ2 v2 + · · · + λn vn .
Los escalares λ1 , λ2 , . . . , λn son llamados coordenadas de u respecto a la base B.
Ejemplo 1.41. Consideremos el espacio vectorial real R3 . Una base puede ser Bc =
{(1, 0, 0), (0, 1, 0), (0, 0, 1)}. Como el cardinal es 3, tenemos que dim(R3 ) = 3. A esta
base se la conoce como base canónica de R3 . Las coordenadas del vector (2, 3, 1) en
la base B son precisamente (2, 3, 1)Bc porque
(2, 3, 1) = 2(1, 0, 0) + 3(0, 1, 0) + (0, 0, 1).
Esto es una característica innata de la base canónica que no sucede en general. Por
ejemplo, si tomamos la base B 0 = {(2, 0, 3), (0, 0, −2), (0, 1, 0)}, las coordenadas del
vector (2, 3, 1) serían (1, 1, 3)B 0 porque
(2, 3, 1) = (2, 0, 0) + (0, 0, −2) + 3(0, 1, 0).
Es importante resaltar la importancia del orden de los vectores en una base.
Cualquier permutación de los elementos de la base puede potencialmente alterar las
coordenadas de los vectores.
— 19 —
1.2. Espacios vectoriales C. Bejines
1.2.3. Subespacios vectoriales
Un subespacio vectorial es un conjunto que, dentro de un espacio vectorial, pre-
senta propiedades particulares en relación a la adición de vectores y la multiplicación
por escalares. Veamos cómo se definen y caracterizan estos subespacios.
Definición 1.42. Sea V es un espacio vectorial sobre un cuerpo K y U ⊆ V .
Decimos que U es un subespacio vectorial de V si es un espacio vectorial sobre K.
Para evitar la necesidad de verificar todos los axiomas de espacio vectorial,
podemos hacer uso del siguiente resultado:
Proposición 1.43. Sea V un espacio vectorial sobre un cuerpo K y U ⊆ V . Tenemos
que U es subespacio vectorial de V si y solo si:
1. Para todo u, v ∈ U , se tiene que u + v ∈ U .
2. Para todo u ∈ U y todo λ ∈ K, se tiene que λu ∈ U .
Si V es un espacio vectorial, {0} y V son subespacios vectoriales de V . Son
llamados subespacios vectoriales triviales.
Nota 1.44. Los resultados y definiciones de la sección anterior son válidos para
subespacios vectoriales ya que estos son también espacios vectoriales.
Definición 1.45. Sea V un espacio vectorial sobre un cuerpo K y S ⊆ V . Se define
el subespacio vectorial generado por S, y se denota por L(S), como el menor
subespacio vectorial de V que contiene a S, es decir,
n
nX o
L(S) := λi vi | λi ∈ K, vi ∈ S .
i=1
Cuando tenemos un sistema generador de un subespacio vectorial, podemos
utilizar el proceso de escalonamiento para obtener una base y determinar la
dimensión del subespacio.
Las filas no nulas del sistema escalonado corresponden a vectores linealmente
independientes que generan el subespacio vectorial. Por lo tanto, estos vectores
forman una base. Consecuentemente, la dimensión del subespacio vectorial se
determina contando el número de filas no nulas en el sistema escalonado.
Definición 1.46. Si W es un subespacio vectorial de S y B es una base de W ,
diremos que B es la base canónica de W si sus vectores dispuestos en filas en una
matriz forman una matriz escalonada reducida.
El siguiente resultado nos ofrece una manera rápida de comprobar si dos
subespacios vectoriales coinciden.
— 20 —
1.2. Espacios vectoriales Universidad de Málaga
Proposición 1.47. Dos subespacios vectoriales son iguales si y solo si sus bases
canónicas coinciden.
Proposición 1.48. Si AX = 0 es un sistema de ecuaciones lineales homogeneo,
entonces el conjunto de soluciones tiene estructura de espacio vectorial.
Un subespacio vectorial puede definirse mediante un sistema generador de
vectores (Definición 1.45) o a través de las soluciones de un sistema de ecuaciones
lineales (Proposición 1.48). Cuando representamos un subespacio vectorial utilizando
un sistema generador, generalmente compuesto por una base, las ecuaciones que
empleamos se conocen como ecuaciones paramétricas del subespacio. Por otro
lado, si representamos el subespacio mediante un sistema de ecuaciones lineales,
estas ecuaciones se denominan ecuaciones cartesianas del subespacio. Ambas
formas de expresión nos brindan información sobre la estructura y las propiedades
del subespacio.
El uso de ecuaciones paramétricas y ecuaciones cartesianas en la representación
de subespacios vectoriales es fundamental para comprender las relaciones entre los
vectores en el subespacio y cómo se pueden describir en términos de parámetros
o coordenadas. Esto nos permite estudiar y analizar las propiedades geométricas y
algebraicas de los subespacios en diferentes contextos y aplicaciones.
Ejemplo 1.49. Consideremos el espacio vectorial real R3 y U es subespacio vectorial
generado por los vectores (1, 0, 1) y (1, 2, 0). Entonces, por la definición 1.45, tenemos
que
U = (x, y, z) ∈ R3 | (x, y, z) = λ1 (1, 0, 1) + λ2 (1, 2, 0), λ1 , λ2 ∈ R
Por lo tanto, las ecuaciones paramétricas de U son
x = λ1 + λ2
y = 2λ2
z = λ1
Ejemplo 1.50. Consideremos el espacio vectorial real R3 y U es subespacio vectorial
que es solución del siguiente sistema de ecuaciones lineales homogéneo.
x +2y −z = 0
3x +2z = 0
En términos simples, podemos describir U como el conjunto de todos los vectores
(x, y, z) en R3 que satisfacen esas ecuaciones:
U = (x, y, z) ∈ R3 | x + 2y − z = 0, 3x + 2z = 0 .
Estas ecuaciones son las ecuaciones cartesianas de U , es decir, son la forma algebraica
que nos permite caracterizar los vectores en U en términos de sus coordenadas en
el espacio R3 .
— 21 —
1.2. Espacios vectoriales C. Bejines
Para convertir ecuaciones paramétricas a ecuaciones cartesianas, necesitamos
eliminar los parámetros y expresar las ecuaciones en términos de variables indepen-
dientes. Esto implica encontrar una relación algebraica directa entre las variables
sin hacer referencia a los parámetros que se utilizan en las ecuaciones paramétricas.
Ejemplo 1.51. Consideraremos las ecuaciones paramétricas del ejemplo 1.49:
x = λ1 + λ2
y = 2λ2
z = λ1
Estas ecuaciones paramétricas pueden interpretarse como un sistema de ecuaciones
en el que los términos independientes son x, y, y z. Para obtener las ecuaciones car-
tesianas, debemos hacer que el sistema sea compatible realizando varias operaciones
elementales:
1 1 x 1 1 x 1 1 x
0 2 y → 0 2 y → 0 0 y + 2z − 2x
1 0 z 0 −1 z − x 0 −1 z−x
Es claro que el rango de la matriz A es 2. Para que el rango de la matriz ampliada
también sea 2, debemos imponer la condición:
y + 2z − 2x = 0,
la cual es nuestra ecuación cartesiana resultante.
Para pasar de ecuaciones cartesianas a ecuaciones paramétricas, resolvemos
el sistema de ecuaciones lineales homogeneo. Al obtener las soluciones, podemos
expresar las variables en función de los parámetros (ver el ejemplo 1.22).
Proposición 1.52. Sea V es un espacio vectorial sobre un cuerpo K. Si W1 , W2 son
dos subespacios vectoriales de V , entonces W1 ∩ W2 es un subespacio vectorial de
V.
Sin embargo, la unión de subespacios vectoriales no es necesariamente un
subespacio vectorial.
Definición 1.53. Sea V es un espacio vectorial sobre un cuerpo K y W1 , W2 dos
subespacios vectoriales de V . Se define la suma de W1 y W2 , y se denota por W1 +W2 ,
como el menor subespacio vectorial de V que contiene a W1 y a W2 , es decir,
W1 + W2 = L(W1 ∪ W2 ).
Si además, W1 ∩ W2 = {0}, diremos que la suma es directa y la denotaremos por
W1 ⊕ W2 .
— 22 —
1.2. Espacios vectoriales Universidad de Málaga
Proposición 1.54. Sea V es un espacio vectorial sobre un cuerpo K. Si W1 , W2 son
dos subespacios vectoriales de V , entonces W1 + W2 es un subespacio vectorial de
V.
Definición 1.55. Sea V es un espacio vectorial sobre un cuerpo K y W1 , W2 dos
subespacios vectoriales de V . Diremos que W1 y W2 son suplementarios si W1 ⊕W2 =
V.
Nota 1.56. Los espacios suplementarios son una forma de descomponer un espacio
vectorial en subespacios más pequeños y, a menudo, se utilizan en teoría de la
representación, álgebra abstracta y otras ramas de las matemáticas.
Para concluir esta sección, presentamos uno de los teoremas más significativos
del capítulo, el cual nos proporciona un método para calcular la dimensión de la
intersección y la suma de subespacios vectoriales.
Teorema 1.57 (Dimensión). Sea V es un espacio vectorial sobre un cuerpo K. Si
W1 , W2 son dos subespacios vectoriales de V , entonces
dim(W1 + W2 ) = dim(W1 ) + dim(W2 ) − dim(W1 ∩ W2 ). (1.2)
Merece la pena apreciar que si W1 y W2 son suplementarios, entonces la fórmula
(1.2) se puede simplificar a
dim(V ) = dim(W1 ) + dim(W2 ).
1.2.4. Cambio de base
Si consideramos un vector u ∈ V , las coordenadas de u estarán determinadas
por la base que estemos utilizando, como se ilustra en el siguiente ejemplo.
Ejemplo 1.58. Tomemos como referencia el espacio vectorial real R3 y u = (2, 3, 1).
Consideremos las siguientes bases de R3 :
B1 = {(1, 1, 1), (0, 2, 0), (1, 0, 0)} B2 = {(0, 1, 1), (−1, 1, 0), (−5, 2, 1)}.
Es sencillo comprobar que las coordenadas de u en la base B1 son (1, 1, 1)B1 y las
coordenadas de u en la base B2 son (2, 3, −1)B2 .
A continuación, mostramos que existe una relación entre las coordenadas de un
vector en diferentes bases.
Proposición 1.59. Sea V un espacio vectorial de dimensión n y consideremos dos
bases de V : B1 y B2 . Si u ∈ V tiene coordenadas (λ1 , λ2 , ..., λn ) en la base B1 y
— 23 —
1.2. Espacios vectoriales C. Bejines
coordenadas (µ1 , µ2 , ..., µn ) en la base B2 , entonces existe una matriz P de tamaño
n × n tal que
λ1 µ1
λ2 µ2
P .. = ..
. .
λn µn
Definición 1.60. A la matriz P de la proposición 1.59 se le llama matriz de
cambio de base de B1 a B2 .
La matriz de cambio de base es una herramienta fundamental en el álgebra lineal
que nos permite representar un mismo vector en diferentes bases. Esta matriz nos
proporciona una forma de transformar las coordenadas de un vector de una base a
otra, lo que resulta especialmente útil al estudiar transformaciones lineales y sistemas
de ecuaciones lineales. Al comprender la matriz de cambio de base, podemos analizar
y comparar vectores y sus representaciones en diferentes bases de manera eficiente
y precisa.
Proposición 1.61. Sea V un espacio vectorial de dimensión n y P la matriz de
cambio de base de B1 a B2 , entonces:
1. P lleva por columnas las coordenadas de los vectores de B1 respecto de B2 .
2. P tiene inversa.
3. P −1 es la matriz cambio de base de B2 a B1 .
— 24 —
Capítulo 2
Aplicaciones lineales
En el capítulo 1, hemos explorado y estudiado la estructura de un espacio
vectorial. Ahora vamos a introducir un tipo especial de funciones que preservan
la estructura algebraica de un espacio vectorial: las aplicaciones lineales.
2.1. Definiciones y resultados iniciales
2.1.1. Funciones
Las funciones son herramientas esenciales para describir relaciones entre conjun-
tos y modelar situaciones del mundo real. Nos permiten analizar el comportamiento
de variables y resolver problemas de optimización y predicción en campos como la
física, la economía y la ingeniería.
Definición 2.1. Sea A y B dos conjuntos. Una función o aplicación de A a B
es una regla matemática que asocia a cada elemento x ∈ A, otro elemento y ∈ B,
llamado imagen de x. Una función f de A a B se denota por f : A → B y a la
imagen de x ∈ A, se la denota por f (x).
Ejemplo 2.2. La función idA : A → A definida como idA (x) = x es conocida como
la función identidad en el conjunto A.
Definición 2.3. Sea f : A → B una función.
Si y ∈ B, se define la preimagen o imagen recíproca de y a través de f
como el siguiente conjunto:
f −1 (y) = {x ∈ A | f (x) = y}.
Si S ⊆ A, se define la imagen de S a través de f como el siguiente conjunto:
f (S) = {y ∈ B | y = f (x) para algún x ∈ S}.
Si S = A, f (A) se suele denotar también por Im f .
25
2.1. Definiciones y resultados iniciales C. Bejines
Decimos que f es inyectiva si para todo x, y ∈ A tal que x 6= y, entonces
f (x) 6= f (y).
Decimos que f es sobreyectiva si para todo y ∈ B, existe x ∈ A tal que
f (x) = y, es decir, f (A) = B.
Decimos que f es biyectiva si es inyectiva y sobreyectiva simultáneamente.
Definición 2.4. Sea f : A → B y g : B → C dos funciones. Se define la
composición g ◦ f : A → C de la siguiente forma
(g ◦ f )(x) = g(f ((x)).
Se lee “g de f” o “f seguida de g”.
Definición 2.5. Sea f : A → B. Si existe g : B → A tal que
f ◦ g = idB g ◦ f = idA
entonces decimos que g es la función inversa de f y se denota por g = f −1 . Para
garantizar la existencia de la función inversa, es necesario que f sea biyectiva.
Proposición 2.6. Sea f : A → B, g : B → C y h : C → D tres funciones.
1. Siempre se cumple que
h ◦ (g ◦ f ) = (h ◦ g) ◦ f (Asociatividad)
2. En general,
g ◦ f 6= f ◦ g (No conmutatividad)
3. La composición de funciones inyectivas es una función inyectiva.
4. La composición de funciones sobreyectivas es una función sobreyectiva.
5. Si f : A → B y g : B → C son biyectivas, entonces
(g ◦ f )−1 = f −1 ◦ g −1 .
2.1.2. Aplicaciones lineales
Las aplicaciones lineales son funciones que mantienen la estructura de un
espacio vectorial al preservar las operaciones de suma vectorial y multiplicación por
escalares. En otras palabras, estas funciones conservan las propiedades de adición y
multiplicación por escalares en los espacios vectoriales en los que actúan.
— 26 —
2.1. Definiciones y resultados iniciales Universidad de Málaga
Definición 2.7. Sea U y V dos espacios vectoriales sobre el mismo cuerpo K y
consideremos una función f : U −→ V . Diremos que f es una aplicación lineal o
transformación lineal si
Para todo u, v ∈ U ,
f (u + v) = f (u) + f (v).
Para todo u ∈ U y λ ∈ K,
f (λu) = λf (u).
Ejemplo 2.8. Mostramos a continuación varias funciones que son aplicaciones
lineales.
f : R2 −→ R3 definida por f (x, y) = (x + y, 0, 2x − y).
f : R4 −→ R2 definida por f (x, y, z, t) = (x + y + 3z − t, t − 2y).
f : R2 −→ R2 definida por f (x, y) = (y, −x).
Teorema 2.9. Sea f : U −→ V una aplicación lineal entre los espacios vectoriales
U y V . Entonces,
1. f (0U ) = 0V .
2. Si W es subespacio vectorial de U , entonces f (W ) es subespacio vectorial de
V.
3. Si {u1 , u2 , . . . , un } es un sistema generador de un subespacio vectorial W ⊆
U , entonces {f (u1 ), f (u2 ), . . . , f (un )} es un sistema generador del subespacio
vectorial f (W ) ⊆ V .
4. Si {u1 , u2 , . . . , un } es linealmente dependiente, entonces {f (u1 ), f (u2 ), . . . , f (un )}
es linealmente dependiente.
5. Si {u1 , u2 , . . . , un } es linealmente independiente, entonces no podemos asegurar
nada de {f (u1 ), f (u2 ), . . . , f (un )}.
El teorema 2.9 nos ayuda a entender cómo funciona las imagenes de los vectores
a través de una aplicación lineal.
2.1.3. Núcleo e imagen de una aplicación lineal
Definición 2.10. Sea f : U −→ V una aplicación lineal entre los espacios vectoriales
U y V.
— 27 —
2.1. Definiciones y resultados iniciales C. Bejines
Definimos el núcleo de f , o Ker f , como el siguiente conjunto,
Ker f := {u ∈ U | f (u) = 0}.
Además, Ker f tiene estructura de subespacio vectorial de U .
Definimos la imagen de f , como el siguiente conjunto,
Im f = f (U ) = v ∈ V | v = f (u) para algún u ∈ U .
Por el teorema 2.9, f (U ) tiene estructura de espacio vectorial.
Dada una aplicación lineal f : U −→ V , para determinar los subespacios
vectoriales de la definición 2.10, por normal general, recurrimos a lo siguiente:
1. Si queremos hallar el Ker f , podemos utilizar la propia definición para obtener
las ecuaciones cartesianas de ese subespacio vectorial.
2. Si queremos hallar la Im f , bastará considerar un sistema generador de U para
construirnos un sistema generador de Im f usando el teorema 2.9.
Definición 2.11. Sea U y V dos espacios vectoriales sobre el mismo cuerpo K y
f : U −→ V una aplicación lineal. Entonces,
Si f es inyectiva, decimos que es un monomorfismo.
Si f es sobreyectiva, decimos que es un epimorfismo.
Si f es biyectiva, decimos que es un isomorfismo.
Si U = V , decimos que f es un endomorfismo.
Si f es un endomorfismo biyectivo, decimos que es un automorfismo.
Si existe un isomorfismo entre dos espacios vectoriales, entonces su estructura es
la misma. Consecuentemente, trabajar en U o en V es, en esencia, lo mismo.
Proposición 2.12. Sea U y V dos espacios vectoriales sobre el mismo cuerpo K.
El conjunto de aplicaciones lineales de U a V tiene estructura de espacio vectorial.
A dicho conjunto, lo vamos a denotar por
HomK (U, V ).
Teorema 2.13. Sea f : U −→ V una aplicación lineal entre dos espacios vectoriales.
1. f es un monomorfismo si y solo si Ker f = {0}.
2. f es un epimorfismo si y solo si Im f = V .
— 28 —
2.1. Definiciones y resultados iniciales Universidad de Málaga
Teorema 2.14. Sea f : U −→ V una aplicación lineal entre dos espacios vectoriales.
dim(Ker f ) + dim(Im f ) = dim(U ).
Como consecuencia de este resultado, tenemos el siguiente:
Proposición 2.15. Sea f : U −→ V una aplicación lineal entre dos espacios
vectoriales. Si U y V tienen la misma dimensión, entonces las siguientes afirmaciones
son equivalentes:
1. f es un monomorfismo.
2. f es un epimorfismo.
3. f es un isomorfismo.
Los monomorfismos nos preservan la independencia lineal, en consecuencia:
Proposición 2.16. Un monomorfismo f : U −→ V transforma bases de U en bases
de f (U ) ⊆ V . Si f es un isomorfismo, f transforma bases de U en bases de V .
Teorema 2.17. Todo espacio vectorial V sobre K de dimensión n es isomorfo al
espacio vectorial Kn .
Este resultado es importante porque nos está diciendo que si tengo es un espacio
vectorial cualquiera sobre R, entonces si conozco que la dimensión es igual a n,
entonces es cómo trabajar con los vectores de Rn .
2.1.4. Aplicaciones lineales como matrices
Las aplicaciones lineales y las matrices están relacionadas: podemos asociar una
matriz a una aplicación lineal y, a su vez, construir una aplicación lineal a partir de
una matriz.
Proposición 2.18. Sea U y V dos espacios vectoriales sobre el mismo cuerpo K.
Supongamos que la dimensión de U y V son n y m respectivamente. Entonces, existe
un isomorfismo entre el conjunto de aplicaciones lineales de U a V y el conjunto de
matrices de tamaño m × n, es decir,
HomK (U, V ) ∼
= Mm×n (K).
La representación matricial de la aplicación lineal depende de las bases de cada
espacio vectorial.
— 29 —
2.1. Definiciones y resultados iniciales C. Bejines
Definición 2.19. Sea f : U −→ V una aplicación lineal entre espacios vectoriales.
Consideremos una base B1 de U y una base B2 de V , entonces la matriz de f
respecto a las bases B1 y B2 es la matriz A que cumple la siguiente ecuación:
Y = AX,
donde X son las coordenadas de los vectores de U en la base B1 , e Y las coordenadas
de los imagenes de los vectores de U a través de f en la base B2 .
Nota 2.20. Cuando trabajemos con las bases canónicas, nos referiremos simple-
mente a la matriz asociada a f , omitiendo mencionar las bases específicas.
A continuación, mostramos la construcción de la matriz asociada a una aplicación
lineal.
Proposición 2.21. Sea f : U −→ V una aplicación lineal entre espacios vectoriales.
Consideremos una base B1 de U y una base B2 de V . La matriz asociada a f respecto
a B1 y B2 tiene por columnas las coordenadas de las imagenes de los vectores de B1
respecto de B2 . Además, el tamaño de dicha matriz es m × n, donde m =dim(V ) y
n =dim(U ).
Ejemplo 2.22. Tomemos la aplicación lineal f : R3 −→ R2 definida por f (x, y, z) =
(2x − z, 0). Consideremos los conjuntos
B1 = {(1, 1, 0), (0, 1, 3), (1, 0, 1)} B2 = {(1, 1), (0, 2)}.
Es fácil de comprobar que B1 es base de R3 y que B2 es base de R2 . La matriz
asociada a f respecto a B1 y B2 tiene por columnas las coordenadas de las imagenes
de los vectores de B1 respecto de B2 , así que:
Las imagenes de los vectores de la base B1 son
f (1, 1, 0) = (2, 0), f (0, 1, 3) = (−3, 0), f (1, 0, 1) = (1, 0).
Las coordenadas de (2, 0) en B2 son (2, −1)B2 porque
(2, 0) = 2(1, 1) − 1(0, 2).
Las coordenadas de (−3, 0) en B2 son (−3, 32 )B2 porque
3
(−3, 0) = -3(1, 1) + (0, 2).
2
Las coordenadas de (1, 0) en B2 son (1, − 21 )B2 porque
1
(1, 0) = 1(1, 1) − (0, 2).
2
— 30 —
2.1. Definiciones y resultados iniciales Universidad de Málaga
Por consiguiente, la matriz buscada es
2 −3 1
A=
−1 23 − 12
En otras palabras, si consideramos las coordenadas X de un vector en R3 respecto
a la base B1 , entonces las coordenadas Y = AX representan la imagen de ese vector
respecto a la base B2 . Aquí, A es la matriz asociada a la aplicación lineal respecto
de las bases B1 y B2 .
Proposición 2.23. Sea f : U −→ V y g : V −→ W dos aplicaciones lineales entre
espacios vectoriales con bases B1 , B2 , B3 respectivamente. Si A es la matriz asociada
a f respecto a B1 y B2 y B es la matriz asociada a g respecto a B2 y B3 , entonces
la matriz asociada a g ◦ f respecto a B1 y B3 es BA.
Ejemplo 2.24. Consideremos tres espacios vectoriales: U , V , y W , con bases
respectivas B1 = {u1 , u2 }, B2 = {v1 , v2 }, y B3 = {w1 , w2 }. Supongamos que tenemos
las siguientes aplicaciones lineales:
f : U −→ V y g : V −→ W,
donde f se define como:
f (u1 ) = 2v1 − v2 , f (u2 ) = v1 + 3v2
y g se define como:
g(v1 ) = w1 + w2 , g(v2 ) = 2w1 − w2 .
Queremos encontrar la matriz asociada a la composición g ◦ f respecto a las
bases B1 y B3 . Primero, encontramos las matrices asociadas a f y g respecto a sus
respectivas bases. La matriz asociada a f respecto a B1 y B2 es
2 1
A=
−1 3
y la matriz asociada a g respecto a B2 y B3 es
1 2
B=
1 −1
Por lo tanto, multiplicamos estas matrices:
1 2 2 1 0 7
BA = =
1 −1 −1 3 3 −2
— 31 —
2.1. Definiciones y resultados iniciales C. Bejines
Por lo tanto, la matriz asociada a g ◦ f respecto a las bases B1 y B3 es
0 7
.
3 −2
También podríamos haber calculado g ◦ f : U −→ W y después haber obtenido la
matriz asociada:
g ◦ f (u1 ) = g(2v1 − v2 ) = 2g(v1 ) − g(v2 ) = 2w1 + 2w2 − 2w1 + w2 = 3w2 .
g ◦ f (u2 ) = g(v1 + 3v2 ) = g(v1 ) + 3g(v2 ) = w1 + w2 + 6w1 − 3w2 = 7w1 − 2w2 .
Conocidas las imagenes de la base B1 a través de g ◦ f , podemos obtener sus
coordenadas en la base B3 y concluir que la matriz asociada a g ◦ f es
0 7
.
3 −2
Recordemos que este ejemplo es solo un caso específico y que la propiedad sigue
siendo válida en general para cualquier elección de aplicaciones lineales y bases.
Teorema 2.25. Sea f : U −→ V una aplicación lineal y consideremos B1 , B10 dos
bases de U y B2 , B20 dos bases de V . Supongamos que P es la matriz de cambio de
B1 a B10 y Q es la matriz de cambio de base de B2 a B20 . Si A es la matriz asociada
a f respecto a B1 y B2 , entonces la matriz asociada a f respecto a B10 y B20 es
A = Q−1 HP
Para comprender mejor el teorema anterior, observemos el siguiente diagrama.
f :U V
H
B10 B20
P Q
A
B1 B2
Podemos observar que una forma alternativa de trabajar con la matriz A es
recorrer la secuencia P , luego A, y finalmente Q−1 . Por lo tanto, tenemos
A = Q−1 HP
Nota 2.26. Dada una aplicación lineal f : U −→ V y un vector u ∈ U , lo más
importante de esta sección es entender que f (u) coincide con A · u, donde A es la
matriz asociada a f .
— 32 —
2.2. Diagonalización Universidad de Málaga
2.2. Diagonalización
En esta sección, exploraremos la diagonalización de endomorfismos. Apren-
deremos cómo descomponer una aplicación lineal en una forma más simple y
estructurada, utilizando bases adecuadas. Descubriremos las condiciones y las
implicaciones de la diagonalización, y veremos cómo esta técnica nos brinda
información valiosa sobre las propiedades de los endomorfismos.
2.2.1. Matrices semejantes
Definición 2.27. Sea A, B ∈ Mn (K). Decimos que A es semejante a B si existe
una matriz regular P tal que
A = P −1 BP.
Proposición 2.28. Si dos matrices cuadradas A y B son semejantes, entonces
1. |A| = |B|.
2. tr(A) = tr(B).
3. Para cualquier valor de n ∈ N, podemos afirmar que An y B n son semejantes,
debido a la siguiente igualdad:
An = P −1 B n P.
Nota 2.29. Obsérvese que si tenemos un endomorfismo en el teorema 2.25, entonces
las matrices A y H son semajantes.
Definición 2.30. Sea A ∈ Mn (K). Decimos que A es diagonalizable si es
semejante a una matriz diagonal, es decir, si existe una matriz P tal que
D = P −1 AP
donde D es una matriz diagonal. A la matriz P se le llama matriz de paso.
2.2.2. Autovalores y autovectores
Recordemos que una matriz diagonal es una matriz cuadrada en la que todos los
elementos fuera de la diagonal principal son iguales a cero. En este contexto, nos
encontramos con el desafío de la diagonalización de matrices cuadradas. La pregunta
que surge es si es factible transformar una matriz A en una forma diagonal. Para
abordar esta interrogante, es necesario introducir los siguientes conceptos clave.
Definición 2.31. Sea A ∈ Mn (K) y λ ∈ K. Decimos que λ es un autovalor de A
si existe v ∈ Kn no nulo tal que
Av = λv.
— 33 —
2.2. Diagonalización C. Bejines
Definición 2.32. Sea A ∈ Mn (K) y λ un autovalor de A. Un vector no nulo v ∈ K
es llamado autovector de A asociado a λ si
Av = λv.
Para calcular los autovalores asociados a una matriz cuadrada A, debemos tener
en cuenta que
Av = λv ⇐⇒ Av − λv = ~0 ⇐⇒ (A − λI)v = ~0.
Este sistema de ecuaciones lineales homogéneo que estamos considerando tiene
soluciones no triviales (distintas de v = ~0) si y solo si el sistema es compatible
indeterminado, es decir, si el rango de la matriz (A − λI) es menor que el tamaño
de la matriz (r(A − λI) < n). Para determinar los valores de λ que cumplen esta
condición, debemos verificar para qué valores el determinante de la matriz (A − λI)
es igual a cero, es decir:
|A − λI| = 0.
El determinante de (A − λI) es una expresión que depende de la variable λ, por
lo tanto, obtenemos un polinomio al que llamamos polinomio característico. Las
raíces de este polinomio son los autovalores de A.
Nota 2.33. Es importante recordar el isomorfismo existente entre los endomorfismos
(aplicaciones lineales de un espacio vectorial en sí mismo) y las matrices cuadradas.
En las definiciones anteriores, la expresión Av es equivalente a f (v), donde f es la
aplicación lineal asociada a la matriz A. Esto nos permite intercambiar el uso de la
notación matricial con la notación de aplicaciones lineales según sea conveniente en
el contexto dado.
Proposición 2.34. Sea A, B ∈ Mn (K). Si A y B son semajantes, entonces tienen
el mismo polinomio característico.
Ejemplo 2.35. Vamos a determinar los autovales de la siguiente matriz:
3 1 1
A = 1 3 1
1 1 3
Para ello, calculamos su polinomio característico p(λ) mediante el determinante
|A − λI|:
|A − λI| = −λ3 + 9λ − 24λ + 20.
Buscamos las raíces de este polinomio. Observamos que λ = 2 es una raíz porque al
restar ese valor a la diagonal obtenemos una matriz singular (determinante nulo).
— 34 —
2.2. Diagonalización Universidad de Málaga
También podemos aplicar el método de Ruffini para verificar que λ = 2 es una raíz.
Por lo tanto, podemos factorizar el polinomio de la siguiente manera:
p(λ) = −λ3 + 9λ2 − 24λ + 20 = (λ − 2)(−λ2 + 7λ − 10).
Resolviendo el polinomio de segundo grado restante, encontramos las otras dos
raíces: 2 y 5. Por lo tanto, el polinomio se puede descomponer de la siguiente forma:
p(λ) = −(λ − 2)2 (λ − 5)
y los autovalores son λ1 = 2 y λ2 = 5.
Proposición 2.36. Los autovectores asociados a un autovalor λ de una matriz
A ∈ Mn (K) forman el siguiente subespacio vectorial de Kn :
Wλ = Ker(A − λI) = {v ∈ Kn | (A − λI)v = ~0}
Para calcular los autovectores asociados a un autovalor, simplemente resolvemos
el sistema de ecuaciones lineales homogéneo (A − λI)v = ~0.
Ejemplo 2.37. Vamos a determinar los autovectores de la siguiente matriz:
3 1 1
A = 1 3 1
1 1 3
En el ejemplo 2.35, ya hemos determinado los autovalores: λ1 = 2 y λ2 = 5. Para
calcular los autovectores asociados a cada autovalor, debemos resolver el sistema de
ecuaciones lineales homogéneo (A − λI)v = ~0.
1. Para λ1 = 2, tenemos el siguiente sistema en su forma matricial:
1 1 1 x 0
1 1 1 y = 0
1 1 1 z 0
Aplicando el método de Gauss-Jordan para obtener la forma escalonada
reducida por filas, obtenemos:
1 1 1 x 0
0 0 0 y = 0
0 0 0 z 0
Equivalentemente, el sistema se reduce a la ecuación x + y + z = 0. Por lo
tanto, los autovectores asociados a λ1 = 2 son aquellos que satisfacen esta
ecuación, es decir, el conjunto
W2 = {(x, y, z) ∈ R3 | x + y + z = 0}.
Podemos expresar este conjunto como:
W2 = L (1, −1, 0), (1, 0, −1) .
— 35 —
2.2. Diagonalización C. Bejines
2. Para λ2 = 5, tenemos el siguiente sistema en su forma matricial:
−2 1 1 x 0
1 −2 1 y = 0
1 1 −2 z 0
Aplicando el método de Gauss-Jordan para obtener la forma escalonada
reducida por filas, obtenemos:
1 0 −1 x 0
0 1 −1 y = 0
0 0 0 z 0
Los autovectores asociados a λ2 = 5 está formado por el conjunto solución de
este sistema, por tanto
W5 = {(x, y, z) ∈ R3 | x − z = 0, y − z = 0}.
Podemos expresar este conjunto como:
W5 = L (1, 1, 1) .
2.2.3. Caracterización de las matrices diagonalizables
Definición 2.38. Sea A ∈ Mn (K) y λ un autovalor de A.
Llamaremos multiplicidad algebraica de λ, ma(λ), a su multiplicidad como
raíz del polinomio característico.
Llamaremos multiplicidad geométrica de λ, mg(λ), a la dimensión del
subespacio vectorial Wλ , es decir, n − rg(A − λI).
Teorema 2.39. Sea A ∈ Mn (K) y λ un autovalor de A. Entonces,
1 ≤ mg(λ) ≤ ma(λ).
Teorema 2.40. Sea A ∈ Mn (K) y λ1 , λ2 , ..., λr los autovalores de A. Tenemos que
A es diagonalizable si y solo si se cumplen las dos siguientes condiciones:
1. ma(λ1 ) + ma(λ2 ) + ...ma(λr ) = n.
2. Para cada i = 1, 2, ..., r, se tiene que ma(λi ) = mg(λi ).
Ejemplo 2.41. Siguiendo con la matriz
3 1 1
A = 1 3 1
1 1 3
— 36 —
2.2. Diagonalización Universidad de Málaga
del ejemplo 2.35, vamos a determinar la multiplicidad algebraica y geométrica de
sus dos autovalores.
Para λ1 = 2, observamos que su multiplicidad algebraica es 2 porque es una
raíz doble en el polinomio característico p(λ). Además, su multiplicidad geométrica
también es 2 porque la dimensión del subespacio W2 es 2.
Por otro lado, para λ2 = 5, notamos que tiene multiplicidad algebraica 1 ya
que es una raíz simple en el polinomio característico p(λ). Además, su multiplicidad
geométrica es 1 porque la dimensión del subespacio W5 es 1. Podemos concluir que
ma(2) = mg(2) = 2, ma(5) = mg(5) = 1,
lo que indica que la matriz A es diagonalizable según el teorema 2.40.
Teorema 2.42. Sea A ∈ Mn (K). Supongamos que A es diagonalizable, lo que
significa que existe una matriz diagonal D ∈ Mn (K) tal que D = P −1 AP para
alguna matriz invertible P . En tal caso, se cumplen las siguientes propiedades:
1. Como A y D son semejantes, det(A) = det(D).
2. Los autovalores de A son iguales a los autovalores de D. Consecuentemente,
los elementos de la matriz diagonal D son los autovalores de A.
3. La matriz invertible P está compuesta por los autovectores correspondientes
a los autovalores de A colocados en columnas, haciendo coincidir las columnas
de los autovectores con las columnas de sus autovalores.
Estas propiedades son consecuencia directa de la diagonalización de la matriz A
y son fundamentales para comprender la relación entre las matrices diagonalizables
y sus autovalores y autovectores.
Ejemplo 2.43. Vamos a encontrar la forma diagonal D y la matriz de paso P de
la matriz
3 1 1
A= 1 3
1
1 1 3
Teniendo en cuenta los ejemplos anteriores, conocemos sus autovalores, sus auto-
vectores y tenemos la certeza de que es diagonalizable. Aplicando el teorema 2.42,
tenemos que
D = P −1 AP,
donde
2 0 0
D = 0 2 0
0 0 5
— 37 —
2.2. Diagonalización C. Bejines
y
1 1 1
P = −1 0 1
0 −1 1
Nota 2.44. Es importante destacar que la matriz de paso P utilizada en la
diagonalización de una matriz no es única. Hay varias formas de elegir los
autovectores que formarán las columnas de P . Por ejemplo, podríamos haber
permutado los autovectores seleccionados o incluso haber elegido otros autovectores,
ya que hay infinitos en el conjunto asociado a cada autovalor.
Además, la matriz diagonal D tampoco es única. Esto se debe a que podemos
elegir el orden en el que colocamos los autovalores en la diagonal de D, lo cual
afectará la correspondiente matriz de transformación P .
Estas observaciones reflejan la no unicidad en la diagonalización de una
matriz y nos permiten comprender que existen diferentes formas de expresar una
matriz diagonalizada, dependiendo de las elecciones realizadas en la selección de
autovectores y la ordenación de los autovalores.
2.2.4. Algoritmo para la diagonalización
Gracias a los resultados previos, podemos establecer un método general para
determinar si una matriz A ∈ Mn (K) es diagonalizable y, en caso afirmativo, obtener
la matriz diagonal D y la matriz de paso P .
1. Calcular el polinomio característico p(λ) de A.
2. Encontrar las raíces del polinomio característico, que corresponden a los
autovalores.
3. Verificar si la suma de las multiplicidades algebraicas es igual a n. Si no lo es,
entonces A no es diagonalizable.
4. Calcular las multiplicidades geométricas para cada autovalor. Si alguna mul-
tiplicidad geométrica difiere de su multiplicidad algebraica correspondiente,
entonces A no es diagonalizable.
5. Obtener las bases de los subespacios vectoriales Wλi asociados a los autovalo-
res.
6. La matriz diagonal D se construye utilizando los autovalores de A.
7. La matriz de cambio de base P se forma tomando autovectores que forman
una base de los subespacios vectoriales Wλi y colocándolos como columnas de
P . Debemos asegurarnos de que la columna de cada autovector en coincida
con la columna de su autovalor en D.
— 38 —
2.2. Diagonalización Universidad de Málaga
Este algoritmo proporciona una guía paso a paso para verificar la diagonalización
de una matriz y obtener las matrices de cambio de base (P ) y diagonal (D).
En el lenguaje de programación R, es posible obtener los autovalores, autovec-
tores, forma diagonal D y matriz de paso P de una matriz cuadrada A, tal como se
indica en la Figura 2.1. Este procedimiento también se aplica para calcular la forma
canónica de Jordan en caso de que la matriz no sea diagonalizable.
# Código de R
# Definimos la matriz que queremos diagonalizar.
A <- matrix(c(3,1,1,1,3,1,1,1,3), nrow = 3, byrow = T)
A
## [,1] [,2] [,3]
## [1,] 3 1 1
## [2,] 1 3 1
## [3,] 1 1 3
# Obtenemos la información de sus autovalores y autovectores
info <- eigen(A)
autovalores <- info$values # Nos devuelve los autovalores
autovalores
## [1] 5 2 2
P <- info$vectors # Nos devuelve los autovectores normalizados
P
## [,1] [,2] [,3]
## [1,] -0.5773503 0.8164966 0.0000000
## [2,] -0.5773503 -0.4082483 -0.7071068
## [3,] -0.5773503 -0.4082483 0.7071068
D <- diag(autovalores) # Nos devuelve la matriz diagonal formada por los autovalores
D
## [,1] [,2] [,3]
## [1,] 5 0 0
## [2,] 0 2 0
## [3,] 0 0 2
Figura 2.1: Método para diagonalizar una matriz.
En el lenguaje de programación R, es importante mencionar que la multiplicación
de matrices se realiza utilizando el operador “ %* %” en lugar del operador
tradicional. En la figura 2.2, se realiza una verificación para comprobar si las
matrices obtenidas en la figura 2.1 cumplen la igualdad D = P −1 AP . Sin embargo,
se observan pequeñas diferencias del orden de 10−15 debido a las limitaciones de
precisión inherentes a los cálculos numéricos realizados por el programa. Para mitigar
este problema, es posible utilizar la función round para redondear los elementos de
la matriz resultante a un número específico de dígitos decimales. De esta manera,
se logra un mejor control sobre los valores numéricos y se evitan discrepancias
insignificantes causadas por el error de redondeo.
— 39 —
2.3. Forma canónica de Jordan C. Bejines
library( pracma ) # Necesaria para la función inv.
inv(P) %*% A %*% P # Vemos que no coindice con D
## [,1] [,2] [,3]
## [1,] 5.000000e+00 7.550500e-16 -4.038956e-16
## [2,] 1.092506e-15 2.000000e+00 -4.951091e-17
## [3,] 6.458434e-16 1.518226e-16 2.000000e+00
# Al redondear con round(), mitigamos las limitaciones de precisión
round( inv(P) %*% A %*% P, digits = 6 )
## [,1] [,2] [,3]
## [1,] 5 0 0
## [2,] 0 2 0
## [3,] 0 0 2
Figura 2.2: Comando round para mitigar las limitaciones de precisión.
2.3. Forma canónica de Jordan
Cuando nos encontramos con matrices que no pueden ser diagonalizadas, surge
la necesidad de utilizar la forma canónica de Jordan, una herramienta fundamental
que nos permite obtener una representación casi diagonal de estas matrices.
2.3.1. Bloques de Jordan
Definición 2.45. Un bloque de Jordan es una matriz cuadrada que tiene todos
los elementos de la diagonal idénticos, la línea encima de la diagonal son unos, y el
resto son ceros.
Ejemplo 2.46. Las siguientes matrices son bloques de Jordan. Notése el caso
extremo: una matriz 1 × 1 no contradice la definición.
2 1 0
0 2 1 1 1
4
0 1
0 0 2
Las siguientes matrices no son bloques de Jordan.
2 1 0 2 1 0 2 0 0
0 2 0 0 3 1 1 2 0
0 0 2 0 0 2 0 1 2
Definición 2.47. Una matriz de Jordan es una matriz cuadrada formada por
bloques de Jordan en su diagonal y el resto de valores es cero.
— 40 —
2.3. Forma canónica de Jordan Universidad de Málaga
Ejemplo 2.48. La siguiente matriz es una matriz de Jordan.
2 1 0 0 0 0
0 2 1 0 0 0
0 0 2 0 0 0
0 0 0 1 1 0
0 0 0 0 1 0
0 0 0 0 0 4
Nota 2.49. Todas las matrices diagonales son matrices de Jordan cuyos bloques de
Jordan tienen tamaño 1 × 1.
Teorema 2.50. Consideremos una matriz cuadrada A ∈ Mn (K). Entonces A es
semejante a una matriz J de Jordan si y solo si la suma de las multiplicidades
algebraicas es n. Es decir, existe una matriz regular P tal que
J = P −1 AP
P
si y solo si ma(λi ) = n.
Diremos que J es la forma canónica de Jordan de la matriz A.
Definición 2.51. Sea A ∈ Mn (K) y λ un autovalor de A. Se define el subespacio
generalizado asociado al autovalor λ de orden i como:
Wλi := Ker(A − λI)i = {v ∈ Kn | (A − λI)i v = 0}.
Proposición 2.52. En las condiciones de la definición 2.51, si i < j, entonces
Wλi ⊆ Wλj .
Además, Wλ = Wλ1 (ver proposición 2.36).
Dada una matriz cuadrada A ∈ Mn (K) y un autovalor λ, podemos generarnos
infinitos subespacios generalizados creando la siguiente cadena:
Wλ1 ⊆ Wλ2 ⊆ Wλ3 ⊆ Wλ4 ⊆ . . .
Eventualmente, los subespacios generalizados estacionan, es decir, se repiten conti-
nuamente (matemáticamente: existe k ∈ N tal que Wλk = Wλk+1 ).
Definición 2.53. Sea A ∈ Mn (K) y λ un autovalor de A. Se define el subespacio
máximo como aquel subespacio generalizado de mayor dimensión y se denota por
Mλ .
— 41 —
2.3. Forma canónica de Jordan C. Bejines
Ejemplo 2.54. Se sabe que la matriz
3 1 −1 −1
0 2 0 1
A= 1
1 1 0
0 0 0 2
tiene como único autovalor λ = 2 con ma(2) = 4. Vamos a averiguar cuáles son los
subespacios generalizados asociados a λ = 2.
Para W21 , calculamos las ecuaciones cartesianas:
1 1 −1 −1 x
0 0 0 1 y
(A − 2I)v = 1 1 −1 0 z
0 0 0 0 t
y obtenemos que
W21 = {(x, y, z, t) ∈ R4 | x + y − z = 0, t = 0}.
Observemos que este subespacio generalizado tiene dimensión 2 porque viene
en R4 y tiene dos ecuaciones cartesianas (4 − 2 = 2).
Para W22 , calculamos las ecuaciones cartesianas:
1 1 −1 −1 1 1 −1 −1 x
0 0 0 1 0 0 0 1 y
(A − 2I)2 v =
1 1 −1 0 1 1 −1 0 z
0 0 0 0 0 0 0 0 t
equivalentemente,
0 0 0 0 x
0 0 0 0 y
(A − 2I)2 v =
0
0 0 0 z
0 0 0 0 t
y obtenemos que
W22 = R4 .
Observemos que este subespacio generalizado tiene dimensión 4 y que es el
subespacio maximo (no hay ninguno más grande, el siguiente sería W23 = R4
de nuevo). Por lo que tenemos dos subespacios generalizados asociados a λ = 2.
Además, W21 tiene dimensión 2 y W22 tiene dimensión 4.
— 42 —
2.3. Forma canónica de Jordan Universidad de Málaga
Proposición 2.55. La dimensión del subespacio máximo asociado a un autovalor
coincide con su multiplicidad algebraica.
Sea A ∈ Mn (K) y λ un autovalor de A. Consideremos los subespacios
generalizados asociados al autovalor λ. Podemos crearnos un diagrama en el que
aparezca la cadena de subespacios generalizados junto con vectores que formen una
base de cada subespacio. Este diagrama deberá cumplir lo siguiente:
1. Están escritos todos los subespacios generalizados del autovalor λ.
2. Debajo del primer subespacio generalizado Wλ1 , los vectores que aparecen
forman una base.
3. Debajo del segundo (tercero, cuarto, etc) subespacio generalizado Wλi , apa-
recen vectores que amplian la base anterior (Wλi−1 ) para formar una base de
Wλi .
4. Los vectores se disponen por fila, de tal manera que el anterior sea la imagen
del posterior a través de A − λI.
Teorema 2.56. Sea A ∈ Mn (K), λ un autovalor de A y J una forma canónica de
Jordan de A. Consideremos el diagrama de subespacios generalizados asociados a λ.
Entonces,
El número de filas de vectores indica el número de bloques de Jordan asociados
al autovalor λ que tiene la matriz de Jordan J.
El número de vectores en cada fila indica el tamaño de cada bloque de Jordan.
Teorema 2.57. Sea A ∈ Mn (K), λ un autovalor de A y P la matriz de paso para
conseguir una forma canónica de Jordan J = P −1 AP . Consideremos el diagrama de
subespacios generalizados asociados a λ. Entonces la matriz P están formados por
los vectores del diagrama (dispuestos en columnas) ordenados teniéndose en cuenta
la disposición de bloques de Jordan de la matriz J.
2.3.2. Algoritmo para la forma canónica de Jordan
Gracias a estos resultados, podemos establecer un método general para
comprobar si una matriz A ∈ Mn (K) es semajante a una matriz de Jordan y,
en caso de serlo, dar la matriz de Jordan J.
1. Calcular el polinomio característico p(λ) de A.
2. Calcular las raíces del polinomio característico. Estas raíces son los autovalores.
— 43 —
2.3. Forma canónica de Jordan C. Bejines
3. Comprobar si la suma de las multiplicidades algebraicas es igual a n. Si no es
igual, entonces A no es semajante a una matriz de Jordan.
4. Obtener los subespacios generalizados asociados a los autovalores.
5. Se crea el diagrama de subespacios generalizados para cada autovalor. Cada
fila de vectores del diagrama me genera un bloque de Jordan asociado a su
autovalor. El tamaño de ese bloque de Jordan viene determinado por el número
de vectores en esa fila.
6. La matriz de Jordan J buscada está formada por esos bloques de Jordan.
7. La matriz regular P que buscamos está formada por los autovectores (dis-
puestos en columnas) de la base de los subespacios generalizados, teniendo en
cuenta que los autovectores asociados a un bloque de Jordan son los vectores
por filas del diagrama. La colocación de los bloques de Jordan en J determinan
la colocación de los autovectores en la matriz de paso P .
Ejemplo 2.58. Vamos a buscar una forma canónica de Jordan de la matriz A del
ejemplo 2.54. Recordamos que
3 1 −1 −1
0 2 0 1
A=
1
1 1 0
0 0 0 2
Si hacemos el polinomio característico, al hallar las raíces obtenemos un único
autovalor: λ = 2 con multiplicidad algebraica 4. Los subespacios generalizados
asociados a λ = 2 fueron calculados en el ejemplo 2.54. Ellos son los siguientes:
W21 = {(x, y, z, t) ∈ R4 | x + y − z = 0, t = 0}
W22 = R4 .
Tenemos el siguiente diagrama (arriba de cada subespacio generalizado he puesto
su dimensión):
2 4
W21 ⊆ W22
v1 ← v2
v3 ← v4
La primera fila está formada por dos vectores (v1 y v2 ), esto genera un bloque de
Jordan de orden 2. La segunda fila está también formada por dos vectores (v3 y v4 ),
— 44 —
2.3. Forma canónica de Jordan Universidad de Málaga
por lo que genera también un bloque de Jordan de orden 2. Por lo tanto, la matriz
de Jordan que buscamos es
2 1 0 0
0 2 0 0
J =0
0 2 1
0 0 0 2
La matriz de paso P está formada por los vectores v1 , v2 , v3 y v4 que procedemos a
calcular. Primero debemos encontrar los de la derecha, es decir, v2 y v4 . Debemos
coger dos vectores independientes de W22 que no se encuentren en W21 . Por ejemplo,
tenemos que
v2 = (0, 1, 0, 0) 6∈ W21 y v4 = (0, 0, 0, 1) 6∈ W21 .
Y claramente, v2 y v4 pertenecen a W22 .
Calculamos ahora v1 y v3 :
v1 = (A − 2I)v2 = (1, 0, 1, 0).
v3 = (A − 2I)v4 = (−1, 1, 0, 0).
Por lo que la matriz de paso es
1 0 −1 0
0 1 1 0
P =
1
0 0 0
0 0 0 1
Se concluye que
J = P −1 AP,
es decir,
−1
2 1 0 0 1 0 −1 0 3 1 −1 −1 1 0 −1 0
0 2 0 0 0
1 1 0 0
2 0 1 0
1 1 0
0 =
0 2 1 1 0 0 0 1 1 1 0 1 0 0 0
0 0 0 2 0 0 0 1 0 0 0 2 0 0 0 1
— 45 —
2.3. Forma canónica de Jordan C. Bejines
— 46 —
Capítulo 3
Espacio afín y euclídeo
En este capítulo, exploraremos el espacio afín euclídeo, que combina las ideas
del espacio afín y el espacio euclídeo. Estudiaremos las propiedades y operaciones
básicas del espacio afín, así como la estructura métrica del espacio euclídeo. Veremos
cómo las coordenadas y la métrica se combinan para describir de manera precisa las
propiedades espaciales.
3.1. Espacio euclídeo
En esta sección, nos enfocaremos en el producto escalar y el espacio euclídeo.
Aprenderemos sobre su definición y propiedades, y cómo se utiliza para medir
magnitudes y ángulos entre otras técnicas.
3.1.1. Producto escalar
Definición 3.1. Sea V un espacio vectorial real. Se define un producto escalar
h, i : V × V −→ R como una forma bilineal simétrica y definida positiva, es decir,
Para todo u, v, w ∈ V y λ, µ ∈ R,
hu, λv + µwi = λhu, vi + µhu, wi.
Para todo u, v, w ∈ V y λ, µ ∈ R,
hλu + µv, wi = λhu, wi + µhv, wi.
Para todo u, v ∈ V ,
hu, vi = hv, ui.
Para todo u ∈ V no nulo,
hu, ui > 0.
47
3.1. Espacio euclídeo C. Bejines
Definición 3.2. Un espacio euclídeo es un espacio vectorial real V junto con un
producto escalar h, i : V × V −→ R.
Nota 3.3. Tanto en la definición de producto escalar como de espacio euclídeo,
hemos utilizado el cuerpo de los números reales como escalares. Sin embargo, es
posible generalizar el concepto usando como escalares un cuerpo genérico K.
Ejemplo 3.4. A continuación, mostramos tres ejemplos de espacios euclídeos
(V, h, i).
Si V = Rn , un ejemplo es el producto escalar usual,
n
X
h(x1 , x2 , . . . , xn ), (y1 , y2 , . . . , yn )i = xi y i .
i=1
El producto escalar usual de vectores nos proporciona una herramienta
fundamental para medir relaciones y propiedades geométricas en el espacio
tridimensional (longitudes, ángulos, proyecciones,etc.). Además, se utiliza en
muchas áreas de la física y las matemáticas, como la mecánica clásica, el cálculo
vectorial y la geometría analítica.
Si V = Rn [x], un ejemplo es el producto escalar de Hermitian,
Z b
hp(x), q(x)i = p(x) · q(x) dx
a
donde q(x) representa el conjugado complejo de q(x), y la integral se realiza
sobre el intervalo [a, b].
Este producto escalar es ampliamente utilizado en áreas como el análisis de
señales, la teoría de la información y la teoría de la aproximación para medir
similitudes y distancias entre polinomios complejos.
Si V = Mn (R), un ejemplo es el producto escalar de Frobenius,
n X
X m
hA, Bi = aij · bij
i=1 j=1
donde A = (aij ) y B = (bij ) son matrices del mismo tamaño.
Este producto escalar es útil en aplicaciones como la comparación de similitud
o distancia entre matrices, y en la formulación de problemas de optimización
y análisis de matrices.
— 48 —
3.1. Espacio euclídeo Universidad de Málaga
3.1.2. Norma y ángulo
Definición 3.5. Sea (V, h, i) un espacio euclídeo, se define la norma de u como
p
kuk = hu, ui.
A la norma de un vector, también se le conoce como módulo o longitud. Decimos
que u ∈ Rn es unitario si su norma es igual a 1.
Proposición 3.6. Sea (V, h, i) un espacio euclídeo y u ∈ V , el vector
1
u0 = u
kuk
es unitario y tiene la misma dirección que u.
El ángulo entre dos vectores en el espacio euclídeo se puede definir utilizando el
producto escalar.
Definición 3.7. Sea (V, h, i) un espacio euclídeo y u, v ∈ V . Se define el ángulo
entre u y v como aquel θ ∈ [0, π] que cumple la siguiente fórmula:
hu, vi
cos(θ) = (3.1)
kukkvk
Esta igualdad nos permite determinar el ángulo entre dos vectores utilizando el
producto escalar y nos proporciona una medida precisa de la orientación relativa de
los vectores en el espacio euclídeo. Equivalentemente, la fórmula puede reescribirse
como
hu, vi = kukkvk cos(θ).
Ejemplo 3.8. Consideremos el espacio euclídeo formado por el espacio vectorial
real R2 y el producto escalar usual h, i. Vamos a determinar qué ángulo α forman
los siguientes vectores:
u = (2, 1) v = (1, 3)
Aplicando la fórmula (3.1), obtenemos que
hu, vi 5 1
cos(α) = =√ √ =√
kukkvk 5 10 2
π
Por lo tanto, α = 4
. Gráficamente lo podemos comprobar usando Geogebra (ver
Figura 3.1).
Teniendo en cuenta que −1 ≤ cos(θ) ≤ 1, se obtiene la desigualdad de Cauchy-
Schwarz. A partir de las propiedades de los triángulos, se obtiene la desigualdad
triangular.
— 49 —
3.1. Espacio euclídeo C. Bejines
Figura 3.1: El ángulo entre u y v.
Teorema 3.9. Sea (V, h, i) un espacio euclídeo y u, v ∈ V . Se cumplen las siguientes
desigualdades.
1. Desigualdad de Cauchy-Schwarz:
|hu, vi| ≤ kukkvk.
2. Desigualdad triangular:
ku + vk ≤ kukkvk.
3.1.3. Ortogonalidad
Definición 3.10. Sea (V, h, i) un espacio euclídeo y u, v ∈ V . Decimos que u es
ortogonal a v si
hu, vi = 0.
Debido a la simetría del producto escalar, si u es ortogonal a v, entonces v es
ortogonal a u.
Nota 3.11. En geometría, los términos ortogonal y perpendicular a menudo
se utilizan indistintamente para describir la relación de 90 grados entre objetos
matemáticos. Sin embargo, ortogonal se refiere a la relación entre vectores que son
mutuamente perpendiculares, mientras que perpendicular se utiliza específicamente
para describir la relación entre líneas, planos o elementos geométricos que forman
un ángulo recto de 90 grados.
Definición 3.12. Sea (V, h, i) un espacio euclídeo y S ⊆ V .
Diremos que S es un conjunto ortogonal si dados u, v ∈ S, tenemos que
hu, vi = 0 para todo u 6= v.
— 50 —
3.1. Espacio euclídeo Universidad de Málaga
Diremos que S es un conjunto ortonormal si S es un conjunto ortogonal y
cada vector u ∈ S es unitario.
Diremos que S es una base ortogonal si S es una base y un conjunto
ortogonal.
Diremos que S es una base ortonormal si S es una base y un conjunto
ortonormal.
Ejemplo 3.13. Consideremos el espacio euclídeo (R3 , h, i) con el producto escalar
usual. Consideremos los siguientes conjuntos:
S1 = {(1, 1, 0), (0, 3, 2)}, S2 = {(0, 1, 0), (1, 0, 0)}
S3 = {(1, 2, 3), (0, 2, 5), (0, 0, −1)}
Tenemos que S1 no es un conjunto ortogonal porque sus vectores no son ortogonales.
Por otro lado, S2 es un conjunto ortonormal porque sus vectores son ortogonales
entre sí y a su vez, también son unitarios. Sin embargo, S2 no es base de R3 . Por
último, S3 es una base ortogonal porque los tres vectores forman una base y son
ortogonales dos a dos.
Definición 3.14. Sea (V, h, i) un espacio euclídeo y W un subespacio vectorial de
V . El complemento ortogonal de W se denota por W ⊥ y se define como
W ⊥ := {u ∈ V | hw, ui = 0, para todo w ∈ W }.
Nota 3.15. Gracias a la simetría del producto escalar, es importante destacar la
diferencia con el concepto de ortogonalidad definido para formas bilineales. En el
caso de las formas bilineales, la noción de ortogonalidad requería una definición tanto
por la izquierda como por la derecha (ver definición ??). Sin embargo, en el contexto
de los espacios euclídeos, esta simetría del producto escalar permite simplificar la
definición del complemento ortogonal y considerar únicamente la condición hw, ui =
0 para todo w en W . Esto simplifica el proceso y proporciona una relación más
directa entre el subespacio W y su complemento ortogonal W ⊥ .
Ejemplo 3.16. Consideremos el espacio euclídeo (R3 , h, i) con el producto escalar
usual y el subespacio vectorial W definido por
W ≡ x − y + 2z = 0.
El complemento ortogonal W ⊥ es
W ⊥ = {u ∈ R3 | hw, ui = 0, para todo w ∈ W }.
— 51 —
3.1. Espacio euclídeo C. Bejines
Una base de W es B = {(1, 1, 0), (2, 0, −1)}, luego cualquier vector w ∈ W es una
combinación lineal de ellos, es decir,
w = a(1, 1, 0) + b(2, 0, −1) para algún a, b ∈ R.
Buscamos los vectores (x, y, z) ∈ R3 que sean ortogonales a todo w ∈ W , es decir,
ha(1, 1, 0) + b(2, 0, −1), (x, y, z)i = 0,
para todo a, b ∈ R. Aplicando las propiedades del producto escalar, podemos
simplificar y obtener que la igualdad
ah(1, 1, 0), (x, y, z)i + bh(2, 0, −1), (x, y, z)i = 0
debe ser cierta para todo a, b ∈ R. En particular, si para a = 1 y b = 0 tenemos la
igualdad
h(1, 1, 0), (x, y, z)i = 0.
Análogamente, para a = 0 y b = 1, tenemos la igualdad
y h(2, 0, −1), (x, y, z)i = 0.
Por lo tanto, concluimos que W ⊥ es
⊥ x + y = 0
W ≡
2x − z = 0
Proposición 3.17. Sea (V, h, i) un espacio euclídeo y W un subespacio vectorial de
V . Entonces,
La intersección de W y W ⊥ es el vector nulo, es decir,
W ∩ W ⊥ = {~0}.
La suma de W y W ⊥ es el espacio vectorial V , es decir,
W + W ⊥ = V.
A partir de los dos apartados anteriores, se concluye que W y W ⊥ son
subespacios suplementarios, es decir,
W ⊕ W ⊥ = V.
Como consecuencia, todo vector v ∈ V , puede expresarse como
v = w1 + w2 ,
donde w1 ∈ W y w2 ∈ W ⊥ .
— 52 —
3.1. Espacio euclídeo Universidad de Málaga
3.1.4. Proyección ortogonal
La proyección ortogonal de un vector sobre un subespacio conserva la dirección
del vector original, pero lo proyecta sobre el subespacio de manera perpendicular.
Definición 3.18. Sea (V, h, i) un espacio euclídeo y u, v ∈ V . Se define la
proyección ortogonal de v sobre u como
hu, vi
proyu (v) := u.
hu, ui
Proposición 3.19. Consideremos un espacio euclídeo (V, h, i). Si u, v ∈ V , entonces
v = proyu (v) + (v − proyu (v)).
Además, proyu (v) y (v − proyu (v)) son ortogonales entre sí.
A continuación, mostramos cómo es la proyección de un vector sobre un
subespacio.
Definición 3.20. Consideremos un espacio euclídeo (V, h, i) y U un subespacio
vectorial de V . Si v ∈ U y B = {u1 , . . . , uk } es una base ortogonal de U , se define
la proyección ortogonal de v sobre U como
k k
X X hui , vi
proyU (v) = proyui (v) = ui . (3.2)
i=1 i=1
hu i , ui i
Nota 3.21. Si v ∈ U , entonces proyU (v) = v.
Ejemplo 3.22. Consideremos un espacio euclídeo (R3 , h, i junto con el producto
escalar usual. Vamos a calcular la proyección ortogonal de v = (5, −1, 2) sobre el
subespacio
W ≡ L (1, 1, 0), (0, 0, 2) .
Tenemos que BW = (1, 1, 0), (0, 0, 2) es una base ortogonal de W ya que son
linealmente independientes
h(1, 1, 0), (0, 0, 2)i = 1 · 0 + 1 · 0 + 0 · 2 = 0.
Por lo tanto,
h(1, 1, 0), (5, −1, 2)i h(0, 0, 2), (5, −1, 2)i
proyW (5, −1, 2) = (1, 1, 0) + (0, 0, 2),
h(1, 1, 0), (1, 1, 0)i h(0, 0, 2), (0, 0, 2)i
equivalentemente,
4 4
proyW (5, −1, 2) = (1, 1, 0) + (0, 0, 2) = (2, 2, 2).
2 4
— 53 —
3.1. Espacio euclídeo C. Bejines
Proposición 3.23. Sea (V, h, i) un espacio euclídeo, U un subespacio vectorial de
V y v ∈ V . El vector de U más próximo a v es la proyección de v sobre U .
Si tenemos una base ortonormal, teniendo en cuenta la fórmula (3.2), obtenemos
el siguiente resultado.
Proposición 3.24. Sea (V, h, i) un espacio euclídeo, y B = {u1 , u2 , . . . , un } una
base ortonormal de V . La combinación lineal de u ∈ V en la base B es
u = λ1 u1 + λ2 u2 + · · · + λn un .
donde λi = hu, ui i. En otras palabras, el cálculo de las coordenadas de u en la base
B se puede determinar a partir del producto escalar.
3.1.5. Método de Gram-Schmidt
El método de Gram-Schmidt es una técnica utilizada para obtener una base or-
togonal o ortonormal a partir de una base arbitraria de un subespacio vectorial. Este
método permite construir una base de vectores que son mutuamente perpendiculares
(ortogonales) o incluso ortonormales, lo que simplifica muchos cálculos y análisis en
álgebra lineal. El proceso de Gram-Schmidt se realiza iterativamente, definiendo
nuevos vectores a partir de los vectores originales y las proyecciones ortogonales.
Método de Gram-Schmidt: Consideremos un espacio euclídeo (V, h, i), un
subespacio vectorial W ⊆ V y una base BW = {u1 , u2 , . . . , uk } de W . El método
de Gram-Schmidt se estructura en siguientes pasos para determinar los vectores de
una nueva base:
e1 = u1 ,
e2 = u2 − proye1 (u2 ),
e3 = u3 − proye1 (u3 ) − proye2 (u3 ),
.. .
. = ..
= un − k−1
P
ek i=1 proyei (uk ).
Siguiendo estas pautas, obtenemos una base ortogonal {e1 , e2 , . . . , ek } para W .
Si queremos una base ortonormal, normalizamos cada vector dividiéndolo por su
norma para que tenga longitud 1 y la misma dirección, es decir, si e0i = keeii k . De esta
forma, el conjunto {e01 , e02 , . . . , e0k } es una base ortonormal de W .
Ejemplo 3.25. Consideremos el espacio vectorial euclídeo R3 con el producto
escalar usual y el subespacio vectorial W ≡ h(1, −1, 0), (1, 0, −1)i. Para obtener
una base ortonormal de W podemos aplicar el método de Gram-Schmidt a la base
BW = {(1, −1, 0), (1, 0, −1)}.
e1 = (1, −1, 0),
h(1,−1,0),(1,0,−1)i
e2 = (1, 0, −1) − h(1,−1,0),(1,−1,0)i
· (1, −1, 0) = ( 12 , 12 , −1)
— 54 —
3.1. Espacio euclídeo Universidad de Málaga
Por lo que el conjunto {(1, −1, 0), ( 21 , 12 , −1)} es una base ortogonal de W . Para
conseguir una base ortonormal, procedemos a normalizar cada uno de los vectores:
(1, −1, 0) → ( √12 , − √12 , 0)
( 12 , 12 , −1) → ( √16 , √16 , − √26 )
Se concluye que una base ortonormal de W es {( √12 , − √12 , 0), ( √16 , √16 , − √26 )}.
3.1.6. Diagonalización ortogonal
La diagonalización ortogonal es un proceso de diagonalización mediante el cual
una matriz se descompone en una forma más simple y útil. Consiste en encontrar
un conjunto de autovectores de la matriz que son ortogonales entre sí. Estos
autovectores se normalizan para tener una longitud de 1 y luego se utilizan para
formar una matriz de paso P , que es una matriz ortogonal (su inversa coincide con su
traspuesta). Como es sabido, la matriz diagonal está compuesta por los autovalores.
Esta diagonalización permite simplificar operaciones matriciales y facilita el análisis
y resolución de problemas en diversas áreas, como la mecánica cuántica, el análisis
de estructuras y el procesamiento de señales.
Definición 3.26. Sea A ∈ Mn (R). Decimos que A es una matriz ortogonal si su
inversa es su traspuesta, es decir, A−1 = At .
Proposición 3.27. Sea P ∈ Mn (R). Las siguientes afirmaciones sin equivalentes:
1. P es una matriz ortogonal.
2. Las columnas de P son vectores unitarios y mutuamente ortogonales.
3. Las filas de P son vectores unitarios y mutuamente ortogonales.
Definición 3.28. Sea A ∈ Mn (R). Decimos que A es diagonalizable ortogonal-
mente si existe una matriz diagonal D y una matriz ortogonal P tal que
D = P t AP
Nota 3.29. Trivialmente, si una matriz es diagonalizable ortogonalmente, entonces
es diagonalizable. Además, la elección de la matriz ortogonal P no es única, pues
depende de los autovectores escogidos y su colocación.
El siguiente resultado pone de manifiesto la importancia de las matrices
simétricas en este contexto.
Proposición 3.30. Sea A ∈ Mn (R).
Si A es simétrica, entonces A es diagonalizable.
— 55 —
3.1. Espacio euclídeo C. Bejines
A es simétrica si y solo si A es diagonalizable ortogonalmente.
Si queremos diagonalizar ortogonalmente una matriz simétrica A, debemos
diagonalizarla teniendo en cuenta que los autovectores de la matriz de paso P
deben ser ortogonales entre sí. El siguiente resultado nos indica que los autovectores
asociados a distintos autovalores son siempre ortogonales.
Proposición 3.31. Sea A ∈ Mn (R) y λ1 , λ2 dos autovalores de A. Si A es simétrica,
entonces dos autovectores cualesquiera asociados a λ1 y λ2 respectivamente, son
ortogonales entre sí.
Este resultado es de suma importancia y tiene una consecuencia directa: si todos
los autovalores son distintos entre sí, la matriz de paso P , obtenida durante el
proceso de diagonalización de una matriz simétrica, estará compuesta por vectores
ortogonales.
Sin embargo, cuando tenemos algún autovalor con una multiplicidad algebraica
mayor a 1, no podemos garantizar que los autovectores asociados sean ortogonales.
En estos casos, podemos aplicar el método de Gram-Schmidt para obtener una
base ortogonal del subespacio vectorial correspondiente a dicho autovalor. De esta
forma, todos los vectores de la matriz P serán ortogonales entre sí. Esta técnica
nos permite mantener la propiedad de ortogonalidad, incluso en situaciones donde
la matriz simétrica presenta autovalores repetidos.
Para acabar la sección, veamos un ejemplo de diagonalización ortogonal.
Ejemplo 3.32. Vamos a diagonalizar ortogonalmente la siguiente matriz:
3 −2 4
A = −2 6 2
4 2 3
Como A es simétrica, acorde a la proposición 3.30 podemos asegurar que A
es diagonalizable ortogonalmente. Primero, calculamos los autovalores haciendo el
determinante de A − λI,
|A − λI|= −λ3 + 12λ2 − 21λ − 98
Aplicando el método de Ruffini, obtenemos que las tres raíces de dicho polinomio
son 7, 7, −2. Ahora vamos a calcular los subespacios de autovectores asociados al
autovalor 7 y al autovalor −2, es decir,
W7 = Ker(A − 7I) W−2 = Ker(A + 2I)
1. Para W7 , tenemos
−4 −2 4 x 0
−2 −1 2 y = 0
4 2 −4 z 0
— 56 —
3.1. Espacio euclídeo Universidad de Málaga
Si escalonamos la matriz y simplificamos, nos queda que W7 está formado por
los autovectores que cumplen la siguiente ecuación cartesiana
W7 ≡ 2x + y − 2z = 0.
Equivalentemente, W7 = L (1, 0, 1), (1, −2, 0)
2. Para W−2 , tenemos
5 −2 4 x 0
−2 8 2 y = 0
4 2 5 z 0
Si escalonamos la matriz y simplificamos, nos queda el siguiente sistema de
ecuaciones lineales equivalente:
1 0 1 x 0
0 1 1 y = 0
2
0 0 0 z 0
Por lo tanto, W−2 = L (2, 1, −2)
Ya tenemos tres autovectores, dos para el autovalor 7 y uno para el autovalor
−2. Gracias a la proposición 3.31, sabemos que los autovectores asociados a
distintos autovalores son ortogonales. Sin embargo, no podemos afirmar que los
autovectores correspondientes al autovalor 7 sean ortogonales entre sí. De hecho,
estos autovectores no son ortogonales como comprobamos a continuación:
h(1, 0, 1), (1, −2, 0)i = 1 6= 0.
Para considerar dos autovectores que generen el mismo subespacio vectorial,
podemos recurrir al proceso de Gram-Smidth.
e1 = (1, 0, 1)
e2 = (1, −2, 0) − proy(1,0,1) (1, −2, 0)
Desarrollando e2 , tenemos que
h(1,0,1),(1,−2,0)i
e2 = (1, −2, 0) − h(1,0,1),(1,0,1)i
(1, 0, 1)
= (1, −2, 0) − 12 (1, 0, 1)
= ( 12 , −2, − 21 )
Esto implica que
W7 = L (1, 0, 1), (1, −2, 0) = L ((1, 0, 1), (1, −4, −1))
— 57 —
3.2. Espacio afín C. Bejines
Merece la pena apreciar que el vector e2 ha sido multiplicado por 2 para eliminar las
fracciones. Como sabemos, esto no cambia la dirección del vector. Para construirnos
la matriz ortogonal P , los autovectores también deben ser unitarios, por lo que los
normalizamos. √
k(1, 0, 1)k = √2
k(1, −4, −1)k = 3 2
k(2, 1, −2)k = 3
Se concluye que la matriz ortogonal P y la matriz diagonal D son
1 1 2
√ √
2 3 2 3 7 0 0
P = 0 3−4 √ 1
D= 0 7 0
2 3
√1 −1
√ −2 0 0 −2
2 3 2 3
En la figura 3.2, se comprueba con el programa R que la matriz P es ortogonal
y que se cumple la igualdad D = P t AP .
Una matriz que no es simétrica puede diagonalizarse, pero no necesariamente de
manera ortogonal. La diagonalización de una matriz implica encontrar una matriz
diagonal D y una matriz regular P tal que D = P −1 AP , donde A es la matriz
original.
Las matrices simétricas tienen una propiedad especial: todos sus autovalores son
reales y sus autovectores asociados son ortogonales entre sí. Esto significa que si
diagonalizamos una matriz simétrica, podemos encontrar una matriz P formada por
autovectores ortogonales y unitarios, la cual es precisamente la matriz ortogonal que
buscamos.
Sin embargo, para una matriz no simétrica, los autovalores pueden ser complejos
y los autovectores asociados no necesariamente son ortogonales. En este caso, aún
podemos diagonalizar la matriz, pero la matriz P que contiene los autovectores ya no
es necesariamente ortogonal. De hecho, la diagonalización de una matriz no simétrica
involucra una matriz de paso P que puede ser invertible pero no necesariamente
ortogonal.
En resumen, una matriz no simétrica puede diagonalizarse, pero su diagonali-
zación no implica una matriz ortogonal P , a diferencia de las matrices simétricas
donde esto es posible gracias a la propiedad especial de sus autovectores.
3.2. Espacio afín
El espacio afín es un concepto fundamental en geometría que estudia la relación
entre puntos y vectores. Se compone de un conjunto de puntos y un espacio
vectorial asociado. Los puntos pueden desplazarse mediante vectores, lo que permite
representar traslaciones. El espacio afín no tiene un punto de origen fijo y se centra
en las propiedades intrínsecas de los puntos y vectores.
— 58 —
3.2. Espacio afín Universidad de Málaga
# Código de R
library ( pracma ) # librería necesaria
# Escribimos la matriz A
A <- matrix (c(3,-2,4,-2,6,2,4,2,3),
nrow = 3, ncol = 3, byrow = TRUE )
# Escribimos la matriz P
P <- matrix (c(1/sqrt(2),(1)/(3*sqrt(2)),2/3,
0,-4/(3*sqrt(2)),1/3,
1/sqrt(2),-1/(3*sqrt(2)),-2/3),
nrow = 3, ncol = 3, byrow = TRUE )
print(P) # la matriz ortogonal P
## [,1] [,2] [,3]
## [1,] 0.7071068 0.2357023 0.6666667
## [2,] 0.0000000 -0.9428090 0.3333333
## [3,] 0.7071068 -0.2357023 -0.6666667
# Vamos a comprobar que los vectores columna son unitarios y ortogonales entre sí.
sqrt(sum(P[,1]*P[,1])) # norma del vector columna 1.
## [1] 1
sqrt(sum(P[,2]*P[,2])) # norma del vector columna 2.
## [1] 1
sqrt(sum(P[,3]*P[,3])) # norma del vector columna 3.
## [1] 1
sum(P[,1]*P[,2]) # producto escalar del vector columna 1 y 2.
## [1] 0
sum(P[,1]*P[,3]) # producto escalar del vector columna 1 y 3.
## [1] 0
sum(P[,2]*P[,3]) # producto escalar del vector columna 2 y 3.
## [1] 0
round( inv(P), digits = 7) # la inversa de P. Se aprecia que es la traspuesta de P.
## [,1] [,2] [,3]
## [1,] 0.7071068 0.0000000 0.7071068
## [2,] 0.2357023 -0.9428090 -0.2357023
## [3,] 0.6666667 0.3333333 -0.6666667
#Comprobamos que D = Pˆt * A * P.
round( t(P) %*% A %*% P, digits = 7 ) # t(P) denota a la traspuesta de P.
## [,1] [,2] [,3]
## [1,] 7 0 0
## [2,] 0 7 0
## [3,] 0 0 -2
Figura 3.2: Comprobación de que P es una matriz ortogonal y que se cumple la
igualdad D = P t AP en el ejemplo 3.2
— 59 —
3.2. Espacio afín C. Bejines
3.2.1. Nociones básicas: Puntos, subespacios y distancias
Definición 3.33. Un espacio afín es un conjunto no vacío A, un espacio vectorial
V y una función f : A × A −→ V que verifica
Para todo P, Q, R ∈ A, se tiene que f (P Q) + f (QR) = f (P R).
Si P ∈ A y v ∈ V , entonces existe un único Q ∈ A tal que f (P Q) = v.
A los elementos de A se les llama puntos. De manera simplificada, se usa
f (P Q) = P Q. Esta notación nos permite describir de manera concisa las relaciones
entre puntos y vectores en el espacio afín. En concreto, si consideramos dos puntos
P y Q pertenecientes al espacio afín A, el vector P Q representa el desplazamiento
desde el punto P hasta el punto Q.
En general, a un espacio afín (A, V, f ) lo denotaremos por A.
Ejemplo 3.34. Tomemos el conjunto A = R3 y el espacio vectorial V = (R3 , +, ·)
sobre el cuerpo R. Aunque estos conjuntos son los mismos, se destaca que V posee
una estructura algebraica. Si a cada par de puntos P = (x, y, z) y Q = (x0 , y 0 , z 0 ), la
función f : A × A −→ V asigna el vector (x0 − x, y 0 − y, z 0 − z), obtenemos el espacio
afín R3 .
Definición 3.35. Sea A un espacio afín. Se define la dimensión del espacio afín
como la dimensión del espacio vectorial V asociado a A, es decir, el número de
elementos de una base de V .
Definición 3.36. Sea A un espacio afín y U ⊆ A. Diremos que U es subespacio
afín, o variedad afín, si existe un punto P y un subespacio vectorial W tal que
U = P + W , donde
P + W := {P + w | w ∈ W } = {Q | P Q = w, para algún w ∈ W },
Si B es una base de W , diremos que los vectores de B son los vectores de dirección
de U .
La idea es que los subespacios afines son traslaciones de los subespacios
vectoriales.
Teorema 3.37. Sea A un espacio afín y U ⊆ A un subespacio afín tal que U =
P + W.
1. Si los puntos P, Q ∈ U , entonces el vector P Q pertenece al subespacio vectorial
asociado, es decir, P Q ∈ W .
2. Si Q ∈ U , entonces U = P + W = Q + W .
— 60 —
3.2. Espacio afín Universidad de Málaga
3. Si U = P +W = P +W 0 para otro subespacio vectorial W 0 , entonces W = W 0 .
Por consiguiente, sus bases canónicas coinciden.
Definición 3.38. Sea A un espacio afín y S ⊆ A un conjunto de puntos. El menor
subespacio afín que contenga a S es llamado subespacio afín generado por S y
se denota por L(S). Si S = {P1 , P2 , . . . , Pk }, entonces
L(S) := P1 + L(P1 P2 , P1 P3 , . . . , P1 Pk ).
Definición 3.39. Sea A un espacio afín y U1 , U2 dos subespacios afines. El menor
subespacio afín que contenga a U1 y a U2 es llamado subespacio suma de U1 y U2 ,
es decir, U1 + U2 .
Proposición 3.40. Sea A un espacio afín y U1 = P + W1 y U2 = Q + W2 dos
subespacios afines.
1. Si U1 ∩ U2 6= ∅, entonces
U1 + U2 = R + (W1 + W2 )
donde el punto R ∈ U1 ∩ U2 .
2. Si U1 ∩ U2 = ∅, entonces
U1 + U2 = S + (hP Qi + W1 + W2 )
donde el punto S ∈ U1 ∪ U2 .
Teorema 3.41. Sea A un espacio afín y U1 y U2 dos subespacios afines con
intersección no vacía. Entonces,
dim(U1 + U2 ) = dim(U1 ) + dim(U2 ) − dim(U1 ∩ U2 ).
Cuando el espacio vectorial asociado al espacio afín posea una estructura
euclidiana, lo que implica que cuenta con un producto escalar, diremos que tenemos
un espacio afín euclideo. En este contexto, es posible definir distancias entre puntos
del espacio afín.
Definición 3.42. Sea A un espacio afín euclídeo con producto escalar h, i. Definimos
la distancia entre dos puntos P y Q como la norma del vector P Q, es decir,
p
d(P, Q) := kP Qk= hP Q, P Qi. (3.3)
Ejemplo 3.43. Consideremos el espacio afín euclideo R2 con el producto escalar
usual. Vamos a calcular la distancia entre el punto P (1, 1) y Q(5, 4) de la figura 3.3.
p
kP Qk= h(4, 3), (4, 3)i = 5.
— 61 —
3.2. Espacio afín C. Bejines
Figura 3.3: La distancia entre P y Q.
Nota 3.44. La fórmula (3.3) para calcular la distancia entre dos puntos en un
espacio afín euclideo se basa en el mismo principio que el teorema de Pitágoras,
donde los cuadrados de las longitudes de los lados se suman para obtener la longitud
de la hipotenusa en un triángulo rectángulo.
Proposición 3.45. Sea A un espacio afín euclideo y P, Q, R ∈ A. Se verifican las
siguientes propiedades.
d(P, Q) = 0 si y solo si P = Q.
d(P, Q) = d(Q, P ).
d(P, R) ≤ d(P, Q) + d(Q, R).
Definición 3.46. Sea A un espacio afín euclideo y U1 , U2 dos subespacios afines.
Definimos la distancia entre U1 y U2 de la siguiente forma:
d(U1 , U2 ) := mı́n{d(P, Q) | P ∈ U1 , Q ∈ U2 }
Trivialmente, si dos subespacios afines se cortan, su distancia es cero.
3.2.2. Ecuaciones paramétricas y cartesianas
Teniendo en cuenta los conceptos y propiedades de los espacios vectoriales, pode-
mos determinar tanto las ecuaciones paramétricas como las ecuaciones cartesianas
de un subespacio afín.
Para obtener las ecuaciones paramétricas de un subespacio afín U , primero
debemos identificar su dimensión y elegir un punto P ∈ U . Luego, expresamos
el subespacio afín U como la suma de P y un subespacio vectorial asociado W . Por
— 62 —
3.2. Espacio afín Universidad de Málaga
otro lado, para obtener las ecuaciones cartesianas de un subespacio afín, eliminamos
los parámetros de las ecuaciones paramétricas y expresamos el sistema resultante en
términos de ecuaciones lineales.
Ejemplo 3.47. Consideremos el espacio afín R4 , el subespacio vectorial W =
L (2, 0, 1, 0) y el punto P = (1, 1, 0, 3). El subespacio afín U = P + W es
U = (1, 1, 0, 3) + L (2, 0, 1, 0) .
Por lo tanto, su dimensión es 1 ya que la base del subespacio vectorial asociado tiene
un único elemento. Sus ecuaciones paramétricas son:
x = 1 + 2λ
y = 1
z = λ
t = 3
Podemos obtener las ecuaciones cartesianas eliminando los parámetros de las
ecuaciones paramétricas. Como tiene dimensión 1, se obtienen las siguientes tres
ecuaciones cartesianas:
x − 2z = 1
y = 1
t = 3
Ejemplo 3.48. Consideremos
el espacio afín R3 , el subespacio vectorial W =
L (1, 1, 1), (0, 1, −1) y el punto P = (1, 2, 3). El subespacio afín U = P + W
es
U = (1, 2, 3) + h(1, 1, 1), (0, 1, −1)i.
Como el subespacio vectorial W tiene dimensión 2, la dimensión de U es 2. Sus
ecuaciones paramétricas son:
x = 1+α
y = 2+α+β
z = 3+α−β
Podemos eliminar los parámetros de las ecuaciones paramétricas para obtener las
ecuaciones cartesianas. Dado que dim(U ) = 2 y estamos en el espacio afín R3 , se
obtiene una única ecuación cartesiana al hacer que el sistema de ecuaciones lineales
sea compatible:
x−1 1 0 x−1 1 0 x−1 1 0
y−2 1 1 → y−x−1 0 1 → y−x−1 0 1
z − 3 1 −1 z − x − 2 0 −1 z + y − 2x − 3 0 0
Para que el sistema de ecuaciones lineales sea compatible, se debe cumplir
z + y − 2x − 3 = 0,
la cual es la ecuación cartesiana buscada.
— 63 —
3.2. Espacio afín C. Bejines
3.2.3. Sistema de referencia
En un espacio afín, un sistema de referencia consiste en un punto de origen
O y una base B del espacio vectorial asociado que definen los direcciones y
magnitudes de los ejes del sistema de coordenadas. Las coordenadas se expresan
como combinaciones lineales de los vectores de base y representan las medidas en
cada dimensión. Formalmente, tenemos la siguiente definición.
Definición 3.49. Sea A un espacio afín, O ∈ A y B una base del espacio vectorial
asociado. Diremos que el par {O, B} es un sistema de referencia, donde al
punto O lo llamaremos origen del sistema de referencia. Si P ∈ A, definimos las
coordenadas del punto P en el sistema de referencia {O, B} como las coordenadas
del vector OP en la base B.
La principal idea de un sistema de referencia es establecer una estructura y
una forma sistemática de describir y ubicar puntos en un espacio afín. Proporciona
un marco de trabajo para la medición, la representación gráfica, la realización de
cálculos y el análisis de relaciones espaciales entre objetos.
Nota 3.50. En el espacio afín Rn , si tomamos como origen el punto O(0, 0, . . . , 0)
y la base canónica BC , entonces {O, BC } es llamado sistema de referencia canónico.
Ejemplo 3.51. Consideremos el espacio afín R2 y el sistema de referencia R =
{O, B}, donde O = (1, 2) y B = {u, v} = {(−1, 2), (1, 1)} (ver figura 3.4). Vamos a
calcular las coordenadas del punto P (0, 1) en R. Para ello, vamos a determinar las
coordenadas del vector OP = (−1, −1) en la base B. Tenemos que,
(−1, −1) = λ1 (−1, 2) + λ2 (1, 1)
obteniendo el sistema de ecuaciones lineales
−λ1 + λ2 = −1
2λ1 + λ2 = −1
Tras resolverlo, obtenemos que λ1 = 0 y λ2 = −1, por lo que las coordenadas del
punto P en R son (0, −1).
Considerando que los vectores u y v definen los ejes del sistema de referencia
R, podemos visualmente determinar las coordenadas de otros puntos, como Q(5, 3),
R(−2, 5) y S(2, 6) (ver Figura 3.5). Observando de manera visual, encontramos que
las coordenadas de esos puntos son (−1, 3)R , (2, −1)R y (1, 2)R respectivamente.
3.2.4. Posición relativa
En general, analizar la posición relativa de dos subespacios afines nos proporciona
información valiosa sobre su relación espacial y nos permite comprender mejor las
— 64 —
3.2. Espacio afín Universidad de Málaga
Figura 3.4: Sistema de referencia Figura 3.5: Ejes del sistema de referencia
propiedades y características de los subespacios en estudio. Esto es fundamental en
muchas áreas de las matemáticas, la física y la ingeniería, y nos ayuda a resolver
problemas y tomar decisiones basadas en la estructura geométrica de los subespacios
afines.
Para estudiar la posición relativa de dos subespacios afines, se pueden utilizar
varios métodos y técnicas. Aquí se presentan algunas estrategias comunes:
1. Análisis de intersección: Para determinar si los dos subespacios afines se
intersectan, se resuelve el sistema de ecuaciones que representa ambos
subespacios. Si el sistema tiene solución, significa que hay puntos en común y
los subespacios se intersectan. Si el sistema no tiene solución, los subespacios
no se intersectan.
2. Análisis de inclusión: Para verificar si un subespacio afín está contenido en
el otro, se examina si la intersección de ambos subespacios tiene la misma
dimensión que uno de ellos. Si esto se cumple, significa que el subespacio de
menor dimensión está contenido en el otro.
3. Análisis de paralelismo: Para determinar si los subespacios afines son paralelos,
se comparan los vectores de dirección de ambos subespacios. Si los vectores
de dirección son combinación lineal de los vectores de dirección del otro
subespacio, los subespacios son paralelos.
4. Análisis de ortogonalidad: Para estudiar si los subespacios afines son ortogo-
nales, se comprueba si el subespacio vectorial asociado a uno de está contenido
en el complemento ortogonal del otro.
En resumen, el estudio de la posición relativa de dos subespacios afines implica
el análisis de las ecuaciones que los describen, la comparación de los vectores
— 65 —
3.2. Espacio afín C. Bejines
de dirección y el uso de conceptos geométricos relacionados. Dependiendo de la
dimensión de los subespacios y la información disponible, diferentes métodos y
técnicas pueden aplicarse para determinar su posición relativa.
Nota 3.52. Es significativo destacar que en un espacio tridimensional, dos planos
afines no pueden ser ortogonales. Esto se debe a cada complemento ortogonal de los
planos vectoriales asociados tiene dimensión 1, por lo que no puede contener al otro
plano vectorial. Sin embargo, diremos que dos planos son perpendiculares si sus
vectores normales son ortogonales.
Ejemplo 3.53. Consideremos el espacio afín R3 y los subespacios afines
x + 3y − z = 2
U1 ≡ 3x − 2y − 3z = 1 U2 ≡
x +z =4
Para estudiar la posición relativa de U1 y U2 analizamos su intersección, es decir,
los puntos en los que los subespacios afines se cortan. Esto es equivalente a resolver
el sistema de ecuaciones lineales no homogeneo. Tras resolverlo por Gauss-Jordan,
nos da una única solución:
51 5 37
x= y= z= .
22 11 22
Los subespacios U1 y U2 se cortan en un único punto. Como la dim(U1 ) = 2 y
dim(U2 ) = 1 y se cortan solomente en un punto, ninguno está contenido en el otro.
Como la intersección es no vacía, no pueden ser paralelos. Veamos si son ortogonales:
Una base de del subespacio vectorial asociado a U1 es
B1 = {(2, 3, 0), (0, 3, −2)}.
Una base de del subespacio vectorial asociado a U2 es
B2 = {(3, −2, −3)}.
Realizamos el producto escalar entre el vector de la base B2 con los vectores de B1 :
h(3, −2, −3), (2, 3, 0)i = 0 h(3, −2, −3), (0, 3, −2)i = 0
Por lo tanto, el subespacio afín U2 (una recta afín) es perperdicular al subespacio
afín U1 (un plano afín).
3.2.5. El espacio real R3
En esta sección, utilizaremos las herramientas y conceptos aprendidos específica-
mente en el contexto del espacio tridimensional, R3 . Aplicaremos estas herramientas
para analizar y resolver problemas relacionados con figuras y objetos en el espacio
— 66 —
3.2. Espacio afín Universidad de Málaga
tridimensional. Al enfocarnos en R3 , podremos aprovechar las propiedades y
características únicas de este espacio para obtener resultados precisos y significativos.
Exploraremos conceptos como distancias, haces de planos, volúmenes y otras
técnicas específicas de R3 para abordar diferentes situaciones y resolver problemas
prácticos en este contexto tridimensional.
Nota 3.54. Es importante destacar que los resultados y conceptos presentados en
esta sección se pueden trasladar fácilmente al trabajar en R2 , considerando la pérdida
de una dimensión.
Una operación de gran interés en el espacio es el producto vectorial, que
toma dos vectores y devuelve un tercer vector que es perpendicular a ambos. El
producto vectorial es una operación importante en el ámbito de la geometría y
el análisis vectorial, ya que nos permite obtener un vector que es ortogonal a los
vectores originales, lo que resulta fundamental en la obtención de subespacios afines
ortogonales o el cálculo de distancias.
Definición 3.55. Se define el producto vectorial, o producto cruz, × : R3 ×
R3 −→ R3 como sigue:
i j k
(x, y, z) × (x0 , y 0 , z 0 ) := x y z
x0 y 0 z 0
donde los vectores i, j, k son las componentes del vector.
Ejemplo 3.56. Vamos a determinar un vector perpendicular a (1, 2, 3) y (2, 0, −1).
Para ello, aplicaremos el producto vectorial para obtener un vector perpendicular a
ambos.
i j k
(x, y, z) × (x0 , y 0 , z 0 ) := 1 2 3 = (−2, 7, −4)
2 0 −1
Proposición 3.57. Consideremos el espacio real R3 con el producto escalar usual.
Si tomamos los vectores u, v, w ∈ R3 , entonces
Perpendicularidad: u × v es ortogonal a u y a v.
Propiedad anticonmutativa: u × v = −v × u.
En general, el producto vectorial no es asociativo, es decir,
(u × v) × w 6= u × (v × w).
Propiedad distributiva: u × (v + w) = u × v + u × w.
— 67 —
3.2. Espacio afín C. Bejines
Área del paralelogramo que forman los vectores u y v:
A = ku × vk.
Área del triángulo que forman los vectores u y v:
1
A = ku × vk.
2
Volumen del paralepípedo que forman los vectores u, v y w:
V = hu, v × wi.
Volumen del tetraedro que forman los vectores u, v y w:
1
V = hu, v × wi.
6
Nota 3.58. La operación hu, v × wi también es conocida como producto mixto y
es equivalente a hacer el determinante de los tres vectores directamente.
Ejemplo 3.59. Consideremos el espacio afín R3 con el producto escalar usual y los
puntos P (0, 0, 2), Q(3, 1, 2) y R(1, 2, 3). Vamos a calcular el área que del triángulo
que forman estos tres puntos. Para ello, construiremos los vectores P Q y P R, es
decir, dos lados del triángulo y aplicaremos la fórmula del área. Tenemos que,
P Q = (3, 1, 0) y P R = (1, 2, 1).
Por lo tanto,
i j k √
1 1 1 35
A = k(3, 1, 0) × (1, 2, 1)k= 3 1 0 = k(1, −3, 5)k=
2 2 2 2
1 2 1
En el espacio R3 , los subespacios afines se pueden clasificar en cuatro categorías
distintas en función de su dimensión. Estas categorías son:
1. Punto: Un subespacio afín de dimensión cero.
2. Recta: Un subespacio afín de dimensión uno.
3. Plano: Un subespacio afín de dimensión dos.
4. Espacio: El propio espacio R3 es un subespacio afín de dimensión tres.
— 68 —
3.2. Espacio afín Universidad de Málaga
Figura 3.6: Haz de planos que pasan por una recta.
En diversos contextos, resulta interesante determinar todos los planos que
contienen una recta r (ver la figura 3.6). Mediante el uso de las ecuaciones cartesianas
de la recta r y aplicando las propiedades de un sistema de ecuaciones lineales, la
ecuación cartesiana de cualquier plano que contiene a r puede expresarse como una
combinación lineal de las ecuaciones cartesianas de la recta r. Esto ofrece una forma
práctica y generalizada de encontrar los diferentes planos que se intersectan con la
recta r.
Proposición 3.60. Consideremos el espacio tridimensional R3 con el producto
escalar usual y una recta arbitraria r definida por las siguientes ecuaciones:
(
a1 x + b 1 y + c 1 z + d 1 = 0
r≡
a2 x + b 2 y + c 2 z + d 2 = 0
El haz de planos que pasa por la recta r está dado por la ecuación:
λ1 (a1 x + b1 y + c1 z + d1 ) + λ2 (a2 x + b2 y + c2 z + d2 ) = 0
donde λ1 y λ2 no pueden ser ambos iguales a cero simultáneamente. Supongamos
que λ2 6= 0 y consideremos k = λ1 /λ2 . Entonces, cualquier plano π que contenga a
la recta r puede ser expresado de la siguiente forma:
π ≡ k(a1 x + b1 y + c1 z + d1 ) + a2 x + b2 y + c2 z + d2 = 0 (3.4)
La ecuación (3.4) representa el haz de planos que pasa por la recta r, donde k
puede tomar cualquier valor real excepto cuando λ2 = 0. La expresión general nos
permite representar una familia infinita de planos que contienen a la recta r.
— 69 —
3.2. Espacio afín C. Bejines
Ejemplo 3.61. Dado el punto P (−1, 1, 0) y la recta r definida por
2x + y − z = −2
r≡
−x + 4y = 1
Vamos a determinar el plano π que contiene a la recta r y al punto P , es decir,
P ∈ π y r ⊆ π.
1. Haz de planos que contiene a r. Acorde a la fórmula (3.4), tenemos que
cualquier plano que contenga a r es de la forma
π ≡ k(2x + y − z + 2) − x + 4y − 1 = 0
2. P ∈ π. Entre todos los planos posibles, nos quedamos con aquél que cumpla
la condición deseada:
k(2 · (−1) + 1 − 0 + 2) − (−1) + 4 · 1 − 1 = 0,
por lo que k = −4. Sustituyendo el valor de k en el haz de planos, concluimos
que el plano que contiene a r y a P es
π ≡ 7x + 8y − 4z = −7.
En cuanto al cálculo de distancias, estamos familiarizados con la forma de
calcular la distancia entre dos puntos en el espacio. Sin embargo, al calcular la
distancia entre un punto P y un subespacio afín U de dimensión mayor, se utiliza
una técnica diferente basada en la definición 3.46. Buscaremos el punto Q ∈ U que se
encuentre más cerca de P . Encontrar este punto nos permitirá calcular la distancia
entre el punto P y el subespacio U .
Ejemplo 3.62. Consideremos el espacio afín R3 con el producto escalar usual, el
punto P (4, 2, 4) y el plano π ≡ 3x + 4z = 3. Nos interesa calcular la distancia entre
el punto P y el plano π, es decir, d(P, π). El punto Q ∈ π más cercano a P es la
proyección ortogonal del punto en el plano. Dado que la proyección es perpendicular
al plano, podemos considerar la recta r perpendicular al plano que pasa por P . La
intersección de la recta y el plano, nos dará Q. Una vez obtenido, podemos calcular
la distancia requerida.
1. La recta r. Su dirección es perpendicular a la base de π, por lo que podemos
tomar el vector normal del plano ~n(3, 0, 4) como vector de dirección y el punto
P para construirnos r = P + L (3, 0, 4) , es decir,
x = 4 + 3λ
r≡ y=2
z = 4 + 4λ
Otra opción para obtener el vector director de r es sacar una base del plano y
hacer el complemento ortogonal.
— 70 —
3.2. Espacio afín Universidad de Málaga
2. Ecuaciones cartesianas de r. Para obtener el punto de intersección Q, debemos
conseguir las ecuaciones cartesianas de r.
3 x−4 12 4x − 16 12 4x − 16
0 y−2 → 0 y−2 → 0 y−2
4 z−4 12 3z − 12 0 4x − 3z − 4
Por el teorema de Rouché-Frobenius, para que el sistema sea compatible
debemos exigir que el rango de la matriz de coeficientes coincida con el rango
de la matriz ampliada. Por lo tanto, las ecuaciones cartesianas de r son:
y = 2
r≡
4x − 3z = 4
3. El punto Q. Para obtenerlo, debemos hallar la intersección π ∩ r. Al resolver
el sistema de ecuaciones lineales compuesto por las ecuaciones cartesianas de
ambos subespacios, nos queda que
π ∩ r = Q = (1, 2, 0)
4. La distancia entre el punto y el plano, d(P, π). Por último, calculamos la
distancia entre P y Q, teniendo en cuenta que P Q es el vector (−3, 0, −4).
p
d(P, π) = d(P, Q) = kP Qk = (−3)2 + 02 + (−4)2 = 5
La distancia entre el punto P y el plano π es igual a 5.
Si queremos hallar la distancia entre dos subespacios afines U1 y U2 de dimensión
mayor que cero, el proceso es análogo. Buscaremos entre todos los puntos P ∈ U1 y
Q ∈ U2 que minimicen la distancia d(P, Q).
Ejemplo 3.63. Consideremos el espacio afín R3 con el producto escalar usual y las
siguientes dos rectas afines:
x = 1 + 2λ
x + y + z = 1
r ≡ y =2−λ s≡
y − z = 3
z =3+λ
Para calcular la distancia entre las rectas r y s, debemos buscar dos puntos, P ∈ r
y Q ∈ s, cuya distancia sea mínima. Si nos fijamos en la hipotética recta t que une
P y Q cuyo vector de dirección es P Q, debemos apreciar que es perpendicular a
r y s. Podemos considerar el plano π1 que contiene a la recta r y a la recta t.
Análogamente, podemos considerar el plano π2 que contiene a la recta s y a la recta
t. La intersección de ambos planos es la recta t, t = π1 ∩ π2 , la cual contiene a
— 71 —
3.2. Espacio afín C. Bejines
los puntos P y Q. Recordemos que P ∈ r ∩ t y Q ∈ s ∩ t, por lo que al resolver
los sistemas de ecuaciones correspondientes, obtendremos los puntos P y Q. Así,
podremos hallar la distancia entre las rectas r y s midiendo la longitud del vector
P Q.
1. Vectores directores. El vector director de r es dr = (2, −1, 1). El vector director
de s es el perpendicular a los vectores normales de los planos por los que viene
intersecados, es decir, ds = (1, 1, 1) × (0, 1, −1) = (−2, 1, 1). Por último, el
vector dt es perpendicular a dr y ds , es decir, dt = dr × ds = (−2, 4, 0), el cual
podemos cambiarlo por (−1, 2, 0) ya que su dirección es la misma. En resumen,
dr = (2, −1, 1) ds = (−2, 1, 1) dt = (−1, 2, 0)
2. El plano π1 . Para construirnos este plano, escogemos un punto de r y los
vectores dr y dt .
x = 1 + 2λ − µ
π1 ≡ y = 2 − λ + 2µ
z = 3 + λ
Otra opción hubiese sido considerar un punto de r y el vector normal dr × dt
para construirnos así la ecuación cartesiana de π1 . Para el plano π2 lo haremos
así.
3. El plano π2 . Para construirnos este plano, escogemos un punto de s y el
vector dt × ds = (2, 1, 3), el cual será el vector normal de π2 . Como punto
podemos tomar el (−2, 3, 0), por lo que podemos obtener su ecuación cartesiana
imponiendo que ese punto cumpla la condición:
π2 ≡ 2x + y + 3z = −1
4. El punto P ∈ r ∩ t = r ∩ π2 . Primer obtenemos las ecuaciones cartesianas de
r a partir de sus ecuaciones paramétricas.
2 x−1 0 x − 2z + 5
−1 y − 2 → 0 y + z − 5
1 z−3 1 z−3
Por lo tanto,
x − 2z = −5
r≡
y + z = 5
Resolvemos ahora el sistema de ecuaciones lineales compuesto por las ecuacio-
nes cartesianas de r y de π2 . En su forma matricial, aplicando Gauss-Jordan,
nos queda lo siguiente:
1 0 −2 −5 1 0 0 −11/3
0 1 1 5 → 0 1 0 13/3
2 1 3 −1 0 0 1 2/3
— 72 —
3.2. Espacio afín Universidad de Málaga
Este sistema de ecuaciones lineales es compatible determinado cuya solución
es el punto P (−11/3, 13/3, 2/3).
5. El punto Q ∈ s ∩ t = s ∩ π1 . Primer obtenemos las ecuaciones cartesianas de
π1 para posteriormente, resolver la intersección.
2 −1 x − 1 0 −1 x − 2z + 5
−1 2 y − 2 → 0 2 y + z − 5
1 0 z−3 1 0 z−3
0 −1 x − 2z + 5
→ 0 0 y + 5 + 2x − 3z
1 0 z−3
Por lo tanto,
π1 ≡ 2x + y − 3z = −5
Resolvemos ahora el sistema de ecuaciones lineales compuesto por las ecuacio-
nes cartesianas de s y de π1 . En su forma matricial, aplicando Gauss-Jordan,
nos queda lo siguiente:
1 1 1 1 1 0 0 −10/3
0 1 −1 3 → 0 1 0 11/3
2 1 −3 −5 0 0 1 2/3
Este sistema de ecuaciones lineales es compatible determinado cuya solución
es el punto Q(−10/3, 11/3, 2/3).
6. La distancia entre rectas, d(r, s).
r √
1 2 −2 2 5
d(r, s) = d(P, Q) = kP Qk= + + 02 =
3 3 3
— 73 —
3.2. Espacio afín C. Bejines
— 74 —
Capítulo 4
Transformaciones Geométricas
El capítulo está dedicado a las transformaciones que podemos realizar en el plano
y el espacio sin modificar la forma y tamaño de los objetos matemáticos.
4.1. Isometrías
En esta sección, nos enfocaremos en el estudio de las isometrías, que son un caso
particular de aplicaciones lineales que preservan la longitud y el ángulo entre los
vectores.
Definición 4.1. Sea (U, h, i1 ) y (V, h, i2 ) dos espacios vectoriales euclídeos. Una
isometría es una aplicación lineal T : U −→ V tal que
hT (u), T (v)i2 = hu, vi1
para todo u, v ∈ U .
Específicamente, nos centraremos en las transformaciones ortogonales, que son
isometrías que también son endomorfismos. En el plano vectorial R2 y en el espacio
vectorial R3 , exploraremos estas transformaciones y analizaremos cómo afectan a los
vectores y objetos geométricos en esos espacios.
4.1.1. Transformaciones ortogonales
Las transformaciones ortogonales son un caso particular de isometrías. Estas
tienen diversas aplicaciones y son fundamentales en el estudio de la geometría, la
mecánica o el procesamiento de imágenes, entre otros campos.
Definición 4.2. Sea (V, h, i) un espacio vectorial euclídeo. Una transformación
ortogonal es un endomorfismo T : V −→ V tal que
hT (u), T (v)i = hu, vi
para todo u, v ∈ V .
75
4.1. Isometrías C. Bejines
Como consecuencia de la definición, una transformación ortogonal preserva la
norma y el ángulo entre vectores.
Una propiedad importante es que la matriz asociada a dicha transformación es
una matriz ortogonal.
Proposición 4.3. Sea V un espacio vectorial. Un endomorfismo T : V −→ V es
una transformación ortogonal si y solo si su matriz asociada es ortogonal, es decir,
T (u) = P · u,
donde P es una matriz ortogonal.
Recordemos que una matriz ortogonal P es una matriz cuadrada cuya inversa es
igual a su transpuesta. Esto implica que su determinante solo puede ser 1 o −1, lo
que las diferencia de otras matrices no ortogonales.
1 = |I| = |P −1 P | = |P −1 ||P | = |P t ||P | = |P |2 .
Esta característica esencial las convierte en herramientas clave para describir las
isometrías y transformaciones geométricas en el plano o en el espacio.
Como las transformaciones ortogonales preservan el producto escalar, tenemos
el siguiente resultado.
Proposición 4.4. Si P es una matriz ortogonal y λ es un autovalor real de P ,
entonces λ ∈ {1, −1}.
El concepto de vector fijo mediante una transformación ortogonal nos será útil
a la hora de clasificar isometrías.
Definición 4.5. Sea T : Rn −→ Rn una transformación ortogonal. Decimos que un
vector u ∈ Rn es un vector fijo de T si T (u) = u.
4.1.2. Isometrías en el plano
Nuestro enfoque para estudiar las isometrías en el plano se centra en analizar las
matrices ortogonales de tamaño dos por dos. Vamos a estudiar todas las posibles
configuraciones considerando una matriz ortogonal arbitraria P = (aij )2×2 . Como P
es ortogonal, se tiene que
a211 + a221 = 1, a212 + a222 = 1,
a211 + a212 = 1, a221 + a222 = 1.
Además, como el determinante de P está restringido a 1 o −1, tenemos la siguiente
condición.
a11 a22 − a12 a21 ∈ {1, −1}.
A raíz de estas observaciones, podemos obtener el siguiente resultado.
— 76 —
4.1. Isometrías Universidad de Málaga
Proposición 4.6. Si P = (aij )2×2 es una matriz ortogonal, entonces existe α ∈
[−π, π] tal que P puede describirse como una de las dos siguientes matrices
cos α −sen α cos α sen α
sen α cos α sen α − cos α
Si P tiene la forma de la primera matriz, su determinante es 1 y representa un
giro. En cambio, si P tiene la forma de la segunda matriz, su determinante es −1
y corresponde a una reflexión.
Proposición 4.7. Si T es una transformación ortogonal en R2 , podemos clasificarla
de la siguiente manera:
1. Si la dimensión del conjunto de vectores fijos es 0, se trata de un giro con el
punto fijo en el origen (0, 0).
2. Si la dimensión del conjunto de vectores fijos es 1, se trata de una reflexión
con la recta de simetría definida por los vectores fijos.
3. Si la dimensión del conjunto de vectores fijos es 2, se trata de la identidad (un
giro de 0 grados). Todos los vectores son fijos.
Ejemplo 4.8. Vamos a clasificar la siguiente isometría de R2 .
3 4
T = 5 5
− 45 35
Sabemos que T es una transformación ortogonal si su matriz es ortogonal, es decir,
si su inversa es la traspuesta. Comprobémoslo:
3 4 3 4
t 5 5 5
− 5
1 0
TT = = =I
− 54 35 4
5
3
5
0 1
Si hacemos el determinante de T , obtenemos que |T | = 1, por lo que se trata de un
giro. Para llegar a esta conclusión, también podríamos haber estudiado los vectores
fijos aplicando la proposición 4.7. El ángulo de giro α ∈ [0, 2π] cumple que cos α = 35
y sen α = − 54 . Por lo tanto, α = −0.92 radianes.
Nota 4.9. En el ejemplo anterior, también podemos encontrar el ángulo de giro al
observar cómo un vector se transforma bajo la matriz ortogonal. Por ejemplo,
3 4 3
5 5
1 5
4 3 =
−5 5 0 − 45
Es decir, el vector (1, 0) se gira hasta convertirse en ( 53 , − 54 ). Podemos aplicar la
fórmula del ángulo entre vectores para encontrar el ángulo de giro:
h(1, 0), ( 35 , − 45 )i 3
cos α = 3 4 = .
k(1, 0)kk( 5 , − 5 )k 5
— 77 —
4.1. Isometrías C. Bejines
Por lo que α ∈ {0.92, −0.92}. Teniendo en cuenta de que el vector se encuentra en
el cuarto cuadrante, tenemos que α = −0.92 radiantes.
Veamos otro ejemplo.
Ejemplo 4.10. Vamos a clasificar la siguiente isometría de R2 .
1 0
T =
0 −1
Veamos que efectivamente, T es una matriz ortogonal:
t 1 0 1 0 1 0
TT = =
0 −1 0 −1 0 1
Como |T | = −1, tenemos una simetría cuya recta de reflexión está formada por los
vectores fijos de T . A continuación, obtenemos dicha recta.
1 0 x x
=
0 −1 y y
Equivalentemente, tenemos el siguiente sistema
1 0 x x 0
− =
0 −1 y y 0
1 0 x 1 0 x 0
⇒ − =
0 −1 y 0 1 y 0
0 0 x 0
⇒ =
0 −2 y 0
Por lo que la recta de reflexión tiene como ecuación cartesiana −2y = 0. Una base
de la recta es {(1, 0)}.
4.1.3. Isometrías en el espacio
En esta sección, continuaremos nuestro estudio sobre las isometrías, pero ahora
nos enfocaremos en el espacio tridimensional. Analizaremos detalladamente todas
las posibles matrices ortogonales de tamaño tres por tres.
Si consideramos dos matrices ortogonales P y Q, es relevante destacar que su
producto P Q también es una matriz ortogonal. La razón es que la inversa de (P Q)
es igual a la transpuesta de (P Q), es decir,
(P Q)−1 = Q−1 P −1 = Qt P t = (P Q)t .
Debido a esta propiedad, podemos afirmar lo siguiente:
— 78 —
4.1. Isometrías Universidad de Málaga
Proposición 4.11. Si T1 y T2 son dos transformaciones ortogonales, entonces la
composición T1 ◦ T2 también es una transformación ortogonal.
Para matrices ortogonales de tamaño tres por tres, el polinomio característico
tiene grado de 3. Si examinamos las posibles raíces del polinomio característico,
existen solo dos combinaciones distintas:
1. Todos los autovalores son reales: En este caso, los tres autovalores de la matriz
ortogonal son números reales. Además, por la proposición 4.4, deben valen 1
o −1.
2. Solo existe un único autovalor real: En esta situación, la matriz ortogonal tiene
un autovalor real y dos autovalores complejos conjugados. Por la proposición
4.4, el autovalor real es 1 o −1.
Teorema 4.12. Si T : R3 −→ R3 es una transformación ortogonal, entonces
su matriz asociada T es una de las tres siguientes posibilidades en cierta base
ortonormal {v1 , v2 , v3 }.
1. Si T es un giro respecto de un eje, entonces T solo posee únicamente un
autovalor real, λ = 1, y su determinante es 1. Además, T es semejante a una
matriz de la forma
1 0 0
0 cos α −sen α
0 sen α cos α
donde v1 indica el eje y α el ángulo de giro.
2. Si T es una simetría respecto de un plano, entonces T posee tres
autovalores reales, es una matriz simétrica y su determinante es −1. Además,
T es semejante a una matriz de la forma
−1 0 0
0 1 0
0 0 1
donde v2 y v3 forman una base del plano.
3. Si T es una composición de una simetría respecto de un plano y un
giro respecto de un eje, entonces T posee únicamente un autovalor real,
λ = −1, es una matriz no simétrica y su determinante es −1. Además, T es
semejante a una matriz de la forma
−1 0 0
0 cos α −sen α
0 sen α cos α
donde v1 indica el eje de giro y los otros dos vectores v2 y v3 forman una base
del plano de reflexión.
— 79 —
4.1. Isometrías C. Bejines
El teorema previamente mencionado nos permite comprender que cada trans-
formación ortogonal se corresponde de forma única con una de las tres matrices
presentadas, siempre y cuando seleccionemos una base ortonormal apropiada.
Ejemplo 4.13. Vamos a clasificar y determinar los elementos geométricos de la
transformación ortogonal T : R3 −→ R3 definida por
1
T (x, y, z) = (−11x + 10y − 2z, 2x + 5y + 14z, 10x + 10y − 5z)
15
Por lo que su matriz asociada respecto a la base canónica es
−11 10 −2
1
T = 2 5 14
15
10 10 −5
Primero, veamos que efectivamente es una matriz ortogonal,
−11 10 −2 −11 2 10 1 0 0
1 1
TTt = 2 5 14 10 5 10 = 0 1 0
15 15
10 10 −5 −2 14 −5 0 0 1
Aplicando el teorema 4.12, como su determinante es |T | = 1, tenemos que T es un
giro respecto de un eje. Como esta recta permanece invariante a través de T , el eje
es el conjunto de vectores fijos de T , es decir, los vectores que cumplen la condición
T (x, y, z) = (x, y, z). Equivalentemente,
−11 10 −2 x x
1
2 5 14 y = y
15
10 10 −5 z z
Resolviendo el sistema de ecuaciones lineales por el método de Gauss-Jordan,
obtenemos que la solución es el conjunto L (1, 3, 2) . Para determinar el ángulo
de giro, podemos tomar un vector u perpendicular a (1, 3, 2) y calcular el ángulo
entre u y T (u).
1. Escogemos el vector u = (2, 0, −1) que es ortogonal a (1, 3, 2) porque
h(1, 3, 2), (2, 0, −1)i = 0.
2. Determinamos T (u),
−11 10 −2 2 −20
1 1
T (u) = 2 5 14 0 = −10
15 15
10 10 −5 −1 25
— 80 —
4.1. Isometrías Universidad de Málaga
3. Calculamos el ángulo α,
hu, T (u)i 13
cos α = =−
kukkT (u)k 15
Por lo tanto, α = 2.619 radiantes o α = −2.619 radiantes. Recordemos que
estamos en el espacio, por lo que el sentido de giro es respecto a la regla del
sacacorchos impuesta por el producto vectorial × entre u y T (u):
i j k −1
2 0 −1 = −3
−20 −10 25
15 15 15
−2
Como (−1, −3, −2) tiene sentido opuesto a nuestro semieje (1, 3, 2), asi que
tenemos que el ángulo de giro entorno al semieje formado por L (1, 3, 2) es
α = −2.619 radiantes.
Una solución equivalente es que T es un giro entorno al eje L (−1, −3, −2) de
ángulo α = 2.619 radiantes.
Veamos otro ejemplo.
Ejemplo 4.14. Vamos a clasificar y determinar los elementos geométricos de la
transformación ortogonal T : R3 −→ R3 definida por
1
T (x, y, z) = (19x + 8y − 4z, 8x − y + 16z, −4x + 16y + 13z)
21
Por lo que su matriz asociada respecto a la base canónica es
19 8 −4
1
T = 8 −1 16
21
−4 16 13
Primero, veamos que efectivamente es una matriz ortogonal,
19 8 −4 19 8 −4 1 0 0
1 1
TTt = 8 −1 16 8 −1 16 = 0 1 0
21 21
−4 16 13 −4 16 13 0 0 1
Aplicando el teorema 4.12, como T es simétrica y su determinante es |T | = −1,
tenemos que T es una simetría respecto a un plano. El plano de simetría está formado
por los vectores fijos, es decir, aquellos que cumplen la condición T (x, y, z) = (x, y, z).
19 8 −4 x x
1
8 −1 16 y = y
21
−4 16 13 z z
Resolviendo el sistema de ecuaciones lineales por el método de Gauss-Jordan,
obtemos que el plano de simetría es
π ≡ x − 4y + 2z = 0.
— 81 —
4.1. Isometrías C. Bejines
Finalmente, procedemos a dar un ejemplo del proceso inverso, es decir, la
construcción de una transformación ortogonal a partir de una información dada.
Para lograr esto, haremos uso del teorema 4.12 junto con las propiedades de las
matrices semejantes.
Ejemplo 4.15. Supongamos que queremos construir una reflexión con respecto al
plano vectorial π ≡ 2x − y + z = 0. La transformación ortogonal que buscamos, en
una base ortonormal {v1 , v2 , v3 }, es de la forma
−1 0 0
A= 0 1 0
0 0 1
donde v2 y v3 forman una base del plano. Una base del plano es {(1, 2, 0), (0, 1, 1)}.
Como el vector normal (2, −1, 1) es ortogonal al plano, tras normalizarlo, podremos
tomarlo como v1 . Por lo tanto, la base ortonormal B = {v1 , v2 , v3 } es
n 2 −1 1 1 2 1 1 o
B= √ , √ , √ , √ , √ , 0 , 0, √ , √
6 6 6 5 5 2 2
Tenemos que A es la matriz asociada a la transformación T respecto a la base B.
Para obtener la fórmula de T debemos obtener la matriz H asociada a T respecto
a la base canónica Bc . Si P es la matriz de cambio de base de B a Bc , acorde al
teorema 2.25, tenemos que
A = P −1 HP.
Equivalentemente, H = P AP −1 . Por la proposición 1.59, sabemos que P está
formada por las coordenadas de los vectores de B en la base Bc dispuestos en
columnas. Por lo tanto, 2
√ √1 0
−16 √25 √1
P = √ 6 5 2
1 1
√
6
0 √2
Como los vectores columnas son unitarios y ortogonales entre sí, tenemos que P
es ortogonal. Esto implica que P −1 = P t . Por lo tanto, la matriz H asociada a T
respecto a la base Bc es
2 −1 1 √2 √1 −1 −4
√
6
√
6
√
6 −1 0 0 6 5
0 3
√
30
0
−1 √2 √1 √−4
H = √15 √25 0 0 1 0 √ = 30 3 √2
6 5 2 5 10
0 √12 √12 0 0 1 √1
6
0 √12 0 √210 1
La fórmula de la transformación T : R3 −→ R3 es
−1 −4 −4 3 2 2
T (x, y, z) = x+ √ y, √ x+ y+ √ z, √ y+z
3 30 30 5 10 10
— 82 —
4.2. Movimientos rígidos Universidad de Málaga
4.2. Movimientos rígidos
En la sección previa, exploramos las transformaciones ortogonales en contextos de
espacios vectoriales. Ahora, enfocamos nuestra atención en el concepto análogo en el
ámbito de los espacios afines: los movimientos rígidos. Estos movimientos rígidos son
isomorfismos que mantienen inalterada la distancia entre puntos dentro del espacio
afín. Nuestro análisis se centrará en los casos de R2 y R3 .
4.2.1. Transformaciones afines
Las transformaciones afines, también conocidas como aplicaciones afines, se
pueden entender como aplicaciones lineales que han sido desplazadas en su posición
original.
Definición 4.16. Consideremos A1 y A2 como dos espacios afines, y V1 y V2 como los
espacios vectoriales respectivos asociados a cada uno. Una función F : A1 −→ A2 se
denomina transformación afín si existe un punto O ∈ A1 , que será tomado como
origen, tal que la función F ∗ : V1 −→ V2 definida como
F ∗ (OP ) := F (O)F (P ) (4.1)
es una aplicación lineal. Si A1 = A2 , decimos que F es una afinidad.
Proposición 4.17. Si F : A1 −→ A2 es una transformación afín y P, Q ∈ A1 ,
entonces
F ∗ (P Q) = F (P )F (Q).
Proposición 4.18. Si F : A1 −→ A2 y G : A2 −→ A3 son transformaciones afines,
entonces G ◦ F : A1 −→ A3 es una transformación afín.
Como la formula (4.1) corresponde a una aplicación lineal, también podemos
expresar matricialmente una transformación afín. Consideremos la matriz A asociada
a la aplicación lineal F ∗ , teniendo en cuenta la construcción del vector F (O)F (P ),
concluimos que la formula (4.1) equivale a:
A · OP = F (P ) − F (O).
Gracias a la proposición 4.17, podemos imponer que el punto O ∈ A1 sea siempre el
origen. Formalmente, tenemos el siguiente resultado.
Proposición 4.19. Sea F : A1 −→ A2 una transformación afín. Entonces
F (P ) = F (O) + A · OP
— 83 —
4.2. Movimientos rígidos C. Bejines
para todo P ∈ A1 , donde O es el origen de coordenadas. Equivalentemente,
y1 a11 a12 . . . a1n x1 c1
y2 a21 a22 . . . a2n x2 c2
.. = .. .. + .. (4.2)
.. .. ..
. . . . . . .
ym am1 am2 . . . amn xn cm
Nota 4.20. Es relevante notar que una aplicación afín F está completamente
determinada si conocemos la imagen del origen, F (O), y la matriz asociada a la
aplicación lineal F ∗ .
Una notación matricial más compacta que la presentada en la fórmula (4.2) es
la siguiente:
1 1 0 0 ... 0 1
y1 c1 a11 a12 . . . a1n x1
y2 c2 a21 a22 . . . a2n x2
=
.. .. .. .. . . .. ..
. . . . . . .
ym cm am1 am2 . . . amn xn
Llegados a este punto, vamos a analizar los movimientos rígidos, un caso
particular de a transformaciones afines.
Definición 4.21. Sea F : A1 −→ A2 una transformación afín. Decimos que F es
un movimiento rígido si preserva la distancia entre puntos, es decir, si
d(P, Q) = d(F (P ), F (Q))
para todo P, Q ∈ A1 .
Como la distancia entre puntos viene definida por la norma, y esta a su vez, por
el producto escalar, obtenemos el siguiente resultado.
Proposición 4.22. Sea F : A1 −→ A2 una transformación afín. Tenemos que F es
un movimiento rígido si y solo si F ∗ es una isometría.
Nota 4.23. La relación entre un movimiento rígido y una isometría se encuentra
en la aplicación lineal asociada, F ∗ , de la transformación afín F . Si F representa
un movimiento rígido, entonces la parte lineal F ∗ junto con la parte de traslación,
F (O), preservarán las distancias y las propiedades geométricas. Esto significa que F ∗
debe ser una isometría, ya que es la que garantiza la conservación de las distancias.
En los casos donde los espacios afines euclideos coincidan, podemos hablar del
término punto fijo.
— 84 —
4.2. Movimientos rígidos Universidad de Málaga
Definición 4.24. Sea F : A −→ A un movimiento rígido y P ∈ A. Decimos que P
es un punto fijo si F (P ) = P .
Definición 4.25. Sea F : A −→ A es un movimiento rígido.
1. Decimos que F es directo si el determinante de la matriz asociada a F ∗ es 1.
2. Decimos que F es inverso (o indirecto) si el determinante de la matriz asociada
a F ∗ es −1.
4.2.2. Movimientos rígidos en el plano
En esta sección, abordamos el estudio de los movimientos rígidos que ocurren en
el plano afin euclideo R2 . Para que una transformación afín F en el plano sea con-
siderada un movimiento rígido es necesario que su correspondiente transformación
lineal F ∗ sea una isometría en R2 (tal y como establece la proposición 4.22).
Recordemos que las isometrías en el plano son exclusivamente las rotaciones y
las reflexiones. En consecuencia, un movimiento rígido F en el plano se expresa de
la siguiente manera: F : R2 −→ R2 , definida por la relación F (X) = AX + C,
0
x a11 a12 x c
= + 1
y0 a21 a22 y c2
En esta expresión, (x0 , y 0 ) = F (x, y), (c1 , c2 ) = F (0, 0) y la matriz A = (aij )
representa una isometría en el plano, la cual debe ser una rotación o una reflexión.
Por lo tanto, los movimientos rígidos dependen del valor de (c1 , c2 ) y el tipo de
isometría.
1. Si A representa un giro de ángulo α, al combinarlo con una traslación, se
origina una nueva rotación. Esta rotación tiene un centro de giro diferente
al anterior y un ángulo de rotación igual a α. En el caso especial en el que el
ángulo de giro es cero (A es la identidad), el resultado es una traslación. La
identidad es una traslación cuyo vector de traslación es el vector nulo.
2. Si A representa una reflexión respecto a la recta r, al aplicar una traslación
obtenemos lo siguiente:
Si el vector de traslación no es proporcional al vector de dirección de r,
entonces se obtiene una nueva simetría respecto de otra recta s.
Si el vector de traslación es proporcional al vector de dirección de r,
entonces se obtiene una simetría deslizante cuyo eje es la recta r.
Teorema 4.26. Sea F : R2 −→ R2 un movimiento rígido y P el conjunto de puntos
fijos.
— 85 —
4.2. Movimientos rígidos C. Bejines
1. Si dim(P) = 2, todos los puntos son fijos y por lo tanto, el movimiento es la
identidad (un giro de 0 grados).
2. Si dim(P) = 1, tenemos una simetría cuyos puntos fijos forman la recta de
reflexión.
3. Si dim(P) = 0, tenemos una rotación cuyo centro de giro es el único punto
fijo de P. El ángulo de giro se determina a partir de la matriz asociada a F ∗ .
4. Si P = ∅ y el movimiento es directo, tenemos una traslación mediante el
vector F (0, 0).
5. Si P = ∅ y el movimiento es inverso, tenemos una simetría deslizante cuyo
eje de simetría deslizante es el subespacio invariante.
Vale la pena señalar que en un subespacio invariante, los puntos dentro de este
no necesariamente son fijos.
Definición 4.27. Sea F : Rn −→ Rn un movimiento rígido definido por F (X) =
C + AX. El subespacio invariante de F es el conjunto solución del siguiente sistema
de ecuaciones
(A − I)2 X = −(A − I)C
Ejemplo 4.28. Vamos a estudiar la siguiente afinidad:
0
x 0 −1 x 4
0 = +
y 1 0 y 2
0 −1
Como es una matriz ortogonal (su inversa es su traspuesta), tenemos que
1 0
es una isometría. Por lo tanto, la afinidad es un movimiento rígido de R2 . Además,
se trata de un movimiento directo (determinante igual a 1). Procedemos a calcular
los puntos fijos.
x 0 −1 x 4
= +
y 1 0 y 2
Esto implica que los puntos fijos satisfacen las siguientes ecuaciones:
x=4−y y = 2 + x.
Si resolvemos este sistema, obtenemos un sistema compatible determinado cuya
única solución es (1, 3). Atendiendo al teorema 4.26, tenemos que el movimiento es
un giro cuyo centro es O = (1, 3). Como la isometría es
0 −1
1 0
tenemos que cos α = 0 y sen α = 1. Por lo tanto, α = π/2. Otra alternativa práctica
para determinar α hubiese sido estudiar el ángulo entre un vector y su transformado
a través de dicha isometría utilizando el producto escalar usual.
— 86 —
4.2. Movimientos rígidos Universidad de Málaga
Ejemplo 4.29. Realizaremos un estudio completo de la siguiente afinidad:
0
x 0 −1 x 0
= +
y0 −1 0 y 2
0 −1
Como es una matriz ortogonal, tenemos que es una isometría. Por lo
−1 0
tanto, la afinidad es un movimiento rígido de R2 . Además, se trata de un movimiento
inverso (determinante igual a −1). Procedemos a calcular los puntos fijos.
x 0 −1 x 0
= +
y −1 0 y 2
Esto implica que el conjunto de puntos fijos es solución del siguiente sistema:
x = −y y = 2 − x.
Si empleamos el teorema de Rouché-Frobenius, llegamos a un sistema incompatible,
lo que significa que no hay puntos fijos presentes. Según lo establecido en el teorema
4.26, el movimiento se caracteriza como una simetría deslizante. Nuestra siguiente
tarea consiste en calcular el eje y el vector de traslación.
1. Eje de simetría afín. La definición 4.27 establece que el subespacio invariante
que buscamos se calcula resolviendo el sistema de ecuaciones (A − I)2 X =
−(A − I)C.
2
−1 −1 x −1 −1 0
=−
−1 −1 y −1 −1 2
De forma más simplificada, obtenemos
2 2 x 2
=
2 2 y 2
Por lo que la recta afín invariante mediante F es r ≡ x + y = 1.
2. Vector de traslación. Tenemos conocimiento de que el vector de traslación en
una simetría deslizante se alinea con el eje de simetría. Por lo tanto, será
suficiente elegir un elemento P del eje y observar a qué punto se transforma.
Optaremos por el punto P = (1, 0), que trivialmente pertenece a r ≡ x+y = 1.
1 0 −1 1 0 0
F = + =
0 −1 0 0 2 1
es decir, F (1, 0) = (0, 1). Concluimos que el vector de translación es (−1, 1).
— 87 —
4.2. Movimientos rígidos C. Bejines
Ejemplo 4.30. Realizaremos un estudio completo de la siguiente afinidad:
x 0 −1 x 3
F = +
y −1 0 y 3
0 −1
Como es una matriz ortogonal, tenemos una isometría. Por lo tanto, la
−1 0
afinidad es un movimiento rígido de R2 . Además, se trata de un movimiento inverso
porque su determinante es −1. Procedemos a calcular los puntos fijos.
x 0 −1 x 3
= +
y −1 0 y 3
Por lo tanto, los puntos fijos de F son la solución del siguiente sistema de ecuaciones:
x=3−y y = 3 − x.
Aplicando el teorema de Rouché-Frobenius, obtenemos un sistema compatible
indeterminado, cuya solución es
{(x, y) ∈ R2 | x + y = 3}.
Atendiendo al teorema 4.26, concluimos que el movimiento es una simetría, y su eje
corresponde a la recta afín x + y = 3.
4.2.3. Movimientos rígidos en el espacio
Nos centraremos ahora en el estudio de los movimientos rígidos que tienen lugar
en el espacio afín euclídeo R3 . Una transformación afín F : R3 −→ R3 debe cumplir
que su correspondiente transformación lineal F ∗ sea una isometría en R3 , conforme
lo establecido por la proposición 4.22.
Recordemos que las isometrías en el espacio tridimensional comprenden úni-
camente las rotaciones en torno un eje, las reflexiones respecto un plano y la
composición de ambas. En consecuencia, la representación de un movimiento rígido
F : R3 −→ R3 , definida mediante la relación F (X) = AX + C, se representa
matricialmente de la siguiente forma:
0
x a11 a12 a13 x c1
y 0 = a21 a22 a23 y + c2
z0 a31 a32 a33 z c3
donde A = (aij ) es una isometría en R3 . Por lo tanto, tenemos los siguientes
movimientos rígidos en el espacio:
— 88 —
4.2. Movimientos rígidos Universidad de Málaga
1. Si A representa un giro de ángulo α respecto un eje, al combinarlo con una
traslación, se origina una nueva rotación. Este giro tiene un centro diferente
al anterior y el eje también es desplazado. Si el vector de traslación sigue la
dirección del eje, entonces tenemos un movimiento helicoidal. En el caso
especial en el que el ángulo de giro es cero (A es la identidad), el resultado es
una traslación. La identidad es una traslación cuyo vector de traslación es
el vector nulo.
2. Si A representa una reflexión respecto a un plano π, al aplicar una traslación,
obtenemos una nueva simetría respecto de otro plano, excepto si el vector de
traslación es combinación lineal de los vectores de la base de π. En este caso,
obtenemos una simetría deslizante.
3. Si A representa la composición de un giro y una simetría, al aplicar
una traslación tenemos la combinación de las tres funciones, es decir, una
composición de giro, simetría y traslación.
Teorema 4.31. Sea F : R3 −→ R3 un movimiento rígido, P el conjunto de puntos
fijos y S el subespacio invariante. Entonces,
1. Si dim(P) = 3, el movimiento es la identidad.
2. Si dim(P) = 2, el movimiento es una reflexión respecto al plano formado por
P.
3. Si dim(P) = 1, el movimiento es un giro respecto al eje formado por P. El
ángulo de giro puede determinarse con el producto escalar entre un vector
ortogonal al eje y su imagen.
4. Si dim(P) = 0, el movimiento es una composición de un giro respecto de un
eje y una simetría respecto a un plano. El eje está formado por la recta que
pasa por el único punto fijo y tiene como vector de dirección un autovector
asociado al autovalor −1. El plano de simetría es perpendicular al eje y pasa
por el punto fijo. El ángulo de giro puede determinarse con el producto escalar
entre un vector ortogonal al eje y su imagen.
5. Si P = ∅ y dim(S) = 1, obtenemos un movimiento helicoidal. El eje es el
subespacio invariante, el ángulo puede determinarse con el producto escalar
entre un vector ortogonal y su imagen y el vector de traslación tomando un
punto del eje y su imagen.
6. Si P = ∅ y dim(S) = 2, obtenemos una simetría deslizante. El plano
de reflexión es el subespacio invariante y el vector de traslación puede
determinarse tomando un punto del plano y su imagen.
— 89 —
4.2. Movimientos rígidos C. Bejines
7. Si P = ∅ y dim(S) = 3, obtenemos una traslación. El vector de traslación
puede determinarse tomando un punto del espacio y su imagen.
Ejemplo 4.32. Vamos a realizar un estudio completo de la afinidad F : R3 −→ R3
definida por F (x, y, z) = (x0 , y 0 , z 0 ), donde
x0 = 2 − z, y 0 = 2 − y, z 0 = 2 + x.
La forma matricial de la afinidad determinada por estas ecuaciones es la siguiente:
x 0 0 −1 x 2
F y =
0 −1 0 y + 2
z 1 0 0 z 2
Tenemos que
0 0 −1 0 0 1 1 0 0
AAt = 0 −1 0 0 −1 0 = 0 1 0
1 0 0 −1 0 0 0 0 1
por lo que la matriz es ortogonal. De la proposición 4.22 se deduce que F es un
movimiento rígido. Si estudiamos los puntos fijos aplicando el método de la matriz
escalonada y el teorema de Rouché-Frobenius, obtenemos un sistema compatible
determinado cuya única solución es P = (0, 1, 2). Por el teorema 4.31, tenemos que
es la composición de un giro y una simetría. Además, se especifica como determinar
sus elementos notables.
1. Para determinar un autovector asociado al autovalor −1, calculamos el
Ker(A − (−1)I) = {(x, y, z) ∈ R3 | (A + I)(x, y, z)t = (0, 0, 0)t }. Tenemos
que la solución de ese sistema en su forma matricial
1 0 −1 x 0
0 0 0 y = 0
1 0 1 z 0
es el conjunto S = {(0, λ, 0) ∈ R3 | λ ∈ R}, por lo que un autovector es
u = (0, 1, 0).
2. Eje pasa por P y tiene dirección u, por lo que es
x = 0
r≡ y = 1 + λ
x = 2
3. El plano de reflexión es perpendicular a r y pasa por P . Esto conlleva a que
su vector normal sea u, por lo que concluimos que es
π ≡ y = 1.
— 90 —
4.2. Movimientos rígidos Universidad de Málaga
4. Para el ángulo de giro, consideremos el vector v = (1, 0, 0), el cual se transforma
en Av = (0, 0, 1). Si estudiamos el ángulo entre ambos vectores (ver definición
3.1), obtenemos que α = π/2. Para determinar si el giro es horario o antihorario
en la dirección del eje, realizamos el producto vectorial v × Av:
i j k
1 0 0 = −j
0 0 1
Como (0, −1, 0) tiene sentido opuesto a nuestro semieje L 0, 1, 0) , tenemos
que el ángulo de giro es realmente −π/2 en torno al semieje (0, 1, 0).
Equivalentemente, el ángulo es π/2 en torno al semieje (0, −1, 0).
Ejemplo 4.33. En función de los parámetros a y b, vamos a realizar un estudio
completo de afinidad F (X) = AX + C definida por
x 1 0 0 x 2
F y =
0 0 a y + 1
z 0 1 0 z b
La afinidad es un movimiento rígido si y solo si A es una matriz ortogonal. Veamos
cuándo lo es:
1 0 0 1 0 0 1 0 0
t
AA = 0 0 a 0 0 1 = 0 a2 0
0 1 0 0 a 0 0 0 1
Concluimos que A es matriz ortogonal si y solo si a ∈ {1, −1}. En el resto de casos,
F no es un movimiento.
1. Si a = 1, tenemos el siguiente movimiento rígido:
x 1 0 0 x 2
F y = 0 0 1 y + 1
z 0 1 0 z b
Los puntos fijos de F verifican el siguiente sistema de ecuaciones:
x + 2 = x
z + 1 = y
y + b = z
Tras aplicar el teorema de Rouché-Frobenius, obtenemos un sistema incompa-
tible independientemente del valor del parámetro b, por lo que el conjunto de
— 91 —
4.2. Movimientos rígidos C. Bejines
puntos fijos P es vacío. Procedemos a estudiar el subespacio invariante S de
F, 2
0 0 0 x 0 0 0 2
0 −1 1 y = − 0 −1 1 1
0 1 −1 z 0 1 −1 b
equivalentemente,
0 0 0 x 0
0 2 −2 y = 1 − b
0 −2 2 z b−1
Si aplicamos el teorema de Rouché-Frobenius, obtenemos un sistema compa-
tible indeterminado cuyo conjunto de soluciones es
1−b
+ λ2 , λ2 )R3 | λ1 , λ2 ∈ R
S = (λ1 ,
2
Como dim(S) = 2, aplicado el teorema 4.31, tenemos una simetría deslizante
cuyo plano de reflexión es
x = λ1
π≡ y = 1−b2
+ λ2
z = λ2
Para el vector de traslación, tomamos un punto del plano, por ejemplo P =
(0, 1−b
2
, 0), y calculamos su imagen:
1 0 0 0 2
1−b
F (P ) = 0 0 1
2
+ 1
0 1 0 0 b
Por lo que F (P ) = (2, b, 3−b
2
). Concluimos que el vector de traslación, P F (P ),
es 3b − 1 3 − b
2, , .
2 2
2. Si a = −1, tenemos el siguiente movimiento rígido:
x 1 0 0 x 2
F y =
0 0 −1 y + 1
z 0 1 0 z b
Los puntos fijos de F verifican el siguiente sistema de ecuaciones:
x + 2 = x
−z + 1 = y
y + b = z
— 92 —
4.2. Movimientos rígidos Universidad de Málaga
De nuevo, tras aplicar el teorema de Rouché-Frobenius, obtenemos un sistema
incompatible independientemente del valor del parámetro b, por lo que el
conjunto de puntos fijos P es vacío. Procedemos a estudiar el subespacio
invariante S de F ,
2
0 0 0 x 0 0 0 2
0 −1 −1 y = − 0 −1 −1 1
0 1 −1 z 0 1 −1 b
equivalentemente,
0 0 0 x 0
0 0 2 y = b + 1
0 −2 0 z b−1
Si resolvemos este sistema, obtenemos que es compatible indeterminado cuyo
conjunto de soluciones es
n 1 − b 1 + b o
S = λ, , |λ∈R
2 2
Como dim(S) = 1, aplicado el teorema 4.31, tenemos un movimiento helicoidal
cuyo eje es la recta afín
x = λ
r≡ y = 1−b 2
z = 1+b
2
Para el cálculo del ángulo de giro tomamos un vector perpendicular al eje y hallamos
su imagen mediante la isometría A. Como el vector de dirección de r es (1, 0, 0),
podemos tomar como vector perpendicular u = (0, 1, 0). Tenemos que Au = (0, 0, 1),
por lo que el ángulo α es π/2. Como u × Au = (1, 0, 0), tenemos que el giro es de π/2
en el sentido del semieje (1, 0, 0). Por último, para el vector de traslación tomamos
un punto P ∈ r y veamos cuál es su imagen. Tomando P = (0, 1−b 2
, 1+b
2
), su imagen
mediante F es
1 0 0 0 2 2
F (P ) = 0 0 −1 1−b 2
+ 1 = 1−b
2
1+b 1+b
0 1 0 2
b 2
Concluimos que el vector de traslación es (2, 0, 0).
En los siguientes ejemplos exploraremos el enfoque opuesto: en lugar de
identificar el tipo de movimiento, construiremos el que elijamos.
Ejemplo 4.34. El objetivo de este ejemplo es encontrar el movimiento F : R3 −→
R3 que es una reflexión respecto al plano afín π ≡ x+2y−2z = 1. Para ello, debemos
encontrar las matrices A, C tales que F (X) = AX + C sea el movimiento deseado.
— 93 —
4.2. Movimientos rígidos C. Bejines
1. Como estamos en una simetría respecto a un plano, gracias al teorema 4.12,
sabemos que existe una matriz asociada a la transformación ortogonal de la
forma
−1 0 0
T = 0 1 0
0 0 1
en cierta base ortonormal B = {v1 , v2 , v3 }, donde v1 es el autovector en la
dirección del vector normal del plano y v2 , v3 forman una base del plano. Por
lo tanto,
A = P T P t.
donde P es la matriz de cambio de base de B a BC , es decir, la matriz que
lleva por columnas las coordenadas de los vectores de B respecto de BC .
A continuación, presentamos el diagrama correspondiente para favorecer una
comprensión más clara.
A
BC BC
P P
T
B B
2. Vamos a determinar la base ortonormal B. El vector v1 es proporcional al
vector normal del plano, (1, 2, −2), y unitario. Como la norma de (1, 2, −2) es
3, tenemos que
1 2 −2
v1 = , , .
3 3 3
El vector v2 tiene que ser ortogonal a v1 y unitario. Podemos tomar el vector
(0, 1, 1) y normalizarlo:
1 1
v2 = 0, √ , √ .
2 2
Por último, el vector v3 debe ser ortogonal a los dos anteriores y unitario, así
que podemos tomar v1 × v2 y normalizarlo:
v1 × v2 1
v3 = = √ (4, −1, 1).
kv1 × v2 k 3 2
— 94 —
4.2. Movimientos rígidos Universidad de Málaga
3. Como P lleva por columnas las coordenadas de v1 , v2 y v3 respecto de la base
canónica, tenemos que P es
1
3
0 3√4 2
P = 23 √12 3−1 √
2
−2 √1 1
√
3 2 3 2
Por lo que A = P T P t es
√
7 − 32
9
0 9
A= 0
√
1 0
− 32 7
9
0 9
4. Para calcular C, seleccionaremos un punto P ∈ π y estableceremos que este
punto sea fijo, ya que estamos tratando con una reflexión respecto a π. Por
ejemplo, si tomamos P = (1, 0, 0), se cumple F (P ) = P . Dado que F (P ) =
AP + C, podemos derivar la siguiente condición.
√
− 32
7
1 9
0 9
1 c1
0 = 0 1 0 0 + c2
√
0 − 32 7 0 c3
9
0 9
Simplificando, obtenemos que
2
c1 9
c2 = 0
√
c3 32
9
Concluimos que el movimiento rígido F : R3 −→ R3 que es una reflexión respecto
al plano π ≡ x + 2y − 2z = 1 está definido por
√ 2
− 32
7
x 9
0 9
x 9
F y = √0 1 0 y + √0
z − 32 7 z 32
9
0 9 9
Nota 4.35. Por lo general, el proceso de calcular un movimiento rígido no es
exclusivo. En el ejemplo 4.34, es viable llegar a la misma solución empleando enfoques
alternativos, como la imposición de condiciones adicionales. Por ejemplo, en el caso
de la matriz A, podríamos haber establecido que los vectores en la base de π se
transformen en sí mismos, y que el vector normal se transforme en su inverso.
Ejemplo 4.36. Vamos a determinar el movimiento F : R3 −→ R3 que es una
simetría deslizante respecto al plano afín π ≡ x+2y−2z = 1 con vector de traslación
(2, 1, 0). Para ello, debemos encontrar las matrices A, C tales que F (X) = AX + C
sea el movimiento deseado.
— 95 —
4.2. Movimientos rígidos C. Bejines
1. Como estamos en una simetría deslizante, la matriz A corresponde a una
simetría. Para su cálculo, procedemos como en el ejemplo 4.34. Como el plano
afín es el mismo, llevaremos a la misma solución:
√
− 32
7
9
0 9
A = √0 1 0
− 32 7
9
0 9
2. Para calcular la matriz C, necesitamos considerar cómo actúa el movimiento
sobre los puntos del plano π: en este caso, se desplazan a lo largo del vector
(2, 1, 0). Por ejemplo, el punto P = (1, 0, 0) se transforma en F (P ) = (3, 1, 0).
Dado que F (P ) = AP + C, podemos derivar la siguiente condición.
√
7 − 32
3 9
0 9
1 c1
1 = 0 1 0 0 + c2
√
0 − 32 7 0 c3
9
0 9
Simplificando, obtenemos que
20
c1 9
c2 = 1
√
c3 32
9
Concluimos que el movimiento rígido F : R3 −→ R3 que es una simetría deslizante
respecto al plano π ≡ x + 2y − 2z = 1 cuyo vector de traslación es (2, 1, 0) está
definido por √ 20
− 32
7
x 9
0 9
x 9
F y = √0 1 0 y + √1
z − 32 7 z 32
9
0 9 9
Nota 4.37. Es importante destacar que en el ejemplo 4.36, el vector (2, 1, 0) es un
elemento del plano vectorial x + 2y − 2z = 0. Si esta condición no se cumpliera, el
movimiento no trasladaría los puntos a lo largo del plano afín π, lo que implicaría
que no sería una simetría deslizante.
— 96 —
Capítulo 5
Curvas y Superficies
A lo largo de la historia, las cónicas y las cuádricas han cautivado a matemáticos
destacados, trazando un viaje de descubrimientos que ha enriquecido nuestra
comprensión de estas formas geométricas.
En la antigüedad, en torno al 350 a.C., Menecmo inició la exploración de las
cónicas, aunque la falta de registros directos limita nuestros detalles sobre sus
avances. Años después, Apolonio de Perga (262-190 a.C.) marcó un hito crucial
al clasificar las cónicas en elipses, hipérbolas y parábolas, enriqueciendo este
conocimiento con términos fundamentales como foco y directriz. Los matemáticos
de la antigua Grecia, como Euclides y Arquímedes (siglos III y II a.C.), también
sembraron las semillas de las cuadricas al explorar intersecciones de planos y conos.
Existe cierta controversia entre los historiadores acerca de si Arquímedes empleó
espejos parabólicos para incendiar naves enemigas durante la batalla de Siracusa.
Sin embargo, lo que no está en disputa es su profundo interés en estas curvas y
superficies.
En el Renacimiento, la creatividad matemática alcanzó nuevas alturas. René
Descartes (1596-1650) trazó un puente entre estas curvas y superficies geométricas y
las ecuaciones algebraicas mediante la Geometría Analítica, revolucionando la forma
en que las comprendemos. Johannes Kepler (1570-1630) reveló la naturaleza elíptica
de las órbitas planetarias, un hallazgo paradigmático plasmado en Astronomia Nova
y Bernard Bolzano (1781-1848) categorizó las cuádricas según la forma de sus
ecuaciones.
5.1. Cónicas
Las cónicas son curvas que se obtienen al intersectar un plano con un cono
generalizado en el espacio. Dependiendo del ángulo y la posición del plano con
respecto al eje del cono, se obtienen todos los tipos de cónicas.
97
5.1. Cónicas C. Bejines
5.1.1. La elipse
Su definición geométrica establece que una elipse es el conjunto de todos los
puntos en un plano, para los cuales la suma de las distancias hacia dos puntos fijos,
denominados focos, permanece invariante. Esta constante resultante es igual a la
longitud del eje mayor de la elipse. Sus elementos geométricos son:
1. Focos: Son dos puntos fijos dentro de la elipse, denotados como F y F 0 . Si P
y Q son dos puntos de la elipse, entonces
d(P, F ) + d(P, F 0 ) = d(Q, F ) + d(Q, F 0 ).
2. Centro: Es el punto medio de los focos.
3. Eje mayor: Es la recta que pasa por los dos focos.
4. Eje menor: Es la recta que es perpendicular al eje mayor y pasa por el centro.
En la figura 5.1 se muestra los elementos geométricos de una elipse.
Figura 5.1: Elementos geométricos de una elipse.
En términos generales, la determinación de estos elementos geométricos no suele
ser una tarea sencilla. No obstante, cuando la ecuación que describe la cónica se
— 98 —
5.1. Cónicas Universidad de Málaga
encuentra en su forma reducida, que será estudiada en la sección 5.1.4, estos cálculos
se simplifican notablemente. La forma reducida de la elipse es:
x2 y 2
+ 2 = 1, (5.1)
a2 b
donde a y b son reales positivos. Observando la figura 5.2, que corresponde a una
elipse en su forma reducida, y teniendo en cuenta su representación algebraica,
podemos realizar las siguientes observaciones:
1. El centro O, los focos F y F 0 , así como los puntos A y A0 , están situados
en el eje X. Del mismo modo, el centro O, junto con los puntos B y B 0 , se
encuentran en el eje Y . Por supuesto, O = (0, 0).
2. Podemos sustituir x = 0 e y = 0 en la ecuación (5.1) para calcular los valores
de los puntos de intersección con los ejes. Al realizar esta operación, podemos
llegar a la siguiente conclusión:
A = (a, 0) A0 = (−a, 0) B = (0, b) B 0 = (0, −b)
3. Como los focos están sobre el eje X y son simétricos entre sí respecto el origen,
existe c ∈ R+ tal que
F = (c, 0) F 0 = (−c, 0).
4. Por un lado, tenemos que el eje mayor mide el segmento AA0 , es decir, 2a. Por
otro lado, la suma de las distancias de un punto de la elipse a los focos es igual
al eje mayor. Por lo tanto, tenemos que
d(B, F ) + d(B, F 0 ) = 2a.
Como B está en la mediatriz de los dos focos, d(B, F ) = d(B, F 0 ) = a.
5. Existe un triángulo rectángulo que relaciona estas tres magnitudes, por lo que
es posible determinar el valor de c aplicando el teorema de Pitágoras.
c 2 = a2 − b 2 .
5.1.2. La hipérbola
Su definición geométrica establece que una hipérbola es el conjunto de todos
los puntos en un plano, para los cuales la diferencia de las distancias hacia dos
puntos fijos, denominados focos, es constante. Esta constante resultante es igual a
la longitud del segmento entre los focos y se llama distancia focal. Los elementos
geométricos de una hipérbola son:
— 99 —
5.1. Cónicas C. Bejines
Figura 5.2: Propiedades de los elementos geométricos de una elipse.
1. Focos: Son dos puntos fijos dentro de la hipérbola, denotados como F y F 0 .
Dados dos puntos P y Q en la hipérbola, la diferencia de las distancias a los
dos focos es la misma:
d(P, F ) − d(P, F 0 ) = d(Q, F ) − d(Q, F 0 )
Vale la pena apreciar que esta constante coincide con 2a, es decir, la distancia
entre los vértices de las hipérbolas.
2. Centro: Es el punto medio de los focos.
3. Ejes: Son la recta que pasa por los focos y su perpendicular que pasa por el
centro.
4. Asíntotas: Las hipérbolas tienen dos rectas que se acerca cada vez más a la
curva, pero nunca la tocan.
La forma reducida de la hipérbola es:
x2 y 2
− 2 = 1, (5.2)
a2 b
donde a y b son reales positivos. La figura 5.3 muestra una hipérbola en su forma
reducida considerando a = 3 y b = 4.
Los ejes de una hipérbola en su forma reducida coinciden con los ejes cartesianos
y el centro es O = (0, 0). Para determinar los focos a partir de la ecuación reducida,
si F = (c, 0), entonces ese valor c verifica la siguiente fórmula:
c 2 = a2 + b 2 .
— 100 —
5.1. Cónicas Universidad de Málaga
Figura 5.3: Hipérbola en su forma reducida.
Para el cálculo de las dos asíntotas oblicuas, como ambas pasan por (0, 0),
necesitamos únicamente la pendiente para cada una, las cuales son ab y −b
a
. Por
lo tanto, las asíntotas son:
b b
y= x y=− x
a a
5.1.3. La parábola
Una parábola se define geométricamente como el conjunto de todos los puntos
en un plano que están equidistantes de un punto fijo llamado foco y una línea recta
llamada directriz. La distancia entre un punto en la parábola y el foco es igual a la
distancia entre ese punto y la directriz. Sus elementos geométricos son
1. Foco: Es un punto fijo que, junto a la directriz, define la posición de la
parábola.
2. Directriz: Es una recta que, junto con el foco, define la posición de la parábola.
3. Vértice o centro: Es el punto medio entre el foco y la directriz.
4. Eje de simetría: Es la recta que pasa por el vértice y es perpendicular a la
directriz.
— 101 —
5.1. Cónicas C. Bejines
Si P es un punto de la parábola, entonces la distancia al foco F es igual a la
distancia a la directriz d, es decir,
d(P, F ) = d(P, d).
La parábola es simétrica con respecto a su eje de simetría, el vértice es el punto más
cercano al foco y la directriz es la recta que refleja los rayos paralelos al eje de simetría
para que converjan en el foco. Estas curvas se encuentran en muchas aplicaciones del
mundo real, desde la óptica de las lentes utilizadas en antenas parabólicas y faros
de automóviles, hasta en la física de los movimientos de proyectiles.
En su forma reducida, dependiendo del eje donde se encuentre el foco, tiene una
expresión algebraica u otra.
Si el foco está en el eje X, la parábola es horizontal y su ecuación reducida es
y 2 = 2px.
Si el foco está en el eje Y , la parábola es vertical y su ecuación reducida es
x2 = 2py.
donde p es un número real e indica, en valor abosluto, la distancia entre el foco
y la directriz. En la figura 5.4 se muestra una parábola horizontal junto con sus
elementos geométricos.
En esta cónica, el cálculo de sus elementos geométricos en su forma reducida es
bastante directo. El centro es el origen de coordenadas y el eje de simetría es el eje X
o el eje Y dependiendo de si la parábola es horizontal o vertical, respectivamente. La
directriz sigue la fórmula x = − p2 (parábola horizontal) o y = − p2 (parábola vertical).
El foco es F = ( p2 , 0) (parábola horizontal) o F = (0, p2 ) (parábola vertical).
5.1.4. Ecuación general de una cónica
Hasta este punto, hemos examinado las tres cónicas más relevantes: la elipse,
la hipérbola y la parábola. Desde una perspectiva algebraica, una cónica se define
como el conjunto de soluciones de una ecuación polinómica de segundo grado en
dos variables, la cual es conocida como la ecuación general de la cónica. En esta
sección, exploraremos el procedimiento para transformar esta ecuación general a su
forma reducida, lo que nos permitirá identificar y comprender mejor estas figuras
geométricas.
Proposición 5.1. Una cónica está compuesta por la solución de una ecuación
polinómica de segundo grado en dos variables. De forma general, esa ecuación es
ax2 + 2bxy + cy 2 + 2dx + 2ey + f = 0, (5.3)
donde a, b, c, d, e, f ∈ R.
— 102 —
5.1. Cónicas Universidad de Málaga
Figura 5.4: Parábola horizontal.
La solución de la ecuación (5.3) es el conjunto
n
2 a b x x o
(x, y) ∈ R | (x, y) + 2(d, e) +f =0
b c y y
o equivalentemente,
n f d e 1 o
2
(x, y) ∈ R | 1 x y d a b x = 0
e b c y
En un sistema de coordenadas apropiado, la ecuación de una cónica puede ser
transformada en una forma reducida y más simple.
Definición 5.2. Considere la cónica descrita por la siguiente ecuación polinómica
a b x x
(x, y) + 2(d, e) +f =0
b c y y
a b
Decimos que es una ecuación reducida de la cónica si es diagonal y se
b c
cumple lo siguiente:
a b
1. Si λ = 0 no es autovalor de entonces no hay monomios de grado 1.
b c
— 103 —
5.1. Cónicas C. Bejines
a b
2. Si λ = 0 es autovalor de entonces el número de monomios de grado 1
b c
es a lo sumo uno.
Nota 5.3. Las ecuaciones reducidas de las cónicas son las siguientes, donde a, b, p 6=
0.
Elipse (real).
x2 y 2
+ 2 = 1.
a2 b
Elipse imaginaria.
x2 y 2
+ 2 = −1.
a2 b
Punto.
x2 y 2
+ 2 = 0.
a2 b
Hipérbola.
x2 y 2
− 2 = 1.
a2 b
Dos rectas secantes.
x2 y 2
− 2 = 0.
a2 b
Parábola (horizontal).
y 2 = 2px.
Parábola (vertical).
x2 = 2py.
Dos rectas paralelas.
x 2 = a2 (o también y 2 = a2 ).
Dos rectas imaginarias paralelas.
x2 = −a2 (o también y 2 = −a2 ).
Dos rectas coincidentes.
x2 = 0 (o también y 2 = 0).
Recta.
ax + by + c = 0.
— 104 —
5.1. Cónicas Universidad de Málaga
Merece la pena apreciar que la circunsferencia es una caso particular de elipse
tomando a = b.
Definición 5.4. Diremos que una cónica es no degenerada si es una elipse, una
hipérbola o una parábola.
Cuando tenemos una cónica en su forma general (ver ecuación 5.3), el enfoque
clave consiste en transformarla a su ecuación reducida. Esta transformación es
fundamental para reconocer la cónica y, por lo tanto, para determinar sus atributos
geométricos.
Para simplificar la ecuación, utilizaremos un cambio de variables que equivale
a una rotación. Específicamente, aplicaremos una diagonalización ortogonal a la
matriz simétrica
a b
b c
Después, a través de una traslación, moveremos la cónica al eje de coordenadas
completando cuadrados para facilitar la eliminación de los términos de primer grado.
De esta manera, conseguiremos la ecuación reducida que caracteriza la cónica de
manera más simple y comprensible.
Proposición 5.5. Sea p(x) ∈ R2 [x] definido por p(x) = ax2 + bx + c. Entonces,
b 2 b2 c
p(x) = x + − 2+
2a 4a a
Este procedimiento de eliminar el término de grado 1 es conocido como completar
cuadrados. Si q(x) = x2 + bx, la fórmula se reduce a
b 2 b2
q(x) = x + −
2 4
En relación al próximo resultado, es importante considerar que cuando tratamos
con un polinomio p ∈ R2 [x, y], la ecuación p(x, y) = 0 describe a una cónica descrita
según la ecuación (5.3).
Teorema 5.6. Considere el polinomio p : R2 −→ R definido por
a b x x
p(x, y) = (x, y) + 2(d, e) +f
b c y y
donde a, b, c, d, e, f ∈ R.
1. Existe una matriz diagonal D y una matriz ortogonal Q tal que
a b
= QDQt
b c
— 105 —
5.1. Cónicas C. Bejines
Consecuentemente, p(x, y) = 0 equivale a
0 0
0 0 λ1 0 x x
(x , y ) 0 + 2(d, e)Q 0 + f = 0
0 λ2 y y
0
x t x
donde =Q y λ1 , λ2 son los autovalores de D.
y0 y
2. Si se realiza el proceso de completar cuadrados descrito en la proposición 5.5
y el cambio de variable correspondiente a la traslación asociada, entonces se
obtiene la ecuación reducida de la cónica.
Nota 5.7. En las condiciones del teorema 5.6, si c1 y c2 corresponden a los
términos de traslación del proceso de completar cuadrados respecto de las variables
x e y respectivamente, entonces la ecuación reducida se ha obtenido al realizar el
movimiento rígido F : R2 −→ R2 definido por
x t x c
F =Q + 1
y y c2
sobre la curva que define la igualdad p(x, y) = 0.
Ejemplo 5.8. Vamos a analizar qué cónica describe la siguiente ecuación polinómi-
ca:
52x2 + 73y 2 − 72xy − 384x + 362y + 657 = 0.
En su forma matricial, tenemos
52 −36 x x
x y + D E + 657 = 0 (5.4)
−36 73 y y
52 −36
Si diagonalizamos ortogonalmente la matriz , tenemos que
−36 73
3 t
4 3
4
52 −36 − 25 0 −
= 53 4 5 5
3 4
5
−36 73 5 5
0 100 5 5
Por el teorema 5.6, la ecuación (5.4) es equivalente a
0 0
4 −3
0 0
25 0 x x
x y 0 + −384 362 3 4 5 5 + 657 = 0
0 100 y 5 5
y0
0 4 3
x 5 5
x
donde 0 = 3 4 . Equivalentemente,
y −5 5 y
25x02 + 100y 02 − 90x0 + 520y 0 + 657 = 0 (5.5)
Ahora completamos cuadrados en cada variable.
— 106 —
5.1. Cónicas Universidad de Málaga
2 2 2
25x02 − 90x0 = 25 x02 − 18 0
5
x = 25 x0 − 95 − 95 = 25 x0 − 59 − 81.
2 2 2
02 0 02 52 0 0 26 26 0 26
100y + 520y = 100 y + 10 y = 100 y + 10 + 10 = 100 y + 10 −
676.
Por lo que la ecuación (5.5) equivale a
9 2 26 2
25 x0 − − 81 + 100 y 0 − − 676 + 657 = 0
5 10
Si hacemos los siguientes cambios de variables
x00 = x0 − 9
5
y 00 = y 0 + 26
10
obtenemos la ecuación reducida
x002
25x002 + 100y 002 = 100 ⇐⇒ + y 002 = 1.
4
que corresponde a una elipse. El movimiento rígido que hemos llevado a cabo para
conseguir la ecuación reducida ha sido F : R2 −→ R2 definido por
4 3 9
x 5 5
x −
F = + 265
y − 35 54 y 10
En la figura 5.5, podemos ver cómo se transforma la elipse original, mediante la
composición de un giro y una traslación, en una elipse horizontal centrada en el eje
de coordenadas.
Ejemplo 5.9. Estudiemos la ecuación reducida de la siguiente cónica:
x2 − 6xy − 7y 2 + 10x + 2y + 1 = 0.
1 −3
Empezamos diagonalizando ortogonalmente la matriz Tenemos que sus
−3 −7
autovalores son las raíces del polinomio característico:
1−λ −3
= λ2 + 6λ − 16.
−3 −7 − λ
Sus autovalores son λ1 = 2 y λ2 = −8. Pasamos a obtener los autovectores:
Para λ1 = 2 tenemos:
−1 −3 x 0
= ,
−3 −9 y 0
luego un autovector para el autovalor 2 es (−3, 1).
— 107 —
5.1. Cónicas C. Bejines
Figura 5.5: Movimiento de la elipse del ejemplo 5.8.
Para λ2 = −8 tenemos:
9 −3 x 0
= ,
−3 1 y 0
luego un autovector para el autovalor −8 es (1, 3).
Los dos autovectores se encuentran en una relación de ortogonalidad, como se
estableció previamente en la proposición 3.27. Para que estos autovectores puedan
formar una base ortonormal, debemos realizar un proceso de normalización sobre
cada autovector. Vale la pena recordar que nuestro objetivo es realizar una
transformación de giro, por lo que la disposición de los autovectores en la matriz Q
debe ser tal que el determinante de la matriz sea igual a 1. Esto, a su vez, tiene un
impacto en cómo organizamos los autovalores en la matriz diagonal. En consecuencia,
podemos afirmar que la matriz Q toma la forma:
!
√1 −3
√
10 10
Q= √3 √1
10 10
Por el teorema 5.6, la ecuación x2 − 6xy − 7y 2 + 10x + 2y + 1 = 0 puede reescribirse
de la siguiente forma:
!
0
√1 −3
x0
−8 0 x √
0 0
(x , y ) 0 + (10, 2) √310 √110 + 1 = 0.
0 2 y 10 10
y0
— 108 —
5.1. Cónicas Universidad de Málaga
0
x t x
donde =Q . Simplificándo,
y0 y
16 28
− 8x02 + 2y 02 + √ x0 − √ y 0 + 1 = 0. (5.6)
10 10
Para eliminar los términos de grado 1, procedemos a completar cuadrados.
2 2
02 16 0 02 2 0 0 1 1 0 1 8
−8x + 10 x = −8 x − 10 x = −8 x − 10 − 10 = −8 x − 10 + 10
√ √ √ √
2 2
2y 02 − √28 y 0
10
= 2 y 02 − √14 y 0
10
= 2 y0 − √7
10
− 49
10
= 2 y0 − √7
10
− 98
10
Si hacemos los siguientes cambios de variables
x00 = x0 − √1
10
y 00 = y 0 − √7
10
y los sustituimos en la ecuación (5.6), obtenemos
8 98
−8x002 + 2y 002 + − + 1 = 0.
10 10
Equivalentemente, obtenemos la ecuación reducida
y 002
x002 − = −1.
4
que corresponde a una hipérbola. El movimiento rígido que hemos llevado a cabo
para conseguir la ecuación reducida ha sido F : R2 −→ R2 definido por
! !
√1 √3 − √1
x 10 10 x 10
F = +
y − √310 √110 y − √710
La hipérbola x2 − 6xy − 7y 2 + 10x + 2y + 1 = 0 está dibujada en la figura 5.6, junto
con sus dos asíntotas.
Ejemplo 5.10. Estudiemos la ecuación reducida de la siguiente cónica:
√ √
x2 + y 2 + 2xy + 6 2x − 2 2y + 26 = 0.
1 1
Primero debemos diagonalizar ortogonalmente la matriz . Este proceso, el
1 1
cual omitimos, concluye que
√ √ ! √2 √ !t
2 2 2
1 1 − 2 0 −
= √22 √22 √2
2
√2
2
1 1 0 0
2 2 2 2
— 109 —
5.1. Cónicas C. Bejines
Figura 5.6: Hipérbola de ecuación x2 − 6xy − 7y 2 + 10x + 2y + 1 = 0.
√ √
Por lo tanto, la cónica que se describe con la ecuación x2 +y 2 +2xy +6 2x−2 2y +
26 = 0 equivale a
√ √ !
√ √ 2
− 2
x0
2x02 + 6 2 −2 2
√2 √2 + 26 = 0,
2 2 y0
2 2
0 √ √ !
2 2
x 2√ √2
x
donde = . Equivalentemente,
y0 − 2 2 y
2 2
2x02 + 8y 0 + 4x0 + 26 = 0.
Teniendo en cuenta que 2x02 + 4x0 = 2(x0 + 1)2 − 2, podemos simplificar la expresión
anterior por
2(x0 + 1)2 − 2 + 8y 0 + 26 = 0 ⇐⇒ 2x002 + 8(y 0 + 24) = 0 ⇐⇒ x002 + 4y 00 = 0
donde y 00 = y 0 + 3 y x00 = x0 + 1. Esta igualdad corresponde a la ecuación reducida
de una parábola. Para obtener esta expresión, hemos aplicado el movimiento F :
R2 −→ R2 definido por
√ √ !
2 2
x 2√ √2
x 1
F = 2 2
+
y −2 y 3
2
— 110 —
5.1. Cónicas Universidad de Málaga
5.1.5. Cálculo de los elementos geométricos
En las secciones sobre elipse, hipérbola y parábola, hemos visto como hallar los
elementos geométricos de estas cónicas no degeneradas en su forma reducida. Para
determinar los elementos geométricos de una cónica en su forma general, podemos
recurrir al siguiente procedimiento:
1. Transformamos la cónica en su forma reducida aplicando un movimiento rígido
F.
2. Determinamos sus elementos geométricos.
3. Deshacemos el movimiento rígido sobre los elementos geométricos aplicando
F −1 .
En el caso de la elipse, la hipérbola y la parábola, debemos obtener todos sus
elementos geométricos. En el caso de las cónicas degeneradas, bastará únicamente
con su centro, es decir, la preimagen del (0, 0) mediante el movimiento rígido que
se haya llevado a cabo. Veamos los elementos geométricos de las tres cónicas no
degeneradas que ya identificamos en los ejemplos anteriores.
Ejemplo 5.11. Como vimos en el ejemplo 5.8, la ecuación general
52x2 + 73y 2 − 72xy − 384x + 362y + 657 = 0
corresponde a una elipse. Tras haber realizado el movimiento F : R2 −→ R2 definido
por 4 3 9
x 5 5
x −
F = 3 4 + 265
y −5 5 y 10
obtuvimos la ecuación reducida
x002
+ y 002 = 1.
4
Esta igualdad implica que el semieje mayor sea a = 2 y el semieje menor b = 1. Por
lo tanto, √
c2 = a2 − b2 ⇐⇒ c = 3
A√raíz de este
√ hecho, tenemos que los focos, en su forma reducida,√ se situan en
( 3, 0) y (− 3, 0). Para determinar el foco F1 del que procede ( 3, 0), debemos
deshacer el movimiento, es decir, encontrar el par (x, y) tal que
√ 4 3
9
3 5 5
x −
= + 265
0 − 35 4
5
y 10
— 111 —
5.1. Cónicas C. Bejines
Si simplificamos, nos queda el sistema de ecuaciones
√
4x + 3y = 9 + 5 3
−3x + 4y = −13
Tras aplicar el método de Gauss-Jordan, obtenemos como única solución el punto
correspondiente a uno de los focos:
75 20√3 79 15√3
F1 = + ,− −
7 7 7 7
Para el otro foco F2 , repetimos el proceso encontrando el par (x, y) tal que
√ 4 3 9
− 3 5 5
x −
= 3 4 + 265
0 −5 5 y 10
La solución de este sistema, y por tanto el otro foco buscado, es:
75 20√3 79 15√3
F2 = − ,− +
7 7 7 7
Para el centro C, podemos simplemente hacer el punto medio de los dos focos:
F1 + F2 75 79
C= ⇐⇒ C = ,−
2 7 7
El segmento del eje mayor contenido en la cónica mide 2a = 4 y el eje
√ mayor es
√
la
20 3 15 3
recta r que une los dos focos. Un vector de dirección es F1 − C = 7
,− 7 ,
por lo que la recta es: √
x = 75
+ 20 √3λ
r≡ 7
y = − 79 7
− 15 3λ
Por otro lado, el segmento del eje menor contenido en la cónica mide 2b = 2 y el eje
menor es la recta s que es perpendicular a r y pasa por el centro C, es decir,
√
x = 75
+ 15 √3λ
s≡ 7
79
y = − 7 + 20 3λ
Nota 5.12. Es posible que al hacer el giro de la diagonalización ortogonal, el eje
mayor sea el eje Y en lugar del eje X. Esto debe tenerse en cuenta a la hora de
revertir el movimiento rígido, puesto que los focos de la elipse son de la forma (0, c).
Ejemplo 5.13. En el ejemplo 5.9 estudiamos la siguiente ecuación general:
x2 − 6xy − 7y 2 + 10x + 2y + 1 = 0,
— 112 —
5.1. Cónicas Universidad de Málaga
la cual correspondía a una hipérbola cuya ecuación reducida era
y 002
x002 − = −1.
4
El movimiento rígido que habíamos llevado a cabo para conseguir la ecuación
reducida fue F : R2 −→ R2 definido por
! !
1 3 1
−
x √ √ x √
10 10 10
F = +
y − √310 √110 y − √710
√
Observando la ecuación reducida, obtenemos que a = 1 y b = 2, por lo que c = 5
y, consecuentemente,
1. Los focos de la hipérbola en su forma reducida son
√ √
( 5, 0) y (− 5, 0)
2. Las asíntotas de la hipérbola en su forma reducida son
y = 2x y y = −2x
Para determinar los elementos geométricos de la hipérbola original, deshacemos el
movimiento rígido.
√
1. Cálculo de los focos. Primero, buscamos la preimagen de ( 5, 0):
! !
√1 √3 − √1
√
5 10 10 x 10
= +
0 − √310 √110 y − √710
cuya única solución es
1 3
F1 = √ − 2, √ + 1 .
2 2
√
Análogamente, calculamos la preimagen de (− 5, 0):
√ ! !
− 5 √1 √3 x − √1
10 10 10
= +
0 − √310 √110 y − √710
cuya única solución es
1 3
F2 = − √ − 2, − √ +1 .
2 2
— 113 —
5.1. Cónicas C. Bejines
2. El centro C es el punto medio de los focos, por lo que
F1 + F2
C= ⇐⇒ C = (−2, 1).
2
3. Ejes de la hipérbola. Estos están formados por la recta r que pasa por los focos
y la recta s que es perpendicular a r y pasa por el centro. Por lo tanto,
x = −2 + λ
r≡
y = 1 + 3λ
x = −2 − 3λ
s≡
y = 1 + λ
4. Cálculo de las asíntotas. Para lograr esto, debemos verificar la preimagen de
las rectas y = 2x e y = −2x, lo que nos permitirá construir las asíntotas de la
hipérbola original. Vamos a realizar este proceso paso a paso.
Para la recta y = 2x, calcularemos la preimagen de los puntos (0, 0) y (1, 2).
Ya hemos determinado que F −1 (0, 0) = (−2, 1). Ahora, verificaremos qué par
(x, y) cumple con la siguiente condición:
! !
√1 √3 − √1
1 10 10 x 10
= +
2 − √310 √110 y − √710
La solución de este sistema es el punto
r r
5 5
F −1 (1, 2) = −2− ,1 +
2 2
Tomando el centro como punto y un vector proporcional a F −1 (1, 2) −
F −1 (0, 0), concluimos que una asíntota es
x = −2 − λ
t1 ≡
y = 1 + λ
De forma análoga, para la recta y = −2x, calcularemos la preimagen de los
puntos (0, 0) y (1, −2). Teniendo en cuenta que F −1 (0, 0) = (−2, 1), basta con
verificar qué par (x, y) cumple con la siguiente condición:
! !
√1 √3 − √1
1 10 10 x 10
= +
−2 − √310 √110 y − √710
La solución de este sistema es el punto
−1
7 1
F (1, −2) = − 2 + √ ,1 + √
10 10
— 114 —
5.1. Cónicas Universidad de Málaga
Tomando el centro como punto y un vector proporcional a F −1 (1, −2) −
F −1 (0, 0), concluimos que la otra asíntota es
x = −2 + 7λ
t2 ≡
y = 1 + λ
Nota 5.14. De manera similar a lo observado en el caso de la elipse, es posible
que al aplicar una transformación de giro a la hipérbola mediante la diagonalización
ortogonal, el eje que se convierta en el eje mayor sea el eje Y en lugar del eje X.
Como resultado, se obtiene una ecuación reducida en la que el coeficiente negativo
se encuentra junto a la variable x en lugar de la variable y. Este hecho debe tenerse
en cuenta cuando se considere revertir del movimiento rígido, ya que los focos de la
hipérbola adquirirían una expresión de la siguiente forma: (0, c).
Ejemplo 5.15. En el ejemplo 5.10, estudiamos la ecuación general
√ √
x2 + y 2 + 2xy + 6 2x − 2 2y + 26 = 0,
la cual correspondía a una parábola cuya ecuación reducida resultó ser
x002 + 4y 00 = 0.
Para obtener esta expresión, recurrimos al movimiento F : R2 −→ R2 definido por
√ √ !
2 2
x 2 2
x 1
F = √
2
√
2
+
y − y 3
2 2
Vamos a determinar los elementos geométricos de la parábola original. Debemos
tener el cuenta que la ecuación reducida corresponde a una parábola vertical del
tipo
x2 = 2py.
Por lo tanto, el valor del parámetro p es − 81 .
1. Foco: La parábola en su forma reducida tiene el foco en (0, p2 ). Para hallar el
foco de la parábola original, debemos determinar el par (x, y) tal que
√ √ !
2 2
0 2 2
x 1
1 = √ √ +
− 16 − 2 2 y 3
2 2
La solución de este sistema de ecuaciones es
33 65
F = √ ,− √
16 2 16 2
— 115 —
5.1. Cónicas C. Bejines
2. Vértice: El centro de la parábola original es F −1 (0, 0), es decir, la solución de
√ √ !
2 2
0 2√ √2
x 1
= 2 2
+
0 −2 y 3
2
Tras aplicar Gauss-Jordan, obtenemos que el vértice o centro es
√ √
C= 2, −2 2
3. Eje de simetría: Como es la recta que une el centro y el foco, tenemos que el
eje de simetría de la parábola original es
√
x = 2 + λ
√
r≡
y = −2 2 − λ
donde el vector de dirección se ha obtenido proporcionalmente a F − C.
4. Directriz: Es la recta perpendicular al eje de simetría que pasa por el punto
F −1 (0, − p2 ). Resolviendo el sistema de ecuaciones asociado, se obtiene que
1 31 63
F −1 (0, )= √ ,− √
16 16 2 16 2
Esto implica que la directriz es
(
x = 1631√2 + λ
d≡
y = − 1663√2 + λ
5.1.6. Creación de una cónica
Hasta este momento, hemos identificado qué tipo de cónica se deriva de una
ecuación general y hemos determinado sus elementos geométricos. En esta sección,
cambiaremos de enfoque y veremos ejemplos de cómo realizar lo contrario: encontrar
la ecuación general de una cónica específica que deseamos construir.
Para lograr esto, seguiremos los siguientes intuitivos pasos:
1. Construirnos la ecuación reducida de la cónica.
2. La desplazamos a la posición deseada.
3. La rotamos a la posición final.
Veamos varios ejemplos.
— 116 —
5.1. Cónicas Universidad de Málaga
Ejemplo 5.16. Supongamos que queremos construir una circunsferencia de centro
(4, 2) y radio 3. Como se trata de una circunferencia, estamos ante una elipse en la
que a = b. Además, el radio es 3, así que a = b = 3. Esto implica que la ecuación
reducida de una circunsferencia de radio 3 es
x2 y 2
+ = 1.
9 9
El centro en su forma reducida es el (0, 0). Para que la circunsferencia esté centrada
en (4, 2), debemos aplicar una traslación mediante el vector (4, 2), es decir, vamos a
realizar este cambio de variable:
x0 = x + 4
y0 = y + 2
Sustituyendo en nuestra ecuación, nos queda lo siguiente:
(x0 − 4)2 (y 0 − 2)2
+ = 1.
9 9
Además, al ser una circunsferencia, aplicar una rotación carece de sentido, por lo
que hemos terminado. El movimiento que hemos efectuado sobre la cónica en su
forma reducida para transformarla en la deseada ha sido F : R2 −→ R2 definido por
x 1 0 x 4
F = +
y 0 1 y 2
y la ecuación general de la circunsferencia con centro (4, 2), desarrollando la ecuación
anterior, es
x2 − 8x + y 2 − 3y + 11 = 0
Ejemplo 5.17. Supongamos que queremos construir una hipérbola con focos
F1 = (2, 6) y F2 = (10, 0)
que pase por P = (10, 6).
1. La ecuación reducida de una hipérbola es
x2 y 2
− 2 =1
a2 b
Por un lado, la distancia entre ambos focos es d(F1 , F2 ) = 10, por lo que
2c = 10 implica c = 5. A partir de la figura 5.3, tenemos que
a2 + b2 = 25.
— 117 —
5.1. Cónicas C. Bejines
Por otro lado, P = (10, 6) pertenece a la hipérbola y
d(P, F1 ) − d(P, F2 ) = 8 − 6 = 2,
así que |d(Q, F ) − d(Q, F 0 )| = 2 para cualquier punto de la hipérbola. En
particular, para el punto A = (a, 0),
d(A, F ) − d(A, F 0 ) = 2 ⇐⇒ (c + a) − (c − a) = 2a.
√
Por lo tanto, a = 1. Esto implica que b = 24. Ya tenemos la ecuación
reducida:
y2
x2 − =1
24
2. El centro es el punto medio de los focos, es decir,
F1 + F2
C= = (6, 3).
2
Por lo que el vector de traslación que usaremos es (6, 6). Mientras que el eje
X de la hipérbola en su forma reducida contiene los focos (−c, 0) y (c, 0), en
la ecuación general que estamos buscando, el eje es la recta que conecta los
focos F1 y F2 . Esto implica que el vector que originalmente unía los focos en
la ecuación reducida, se transforma en el vector que conecta F1 y F2 . En otras
palabras, el vector (10, 0) se transforma en el vector (8, −6) mediante un giro.
Calculemos el ángulo α tal que
8 cos α −sen α 10
=
−6 sen α cos α 0
Equivalentemente, cos α = 54 y sen α = − 35 . Por lo tanto, el movimiento que
debemos efectuar en nuestra ecuación reducida es F : R2 −→ R2 definido por
4 3
x 5 5
x 6
F = 3 4 +
y −5 5 y 3
Vamos a aportar la inversa de F , por lo que vamos a despejar el par (x, y).
0
x = 45 x + 53 y + 6
y 0 = − 35 x + 54 y + 3
15x0 = 12x + 9y + 90
⇐⇒
20y 0 = −12x + 16y + 60
De aquí deducimos que 25y = 15x0 + 20y 0 − 150. Siguiendo un procedimiento
análogo, obtenemos que 25x = 20x0 − 15y 0 − 75.
— 118 —
5.1. Cónicas Universidad de Málaga
Sustituyendo en la ecuación reducida, tenemos:
y2 (20x0 − 15y 0 − 75)2 (15x0 + 20y 0 − 150)2
x2 − = 1 ⇐⇒ − =1
24 252 24 · 252
Tras un procedimiento de simplificación, concluimos que la ecuación general de la
hipérbola que buscábamos es:
15x2 − 24xy − 108x + 8y 2 + 96y + 156 = 0,
la cual podemos visualizar en la figura 5.7.
Figura 5.7: Hipérbola de ecuación 15x2 − 24xy − 108x + 8y 2 + 96y + 156 = 0.
Ejemplo 5.18. Supongamos que queremos construir la parábola que tiene como
directriz y = x − 1 y foco F = (−1, 3). Si partimos de la forma reducida asociada
a una parábola vertical, vamos a buscar el movimiento rígido F : R2 −→ R2 que
transforma la parábola x2 = 2py en la parábola deseada.
1. Para el vector de traslación necesitamos saber el vértice de la parábola final.
Sabemos que se encuentra en el eje de simetría y está en el punto medio entre
el foco F (−1, 3) y la directriz d ≡ y = x − 1. Primero, el eje de simetría es
r ≡ y = −x + 2
— 119 —
5.1. Cónicas C. Bejines
Segundo, la intersección Q = r ∩ d es el punto del plano que es solución de
ambas ecuaciones cartesianas, es decir,
3 1
Q= , .
2 2
Por último, tenemos que el vértice de la parábola es el punto medio entre F y
Q,
F + Q 1 7
C= = ,
2 4 4
Por lo que ya tenemos el vector de traslación.
2. La directriz de la parábola x2 = 2py es y = − p2 , lo que implica que el vector
de dirección es (1, 0). Cuando apliquemos el movimiento rígido F , este vector
de dirección se convierte en (1, 1), que es el vector de dirección de la nueva
directriz y = x − 1. Un sencillo cálculo nos da como resultado que el ángulo
α es igual a π4 , lo que implica que la matriz ortogonal correspondiente a la
rotación sea √ √ !
2 2
√2
−√2
2 2
2 2
Es importante tener en cuenta que en una parábola vertical, el foco se
encuentra arriba de la recta y = − p2 . En este caso, el nuevo foco mantiene
esta disposición relativa al girar la directriz. Si la disposición fuera diferente,
el giro debería realizarse en la dirección opuesta, lo que cambiaría el ángulo
como consecuencia.
El movimiento rígido F : R2 −→ R2 que transforma la parábola vertical en la
parábola que queríamos construir es:
√ √ !
2 2
1
x − x
F = √22 √22 + 47
y y 4
2 2
El cambio de variable que debemos realizar es
( √ √
x0 = √22 x − √22 y + 1
4
y 0 = 22 x + 22 y + 7
4
De lo que se deduce que
x = √1 x0 + y 0 −2
2
y = √1
2
y 0 − x0 − 23
— 120 —
5.2. Cuádricas Universidad de Málaga
Vamos a aplicar este cambio de variable a la ecuación reducida x2 = 2pxy .
Recordemos que p es el parámetro que indica la distancia entre el foco y la directriz.
En otras palabras, p = d(F, Q) = kF Qk= √52 . Por lo tanto,
1 2 10 1 3
x2 = 2py ⇐⇒ √ x0 + y 0 − 2 = √ √ y 0 − x0 −
2 2 2 2
Simplificando y desarrollando los cuadrados, obtenemos la ecuación general de la
parábola deseada:
x02 + 2x0 y 0 + 6x0 + y 02 − 14y 0 + 19 = 0.
En la figura 5.8, mostramos la visualización de la parábola.
Figura 5.8: Parábola de ecuación x2 + 2xy + 6x + y 2 − 14y + 19 = 0.
5.2. Cuádricas
Las cuádricas incluyen varios tipos de superficies, como elipsoides, hiperboloides,
paraboloides, conos, cilindros y esferas. Cada uno de estos tipos de cuádricas tiene
propiedades geométricas y matemáticas específicas. Las cuádricas son una parte
importante de la geometría algebraica y tienen aplicaciones en campos como la
física y la ingeniería, especialmente en la descripción de formas y superficies en el
espacio tridimensional.
— 121 —
5.2. Cuádricas C. Bejines
Definición 5.19. Una cuádrica es el lugar geométrico de los puntos que son
solución de una ecuación polinómica de segundo grado en tres variables. De forma
general, esa ecuación es
A1 x2 + A2 y 2 + A3 z 2 + 2B1 xy + 2B2 xz + 2B3 yz + 2C1 x + 2C2 y + 2C3 z + D = 0, (5.7)
donde Ai , Bi , Ci , D ∈ R para i ∈ {1, 2, 3}.
La solución de la ecuación 5.7 es el conjunto
n A1 B1 B2 x x o
3
(x, y, z) ∈ R | (x, y, z) B1 A2
B3 y + 2(C1 , C2 , C3 ) y + D = 0 ,
B2 B3 A3 z z
o equivalentemente,
D C1 C2 C3 1
n C1 A1 B1 B2 x
o
(x, y, z) ∈ R3 | 1 x y z
=0 .
C 2 B1 A2 B3 y
C3 B2 B3 A3 z
En un sistema de coordenadas adecuado, la ecuación puede reducirse a una
ecuación reducida sin cambiar el conjunto de soluciones. Las ecuaciones reducidas
de las cuádricas son las siguientes, donde a, b, c, p 6= 0. Debe tenerse en cuenta que
las variables son intercambiables, no necesariamente la primera variable siempre
aparece o es positiva.
Elipsoide (real).
x2 y 2 z 2
+ 2 + 2 = 1.
a2 b c
Elipsoide imaginario.
x2 y 2 z 2
+ 2 + 2 = −1.
a2 b c
Hipérboloide de una hoja.
x2 y 2 z 2
+ 2 − 2 = 1.
a2 b c
Hipérboloide de dos hojas.
x2 y 2 z 2
− 2 − 2 = 1.
a2 b c
Cono (real).
x2 y 2 z 2
+ 2 − 2 = 0.
a2 b c
— 122 —
5.2. Cuádricas Universidad de Málaga
Cono imaginario ( = punto).
x2 y 2 z 2
+ 2 + 2 = 0.
a2 b c
Paraboloide elíptico.
x2 y 2
+ 2 − 2cz = 0.
a2 b
Paraboloide hiperbólico.
x2 y 2
− 2 − 2cz = 0.
a2 b
Cilindro elíptico (real).
x2 y 2
+ 2 = 1.
a2 b
Cilindro elíptico imaginario.
x2 y 2
+ 2 = −1.
a2 b
Cilindro hiperbólico.
x2 y 2
− 2 = 1.
a2 b
Dos planos secantes.
x2 y 2
− 2 = 0.
a2 b
Dos planos imaginarios secantes ( = recta).
x2 y 2
+ 2 = 0.
a2 b
Cilindro parabólico.
y 2 = 2px.
Dos planos paralelos.
x 2 = a2 .
Dos planos imaginarios paralelos.
x2 = −a2 .
Dos planos coincidentes.
x2 = 0.
— 123 —
5.2. Cuádricas C. Bejines
Plano.
ax + by + cz + d = 0.
Nota 5.20. La esfera es una caso particular de elipsoide tomando a = b = c.
En la figura 5.9, mostramos todos los tipos de cuádricas (no imaginarias).
Figura 5.9: Cuádricas reales.
Para obtener la ecuación reducida de una cuádrica se realiza el mismo proceso
que para las cónicas: diagonalización ortogonal y completamos cuadrados.
— 124 —
5.2. Cuádricas Universidad de Málaga
Teorema 5.21. Considere el polinomio p : R3 −→ R definido por
A1 B1 B2 x x
p(x, y, z) = (x, y, z) B1 A2 B3 y + 2(C1 , C2 , C3 ) y + D
B2 B3 A3 z z
donde Ai , Bi , Ci , D ∈ R para todo i ∈ {1, 2, 3}.
1. Existe una matriz diagonal D y una matriz ortogonal Q tal que
A1 B1 B2
B1 A2 B3 = QDQt
B2 B3 A3
Consecuentemente, p(x, y, z) = 0 equivale a
0 0
λ1 0 0 x x
0 0 0
(x , y , z ) 0 λ2 0 y + 2(C1 , C2 , C3 )Q y 0 + D = 0
0
0 0 λ3 z0 z0
0
x x
0 t
donde y = Q y y λ1 , λ2 , λ3 son los autovalores de D.
z0 z
2. Si se realiza el proceso de completar cuadrados descrito en la proposición 5.5
y el cambio de variable correspondiente a la traslación asociada, entonces se
obtiene la ecuación reducida de la cuádrica.
Nota 5.22. En las condiciones del teorema 5.21, si c1 , c2 y c3 corresponden a los
términos de traslación del proceso de completar cuadrados respecto de las variables
x, y, z respectivamente, entonces la ecuación reducida se ha obtenido al realizar el
movimiento rígido F : R2 −→ R2 definido por
x t x c
F =Q + 1
y y c2
sobre la superficie que define la igualdad p(x, y, z) = 0.
Si deseamos construir una superficie cuádrica, al igual que con las cónicas,
comenzamos creando su ecuación reducida y luego aplicamos un movimiento rígido
para trasladarla y orientarla según nuestras preferencias. Este enfoque nos permite
manipular y diseñar cuádricas de manera efectiva para adaptarlas a nuestras
necesidades y visualizar sus propiedades de manera más conveniente.
— 125 —