Bases Ortonormales y Matrices Ortogonales
Bases Ortonormales y Matrices Ortogonales
2
Ejemplo 1. Muestra que {⃗v1 , ⃗v2 , ⃗v3 } es un conjunto ortogonal de IR 3 , siendo
3 −1 −1
⃗v1 = 1 , ⃗v2 = 2 , ⃗v3 = −4
1 1 7
Consideremos los tres posibles pares de vectores distintos, a saber {⃗v1 , ⃗v2 },{⃗v1 , ⃗v3 } y {⃗v2 , ⃗v3 }.
⃗v1 · ⃗v2 = 3(−1) + 1(2) + 1(1) = 0
⃗v1 · ⃗v3 = 3(−1/2) + 1(−2) + 1(7/2) = 0
⃗v2 · ⃗v3 = −1(−1/2) + 2(−2) + 1(7/2) = 0
Cada par de vectores distintos es ortogonal, por tanto {⃗v1 , ⃗v2 , ⃗v3 } es un conjunto ortogonal.
Ejemplo 2. Muestra que {⃗u1 , ⃗u2 , ⃗u3 } es una base ortonormal de IR 3 , siendo:
√ √ √
3/√11 −1/√ 6 −1/√66
⃗u1 = 1/√11 , ⃗u2 = 2/√6 , ⃗u3 = −4/√ 66
1/ 11 1/ 6 7/ 66
3
1 1 (9 + 1 + 1) 11
⃗u1 · ⃗u1 = √ 3 1 1 √ 1 = =
11 11 1 11 11
(1 + 4 + 1) 6
⃗u2 · ⃗u2 = = =1
6 6
(1 + 16 + 49) 66
⃗u3 · ⃗u3 = = =1
66 6
(−3 + 2 + 1)
⃗u1 · ⃗u2 = √ √ =0
11 6
(−3 − 4 + 7)
⃗u1 · ⃗u3 = √ √ =0
11 66
(1 − 8 + 7)
⃗u2 · ⃗u3 = √ √ =0
11 66
3
TEOREMA. Una matriz cuadrada An tiene columnas ortonormales si y solo si At A = I.
Demostración:
t Podemos escribir A = [ ⃗a1 ⃗a2 . . . ⃗an ] quedando por tanto At =
⃗a1
⃗at
2
..
.
⃗atn t
⃗a1 t t⃗
⃗a t ⃗
a 1 ⃗
a 1 . . . ⃗
a 1 an
Desarrollando At A obtenemos At A = . [ ⃗a1 ⃗a2 . . . ⃗an ] = ... ..
2 ..
. . .
. t t
⃗an⃗a1 . . . ⃗an⃗an
⃗atn
(
t 1 si i = j
La última expresión es igual a I si y solo si ⃗ai⃗aj = δij =
0 si i ̸= j
⃗ati ⃗aj es el producto escalar de ⃗ai y ⃗aj , por tanto At A = I si y sólo si las columnas de A
son vectores unitarios ortogonales entre sı́.
“⇐” AAt = I implica que el determinante de A es 1 o −1, con una demostración similar a la
anterior. Por tanto A invertible.
Premultiplicando AAt = I por A−1 por la izquierda y por A por la derecha queda: At A = I
Se dice que una matriz An dada es matriz ortogonal si cumple que AAt = At A =
I, o lo que es lo mismo, si su inversa coincide con su traspuesta, o lo que es lo mismo,
si sus columnas son base ortonormal de IR n .
Es importante recordar que la base debe ser ortonormal (el nombre “matriz ortogonal”
puede inducirnos a pensar, erróneamente, que bastarı́a con que los vectores fueran orto-
gonales entre sı́).
4
2 Subespacios ortogonales
5
3 Complemento ortogonal
El conjunto de todos los vectores ⃗z que son ortogonales a W se denomina complemento
ortogonal de W y se denota como W ⊥ .
W ⊥ = {⃗z ∈ IR n / ⃗z · w
⃗ = 0 ∀w
⃗ ∈ W}
0 L
1. W ⊥ es un subespacio de IR n
2. (W ⊥ )⊥ = W
L ⊥
3. W W = IR n
OBSERVACIÓN:
Todo subespacio W ⊂ IR n (salvo el {⃗0} y el propio IR n ) admite infinitos subespacios
complementarios, pero solo uno de ellos es complemento ortogonal.
Por ejemplo, en IR 3 cualquier recta pasando por el origen y no incluida en el plano XY es
subespacio complementario del subespacio formado por el plano XY , pero el complemento
ortogonal del plano XY es un subespacio único, que es la recta que define el eje Z.
6
Nótese en el ejemplo anterior que para obtener los vectores ortogonales a (a, b, c) en IR 3 hay
que resolver la ec. (a, b, c) · (x, y, z) = 0, es decir, la ec. lineal homogénea ax + by + cz = 0.
Es importante darse cuenta de que el “vector que aparece” en la ecuación, en este caso
(2, 3), es precisamente el ortogonal, y por tanto no perteneciente al subespacio que define
la ecuación.
Por ⊥
( ejemplo partiendo de W =< (1, 0, 0, 0), (2, 1, 0, 0) >, W son las soluciones del SLH
x1 = 0
.
2x1 + x2 = 0
1 2
0 1 ⊥ 1 0 0 0
B= ⇒ W = Nul( ) .
0 0 2 1 0 0
0 0
La matriz tiene rango 2, por tanto el SL tiene dos parámetros libres y la base de W ⊥
tendrá dos vectores. Un ejemplo de base de W ⊥ es C = {(0, 0, 1, 0), (0, 0, 0, 1)}.
Nótese que la base obtenida, puesta por filas, produce la matriz de coeficientes de la forma
implı́cita de W .
W = {(x1 , x2 , x3 , x4 ) ∈ IR 4 / x3 = 0 , x4 = 0}
1
Si (a, b, c) cumple la ecuación también la cumple todo múltiplo de (a, b, c)
7
Ejemplo 5. Sea B = {(3, 2, 2, 4), (1, 0, 0, 2), (1, −1, −1, 1)} una base de F , subespacio de
IR 4 . Halla una base del complemento ortogonal de F .
Sol:
Los vectores ortogonales a los dados serán los (x, y, z, t) que cumplan las siguientes ecua-
ciones:
(3, 2, 2, 4) · (x, y, z, t) = 0 3x + 2y + 2z + 4t = 0
(1, 0, 0, 2) · (x, y, z, t) = 0 ⊥
forma impl. de F : x + 2t = 0
(1, −1, −1, 1) · (x, y, z, t) = 0
x−y−z+t=0
Las 3 ecuaciones anteriores forman un SLH por lo que ya estamos viendo que F ⊥ es un
subespacio vectorial. Para obtener la base de F ⊥ hay que resolver el sistema.
3 2 2 4 |0 1 −1 −1 1 | 0 1 −1 −1 1 | 0
1 0 0 2 | 0 ∼ 1 0 0 2 | 0 ∼ 0 1 1 1 | 0
1 −1 −1 1 | 0 3 2 2 4 |0 0 5 5 1 |0
1 −1 −1 1 |0 1 0 0 2 |0
∼ 0 1 1 1 | 0 ∼ 0 1 1 1 | 0
0 0 0 −4 | 0 0 0 0 −4 | 0
Tenemos 3 ecuaciones, rango 3, y 4 incógnitas. Por tanto tenemos 4 − 3 = 1 parámetro
libre. Tomando z como parámetro libre deducimos:
−4t = 0 ⇒ t=0
y + z + t = 0 ⇒ y + z = 0 ⇒ y=–z
x = −2t ⇒ x=0
Ejemplo 6. Se consideran en IR 3 los subespacios W1 =< (1, 1, 0), (0, 3, 6) >, W2 =<
(1, 2, 1) > y W3 =< (7, 8, 5), (6, 3, 1), (1, 3, 6) >.
Halla una base de cada uno de los subespacios ortogonales correspondientes, W1⊥ , W2⊥ ,
W3⊥ .
Sol:
8
W1⊥ se expresarı́a como W1⊥ =< (2, −2, 1) >
NOTA: Se puede obtener W1⊥ =< ⃗n > , siendo ⃗n = (1, 1, 0) × (0, 3, 6) (producto vecto-
rial).
Sol:
Sol:
(
x + 4y + 8z = 0
W = {(x, y, z) / }
x−y+z =0
Las ecuaciones implı́citas expresan que los vectores (x, y, z) de W son a la vez ortogonales
al vector (1, 4, 8) y al vector (1, −1, 1), por tanto una base de W ⊥ es {(1, 4, 8), (1, −1, 1)}.
9
4 Descomposición ortogonal y proyección ortogonal
L ⊥
El resultado W W = IR n , significa que cada ⃗y ∈ IR n se puede escribir de forma única
como suma de un vector ⃗yˆ ∈ W y un vector ⃗z ∈ W ⊥
Esquemas en el espacio euclı́deo canónico IR 3 (Linear Algebra and its Applications, Lay,
Quinta edición. p. 350). Proyección ortogonal del vector ⃗y sobre el subespacio < W > de
dimensión 2:
10
Por otra parte, ⃗yˆ tiene la propiedad de ser el vector de W más cercano a ⃗y
∥ ⃗y − proyW ⃗y ∥ < ∥ ⃗y − ⃗v ∥ ∀⃗v ∈ W con ⃗v ̸= ⃗yˆ
OBSERVACIONES
• ∥ proyW ⃗y ∥ es la distancia de ⃗y a W ⊥ .
• Si ⃗y ∈ W , entonces proyW ⃗y = ⃗y
• Si ⃗y ∈ W ⊥ , entonces proyW ⃗y = ⃗0
11
5 Proyección ortogonal conocida una base ortogonal
TEOREMA. Sea W un subespacio de IR n , {⃗b1 , ⃗b2 , . . . , ⃗bd } una base ortogonal de W e
⃗y ∈ IR n . Entonces
⃗y · ⃗b1 ⃗ ⃗y · ⃗b2 ⃗ ⃗y · ⃗bd ⃗
proyW ⃗y = b1 + b2 + . . . + b [1a]
⃗b1 · ⃗b1 ⃗b2 · ⃗b2 ⃗bd · ⃗bd d
proyW ⃗y = (⃗y · ⃗u1 ) ⃗u1 + (⃗y · ⃗u2 ) ⃗u2 + . . . + (⃗y · ⃗ud ) ⃗ud [1b]
Para cálculos a mano se recomienda utilizar la fórmula [1a] ya que en la [1b] aparecerán
en general raı́ces cuadradas.
• La base {⃗u1 , ⃗u2 } de la figura ha de entenderse como una base ortogonal, no nece-
sariamente ortonormal. En efecto en la fórmula de la figura aparecen explı́citamente
los productos escalares ⃗ui · ⃗ui , que no serı́an necesarios si la base fuera ortonormal.
Para interpretar la figura de acuerdo con la notación usada en esta Sección, esta
base ortogonal serı́a la base B = {⃗b1 , ⃗b2 }.
12
Ejemplo 9. Considera en IR 2 los vectores ⃗y = (7, 6) y ⃗b = (2, 1). Encuentra la proyección
ortogonal de ⃗y sobre < ⃗b > y la distancia de ⃗y a la recta < ⃗b >.
Sol:
Calculamos en primer lugar un vector ⃗z1 ortogonal a ⃗b = (2, 1). Un ejemplo es ⃗z1 =
(1, −2).
Por tanto la proyección de (7, 6) sobre < (2, 1) > es el vector proy<⃗b> ⃗y = (8, 4)
13
6 Base ortogonal mediante Gram-Schmidt
⃗b1 = ⃗a1
⃗
⃗b2 = ⃗a2 − ⃗a2 · b1 ⃗b1
⃗b1 · ⃗b1
⃗ ⃗
⃗b3 = ⃗a3 − ⃗a3 · b1 ⃗b1 − ⃗a3 · b2 ⃗b2
⃗b1 · ⃗b1 ⃗b2 · ⃗b2
.
.
.
⃗ ⃗ ⃗
⃗bd = ⃗ad − ⃗ad · b1 ⃗b1 − ⃗ad · b2 ⃗b2 − . . . − ⃗ad · bd−1 ⃗bd−1 ,
⃗b1 · ⃗b1 ⃗b2 · ⃗b2 ⃗bd−1 · ⃗bd−1
Ejemplo 10. Sea W =< (0, 1, 1), (1, 1, 2) > un subespacio de IR 3 . Obtén una base orto-
gonal de este subespacio.
Sol.:
A partir de los vectores originales ⃗a1 = (0, 1, 1) y ⃗a2 = (1, 1, 2), que forman la base B,
construiremos la base B ′ = {⃗b1 , ⃗b2 }, siendo ⃗b1 y ⃗b2 vectores de W ortogonales entre sı́ .
Tomamos ⃗b1 = ⃗a1 y a continuación construimos ⃗b2 .
⃗b1 = ⃗a1
(
Por tanto, una base ortogonal de W es:
⃗b2 = ⃗a2 − proy ⃗ ⃗a2 = ⃗a2 − ⃗a2 .⃗b1 ⃗b1
<b1 > ⃗ ⃗ b1 .b1
⃗b1 = (0, 1, 1)
⃗b2 = (1, 1, 2)− (1, 1, 2) · (0, 1, 1) (0, 1, 1) = (1, 1, 2)−3/2(0, 1, 1) = (1, 1−3/2, 2−3/2) = (1, −1/2, 1/2)
(0, 1, 1) · (0, 1, 1)
Comprobamos que ⃗b1 y ⃗b2 forman una base ortogonal: (0, 1, 1) · (2, −1, 1) = 0 − 1 + 1 = 0
B ′ = {(0, 1, 1), (2, −1, 1)}
14
7 Ejercicios resueltos
Ejemplo 11. Supongamos dos clases de alimento, A y B, con las cantidades de vitamina
C, calcio y magnesio dadas en la tabla. Las cantidades corresponden a miligramos por
unidad de alimento.
A B
Vitamina C 1 1
Calcio 5 2
Magnesio 3 1
a) Demuestra que combinando las dos clases de alimentos no podemos obtener el siguiente
aporte exacto:
⃗v = (17 mg de vitamina C, 54 mg de calcio, 31 mg de magnesio)
b) Determina el aporte más cercano al aporte exacto que se podrı́a conseguir combinando
los dos alimentos.
Sol.:
a) Para determinar si el aporte (17, 54, 31) se puede obtener combinando x unidades de
alimento A con aporte (1, 5, 3) e y unidades de B con aporte (1, 2, 1) hay que resolver la
siguiente ecuación:
x(1, 5, 3) + y(1, 2, 1) = (17, 54, 31)
x + y = 17
1 1 | 17
Por tanto el SL: , con matriz ampliada A ∗ = 5 2 | 54
5x + 2y = 54
3 1 | 31
3x + y = 31
1 1 | 17 1 1 | 17 1 1 | 17 1 1 | 17
A∗ ∼ 0 −3 | −31 ∼ 0 −3 | −31 ∼ 0 1 | 10 ∼ 0 1 | 10
0 −2 | −20 0 1 | 10 0 −3 | −31 0 0 | −1
El SL es incompatible pues rgA=2 y rgA∗ =3
Esto significa que ⃗v no es combinación lineal de ⃗a = (1, 5, 3) y ⃗b = (1, 2, 1), o dicho de
otra forma, que ⃗v no pertenece al plano < ⃗a , ⃗b >.
b) El vector más cercano a ⃗v = (17, 54, 31) que se puede obtener combinando los alimentos
A y B será la proyección ortogonal de ⃗v sobre el subespacio generado por ⃗a y ⃗b. Por tanto
tenemos que obtener:
proyW ⃗v , siendo W =< ⃗a , ⃗b >
Obtendremos en primer lugar la proyección ortogonal sobre W ⊥ , por ser más sencillo
aplicar la fórmula sobre un subespacio de dimensión 1. Además la base de W que
conocemos no es ortogonal.
Tomamos W =< (1, 5, 3), (1, 2, 1) >, y nos falta el vector ⃗n = (n1 , n2 , n3 ) ∈ W ⊥ .
(
(1, 5, 3).(n1 , n2 , n3 ) = 0 n1 + 5n2 + 3n3 = 0
1 5 3 |0
1 5 3 |0
A∗ = ∼
(1, 2, 1).(n1 , n2 , n3 ) = 0 n1 + 2n2 + n3 = 0 1 2 1 |0 0 −3 −2 |0
1 5 3 |0 1 0 −10/3 + 3 |0 1 0 −1/3 |0
∼ ∼ ∼ ⇒ (1/3n3 , −2/3n3 , n3 )
0 1 2/3 |0 0 1 2/3 |0 0 1 2/3 |0
15
W ⊥ =< (1/3, −2/3, 1) > o más simple W ⊥ =< (1, −2, 3) >, ⃗n = (1, −2, 3).
1 1 1
⃗v .⃗n (17, 54, 31) · (1, −2, 3) (17 − 108 + 93) 1
proyW ⊥ ⃗v = ⃗n = −2 = −2 = −2
⃗n.⃗n 14 14 7
3 3 3
proyW ⃗v = ⃗v − proyW ⊥ ⃗v = (17, 54, 31) − 17 (1, −2, 3) = (118/7, 380/7, 214/7) =
2/7(59, 190, 107).
48 1
(17, 54, 31) = (1, 5, 3) + 10(1, 2, 1) + (1, −2, 3),
7 7
| {z } | {z }
proyW ⃗v proyW ⊥ ⃗v
Este procedimiento nos permite ver que el aporte más cercano posible se obtiene
tomando 48/7 unidades del alimento tipo A y 10 unidades del alimento tipo B.
16
Ejemplo 12. a) Demuestra que no es posible expresar el vector ⃗v = (15, 6, 4, −5) como
combinación lineal de los vectores del conjunto S = {(−1, 0, 0, 1), (4, 1, −1, −2)}.
b) Obtén los coeficientes de la combinación lineal de los vectores de S que dan el vector
más cercano a ⃗v .
Sol.:
−1 4 | 15
0 1 | 6
a)
0 −1 |
4
1 −2 | −5
Una forma de ver que el sistema es incompatible es sumar las ecuaciones 2 y 3, ya que se
obtiene una ecuación de la forma [ 0 0 | ̸= 0 ]
b) El vector de < S > más cercano a ⃗v es la proyección de ⃗v sobre < S >. Obtendremos
la proyección ⃗vˆ y las coordenadas (los coeficientes del enunciado) de esta respecto de la
base S, utilizando dos métodos distintos.
• Aplicando la fórmula de proyección, cuando se conoce base ortogonal del subespacio (Sección 5)
Los dos vectores de S forman base de < S >, pero esa base no es ortogonal. Apli-
camos Gram-Schmidt:
⃗b1 = (−1, 0, 0, 1),
Ya tenemos una base ortogonal en < S >, B ′ = {(−1, 0, 0, 1), (1, 1, −1, 1)}, y pode-
mos aplicar la fórmula de la Sección 5.
−1 1
(15, 6, 4, −5) · (−1, 0, 0, 1) 0 (15, 6, 4, −5) · (1, 1, −1, 1) 1
proy<S>⃗v = +
0
=
−1
2 4
1 1
−1 1 13
0 1 3
−10
0 + 3 −1 = −3
1 1 −7
Obtenemos ahora los coeficientes de la combinación lineal de los vectores de < S >,
que llamaremos ⃗a1 y ⃗a2 , que dan el vector más cercano a ⃗v . Para ello hay que
resolver el siguiente sistema:
−1 4 | 13 −1 4 | 13 −1 4 | 13 −1 0 | 1
0 1 | 3 0 1 | 3 0 1 | 3 0 1 | 3
0 −1 | −3 ∼ 0
∼ ∼
0 | 0 0 0 | 0 0 0 | 0
1 −2 | −7 0 2 | 6 0 0 | 0 0 0 | 0
(
c1 = −1
c2 = 3
17
• Método de descomposición ortogonal de ⃗v usando suma de subespacios ortogonales (Sección 4)
Para obtener una base del complemento ortogonal de < S >=< (−1, 0, 0, 1), (4, 1, −1,2) >
−1 0 0 1
tenemos que resolver el SL homogéneo con matriz de coeficientes
4 1 −1 −2
−1 0 0 1 |0 −1 0 0 1 |0 1 0 0 −1 |0
∼ ∼
4 1 −1 −2 |0 0 1 −1 2 |0 0 1 −1 2 |0
Y la base más sencilla de < S >⊥ es B = {(1, −2, 0, 1), (0, 1, 1, 0)}.
Puede resultar más claro modificar la forma paramétrica a (x, z − 2x, z, x), teniendo
en cuenta que t = x.
−1 4 0 1 | 15
0 1 1 −2 | 6
Resolviendo el sistema:
0 −1
, obtenemos la solución (−1, 3, 7, 2).
1 0 | 4
1 −2 0 1 | −5
| {z } | {z }
Base original de < S > Base de < S >⊥
1 −2
13
3
proy<S>⃗v =
−3
−7
18
8 Matriz de proyección ortogonal
Método 1
La proyección ortogonal de ⃗v ∈ IR n sobre W es un endomorfismo en IR n , con matriz
estándar asociada Aproy tal que
Aproy⃗v = ⃗vˆ Aproy es cuadrada de orden n.
Conocida una base B = {⃗b1 , ..., ⃗bd } de W , puede obtenerse Aproy mediante la siguiente
expresión2 :
Aproy = B(B t B)−1 B t [2a]
(también podrı́amos deducir de aquı́ que como el producto escalar es simétrico la matriz
B t B es simétrica.)
Esta última ecuación se puede presentar como Aproy = U U t , entendiéndose entonces que
U representa una base ortonormal de W .
La ventaja de las expresiones obtenidas es que sólo requieren calcular una base B de W .
En la expresión [2a] una base cualquiera y en la expresión [2b] una base ortonormal.
AproyW + AproyW⊥ = I
2
No presentamos su deducción
3
(M t M )t = M t (M t )t = M t M
19
Método 2: Obtención de Aproy a partir de su semejante diagonal
Este procedimiento se usó en el Tema 5 al estudiar la proyección ortogonal sobre una recta
en IR 2 y sobre un plano en IR 3 . Aquı́ lo extendemos a subespacios de IR n de cualquier
dimensión.
En primer lugar obtenemos, a partir de la base B del subespacio considerado W , una base
C de W ⊥ , resolviendo el SL B t ⃗x = ⃗0, o lo que es lo mismo, obteniendo una base de
Nul(B t ).
Ası́ tenemos ya una base de cada uno de los dos subespacios propios ortogonales entre sı́ :
Col(B) o < B > es el subespacio propio de autovalor 1, V1 .
V1 es W : los vectores de W se tranforman como f (⃗v ) = ⃗v .
Col(C) o < C > es el subespacio propio de autovalor 0, V0 .
V0 es W ⊥ . Los vectores de W ⊥ se transforman como f (⃗v ) = ⃗0
La matriz cuadrada P = [B C] = [ ⃗b1 ⃗b2 . . . ⃗bd ⃗bd+1 ⃗bd+2 . . . ⃗bn ], tiene como columnas
una base de IR n formada por los autovectores de la proyección ortogonal.
1 ... 0 0 ... 0
.. . . .
. . 0 0 . . . ..
−1
0 . . . 1 0 . . . 0 −1
Por tanto Aproy = P DP = P 0 . . . 0 0 . . . 0 P
.. .. .
. . 0 0 . . . ..
0 ... 0 0 ... 0
| {z } | {z }
Al ser los subespacios propios ortogonales, podemos obtener una matriz P , más ”avan-
zada”, cuyas columnas sean base ortonormal de autovectores, sin más que unir una base
ortonormal B de W y una base ortonormal C de W ⊥ . Podemos denotar esa matriz como
Q, que es la letra que se usa en general en Álgebra para denotar matrices ortogonales.
Q−1 = Qt , por tanto la matriz Aproy se obtendrı́a, usando Q, como:
Aproy = QDQt .
20
9 Diagonalización ortogonal de las matrices simétricas
En la Sección 2 enunciamos el siguiente TEOREMA: “A real es simétrica si y sólo si es
diagonalizable y todos sus subespacios propios son ortogonales entre sı́”.
Como a su vez, cada subespacio propio admite base ortonormal, tenemos el siguiente
resultado:
Por existir la matriz ortogonal Q tal que A = QDQ−1 se dice de A que es ‘ortogo-
nalmente diagonalizable’.
El teorema anterior y el resultado que acabamos de ver, para toda matriz A real y
simétrica de orden n, los podemos desglosar en las siguientes afirmaciones:
4
Está demostrado que los vectores de subespacios propios distintos son ortogonales entre sı́, pero dentro
de un mismo subespacio propio de dimensión mayor o igual que 2 debemos determinar una base ortogonal.
21
Ejemplo 13. Obtén la matriz de la proyección ortogonal en IR 3 sobre el plano W de
ecuación implı́cita x + y + z = 0.
Sol.:
Presentamos la solución mediante los dos procedimientos distintos que acabamos de pre-
sentar.
B = {(1, −1, 0), (1, 0, −1)} es base de W , pero no es base ortogonal. Vamos a buscar una
base ortonormal de W
Observa que la matriz es simétrica, como era de esperar. También puedes comprobar que es
idempotente. Además cumple que su determinante es 0 (tendrı́as que realizar los cálculos)
y su traza 2 (respectivamente producto y suma de sus autovalores).
22
10 Ejercicios
Ejercicio 1. Se considera el subespacio H = {(x, y, z, t) ∈ IR 4 /x − z − t = 0}
Ejercicio 2. Considerado en IR 4 el subespacio vectorial W =< (1, 0, −1, 0), (1, 1, 0, −1) >
y el vector ⃗v = (1, 0, 0, 13), se pide:
a) Una base de W ⊥ .
b) El vector v⃗1 ∈ W más cercano a ⃗v .
c) El vector v⃗2 ∈ W ⊥ más cercano a ⃗v .
d) La distancia de ⃗v a W (la expresión más simplificada posible).
Ejercicio ⃗
3. Obtén la solución de mı́nimos cuadrados del SL A⃗x = b, con A =
1 1
1 −1
y ⃗b = (8, 7, 3, −4).
−1 1
−1 −1
ˆ
La solución de mı́nimos cuadrados es la del sistema compatible determinado A⃗x = ⃗b,
ˆ
siendo ⃗b la proyección ortogonal de ⃗b sobre el subespacio generado por las columnas de A,
ColA.
⃗ˆb = proy ⃗b = A(At A)−1 At ⃗b
ColA
Por tanto A⃗x = A(At A)−1 At ⃗b
A(⃗x − (At A)−1 At⃗b) = ⃗0, sacando factor común A.
⃗x − (At A)−1 At⃗b = ⃗0 pues las columnas de A son l.i., y por tanto no existen soluciones
distintas de la trivial. por tanto:
⃗x = (At A)−1 At⃗b
Podemos reescribir la ec. como (At A)⃗x = At⃗b
Por tanto resolviendo el SL de matriz ampliada [ At A | At ⃗b ] obtendrı́amos, de la forma
más directa posible, la solución de mı́nimos cuadrados.
0 2 0
Ejercicio 4. Diagonaliza ortogonalmente la matriz A = 2 0 0, es decir, obtén Q
0 0 2
ortogonal y D diagonal tales que A = QDQt . Realiza la comprobación.
5 −4 −2
Ejercicio 5. Considera A = −4 5 2 , ⃗b1 = (−2, 2, 1) y ⃗b2 = (1, 1, 0). Comprueba
−2 2 2
⃗ ⃗
que b1 y b2 son autovectores de A y diagonaliza ortogonalmente A.
23
Ejercicio 6. a) Obtén la matriz
de proyección
sobre el subespacio W generado por las
1 1
1 −1
columnas de la matriz P = , utilizando la expresión Aproy = U U t siendo U
−1 1
−1 −1
una base ortonormal de W . b) Obtén la proyección ortogonal sobre W del vector ⃗b =
(8, 7, 3, −4), usando la matriz anterior. (Este ejercicio tiene relación con el Ejercicio 3).
11 Polinomio interpolador
Dado un conjunto de datos experimentales (xi , yi ) con i desde 1 hasta n y tales que xi ̸= xj
para i ̸= j, llamamos polinomio interpolador de esos datos al polinomio de menor grado
cuyo gráfico pasa por todos los puntos. En trabajos cientı́ficos un polinomio de este tipo
puede usarse, por ejemplo, para estimar valores entre puntos conocidos, y de ahı́ su nombre
de polinomio interpolador.
Veremos a continuación que dicho polinomio es único y que su grado es menor o igual que
n − 1.
El modelo de un polinomio de grado n − 1 es:
y = a0 + a1 x + a2 x2 + . . . + an−1 xn−1
La condición de que todos los puntos cumplan el modelo significa que se ha de cumplir el
siguiente sistema de ecuaciones:
a0 + a1 x1 + a2 x21 + . . . + an−1 xn−1
1 = y1
a + a x + a x2 + . . . + a
n−1
0 1 2 2 2 n−1 x2 = y2
,
...
a + a x + a x2 + . . . + a
n−1 = y
0 1 n 2 n n−1 xn n
x1 x1 2 . . . x1n−1
1
1 x2 x2 2 . . . x2n−1
con matriz de coeficientes A=
...
... ...
1 2
x3 xn . . . xn n−1
Esta matriz es la llamada matriz de Vandermonde de orden n, que tiene rango n si y solo
si xi ̸= xj para i ̸= j (visto en el Ejercicio 13 del Tema 2). Al ser cuadrada de orden n
y rango completo, el SL es compatible determinado. Por tanto obtendremos una solución
única (ao , a1 , a2 , . . . , an−1 ). El grado del polinomio lo determinará el mayor coeficiente no
nulo. En efecto, aunque el modelo que estamos usando es un polinomio de grado n − 1,
los polinomios de menor grado están incluidos en el modelo, y simplemente tienen los
coeficientes más altos nulos.
Por ejemplo si tenemos n = 3 y los tres puntos están alineados y con pendiente no nula
el polinomio interpolador que deduciremos será de orden 1 (recta), y si además de estar
alineados tienen pendiente nula, entonces el polinomio es de orden 0 (y = constante).
Si consideráramos un polinomio de grado t > n − 1, tendrı́amos una columna más por
cada grado que aumentamos, mientras que la matriz A sigue teniendo rango n, igual al
número de ecuaciones (=filas), por tanto el sistema pasa a ser indeterminado, con infinitos
polinomios de grado menor o igual que t que pasan por los puntos.
24
Ejemplo 14. Encuentra el polinomio interpolador para el conjunto de datos (x, y) si-
guiente:
En una serie de datos cientı́ficos (x, y), esperamos errores experimentales, por lo que
la relación verdadera entre las variables en general va a quedar mejor descrita por un
polinomio de grado más bajo que el del polinomio interpolador.
Ejemplo 15. Encuentra el mejor ajuste por mı́nimos cuadrados mediante una función
lineal para el conjunto de datos (x, y) siguiente:
25