0% encontró este documento útil (0 votos)
16 vistas24 páginas

Bases Ortonormales y Matrices Ortogonales

El documento aborda conceptos fundamentales sobre espacios vectoriales en IR n, centrándose en bases ortogonales y ortonormales, así como en matrices ortogonales. Se presentan teoremas que establecen la relación entre conjuntos ortogonales, bases y matrices, y se discuten ejemplos que ilustran estos conceptos. Además, se introduce el concepto de complemento ortogonal y se analizan propiedades de subespacios ortogonales.

Cargado por

kattycondori030
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
16 vistas24 páginas

Bases Ortonormales y Matrices Ortogonales

El documento aborda conceptos fundamentales sobre espacios vectoriales en IR n, centrándose en bases ortogonales y ortonormales, así como en matrices ortogonales. Se presentan teoremas que establecen la relación entre conjuntos ortogonales, bases y matrices, y se discuten ejemplos que ilustran estos conceptos. Además, se introduce el concepto de complemento ortogonal y se analizan propiedades de subespacios ortogonales.

Cargado por

kattycondori030
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

Consideramos el espacio vectorial IR n con el producto escalar canónico.

1 Bases ortogonales y ortonormales. Matriz ortogonal

Un conjunto de vectores S = {⃗v1 , ⃗v2 , . . . , ⃗vp } de IR n se dice que es un conjunto ortogonal


si cada par de vectores distintos del conjunto es ortogonal, es decir, si ⃗vi · ⃗vj = 0 ∀ i ̸= j.
Un conjunto de vectores S = {⃗v1 , ⃗v2 , . . . , ⃗vp } de IR n es un conjunto ortonormal si es un
conjunto ortogonal(de vectores unitarios.
1 si i = j
⃗vi · ⃗vj = δij =
0 si i ̸= j

TEOREMA. Si S = {⃗v1 , ⃗v2 , . . . , ⃗vp } es un conjunto ortogonal de vectores no nulos de


IR n , entonces S es un conjunto linealmente independiente y por tanto es una base del
subespacio generado por S.

Una base ortogonal de un subespacio W de IR n es una base de W que es además conjunto


ortogonal.
Una base ortonormal de un subespacio W de IR n , es una base de W que es además
conjunto ortonormal.

TEOREMA. De cualquier subespacio W de IR n se puede obtener una base ortogonal, y


mediante normalización de sus vectores, una base ortonormal. La excepción es obviamente
el subespacio cero.

TEOREMA. La base canónica de IR n es base ortonormal.

2
Ejemplo 1. Muestra que {⃗v1 , ⃗v2 , ⃗v3 } es un conjunto ortogonal de IR 3 , siendo
     
3 −1 −1
⃗v1 =  1 , ⃗v2 =  2  , ⃗v3 = −4
1 1 7

Consideremos los tres posibles pares de vectores distintos, a saber {⃗v1 , ⃗v2 },{⃗v1 , ⃗v3 } y {⃗v2 , ⃗v3 }.
⃗v1 · ⃗v2 = 3(−1) + 1(2) + 1(1) = 0
⃗v1 · ⃗v3 = 3(−1/2) + 1(−2) + 1(7/2) = 0
⃗v2 · ⃗v3 = −1(−1/2) + 2(−2) + 1(7/2) = 0

Cada par de vectores distintos es ortogonal, por tanto {⃗v1 , ⃗v2 , ⃗v3 } es un conjunto ortogonal.

Ejemplo 2. Muestra que {⃗u1 , ⃗u2 , ⃗u3 } es una base ortonormal de IR 3 , siendo:
 √   √   √ 
3/√11 −1/√ 6 −1/√66
⃗u1 =  1/√11 , ⃗u2 =  2/√6  , ⃗u3 = −4/√ 66
1/ 11 1/ 6 7/ 66

 
3
1   1 (9 + 1 + 1) 11
⃗u1 · ⃗u1 = √ 3 1 1 √ 1 = =
11 11 1 11 11

(1 + 4 + 1) 6
⃗u2 · ⃗u2 = = =1
6 6

(1 + 16 + 49) 66
⃗u3 · ⃗u3 = = =1
66 6

(−3 + 2 + 1)
⃗u1 · ⃗u2 = √ √ =0
11 6

(−3 − 4 + 7)
⃗u1 · ⃗u3 = √ √ =0
11 66

(1 − 8 + 7)
⃗u2 · ⃗u3 = √ √ =0
11 66

El conjunto {⃗u1 , ⃗u2 , ⃗u3 } es un conjunto ortonormal, luego es linealmente independiente, y


añadido que tiene rango 3, resulta ser base de IR 3 . Por ser un conjunto ortonormal es
una base ortonormal.
Cuando los vectores de un conjunto ortogonal se “normalizan” para tener longitud unidad,
el nuevo conjunto sigue siendo ortogonal, y por tanto, al tener longitud unidad, forma un
conjunto ortonormal.
Estos son de hecho los mismos vectores del ejemplo anterior, que como habı́amos compro-
bado son ortogonales, pero ahora normalizados.

3
TEOREMA. Una matriz cuadrada An tiene columnas ortonormales si y solo si At A = I.

Demostración:
 t Podemos escribir A = [ ⃗a1 ⃗a2 . . . ⃗an ] quedando por tanto At =
⃗a1
⃗at 
 2
 .. 
.
⃗atn  t
⃗a1  t t⃗

⃗a  t ⃗
a 1 ⃗
a 1 . . . ⃗
a 1 an
Desarrollando At A obtenemos At A =  .  [ ⃗a1 ⃗a2 . . . ⃗an ] =  ... .. 
 2  ..
. . . 
. t t
⃗an⃗a1 . . . ⃗an⃗an
⃗atn
(
t 1 si i = j
La última expresión es igual a I si y solo si ⃗ai⃗aj = δij =
0 si i ̸= j

⃗ati ⃗aj es el producto escalar de ⃗ai y ⃗aj , por tanto At A = I si y sólo si las columnas de A
son vectores unitarios ortogonales entre sı́.

TEOREMA. Dada An , At A = I si y sólo si AAt = I.

Demostración: “⇒” At A = I implica que el determinante de A es 1 o −1, en efecto:


At A = I ⇒ |At ||A| = 1 ⇒ |A|2 = 1 ⇒ |A| es 1 o −1
|A| distinto de cero, por tanto A es invertible.
Premultiplicando At A = I por A por la izquierda y por A−1 por la derecha queda: AAt = I

“⇐” AAt = I implica que el determinante de A es 1 o −1, con una demostración similar a la
anterior. Por tanto A invertible.
Premultiplicando AAt = I por A−1 por la izquierda y por A por la derecha queda: At A = I

Se dice que una matriz An dada es matriz ortogonal si cumple que AAt = At A =
I, o lo que es lo mismo, si su inversa coincide con su traspuesta, o lo que es lo mismo,
si sus columnas son base ortonormal de IR n .

Es importante recordar que la base debe ser ortonormal (el nombre “matriz ortogonal”
puede inducirnos a pensar, erróneamente, que bastarı́a con que los vectores fueran orto-
gonales entre sı́).

Resultados sobre matrices ortogonales:


• Si A es ortogonal también lo es At , por tanto las filas de A también son base ortonor-
mal de IR n .
• Las matrices ortogonales tienen determinante 1 o −1.

AAt = I ⇒ |A||At | = 1 ⇒ |A|2 = 1


• El producto de matrices ortogonales es ortogonal.
Lo comprobamos para A y B ortogonales.
(A B)t A B = B t At A B = B t I B = B t B = I

A las aplicaciones o transformaciones lineales de IR n en IR n cuya matriz estándar asociada


es ortogonal las denominamos aplicaciones o transformaciones ortogonales.

4
2 Subespacios ortogonales

Se dice que ⃗z es ortogonal a un subespacio W de IR n si ⃗z es ortogonal a todo vector


⃗ ∈ W.
w

TEOREMA. ⃗z es ortogonal al subespacio W de IR n si y sólo si ⃗z es ortogonal a una base


de W .

Se dice que el subespacio H es ortogonal a W si ∀⃗z ∈ H, ⃗z es ortogonal a W .

TEOREMA. H es ortogonal al subespacio W de IR n si y sólo si los vectores de una base


de H son ortogonales a los de una base de W .

Si H es ortogonal a W , W es a su vez ortogonal a H (por la simetrı́a del producto escalar),


y se dice de W y H que son subespacios de IR n ortogonales entre sı́.

Ejemplo 3. Considera en IR 3 las rectas r =< (1, a, 2) > y


s =< (1, −2, 0) >. Determina el o los valores de a tales que r y s sean subespacios
ortogonales.
Sol: Las bases de r y s son respectivamente {(1, a, 2)} y {(1, −2, 0)}.
El producto escalar de los dos vectores es 1 − 2a, por tanto las rectas son ortogonales si y
sólo si a = 1/2.
La recta r es la siguiente: < (1, 1/2, 2) >.

TEOREMA. La suma de dos subespacios H y W ortogonales entre sı́ es suma directa.


En efecto todo par de vectores ⃗z, w
⃗ no nulos, cada uno perteneneciente a un subespacio,
es un conjunto linealmente independiente, por ser los vectores ortogonales entre sı́, y ello
garantiza que la suma es directa.

En relación con el Tema 5 “Autovalores, autovectores y diagonalización” se tiene el


siguiente resultado:

TEOREMA. A real es simétrica ⇔ es diagonalizable y todos sus subespacios propios son


ortogonales entre sı́.
Las matrices estándar A de las simetrı́as ortogonales en IR 2 y en IR 3 respecto de rectas o
planos respectivamente, son simétricas porque estos endomorfismos son diagonalizables y
los subespacios propios son ortogonales entre sı́. Lo mismo sucede con las matrices estándar
A de las proyecciones ortogonales en IR 2 o IR 3 sobre rectas o planos respectivamente.

5
3 Complemento ortogonal
El conjunto de todos los vectores ⃗z que son ortogonales a W se denomina complemento
ortogonal de W y se denota como W ⊥ .
W ⊥ = {⃗z ∈ IR n / ⃗z · w
⃗ = 0 ∀w
⃗ ∈ W}

Ejemplo 4. Consideremos en IR 3 el subespacio W identificado con un plano que contiene


el origen y el subespacio L identificado con la recta que pasa por el origen y perpendicular
al plano anterior. Se tiene entonces que ∀⃗z ∈ L y ∀w ⃗ ∈ W , ⃗z · w
⃗ = 0. Ver la figura.
En efecto, L está formado por todos los vectores que son ortogonales a los w ⃗ de W y
recı́procamente W está formado por todos los vectores ortogonales a los ⃗z de L. Es decir,
L = W ⊥ y W = L⊥

0 L

Tomemos por ejemplo el caso de W =< (1, 0, 0), (0, 1, 0) >.


Los vectores ortogonales a W serán los (x, y, z) ∈ IR 3 ortogonales a la base de W , es decir,
tales(que: (
(x, y, z) · (1, 0, 0) = 0 x=0
⇒ Por tanto W ⊥ =< (0, 0, 1) >
(x, y, z) · (0, 1, 0) = 0 y=0

TEOREMA. Se cumplen los siguientes resultados sobre W ⊥ , siendo W un subespacio


del espacio euclı́deo IR n .

1. W ⊥ es un subespacio de IR n

2. (W ⊥ )⊥ = W
L ⊥
3. W W = IR n

OBSERVACIÓN:
Todo subespacio W ⊂ IR n (salvo el {⃗0} y el propio IR n ) admite infinitos subespacios
complementarios, pero solo uno de ellos es complemento ortogonal.
Por ejemplo, en IR 3 cualquier recta pasando por el origen y no incluida en el plano XY es
subespacio complementario del subespacio formado por el plano XY , pero el complemento
ortogonal del plano XY es un subespacio único, que es la recta que define el eje Z.

6
Nótese en el ejemplo anterior que para obtener los vectores ortogonales a (a, b, c) en IR 3 hay
que resolver la ec. (a, b, c) · (x, y, z) = 0, es decir, la ec. lineal homogénea ax + by + cz = 0.

ax+by+cz = 0 es la forma implı́cita de un subespacio bidimensional F de IR 3 . Dicha forma


expresa que los vectores (x, y, z) de F y los vectores < (a, b, c) >1 son ortogonales entre
sı́, y que por tanto F y < (a, b, c) > son complementos ortogonales. F ⊥ =< (a, b, c) >.

Complemento ortogonal de un subespacio W dado en implı́citas: A⃗x = ⃗0

De forma más general, para un subespacio W de dimensión d de IR n , su forma implı́cita


A n−d , n ⃗x = ⃗0 expresa que los ⃗x ∈ W — que son las soluciones y por tanto NulA — son
ortogonales a las filas de A.

La base de W la forman las d soluciones independientes del SLH, o lo que es lo mismo la


base de NulA.

La base de W ⊥ la forman las filas de A.

Por ejemplo, para el subespacio W = {(x, y) ∈ IR 2 / 2x + 3y = 0}

B = {(−3, 2)} es base de W , porque (−3, 2) es solución de la ecuación implı́cita.

C = {(2, 3)} es base de W ⊥ .

Es importante darse cuenta de que el “vector que aparece” en la ecuación, en este caso
(2, 3), es precisamente el ortogonal, y por tanto no perteneciente al subespacio que define
la ecuación.

Complemento ortogonal de un subespacio W con base B conocida

Si partimos de un subespacio W de dimensión d del cual conocemos una base B =


{⃗b1 , . . . , ⃗bd }, tomando B = [ ⃗b1 ⃗b2 . . . ⃗bd ] se tiene que la base de W ⊥ son las soluciones
independientes del SLH B t ⃗x = ⃗0, o lo que es lo mismo la base de Nul(B t ).

Por ⊥
( ejemplo partiendo de W =< (1, 0, 0, 0), (2, 1, 0, 0) >, W son las soluciones del SLH
x1 = 0
.
2x1 + x2 = 0
 
1 2  
0 1 ⊥ 1 0 0 0
B=   ⇒ W = Nul( ) .
0 0 2 1 0 0
0 0
La matriz tiene rango 2, por tanto el SL tiene dos parámetros libres y la base de W ⊥
tendrá dos vectores. Un ejemplo de base de W ⊥ es C = {(0, 0, 1, 0), (0, 0, 0, 1)}.

Nótese que la base obtenida, puesta por filas, produce la matriz de coeficientes de la forma
implı́cita de W .
W = {(x1 , x2 , x3 , x4 ) ∈ IR 4 / x3 = 0 , x4 = 0}
1
Si (a, b, c) cumple la ecuación también la cumple todo múltiplo de (a, b, c)

7
Ejemplo 5. Sea B = {(3, 2, 2, 4), (1, 0, 0, 2), (1, −1, −1, 1)} una base de F , subespacio de
IR 4 . Halla una base del complemento ortogonal de F .

Sol:

Los vectores ortogonales a los dados serán los (x, y, z, t) que cumplan las siguientes ecua-
ciones:

(3, 2, 2, 4) · (x, y, z, t) = 0 3x + 2y + 2z + 4t = 0

(1, 0, 0, 2) · (x, y, z, t) = 0 ⊥
forma impl. de F : x + 2t = 0
(1, −1, −1, 1) · (x, y, z, t) = 0 

x−y−z+t=0
Las 3 ecuaciones anteriores forman un SLH por lo que ya estamos viendo que F ⊥ es un
subespacio vectorial. Para obtener la base de F ⊥ hay que resolver el sistema.
     
3 2 2 4 |0 1 −1 −1 1 | 0 1 −1 −1 1 | 0
1 0 0 2 | 0 ∼ 1 0 0 2 | 0 ∼ 0 1 1 1 | 0
1 −1 −1 1 | 0 3 2 2 4 |0 0 5 5 1 |0
   
1 −1 −1 1 |0 1 0 0 2 |0
∼ 0 1 1 1 | 0 ∼ 0 1 1 1 | 0
0 0 0 −4 | 0 0 0 0 −4 | 0
Tenemos 3 ecuaciones, rango 3, y 4 incógnitas. Por tanto tenemos 4 − 3 = 1 parámetro
libre. Tomando z como parámetro libre deducimos:
−4t = 0 ⇒ t=0
y + z + t = 0 ⇒ y + z = 0 ⇒ y=–z
x = −2t ⇒ x=0

El vector solución es de la forma (x, y, z, t) = (0, −z, z, 0) ∀z ∈ IR


El conjunto de vectores ortogonales a los tres dados es un subespacio vectorial de dimensión
1. Una posible base es: {(0, 1, −1, 0)}

Nótese que 0x1 + x2 − x3 + 0x4 = 0, o lo que es lo mismo, x2 − x3 = 0 es la ecuación


implı́cita de F .

Ejemplo 6. Se consideran en IR 3 los subespacios W1 =< (1, 1, 0), (0, 3, 6) >, W2 =<
(1, 2, 1) > y W3 =< (7, 8, 5), (6, 3, 1), (1, 3, 6) >.
Halla una base de cada uno de los subespacios ortogonales correspondientes, W1⊥ , W2⊥ ,
W3⊥ .

Sol:

a) W1⊥ = (x, y, z) ∈ IR 3 /(x, y, z) es ortogonal a (1,1,0) y a (0,3,6)


(x, y, z) · (1, 1, 0) = x + y = 0
(x, y, z) · (0, 3, 6) = 3y + 6z = 0
   
1 1 0 |0 1 1 0 |0
Tenemos dos ecuaciones y tres incógnitas. ∼ ∼
0 3 6 |0 0 1 2 |0
 
1 0 −2 | 0
El sistema se encuentra ya en la forma escalonada reducida.
0 1 2 |0
Tomamos z como parámetro libre. x = 2z y = −2z z=z
El vector solución es de la forma (x, y, z) = (2z, −2z, z) ∀z ∈ IR
El conjunto de vectores ortogonales a los dos dados es un subespacio vectorial de dimensión
1. Una posible base es {(2, −2, 1)}

8
W1⊥ se expresarı́a como W1⊥ =< (2, −2, 1) >
NOTA: Se puede obtener W1⊥ =< ⃗n > , siendo ⃗n = (1, 1, 0) × (0, 3, 6) (producto vecto-
rial).

b) W2⊥ = (x, y, z) ∈ IR 3 /(x, y, z) es ortogonal a (1,2,1)


(x, y, z) · (1, 2, 1) = x + 2y + z = 0
La última ecuación es la ecuación implı́cita de W2⊥
Tenemos una sola ecuación y tres incógnitas, por tanto dos parámetros libres. Dejando
como parámetros libres y y z tendremos
x + 2y + z = 0 ⇒ x = −2y − z y = y, z = z
El vector solución en forma paramétrica es (x, y, z) = (−2y − z, y, z) ∀y ∈ IR ∀z ∈ IR
El conjunto de vectores ortogonales al dado es un subespacio vectorial de dimensión 2.
Una posible base es: {(−2, 1, 0), (−1, 0, 1)}.
W2⊥ =< (−2, 1, 0), (−1, 0, 1) >

c) W3⊥ = (x, y, z) ∈ IR 3 /(x, y, z) es ortogonal a (7,8,5), (6,3,1) y (1,3,6)


 
1 3 6 |0 1 3 6
A = 6 3 1 | 0 , 6 3 1 = 100
7 8 5 |0 7 8 5
detA ̸= 0, por tanto tenemos un sistema de Cramer, con solución única, y como el sistema
es homogéneo, la solución única es la trivial.
Por tanto W3⊥ = {(0, 0, 0)}.
W3 representa todo el espacio IR 3 , por lo que era de esperar que W3⊥ = {⃗0}.
Habı́amos visto anteriormente como ⃗0 es ortogonal a todos los vectores.

Ejemplo 7. Se considera el subespacio W de IR 3 dado por 2x + y − z = 0. Determina


una base de W ⊥ .

Sol:

Podemos interpretar la ecuación 2x + y − z = 0 como la expresión del producto escalar de


dos vectores, igualado a cero, siendo los vectores (2, 1, −1) y (x, y, z). Los vectores (x, y, z)
contenidos en el plano que representa el subespacio vectorial W de IR 3 son los vectores
ortogonales al vector (2, 1, −1), y obviamente a los múltiplos de éste.
En efecto si (2, 1, −1) · (x, y, z) = 0 , entonces λ(2, 1, −1) · (x, y, z) = 0
Por tanto W⊥ =< (2, 1, −1) >, y una posible base B = {(2, 1, −1)}

Ejemplo 8. Se considera el (espacio euclı́deo canónico IR 3 y el subespacio W dado por la


x + 4y + 8z = 0
forma implı́cita siguiente: . Determina una base de W ⊥ .
x−y+z =0

Sol:
(
x + 4y + 8z = 0
W = {(x, y, z) / }
x−y+z =0

Las ecuaciones implı́citas expresan que los vectores (x, y, z) de W son a la vez ortogonales
al vector (1, 4, 8) y al vector (1, −1, 1), por tanto una base de W ⊥ es {(1, 4, 8), (1, −1, 1)}.

9
4 Descomposición ortogonal y proyección ortogonal
L ⊥
El resultado W W = IR n , significa que cada ⃗y ∈ IR n se puede escribir de forma única
como suma de un vector ⃗yˆ ∈ W y un vector ⃗z ∈ W ⊥

⃗y = ⃗yˆ + ⃗z con ⃗yˆ ∈ W y ⃗z ∈ W ⊥

⃗yˆ es la proyección ortogonal de ⃗y sobre W , que denotamos también como proy W ⃗y

También se puede dar esta definición equivalente: La proyección ortogonal de ⃗y sobre W


es el vector ⃗yˆ ∈ W tal que ⃗y − ⃗yˆ ∈ W ⊥

¿ Cómo obtener proyW ⃗y ?

W = IR n podemos obtener una base de IR n B = {⃗b1 , ⃗b2 , . . . , ⃗bd , ⃗bd+1 , . . . , ⃗bn },


L ⊥
Ya que W
con {⃗b1 , ⃗b2 , . . . , ⃗bd } base de W y {⃗bd+1 , . . . , ⃗bn } base de W ⊥ .
Entonces ⃗y = c1⃗b1 + c2⃗b2 + . . . + cd⃗bd + cd+1⃗bd+1 + . . . + cn⃗bn
| {z } | {z }
proyW ⃗y ∈ W ⃗z ∈ W ⊥

con proyW ⃗y = c1⃗b1 + c2⃗b2 + . . . + cd⃗bd ∈ W y


⃗z = cd+1⃗bd+1 + . . . + cn⃗bn ∈ W ⊥
Una vez obtenidas las coordenadas c1 , c2 , ... cn , que son únicas (las coordenadas respecto
de una base dada son únicas), podremos determinar el vector único proyW ⃗y ∈ W y el
vector único ⃗z ∈ W ⊥ tales que ⃗y = proyW ⃗y + ⃗z.

Esquemas en el espacio euclı́deo canónico IR 3 (Linear Algebra and its Applications, Lay,
Quinta edición. p. 350). Proyección ortogonal del vector ⃗y sobre el subespacio < W > de
dimensión 2:

10
Por otra parte, ⃗yˆ tiene la propiedad de ser el vector de W más cercano a ⃗y
∥ ⃗y − proyW ⃗y ∥ < ∥ ⃗y − ⃗v ∥ ∀⃗v ∈ W con ⃗v ̸= ⃗yˆ

Decimos entonces que dado ⃗y ∈ IR n , la mejor aproximación de ⃗y que puedo obtener


mediante un vector de W , subespacio de IR n , es proyW ⃗y

¿En qué sentido es mejor aproximación?. En el sentido de menor distancia.

La distancia de ⃗y ∈ IR n al subespacio W se define como la distancia desde ⃗y al punto


más cercano de W . Dicho de otra forma, la distancia de ⃗y a W es igual a ∥ ⃗y − proyW ⃗y ∥
= ∥ ⃗z ∥

OBSERVACIONES

• ⃗z = proyW ⊥ ⃗y , es decir, ⃗z es la proyección ortogonal de ⃗y sobre W ⊥ .

• ∥ proyW ⃗y ∥ es la distancia de ⃗y a W ⊥ .

• Si ⃗y ∈ W , entonces proyW ⃗y = ⃗y

• Si ⃗y ∈ W ⊥ , entonces proyW ⃗y = ⃗0

En temas anteriores hemos estudiado proyecciones ortogonales en IR 2 y en IR 3 , deter-


minando a partir de las caracterı́sticas de la transformación cuál era la matriz asociada
referida a la “base natural” de la transformación, o base de autovectores de la transfor-
mación, y cual era la matriz estándar asociada, obtenida mediante los cambios de base.
Con procedimientos similares pudimos obtener la matriz asociada a la simetrı́a ortogonal.
A partir de las matrices resultaba sencillo obtener la proyección ortogonal o el simétrico
de cualquier vector.
En este tema estudiamos la proyección ortogonal a partir de la descomposición ortogonal
y extendemos el concepto de proyección ortogonal al espacio vectorial IR n .

11
5 Proyección ortogonal conocida una base ortogonal
TEOREMA. Sea W un subespacio de IR n , {⃗b1 , ⃗b2 , . . . , ⃗bd } una base ortogonal de W e
⃗y ∈ IR n . Entonces
⃗y · ⃗b1 ⃗ ⃗y · ⃗b2 ⃗ ⃗y · ⃗bd ⃗
proyW ⃗y = b1 + b2 + . . . + b [1a]
⃗b1 · ⃗b1 ⃗b2 · ⃗b2 ⃗bd · ⃗bd d

Cada sumando corresponde a la proyección ortogonal sobre un subespacio unidimen-


sional < ⃗bi >. Por tanto la proyección ortogonal de ⃗y sobre < ⃗b1 , ⃗b2 , . . . , ⃗bd >, siendo
{⃗b1 , ⃗b2 , . . . , ⃗bd } una base ortogonal, es igual a la suma de las d proyecciones ortogona-
les sobre subespacios unidimensionales, mutuamente ortogonales, en las direcciones de
⃗b1 , ⃗b2 , . . . , ⃗bd .

• Si la base {⃗u1 , ⃗u2 , . . . , ⃗ud } es ortonormal la expresión [1a] queda cómo:

proyW ⃗y = (⃗y · ⃗u1 ) ⃗u1 + (⃗y · ⃗u2 ) ⃗u2 + . . . + (⃗y · ⃗ud ) ⃗ud [1b]

Para cálculos a mano se recomienda utilizar la fórmula [1a] ya que en la [1b] aparecerán
en general raı́ces cuadradas.

Se muestra un esquema en IR 3 de la proyección sobre un subespacio W de dimensión 2


genérico del que conocemos una base ortogonal B genérica. (Lay, Linear Algebra and its
Applications. Quinta edición, p. 351).

De acuerdo con la notación que usamos en esta sección, ha de tenerse en cuenta:

• La base {⃗u1 , ⃗u2 } de la figura ha de entenderse como una base ortogonal, no nece-
sariamente ortonormal. En efecto en la fórmula de la figura aparecen explı́citamente
los productos escalares ⃗ui · ⃗ui , que no serı́an necesarios si la base fuera ortonormal.
Para interpretar la figura de acuerdo con la notación usada en esta Sección, esta
base ortogonal serı́a la base B = {⃗b1 , ⃗b2 }.

12
Ejemplo 9. Considera en IR 2 los vectores ⃗y = (7, 6) y ⃗b = (2, 1). Encuentra la proyección
ortogonal de ⃗y sobre < ⃗b > y la distancia de ⃗y a la recta < ⃗b >.

Sol:

• Puesto que se proyecta sobre un subespacio de dimensión 1, su base puede considerarse


base ortogonal.
⃗y .⃗b ⃗
proy<⃗b> ⃗y = b
⃗b.⃗b
(7, 6).(2, 1) 20
proy<⃗b> ⃗y = (2, 1) = (2, 1) = 4(2, 1) = (8, 4)
(2, 1).(2, 1) 5

• La distancia de ⃗y a < ⃗b > es igual a la norma de ⃗z = ⃗y − proy<⃗b> ⃗y = (7, 6) − (8, 4) =


(−1, 2)
p √
d = (−1)2 + 22 = 5

OBSERVACIÓN: Este procedimiento es el más sencillo, pero proy<⃗b> ⃗y se podrı́a haber


obtenido con otros métodos.

• Mediante el procedimiento visto en la Sección 4:

Calculamos en primer lugar un vector ⃗z1 ortogonal a ⃗b = (2, 1). Un ejemplo es ⃗z1 =
(1, −2).

Considerada la base B = {⃗b, ⃗z1 }, con un vector en la dirección de ⃗b y otro en la dirección


ortogonal ⃗z1 , se calculan las coordenadas de (7, 6) respecto a esta base, resultando ser
(4, −1), es decir:
(7, 6) = 4(2, 1) + −1(1, −2) = (8, 4) + (−1, 2)
| {z } | {z }
∈< ⃗b > ∈< ⃗z1 >

Por tanto la proyección de (7, 6) sobre < (2, 1) > es el vector proy<⃗b> ⃗y = (8, 4)

• A partir de la matriz asociada a la aplicación lineal vista en temas anteriores (matriz


de la proyección ortogonal en IR 2 ), usando la base anterior:
    
2 1 1 0 2 1 −1
A= ( ) = ...
1 −2 0 0 1 −2
 
7
proy<⃗b> ⃗y = A
6

13
6 Base ortogonal mediante Gram-Schmidt

El algoritmo de Gram-Schmidt permite obtener una base ortogonal de cualquier subespacio


de IR n a partir de una base dada.

TEOREMA. Teorema de la Ortogonalización de Gram-Schmidt

Dada una base {⃗a1 , . . . , ⃗ad } de un subespacio W de IR n , y definidos:

⃗b1 = ⃗a1


⃗b2 = ⃗a2 − ⃗a2 · b1 ⃗b1
⃗b1 · ⃗b1
⃗ ⃗
⃗b3 = ⃗a3 − ⃗a3 · b1 ⃗b1 − ⃗a3 · b2 ⃗b2
⃗b1 · ⃗b1 ⃗b2 · ⃗b2
.
.
.

⃗ ⃗ ⃗
⃗bd = ⃗ad − ⃗ad · b1 ⃗b1 − ⃗ad · b2 ⃗b2 − . . . − ⃗ad · bd−1 ⃗bd−1 ,
⃗b1 · ⃗b1 ⃗b2 · ⃗b2 ⃗bd−1 · ⃗bd−1

{⃗b1 , . . . , ⃗bd } resulta ser una base ortogonal de W . Además,


< ⃗b1 , . . . , ⃗bk >=< ⃗a1 , . . . , ⃗ak >, para 1 ≤ k ≤ d

Ejemplo 10. Sea W =< (0, 1, 1), (1, 1, 2) > un subespacio de IR 3 . Obtén una base orto-
gonal de este subespacio.
Sol.:
A partir de los vectores originales ⃗a1 = (0, 1, 1) y ⃗a2 = (1, 1, 2), que forman la base B,
construiremos la base B ′ = {⃗b1 , ⃗b2 }, siendo ⃗b1 y ⃗b2 vectores de W ortogonales entre sı́ .
Tomamos ⃗b1 = ⃗a1 y a continuación construimos ⃗b2 .

Consideremos el vector proy<⃗b1 > ⃗a2 ,


⃗b2 = ⃗a2 − proy ⃗ ⃗a2 es ortogonal a ⃗b1 y pertenece a W , pués es combinación lineal de
<b1 >
⃗b1 y ⃗a2 .

⃗b1 = ⃗a1
(
Por tanto, una base ortogonal de W es:
⃗b2 = ⃗a2 − proy ⃗ ⃗a2 = ⃗a2 − ⃗a2 .⃗b1 ⃗b1
<b1 > ⃗ ⃗ b1 .b1

⃗b1 = (0, 1, 1)

⃗b2 = (1, 1, 2)− (1, 1, 2) · (0, 1, 1) (0, 1, 1) = (1, 1, 2)−3/2(0, 1, 1) = (1, 1−3/2, 2−3/2) = (1, −1/2, 1/2)
(0, 1, 1) · (0, 1, 1)

Podemos tomar ⃗b2 = (2, −1, 1) para evitar fracciones.

Comprobamos que ⃗b1 y ⃗b2 forman una base ortogonal: (0, 1, 1) · (2, −1, 1) = 0 − 1 + 1 = 0
B ′ = {(0, 1, 1), (2, −1, 1)}

14
7 Ejercicios resueltos
Ejemplo 11. Supongamos dos clases de alimento, A y B, con las cantidades de vitamina
C, calcio y magnesio dadas en la tabla. Las cantidades corresponden a miligramos por
unidad de alimento.
A B
Vitamina C 1 1
Calcio 5 2
Magnesio 3 1
a) Demuestra que combinando las dos clases de alimentos no podemos obtener el siguiente
aporte exacto:
⃗v = (17 mg de vitamina C, 54 mg de calcio, 31 mg de magnesio)
b) Determina el aporte más cercano al aporte exacto que se podrı́a conseguir combinando
los dos alimentos.
Sol.:

a) Para determinar si el aporte (17, 54, 31) se puede obtener combinando x unidades de
alimento A con aporte (1, 5, 3) e y unidades de B con aporte (1, 2, 1) hay que resolver la
siguiente ecuación:
x(1, 5, 3) + y(1, 2, 1) = (17, 54, 31)

x + y = 17
 
 1 1 | 17
Por tanto el SL: , con matriz ampliada A ∗ = 5 2 | 54
5x + 2y = 54
3 1 | 31

3x + y = 31

       
1 1 | 17 1 1 | 17 1 1 | 17 1 1 | 17
A∗ ∼ 0 −3 | −31 ∼ 0 −3 | −31 ∼ 0 1 | 10 ∼ 0 1 | 10
0 −2 | −20 0 1 | 10 0 −3 | −31 0 0 | −1
El SL es incompatible pues rgA=2 y rgA∗ =3
Esto significa que ⃗v no es combinación lineal de ⃗a = (1, 5, 3) y ⃗b = (1, 2, 1), o dicho de
otra forma, que ⃗v no pertenece al plano < ⃗a , ⃗b >.

b) El vector más cercano a ⃗v = (17, 54, 31) que se puede obtener combinando los alimentos
A y B será la proyección ortogonal de ⃗v sobre el subespacio generado por ⃗a y ⃗b. Por tanto
tenemos que obtener:
proyW ⃗v , siendo W =< ⃗a , ⃗b >

• Procedimiento según la Sección 5:

Obtendremos en primer lugar la proyección ortogonal sobre W ⊥ , por ser más sencillo
aplicar la fórmula sobre un subespacio de dimensión 1. Además la base de W que
conocemos no es ortogonal.

Tomamos W =< (1, 5, 3), (1, 2, 1) >, y nos falta el vector ⃗n = (n1 , n2 , n3 ) ∈ W ⊥ .
(
(1, 5, 3).(n1 , n2 , n3 ) = 0 n1 + 5n2 + 3n3 = 0

1 5 3 |0
 
1 5 3 |0

A∗ = ∼
(1, 2, 1).(n1 , n2 , n3 ) = 0 n1 + 2n2 + n3 = 0 1 2 1 |0 0 −3 −2 |0
     
1 5 3 |0 1 0 −10/3 + 3 |0 1 0 −1/3 |0
∼ ∼ ∼ ⇒ (1/3n3 , −2/3n3 , n3 )
0 1 2/3 |0 0 1 2/3 |0 0 1 2/3 |0

15
W ⊥ =< (1/3, −2/3, 1) > o más simple W ⊥ =< (1, −2, 3) >, ⃗n = (1, −2, 3).

Este vector también se podrı́a haber obtenido mediante el producto vectorial.

La proyección de ⃗v sobre la recta < ⃗n >= W ⊥ es:

     
1 1 1
⃗v .⃗n (17, 54, 31) · (1, −2, 3)   (17 − 108 + 93)   1  
proyW ⊥ ⃗v = ⃗n = −2 = −2 = −2
⃗n.⃗n 14 14 7
3 3 3

proyW ⃗v = ⃗v − proyW ⊥ ⃗v = (17, 54, 31) − 17 (1, −2, 3) = (118/7, 380/7, 214/7) =
2/7(59, 190, 107).

La expresión decimal es proyW ⃗v = (16.8571, 54.2857, 30.5714)

• Procedimiento según la Sección 4 (suma de subespacios ortogonales):

En el procedimiento anterior ya se presentó la obtención de la base de W ⊥ , {⃗n =


(1, −2, 3)}.
Expresando (17,54,31) como combinación lineal de los vectores de la base completa
de IR 3 B = {(1, 5, 3), (1, 2, 1), (1, −2, 3)} obtenemos:

48 1
(17, 54, 31) = (1, 5, 3) + 10(1, 2, 1) + (1, −2, 3),
7 7
| {z } | {z }
proyW ⃗v proyW ⊥ ⃗v

sin más que resolver el SL [ ⃗a ⃗b ⃗n | ⃗v ], y tras encontrar que dicha solución es


(48/7, 10, 1/7).

proyW ⃗v = 48/7(1, 5, 3) + 10(1, 2, 1) = (118/7, 380/7, 214/7) es el aporte más cercano


posible.

Este procedimiento nos permite ver que el aporte más cercano posible se obtiene
tomando 48/7 unidades del alimento tipo A y 10 unidades del alimento tipo B.

16
Ejemplo 12. a) Demuestra que no es posible expresar el vector ⃗v = (15, 6, 4, −5) como
combinación lineal de los vectores del conjunto S = {(−1, 0, 0, 1), (4, 1, −1, −2)}.
b) Obtén los coeficientes de la combinación lineal de los vectores de S que dan el vector
más cercano a ⃗v .
Sol.:  
−1 4 | 15
 0 1 | 6
a) 
 0 −1 |

4
1 −2 | −5
Una forma de ver que el sistema es incompatible es sumar las ecuaciones 2 y 3, ya que se
obtiene una ecuación de la forma [ 0 0 | ̸= 0 ]
b) El vector de < S > más cercano a ⃗v es la proyección de ⃗v sobre < S >. Obtendremos
la proyección ⃗vˆ y las coordenadas (los coeficientes del enunciado) de esta respecto de la
base S, utilizando dos métodos distintos.
• Aplicando la fórmula de proyección, cuando se conoce base ortogonal del subespacio (Sección 5)

Los dos vectores de S forman base de < S >, pero esa base no es ortogonal. Apli-
camos Gram-Schmidt:
⃗b1 = (−1, 0, 0, 1),

⃗b2 = (4, 1, −1, −2) − (4, 1, −1, −2) · (−1, 0, 0, 1) (−1, 0, 0, 1) =


2
−6
(4, 1, −1, −2) − (−1, 0, 0, 1) = (4, 1, −1, −2) + 3(−1, 0, 0, 1) = (1, 1, −1, 1)
2

Ya tenemos una base ortogonal en < S >, B ′ = {(−1, 0, 0, 1), (1, 1, −1, 1)}, y pode-
mos aplicar la fórmula de la Sección 5.
   
−1 1
(15, 6, 4, −5) · (−1, 0, 0, 1)  0  (15, 6, 4, −5) · (1, 1, −1, 1)  1 
proy<S>⃗v =  +
 0
 =
−1
2 4
1 1
     
−1 1 13
 0  1  3 
−10 
 0  + 3 −1 =  −3 
    

1 1 −7

Obtenemos ahora los coeficientes de la combinación lineal de los vectores de < S >,
que llamaremos ⃗a1 y ⃗a2 , que dan el vector más cercano a ⃗v . Para ello hay que
resolver el siguiente sistema:
       
−1 4 | 13 −1 4 | 13 −1 4 | 13 −1 0 | 1
 0 1 | 3   0 1 | 3  0 1 | 3  0 1 | 3
 0 −1 | −3  ∼  0
   ∼ ∼ 
0 | 0  0 0 | 0  0 0 | 0
1 −2 | −7 0 2 | 6 0 0 | 0 0 0 | 0
(
c1 = −1
c2 = 3

17
• Método de descomposición ortogonal de ⃗v usando suma de subespacios ortogonales (Sección 4)

Para obtener una base del complemento ortogonal de < S >=< (−1, 0, 0, 1), (4, 1, −1,2) >
−1 0 0 1
tenemos que resolver el SL homogéneo con matriz de coeficientes
4 1 −1 −2
     
−1 0 0 1 |0 −1 0 0 1 |0 1 0 0 −1 |0
∼ ∼
4 1 −1 −2 |0 0 1 −1 2 |0 0 1 −1 2 |0

La solución general en forma paramétrica, tomando como parámetros z y t es:


(t, z − 2t, z, t)

Y la base más sencilla de < S >⊥ es B = {(1, −2, 0, 1), (0, 1, 1, 0)}.

Puede resultar más claro modificar la forma paramétrica a (x, z − 2x, z, x), teniendo
en cuenta que t = x.

 
−1 4 0 1 | 15
 0 1 1 −2 | 6
Resolviendo el sistema: 
 0 −1
, obtenemos la solución (−1, 3, 7, 2).
1 0 | 4
1 −2 0 1 | −5
| {z } | {z }
Base original de < S > Base de < S >⊥

Los coeficientes buscados son −1 y 3 , ya que


   
−1 4
 0  1
proy<S>⃗v = −1 
 0  + 3 −1 es el vector de < S > más cercano a ⃗v
  

1 −2
 
13
 3
proy<S>⃗v =  
 −3 
−7

18
8 Matriz de proyección ortogonal
Método 1
La proyección ortogonal de ⃗v ∈ IR n sobre W es un endomorfismo en IR n , con matriz
estándar asociada Aproy tal que
Aproy⃗v = ⃗vˆ Aproy es cuadrada de orden n.
Conocida una base B = {⃗b1 , ..., ⃗bd } de W , puede obtenerse Aproy mediante la siguiente
expresión2 :
Aproy = B(B t B)−1 B t [2a]

Es obvio que la matriz B t B es simétrica3 . Esta matriz es invertible debido a la condición


de que las columnas de B sean linealmente independientes2 .

Desarrollamos seguidamente el producto B t B:


⃗ t  ⃗ ⃗ ⃗b1 · ⃗b2 . . . ⃗b1 · ⃗bd 
b1 b1 · b1
⃗bt  h i ⃗b2 · ⃗b1 ⃗b2 · ⃗b2 . . . ⃗b2 · ⃗bd 
 2
B t B =  .  ⃗b1 ⃗b2 . . . ⃗bd = .
 
.  .. .. .. 
. n×d ... . . 
⃗bt ⃗bd · ⃗b1 ⃗bd · ⃗b2 . . . ⃗bd · ⃗bd
d d×n

(también podrı́amos deducir de aquı́ que como el producto escalar es simétrico la matriz
B t B es simétrica.)

En el desarrollo de B t B vemos de forma inmediata que si la base B es ortogonal B t B es


una matriz diagonal, y que si la base es ortonormal B t B = Id .

En este último caso la matriz de proyección queda: Aproy = BB t [2b] .

Esta última ecuación se puede presentar como Aproy = U U t , entendiéndose entonces que
U representa una base ortonormal de W .

Se puede demostrar fácilmente, utilizando la expresión [2a] o la [2b], que la matriz es


simétrica e idempotente. La última propiedad significa que A2proy = Aproy .

La ventaja de las expresiones obtenidas es que sólo requieren calcular una base B de W .
En la expresión [2a] una base cualquiera y en la expresión [2b] una base ortonormal.

Señalamos también el siguiente resultado:

AproyW + AproyW⊥ = I

2
No presentamos su deducción
3
(M t M )t = M t (M t )t = M t M

19
Método 2: Obtención de Aproy a partir de su semejante diagonal
Este procedimiento se usó en el Tema 5 al estudiar la proyección ortogonal sobre una recta
en IR 2 y sobre un plano en IR 3 . Aquı́ lo extendemos a subespacios de IR n de cualquier
dimensión.
En primer lugar obtenemos, a partir de la base B del subespacio considerado W , una base
C de W ⊥ , resolviendo el SL B t ⃗x = ⃗0, o lo que es lo mismo, obteniendo una base de
Nul(B t ).

Ası́ tenemos ya una base de cada uno de los dos subespacios propios ortogonales entre sı́ :
Col(B) o < B > es el subespacio propio de autovalor 1, V1 .
V1 es W : los vectores de W se tranforman como f (⃗v ) = ⃗v .
Col(C) o < C > es el subespacio propio de autovalor 0, V0 .
V0 es W ⊥ . Los vectores de W ⊥ se transforman como f (⃗v ) = ⃗0
La matriz cuadrada P = [B C] = [ ⃗b1 ⃗b2 . . . ⃗bd ⃗bd+1 ⃗bd+2 . . . ⃗bn ], tiene como columnas
una base de IR n formada por los autovectores de la proyección ortogonal.
 
1 ... 0 0 ... 0
 .. . . .
. . 0 0 . . . .. 
 
−1
0 . . . 1 0 . . . 0 −1
Por tanto Aproy = P DP = P  0 . . . 0 0 . . . 0 P

 
 .. .. .
 . . 0 0 . . . .. 
0 ... 0 0 ... 0
| {z } | {z }

Al ser los subespacios propios ortogonales, podemos obtener una matriz P , más ”avan-
zada”, cuyas columnas sean base ortonormal de autovectores, sin más que unir una base
ortonormal B de W y una base ortonormal C de W ⊥ . Podemos denotar esa matriz como
Q, que es la letra que se usa en general en Álgebra para denotar matrices ortogonales.
Q−1 = Qt , por tanto la matriz Aproy se obtendrı́a, usando Q, como:
Aproy = QDQt .

Este procedimiento requiere determinar la base del complemento ortogonal de W si que-


remos obtener P . Si queremos obtener Q debemos obtener bases ortogonales, dentro de
los dos subespacios propios, y normalizarlas.

Relación entre las ecuaciones [1b] y [2b]


 t  
⃗u1 ⃗u1 · ⃗v
⃗ut  ⃗u2 · ⃗v 
 2
U U t⃗v = [ ⃗u1 ⃗u2 . . . ⃗ud ]n×d  .  ⃗vn×1 = [ ⃗u1 ⃗u2 . . . ⃗ud ]n×d  .  =
 
 ..   .. 
⃗utd d×n
⃗ud · ⃗v d×1
 
⃗v · ⃗u1
⃗v · ⃗u2 
[ ⃗u1 ⃗u2 . . . ⃗ud ]n×d  .  = ⃗v · ⃗u1 ⃗u1 + ⃗v · ⃗u2 ⃗u2 + ... + ⃗v · ⃗ud ⃗ud
 
 .. 
⃗v · ⃗ud d×1

20
9 Diagonalización ortogonal de las matrices simétricas
En la Sección 2 enunciamos el siguiente TEOREMA: “A real es simétrica si y sólo si es
diagonalizable y todos sus subespacios propios son ortogonales entre sı́”.

Como a su vez, cada subespacio propio admite base ortonormal, tenemos el siguiente
resultado:

• Si A es una matriz real, cuadrada y simétrica, entonces existen Q ortogonal y D


diagonal tales que A = QDQ−1 . D es la matriz de autovalores, y Q tiene por
columnas una base de autovectores que es además base ortonormal, en el orden de
sus correspondientes autovalores en D.

Teniendo en cuenta que Q−1 = Qt , podemos expresar la factorización anterior en la


forma A = QDQt .

Por existir la matriz ortogonal Q tal que A = QDQ−1 se dice de A que es ‘ortogo-
nalmente diagonalizable’.

El teorema anterior y el resultado que acabamos de ver, para toda matriz A real y
simétrica de orden n, los podemos desglosar en las siguientes afirmaciones:

1. La ecuación caracterı́stica de A tiene n raı́ces reales contando multiplicidades,


por tanto n autovalores reales contando multiplicidades.
2. La dimensión de los subespacios propios es igual a la multiplicidad algebraica
de los correspondientes autovalores.
3. Los subespacios propios correspondientes a autovalores distintos son ortogonales
entre sı́ respecto del producto escalar canónico en IR n .
4. Obteniendo para cada subespacio propio una base ortogonal4 , y uniendo estas
bases, lograremos una base ortogonal de IR n formada por autovectores de A.
Dividiendo cada vector por su norma obtendremos una base ortonormal.
A = QDQ−1 = QDQt con Q = [ ⃗u1 . . . ⃗un ] siendo { ⃗u1 . . . ⃗un } una
n
base ortonormal de IR formada por autovectores de A.

• Se demuestra fácilmente que se cumple el resultado recı́proco, o lo que es lo mismo,


la implicación inversa del teorema anterior: A ortogonalmente diagonalizable implica
A simétrica. En efecto, considerando A = QDQt y tomando traspuestas obtenemos
At = (QDQt )t = QDQt = A.

TEOREMA. A es simétrica si y sólo si A es ortogonalmente diagonalizable.

4
Está demostrado que los vectores de subespacios propios distintos son ortogonales entre sı́, pero dentro
de un mismo subespacio propio de dimensión mayor o igual que 2 debemos determinar una base ortogonal.

21
Ejemplo 13. Obtén la matriz de la proyección ortogonal en IR 3 sobre el plano W de
ecuación implı́cita x + y + z = 0.
Sol.:
Presentamos la solución mediante los dos procedimientos distintos que acabamos de pre-
sentar.

Método 1. Utilizando la sencilla expresión [2b], Aproy = U U t , con U base ortonormal de


W.
(U es una designación habitual en Álgebra para matrices cuyas columnas son ortonor-
males).

B = {(1, −1, 0), (1, 0, −1)} es base de W , pero no es base ortogonal. Vamos a buscar una
base ortonormal de W

Aplicamos Gram-Schmidt tomando ⃗b1 = (1, −1, 0)

(1, 0, −1) · (1, −1, 0) 1


(1, 0, −1) − (1, −1, 0) = (1, 0, −1) − (1, −1, 0) = (1/2, 1/2, −1)
2 2
Tomamos ⃗b2 = (1, 1, −2)
√ √
La base U = {(1, −1, 0)/ 2, (1, 1, −2)/ 6} es base ortonormal de W .
 1
√1

√ " 1 #  2/3 −1/3 −1/3
2 6 √ − √1 0
Aproy = − √12 √1  2 2 = −1/3 2/3 −1/3

6 √1 √1 − √2
2 −1/3 −1/3 2/3
0 − √6 6 6 6

Método 2. Solución mediante diagonalización ortogonal.


Aproy = QDQt
Las dos primeras columnas de Q son los vectores de U obtenidos
p arriba. La tercera columna
es el vector normal al plano, normalizado: ⃗u3 = (1, 1, 1)/ (3).
 1 t 
√1 √1   √1 √1 √1

√ 
2 6 3 1 0 0 2 6 3 2/3 −1/3 −1/3
Aproy = − √12 √1 √1  0 1 0  − √2
1 √1 √1  = −1/3 2/3 −1/3

6 3 6 3
2 1 0 0 0 2 1 −1/3 −1/3 2/3
0 −√ √
6 3
0 −√ √
6 3

Observa que la matriz es simétrica, como era de esperar. También puedes comprobar que es
idempotente. Además cumple que su determinante es 0 (tendrı́as que realizar los cálculos)
y su traza 2 (respectivamente producto y suma de sus autovalores).

Esta es la misma matriz que la obtenida en el Ejercicio 4.6.

22
10 Ejercicios
Ejercicio 1. Se considera el subespacio H = {(x, y, z, t) ∈ IR 4 /x − z − t = 0}

a) Calcula una base ortonormal de H.


b) Calcula una base ortonormal de H ⊥ .
c) Calcula la proyección ortogonal del vector ⃗v = (1, 0, 1, 1) sobre H.
d) Calcula la distancia de ⃗v a H.

Ejercicio 2. Considerado en IR 4 el subespacio vectorial W =< (1, 0, −1, 0), (1, 1, 0, −1) >
y el vector ⃗v = (1, 0, 0, 13), se pide:

a) Una base de W ⊥ .
b) El vector v⃗1 ∈ W más cercano a ⃗v .
c) El vector v⃗2 ∈ W ⊥ más cercano a ⃗v .
d) La distancia de ⃗v a W (la expresión más simplificada posible).

Ejercicio ⃗
  3. Obtén la solución de mı́nimos cuadrados del SL A⃗x = b, con A =
1 1
 1 −1
  y ⃗b = (8, 7, 3, −4).
−1 1
−1 −1
ˆ
La solución de mı́nimos cuadrados es la del sistema compatible determinado A⃗x = ⃗b,
ˆ
siendo ⃗b la proyección ortogonal de ⃗b sobre el subespacio generado por las columnas de A,
ColA.
⃗ˆb = proy ⃗b = A(At A)−1 At ⃗b
ColA
Por tanto A⃗x = A(At A)−1 At ⃗b
A(⃗x − (At A)−1 At⃗b) = ⃗0, sacando factor común A.
⃗x − (At A)−1 At⃗b = ⃗0 pues las columnas de A son l.i., y por tanto no existen soluciones
distintas de la trivial. por tanto:
⃗x = (At A)−1 At⃗b
Podemos reescribir la ec. como (At A)⃗x = At⃗b
Por tanto resolviendo el SL de matriz ampliada [ At A | At ⃗b ] obtendrı́amos, de la forma
más directa posible, la solución de mı́nimos cuadrados.
 
0 2 0
Ejercicio 4. Diagonaliza ortogonalmente la matriz A = 2 0 0, es decir, obtén Q
0 0 2
ortogonal y D diagonal tales que A = QDQt . Realiza la comprobación.
 
5 −4 −2
Ejercicio 5. Considera A = −4 5 2 , ⃗b1 = (−2, 2, 1) y ⃗b2 = (1, 1, 0). Comprueba
−2 2 2
⃗ ⃗
que b1 y b2 son autovectores de A y diagonaliza ortogonalmente A.

23
Ejercicio 6. a) Obtén la matriz
 de proyección
 sobre el subespacio W generado por las
1 1
 1 −1
columnas de la matriz P =  , utilizando la expresión Aproy = U U t siendo U
−1 1
−1 −1
una base ortonormal de W . b) Obtén la proyección ortogonal sobre W del vector ⃗b =
(8, 7, 3, −4), usando la matriz anterior. (Este ejercicio tiene relación con el Ejercicio 3).

11 Polinomio interpolador
Dado un conjunto de datos experimentales (xi , yi ) con i desde 1 hasta n y tales que xi ̸= xj
para i ̸= j, llamamos polinomio interpolador de esos datos al polinomio de menor grado
cuyo gráfico pasa por todos los puntos. En trabajos cientı́ficos un polinomio de este tipo
puede usarse, por ejemplo, para estimar valores entre puntos conocidos, y de ahı́ su nombre
de polinomio interpolador.
Veremos a continuación que dicho polinomio es único y que su grado es menor o igual que
n − 1.
El modelo de un polinomio de grado n − 1 es:
y = a0 + a1 x + a2 x2 + . . . + an−1 xn−1

La condición de que todos los puntos cumplan el modelo significa que se ha de cumplir el
siguiente sistema de ecuaciones:



 a0 + a1 x1 + a2 x21 + . . . + an−1 xn−1
1 = y1
a + a x + a x2 + . . . + a
 n−1
0 1 2 2 2 n−1 x2 = y2
,


 ...
a + a x + a x2 + . . . + a
 n−1 = y
0 1 n 2 n n−1 xn n

x1 x1 2 . . . x1n−1
 
1
1 x2 x2 2 . . . x2n−1 
con matriz de coeficientes A=
...

... ... 
1 2
x3 xn . . . xn n−1

Esta matriz es la llamada matriz de Vandermonde de orden n, que tiene rango n si y solo
si xi ̸= xj para i ̸= j (visto en el Ejercicio 13 del Tema 2). Al ser cuadrada de orden n
y rango completo, el SL es compatible determinado. Por tanto obtendremos una solución
única (ao , a1 , a2 , . . . , an−1 ). El grado del polinomio lo determinará el mayor coeficiente no
nulo. En efecto, aunque el modelo que estamos usando es un polinomio de grado n − 1,
los polinomios de menor grado están incluidos en el modelo, y simplemente tienen los
coeficientes más altos nulos.
Por ejemplo si tenemos n = 3 y los tres puntos están alineados y con pendiente no nula
el polinomio interpolador que deduciremos será de orden 1 (recta), y si además de estar
alineados tienen pendiente nula, entonces el polinomio es de orden 0 (y = constante).
Si consideráramos un polinomio de grado t > n − 1, tendrı́amos una columna más por
cada grado que aumentamos, mientras que la matriz A sigue teniendo rango n, igual al
número de ecuaciones (=filas), por tanto el sistema pasa a ser indeterminado, con infinitos
polinomios de grado menor o igual que t que pasan por los puntos.

24
Ejemplo 14. Encuentra el polinomio interpolador para el conjunto de datos (x, y) si-
guiente:

(0,1), (3,4), (6,5)

Método de solución: Resolver el SL A⃗a = ⃗y , siendo


A la matriz de Vandermonde para la primera variable ⃗x = (0, 3, 6)
⃗y = (1, 4, 5) los valores de la segunda variable.
⃗a = (a0 , a1 , a2 ) los coeficientes del polinomio de grado 2, que son las incógnitas.

12 Ajuste de datos (x, y) mediante polinomios

En una serie de datos cientı́ficos (x, y), esperamos errores experimentales, por lo que
la relación verdadera entre las variables en general va a quedar mejor descrita por un
polinomio de grado más bajo que el del polinomio interpolador.

Se describe a continuación como se obtienen las modelizaciones o ajustes, mediante mı́nimos


cuadrados, con un polinomio de grado p < n, siendo n el número de datos.

Modelo polinomio de grado p: y = a0 + a1 x + a2 x2 + . . . + ap xp

Datos: (x1 , y1 ), (x2 , y2 ), ..., (xn , yn ) con xi ̸= xj ∀i ̸= j

Si el conjunto de valores yi cumpliera el modelo, el siguiente SL serı́a compatible.





 a0 + a1 x1 + a2 (x1 )2 + ... + ap (x1 )p = y1
a + a x + a (x )2 + ... + a (x )p = y

0 1 2 2 2 p 2 2


 ...
a + a x + a (x )2 + ... + a (x )p = y

0 1 n 2 n p n n

Sistema en notación matricial:


x1 2 ... (x1 )p
     
1 x1 a0 y1
1 x2 x2 2 ... (x2 )p  a1   y2 
..   ..  =  .. 
     
 .. ..
. . . . ... . .  . .
1 xn xn 2 ... (xn )p ap yn
| {z }
A
Si el conjunto de puntos no cumple el modelo, la solución de mı́nimos cuadrados, es decir,
el vector de coeficientes del polinomio de grado p que mejor ajusta los datos, se obtiene
resolviendo el sistema At A ⃗a = At ⃗y (Ver la justificación en el enunciado del ejercicio 3.
La condición de que las columnas de A sean independientes se cumple por haber tomado
todos los xi distintos).

Ejemplo 15. Encuentra el mejor ajuste por mı́nimos cuadrados mediante una función
lineal para el conjunto de datos (x, y) siguiente:

(0,1), (3,4), (6,5)

25

También podría gustarte