0% encontró este documento útil (0 votos)
33 vistas17 páginas

Examen de Álgebra Lineal - Julio 2018

Cargado por

98xwgdtv57
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
33 vistas17 páginas

Examen de Álgebra Lineal - Julio 2018

Cargado por

98xwgdtv57
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

ÁLGEBRA LINEAL-Examen Convocatoria Julio (4-07-2018)

1. a) Cuánto vale el determinante de una matriz ortogonal, definida positiva. Justificar la


respuesta. (1pto.)

b) Deducir cuánto vale ( A ⋅ B ) , siendo A y B matrices regulares.


−1
(0.5 ptos.)

Solución:
a) Por ser A ortogonal verifica A t = A −1 y si además es definida positiva, entonces A es
también simétrica, por lo que se tendrá que: A t = A −1 = A  tomando determinantes y
teniendo en cuenta que el determinante de la inversa de una matriz A es igual al inverso del
−1 1 2
determinante de A, se cumplirá: A = A = A A =  A = 1  A = ±1. Éstos
t

A
serán los posibles valores de una matriz ortogonal y simétrica. Pero si además la matriz debe ser
definida positiva cumplirá el criterio de Sylvester, es decir, todos sus menores principales serán
positivos. En particular A > 0  el único valor posible del determinante de una matriz

ortogonal definida positiva será A =1.


b) Si A y B son dos matrices regulares, entonces A ⋅ B también es regular, por verificarse:

(A ⋅ B )
−1
A ⋅ B = A ⋅ B ≠ 0 y además se cumple = B−1 ⋅ A −1 . En efecto, si hacemos el
producto: A ⋅ B ⋅ B−1 ⋅ A −1 = A ⋅ A −1 = I y haciendo el producto en el otro orden se obtiene
I
−1 −1
también: B ⋅ A ⋅ A⋅ B = I. Entonces, como la inversa de una matriz es única, queda probado
I

(A ⋅ B )
−1
que = B −1 ⋅ A −1 .

 x −x − y 
2. Sea U el conjunto de matrices reales de la forma   y V el conjunto de
0 y 
v 0 
matrices reales de la forma  .
 w −v 

a)Calcula una base de U ∩ V y sus ecuaciones paramétricas e implícitas. (1.5 ptos.)

b)Hallar los subespacios suplementarios de U + V . (1.5 ptos.)


Solución:

a) Sabemos que U ∩ V = {A ∈ E 2x 2 ( R ) / A ∈ U y A ∈ V} , entonces si A ∈ V será de la


v 0 
forma: A =   y para que pertenezca también a U, debe cumplirse w=0. La otra
 w −v 
v 0  1 0 
condición: 0 = − v − ( − v ) se cumple ∀ v  A ∈ U ∩ V ⇔ A =   = v ⋅ 
 0 −v   0 −1 

1
 1 0  
U ∩ V = Span     U ∩ V es un subespacio de dimensión uno, siendo su base la
 0 −1 
1 0 
matriz  .
 0 −1 
Las ecuaciones parámetricas de U ∩ V , respecto a esta base son, las siguientes:
a11 = λ1
a = 0
a a  
A =  11 12  ∈ U ∩ V ⇔  12 ∀ λ1 ∈R. .
a a
 21 22  a 21 = 0
a 22 = −λ1

Y sus tres ecuaciones cartesianas, que se obtienen eliminando el parámetro λ1 son:


a11 + a 22 = 0

a12 = 0 siendo a11 , a12 ,a 21 ,a 22 las coordenadas referidas a la base usual de E 2x2 ( ) .
a = 0
 21
b) Como nos piden hallar los subespacios suplementarios de U+V, vamos a empezar
obteniendo una base de este subespacio. Para ello tenemos en cuenta que se cumple la relación:
dim(U + V) = dim(U) + dim(V) − dim(U ∩ V) . Pero como U es el conjunto de matrices de la
 x −x − y    1 −1  0 −1 
forma    U = Span  U1 =   , U2 =    , siendo U1 y U2 linealmente
0 y   0 0   0 1  
x = 0
independientes, ya que si hacemos: x ⋅ U1 + y ⋅ U 2 = (0)    dim(U) = 2. Y como V es
y = 0
v 0   1 0   0 0  
el conjunto de las matrices de la forma    V = Span V1 =  0 −1 , V2 =  1 0   ,
 w −v       
siendo V1 y V2 también linealmente independientes, ya que si hacemos:
v = 0
v ⋅ V1 + w ⋅ V2 = (0)    dim(V) = 2  dim(U + V) = 2 + 2 − 1 = 3  un sistema
w = 0
generador de U+V estará formado por las cuatro matrices { U1, U2, V1, V2} y para obtener una
base nos quedaremos con tres que sean linealmente independientes. Pero se ve claramente que
la matriz V1 ∈ U ∩ V ya que V1 = U1 − U 2  una base de U+V es la formada por las tres
  1 −1  0 −1  0 0  
matrices:  U1 =   , U2 =   , V2 =    . Entonces, los subespacios W
 0 0  0 1   1 0  
suplementarios de U+V serán aquellos que su suma sea el espacio total, siendo su intersección
la matriz nula. Esto implica que tales subespacios W deben tener dimensión uno, es decir, serán
 a11 a12  
de la forma: W = Span    , pero como su intersección con U+V debe ser la matriz
 a 21 a 22  
  1 −1  0 −1  0 0   a11 a12  
nula, las 4 matrices  U1 =   , U2 =   , V2 =  ,   tienen que ser
 0 0  0 1   1 0   a 21 a 22  
linealmente independientes. Formando la matriz que tenga por columnas las coordenadas de las
4 matrices en la base usual de E 2x2 ( ) , tal matriz debe tener rango 4, es decir, su determinante

2
1 0 0 a11
1 0 a11
−1 −1 0 a12
debe ser no nulo: 0 ≠ = −1 −1 a12 = −a 22 − a11 − a12 . Es decir, los
0 0 1 a 21
0 1 a 22
0 1 0 a 22
subespacios suplementarios a U+V son todos aquellos generados por matrices de la forma
 a11 a12 
  verificando la condición: a 22 + a11 + a12 ≠ 0 , ∀ a 21 ∈ R .
 a 21 a 22 

3. Sea la aplicación lineal

T: 2 → E 2x 2 ( )
 1 −1   a b  .
a + b ⋅ x + c ⋅ x 2 
→ ⋅ 
2 1  c a
a) Hallar sin usar la expresión matricial de la aplicación lineal, las bases, dimensión y
ecuaciones de los subespacios núcleo e imagen. Clasificar T y decir cuál es su rango.
(2.75 ptos.)

b) Hallar la matriz de la aplicación lineal en las bases canónicas de 2 y E2x2 ( ) .

A continuación, hallar la matriz de la aplicación lineal en las bases


 2 0   1 0   0 −1  0 0  
U = {1 − x, 1 + x, 1 − x 2 } de 2 y V =  , , ,   de E 2 x 2 ( ) .
 1 1   0 −1  0 0   1 0  
(1.5 ptos.)
Solución:
a) Sabemos que el subespacio núcleo es:

  0 0  
Ker T= p = a + b ⋅ x + c ⋅ x 2 / T(p) = (0) =    Entonces, como
  0 0  

 1 −1   a b   a − c b − a   0 0
T(p) =  ⋅ = =   Obtendremos el subespacio núcleo
 2 1   c a   2 ⋅ a + c 2 ⋅ b + a   0 0
haciendo:

a − c = 0
b − a = 0 a = 0
 Sumando lasecuaciones 1 y 3 
   c = 0 ≡ Ecuaciones cartesianas del Ker T 
2 ⋅ a + c = 0 Sumando las ecuaciones 2 y 4 b = 0
2 ⋅ b + a = 0 
KerT es el polinomio nulo, por lo que su dimensión es cero y no existe base para él.
Consecuentemente, la aplicación es inyectiva.
Teniendo en cuenta el teorema fundamental de las aplicaciones lineales:
dim( 2 ) = 3 = dim(Ker T) + dim(ImT) = 0 + dim(ImT)  dim(ImT) = 3 < dim(E 2x 2 (R)) = 4 . Por
tanto, la aplicación T no es sobreyectiva y su rango, que es la dimensión del subespacio
imagen, es 3.

3
Para obtener una base de este subespacio, nos fijamos en la forma de las matrices
 a −c b−a   1 −1 0 1  −1 0 
T(p) =   = a ⋅  + b⋅  + c⋅   Un sistema generador de
2⋅a + c 2⋅b + a 2 1   0 2  1 0
  1 −1 0 1  −1 0  
Im T es: A1 =   , A2 =   , A3 =    , y como acabamos de ver que su
 2 1   0 2  1 0  
dimensión es 3, constituirán una base de ImT. Sus ecuaciones parámetricas respecto a esta base
 a11 a12 
son las siguientes: Considerando una matriz cualquiera de E 2 x 2 ( R ) ,   para que
 a 21 a 22 
pertenezca a Im T deberá ser combinación lineal de las matrices A i i = 1, 2, 3 ⇒

a11 = λ1 − λ 3
a = −λ + λ
 12 1 2
 ∀ λ1 , λ 2 , λ 3 ∈R.
a
 21 = 2 ⋅ λ 1 + λ 3
a 22 = λ1 + 2 ⋅ λ 2

Para obtener su única ecuación implícita, eliminamos los tres parámetros de las ecuaciones
anteriores, sumando las ecuaciones primera y tercera y haciendo 2E 2 − E 4 
a11 + a 21 = 3 ⋅ λ1 sumando las dos ecuaciones
  → a 11 + a 21 + 2 ⋅ a 12 − a 22 = 0 ≡ Ecuación cartesiana de ImT.
2 ⋅ a 12 − a 22 = −3 ⋅ λ1

b) Sabemos que la matriz A asociada a la aplicación T : P2 → E 2x 2 ( R ) en las


bases usuales de P2 y de E 2x 2 ( R ) , respectivamente, tendrá por columnas las coordenadas en la
base usual de E 2x 2 ( R ) de T(1), T(x) y T(x2). Calculemos estas imágenes:

1 
 
 1 −1  −1 ≡ 1a Columna de A
T(1) =    C [T(1)] =
por ser 1=1+ 0x + 0x 2 2
 1
Busual
2 
 
1 

0
 
0 1 1  ≡ 2a Columna de A
T(x) = 2    C [T(x)] =
por ser x = 0 +1x + 0x
0 2
Busual
0
 
 2

 −1
 
 −1 0   0 a
2
T(x ) = 2    C Busual [T(x )] =
2
≡ 3 Columna de A
2
por ser x = 0 + 0x +1x
 1 0 1
 
 0

1 0 −1
 
−1 1 0
Luego la matriz A es: A =  .
2 0 1
 
1 2 0

4
La matriz de la aplicación en las nuevas bases U = {u1 = 1 − x, u 2 = 1 + x, u 3 = 1 − x 2 } y

  2 0 1 0   0 −1  0 0  
V = V1 =   , V2 =   , V3 =   , V4 =    de P2 y de E 2x 2 (R ) , respectiva-
 1 1  0 −1 0 0   1 0  
mente, tendrá por columnas las coordenadas en la base V de las imágenes por T de los vectores
de U, es decir: A1 = ( C V [T(u1 )] C V [T(u 2 )] C V [T(u 3 )] ) . Hallemos estas imágenes:

 1 −1   1 −1   1 −2   2 0 1 0   0 −1  0 0
T(1 − x) =  ⋅ =  = α1 ⋅   + α2 ⋅   + α3 ⋅  + α4 ⋅ 
 2 1   0 1   2 −1  1 1  0 −1  0 0 1 0

El sistema a resolver es:

1 = 2α1 + α 2 
 
 −2 = −α 3 → α 3 = 2  sumando la1a y la 4a 3α1 = 0 → α1 = 0  despejando de la 3a
   →   →α 4 = 2 →
 2 = α1 + α 4  α2 = 1 
 −1 = α1 − α 2 

0
 
1
C V [T(1 − x)] =   ≡ 1a Columna de A1 .
 2
 
 2

 1 −1   1 1   1 0   2 0 1 0   0 −1  0 0
T(1 + x) =  ⋅ =  = α1 ⋅   + α2 ⋅   + α 3 ⋅  + α 4 ⋅ 
 2 1   0 1  2 3  1 1  0 −1  0 0  1 0
El sistema a resolver es:

1 = 2α1 + α 2  4
  3α1 = 4 → α1 = 
0 = −α 3 → α 3 = 0  sumando la1a y la 4a 3  despejando de la 3a 4 2
   →   →α 4 = 2 − = →
 2 = α1 + α 4  4
α2 = − 3 =
−5  3 3
  
3 = α1 − α 2 3 3 

4 / 3 
 
 −5 / 3 
C V [T(1 + x)] = ≡ 2a Columna de A1.
 0 
 
2 / 3 

 1 −1   1 0   2 −1   2 0 1 0   0 −1   0 0
T(1 − x 2 ) =  ⋅ =  = α1 ⋅   + α2 ⋅   + α3 ⋅  + α 4 ⋅ 
 2 1   −1 1   1 1  1 1  0 −1  0 0   1 0

El sistema a resolver es:

 2 = 2α1 + α 2 
 
 −1 = −α 3 → α 3 = 0  sumando la1a y la 4a 3α1 = 3 → α1 = 1 despejando de la 3a
   →   →α 4 = 1 − 1 = 0 →
1 = α1 + α 4  α 2 = 1 − 1 = 0 
 
1 = α1 − α 2

5
1 
 
0
C V [T(1 − x 2 )] =   ≡ 3a Columna de A1.
 1
 
 0

0 4 / 3 1
 
1 −5 / 3 0
Por tanto, la matriz A1 es: A1 =  .
2 0 1
 
2 2 / 3 0

Otra forma:
Se trata de deducir la expresión de la matriz asociada a la aplicación T en las bases respectivas
de P2 y de E 2 x 2 (R ) : U = {u1 = 1 − x, u 2 = 1 + x, u 3 = 1 − x 2 } y
  2 0 1 0   0 −1  0 0  
V = V1 =   , V2 =   , V3 =  , V4 =   . Consideramos el esquema:
 1 1  0 −1 0 0   1 0  

T
2 → E 2x 2 ( .)
A
B = {1, x, x 2 } → Bcan = {E1 , E 2 , E 3 , E 4 }

P=(CB (u1 ) C B (u 2 ) CB (u 3 )) R = (C Bcan (V1 ) C Bcan (V2 ) CBcan (V3 ) CBcan (V3 ))

A1
U = {u1 , u 2 , u 3 }  → V = {V1 , V2 , V3 , V4 }

Y teniendo en cuenta las expresiones matriciales de T:


C Bcan [ T(p)] = A ⋅ CB [p] (1)
 y la relación entre las coordenadas cuando se cambia de
C V [ T(p)] = A1 ⋅ C U [p] (2)
base en un espacio vectorial: CB [p] = P⋅ C U [p] y CBcan [ T(p)] = R ⋅ CV [ T(p) ] , sustituyendo en
la relación (1): CBcan [ T(p)] = R ⋅ CV [ T(p)] = A ⋅ P⋅ CU [p]  Premultiplicando por R-1, queda:
CV [ T(p) ] = R −1 ⋅ A ⋅ P⋅ C U [p] = A1 ⋅ C U [p] 
por la relación (2)

A1 = R −1 ⋅ A ⋅ P ≡ es la expresión matricial que nos piden, siendo P la matriz de paso


entre B y U que nos dan:
1 1 1
 
P =  −1 1 0  , y R −1 = (CV (E1 ) CV (E 2 ) CV (E3 ) CV (E 4 )) . Calculemos estas
 0 0 −1 
 
coordenadas. Teniendo en cuenta que:
 V1 = 2E1 + E 3 + E 4  1
  Sumando : E1 = (V1 + V2 − V4 )
 V2 = E1 − E 4  sus. en 1 y 2
a a  V1 = 2E 1 + V 4 + E 
4 3
   → 
 V3 = −E 2 → E 2 = −V3  V
 2 = E1 − E 4  2V − V = −3E − V → E = 1 (V − 2V − V ).

 V4 = E 3 → E 3 = V4  2 1 4 4 4
3
1 2 4

6
 1/ 3 0 0 1/ 3 
 
1/ 3 0 0 −2 / 3 
La matriz R-1 es: R −1 =  y por tanto la matriz de la aplicación en las
 0 −1 0 0 
 
 −1 / 3 0 1 −1 / 3 
nuevas bases:
 1/ 3 0 01/ 3   1 0 −1 0 4 / 3 1
   1 1 1  
1/ 3 0 0 −2 / 3   −1 1 0  1 −5 / 3 0
A1 =  ⋅ . −1 1 0  =  .
 0 −1 0 0  2 0 1 2 0 1
     0 0 −1  
 −1 / 3 0 1 −1 / 3   1 2 0 2 2 / 3 0

4. Razonar detalladamente si es cierto o falso que si f es un endomorfismo de 3 tal


 x    x   1
      
que Im f =  y  ∈ / x + y + z = 0  , entonces la ecuación f  y  =  −1  tiene solución
3

 z    z   0
      
única. (1.25 ptos.)
Solución:
3
El subespacio imagen Im f es un subespacio de que tiene dimensión 2, por tener una única
 x   1
   
ecuación ímplicita , x + y + z = 0 . Como se trata de estudiar si la ecuación f  y  =  −1  tiene o
 z   0
   
 1
 
no solución única, lo primero que hay que ver si el vector  −1  ∈Im f , lo cual se cumple
 0
 
evidentemente, porque cumple su ecuación ímplicita: 1 - 1 + 0 = 0. Por tanto, dicha ecuación sí
tiene solución. Una forma de resolverla, sería considerar la matriz A asociada al endomorfismo
 x   1
   
en la base canónica de 3
y resolver el sistema de ecuaciones: A ⋅  y  =  −1  . Este sistema
 z   0
   
según acabamos de razonar, tiene solución, pero no va a ser única. Esto es debido a que la
dimensión del subespacio imagen, dim(Im f) = Rango(A) = 2 < 3 = nº de incógnitas del sistema,
pero como el sistema tiene solución va a ser un sistema compatible indeterminado, es decir, se
va a cumplir que el rango de la matriz ampliada también tiene dimensión 2. Por tanto, es falso
 x   1
   
que la ecuación f  y  =  −1  tenga solución única; va a tener infinitas soluciones.
 z   0
   

7
5. Calcular el vector propio asociado al valor propio dominante de la matriz
1 0 0 1
 
0 1 0 0
A =   mediante el método de las potencias. Utilizar como vector
0 0 1 0
 
1 0 0 1
aproximación inicial x = (1 1 1 1)t. Realizar las iteraciones necesarias para que el error
absoluto en el cálculo del vector sea menor que 0.1. 1.5 Ptos

Solución:
El método de las potencias consiste en realizar para cada iteración k las 3 operaciones
siguientes:
k=1:
1 0 0 1   1  2 
     
0 1 0 0  1  1 
1) Se calcula el vector: y (1) = A ⋅ x (0) = ⋅ = .
ɶ ɶ 0 0 1 0  1  1 
     
1 0 0 1   1  2 
2) Se calcula la componente de y(1) que conduce a la norma infinita del vector y(1) , es
ɶ ɶ
decir, en este caso: y1(1) , y se hace µ1 = y1 = 2 . Esta es la primera aproximación al
(1)

valor propio dominante.


1 (1)
3) Finalmente se normaliza el vector y(1) , y resulta: x (1) = ⋅ y , es decir:
ɶ ɶ µ1 ɶ
 2  1 
   
1 1  1   0.5 
x (1) = ⋅ y (1) = ⋅ =
ɶ 2 ɶ 2  1   0.5 
   
 2  1 
Error absoluto en el cálculo del vector propio:

{
|| x (1) − x (0) ||∞ = max x (1)
ɶ ɶ
(0)
}
i − x i i =1,...,4 = max {0, 0.5, 0.5, 0} = 0.5 > 0.1 .

k=2:
1 0 0 1  1   2 
     
0 1 0 0   0.5   0.5 
1) Se calcula el vector: y (2) = A ⋅ x (1) = ⋅ = .
ɶ ɶ 0 0 1 0   0.5   0.5 
     
1 0 0 1  1   2 
2) Se calcula la componente de y (2) que conduce a la norma infinita del vector y (2) , es
ɶ ɶ
decir, en este caso: y1(2) , y se hace µ 2 = y1 = 2 . Esta es la segunda aproximación al
(2)

valor propio dominante.


1 (2)
3) Finalmente se normaliza el vector y(2) , obteniéndose x (2) = ⋅ y , es decir:
ɶ ɶ µ2 ɶ

8
 2   1 
   
1 1  0.5   0.25 
x (2) = ⋅ y(2) = ⋅ = .
ɶ 2 ɶ 2  0.5   0.25 
   
 2   1 
Error absoluto en el cálculo del vector propio:
|| x (2) − x (1) ||∞ = max {0, 0.25, 0.25, 0} = 0.25 > 0.1
ɶ ɶ
k = 3:
1 0 0 1  1   2 
     
0 1 0 0   0.25   0.25 
1) Se calcula el vector: y (3) = A ⋅ x (2) = ⋅ = .
ɶ ɶ 0 0 1 0   0.25   0.25 
     
1 0 0 1  1   2 
2) Se calcula la componente de y (3) que conduce a la norma infinita del vector y (3) , es
ɶ ɶ
decir, en este caso: y1(3) , y se hace µ3 = y1 = 2 . Esta es la tercera aproximación al
(3)

valor propio dominante.


1 (3)
3) Finalmente se normaliza el vector y (3) , obteniéndose x (3) = ⋅ y , es decir:
ɶ ɶ µ3 ɶ
 2   1 
   
1 1  0.25   0.125 
x (3) = ⋅ y (3) = ⋅ = .
ɶ 2 ɶ 2  0.25   0.125 
   
 2   1 
Error absoluto en el cálculo del vector propio:
|| x (3) − x (2) ||∞ = max {0, 0.125, 0.125, 0} = 0.125 > 0.1
ɶ ɶ
k = 4:
1 0 0 1  1   2 
     
0 1 0 0   0.125   0.125 
1) Se calcula el vector: y (4) = A ⋅ x (3) = ⋅ = .
ɶ ɶ 0 0 1 0   0.125   0.125 
     
1 0 0 1  1   2 
2) Se calcula la componente de y (4) que conduce a la norma infinita del vector y (4) , es
ɶ ɶ
decir, en este caso: y1(4) , y se hace µ 4 = y1 = 2 . Esta es la cuarta aproximación al
(4)

valor propio dominante.


1 (4)
3) Finalmente se normaliza el vector y (4) , obteniéndose x (4) = ⋅ y , es decir:
ɶ ɶ µ4 ɶ
 2   1 
   
1 1  0.125   0.0625 
x (4) = ⋅ y(4) = ⋅ = .
ɶ 2 ɶ 2  0.125   0.0625 
   
 2   1 
Error absoluto en el cálculo del vector propio:
|| x (4) − x (3) ||∞ = max {0, 0.0625, 0.0625, 0} = 0.0625 < 0.1
ɶ ɶ
9
Tomamos como vector propio asociado al valor propio dominante λ = 2 el vector:
 1 
 
0.0625 
x (4) =
ɶ  0.0625 
 
 1 

6. Sea un sistema lineal de ecuaciones cuya matriz de coeficientes A se puede descomponer


de la siguiente manera:
 1 0 −1  1 0 0  1 0 −1
    
A =  0 4 2  =  0 2 0  0 2 1 
 −1 2 3   −1 1 1  0 0 1 
    
a) ¿Qué puedes decir de la matriz A? Enunciar el Teorema en el que te basas.
0.75 Ptos
b) Calcula su inversa utilizando el resultado del apartado a). 0.75 Ptos
c) ¿Qué método iterativo utilizarías para resolver el sistema cuya matriz de
coeficientes es A? Enunciar la condición suficiente en la que te basas. 0.5 Ptos

Solución:
a) A es una matriz simétrica y por lo que vemos se factoriza como A = L ⋅ Lt siendo L
triangular inferior y sus elementos diagonales li,i > 0 ∀i=1,2,3 , luego, A es una matriz
simétrica definida positiva, ya que sabemos que se cumple el siguiente teorema, que recibe el
nombre de factorización de Cholesky:
Teorema: Una matriz A ∈ E nxn (R) simétrica es definida positiva si y solo si A = L ⋅ Lt , siendo
L triangular inferior y sus elementos diagonales li,i > 0 ∀i=1,2,..., n.

b) Para estas matrices simétricas definidas positivas, una vez obtenida la factorización de
Cholesky, A = L ⋅ Lt , para hallar A −1 la forma más eficiente es obtenerla, teniendo en
A = L ⋅ Lt  A −1 = ( L ⋅ Lt ) = ( Lt ) ⋅ L−1 = ( L−1 ) ⋅ L−1 , porque basta calcular
−1 −1 t
cuenta que:
L−1 resolviendo los n sistemas L ⋅ x j = e j j = 1, 2,.., n por sustitución progresiva, al ser L
ɶ ɶ
triangular inferior. En nuestro caso hay que resolver 3 sistemas:

x = 1 |0 |0
 1
 2x 2 = 0 | 1 |0
− x , cuyas soluciones son:
+ x2 + x3 = 0 |0 |1
 1 (1) (2) (3)

1   0  0
  a −1     a
x1 =  0  ≡ 1 Columna de L , x 2 = 1/ 2  ≡ 2 Columna, x 3=  0  ≡ 3 Columna
a

ɶ   ɶ   ɶ  
1   −1/ 2  1 
1 0 0 1 0 1 
Luego, L−1 =  0 1 / 2 0   ( L−1 ) =  0 1 / 2 −1 / 2  , con lo que:
  t  
 1 −1 / 2 1   1 
  0 0

10
 2 −1 1 
 2 
A −1 = ( L−1 )  − 
t −1
⋅L = − 1 1 1
 2 2 2
 1 −1 1 
 2 

c) Como la matriz es simétrica definida positiva, sabemos que el método iterativo de


Gauss-Seidel convergerá para cualquier sistema de la forma A ⋅ x = b . Esto es debido a que se
cumple la siguiente condición suficiente de convergencia:
ɶ ɶ

Teorema: Dado el sistema A ⋅ x = b si la matriz es simétrica definida positiva o puede serlo


ɶ ɶ
mediante alguna reordenación, entonces, para cualquier elección x (0) ∈ .n , el método de
ɶ
Gauss-Seidel da lugar a una sucesión {xɶ }
(k ) ∞
k =0
, obtenida mediante el proceso iterativo
x (k +1)
k = 1, 2,..... siendo TG= −(L + D) −1 ⋅ U y el vector c = (L + D) −1 ⋅ b ,
= TG ⋅ x (k )
+c
ɶ ɶ ɶ ɶ ɶ
con A=L+D+U, que converge a la única solución del sistema A ⋅ x = b .
ɶ ɶ
1 0 1 0 0
 
7. Calcular la matriz más sencilla semejante a la matriz 0 1 0 1 0
así como la
A = 0 0 1 0 0
 
0 0 0 1 0
0 0 0 0 1 

matriz de paso correspondiente. 2 Ptos

Solución:

Como A es triangular superior, sus autovalores son los elementos diagonales, luego, A tiene por
autovalor λ = 1 con multiplicidad algebraica m1=5. Se trata de estudiar su subespacio propio:

0 0 1 0 0   x1   0 
    
0 0 0 1 0   x2   0 
V1 (1) = Ker( A − I) = {x / (A − I) ⋅ x = 0} ⇔  0 0 0 0 0   x3  =  0 
    
0 0 0 0 0   x4   0 
0 0 0 0 0   x 5   0 

Como rango ( A − I) =2 solo hay 2 ecuaciones que definen V1 (1) , luego, dim V1 (1) = 5-2 =3 < 5
A no es diagonalizable, siendo las dos ecuaciones cartesianas de V1 (1)

 1   0   0  
      
x 3 = 0  0   1   0  
 
 , ∀x1 ,x 2 ,x 5 ∈ .⇔ V1 (1) = Span  0  ,  0  ,  0  
x 4 = 0  0   0   0  
      
 0   0   1 

Se trata de hallar su forma canónica de Jordan, que al ser dim V1 (1) =3 tendrá 3 bloques
elementales de Jordan. Calculamos:

11
0 0 0 0 0
 
0 0 0 0 0
V2 (1) = Ker( A − I) ={ x / (A − I) ⋅ x = 0}, pero (A − I) =  0
2 2 2
0 0 0 0  , luego, V2 (1) es
 
0 0 0 0 0
0 0 0 0 0 

ya el subespacio maximal, porque al ser (A − I) 2 =(0)  ∀x ∈ .5 (A − I) 2 ·x=0  Tenemos
la cadena de subespacios:

V1 (1) ⊂ V2 (1)

u1
u2
u4 u3
u5

Para formar la base de Jordan elegimos un vector u 5 ∈ V2 (1) − V1 (1) , por ejemplo,

0
 
0
u 5 = e3 =  1 ∈ V2 (1) − V1 (1) y hacemos u4 = (A − I) ⋅ u5 ∈V1 (1) :
 
0
0
 

0 0 1 0 0   0   1
    
0 0 0 1 0  0  0
u4 =  0 0 0 0 0   1 =  0  , que es un vector propio.
    
0 0 0 0 0  0  0
0 0 0 0 0   0   0 

 1 1
El bloque elemental de Jordan asociado a estos 2 vectores { u 4 , u 5 } es J 3 (1) =   , ya que
 0 1
considerando el endomorfismo asociado a la matriz A f : E 
→ E que estará definido en un
cierto espacio vectorial E de dimensión 4, la imagen por f de estos dos vectores será:
f (u 4 ) = A ⋅ u 4 = u4
por ser u 4 vector propio
.
f (u 5 ) = A ⋅ u 5 = u4 + u5
por ser u 4 = Au 5 − u 5

12
A continuación, elegimos otro vector u 3 ∈ V2 (1) − V1 (1) linealmente independiente con u 5 ; u 3

0
 
0
debe ser forzosamente: u3 = e4 =  0  , y hacemos u2 = (A − I) ⋅ u3 ∈V1 (1) :
 
 1
0
 

0 0 1 0 0  0  0
    
0 0 0 1 0   0   1
u2 =  0 0 0 0 0   0  =  0  , que es un vector propio.
    
0 0 0 0 0   1  0 
0 0 0 0 0   0   0 

 1 1
El bloque elemental de Jordan asociado a estos 2 vectores { u 2 , u 3 } es J 2 (1) =  ,
 0 1
razonando análogamente a como acabamos de hacer.
Finalmente, para completar la base de Jordan elegimos un vector u1 ∈ V1 (1) linealmente

0
 
0
independiente con u 2 y u 4 , es decir, tiene que ser: u1 =  0  , cuyo bloque elemental de Jordan
 
0
 1
 
asociado es J1 (1) = (1) , al ser f (u1 ) = A· u1 = u1 . La forma de Jordan semejante a A es, por
tanto:

1| 0 0 0 0 
 
 J1 (1) (0) (0)   0 |1 1| 0 0 
 
J =  (0) J 2 (1) (0)  =  0 |0 1| 0 0  , siendo la matriz P del cambio de base,
 (0)  
 (0) J 2 (1)   0 0 0 | 1 1 | 
 0 0 0 |0 1| 
 
es decir, la que tiene por columnas las coordenadas de los vectores de la base de Jordan, que

0 0 0 1 0
 
0 1 0 0 0
acabamos de obtener: { u1 , u 2 , u 3 , u 4 , u 5 }, P =  0 0 0 0 1 , cumpliéndose, la relación
 
0 0 1 0 0
1 0 0 0 0 

de semejanza: J = P-1·A·P .

13
8.- Dada la aplicación
〈 ,〉: 3
x
3
→
(x , y ) 
→ 〈x , y〉 = α x1 y1 + 2 x1 y2 + 2x1 y3 + 2x 2 y1 + β x 3 y3 + 3x 2 y2 + 2x 3 y1

 x1   y1 
   
siendo x =  x 2  e y =  y2  , determinar cómo deben ser α y β para que sea
 
   
 x 3   y3 

producto escalar y el subespacio ortogonal de H = Span {(0 1 0) ,(-1 1 1) } sea


t t

V = {x = 0, y = 0} . 2 Puntos

Solución:

Para que la aplicación sea un producto escalar debe verificar los siguientes axiomas:

1. < x,x > ¥ 0 "x œ 3


⁄ < x,x > = 0 ‹ x=0 (Positividad).
2. < x,y > = < y,x > " x, y œ 3
(Simetría).
3. < x, (ay+bz) > = a< x,y > + b< x,z > " x,y,z œ
⁄ " a, b œ 3

(Bilinealidad).
Si nuestra aplicación fuera un producto escalar, su matriz G sería
 < e1 ,e1 > < e1 ,e 2 > < e1 ,e3 >   1  0  0 
        
G =  < e 2 ,e 1 > < e 2 ,e 2 > < e 2 ,e 3 >  siendo B = e1 =  0  , e 2 = 1  , e 3 =  0   la base
 < e ,e > < e ,e > < e ,e >    0    
 3 1 3 2 3 3     0 1  
α
2 2
 
canónica de 3
. Por tanto, tendríamos que G =  2 3
0  que es una matriz simétrica.
2
0 β 

1. La positividad se cumplirá ⇔ G es simétrica y definida positiva ⇔ G cumple el criterio
de Sylvester que nos dice que G simétrica es definida positiva ⇔ sus tres menores principales
son positivos. En nuestro caso, estos tres menores valen
α 2
∆1 = α > 0 ⇔ α > 0, ∆ 2 = = 3α − 4 > 0 ⇔ α > 4 / 3, ∆ 3 = G = 3αβ − 12 − 4 β .
2 3
y de momento no podemos determinar los valores de α , β que hacen que G > 0 .
2. La simetría se cumple ∀α , β ∈ por ser G simétrica, ya que

x, y = x t ⋅ G ⋅ y = ( x t ⋅ G ⋅ y ) = y t ⋅ G t ⋅ (x t ) t = y t ⋅ G ⋅ x = y, x
t

3. La bilinealidad se cumple ∀α , β ∈ ya que siempre se verifica que


x, α y + β z = x t ⋅ G ⋅ (α y + β z ) = α (x t ⋅ G ⋅ y ) + β ( x t ⋅ G ⋅ z )
Por otro lado, V = H ⊥ ⇔ los vectores de la base de V son ortogonales a los vectores
de la base de H.

14
0  −1  0 
     
Como la relación α1  1  + α 2  1  =  0  tiene como solución única α1 = α 2 = 0  los
0  1   0
     
0  
  −1
vectores de la base de H son h1 = 1  ,h 2 =  1  . Como
   
0  1 
x   0      
      0   0 
V =  y ∈
3
/ x = 0, y = 0 = 0 = z 0 / z ∈ 
 = Span v1 = 0  y por tanto,
         1  
z   z 1      
V = H ⊥ ⇔ h1 , v 1 = 0 = h 2 , v 1 .
 h1 , v1 = e 2 , e 3 = 0 ∀α , β

 h 2 , v1 = −e1 + e2 + e 3 , e 3 = 0 = − e1 , e 3 + e 2 , e 3 + e 3 , e 3 = −2 + β = 0 ⇔ β = 2
Consecuentemente, en la propiedad de positividad nos queda que
∆ 3 = G = 3αβ − 12 − 4 β = 6α − 12 − 8 = 6α − 20 > 0 ⇔ α > 10 / 3 , y por tanto, la aplicación
será un producto escalar ∀α , β ∈ con α > 10 / 3 .
En
conclusión, la aplicación es un producto escalar y
V = H ⇔ α > 10 / 3 y β = 2 .

1
9.- Obtener la parábola mejor aproximación por mínimos cuadrados a f (x) =, en el
x
intervalo [1, 3], usando polinomios ortogonales de Legendre. Plantear el error mínimo
cuadrático cometido en la aproximación. 2.5 Puntos
Nota: La relación de recurrencia para los polinomios de Legendre es:

(n + 1) ⋅ p n +1 (x) = (2n + 1)x ⋅ p n (x) − n ⋅ p n −1 (x) siendo p 0 (x) = 1 , p1 (x) = x .

2
Las normas son: || p n ||2 = n = 0,1, 2,....
2n + 1

x2 x2
x+2 dx = 4 ⋅ Ln(x+2) - 6 - 2x+
2

Solución:

Como los polinomios ortogonales de Legendre son ortogonales respecto a la función de


1
peso w(t) ≡ 1 ∀ t ∈ [ −1,1] y nuestra función f (x) = está definida en el intervalo [1,3] ,
x
tenemos que hacer un cambio de variable lineal

[1, 3] → [−1,1]


 x =1  t = −1
x = ct + d 
→ t / 
x = 3  t = 1
15
1 = −c + d
 d = 2 y c =1  x = t + 2 .
3 = c + d

Aplicando este cambio de variable a la función f(x), obtenemos que:

1 1
f (x) = = = g(t) con t ∈ [ −1,1] .
x t+2

Ahora calculamos el elemento p* (t) mejor aproximación de g(t) en 2 usando


polinomios ortogonales de Legendre. Por tanto, consideraremos que
2 = Span {P0 (t), P1 (t), P2 (t)} siendo P0 (t), P1 (t) y P2 (t) los polinomios de Legendre de
grados 0, 1 y 2 respectivamente, es decir P0 (t) = 1, P1 (t) = t y tomando el valor n=1 en la
relación de recurrencia obtenemos que

3 1  3 1
2 ⋅ P2 (t)= 3t ⋅ P1 (t) − P0 (t) = 3t 2 − 1 P2 (t) = t 2 −  2 = Span 1, t, t 2 − 
2 2  2 2

Se cumple que p* (t) = λ0 ⋅ P0 (t) + λ1 ⋅ P1 (t) + λ2 ⋅ P2 (t) siendo λ0 , λ1 , λ2 la solución del


sistema de ecuaciones normales, que ahora es de la forma:

 P0 (t),P0 (t 0 0  λ0   g(t), P0 (t) 


    
 0 P1 (t), P1 (t) 0  λ1  =  g(t), P1 (t)  

 0 0 P2 (t),P2 (t)   λ2   g(t), P2 (t) 
 

g(t), Pi (t) g(t), Pi (t)


 λi = = i = 0,1, 2
Pi (t), Pi (t) || Pi (i) ||2

|| P0 (t) ||2 = 2


2  1
Como || Pn (t) ||2 =  || P1 (t) ||2 = 2 / 3 y como g1 (t), g 2 (t) =  g1 (t) ⋅ g 2 (t) dt 
2n + 1  −1
||
 2 P (t) ||2
= 2 / 5

g(t), P0 (t) 1 1 1 1 dt 1 1 Ln(3)


λ0 = =  g(t) ⋅ P0 (t) dt =  = ⋅ Ln t + 2  −1 =
|| P0 (t) || 2
2 −1 2 −1 t + 2 2 2

g(t), P1 (t) 3 1 3 1 1 3 1 (t + 2) − 2
λ1 =
2 −1 2 −1 t + 2 2 −1 t + 2
= g(t) ⋅ P1 (t) dx = ⋅ t dt = dt =
|| P1 (t) ||2
3 1 1  3
dt  = [ 2 − 2 ⋅ Ln(3)] = 3 (1 − Ln(3) )
1
= 
2 −1
dt − 2 − 1 t+2  2

16
g(t), P2 (t) 5 1 5 1 1 3 2 1 15 1 t 2 5 1 dt
λ2 =
2 −1 2 −1 t + 2  2 4 −1 t + 2 4 −1 t + 2
= g(t) ⋅ P2 (t) dx =  t −  dt = dt −
|| P2 (t) ||2 2

Usando la nota del enunciado en la primera integral y la integral ya obtenida para λ0 , se


obtiene que
1
15  t2  5 15 5 55
λ2 =  4 ⋅ Ln(t + 2) − 6 − 2t +  − Ln(3) = [ 4 ⋅ Ln(3) − 4] − Ln(3) = ⋅ Ln(3) − 15
4  2  −1 4 4 4 4

Por tanto,

Ln(3)  55  3 1
p* (t) = + 3 (1 − Ln(3) ) ⋅ t +  ⋅ Ln(3) − 15  t 2 − 
2 4  2 2

Deshaciendo el cambio de variable tenemos que t = x − 2 , de donde

Ln(3)  55  3 1
p(x) = p* ( x − 2 ) = + 3 (1 − Ln(3) ) ⋅ (x − 2) +  ⋅ Ln(3) − 15  (x − 2) 2 −  =
2 4  2 2
165 45   −51 15 
= ⋅ Ln(3) −  (x − 2) 2 + 3 (1 − Ln(3) ) ⋅ (x − 2) +  ⋅ Ln(3) + 
 8 2  8 2

1
será el polinomio mejor aproximación de f (x) = en [1,3] .
x

El error mínimo cuadrático cometido en la aproximación es:

3
 ( f (x) − p(x) )
2
E = d(f (x), p(x)) = f (x) − p(x) = f (x) − p(x),f (x) − p(x) = =
1

2
 1 165
3 45   −51 15  
=   − ⋅ Ln(3) −  (x − 2)2 − 3 (1 − Ln(3) ) ⋅ (x − 2) −  ⋅ Ln(3) +  
x  8 2  8 2 
1

17

También podría gustarte