Examen de Álgebra Lineal - Julio 2018
Examen de Álgebra Lineal - Julio 2018
Solución:
a) Por ser A ortogonal verifica A t = A −1 y si además es definida positiva, entonces A es
también simétrica, por lo que se tendrá que: A t = A −1 = A tomando determinantes y
teniendo en cuenta que el determinante de la inversa de una matriz A es igual al inverso del
−1 1 2
determinante de A, se cumplirá: A = A = A A = A = 1 A = ±1. Éstos
t
A
serán los posibles valores de una matriz ortogonal y simétrica. Pero si además la matriz debe ser
definida positiva cumplirá el criterio de Sylvester, es decir, todos sus menores principales serán
positivos. En particular A > 0 el único valor posible del determinante de una matriz
(A ⋅ B )
−1
A ⋅ B = A ⋅ B ≠ 0 y además se cumple = B−1 ⋅ A −1 . En efecto, si hacemos el
producto: A ⋅ B ⋅ B−1 ⋅ A −1 = A ⋅ A −1 = I y haciendo el producto en el otro orden se obtiene
I
−1 −1
también: B ⋅ A ⋅ A⋅ B = I. Entonces, como la inversa de una matriz es única, queda probado
I
(A ⋅ B )
−1
que = B −1 ⋅ A −1 .
x −x − y
2. Sea U el conjunto de matrices reales de la forma y V el conjunto de
0 y
v 0
matrices reales de la forma .
w −v
1
1 0
U ∩ V = Span U ∩ V es un subespacio de dimensión uno, siendo su base la
0 −1
1 0
matriz .
0 −1
Las ecuaciones parámetricas de U ∩ V , respecto a esta base son, las siguientes:
a11 = λ1
a = 0
a a
A = 11 12 ∈ U ∩ V ⇔ 12 ∀ λ1 ∈R. .
a a
21 22 a 21 = 0
a 22 = −λ1
2
1 0 0 a11
1 0 a11
−1 −1 0 a12
debe ser no nulo: 0 ≠ = −1 −1 a12 = −a 22 − a11 − a12 . Es decir, los
0 0 1 a 21
0 1 a 22
0 1 0 a 22
subespacios suplementarios a U+V son todos aquellos generados por matrices de la forma
a11 a12
verificando la condición: a 22 + a11 + a12 ≠ 0 , ∀ a 21 ∈ R .
a 21 a 22
T: 2 → E 2x 2 ( )
1 −1 a b .
a + b ⋅ x + c ⋅ x 2
→ ⋅
2 1 c a
a) Hallar sin usar la expresión matricial de la aplicación lineal, las bases, dimensión y
ecuaciones de los subespacios núcleo e imagen. Clasificar T y decir cuál es su rango.
(2.75 ptos.)
0 0
Ker T= p = a + b ⋅ x + c ⋅ x 2 / T(p) = (0) = Entonces, como
0 0
1 −1 a b a − c b − a 0 0
T(p) = ⋅ = = Obtendremos el subespacio núcleo
2 1 c a 2 ⋅ a + c 2 ⋅ b + a 0 0
haciendo:
a − c = 0
b − a = 0 a = 0
Sumando lasecuaciones 1 y 3
c = 0 ≡ Ecuaciones cartesianas del Ker T
2 ⋅ a + c = 0 Sumando las ecuaciones 2 y 4 b = 0
2 ⋅ b + a = 0
KerT es el polinomio nulo, por lo que su dimensión es cero y no existe base para él.
Consecuentemente, la aplicación es inyectiva.
Teniendo en cuenta el teorema fundamental de las aplicaciones lineales:
dim( 2 ) = 3 = dim(Ker T) + dim(ImT) = 0 + dim(ImT) dim(ImT) = 3 < dim(E 2x 2 (R)) = 4 . Por
tanto, la aplicación T no es sobreyectiva y su rango, que es la dimensión del subespacio
imagen, es 3.
3
Para obtener una base de este subespacio, nos fijamos en la forma de las matrices
a −c b−a 1 −1 0 1 −1 0
T(p) = = a ⋅ + b⋅ + c⋅ Un sistema generador de
2⋅a + c 2⋅b + a 2 1 0 2 1 0
1 −1 0 1 −1 0
Im T es: A1 = , A2 = , A3 = , y como acabamos de ver que su
2 1 0 2 1 0
dimensión es 3, constituirán una base de ImT. Sus ecuaciones parámetricas respecto a esta base
a11 a12
son las siguientes: Considerando una matriz cualquiera de E 2 x 2 ( R ) , para que
a 21 a 22
pertenezca a Im T deberá ser combinación lineal de las matrices A i i = 1, 2, 3 ⇒
a11 = λ1 − λ 3
a = −λ + λ
12 1 2
∀ λ1 , λ 2 , λ 3 ∈R.
a
21 = 2 ⋅ λ 1 + λ 3
a 22 = λ1 + 2 ⋅ λ 2
Para obtener su única ecuación implícita, eliminamos los tres parámetros de las ecuaciones
anteriores, sumando las ecuaciones primera y tercera y haciendo 2E 2 − E 4
a11 + a 21 = 3 ⋅ λ1 sumando las dos ecuaciones
→ a 11 + a 21 + 2 ⋅ a 12 − a 22 = 0 ≡ Ecuación cartesiana de ImT.
2 ⋅ a 12 − a 22 = −3 ⋅ λ1
1
1 −1 −1 ≡ 1a Columna de A
T(1) = C [T(1)] =
por ser 1=1+ 0x + 0x 2 2
1
Busual
2
1
0
0 1 1 ≡ 2a Columna de A
T(x) = 2 C [T(x)] =
por ser x = 0 +1x + 0x
0 2
Busual
0
2
−1
−1 0 0 a
2
T(x ) = 2 C Busual [T(x )] =
2
≡ 3 Columna de A
2
por ser x = 0 + 0x +1x
1 0 1
0
1 0 −1
−1 1 0
Luego la matriz A es: A = .
2 0 1
1 2 0
4
La matriz de la aplicación en las nuevas bases U = {u1 = 1 − x, u 2 = 1 + x, u 3 = 1 − x 2 } y
2 0 1 0 0 −1 0 0
V = V1 = , V2 = , V3 = , V4 = de P2 y de E 2x 2 (R ) , respectiva-
1 1 0 −1 0 0 1 0
mente, tendrá por columnas las coordenadas en la base V de las imágenes por T de los vectores
de U, es decir: A1 = ( C V [T(u1 )] C V [T(u 2 )] C V [T(u 3 )] ) . Hallemos estas imágenes:
1 −1 1 −1 1 −2 2 0 1 0 0 −1 0 0
T(1 − x) = ⋅ = = α1 ⋅ + α2 ⋅ + α3 ⋅ + α4 ⋅
2 1 0 1 2 −1 1 1 0 −1 0 0 1 0
1 = 2α1 + α 2
−2 = −α 3 → α 3 = 2 sumando la1a y la 4a 3α1 = 0 → α1 = 0 despejando de la 3a
→ →α 4 = 2 →
2 = α1 + α 4 α2 = 1
−1 = α1 − α 2
0
1
C V [T(1 − x)] = ≡ 1a Columna de A1 .
2
2
1 −1 1 1 1 0 2 0 1 0 0 −1 0 0
T(1 + x) = ⋅ = = α1 ⋅ + α2 ⋅ + α 3 ⋅ + α 4 ⋅
2 1 0 1 2 3 1 1 0 −1 0 0 1 0
El sistema a resolver es:
1 = 2α1 + α 2 4
3α1 = 4 → α1 =
0 = −α 3 → α 3 = 0 sumando la1a y la 4a 3 despejando de la 3a 4 2
→ →α 4 = 2 − = →
2 = α1 + α 4 4
α2 = − 3 =
−5 3 3
3 = α1 − α 2 3 3
4 / 3
−5 / 3
C V [T(1 + x)] = ≡ 2a Columna de A1.
0
2 / 3
1 −1 1 0 2 −1 2 0 1 0 0 −1 0 0
T(1 − x 2 ) = ⋅ = = α1 ⋅ + α2 ⋅ + α3 ⋅ + α 4 ⋅
2 1 −1 1 1 1 1 1 0 −1 0 0 1 0
2 = 2α1 + α 2
−1 = −α 3 → α 3 = 0 sumando la1a y la 4a 3α1 = 3 → α1 = 1 despejando de la 3a
→ →α 4 = 1 − 1 = 0 →
1 = α1 + α 4 α 2 = 1 − 1 = 0
1 = α1 − α 2
5
1
0
C V [T(1 − x 2 )] = ≡ 3a Columna de A1.
1
0
0 4 / 3 1
1 −5 / 3 0
Por tanto, la matriz A1 es: A1 = .
2 0 1
2 2 / 3 0
Otra forma:
Se trata de deducir la expresión de la matriz asociada a la aplicación T en las bases respectivas
de P2 y de E 2 x 2 (R ) : U = {u1 = 1 − x, u 2 = 1 + x, u 3 = 1 − x 2 } y
2 0 1 0 0 −1 0 0
V = V1 = , V2 = , V3 = , V4 = . Consideramos el esquema:
1 1 0 −1 0 0 1 0
T
2 → E 2x 2 ( .)
A
B = {1, x, x 2 } → Bcan = {E1 , E 2 , E 3 , E 4 }
P=(CB (u1 ) C B (u 2 ) CB (u 3 )) R = (C Bcan (V1 ) C Bcan (V2 ) CBcan (V3 ) CBcan (V3 ))
A1
U = {u1 , u 2 , u 3 } → V = {V1 , V2 , V3 , V4 }
6
1/ 3 0 0 1/ 3
1/ 3 0 0 −2 / 3
La matriz R-1 es: R −1 = y por tanto la matriz de la aplicación en las
0 −1 0 0
−1 / 3 0 1 −1 / 3
nuevas bases:
1/ 3 0 01/ 3 1 0 −1 0 4 / 3 1
1 1 1
1/ 3 0 0 −2 / 3 −1 1 0 1 −5 / 3 0
A1 = ⋅ . −1 1 0 = .
0 −1 0 0 2 0 1 2 0 1
0 0 −1
−1 / 3 0 1 −1 / 3 1 2 0 2 2 / 3 0
z z 0
única. (1.25 ptos.)
Solución:
3
El subespacio imagen Im f es un subespacio de que tiene dimensión 2, por tener una única
x 1
ecuación ímplicita , x + y + z = 0 . Como se trata de estudiar si la ecuación f y = −1 tiene o
z 0
1
no solución única, lo primero que hay que ver si el vector −1 ∈Im f , lo cual se cumple
0
evidentemente, porque cumple su ecuación ímplicita: 1 - 1 + 0 = 0. Por tanto, dicha ecuación sí
tiene solución. Una forma de resolverla, sería considerar la matriz A asociada al endomorfismo
x 1
en la base canónica de 3
y resolver el sistema de ecuaciones: A ⋅ y = −1 . Este sistema
z 0
según acabamos de razonar, tiene solución, pero no va a ser única. Esto es debido a que la
dimensión del subespacio imagen, dim(Im f) = Rango(A) = 2 < 3 = nº de incógnitas del sistema,
pero como el sistema tiene solución va a ser un sistema compatible indeterminado, es decir, se
va a cumplir que el rango de la matriz ampliada también tiene dimensión 2. Por tanto, es falso
x 1
que la ecuación f y = −1 tenga solución única; va a tener infinitas soluciones.
z 0
7
5. Calcular el vector propio asociado al valor propio dominante de la matriz
1 0 0 1
0 1 0 0
A = mediante el método de las potencias. Utilizar como vector
0 0 1 0
1 0 0 1
aproximación inicial x = (1 1 1 1)t. Realizar las iteraciones necesarias para que el error
absoluto en el cálculo del vector sea menor que 0.1. 1.5 Ptos
Solución:
El método de las potencias consiste en realizar para cada iteración k las 3 operaciones
siguientes:
k=1:
1 0 0 1 1 2
0 1 0 0 1 1
1) Se calcula el vector: y (1) = A ⋅ x (0) = ⋅ = .
ɶ ɶ 0 0 1 0 1 1
1 0 0 1 1 2
2) Se calcula la componente de y(1) que conduce a la norma infinita del vector y(1) , es
ɶ ɶ
decir, en este caso: y1(1) , y se hace µ1 = y1 = 2 . Esta es la primera aproximación al
(1)
{
|| x (1) − x (0) ||∞ = max x (1)
ɶ ɶ
(0)
}
i − x i i =1,...,4 = max {0, 0.5, 0.5, 0} = 0.5 > 0.1 .
k=2:
1 0 0 1 1 2
0 1 0 0 0.5 0.5
1) Se calcula el vector: y (2) = A ⋅ x (1) = ⋅ = .
ɶ ɶ 0 0 1 0 0.5 0.5
1 0 0 1 1 2
2) Se calcula la componente de y (2) que conduce a la norma infinita del vector y (2) , es
ɶ ɶ
decir, en este caso: y1(2) , y se hace µ 2 = y1 = 2 . Esta es la segunda aproximación al
(2)
8
2 1
1 1 0.5 0.25
x (2) = ⋅ y(2) = ⋅ = .
ɶ 2 ɶ 2 0.5 0.25
2 1
Error absoluto en el cálculo del vector propio:
|| x (2) − x (1) ||∞ = max {0, 0.25, 0.25, 0} = 0.25 > 0.1
ɶ ɶ
k = 3:
1 0 0 1 1 2
0 1 0 0 0.25 0.25
1) Se calcula el vector: y (3) = A ⋅ x (2) = ⋅ = .
ɶ ɶ 0 0 1 0 0.25 0.25
1 0 0 1 1 2
2) Se calcula la componente de y (3) que conduce a la norma infinita del vector y (3) , es
ɶ ɶ
decir, en este caso: y1(3) , y se hace µ3 = y1 = 2 . Esta es la tercera aproximación al
(3)
Solución:
a) A es una matriz simétrica y por lo que vemos se factoriza como A = L ⋅ Lt siendo L
triangular inferior y sus elementos diagonales li,i > 0 ∀i=1,2,3 , luego, A es una matriz
simétrica definida positiva, ya que sabemos que se cumple el siguiente teorema, que recibe el
nombre de factorización de Cholesky:
Teorema: Una matriz A ∈ E nxn (R) simétrica es definida positiva si y solo si A = L ⋅ Lt , siendo
L triangular inferior y sus elementos diagonales li,i > 0 ∀i=1,2,..., n.
b) Para estas matrices simétricas definidas positivas, una vez obtenida la factorización de
Cholesky, A = L ⋅ Lt , para hallar A −1 la forma más eficiente es obtenerla, teniendo en
A = L ⋅ Lt A −1 = ( L ⋅ Lt ) = ( Lt ) ⋅ L−1 = ( L−1 ) ⋅ L−1 , porque basta calcular
−1 −1 t
cuenta que:
L−1 resolviendo los n sistemas L ⋅ x j = e j j = 1, 2,.., n por sustitución progresiva, al ser L
ɶ ɶ
triangular inferior. En nuestro caso hay que resolver 3 sistemas:
x = 1 |0 |0
1
2x 2 = 0 | 1 |0
− x , cuyas soluciones son:
+ x2 + x3 = 0 |0 |1
1 (1) (2) (3)
1 0 0
a −1 a
x1 = 0 ≡ 1 Columna de L , x 2 = 1/ 2 ≡ 2 Columna, x 3= 0 ≡ 3 Columna
a
ɶ ɶ ɶ
1 −1/ 2 1
1 0 0 1 0 1
Luego, L−1 = 0 1 / 2 0 ( L−1 ) = 0 1 / 2 −1 / 2 , con lo que:
t
1 −1 / 2 1 1
0 0
10
2 −1 1
2
A −1 = ( L−1 ) −
t −1
⋅L = − 1 1 1
2 2 2
1 −1 1
2
Solución:
Como A es triangular superior, sus autovalores son los elementos diagonales, luego, A tiene por
autovalor λ = 1 con multiplicidad algebraica m1=5. Se trata de estudiar su subespacio propio:
0 0 1 0 0 x1 0
0 0 0 1 0 x2 0
V1 (1) = Ker( A − I) = {x / (A − I) ⋅ x = 0} ⇔ 0 0 0 0 0 x3 = 0
0 0 0 0 0 x4 0
0 0 0 0 0 x 5 0
Como rango ( A − I) =2 solo hay 2 ecuaciones que definen V1 (1) , luego, dim V1 (1) = 5-2 =3 < 5
A no es diagonalizable, siendo las dos ecuaciones cartesianas de V1 (1)
1 0 0
x 3 = 0 0 1 0
, ∀x1 ,x 2 ,x 5 ∈ .⇔ V1 (1) = Span 0 , 0 , 0
x 4 = 0 0 0 0
0 0 1
Se trata de hallar su forma canónica de Jordan, que al ser dim V1 (1) =3 tendrá 3 bloques
elementales de Jordan. Calculamos:
11
0 0 0 0 0
0 0 0 0 0
V2 (1) = Ker( A − I) ={ x / (A − I) ⋅ x = 0}, pero (A − I) = 0
2 2 2
0 0 0 0 , luego, V2 (1) es
0 0 0 0 0
0 0 0 0 0
ya el subespacio maximal, porque al ser (A − I) 2 =(0) ∀x ∈ .5 (A − I) 2 ·x=0 Tenemos
la cadena de subespacios:
V1 (1) ⊂ V2 (1)
≠
u1
u2
u4 u3
u5
Para formar la base de Jordan elegimos un vector u 5 ∈ V2 (1) − V1 (1) , por ejemplo,
0
0
u 5 = e3 = 1 ∈ V2 (1) − V1 (1) y hacemos u4 = (A − I) ⋅ u5 ∈V1 (1) :
0
0
0 0 1 0 0 0 1
0 0 0 1 0 0 0
u4 = 0 0 0 0 0 1 = 0 , que es un vector propio.
0 0 0 0 0 0 0
0 0 0 0 0 0 0
1 1
El bloque elemental de Jordan asociado a estos 2 vectores { u 4 , u 5 } es J 3 (1) = , ya que
0 1
considerando el endomorfismo asociado a la matriz A f : E
→ E que estará definido en un
cierto espacio vectorial E de dimensión 4, la imagen por f de estos dos vectores será:
f (u 4 ) = A ⋅ u 4 = u4
por ser u 4 vector propio
.
f (u 5 ) = A ⋅ u 5 = u4 + u5
por ser u 4 = Au 5 − u 5
12
A continuación, elegimos otro vector u 3 ∈ V2 (1) − V1 (1) linealmente independiente con u 5 ; u 3
0
0
debe ser forzosamente: u3 = e4 = 0 , y hacemos u2 = (A − I) ⋅ u3 ∈V1 (1) :
1
0
0 0 1 0 0 0 0
0 0 0 1 0 0 1
u2 = 0 0 0 0 0 0 = 0 , que es un vector propio.
0 0 0 0 0 1 0
0 0 0 0 0 0 0
1 1
El bloque elemental de Jordan asociado a estos 2 vectores { u 2 , u 3 } es J 2 (1) = ,
0 1
razonando análogamente a como acabamos de hacer.
Finalmente, para completar la base de Jordan elegimos un vector u1 ∈ V1 (1) linealmente
0
0
independiente con u 2 y u 4 , es decir, tiene que ser: u1 = 0 , cuyo bloque elemental de Jordan
0
1
asociado es J1 (1) = (1) , al ser f (u1 ) = A· u1 = u1 . La forma de Jordan semejante a A es, por
tanto:
1| 0 0 0 0
J1 (1) (0) (0) 0 |1 1| 0 0
J = (0) J 2 (1) (0) = 0 |0 1| 0 0 , siendo la matriz P del cambio de base,
(0)
(0) J 2 (1) 0 0 0 | 1 1 |
0 0 0 |0 1|
es decir, la que tiene por columnas las coordenadas de los vectores de la base de Jordan, que
0 0 0 1 0
0 1 0 0 0
acabamos de obtener: { u1 , u 2 , u 3 , u 4 , u 5 }, P = 0 0 0 0 1 , cumpliéndose, la relación
0 0 1 0 0
1 0 0 0 0
de semejanza: J = P-1·A·P .
13
8.- Dada la aplicación
〈 ,〉: 3
x
3
→
(x , y )
→ 〈x , y〉 = α x1 y1 + 2 x1 y2 + 2x1 y3 + 2x 2 y1 + β x 3 y3 + 3x 2 y2 + 2x 3 y1
x1 y1
siendo x = x 2 e y = y2 , determinar cómo deben ser α y β para que sea
x 3 y3
V = {x = 0, y = 0} . 2 Puntos
Solución:
Para que la aplicación sea un producto escalar debe verificar los siguientes axiomas:
(Bilinealidad).
Si nuestra aplicación fuera un producto escalar, su matriz G sería
< e1 ,e1 > < e1 ,e 2 > < e1 ,e3 > 1 0 0
G = < e 2 ,e 1 > < e 2 ,e 2 > < e 2 ,e 3 > siendo B = e1 = 0 , e 2 = 1 , e 3 = 0 la base
< e ,e > < e ,e > < e ,e > 0
3 1 3 2 3 3 0 1
α
2 2
canónica de 3
. Por tanto, tendríamos que G = 2 3
0 que es una matriz simétrica.
2
0 β
1. La positividad se cumplirá ⇔ G es simétrica y definida positiva ⇔ G cumple el criterio
de Sylvester que nos dice que G simétrica es definida positiva ⇔ sus tres menores principales
son positivos. En nuestro caso, estos tres menores valen
α 2
∆1 = α > 0 ⇔ α > 0, ∆ 2 = = 3α − 4 > 0 ⇔ α > 4 / 3, ∆ 3 = G = 3αβ − 12 − 4 β .
2 3
y de momento no podemos determinar los valores de α , β que hacen que G > 0 .
2. La simetría se cumple ∀α , β ∈ por ser G simétrica, ya que
x, y = x t ⋅ G ⋅ y = ( x t ⋅ G ⋅ y ) = y t ⋅ G t ⋅ (x t ) t = y t ⋅ G ⋅ x = y, x
t
14
0 −1 0
Como la relación α1 1 + α 2 1 = 0 tiene como solución única α1 = α 2 = 0 los
0 1 0
0
−1
vectores de la base de H son h1 = 1 ,h 2 = 1 . Como
0 1
x 0
0 0
V = y ∈
3
/ x = 0, y = 0 = 0 = z 0 / z ∈
= Span v1 = 0 y por tanto,
1
z z 1
V = H ⊥ ⇔ h1 , v 1 = 0 = h 2 , v 1 .
h1 , v1 = e 2 , e 3 = 0 ∀α , β
h 2 , v1 = −e1 + e2 + e 3 , e 3 = 0 = − e1 , e 3 + e 2 , e 3 + e 3 , e 3 = −2 + β = 0 ⇔ β = 2
Consecuentemente, en la propiedad de positividad nos queda que
∆ 3 = G = 3αβ − 12 − 4 β = 6α − 12 − 8 = 6α − 20 > 0 ⇔ α > 10 / 3 , y por tanto, la aplicación
será un producto escalar ∀α , β ∈ con α > 10 / 3 .
En
conclusión, la aplicación es un producto escalar y
V = H ⇔ α > 10 / 3 y β = 2 .
⊥
1
9.- Obtener la parábola mejor aproximación por mínimos cuadrados a f (x) =, en el
x
intervalo [1, 3], usando polinomios ortogonales de Legendre. Plantear el error mínimo
cuadrático cometido en la aproximación. 2.5 Puntos
Nota: La relación de recurrencia para los polinomios de Legendre es:
2
Las normas son: || p n ||2 = n = 0,1, 2,....
2n + 1
x2 x2
x+2 dx = 4 ⋅ Ln(x+2) - 6 - 2x+
2
Solución:
1 1
f (x) = = = g(t) con t ∈ [ −1,1] .
x t+2
3 1 3 1
2 ⋅ P2 (t)= 3t ⋅ P1 (t) − P0 (t) = 3t 2 − 1 P2 (t) = t 2 − 2 = Span 1, t, t 2 −
2 2 2 2
g(t), P1 (t) 3 1 3 1 1 3 1 (t + 2) − 2
λ1 =
2 −1 2 −1 t + 2 2 −1 t + 2
= g(t) ⋅ P1 (t) dx = ⋅ t dt = dt =
|| P1 (t) ||2
3 1 1 3
dt = [ 2 − 2 ⋅ Ln(3)] = 3 (1 − Ln(3) )
1
=
2 −1
dt − 2 − 1 t+2 2
16
g(t), P2 (t) 5 1 5 1 1 3 2 1 15 1 t 2 5 1 dt
λ2 =
2 −1 2 −1 t + 2 2 4 −1 t + 2 4 −1 t + 2
= g(t) ⋅ P2 (t) dx = t − dt = dt −
|| P2 (t) ||2 2
Por tanto,
Ln(3) 55 3 1
p* (t) = + 3 (1 − Ln(3) ) ⋅ t + ⋅ Ln(3) − 15 t 2 −
2 4 2 2
Ln(3) 55 3 1
p(x) = p* ( x − 2 ) = + 3 (1 − Ln(3) ) ⋅ (x − 2) + ⋅ Ln(3) − 15 (x − 2) 2 − =
2 4 2 2
165 45 −51 15
= ⋅ Ln(3) − (x − 2) 2 + 3 (1 − Ln(3) ) ⋅ (x − 2) + ⋅ Ln(3) +
8 2 8 2
1
será el polinomio mejor aproximación de f (x) = en [1,3] .
x
3
( f (x) − p(x) )
2
E = d(f (x), p(x)) = f (x) − p(x) = f (x) − p(x),f (x) − p(x) = =
1
2
1 165
3 45 −51 15
= − ⋅ Ln(3) − (x − 2)2 − 3 (1 − Ln(3) ) ⋅ (x − 2) − ⋅ Ln(3) +
x 8 2 8 2
1
17