Tarea 8, Repaso
Emiliano Solórzano
9 de mayo de 2020
Pg. 10, ej. 1-4
¿Qué teoremas deben ser probados para demostrar a (1),(2), (3) y (4) para
verificar que se cumpla A1 y B1 ?. Suponiendo que se cumplen los demás axiomas
para las operaciones definidas como:
(f + g)(x) = f (x) + g(x)
(1)
(af )(x) = a[f (x)]
A1. Para cada par de vectores α, β ∈ V hay un vector único asociado en V
llamado su suma, denotado por α + β.
B1 Para cada escalar a ∈ F y cada vector α ∈ V , hay un único vector
asociado, llamado el producto de a y α, denotado por aα
1. Sea F = R, y sea V el conjunto de funciones continuas con valores reales
evaluadas en los reales.
2. Sea F = R, y sea V el conjunto de funciones con valores reales en el
intervalo [0, 1] e integrables sobre ese intervalo.
3. Sea F = R, y sea V el conjunto de funciones con valores reales diferencia-
bles al menos m veces, donde m es un entero positivo.
4. Sea F = R, y sea V el conjunto de funciones con valores reales diferencia-
d2 y
bles al menos dos veces y que satisfacen la ecuación diferencial dx 2 +y = 0
En estos casos se ha de tener que demostrar que las propiedades que definien
el espacio vectorial son cerradas bajo las operaciones de suma y multiplicación
por un escalar. Es decir, considerando el caso de (1) es necesario mostrar que
la suma de dos funciones reales continuas dará como resultado nuevamente una
función real continua. Entonces se debe verificar que la continuidad, diferencia-
bilidad e integración son cerradas bajo estas operaciones.
Pg. 12 Teorema 2.2, 2da parte de la demostración
Un conjunto de vectores diferentes de cero {α1 , α2 , ...} es linealmente depen-
diente si y solo si algún αk es una combinación lineal de los αj tal que j < k.
Demostración ←
En este caso se tiene la porposición si algún αk es una combinación lineal
de los αj tal que j < k entonces un conjunto de vectores diferentes de cero
{α1 , α2 , ...} es linealmente dependiente.
Dado que los Pj vectores α son diferentes a cero, entonces existe una relación
no-trivial 0 = i ai αi − αk . Por lo tanto son linealmente dependientes.
Pg. 14, ej 3, 4, 13
3 Un conjunto linealmente independiente se dice que es máximo si este no se
encuentra contenido en un conjunto más largo. Encuentra los conjuntos máximos
del conjunto {p1 (x), p2 (x), p3 (x), p4 (x)} con p1 (x) = x2 +x+1, p2 (x) = x− 2x−2,
p3 (x) = x2 + x − 1, p4 (x) = x − 1.
1
El conjunto se puede representar con una matriz de la forma:
1 1 1
1 −1 −1
1 1 −1
(2)
0 1 −1
Dado que el conjunto de vectores tiene a lo más dimensión tres, este también
es el lı́mite de vectores que puede
tener un conjunto sin que exista una relación
no trivial, se tienen entonces 43 conjuntos, estos son:
1. {p1 (x), p2 (x), p3 (x)}
2. {p1 (x), p2 (x), p4 (x)}
3. {p1 (x), p4 (x), p3 (x)}
4. {p1 (x), p3 (x), p4 (x)}
Probando con el determinante de cada una de las matrices que describen es-
tos subconjuntos que en ningún caso dan cero. Por lo tanto todos son conjuntos
máximos.
4 Muestra que ningun conjunto finito produce a P ; de otra forma, muestra
que no existe un conjunto maximal finito linealmente independiente subconjunto
de P.
Demostración Por contradicción: Suponemos que tenemos un conjunto
máximo finito de n polinomios {p1 (x), p2 (x), ..., pn (x)} que genera a P . Da-
do que estos son linealmente indepnedientes no existe una relación no-trivial
entre ellos . Pk
Sea ahora un polinomio pk (x) de la forma i ai xi , donde k > n. Sin embar-
go dado que el conjunto máximo posee n vectores, estos deben ser a lo más de
dimensión n para que no exista una relación no trivial entre ellos. Por lo tanto
el conjunto no puede formar a pk (x). Y por tanto no existe un conjunto finito
que pueda formar a P .
13 Muestra que si un subconjuto de S es linealmente dependiente, entonces
S es linelamente dependiente.
Sea un conjunto de vectores linealmente dependientes S1 = {α1 , α2 , ..., αk }
Pk
de manera que existen los escalares ai tales que 0 = i=1 ai αi , a este se puede
agregar un nuevo vector S2 = S1 ∪ {αk+1 }. Este nuevo conjunto contiene al
previo y sigue existiendo la dependencia lineal simplemente agregando el termino
ak+1 = 0.
Pg. 15, ej 16
Muestra que si cada uno de los vectores {β0 , β1 , ..., βn } es una combina-
ción lineal de los vectores {α1 , ..., αn }, entonces {β0 , β1 , ..., βn } es linealmente
dependiente.
PnDado que son una combinación lineal, cada βi puede ser expresado como βi =
i=1 ai αi . De esta forma se pueden formar a lo más n vectores β independientes.
Entonces la inclusión del vector β0 genera una relacion de dependencia en los
vectores.
2
Pg. 20, ej. 5, 6
5 Muestra que un conjunto máximo linealmente independiente es una base.
Sea un conjunto máximo A = {α1 , α2 , ...} el cual es linealmente indepen-
diente y no se encuentra contendio en ningún otro en ningún otro conjunto
linealmente independiente. Dada la definición, considerando que V es un espa-
cio de dimensión finita n, entonces cualquier conjunto linealmente independiente
debe tener a lo más n elementos. Dado que no está contenido en ningún otro
conjunto el conjunto máximo tiene n elementos y por el teorema 3.3, A es una
base.
6 Muestra que un conjunto generador mı́nimo es una base.
Por definición un conjunto generador es capaz de generar a V con los vectores
{α1 , α2 , ..}. Se pueden remover todos aquellos vectores αk que sean dependientes
de otros vectores en A, hasta llegar al conjunto mı́nimo, el cual debe a lo menos n
elementos para que pueda seguir generando a V . Dado que se han eliminado los
vectores que posen dependencias lineales a otros, los restantes serán linealmente
independientes. Dado que genera a V y es linealmente independiente, entonces
este conjunto de vectores es una base para V .
Pg. 24, Teorema 4.10
Para que la suma de varios subespacios de un espacio vectorial dimensio-
nalmente finito sea directa es necesario y suficiente que dim(W1 , +... + Wk ) =
dim W1 + ... + dim Wn
Para que una suma de dos subespacios dim(W1 + W2 ) = dim W1 + dim W2 −
dim sea directa es necesario que dim(W1 ∩W2 ) = {0}. Para el caso n dimensional
se puede expresar la suma como:
n
X X
dim(W1 , +... + Wn ) = dim (Wi ) − dim (Wi ∩ Wj ) +
i=1 i,j : 1≤i<j≤n
X n+1
dim (Wi ∩ Wj ∩ Wk ) − · · · + (−1) dim (W1 ∩ · · · ∩ Wn )
i,j,k : 1≤i<j<k≤n
(3)
Sin embargo
Pn sabemos que en este caso dim(W1 , +... + Wn ) = dim W1 + ... +
dim Wn = i=1 dim (Wi ), entonces
n
X n
X X
dim (Wi ) = dim (Wi ) − dim (Wi ∩ Wj ) +
i=1 i=1 i,j : 1≤i<j≤n
X n+1
dim (Wi ∩ Wj ∩ Wk ) − · · · + (−1) dim (W1 ∩ · · · ∩ Wn )
i,j,k : 1≤i<j<k≤n
(4)
Por lo tanto, del segundo término para cualquier par Wi , Wj , i 6= j, se tiene
que dim(Wi ∩ Wj ) = 0. Y en general ninguno posee elementos en común además
del cero.
3
Pg.25, ej. 8, 13
8 Sea W = h(1, 2, 3, 6), (4, −1, 3, 6), (5, 1, 6, 12)i y W2 = h(1, −1, 1, 1), (2, −1, 4, 5)i
subespacios de R4 . Encuentra las bases para W1 ∩ W2 y W1 + W2 .
Primero para encontrar una base para W1 +W2 se puede formular una reduc-
ción por Gauus-Jordan para eliminar a los vectores linealmente independientes
de la matriz que conforman los vectores dados. De esta forma:
1 2 3 6 1 0 0 1
4 −1 3 6 0 1 0 1
5 1 6 12 −−−−−−−−→ 0 0 1 1 (5)
Gauss-Jordan
1 −1 1 1 0 0 0 0
2 −1 4 5 0 0 0 0
Donde h(1, 0, 0, 1), (0, 1, 0, 1), (0, 0, 1, 1)i es la base para W1 + W2 con dimen-
sión 3.
Primero para calcular la dimensión de la intersección se puede de la siguiente
forma,
dim(W1 + W2 ) = dim(W1 ) + dim(W2 ) − dim(W1 ∩ W2 )
3 = 2 + 2 − dim(W1 ∩ W2 ) (6)
dim(W1 ∩ W2 ) = 1
Donde las dimensiones de w1 , W2 fueron encontradas nuevamente mediante
reducción de sus matrices.
1 2 3 6 1 0 1 2
4 −1 3 6 → 0 1 1 2 (7)
5 1 6 12 0 0 0 0
1 −1 1 1 1 0 3 4
→ (8)
2 −1 4 5 0 1 2 3
Reduciendo ahora la matriz de ambas:
1 0 1 2 1 0 1 2
0 1 1 2 0 1 1 2
→
1 0 3 4 0 0 2 2
0 1 2 3 0 1 2 3
1 0 1 2
0 1 1 2
→
0
0 2 2
0 1 0 1
(9)
1 0 1 2
0 1 1 2
→
0
0 2 2
0 0 −1 −1
1 0 1 2
0 1 1 2
→
0
0 2 2
0 0 0 0
4
Dado que la última fila fue igualada a cero, este vector es el elemento común
de ambas bases y entonces la base para W1 ∩ W2 es h(0, 1, 2, 3)i.
13 Sean S, T y T ∗ tres subespacios de V (de dimensión finita), para los
cuales (a) S ∩ T = S ∩ T ∗ , (b) S + T = S + T ∗ , (c) T ⊂ T ∗ . Entonces muestra
que T = T ∗ .
Dado el punto (c), una base A = {α1 , α2 , ..., αn } que genera a T ∗ también
es capaz de generar a T tras reducirla retirando elementos que no a la base
A0 = {α1 , α2 , ..., αk }, donde k ≤ n.
Por el teorema 4.8 se tiene que si la sumas S + T = S + T ∗ , entonces
dim S + dim T ∗ − dim(S ∩ T ∗ ) = dim S + dim T − dim(S ∩ T )
dim T ∗ − dim(S ∩ T ∗ ) = dim T − dim(S ∩ T ) (10)
∗
dim T = dim T por el punto (a)
Luego entonces poseen la misma dimensión y las bases A = A0 . Dado que
son generados por las mismas bases T = T ∗ .
Pg 31, Corolario 1.3
Si U1 es un subespacio de U , entonces τ (U1 ) es un subespacio de V .
Ya que U1 es un subespacio de U los axiomas de suma y multiplicación se
cumplen para este. Entonces el elemento 0 está contenido en U1 , por lo que
τ (0) = 0 de manera que el elemento 0 también lo está en el subespacio. Luego
con un par de a, b ∈ F y vectores α1 , α2 ∈ U1 , τ (aα1 ), τ (bα2 ) ∈ V , y de igual
forma τ (aα1 + bα2 ) ∈ V lo cual es válido ya que todos los elementos de u1 son
elementos de U . De forma que τ (U1 ) genera un subespacio en V .
Pg 33, Corolarios 1.10, 1.11
1.10 ρ(τ σ) = dim{Im(σ) + K(τ )} − ν(τ )
De la definición del teorema 1.9
ρ(σ) = ρ(τ σ) + dim(Im(σ) ∩ K(τ ))
ρ(τ σ) = ρ(σ) − dim(Im(σ) ∩ K(τ ))
ρ(τ σ) = ρ(σ) − dim(Im(σ)) − dim(K(τ )) + dim(Im(σ) + K(τ )) Teorema 4.8
ρ(τ σ) = ρ(σ) − ρ(σ) − ν(τ ) + dim(Im(σ) + K(τ )) por deffnición de ρ y ν
ρ(τ σ) = dim(Im(σ) + K(τ )) − ν(τ )
(11)
1.11 Si K(τ ) ⊂ Im(σ), entonces ρ(σ) = ρ(τ σ) + ν(τ )
Del corolario anterior
5
ρ(τ σ) = dim(Im(σ) + K(τ )) − ν(τ )
ρ(τ σ) = ρ(σ) + ν(τ ) − dim(Im(σ) ∩ (K(τ ))) − ν(τ ) Teorema 4.8
ρ(τ σ) = ρ(σ) − dim(Im(σ) ∩ (K(τ ))) (12)
ρ(τ σ) = ρ(σ) − dim((K(τ )) Ya que K(τ ) ⊂ Im(σ)
ρ(σ) = ρ(τ σ) + ν(τ )
Pg. 35, ej. 2, 4
2 Sea σ1 ((x1 , x2 )) = (x2 , −x1 ) y σ2 ((x1, x2)) = (x1 , −x2 ). Determina σ1 +σ2 ,
σ1 σ2 y σ2 σ1
σ1 + σ2 = (x2 + x1 , −x1 − x2 ) (13)
σ1 σ2 = σ1 ((x1 , −x2 )) = (−x2 − x1 ) (14)
σ2 σ1 = σ2 ((x2 , −x1 )) = (x2 , x1 ) (15)
.
4 Sea σ((x1 , x2 , x3 , x4 )) = (3x1 −2x2 −x3 −4x4 , x1 +x2 −2x3 −3x4 ). Muestra
que σ es una transformación lineal y encuentra el kernel de σ.
Evaluando en el vector 0:
3(0) − 2(0) − (0) − 4(0), (0) + (0) − 2(0) − 3x(0)) = 0 (16)
Sean dos vectores α, β ∈ R4 y a, b ∈ F
σ(aα) = (3aα1 − 2aα2 − aα3 − 4aα4 , aα1 + aα2 − 2aα3 − 3aα4 )
(17)
σ(aα) = aσ(α)
σ(α) + σ(β) = (3α1 − 2α2 − α3 − 4α4 , α1 + α2 − 2α3 − 3α4 )+
(3β1 − 2β2 − β3 − 4β4 , β1 + β2 − 2β3 − 3β4 )
= (3(α1 + β1 ) − 2(α2 + β2 ) − (α3 + β3 ) − 4(α4 + β4 ), (18)
(α1 + β1 ) + (α2 + β2 ) − 2(α3 + β3 ) − 3(α4 + β4 ))
= σ(α + β)
Entonces σ(aα + bβ) = aσ(α) + bσ(β) y por tanto es una transformación
lineal.
Para encontrar el kernel se puede reducr la matriz:
3 −2 −1 −4 1 0 −1 −2
→ (19)
1 1 −1 −3 0 1 −1 −1
De manera que el kernel es el conjunto de vectores dado por {(x1 , x2 , x3 , x4 )|x1 −
x3 − 2x4 = 0, x2 − x2 − x4 = 0}
6
Pg 36, ej. 9
Muestra que si dos transformaciones escalares coinciden en U entonces los
escalares que definen son iguales.
Definiendo una transformación escalar de α ∈ U como β = aα, esta se
encontrará nuevamente en U por las propiedades de la multiplicación. De manera
que puede obtener cualquier β ∈ U como β = a−1 α. Entonces si se tiene dos
transformaciones escalares (β = cα siendo la segunda) que llevan a β
aα = (−β + cα) + aα = cα + (aα − β) = cα
aα = cα (20)
a=c