0% encontró este documento útil (0 votos)
162 vistas16 páginas

Definición y Ejemplos de Espacios Vectoriales

Este documento introduce el concepto de espacio vectorial y provee varios ejemplos ilustrativos. Un espacio vectorial es un conjunto con dos operaciones definidas, suma y producto por escalares, que satisfacen ciertas propiedades. Se definen subespacios vectoriales y dependencia lineal. Se muestran ejemplos como R2, conjuntos de n-uplas, polinomios y funciones como espacios vectoriales.

Cargado por

CAMPO
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
162 vistas16 páginas

Definición y Ejemplos de Espacios Vectoriales

Este documento introduce el concepto de espacio vectorial y provee varios ejemplos ilustrativos. Un espacio vectorial es un conjunto con dos operaciones definidas, suma y producto por escalares, que satisfacen ciertas propiedades. Se definen subespacios vectoriales y dependencia lineal. Se muestran ejemplos como R2, conjuntos de n-uplas, polinomios y funciones como espacios vectoriales.

Cargado por

CAMPO
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

Capítulo 7

Espacios vectoriales

7.1 Definición y ejemplos


Un espacio vectorial sobre un cuerpo K (que supondremos conmutativo) es un conjunto no vacío
junto con

1. una operación interna, +, a la que llamaremos suma, que cumple las siguientes propiedades:

1.a) asociativa: u + (v + w) = (u + v) + w, ∀u, v, w ∈ E;


1.b) conmutativa: u + v = v + u, ∀u, v ∈ E;
1.c) elemento neutro: ∃0 ∈ E tal que u + 0 = u, ∀u ∈ E;
1.d) para todo u ∈ E existe otro elemento, que llamaremos opuesto y denotaremos −u, en
E tal que: u + (−u) = 0;

2. y una aplicación:

K × E −→ E
(λ, u) 7−→ λu

que denominaremos producto por escalares, que cumple:

2.a) λ(u + v) = λu + λv, ∀λ ∈ K, u, v ∈ E


2.b) (λ + µ)u = λu + µu, ∀λ, µ ∈ K, u ∈ E;
2.c) (λµ)u = λ(µu), ∀λ, µ ∈ K, u ∈ E;
2.d) 1u = u, ∀u ∈ E, siendo 1 el elemento neutro del producto en K.

A los elementos de E les llamaremos vectores, y a los de K, escalares. Usaremos la notación


u − v para la suma u + (−v).
De la definición se deduce fácilmente:

• ∀v ∈ E, 0v = 0. En efecto:
0v = (0 + 0)v = 0v + 0v =⇒ 0v = 0 .

103
Definición y ejemplos

• ∀λ ∈ K, λ0 = 0. Se sigue directamente de:

λ0 = λ(0 + 0) = λ0 + λ0 =⇒ λ0 = 0 .

• λv = 0 =⇒ λ = 0 ó v = 0. Es claro que si λ 6= 0 entonces λ tiene un inverso, λ−1 ∈ K, y así:

v = 1v = (λ−1 λ)v = λ−1 (λv) = λ−1 0 = 0 .

• (−1)v = −v, ∀v ∈ E. En efecto:

v + (−1)v = 1v + (−1)v = (1 + (−1))v = 0v = 0 =⇒ (−1)v = −v .

7.1.1 Ejemplos
Ejemplo 45 El conjunto R2 con las dos operaciones:

(x, y) + (z, t) = (x + z, y + t)
λ(x, y) = (λx, λy) ,

es un espacio vectorial sobre R. Los elementos (vectores) de R2 se representan a menudo como puntos
en el plano, y la suma así definida coincide con la ley del paralelogramo:

y+t

z x x+z

Ejemplo 46 El conjunto Kn , formado por las n–uplas (x1 , . . . , xn ) con coordenadas xi ∈ K, con las
operaciones:

(x1 , . . . , xn ) + (y1 , . . . , yn ) = (x1 + y1 , . . . , xn + yn )


λ(x1 , . . . , xn ) = (λx1 , . . . , λxn ) ,

es un espacio vectorial sobre K.

Ejemplo 47 Cualquier cuerpo K es espacio vectorial sobre sí mismo, si tomamos las operaciones
suma y producto por escalares como la suma y el producto en el cuerpo.
Los reales R forman un espacio vectorial sobre los racionales Q (así como C sobre R o sobre Q),
con las operaciones habituales.

Ejemplo 48 El conjunto de soluciones de un sistema homogéneo de m ecuaciones lineales con n


incógnitas, y con coeficientes en un cuerpo K, es un espacio vectorial sobre K (con las operaciones
habituales de n–uplas definidas en el ejemplo 46)

104
Espacios vectoriales

Ejemplo 49 El conjunto de las matrices Mm×n (K) con las operaciones suma y producto por esca-
lares definidas en el tema anterior, forma un espacio vectorial sobre K.

Ejemplo 50 El conjunto, K[x], de polinomios en una variable, x, con coeficientes en un cuerpo K,


con las operaciones suma y producto por escalares habituales, es un espacio vectorial sobre K.
Los polinomios en cualquier número de variables, K[x1 , x2 , . . . , xn ], con las operaciones suma y
producto por escalares habituales, también forman un espacio vectorial sobre K.

Ejemplo 51 Lo dicho en el ejemplo 50 se puede extender a los conjuntos de funciones con valores
en un cuerpo K. Si denotamos por FK (X) el conjunto de funciones con valores en el cuerpo K, y
definimos las operaciones:

suma: (f + g) ∈ FK (X) definida por (f + g)(x) = f (x) + g(x)


producto por escalares: λ · f ∈ FK (X) definida por (λf )(x) = λf (x)

para cualesquiera f, g ∈ FK (X), x ∈ K, tenemos una estructura de espacio vectorial sobre K. Lo


mismo podemos hacer para el conjunto de funciones continuas, CK (X), con valores en el cuerpo K.
En ambos casos la función 0 : X −→ K, definida por 0(x) = 0K (el elemento neutro de la suma en K)
es el elemento neutro de la suma en el espacio vectorial. ¿Quién es el opuesto de una función f ?

7.2 Subespacios vectoriales


Sea E un espacio vectorial sobre K. Un subconjunto no vacío F ⊂ E se dice un subespacio vec-
torial de E si se verifican las siguientes condiciones:
1. u, v ∈ F =⇒ u + v ∈ F ;

2. u ∈ F , λ ∈ K =⇒ λu ∈ F .

Nota 1 Obsérvese que si F es un subespacio vectorial de un espacio vectorial, E, sobre K, entonces


es un espacio vectorial sobre K. Basta verificar que existen elementos neutro y opuestos para la suma,
pues el resto de propiedades las hereda del espacio vectorial E (¿por qué?). Ahora bien, siendo F no
vacío, existe un elemento, digamos u ∈ F . Por otra parte, siendo subespacio vectorial, por la propiedad
2 se tiene que −u = (−1)u, el opuesto de u, también pertenece a F , y así, u + (−u) = 0 ∈ F , por la
propiedad 1. Hemos demostrado así el siguiente resultado
Proposición 5 Si E es un espacio vectorial sobre K, y F ⊂ E es un subespacio vectorial, entonces
F es un espacio vectorial sobre K.

Ejemplo 52 Dado un sistema homogéneo con matriz de coeficientes A = (ai,j ) ∈ Mm×n (K), el
conjunto de soluciones S ⊂ Kn es un subespacio vectorial del espacio vectorial Kn sobre K. En
particular, S es un espacio vectorial sobre K (cf. ejemplo 48).
Puesto que todo sistema homogéneo es compatible, es evidente que S 6= ∅ (es no vacío). Por otra
parte si (s1 , . . . , sn ) ∈ S y (t1 , . . . , tn ) ∈ S es porque:
X n Xn
ai,j sj = 0 = ai,j tj , ∀i = 1, . . . , n .
j=1 j=1

105
Subespacios vectoriales

Puesto que n es un número finito, podemos deducir las siguientes igualdades:


Xn n
X n
X
ai,j (sj + tj ) = ai,j sj + ai,j tj = 0 + 0 = 0, ∀i = 1, . . . , n ,
j=1 j=1 j=1

en otras palabras (s1 , . . . , sn ) + (t1 , . . . , tn ) = (s1 + t1 , . . . , sn + tn ) ∈ S. También, para cualquier


λ ∈ K tenemos que: n n
X X
ai,j (λsj ) = λ ai,j sj = λ0 = 0, ∀i = 1, . . . , n ,
j=1 j=1

de donde λ(s1 , . . . , sn ) = (λs1 , . . . , λsn ) ∈ S.

Ejemplo 53 El conjunto de soluciones de un sistema compatible no homogéneo no es un espa-


cio vectorial. Compruébese que no se verifican ninguna de las dos condiciones para ser subespacio
vectorial.

7.2.1 Dependencia lineal


Un vector u de un espacio vectorial E sobre K se dice que es combinación lineal de los vectores
v1 , . . . , vk ∈ E, si existen escalares λ1 , . . . , λk ∈ K tales que
k
X
u = λ1 v1 + · · · + λk vk = λj vj .
j=1

De las condiciones 1 y 2 de subespacio vectorial resulta que toda combinación lineal de vectores
v1 , . . . , vk ∈ F es un vector de F . La combinación con todos los escalares 0 produce el vector 0,
aunque en ocasiones podemos conseguir el vector 0 como combinación lineal de otros vectores, sin
tener que utilizar esta combinación trivial.

Definición 7.2.1. De un conjunto de vectores {v1 , . . . , vk } en un espacio vectorial E se dice que son
linealmente independientes si la única combinación lineal de ellos que nos da el vector 0 es con todos
los escalares 0, es decir, si

0 = λ1 v1 + · · · + λk vk ⇐⇒ λ1 = λ2 = · · · = λk = 0 .

Decimos que un conjunto de vectores {v1 , . . . , vk } son linealmente dependientes si no son lineal-
k
P
mente independientes, es decir, si existen escalares λ1 , . . . , λk ∈ K, no todos nulos, con 0 = λj vj .
j=1

Ejemplo 54 Decidir si los siguientes son vectores linealmente independientes de R5 :

v1 = (0, 1, 3, 5, −2), v2 = (1, 2, −1, −1, 2), v3 = (1, 5, 2, 4, 0),


v4 = (2, 7, 1, 3, 2), v5 = (−2, −3, 5, 7, −4) .

Sean λ1 , . . . , λ5 ∈ R tales que: 5


X
λj vj = (0, 0, 0, 0, 0) ,
j=1

106
Espacios vectoriales

de otra manera, igualando coordenada a coordenada, tales que:




 λ2 + λ3 +2λ4 −2λ5 = 0
λ1 +2λ2 +5λ3 +7λ4 −3λ5 = 0



3λ1 − λ2 +2λ3 + λ4 +5λ5 = 0
5λ1 − λ2 +4λ3 +3λ4 +7λ5 = 0




−2λ1 +2λ2 +2λ4 −4λ5 = 0

Se nos plantea así un sistema homogéneo en las variables λ1 , λ2 , λ3 , λ4 y λ5 , con matriz de coeficientes:
 
0 1 1 2 −2
 1
 2 5 7 −3  
A =  3 −1 2 1
 5  
 5 −1 4 3 7 
−2 2 0 2 −4

en la que aparecen como columnas los 5 vectores v1 , . . . , v5 . Del carácter de este sistema homogéneo
(y por tanto compatible), nos informa el rango de esta matriz: el sistema es compatible determinado
⇐⇒ rg(A) = 5; en otro caso es indeterminado. Mediante operaciones elementales (por filas) se tiene
que:

1 −1 4 3 7 
1 −1 4 3 7 
 
  5 5 5 5 5 5 5 5
5 −1 4 3 7 
 0 11 21 32 −22 
 
 0 1 1 2 −2 

 1
 2 5 7 −3   
 5 5 5 5 


 0 −2 −2 −4 4 

A ∼  3 −1 2 1  ∼  0 −2
5  −2 −4 4  ∼ 5 5 5 5 
 
5 5 5 5

 0 1 1 2 −2  


  0 11
 21 32 −22 

5 5 5 5 
−2 2 0 2 −4  0 1 1 2 −2  
−6 −6
0 85 8
5
16
5 5
0 85 8
5
16
5 5

1 −1 4 3 7
1 −1 4 3 7
     
5 5 5 5 5 5 5 5 1 0 0 0 0

 0 1 1 2 −2 
 
 0 1 1 2 −2 
  0 1 0 1 0 
 
∼ 0 0 0 0 0  ∼ 0 0 1 1 0  ∼ 0 0 1 1 0
    
 

 0 0 2 2 0 
 
 0 0 0 0 1 
  0 0 0 0 1 
0 0 0 0 2 0 0 0 0 0 0 0 0 0 0

Tenemos así que rg(A) = 4 < 5, luego el sistema es compatible indeterminado, y en particular existe
alguna solución no trivial. Por ejemplo:

λ1 = 0 = λ5 , λ4 = −1, λ2 = 1 = λ3

de hecho el conjunto de soluciones es:

Sλ = {(λ1 , λ2 , λ3 , λ4 , λ5 ) ∈ R5 : λ1 = 0, λ2 = −t, λ3 = −t, λ4 = t, λ5 = 0}


= {(0, −t, −t, t, 0) ∈ R5 : t ∈ R} .

A la vista de este resultado, deducimos que los 5 vectores dados no son linealmente inde-
pendientes.

107
Base de un espacio vectorial. Dimensión

Podemos deducir algo más de este ejemplo. Si quitamos el vector v4 , y nos preguntamos sobre la
dependencia lineal de los vectores:
u1 = (0, 1, 3, 5, −2), u2 = (1, 2, −1, −1, 2), u3 = (1, 5, 2, 4, 0), u4 = (−2, −3, 5, 7, −4) ;
a la vista del cálculo anterior podemos asegurar que u1 , u2 , u3 y u4 son vectores linealmente inde-
pendientes de R5 . Los siguientes conceptos clarifican esta situación.
Definición 7.2.2. Dado un subconjunto S de un espacio vectorial E sobre K, denotaremos por
< S > al conjunto de todas las combinaciones lineales de elementos de S. Todo subespacio vectorial
F ⊂ E que contenga al conjunto S, deberá contener también al nuevo conjunto < S >; y se sigue
fácilmente que el mismo < S > es un subespacio vectorial.
Proposición 6 Si S es un subconjunto de un espacio vectorial E, el conjunto < S > es el menor
subespacio vectorial de E que contiene a S.
Si < S >= F , diremos que S genera F , que F está generado por S, o bien que S es un sistema
de generadores de F .
Ejemplo 55 El espacio vectorial R2 está generado por los vectores (1, 0) y (0, 1), puesto que todo
vector (x, y) ∈ R2 se puede escribir de la forma:
(x, y) = x(1, 0) + y(0, 1) .
En general,
Kn =< (1, 0, 0, . . . , 0, 0), (0, 1, 0, . . . , 0, 0), . . . , (0, 0, 0, . . . , 0, 1) > .
Ejemplo 56 Cualquier polinomio P ∈ K[x] de grado k se puede escribir como combinación lineal
de los monomios 1, x, x2 , . . . , xk . Se tiene así que:
K[x] =< 1, x, x2 , . . . , xn , . . . > .
En el espacio vectorial K[x] el conjunto de polinomios de grado menor o igual que un n fijo, es
un subespacio vectorial sobre K. Coincide con el subespacio vectorial generado por {1, x, . . . , xn }.
Ejemplo 57 El subespacio vectorial de R2 generado por el vector no nulo v = (1, 3) es la recta que
pasa por los puntos (0, 0) y (1, 3), cuya ecuación es:
y = 3x ⇐⇒ 3x − y = 0 .
En efecto, el subespacio vectorial < (1, 3) > es el conjunto:
{(λ, 3λ) ∈ R2 : λ ∈ R} = {(x, y) ∈ R2 : y = 3x, x ∈ R} .
Ejemplo 58 En general, si v = (v1 , . . . , vn ) ∈ Rn es un vector no nulo, el subespacio vectorial
< v > es la recta que pasa por el origen y el punto de coordenadas (v1 , . . . , vn ). Se denominan rectas
vectoriales a las rectas que pasan por el origen. Siempre podemos dar un sistema homogéneo de
n − 1 ecuaciones lineales con rango n − 1, para determinar una recta vectorial como el conjunto de
soluciones del sistema.
Por ejemplo, la recta vectorial de R3 generada por el vector v = (1, 0, 3), viene dada como el
conjunto de soluciones del sistema homogéneo:
½
3x − z = 0
y = 0
¿sabrías indicar por qué?

108
Espacios vectoriales

7.3 Base de un espacio vectorial. Dimensión


Definición 7.3.1. Una base de un espacio vectorial E es un sistema de generadores linealmente
independientes.

Una diferencia fundamental entre conocer un sistema de generadores o una base para un espacio
vectorial queda enunciada en el siguiente resultado:

Proposición 7 Un subconjunto B ⊂ E es una base del espacio vectorial E si y sólo si todo u ∈ E


se expresa de manera única como combinación lineal de elementos de B.

Dem.: (=⇒). Dado u ∈ E, puesto que B es sistema de generadores de E, u es combinación lineal


de elementos de B. Si tenemos dos expresiones de u:
X X
u= λj vj , u= µk vj
j j

(podemos completar con ceros para tener los mismos vectores de B en ambas expresiones), restando
ambas tendríamos: X
0= (λj − µj )vj .
j

Puesto que en B tenemos independencia lineal, esta igualdad sólo es posible si cada coeficiente es 0,
de otra manera la expresión es única.
(⇐=). El vector 0 ∈ E tendrá una expresión como vectores de B:
X
0= λj vk
k

y estamos suponiendo que es única. Por tanto λj = 0, ∀j, esto es B es un sistema de generadores
linealmente independientes. ¥

Nota 2 Si S es linealmente independiente, S es una base de < S >.

Definición 7.3.2. Si B = {v1 , . . . , vn } es una base del espacio vectorial E, todo vector u ∈ E tendrá
una expresión única:
Xn
u= λj vj .
j=1

Escribiremos entonces u = (λ1 , . . . , λn ) y llamaremos a los escalares λ1 , . . . , λn las coordenadas


de u en la base B.

Ejemplo 59 Dados dos vectores u, v ∈ Kn linealmente independientes, llamamos plano vectorial al


subespacio
< u, v >= {λ · u + µ · v : λ, µ ∈ K} .
Como en el caso de las rectas vectoriales, si tomamos coordenadas x1 , . . . , xn para representar los
vectores de Kn , podemos encontrar un sistema lineal homogéneo en las variables x1 , . . . , xn , que tenga
como conjunto de soluciones el plano vectorial < u, v >. Un tal sistema tendrá rango n − 2.

109
Base de un espacio vectorial. Dimensión

Calculemos, por ejemplo, un sistema lineal homogéneo cuyo conjunto de soluciones sea el subes-
pacio vectorial de R3 generado por los vectores (3, 1, 2) y (2, 2, −1). Si denotamos por x, y, z a las
coordenadas de un vector v ∈ R3 , podemos escribir:

< (3, 1, 2), (2, 2, −1) > = {λ(3, 1, 2) + µ(2, 2, −1) : λ, µ ∈ K}


= {(3λ + 2µ, λ + 2µ, 2λ − µ) λ, µ ∈ K}
= {(x, y, z) ∈ R3 : x = 3λ + 2µ, y = λ + 2µ, z = 2λ − µ} .

Si queremos escribir el sistema homogéneo, debemos eliminar los parámetros λ y µ de esta descripción,
y poder escribir toda la información en función de las variables x, y, z. Para ello bastaría con escribir
λ y µ en función de estas variables, e igualar las distintas expresiones obtenidas. Se nos plantea así,
resolver el siguiente sistema de ecuaciones lineales en las variables λ, µ:

 3λ + 2µ = x
λ + 2µ = y
2λ − µ = z

De las dos primeras ecuaciones, obtenemos:


2x − 2y

µ ¶µ ¶ µ ¶ µ ¶ µ 2 −2
¶µ ¶  λ =

3 2 λ x λ x 4
= ⇐⇒ = −1
4 4
3 ⇐⇒
1 2 µ y µ 4 4
y  µ =
 −x + 3y
4
de las ecuaciones primera y tercera:
x + 2z

µ ¶µ ¶ µ ¶ µ ¶ µ 1 2
¶µ ¶  λ =

3 2 λ x λ x 7
= ⇐⇒ = 7
2 −3
7 ⇐⇒
2 −1 µ z µ 7 7
z  µ =
 2x − 3z
7
y de las dos últimas:
y + 2z

µ ¶µ ¶ µ ¶ µ ¶ µ 1 2
¶µ ¶  λ =

1 2 λ y λ y 5
= ⇐⇒ = 5
2
5
−1 ⇐⇒
2 −1 µ z µ z  µ = 2y −z
5 5 .

5
Ahora bien, igualando las distintas expresiones que hemos encontrado para λ y µ se obtiene siempre
la misma ecuación:
5x − 7y − 4z = 0 .
Es directo comprobar que los vectores (3, 1, 2) y (2, 2, −1) son ambos solución de esta ecuación.
Se comprueba también que, considerada como sistema de ecuaciones lineales homogéneo, su matriz
de coeficientes tiene rango 1 = 3 − 2, como afirmábamos más arriba.

Ejercicio. Repetir lo anterior para el plano generado por los vectores (1, −1, 2, −2), (3, 2, 4, 1) ∈ R4 .

Los siguientes resultados van encaminados a probar que todo espacio vectorial de dimensión finita,
tiene una base con un número finito de generadores.

110
Espacios vectoriales

Proposición 8 Si E 6= {0} es un espacio vectorial, B = {v1 , . . . , vn } ⊂ E una base (finita) y S un


sistema de generadores de E, entonces cardinal(S) ≥ n.
Dem.: Puesto que cada vector vi de la base está en E, si S = {w1 , . . . , wk } genera a E entonces
existen escalares λi,j , para i = 1, . . . , n, j = 1, . . . , k tales que:
X k
vi = λi,j wj .
j=1

Por otra parte, {v1 , . . . , vn } es una base de E, y S ⊂ E, luego existen únicos escalares aj,ℓ para cada
j = 1, . . . , k, ℓ = 1, . . . , n de manera que: n
X
wj = aj,ℓ vℓ .
ℓ=1

Finalmente, de los mismos vi , escritos en la base {v1 , . . . , vn }, conocemos su expresión única:


vi = 1 · vi = 0v1 + · · · + 1 · vi + · · · + 0vn .
k
à n !
En particular: X X
vi = λi,j aj,ℓ vℓ
j=1 ℓ=1
k X
n ½
X 0 si i 6= ℓ
⇐⇒ λi,j · aj,ℓ =
1 si i = ℓ ,
j=1 ℓ=1
 
o, matricialmente: 1 0
(λi,j )n×k (aj,ℓ )k×n = ..
.
 

0 1 n×n
de donde:
n = rg ((λi,j ) (aj,ℓ )) ≤ rg ((λi,j )) ≤ k .
¥
Corolario 3 Si el espacio vectorial E tiene una base finita, todas las bases de E tienen el mismo
número de vectores.
Definición 7.3.3. La dimensión de un espacio vectorial E 6= {0} sobre K, que denotaremos dim E,
es el número de vectores en cualquiera de sus bases, si son finitas. Si no lo son, decimos que E es de
dimensión infinita. Decimos del espacio vectorial {0} que tiene dimensión 0.
Proposición 9 Si S = {v1 , . . . , vm } es linealmente independiente y u ∈<
/ S >, entonces S ∪ {u} es
linealmente independiente.
Dem.: Sea
au + λ1 v1 + · · · + λm vm = 0 .
Si a 6= 0, entonces existe su inverso a−1 = 1/a y:
−λ1 −λm
u= v1 + · · · + vm ∈ < S > ,
a a
y así a = 0. Pero entonces tendríamos:
λ1 v1 + · · · + λm vm = 0
de donde λi = 0, i = 1, . . . , m, pues {v1 , . . . , vm } es linealmente independiente. ¥

111
Base de un espacio vectorial. Dimensión

Proposición 10 Un conjunto de vectores, {v1 , . . . , vm }, es linealmente dependiente si y sólo si uno


de ellos es combinación lineal de los otros.

Dem.: (=⇒). Si son linealmente dependientes existen λj , j = 1, . . . , m, no todos nulos tales que:

λ1 v1 + · · · + λm vm = 0 .

Supongamos que λ1 6= 0, entonces existe su inverso λ−1


1 = 1/λ1 y podremos escribir:

−λ2 −λm
v1 = v2 + · · · + vm .
λ1 λ1

(⇐=). Si v1 = a2 v2 + · · · + am vm entonces:

1 · v1 + (−a2 )v2 + · · · + (−am )vm = 0 ,

es decir, {v1 , . . . , vm } son linealmente dependientes. ¥

Proposición 11 Todo espacio vectorial E 6= {0} generado por un número finito de vectores, tiene
una base finita.

Dem.: Supongamos E =< v1 , . . . , vm >. Si {v1 , . . . , vm } son linealmente independientes, tenemos


ya una base finita.
En caso contrario, existe uno que es combinación lineal de los demás (Prop. 10). Supongamos que
es v1 , entonces podemos probar que:

E =< v1 , v2 , . . . , vm >=< v2 , . . . , vm > .


m
P m
P
En efecto, si v1 = aj vj , y u = λj vj ∈ E =< v1 , . . . , vm >, entonces:
j=2 j=1

m
X
u = λ1 v1 + λj vj
j=2
à m ! m
X X
= λ1 aj vj + λj vj
j=2 j=2
m
X
= (λ1 aj + λj ) vj ∈< v2 , . . . , vm > .
j=2

Podemos repetir el proceso tantas veces como sea necesario hasta llegar a un sistema linealmente
independiente. ¥

Teorema 4 Si E 6= {0} es un espacio vectorial, B = {v1 , . . . , vn } ⊂ E una base finita, y S un siste-


ma de generadores finito de E, entonces existen n vectores linealmente independientes, w1 . . . , wn ∈ S
tales que
< w1 , . . . , wn >= E .

112
Espacios vectoriales

Dem.: Por Proposición 8, cardinal(S) ≥ n. Sea w1 ∈ S (w1 6= 0), puesto que w1 ∈ E existen cj ,
j = 1, . . . , n, escalares únicos, no todos nulos, tales que:
n
X
w1 = c j vj .
j=1

Supongamos que c1 6= 0 (si no es así reordenamos los vectores de la base), entonces se tiene que:
a) < w1 , v2 , . . . , vn >=< v1 , v2 , . . . , vn >.
X −cj n
Basta observar que 1
v1 = w1 + vj .
c1 j=2
c 1

b) w1 ∈<
/ v2 , . . . , vn >.
En caso contrario, existirían escalares, únicos, bj , j = 2, . . . , n con:
n
X
w1 = bj vj
j=2

e igualando con la expresión anterior de w1 en la base {v1 , v2 , . . . , vn } se tendría:


n
X n
X n
X
c1 v1 + cj vj = bj vj ⇐⇒ 0 = c1 v1 + (cj − bj ) vj
j=2 j=2 j=2

con al menos c1 6= 0, en contradicción con {v1 , . . . , vn } linealmente independientes.

c) < w1 , v2 , . . . , vn > base de E. Directo de lo anterior aplicando la Proposición 9.


Hemos reemplazado así un elemento de la base original, por otro del sistema de generadores,
obteniendo de nuevo una base.
Supongamos ahora que hemos sustituido ya ℓ vectores de la base {v1 , . . . , vn } por ℓ vectores del
sistema S (que reordenando podemos suponer son los primeros de cada sistema) obteniendo una
base:
{w1 , w2 , . . . , wℓ , vℓ+1 , . . . , vn }
del espacio vectorial E. Así las cosas, del vector vℓ+1 ∈ E, sabemos que no es combinación lineal de
{w1 , . . . , wℓ }. Pero < S >= E, luego al expresar vℓ+1 como combinación lineal de S:

X m
X
vℓ+1 = λj wj + λj wj ,
j=1 j=ℓ+1

no todos los últimos coeficientes pueden ser nulos. Renombrando como wℓ+1 el primer vector que nos
aporta coeficiente no nulo entre estos últimos, tenemos de nuevo que:

{w1 , . . . , wℓ , wℓ+1 , vℓ+2 , . . . , vn }

es una base de E.
El resultado queda así probado al aplicar inducción. ¥

113
Expresión matricial para un cambio de base

Nota 3 La dimensión de un espacio vectorial E 6= {0} coincide con el número máximo de vectores
linealmente independientes, y con el número mínimo de generadores.

Corolario 4 Todo conjunto de vectores linealmente independientes de un espacio vectorial E 6= {0}


puede completarse hasta obtener una base.

Proposición 12 Sea F un subespacio vectorial del espacio vectorial E. Si la dimensión de E es


finita, la de F también lo es y:
dim F ≤ dim E .
Además, dim F = dim E si y sólo si F = E.

7.4 Expresión matricial para un cambio de base


En un espacio vectorial, como conjunto, cada vector (elemento) es único. Por otra parte, dado un
espacio vectorial E si B = {u1 , u2 , . . . , un } es una base, de cada vector, u ∈ E, podemos encontrar
una expresión única:
u = λ 1 u1 + λ 2 u2 + · · · + λ n un
o, de otra manera, u = (λ1 , λ2 , . . . , λn ). Esta última representación solo tiene sentido si sabemos qué
base estamos considerando. Decimos de (λ1 , . . . , λn ) las coordenadas de u en la base B.
Salvo para el vector nulo, es sencillo vislumbrar que para un mismo vector las coordenadas en
distintas bases no deberían coincidir1 . Solo el cambiar el orden en los vectores de la base nos empieza
a convencer de este hecho. Nos gustaría quedar a salvo de este peligro y una manera es aprender a,
dadas las coordenadas de un vector en una base, no temer a que el problema necesite cambiar la base
de referencia para facilitar su resolución (en el estudio de los movimientos en el plano y el espacio
esto último es crucial).
Pasemos a la parte práctica. Hemos de tener en cuenta que la búsqueda de las coordenadas de un
vector en una base es un problema que plantea, de manera natural, un sistema de ecuaciones lineal.
Sean B = {u1 , u2 , . . . , un } y B ′ = {v1 , v2 , . . . , vn } dos bases distintas para un mismo espacio
vectorial E. Si (x1 , x2 , . . . , xn ) son las coordenadas de un vector u en la base B y, para el mismo
vector, (y1 , y2 , . . . , yn ) son las coordenadas en la base B ′ , se tiene una matriz A (que diremos la
matriz de cambio de la base B a B′ ), tal que
   
x1 y1
 x2   y 2 
A  ..  =  .. 
   
 .   . 
xn yn

Si miramos esta como una ecuación en que la incógnita es la matriz A, en principio tendríamos
que despejar n2 elementos (las entradas de A). Esto nos exigiría tener otras tantas ecuaciones, es
decir, conocer de antemano n2 datos. Con una buena elección este problema es fácilmente resoluble:
basta tomar los datos de una colección de n vectores independientes. Por ejemplo, si conocemos las
coordenadas x’s e y’s de los vectores de una base.
1
Para dos bases distintas siempre habrá un vector con distintas coordenadas en cada una.

114
Espacios vectoriales

Puestos a facilitar la resolución, tomemos los vectores de B ′ , cuyas coordenadas y’s son muy
sencillas
v1 = (1, 0, 0, . . . , 0)B′ , v2 = (0, 1, 0, . . . , 0)B′ , . . . , vn = (0, 0, 0, . . . , 1)B′
(el subíndice tras la colección de coordenadas indica qué base estamos considerando).
Supongamos ahora que conocemos las coordenadas de estos mismos vectores en la base B (esto
es lo habitual), digamos

v1 = (v1,1 , v2,1 , . . . , vn,1 ) , v2 = (v1,2 , v2,2 , . . . , vn,2 ) , . . . , vn = (v1,n , v2,n , . . . , vn,n )

(la extraña elección en la notación se entenderá enseguida). Planteando la ecuación matricial con A
como incógnita, para cada uno de estos “n” datos tenemos:
           
v1,1 1 v1,2 0 v1,n 0
 v2,1   0   v2,2   1   v2,n   0 
A  ..  =  ..  , A  ..  =  ..  , ... , A  ..  =  .. 
           
 .   .   .   .   .   . 
vn,1 0 vn,2 0 vn,n 1

Todas ellas pueden comprimirse en una única expresión matricial:


  
v1,1 v1,2 v1,n 1 0 0

 v2,1 v2,2 v2,n 
   0 1 0 
A . . . =
.. . . . ..   .. .. . . ...
. . .
  
 ..  

 
vn,1 vn,2 vn,n 0 0 1

de la que (puesto que la matriz del término izquierdo es la identidad) deducimos quién es A:
 −1
v1,1 v1,2 v1,n

 v2,1 v2,2 v2,n 

A= .. .. . . .  la inversa de. . .

 . . . .. 

vn,1 vn,2 vn,n

. . . la matriz cuyas columnas son las coordenadas de los vectores de la base B ′ (de llegada) en la base
B (la original o de partida).
Acabemos este elaborado (aunque, finalmente sencillo) apartado afirmando que la matriz del
cambio inverso, de B ′ a B, es la inversa de la ahora obtenida.

Ejemplo 60 Tomemos en R2 la base canónica B = {(1, 0) , (0, 1)} y la base B ′ = {(1, 1) , (3, 4)}. El
vector u = (1, −1) (coordenadas en B) se expresa en B ′ como u = (y1 , y2 )B′ = y1 (1, 1) + y2 (3, 4), y
estas nuevas coordenadas, y1 , y2 , las calculamos con
µ ¶−1 µ ¶ µ ¶ µ ¶µ ¶ µ ¶
1 3 4 −3 y1 4 −3 1 7
A= = multiplicando = = .
1 4 −1 1 y2 −1 1 −1 −2

115
Operaciones con subespacios

7.5 Operaciones con subespacios


Si E es un espacio vectorial y F , G son subespacios vectoriales, como subconjuntos podemos realizar
las operaciones intersección y unión. Sobre la intersección se tiene:

Proposición 13 F ∩ G es un subespacio vectorial de E.

Su fácil demostración se deja como ejercicio. En cambio la unión F ∪ G no es, en general, un


subespacio vectorial. La suma de un vector de F y uno de G puede no pertenecer ni a F ni a G.

Ejemplo 61 En R3 la unión de los subespacios F =< (1, 1, 1) > y G =< (1, 0, 1) > no contiene al
vector (2, 1, 2) = (1, 1, 1) + (1, 0, 1).

Podemos, no obstante, tomar el subespacio vectorial generado por F ∪ G. Llamaremos a éste la


suma de F y G, lo denotaremos F + G, y es fácil ver que:

F + G = {u + v : u ∈ F, v ∈ G} .

Para espacios vectoriales de dimensión finita se tiene una fórmula que relaciona las dimensiones
de estos espacios.

Teorema 5 (Fórmula de Grassmann) Sean F y G dos subespacios vectoriales de un espacio vec-


torial E de dimensión finita. Entonces, F , G, F ∩ G y F + G son de dimensión finita y

dim F + dim G = dim(F + G) + dim(F ∩ G) .

Dem.: Por la Proposición 12, todos los subespacios citados son de dimensión finita.
Sea {u1 , . . . , uk } una base de F ∩ G (cf Prop. 11). Puesto que F ∩ G es subespacio de F y de G,
podemos completar dicha base para obtener:

BF = {u1 , . . . , uk , vk+1 , . . . , vn } base de F


BG = {u1 , . . . , uk , wk+1 , . . . , vm } base de G.

Queremos entonces probar que:


dim(F + G) = m + n − k .
Puesto que todo vector u ∈ F es combinación lineal de los n vectores de BF , y todo vector v ∈ G
lo es de los m vectores de G, es claro que cualquier vector en F + G será combinación lineal de los
m + n − k vectores en

BF ∪ BG = {u1 , . . . , uk , vk+1 , . . . , vn , wk+1 , . . . , wm } .

Bastaría pues ver que este sistema de generadores de F + G es linealmente independiente. Conside-
remos pues una combinación para el vector 0:
k
X n
X m
X
λ j uj + λj vj + µj wj = 0 .
j=1 j=k+1 j=k+1

116
Espacios vectoriales

Entonces
k
X n
X m
X
λ j uj + λj vj = − µj w j ∈ F ∩ G
j=1 j=k+1 j=k+1

y en particular:
m
X k
X
µj w j = aj uj
j=k+1 j=1

de otra manera:
k
X m
X
aj uj − µj wj = 0 .
j=1 j=k+1

Ahora bien, {u1 , . . . , uk , wk+1 , . . . , wm } es base de G, luego esta última combinación sólo es posible
con todos los coeficientes 0. Así µj = 0 para j = k + 1, . . . , m, y la combinación inicial quedaría:

k
X n
X
λj uj + λj vj = 0
j=1 j=k+1

cuya única solución es λj = 0 para j = 1, . . . , n, al ser {u1 , . . . , uk , vk+1 , . . . , vn } base de F . En defi-


nitiva, el sistema con m + n − k vectores BF ∪ BG es base de F + G. ¥
Si F ∩G = {0}, diremos que la suma F +G es directa, lo que denotaremos por F ⊕G. La fórmula
de Grassmann nos dice que la dimensión de una suma directa es la suma de las dimensiones de los
sumandos. Si F y G son dos subespacios vectoriales de un espacio vectorial E, se tiene la siguiente
caracterización:

Proposición 14 La suma F + G es directa si y sólo si para todo vector w ∈ F + G existen vectores


únicos u ∈ F y v ∈ G tales que w = u + v.

Dem.: (=⇒). Si tenemos dos expresiones u1 + v1 = w = u2 + v2 para un mismo vector w ∈ F + G


con u1 , u2 ∈ F y v1 , v2 ∈ G, entonces:

u1 − u2 = v2 − v1 ∈ F ∩ G = {0}

es decir u1 = u2 y v1 = v2 .
(⇐=). Si w ∈ F ∩ G, w + 0 = 0 + w serían dos expresiones para el mismo vector w con el primer
sumando en F y el segundo en G. Como hemos supuesto que éstas son únicas, w = 0. ¥
Dado un espacio vectorial de dimensión finita E con un subespacio vectorial F , podemos bus-
car el menor subespacio que sumado a F nos dé E. Llamaremos a un subespacio tal subespacio
complementario de F , y el siguiente resultado nos prueba su existencia

Proposición 15 Para todo espacio vectorial E de dimensión finita, y todo subespacio F , existe otro
subespacio G tal que E = F ⊕ G.

Dem.: Si {u1 , . . . , um } es una base de F y la completamos a una base {u1 , . . . , um , um+1 , . . . , un }


de E, el subespacio G =< um+1 , . . . , un > verifica lo enunciado. ¥

117
Operaciones con subespacios

Las operaciones recién definidas entre dos subespacios vectoriales se extienden a un número finito
cualquiera de subespacios. Así, si F1 , F2 , . . . , Fn son subespacios vectoriales de un espacio vectorial
E sobre K, se definen los siguientes subespacios vectoriales:
n
\
intersección (finita): F1 ∩ F 2 ∩ · · · ∩ Fn , también denotado: Fi
i=1
suma (finita): F1 + F2 + · · · + Fn .

De la suma de subespacios vectoriales diremos que es suma directa, y lo denotaremos


n
M
F1 ⊕ · · · ⊕ Fn , o también: Fi ,
i=1

si la expresión de cada vector de F1 + · · · + Fn como suma de vectores de cada sumando es única


(generalizando la Proposición 14).

Ejercicio 1 Demostrar que F1 + · · · + Fn es suma directa si y sólo para todo i = 1, . . . , n se tiene

Fi ∩ (F1 + · · · + Fi−1 + Fi+1 + · · · + Fn ) = {0} .

118

También podría gustarte