0% encontró este documento útil (0 votos)
47 vistas19 páginas

Tema 2

Este documento describe los espacios vectoriales, incluyendo su definición, propiedades y ejemplos. Los espacios vectoriales cumplen propiedades como la linealidad y forman grupos abelianos bajo la suma. Se dan ejemplos como Rn, funciones continuas y soluciones de ecuaciones diferenciales.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
47 vistas19 páginas

Tema 2

Este documento describe los espacios vectoriales, incluyendo su definición, propiedades y ejemplos. Los espacios vectoriales cumplen propiedades como la linealidad y forman grupos abelianos bajo la suma. Se dan ejemplos como Rn, funciones continuas y soluciones de ecuaciones diferenciales.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

TEMA 2: ESPACIOS VECTORIALES

1 Definición, propiedades y ejemplos


Definición 1. Sea V un conjunto dado, a cuyos elementos llamaremos vectores: V =
{x, y, z, · · · } 6= ∅. Se considera también un cuerpo K (en particular K = R y K = C), a
cuyos elementos llamaremos escalares. Se dice que V es un espacio vectorial sobre el
cuerpo K si cumple las siguientes propiedades con respecto a dos operaciones, una interna
(suma),
+ : V × V → V,
y otra externa (producto por escalar),

· : K×V → V :

1) (V, +) es un grupo abeliano (asociativa, elemento neutro, inverso, conmutativa),

2) ∀ c ∈ K y ∀ x, y ∈ V se cumple c(x + y) = cx + cy: linealidad,

3) ∀ c, d ∈ K y ∀ x ∈ V se cumple (c + d)x = cx + dx,

4) ∀ c, d ∈ K y ∀ x ∈ V se cumple (cd)x = c(dx),

5) ∀ x ∈ V se cumple 1 · x = x.

La propiedad más importante es la de linealidad, que incluye a muchos sistemas


matemáticos y físicos, no solo los vectores del espacio en el que vivimos (R3 ) sino, por
ejemplo, las soluciones de muchas ecuaciones diferenciales, o el conjunto de funciones con-
tinuas en R.

Llamamos espacios vectoriales reales a aquellos que están definidos sobre el cuerpo R
y espacios vectoriales complejos a aquellos que están definidos sobre C.

Consecuencias elementales:

• a·0=0 (Dem: a · 0 + a · x = a(x + 0) = ax → a · 0 = 0).

• 0·x=0 (Dem: 0 · x + a · x = (0 + a)x = a · x → 0 · x = 0).

• c · x = 0 =⇒ c = 0 ó x = 0 (Dem: si c 6= 0, ∃ c−1 y c−1 c · x = x = 0).

• ax = bx (con x 6= 0) =⇒ a = b
(Dem: ax + (−b)x = 0 =⇒ (a − b)x = 0 =⇒ a = b).

• cx = cy (con c 6= 0) =⇒ x = y
(Dem: cx + c(−x) = c 0 = 0 = c y + c(−x) = c(y − x) =⇒ x = y).

• (−c)x = c(−x) = −(c x) = −c x

25
Ejemplos de espacios vectoriales:

• Cualquier cuerpo K es espacio vectorial sobre sí mismo (es decir con el producto
interno): R, C.

• El cuerpo C también es espacio vectorial sobre R. R no es espacio vectorial sobre


C.

• Rn y Cn , formados por vectores x = (x1 , x2 , · · · , xn ) con xi ∈ R ó C respectivamente:

x + y = (x1 + y1 , x2 + y2 , · · · , xn + yn ),
c x = (c x1 , c x2 , · · · , c xn ) con c ∈ R ó C,
0 = (0, 0, · · · , 0),
−x = (−x1 , −x2 , · · · , −xn ).

• Las funciones continuas en R con la suma de funciones y el producto por R.

• Las soluciones de cualquier ecuación diferencial lineal, por ejemplo la de un oscilador


armónico:
d2 x
+ ω 2 x = 0.
dt2
• Rn [x]: polinomios de grado ≤ n.

• Las matrices m × n sobre un cuerpo K con la suma de matrices y el producto por


escalares. A este espacio vectorial lo llamaremos M m×n (K) ó Km×n .

Ejemplos de conjuntos que no son espacios vectoriales:

• Las funciones continuas en R con la suma de funciones y el producto por R y tales


que valen 1 en 0. La última condición hace que no formen espacio vectorial porque
si f (0) = 1 y g(0) = 1 entonces (f + g)(0) = 2 y por tanto f + g ya no pertenece a
dicho conjunto (la suma no sería ley de composición interna).

• V = {x, 0} donde 0 es el elemento neutro de la suma, definida como: x+0 = 0+x =


x, x + x = 0, 0 + 0 = 0. Así definido (V, +) es grupo abeliano. Definamos ahora el
producto por escalares: a 0 = 0 ∀ a ∈ K, ax =?.
Hagamos que se cumpla la propiedad 2). Tenemos a(0 + 0) = 0 = a0 + a0 (consis-
tente), a(0 + x) = ax = ax + a0 (consistente). Ahora bien de a(x + x) = a 0 = 0
y de a(x + x) = ax + ax deducimos que o bien ax = x ó bien ax = 0 ∀ a ∈ R. La
propiedad 4) se cumple con cualquiera de las dos opciones pero si miramos a la 3)
tenemos que:

– ax = x =⇒ (a + b)x = x 6= ax + bx = x + x = 0: no se cumple 3),


– ax = 0 =⇒ (a + b)x = 0 = x + x = ax + bx: se cumple 3),

pero entonces al mirar a la propiedad 5): 1 · x = 0 6= x

26
No podemos hacer cumplir todas las propiedades del espacio vectorial a la vez.

Sim embargo, V sí es espacio vectorial sobre el cuerpo Z2 = {0, 1}, pues es espacio
vectorial sobre sí mismo.

Combinaciones lineales:

El vector x = c1 x1 + c2 x2 + · · · + cn xn = xi se dice que es una combinación


Pn
i=1 ci
lineal (suma finita) de los vectores x1 , · · · xn .

Ejemplos:
• x(1, 0, 0) + y(0, 1, 0) + z(0, 0, 1) = (x, y, z) es una combinación lineal de los vectores
i = (1, 0, 0), j = (0, 1, 0), k = (0, 0, 1). Cualquier vector v ∈ R3 puede escribirse así:

<latexit sha1_base64="EeeZ/UWAqCOkAdhm7VjWa0tZUFQ=">AAAB+HicdVBNS0JBFJ1nX2YfWi3bDElgIDIj4cciEGrR0iA10IfMG+fp4LwPZuZJ+vCXtGlRRNt+Srv+TfPUoKIOXDiccy/33uOEgiuN0IeVWlvf2NxKb2d2dvf2s7mDw7YKIklZiwYikHcOUUxwn7U014LdhZIRzxGs44wvE78zYVLxwL/V05DZHhn63OWUaCP1c9nehNF4Mr8o3BenxdlZP5dHJYQQxhgmBFcryJB6vVbGNYgTyyAPVmj2c++9QUAjj/maCqJUF6NQ2zGRmlPB5plepFhI6JgMWddQn3hM2fHi8Dk8NcoAuoE05Wu4UL9PxMRTauo5ptMjeqR+e4n4l9eNtFuzY+6HkWY+XS5yIwF1AJMU4IBLRrWYGkKo5OZWSEdEEqpNVhkTwten8H/SLpdwpYRuzvONq1UcaXAMTkABYFAFDXANmqAFKIjAA3gCz9bMerRerNdla8pazRyBH7DePgFAupLX</latexit>

z
<latexit sha1_base64="EKqotJvTL2IL6z7ClnkPPYHZTAs=">AAAB6HicbVBNS8NAEJ34WetX1aOXxSJ4KomIeizowWML9gPaUDbbSbt2swm7G6GG/gIvHhTx6k/y5r9x2+agrQ8GHu/NMDMvSATXxnW/nZXVtfWNzcJWcXtnd2+/dHDY1HGqGDZYLGLVDqhGwSU2DDcC24lCGgUCW8HoZuq3HlFpHst7M07Qj+hA8pAzaqxUf+qVym7FnYEsEy8nZchR65W+uv2YpRFKwwTVuuO5ifEzqgxnAifFbqoxoWxEB9ixVNIItZ/NDp2QU6v0SRgrW9KQmfp7IqOR1uMosJ0RNUO96E3F/7xOasJrP+MySQ1KNl8UpoKYmEy/Jn2ukBkxtoQyxe2thA2poszYbIo2BG/x5WXSPK94lxW3flGu3uZxFOAYTuAMPLiCKtxBDRrAAOEZXuHNeXBenHfnY9664uQzR/AHzucP64GNBQ==</latexit>

~v = (x, y, z)

~k
<latexit sha1_base64="skHECpIuEfWzNg7Ky6/7R0gwi3k=">AAAB7nicdVBNS8NAEN3Ur1q/qh69LBbBU9jE0NZbQQ8eK1hbaEPZbDftks0m7G4KJfRHePGgiFd/jzf/jZu2goo+GHi8N8PMvCDlTGmEPqzS2vrG5lZ5u7Kzu7d/UD08uldJJgntkIQnshdgRTkTtKOZ5rSXSorjgNNuEF0VfndKpWKJuNOzlPoxHgsWMoK1kbqDKSV5NB9Wa8i+bNZdrw6RjVDDcZ2CuA3vwoOOUQrUwArtYfV9MEpIFlOhCcdK9R2Uaj/HUjPC6bwyyBRNMYnwmPYNFTimys8X587hmVFGMEykKaHhQv0+keNYqVkcmM4Y64n67RXiX14/02HTz5lIM00FWS4KMw51Aovf4YhJSjSfGYKJZOZWSCZYYqJNQhUTwten8H9y79pO3Ua3Xq11vYqjDE7AKTgHDmiAFrgBbdABBETgATyBZyu1Hq0X63XZWrJWM8fgB6y3TwCAkAY=</latexit>

y
<latexit sha1_base64="JkD+zE8fauMzKZWurvzzSa/D/uo=">AAAB6HicbVBNS8NAEJ3Ur1q/qh69LBbBU0lE1GNBDx5bsB/QhrLZTtq1m03Y3Qih9Bd48aCIV3+SN/+N2zYHbX0w8Hhvhpl5QSK4Nq777RTW1jc2t4rbpZ3dvf2D8uFRS8epYthksYhVJ6AaBZfYNNwI7CQKaRQIbAfj25nffkKleSwfTJagH9Gh5CFn1FipkfXLFbfqzkFWiZeTCuSo98tfvUHM0gilYYJq3fXcxPgTqgxnAqelXqoxoWxMh9i1VNIItT+ZHzolZ1YZkDBWtqQhc/X3xIRGWmdRYDsjakZ62ZuJ/3nd1IQ3/oTLJDUo2WJRmApiYjL7mgy4QmZEZgllittbCRtRRZmx2ZRsCN7yy6ukdVH1rqpu47JSu8vjKMIJnMI5eHANNbiHOjSBAcIzvMKb8+i8OO/Ox6K14OQzx/AHzucP6f2NBA==</latexit>

~j
<latexit sha1_base64="20kCXQ96X1nCscN5n5zASIuNZkk=">AAAB7nicdVDLSsNAFJ3UV62vqks3g0VwFSYxtHVX0IXLCvYBbSiT6aQdO5mEmUmhhH6EGxeKuPV73Pk3TtoKKnrgwuGce7n3niDhTGmEPqzC2vrG5lZxu7Szu7d/UD48aqs4lYS2SMxj2Q2wopwJ2tJMc9pNJMVRwGknmFzlfmdKpWKxuNOzhPoRHgkWMoK1kTr9KSXZ/XxQriD7sl51vSpENkI1x3Vy4ta8Cw86RslRASs0B+X3/jAmaUSFJhwr1XNQov0MS80Ip/NSP1U0wWSCR7RnqMARVX62OHcOz4wyhGEsTQkNF+r3iQxHSs2iwHRGWI/Vby8X//J6qQ7rfsZEkmoqyHJRmHKoY5j/DodMUqL5zBBMJDO3QjLGEhNtEiqZEL4+hf+Ttms7VRvdepXG9SqOIjgBp+AcOKAGGuAGNEELEDABD+AJPFuJ9Wi9WK/L1oK1mjkGP2C9fQL+7JAF</latexit>

~i
<latexit sha1_base64="CvrhRkFC2Wr8UHu7DEmnq61nSyg=">AAAB7nicdVBNS8NAEN3Ur1q/qh69LBbBU0hqaOutoAePFawttKFstpN26WYTdjeFEvojvHhQxKu/x5v/xk1bQUUfDDzem2FmXpBwprTjfFiFtfWNza3idmlnd2//oHx4dK/iVFJo05jHshsQBZwJaGumOXQTCSQKOHSCyVXud6YgFYvFnZ4l4EdkJFjIKNFG6vSnQDM2H5Qrjn3ZqFW9GnZsx6m7VTcn1bp34WHXKDkqaIXWoPzeH8Y0jUBoyolSPddJtJ8RqRnlMC/1UwUJoRMygp6hgkSg/Gxx7hyfGWWIw1iaEhov1O8TGYmUmkWB6YyIHqvfXi7+5fVSHTb8jIkk1SDoclGYcqxjnP+Oh0wC1XxmCKGSmVsxHRNJqDYJlUwIX5/i/8l91XZrtnPrVZrXqziK6ASdonPkojpqohvUQm1E0QQ9oCf0bCXWo/VivS5bC9Zq5hj9gPX2Cf1nkAQ=</latexit>

x
<latexit sha1_base64="EmLlvX0mzXBDBjeb8cJL++LGuZc=">AAAB6HicbVBNS8NAEJ34WetX1aOXxSJ4KomIeizowWML9gPaUDbbSbt2swm7G7GE/gIvHhTx6k/y5r9x2+agrQ8GHu/NMDMvSATXxnW/nZXVtfWNzcJWcXtnd2+/dHDY1HGqGDZYLGLVDqhGwSU2DDcC24lCGgUCW8HoZuq3HlFpHst7M07Qj+hA8pAzaqxUf+qVym7FnYEsEy8nZchR65W+uv2YpRFKwwTVuuO5ifEzqgxnAifFbqoxoWxEB9ixVNIItZ/NDp2QU6v0SRgrW9KQmfp7IqOR1uMosJ0RNUO96E3F/7xOasJrP+MySQ1KNl8UpoKYmEy/Jn2ukBkxtoQyxe2thA2poszYbIo2BG/x5WXSPK94lxW3flGu3uZxFOAYTuAMPLiCKtxBDRrAAOEZXuHNeXBenHfnY9664uQzR/AHzucP6HmNAw==</latexit>

• Cualquier elemento de Rn [x] es combinación lineal de 1, x, x2 , · · · , xn .

2 Subespacios vectoriales
Definición 2. W ⊂ V es subespacio vectorial de (V, +, ·) si (W, +, ·) es espacio vectorial
=⇒ cualquier subespacio vectorial debe contener a 0.

Propiedad: ∅ 6= W ⊂ V es subespacio vectorial de V ⇐⇒ ∀ a, b ∈ K ∀ x, y ∈ W se


cumple a x + b y ∈ W .

Como consecuencia, el siguiente conjunto definido a través de m ecuaciones intrínse-


cas,
W = {(x1 , · · · , xn ) ∈ Kn , cj1 x1 + · · · + cjn xn = 0 , j = 1, · · · , m},
es un subespacio vectorial. De hecho todo subespacio vectorial de K es de esta forma.

Nótese que el conjunto O = {0} y el propio espacio V son subespacios (impropios).


A los demás se les llama subespacios propios.

27
Ejemplos:

• Cn [x] con n < ∞ es subespacio de C[x].

• Las matrices reales simétricas de tamaño n × n forman un subespacio vectorial del


espacio vectorial de matrices reales de tamaño n × n.

• R es un subconjunto de C, pero no es subespacio vectorial definido sobre C.

2.1 Operaciones con subespacios y consecuencias de su defini-


ción
Intersección
Si V1 , V2 son subespacios vectoriales de V , entonces la intersección

V1 ∩ V2 = {x ∈ V1 , x ∈ V2 }

es, a su vez, un subespacio de V .

Demostración: Llamemos U = V1 ∩ V2 . Nótese en primer lugar que el vector nulo 0


pertenece a U por estar en todo subespacio, entonces U 6= ∅. Si x, y ∈ U , para cualesquiera
escalares a y b se tiene que a x+b y ∈ Vi (i = 1, 2) ya que x, y ∈ Vi y éstos son subespacios.
Por tanto a x + b y ∈ U , como queríamos demostrar.

Ejemplo: V1 ∩ V2 en R3 :

V1 = {x = (x1 , x2 , x3 ) , x1 + x2 = 0} , V2 = {x = (x1 , x2 , x3 ) , x1 + 2x2 − x3 = 0}.

Calculemos su intersección resolviendo el sistema que forman ambas ecuaciones in-


trínsecas:
(
1 1 1 0 1 1 0 0 x1 = −x2
→ →
1 2 -1 0 0 1 -1 0 x 2 = x3

Entonces: V1 ∩ V2 = {x ∈ R3 , x = α(−1, 1, 1) , α ∈ R}.


La intersección de dos planos no coincidentes es una recta.

Ejemplo: Dos vectores podrían en cambio tener intersección igual a {0}:

V1 = {x = (x1 , x2 , x3 ) , x1 + x2 = 0 , x1 + 2x2 − x3 = 0},

V2 = {x = (x1 , x2 , x3 ) , x1 − x2 = 0 , x1 + 4x2 + 7x3 = 0}.


(
x1 = −x2
→ → x1 = x2 = 0 → x3 = 0 =⇒ V1 ∩ V2 = {(0, 0, 0)}.
x1 = x2

28
Nótese que la unión de subespacios de un espacio vectorial no tiene por qué ser un
subespacio vectorial.

Ejemplo: V1 = {(x, 0)}, V2 = {(0, y)} =⇒ V1 ∪ V2 = {(x, y) , x = 0 ó y = 0}

(1, 0) y (0, 1) ∈ V1 ∪ V2 , pero λ(1, 0) + µ(0, 1) = (λ, µ) ∈


/ V1 ∪ V2 si λ, µ 6= 0.

Definición 3. Dado un conjunto no vacío S de vectores de V , S = {x1 , · · · , xp } ⊂ V , la


envolvente lineal de S, S = lin S, se define como el conjunto de todas las combinaciones
lineales de los elementos de S:
lin S = {λ1 x1 + · · · + λp xp , λi ∈ K ∀i = 1, · · · , p}.
Propiedad: lin S es un subespacio vectorial (subespacio generado por S, trivial de la
definición).

Ejemplos:
• En R2 , lin {(0, 0)} = (0, 0), lin {(1, 1)} = {(x, x) , x ∈ R}, etc.
• En R2 [x], S = {x, x2 } no es subespacio vectorial, pero lin S = {p(x) = ax + bx2 } sí.

Definición 4. Dado ∅ 6= S ⊂ V , S es un sistema generador de V si lin S = V .


Ejemplos:
• S = {(0, 1) , (1, 0)} ⊂ R2 , S = {(0, 1) , (1, 0) , (1, 1)} ⊂ R2 ,
S = {(0, 1) , (1, 1)} ⊂ R2 .
• S = {1, x, x2 , x3 , · · · } ⊂ R[x] (con S conjunto infinito).
• S = {1, x, x2 } ⊂ R2 [x], S = {1, 3x + 7, 2x2 + x + 1} ⊂ R2 [x] también, porque
(α + 7β + γ) + (3α + β)x + 2γx2 = a0 + a1 x + a2 x2 es un sistema compatible
determinado.
La forma rigurosa de demostrar si un conjunto de vectores es un sistema generador es
determinar si el sistema de ecuaciones correspondiente para un V arbitrario es compatible.

Ejemplo: R3 3 S = {(1, 1, 0) , (1, −1, 0) , (0, 1, 1) , (0, 1, −1)}. Nos preguntamos si R3 =


{(x1 , x2 , x3 )} es lin S. Tomamos una combinación lineal arbitraria de los elementos de S
α(1, 1, 0) + β(1, −1, 0) + γ(0, 1, 1) + µ(0, 1, −1) = (x1 , x2 , x3 ),
y resolvemos el sistema para α, β y γ:
 
1
α + β = x 1
 α = 2 (x1 + x2 + x3 ) + µ

α − β + γ + µ = x2 −→ β = 12 (x1 − x2 − x3 ) − µ (2.1)
 
γ − µ = x3 γ = x3 + µ
 

Como el sistema es compatible, R3 = lin S. De hecho S 0 = {(1, 1, 0) , (1, −1, 0) , (0, 1, 1)}
ya cumple lin S 0 = R3 . Nótese que (0, 1, −1) = (1, 1, 0) − (1, −1, 0) − (0, 1, 1).

29
Suma de subespacios
Si V1 , V2 son subespacios vectoriales de V , entonces la suma

V1 + V2 = lin (V1 ∪ V2 )

es obviamente un subespacio de V .

Ejemplo: V1 = {(x, 0)} = lin {(1, 0)}, V2 = {(0, y)} = lin {(0, 1)}
=⇒ V1 ∪ V2 = {(x, 0), (0, y)} =⇒ V1 + V2 = lin {(1, 0), (0, 1)} = R2 .

Teorema 1. V1 + V2 = {x1 + x2 , x1 ∈ V1 , x2 ∈ V2 }.

Demostración: x1 ∈ V1 , x2 ∈ V2 implica que x1 y x2 pertenecen a V1 ∪ V2 , entonces


x1 + x2 ∈ lin(V1 ∪ V2 ) = V1 + V2 . Por tanto, todos los vectores de la forma x1 + x2 con
x1 ∈ V1 y x2 ∈ V2 pertenecen a la suma. Ahora falta ver que no hay ningún vector en
V1 + V2 que no sea de esa forma. Sea V1 = lin {v1 , v2 , · · · }, V2 = lin{u1 , u2 , · · · }, y un
vector v ∈ V1 + V2 , entonces lo podremos escribir como combinación lineal de todos los
elementos de la unión:

v = x1 v1 + x2 v2 + · · · + y1 u1 + y2 u2 + · · · ,

es decir siempre lo podemos escribir como v = x1 + x2 con

x1 = x1 v1 + x2 v2 + · · · ∈ V1 , x2 = y1 u1 + y2 u2 + · · · ∈ V2 .


En definitiva, si V1 = lin {v1 , v2 , · · · } y V2 = lin{u1 , u2 , · · · }, entonces

V1 + V2 = lin {v1 , v2 , · · · , u1 , u2 , · · · }.

Nótese que dado un vector de V1 + V2 , la forma de descomponerlo como suma de


x1 ∈ V1 más x2 ∈ V2 no es única.

Ejemplo: V1 = lin {(1, 0), (0, 1)}, V2 = lin {(1, 1)}

(2, 3) = 2(1, 0) + 3(0, 1) + 0(1, 1) = (1, 0) + 2(0, 1) + (1, 1).

Esto motiva la siguiente definición de suma directa:

Definición 5. Se dice que la suma de dos subespacios V1 y V2 es directa si cada elemento


de la suma admite una única descomposición como suma de un elemento de V1 más un
elemento de V2 . Se escribe V1 ⊕ V2 .

30
Teorema 2. La suma de V1 y V2 es directa ⇐⇒ V1 ∩ V2 = {0}.

Demostración:
⇐) Sean x1 , y1 ∈ V1 y x2 , y2 ∈ V2 , y supongamos que u ∈ V = V1 ⊕ V2 admitiera dos
sumas distintas u = x1 + x2 y u = y1 + y2 , entonces V1 3 x1 − y1 = y2 − x2 ∈ V2 ,
y como V1 ∩ V2 = {0} la única posibilidad es que con x1 − y1 = y2 − x2 = 0, así
que debe ser x1 = y1 y x2 = y2 y las dos sumas realmente son la misma.
⇒ Sea v ∈ V1 ∩ V2 , entonces v = v + 0 con v ∈ V1 y 0 ∈ V1 , pero también podemos
escribir v = 0 + v con 0 ∈ V2 y v ∈ V2 , y como debe ser única, la única posibilidad
es que v = 0.


Esto se puede extender a la suma directa de más de dos subespacios (con la unicidad
de la descomposición).

Teorema 3.

V1 ⊕ V2 ⊕ · · · ⊕ Vα ⇐⇒ (V2 ⊕ V3 ⊕ · · · ⊕ Vα ) ∩ V1 = {0},
(V1 ⊕ V3 · · · ⊕ Vα ) ∩ V2 = {0},
..
.
(V1 ⊕ V2 · · · ⊕ Vα−1 ) ∩ Vα = {0}.

3 Dependencia e independencia lineal


Definición 6. Dado un conjunto de vectores S = {x1 , x2 , · · · , xk }, diremos que son
linealmente independientes si la única combinación lineal de ellos que vale 0 es la
que tiene todos sus coeficientes nulos, esto es, sí

λ1 x1 + λ2 x2 + · · · + λk xk = 0 =⇒ λ1 = λ2 = · · · = λk = 0.

Diremos entonces que el conjunto S es libre.

En caso contrario diremos que los vectores de S son linealmente dependientes, pues
podremos encontrar un vector del conjunto que P es combinación lineal de los demás:
∃ xj ∈ S , ∃ λi no todos nulos, tal que xj = i6=j λi xi , es decir que xj depende lineal-
mente de {xi , i 6= j}. En este caso lin S = lin {S − {xj }}.

Propiedades:
• Un conjunto de un solo vector es linealmente independiente si y solo si dicho vector
es distinto del 0.

31
• Si 0 ∈ S =⇒ los vectores de S son linealmente dependientes.

• Sea S = {x1 , x2 } un conjunto de dos vectores linealmente dependientes =⇒


∃ c1 6= 0 tal que c1 x1 + c2 x2 = 0 =⇒ x1 = −(c2 /c1 )x2 (proporcionales).

– Si x2 = 0 =⇒ x1 = 0 y no son distintos.
– Si x2 6= 0 pero c2 = 0 =⇒ x1 = 0.

=⇒ Un sistema S formado por dos vectores es linealmente dependiente si y solo


si uno de ellos es proporcional al otro.

• Si S es un conjunto de vectores linealmente dependientes, entonces también lo es el


conjunto resultante de añadir algún vector a S.

• Si S es un conjunto de vectores linealmente independientes, entonces también lo es


el conjunto resultante de eliminar alguno de los vectores de S.

• Si S es un conjunto de vectores linealmente independientes, y x es un vector que no


depende de los vectores de S, entonces S ∪ {x} es también un conjunto de vectores
linealmente independientes.

• S es un conjunto de vectores linealmente independientes si el sistema

c1 x1 + c2 x2 + · · · + ck xk = 0

es compatible determinado (ya que entonces la única solución es c1 = · · · = ck = 0).

Ejemplos:

• R2 : S = {(1, 0), (0, 1), (1, 1)} es un conjunto de vectores linealmente dependientes
ya que (1, 1) = (1, 0) + (0, 1).

• (m + n) vectores en Rm son siempre linealmente dependientes, si n > 0.

• R3 : S = {(2, 1, −5), (1, −4, 2), (1, 2, −4)} es un conjunto de vectores linealmente
dependientes porque el sistema α(2, 1, −5) + β(1, −4, 2) + γ(1, 2, −4) = (0, 0, 0)
admite solución no trivial: α = −2β y γ = 3β.

• R3 : S = {(1, 0, 0), (0, 1, 0), (0, 0, 1)} es un conjunto de vectores linealmente inde-
pendientes porque el sistema α(1, 0, 0) + β(0, 1, 0) + γ(0, 0, 1) = (0, 0, 0) solo admite
solución trivial: α = β = γ = 0.

• R3 : S = {(1, 0, 0), (1, 1, 0), (1, 1, 1)} es un conjunto de vectores linealmente inde-
pendientes porque el sistema α(1, 0, 0) + β(1, 1, 0) + γ(1, 1, 1) = (0, 0, 0) solo admite
solución trivial: α = β = γ = 0.

La definición de independencia lineal se puede extender a conjuntos con un número


infinito de vectores. En ese caso diremos que es libre si todos sus subconjuntos finitos no
vacíos lo son.

32
3.1 Rango de un conjunto de vectores
Definición 7. Dado un conjunto S de vectores, su rango es el número máximo de vectores
linealmente independientes que están en S.
Ejemplo: en los cuatro ejemplos anteriores el rango de S es respectivamente 2, 2, 3, 3.

Teorema 4. Teorema de la independencia lineal.


Sea S = {y1 , · · · , yk } libre, y S ⊂ lin {x1 , · · · , xm } =⇒ k ≤ m.

Demostración: como los elementos de S pertenecen al espacio vectorial lin {x1 , · · · , xm },


podemos tomar y1 = a1 x1 + · · · + am xm con a1 6= 0 (un coeficiente al menos es distinto de
cero). Como lin {x1 , · · · , xm } = lin {y1 , x2 , · · · , xm } =⇒ y2 = b1 y1 +b2 x2 +· · ·+bm xm ,
con alguno de los b2 , · · · , bm no nulo (sino y2 e y1 serían linealmente dependientes).
Tomando b2 6= 0, y repitiendo el mismo razonamiento, llegamos a

y1 , · · · , yk ∈ lin {x1 , · · · xm } = lin {y1 , · · · yk , xk+1 , · · · , xm },

de donde deducimos que k > m es imposible, porque y1 , · · · , yk son linealmente inde-


pendientes por hipótesis. En efecto, si k > m, lin {x1 , · · · , xm } = lin {y1 , · · · , ym } pero
entonces ym+1 dependenría linealmente de y1 , · · · , ym lo que contradice la hipótesis de
que S es libre.

De ahora en adelante consideraremos solo espacios vectoriales generados por un número
finito de vectores.

4 Bases
Definición 8. Se dice que un subconjunto B = {v1 , · · · , vn } ⊂ V de un espacio vectorial
V es una base de V si se verifica cualquiera de las dos condiciones siguientes, que son
equivalentes entre sí (como demostraremos):
i) B es un sistema generador de V que además es libre (lin B = V ).

ii) Todo vector de V se puede expresar de una única forma como combinación lineal
de los vectores de B:
∀x ∈ V , ∃ {c1 , · · · , cn } tal que x = c1 v1 + c2 v2 + · · · + cn vn .
Entonces a los coeficientes {c1 , · · · , c2 } los llamamos las coordenadas de x en la
base B.
Demostración:
i)→ ii) Como B es un sistema generador de V , todo vector x ∈ V es combinación lineal de
los vectores de B. Veamos que esta combinación lineal es única. Supongamos que
hubiera más de una: x = c1 v1 +· · ·+cn vn y x = c̃1 v1 +· · ·+c̃n vn . Restando término
a término se tendría que 0 = (c1 − c̃1 )v1 + (c2 − c̃2 )v2 + · · · + (cn − c̃n )vn . Como los

33
vectores de B son linealmente independientes ya que B es libre, los coeficientes de
esta última combinación lineal tienen que ser todos nulos, y por tanto concluimos
que ci = c̃i para todo i = 1, · · · , n, y entonces x admite una única expresión como
combinación lineal de los vectores de B.
ii)→ i) Como todo x ∈ V es combinaciín lineal de los vectores de B, B es entonces sistema
generador de V . Comprobemos que B es también libre. Supongamos para ello que
existieran ciertos escalares c1 , · · · , cn tales que 0 = c1 v1 + · · · + cn vn . Si además
recurrimos a que obviamente también se verifica que 0 = 0v1 + · · · + 0vn , nos
encontramos con dos formas de expresar 0 como combinación lineal de los vectores
de B. Según nuestra hipótesis, ambas deben coincidir, es decir debe ser ci = 0 para
todo i = 1, · · · , n, lo que permite asegurar que B es libre.

Ejemplos:
• {1, x, x2 , · · · } es una base de R[x].
• {(1, 0), (0, 1)} es base de R2 (sobre R) y de C2 (sobre C), de hecho
• {(1, 0, 0, · · · , 0), (0, 1, 0, · · · , 0), · · · , (0, 0, · · · , 0, 1)} ≡ {e1 , e2 , · · · , en } es base de Rn
(sobre R) y de Cn (sobre C). A esta base la llamamos la base canónica de Kn .

Dada la base canónica Bc = {e1 , · · · , en } de Kn , todo vector x = (x1 , · · · , xn ) ∈ Kn


puede escribirse como
x = x1 e1 + · · · + xn en ,
es decir que las coordenadas en la base canónica coinciden precisamente con las compo-
nentes del vector.

Seguiremos el convenio habitual de escribir las coordenadas como un vector columna.


Es decir, dada una base B = {v1 , · · · , vn } ⊂ V de cualquier espacio vectorial V , el vector
x = c1 v1 + · · · + cn vn puede representarse como
 
c1
 c2 
X =  ..  ,
 
.
cn
donde ci son las coordenadas de x en la base B. En particular, si V = Kn ,tenemos que
X = xT en la base canónica.

Dado V , existen muchas bases y dar coordenadas no significa nada si no especificamos


la base. Las coordenadas cambian con la base. Entonces, a veces incluso escribiremos
 
c1
 c2 
X =  ..  ,
 
.
cn B

34
para enfatizar que nos referimos a las coordenadas de x en la base B.

Ejemplo: sean las bases Bc = {(1, 0), (0, 1)} y B = {(1, 0), (1, 1)} de R2 , y sea el vector
x = (2, 3) ∈ R2 . Este vector tiene coordenadas
   
2 −1
X= = ,
3 Bc 3 B

ya que (2, 3) = 2(1, 0) + 3(0, 1) = −1(1, 0) + 3(1, 1).

Teorema 5. Teorema de la base: todas las bases de un espacio vectorial V tienen el


mismo número de elementos.

Demostración: Sea una base B con n elementos y otra base B 0 con n0 elementos. Como B
genera V y B 0 es libre, por el teorema de la independencia lineal concluimos que n0 ≤ n.
Intercambiando los papeles de B y B 0 concluimos que n ≤ n, así que la única solución
posible es que n = n0 .

Definición 9. Al número de vectores de una base de V lo llamamos la dimensión del
espacio vectorial V , y lo denotamos por dim V .
En este curso consideraremos espacios vectoriales de dimensión finita: dim V < ∞.

Ejemplos:
• En K (visto como espacio vectorial) sobre K, B = {1} es una base =⇒ dim K = 1,
pero tomando C sobre R (es decir, visto como espacio vectorial real), dim C = 2
(C ' R2 ), y una base es por ejemplo la canónica: B = {(1, 0), (0, 1)} ' {1, i}.

• dim Kn = n (entendido como espacio vectorial sobre K).

4.1 Propiedades de las bases y la dimensión


Si S es un conjunto de k vectores de un espacio vectorial V con dim V = n, se cumple:
i) Si S es un sistema generador de V , entonces k ≥ n.
Dem: S debe incluir a una base B de V , y B tiene n elementos =⇒ k ≥ n.

ii) Si S es libre, entonces k ≤ n.


Dem: una base B de V es sistema generador. Como S es libre y B es generador con
n vectores, por el teorema de la independencia lineal tenemos que k ≤ n.

iii) Si S es un sistema generador de V y k = n, entonces S es base de V .


Dem: Por ser S generador debe incluir a una base de V . Tal base debe incluir a
todos los vectores de S (y por tanto coincidir con S) ya que el número de vectores
de cualquier base es igual a dim V = n = k.

35
iv) Si S es libre y k = n, entonces S es base de V .
Dem: Si S no fuera base, ∃ x ∈ V independiente de S tal que {x} ∪ S = S 0 sería
libre y con k + 1 vectores, lo que implicaría k + 1 ≤ n (por ii)), que es falso ya que
k = n. Contradicción =⇒ S es base.

Teorema 6. Sea V un espacio vectorial de dimensión finita y W un subespacio de V


=⇒ dim W ≤ dim V .

Demostración: del teorema de la independencia lineal, una base BW de W cumple


BW = {w1 , · · · , wk } ⊂ V = lin {v1 , · · · , vn } ≡ lin BV con BV base de V , lo que implica
que k ≤ n.


Corolario 1. ∃ un único subespacio W con dim W = dim V , y éste es W = V .

Hemos visto antes que si S ⊂ V con k vectores es libre, entonces k ≤ dim V . Si


k < dim V , siempre podemos añadir vectores linealmente independientes a los de S hasta
completar la base:

Teorema 7. Teorema de prolongación de la base: Sea V espacio vectorial con


dim V = n, y W ⊂ V un subespacio. Si BW = {w1 , · · · , wk } con k < n es una base de
W , existen vectores {uk+1 , · · · , un } tales que {w1 , · · · , wk , uk+1 , · · · , un } es una base de
V.

Teorema 8. Sea V espacio vectorial de dimensión finita. Si W es un subespacio de V ,


existe un subespacio U (no necesariamente único) de V tal que V = W ⊕ U . Entonces W
y U se dicen subespacios complementarios.

Demostración: Partiendo de una base BW = {w1 , · · · , wk } de W , la ampliamos a


una base de V (teorema de prolongación de la base): BV = {w1 , · · · , wk , uk+1 , · · · , un },
entonces podemos definir U = lin {uk+1 , · · · , un } y claramente U ∩ W = {0}, así que
U ⊕W =V.


Teorema 9. Fórmula de Grassmann: Sean W1 y W2 subespacios de V de dimensión


finita, entonces

dim W1 + dim W2 − dim (W1 ∩ W2 ) = dim (W1 + W2 )

.
Demostración: Sea una base de la intersección, BW1 ∩W2 = {a1 , · · · , ak }, que podemos
prolongar a una base de W1 , BW1 = {a1 , · · · , ak , b1 , · · · , bm } con dim W1 = k + m, y
a una base de W2 , BW2 = {a1 , · · · , ak , c1 , · · · , cr } con dim W2 = k + r. Comprobemos
que BW = {a1 , · · · , ak , b1 , · · · , bm , c1 , · · · , cr } es base de W1 + W2 : cualquier vector

36
u ∈ W1 + W2 se puede expresar como u = u1 + u2 con u1 ∈ W1 y u2 ∈ W2 ; como BW1
y BW2 son bases de W1 y de W2 respectivamente, los vectores u1 y u2 son combinación
lineal de los vectores de estas bases respectivamente, con lo que u es combinación lineal
de los vectores de BW . Esto implica que BW es sistema generador de W . Veamos ahora
que es libre. Supongamos para ello que existen ciertos escalares αi , βj , γk tales que
k
X m
X r
X
αi ai + βj bj + γk ck = 0.
i=1 j=1 k=1

LlamandoPrw = i=1 αi ai + j=1 βj bj , que pertenece a W1 , nos encontramos con que


Pk Pm
w = − k=1 γk ck también pertenece a W2 , así que w ∈ W1 ∩ W2 . O sea, que también
existen ciertos escalares δi tales que w = ki=1 δi ai . Por tanto,
P

k
X r
X
δi ai + γk ck = 0,
i=1 k=1

y como BW2 es libre se deduce que δi = 0, ∀ i = 1, · · · , k y γi = 0, ∀ i = 1, · · · , r. Ahora,


como los γ’s son nulos, tenemos que
k
X m
X
αi ai + βj bj = 0,
i=1 j=1

y como BW1 es libre se deduce que αi = 0, ∀ i = 1, · · · , k y βi = 0, ∀ i = 1, · · · , m.


En resumen, si una combinación lineal de vectores de BW es nula, ha de tener nulos
todos sus coeficientes, y por tanto BW es libre. Como era sistema generador de W1 + W2 ,
concluimos que es base de este espacio.
De aquí se concluye inmediatamente la fórmula de Grassmann:
dim W1 = k + m , dim W2 = k + r , dim (W1 + W2 ) = k + m + r , dim (W1 ∩ W2 ) = k.
=⇒ dim (W1 + W2 ) = k + m + r = dim W1 + dim W2 − dim (W1 ∩ W2 ).

Corolario 2. dim (W1 ⊕ W2 ) = dim W1 + dim W2 .

Ejemplos:
• V = R3 , W1 = lin {e1 , e2 }, W2 = lin {e1 , e3 }

V = W1 + W − 2 , W1 ∩ W2 = lin {e2 } , dim V = 3 = 2 + 2 − 1.

• V = R3 , W1 = lin {e1 , e2 }, W2 = lin {e3 }


W1 ∩ W2 = {0} , V = W1 ⊕ W2 , dim V = 3 = 2 + 1.
Pero dado W1 también podríamos haber escogido por ejemplo W3 = lin {e1 + e3 } y
seguiríamos teniendo V = W1 ⊕ W3 (suma directa no única).

37
4.2 Base adaptada a la suma directa
Definición 10. Diremos que una base del espacio vectorial V está adaptada a la suma
directa V = V1 ⊕ V2 ⊕ · · · ⊕ Vp si es de la forma B = {x1 , y1 · · · , x2 , y2 , · · · , xp , yp , · · · }
con {xk , yk , · · · } una base de Vk para todo k = 1, · · · , p.

Ya hemos visto antes que siempre es posible encontrarla, gracias al teorema de pro-
longación de la base.

5 Cambios de base
Dado un vector fijo x, podemos escribirlo en una cierta base B o en cualquier otra B 0 , y
podemos preguntarnos cómo cambian sus coordenadas al cambiar la base elegida.

Sean B = {v1 , · · · , vn } y B 0 = {v10 , · · · , vn0 }. Un vector cualquiera de la base B 0 se


podrá escribir como combinación lineal de los vectores de B:
n
X n
X
vi0 = Pji vj ⇐⇒ vj = (P −1 )ij vi0 ∀i, j = 1, · · · , n.
j=1 i=1

Nótese que como ambas son bases, la matriz que las relaciona debe tener rango n = dim V ,
y dicha relación se puede invertir. En efecto,
n n X n n n
! n
X X X X X
0
vk = Clk vl = Clk Pjl vj = Pjl Clk vj = (P C)jk vj
l=1 l=1 j=1 j=1 l=1 j=1

=⇒ (P C)jk = δjk =⇒ P C = 1 =⇒ C = P −1 =⇒ ∃ P −1 .

5.1 Matriz P del cambio de base de B a B 0


n
X n
X
vi0 = Pji vj = vj Pji ∀i = 1, · · · , n.
j=1 j=1

Pji con j = 1, · · · , n son las coordenadas del vector vi0 en la base B, y forma la
columna i-ésima de la matriz P del cambio de base. En notación matricial:

V0 =VP , V = V 0 P −1 con V = (v1 |v2 | · · · |vn ) , V 0 = (v10 |v20 | · · · |vn0 ),

con la matriz de cambio de base P : B −→ B 0 dada por


 
P11 · · · P1n
 P21 · · · P2n 
P =  .. . . ..  .
 
 . . . 
Pn1 · · · Pnn

38
Ejemplo: en R2 , B = {v1 = (1, 0), v2 = (0, 1)}, B 0 = {v10 = (1, 0), v20 = (1, 1)}
v10 = 1 · v1 + 0 · v2 → P11 = 1 , P21 = 0.
v20 = 1 · v1 + 1 · v2 → P21 = 1 , P22 = 1.
       
10 0 11 10 11
V = , V = = · = V · P.
01 01 01 01

5.2 Cambio de coordenadas


Entonces, para un vector cualquiera x ∈ V
n
En la base B 0 :
X
x= x0j vj0 ,
j=1
n n X
n
En la base B :
X X
x= x i vi = xi (P −1 )ji vj0 ,
i=1 i=1 j=1

comparando deducimos
n
X n
X
x0j = (P −1 )ji xi ⇐⇒ xi = Pij x0j .
i=1 j=1

Introduciendo notación matricial para las coordenadas:


   
x1 x01
X =  ...  , X 0 =  ...  , (vectores columna),
   
xn x0n

entonces la relación entre las coordenadas en la base B y en la base B 0 es


X 0 = P −1 X , X = P X 0.
Vemos que las coordenadas cambian al contrario que la base (contravariantemente) 1

P −1
vectores : B − coordenadas : B −−→ B 0
P
→ B0 ,

Ejemplo: en R2 , B = {v1 = (1, 0), v2 = (0, 1)}, B 0 = {v10 = (1, 0), v20 = (1, 1)},
   
11 −1 1−1
P = , P = .
01 0 1
Sea x = (2, 3) = 2v1 + 3v2 = −1v10 + 3v20 , entonces
      
2 0 −1 1−1 2 −1
X= , X =P X= = .
3 0 1 3 3
1
Ojo con el convenio en la notación. En muchos textos llaman P a mi P −1 .

39
Ejemplo: en M 2×2 (C),consideremos
 un subespacio suyo de dimensión 3 formado por las
a b
matrices de traza nula , y sean las bases
c −a
     
01 00 1 0
B = {σ+ , σ− , σ0 } , σ+ = , σ− = , σ0 = ,
00 10 0 −1
     
0 01 0 −i 1 0
B = {σ1 , σ2 , σ3 } , σ1 = , σ2 = , σ3 = .
10 i 0 0 −1
Ambas están relacionadas mediante σ0 = σ3 y σ± = (σ1 ± iσ2 )/2, así que la matriz inversa
del cambio de base es  
1 1 0
1
P −1 =  i −i 0 .
2
0 0 2
Análogamente, σ3 = σ0 , σ1 = σ+ + σ− y σ2 = −iσ+ + iσ− , y
 
1 −i 0
P = 1 i 0 .
0 0 1
 
1 1
Un vector (elemento cualquiera), por ejemplo x = , lo podemos representar por
2−1
el vector columna de sus coordenadas en una base específica (isomorfismo entre M 2×2 (C)
y R3 ):  
  1
1 1
x= = σ+ + 2σ− + σ0 → X = 2 en la base B.
2−1
1
Cambiamos de base:
    
1 1 0 1 3
1 1 3 i
X 0 = P −1 X =  i −i 0 2 = −i → x = σ1 − σ2 + σ3 .
2 2 2 2
0 0 2 1 2

6 Operaciones elementales y rango


Dado un conjunto ordenado de vectores S = {x1 , · · · , xk } definimos las operaciones el-
ementales entre ellos igual que hicimos para las filas de una matriz. Claramente las
operaciones elementales sustituyen el conjunto original S por un conjunto de vectores
e(S) que son combinación lineal de los de S con coeficientes distintos de 0, y por tanto
lin S = lin (e(S)), y el número de vectores linealmente independiente en el conjunto no
cambia.

40
Así pues, colocamos los x1 , · · · , xk como filas de una matriz, escribieendo sus coor-
denadas en una cierta base, y definimos el rango de dicho conjunto de vectores como el
rango de la matriz que forman.

Teorema 10. El rango de un conjunto de vectores no depende de la base en la que los


escribamos

Demostración: según vimos en el Tema 1, dada una matriz A de tamaño k × n y una


matriz B de tamaño n × n invertible, entonces r(A) = r(AB).

Recordemos que una forma práctica de determinar el rango por filas de una matriz es
llevarla a una matriz escalón mediante operaciones elementales. Entonces, claramente el
rango se obtiene quitando las filas de ceros (pues esas son dependientes de las anteriores
no nulas).

7 Ecuaciones de subespacios. Sistemas de ecuaciones


lineales
Conocidas las ecuaciones intrínsecas de un subespacio, encontrar una base suya equiva-
lente a resolver el sistema de ecuaciones lineales homogéneo que forman sus ecuaciones
intrínsecas:
 
x1
 .. 
AX = 0 , A = (aij ) i = 1, · · · , m ; j = 1, · · · , n , X =  .  ,
xn

→ m ecuaciones con n incógnitas.

Como ef (AX) = ef (A)X = 0 tiene las mismas soluciones que AX = 0, podemos hacer
operaciones elementales sobre las filas de A que la lleven a una matriz escalonada, y el
número de filas distintas de 0 nos dá el número de ecuaciones linealmente idependientes.
Dimensión de AX = 0 = dim V − r(A).

Conviene recordar aquí algunas ideas sobre sistemas de ecuaciones lineales:



a11 x1 + a12 x2 + · · · + a1n xn = b1
..

 . ↔ AX = B
am1 x1 + am2 x2 + · · · + amn xn = bm

41
Teorema 11. Teorema de Rouché-Frobenius: AX = B tiene solución ⇐⇒ r(A) =
r(A|B). Además si X0 es solución, el conjunto de todas las soluciones es X0 + Y con Y
todos los vectores solución de AY = 0.

Demostración:

⇐) Si r(A) = r(A|B) =⇒ B es combinación   lineal de ls columnas de A, es decir


α1
 .. 
B = α1 A1 + · · · + αn An = A · α con α =  .  =⇒ α es solución.
αn

⇒) Si X0 es solución, AX0 = B =⇒ (x0 )1 A1 + · · · + (x0 )n An = B =⇒ B ∈


lin {A1 , · · · , An } =⇒ r(A) = r(A|B).

Si X0 y X1 son soluciones, entonces A(X1 − X0 ) = 0. Llamando Y = X1 − X0


encontramos que X1 = X0 + Y con Y solución de AY = 0.


Definición 11. AX = B es compatible si r(A) = r(A|B). Si el sistema es compatible,


es determinado si r(A) = dim V =⇒ dim{X} = 0 (solución única), e indeterminado si
r(A) < dim V =⇒ dim{X} = dim V − r(A) (número de parámetros libres).

En el caso particular B = 0 (homogéneo), X = 0 es solución (trivial) =⇒ siempre es


compatible. Si r(A) = dim V =⇒ X = 0 solución única.

Ejemplo: busquemos una base de

W = {x ∈ R5 : x1 − x2 + x3 − x5 = 0, x2 + 3x3 − x4 = 0, 3x1 − 4x2 + x4 − 3x5 = 0}.


     
1 −1 1 0 −1 1 −1 1 0 −1 1 −1 1 0 −1
F3 →F3 −3F1 F3 →F3 +F2
0 1 3 −1 0  − −−−−−−→ 0 1 3 −1 0  −− −−−−→ 0 1 3 −1 0 
3 −4 0 1 −3 0 −1 −3 1 0 0 0 0 0 0
 
1 0 4 −1 −1 (
F1 →F1 +F2 x1 = −4x3 + x4 + x5
−− −−−−→ 0 1 3 −1 0  =⇒ , r(A) = 2
000 0 0 x 2 = −3x 3 + x 4

El número de parámetros independientes es dim W = 5 − 2 = 3.


Un vector cualquiera de W es de la forma

(−4x3 +x4 +x5 , −3x3 +x4 , x3 , x4 , x5 ) = x3 (−4, −3, 1, 0, 0)+x4 (1, 1, 0, 1, 0)+x5 (1, 0, 0, 0, 1)

Así que una base de W es

{(−4, −3, 1, 0, 0), (1, 1, 0, 1, 0), (1, 0, 0, 0, 1)}.

42
Si por el contrario lo que conocemos es una base, y queremos sacar las ecuaciones
intrínsecas del subespacio, esto equivale a a resolver un sistemade n ecuaciones lineales
x1
 .. 
no homogéneas con m incógnitas, con X = B · Λ, con X =  . , B matriz n × m
xn
 
λ1
 .. 
formada por las columnas de vectores que generan el subespacio, y Λ =  .  los coefi-
λm
cientes de la combinación lineal arbitraria considerada de los vectores de la base. Ahora
dim W = r(B) (e(X) = e(B)Λ) y nos tienen que salir n − r(B) ecuaciones intrínsecas.

Ejemplo: W = lin{(1, 1, −2, 1, 0), (0, 1, 0, 1, 1)} ⊂ R5

Las coordenadas (x1 , · · · , x5 ) de un vector de W son de la forma

λ1 (1, 1, −2, 1, 0) + λ2 (0, 1, 0, 1, 1) = (λ1 , λ1 + λ2 , −2λ1 , λ1 + λ2 , λ2 ) con λ1 , λ2 ∈ R.

1 0 x1 1 0 x1 1 0 x1
1 1 x2 0 1 x2 − x1 0 1 x2 − x1
-2 0 x3 −→ 0 0 x3 + 2x1 −→ 0 0 x3 + 2x1
1 1 x4 0 1 x4 − x1 0 0 x4 − x2
0 1 x5 0 1 x5 0 0 x5 − x2 + x1
Las ecuaciones intrínsecas son las que hacen que r(B|X) = r(B) ya que el sistema
debe ser compatible por definción: ∀ x ∈ W , por tanto

W = {x ∈ R5 : 2x1 + x3 = 0 , x2 − x4 = 0 , x1 − x2 + x5 = 0 }.

Comprobación: los dos vectores de la base las cumplen.

Nótese qe como dimW = 2 , dimR5 = 5, tenemos 5 − 2 = 3 ecuaciones intrínsecas.

43

También podría gustarte