Introducción al Álgebra Matricial
Introducción al Álgebra Matricial
Matrices
A partir de ahora K denotará un cuerpo.
Definición. Una matriz A = (aij ) de orden m × n sobre un cuerpo K es
una tabla de doble entrada con m.n elementos del cuerpo K, dispuestos en
en m filas y n columnas. Al elemento que ocupa la fila i y la columna j de
la matriz A lo denotaremos por aij o por A(i, j). Así pues:
a11 a12 ··· a1n
a21 a22 ··· a2n
A= . .. .. ..
.. . . .
am1 am2 · · · amn
3
Definición. Sean A = (aij ) ∈ Mm×n (K) y α un escalar en K. Se define
la multiplicación de un escalar α por una matriz A como una matriz αA ∈
Mm×n (K) de modo que (αA)(i, j) = αaij ∀i, j, es decir:
αa11 αa12 ··· αa1n
αa21 αa22 ··· αa2n
αA = . .. .. ..
.. . . .
αam1 αam2 · · · αamn
2. (α + β)A = αA + βA.
3. α(A + B) = αA + αB.
4. α(βA) = (αβ)A.
5. 1K A = A.
El elemento neutro del grupo (Mm×n (K), +) es la matriz con todas sus
entradas 0 y la denotaremos por (0).
Observaciones.
1. Nótese que, para hacer el producto AB es necesario que el número de
columnas de A coincida con el número de filas de B.
2. En general, el producto de matrices no es conmutativo. Por ejemplo,
0 0 1 0 0 0 0 0 1 0 0 0
= = =
1 1 1 0 2 0 0 0 1 0 1 1
4
1. Asociativa: (AB)C = A(BC), donde A ∈ Mm×n (K), B ∈ Mn×s (K) y
C ∈ Ms×r (K).
5
6. Si A ∈ Mn (K) es una matriz no singular, (At )−1 = (A−1 )t .
Demostración.
Las propiedades 1, 3 y 4 son evidentes.
Para demostrar 2, basta tener en cuenta que:
Observaciones.
1. Si A = (a11 , a12 , · · · , a1n ) ∈ M1×n (K) y B = (bij ) ∈ Mn×s (K), entonces
(a11 , a12 , · · · , a1n ) B =
(a11 b11 + a12 b21 + · · · + a1n bn1 , · · · , a11 b1s + a12 b2s + · · · + a1n bns ) =
a11 (b11 , b12 , · · · , b1s ) + · · · + a1n (bn1 , bn2 , · · · , bns ) =
a11 F1 (B) + · · · + a1n Fn (B),
en donde Fi (B) denota la matriz fila correspondiente a la fila i-ésima de B.
2. Si A = (aij ) ∈ Mm×n (K) y B = (bij ) ∈ Mn×s (K), como consecuencia
de la observación anterior se tiene que la fila i-ésima de la matriz AB es de
la forma:
6
a11 b11 + a12 b21 + · · · + a1n bn1
a21 b11 + a22 b21 + · · · + a2n bn1
AB =
=
···
am1 b11 + am2 b21 + · · · + amn bn1
a11 a1n
a21 a2n
.. b11 + · · · + .. bn1 = b11 C1 (A) + · · · + bn1 Cn (A),
. .
am1 amn
Ejemplo.
1 2 0 7 −1
1 1 −1
2 −1
3
6 −3
1 0 =
1 0 4 −1
1 2
0 4 3 15 6
7
Matrices elementales
Definición. Llamaremos matriz elemental de orden m, E, a cualquiera de
las siguientes matrices:
EFi ↔Fj (i, j) = EFi ↔Fj (j, i) = EFi ↔Fj (k, k) = 1 si k = i, j y las demás
entradas son cero.
Im −−−−→
Fi ↔F j
EFi ↔Fj .
Im −→
αF i
EαFi con α ∈ K y α = 0.
EFi +αFj (k, k) = 1 ∀k, EFi +αFj (i, j) = α y las demás entradas son
cero.
Im −−−−→
Fi +αF j
EFi +αFj .
Demostración.
8
Fj (EFi ↔Fj A) = 0F1 (A) + · · · + 1Fi (A) + · · · + 0Fn (A) = Fi (A) y
i
3. Fi (EFi +αFj A) = 0F1 (A) + · · · + 1Fi (A) + · · · + αFj (A) + · · · + 0Fn (A) =
i j
Fi (A) + αFj (A) y si k = i entonces Fk (EFi +αFj A) = Fk (A).
(EFi ↔Fj )−1 = EFi ↔Fj , (EαFi )−1 = Eα−1 Fi y (EFi +αFj )−1 = EFi −αFj .
A es invertible ⇔ B es invertible.
Observaciones.
Sea A ∈ Mm×n (K), entonces:
9
1. AEFi ↔Fj ∈ Mm×n (K) es la matriz obtenida de A al intercambiar la
columna i-ésima con la j-ésima.
EFi ↔Fj = ECi ↔Cj , EαFi = EαCi , EFi +αFj = ECj +αCi .
A es invertible ⇔ A = In .
Demostración.
"⇒" Si A es invertible ninguna de sus filas es nula y, como es escalonada,
el no de pivotes coincide con el no de filas y, por tanto, con el no de columnas.
Además, por ser A reducida, se tiene que A = In .
10
"⇐" Trivial.
Ejemplos.
1.
1 −2 3 9 1 −2 3 9
−1 3 0 −4 − −−−→ 0 1 3 5 − −−−−→
F2 +F1 F3 −2F1
2 −5 5 17 2 −5 5 17
1 −2 3 9 1 −2 3 9 1 −2 3 9
0 1 3 5 − −−−→ 0 1 3 5 −1−→ 0 1 3 5 .
F3 +F2 F
2 3
0 −1 −1 −1 0 0 2 4 0 0 1 2
2.
1 −2 3 9 1 0 9 19
0 1 3 5 −−−−−→ 0 1 3 5 −−−−−→
F1 +2F2 F1 −9F3
0 0 1 2 0 0 1 2
1 0 0 1 1 0 0 1
0 1 3 5 −−−−−→ 0 1 0 −1 .
F2 −3F3
0 0 1 2 0 0 1 2
11
nos indica como calcular la inversa de una matriz no singular, usando trans-
formaciones elementales por filas.
−1 −2
Ejemplo. Sea A = ∈ M2 (R). Para calcular la inversa de la
3 8
matriz A procedemos del modo siguiente:
−1 −2 1 0 1 2 −1 0
(A|I2 ) = −−→ −−−−−→
3 8 0 1 −F 1 3 8 0 1 F2 −3F1
1 2 −1 0 1 2 −1 0 1 0 −4 −1
−−→ 3 1 −−−−−→ 3 1
0 2 3 1 1
F
2 2 0 1 2 2
F 1 −2F2 0 1 2 2
−4 −1
y así A−1 = 3 1 .
2 2
Observación.
El rango por filas está bien definido, ya que cualquiera de las matrices
escalonadas que sean equivalentes por filas a A tiene el mismo número de
pivotes. En efecto, si B es una matriz escalonada por filas, su no de pivotes
coincide con el no de pivotes de la única escalonada reducida a la que es
equivalente por filas, ya que:
Si el pivote de la fila i y la columna j es α = bij , se convierte en 1
haciendo E( 1 )Fi B.
α
Cada uno de los elementos no nulos de la columna j, bkj = 0, k =
1, · · · , i − 1, se convierte en 0 haciendo EFk −bkj Fi E( 1 )Fi B.
bkj
Determinantes
En este apartado, las matrices que se consideran son matrices cuadradas.
12
|A| = det(A) = a11 α11 + · · · + an1 αn1 .
|A| = det(A) = a1j α1j + · · · + anj αnj para cualquier j ∈ {1, · · · , n}.
|A| = det(A) = ai1 αi1 + · · · + ain αin para cualquier i ∈ {1, · · · , n}.
Ejemplos.
a11 (a22 a33 − a32 a23 ) + a21 (a32 a13 − a12 a33 ) + a31 (a12 a23 − a22 a13 ) =
a11 a22 a33 + a13 a21 a32 + a12 a23 a31 − a11 a23 a32 − a12 a21 a33 − a13 a22 a31 .
3.
1 2 3
1 3
= 6 − 12 = −6 y 0 1 2 = 0 + 0 + 8 − 6 − 2 − 0 = 0.
4 6
2 1 0
13
4. Si A = (aij ) ∈ Mn (K) es una matriz triangular superior, |A| = a11 · · · ann .
14
La demostración de las propiedades 1 y 2, se puede ver en Álgebra lineal
con métodos elementales, Merino L. y Santos E.
Propiedad 3:
F1 (A) F1 (A) F1 (A) F1 (A) F1 (A)
··· ··· ··· ··· ···
Fi (A) + Fj (A) Fi (A) Fi (A) Fj (A) Fj (A)
0 = ··· = ··· + ··· + ··· + ··· =
Fj (A) + Fi (A) Fj (A) Fi (A) Fj (A) Fi (A)
··· ··· ··· ··· ···
Fn (A) F (A) F (A) F (A) F (A)
n n n n
F1 (A) F1 (A)
··· ···
Fi (A) Fj (A)
··· + ··· .
Fj (A) Fi (A)
··· ···
F (A) F (A)
n n
Propiedad 4:
Sea A = (aij ) una matriz de orden n, usaremos inducción en n para
probar esta propiedad. Si n = 1 es evidente. Supuesto n > 1 y que el
resultado es cierto para matrices de orden n − 1,
a11 · · · a1n
··· ··· ···
si A = EβFi A =
′
βai1 · · · βain , entonces
··· ··· ···
an1 · · · ann
det(A′ ) = a11 α′11 + · · · + βai1 α′i1 · · · + an1 α′n1 . Como α′i1 = αi1 y, por
hipótesis de inducción, para t = i se tiene que α′t1 = βαt1 , obtenemos que
det(A′ ) = a11 βα11 + · · · + βai1 αi1 + · · · + an1 βαn1 = β det(A).
Propiedad 5:
Utilizando las propiedades 1, 4 y 2, se obtiene:
15
F 1 (A) F1 (A) F1 (A)
··· ··· ···
Fi (A) + βFj (A) Fi (A) Fj (A)
··· = · · · + β · · · = |A| .
F j (A) Fj (A) Fj (A)
··· ··· ···
Fn (A) F (A) F (A)
n n
A es no singular ⇔ |A| =
0.
Demostración.
A es no singular ⇔ Existen E1 , ..., Es matrices elementales tal que A =
E1 · · · Es ⇒ |A| = |E1 · · · Es | = |E1 | |E2 · · · Es | = · · · = |E1 | · · · |Es | =
0.
A es singular ⇔ A es equivalente por filas a una matriz escalonada por
filas A′ que tiene una fila de ceros ⇔ Existen E1 , · · · , Es matrices elementales
tal que A = E1 · · · Es A′ ⇒ |A| = |E1 · · · Es A′ | = |E1 | |E2 · · · Es A′ | = · · · =
|E1 | · · · |Es | |A′ | = 0.
16
fila y, para ello, veremos que el determinante de una matriz coincide con el
de su traspuesta.
Demostración.
Basta con observar que la primera columna de At es (a11 , · · · , a1n )t y
los adjuntos de los elementos de la primera columna de At coinciden con
los correspondientes a los elementos de la primera fila de A. En efecto,
(A1j )t = (At )j1 para todo j y α1j = (−1)1+j det(A1j ) = (−1)1+j det(A1j )t =
(−1)1+j det((At )j1 ). Así,
|A| = At = a11 (−1)1+1 det((At )11 ) + · · · + a1n (−1)n+1 det((At )n1 ) =
a11 (−1)1+1 det(A11 )+· · ·+a1n (−1)n+1 det(A1n ) = a11 α11 +· · ·+a1n α1n .
17
|A| = a1j α1j + · · · + anj αnj j = 1, · · · , n
|A| = ai1 αi1 + · · · + ain αin i = 1, · · · , n.
Demostración.
Sea A′ = EF1 ↔F2 A la matriz obtenida de A intercambiando la primera
fila con la segunda. Calculando el determinante de A′ con el desarrollo de
Laplace por la primera fila:
|A′ | = a21 (−1)1+1 det(A21 ) + a22 (−1)1+2 det(A22 ) + a23 (−1)1+3 det(A23 ) +
· · · + a2n (−1)1+n det(A2n ) y, como |A| = − |A′ | , se tiene que:
|A| = a21 (−1)2+1 det(A21 )+a22 (−1)2+2 det(A22 )+· · ·+a2n (−1)2+n det(A2n ) =
a21 α21 + · · · + a2n α2n .
De la misma forma, si A′′ es la matriz obtenida de A intercambiando la
segunda fila con la tercera, calculando el desarrollo de Laplace de A′′ por su
segunda fila, se obtiene:
|A′′ | = a31 (−1)2+1 det(A31 ) + a32 (−1)2+2 det(A32 ) + a33 (−1)2+3 det(A33 ) +
· · · + a3n (−1)2+n det(A3n ) y, por tanto, como |A| = − |A′′ | , se tiene que:
|A| = a31 (−1)3+1 det(A31 )+a32 (−1)3+2 det(A32 )+· · ·+a3n (−1)3+n det(A3n ) =
= a31 α31 + · · · + a3n α3n .
Repitiendo el proceso las veces que sea necesario, se obtiene
t el desarrollo
por cualquier otra fila y, teniendo en cuenta que |A| = A , se obtiene el
desarrollo por cualquier columna.
1
A−1 = (adj(A))t en donde adj(A) = (αij ) ∈ Mn (K).
|A|
Demostración.
1
Como |A| =
0, podemos definir la matriz B := (adj(A))t . B es de
|A|
orden n y vamos a comprobar que es inversa de A. En efecto,
n
n
1 1
(AB)(i, i) = aik B(k, i) = aik αik = |A| = 1
k=1 k=1 |A| |A|
y, si i = j, se tiene que
n
n
1 1 n
(AB)(i, j) = aik B(k, j) = aik αjk = ( aik αjk ) = 0
k=1 k=1 |A| |A| k=1
18
n
ya que aik αjk = 0, porque es el desarrollo de Lapace, a lo largo de la
k=1
fila j-ésima, del determinante de una matriz que tiene todas sus filas como
las de A, excepto la j-ésima que coincide con la i-ésima de A, es decir es el
determinante de una matriz con dos filas iguales.
Ejercicios
a) AB = BA.
b) (A + B)2 = A2 + 2AB + B 2 .
c) A(A + B) = A2 + AB.
19
a) (A−1 )−1 = A.
1 α α2 /2
5.- Sea A(α) = 0 1 α . Se pide:
0 0 1
0 −1 1
8.- Se considera la matriz A = 0 1 −1 .
0 0 1
Hallar una fórmula para A , siendo n un entero positivo.
n
1 0
9.- Si A = , demostrar que A2 = 2A − I2 y calcular A100 .
−1 1
10.- Sean A = (aij ) ∈ M5×3 (R) y B = (bij ) ∈ M3×4 (R) tales que
20
Demostrar que la suma de los elementos de cada una de las filas de la
matriz producto AB es αβ.
2 1
−1 3
11.- Halla una matriz elemental E que transforma la matriz A =
0
4
1 2
en B, donde:
2 1 2 1 2 1
0 4
a) B = ; b) B = −1 3 ; c) B = −1 3 .
−1 3 0 4 0 3
1 2 5 4 1 2
21
(A1 )−1 , (A2 )−1 , A1 B, A2 B y AB3 .
22
3 2 0 1 2 1
A = 0 1 0 y B = 1 1 −1 ∈ M3 (R)
6 6 1 1 1 0
21.- Calcular los valores de a para que la siguiente matriz tenga inversa
1 2 0
1 a 3 ∈ M3 (R).
2 1 3
23
1 a a2 a3 a4 0 0 0 0 1
0 1 a a2 a3
0 1 a a2 a3
A=
0 0 1 a a2 yB=
0 1 1+a a + a2 a2 + a3
0 0 0 1 a 0 0 0 1 a
0 0 0 0 1 1 a a2 a3 a4
a) |A + B| = |A| + |B|.
b) |αA| = α |A| .
c) |αA| = αn |A| .
c) |−A| = (−1)n |A| .
d) Si AB tiene inversa también la tienen A y B.
d) Si |AB| = 0 entonces |A| = |B| = 0.
27.- Sean A,B ∈ M3 (R) tales que |A| = 3 y |B| = 5. Calcular los determi-
nantes de las siguientes matrices:
24
29.- Sabiendo que los números 1.353, 3.751, 8.492 y 6.105 son todos divisibles
por 11, demostrar que el derterminante de la siguiente matriz es, también,
divisible por 11:
1 3 5 3
3 7 5 1
A= 8 4 9 2 .
6 1 0 5
31.- Sea A una matriz cuadrada n × n formada por números enteros entre 0
y 9. Demostrar que si las filas (ó las columnas) de A, leidas como un número
de n dígitos, forman un múltiplo de 3, entonces |A| también es un múltiplo
de 3.
33.- Determinar los valores de x para los que se verifica que |A| =
0, siendo
x 2 0 3
1 2 3 3
A=
1
.
0 1 1
1 1 1 3
25
por el procedimiento de llevarlo a la forma triangular.
43.- Hallar los posibles valores del determinante de una matriz A, en cada
uno de los siguientes casos:
26
a) A es idempotente, es decir A2 = A.
27
28
Tema 2: Sistemas de ecuaciones lineales
A partir de ahora, K denotará un cuerpo.
Ecuaciones lineales
Definición. Una ecuación lineal con coeficientes en K y con n incógnitas
(o variables) x1 , x2 , · · · , xn es una expresión de la forma
a1 x1 + a2 x2 + · · · + an xn = b (∗)
a1 α1 + a2 α2 + · · · + an αn = b
Ejemplos.
2. La ecuación x2 + 2y = 1 no es lineal.
En forma abreviada,
29
n
aij xj = bi para i = 1, · · · , m,
k=1
1.
x+y =2
es un sistema incompatible y representa a dos rectas parale-
x+y =7
las.
2.
x+y =2
es un sistema compatible determinado, puesto que (−5, 7)
y =7
es su única solución. Representa a dos rectas que se cortan en el punto
(−5, 7).
3.
x + y =2
es un sistema compatible indeterminado, puesto
2x + 2y = 4
que tiene más de una solución, por ejemplo (1, 1) y (0, 2). Se trata ahora de
dos rectas coincidentes.
30
Interpretación matricial de un sistema
Dado un sistema de ecuaciones lineales
a11 x1 + a12 x2 + · · · + a1n xn = b1
a21 x1 + a22 x2 + · · · + a2n xn = b2
(S)
···
am1 x1 + am2 x2 + · · · + amn xn = bm
llamaremos:
matriz de los coeficientes del sistema a la matriz A = (aij ) ∈ Mm×n (K),
matriz de los términos independientes a la matriz B = (b1 , · · · , bm )t ∈
Mm×1 (K)
matriz ampliada del sistema a la matriz
a11 · · · a1n b1
(A | B) = · · · · · · · · · · · · ∈ Mm×(n+1) (K).
am1 · · · amn bm
x1
Si denotamos por X = ... , el sistema anterior tiene la siguiente
xn
expresión matricial:
AX = B.
x1 C1 (A) + · · · + xn Cn (A) = B.
31
La tercera ecuación nos indica que z = 1, sustituyendo este valor en
la segunda se tiene que y = 1 y sustituyendo ambos valores en la primera
obtenemos que x = 0. Así, (0, 1, 1) es la única solución de este sistema, que
es por tanto un sistema compatible determinado.
El método utilizado, de sustitución hacia atrás, nos permite resolverlo de
forma muy sencilla porque está en forma escalonada. En general, un sistema
arbitrario no aparece en forma escalonada y, para resolverlo con la técnica
anterior, trataremos de transformarlo en otro con las mismas soluciones que
se presente en forma escalonada.
Nótese que:
S −−−−→
Fi ↔Fj
S′ −−−−→
Fi ↔Fj
S
S −−→
αFi
S′ −
1
−→ S
F
α i
S −−−−−→
Fi +αFj
S′ −−−−−→
Fi −αFj
S
32
incógnitas correspondientes a los pivotes se llamarán incógnitas principales
y las demás incógnitas libres.
1.
x − 2y + 3z = 9 x − 2y + 3z = 9
F2 +F1
−x + 3y = −4 −→ y + 3z = 5
F3 −2F1
2x − 5y + 5z = 17 − y − z = −1
x − 2y + 3z = 9 x − 2y + 3z = 9
−−−−→
F3 +F2
y + 3z = 5 −1−→ y + 3z = 5
F3
2z = 4 2 z = 2
La única solución de este sistema es (1, −1, 2). Por tanto, se trata de un
sistema compatible determinado.
2.
y − z = 0 x − 3z = −1
x − 3z = −1 −
−−−−→
F2 ↔F1
y − z = 0
−x + 3y = 1 −x + 3y = 1
x − 3z = −1 x − 3z = −1
−−−−→
F3 +F1
y − z = 0 −−−−−→
F3 −3F2
y − z = 0
3y − 3z = 0 0y + 0z = 0
Las ternas de la forma (−1 + 3z, z, z) con z ∈ R son las soluciones del
sistema. Por tanto, se trata de un sistema compatible indeterminado en
donde x e y son las incognitas principales y z la incognita libre.
33
3.
x − 3y + z = 1 x − 3y + z = 1
2x − y − 2z = 2 −−−−−→
F2 −2F1
5y − 4z = 0
x + 2y − 3z = −1 x + 2y − 3z = −1
x − 3y + z = 1 x− 3y+ z = 1
−−−−→
F3 −F1
5y − 4z = 0 −−−−→
F3 −F2
5y− 4z = 0
5y − 4z = −2 0y− 0z = −2
4.
ax +y = 1 ax +y = 1
−−−−→
(a + 1)x +y = 2 F2 −F1 x =1
x =1 x =1
−
−−−−→ −−−−−→
F1 ↔F2 ax +y = 1 F2 −aF1 y =1−a
34
1 −2 3 9 1 −2 3 9
−−−−→ 0 1 3 5 −
1
−→ 0 1 3 5 .
F3 +F2 F
2 3
0 0 2 4 0 0 1 2
Por tanto, un sistema equivalente al de partida es:
x − 2y + 3z = 9
y + 3z = 5
z = 2
cuya solución se obtiene usando sustitución hacia atrás, como se indicó an-
teriormente.
También se puede continuar el proceso hasta llegar a una matriz que sea
escalonada reducida,
1 −2 3 9 1 0 9 19
0 1 3 5 − −−−−→ 0 1 3 5 − −−−−→
F1 +2F2 F1 −9F3
0 0 1 2 0 0 1 2
1 0 0 1 1 0 0 1
0 1 3 5 −−−−−→ 0 1 0 −1
F2 −3F3
0 0 1 2 0 0 1 2
que es la matriz ampliada del sistema
x = 1
y = −1
z = 2
35
a) No de pivotes = no de columnas −1= no de incognitas. En éste caso, ex-
iste una única solución y la solución viene dada por la última columna.
Es decir, la matriz escalonada reducida es de una de las siguientes for-
mas:
1 0 ··· 0 b1
0 1 ··· 0 b2
.. .. .. .. .. 1 0 ··· 0 b1
. . . . .
0 1 · · · 0 b2
o
0 0 ··· 1 bn . . .. .. ..
0 .. .. . . .
0 ··· 0 0
.. .. .. .. .. 0 0 ··· 1 bn
. . . . .
0 0 ··· 0 0
Ejemplos.
36
2.
1 2 3 4 1 2 3 4 1 2 3 4
A = 2 4 7 9 −−−−−→
F2 −2F1
0 0 1 1 −−−−−→
F3 −2F1
0 0 1 1
2 4 6 8 2 4 6 8 0 0 0 0
El sistema cuya matriz ampliada es A corresponde al caso 2b); de la
segunda ecuación se obtiene que z = 1 y sustituyendo éste valor en la primera
se tiene que x = 1 − 2y, por tanto las soluciones del sistema son las ternas
de la forma (1 − 2y, y, 1) para todo y ∈ R.
3.
1 2 3 4 1 2 3 4 1 2 3 4
B = 2 4 7 9 −−−−−→
F2 −2F1
0 0 1 1 −−−−−→
F3 −2F1
0 0 1 1
2 4 6 9 2 4 6 9 0 0 0 1
El sistema cuya matriz ampliada es B está en la situación 1) y se trata
de un sistema incompatible.
Demostración.
1
Si AX = B, entonces al ser A no singular, X = A−1 B = (adj(A))t B
|A|
y entonces
37
1 n 1 n 1 n
xi = X(i, 1) = ((adj(A))t )(i, k)bk = αki bk = bk αki
|A| k=1 |A| k=1 |A| k=1
n
Nótese que bk αki es el desarrollo, por la columna i-ésima, del deter-
k=1
minante de una matriz que se obtiene de la matriz A cambiando su columna
i-ésima por la de los términos independientes del sistema.
Ejercicios
38
3.- Calcular el valor de α para que sea compatible e indeterminado el sis-
tema:
αx +y +z = α
x +αy +z = α
x +y +αz = α
7.- Hallar los valores del parámetro α para que el siguiente sistema tenga
soluciones no triviales.
(α + 2)x −2y +3z = 0
−2x +(α − 1)y +6z = 0
x +2y +αz = 0
a 0 b 2
8.- Sea a a 4 4 la matriz ampliada de un sistema S. Encontrar
0 a 2 b
los valores que deben tomar a y b en los siguientes casos:
39
a) S tiene solución única.
b) S no tiene solución.
40
Estudiar su compatibilidad para los diferentes valores de b y resolverlos
en los casos en que sean compatibles.
41
17.- Se considera el sistema AX = B con B = 0 y α y β dos escalares dados.
Sabiendo que si X1 y X2 son dos soluciones del sistema también es solución
αX1 + β X2 . Analizar la relación que debe existir entre α y β.
42
Tema 3: Espacios vectoriales
Definición. Se dice que un conjunto no vacio V es un espacio vectorial
sobre K o que es un K-espacio vectorial si:
K × V −→ V
(α, v) αv
a) (α + β)v = αv + βv,
b) α(v + w) = αv + αw,
c) α(βv) = (αβ)v,
d) 1K v = v.
Ejemplos.
1. K es un K-espacio vectorial.
2. Rn es un R-espacio vectorial.
43
1. Dados α ∈ K y v ∈ V se tiene que, αv = 0 ⇔ α = 0 o v = 0.
2. Dados α, β ∈ K y v ∈ V, v = 0, si αv = βv entonces α = β.
Demostración.
Subespacios vectoriales
En adelante V denotará un K-espacio vectorial.
1. u + u′ ∈ U para todo u, u′ ∈ U.
Ejemplos.
4. U = {(x, y, z) ∈ R3 /x + y = 0, x + 2y + z = 0} es un subespacio de R3 .
5. U = {A ∈ Mn (K)/A es diagonal} es un subespacio de Mn (K).
6. El conjunto de las soluciones de un sistema homogéneo, de m ecuaciones
con n incognitas con coeficientes en K, es un subespacio de K n .
44
Proposición. Si U y W son subespacios vectoriales de V , entonces U ∩ W
es un subespacio de V pero U ∪ W no lo es en general.
Demostración.
U ∩ W = ∅ ya que 0 ∈ U ∩ W . También se verifica que:
1. u, w ∈ U ∩ W ⇔ u, w ∈ U y u, w ∈ W ⇒ u + w ∈ U y u + w ∈ W ⇔
u + w ∈ U ∩ W.
2. u ∈ U ∩ W y α ∈ K ⇔ u ∈ U y u ∈ W y α ∈ K ⇒ αu ∈ U y
αu ∈ W ⇔ αu ∈ U ∩ W.
Ejemplos.
45
1 0 1 1 1 0 1 1
−−−−→ 0 1 −1 0 −
1
−→ 0 1 −1 0 ,
F3 −F2 F
2 3 1
0 0 2 1 0 0 1 2
1 1 1
obtenemos que la única solución del sistema es ( , , ) y que (1, 1, 1) =
2 2 2
1 1 1
(1, 1, 0) + (0, 1, 1) + (1, 0, 1).
2 2 2
Definición. Sea S un subconjunto no vacio de V . Se dice que S es un
conjunto de generadores de V si todo vector de V se puede expresar como
combinación lineal de elementos de S.
Ejemplo.
{(x, y, z) ∈ R3 / x = y} = {x(1, 1, 0)+z(0, 0, 1)/ x, z ∈ R} = (1, 1, 0), (0, 0, 1) .
Observación.
Si S y S ′ son subconjuntos no vacios de V
S ⊂ S ′ S ⊂ S ′
′
S = S ⇔ y ⇔ y
′ ′
S ⊂ S S ⊂ S
46
S = S\{v} ⇔ v ∈ S\{v} .
i) v1 , · · · , vi , · · · , vj , · · · , vn = v1 , · · · , vj , · · · , vi , · · · , vn .
ii) v1 , · · · , vi , · · · , vn = v1 , · · · , αvi , · · · , vn con α ∈ K y α = 0.
iii) v1 , · · · , vi , · · · , vj , · · · , vn = v1 , · · · , vi + βvj , · · · , vj , · · · , vn con β ∈
K e i = j.
Nótese que:
a) U + W = U ∪ W y, por tanto, es el menor subespacio de V que
contiene a U y a W.
b) Si U = S y W = S ′ , entonces U + W = S ∪ S ′ .
Ejemplos.
2 1 3 0 1 0
1. S = , , ⊂ M2 (R) es un conjunto linealmente
0 1 2 1 2 0
independiente. En efecto:
2 1 3 0 1 0 0 0
α1 + α2 + α3 = ⇔
0 1 2 1 2 0 0 0
2α1 + 3α2 + α3 = 0
α1 =0
⇔ α1 = α2 = α3 = 0.
2α2 + 2α3 = 0
α1 + α2 =0
47
2. {(1, 1, 1), (0, 1, 1), (0, 0, 7)} es un subconjunto de R3 linealmente indepen-
diente.
Observaciones.
1. Si S = {u} ⊂ V ,
S es linealmente independiente ⇔ u = 0,
ya que αu = 0 ⇔ α = 0 o u = 0.
Demostración.
"⇒" Sea αv+α1 u1 +· · ·+αn un = 0 con α, α1 , · · · , αn ∈ K y u1 , · · · , un ∈
S. Como v ∈ / S se tiene que α = 0 y, como además S es linealmente
independiente, αi = 0 para i = 1, · · · , n.
"⇐" Trivial ya que si v perteneciese a S, S ∪ {v} sería linealmente
dependiente.
48
Bases y dimensión
Introducimos a continuación el concepto de base que es esencial en el estudio
de los espacios vectoriales. Trataremos, únicamente, el caso de espacios
vectoriales finitamente generados, aunque los resultados son válidos para
espacios vectoriales generales.
1. B es un conjunto generador de V.
2. B es linealmente independiente.
Ejemplos.
3. El conjunto {(1, 0, 3), (0, 1, 7), (0, 0, 1)} es una base de R3 y, sin embargo,
{(1, 0, 3), (0, 1, 7), (0, 0, 1), (1, 1, 1)} no lo es puesto que es un conjunto
linealmente dependiente.
1. B es una base de V.
49
Demostración.
2) ⇒ 1) Por hipótesis B = V. Además, B es linealmente independiente
ya que si α1 v1 +· · · + αn vn = 0 = 0v1 + · · · + 0vn , de la hipótesis de unicidad,
se sigue que αi = 0 para i = 1, · · · , n.
1) ⇒ 2) Si α1 v1 + · · · + αn vn = β 1 v1 + · · · + β n vn , entonces (α1 −
β 1 )v1 + · · · + (αn − β n )vn = 0 y, teniendo en cuenta que B es linealmente
independiente, se tiene que αi = β i para i = 1, · · · , n.
(α1 , · · · , αn ) ∈ K n .
2γ = 1 α + 2β + 3γ = 3
1 7
α + 2β + 3γ = 3 ⇔ β − 4γ = −3 ⇔ γ = , β = −1, α =
1 2 2
3α + 7β + 5γ = 6 γ= 2
7 1
es decir, las coordenadas del vector (1, 3, 6) en la base B son ( , −1, ).
2 2
Teorema de existencia de base. Sea V = {0} un espacio vectorial con
un conjunto finito de generadores S. Existe un subconjunto B de S que es
una base de V.
Demostración.
Nótese que, ya que V = {0}, todo conjunto de generadores de V tiene
al menos un vector distinto de 0.
Si S es linealmente independiente ya es una base.
En caso contrario, existe v ∈ S que es combinación lineal de los restantes
y S = S\{v} .
50
Si este nuevo conjunto de generadores es linealmente independiente ya
es una base de V . En otro caso, existe v′ ∈ S\{v} tal que es combinación
lineal de los vectores de S\{v} y S\{v} = S\{v, v′ } .
Repitiendo el proceso, tantas veces como sea necesario, se llega a un
sistema de generadores linealmente independiente ya que, en el caso mas
desfavorable, encontraríamos un conjunto generador con un único vector
que al ser distinto de 0 ya sería linealmente independiente.
Ejercicio.
Sea U el subespacio de R4 generado por S = {v1 = (1, 1, 0, 0), v2 =
(0, 1, 0, 0), v3 = (−1, −1, 0, 0), v4 = (1, 2, 0, 0), v5 = (0, 2, 3, 3)}. Encontrar
una base de U.
S = v1 , v2 , v4 , v5 = v1 , v2 , v5 .
v3 =−v1 v4 =v1 +v2
51
Este sistema es homogéneo, por tanto compatible, y como el número de
incógnitas, m, es mayor que el de ecuaciones, n, tiene solución no trivial y
en consecuencia S es linealmente dependiente.
Ejemplos.
4. W = {(x, y, z, t) ∈ R4 /x + y − z + t = 0, y + 2t = 0} =
(x, y, z, t) ∈ R4 /x = z + t, y = −2t = {(z + t, −2t, z, t)/z, t ∈ R} =
{z(1, 0, 1, 0) + t(1, −2, 0, 1)/z, t ∈ R} = (1, 0, 1, 0), (1, −2, 0, 1) . Por
tanto, W es un subespacio de R4 con dimR (W ) = 2.
52
Demostración.
1) Veamos que V = S. En efecto:
Dado v ∈ V , si v ∈
/ S , sabemos que S ∪ {v} es un conjunto linealmente
independiente con n + 1 elementos, en contradicción con el teorema visto
antes.
2) Si S es linealmente dependiente se probó, en el teorema de existencia
de base, que existe un subconjunto B de S de m elementos que es una base
con m < n, lo que contradice que dim(V ) = n.
Ejemplo.
Sea S={u1 = (1, 1, 1, 1), u2 = (1, 2, 3, 4)} ⊂ R4 . Veamos como se puede
ampliar S a una base de R4 .
Sabemos que u1 , u2 = (1, 1, 1, 1), (0, 1, 2, 3).
u2 −u1
Además, S ′ = {(1, 1, 1, 1), (0, 1, 2, 3), (0, 0, 1, 0), (0, 0, 0, 1)} es un conjunto
de 4 vectores escalonados y por tanto linealmente independientes. Así, R4 =
S ′ . Como,
se obtiene que {(1, 1, 1, 1), (1, 2, 3, 4), (0, 0, 1, 0), (0, 0, 0, 1)} es una base de
R4 .
1. dim(U ) ≤ dim(V ).
53
2. dim(U ) = dim(V ) ⇔ U = V.
Demostración.
1) Suponemos conocido que todo espacio vectorial tiene una base. Si
U es un subespacio de V, todo subconjunto de U linealmente independiente
tendrá a lo sumo n vectores porque dim(V ) = n y entonces dim(U ) ≤ n.
(Otra dem.) Si U = {0} es trivial. En otro caso, existe u1 ∈ U, u1 = 0 y
el conjunto {u1 } es linealmente independiente. Si este conjunto generase U
ya estaría. En caso contrario, existirá algún u2 ∈ U, u2 ∈
/ u1 y entonces el
conjunto {u1 , u2 } ⊂ U será de nuevo linealmente independiente. Repitiendo
el proceso y teniendo en cuenta que en V no hay subconjuntos independientes
de más de n elementos, encontraremos una base de U con a lo sumo n
elementos.
2) Si dim(U ) = dim(V ) = n, entonces U tiene una base de n elementos.
Como sabemos que todo subconjunto de V linealmente independiente y con
n elementos es base, se obtiene que U = V, y la base de U lo es también de
V.
Demostración.
Sea BU = {u1 , · · · , us } una base de U y BW = {w1 , · · · , wr } una base de
W.
Sabemos que si BU ∩W = {v1 , · · · , vt } es una base de U ∩W , entonces 0 ≤
t ≤ min{r, s} y, como BU ∩W es un subconjunto linealmente independiente
tanto de U como de W , existen ui1 , · · · , uis−t elementos de U y wi1 , · · · , wir−t
elementos de W de modo que B1 = {v1 , · · · , vt , ui1 , · · · , uis−t } es una base
de U y B2 = {v1 , · · · , vt , wi1 , · · · , wir−t } es una base de W.
Como
U + W = v1 , · · · , vt , ui1 , · · · , uis−t , wi1 , · · · , wir−t ,
54
Rango de una matriz
Vamos a demostrar que el espacio vectorial generado por las filas de una
matriz tiene la misma dimensión que el espacio vectorial generado por las
columnas de la matriz y esto nos permitirá definir el rango de la matriz.
Si A ∈ Mm×n (K) se tiene que F1 (A), · · · , Fm (A) es un subespacio de
K n y C1 (A), · · · , Cn (A) es un subespacio de Mm×1 (K).
Demostración.
Como consecuencia de un Lema anterior, cada operación elemental que
se hace en las filas de una matriz deja invariante el espacio vectorial generado
por sus filas.
Demostración.
A es equivalentes por filas a una matriz escalonada, B. Por definición,
rf (A) = no de pivotes de B, es decir, la dimensión de F1 (B), · · · , Fm (B)
y, por la proposición anterior, dim(F1 (A), · · · , Fm (A)).
rf (A) = rf (B).
rf (B) = s = rc (B).
55
Demostración.
Si B es una matriz escalonada reducida, B es equivalente por columnas
a una matriz de la forma:
Is B ′
∈ Mm×n (K)
0 0
rc (A) = rc (B).
Demostración.
Puesto que los sistemas AX = 0 y BX = 0 tienen las mismas soluciones,
se tiene que:
α1 C1 (A) + · · · + αn Cn (A) = 0 ⇔ (α1 , · · · , αn ) es solución de AX = 0 ⇔
(α1 , · · · , αn ) es solución de BX = 0 ⇔ α1 C1 (B) + · · · + αn Cn (B) = 0.
Es decir, las columnas de A y de B verifican las mismas condiciones de
dependencia lineal y como consecuencia rc (A) = rc (B).
rf (A) = rc (A).
Demostración.
Sabemos que A es equivalente por filas a una matriz B escalonada re-
ducida. Entonces
r(A) = n ⇔ det(A) = 0.
56
Demostración.
r(A) = n ⇔ rf (A) = n ⇔ A es equivalente por filas a In ⇔ A es no
singular ⇔ det(A) = 0.
Otra dem.
det(A) = 0 ⇔ A es no singular ⇔ El sistema homogéneo AX = 0 tiene
solución única ⇔ La única relación de dependencia lineal entre las colum-
nas de A es la trivial ⇔ {C1 (A), · · · , Cn (A)} es un conjunto linealmente
independiente ⇔ r(A) = n.
57
Si r(A) > p, como las filas i1 , · · · , ip de A son linealmente independientes
existirá un k ∈
/ {i1 , · · · , ip } de modo que {Fi1 (A), · · · , Fip (A), Fk (A)} es un
conjunto linealmente independiente. Entonces
Fi1 (A)
...
r
Fip (A) = p + 1
Fk (A)
Teorema de Rouche-Frobenius
Teorema. Sea A ∈ Mm×n (K) y AX = B un sistema de ecuaciones lineales.
Se verifica que:
Demostración.
1) Como, AX = B ⇔ C1 (A)x1 + · · · + Cn (A)xn = B, se tiene:
AX = B es compatible ⇔ B ∈ C1 (A), · · · , Cn (A) ⇔
C1 (A), · · · , Cn (A) = B, C1 (A), · · · , Cn (A) ⇔
r(A) = dim C1 (A), · · · , Cn (A) = dim B, C1 (A), · · · , Cn (A) =
r(A|B).
2) Si r(A) = r(A|B) = r < n entonces el conjunto {C1 (A), · · · , Cn (A)}
es linealmente dependiente, es decir existen escalares α1 , · · · , αn no to-
dos cero tal que α1 C1 (A) + · · · + αn Cn (A) = (0) ((α1 , · · · , αn ) es solu-
ción no trivial del sistema homogéneo AX = (0)). Es inmediato com-
probar que si (β 1 , · · · , β n ) es una solución de AX = B también lo es
(α1 + β 1 , · · · , αn + β n ) y por tanto el sistema tiene más de una solución.
Recíprocamente, si (α1 , · · · , αn ) y (β 1 , · · · , β n ) son dos soluciones distin-
tas de AX = B, tenemos que (α1 − β 1 ) C1 (A) + · · · + (αn − β n )Cn (A) = (0)
58
y ya que existe algún i para el cual αi − β i = 0, se sigue que el conjunto
{C1 (A), · · · , Cn (A)} es linealmente dependiente y r(A) < n.
Ecuaciones de un subespacio
Sea U un subespacio de K n , B = { (a11 , · · · , a1n ) , · · · , (as1 , · · · , asn )} una
base de U y u = (x1 , · · · , xn ) ∈ K n .
u = (x1 , · · · , xn ) ∈ U ⇔ { (a11 , · · · , a1n ) , · · · , (as1 , · · · , asn ) , (x1 , · · · , xn )}
es
a11 · · · a1n
· · · · · · · · ·
un conjunto linealmente dependiente ⇔ r as1 · · · asn = s ⇔ Escogido
x1 · · · xn
un menor no nulo de orden s de la matriz A = (aij ), det(As ) = 0, los
determinantes de las matrices de orden s +1 obtenidas orlando As son todos
cero.
Ejercicio.
Calcular las ecuaciones de los siguientes subespacios de R4 :
1. U = (1, 2, 3, 4), (0, 1, 2, 0), (0, 1, 1, 1)
1 2 3 4
0 1 2 0
(x, y, z, t) ∈ U ⇔ = 0 ⇔ −3x − 2y + z + t = 0.
0 1 1 1
x y z t
59
1 1 1 0 1 1 1 0
0 1 1 1 −→ 0 1 1 1 se tiene,
F3 −xF1
x y z t F3 −(y−x)F2 0 0 z − y t − y + x
1 1 1 0 1 1 1 0
−y + z = 0
r 0 1 1 1 = r 0 1 1 1 = 3 ⇔
x−y+t=0
0 0 z−y t−y+x x y z t
Ejercicios
a) U1 = {(a, b, c, d) ∈ R4 /a + b = 0, c − d = 0}.
d) U4 = {(a, b, c, d) ∈ R4 /a = 1}.
h) U7 = {(a, b, c, d) ∈ R4 /c ∈ Z}.
60
4.- Sea S = {(1, 1, 0), (0, 1, 2)} ⊂ R3 ¿Alguno de los vectores u = (3, 5, 4),
v = (2, 4, 7) pertenece al subespacio S?
Demostrar que U2 U1 .
Demostrar que U1 = U2 .
61
14.- Hallar c y d ∈ R para que el vector (1, 1, c, d) pertenezca al subespacio
vectorial de R4 generado por los vectores (1, 2, −1, 2) , (1, 3, 0, 2) y (0, 1, 0, 1) .
18.- Calcular para que valores de a son linealmente independientes los vec-
tores:
b) u, v, w = u, u + v, u + w .
c) Si u ∈
/ v, w , entonces u y w son linealmente independientes.
d) Si u ∈
/ v, w , entonces u, v y w son linealmente independientes.
62
e) Los vectores u − v, v − w y w − u son linealmente dependientes.
d) dim u, v = 2.
23.- Hallar una base para cada uno de los siguientes subespacios de R3 :
63
c) U3 = {(a, b, c)/a + b − c = 0}.
d) (1, 1, −2), (2, −1, 1), (3, −3, 4), (4, −5, 7) .
a) U = {(x, y, z, t) ∈ R4 /x − y + z − 2t = 0, y + z = 0}.
c) (1, 0, 1, 0), (2, −1, 0, 1) ∩ (1, 0, 1, 0), (4, −1, 2, 1) ⊂ R4 .
25.- Probar que B = {u1 = (−1, 1, 1), u2 = (1, −1, 1), u3 = (1, 2, −1)} es una
base de R3 . Calcular, en esta base, las coordenadas de los vectores de la base
canónica.
26.- Demostrar que los vectores (1, 0, 0, 0), (1, 1, 0, 0), (1, 1, 1, 0) y (1, 1, 1, 1)
son una base de R4 y calcular las coordenadas de (1, 1, 1, 0) y de (5, 3, 6, 1)
en dicha base.
28.- Sea S = {(1, 0, 0, 1), (0, 2, 0, 2), (1, 0, 1, 0), (0, 2, 2, 0)} un subconjunto de
R4 . Encontrar una base de S, ampliarla a una base de R4 y calcular las
coordenadas de (1, 1, 1, 1) en dicha base.
29.- Escribir una base de P2 (R) y explicar por qué los siguientes conjuntos
no son base de P2 (R) :
b) {1 − x, 1 − x2 , 3x2 − 2x − 1}.
30.- Sea {v1 , v2 , v3 } una base de un K-espacio vectorial V . Probar que {v1 ,
v1 + v2 , v1 + v2 + v3 } también es base de V .
64
32.- ¿Para que valores de α los vectores (α, 0, 1, −α), (α, 1, 2, 1) y (1, 0, α, α)
generan un subespacio vectorial de R4 de dimensión 2?
65
Calcular sus dimensiones y dar una base para cada uno de los siguientes
subespacios: U, W, U ∩ W y U + W.
b) ¿Es U1 ∪ U2 un subespacio de R3 ?
c) Probar que U1 + U2 = R3 .
66
U = {(x, y, z, t)/x + y + 3z − 2t = 0} y
W = (1, 1, 0, 1), (2, 2, −1, 2), (3, 4, 0, 2), (2, 3, −1, 1) .
U = (1, 0, 1, 0), (−α, 0, 0, 0) y W = (0, 1, 0, 1), (0, 1/α, −α, 1/β) .
67
Calcular bases para F y G. Ampliar la base obtenida para F a una base
de R4 . Encontrar unas ecuaciones implícitas para G y calcular una base para
F ∩ G.
a) R4 = U ⊕ W.
b) U ∩ W = (1, 1, 1, 1) .
/ U, entonces R4 = U + v .
c) Si v ∈
68
i) Si S = {v1 , ..., vn } es un conjunto de vectores linealmente indepen-
dientes entonces cualquier subconjunto de S no vacio es linealmente
independiente.
k) Todos los subconjuntos de S = {(1, 0), (1, 1), (0, 1)}con dos elementos
son base de R2 .
53.- Sea U = (1, 1, 0, a), (3, −1, b, −1), (−3, 5, 0, a) un subespacio de R4 .
U = (1, −1, 1, 0), (0, 1, −1, 1), (1, 0, 0, −1), (3, −1, 1, −2) y
W = (1, 0, 0, 0), (1, −2, 2, 0), (0, 1, −1, 1) .
69
/ U y que U + (0, 1, 0, 0) = R4 .
b) Demostrar que (0, 1, 0, 0) ∈
c) Probar que U = W.
√ √ √
d) Justificar que v = ( 3, 2 − 1, 1 − 2, 0) ∈ U y encuentrar v ′ , v ′′ ∈ U
de modo que {v, v′ , v′′ } sea una base de U.
a) u, v ∩ u + v + w = {0} .
b) u, v + u + v + w = U.
d) u + v u, v .
a) U + W = R6 ⇔ U no está contenido en W .
b) U ⊂ W.
U ∩ W = {0} .
70
Tema 4: Aplicaciones lineales
2. f(αv) = αf(v),
para cualesquiera v, v′ ∈ V y α ∈ K.
Ejemplos.
1. f(0) = 0.
71
1) (g ◦ f )(v + v′ ) = g[f (v + v′ )] = g[f (v) + f(v′ )] = g[f (v)] + g[f(v′ )] =
(g ◦ f)(v) + (g ◦ f)(v′ ), ∀v, v′ ∈ V .
2) (g ◦ f )(αv) = g[f(αv)] = g[αf (v)] = αg[f(v)] = α(g ◦ f)(v), ∀v ∈ V
y ∀α ∈ K.
Demostración.
1) Como f (0) = 0 ∈ f (U ) entonces f (U ) = ∅. Además, para u, u′ ∈ U y
α ∈ K se tiene que f(u)+f(u′ ) = f(u+u′ ) ∈ f (U ) y αf(u) = f (αu) ∈ f(U ).
2) Como f (0) = 0 ∈ L entonces 0 ∈ f −1 (L) y para w, w′ ∈ f −1 (L) y
α ∈ K, se tiene que f(w + w′ ) = f(w) + f (w′ ) ∈ L y f(αw) = αf (w) ∈ L.
f(x, y, z) = (x + y, x − z, x − z).
72
b) Calcular f −1 (1, 1, 1), (0, 0, 1) .
Prueba:
a) Ker f = {(x, y, z) ∈ R3 /x + y = 0, x − z = 0} =
(1, 1, 1), (1, 0, 0), (0, −1, −1) = (1, 0, 0), (0, −1, −1) .
(1,1,1)=(1,0,0)−(0,−1,−1)
c) f −1 {(x, y, z) ∈ R3 /x − y + z = 0} =
{(x, y, z) ∈ R3 /x + y − (x − z) + x − z = 0} =
73
1. f es inyectiva si, y solo si, Ker f = {0} si, y solo si, cualquier subconjunto
de V linealmente independiente tiene como imagen un subconjunto de
W linealmente independiente.
Demostración.
1) Si f es inyectiva ⇒ Ker f = {v ∈ V /f(v) = 0 = f(0)} = {0}.
Reciprocamente, f (v) = f(v ′ ) ⇔ f(v − v ′ ) = 0 ⇔ v − v′ ∈ Kerf =
{0} ⇔ v = v′ . Con lo cual tenemos probada la primera equivalencia.
Además, si {v1 , · · · , vr } ⊂ V es un conjunto linealmente independiente
y α1 f (v1 ) + · · · + αr f (vr ) = 0, el carácter lineal de f indica que α1 v1 + · · · +
αr vr ∈ Ker f = {0}, por la independencia lineal de {v1 , · · · , vr }, se tiene
que α1 = · · · = αr = 0 y así {f (v1 ), · · · , f(vr )} es linealmente independiente.
Finalmente, para el recíproco basta considerar que si v = 0, como {v} ⊂
V es linealmente independiente, sabemos que {f (v)} ⊂ W es linealmente
independiente y por tanto f (v) = 0, y entonces Ker f = {0}.
2) Si V = S , entonces Im f = {f(v)/v ∈ S} . En consecuencia, f es
sobre ⇔ W = {f(v)/v ∈ S} .
3) Por los dos apartados anteriores, si f es biyectiva y {v1 , · · · , vn } base
de V, entonces {f(v1 ), · · · , f(vn )} es base de W.
Reciprocamente, si {v1 , · · · , vn } es base de V, por hipótesis, se tiene que
{f(v1 ), · · · , f (vn )} es base de W . Por el teorema anterior, existe una única
aplicación lineal g : W −→ V tal que g(f(vi )) = vi para i = 1, · · · , n; se
tiene que g es inversa de f y por ello el resultado.
Demostración.
Si f : V −→ W es un isomorfismo y {v1 , · · · , vn } es base de V , la
proposición anterior nos demuestra que {f(v1 ), · · · , f (vn )} es base de W y
así dim(V ) = n = dim(W ).
74
Reciprocamente, si dim(V ) = n = dim(W ), B ={v1 , · · · , vn } es una
base de V y B′ ={w1 , · · · , wn } es base de W , la aplicación lineal f : V −→
W definida por f (vi ) = wi para i = 1, · · · , n, es un isomorfismo por la
proposición anterior.
Demostración.
Como Ker f es un subespacio vectorial de V , dim(Ker f) = r ≤ n.
Si {v1 , · · · , vr } es una base de Ker f existen vr+1 , · · · , vn ∈ V tales que
{v1 , · · · , vr , vr+1 , · · · , vn } es una base de V.
Teniendo en cuenta que f(vi ) = 0 para i = 1, · · · , r, se tiene que Im
f = f(vr+1 ), · · · , f(vn ) .
Bastará comprobar que este conjunto de generadores de Im f es lineal-
mente independiente. En efecto,
Demostración.
f es inyectiva ⇔ dim(Ker f) = 0 ⇔ dim(Im f) = n ⇔ f es sobre.
75
Matriz asociada a una aplicación lineal.
Sean B = {v1 , · · · , vn } y B′ ={w1 , · · · , wm } bases de los espacios vectoriales
V y W.
Ejemplo.
f (x, y, z) = (x − y, y + z, z, x − z)
y B = {(1, 1, 1), (1, 0, 1), (1, 1, 0)} es una base de R3 . La matriz asociada a
f respecto de la base B y de la canónica es:
76
0 1 0
2 1 1
(f)B,C =
1
.
1 0
0 0 1
Además, si B′ = {(0, 2, 1, 0), (1, 1, 1, 0), (0, 1, 0, 1), (0, 0, 0, 1)}, se tiene
que
1 0 0
0 1 0
(f)B,B′ =
0
.
0 1
0 0 0
77
Demostración.
x1
n
xj vj y (v)B = ... .
Sea v =
j=1
xn
Se tiene que, (g)B′ ,B′′ (f )B,B′ (v)B = (g)B′ ,B′′ (f(v))B′ = (g(f(v)))B′′ =
((g ◦ f)(v)))B′′ = (g ◦ f)B,B′′ (v)B .
Por lo tanto, si consideramos las coordenadas de los vectores de la base
B, la igualdad anterior nos prorpociona la igualdad de las columnas de las
matrices (g ◦ f )B,B′′ y (g)B′ ,B′′ (f)B,B′ .
Ejemplo.
Sea f : R2 −→ R y g : R −→ R2 las aplicaciones lineales definidas por
f (x, y) = x + y y g(x) = (x, 3x). La composición g ◦ f : R2 −→ R2 está
definida por (g ◦ f)(x, y) = (x + y, 3x + 3y). Las matrices asociadas a estas
aplicaciones en las bases canónicas son:
1 1 1 1
(f )C,C = 1 1 , (g)C,C = y (g ◦ f )C,C = 1 1 =
3 3 3 3
Demostración.
Si f es un isomorfismo, (f)B,B′ tiene como inversa (f −1 )B′ ,B .
Por otra parte, si A es no singular existe una única aplicación lineal
n
g : W −→ V tal que g(wi ) = A−1 (k, i)vk para i = 1, · · · , n. Se verifica
k=1
que (g)B′ ,B = A−1 y g es la aplicación inversa de f.
78
n
Nótese que si B={v1 , · · · , vn }, B′ ={v1′ , · · · , vn′ } y vj = aij vi′ , entonces
i=1
(idV )B,B′ = (aij ) ∈ Mn (K). Además, (v)B′ = (idV )B,B′ (v)B , es decir, al
multiplicar la matriz del cambio de base por la matriz columna de las co-
ordenadas de un vector v en la base B nos da la matriz columna de las
coordenadas del vector v en la base B′ .
Observaciones.
79
Demostración.
El resultado es consecuencia de que idW ◦ f ◦ idV = f.
Ejemplo. Consideramos en R3 las bases B={(1, 1, 1), (1, 2, 0), (0, 0, 1)},
B′ ={(1, 2, 1), (1, 0, 0), (1, 0, 1)} y C la canónica.
La matrices de cambio de base de B a C y de C a B′ son:
−1
1 1 0 1 1 1
(idR3 )B,C = 1 2 0 = A y (idR3 )C,B′ = 2 0 0 = (A′ )−1
1 0 1 1 0 1
80
Teniendo en cuenta que toda matriz no singular puede ser pensada como
matriz de un cambio de base, podemos afirmar que dos matrices son equiv-
alentes si, y solo si, son matrices asociadas a la misma aplicación lineal
respecto de diferentes bases.
r(A) = rc (A) = dim (C1 (A), · · · , Cn (A)) = dim (f(v1 ), · · · , f(vn )) =
dim(Im f).
81
Reciprocamente,
basta con demostrar que si r(A) = r entonces A es
Ir 0
equivalente a ∈ Mm×n (K). Para ello consideremos la aplicación
0 0
lineal f : K n −→ K m cuya matriz asociada respecto de las bases canónicas
es A.
Teniendo en cuenta que dim(Im f) = r(A) = r y puesto que n =
dim(Im f ) + dim(Ker f), se tiene que dim(Ker f) = n − r.
Si {vr+1 , · · · , vn } es una base de Ker f, existen v1 , · · · , vr ∈ K n tal que
B= {v1 , · · · , vr , vr+1 , · · · , vn } es una base de K n .
Por otra parte {f(v1 ), · · · , f (vr )} ⊂ Im f es un conjunto de generadores
de Im f con tantos elementos como su dimensión y por tanto es una base
de Im f.
Existen wr+1 , · · · , wm ∈ K m tal que B′ = {f(v1 ), · · · , f(vr ), wr+1 , · · · , wm }
es unabase de K m y así la matriz asociada a f, respecto de las bases B y
I 0
B′ , es r .
0 0
Corolario. Sea A ∈ Mm×n (K). Entonces U = {(x1 , · · · , xn ) ∈ K n /AX = 0}
es un subespacio de K n de dimensión n − r(A).
Demostración.
Si consideramos f : K n → K m la aplicación lineal que tiene A como
matriz asociada respecto de las bases canónicas, U = Ker f es un subespacio
de K n y como n = dim(Ker f ) + dim(Imf) = dim(Ker f) + r(A) se tiene
que dim(U ) = n − r(A).
Ejercicios
82
a) f : R2 → R2 , dada por f(x, y) = (x − y, 0).
Se pide:
3.- ¿Existe alguna aplicación lineal f : R2 → R2 tal que f (1, 0) = (1, 1),
f (3, 2) = (1, −1) y f(3, 3) = (2, 2)?
f :V →K
no nula es sobreyectiva.
′′
6.- Dadas aplicaciones lineales f : V → V ′ y g : V ′ → V , probar las
siguientes afirmaciones:
83
a) Im(g ◦ f) ⊂ Im g y Ker f ⊂ Ker (g ◦ f ).
b) g ◦ f = 0 ⇔ Im f ⊂ Ker g.
f(x, y, z) = (x + 2y + z, x − y, x − y)
Se pide:
f(x, y, z) = (x + y, y + z, x − z)
84
c) Si V = v1 , v2 , entonces W = f (v1 ) , f (v2 ) .
15.- Encontrar una aplicación lineal f : R3 → R3 tal que Ker f = (1, 1, 1)
e Im f = {(x, y, z) ∈ R3 /x + y + z = 0} ¿Es única?
f (x, y, z) = (x + z, x + y + 2z, x − y)
85
c) Si W = (1, 2, 1) , (2, 2 + a, 0) , determinar para que valores de a la di-
mensión de f(W ) es 1.
f(x, y, z, t) = (x + z, x − y + z, x + t)
f(x, y, z) = (x + z, y, x + 2y + z)
a) ¿Es f inyectiva?
d) Sea B = {(0, 1, 1), (1, 1, 1), (0, 0, 1)} una base de R3 , calcular las coorde-
nadas de f(1, 1, 1) en la base B.
20.- Sea U = (x, y, z) ∈ R3 /x + y − 3z = 0 .
86
21.- Sea V un K-espacio vectorial de dimensión 2 y {v1 , v2 } una base de
V. Se considera la aplicacion lineal f : V → V tal que: f (v1 ) = v1 y
f (v2 ) = −v1 . Calcular las dimensión de Ker f e Im f.
f((1, 1, 0)) = (1, 1, 1), f ((0, 1, 1)) = (0, 1, 2) y f((0, 0, −1)) = (0, 0, 0);
g(1, 0, 1)) = (1, 0, −1), g(0, 1, −1)) = (0, 1, 2) y g(0, 1, 0)) = (0, 1, 2).
f(x, y, z) = (x + y, 2y − z)
26.- Sea B = {(1, 0, 0), (1, 1, 0), (0, 0, 2)} una base de R3 . Sea f : R3 → R3
la aplicación lineal tal que
1 0 0
(f)B,B = −1 1 0
0 1 2
87
a) Calcular (f )B,C y (f)C,C .
88
a) Estudiar los valores de α que hacen que fα sea inyectiva y los que la
hacen sobreyectiva.
f (x, y, z) = (x + y, z, x + y + 2z).
a) ¿Es f inyectiva?
d) Sea B = {(0, 0, 1), (0, 1, 1), (1, 1, 1), } una base de R3 , calcular las coor-
denadas de f(1, 1, 1) en la base B.
a) f es sobreyectiva.
b) f no es inyectiva.
c) dim(Ker f) = 1.
34.- Sea U = (x, y, z) ∈ R3 /x − y + 2z = 0 .
89
a) Si f : R3 → R3 es una aplicación lineal tal que Ker f = U ¿Para qué
valor de α se cumple que f (1, 2, 1) = f(−1, α, 3)?
36.- Sean B = {(1, 1, 0), (0, 0, 1), (0, 1, 0)} una base de R3 y C su base
canónica.
f(x, y, z) = (x + y, y + z).
b) Si B1 = {(1, 1, 1), (0, 1, −1), (0, 0, −1)}, B2 = {(2, 1), (1, 0)} son bases de
R3 y R2 , respectivamente, calcular las matrices de cambio de base de
B1 a la base canónica en R3 , y de la base canónica a B2 , en R2 , así
como la matriz asociada a f respecto a B1 y B2 .
38.- Sea B = {(1, 1, 0, 1), (0, −1, 0, 0), (0, 0, 1, 0), (0, 0, 0, 3)} una base de R4
y f : R3 → R4 la aplicación lineal tal que
90
a) Hallar la matriz de cambio de base de la base canónica a B, en R4 .
39.- Sean B = {(1, 0), (1, 1)} y B ′ = {(1, 1, 0), (0, −1, 0), (0, 1, 1)} bases de
R2 y R3 , respectivamente, y f : R2 → R3 la aplicación lineal definida por
f (x, y) = (x + y, x, −2y). Calcular (f)B,B′ .
91
92
Tema 5: Diagonalización de matrices
Demostración.
Sin más que considerar que Vλ = Ker(f − λidV ), se tiene
93
Ejemplo.
Consideremos el endomorfismo f : R3 −→ R3 definido por f(x, y, z) =
(y + z, x + z, x + y).
f tiene la siguiente matriz asociada en la base canónica
0 1 1
(f)C,C = A = 1 0 1
1 1 0
Sabemos que:
−x 1 1 1 1 −x
|A − xIn | = 1 −x 1 = − 1 −x
F1 ←→F3 1 =
1 −x F −F
1 −x 1 1 F32+xF11
1 1 −x
− 0 −x − 1 1 + x = −(1 + x) −1
2 1 = −(1 + x)2 (x − 2).
1 1−x
0 1 + x 1 − x2
1 1 −2 1 1 −2
0 −3 3 −−−−→ 0 1 −1
F3 +F2
0 3 −3 −F3
3
0 0 0
94
1 1 1 x 0
1 1 1 y = 0
1 1 1 z 0
Ejemplo.
En R [x] la expresión 3x6 + 4x5 + x2 + 4x + 2 es un polinomio de grado
6, con coeficiente principal 3.
95
ar bs = a0 .bi +a1 .bi−1 +a2 .bi−2 +· · ·+ai .b0 , donde las sumas y productos
r+s=i
son en K.
Es decir,
Ejemplo
En el cuerpo de los números reales, si f(x) = 3 + 2x + 4x2 + 4x5 y
g(x) = 3x + 2x2 + 4x3
96
Si n = 0, entonces ∂g(x) = 0, g(x) = b0 = 0 y f(x) = a0 = (a0 b−1
0 )b0 + 0.
Basta tomar q(x) = a0 b−1
0 y r(x) = 0.
Supongamos n > 0 y que el resultado es cierto para polinomios de grado
menor que n.
El polinomio f1 (x) = f(x) − an b−1m x
n−m g(x) ∈ K[x] cumple ∂f (x) < n.
1
Por hipótesis de inducción, existen polinomios q1 (x), r1 (x) ∈ K[x] tales que
f1 (x) = q1 (x)g(x) + r1 (x) con ∂r1 (x) < ∂g(x), o bien r1 (x) = 0.
Así pues, f(x) = an b−1
m x
n−m g(x) + f (x) = (a b−1 xn−m + q (x))g(x) +
1 n m 1
r1 (x) y tomando q(x) = an bm xn−m +q1 (x) y r(x) = r1 (x) se obtiene f(x) =
−1
97
Por el algoritmo de división, f(x) = (x − α)q(x) + r(x) con r(x) = 0
o ∂r(x) < ∂(x − α) = 1. Por lo tanto, r(x) = r es un elemento de K. Si
evaluamos f(x) en α se obtiene f (α) = (α − α)q(α) + r(α) = 0 + r.
Polinomio característico
Definición. Si f : V −→ V es un endomorfismo de V y A ∈ Mn (K) la
matriz asociada a f respecto de una base B, entonces
a11 − x · · · a1n
|A − xIn | = .. .. ..
. . .
an1 · · · ann − x
Como este polinomio no varia si se cambia la matriz A por otra que sea
semejante a ella, se dirá también que es el polinomio caraterístico de f y se
denotará por pc (f ).
Obsérvese que los valores propios de A (o f) son pues los ceros de su
polinomio caraterístico.
98
Está claro que si B = {v1 , · · · , vn } es una base de V,
λ1 · · · 0
(f)B,B = ... . . . ... ⇔ f (vi ) = λi vi para i = 1, · · · , n ⇔
0 · · · λn
a) Vα ∩ Vβ = {0}.
99
dim(Vλ1 + · · · + Vλs ) = dim(Vλ1 ) + · · · + dim(Vλs ).
Demostración.
Si s = 1 es trivial.
Supuesto s > 1 y el resultado cierto para menos de s valores propios,
veamos que Bλ1 ∪ · · · ∪ Bλs es linealmente independiente:
Si 0 = a11 v11 + · · · + an1 1 vn1 1 + · · · + a1s v1s + · · · + ans s vns s , entonces
=u =u′
u′ = −u ∈ Vλ1 y así,
f (u′ ) = λ1 u′ = λ1 a12 v12 +· · ·+λ1 an2 2 vn2 2 +· · ·+λ1 a1s v1s +· · ·+λ1 ans s vns s =
λ2 a12 v12 + · · · + λ2 an2 2 vn2 2 + · · · + λs a1s v1s + · · · + λs ans s vns s , de donde
0 = (λ2 − λ1 )a12 v12 + · · · + (λ2 − λ1 )an2 2 vn2 2 + · · · +
+(λs − λ1 )a1s v1s + · · · + (λs − λ1 )ans s vns s .
Por la hipótesis de inducción, se tiene que
100
λIs M”
M = (f)B,B = .
0 M′
Demostración.
"⇒" Si f es diagonalizable
existe una base B de V de modo que (f)B,B =
λ1 · · · 0
.. . . .. .
. . .
0 ··· λs
El polinomio característico de f es pc (f) = (λ1 − x)m1 · · · (λs − x)ms y
dado que Vλi = Ker(f −λi idV ), se tiene que dim(Vλi ) = n−r((f)B −λi In ) =
n − (n − mi ) = mi .
"⇐" Como Vλ1 + · · · + Vλs es un subespacio de V y dim(Vλ1 + · · · +
s
Vλs ) = dim(Vλ1 ) + · · · + dim(Vλs ) = mi = ∂pc (f) = n, se tiene que
i=1
Vλ1 + · · · + Vλs = V y Bλ1 ∪ · · · ∪ Bλs es una base de V formada por vectores
propios, es decir f es diagonalizable.
Ejercicio.
0 2 −2
Probar que la matriz A = −2 4 −2 es diagonalizable.
−2 2 0
Prueba.
En primer lugar calculamos el polinomio característico de la matriz A.
101
−x 2 −2 −x 2 −2
|A − xI3 | = −2 4 − x −2 = −2 4 − x
−2 =
−2 F −F
2 −x 3 2 0 x − 2 −(x − 2)
−x 2 −2 −x 0 −2
(x−2) −2 4 − x −2 = (x−2) −2 2 − x −2 = −(x−2)2 x.
0 C +C
1 −1 2 3 0 0 −1
−2 2 −2 x 0
V2 = {(x, y, z) ∈ R3 / −2 2 −2 y = 0} =
−2 2 −2 z 0
−2x +2y −2z = 0
{(x, y, z) ∈ R3 −2x +2y −2z = 0 =
−2x +2y −2z = 0
102
Ejercicios
1.- Calcular los valores propios y los subespacios propios de los endomorfis-
mos de R3 dados por:
b) ¿Es A diagonalizable?
103
1 1 0
(f)C,C = 1 3 2 ∈ M3×3 (R).
0 −1 1
b) ¿Es f diagonalizable?
104
9.- Se considera la aplicación lineal f : R3 → R3 cuya matriz asociada
respecto de la base canónica es:
2 0 a−2
(f)C,C = 0 1 a ∈ M3×3 (R).
0 0 a
105
c) Calcular una matriz no singular P tal que (f)C,B = P(f)C,C .
f (x, y, z) = (x + y + z, x + y + z, x + y + z).
106
Tema 6. Producto escalar y ortogonalidad
Definición. Un espacio euclídeo es un R-espacio vectorial V junto con una
aplicación, llamada producto escalar,
ϕ:V ×V →R
4. ϕ(u, u) = 0 ⇔ u = 0.
Observación.
- ϕ(u, 0) = ϕ(0, u) = 0 para todo u ∈ V.
- ϕ(u, v) = 0 para todo v ∈ V ⇔ u = 0.
Ejemplo.
Observación.
Sea u ∈ V y α ∈ R,
- !u! ≥ 0.
107
- !u! = 0 ⇔ u = 0.
- !αu! = |α| !u! .
Demostración.
Si u = 0, el resultado es claro.
Supongamos u = 0. Para todo α ∈ R, se verifica:
0 ≤ !αu + v!2 = ϕ(αu + v, αu + v) = α2 ϕ(u, u) + 2αϕ(u, v) + ϕ(v, v).
ϕ(u, v)
Como u = 0, ϕ(u, u) > 0, si consideramos α = − , se tiene que:
ϕ(u, u)
!u + v! ≤ !u! + !v! .
Demostración.
!u + v!2 = ϕ(u + v, u + v) = !u!2 + 2ϕ(u, v) + !v!2 ≤
!u!2 + 2 |ϕ(u, v)| + !v!2 ≤ !u!2 + 2 !u! !v! + !v!2 = (!u! + !v!)2 .
Observación.
De la desigualdad de Cauchy-Schwartz, |ϕ(u, v)| ≤ !u! !v! , se deduce
que − !u! !v! ≤ ϕ(u, v) ≤ !u! !v! y así cuando u = 0 y v = 0 se obtiene
que:
ϕ(u, v)
−1 ≤ ≤1
!u! !v!
108
lo que esto justifica la siguiente definición.
Consecuencias:
2. Dos vectores no nulos son orgonales si, y solo si, su ángulo es de 90o .
109
Observación.
n
Si B = {v1 , · · · , vn } es una base ortogonal de V y v = αi vi ∈ V,
i=1
ϕ(v, vi )
entonces αi = para i = 1, · · · , n.
!vi !2
ϕ(v, u)
Definición. Sea (V, ϕ) un espacio euclídeo y u, v ∈ V . El vector v
!v!2
se llama proyección ortogonal de u sobre v.
ϕ(v, u) ϕ(v, u) ϕ(v, u)
Nótese que 2 v = 2 !v! = = !u! cos θ, siendo el
!v! !v! !v!
ángulo θ que forman u y v.
ϕ(v, u)
También se cumple que, v⊥(u− v).
!v!2
Este resultado nos ilustra sobre la construcción que se hace en el teorema
siguiente.
Teorema. Todo espacio vectorial euclídeo, (V, ϕ), de dimensión finita posee
una base ortogonal.
Demostración.
Sea B = {v1 , · · · , vn } una base de V.
Tomamos u1 = v1 = 0.
ϕ(u1 , v2 )
Definimos u2 = v2 − u1 ∈ V, u2 es un vector no nulo, porque
!u1 !2
v1 y v2 son linealmente independientes, y u1 ⊥ u2 , ya que ϕ(u1 , u2 ) =
ϕ(u1 , v2 ) ϕ(u1 , v2 )
ϕ(v1 , v2 − 2 u1 ) = ϕ(v1 , v2 ) − ϕ(v1 , u1 ) = 0.
!u1 ! !u1 !2
Siguiendo este proceso, si definimos:
j−1
ϕ(ui , vj )
uj = vj − 2 ui ∈ V se tiene que uj = 0, ∀j, y ui ⊥ uj si i = j.
i=1 !ui !
Por tanto, {u1 , · · · , un } es una base ortogonal de V, ya que es un conjunto
de n vectores linealmente independiente en un espacio de dimensión n.
Corolario. Todo espacio vectorial euclídeo, (V, ϕ), de dimensón finita posee
una base ortonormal.
110
Demostración.
Si B = {v1 , · ·· , vn } es una base ortogonal de V, entonces se tiene que
v1 vn
,··· , es una base ortonormal de V.
!v1 ! !vn !
Ejercicio.
En R4 con el producto escalar usual, obtener una base ortogonal del
subespacio
Prueba.
u1 = (1, 2, −1, 0),
ϕ(v2 , u1 ) 3 1 3
u2 = v2 − 2 u1 = (1, 0, −2, 0) − 6 (1, 2, −1, 0) = ( 2 , −1, − 2 , 0),
!u1 !
2 ϕ(v , u ) 1 5 1 3
3 i
u3 = v3 − 2 ui = (0, 1, 1, 0) − 6 (1, 2, −1, 0) + 7 ( 2 , −1, − 2 , 0).
i=1 !ui !
Ejercicio.
En R4 con el producto escalar usual, se pide:
Prueba.
a)
(x, y, z, t) ⊥ (1, −1, 1, 1) ⇔ x − y + z + t = 0
(x, y, z, t) ⊥ (0, −1, 2, 1) ⇔ −y + 2z + t = 0
(x, y, z, t) ⊥ (2, 0, 4, 2) ⇔ 2x + 4z + 2t = 0
⇔ (x, y, z, t) = (α, −α, α, −3α), α ∈ R.
1
Por tanto √ (1, −1, 1, −3) es un vector unitario y ortogonal a los pe-
2 3
didos.
111
√
b) v1 = (1, 0, 1, 1), con !v1 ! = 3,
3 √
v2 = (1, 1, 0, 2) − (1, 0, 1, 1) = (0, 1, −1, 1), con !v2 ! = 3,
3
1 2 1 1
v3 = (0, 1, 0, 0) − 0(1, 0, 1, 1) − (0, 1, −1, 1) = (0, , , − ), con !v3 ! =
√ 3 3 3 3
6
.
3
1 1 3 2 1 1
Así, B = √ (1, 0, 1, 1), √ (0, 1, −1, 1), √ (0, , , − ) es una base
3 3 6 3 3 3
ortonormal de U.
U ⊥ W ⇔ ui ⊥ wj ∀i = 1, · · · , r y ∀j = 1, · · · , s.
1. U ⊥ U ⊥ .
2. V = U + U ⊥ y U ∩ U ⊥ = {0} .
Demostración.
Si se considera {u1 , · · · , ur } una base ortogonal de U, se completa a una
base de V, {u1 , · · · , ur , ur+1, · · · , un } , y a partir de ella, usando el Método
de Gram-Schmidt, se obtiene una base ortogonal de V , esta será de la forma
{u1 , · · · , ur , vr+1, · · · , vn } . Entonces, vr+1, · · · , vn ⊂ U ⊥ . Puesto que U ∩
U ⊥ = {0} , se verifica que dim(U ) + dim(U ⊥ ) = dim(U + U ⊥ ) ≤ n, y en
consecuencia se tiene que vr+1, · · · , vn = U ⊥ y, por tanto, V = U + U ⊥ y
dim(U ) + dim(U ⊥ ) = dim(V ).
112
Definición. Sea (V, ϕ) un espacio euclídeo, U un subespacio de V y v ∈ V .
Existen y son únicos u ∈ U y w ∈ U ⊥ tales que v = u + w. El vector u se
llama proyección ortogonal de v sobre U y se denotará por proyU v.
Observación.
Si {u1 , · · · , ur } es una base ortogonal de U y v ∈ V , entonces
ϕ(v, u1 ) ϕ(v, ur )
proyU v = 2 u1 + · · · + ur .
!u1 ! !ur !2
Ejercicio.
En R3 , con el producto escalar usual, encontrar el complemento ortogonal
del subespacio W = {(x, y, z)/x = y} .
Prueba.
W = (1, 1, 0), (0, 0, 1) .
⊥ x+y =0
(x, y, z) ∈ W ⇔ ⇔ W ⊥ = (−1, 1, 0) .
z=0
Ejercicio.
En R4 , con el producto escalar usual, encontrar el complemento ortogonal
de
U = {(x, y, z, t)/ x + y − z + t = 0, 2x + y − z + 3t = 0} .
Prueba.
x+y−z+t=0
⇒
2x + y − z + 3t = 0
U = {(x, y, z, t)/ x = −2β, y = α + β, z = α, t = β} ⇔
U = (−2, 1, 0, 1), (0, 1, 1, 0) .
−2x + y + t = 0
(x, y, z, y) ∈ U⊥ ⇔ ⇒
y+z =0
1 1
U⊥ = (x, y, z, t)/ x = − z + t, y = −z ⇔
2 2
U ⊥ = (1, 2, −2, 0), (1, 0, 0, 2) .
De otra forma,
U = {(x, y, z, t)/ x + y − z + t = 0, 2x + y − z + 3t = 0} ⇒
(1, 1, −1, 1), (2, 1, −1, 3) ∈ U ⊥ y, teniendo en cuenta que dim(U ⊥ ) = 2, se
tiene directamente que (1, 1, −1, 1), (2, 1, −1, 3) = U ⊥ .
113
Definición. Sea (V, ϕ) un espacio euclídeo. Dados v, u ∈ V, se define la
distancia entre v y u, como
d(v, u) = !v − u! .
1. d(v, u) ≥ 0 ∀v, u ∈ V .
2. d(v, u) = 0 ⇔ v = u.
Observación.
n
Sea B = {v1 , · · · , vn } una base ortonormal de V , v = xi vi y u =
i=1
n
yi vi , entonces
i=1
n
n n
!v − u!2 = ϕ( (xi − yi )vi , (xi − yi )vi ) = (xi − yi )2 y
i=1 i=1 i=1
!
n
d(v, u) = (xi − yi )2 .
i=1
Demostración.
v − u = (v − proyU v) + (proyU v − u) ∀u ∈ U . Como (v − proyU v) ∈
U ⊥ y (proyU v − u) ∈ U el teorema de Pitágoras nos dice que !v − u!2 =
!v − proyU v!2 + !proyU v − u!2 ≥ !v − proyU v!2 .
114
Distancia de un punto a un hiperplano
En Rn , con el producto escalar usual, si v = (p1 , · · · , pn ) es un punto de Rn
y a1 x1 + · · · + an xn = 0 es la ecuación de un hiperplano H, entonces
a p + · · · + a p
1 1 n n
d(v, H) = 2 .
a1 + · · · + a2n
Demostración.
(a1 , · · · , an ) ∈ H ⊥ y como dim(H ⊥ ) = 1, se tiene que H ⊥ = (a1 , · · · , an ) .
La base de H ⊥ se puede completar a una base ortogonal de Rn de la forma
B = {v1 = (a1 , · · · , an ), v2, · · · , vn } y así,
a1 p1 + · · · + an pn
v − proyH v = (a1 , · · · , an ) y
!(a1 , · · · , an )!2
a p + · · · + a p
1 1 n n
d(v, H) = !v − proyH v! = 2 .
a1 + · · · + a2n
115