0% encontró este documento útil (0 votos)
93 vistas181 páginas

Conceptos Básicos de Vectores

Este documento presenta definiciones y conceptos básicos sobre vectores, líneas y planos. Introduce la notación de números reales y el producto cartesiano. Define un vector como un punto en el espacio Rn representado por n números como coordenadas. Explica las operaciones de multiplicación de un vector por un escalar, suma de vectores, vectores equivalentes, paralelos y perpendiculares. Finalmente, introduce el producto punto de dos vectores como la suma de los productos de sus coordenadas correspondientes.

Cargado por

Ivan Lopez
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
93 vistas181 páginas

Conceptos Básicos de Vectores

Este documento presenta definiciones y conceptos básicos sobre vectores, líneas y planos. Introduce la notación de números reales y el producto cartesiano. Define un vector como un punto en el espacio Rn representado por n números como coordenadas. Explica las operaciones de multiplicación de un vector por un escalar, suma de vectores, vectores equivalentes, paralelos y perpendiculares. Finalmente, introduce el producto punto de dos vectores como la suma de los productos de sus coordenadas correspondientes.

Cargado por

Ivan Lopez
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

Chapter 1

Vectores, Lineas y Planos

1.1 Vectores
Notación

ˆ N = {1, 2, 3, . . .} Números Naturales

ˆ J = {. . . , −3, −2, −1, 0, 1, 2, 3, . . .} Números Enteros.

ˆ Q = {q : q = m
n
,m y n ∈ J, n ̸= 0} Números racionales.

ˆ I = Números irracionales

ˆ R = Q ∪ I Números Reales.

ˆ Q∩I=∅

Definición 1.1.1 Producto Cartesiano. Sean A y B dos conjuntos. El producto


cartesiano de A y B, denotado A × B se define como

A × B = {(a, b) : a ∈ A, b ∈ B}

1
2

Ejemplo.

R × R = {(x, y) : x ∈ R, y ∈ R} = R2

R2 × R = {(x, y, z) : x ∈ R, y ∈ R, z ∈ R} = R3
..
.

Rn = (x1 , x2 , x3 , . . . , xn ), xi ∈ Ri = 1, 2, . . . , n

Punto x en la lı́nea R
Punto (x, y) en el plano R2
Punto (x, y, z) en el espacio R3
..
.
Punto (x1 , x2 , . . . , xn ) en el espacio Rn , n ∈ N

Al punto (número) x ∈ R, se le llama escalar.


El punto (x, y) se dice que es un par ordenado de números, en el sentido que gen-
eralmente (x, y) ̸= (y, x). Por ejemplo los puntos (3, 2) y (2, 3) representan distintos
puntos en el plano. De igual manera, el punto (x, y, z) es una tripleta de números
ordenada. Ası́ sucesivamente, un punto en el espacio Rn es un arreglo ordenado de n
números.

Definición 1.1.2 Un vector en Rn es un punto en el espacio Rn representado por n


números (n ∈ N), x1 , x2 , . . . , xn , denominados coordenadas, mediante

(x1 , x2 , . . . , xn )

cuyo arreglo ordenado es llamado n-ada o n-tuple.

Notas
3

ˆ En R, R2 y R3 , también se le llama vector a la flecha que inicia en el origen


denotado 0, (0, 0), (0, 0, 0) y cuya punta termina en el punto x, (x, y) y (x, y, z),
respectivamente.

ˆ El punto origen en Rn , es el vector (0, 0, . . . , 0)

Notación. Se acostumbra a denotar a los vectores como:

ˆ Letra negrita
x = (x1 , x2 , . . . , xn )

ˆ Guión bajo
x = (x1 , x2 , . . . , xn )

ˆ Flecha arriba
⃗x = (x1 , x2 , . . . , xn )

Definición 1.1.3 Multiplicación de un Vector por un Escalar. Dado un vector


x ∈ Rn y un escalar c ∈ R, se define la multiplicación de x por c, al nuevo vector

c x = (cx1 , cx2 , . . . , cxn )

Ejemplos

a) c = 3, x = (1, −4, 4) ⇒ c x = (3, −12, 12)

b) c = 1/2, x = (1, −4, 4) ⇒ c x = (1/2, −2, 2)

c) c = −1, x = (1, −4, 4) ⇒ c x = (−1, 4, −4)

a) c = 0, x = (1, −4, 4) ⇒ c x = (0, 0, 0)

Grafico
4

Definición 1.1.4 Suma de Vectores. Sean los vectores a = (a1 , a2 , . . . , an )


y b = (b1 , b2 , . . . , bn ) de Rn . Se define la suma a + b, al vector cuyas coordenadas son

a + b = (a1 + b1 , a2 + b2 , . . . , an + bn )

Ejemplos:

a) Sean a = (2, 1, 5) y b = (1, 6, −2)

a + b = (2 + 1, 1 + 6, 5 − 2) = (3, 7, 3)

b) Sean a = (0, −1, 2, 1, 1) y b = (1, 0, 6, −2, 3)

a + b = (0 + 1, −1 + 0, 2 + 6, 1 − 2, 1 + 3) = (1, −1, 8, −1, 4)

Note que empleando el escalar c = −1, se tiene la diferencia o resta de dos vectores

a + (−b) = a − b = (a1 − b1 , . . . , an − bn )

Al vector cero se denota 0 = (0, 0, . . . , 0) en Rn .

Ejemplos:

a) Sean a = (2, 1, 5) y b = (1, 6, −2)

a − b = (2, 1, 5) − (1, 6, −2) = (1, −5, 7)

b) Sean a = (0, −1, 2, 1, 1) y b = (1, 0, 6, −2, 3)

a − b = (0, −1, 2, 1, 1) − (1, 0, 6, −2, 3) = (−1, −1, −4, 3, −2)

a − a = (0, −1, 2, 1, 1) − (0, −1, 2, 1, 1) = (0, 0, 0, 0, 0) = 0

El siguiente resultado sintetiza la propiedades más importantes de las operaciones


con vectores.
5

Teorema 1.1.1 Si u, v y w son vectores en Rn , y c1 y c2 son escalares, entonces

a) u + v = v + u

b) (u + v) + w = u + (v + w)

c) u + 0 = 0 + u = u

d) u + (−u) = 0

e) c1 (u + v) = c1 u + c1 v

f ) (c1 + c2 ) u = c1 u + c2 u

g) c1 (c2 u) = (c1 c2 ) u

h) 1 u = u

i) 0 u = 0

k) c1 0 = 0

k) −1 u = −u

Demostración. (Parcial) Para mostrar (b) considere

(u + v) + w = (u1 + v1 , u2 + v2 , . . . , un + vn ) + (w1 , w2 , . . . , wn )

= ((u1 + v1 ) + w1 , (u2 + v2 ) + w2 , . . . , (un + vn ) + wn )

= (u1 + (v1 + w1 ), u2 + (v2 + w2 ), . . . , un + (vn + wn ))

= (u1 , u2 , . . . , un ) + (v1 + w1 , v2 + w2 , . . . , vn + wn )

= u + (v + w)
6

Para mostrar (e), note que

c1 (u + v) = c1 (u1 + v1 , u2 + v2 , . . . , un + vn )

= (c1 (u1 + v1 ), c1 (u2 + v2 ), . . . , c1 (un + vn ))

= (c1 u1 + c1 v1 , c1 u2 + c1 v2 , . . . , c1 un + c1 vn )

= (c1 u1 , c1 u2 , . . . , c1 un ) + (c1 v1 , c1 v2 , . . . , c1 vn )

= c1 u + c1 v

Para mostrar (g) observe que

c1 (c2 u) = c1 (c2 u1 , c2 u2 , . . . , c2 un )

= (c1 c2 u1 , c1 c2 u2 , . . . , c1 c2 un )

= c1 c2 (u1 , u2 , . . . , un ) = (c1 c2 ) u 2

Ahora se desea interpretar la multiplicación por escalar y la suma de vectores, en


el plano R2 y tratar de imaginar lo que resulta en el espacio R3 .
Sean u = (2, 1),
c = 2 ⇒ cu = 2(2, 1) = (4, 2)
c = 3 ⇒ cu = 3(2, 1) = (6, 3)
c = 1/2 ⇒ cu = (1/2)(2, 1) = (1, 1/2)
c = −1 ⇒ cu = −1(2, 1) = (−2, −1)
Gráfico
Sean los vectores u = (2, 3) y v = (−1, 1).
⇒ u + v = (2 − 1, 3 + 1) = (1, 4)
Gráfico
Sean u = (3, 1) y v = (1, 2).
⇒ u + v = (3 + 1, 1 + 2) = (4, 3)
Gráfico
7

Definición 1.1.5 Vector Localizado. Sean dos vectores A y B. Se define a un vector


localizado en el punto A, al vector que inicia en el punto A y termina en el punto B,
−→
denotado AB.

Gráfico

Las coordenadas de B = (b1 , b2 ) se obtienen a partir de las coordenadas de A =


(a1 , a2 ) mediante

b1 = a1 + (b1 − a1 )

b2 = a2 + (b2 − a2 )

Lo que significa que


B = A + (B − A)
−→ −−→
Definición 1.1.6 Vectores Equivalentes. Dos vectores localizados AB y CD, se dice
que son equivalentes si B − A = D − C.
−→
Nota. Cualquier vector localizado AB es equivalente al vector que inicia en el origen
−−−−−−→
dado por O(B − A) = B − A. Note que como antes

B − A = O + (B − A − O) = B − A
−→
Por esto, para el vector localizado P Q, el vector Q − P , representa una traslación al
origen.
Si se visualiza la ley del paralelogramo en el plano, entonces la equivalencia entre
dos vectores localizados, tiene como interpretación geométrica que las longitudes de
los segmentos de lı́neas determinados por los pares de puntos, son iguales y que las
”direcciones” en la cuales apuntan, son la misma.
8

Definición 1.1.7 Vectores Paralelos, Misma Dirección y Perpendiculares. Dos vec-


−→ −→
tores localizados AB y P Q son paralelos si existe un número c ̸= 0 tal que
B − A = c(Q − P ). Ambos vectores tienen la misma dirección si existe un número
c > 0 tal que B − A = c(Q − P ); mientras que tienen dirección opuesta si existe un
−→ −→
número c < 0 tal que B − A = c(Q − P ). Finalmente AB y P Q son perpendiculares,
si B − A es perpendicular a Q − P .

Ejemplos:

a) P = (1, 1), Q = (2, 3).


−→
Grafico de P Q
y de Q − P = (2 − 1, 3 − 1) = (1, 2),
son vectores equivalentes.

b) P = (1, 2), Q = (3, 3).


−→
Grafico de P Q
y de Q − P = (3 − 1, 3 − 2) = (2, 1),
son vectores equivalentes.

c) P = (−3, 1), Q = (−1, 4), A = (3, 2) y B = (5, 5)


−→
Grafico de P Q
−→
Grafico de AB
y de Q − P = (−1 − (−3), 4 − 1) = (2, 3)
y de B − A = (5 − 3, 5 − 2) = (2, 3)
−→ −→
P Q y AB son vectores equivalentes,
paralelos dado que Q − P = 1(B − A);
y como c = 1 > 0, tienen la misma dirección.

d) P = (3, 7), Q = (−4, 2), A = (5, 1) y B = (−16, −14)


Q − P = (−7, −5) y B − A = (−21, −15)
9

−→ −→
Como B − A = 3(Q − P ) se tiene que P Q y AB, son paralelos y tienen la misma
dirección, ya que c = 3.

e) P = (1, −1, 3), Q = (2, 4, 1), A = (4, −2, 5) y B = (5, 3, 3)


−→
P Q es equivalente a Q − P = (1, 5, −2). Dado que B − A = (1, 5, −2), se tiene
−→ −→
que P Q y AB, son equivalentes, y en consecuencia paralelos y con la misma
dirección.

1.2 Producto Punto, Norma y Proyecciones


Definición 1.2.1 Producto Punto. Dados dos vectores u y v en Rn , se define el
producto punto (o escalar), denotado u · v, como

u · v = u1 v1 + u2 v2 + · · · + un vn

Ejemplos:

a) u = (1, 2), v = (3, −4)


u · v = 1(3) + 2(−4) = −5

b) u = (2, 1, −3), v = (3, 0, 1)


u · v = 2(3) + 1(0) + (−3)1 = 3

c) u = (2, 1, 0, 5), v = (1, −2, 1, 3)


u · v = 2(1) + 1(−2) + 0(1) + 5(3) = 15

Las propiedades del producto punto se enuncian el el siguiente resultado.

Teorema 1.2.1 Sean u, v y w vectores en Rn , y c un número real. Entonces

a) u · v = v · u

b) u · (v + w) = u · v + u · w = (v + w) · u
10

c) (c u) · v = u · (c v) = c (u · v)

d) u · 0 = 0

e) Si u = 0, entonces u · u = 0, y de otra manera u · u > 0.

Demostración (Parcial)

b) Para la primera igualdad,

u · (v + w) = u1 (v1 + w1 ) + u2 (v2 + w2 ) + · · · + un (vn + wn )

= u1 v1 + u1 w1 + · · · + un vn + un wn

= u1 v1 + · · · + un vn + u1 w1 + · · · + un wn

= u·v+u·w

Para la segunda igualdad solo considere (a).

e) u · u = u21 + · · · + u2n . Si u = 0 entonces cada u2i = 0, i = 1, . . . , n; lo que


implica que u · u = 0. Si u ̸= 0, entonces al menos un u2i > 0, i = 1, . . . , n, lo
que implica que u · u > 0. 2

Definición 1.2.2 Norma o Longitud del Vector. Sea el vector x = (x1 , x2 , . . . , xn ) ∈


Rn . Se define la norma o longitud del vector, denotado ∥x∥, como
q
∥x∥ = x21 + x22 + · · · + x2n

La norma mide la distancia del origen al punto que representa el vector. Es decir
∥x∥ = d(0, x). Note que ∥x∥2 = x · x.
Se tiene que para R2 y R3 , la definición de distancia dada, coincide con la noción
intuitiva derivada del Teorema de Pitágoras.
Para el vector u = (x, y) en R2
p
∥u∥ = x2 + y 2 .
11

Si c = ∥u∥, por el Teorema de Pitágoras, se tiene


c2 = x 2 + y 2
Con esto, la distancia del origen a punto (x, y)
d(0, u) = ∥u∥
Suponga el vector u = (x, y, z) en R3
Si se examinan primero los componentes (x, y),
la longitud del segmento del origen al punto (x, y)
p
se tiene w = ∥(x, y)∥ = x2 + y 2 .
Examinando ahora en R3 , note que en
el triángulo rectángulo formado
por los tres puntos(0, 0, 0), (x, y, 0) y (x, y, z),
√ p
se tiene que la longitud de la hipotenusa es w2 + z 2 = x2 + y 2 + z 2
Lo cual es compatible con la geometria del Teorema de Pitágoras.

Ejemplos:

a) Sea el punto u = (3, 4), i.e. x = 3, y = 4,


p √ √
∥u∥ = x2 + y 2 = 32 + 42 = 25 = 5

Por el teorema de Pitágoras, para el vector (3, 4) se tiene 52 = 32 + 42 , que


representa a la hipotenusa c y los catetos x y y, del triángulo formado por los
puntos (0, 0), (3, 0) y (3, 4), en la relación c2 = x2 + y 2 .

b) Sea el punto v = (2, 1, 3)


p √ √ √
∥v∥ = x2 + y 2 + z 2 = 22 + 12 + 32 = 4 + 1 + 9 = 14

c) Sea el punto v = (−2, 1, −1, 3, 0)


q p
∥v∥ = x21 + x21 + x23 + x24 + x25 = (−2)2 + 12 + (−1)2 + 32 + 02
√ √
= 4 + 1 + 1 + 9 + 0 = 15
12

Teorema 1.2.2

a) ∥u∥ ≥ 0 para cualquier u ∈ Rn

b) ∥u∥ = 0 ⇔ u = 0

c) Si c ∈ R es cualquier escalar y u ∈ Rn , se tiene

∥c u∥ = |c| ∥u∥

Demostración. Note que u2i ≥ 0, ∀ i = 1, 2, . . . , n, con lo cual (a) y (b) son


evidentes. Para mostrar (c), considere la definición

∥c u∥2 = (c u) · (c u) = c2 (u · u)

2
p
Por lo cual ∥c u∥ = c2 (u · u) = |c| ∥u∥.

Definición 1.2.3 Vector Unitario. Si ∥x∥ = 1, se le llama a x, vector unitario.

Ejemplos:

a) Vectores unitarios en R2 ,
 
3 2
e1 = (1, 0), e2 = (0, 1), √ ,√
13 13

b) Vectores unitarios en R3 ,
 
−2 2 3
e1 = (1, 0, 0), e2 = (0, 1, 0), e3 = (0, 0, 1), √ ,√ ,√
17 17 17

c) Vectores unitarios en Rn ,

e1 = (1, 0, . . . , 0), e2 = (0, 1, . . . , 0), . . . , en = (0, . . . , 0, 1)


13

Nota. Vector unitario en la dirección de u,

1 1 1
u ⇒ u = ∥u∥ = 1

∥u∥ ∥u∥ ∥u∥

Ejemplo. (3, 2) ⇒ ∥(3, 2)∥ = 13. El vector unitario en la dirección de (3, 2) es,
 
3 2
√ ,√
13 13

Notación. En R2 y R3 se denotan a los vectores unitarios con componentes 0 y 1,


como

a) i = (1, 0), j = (0, 1)

b) i = (1, 0, 0), j = (0, 1, 0), k = (0, 0, 1)

Definición 1.2.4 Distancia entre Dos Vectores. Sean dos vectores u y v en Rn . se


define la distancia entre u y v como
p p
∥u − v∥ = d(u, v) = (u − v) · (u − v) = (u1 − v1 )2 + · · · + (un − vn )2

Dado que ∥u∥ = ∥ − u∥, se tiene que d(u, v) = ∥u − v∥ = ∥v − u∥ = d(v, u). La


definición coincide con la intuición geométrica de distancia entre dos puntos u y v en
R2 .
Ejemplos:

a) Sean u = (1, 2) y v = (5, 2)


p
∥u − v∥ = d(u, v) = (5 − 1)2 + (2 − 2)2 = 4

b) Sean u = (1, 3, −2, 7) y v = (0, 7, 2, 2)


p √
d(u, v) = (1 − 0)2 + (3 − 7)2 + (−2 − 2)2 + (7 − 2)2 = 58
14

Para establecer el concepto de perpendicularidad en términos del producto punto


y acorde al concepto geométrico en el plano, considere dos vectores u y v en R2 .
Entonces la condición
∥u + v∥ = ∥u − v∥

coincide con la propiedad geométrica de que u y v son perpendiculares. La ecuación


anterior es equivalente, despues de tomar los cuadrados en ambos lados, a

(u + v) · (u + v) = (u − v) · (u − v)

que a su vez equivale, despues de las multiplicaciones,

u · u + 2u · v + v · v = u · u − 2u · v + v · v

⇔ 4u · v = 0 ⇔ u · v = 0

Por consiguiente,
∥u + v∥ = ∥u − v∥ ⇔ u · v = 0

Definición 1.2.5 Dos vectores u y v en Rn , son perpendiculares si u · v = 0, en cuyo


caso se denota u ⊥ v.

Nota. Si u y v son perpendiculares también se dice que son ortogonales. Y si los


vectores u y v son unitarios y perpendiculares, se dice que son ortonormales.

Ejemplos:
15

a) Sean u = (1, 1) y v = (−1, 1)


u · v = (1, 1) · (−1, 1) = −1 + 1 = 0 ⇒ u ⊥ v

b) Los vectores i = (1, 0) y j = (0, 1), son ortonormales, ya que e1 ⊥ e2 y son


unitarios.

c) Los vectores unitarios i = (1, 0, 0), j = (0, 1, 0) y k = (0, 0, 1), son ortonormales.

d) Los vectores e1 = (1, 0, 0, 0, 0) y e2 = (0, 1, 0, 0, 0), son ortonormales.

Teorema 1.2.3 Teorema General de Pitágoras. Si u y v son perpendiculares, en-


tonces
∥u + v∥2 = ∥u∥2 + ∥v∥2

Demostración. Por hipótesis u · v = 0 y por la definición de norma se tiene,

∥u + v∥2 = (u + v) · (u + v) = u · u + 2 u · v + v · v

= ∥u∥2 + ∥v∥2 2

Note que si u y v son vectores en R2 y se hace coincidir tales vectores con los ejes
x y y respectivamente, entonces 0 < x = ∥u∥, 0 < y = ∥v∥ y c = ∥u + v∥, de tal
modo que se tiene la propiedad de Pitágoras, c2 = x2 + y 2 .
Si u y v son vectores en R2 y R3 , distintos del vector cero, entonces el ángulo θ
entre los dos vectores está relacionado con el producto punto, como se muestra en el
resultado siguiente.

Teorema 1.2.4 Sean u y v vectores en R2 o R3 y sea θ el ángulo entre u y v.


Entonces
u·v
u · v = ∥u∥ ∥v∥ cos θ, i.e. cos θ =
∥u∥ ∥v∥
16

Demostración. Considere el triángulo formado por el origen y los puntos u y v.


Considere a = ∥u∥, b = ∥v∥ y considerando el vector localizado −
→ que corresponde
uv,
al tercer lado del triángulo, es equivalente al vector v − u, se establece c = ∥v − u∥, la
longitud del tercer lado del triángulo en cuestión. Por la ley de los cosenos, se tiene,

c2 = a2 + b2 − 2 ab cos θ

que equivale a escribir

∥v − u∥2 = ∥u∥2 + ∥v∥2 − 2 ∥u∥ ∥v∥ cos θ (1.1)

Por definición

∥v − u∥2 = (v − u) · (v − u) = (v − u) · v − (v − u) · u

= v·v−u·v−v·u+u·u

= ∥v∥2 − 2 (u · v) + ∥u∥2

Con esto, se tiene que la ecuación (1.1) implica lo siguiente,

∥v∥2 − 2 (u · v) + ∥u∥2 = ∥v∥2 + ∥u∥2 − 2 ∥u∥ ∥v∥ cos θ

De donde se concluye que

u · v = ∥u∥ ∥v∥ cos θ 2

Ejemplos:

a) Sean u = (1, 2, 3) y v = (−2, 4, 1)


√ √ p √
∥u∥ = 11 + 22 + 32 = 14, ∥v∥ = (−2)2 + 42 + 12 = 21

El coseno del ángulo entre tales vectores es,


u·v 1(−2) + 2(4) + 3(1)
cos θ = = p = 0.5248907
∥u∥ ∥v∥ 14(21)
17

θ = 58.33911448◦ . Considerando la fórmula de equivalencia

θgrad θrad π rad π rad


= ⇒ θ rad = θ grad = (58.33911448) = 0.324106 π rad
180◦ π rad 180◦ 180

b) Sean u = (2, 1, −3) y v = (1, 1, 1)


u · v = 2 + 1 + (−3) = 0

u·v π
cos θ = = 0 ⇒ θ = rad
∥u∥ ∥v∥ 2
−→
c) Determine el ángulo θ formado en el punto P , por los vectores localizados P Q
−→ √ √
y P R, donde P = (1, 2), Q = (1 + 3, −1) y R = (1 − 3, 3)
√ √
(Q − P ) · (R − P ) ( 3, −3) · (− 3, 1) −6
cos θ = = √ √ =p = −0.8660254
∥Q − P ∥ ∥R − P ∥ ∥( 3, −3)∥ ∥(− 3, 1)∥ 12(4)

θ = 150◦ . Entonces

π rad π rad
θrad = ◦
θgrad = (150) = 0.8333 π rad
180 180

Proyecciones
Se desea establecer el concepto de proyección de un vector sobre otro. Sean dos
vectores u y v, v ̸= 0. Se proyecta el vector u sobre el vector u considerando una
distancia mı́nima posible, como se muestra en la gráfica. Sea, temporalmente, dicho
vector resultante P = cv.
18

Entonces se desea un vector P tal que u − P ⊥ v y además P = cv, para algún


c ∈ R. Entonces se desea determinar c tal que

(u − cv) · v = 0 ⇔ u · v = c v · v
u·v u·v
⇒c= =
v·v ∥v∥2
Definición 1.2.6 Proyección de u en v. Se define la proyección de u en v, al vector,
u·v
Pv u = c v = v
∥v∥2
Al número c se le llama componente de u en v. Note que si ∥v∥ = 1 entonces c = u·v.
Geométricamente:
Suponga dos vectorea A y B en el primer
cuadrante, y considere: el ángulo θ entre A y B,
los vectores PB A = c B y A − cB. Entonces, dado que
c ∥B∥ A·B
cos θ = y c=
∥A∥ ∥B∥2
se tiene que
A · B ∥B∥ A·B
cos θ = 2
=
∥B∥ ∥A∥ ∥A∥∥B∥
Lo que implica
A · B = ∥A∥∥B∥ cos θ

Sean los vectores A = (a1 , . . . , an ) y al vector unitario con 1 en la posición i,


Ei = (0, . . . , 0, 1, 0, . . . , 0), tal que A · Ei = ai . Entonces
q q
|ai | = ai ≤ a21 + · · · + a2n = ∥A∥
2

El siguiente resultado generaliza lo anterior.

Teorema 1.2.5 Desigualdad de Cauchy-Schwartz. Sean A y B dos vectores en Rn .


Entonces
|A · B| ≤ ∥A∥∥B∥
19

Demostración. Si B = 0, entonces el resultado es válido, ya que ambos lados de


la desigualdad son cero. Considere A y B distintos de 0. Si E es cualquier vector
unitario, sea c la componente de la proyección de A sobre E, es decir c = A · E.
Entonces A − cE ⊥ E y A = A − cE + cE. Por el teorema de Pitágoras y dado que
A − cE ⊥ cE, se tiene

∥A∥2 = ∥A − cE∥2 + ∥cE∥2 = ∥A − cE∥2 + c2

Lo que implica c2 ≤ ∥A∥2 , es decir |A · E| ≤ ∥A∥.


Ahora sea E el vector unitario en la dirección de B, es decir E = B/∥B∥. La
desigualdad anterior implica

B
|A · E| = |A · | ≤ ∥A∥
∥B∥

Con esto se tiene que


|A · B| ≤ ∥A∥∥B∥ 2

En virtud de la desigualdad de Cauchy-Schwartz, se tiene que para dos vectores A


y B en Rn , el número A · B/∥A∥∥B∥, tiene un valor absoluto ≤ 1, y existe un único
ángulo θ tal que 0 ≤ θ ≤ π, y
A·B
cos θ =
∥A∥∥B∥
entonces se define a tal θ como el ángulo entre A y B.

Ejemplo. Sean u = (1, 2, −3) y v = (2, 1, 5). Determine el coseno del ángulo entre
tales vectores.
u·v 1(2) + 2(1) − 3(5) −11
cos θ = = √ √ =√
∥u∥∥v∥ 14 30 420

En R2 o R3 el ángulo θ antre u y v es:

a) ángulo agudo si u · v > 0


20

b) ángulo recto si u · v = 0

b) ángulo obtuso si u · v < 0

Teorema 1.2.6 Desigualdad del Triangulo. Sean A y B dos vectores en Rn . En-


tonces
∥A + B∥ ≤ ∥A∥ + ∥B∥

Demostración. Por la definición de norma y el Teorema 1.2.5, se tiene,

∥A + B∥2 = (A + B) · (A + B)

= A · A + 2A · B + B · B

≤ ∥A∥2 + 2∥A∥∥B∥ + ∥B∥2

= (∥A∥ + ∥B∥)2

Al tomar la raı́z cuadrada en ambos lados, se tiene el resultado. 2

1.3 Lı́neas y Planos


De cursos previos se tiene que la ecuación de una lı́nea recta está dada por y = a + bx.
Considere el plano R2 y la ecuación paramétrica que representa una lı́nea recta
que pasa por P y paralela al vector no nulo v como,

X(t) = P + tv, t∈R

A t se le llama parámetro, y a la ecuación también se le llama forma punto-paralelo o


forma vectorial, de la recta en cuestión. La ecuación paramétrica de una lı́nea recta
es una de las funciones simples X : R −→ R2 .
Si X = (x, y), P = (p, q) y v = (a, b). Entonces,

X(t) = P + tv = (p, q) + t(a, b) = (p + ta, q + tb) = (x, y)


21

Se denominan ecuaciones paramétricas a

x = p + ta y = q + tb

Se puede eliminar a t y obtener la ecuación familiar de la recta, que relaciona a y con


x. Con tal fin considere el caso particular con P = (2, 1) y v = (−1, 5)

X(t) = P + tv = (2, 1) + t(−1, 5) = (2 − t, 1 + 5t)

x = 2 − t, y = 1 + 5t

Multiplicando por 5 la 1a ecuación y sumando con la 2a ecuacion, se tiene

5x = 10 − 5t

y = 1 + 5t

⇒ 5x + y = 11

Esta eliminación de t muestra que cualquier par de puntos (x, y) que satisface

x = 2 − t, y = 1 + 5t (1.2)

para algún valor de t, también satisface la ecuación

5x + y = 11 (1.3)

En sentido inverso, suponga que se tiene un par de números (x, y) que satisfacen (1.3).
Sea t = 2 − x, entonces

y = 11 − 5x = 11 − 5(2 − t) = 1 + 5t

Con esto, existe algún valor de t, el cual satisface (1.2). Por consiguiente, se prueba
que los pares de valores (x, y), que son soluciones de (1.3), son exactamente el mismo
par de números como aquellos obtenidos al proveer valores arbitrarios para t en (1.2).
22

Continuando en R2 , se puede notar que la ecuación vectorial de la recta puede


interpretarse del modo siguiente: primero se genera la recta por el origen tv y luego
se traslada esa recta paralelamente hasta que pase por el punto P0 , con lo cual

P = P0 + tv

Para cada uno de los puntos p en la recta, el vector P − P0 es paralelo a v, es decir,

P − P0 = tv

En consecuencia P − P0 es perpendicular a cualquier vector (A, B) perpendicular a


v. Lo que implica que
(A, B) · tv = 0

Considerando las dos igualdades anteriores, se obtiene la nueva ecuación vectorial

(P − P0 ) · (A, B) = 0 (1.4)

y si las coordenadas de P y de P0 son P (x, y) y P0 (x0 , y0 ), respectivamente, entonces


(1.4) implica la ecuación

(x − x0 , y − y0 ) · (A, B) = 0

que puede escribirse ası́


Ax + By + C = 0 (1.5)

donde C = −(Ax0 + By0 ), que es la ecuación general de la recta en el plano R2 .


La afirmación recı́proca también es cierta, ya que para una ecuación de primer
grado en dos variables dada por Ax + By + C = 0, si P0 (x0 , y0 ) satisface la ecuación,
es decir
Ax0 + By0 + C = 0
23

entonces el lugar geométrico de los puntos P (x, y) que satisfacen dicha ecuación,
coincide con la recta que pasa por P0 paralela a u = (−B, A):

0 = Ax + By + C = Ax + By − (Ax0 + By0 ) = (x − x0 , y − y0 ) · (A, B)

Ası́ la lı́nea recta puede ser descrita paramétricamente como en (1.2) ó en términos
de la ecuación familiar en (1.3). Lo anterior se resume en el siguiente

Teorema 1.3.1 Cualquier recta L del plano cartesiano, determina una ecuación poli-
nomial de primer grado en dos variables Ax+By+C = 0. Y recı́procamente, cualquier
ecuación de primer grado en dos variables, es la ecuación de una recta.

Al parametrizar una lı́nea en la forma X(t) = P + tv, hay un número infinito de


elecciones para P en la lı́nea, y también infinitamente muchas elecciones para v, que
difieren de un múltiplo escalar; por lo cual siempres se puede elegir una opción.
Dada una ecuación
Ax + By = c (1.6)

con A ̸= 0, B y c números. Se puede usar a y como parámetro, es decir se toma y = t;


entonces se resuelve para x en la ecuación (1.6), y con las ecuaciones paramétricas

x = p + ta y = q + tb

se obtiene

c B
x= − t ≡ p + ta
A A
y = q + tb ≡ t ⇒ q = 0 y b = 1

Lo que implica,
c  
 B
P = (p, q) = ,0 , v = (a, b) = − , 1
A A
24

Con esto se tiene que un punto arbitrario (x, y) que satisface la ecuación (1.6), puede
ser expresada paramétricamente

(x, y) = P + tv

¿ Como se decribe una lı́nea recta en R3 ?


Sea P un punto en R3 y un vector v ̸= 0 en R3 . Se desea describir una lı́nea que
pase por el punto P y paralelo al vector v. Entonces se generaliza la idea anterior de
la ecuación paramétrica a Rn y se establece la siguiente

Definición 1.3.1 Lı́nea Recta. Se define la ecuación paramétrica de una lı́nea recta
que pasa por P y paralela al vector no nulo v, P y v ∈ Rn como,

X(t) = P + tv, t∈R (1.7)

A t se le llama parámetro, y a la ecuación también se le llama forma punto-paralelo


o forma vectorial, de la recta.

La forma de la ecuación de la recta que pasa por dos puntos P1 y P2 está dada
por
X(t) = P1 + t(P2 − P1 ), t∈R

la cual describe la lı́nea que pasa por el punto P1 y paralelo al vector (P2 − P1 ), que
−−−→
equivale al vector localizado P1 P2 . Note que la ecuación anterior se puede reescribir
como
X(t) = (1 − t)P1 + tP2

Expresión útil cuando se desea representar el segmento de lı́nea recta que uno a los
puntos P1 con P2 , si 0 ≤ t ≤ 1; notando que X(0) = P1 y X(1) = P2 .
La ecuación paramétrica de una lı́nea recta es una función X : R −→ Rn .

En Rn , con n ≥ 4, la ecuación paramétrica es la única forma de describir una lı́nea


recta, en virtud de que no se puede eliminar a t como en el ejemplo de arriba en R2 .
25

Definición 1.3.2 Lı́neas Rectas Paralelas. Dos lı́neas rectas son paralelas si sus
vectores dirección son paralelas.

Por otra parte, dos lı́neas distintas X(t) = P + tv y Y(u) = Q + uw se intersectan


sii existen t y u ∈ R tales que X(t) = Y(u).

Ejemplos

a) Obtenga la ecuación en forma punto-paralelo y las ecuaciones paramétricas para


la lı́nea que pasa por el punto (2, 2, 0) y paralelo al vector v = (−3, −1, 2).

X(t) = (2, 2, 0) + t(−3, −1, 2)

Note además que X(t) = (2, 2, 0) + t(−3, −1, 2) = (2 − 3t, 2 − t, 2t); lo que
implica que las ecuaciones paramétricas son:

x = 2 − 3t, y = 2 − t, z = 2t

b) Encuentre la forma punto-paralelo de la lı́nea en R2 descrita por la ecuación


y = 2x − 1.

Se desea determinar un punto P en la lı́nea y un vector v paralelo a dicha lı́nea.


Un punto P puede ser obtenido con la ordenada al origen; es decir P = (0, −1).
Por otra parte la pendiente de la lı́nea 2 = 2/1 permite establecer que v = (1, 2).
Por consiguiente
X(t) = (0, −1) + t(1, 2)

c) ¿ Son paralelas las siguientes dos lı́neas rectas ?

l1 : X(t) = (−2 + t, 3 + 2t, 4 − t) = (−2, 3, 4) + t(1, 2, −1)

l2 : R(u) = (3 − u, 4 − 2u, u) = (3, 4, 0) + u(−1, −2, 1)

l1 es paralela a v = (1, 2, −1) mientras que l2 es paralela a w = (−1, −2, 1).

Se tiene que v = −1w, por lo tanto l1 y l2 son paralelas.


26

d) Las lı́neas rectas

l1 : X(t) = (1 − 4t, 5 − 4t, −1 + 5t)

l2 : R(u) = (2 + 8u, 4 − 3u, 5 + u)

no son paralelas, ya que v = (−4, −4, 5) y w = (8, −3, 1) no son vectores


paralelos.

e) Encuentre el punto donde las siguientes lı́neas se intersectan:

l1 : X(t) = (1, −6, 2) + t(1, 2, 1)

l2 : Y(u) = (0, 4, 1) + u(2, 1, 2)

Sea X(t) = Y(u), lo que implica

(1, −6, 2) + t(1, 2, 1) = (0, 4, 1) + u(2, 1, 2)

⇒ (1 + t − 2u, −10 + 2t − u, 1 + t − 2u) = (0, 0, 0)

Se establece el sistema de ecuaciones,

1 + t − 2u = 0 1 + t − 2u = 0 t = 2u − 1
−10 + 2t − u = 0 ⇒ −10 + 2t − u = 0 ⇒ −10 + 2(2u − 1) − u = 0
1 + t − 2u = 0 ⇒ u = 4, t = 7

X(7) = (8, 8, 9) = Y(4)

Las dos lı́neas se intersectan en el punto (8, 8, 9).

Formas de Representar a un Plano


En cursos previos se conoce que en R3 un plano se representa por la ecuación

Ax + By + Cz + D = 0
27

También se sabe que dicho plano se puede describir usando una lı́nea perpendicular
al plano, llamada normal.
Gráfico

Sea un punto p y un vector n en R3 , n ̸= 0 y sea P el plano que contiene a p y


que es perpendicular a la lı́nea determinado por n. Sea x un punto arbitrario en P
y considere el segmento dirigido −→ Entonces el vector x − p es equivalente a −
px. →y
px
por lo tanto es ortogonal a n. Por consiguiente, la denominada forma punto-normal
de un plano es:
(x − p) · n = 0 (1.8)

⇒x·n=p·n

Gráfica

Se define el plano que pasa por el punto p y es perpendicular (ortogonal) a n, a la


colección de todos los puntos x en R3 tales que x − p es ortogonal a n. Ası́, cualquier
punto x ∈ P, satisface la ecuación (1.8).
Note que de (1.8), se puede obtener la forma general o estándar, de la ecuación de
un plano P, si se introducen los puntos P = (x, y, z), p0 = (x0 , y0 , z0 ) y n = (A, B, C),
28

ya que (1.8) implica que

(x − x0 , y − y0 , z − z0 ) · (A, B, C) = 0

que al realizar el producto en cuestión se puede escribir

Ax + By + Cz + D = 0 (1.9)

donde D = −(Ax0 + By0 + Cz0 ) y (A, B, C) ̸= 0.


Note que en el plano descrito por (1.9), el vector n = (A, B, C), es el vector normal
a dicho plano.
La discusión anterior se resume en el siguiente resultado.

Teorema 1.3.2 Cualquier plano en R3 determina una ecuación de primer grado en


tres variables Ax + By + Cz + D = 0, y recı́procamente, cualquier ecuación de primer
grado en tres variables, tiene como lugar geométrico un plano en R3 .

Suponga que se tiene la ecuación del plano en forma estándar Ax + By + Cz +


D = 0, y se desea representarlo en la forma punto-normal. De inmediato se tiene
que n = (A, B, C). Enseguida se desean encontrar un punto en el plano. Una
opción es dar valores arbitrarios a x y a y, y luego resolver para z. Otras opciones
son: A ̸= 0 ⇒ (−D/A, 0, 0) satisface (−D/A, 0, 0) · (A, B, C) = −D; B ̸= 0 ⇒
(0, −D/B, 0) satisface (0, −D/B, 0) · (A, B, C) = −D; y C ̸= 0 ⇒ (0, 0, −D/C)
satisface (0, 0, −D/C) · (A, B, C) = −D.

También se define al plano con una ecuación llamada forma vectorial dada por

P = P0 + α u + β v (1.10)

donde los vectores u y v son no nulos y son linealmente independientes y α y β ∈ R.


Otra manera de representar a un plano surge cuando se tienen 3 puntos P1 , P2 y
P3 que están en el plano, no colineales; entonces se consideran los vectores P2 − P1 y
29

P3 − P1 en el papel de u y v, en la ecuación (1.10) y cualquiera de los puntos puede


ser el de referencia, lo que conduce a la ecuación

P = P1 + α (P2 − P1 ) + β (P3 − P1 ) (1.11)

Ejemplos

a) Encuentre la forma punto-normal para el plano que contiene al punto P =


(2, 1, 3) con el vector normal n = (1, 2, −2).

(x − p) · n = 0 ⇒ x · n = p · n

⇒ (x, y, z) · (1, 2, −2) = (2, 1, 3) · (1, 2, −2) = 2 + 2 − 6

x + 2y − 2z = −2

Note que en el plano determinado por x + 2y − 2z = −2, el vector normal es


n = (1, 2, −2)

b) Encuentre un punto P en el plano en forma estándar dado por 2x − y + 3z = 5.

Sea x = y = 1 ⇒ z = (5 − 2 + 1)/3 = 4/3 ⇒ P = (1, 1, 4/3) pertenece al plano


descrito por 2x − y + 3z = 5.

c) Encuentre una ecuación en la forma punto-normal para el plano descrito por la


ecuación 3x − y + 2z = 5. Se desea un punto

n = (3, −1, 2)

B = −1 ⇒ (0, −D/B, 0) = (0, 5/ − 1, 0) = (0, −5, 0)

(X − P) · n = ((x, y, z) − (0, −5, 0)) · (3, −1, 2)

= (x, y + 5, z) · (3, −1, 2) = 3x − y − 5 + 2z = 0


30

En general para Rn , n ≥ 4, se extiende la definición del plano, denominado hiper-


plano, sin referencia a un lugar geométrico. Ası́ para un vector normal los puntos x =
(x1 , x2 , . . . , xn ) pertenecen al hiperplano que pasa por el punto P = (p1 , p2 , . . . , pn ) y
con vector normal n = (a1 , a2 , . . . , an ), si se satisface

(x − p) · n = 0

En R2 , con X = (x, y), n = (A, B), n · P = d. Se tiene la ecuación general de una


lı́nea recta, en virtud de que

X · n = P · n ⇒ Ax + By = d

y los coeficientes A y B de x y y en tal ecuación son tales que el vector (A, B) es


ortogonal a la lı́nea recta, de la misma forma que el vector (A, B, C) es ortogonal al
plano descrito por la forma punto-normal en (1.8).
Dos planos en R3 son paralelos si sus respectivos vectores normales son paralelos.
por otra parte se dice que dos planos son perpendiculares, si sus vectores normales
son perpendiculares. Además se define el ángulo entre dos planos como el ángulo
entre sus vectores normales.
Considere ahora el problema de detrminar el punto de intersección de una lı́nea
que pasa por P en la dirección del vector n y el plano que pasa por Q y con vector
normal n.
Gráfico p.16

La ecuación paramétrica de la lı́nea que pasa por P en la dirección de n es

X(t) = P + tn (1.12)
31

Mientras que la ecuación del plano, en forma punto-normal, que pasa por Q, perpen-
dicular a n es
(x − Q) · n = 0 (1.13)

Se desea encontrar t tal que el vector X en (1.12), también sea el mismo que satisface
(1.13). Ası́, substituyendo (1.12) en (1.13) se tiene

(P + tn − Q) · n = 0

⇒ (P − Q) · n + tn · n = 0
(Q − P) · n
⇒ t=
n·n
Tal valor de t, usado en (1.12) provee el punto de intersección deseado.

Ejemplo. Sea el plano que pasa por Q = (1, 1, 1) y con vector normal n = (1, 2, 3),
y sea la lı́nea que pasa por P = (1, −1, 2), en la dirección de n. Determine el punto
de intersección de la lı́nea y el plano.
(Q − P) · n
t=
n·n
((1, 1, 1) − (1, −1, 2)) · (1, 2, 3) 1
= =
(1, 2, 3) · (1, 2, 3) 14
El punto de intersección es,
1 1
P + tn = (1, −1, 2) + (1, 2, 3) = (15, −12, 31)
14 14

Suponga que ahora que se desea establecer la ecuación de un plano que pasa por
los tres puntos

P1 = (1, 2, −1), P2 = (−1, 1, 4), P3 = (1, 3, −2)


−−−→
Se desea determinar un vector n = (a, b, c) que sea ortogonal a P1 P2 y ortogonal
−−−→
a P1 P3 . Equivalentemente se tiene que P2 − P1 = (−2, −1, 5) es ortogonal a n y
32

P3 − P1 = (0, 1, −1) es ortogonal a n. Se tiene entonces el sistema de ecuaciones


lineales
−2a − b + 5c = 0
b−c =0
Sea c = 1 = b ⇒ a = 2 ⇒ n = (a, b, c) = (2, 1, 1). Por consiguiente

n · P1 = (2, 1, 1) · (1, 2, −1) = 3

Considerando la forma punto-normal de la ecuación del plano X · n = n · P1 , se tiene

2x + y + z = 3

Distancia de un punto al Plano


Se tiene un plano que pasa por el punto Q y que es normal al vector n. Sea un
punto P fuera del plano y se desea determinar la distancia del punto P al plano. La
ecuación del plano es
(x − Q) · n = 0 (1.14)

Mientras que la ecuación de la lı́nea que pasa por P en la dirección del vector n es

X(t) = P + tn (1.15)

Ya se determinó que el valor de t que provee el punto de intersección entre la lı́nea


descrita por (1.15) y el plano descrito por (1.14) es
(Q − P) · n
t=
n·n
Con esto, dicho punto de intersección usando (1.15), es
(Q − P) · n
X(t) = P + n
n·n
Entonces la distancia de P a X(t) es
(Q − P) · n |(Q − P) · n| |(Q − P) · n|
∥P − X(t)∥ = ∥ n∥ = ∥n∥ =
n·n ∥n∥2 ∥n∥
33

Ejemplo. Encuentre la distancia del punto P = (2, 1, 3) a el plano determinado por


2x − 3y − z = 1.
Considerando al plano en la forma Ax+By+Cz+D = 0, se tiene C = −1, D = −1;
entonces un punto en el plano es Q = (0, 0, −D/C) = (0, 0, 1/ − 1) = (0, 0, −1). Por
otra parte el vector normal al plano es n = (2, −3, −1). Por consiguiente la distancia
buscada es
|(Q − P) · n| |((0, 0, −1) − (2, 1, 3)) · (2, −3, −1)|
= √
∥n∥ 14
|(−2, −1, −4) · (2, −3, −1)| 3
= √ =√
14 14

Producto Cruz

Solo en R3 se define un producto de dos vectores cuya resultante es otro vector.

Definición 1.3.3 Sean dos vectores u = (u1 , u2 , u3 ) y v = (v1 , v2 , v3 ) en R3 . Se


define al producto cruz de u y v al vector

u × v = (u2 v3 − u3 v2 , u3 v1 − u1 v3 , u1 v2 − u2 v1 )

Ejemplo. Sean u = (1, 2, −1) y v = (0, 2, 3)

u × v = (2(3) − (−1)(2), −1(0) − 1(3), 1(2) − 2(0)) = (8, −3, 2)

Considerando el concepto de determinante de un arreglo (matriz) de 2 × 2, dado


por  
a b
det   = ad − bc
c d
se emplea el siguiente arreglo de los componentes de los vectores involucrados
 
u1 u2 u3
 
v1 v2 v3
34

Se elimina la i-ésima columna y se obtiene el determinante del arreglo restante, para


obtener el i-ésimo componente del vector u × v, i = 1, 2, 3 como se indica a contin-
uación:
      
u2 u3 u1 u3 u1 u2
u × v = det   , −det   , det  
v2 v3 v1 v3 v1 v2

Ejemplo. Del ejemplo anterior u = (1, 2, −1) y v = (0, 2, 3)


 
1 2 −1
Arreglo  
0 2 3

      
2 −1 1 −1 1 2
u × v = det   , −det   , det  
2 3 0 3 0 2

= (6 + 2, −3, 2) = (8, −3, 2)

Teorema 1.3.3 El vector u × v es ortogonal a ambos u y v.

Demostración

u · (u × v) = (u1 , u2 , u3 ) · (u2 v3 − u3 v2 , u3 v1 − u1 v3 , u1 v2 − u2 v1 )

= u1 u2 v3 − u1 u3 v2 + u2 u3 v1 − u1 u2 v3 + u1 u3 v2 − u2 u3 v1 = 0

Similarmente se verifica que v · (u × v) = 0. 2

Ejemplo. Encuentre un vector ortogonal a ambos u = (1, 2, −1) y v = (0, 2, 3)


Del ejemplo anterior (u × v) = (1, 2, −1) × (0, 2, 3) = (8, −3, 2) es ortogonal a
ambos u = (1, 2, −1) y v = (0, 2, 3), como puede verificarse de inmediato.
Otras propiedades del producto cruz están dadas en el siguiente

Teorema 1.3.4 Sean u, v y w vectores en R3 y un escalar c. Entonces


35

a) u × v = −(v × u)

b) u × (v + w) = (u × v) + (u × w) y (u + v) × w = (u × w) + (v × w)

c) c (u × v) = (c u) × v = u × (c v)

d) u × 0 = 0 × u = 0

e) u × u = 0
p
f ) ∥u × v∥ = ∥u∥∥v∥ sin θ = ∥u∥2 ∥v∥2 − (u · v)2
donde θ es el ángulo entre los vectores u y v.

Demostración. (Parcial)

a) Sean u = (u1 , u2 , u3 ) y v = (v1 , v2 , v3 ). Entonces

u × v = (u2 v3 − u3 v2 , u3 v1 − u1 v3 , u1 v2 − u2 v1 )

v × u = (v2 u3 − v3 u2 , v3 u1 − v1 u3 , v1 u2 − v2 u1 )

de donde se observa que u × v = −(v × u).

b) Sean u y v y w = (w1 , w2 , w3 ). Entonces

u × (v + w) = (u1 , u2 , u3 ) × (v1 + w1 , v2 + w2 , v3 + w3 )

= (u2 (v3 + w3 ) − u3 (v2 + w2 ), u3 (v1 + w1 ) − u1 (v3 + w3 ),

u1 (v2 + w2 ) − u2 (v1 + w1 ))

= (u2 v3 + u2 w3 − u3 v2 − u3 w2 , u3 v1 + u3 w1 − u1 v3 − u1 w3 ,

u1 v2 + u1 w2 − u2 v1 − u2 w1 )

= (u2 v3 − u3 v2 , u3 v1 − u1 v3 − u1 w3 , u1 v2 − u2 v1 )

+(u2 w3 − u3 w2 , u3 w1 − u1 w3 , u1 w2 − u2 w1 )

= (u × v) + (u × w)
36

f) Usando la ecuación u · v = ∥u∥∥v∥ cos θ, se tiene

(u · v)2 = ∥u∥2 ∥v∥2 cos2 θ = ∥u∥2 ∥v∥2 (1 − sin2 θ)

⇒ ∥u∥2 ∥v∥2 sin2 θ = ∥u∥2 ∥v∥2 − (u · v)2


p
⇒ ∥u∥∥v∥ sin θ = ∥u∥2 ∥v∥2 − (u · v)2

Por otra parte

∥u × v∥2 = (u × v) · (u × v)

= (u2 v3 − u3 v2 )2 + (u3 v1 − u1 v3 )2 + (u1 v2 − u2 v1 )2

= u22 v32 + u23 v22 − 2u2 v3 u3 v2 + u23 v12 + u21 v32 − 2u3 v1 u1 v3 +

u21 v22 + u22 v12 − 2u1 v2 u2 v1

= u21 v22 + u21 v32 + u22 v12 + u22 v32 + u23 v12 + u23 v22

−(2u1 v2 u2 v1 + 2u3 v1 u1 v3 + 2u2 v3 u3 v2 )

= u21 v12 − u21 v12 + u22 v22 − u22 v22 + u23 v32 − u23 v32

u21 v22 + u21 v32 + u22 v12 + u22 v32 + u23 v12 + u23 v22

−(2u1 v2 u2 v1 + 2u3 v1 u1 v3 + 2u2 v3 u3 v2 )

= u21 v12 + u21 v22 + u21 v32 + u22 v12 + u22 v22 + u22 v32 + u23 v12 + u23 v22 + u23 v32

−(u21 v12 + u22 v22 + u23 v32 + 2u1 v2 u2 v1 + 2u3 v1 u1 v3 + 2u2 v3 u3 v2 )

= (u21 + u22 + u23 )(v12 + v22 + v32 ) − (u1 v1 + u2 v2 + u3 v3 )2

= ∥u∥2 ∥v∥2 − (u · v)2

de donde se sigue el resultado. 2

Geometrı́a de ∥u × v∥
Sea A el área del paralelogramo formado por u y v. Sea θ el ángulo entre los
vectores u y v y sea h el cateto opuesto de θ.
37

Gráfica

h
sin θ = ⇒ A = ∥u∥h = ∥u∥∥v∥ sin θ = ∥u × v∥
∥v∥

Ejemplo. Encuentre el área del triángulo determinado por los puntos P = (1, 2, 3),
Q = (−3, 2, 1) y R = (2, 4, 5).
−−→ −−→
Trasladando PQ y PR al origen, se obtienen los vectores u = Q−P = (−4, 0, −2)
y v = R − P = (1, 2, 2). Con esto
      
0 −2 −4 −2 −4 0
u × v = det   , −det   , det   = (4, 6, −8)
2 2 1 2 1 2

1 1√
⇒ A = ∥u × v∥ = 116 = 5.3851
2 2
Chapter 2

Matrices y Sistemas de Ecuaciones


Lineales

2.1 Sistema de Ecuaciónes Lineales


Ecuaciones lineales de cursos previos tales como

2x + y + z = 1

5x − y + 7z = 0

han sido resueltos vı́a eliminación sucesiva de variable.


A una ecuación del tipo

a1 x 1 + a2 x 2 + · · · + am x m = b

se le llama ecuación lineal en las variables x1 , x2 , . . . , xm . Es una generalización de la


ecuación ax1 + bx2 = c, que es la ecuación de una lı́nea recta en R2 , y de la ecuación
ax1 + bx2 + cx3 = d, que corresponde a un plano en R3
Note que la ecuación lineal no contiene términos producto de variables (p.e. x1 x2 ,
o x21 ), ni términos de funciones, distintas a la idéntica, de x (tales como cos(x1 ), ex1

38
CHAPTER 2. MATRICES Y SISTEMAS DE ECUACIONES LINEALES 39


o x1 ), solo las variables multiplicadas por un coeficiente escalar. Las siguientes
ecuaciones no son lineales.

3x1 − 5x1 x2 + 2x2 = 2, 3x − y 2 = 7

Un sistema de ecuaciones lineales (o sistema lineal) es un conjunto finito de ecua-


ciones lineales en n variables

a11 x1 + a12 x2 + · · · + a1n xn = b1

a21 x1 + a22 x2 + · · · + a2n xn = b2


.. (2.1)
.

am1 x1 + am2 x2 + · · · + amn xn = bm

Un vector(s1 , s2 , . . . , sn ), es una solución al sistema lineal (2.1) si satisface cualquier


ecuación (i.e. todas). Recuerde que el conjunto de soluciones a una ecuación lineal
es: una lı́nea recta en R2 , un plano en R3 y en general un hiperplano en Rn . Si un
sistema lineal no tiene solución, se dice que es inconsistente. Si dicho sistema tiene
al menos una solución, se dice que es consistente.
Ejemplos

a) El sistema,
2x + y +z =1
5x −y +7z = 0
se satisface con (−1, 2, 1) y con (1/7, 5/7, 0).

b) El sitema
x +y =0
x +y =1
es inconsistente.
CHAPTER 2. MATRICES Y SISTEMAS DE ECUACIONES LINEALES 40

2.2 Matrices y Operaciones con Matrices


Definición 2.2.1 Matriz. Una matriz A es un arreglo rectangular de números, con-
formado por m renglones (hileras) y n columnas, m, n ∈ N, denotado
   
a11 a12 a13 · · · a1n a a12 a13 · · · a1n
   11 
 a21 a22 a23 · · · a2n   a21 a22 a23 · · ·
   
a2n 
A= .. .. .. ..  ,
 ó A=  .. .. .. .. 

 . . . .   . . . . 
   
am1 am2 am3 · · · amn am1 am2 am3 · · · amn

Se abrevia A = [aij ], o A = (aij ), i = 1, 2, . . . , m y j = 1, 2, . . . , n, para indicar el


tamaño de la matriz, se escribe m An .

A aij se le llama ij-componente o ij-entrada. Las matrices se denotan con las


primeras letras mayúsculas del alfabeto A, B, C, etc. Cada hilera o renglón de la
matriz, es un vector en Rn , mientras que cada columna de la matriz, es un vector en
Rm . Si m = n se tiene una matriz cuadrada.
Ejemplos

a) Sean las siguientes tres matrices


 
    1 2 3
1 1 −2 1 −1  
A= , B= , C =  −1
 
5 0 
−1 4 −5 0 5  
2 −2 4

b) Un vector (x1 , x2 , . . . , xn ) es una matriz de tamaño 1 × n, tal que

(x1 x2 · · · xn )

c) Una matrix n × 1, es un vector columna


 
x
 1
 ..


 . 
 
xn
CHAPTER 2. MATRICES Y SISTEMAS DE ECUACIONES LINEALES 41

d) Un número real puede ser visto como una matriz 1 × 1.

e) Se define la matriz cero como una matriz de ceros


 
0 ··· 0
 .. .. 
 
 . . =0
 
0 ··· 0

f) Se define la matriz idéntica I2 , I3 , I4 ,... como


 
  1 0 ··· 0
  1 0 0  
1 ···
 
1 0    0 0 
I2 =  , I3 =  0 1 0  , ..., In = 
 
 .. .. ..

. ···

0 1    . . 
0 0 1  
0 0 ··· 1

Definición 2.2.2 Suma de Matrices y Multiplicación por un Escalar. Sea A = (aij )


y B = (bij ) dos matrices m × n. Se define la suma de A y B denotada A + B a la
matriz cuyo elemento ij-entrada es aij + bij

A + B = (aij + bij ), i = 1, 2, . . . , m; j = 1, 2, . . . , n

Si k es un número real, se define la multiplicación por un escalar k a la matriz A a


la nueva matriz kA = (kaij ), i = 1, 2, . . . , m, j = 1, 2, . . . , n.

Note que la diferencia de dos matrices A y B se obtiene

A − B = A + (−1)B = (aij − bij ), i = 1, 2, . . . , m; j = 1, 2, . . . , n

Ejemplos

a) Para las matrices A y B,


   
1 −1 0 5 1 −1
A= , B= 
2 3 4 2 1 −1
CHAPTER 2. MATRICES Y SISTEMAS DE ECUACIONES LINEALES 42

Se tiene
   
6 0 −1 −1 1 0
A+B = , −1A =  
4 4 3 −2 −3 −4
   
−4 −2 1 2 −2 0
A−B = , 2A =  
0 2 5 4 6 8

b) Determine C = 2A − B con las matrices


   
1 2 0 4
A= , B =  
−1 0 −1 0
         
1 2 0 4 2 4 0 4 2 0
2 − = − = 
−1 0 −1 0 −2 0 −1 0 −1 0

c) Si A y B son matrices 1×n, es decir son vectores en Rn , la suma A+B, coincide


con la suma de vectores; A = (a1 , a2 , . . . , an ) y B = (b1 , b2 , . . . , bn ),

A + B = (a1 + b1 , a2 + b2 , . . . , an + bn )

Mientras que si A y B son matrices n × 1, es decir son vectores en Rn , la suma


A + B coincide nuevamente con la suma de vectores;
     
a b a + b1
 1   1   1
 ..   ..  ..

A =  . , B =  .  ⇒ A + B = 
 
. 
     
an bn an + b n

d) Si m An = (aij ) y la matriz cero m 0n = (0ij ),

A+0=0+A=A

Definición 2.2.3 Multiplicacion de Matrices. Sean las matrices m An = (aij ) y


n Bs = (bjk ) tales que i = 1, 2, . . . , m, j = 1, 2, . . . , n y k = 1, 2, . . . , s, es decir
CHAPTER 2. MATRICES Y SISTEMAS DE ECUACIONES LINEALES 43

el número de columnas de A es igual al número de renglones de B. Se define el


producto de A con B, denotado AB, a la matriz m × s cuyo ik-componente es
n
X
aij bjk = ai1 b1k + ai2 b2k + · · · + ain bnk
j=1

Si A1 , . . . , Am son los vectores hilera de A, y si B 1 , . . . , B s son los vectores columna


de B; entonces si C = AB = (cik ) se tiene que cik = Ai · B k . De manera explı́cita se
tiene
     
a ··· a1n A b ··· b1s
 11   1  11
 .. ..   ..   .. .. 

1 s
A= . .  =  . , B= . .  = [B · · · B ]
     
am1 · · · amn Am bn1 · · · bns
 
A · B1 · · · A1 · B s
 1
.. .. 

C = AB =  .  = (cik )

.
 
Am · B 1 · · · Am · B s

Ejemplos

a) Sean A y B las matrices


 
    3 4
2 1 5 A   h i
A=  =  1 , B = −1 2 = B 1 B 2
 
1 3 2 A2  
2 1
 
  3 4
   
1 2
2 1 5   15 15 A · B A1 · B
AB =   −1 2 = 
  = 1 
1 3 2   4 12 A2 · B 1 A2 · B 2
2 1
CHAPTER 2. MATRICES Y SISTEMAS DE ECUACIONES LINEALES 44

Donde se tiene los productos punto de los vectores


 
3
 
A1 · B 1 = (2, 1, 5) −1 = 6 − 1 + 10 = 15
 
 
2
 
4
 
A1 · B 2 = (2, 1, 5) 2 = 8 + 2 + 5 = 15
 
 
1
 
3
 
1
A2 · B = (1, 3, 2) −1 = 3 − 3 + 4 = 4
 
 
2
 
4
 
A2 · B 2 = (1, 3, 2) 2 = 4 + 6 + 2 = 12
 
 
1

b) Sean A y B matrices de (a) y


 
1 3
D= 
−1 −1
   
3
4   −1 5
  1 3  
BD = −1 2 = −3 −5
    
  −1 −1  
2 1 1 5
 
  −1 5  
2 1 5    0 30
A(BD) =   −3 −5 = 
1 3 2   −8 0
1 5
Note que     
15 15 1 3 0 30
(AB)D =   = 
4 12 −1 1 −8 0
CHAPTER 2. MATRICES Y SISTEMAS DE ECUACIONES LINEALES 45

es decir, (AB)D = A(BD).

c) Sean las matrices A y B,


   
1 2 3 x
   
A = 4 5 6 , B = y 
   
   
7 8 9 z
    
1 2 3 x x + 2y + 3z
    
AB = 4 5 6 y  = 4x + 5y + 6z 
    
    
7 8 9 z 7x + 8y + 9z

d) Sean las matrices A y B,


 
  1 4
1 2  
A= , B = 2 0
 
3 4  
3 1

AB no existe, ya que no son conformables para la multiplicación, es decir, el


número de columnas de A no coincide con el número de renglones de B. Sin
embargo sı́ existe BA,
   
1 4   13 18
  1 2  
BA = 2 0 =2 4
  

  3 4  
3 1 6 10

e) Aun cuando A y B sean matrices cuadradas del mismo orden y por tanto con-
formables para la multiplicación, en general el producto de dos matrices no es
conmutativo, es decir no siempre AB = BA se cumple. Por ejemplo, sean
   
3 2 2 −1
A= , B= 
0 1 0 5
CHAPTER 2. MATRICES Y SISTEMAS DE ECUACIONES LINEALES 46

    
3 2 2 −1 6 7
AB =   = 
0 1 0 5 0 5
    
2 −1 3 2 6 3
BA =   = 
0 5 0 1 0 5

El sistema lineal (2.1) dado por

a11 x1 + a12 x2 + · · · + a1n xn = b1

a21 x1 + a22 x2 + · · · + a2n xn = b2


..
.

am1 x1 + am2 x2 + · · · + amn xn = bm

se puede escribir de manera compacta por

Ax = b (2.2)

representado por
      
a ··· a1n x a x + · · · + a1n xn b
 11  1   11 1   1
 .. ..   ..   ..   .. 

 . .   . = . = . 
       
am1 · · · amn xn am1 x1 + · · · + amn xn bm

Ejemplos

a) El sistema lineal
3x − 2y + 3z = 1
− x + 7y − 4z = −5
 
  x  
3 −2 3   1
A= , x = 
 y , b = 
 
−1 7 −4   −5
z
CHAPTER 2. MATRICES Y SISTEMAS DE ECUACIONES LINEALES 47

Por consiguiente, el sitema escrito en matrices es,


 
  x  
3 −2 3   1
Ax =   y = =b

−1 7 −4   −5
z

b)
x + 2z = 3
2x − 3y − 4z = −1
−y +z = 0
    
1 0 2 x 3
    
 2 −3 −4   y  =  −1 
    
    
0 −1 1 z 0

c)
x1 − 3x2 + x4 = 0
− x 2 + x3 − x4 = 0
 
x
  1   
1 −3 0
 
1  x2  0
  = 
0 −1 1 −1  x3 
 
0
 
x4

Teorema 2.2.1 Propiedades de Matrices. Sean A, B y C matrices y a y b escalares


en R. Suponga que las dimensiones de las matrices son tales que cada operación está
definida, entonces

a) A + B = B + A, propiedad conmutativa

b) A + (B + C) = (A + B) + C, propiedad asociativa

c) A + 0 = A
CHAPTER 2. MATRICES Y SISTEMAS DE ECUACIONES LINEALES 48

d) A + (−A) = 0

e) A(BC) = (AB)C, propiedad asociativa

f ) AI = A = IA

g) A(B + C) = AB + AC y (B + C)A = BA + CA, propiedad distributiva

h) a(B + C) = aB + aC, (a + b)C = aC + bC y (ab)C = a(bC)

i) A0 = 0A = 0 y a0 = 0

j) a(AB) = (aA)B = A(aB)

2.3 Eliminación de Gauss y Solución del Sistema


Lineal
Operaciones Elementales

a) Multiplique una ecuacion del sistema, por un escalar ̸= 0

b) Intercambie la posición de dos ecuaciones del sistema

c) Reemplace una ecuación por la suma de dicha ecuación y un múltiplo de otra


ecuación, del sistema.

Realizando cualquier sucesión finita de operaciones elementales en un sistema de


ecuaciones lineales, se obtiene un sistema equivalente, que tiene el mismo conjunto
de soluciones.

Teorema 2.3.1 Si cualquiera una de las tres operciones elementales es realizado en


un sistema de ecuaciones lineales dado, se obtiene un sistema lineal equivalente.
CHAPTER 2. MATRICES Y SISTEMAS DE ECUACIONES LINEALES 49

Ejemplo

−y +z = 3 x − y −z = 0
x − y −z = 0 ⇒ −y +z = 3
−x − z = −3 −x − z = −3
h1 ↔ h2 h3 → h1 + h3

x −y −z = 0 x −y −z = 0
⇒ −y +z = 3 ⇒ y − z = −3
− y − 2z = −3 − y − 2z = −3
h2 → −1h2 h1 → h2 + h1
h3 → h2 + h3

x − 2z = −3 x − 2z = −3 x =1
⇒ y − z = −3 ⇒ y − z = −3 ⇒ y = −1
− 3z = −6 z =2 z =2
h3 → − 31 h3 h1 → 2h3 + h1
h2 → h3 + h2

Por consiguiente, el vector (1, −1, 2), es la solución del sistema lineal

−y +z = 3
x − y −z = 0
−x − z = −3

que representa el punto de intersección de los tres planos. Note que

− (−1) + 2 = 3
1 − (−1) − 2 = 0
−1 − 2 = −3
CHAPTER 2. MATRICES Y SISTEMAS DE ECUACIONES LINEALES 50

Ejemplo

x1 + 3x3 + x4 = 0 x1 + 3x3 + x4 = 0
− x1 + 2x2 + x3 + x 4 = 0 ⇒ 2x2 + 4x3 + 2x4 = 0
− x1 + x2 − x3 =0 x2 + 2x3 + x4 = 0
h2 → h1 + h2 h2 → 12 h2
h3 → h1 + h3

x1 + 3x3 + x4 = 0 x1 + 3x3 + x4 = 0
⇒ x2 + 2x3 + x4 = 0 ⇒ x2 + 2x3 + x4 = 0
x2 + 2x3 + x4 = 0 0 =0
h3 → −h2 + h3

x1 + 3x3 + x4 = 0 x1 = − 3x3 − x4
⇒ ⇒
x2 + 2x3 + x4 = 0 x2 = − 2x3 − x4
Sea x3 = s y x4 = t y con esto se tiene una familia de (infinitas) soluciones, de dos
parámetros,

x1 = −3s − t

x2 = −2s − t

x3 = s

x4 = t

que en forma de vector es (−3s − t, −2s − t, s, t), donde s y t, son cualquier par de
números (son arbitrarios) reales. Por ejemplo
Si s = 0 y t = 0 una solución es (0, 0, 0, 0)
Si s = 0 y t = 1 una solución es (−1, −1, 0, 1)
Si s = 1 y t = 1 una solución es (−4, −3, 1, 1)
CHAPTER 2. MATRICES Y SISTEMAS DE ECUACIONES LINEALES 51

Note que

(−3s − t, −2s − t, s, t) = (−3s, −2s, s, 0) + (−t, −t, 0, t)

= s(−3, −2, 1, 0) + t(−1, −1, 0, 1)

lo que permite expresar cualquier solución como

x = s(−3, −2, 1, 0) + t(−1, −1, 0, 1)

donde x = (x1 , x2 , x3 , x4 ), con tal representación, es el plano en R4 , determinado por


los vectores (−3, −2, 1, 0) y (−1, −1, 0, 1).

Definición 2.3.1 Matriz Aumentada. Dado el sistema lineal (2.1) representado en


(2.2) de manera compacta como Ax = b donde m An , n x1 y m b1 , se define a la matriz
aumentada como
   
a a12 · · · a1n b1 a a12 · · · a1n b1
 11   11 
 a21 a22 · · ·   a21 a22 · · ·
   
a2n b2 a2n b2 
[A|b] = 
 .. .. .. ..
=
  .. .. .. .. 

 . . . .   . . . .
   
am1 am2 · · · amn bm am1 am2 · · · amn bm

Ejemplo. Considere el sistema


 
−y +z = 3 0 −1 1
 
x − y −z = 0 ⇒ A= 1 −1 −1 
 
 
−x − z = −3 −1 0 −1
   
0 −1 1 0 −1
3 1 3
   
⇒ [A|b] =  1 −1 −1 0  =  1 −1 −1
   
0 
   
−1 0 −1 −3 −1 0 −1 −3

Definición 2.3.2 Operaciones Elementales por renglón (hilera)de una matriz.


CHAPTER 2. MATRICES Y SISTEMAS DE ECUACIONES LINEALES 52

a) Multiplicación del i-ésimo renglón por k ∈ R, k ̸= 0

Ri −→ k Ri

b) Intercambio de posición de dos renglones i con i′ ,

Ri ←→ Ri′

c) Reemplazo del renglón i por k veces el renglón i′ mas el renglón i

Ri −→ k Ri′ + Ri

Realizar las operaciones elementales a la matriz aumentada de un sistema lineal,


tiene el mismo efecto que realizar las operaciones elementales análogas al sistema
mismo. Via operaciones elementales por renglón, se espera simplificar el sistema tal
que se facilite encontrar las soluciones.

Definición 2.3.3 Equivalencia por Renglón. Se dice que dos matrices son equiva-
lentes por renglón, si una se puede obtener de la otra, a través de una sucesión finita
de operaciones elementales por renglón.

Teorema 2.3.2 Si dos matrices aumentadas son equivalentes por renglón, entonces
los correspondientes sistemas lineales son equivalentes y ambos sitemas tienen la
misma solución.

Ejemplo. Del ejemplo anterior sea el sistema y matriz aumentada


 
−y +z = 3 0 −1 1 3
 
x − y −z = 0 ⇒ [A|b] =  1 −1 −1
 
0 
 
−x − z = −3 −1 0 −1 −3
CHAPTER 2. MATRICES Y SISTEMAS DE ECUACIONES LINEALES 53

Por consiguiente
     
0 −1 1 3 1 −1 −1 1 −1 −1
0 0
     
 1 −1 −1 ⇒ 0 −1 3 ⇒ 0 1 −1 −3
     
0 1 
     
−1 0 −1 −3 −1 0 −1 −3 0 −1 −2 −3
R1 ↔ R2 R3 → R1 + R3 R1 → R2 + R1
R2 → −1R2 R3 → R2 + R3
     
1 0 −2 −3 1 0 −2 −3 1 0 0 1
     
⇒  0 1 −1 −3  ⇒  0 1 −1 −3  ⇒  0 1 0 −1 
     
     
0 0 −3 −6 0 0 1 2 0 0 1 2
R3 → − 31 R3 R1 → 2R3 + R1
R2 → R3 + R2
Se obtiene la matriz aumentada del sistema lineal equivalente

x = 1
y = −1
z = 2
Como se vió anteriormente, el sistema tiene una solución única, dada por el vector
(1, −1, 2).
Ejemplo. Resuelva el sistema
x3 + 2x4 = 3
2x1 + 4x2 − 2x3 =4
2x1 + 4x2− x3 + 2x4 = 7
   
0 0 1 2 3 2 4 −2 0 4
   
 2 4 −2 0 4  ⇒  0 0
   
1 2 3 
   
2 4 −1 2 7 2 4 −1 2 7
R1 ↔ R2 R3 → −R1 + R3
R1 → 21 R1
CHAPTER 2. MATRICES Y SISTEMAS DE ECUACIONES LINEALES 54

   
1 2 −1 0 2 1 2 0 2 5
   
⇒ 0 0 ⇒ 0 0 1 2 3 
   
1 2 3
   
0 0 1 2 3 0 0 0 0 0
R1 → R2 + R1
R3 → −R2 + R3
Se tiene el sistema lineal equivalente y solución

x1 + 2x2 + 2x4 = 5 x1 = 5 − 2x2 − 2x4



x3 + 2x4 = 3 x3 = 3 − 2x4

Sean los parámetros x2 = s y x4 = t. Las infinitas soluciones del sistema, se repre-


sentan como;

(5 − 2s − 2t, s, 3 − 2t, t) = (5, 0, 3, 0) + s(−2, 1, 0, 0) + t(−2, 0, −2, 1)

Ejemplo. Resuelva el sistema

x1 + x3 = 1
x2 − x3 = −1
2x1 + x2 + x3 = 2
     
1 0 1 1 1 0 1 1 1 0 1 1
     
 0 1 −1 −1  ⇒  0 1 −1 −1  ⇒  0 1 −1 −1
     

     
2 1 1 2 0 1 −1 0 0 0 0 1
R3 → −2R1 + R3 R3 → −R2 + R3
La matriz aumentada del sistema serı́a:

x1 + x3 = 1
x2 − x3 = −1
0x1 + 0x2 + 0x3 = 1
CHAPTER 2. MATRICES Y SISTEMAS DE ECUACIONES LINEALES 55

Como la tercera ecuación del sistema equivalente 0x1 + 0x2 + 0x3 = 1 implica 0 = 1,
no existen (x1 , x2 , x3 ) que satisfagan al sistema lineal dado, no hay solución, es decir,
el sistema es inconsistente.

Definición 2.3.4 Matriz Escalonada Reducida por Renglón. Una matriz está en
forma reducida escalonada por renglón si satisface las condiciones siguientes:

a) En cada renglón que no consiste completamente de ceros, el primer componente


no nulo, es un uno, llamado guı́a 1.

b) En cada columna que contiene un guı́a 1 de algún renglón, tiene como todos sus
otros componentes, ceros.

c) En cualesquiera dos renglones con algunos componentes no nulos, el guı́a 1 del


renglón superior, está ubicado a la izquierda.

d) Cualquier renglón que contiene únicamente ceros, está más al inferior que cualquier
renglón con componentes no nulos.

Ejemplos

a) Las siguientes matrices aumentadas están en forma escalonada reducida por


renglón.
     
1 0 0 1 1 2 0 2 5 1 0 3 1 0
     
 0 1 0 −1  ,  0 0 1 2 3 ,  0 1 2 1 0
     

     
0 0 1 2 0 0 0 0 0 0 0 0 0 0

Tales matrices son resultados de ejemplos anteriores.


CHAPTER 2. MATRICES Y SISTEMAS DE ECUACIONES LINEALES 56

b) Las siguientes matrices están en forma escalonada reducida por renglón,


 
    1 0 0 0 −2 4
1 0 0 0 1 2 0 −1 0  
     0 1 0 0

4 8 

    
 0 1 0 0   0 0 1 2 1   
 ,  ,  0 0 0 1 7 2 

    
 0 0 1 0   0 0 0 0 0   

     0 0 0 0 0 0 
0 0 0 1 0 0 0 0 0  
0 0 0 0 0 0

c) Las siguientes matrices no están en forma escalonada reducida por renglón,


   
1 1 0 1 0 0    
    1 0 0 0 0
(a)  0 1 0  , (b)  0 0 1  , (c)   , (d) 
    
    0 2 1 0 0
0 0 1 0 1 0

Las matrices no cumplen los siguientes incisos de la definición:

(a) no se cumple (b),

(b) no se cumple (c),

(c) no se cumple (a),

(a) no se cumple (d).

2.4 Procedimiento de Eliminacion Gauss-Jordan


Dado un sistema lineal Ax = b, el objetivo principal del procedimiento, llamdo
eliminación de Gauss-Jordan, es transformar la matriz aumentada [A|b] del sistema
original, via operaciones elementales por renglón, a otra matriz en la forma escalonada
reducida por renglón, con el objeto de encontrar la solución en el sistema equivalente.

Ejemplo. Considerando el siguiente sistema lineal, resuelto ya con eliminacion


CHAPTER 2. MATRICES Y SISTEMAS DE ECUACIONES LINEALES 57

de Gauss,
x3 + 2x4 = 3
2x1 + 4x2 − 2x3 =4
2x1 + 4x2 − x3 + 2x4 = 7
Se obtuvieron las matrices siguietes:
   
0 0 1 2 3 1 2 0 2 5
   
 2 4 −2 0 4  ⇒ · · · ⇒
   
 0 0 1 2 3 
   
2 4 −1 2 7 0 0 0 0 0

nótese que la 2a matriz está en su forma escalonada reducida por renglón. El sistema
lineal asociado a ésta última matriz condujo a la familia de soluciones (infinitas)
representadas por dos parámetros, por el vector (5 − 2s − t, s, 3 − 2t, t). Es decir, se
ha aplicado, implı́citamente, el método de eliminación de Gauss-Jordan.

Ejemplo. Usando eliminación de Gauus-Jordan en el siguiente sistema,

x1 + 2x2 =1
x1 + 2x2 + 3x3 + x4 = 0
− x1 − x2 + x3 + x4 = −2
x2 + x3 + x4 = −1
− x2 + 2x3 =0
     
1 2 0 0 1 1 2 0 0 1 1 2 0 0 1
     
 1 2 3 1 0  0 0 3 1 −1   0 1 1 1 −1 
     

     
 −1 −1 1 1 −2  ⇒  1 1 −1  ⇒  0 3 1 −1 
     
0 1 0
     
1 1 1 −1 1 1 −1  1 1 −1 
     
 0   0 1  0 1
     
0 −1 2 0 0 0 −1 2 0 0 0 −1 2 0 0
R2 → −R1 + R2 R2 ↔ R3 R4 → −R2 + R4
R3 → R1 + R3 R5 → R2 + R5
CHAPTER 2. MATRICES Y SISTEMAS DE ECUACIONES LINEALES 58

     
1 2 0 0 1 1 0 −2 −2 3 1 0 0 −4/3 7/3
     
 0 1 1 1 −1   0 1 1 1 −1  0 1 0 2/3 −2/3 
     

     
⇒ 0 0 3 1 −1 ⇒ 1 1/3 −1/3 ⇒ 1/3 −1/3 
     
  0 0   0 0 1
     
−1 
     
 0 0 0 0 0   0 0 3 1  0 0 0 0 0 
     
0 0 3 1 −1 0 0 0 0 0 0 0 0 0 0
R1 → −2R2 + R1 R1 → 2R3 + R1
R3 → 31 R3 R2 → −R3 + R2
R4 ↔ R5 R4 → −3R3 + R4
La matriz última obtenida, es la matris escalonada reducida por renglón de la matriz
aumentada, la cual tiene el siguiente sistema lineal correspondiente;

x1 − 34 x4 = 7
3
x1 = 7
3
+ 43 x4
x2 + 23 x4 = − 23 ⇒ x2 = − 23 − 32 x4
x3 + 13 x4 = − 13 x3 = − 13 − 31 x4

Sea x4 = s, se obtiene una familia de soluciones de un parámetro


     
7 4 2 2 1 1 7 2 1 4 2 1
+ s, − − s, − − s, s = ,− ,− ,0 + s ,− ,− ,1
3 3 3 3 3 3 3 3 3 3 3 3

Teorema 2.4.1

a) Cualquier matriz puede ser transformada, vı́a una sucesión finita de operaciones
elementales por renglón, a otra matriz que está en forma escalonada reducida
por renglón.

b) La forma escalonada reducida por renglón equivalente a una matriz, es única.

2.5 Inversa de una Matriz


Si se tiene ax = b, a ̸= 0 ⇒ x = a−1 b.
CHAPTER 2. MATRICES Y SISTEMAS DE ECUACIONES LINEALES 59

El inverso multiplicativo de un número a es un número b tal que ab = 1. Si se


tiene al sistema lineal Ax = b, se desea saber si existe, como en el caso anterior, algo
como A−1 tal que se tenga la ”solución” x = A−1 b.
La respuesta es parcial, en el sentido que que solo para algunos casos existe la
inversa de la matriz A.

Definición 2.5.1 Inversa de una Matriz. Sea una matriz cuadrada A n × n. Si


existe una matriz B tal que AB = BA = I, entonces se dice que B es la inversa de
A denotada B = A−1 ; y se dice que A es invertible o no singular.

Ejemplos

a) Considere las matrices


   
2 −1 1/2 1/2
A= , B= 
0 1 0 1
    
2 −1 1/2 1/2 1 0
AB =   = 
0 1 0 1 0 1
    
1/2 1/2 2 −1 1 0
BA =   = 
0 1 0 1 0 1

a) Considere las matrices


   
1 1 0 1 0 1
  1 
A= 1 0 1 , B= 1 0 −1 
   
2

  
1 −1 0 −1 2 −1
     
1 1 0 1 0 1 2 0 0
  1  1 
AB =  1 0 1   1 0 −1  =  0 2 0  = I3
     
  2  2 
1 −1 0 −1 2 −1 0 0 2
CHAPTER 2. MATRICES Y SISTEMAS DE ECUACIONES LINEALES 60

    
1 0 1 1 1 0 2 0 0
1   1 
BA =  1 0 −1   1 0 1 =  0 2 0  = I3
    
2   2 
−1 2 −1 1 −1 0 0 0 2

Lema 2.5.1 Si A es una matriz invertible, entonces su inversa A−1 , es única.

Demostración. Suponga que B y C son dos inversas de A. Entonces

B = BI = B(AC) = (BA)C = IC = C 2

Si A es invertible, se usa el siguiente procedimiento para obtener su inversa. Sea A


una matriz cuadrada n×n y sea la matriz idéntica In . Considere la matriz aumentada
[A|I] y transfórmela a la matriz en forma escalonada reducida por renglón denotándola
[C|D]. Entonces:

a) Si C es la matriz idéntica, entonces A−1 = D,

b) Si C no es la idéntica (por tener algún renglón con puros ceros), entonces A no


es invertible.

Ejemplos

a) Sea la matriz  
2 −1
A= 
0 1
     
2 −1 1 0 1 −1/2 1/2 0 1 0 1/2 1/2
 ⇒ ⇒  = [C|D]
0 1 0 1 0 1 0 1 0 1 0 1
R1 → 21 R1 R1 → 12 R2 + R1

Como C = I, entonces A−1 = D.


CHAPTER 2. MATRICES Y SISTEMAS DE ECUACIONES LINEALES 61

b) Considere a la matriz  
1 1 0
 
A= 1
 
0 1 
 
1 −1 0
     
1 1 0 1 0 0 1 1 0 1 0 0 1 0 1 0 1 0
     
0 1 0 1 0  ⇒  0 −1 1 −1 1 0  ⇒  0 1 −1 1 −1 0
     
 1 
     
1 −1 0 0 0 1 0 −2 0 −1 0 1 0 0 −2 1 −2 1
R2 → −R1 + R2 R1 → R2 + R1 R3 → − 12 R3
R3 → −R1 + R3 R3 → −2R2 + R3
R2 → −R2
   
1 0 1 0 1 0 1 0 0 1/2 0 1/2
   
⇒  0 1 −1 1 −1 0 ⇒ 0 1 0 1/2 0 −1/2 
   
   
0 0 1 −1/2 1 −1/2 0 0 1 −1/2 1 −1/2
R1 → −R3 + R1
R2 → R3 + R2

Como C = I, se tiene que A−1 = D,


   
1/2 0 1/2 1 0 1
  1 
A−1 =  1/2 0 −1/2  =  1 0 −1 
   
  2 
−1/2 1 −1/2 −1 2 −1

c) verifique si la siguiente matriz es invertible


 
1 0 1 1
 
 
 0 0 1 0 
A= 


 1 1 1 0 
 
1 0 0 2
CHAPTER 2. MATRICES Y SISTEMAS DE ECUACIONES LINEALES 62

   
1 0 1 1 1 0 0 0 1 0 1 1 1 0 0 0
   
   
 0 0 1 0 0 1 0 0   0 0 1 0 0 1 0 0 
 ⇒ 
0 −1 −1
   
 1 1 1 0 0 0 1 0   0 1 0 1 0 
   
1 0 0 2 0 0 0 1 0 0 −1 1 −1 0 0 1
R3 → −R1 + R3 R2 ↔ R3
R4 → −R1 + R4
   
1 0 1 1 1 0 0 0 1 0 0 1 1 −1 0 0
   
0 −1 −1 0 −1 −1
   
 0 1 0 1 0   0 1 0 1 0 
⇒

⇒
 


 0 0 1 0 0 1 0 0   0 0 1 0 0 1 0 0 
   
0 0 −1 1 −1 0 0 1 0 0 0 1 −1 1 0 1
R1 → −R3 + R1 R1 → −R4 + R1
R4 → R3 + R4 R2 → R4 + R2
   
1 0 0 0 2 −2 0 −1 2 −2 0 −1
   
0 0 −2  −2
   
 0 1 1 1 1  1 1 1 
⇒  ⇒ A−1 =
 
  
 0 0 1 0 0 1 0 0   0 1 0 0 
   
0 0 0 1 −1 1 0 1 −1 1 0 1

d) ¿ Existe la inversa para la matriz siguiente ?


 
1 0 1
 
A =  0 1 −1
 

 
2 1 1
     
1 0 1 1 0 0 1 0 1 1 0 0 1 0 1 1 0 0
     
 0 1 −1 0 1 0  ⇒  0 1 −1 0 1 0  ⇒  0 1 −1
     
0 1 0 
     
2 1 1 0 0 1 0 1 −1 −2 0 1 0 0 0 −2 −1 1
R3 → −2R1 + R3 R3 → −R2 + R3 R3 → − 12 R3
CHAPTER 2. MATRICES Y SISTEMAS DE ECUACIONES LINEALES 63

   
1 0 1 1 0 0 1 0 1 0 −1/2 1/2
   
⇒  0 1 −1 0  ⇒  0 1 −1 0
   
1 0 1 0 
   
0 0 0 1 1/2 −1/2 0 0 0 1 1/2 −1/2
R1 → −R3 + R1
Note que la matriz C ̸= I3 , por consiguiente A no es invertible.

Si el sistema lineal de n ecuaciones con n variables

Ax = b

es tal que su matriz asociada n An es no singular, es decir, es invertible, entonces la


solución es
x = A−1 b

Ejemplos

a) Resuelva el sistema
    
x1 + x2 =2 1 1 0 x 2
  1   
= 1 ⇒ Ax =  1 0 1   x2  =  1 
    
x1 + x3
    
x1 − x2 =3 1 −1 0 x3 3

Note que la matriz A es del ejemplo (b) anterior donde ya se obtuvo A−1 . Con
esto,
      
1/2 0 1/2 2 2/2 + 3/2 5/2
      
−1
x=A b= 1/2 0 −1/2   1  =  2/2 − 3/2  =  −1/2 
      
      
−1/2 1 −1/2 3 −2/2 + 1 − 3/2 −3/2

Note que la solución satisfacen las tres ecuaciones del sistema

5/2 +(−1/2) =2
5/2 −3/2 = 1
5/2 −(−1/2) =3
CHAPTER 2. MATRICES Y SISTEMAS DE ECUACIONES LINEALES 64

b) Verifique si en el sistema lineal siguiente, se puede resolver por la matriz inversa.


    
x1 + x3 + x4 = 2 1 0 1 1 x1 2
    
    
+ x3 =1  0 0 1 0   x2   1 
⇒ Ax =   

 = 
  
x1 x2 + x3 =4  1 1 1 0   x3   4 
    
x1 + 2x4 = 3 1 0 0 2 x4 3
La matriz A es del Ejemplo anterior (c), donde se obtuvo A−1 . Por consiguiente,
      
2 −2 0 −1 2 4−2−3 −1
      
−2 −4 + 1 + 4 + 3
      
−1
 1 1 1   1     4 
x=A b= 
  = 
   
=
  

 0 1 0 0  4   1   1 
      
−1 1 0 1 3 −2 + 1 + 3 2

c) Examine si la matriz del sistema lineal siguiente, es invertible. Si fuera el caso,


resuelva con la inversa.
    
x1 + x3 = 2 1 0 1 x 2
  1   
x1 − x2 = −1 ⇒ Ax =  1 −1 0   x2  =  −1 
    
    
2x2 + x3 =1 0 2 1 x3 1
   
1 0 1 1 0 0 1 0 1 1 0 0
   
 1 −1 0 0 1 0  ⇒  0 −1 −1 −1 1 0 
   
   
0 2 1 0 0 1 0 2 1 0 0 1
R2 → −R1 + R2 R3 → 2R2 + R3
R2 → −R2
   
1 0 1 1 0 0 1 0 0 −1 2 1
   
⇒ 0 1 1 −1 0  ⇒  0 1 0 −1
   
1 1 1 
   
0 0 −1 −2 2 1 0 0 1 2 −2 −1
R1 → R3 + R1
R2 → R3 + R2
R3 → −R3
CHAPTER 2. MATRICES Y SISTEMAS DE ECUACIONES LINEALES 65

    
−1 2 1 2 −3
    
x = A−1 b =  −1   −1  =  −2 
    
1 1
    
2 −2 −1 1 5

2.6 Solución General al Sistema Lineal


Se llama sistema lineal homogéneo al sitema

Ax = 0

y se llama sistema lineal no homogéneo, al sistema Ax = b, con b ̸= 0.


Note que x = 0 es tal que A0 = 0, el sistema homogéneo es consistente, ya que
siempre tiene la solución x = 0, llamada solución trivial. Cualquier otra solución
distinta se llama solución no trivial.

Definición 2.6.1 Rango de una Matriz. Se define el rango de una matriz A, al


número de renglones no nulos en la matriz equivalente escalonada reducida por renglón,
denotado rango(A) o r(A).

Ejemplos

a) Sea la matriz siguiente de un ejemplo anterior


 
1 1 0
 
A= 1
 
0 1 
 
1 −1 0

Ya se obtuvo la inversa de ésta matriz. Repitiendo las operaciones elementales


CHAPTER 2. MATRICES Y SISTEMAS DE ECUACIONES LINEALES 66

realizadas para ello, se obtiene la matriz escalonada reducida por renglón.


     
1 1 0 1 1 0 1 0 1
     
0 1  ⇒  0 −1 1  ⇒  0 1 −1 
     
 1
     
1 −1 0 0 −2 0 0 0 −2
R2 → −R1 + R2 R1 → R2 + R1 R3 → − 21 R3
R3 → −R1 + R3 R3 → −2R2 + R3
R2 → −R2
   
1 0 1 1 0 0
   
⇒  0 1 −1  ⇒  0 1 0  ⇒ rango(A) = 3
   
   
0 0 1 0 0 1
R1 → −R3 + R1
R2 → R3 + R2

b) Determine el rango de la matriz siguiente


 
1 −1 2 1
 
A= 0 1 1 −2 
 
 
1 −3 0 5
Se obtiene la matriz escalonada reducida por renglón de A.
     
1 −1 2 1 1 0 3 −1 1 0 3 −1
     
1 1 −2 ⇒ 1 −2 ⇒ 0 1 1 −2 
     
 0   0 1  
     
1 −3 0 5 0 −2 −2 4 0 0 0 0
R3 → −R1 + R3 R3 → 2R2 + R3
R1 → −R2 + R1

Por consiguiente rango(A) = 2.

Considere el sistema lineal

Ax = b, rango(A) = p, rango[A|b] = q
CHAPTER 2. MATRICES Y SISTEMAS DE ECUACIONES LINEALES 67

Note que p ≤ q.

Teorema 2.6.1 Sea el sistema lineal Ax = b, donde A es una matriz m × n,


rango(A) = p, rango[A|b] = q. Entonces el sistema lineal es tal que,

a) no tiene solución si p < q,

b) tiene solución única si p = q = n,

c) tiene infinitamente muchas soluciones si p = q < n.

Demostración

a) Si p < q, entonces en la matriz en forma escalonada reducida por renglón de


la matriz [A|b], existe un renglón que se lee [0 0 · · · 0|1], que corresponde a una
ecuación 0 = 1, y con esto, el sistema lineal es inconsistente. Por consiguiente
no hay solución.

b) Si p = q = n, después de eliminar los renglones con puros ceros en la matriz en


forma escalonada reducida por renglón de la matriz [A|b], se tiene el siguiente
sistema equivalente
x1 = d1
x2 = d2
...

xn = d n
el cual tiene solución única dada por (d1 , d2 , . . . , dn ).

c) Si p = q < n, después de descartar los renglones con puros ceros en la matriz


en forma escalonada reducida por renglón de la matriz [A|b], se tiene el sistema
CHAPTER 2. MATRICES Y SISTEMAS DE ECUACIONES LINEALES 68

equivalente,

x1 + c1,p+1 xp+1 + · · · + c1n xn = d1


x2 + c2,p+1 xp+1 + · · · + c2n xn = d2
... .. ..
. .
xp + cp,p+1 xp+1 + · · · + cpn xn = dp
Se tiene ası́ infinitas soluciones con n − p parámetros asociados a las variables
xp+1 , xp+2 , . . . , xn , respectivamente. Note que si xp+1 = t, xp+2 = · · · = xn = 0,
se obtiene la solución

(d1 − c1,p+1 t, d2 − c2,p+1 t, . . . , dp − cp,p+1 t, t, 0, . . . , 0)

lo que permite concluye el resultado. 2

Corolario 2.6.1 El Sistema lineal homogéneo Ax = 0, donde A es una matriz m×n,


tiene,

a) una solución única, la solución trivial, si rango(A) = n,

b) infinitamente muchas soluciones si rango(A) < n,

Corolario 2.6.2 El Sistema lineal homogéneo Ax = 0, con más incógnitas que ecua-
ciones, tiene infinitamente muchas soluciones.

Teorema 2.6.2 Si A es una matriz cuadrada n × n, las siguientes condiciones son


equivalentes,

a) A es invertible (es no singular),

b) rango(A) = n,

c) Ax = b tiene una solución única

d) Ax = 0 tiene sólo la solución trivial,

e) la matriz en forma escalonada reducida de A es la matriz idéntica In .


Chapter 3

Determinantes

Definición 3.0.1 Submatriz Aij . Para una matriz m An se defina la submatriz Aij
como la (sub)matriz que se obtiene al borrar el renglón i y la columna j de A.

Ejemplo. Sea  
1 1 0 2  



 1 1 2
2 1 1 1  
A=  ⇒ A23 = 3 0 −1


0 0 −1
 
3  
  1 1 1
1 1 2 1

Definición 3.0.2 Determinante. Sea la matriz n An = (aij ). Se define el determi-


nante de A, denotado det(A) o |A|, como

a) Si n = 1, det(A) = a11

b) Si n = 2, det(A) = a11 a22 − a12 a21

c) Si n > 2

det(A) = a11 det(A11 ) − a12 det(A12 ) + · · · + (−1)1+n a1n det(A1n )


n
X
= (−1)1+j a1j det(A1j )
j=1

69
CHAPTER 3. DETERMINANTES 70

Note que para n ≤ 2 se tiene una definición explı́cita; mientras que para n > 2,
la definición es recursiva.
Ejemplos

a) Sean las matrices    


2 1 −2 −3
A= , B= 
1 4 4 5

|A| = det(A) = 2(4) − 1(1) = 7

|B| = −2(5) − (−3)(4) = −10 + 12 = 2

b) Sea  
2 1 −3
 
A = −3 −2 0 
 
 
2 1 2

|A| = a11 |A11 | − a12 |A12 | + a13 |A13 |



−2 0 −3 0 −3 −2

= 2 −1 + (−3)

1 2 2 2 2 1

= 2[−2(2) − 0(1)] − 1[−3(2) − 0(2)] − 3[−3(1) − (−2)(2)]

= −8 + 6 − 3 = −5

Retornando a la definición del determinante, considere


 
a a a
 11 12 13 
A = a21 a22 a23 
 
 
a31 a32 a33
CHAPTER 3. DETERMINANTES 71



a22 a23 a21 a23 a21 a22
|A| = a11

− a12

+ a13


a32 a33 a31 a33 a31 a32

= a11 (a22 a33 − a23 a32 ) − a12 (a21 a33 − a23 a31 ) + a13 (a21 a32 − a22 a31 )

= a11 a22 a33 + a12 a23 a31 + a13 a21 a32 − a11 a23 a32 − a12 a21 a33 − a13 a22 a31

Considere ahora el siguiente patrón de signos


 
+ − +
 
A = − + −
 
 
+ − +

y representando la definición de determinante, expandiendo la segunda hilera en vez


de la primera,


a12 a13 a11 a13 a11 a12
Expansión = −a21 + a22

− a23



a32 a33 a31 a33 a31 a32

= −a21 (a12 a33 − a13 a32 ) + a22 (a11 a33 − a13 a31 ) − a23 (a11 a32 − a12 a31 )

= a11 a22 a33 + a12 a23 a31 + a13 a21 a32 − a11 a23 a32 − a12 a21 a33 − a13 a22 a31

= |A|

Se puede ver tambión que representando la definición de determinante, expandi-


endo una columna con el citado patrón de signos, por ejemplo la primera, se tiene


a22 a23 a12 a13 a12 a13
Expansión = a11 − a21 + a31


a32 a33 a32 a33 a22 a23

= a11 (a22 a33 − a23 a32 ) − a21 (a12 a33 − a13 a32 ) + a31 (a12 a23 − a13 a22 )

= a11 a22 a33 + a12 a23 a31 + a13 a21 a32 − a11 a23 a32 − a12 a21 a33 − a13 a22 a31

= |A|

Por lo anterior se tiene que en la definición de determinante, se puede usar


cualquier rengón o cualquier columna.
CHAPTER 3. DETERMINANTES 72

Definición 3.0.3 Menores y Cofactores. Considere la matriz n An y sea Aij la sub-


matriz de A. Entonces

a) se define el menor Mij de A al determinante Mij = |Aij |,

b) se define el cofactor Cij de A a Cij = (−1)i+j |Aij | = (−1)i+j Mij .

Ejemplo. Sea la matriz  


2 −2 1 1
 
 
1 3 3 2
A=



1 0 9 1
 
3 4 2 0
Determine el menor M23 y el cofactor C23 de A.

2 −2 1

−2 2 −2

1
M23 = |A23 | = 1 0 1 = −1 − 1 = 4 − 14 = −10





4 0 3 4
3 4 0

C23 = (−1)2+3 M23 = −(−10) = 10

De acuerdo a lo anterior, se puede escribir la definición de detrminante de una


matriz como una expansión de cofactores,

det(A) = a11 [(−1)1+1 det(A11 )] + a12 [(−1)1+2 det(A12 )] + · · · + a1n [(−1)1+n det(A1n )]
n
X
= a1j C1j
j=1

El siguiente resultado indica que la expansión via cofactores a través de cualquier


renglón o de cualquier columna de una matriz cuadrada, produce el determinante de
dicha matriz.
CHAPTER 3. DETERMINANTES 73

Teorema 3.0.1 Sea una matriz n An , n ≥ 2. Sean la hilera i y la columna j de A;


entonces para la hilera i,

|A| = ai1 [(−1)i+1 det(Ai1 )] + ai2 [(−1)i+2 det(Ai2 )] + · · · + ain [(−1)i+n det(Ain )]
n
X
= aij Cij
j=1

o para la columna j,

|A| = a1j [(−1)1+j det(A1j )] + a2j [(−1)2+j det(A2j )] + · · · + anj [(−1)n+j det(Anj )]
n
X
= aij Cij
i=1

Ejemplo. Sea la matriz  


2 1 −3 1
 
−3 −2 0
 
2
 
0 −1
 
2 1
 
1 0 1 2
CHAPTER 3. DETERMINANTES 74

Expandiendo la 4a hilera
4
X
|A| = a4j C4j
j=1

= a41 [(−1)4+1 det(A41 )] + a42 [(−1)4+2 det(A42 )]

a43 [(−1)4+3 det(A43 )] + a44 [(−1)4+4 det(A44 )]



1 −3 1 2 1 1 2 1 −3


= −1 −2 0 2 − 1 −3 −2 2 + 2 −3 −2 0


0 −1 1 −1

1 2 2 1 0
   
−3 1 1 −3

1 1 2 1 2 1
= −1 1

−1

− 1 2
 
− 1

− 1

−2 0 −2 2 −3 2 −3 −2

0 2
 
1 −3 2 −3

+2 2 − 1
 
−2 0 −3 0

= −1[1(−6) − 1(−6)] − 1[2(4) − 1(7) − 1(−1)] + 2[2(−6) − 1(−9)]

= 0 − 2 − 6 = −8

Expandiendo ahora via los cofactores de la 3a columna, se tiene


4
X
|A| = ai3 Ci3
i=1
= a13 [(−1)1+3 det(A13 )] + a23 [(−1)2+3 det(A23 )]

a33 [(−1)3+3 det(A33 )] + a43 [(−1)4+3 det(A43 )]



−3 −2 2 2 1 1


= −3 2 1 −1 − 1 −3 −2 2


1 −1

1 0 2 2
   
2 −1 −3 2 −2 2

1 1 1 1
= −3 2

+1

− 1 2
 
+ 3

+ 2

1 −1 1 −1 −2 2

1 2 1 2
= −3[2(5) − 1(8)] − 1[2(0) + 3(−2) + 2(4)] = −6 − 2 = −8
CHAPTER 3. DETERMINANTES 75

Definición 3.0.4 Adjunta de una Matriz. Sea una matriz n An = (aij ). Se define la
matriz adjunta de A denotada, adj A o A+ , a la matriz n × n cuya (i, j) componente
es el cofactor Cji de aji . Entonces
 
C C21 · · · Cn1
 11 
C12 C22 · · ·
 
Cn2 
A+ = adj A = 
 .. .. .. 

 . . . 
 
C12 C2n · · · Cnn

Teorema 3.0.2 Sea una matriz cuadrada n An . Entonces

A(adj A) = (adj A)A = |A| In

Corolario 3.0.1 Si una matriz cuadrada n An es tal que |A| =


̸ 0, entonces

1 1 +
A−1 = adj A = A
|A| |A|

Teorema 3.0.3 Sea una matriz cuadrada n An ,

a) |A| = |At |,

b) si A tiene un renglón de ceros o una columna de ceros, entonces |A| = 0,

c) si A tiene dos renglones iguales o dos columnas iguales, entonces |A| = 0,

d) |c A| = cn |A|, para cualquier escalar c.

Teorema 3.0.4 Sea una matriz cuadrada A. Entonces |A| = 0 si y solo si A es


singular.

Teorema 3.0.5 Sean dos matrices cuadradas A y B, de tamaño n × n. Entonces


|A B| = |A| |B|.
CHAPTER 3. DETERMINANTES 76

Definición 3.0.5 Matriz Triangular Superior o Triangular Inferior. Una matriz


cuadrada es triangular superior si todas las entradas abajo de la diagonal princi-
pal, son ceros. Mientras que una matriz es llamada triangular inferior si todas las
entradas arriba de la diagonal principal, son ceros.

Ejemplo. Sean las matrices


  
2 0 4 0 0 2
   
A = 0 1 −2 B =  1 2 0
   
   
0 0 5 −1 1 3

son tales que A es triangular superior, mientras que B es triangular inferior.

Teorema 3.0.6 Si una matriz cuadrada n An es triangular superior, o triangular


inferior o diagonal, entonces
n
Y
|A| = aii
i=1

Corolario 3.0.2 Sea la matriz idéntica de orden n. Entonces |I| = 1.

Teorema 3.0.7 Sea la matriz cuadrada n An . Entonces el sistema lineal Ax = b,


tiene solución única si y solo si |A| =
̸ 0.
Chapter 4

Espacios vectoriales

4.1 Espacio y Subespacios Vectoriales


Un espacio vectorial es intuitivamente un conjunto que con las operaciones de adición
y multipicación por escalares, se comporta escencialmente en la misma forma como
Rn .

Definición 4.1.1 Espacio Vectorial. Un espacio vectorial (real) es un conjunto V


de elementos sobre los que se tienen dos operaciones denominadas adición y multi-
plicación por un escalar, con las propiedades siguientes

(A) Si u y v son elementos de V , entonces u + v ∈ V ; en tal caso se dice que V es


cerrado bajo la +. Además se satisfacen;

A1) u + v = v + u (propiedad conmutativa)

A2) u + (v + w) = (u + v) + w (propiedad asociativa)

A3) ∃ un elemento O ∈ V ∋ u + O = u ∀u ∈ V

A4) ∀ u ∈ V ∃ − u ∈ V ∋ u + (−u) = O

77
CHAPTER 4. ESPACIOS VECTORIALES 78

(M) ∀ u ∈ V y ∀c ∈ R ⇒ cu ∈ V . En tal caso se dice que V es cerrado bajo la


multiplicación por un escalar. Además se satisfacen;

M1) c(u + v) = cu + cv ∀ u, v ∈ V (propiedad distributiva)

M2) (c + d)u = cu + du ∀ c, d ∈ R (propiedad distributiva)

M3) (cd)u = c(du) ∀ c, d ∈ R

M4) 1u=u.

Notas

ˆ Si en lugar de tomar los escalares en R, se toman en C el campo complejo, se


tendrı́a en espacio vectorial V complejo.

ˆ A los elementos de V se les llama ”vectores”.

Ejemplos:

a) El conjunto de los números reales R, con las operaciones de adición y multipli-


cación usuales, contituyen un espacio vectorial. En éste caso, los elementos de
V = R juegan el papel dual de ser ambos escalares y ”vectores”.

b) El conjunto de todos los n-vectores de Rn , con las operaciones de adición y


multiplicación por un escalar, constituyen un espacio vectorial V .

c) El conjunto M m,n de todas las matrices m × n, con las operaciones usuales de


adición y multiplicación por un escalar, forman un espacio vectorial V .

d) Polinomios. Considerando que un polinomio es una función

p(x) = an xn + an−1 xn−1 + · · · + a1 x1 + a0


CHAPTER 4. ESPACIOS VECTORIALES 79

donde aj , j = 0, . . . , n son números reales llamados coeficientes de xi , i =


0, . . . , n. El grado de p(·) es n, siempre que an ̸= 0. El cero-polinomial es
0xn + 0xn−1 + · · · + 0x + 0 y no tiene grado. Mientras que p(x) = a es un
polinomio de grado cero. Sea Pn el conjunto de todos los polinomios de grado
≤ n además del cero polinomial. Dados dos polinomios;

p(x) = an xn + an−1 xn−1 + · · · + a1 x1 + a0

q(x) = bn xn + bn−1 xn−1 + · · · + b1 x1 + b0

se definen la suma de los polinomios y multiplicación por un escalar;

p(x) + q(x) = (an + bn )xn + (an−1 + bn−1 )xn−1 + · · · + (a1 + b1 )x1 + (a0 + b0 )

cp(x) = (can )xn + (can−1 )xn−1 + · · · + (ca1 )x1 + ca0

Note que p(x) + q(x) y cp(x) son polinomios de grado ≤ n. Por otra parte, dado
que ai + bi = bi + ai , ∀ i = 0, 1, . . . , n, se tiene que p(x) + q(x) = q(x) + p(x).
El cero-polinomial es el requerido para verificar la propiedad A3. Mientras que
el negativo de p(x), −p(x) descrito por

−p(x) = −an xn − an−1 xn−1 − · · · − a1 x1 − a0

es tal que se satisface p(x) + (−p(x)) = O.


Para verificar M 2 considere

(c + d)p(x) = (c + d)an xn + (c + d)an−1 xn−1 + · · · + (c + d)a1 x1 + (c + d)a0

= can xn + can−1 xn−1 + · · · + ca1 x1 + ca0

dan xn + dan−1 xn−1 + · · · + da1 x1 + da0

= c(an xn + an−1 xn−1 + · · · + a1 x1 + a0 ) +

d(an xn + an−1 xn−1 + · · · + a1 x1 + a0 )

= cp(x) + dp(x)
CHAPTER 4. ESPACIOS VECTORIALES 80

Similarmente se verifica M 3 y M 4. Por lo cual se concluye que Pn el conjunto


de todos los polinomios de grado ≤ n, es un espacio vectorial.

d) Sea C(−∞, ∞) el conjunto de todas las funciones valuada real continuas definidas
en R. Si f (x) y g(x) ∈ C(−∞, ∞) y se define:

a) (f + g)(x) = f (x) + g(x) ∀x∈R

b) (cf )(x) = c f (x) ∀ x, c ∈ R

Entonces se puede verificar que C(−∞, ∞) es un espacio vectorial.

Otros ejemplos de espacios vectoriales son:


C(a, b) el conjunto de todas las funciones continuas en (a, b),
C ∞ (a, b) el conjunto de todas las funciones con derivadas de todos los órdenes en
(a, b),
C ∞ (−∞, ∞) el conjunto de todas las funciones con derivadas de todos los órdenes en
R.

No es Espacio vectorial. El conjunto de los reales positivos R+ , bajo las operaciones


usuales de adición y multiplicación no es espacio vectorial. Puede verse que no se
satisfacen por ejemplo;
(A) no se satisface A4 ya que si 2 ∈ R+ pero −2 ∈
/ R+
(M ) no hay cerradura bajo la multiplicación por un escalar; c = −1 ∈ R, pero
/ R+ .
c2 = −2 ∈

Teorema 4.1.1 Si V es un espacio vectorial, c ∈ R y u ∈ V , entonces

a) 0u = O
CHAPTER 4. ESPACIOS VECTORIALES 81

b) cO = O

c) (−1)u = −u ∀u ∈ V

d) Si cu = O entonces ya sea que c = 0 ó u = O

Demostración (Parcial)

a) O = u + (−1)u = (1 − 1)u = 0u

b) Considerando cO = c(O + O) = cO + cO y sumando −cO a ambos lados, se


tiene que cO = O

c) Dado que (−1)u + u = (−1 + 1)u = 0u = O y también −u + u = O, entonces


se implica que
(−1)u + u = −u + u

de tal manera que al sumar −u a ambos lados, se tiene que (−1)u = −u. 2

Dado que los polinomios son ejemplos de funciones continuas, el conjunto P de un


ejemplo anterior, puede ser visto como un subconjunto del conjunto C(∞, ∞) de otro
ejemplo anterior, en donde la adición y multiplicación por un escalar de polinomios,
son compatibles con las operaciones análogas para las funciones continuas. Ası́, se
dice que P es un subespacio de C(∞, ∞).

Definición 4.1.2 Subespacio de un Espacio Vectorial. Sea V un espacio vectorial y


sea W un subconjunto de V . Si W es un espacio vectorial usando las operaciones de
V , entonces W es un subespacio de V .

El siguiente resultado ayuda a verificar si un subconjunto W de V es un subespacio.


CHAPTER 4. ESPACIOS VECTORIALES 82

Teorema 4.1.2 Sea V es un espacio vectorial, y sea W un subconjunto no vacı́o de


V . Entonces W es un subespacio de V si y solo si se tienen las siguientes condiciones:

a) si u y v ∈ W ⇒ u + v ∈ W (cerradura bajo adición)

b) si c ∈ R y u ∈ W ⇒ cu ∈ W (cerradura bajo la multiplicación por un escalar)

Demostración. Suponga que W es un subespacio de V ; entonces W es un espacio


vectorial y por consiguiente se tienen las propiedades (A) y (M ), de las cuales dos de
ellas corresponden a (a) y (b) respectivamente del teorema.
Por el contrario, suponga que (a) y (b) son ciertas; se desea mostrar que W es
un subespacio de V . Usando (b) se tiene que (−1)u ∈ W ∀u ∈ W . Usando (a) se
tiene que u + (−1)u ∈ W . Pero u + (−1)u = u − u = O ⇒ O ∈ W . Con esto
u + O = u ∀u ∈ W . Finalmente dados (a) y (b), las propiedades A1, A2, M 1, M 2,
M 3, y M 4 son ciertas en W en virtud de que son ciertas en V . Por consiguiente W
es un subespacio de V . 2

Ejemplos:

a) Cualquier espacio vectorial V tiene al menos dos subespacios; el mismo conjunto


y el subespacio {O}, que consiste solamente en el cero-vector. Note que

O+O =O y cO = O

Al subespacio {O} se le llama cero-subespacio.

b) Sea D2,2 el conjunto de todas las matrices diagonales 2 × 2. Se puede verificar


que D2,2 es un subespacio de V = M 2,2 , el conjunto de todas las matrices de
orden 2 × 2.

Considerando el teorema anterior es suficiente mostrar que D2,2 es cerrado bajo


la suma y bajo la multiplicación por un escalar de M 2,2 . Sean A y B matrices
en D2,2 y c ∈ R,
CHAPTER 4. ESPACIOS VECTORIALES 83

   
a1 0 b1 0
A= , B= 
0 a2 0 b2
La suma y multiplicación por un escalar son tales que;
   
a1 + b 1 0 ca1 0
A+B =  ∈ D2,2 , cA =   ∈ D2,2
0 a2 + b 2 0 ca2

Por consiguiente D2,2 es un subespacio de M 2,2

c) Sea P2 el conjunto de todos los polinomios de orden ≤ 2 y el cero-polinomial. P2


es un subconjunto de P, el espacio vectorial de todos los polinomios. Se puede
verificar sin dificultad, que P2 es un subespacio de P. En general el conjunto
Pn el conjunto de todos los polinomios de orden ≤ n mas el cero-polinomial, es
un subespacio de Pn+1 y de P.

d) Sea P2∗ el conjunto de todos los polinomios de grado exacto igual a 2. Entonces
P2∗ es un subconjunto de P, el espacio vectorial de todos los polinomiales; pero
no es un subespacio de P, ya que

/ P2∗
(2t2 + 3t + 1) + (−2t2 + 1 + 2) ∈

Nota. La aplicación resumida del teorema anterior es: W un conjunto no vacı́o del
espacio vectorial V es un subespacio de V si y solo si ∀u, v ∈ W y ∀c, d ∈ R, se
tiene que cu + dv ∈ W .

Por lo anterior, una forma simple de construir un subespacio en un espacio vec-


torial es como sigue: Sean v1 y v2 dos vectores fijos en un espacio vectorial V y sea
W el conjunto de todos los vectores en V de la forma

a1 v 1 + a2 v 2
CHAPTER 4. ESPACIOS VECTORIALES 84

con a1 , a2 ∈ R. Note que para mostrar que W es un subespacio de V , se verican las


propiedades (a) y (b) del teorema anterior. Sean

w1 = a1 v1 + a2 v2 w2 = b1 v1 + b2 v2

dos vectores en W . Entonces la suma

w1 + w2 = (a1 v1 + a2 v2 ) + (b1 v1 + b2 v2 ) = (a1 + b1 )v1 + (a2 + b2 )v2

pertenece a W . Ahora si c ∈ R se tiene

cw1 = c(a1 v1 + a2 v2 ) = (ca1 )v1 + (ca2 )v2

que también pertenece a W . Por consiguiente W es un subespacio de V .


Esta idea se puede extender a más vectores.

Teorema 4.1.3 Si U y W son subespacios de un espacio vectorial V entonces la


intersección U ∩ W también es un subespacio de V .

Demostración. Si u y w ∈ U ∩ W entonces u, w ∈ U y u, w ∈ W . Dado que U y


W son subespacios de V , se tiene que cu + cw ∈ U y cu + cw ∈ W lo que implica que
cu + cw ∈ U ∩ W . Por lo tanto U ∩ W es un subespacio de V . 2

4.2 Combinación Lineal y Subespacio Generado

Definición 4.2.1 Combinación Lineal. Sea V un espacio vectorial arbitrario y sean


v1 , v2 , . . . , vn elementos de V y sean a1 , a2 , . . . , an números reales. Un elemento v en
V es llamado combinación lineal (c.l.) de v1 , v2 , . . . , vn si

v = a1 v1 + a2 v2 + · · · + an vn
CHAPTER 4. ESPACIOS VECTORIALES 85

Teorema 4.2.1 El conjunto de todas las combinaciones lineales de v1 , v2 , . . . , vn en


un espacio vectorial V , es un subespacio W de V .

Demostración. Sea W el conjunto de todas las combinaciones lineales de v1 , v2 , . . . , vn .


Si w1 y w2 ∈ W , w1 = a1 v1 + a2 v2 + · · · + an vn y w2 = b1 v1 + b2 v2 + · · · + bn vn

⇒ w1 + w2 = (a1 + b1 )v1 + (a2 + b2 )v2 + · · · + (an + bn )vn ∈ W

⇒ cw1 = c(a1 v1 + a2 v2 + · · · + an vn ) = (ca1 )v1 + (ca2 )v2 + · · · + (can )vn ∈ W

Finalmente como O = 0v1 + 0v2 + · · · + 0vn ∈ W


Por lo tanto W es un subespacio de V . 2

Nota. Al subespacio W anterior se le llama subespacio generado por v1 , v2 , . . . , vn .


Si W = V , es decir, cada elemento de V es una c.l. de v1 , v2 , . . . , vn , entonces se dice
que v1 , v2 , . . . , vn genera a V .

Ejemplo. Una c.l. de los vectores v1 , v2 , . . . , vn ∈ Rm es una expresión de la forma

c1 v 1 + c2 v 2 + · · · + cn v n

donde ci ∈ R ∀i. Sean


       
1 1 1 1
       
v= 2 , v1 =  0  , v2 =  1  , v3 =  1 
       
       
3 0 0 1

Se puede ver que  


1
 
v =  2  = (−1)v1 + (−1)v2 + 3v3
 
 
3
i.e. v es una c.l. de v1 , v2 y v3 .

Ejemplo. Un subespacio de Rm es un conjunto no vacı́o W de vectores tales que


CHAPTER 4. ESPACIOS VECTORIALES 86

a) si v1 , v2 ∈ W ⇒ v1 + v2 ∈ W

b) v ∈ W , c ∈ R ⇒ cv ∈ W

Ejemplo. Si v1 , v2 , . . . , vn son vectores en Rm , el conjunto W de todas la c.l.

c1 v 1 + c2 v 2 + · · · + cn v n

de los vectores v1 , v2 , . . . , vn , es un subespacio de Rm .

4.3 Independencia Lineal y Base de un Espacio


Vectorial
Definición 4.3.1 Independencia y Dependencia Lineal. Sea S = {v1 , v2 , . . . , vn }
un conjunto de elementos de un espacio vectorial V . El conjunto S es linealmente
independiente (l.i.) si la ecuación

c1 v1 + c2 v2 + · · · + cn vn = O

tiene únicamente la solución ci = 0 ∀i = 1, . . . , n, llamada solución trivial. Si S no


es linealmente independiente, se dice que es linealmente dependiente.

Notas

ˆ Los vectores v1 , v2 , . . . , vn son linealmente dependientes (l.d.) si existen c1 , c2 , . . . , cn


tales que no todos son cero que satisfacen la c.l. c1 v1 + c2 v2 + · · · + cn vn = O.

ˆ Note que c1 v1 + c2 v2 + · · · + cn vn = O siempre tiene la solución trivial


c1 = c2 = · · · = cn = 0

ˆ Un conjunto de dos o más vectores en Rm es l.d. si uno de tales vectores puede


ser expresado como una c.l. de los otros.
CHAPTER 4. ESPACIOS VECTORIALES 87

ˆ Un conjunto que consiste de un solo vector es l.d. si dicho vector es el 0.

Ejemplo. Sea m = n y los vectores elementales en Rn

e1 = (1, 0, . . . , 0), e2 = (0, 1, . . . , 0), . . . , en = (0, . . . , 0, 1)

sean a1 , a2 , . . . , an números tales que

a1 e1 + a2 e2 + · · · + an en = 0

En virtud de que a1 e1 + a2 e2 + · · · + an en = (a1 , a2 , . . . , an ), necesariamente ai =


0 ∀i = 1, . . . , n. Por consiguiente los vectores elementales e1 , e2 , . . . , en son lineal-
mente independientes.

Ejemplo. Sea el conjunto S = {v1 , v2 , v3 }, donde;


     
1 0 1
     
v1 =  0  , v2 =  1  , v3 =  1
     

     
−1 2 3

Determine si S es l.i. o l.d.


Se desea saber si la ecuación c1 v1 + c2 v2 + c3 v3 = 0, tiene una solución no trivial.
Equivalentemente,
       
1 0 1 0
       
c1  0  + c2  1  + c3  1  =  0
       

       
−1 2 3 0
Se tiene ası́ el sistema;
c1 +c3 = 0
c2 +c3 = 0
−c1 +2c2 +3c3 = 0
CHAPTER 4. ESPACIOS VECTORIALES 88

     
1 0 1 c 0
   1  
A c =  0 1 1 c2  = 0
     
     
−1 2 3 c3 0
¿ Tiene el sistema lineal A c = 0 una solución distinta a la trivial ?
Considerando a la matriz aumentada [A|0] y transformando ésta a su forma escalon-
ada reducida por renglón, se tiene que;
   
1 0 1 0 1 0 0 0
   
[A|0] =  0 1 1 0 ∼ 0 1 0 0
   
   
−1 2 3 0 0 0 1 0

Ası́ el sistema tiene la solución única c1 = 0, c2 = 0, c3 = 0 y por lo tanto, el conjunto


S es l.i.

Ejemplo. Muestre que los siguientes vectores son l.d., indicando su relación de
dependencia      
−2 1 4
     
v1 =  0 , v2 =  −1  , v3 =  −2 
     
     
1 2 3
Considerando la matriz cuyas columnas son dichos vectores y transformando a la
forma escalonada reducida por renglón,
     
−2 1 4 1 −1/2 −2 1 −1/2 −2
     
 0 −1 −2 ∼ 2 ∼
     
0 1 0 1 2
     
1 2 3 1 2 3 0 5/2 5
R1 → −1/2 R1 R3 → −R1 + R3 R1 → 1/2 R2 + R1
R3 → 2/5 R3
CHAPTER 4. ESPACIOS VECTORIALES 89

   
1 0 −1 1 0 −1
   
∼ ∼ 0 1 2 
   
0 1 2 
   
0 1 2 0 0 0
R3 → −R2 + R3
Los coeficientes en la tercer columna de la matriz escalonada reducida por renglón
indican que
v3 = (−1)v1 + (2)v2

4.3.1 Prueba Para Dependencia/Independencia Lineal

Sea S = {v1 , v2 , . . . , vn } un conjunto de vectores en Rm . Construya una matriz


m An cuya i-ésima columna ai = vi . El conjunto S es linealmente independiente si y
solo si la forma escalonada reducida por renglón de la matriz A contiene únicamente
columnas vectores elementales distintos.

Teorema 4.3.1 Sea S = {v1 , v2 , . . . , vn }, vi ∈ Rm , i = 1, . . . , n. Sea la matriz


m An con ai = vi . Sea la matriz B la forma escalonada reducida por renglón de A.
Entonces el conjunto S es linealmente independiente si y solo si las columnas de B,
son los vectores elementales e1 , e2 , . . . , en .

Demostración. S es l.i. si y solo si la ecuación c1 v1 + c2 v2 + . . . + cn vn = 0


tiene solamente la solución trivial. Equivalentemente sii el sistema lineal homogéneo
Ac = 0 con c = (c1 , . . . , cn ), tiene una solución única, es decir sii rango r(A) = n.
Equivalentemente, al considerar a la matriz B, la forma escalonada reducida de A, el
rango de A es n sii las columnas de B son los vectores elementales e1 , e2 , . . . , en . 2

El siguiente resultado indica los coeficientes de dependencia en la c.l.


CHAPTER 4. ESPACIOS VECTORIALES 90

Teorema 4.3.2 Sea S = {v1 , v2 , . . . , vn }, vi ∈ Rm , i = 1, . . . , n. Sea la matriz m An

con ai = vi . Sea la matriz B la forma escalonada reducida por renglón de A y suponga


que una de sus columnas bj no es un vector elemental o es una duplicación de un
vector elemental que precede. Entonces S es linealmente dependiente y se tiene

vj = b1j w1 + b2j w2 + · · · + bkj wk

donde w1 , w2 , . . . , wk son vectores en S que han sido transformados en e1 , e2 , . . . , ek


los vectores columna elementales distintas de B que preceden a la columna j.

Teorema 4.3.3 Sea S un conjunto de n vectores en Rm , con n > m, entonces S es


linealmente dependiente.

Teorema 4.3.4 Sea S = {v1 , . . . , vn } un conjunto de n vectores en Rn ; sea n An la


matriz con ai = vi , i = 1, . . . , n. Entonces S es linealmente independiente si y solo
si det(A) ̸= 0.

Resumen cuando V = Rm .
S = {v1 , v2 , . . . , vn }
Para ver independencia o dependencia

a) si n > m ⇒ S es l.d.

b) si n = m usar la matriz escalonada reducida o determinantes

c) si n < m usar la matriz escalonada reducida

Ejemplos:
CHAPTER 4. ESPACIOS VECTORIALES 91

a) Sea el conjunto S      
 −1

 3 0 


       

      
0  1  1
S=  ,
  ,  
−2 4
   


  2

       


 1 
0 3 
   
−1 3 0 1 0 3
   
   
0 1 1 0 1 1
A=  ∼ ··· ∼ B =  
 2 −2 4
   
0 0 0
   
1 0 3 0 0 0
Por consiguiente S en un conjunto l.d. Además, por el teorema anterior,
     
0 −1 3
     
     
1 0 1
  = (3)   + (1)  
−2
     
4 2
     
3 1 0

b) Muestre que los vectores v1 = (1, −1, 2), v2 = (−2, 3, 0), v3 = (0, 1, 4), v4 =
(1, 0, 1) y v5 = (2, 1, 1) son l.d. y exprese la dependencia de al menos un vi como una
c.l. de los otros vectores.
Dado que n = 5 > m = 3, por los resultados mencionados, los vectores son l.d.
Para establecer la dependencia, sea la matriz A con ai = vi y transformando a B,
     
1 −2 0 1 2 1 −2 0 1 2 1 0 2 3 8
     
A = −1 3 1 0 1 ∼ 0 1 1 1 3  ∼ 0
     
1 1 1 3 
     
2 0 4 1 1 0 4 4 −1 −3 0 0 0 −5 −15
R2 → R1 + R2 R1 → 2R2 + R1 R3 → −1/5 R3
R3 → −2R1 + R3 R3 → −4R2 + R3
CHAPTER 4. ESPACIOS VECTORIALES 92

   
1 0 2 3 8 1 0 2 0 −1
   
∼ 0 1 1 1 3 ∼ 0 1 1 0 0  = B
   
   
0 0 0 1 3 0 0 0 1 3
R1 → −3R3 + R1
R2 → −R3 + R2
Note que los vectores v1 , v2 y v4 han sido transformados a los vectores elementales
e1 , e2 y e3 respectivamente. Por el teorema anterior, v1 , v2 y v4 se convierten en
w1 , w2 y w3 . Con esto la dependencia lineal está dada por

v3 = 2v1 + 1v2 (3a columna de B)

v5 = (−1)v1 + (0)v2 + (3)v4 (5a columna de B)

Note que se tiene      


1 −2 0
     
2 −1 + 1  3  = 1
     
     
2 0 4
     
1 1 2
     
(−1) −1 + 3 0 = 1
     
     
2 1 1

c) Sean los vectores v1 = (1, 2, 3), v2 = (−1, 0, 1), v3 = (0, 0, 1). Determine si son o
no l.d.
Sea la matriz A con ai = vi y considere la tercer columna para el determinante,
 
1 −1 0
1 −1
 
A = 2 0 0 ⇒ |A| = 1 = 0 − (−1)2 = 2
 

  2 0
3 1 1

Dado que det(A) = 2 ̸= 0, por un teorema anterior se concluye que los vectores son
l.i.
CHAPTER 4. ESPACIOS VECTORIALES 93

Los siguientes ejemplos corresponden a espacios vectoriales cuyos elementos no


son vectores.
a) Determine si el conjunto
     
 1 0 0 1 0 0 
S=   ,   ,  
 0 −1 0 −1 1 −1 

es l.i. o no lo es, en M 2,2 .


Considere la siguiente c.l. con los elementos de S,
       
1 0 0 1 0 0 0 0
c1   + c2   + c3  = 
0 −1 0 −1 1 −1 0 0
   
c1 c2 0 0
⇒ = 
c3 −c1 − c2 − c3 0 0
Que equivale al sitema homogéneo

c1 =0
c2 =0
c3 =0
−c1 −c2 −c3 = 0

⇒ c1 = c2 = c3 = 0, ⇒ S es l.i.

b) Determine si el conjunto S = {x + 1, x − 1, 2x + 1} es l.i. en P1 , el espacio de


polinomios de grado ≤ 1.
Considere la c.l. de elementos de S,

c1 (x + 1) + c2 (x − 1) + c3 (2x + 1) = 0

⇒ (c1 + c2 + 2c3 )x + (c1 − c2 + c3 ) = 0


CHAPTER 4. ESPACIOS VECTORIALES 94

Se tiene el sistema de ecuaciones ñineales


c1 +c2 +2c3 = 0
c1 −c2 +c3 =0
El cual es un sistema homogéneo con más incógnitas, lo que implica que tiene infinitas
soluciones distintas de cero. Por consiguiente S es l.d.

c) Determine si el conjunto S = {1, x, sen x} es l.i. en el espacio vectorial


V = C(−∞, ∞) de funciones continuas.
Considere la c.l. de elementos de V

c1 (1) + c2 x + c3 sen x = 0

donde 0 es la función cero. Dado que la ecuación debe ser válida para toda x, ésta
es cierta para x = 0, π/2 y π. Substituyendo sucesivamente tales valores de x en la
ecuación previa, se tiene el sistema de ecuaciones lineales

c1 =0
c1 + π2 c2 +c3 = 0
c1 +π c2 =0

Se puede ver que el sistema homogéneo Ac = 0 tiene a la matriz [A|0] y su forma


escalonada reducida por renglón B como
   
1 0 0 0 1 0 0 0
   
[A|0] = 1 π/2 1 0 ∼ · · · ∼ 0 1 0 0 = B
   
   
1 π 0 0 0 0 1 0
Ası́, el sistema solo tiene la solución trivial. Por lo tanto S es l.i.

4.3.2 Bases de un Espacio Vectorial y Dimensión

Se desea estudiar los conceptos expansión o generación, bases y dimensión de un


espacio vectorial.
CHAPTER 4. ESPACIOS VECTORIALES 95

Definición 4.3.2 Sea S = {v1 , v2 , . . . , vn } un conjunto de elementos de un espacio


vectorial V . Se dice que S expande o genera a V si cada elemento de V puede ser
expresado como una combinación lineal de {v1 , v2 , . . . , vn }.

Ejemplos:
a) El conjunto S = {e1 , e2 , . . . , en } genera a Rn . Sea x = (x1 , x2 , . . . , xn ) un vector
arbitrario en Rn , entonces se observa que x es una c.l. de los elementos de S,

x = x1 e1 + x2 e2 + · · · + xn en = (x1 , x2 , . . . , xn )

b) Muestre que el conjunto S = {1, x − 1, x2 − 1} expande P2 , el espacio de todos


los polinomios de grado ≤ 2.
Sea p(x) = a0 + a1 x + a2 x2 un elemento arbitrario de P2 . Se debe mostrar que
existen escalares c1 , c2 , c3 tales que

c1 (1) + c2 (x − 1) + c3 (x2 − 1) = a0 + a1 x + a2 x2

⇒ (c1 − c2 − c3 ) + c2 x + c3 x2 = a0 + a1 x + a2 x2

c1 −c2 −c3 = a0
⇒ c2 = a1
c3 = a2
El sistema obtenido tiene una sola solución para c1 , c2 , c3 sin importar qué valores
toman a1 , a2 , a3 . Por consiguiente S expande P2 .
c) Sea S = {x2 + 2x + 1, x2 + 2} ¿ Expande S a P2 ?
Sea p(x) = a0 + a1 x + a2 x2 un elemento arbitrario de P2 . Se desea saber si existen
escalares c1 , c2 tales que

c1 (x2 + 2x + 1) + c2 (x2 + 2) = a0 + a1 x + a2 x2

⇒ (c1 + c2 )x2 + 2c1 x + (c1 + 2c2 ) = a2 x2 + a1 x + a0


CHAPTER 4. ESPACIOS VECTORIALES 96

c1 +c2 = a2
⇒ 2c1 = a1
c1 +2c2 = a0
Considerando la matriz aumentada del sistema
   
1 1 a2 1 1 a2
   
∼ 0 −2 −2a2 + a1  ∼
   
2 0 a1 
   
1 2 a0 0 1 −a2 + a0
R2 → −2R1 + R2 R2 ↔ R3
R3 → −R1 + R3
   
1 1 a2 1 0 2a2 − a0
   
∼ 0 1 −a2 + a0  ∼ 0 1 −a2 + a0
   

   
0 −2 −2a2 + a1 0 0 −4a2 + a1 + 2a0
R1 → −R2 + R1
R3 → 2R2 + R3
Note que el sistema es inconsistente, a menos que −4a2 + a1 + 2a0 = 0. Por lo que S
no genera a P2 .

Si W es un subespacio de V , un subconjunto S de W genera a W , si cada elemento


de W , es una c.l. de los elementos de S.

Ejemplo. Sea W un subespacio de V = R4 , que consiste en los vectores cuyo 1er y


4o elementos son ceros. Sea S = {(0, 1, −1, 0), (0, 2, −1, 0)}. Muestre que S expande
a W.
w = (0, a, b, 0) ∈ W
CHAPTER 4. ESPACIOS VECTORIALES 97

Se debe mostrar que existen c1 y c2 tales que


     
o o o
     
     
a 1 2
  = c1   + c2  
−1 −1
     
b
     
0 0 0
    
c1 +2c2 = a 1 2 c a
⇒ ⇒   1 =  
−c1 −c2 = b −1 −1 c2 b
     
1 2 a 1 2 a 1 0 −a − 2b
 ∼ ∼ 
−1 −1 b 0 1 a+b 0 1 a+b
El sistema lineal tiene solución única c1 = −a − 2b y c2 = a + b.
Por lo tanto S expande a W .

Definición 4.3.3 Base de un Espacio Vectorial. Sea V un espacio vectorial. Un


conjunto S de elementos de V , es una base para V si satisface:

a) S es l.i.

b) S genera a V .

Ejemplos:

a) Sea V = Rn y S = {e1 , e2 , . . . , en } donde ei ∈ Rn . Entonces S es una base para


Rn , ya que S genera a V y además S es l.i.

b) Sea V = P2 el espacio de todos los polinomios de grado ≤ 2.


Sea S = {1, x − 1, x2 − 1}. ¿ Constituye S una base para P2 ?

Ya se vió en un ejemplo anterior que S genera a P2 . Se requiere verificar si S


es o no l.i. Considere la c.l. de elementos de S,

c1 (1) + c2 (x − 1) + c3 (x2 − 1) = 0
CHAPTER 4. ESPACIOS VECTORIALES 98

⇒ (c1 − c2 − c3 ) + c2 x + c3 x2 = 0

c1 −c2 −c3 = 0
⇒ c2 =0
c3 =0
Note que la única solución del sistema es c1 = c2 = c3 = 0; lo que implica que
S es l.i. Por lo tanto S es una base para P2 .

Nota. Un espacio vectorial V puede ser generado por más de una base, i.e. la base
no es única.

Ejemplo. Muestre que el siguiente conjunto S es una base para R3 .


     


 1 1 1 
      
S = 0 , 2 , 2
     
     
 

 0 
0 3 

Sea x = (x1 , x2 , x3 ) un vector arbitrario en R3 . Sean c1 , c2 , c3 coeficientes para la c.l.


de los elementos de S para representar a x,

c1 (1, 0, 0) + c2 (1, 2, 0) + c3 (1, 2, 3) = (x1 , x2 , x3 )

lo que produce el siguiente sistema,


    
c1 +c2 +c3 = x1 1 1 1 c1 x
     1
⇒ 0 2 2 c2  = x2 
    
2c2 +2c3 = x2
    
3c3 = x3 0 0 3 c3 x3

Si se considera tal sistema como Ac = x, se puede ver que el det(A) = 1(2)(3) ̸= 0,


lo que implica que S es l.i. y que el sistema tiene solución única, es decir S expande
a R3 . Por lo tanto S es una base para R3 .
CHAPTER 4. ESPACIOS VECTORIALES 99

Recuerde que el conjunto

S = {e1 = (1, 0, 0), e2 = (0, 1, 0), e3 = (0, 0, 1)}

también es una base de R3 .

Notas.

a) A la base S = {e1 , e2 , · · · , en } para Rn , se le llama base estándar de Rn .

b) Al conjunto S = {1, x, x2 , . . . , xn } es una base estándar para Pn , el espacio


vectorial de grado ≤ n de polinomios.

c) Al conjunto S = {1, x, x2 , . . .} es una base estándar para P, el espacio vectorial


de todos los polinomios.

d) El conjunto S = {E ij : i = 1, . . . , m; j = 1, . . . , n} donde E ij es una matriz de


m × n con uno en la entrada ij y cero en todas las otras entradas; representa
una base estándar para el espacio vectorial V = M m,n de todas las matrices
m × n.

Ejemplos:
a) El conjunto S = {1, x, x2 , x3 } es una base para P3 .
b) El conjunto S dado por
           
 1 0 0 0 1 0 0 0 1 0 0 0 0 0 0 0 0 0 
S=  , , , , , 
 0 0 0 0 0 0 0 0 0 1 0 0 0 1 0 0 0 1 

es una base para el espacio vectorial M 2,3 .


c) Muestre que el conjunto
     
 1 0 0 1 0 0 
S=   ,   ,  
 0 −1 0 −1 1 −1 
CHAPTER 4. ESPACIOS VECTORIALES 100

es una base para el subespacio W de M 2,2 , que consiste en todas las matrices 2 × 2
cuya suma de las entradas es cero.
En un ejemplo anterior ya se mostró que S es l.i. Se requiere mostrar que los
elementos de S generan a W . Sea la matriz
 
a1 a2
  ∋ a1 + a2 + a3 + a4 = 0
a3 a4

Se requieren determinar escalares c1 , c2 , c3 para la c.l.


       
1 0 0 1 0 0 a1 a2
c1   + c2   + c3  = 
0 −1 0 −1 1 −1 a3 a4

Note que se obtiene el sitema lineal

c1 = a1
c2 = a2
c3 = a3
−c1 −c2 −c3 = a4

De las primears tres ecuaciones se tiene que c1 = a1 , c2 = a2 y c3 = a3 ; lo que implica,


con la última ecuación, que −a1 − a2 − a3 = a4 , es decir, que a1 + a2 + a3 + a4 = 0.
Ası́ se tiene una solución única, que permite expresar a la matriz A como una c.l. de
los elementos de S. Por lo tanto S es una base para W .

Teorema 4.3.5 Sea V un espacio vectorial generado por el conjunto S. Si uno de los
elementos en S es una combinación lineal de los otros, entonces el conjunto obtenido
al eliminar dicho elemento, aún genera a V .

Nota. Si el conjunto S del teorema anterior es finito, entonces aplicaciones repetidas


de tal teorema conduce a un conjuno que es l.i. y además genera a V , i.e. se obtiene
una base. El resultado aún es cierto si S es infinito.
CHAPTER 4. ESPACIOS VECTORIALES 101

Teorema 4.3.6 Sea V un espacio vectorial generado por un conjunto S. Entonces


existe un subconjunto de S, que es una base para V . Equivalentemente, un conjunto
generador puede ser reducido a una base.

Ejemplo. Se puede ver que S = {1, x + 1, x − 1} generan a P1 . Por el teorema


anterior se tienen subconjuntos de S (al menos uno) que son una base para S. Se
puede ver que;

S1 = {1, x − 1}, S2 = {1, x + 1}, S3 = {x − 1, x + 1}

c/u constituye una base para P1 .

Teorema 4.3.7 Sea V un espacio vectorial expandido por S y sea τ1 un subconjunto


de V , linealmente independiente. Entonces existe un subconjunto τ2 de S tal que
τ = τ1 ∪ τ2 es una base para V , i.e. un conjunto linealmente independiente, puede ser
extendido a una base.

Si V = Rm se tiene el siguiente resultado, que es un procedimiento para reducir


un conjunto generador a una base.

Teorema 4.3.8 Si W es un subespacio de Rm generado por el conjunto τ = {v1 , v2 , . . . , vn },


entonces existe un subconjunto de τ que es una base para W . Para obtener tal base
sea A la matriz m × n con columnas ai = vi , y sea B la matriz escalonada reducida
por renglón de A. Si w1 , w2 , . . . , wk son los vectores en τ que son transformados
en columnas elementales distintos de B, entonces τ0 = {w1 , w2 , . . . , wk } es una base
para W .

Ejemplo. Sea W un subespacio de R4 generado por τ = {v1 , v2 , v3 , v4 , v5 }

v1 = (1, 0, −1, 1), v2 = (−2, 0, 2, −2), v3 = (1, 1, 1, 1)


CHAPTER 4. ESPACIOS VECTORIALES 102

v4 = (1, −1, −3, 1), v5 = (1, −1, 1, −1)

Sea A con ai = vi ,
   
1 −2 1 1 1 1 −2 0 2 0
   
0 1 −1 −1 0 0 1 −1 0
   
0
A=  ⇒ B= 
−1 2 1 −3 1 
   
0 0 0 0 1
   
1 −2 1 1 −1 0 0 0 0 0

Note que v1 , v3 y v5 han sido transformados en e1 , e2 y e3 respectivamente. Con esto,


v1 , v3 y v5 son los vectores w1 , w2 y w3 del procedimiento. Por lo tanto
τ0 = {v1 , v3 , v5 } es una base para W .

Teorema 4.3.9 Sea W un subespacio de Rm generado por el conjunto τ = {v1 , v2 , . . . , vn }


y sea τ1 = {u1 , u2 , . . . , uk } un subconjunto linealmente independiente de W . Entonces
existe un subconjunto τ2 de τ tal que τ1 ∪ τ2 es una base para W .

Procedimiento para extender un conjunto l.i. a una base.


Sea la matriz m Ak+n con columnas ai = ui , i = 1, . . . , k y ak+j = vj , j = 1, . . . , n.
Sea B la matriz escalonada reducida por rengón de A, y sea w1 , w2 , . . . , wt aquellos
vectores en τ que son transformados en columnas elementales distintas de B que no
son e1 , e2 , . . . , ek ; entonces τ2 = {w1 , w2 , . . . , wt }. Ası́, por el teorema anterior, una
base para W es
{u1 , u2 , . . . , uk } ∪ {w1 , w2 , . . . , wt }

Ejemplo. Sea τ1 = {u1 , u2 } un conjunto de vectores l.i. en R4 con u1 = (1, 0, −1, 1)


y u2 = (1, 1, 1, −1). Extienda este conjunto para formar una base para R4 .
Dado que R4 es expandido por el conjunto τ = {e1 , e2 , e3 , e4 }(= {v1 , v2 , v3 , v4 }),
se quiere encontrar un subconjunto τ2 de τ tal que la unión τ1 ∪ τ2 sea una base para
CHAPTER 4. ESPACIOS VECTORIALES 103

R4 . Por el procedimiento descrito anteriormente se construye la matriz A y se obtiene


la matriz escalonada reducida por renglón,
   
1 1 1 0 0 0 1 0 0 1 0 1
   
   
0 1 0 1 0 0 0 1 0 1 0 0
A=  ⇒ B= 
−1 1 0 0 1 0 0 1 −2 0 −1
   
0
   
1 −1 0 0 0 1 0 0 0 0 1 1

Note que v1 = w1 y v3 = w2 del conjunto τ , han sido transformados en columnas


elementales distintas de e1 y e2 . Con esto τ2 = {w1 , w2 }. Por consiguiente, una base
para R4 es,        


 1 1 1 0 

        


 0   1  0 0
        
τ1 ∪ τ2 =   ,   ,   ,  
       
−1  1  0 1

 

         

−1

 1 
0 o 

Teorema 4.3.10 Si V es un espacio vectorial con bases B1 y B2 . Entonces B1 y B2


tienen el mismo número de elementos.

Definición 4.3.4 Dimensión. La dimensión de un espacio vectorial V es igual al


número de elementos en una base para V . Se denota dim V .

El espacio vectorial {0} tiene el conjunto vacı́o ∅ como base y su dimensión es


cero.
Nota. El espacio vectorial V con base un conjunto finito, se le llama finito dimen-
sional. Si la base de V no es finita, se le llama espacio vectorial infinito dimensional.

Dimensión de algunos espacios vectoriales.


dim Rn = n
CHAPTER 4. ESPACIOS VECTORIALES 104

dim Pn = n + 1
dim P = ∞
dim M m,n = m n

Teorema 4.3.11 Sea V un espacio vectorial tal que dim V = n y S un subconjunto


de V , entonces

a) si S contiene a v1 , v2 , . . . , vn elementos l.i. entonces S constituye una base para


V

b) si S contiene menos de n elementos, entonces no genera a V

c) si S contiene a más de n elementos, entonces S es l.d.

Teorema 4.3.12 Si V un espacio vectorial con dim V = n y si W es un subespacio


de V , entonces,

a) si dim W = n ⇒ W = V

b) si W ̸= {O} ⇒ dim W ≤ n.

4.4 Suma de Subespacios


Dados dos subespacios U y W de un espacio vectorial V , sea el conjunto
U + W = {u + w : u ∈ U, w ∈ W }, entonces U + W es un subespacio de V .
Note que si u1 , u2 ∈ U y w1 , w2 ∈ W entonces

(u1 + w1 ) + (u2 + w2 ) = (u1 + u2 ) + (w1 + w2 ) ∈ U + W

∀ c ∈ R ⇒ c(u1 + w1 ) = cu1 + cw1 ∈ U + W


CHAPTER 4. ESPACIOS VECTORIALES 105

Definición 4.4.1 Suma Directa. Se dice que el espacio vectorial V es una suma
directa de U y W si para cada elemento v ∈ V , existen elementos únicos u ∈ U y
w ∈ W tal que v = u + w.

Teorema 4.4.1 Sea V es un espacio vectorial y sean U y W subespacios de V . Si


U + W = V y si U ∩ W = {∅}, entonces V es la suma directa de U y W .

Nota. Cuando V es la suma directa de los subespacios U y W se denota V = U ⊕W .

Teorema 4.4.2 Sea V un espacio vectorial de dimensión finita. Sea U un subespacio;


entonces existe un subespacio W tal que V = U ⊕ W .

Teorema 4.4.3 Si V un espacio vectorial de dimensión finita, y V = U ⊕ W , en-


tonces
dim V = dim U + dim W

4.5 Rango de una Matriz y Sistema de Ecuación


Lineal
Recuerde que dada una matriz m An y su matriz escalonada reducida por renglón B,
el rango de A denotado rango(A), es el número de hileras no nulas en la matriz B.
Recordando el siguiente resultado para resolver el sistema lineal A x = b,

Teorema 4.5.1 Sea el sistema lineal A x = b, donde A es una matriz m × n,


rango(A) = p, rango[A|b] = q. Entonces A x = b es tal que,
CHAPTER 4. ESPACIOS VECTORIALES 106

a) no tiene solución si p < q

b) tiene solución única si p = q = n

c) tiene infinitamente muchas soluciones si p = q < n.

Corolario 4.5.1 El sistema lineal homogéneo A x = 0 tiene:

a) una solución única, x = 0, la solución trivial si p = n

b) infinitamente muchas soluciones si p < n.

Se puede ver que el conjunto S de todas las soluciones del sistema lineal homogéneo
A x = 0, es un subespacio de Rn llamado espacio nulo de A y denotado NA . A la
dimensión de NA se le llama nulidad de A, denotado nulidad(A).
Para esto considere x1 y x2 dos vectores solución de A x = 0; entonces A x1 = 0
y A x2 = 0. Note que

A(x1 + x2 ) = A x1 + Ax2 = 0 + 0 = 0

implica que x1 + x2 es una solución del sistema homogéneo, y con esto x1 + x2 ∈ S.


Por otra parte ∀ c ∈ R y ∀ x ∈ S,

A(cx) = c(Ax) = c0 = 0

Lo que significa que cx es una solución del sistema homogéneo y por tanto cx ∈ S. Es
decir, S es un subespacio de Rn llamado espacio solución del sistema lineal homogéneo
o espacio nulo.

Nota. No es cierto que el conjunto de todas las soluciones del sistema lineal A x = b
constituya un subespacio.
CHAPTER 4. ESPACIOS VECTORIALES 107

Teorema 4.5.2 Sea una matriz m An con rango(A) = r y sea B su forma escalonada
reducida por renglón, entonces la dimensión del espacio solución del sistema A x = 0
es n − r. Es decir
n = rango(A) + nulidad(A)

Definición 4.5.1 Espacio Columna y Espacio Renglón. Sea una matriz m An . El


espacio columna de A es el subespacio de Rm generado por los vectores columna de
A. El espacio renglón (hilera) de A es el subespacio de Rn generado por los vectores
renglones de A. Se denotan tales espacios como CA y HA respectivamente.

Recordando que dos matrices son equivalentes por renglón si una puede ser obtenida
de la otra, via operaciones elementales por renglón; se tiene el siguiente resultado.

Teorema 4.5.3 Si una matriz m An es equivalente por renglón a una matriz m Bn ,

entonces el espacio renglón de A es igual al espacio renglón de B.

Teorema 4.5.4 Si una matriz A es equivalente por renglón a una matriz Be en forma
escalonada por renglón, entonces los vectores renglón no nulos de Be forman una base
para HA .

Ejemplo. Sean las matrices A, su matriz escalonada por renglón Be y su matriz


escalonada reducida por renglón B siguientes,
     
1 3 1 3 1 3 1 3 1 0 −2 0
     
0 1 1 0 0 1 1 0 0 1 1 0
     
     
A = −3 0 6 −1 ⇒ B = , B =
     
e 0 0 0 1 0 0 0 1
     
 3 4 −2
     
1 0 0 0 0 0 0 0 0
     
2 0 −4 −2 0 0 0 0 0 0 0 0
CHAPTER 4. ESPACIOS VECTORIALES 108

Por el teorema anterior, los vectores renglón no nulos de Be ,

{w1 = (1, 3, 1, 3), w2 = (0, 1, 1, 0), w3 = (0, 0, 0, 1)}

forman una base para HA .

Por un teorema anterior se sabe que para obtener una base para un subespacio
generado por las columnas de una matriz, se usa su correspondiente matriz escalonada
reducida por renglón. En éste caso, para obtener una base para HA , se usan las
columnas de At y se obtiene su matriz escalonada reducida B. En tal caso,
   
1 0 −3 3 2 1 0 0 0 −1
   
   
t
3 1 0 4 0 0 1 0 4 3
A =   ⇒ B =  
1 1 6 −2 −4 0 0 1 −1 −1
  
   
3 0 −1 1 −2 0 0 0 0 0

Por consiguiente, los vectores:

{w1 = (1, 3, 1, 3), w2 = (0, 1, 1, 0), w3 = (−3, 0, 6, −1)}

forman otra base para HA .

La dependencia de los dos últimos vectores columna de At respecto a los tres


primeros vectores l.i. están dados por los coeficientes de los dos últimos vectores
columnas de B, respectivamente.
Para obtener una base para el espacio columna de A, CA , se recurre a un teorema
ya mencionado anteriormente, que usa su matriz escalonada reducida por renglón B.
Las columnas b1 , b2 , b4 de la matriz B indican que las columnas a1 , a2 , a4 de A son
l.i. y por consiguiente una base para CA son los vectores

{w1 = (1, 0, −3, 3, 2), w2 = (3, 1, 0, 4, 0), w3 = (3, 0, −1, 1, −2)}


CHAPTER 4. ESPACIOS VECTORIALES 109

Note que en el ejemplo anterior ambos espacios CA y HA tienen la misma dimensión


3, ya que hay 3 vectores en ambas bases.

Nota. No se usan los vectores columna de B para formar una base.

Teorema 4.5.5 Sea una matriz m An , entonces dim(CA ) = dim(HA ) = rango(A).

Teorema 4.5.6 El sistema de ecuaciones lineales A x = b es consistente si y solo si


b ∈ CA .
Chapter 5

Transformaciones Lineales

5.1 Conceptos Básicos


Se desea estudiar cierto tipo de funciones entre dos espacios vectoriales. Las matrices
juegan un papel importante en este tema.
Sean V y W dos conjuntos. El sı́mbolo

T : V −→ W

se usa para indicar que T es una función con dominio V y cuyos valores están en W .
Para cada x ∈ V , el elemento T (x) de W se llama imagen de x a través de T y se dice
que T aplica x en T (x). Si A es cualquier subconjunto de V , el conjunto de todas las
imágenes T (x), para x de A, se llama la imagen de A a través de T y se representa
por T (A). La imagen del dominio V , T (V ) es el rango de T .

Sean V y W dos espacios vectoriales con el mismo conjunto de escalares.

Definición 5.1.1 Transformación Lineal. Sean V y W dos espacios vectoriales. Una


transformación lineal de V a W es una función T : V −→ W que satisface, para
cada u y v en V y para cada escalar c, las dos condiciones siguientes:

110
CHAPTER 5. TRANSFORMACIONES LINEALES 111

a) T (u + v) = T (u) + T (v)

b) T (c u) = c T (u)

Las dos propiedades se pueden sintetizar como

T (c1 u + c2 v) = c1 T (u) + c2 T (v)

Nota. A una transformación lineal también se le llama mapeo lineal.

Ejemplos:
a) Sea T : R2 −→ R3 descrita por,
T (x, y) = (x + y, x, 2x − y)
Se puede verificar que T es una transformación lineal de R2 a R3 .
Sean u = (x1 , y1 ) y v = (x2 , y2 ) y c un escalar.

T (u + v) = T ((x1 , y1 ) + (x2 , y2 )) = T (x1 + x2 , y1 + y2 )

= (x1 + x2 + y1 + y2 , x1 + x2 , 2(x1 + x2 ) − (y1 + y2 ))

= (x1 + y1 + x2 + y2 , x1 + x2 , (2x1 − y1 ) + (2x2 − y2 ))

= (x1 + y1 , x1 , 2x1 − y1 ) + (x2 + y2 , x2 , 2x2 − y2 )

= T (u) + T (v)

T (cu) = T (cx1 , cy1 ) = (cx1 + cy1 , cx1 , 2cx1 − cy1 ) = cT (u)

b) Sea una matriz m An .


Defina T : Rn −→ Rm por T (x) = A x
Dado que para cualesquiera vectores x y y en Rn y cualquier escalar c,

T (x + y) = A(x + y) = Ax + Ay = T (x) + T (y)


CHAPTER 5. TRANSFORMACIONES LINEALES 112

T (cx) = A(cx) = cAx = cT (x)

se tiene que Ax es una transformación lineal

c) Sea T : M 2,3 −→ P2 definida por,


 
a11 a12 a13
T (A) = T   = (a11 + a13 )x2 + (a21 − a22 )x + a23
a21 a22 a23
Se puede verificar que se trata de una transformación lineal. Considere dos matrices
A y B, entonces
 
a11 + b11 a12 + b12 a13 + b13
T (A + B) = T  
a21 + b21 a22 + b22 a23 + b23
= (a11 + b11 + a13 + b13 )x2 + (a21 + b21 − a22 − b22 )x + a23 + b23

= (a11 + a13 )x2 + (a21 − a22 )x + a23 + (b11 + b13 )x2 + (b21 − b22 )x + b23

= T (A) + T (B)
 
ca11 ca12 ca13
T (cA) = T  
ca21 ca22 ca23
= (ca11 + ca13 )x2 + (ca21 − ca22 )x + ca23

= c T (A)

Por lo tanto T es una transformación lineal.

d) Sea T : V −→ W una transformación descrita por


T (u) = O ∀ u ∈ V
Se puede verificar que T es una transformación lineal, a la cual se denomina la trans-
formación cero de V a W .

e) A la transformación T : V −→ V definida por T (v) = I(v) = v ∀ v ∈ V se le llama


transformación idéntica, y es una transformación lineal.
CHAPTER 5. TRANSFORMACIONES LINEALES 113

e) Sea V el conjunto de funciones con derivadas de todos los órdenes. Entonces la


transformación derivada D : V −→ V es una transformación lineal, en virtud de que
se tienen las propiedades,

D(f + g) = Df + Dg, y D(cf ) = c D(f )

En cálculo de varias variables se define el gradiente de una función f como


 
∂f ∂f
∇f (x) = ,··· ,
∂x1 ∂xn
Dado que para dos funciones f y g se tiene la propiedad,

∇(f + g) = ∇f + ∇g

y para cualquier escalar c,


∇(cf ) = c ∇f

se tiene que el operador gradiente, es una transformación lineal.

Transformaciones que no son lineales.

a) Sea T : R2 −→ R2 dado por


T (u) = u + (1, 2) ∀ u ∈ R2
Note que,
T (cu) = cu + (1, 2) ̸= cu + c(1, 2) = cT (u)

Por consiguiente, tal transformación no es lineal.

b) f (x) = sen x, no es un mapeo lineal de R a R, en virtud de que en general

f (x + y) = sen (x + y) ̸= sen x + sen y

c) f (x) = x + 2, no es un mapeo lineal de R a R, en virtud de que en

f (x1 + x2 ) = x1 + x2 + 2 ̸= x1 + 2 + x2 + 2 = f (x1 ) + f (x2 )


CHAPTER 5. TRANSFORMACIONES LINEALES 114

Teorema 5.1.1 Sea T : V −→ W una transformación lineal. Entonces para u y v


∈ V se satisface,

a) T (O) = O

b) T (−u) = −T (u) ∀u ∈ V

c) T (u − v) = T (u) − T (v) ∀ u, v ∈ V .

Teorema 5.1.2 Transformación Lineal Dada Por Una Matriz. Sea una matriz m An ;
entonces la función definida por T (x) = Ax, es una transformación lineal de Rn a
Rm .

Ejemplos:
a) Sea θ el ángulo en radianes. Una transformación T : R2 −→ R2 dada por la matriz
 
cos θ −sen θ
A= 
sen θ cos θ

es una transformación lineal, que rota cada vector en R2 a través de un ángulo θ


en el sentido contrario al reloj. Considerando coordenadas polares v = (x, y) =
(r cos α, r sen α), donde r = |v| y α es el ángulo respecto al eje X en sentido con-
trareloj de v. Ası́ se tiene,
     
cos θ −sen θ x cos θ −sen θ r cos α
T (v) = A v =    =   
sen θ cos θ y sen θ cos θ r sen α
   
r cos θ cos α − r sen θ sen α r cos(θ + α)
=  = 
r sen θ cos α + r cos θ sen α r sen (θ + α)

Note que T (v) tiene la misma longitud que v. Además el ángulo del eje X a T (v) es
θ + α, es decir T (v) resulta en rotar v en sentido contrareloj, un ángulo θ.
CHAPTER 5. TRANSFORMACIONES LINEALES 115

b) Se puede ver que T (x) = Ax, con la matriz


 
cos 2θ −sen 2θ
A= 
sen 2θ cos 2θ

es una transformación lineal que refleja en la lı́nea l a través del origen que forma un
ángulo θ con el eje X positivo.

Definición 5.1.2 Sean S : V −→ W y T : V −→ W dos mapeos lineales. Entonces


S es igual a T si S = T como funciones, es decir si S(v) = T (v) ∀v ∈ V .

Teorema 5.1.3 Si S : V −→ W y T : V −→ W son dos transformaciones lineales y


B = {b1 , . . . , bn } es una base para V , y S(bi ) = T (bi ), i = 1, . . . , n; entonces S = T .

Operaciones sobre transformaciones lineales

Definición 5.1.3 Sean S y T mapeos lineales de V a W y sea c un escalar

a) La suma S + T es la función

(S + T )(x) = S(x) + T (x) ∀x ∈ V

b) La diferencia S − T es la función

(S − T )(x) = S(x) − T (x) ∀x ∈ V

c) El negativo −S es la función (−S)(x) = −S(x)

d) El múltiplo escalar cS es la función

(cS)(x) = c(S(x))
CHAPTER 5. TRANSFORMACIONES LINEALES 116

Teorema 5.1.4 Sean S y T mapeos lineales de V a W y c un escalar. Entonces


S + T , S − T , −S y cS, son todas transformaciones lineales de V a W .

Composición de transformaciones.
Sean las funciones f : A −→ B y g : B −→ D
g ◦ f : A −→ D, (g ◦ f )(x) = g(f (x)) ∀ x ∈ A
Similarmente para las transformaciones lineales.

Teorema 5.1.5 Sean S : U −→ V y T : V −→ W transformaciones lineales. En-


tonces la composición T ◦ S : U −→ W es una transformación lineal.

Demostración (Parcial). Sea u ∈ U y c un escalar.

(T ◦ S)(cu) = T (S(cu)) defn

= T (cS(u)) S es mapeo lineal

= cT (S(u)) T es mapeo lineal

= c(T ◦ S)(u) 2

5.2 Matriz de una Transformación de Rn a Rm


Cualquier Transformacion lineal de Rn a Rm puede ser visto como una multiplicación
por una matriz asociada.

Teorema 5.2.1 Sea T : Rn −→ Rm una transformación lineal. Sea A la matriz


m × n cuya i-ésima columna es ai = T (ei ). Entonces A es la matriz única tal que
Ax = T (x) ∀ x ∈ Rn .
CHAPTER 5. TRANSFORMACIONES LINEALES 117

Demostración. Dado que ai = (a1i , . . . , ami )t = T (ei ) para cada i = 1, . . . , n, se


tiene lo siguiente,
 
0
  ... 
 
 

a ··· a1i ··· a1n  
 11  0


 a21 · · · ···

a2i a2n   

Aei = 
 .. ..
 1
..   
 . . .  
  0


am1 · · · ami · · · amn   .. 

.
 
0
 
a
 1i 
 
 a2i 
 ..  = (a1i , . . . , ami ) = T (ei )
=  
 . 
 
ami
Lo que significa que la multiplicación por la izquierda por A coincide con la transfor-
mación lineal T en la base estándar de Rn , la cual es en sı́ una transformación lineal
visto en otro resultado. Tal coincidencia Aei = T (ei ) con la base estándar de Rn
implica que las transformaciones T y A son iguales, es decir, Ax = T (x) ∀ x ∈ Rn .
Para ver unicidad suponga que B es una matriz tal que Bx = T (x) ∀ x ∈ Rn .
Entonces en particular Bei = T (ei ) para i = 1, . . . , n. Pero Bei = bi y T (ei ) = ai ,
lo que significa que la i-ésima columna de B es la i-ésima columna de A para cada i,
es decir que A = B. 2

Nota. A la matriz A del teorema enterior se le llama la matriz estándar asociada a


T o la matriz que representa a T .

Ejemplo. Sea T : R2 −→ R3 definida por,

T (x, y) = (x + y, x, 2x − y)
CHAPTER 5. TRANSFORMACIONES LINEALES 118

Encuentre la matriz A que representa a T .


En un ejemplo anterior se ha verificado que T es una transformación lineal. Por
el teorema anterior A es de orden 3 × 2. Para obtener A considere:

a1 = T (e1 ) = (1, 1, 2) a2 = T (e2 ) = (1, 0, −1)

Con esto la matriz A es  


1 1
 
A = 1 0 
 
 
2 −1
Note que para cualquier x ∈ R2
   
1 1   x+y
  x  
Ax = 1 0  =  x  = T (x)
    
  y  
2 −1 2x − y

5.3 Núcleo e Imagen de una Transformación


Lineal
Si T es una transformación lineal, un teorema asegura que T (O) = O. Puede haber
otros elementos x tales que T (x) = O.

Definición 5.3.1 Sea T : V −→ W una transformación lineal. El conjunto de todos


los elementos x en V tales que T (x) = O se llama núcleo, espacio nulo o kernel de T
y se denota Ker(T ).

Ejemplos:
a) Sea T : R2 −→ R3 definida por, T (x, y) = (x + y, x, 2x − y). Obtenga el ker(T ).
CHAPTER 5. TRANSFORMACIONES LINEALES 119

Se desea resolver T (x, y) = (0, 0, 0) para cualquier (x, y) ∈ R2 . Es decir

x +y = 0
(x + y, x, 2x − y) = (0, 0, 0) ⇒ x = 0
2x −y = 0

Tal sistema homogéneo tiene solución x = 0, y = 0. Por lo que ker(T ) = {0}.

3 2
b) Sea el mapeo
  T : R −→ R definida por, T (x) = Ax, con la matriz
lineal
2 0 1
A= 
1 1 −1
 
  x    
2 0 1   2x +z 0
T (x) =  y  =  = 

1 1 −1   x +y −z 0
z
   
2x +z = 0 2 0 1 0 1 0 1/2 0
⇒ ⇒  ∼ 
x +y −z = 0 1 1 −1 0 0 1 −3/2 0
1 3
⇒ x=− t y= t z=t
2 2
La familia paramétrica de soluciones es

x = t(−1/2, 3/2, 1)

Por lo tanto el ker(T ) es la lı́nea que pasa por el origen, determinada por el vector
(−1/2, 3/2, 1) o por (−1, 3, 2).

Teorema 5.3.1 Sea T : V −→ W una transformación lineal. Entonces el Ker(T )


es un subespacio de V .

Demostración. De la definición se tiene que Ker(T ) es un subconjunto de V .


Suponga que u y v ∈ Ker(T ) y c un escalar. En tal caso,

T (u + v) = T (u) + T (v) = O + O = O ⇒ u + v ∈ Ker(T )


CHAPTER 5. TRANSFORMACIONES LINEALES 120

T (cu) = cT (u) = cO = O ⇒ cu ∈ Ker(T )

por lo tanto Ker(T ) es un subespacio de V . 2

A la dimensión del Ker(T ) también se le llama nulidad(A).

Teorema 5.3.2 Sea T : Rn −→ Rm una transformación lineal y sea A la matriz que


representa a T , con rango(A) = r. Entonces el Ker(T ) es el espacio solución del
sistema Ax = 0, cuya dimensión es dim(Ker(T )) = n − r; es decir

n = rango(A) + nulidad(A)

Demostración. Dado que rango(A) = r, su matriz escalonada reducida por renglón


B, tiene r renglones no nulos. Sin perder generalidad, se puede asumir que la esquina
izquierda superior de B, tiene la forma de una matriz idéntica de orden r. Además los
renglones nulos no contribuyen a la solución, se pueden descartar y formar una matriz
B ′ de r × n, donde B ′ = [Ir |C]. La matriz C tiene n − r columnas que corresponden
a las variables xr+1 , xr+2 , . . . , xn . Con esto el espacio solución del sistema homogéneo
Ax = 0 está dado por el sistema

x1 + c11 xr+1 + c12 xr+2 + · · · +c1,n−r xn = 0


x2 + c21 xr+1 + c22 xr+2 + · · · +c2,n−r xn = 0
.. .. .. ..
. . . .
xr + cr1 xr+1 + cr2 xr+2 + · · · +cr,n−r xn = 0
Resolviendo para las primeras r variables en términos de las restantes n − r variables,
se pueden obtener n − r vectores en la base del espacio solución. Por consiguiente el
espacio solución tiene dimensión n − r, lo que permite concluir el resultado. 2

Una función f : A −→ B es inyectiva o uno a uno si cada vez que x, y ∈ A y


x ̸= y, se tiene que f (x) ̸= f (y). Por otra parte, se dice que f es suprayectiva o sobre,
si para cualquier y ∈ B, existe x ∈ A tal que f (x) = y.
CHAPTER 5. TRANSFORMACIONES LINEALES 121

Definición 5.3.2 Sea T : V −→ W una transformación lineal. La imagen de T es


el conjunto de elementos w en W , tales que existe un elemento v en V que satisface
T(v)=w. Se denota como Im(T ).

Teorema 5.3.3 Sea T : V −→ W una transformación lineal. Entonces Im(T ) es


un subespacio de W .

Demostración. De la definición se tiene que Im(T ) es un subconjunto de W . Note


que T (O) = O y con esto O ∈ Im(T ). Suponga ahora que w1 , w2 ∈ Im(T ); entonces
existen elementos v1 , v2 ∈ V tales que T (v1 ) = w1 y T (v2 ) = w2 . Entonces

T (v1 + v2 ) = T (v1 ) + T (v2 ) = w1 + w2

donde w1 + w2 es la imagen de v1 + v2 bajo T , lo que muestra que w1 + w2 ∈ Im(T ).


Por otra parte, si c es un escalar arbitrario, entonces T (cv1 ) = cT (v1 ) = cw1 implica
que cw1 es la imagen de cv1 bajo T , es decir, cw1 ∈ Im(T ). Por lo tanto Im(T ) es
un subespacio de W . 2

Ejemplo. Describa la Im(T ), donde T : R3 −→ R3 , está dada por T (x) = Ax con la


matriz  
2 1 1
 
A = 1 −1 0
 
 
1 2 1
Sea el vector x = (x, y, z). Considerando la transformación
        
2 1 1 x 2 1 1
        
T (x) = Ax = 1 −1 0 y  = x 1 + y −1 + z 0
        
        
1 2 1 z 1 2 1
CHAPTER 5. TRANSFORMACIONES LINEALES 122

Se observa que para cualquier x ∈ R3 , T (x) es una c.l. de los vectores columna de A.
Cualquier c.l. de tales vectores

y = a(2, 1, 1) + b(1, −1, 2) + c(1, 0, 1)

puede ser visto como la imagen de algún elemento x en R3 bajo T , considerando


x = (a, b, c); es decir

T (a, b, c) = a(2, 1, 1) + b(1, −1, 2) + c(1, 0, 1)

Por lo tanto el conjunto {(2, 1, 1), (1, −1, 2), (1, 0, 1)} generan Im(T )
Conociendo dicho conjunto generador, se puede obtener una base. Note que la matriz
escalonada reducida por renglón B es,
   
2 1 1 1 0 1/3
   
A = 1 −1 0 ⇒ B = 0 1 1/3
   
   
1 2 1 0 0 0

Por lo anterior, una base para Im(T ) es {(2, 1, 1), (1, −1, 2)}

Teorema 5.3.4 Sea T : Rn −→ Rm un mapeo lineal y sea A la matriz que representa


a T . Entonces Im(T ) es CA , el espacio columna de A y la dim(Im(T )) es el rango
de la matriz A.

Demostración. Sea x = (x1 , . . . , xn ), entonces T (x) = Ax resulta en


        
a a12 · · · a1n x a a a
 11   1  11   12   1n 
a22 · · · a2n   x2 
        
 a21  a21   a22   a2n 
T (x) = 
 .. .. ..   ..  = x1  ..  + x2  ..  + · · · + xn  .. 
       
 . . .   .   .   .   . 
        
am1 am2 · · · amn xn am1 am2 amn
= x1 a1 + x2 a2 + · · · + xn an
CHAPTER 5. TRANSFORMACIONES LINEALES 123

Es decir, ∀ x ∈ Rn , T (x) es una c.l. de las columnas de A. Contrariamente, si


y ∈ Rm es una c.l. de las columnas de A, es decir y = c1 a1 + c2 a2 + · · · + cn an ,
entonces y = T (c) donde c = (c1 , c2 , . . . , cn ), lo que significa que y ∈ Im(T ) sı́ y solo
si y es una c.l. de las columnas de la matriz A; es decir Im(T ) = CA . Por un teorema
anterior se sabe que, dim(CA ) = rango(A), de donde se concluye el resultado. 2

Ejemplo. Sea T : R5 −→ R4 dado por T (x) = Ax con la matriz


 
1 2 0 1 0
 
 
2 4 1 0 0
A= 
0 0 1 −2
 
1
 
1 2 1 −1 1

Se puede ver que la matriz escalonada reducida por hilera B de A es


 
1 2 0 1 0
 
0 0 1 −2 0
 
B=  ⇒ rango(A) = 3
 
0 0 0 0 1
 
0 0 0 0 0

Con esto, una base para Im(T ) esta compuesta por a1 , a3 , a5 , es decir

BIm(T ) = {(1, 2, 0, 1), (0, 1, 1, 1), (0, 0, 1, 1)}

Una consecuencia de resultados anteriores es que una transformación lineal


T : V −→ W es suprayectiva o sobre, sı́ y solo si dim(Im(T )) = dim(W ).
Si T : Rn −→ Rm , se tiene el siguiente resultado para verificar si es sobre.

Teorema 5.3.5 Sea T : Rn −→ Rm un mapeo lineal y sea A la matriz que representa


a T . Entonces T es suprayectiva sı́ y solo si rango(A) = m.
CHAPTER 5. TRANSFORMACIONES LINEALES 124

Demostración. Dado que Im(T ) es un subespacio de Rm , se tiene que Im(T ) = Rm


sı́ y solo si dim(Im(T )) = m. Por el teorema anterior, la dim(Im(T )) es igual al
rango(A), de donde se concluye el resultado. 2

Note que para la t.l. T : Rn −→ Rm , T (x) = Ax

rango(A)=r dim(Im(T))=rango(T)
dim(Ker(T))=n-r dim(Im(T))=r

Teorema 5.3.6 Sea T : Rn −→ Rm un mapeo lineal. Entonces la suma de la di-


mensión del Ker(T ) y la dimensión de Im(T ) es igual a la dimensión del dominio
de T , es decir
dim(Ker(T )) + dim(Im(T )) = n

nulidad + rango = n

Demostración. Considerando que rango(A) = r y un resultado anterior se tiene


que
dim(Im(T )) = dim(CA ) = rango(A) = r

Mientras que de otro resultado se tiene que dim(Ker(T )) = n − r. Lo que implica

dim(Ker(T )) + dim(Im(T )) = n − r + r = n. 2

Ejemplo. Determine el rango(T ) y dim(Ker(T )) para la t.l. T : R3 −→ R3 dada


por la matriz T (x) = Ax, con la matriz
 
1 0 −2
 
A = 0 1 1 
 
 
0 0 0
CHAPTER 5. TRANSFORMACIONES LINEALES 125

Note que la matriz A ya está en la forma escalonada reducida por renglón, es decir,
A = B, se tiene entonces que
rango(A) = 2 ⇒ rango(T ) = 2
dim(Ker(T )) = nulidad(A) = n − r = 3 − 2 = 1.

Una forma de visualizar la anterior relación:


rango(A) # de hileras con guı́a 1
nulidad(A) # de variables libre

Ejemplo. Determine el rango(T ) y dim(Ker(T )) de una t.l. T : R5 −→ R7 , con-


siderando que dim(Ker(T )) + dim(Im(T )) = n, bajo los escenarios siguientes:
a) Encuentre la dim(Ker(T )) si rango(T ) = r = 2
n = 5 ⇒ dim(Ker(T )) = n − r = 5 − 2 = 3
b) Encuentre rango(T ) si dim(Ker(T )) = 4
rango(T ) = n − dim(Ker(T )) = 5 − 4 = 1
c) Encuentre el rango(T ) si Ker(T ) = 0
rango(T ) = n − dim(Ker(T )) = 5 − 0 = 5

Teorema 5.3.7 Sea T : V −→ W una t.l., entonces T es inyectiva (uno a uno) sı́ y
solo si Ker(T ) = {O}.

Demostración. Suponga que T es 1 − 1. Entonces T (v) = O puede tener solo una


solución que es v = O. En tal caso Ker(T ) = {O}.
Contrariamente, suponga que Ker(T ) = {O} y T (u) = T (v). Como T es una t.l.
se tiene que

T (u − v) = T (u) − T (v) = O ⇒ u − v ∈ Ker(T )

Lo que implica que u − v = O, es decir u = v, por lo que T es 1 − 1. 2


CHAPTER 5. TRANSFORMACIONES LINEALES 126

Teorema 5.3.8 Sea T : V −→ W una t.l., donde W es de dimensión finita. En-


tonces T es suprayectiva sı́ y solo si rango(T ) = dim(W ).

Teorema 5.3.9 Sea T : V −→ W una t.l., donde V y W son espacios ambos de


dimensión n. Entonces T es uno a uno sii es sobre.

Demostración. Si T es uno a uno, entonce por un teorema anterior Ker(T ) = {O}


y dim(Ker(T )) = 0. En tal caso por otro resultado se tiene que

dim(Im(T )) = n − dim(Ker(T )) = n − 0 = n = dim(W )

Considerando un teorema anterior, T es suprayectiva o sobre.


Contrariamente, si T es sobre, entonces via un teorema anterior,

dim(Im(T )) = dim(W ) = n ⇒ dim(Ker(T )) = 0

Por lo tanto T es uno a uno. 2

Teorema 5.3.10 Sea T : V −→ W una t.l., donde Ker(T ) = {O}. Si v1 , . . . , vn son


elementos l.i. de V , entonces T (v1 ), . . . , T (vn ) son elementos l.i. de W .

Demostración. Sean x1 , . . . , xn números tales que

x1 T (v1 ) + · · · + xn T (vn ) = 0

Por linealidad se tiene que

T (x1 v1 + · · · + xn vn ) = 0

y dado que Ker(T ) = {O} se implica que x1 v1 + · · · + xn vn = 0. Dado que v1 , . . . , vn


son l.i. se tiene que xi = 0 para i = 1, . . . , n. Lo que permite concluir el resultado. 2
CHAPTER 5. TRANSFORMACIONES LINEALES 127

5.4 Inversa de Aplicaciones Lineales


Sea la matriz A que representa una t.l. de Rn a Rn , es decir A es de tamaño n × n.
En tal caso T es inyectiva si y solo si es suprayectiva, lo cual a su vez, por otros
resultados anteriores, esto es cierto si y solo si las columnas de A son una base para
Rn . Esto es cierto si y solo si A es invertible.

Definición 5.4.1 Transformación Inversa. Si T : Rn −→ Rn es una t.l. inyectiva,


entonces T −1 es la transformación inversa de T , definida por T −1 (x) = A−1 x donde
A es la matriz que representa a T .

Note que

T −1 T (x) = T −1 (T (x)) = T −1 (Ax) = A−1 Ax = Ix = I(x)

Similarmente se puede ver que T T −1 (x) = I(x).

Teorema 5.4.1 Sea T : Rn −→ Rn una t.l.. Las siguientes declaraciones son equiv-
alentes:

a) T es uno a uno (inyectiva)

b) T es sobre (suprayectiva)

c) T es invertible

d) det(A) ̸= 0, donde A es la matriz que representa a T .

Ejemplo. Sea T : R3 −→ R3 definida por

T (x, y, z) = (2x − y, x + y + z, 2y − z)
CHAPTER 5. TRANSFORMACIONES LINEALES 128

La matriz que representa a T es


 
2 −1 0
 
A = 1 1
 
1
 
0 2 −1

Dado que det(A) = −7, se tiene que A es invertible. Considerando


1
A−1 = Adj A; Adj A = [cij ]; cij = (−1)i+j |Aji |
|A|
se obtiene la matriz inversa,
 
3 1 1
1 
A−1 = −1 2 2 
 
7 
−2 4 −3

Por consiguiente, T −1 está dado por,


    
3 1 1 x 3x + y + z
1    1  
T −1 (x) = A−1 (x) = −1 2 2  y  =  −x + 2y + 2z 
     
7   7  
−2 4 −3 z −2x + 4y − 3z

Nota. Una t.l. T : Rn −→ Rn , la cual tiene una transformación inversa T −1 , se le


llama isomorfismo.

Definición 5.4.2 Isomorfismo. Una t.l. T : V −→ W que es biyectiva (es decir 1-1
y sobre) es llamado un isomorfismo. Además si V y W son espacios vectoriales tales
que existe un isomorfismo de V a W entonces V y W se dice que son isomórficos
entre sı́.

Teorema 5.4.2 Dos espacios vectoriales V y W de dimensión finita son isomórficos


si y solo si ambos espacios son de la misma dimensión.
CHAPTER 5. TRANSFORMACIONES LINEALES 129

Composición de transformaciones lineales.


Sean T1 : Rn −→ Rm y T2 : Rm −→ Rp
Composición T (v) = T2 (T1 (v)) v ∈ Rn
T2 ◦ T1

Teorema 5.4.3 Sean T1 : Rn −→ Rm y T2 : Rm −→ Rp , dos t.l. con matrices


estándar A1 y A2 . La composición T : Rn −→ Rp definida por T (v) = T2 (T1 (v)) es
una t.l. y la matriz estándar A para T está dado por A = A2 A1 .

Ejemplo. Sean T1 y T2 t.l. de R3 a R3 tales que

T1 (x, y, z) = (2x + y, 0, x + z) y T2 (x, y, z) = (x − y, z, y)

Las matrices estándar para T1 y T2 son


   
2 1 0 1 −1 0
   
A1 = 0 0 0 y A2 = 0 0 1
   
   
1 0 1 0 1 0

Por consiguiente la matriz estándar por T es,


    
1 −1 0 2 1 0 2 1 0
    
A = A2 A1 = 0 0 1 0 0 0 = 1 0 1
    
    
0 1 0 1 0 1 0 0 0

Definición 5.4.3 Inversa de una Transformación Lineal. Si T1 : Rn −→ Rn y


T2 : Rn −→ Rn son t.l. tales que ∀ v ∈ Rn

T2 (T1 (v))) = v y T1 (T2 (v))) = v

entonces T2 es llamada la inversa de T1 y se dice que T1 es invertible.


CHAPTER 5. TRANSFORMACIONES LINEALES 130

Teorema 5.4.4 Sea T : Rn −→ Rn una t.l. con matriz estándar A. Entonces las
siguientes condiciones son equivalentes:

a) T es invertible

b) T es un isomorfismo

c) A es invertible.

Y si T es invertible, entonces la matriz estándar para T −1 es A−1 .


Chapter 6

Transformaciones Lineales y
Matrices

6.1 Matriz de una Transformación Lineal


Sea A la matriz  
a ··· a1n
 11
 .. .. 

A= . . 
 
am1 · · · amn
Se puede asociar una t.l. con la matriz A,

TA : Rn −→ Rm

definida por TA (x) = Ax para cualquier x ∈ Rn . Se le llamama a TA una transfor-


mación lineal asociada a la matriz A.

Teorema 6.1.1 Sea TA : Rn −→ Rm una t.l. y sea m An la matriz cuya i-ésima


columna es ai = T (ei ), i = 1, . . . , n. Entonces A es la única matriz tal que Ax = T (x)
∀ x ∈ Rn .

131
CHAPTER 6. TRANSFORMACIONES LINEALES Y MATRICES 132

Demostración. Dado que ai = T (ei ) ∀ i, se tiene que ai = (a1i , . . . , ami )t = T (ei )


y entonces se puede escribir
 
0
  ... 
 
 
  
a ··· a1i ··· a1n  
 a
 11  0   1i 
 a21 · · · ···
    
a2i a2n   a 
Aei =   1
 
=  2i  = (a1i , . . . , ami )t = T (ei )
 .. .. ..     .. 
 
 . . .    . 
  0  
am1 · · · ami · · · amn   .. 
 ami
.
 
0

La multiplicación por la izquierda por A coincide con la t.l. T sobre una base de Rn ,
la base estándar, y por un teorema anterior, T (x) = Ax es una t.l. Además por otro
resultado Ax = T (x) para cualquier x ∈ Rn . Para verificar unicidad, suponga que B
es una matriz tal que Bx = T (x) ∀ x ∈ Rn , entonces en particular Bei = T (ei ) para
i = 1, . . . , n. Pero Bei = bi y T (ei ) = ai , lo que significa que la i-ésima columna de
B es la i-ésima columna de A, es decir, A = B. 2

A la matriz A del teorema anterior se le llama matriz estándar (base estándar) de


T.
Las operaciones con matrices corresponden a las operaciones con las transforma-
ciones lineales asociadas. Si A y B son matrices m × n, entonces

TA+B = TA + TB

TcA = cTA

Procedimiento para obtener una base para el núcleo de una t.l. dada por una
matriz.
Sea m An una matriz tal que rango(A) = r,
CHAPTER 6. TRANSFORMACIONES LINEALES Y MATRICES 133

a) Resuelva el sistema Ax = 0 transformando la matriz A en la matriz escalonada


reducida por renglón B. Habrá n − r parámetros en la solución.
b) Obtenga n − r vectores, estableciendo en turno, cada parámetro en la solución
igual a 1 y el resto igual a 0.
c) Los n − r vectores en (b) constituyen una base para el espacio solución o Ker(T ).

Ejemplo. Sea T : R5 −→ R4 dado por T (x) = Ax donde A es la matriz


 
1 2 0 1 0
 
 
2 4 1 0 0
A= 
0 1 −2 1
 
0
 
1 2 1 −1 1

Determine la dim(Ker(T )) y una base para Ker(T ).


Se puede ver que la matriz escalonada reducida por rengón B de A es
 
1 2 0 1 0
 
0 0 1 −2 0
 
B=   ⇒ rango(A) = 3

0 0 0 0 1
 
0 0 0 0 0

⇒ dim(Ker(T )) = n − r = 5 − 3 = 2.
La matriz B implica el sistema equivalente

x1 +2x2 +x4 = 0
x1 = −2x2 −x4
x3 −2x4 = 0 ⇒
x3 = 2x4
x5 = 0

Considerando los parámetros x2 = s y x4 = t, se tiene que la familia de soluciones al


sistema Ax = 0 es
(−2s − t, s, 2t, t, 0)
CHAPTER 6. TRANSFORMACIONES LINEALES Y MATRICES 134

Estableciendo s = 1 y t = 0 ⇒ (−2, 1, 0, 0, 0)
Estableciendo s = 0 y t = 1 ⇒ (−1, 0, 2, 1, 0)
Por consiguiente, una base para el Ker(T ) es,

{(−2, 1, 0, 0, 0), (−1, 0, 2, 1, 0)}

Procedimiento para obtener una base para la imagen de una t.l. dada por una
matriz A.
Transforme la matriz A a la forma escalonada reducida por renglón B. Una base
para la Im(T ) consiste en aquellas columnas de A que son transformadas en columnas
elementales en B.

Ejemplo. Del ejemplo anterior, T : R5 −→ R4 definida por T (x) = Ax, donde A y


su forma escalonada reducida por hilera son,
   
1 2 0 1 0 1 2 0 1
0
   
0 1 −2 0
   
2 4 1 0 0 0
A=  ⇒ B= 
−2 1
   
0 0 1 0 0 0 0 1
   
1 2 1 −1 1 0 0 0 0 0
Encuentre el rango de T y una base para la Im(T ).
De la matriz B se implica que 3 = rango(A) = rango(T ). Del procedimiento
descrito se tiene que una base para la Im(T ) es,

{(1, 2, 0, 1), (0, 1, 1, 1), (0, 0, 1, 1)}

6.2 Matriz Estándar de una Transformación Lin-


eal General
Se desea extender la representación matricial de una transformación lineal de Rn a
Rm , para los casos de una transformación lineal entre cualesquiera espacios vectoriales
CHAPTER 6. TRANSFORMACIONES LINEALES Y MATRICES 135

de dimensión finita.
Sea V un espacio vectorial con la base B = {v1 , v2 , . . . , vn }. Se llama vector
coordenado de un vector v ∈ V al único x ∈ Rn de coeficientes requeridos para
expresar v como una combinación lineal de elementos de B:

v = x1 v1 + x2 v2 + · · · + xn vn

El vector coordenado puede ser usado para reemplazar al vector original en diversos
cálculos.
A fin de construir una matriz que representa una t.l. T : V −→ W considere el
siguiente procedimiento:
a) Seleccione B = {b1 , b2 , . . . , bn } y B ′ = {b′1 , b′2 , . . . , b′n } las bases de V y W respecti-
vamente.
b) Exprese cada T (bi ) como una c.l. de B ′ .
c) Sea ai los coeficientes de los b′j , es decir ai es el vector coordenado de T (bi ) con
respecto a B ′ .
d) A es la matriz cuya iésima columna es ai .

Ejemplo. Sea T : M 2,3 −→ P2 definida por


 
a11 a12 a13
T (A) = T   = (a11 + a13 )x2 + (a21 − a22 )x + a23
a21 a22 a23

Encuentre la matriz A en M 3,6 que representa a T , con respecto a las bases


B = {E ij : i = 1, 2; j = 1, 2, 3} y B ′ = {1, x, x2 }.
Siguiendo el procedimiento anterior, se obtiene T (E ij ) ∀ ij y se representa el
resultado vı́a el vector coordenado con respecto a B ′ .

T (E 11 ) = (1 + 0)x2 + (0 − 0)x + 0 = 0(1) + 0(x) + 1(x2 ) ⇒ a1 = (0, 0, 1)

T (E 12 ) = (0 + 0)x2 + (0 − 0)x + 0 = 0(1) + 0(x) + 0(x2 ) ⇒ a2 = (0, 0, 0)


CHAPTER 6. TRANSFORMACIONES LINEALES Y MATRICES 136

T (E 13 ) = (0 + 1)x2 + (0 − 0)x + 0 = 0(1) + 0(x) + 1(x2 ) ⇒ a3 = (0, 0, 1)

T (E 21 ) = (0 + 0)x2 + (1 − 0)x + 0 = 0(1) + 1(x) + 0(x2 ) ⇒ a4 = (0, 1, 0)

T (E 22 ) = (0 + 0)x2 + (0 − 1)x + 0 = 0(1) − 1(x) + 0(x2 ) ⇒ a5 = (0, −1, 0)

T (E 23 ) = (0 + 0)x2 + (0 − 0)x + 1 = 1(1) + 0(x) + 0(x2 ) ⇒ a6 = (1, 0, 0)

Con esto la matrix resultante es


 
0 0 0 0 0 1
 
A = 0 0 0 1 −1 0
 
 
1 0 1 0 0 0

Ejemplo. Sea la t.l. dada por la derivada D : P3 −→ P2 , donde


p(x) = a3 x3 + a2 x2 + a1 x + a0 , y

D(p) = 3a3 x2 + 2a2 x + a1

Encuentre la matriz A que representa a D con respecto a las bases B = {1, x, x2 , x3 }


y B ′ = {1, x, x2 }.
Note que,

D(1) = 0 = 0(1) + 0(x) + 0(x2 ) ⇒ a1 = (0, 0, 0)

D(x) = 1 = 1(1) + 0(x) + 0(x2 ) ⇒ a2 = (1, 0, 0)

D(x2 ) = 2x = 0(1) + 2(x) + 0(x2 ) ⇒ a3 = (0, 2, 0)

D(x3 ) = 3x2 = 0(1) + 0(x) + 3(x2 ) ⇒ a4 = (0, 0, 3)

Por consiguiente la matriz A es,


 
0 1 0 0
 
A = 0 0 2 0
 
 
0 0 0 3
CHAPTER 6. TRANSFORMACIONES LINEALES Y MATRICES 137

6.3 Coordenadas y Cambio de Bases


Si V es un espacio vectorial y S = {v1 , v2 , . . . , vn } es una base para V , entonces
cualquier vector v ∈ V puede ser escrito por una y solo una c.l.

v = c1 v1 + c2 v2 + · · · + cn vn

Definición 6.3.1 Coordenadas Representativas Relativas a una Base. Sea B =


{v1 , v2 , . . . , vn } una base ordenada para el espacio vectorial V y sea x el vector en
V tal que
x = c1 v1 + c2 v2 + · · · + cn vn

Se les llama a los escalares c1 , c2 , . . . , cn coordenadas de x relativo a la base B. El


vector coordenado (o matriz coordenada) de x relativo a B es,
 
c
 1
 
 c2 
[x]B = 
 .. 

.
 
cn

Para V = Rn , x = (x1 , x2 , . . . , xn ), B = S = {e1 , e2 , . . . , en }


 
x
 1
 
 x2 
[x]S =   ..  = [x]

.
 
xn

Ejemplo. R3 , la base estándar S = {e1 , e2 , e3 }


x = (−2, 1, 3); entonces

x = (−2, 1, 3) = −2(1, 0, 0) + 1(0, 1, 0) + 3(0, 0, 1)


CHAPTER 6. TRANSFORMACIONES LINEALES Y MATRICES 138

Entonces el vector coordenado de x relativo a S es


 
−2
 
[x] =  1 
 
 
3

Ejemplo. El vector coordenado de x ∈ R2 relativo a la base ordenada no estándar


B = {v1 , v2 } = {(1, 0), (1, 2)} es,
 
3
[x]B =  
2

  de x relativo a la base estándar B = {(1, 0), (0, 1)}
Encuentre las coordenadas
3
Dado que [x]B =   se puede escribir como,
2

x = 3v1 + 2v2 = 3(1, 0) + 2(1, 2) = (5, 4)

y además tal vector se puede expresar como,

(5, 4) = 5(1, 0) + 4(0, 1)

se tiene entonces que las coordenadas de x relativo a B ′ = {(1, 0), (0, 1)} son
 
5
[x]B′ =  
4

Note que si solo se tiene el vector x = (5, 4) ∈ R2 , entonces con respecto a la base
B = {(1, 0), (1, 2)}, puede verse que el vector coordenado es único,
     
1 1 5
c1   + c2   =  
0 2 4
Se observa que se tiene el sistema y solución

c1 +c2 = 5 c1 = 3

2c2 = 4 c2 = 2
CHAPTER 6. TRANSFORMACIONES LINEALES Y MATRICES 139

Ejemplo. Determine un vector (matriz) coordenado relativo a una base no estándar.


Para el vector x = (1, 2, −1) ∈ R3 , encuentre el vector coordenado relativo a la
base no estándar B ′ = {u1 , u2 , u3 } = {(1, 0, 1), (0, −1, 2), (2, 3, −5)}.
Se establece la c.l. x = c1 u1 + c2 u2 + c3 u3

(1, 2, −1) = c1 (1, 0, 1) + c2 (0, −1, 2) + c3 (2, 3, −5)

Se tiene el sistema y la solución siguiente,


    
c1 +2c3 = 1 1 0 2 c 1
   1  
−c2 +3c3 ⇒ 0 −1 3  c2  =  2 
    
= 2
    
c1 +2c2 −5c3 = −1 1 2 −5 c3 −1

Considerando la matriz aumentada del sistema en cuestión, se obtiene la solución,


   
1 0 2 1 1 0 0 5 c1 = 5
   
⇒ 0 −1 3 2  ∼ 0 1 0 −8 ⇒ c2 = −8
   
   
1 2 −5 −1 0 0 1 −2 c3 = −2

Por consiguiente,
x = 5(1, 0, 1) − 8(0, −1, 2) − 2(2, 3, −5)

y el vector coordenado de x, relativo a la base B ′ es


 
5
 
[x] = −8
 
B′
 
−2

Definición 6.3.2 Matriz de Transición. Si B es la base estándar y B ′ es otra base;


considere a la matriz P cuyas columnas son los vectores en B ′ . Entonces a P se le
llama matriz de transición o cambio de base de B ′ a B mediante

P [x]B′ = [x]B
CHAPTER 6. TRANSFORMACIONES LINEALES Y MATRICES 140

Teorema 6.3.1 Si P es la matriz de transición de una base B ′ a una base B en Rn ,


entonces P es invertible y la matriz de transición de B a B ′ es P −1 .

En consecuencia, P −1 es la matriz de transición o cambio de base de B a B ′


mediante
[x]B′ = P −1 [x]B

Teorema 6.3.2 Matriz de Transición de B a B ′ . Sean B = {v1 , . . . , vn } y B ′ =


{u1 , . . . , un } dos bases para Rn . Entonces la matriz de transición P −1 de B a B ′
puede ser determinada usando eliminación de Gauss-Jordan en la matriz [B ′ |B] de
tamaño n × 2n, donde B ′ y B representan los elementos de las bases.

[B ′ |B] −→ [In |P −1 ] matriz escalonada reducida por renglón

Notas:

a) Si B es la base estándar, el proceso de cambiar [B ′ |B] a [In |P −1 ]


se reduce a
[B ′ |In ] −→ [In |P −1 ] y P −1 = (B ′ )−1

b) Si B ′ es la base estándar, entonces la matriz [B ′ |B] ya está en la forma

[In |B] = [In |P −1 ]

En tal caso la matriz de transición es P −1 = B

Ejemplo. Continuando el ejemplo anterior, se tiene la base estándar B y la base no


estándar B ′ = {(1, 0, 1), (0, −1, 2), (2, 3, −5)} de R3 .
CHAPTER 6. TRANSFORMACIONES LINEALES Y MATRICES 141

La matriz de transición P de B ′ a B, por la definición anterior, está dada por

P [x]B′ = [x]B

Explicitando P , se tiene
    
1 0 2 c 1
   1  
0 −1 3  c2  =  2 
    
    
1 2 −5 c3 −1

Mientras que la matriz de transición de B a B ′ , por el teorema anterior,


   
1 0 2 1 0 0 1 0 0 −1 4 2
   
[B ′ |B] = 0 −1 3 0 1 0 ∼ 0 1 0 3 −7 −3
   
   
1 2 −5 0 0 1 0 0 1 1 −2 −1

por lo cual dicha matriz de transición de B a B ′ es


 
−1 4 2
 
P −1 =  3 −7 −3
 
 
1 −2 −1

y con esto se tiene la relación


[x]B′ = P −1 [x]B
    
c1 −1 4 2 1
    
c2  =  3 −7 −3  2 
    
    
c3 1 −2 −1 −1
Note que para un vector x = (1, 2, −1) ∈ R3
    
−1 4 2 1 5
    
P −1 x =  3 −7 −3  2  = −8
    
    
1 −2 −1 −1 −2
B′

como se vió en un ejemplo anterior.


CHAPTER 6. TRANSFORMACIONES LINEALES Y MATRICES 142

Ejemplo. Encuentre la matriz de transición de B a B ′ para las siguientes bases de


R2 ;
B = {(−3, 2), (4, −2)} y B ′ = {(−1, 2), (2, −2)}

Soln.    
−1 2 −3 4 1 0 −1 2
[B ′ |B] =  ∼ 
2 −2 2 −2 0 1 −2 3
por lo tanto  
−1 2
P −1 = 
−2 3

Ejemplo. La matriz de transición de B = {(1, 0), (1, 2)} a B ′ = {(1, 0), (0, 1)}, por
la parte (b) de la nota anterior, es
 
1 1
P −1 =B= 
0 2

Sea la t.l. T : V −→ W , con V de dimensión finita; sean B y B ′ bases para V y


W respectivamente.
[v]B el vector coordenado de v relativo a B.
Con el objeto de representar la t.l. T , se debe tener

[T (v)]B′ = A[v]B

Se le llama a A, la matriz de T relativo a las bases B y B ′ .


Matriz de transformación para bases no estándares.
Sean V y W espacios vectoriales de dimensión finita con bases B = {v1 , . . . , vn } y B ′ .
CHAPTER 6. TRANSFORMACIONES LINEALES Y MATRICES 143

Si T : V −→ W es una t.l. tal que


     
a11 a12 a1n
     
     
 a21   a22   a2n 
[T (v1 )]B′ =  .  , [T (v2 )]B′ =  .  , . . . , [T (vn )]B′ =  . 
    
 ..   ..   .. 

     
am1 am2 amn

entonces la matriz m × n cuyas n columnas corresponde a [T (vi )]B′ , dada por


 
a a12 · · · a1n
 11 
· · · a2n 
 
 a21 a22
A=  .. .. .. 

 . . . 
 
am1 am2 · · · amn

es tal que, [T (v)]B′ = A[v]B ∀ v ∈ V .

Ejemplo. Sea T : R2 −→ R2 una t.l. definida por T (x1 , x2 ) = (x1 + x2 , 2x1 − x2 ).


Encuentre la matriz para T relativo a las bases

B = {(1, 2), (−1, 1)} y B ′ = {(1, 0), (0, 1)} = {u1 , u2 }

Se tiene por la definición de T ,


T (v1 ) = T (1, 2) = (3, 0) = 3u1 + 0u2
T (v2 ) = T (−1, 1) = (0, −3) = 0u1 − 3u2
Los vectores coordenados para T (v1 ) y T (v2 ) relativo a B ′ son;
   
3 0
[T (v1 )]B′ =   y [T (v2 )]B′ =  
0 −3

Por lo tanto la matriz para T relativo a B y B ′ es


 
3 0
A= 
0 −3
CHAPTER 6. TRANSFORMACIONES LINEALES Y MATRICES 144

Ejemplo. Usando una matriz que representa una t.l.


Considerando el ejemplo anterior de T : R2 −→ R2 , use la matriz A para encontrar
T (v) con v = (2, 1).
Se tiene que el vector v = (2, 1) es el vector coordenado con respecto a la base
estándar de R2 , es decir, [v]B′ . Considerando la base B = {(1, 2), (−1, 1)}, se tiene
     
2 1 −1 c1 −c2 = 2 c1 = 1
  = c1   + c2   ⇒ ⇒
1 2 1 2c1 +c2 = 1 c2 = −1

Por consiguiente,  
1
[v]B =  
−1
B

Via matrices de transición como B es la base estándar, se recurre a un teorema
enunciado que establece que la matriz P −1 de transición de B a B ′ es,

[B ′ |B] = [I2 |B] = [I2 |P −1 ]

Es decir,    
1 −1 1/3 1/3
P −1 =  ⇒ P = 
2 1 −2/3 1/3
P es la matriz de transicioón de B ′ a B. En tal caso,
    
1/3 1/3 2 1
P [v]B′ =     =   = [v]B
−2/3 1/3 1 −1
B

Por consiguiente [T (v)]B′ es


    
3 0 1 3
A[v]B =     =   = [T (v)]B′
0 −3 −1 3

Note que como B ′ = base estándar,

T (v) = 3(1, 0) + 3(0, 1) = (3, 3)


CHAPTER 6. TRANSFORMACIONES LINEALES Y MATRICES 145

Además obteniendo directamente T (v) con la definición de T , se tiene

T (2, 1) = (2 + 1, 2(2) − 1) = (3, 3)

Si V = W y B = B ′ , a la matriz A se le llama matriz de T relativo a la base B.

6.4 Matrices de Transición y Similaridad


Dada una transformación lineal

T : V −→ V

La matriz A depende de la base de V . Ası́ la matriz de T relativo a la base B es


diferente de la matriz de T relativo a otra base B ′ .
Las matrices para transformaciones lineales relativas a diferentes bases están rela-
cionadas.
Matrices: A, A′ , P , P −1
A matriz para T relativo a B
A′ matriz para T relativo a B ′
P matriz de transición de B ′ a B
P −1 matriz de transición de B a B ′

A
[v]B −→ [T (v)]B

P ↑ ↓ P −1
A′
[v]B′ −→ [T (v)]B′

De la gráfica se nota que hay dos maneras de obtener las coordenadas de [T (v)]B′
a partir de [v]B′ ; una es usando directamente la matriz A′ y obtener,

A′ [v]B′ = [T (v)]B′
CHAPTER 6. TRANSFORMACIONES LINEALES Y MATRICES 146

La otra forma es usar las matrices P , A y P −1 para obtener,

P −1 AP [v]B′ = [T (v)]B′

Note que sin apoyo de la gráfica, se consideran las igualdades siguientes, iniciando
con P ,

[v]B = P [v]B′ ⇒ A[v]B = AP [v]B′

⇒ [T (v)]B = AP [v]B′

⇒ P −1 [T (v)]B = P −1 AP [v]B′

⇒ [T (v)]B′ = P −1 AP [v]B′

Pero por la definición de matriz de una t.l. relativo a una base, lo anterior muestra
que
A′ = P −1 AP

Ejemplo. Encuentre la matriz A′ para la t.l. T : R2 −→ R2 definida por T (x1 , x2 ) =


(2x1 − 2x2 , −x1 + 3x2 ), relativo a la base B ′ = {(1, 0), (1, 1)}. La matriz estándar
para T es  
2 −2
A= 
−1 3
Además la matriz de transición P de B ′ a la base estándar B y la matriz de transición
P −1 de B a B ′ son,
     
1 1 1 1 1 −1
[B|B ′ ] = I|  ⇒ P =  y P −1 = 
0 1 0 1 0 1

Con lo anterior, la matriz de T relativo a B ′ es,


     
1 −1 2 −2 1 1 3 −2
A′ = P −1 AP =    = 
0 1 −1 3 0 1 −1 2
CHAPTER 6. TRANSFORMACIONES LINEALES Y MATRICES 147

Ejemplo. Encontrando una matriz para una t.l. con ambas bases B y B ′ no estándares.
Sean B = {(−3, 2), (4, −2)} y B ′ = {(−1, 2), (2, −2)}, bases para R2 y sea la
matriz  
−2 7
A= 
−3 7
para T : R2 −→ R2 relativo a B. Encuentre A′ , la matriz de T relativo a B ′ .
En un ejemplo anterior se encontró que
   
−1 2 3 −2
P −1 =   y por lo tanto P =  
−2 3 2 −1

Por consiguiente la matriz de T relativo a B ′ es,


     
−1 2 −2 7 3 −2 2 1
A′ = P −1 AP =    = 
−2 3 −3 7 2 −1 −1 3

Definición 6.4.1 Matrices Similares. Para matrices n × n, A y A′ , se dice que A′


es similar a A si existe una matriz invertible P tal que A′ = P −1 AP .

Teorema 6.4.1 Sean las matrices cuadradas n × n A, B y C. Entonces se satisfacen

a) A es similar a A

b) Si A es similar a B, entonces B es similar a A

c) Si A es similar a B y B es similar a C, entonces A es similar a C.

Ejemplo. Del ejemplo anterior


   
−2 7 2 1
A=  y A′ =  
−3 7 −1 3
CHAPTER 6. TRANSFORMACIONES LINEALES Y MATRICES 148

son matrices similares.

Ejemplo. Suponga que para T : R3 −→ R3 la matriz de T relativo a la base estándar


B es,  
1 3 0
 
A = 3 1 0 
 
 
0 0 −2
Encuentre la matriz A′ para T relativo a la base

B ′ = {(1, 1, 0), (1, −1, 0), (0, 0, 1)}

La matriz de transición de B ′ a la base estándar B tiene las columnas de los vectores


de B ′ , es decir, de base no estándar a estándar.
 
1 1 0
 
P = 1 −1
 
0
 
0 0 1

Por consiguiente  
1/2 1/2 0
 
P −1 = 1/2 −1/2 0
 
 
0 0 1
Por lo tanto la matriz para T relativo a B ′ es
     
1/2 1/2 0 1 3 0 1 1 0 4 0 0
     
′ −1
A = P AP = 1/2 −1/2 0 3 1 0  1 −1 0 = 0 −2 0 
     
     
0 0 1 0 0 −2 0 0 1 0 0 −2

Note que se obtiene una matriz diagonal !


Chapter 7

Productos Escalares y
Ortogonalidad

7.1 Producto Escalar o Producto Interno


Se tiene el objetivo de extender los conceptos de longitud, distancia y ángulo ya
estudiados en Rn a espacios vectoriales en general. Para esto se emplea la noción de
un producto interno de dos vectores. El producto punto, llamado el producto interno
Euclideano es solamente uno de varios productos internos que pueden ser definidos
en Rn . Para distinguir entre el producto interno estándar y otros posibles productos
internos, se usa la notación,
u · v = producto punto (producto interno Euclideano para Rn )
⟨u, v⟩ = producto interno general para el espacio vectorial V .

Definición 7.1.1 Producto Escalar o Interno. Un producto escalar o interno en V


es una asociación en el cual a cada par de elementos u y v de V asocia un escalar
denotado ⟨u, v⟩, que satisface

a) ⟨u, v⟩ = ⟨v, u⟩

149
CHAPTER 7. PRODUCTOS ESCALARES Y ORTOGONALIDAD 150

b) ⟨u, v + w⟩ = ⟨u, v⟩ + ⟨u, w⟩

c) ⟨cu, v⟩ = c⟨u, v⟩, c es cualquier escalar

d) ⟨u, u⟩ ≥ 0 y ⟨u, u⟩ = 0 si y solo si u = 0.

El producto escalar se dice que es no degenerado, si en adición también satisface


la condición: si v ∈ V y ⟨v, w⟩ = 0 para cualquier w ∈ V , entonces v = O.

Definición 7.1.2 Producto Escalar Definido Positivo. Si se satisface ∀ v ∈ V

⟨v, v⟩ ≥ 0 y ⟨v, v⟩ > 0 si v ̸= 0

se dice que el producto escalar es definido positivo.

Ejemplo. Si V = Rn entonces el mapeo (x, y) 7−→ x · y es un producto escalar, es


decir, coincide con la definición de producto punto de dos vectores.

Ejemplo. Si V = R2 , u = (u1 , u2 ) y v = (v1 , v2 ).


Defina ⟨u, v⟩ = u1 v1 + 2u2 v2 .
Se puede verificar que tal función define un producto interno. Note que

⟨u, v⟩ = u1 v1 + 2u2 v2 = v1 u1 + 2v2 u2 = ⟨v, u⟩ Primera propiedad

Si w = (w1 , w2 ), se tiene entonces,

⟨u, v + w⟩ = u1 (v1 + w1 ) + 2u2 (v2 + w2 )

= u1 v1 + u1 w1 + 2u2 v2 + 2u2 w2

= (u1 v1 + 2u2 v2 ) + (u1 w1 + 2u2 w2 )

= ⟨u, v⟩ + ⟨u, v⟩ Segunda propiedad


CHAPTER 7. PRODUCTOS ESCALARES Y ORTOGONALIDAD 151

Ahora para cualquier escalar c,

c⟨u, v⟩ = c(u1 v1 + 2u2 v2 ) = (cu1 )v1 + 2(cu2 )v2 = ⟨cu, v⟩ Tercera propiedad

Finalmente
⟨u, u⟩ = u21 + 2u22 ≥ 0 Cuarta propiedad

y ésta expresión es igual a cero sii u = 0.

Ejemplo. Sea V = M 2,2 . Para las matrices A y B ∈ M 2,2


   
a11 a12 b11 b12
A=  y B= 
a21 a22 b21 b22

defina la función
⟨A, B⟩ = a11 b11 + a21 b21 + a12 b12 + a22 b22

Se pueden verificar las propiedades del producto interno. Por lo que tal función define
un espacio con producto interno en M 2,2 .

Ejemplo. Sea V el espacio vectorial de funciones continuas valuada real en el inter-


valo [0, 1]. Si f y g ∈ V = C[0, 1] defina,
Z 1
⟨f, g⟩ = f (t)g(t)dt
0

Por las propiedades de la integral se puede verificar que tal definición es un producto
escalar o interno.

Definición 7.1.3 Ortogonalidad. Sea V un espacio vectorial con un producto escalar.


Se define que los elementos u, v ∈ V son ortogonales o perpendiculares, denotado
u ⊥ v si ⟨u, v⟩ = 0. Si S es un subconjunto de V , se denota S ⊥ al conjunto de todos
los elementos w ∈ V los cuales son perpendiculares a todos los elementos de S, es
decir, ⟨v, w⟩ = 0 ∀ v ∈ S. Se lee “S"
ortogonal
CHAPTER 7. PRODUCTOS ESCALARES Y ORTOGONALIDAD 152

Usando las propiedades (2) y (3) de la definición de producto escalar se puede


verificar que S ⊥ es un subespacio de V , al que se denomina espacio ortogonal de S.
Si w es perpendicular a S, se escribe w ⊥ S. Sea U el subespacio de V generado
por los elementos de S. Ahora si w ⊥ S y v1 , v2 ∈ S se tiene

⟨w, v1 + v2 ⟩ = ⟨w, v1 ⟩ + ⟨w, v2 ⟩ = 0

⟨w, cv1 ⟩ = c⟨w, v1 ⟩ ∀ c ∈ R

Por lo tanto w es perpendicular a combinaciones lineales de elementos de S, es decir


w es perpendicular a U .

Teorema 7.1.1 Sean u, v y w vectores de V un espacio con producto interno y c un


escalar. Entonces se satisfacen,

a) ⟨O, v⟩ = ⟨v, O⟩ = 0

b) ⟨u + v, w⟩ = ⟨u, w⟩ + ⟨v, w⟩

c) ⟨u, cv⟩ = c⟨u, v⟩.

Definición 7.1.4 Norma, Distancia y Ángulo. Sean u y v vectores de V un espacio


con producto interno. Entonces,
p
a) La norma o longitud de u es ∥u∥ = ⟨u, u⟩

b) La distancia entre u y v es d(u, v) = ∥u − v∥

c) El ángulo θ entre dos vectores no nulos u y v está dado por,

⟨u, v⟩
cos θ = , 0≤θ≤π
∥u∥∥v∥

d) u y v son ortogonales si ⟨u, v⟩ = 0.


CHAPTER 7. PRODUCTOS ESCALARES Y ORTOGONALIDAD 153

Si ∥v∥ = 1 se tiene un ”vector” unitario.


v
Si v ∈ V y v ̸= 0 ⇒ ∥v∥
es un ”vector” unitario.

Definición 7.1.5 Base Ortogonal y Ortonormal. Sea {v1 , . . . , vn } una base de V .


Dicha base es ortogonal si y solo si ⟨vi , vj ⟩ = 0 ∀ i ̸= j. Si además cada elemento de
la base tiene longitud de 1, entonces se dice que la base es ortonormal.

Teorema 7.1.2 De Pitágoras. Si v ⊥ w ⇒ ∥v + w∥2 = ∥v∥2 + ∥w∥2 .

Demostración. v ⊥ w ⇒ ⟨u, w⟩ = 0. Por lo tanto,

∥v + w∥2 = ⟨v + w, v + w⟩

= ⟨v, v⟩ + 2⟨v, w⟩ + ⟨w, w⟩

= ∥v∥2 + ∥w∥2 2

Teorema 7.1.3 Ley del Paralelogramo. Para cualquier v y w ∈ V ,

∥v + w∥2 + ∥v − w∥2 = 2∥v∥2 + 2∥w∥2

Demostración. Se tiene,

∥v + w∥2 + ∥v − w∥2 = ⟨v + w, v + w⟩ + ⟨v − w, v − w⟩

= ∥v∥2 + ∥w∥2 + ⟨v, w⟩ + ⟨w, v⟩

+∥v∥2 + ∥w∥2 − ⟨v, w⟩ − ⟨w, v⟩

= 2∥v∥2 + 2∥w∥2 2

Sean v y w con ∥w∥ =


̸ 0. Existe un único número c tal que v − cw ⊥ w.
⟨v,w⟩
⟨v − cw, w⟩ = 0 ⇒ ⟨v, w⟩ − ⟨cw, w⟩ = 0 ⇒ ⟨v, w⟩ = c⟨w, w⟩ ⇒ c = ⟨w,w⟩
CHAPTER 7. PRODUCTOS ESCALARES Y ORTOGONALIDAD 154

Tal valor de c es la componente de v en w o coeficiente de Fourier de v con respecto


a w. Mientras que cw es la proyección de v en w. Si w es un vector unitario, se tiene
que c = ⟨v, w⟩.

Teorema 7.1.4 Desigualdad de Cauchy-Schwarz.

|⟨v, w⟩| ≤ ∥v∥∥w∥

Demostración. Si w = O entonces ambos lados es cero y la desigualdad es obvia.


Suponga ahora que w ̸= 0. Sea c la componente de v en w. Se tiene que

v = v − cw + cw

v − cw ⊥ cw y por resultado de Pitágoras,

∥v∥2 = ∥v − cw∥2 + ∥cw∥2 = ∥v − cw∥2 + |c|2 ∥w∥2 ⇒ |c|2 ∥w∥2 ≤ ∥v∥2

Tomando raiz cuadrada se obtiene que

|c|∥w∥ ≤ ∥v∥

Dado que c = ⟨v, w⟩/∥w∥2 , al substituir |c| se implica

|⟨v, w⟩| ≤ ∥v∥∥w∥ 2

Teorema 7.1.5 Desigualdad del Triángulo. Para cualquier u y v ∈ V ,

∥u + v∥ ≤ ∥u∥ + ∥v∥
CHAPTER 7. PRODUCTOS ESCALARES Y ORTOGONALIDAD 155

Demostración. Por definición y la desigualdad de Cauchy-Schwarz,

∥u + v∥2 = ⟨u + v, u + v⟩

= ⟨u, u⟩ + ⟨v, v⟩ + ⟨u, v⟩ + ⟨v, u⟩

= ∥u∥2 + ∥v∥2 + 2⟨u, v⟩

≤ ∥u∥2 + ∥v∥2 + 2|⟨u, v⟩|

≤ ∥u∥2 + ∥v∥2 + 2∥u∥∥v∥

= (∥u∥ + ∥v∥)2 2

Ejemplo. V = Rn con el producto punto como el producto escalar. Sea ei el iésimo


vector unitario y x = (x1 , . . . , xn ). Entonces la componente de x en ei es,

c = ⟨x, ei ⟩ = x · ei = xi

Ejemplo. Sea V = C[−π, π], espacio de funciones continuas en el intervalo [−π, π],
k ∈ N , entonces para f (x) = sen kx,
π 1/2

Z
p 2
∥f ∥ = ⟨f, f ⟩ = sen kx dx = π
−π

si g() es cualquier función que pertenece a C[−π, π], entonces el coeficiente de Fourier
de g con respecto a f es,
π
⟨g, f ⟩
Z
1
= g(x) sen kx dx
⟨f, f ⟩ π −π

Sean v1 , . . . , vn elementos distintos de cero en V tales que ⟨vi , vj ⟩ = 0 ∀ i ̸= j.


Sea ci la componente de v en vi , entonces,

v − c1 v1 − · · · − cn vn ⊥ v1 , . . . , vn
CHAPTER 7. PRODUCTOS ESCALARES Y ORTOGONALIDAD 156

Esto se puede ver considerando los productos con vj ∀ j, donde todos los términos
⟨vi , vj ⟩ = 0 si i ̸= j y solo se tendrán los términos restantes,

⟨v, vj ⟩
⟨v, vj ⟩ − cj ⟨vj , vj ⟩ = ⟨v, vj ⟩ − ⟨vj , vj ⟩ = 0
⟨vj , vj ⟩

Esto indica que restando combinaciones lineales ortogonaliza v con respecto a v1 , . . . , vn .


El siguiente resultado muestra que c1 v1 +· · ·+cn vn es la aproximación más cercana
a v, como una c.l. de v1 , . . . , vn .

Teorema 7.1.6 Sean v1 , . . . , vn elementos mutuamente perpendiculares, con la propiedad


de ∥vi ∥ ̸= 0 ∀ i. Sea v un elemento en V y sea ci la componente de v en vi . Sean
a1 , . . . , an números, entonces,
n
X n
X
∥v − ck vk ∥ ≤ ∥v − ak vk ∥
k=1 k=1
Pn
Demostración. Se sabe que ∀ i = 1, . . . , n que v − k=1 ck vk ⊥ vi y con ello
también es ⊥ a cualquier c.l. de v1 , . . . , vn . La siguiente ecuación considera el argu-
mento anterior y el teorema de Pitágoras,
n
X n
X n
X
∥v − ak vk ∥2 = ∥v − ck vk + (ck − ak )vk ∥2
k=1 k=1 k=1
n
X n
X
2
= ∥v − ck vk ∥ + ∥ (ck − ak )vk ∥2
k=1 k=1

La ecuación anterior implica


X X
∥v − ck vk ∥ ≤ ∥v − ak vk ∥ 2

Ejemplo. Sea V = C[0, 2π] el espacio vectorial de funciones continuas en dicho


intervalo. Sea
gk (x) = cos kx, k = 0, 1, 2, ...
CHAPTER 7. PRODUCTOS ESCALARES Y ORTOGONALIDAD 157

Considere el producto interno dado por


Z 2π
⟨f, g⟩ = f (x)g(x) dx
0

Se puede ver que


√ √
∥g0 ∥ = 2π y ∥gk ∥ = π para k > 0

Si se toma vk = gk para k = 1, 2, ..., n entonces el teorema anterior establece que la


c.l.
c0 + c1 cos x + c2 cos 2x + · · · + cn cos nx

provee la mejor aproximación a la función f entre todas las posibles combinaciones


lineales
a0 + a1 cos x + a2 cos 2x + · · · + an cos nx

con números reales arbitrarios a0 , a1 , . . . , an . A tal suma se le llama suma parcial de


la serie de Fourier.
De manera similar se puede tomar una c.l. de la función sen kx, lo cual conlleva a
la teorı́a de series de Fourier, que se estudia en Análisis.

Teorema 7.1.7 Desigualdad de Bessel. Si v1 , . . . , vn son vectores unitarios mutu-


amente perpendiculares y si ci es el coeficiente de Fourier de v con respecto a vi ,
entonces
n
X
c2i ≤ ∥v∥2
i=1

Demostración. Por hipótesis ⟨vi , vi ⟩ = ∥vi ∥2 = 1, por lo que ci = ⟨v, vi ⟩. Entonces


considere la siguiente desigualdad,
X X
0 ≤ ⟨v − ci vi , v − ci vi ⟩
X X
= ⟨v, v⟩ − 2ci ⟨v, vi ⟩ + c2i
X
= ⟨v, v⟩ − c2i
CHAPTER 7. PRODUCTOS ESCALARES Y ORTOGONALIDAD 158

lo que muestra el resultado. 2

Al siguiente resultado se le conoce como Proceso de Ortogonalización Gram-


Schmidt.

Teorema 7.1.8 Sea V un espacio vectorial finito con un producto escalar definido
positivo. Sea W un subespacio de V y sea {w1 , . . . , wm } una base ortogonal de W . Si
W ̸= V entonces existen elementos wm+1 , . . . , wn de V tal que {w1 , . . . , wn } es una
base ortogonal de V .

Demostración. Se sabe, por resultados anteriores, que se pueden encontrar elemen-


tos vm+1 , . . . , vn de V tal que {w1 , . . . , wm , vm+1 , . . . , vn } sea una base de V (la cual
no es ortogonal). Sea Wm+1 el espacio generado por {w1 , . . . , wm , vm+1 }. Se desea
obtener una base ortogonal para Wm+1 . Con tal propósito se toma vm+1 y se resta de
él su proyección en {w1 , . . . , wm }. Es decir

⟨vm+1 , w1 ⟩ ⟨vm+1 , wm ⟩
c1 = , . . . , cm =
⟨w1 , w1 ⟩ ⟨wm , wm ⟩

Con lo anterior se establece

wm+1 = vm+1 − c1 w1 − · · · − cm wm

Entonces wm+1 ⊥ w1 , . . . , wm ; además wm+1 ̸= 0 ya que de otra modo vm+1 serı́a


linealmente dependiente de w1 , . . . , wm . Por otra parte, vm+1 pertenece al espacio
generado por w1 , . . . , wm+1 en virtud de que vm+1 = wm+1 + c1 w1 + · · · + cm wm .
Por consiguiente, {w1 , . . . , wm+1 } es una base ortogonal de Wm+1 . Ahora via in-
ducción se muestra que el espacio Wm+s generado por w1 , . . . , wm+1 , . . . , wm+s , con
s = 1, . . . , n − m, tiene una base ortogonal dada por {w1 , . . . , wm+1 , . . . , wm+s }. Lo
que concluye la prueba. 2
CHAPTER 7. PRODUCTOS ESCALARES Y ORTOGONALIDAD 159

Corolario 7.1.1 Sea V un espacio vectorial de dimensión finita con un producto es-
calar definido positivo. Suponga que V ̸= {O}. Entonces V tiene una base ortogonal.

Demostración. Por hipótesis ∃v1 ∈ V ∋ v1 ̸= 0. Sea W el subespacio generado por


v1 y entonces aplica el teorema para obtener la base que se busca. 2

Procedimiento de Ortogonalización de G-S


Sea {v1 , . . . , vn } una base de V

v1′ = v1
⟨v2 , v1′ ⟩ ′
v2′ = v2 − ′ ′ · v1
⟨v1 , v1 ⟩
⟨v3 , v2′ ⟩ ′ ⟨v3 , v1′ ⟩ ′
v3′ = v3 − ′ ′ · v2 − ′ ′ · v1
⟨v2 , v2 ⟩ ⟨v1 , v1 ⟩
..
.

⟨vn , vn−1 ⟩ ⟨vn , v1′ ⟩ ′
vn′ = vn − ′ · v ′
− · · · − ·v
⟨vn−1 , vn−1 ′
⟩ n−1 ⟨v1′ , v1′ ⟩ 1

Entonces {v1′ , . . . , vn′ } una base ortogonal de V .

Ejemplo. Use el proceso de Gram-Schmidt a la base de R3 dado por


B = {v1 , v2 , v3 } = {(1, 1, 0), (1, 2, 0), (0, 1, 2)}

Considerando el producto punto como el producto interno,

v′1 = v1 = (1, 1, 0)
v2 · v′1 ′ 3 1 1
v′2 = v2 − ′ v = (1, 2, 0) − (1, 1, 0) = (− , , 0)
′ 1
v1 · v1 2 2 2
′ ′
v3 · v2 ′ v3 · v1 ′ 1/2 1 1 1
v′3 = v3 − ′ v − ′
′ 2
v = (0, 1, 2) −
′ 1
(− , , 0) − (1, 1, 0) = (0, 0, 2)
v2 · v2 v1 · v1 1/2 2 2 2

Con esto, una base ortogonal para R3 es {(1, 1, 0), (−1/2, 1/2, 0), (0, 0, 2)}. Normal-
CHAPTER 7. PRODUCTOS ESCALARES Y ORTOGONALIDAD 160

izando cada vector se tiene que,


√ √
v′1 1 2 2
u1 = ′
= √ (1, 1, 0) = ( , , 0)
∥v1 ∥ 2 2 2
√ √
v′2 1 1 1 2 2
u2 = ′
= √ (− , , 0)) = (− , , 0)
∥v2 ∥ 1/ 2 2 2 2 2
v′3 1
u3 = ′
= (0, 0, 2) = (0, 0, 1)
∥v3 ∥ 2

Se obtiene ası́ una base ortonormal {u1 , u2 , u3 } de R3 .

Teorema 7.1.9 Sea V un espacio vectorial sobre R, con un producto escalar definido
positivo, de dimensión n. Sea W un subespacio de V de dimensión r. Sea W ⊥ el
subespacio de V de todos los elementos los cuales son perpendiculares a W . Entonces
V es la suma directa de W y W ⊥ y dim(W ⊥ ) = n − r, es decir

dim(W ) + dim(W ⊥ ) = dim(V )

Demostración. Si W consiste solo del O, o si W = V , entonces la declaración es


obvia. Asuma que V ̸= W y que W ̸= {O}. Sea {w1 , . . . , wr } una base ortonormal
de W . Por el teorema sobre ortogonalización anterior, se tiene que existen elementos
ur+1 , . . . , un de V tales que {w1 , . . . , wr , ur+1 , . . . , un } es una base ortonormal de V .
Se desea probar que {ur+1 , . . . , un } es una base ortonormal de W ⊥ . Con este fin
considere un elemento u de W ⊥ , entonces existen números x1 , . . . , xn tales que,

u = x1 w1 + · · · + xr wr + xr+1 ur+1 + · · · + xn un

Dado que u ⊥ W , tomando el producto interno con cualquier wi , i = 1, . . . , r, se tiene


que
0 = ⟨u, wi ⟩ = xi ⟨wi , wi ⟩ = xi ⇒ xi = 0 ∀ i = 1, . . . , r

Por lo tanto u es una c.l. de {ur+1 , . . . , un }.


Contrariamente, sea u = xr+1 ur+1 + · · · + xn un una c.l. de ur+1 , . . . , un . Se tiene que
CHAPTER 7. PRODUCTOS ESCALARES Y ORTOGONALIDAD 161

⟨u, wi ⟩ = 0 ∀ i = 1, . . . , r, lo que implica que u ⊥ wi ∀ i = 1, . . . , r, es decir u ⊥ W .


Esto muestra que ur+1 , . . . , un genera a W ⊥ . Dado que tales vectores son mutuamente
perpendiculares y de norma 1, se tiene que forman una base ortonormal de W ⊥ , cuya
dimensión es n − r. Además cada elemento v ∈ V tiene una única expresión como c.l.

v = x1 w1 + · · · + xr wr + xr+1 ur+1 + · · · + xn un

y con esto una expresión única como una suma v = w + u con w ∈ W y u ∈ W ⊥ .


Por consiguiente v es la suma directa de W y W ⊥ . 2

7.2 Producto Hermitiano


Definición 7.2.1 Campo. Un campo es un conjunto F con dos operaciones llamadas
adición y multiplicación que satisface los axiomas (A), (M) y (D).

(A) Axiomas de la suma

A1) Si x ∈ F, y ∈ F ⇒ x + y ∈ F .

A2) Propiedad Conmutativa: x + y = y + x.

A3) Propiedad Asociativa: (x + y) + z = x + (y + z).

A4) ∃ un elemento neutro 0 tal que x + 0 = x.

A5) ∀x ∈ F, ∃ un elemento −x tal que x + (−x) = 0.

(M) Axiomas de Multiplicación

M1) Si x, y ∈ F ⇒ xy ∈ F .

M2) Propiedad Conmutativa: xy = yx.

M3) Propiedad Asociativa: (xy)z = x(yz).


CHAPTER 7. PRODUCTOS ESCALARES Y ORTOGONALIDAD 162

M4) ∃ un elemento neutro 1 tal que 1x = x, ∀x ∈ F .


1
M5) Si x ̸= 0, entonces existe x
en F tal que x x1 = 1.

(D) Ley Distributiva


∀x, y, z ∈ F : x(y + z) = xy + xz

7.2.1 Números Complejos

Teorema 7.2.1 Existe un campo ordenado R el cual tiene la propiedad mı́nima cota
superior. Además, R contiene al conjunto Q como subcampo.

C = Conjunto de números complejos.

Definición 7.2.2 Número Complejo. Un número complejo es un par ordenado


z = (x, y) de números reales x y y tales que satisface las propiedades siguientes, para
z1 = (x1 , y1 ) y z2 = (x2 , y2 ) :

a) z1 + z2 = (x1 , y1 ) + (x2 , y2 ) = (x1 + x2 , y1 + y2 )

b) z1 z2 = (x1 x2 − y1 y2 , x1 y2 + x2 y1 )

c) z1 = z2 ⇔ x1 = x2 y y1 = y2 .

Teorema 7.2.2 La adición y multiplicación de todos los números complejos produce


un campo donde (0, 0) y (1, 0) son los elementos neutros aditivo y multiplicativo re-
spectivamente, de la definición de campo.

Los números C incluyen a R, como subconjunto propio.


CHAPTER 7. PRODUCTOS ESCALARES Y ORTOGONALIDAD 163

Lema 7.2.1 ∀x1 , x2 ∈ R se tiene que


(x1 , 0) + (x2 , 0) = (x1 + x2 , 0)
(x1 , 0)(x2 , 0) = (x1 x2 , 0)

El resultado anterior muestra que cualquier número complejo de la forma (a, 0)


tiene las mismas propiedades aritméticas como a las correspondientes al número real
a. Por esto se puede identificar a (a, 0) con a y entonces considerar al campo de R
como un subcampo del campo complejo C.

Definición 7.2.3 i = (0, 1)

Lema 7.2.2 i2 = −1

Demostración. i2 = (0, 1)(0, 1) = (−1, 0) = −1 2

De acuerdo al resultado anterior, la ecuación x2 + 1 = 0 no tiene solución en R,


pero sı́ tiene solución en C.

Lema 7.2.3 Cualquier número z = (x, y) ∈ C se puede escribir como z = x + iy.

Demostración. Sea yi = (y, 0)(0, 1) = (0, y)

(x, y) = (x, 0) + (0, y) = x + yi 2

Nota. Si z = (x, y) = x + iy, se escribe Re(z) = x, Im(z) = y.

Definición 7.2.4 Conjugado de z = (x, y). Para z = (x, y) se define el conjugado


de z como, z = (x, −y) = x − iy

Teorema 7.2.3 Se satisfacen las condiciones siguientes


CHAPTER 7. PRODUCTOS ESCALARES Y ORTOGONALIDAD 164

a) z1 + z2 = z1 + z2

b) z1 z2 = z1 · z2

c) z + z = 2Re(z)

d) z − z = 2iIm(z)

e) zz produce un real positivo, excepto si z = (0, 0).

Note que para z = (x, y) se tiene que zz = x2 + y 2

Definición 7.2.5 Módulo o Valor Absoluto. Para z = (x, y) ∈ C se define el módulo


o valor absoluto de z, denotado |z|, a la raı́z cuadrada no negativa de zz, es decir
p
|z| = (zz)1/2 = x2 + y 2 = d(0, z)


Note que si z0 = (x, 0) ∈ C, z0 = x en R, |z0 | = x2 . No obstante de que R es un
campo ordenado, C no es un campo ordenado.
Para establecer la exponencial de un complejo, considere la representación de
coordenadas polares del punto (x, y),

z = x + iy = (x, y) = (r cos θ, r sin θ) = r(cos θ + i sin θ)

Entonces deberı́a cumplirse


ez = ex+iy = ex eiy

Como eiy es un número complejo, entonces se puede escribir

eiy = A(y) + iB(y)


CHAPTER 7. PRODUCTOS ESCALARES Y ORTOGONALIDAD 165

para algunas funciones reales A(y) y B(y). Diferenciando dos veces ésta ecuación y
resolviendo la ecuación diferencial de segundo orden obtenida, resulta que

eiy = cos y + i sin y

Por lo cual,
ez = ex (cos y + i sin y)

Forma polar. Cualquier número complejo z ̸= 0 puede ser expresado en la forma:


z = reiθ = r(cos θ + i sin θ)
Funciones complejas:
f : R −→ C fn. compleja de variable real
f : C −→ C fn. compleja de variable compleja.

Ejemplo.
f (x) = u(x) + iv(x) donde u(x) y v(x) son funciones de R a R.
f (z) = ez

7.2.2 Espacio Vectorial sobre C

Se desea preservar la noción de producto escalar definido positivo en tanto sea posible.
El producto punto de 2 vectores con componentes complejos puede ser cero sin que
los vectores sean cero; por lo que se requiere hacer algunas modificaciones.
Note que si v = (i, 1) se tiene (i, 1) · (i, 1) = i2 + 1 = 0, es decir ∥v∥ = 0.

Definición 7.2.6 Producto Hermitiano. Sea V un espacio vectorial sobre C. Un pro-


ducto Hermitiano en V es una regla en la que cualquier par de elementos v, w ∈ V
asocia un número complejo denotado nuevamente por ⟨v, w⟩, que satisface las sigu-
ientes propiedades;

a) ⟨v, w⟩ = ⟨w, v⟩ ∀ v, w ∈ V (la barra denota el conjugado complejo)


CHAPTER 7. PRODUCTOS ESCALARES Y ORTOGONALIDAD 166

b) Si u, v, w ∈ V , entonces
⟨u, v + w⟩ = ⟨u, v⟩ + ⟨u, w⟩

c) Si α ∈ C entonces
⟨αu, v⟩ = α⟨u, v⟩ y ⟨u, αv⟩ = α⟨u, v⟩

Se dice que el producto Hermitiano es definido positivo si ⟨v, v⟩ ≥ 0 ∀v ∈ V y


⟨v, v⟩ > 0 si v ̸= 0.

Ejemplo. Sea V = Cn . Si x = (x1 , . . . , xn ) y yn = (y1 , . . . , yn ) son dos vectores en


Cn , se define su producto Hermitiano como

⟨x, y⟩ = x1 y 1 + · · · + xn y n

Se puede verificar que se satisfacen las condiciones (a), (b) y (c) de la definición
establecida.
Note que ⟨(i, 1), (i, 1)⟩ = ii + 1 = 1 + 1 = 2
Además si x ̸= 0, algún xi ̸= 0 y xi xi > 0. Por consiguiente ⟨x, x⟩ > 0.

Ejemplo. Sea V = CC [−π, π] el espacio de funciones continuas valuadas complejas


en [−π, π]. Si f y g ∈ V se define,
Z π
⟨f, g⟩ = f (t)g(t)dt
−π

Se puede ver, por las propiedades de la integral, que se trata de un producto hermi-
tiano definido positivo.
Sea fn (t) = eint . Se puede ver que si m ̸= n
Z π Z π
int −imt
⟨fn , fm ⟩ = e e dt = ei(n−m)t dt
Z−π
π
−π
Z π
= cos(n − m)tdt + i sin(n − m)tdt = 0
−π −π
CHAPTER 7. PRODUCTOS ESCALARES Y ORTOGONALIDAD 167

es decir, fn ⊥ fm si m ̸= n. Además se tiene que


Z π
⟨fn , fn ⟩ = eint e−int dt = 2π
−π

Entonces para f ∈ V su coeficiente de Fourier con respecto a fn es


Z π
⟨f, fn ⟩ 1
= f (t)e−int dt
⟨fn , fn ⟩ 2π −π

Se definen los conceptos perpendicularidad, ortogonalidad, base ortogonal, com-


plemento ortogonal, etc, como antes. Tampoco hay cambios en la definición de com-
ponente y proyección de v en w.

Sea V un espacio vectorial sobre C, con un producto hermitiano definido positivo.


Para v ∈ V se define su norma como
p
∥v∥ = ⟨v, v⟩

la cual satisface las propiedades similares al caso real,


a) ∀v ∈ V se tiene ∥v∥ ≥ 0 y = 0 si y solo si v = 0
b) ∀α ∈ C, ∥αv∥ = |α|∥v∥
c) ∀ v, w ∈ V se tiene ∥v + w∥ ≤ ∥v∥ + ∥w∥.
La desigualdad de Cauchy-Schwarz es

|⟨v, w⟩| ≤ ∥v∥ ∥w∥

Para verificar la desigualdad del triángulo note que,

∥v + w∥2 = ⟨v + w, v + w⟩ = ⟨v, v⟩ + ⟨w, v⟩ + ⟨v, w⟩ + ⟨w, w⟩

Pero por un teorema anterior se tiene que z + z = 2 Re(z), y al considerar que


Re(z) ≤ ∥z∥, se implica que ⟨w, v⟩ + ⟨v, w⟩ = ⟨v, w⟩ + ⟨v, w⟩ ≤ 2|⟨v, w⟩| y la desigual-
CHAPTER 7. PRODUCTOS ESCALARES Y ORTOGONALIDAD 168

dad de Cauchy-Schwarz, permite escribir

∥v + w∥2 ≤ ∥v∥2 + 2|⟨v, w⟩| + ∥w∥2

≤ ∥v∥2 + 2∥v∥∥w∥ + ∥w∥2

= (∥v∥ + ∥w∥)2

Al remover los cuadrados, se tiene el resultado deseado.

Se tienen los resultados análogos, para un espacio vectorial V con producto her-
mitiano definido positivo.

Teorema 7.2.4 Sea V un espacio vectorial de dimensión finita sobre C, con un pro-
ducto hermitiano definido positivo. Sea W un subespacio de V y sea {w1 , . . . , wm }
una base ortogonal de W . Si V ̸= W , entonces existen elementos wm+1 , . . . , wn de V
tal que {w1 , . . . , wn } es una base ortogonal de V .

Corolario 7.2.1 Sea V un espacio vectorial de dimensión finita sobre C con un


producto hermitiano definido positivo. Suponga que V ̸= {O}. Entonces V tiene una
base ortogonal.

Teorema 7.2.5 Sea V un espacio vectorial ya sea sobre R con un producto interno
definido positivo, o en C con un producto hermitiano definido positivo. Suponga que
V tiene dimensión finita n. Sea W un subespacio de V de dimensión r. Sea W ⊥ el
subespacio de V que consiste en todos los elementos de V , que son perpendiculares a
W . Entonces W ⊥ tiene dimensión n − r. Es decir,

dim W + dim W ⊥ = dim V


CHAPTER 7. PRODUCTOS ESCALARES Y ORTOGONALIDAD 169

Teorema 7.2.6 Sea V un espacio vectorial ya sea sobre R con un producto interno
definido positivo, o en C con un producto hermitiano definido positivo. Suponga que
V es de dimensión finita. Sea W un subespacio de V . Entonces V es la suma directa
de W y de W ⊥ .

7.2.3 Matriz Unitaria y Matriz Hermitiana

Definición 7.2.7 Conjugada Traspuesta. Si A es una matriz compleja, entonces la


t
matriz conjugada traspuesta de A, denotada por A∗ , es definida por A∗ = A .

t
Si A es una matriz real, entonces A∗ = A = At .

Definición 7.2.8 Matriz Unitaria y Matriz Hermitiana. Una matriz cuadrada se


define como unitaria si

AA∗ = A∗ A = I es decir A∗ = A−1

y se dice que es Hermitiana si


A∗ = A

Si A es una matriz real, entonces A∗ = At , y en tal caso At = A−1 y si es Hermi-


tiana, entonces At = A. Es decir, matrices unitarias son generalizaciones complejas
de las matrices ortogonales reales y las matrices Hermitianas son generalizaciones de
matrices reales simétricas.
La matriz Hermitiana se reconoce porque en su diagonal tiene elementos reales y
los elementos que son simétricamente posicionadas fuera de la diagonal principal, son
conjugados complejos.
CHAPTER 7. PRODUCTOS ESCALARES Y ORTOGONALIDAD 170

Ejemplo. Determine la conjugada traspuesta de


 
1+i −i 0
A= 
2 3 − 2i i

Se tiene  
  1−i 2
1−i i 0 t
 
A= ⇒ A = i
 
 3 + 2i
2 3 + 2i −i  
0 −i

Ejemplo. Note por inspección que la siguiente matriz, es Hermitiana.


 
1 i 1+i
 
A =  −i −5 2 − i
 
 
1−i 2+i 3

Contrariamente las matrices unitarias no se identifican por inspección. Se requiere


verificar que satisface la definición. Se puede verificar que la siguiente matriz es
unitaria.  
1 1 i
A= √  
2 −i 1

Teorema 7.2.7 Si A es una matriz Hermitiana, entonces:

a) Los eigenvalores de A son todos números reales.

b) Los eigenvalores de diferentes eigenespacios son ortogonales.

7.3 Mapeos Bilineales y Matrices


Sean U , V y W espacios vectoriales sobre R y considere el mapeo

g : U × V −→ W
CHAPTER 7. PRODUCTOS ESCALARES Y ORTOGONALIDAD 171

Se dice que g es bilineal si para cada fijo u ∈ U , el mapeo v 7−→ g(u, v) es lineal; y si
para cada fijo v ∈ V , el mapeo u 7−→ g(u, v) es lineal.
La primera condición implica que
g(u, v1 + v2 ) = g(u, v1 ) + g(u, v2 )
g(u, cv) = cg(u, v)
y similarmente la segunda condición.

Ejemplo. Sea la matriz m An = (aij ). Defina un mapeo

gA : Rm × Rn −→ R

considerando
  
a ··· a1n y
 11   1
t  .. ..   .. 
gA (x, y) = x Ay = (x1 , . . . , xm )  . .  . 
  
am1 · · · amn yn

Note que:
gA mapea pares de vectores en R.
Si x está fijo, el mapeo y −→ xt Ay es lineal.
Si y está fijo, el mapeo x −→ xt Ay es lineal.
En otra palabras, suponga que x está fijo, entonces

gA (x, y1 + y2 ) = gA (x, y1 ) + gA (x, y2 )

gA (x, cy) = cgA (x, y)

y similarmente para y fijo. Si considera las propiedades del producto en matrices,


equivale a
xt A(y1 + y2 ) = xt Ay1 + xt Ay2

xt A(cy) = cxt Ay
CHAPTER 7. PRODUCTOS ESCALARES Y ORTOGONALIDAD 172

Note que
Xm m
X
t
xA=( xi ai1 , . . . , xi ain )
i=1 i=1

con lo cual
n X
X m n X
X m
t
x Ay = xi aij yj = aij xi yj
j=1 i=1 j=1 i=1

Teorema 7.3.1 Dado un mapeo bilineal g : K m × K n −→ K, para cualquier campo


K, se tiene que existe una matriz única A tal que g = gA , es decir

g(x, y) = xt Ay

El conjunto de mapeos bilineales de K m × K n en K es un espacio vectorial deno-


tado Bil(K m × K n , K) y la asociación A 7−→ gA , constituye un isomorfismo entre
M atm×n (K) y Bil(K m × K n , K).

Demostración. (Parcial). La primera parte del teorema es un postulado similar


a aquel que representa mapeos lineales por matrices. Para mostrar la existencia
de la matriz A única tal que g = gA , considere una base estándar para K n y sus
coordenadas. Sean E1 , . . . , Em vectores unitarios estándar para K m y sean U1 , . . . , Un
los vectores unitarios estándar para K n . Con esto ∀ x ∈ K m se escribe
x= m
P i n
Pn j
i=1 xi E y ∀ y ∈ K se escribe y = j=1 yj U . Entonces

g(x, y) = g(x1 E 1 + · · · + xm E m , y1 U 1 + · · · + yn U n )
Xm
= xi g(E i , y1 U 1 + · · · + yn U n )
i=1
m X
X n
= xi yj g(E i , U j )
i=1 j=1

Si se denota g(E i , U j ) = aij , se tiene


m X
X n
g(x, y) = aij xi yj
i=1 j=1
CHAPTER 7. PRODUCTOS ESCALARES Y ORTOGONALIDAD 173

el cual es la expresión que representa el producto xt Ay, donde A = (aij ). Esto implica
que g = gA por la elección de aij indicado.
Para mostrar la unicidad suponga que B es una matriz tal que g = gB ; entonces
∀ x y y se tiene que xt Ay = xt By y entonces substrayendo,

xt (A − B)y = 0 ∀ x, y

Si C = A − B, entonces xt Cy = 0. Sea C = (cij ), se debe mostrar que todos cij = 0.


Tal ecuación debe ser cierta ∀ x, y, y es cierta en particular para los vectores unitarios
x = E k y y = U l . En tal caso,

0 = (E k )t CU l = ckl

Lo que implica que ckl = 0 ∀ k, l. Esto muestra la primera parte del teorema. 2

7.4 Base Ortogonal General


Considere el caso de una base ortogonal general. Sea V un espacio vectorial sobre el
campo K y un producto interno o escalar (no necesariamente definido positivo). Si
W es un subespacio, no siempre es cierto en general que V es la suma directa de W
y W ⊥ . Esto es debido a que puede haber un vector no cero v ∈ V tal que ⟨v, v⟩ = 0.
Por ejemplo en C, el número (1, i) es tal vector. No obstante lo anterior, el teorema
de existencia de una base ortogonal es cierto, con las consideraciones pertinentes.
Primero suponga que para cualquier elemento u de V se tiene ⟨u, u⟩ = 0, en tal
caso se dice que el producto escalar es nulo y V se llama espacio nulo. La razón de
esto es que necesariamente se tiene ⟨v, w⟩ = 0 para todo v, w ∈ V . En realidad se
puede escribir
1
⟨v, w⟩ = [⟨v + w, v + w⟩ − ⟨v, v⟩ − ⟨w, w⟩]
2
El lado derecho es cero por lo supuesto. En tal caso cualquier base de V es una base
ortogonal, por definición.
CHAPTER 7. PRODUCTOS ESCALARES Y ORTOGONALIDAD 174

Teorema 7.4.1 Sea un espacio vectorial de dimensión finita V sobre un campo K.


Suponga que V tiene un producto escalar. Si V ̸= {O}, entonces V tiene una base
ortogonal.

Demostración. Considere inducción sobre la dimensión de V . Si V tiene dimensión


1, entonces cualquier elemento distinto de O de V , es una base ortogonal, de donde
se sigue el resultado.
Suponga ahora que dim V = n > 1. Entonces se tienen dos casos:
Caso 1. Para cada elemento u ∈ V se tiene ⟨u, u⟩ = 0. Entonces como ya se examinó,
cualquier base de V es una base ortogonal.
Caso 2. Existe un elemento v1 de V tal que ⟨v1 , v1 ⟩ =
̸ 0. Se puede aplicar el mismo
método al caso definido positivo, es decir, el proceso de ortogonalización de Gram-
Schmidt. Ası́ si v1 ∈ V tal que ⟨v1 , v1 ⟩ ̸= 0 y si V1 es el espacio de dimensión 1
generado por v1 , entonces V es la suma directa de V1 y V1⊥ . Sea v ∈ V y sea c como
antes,
⟨v, v1 ⟩
c=
⟨v1 , v1 ⟩
Entonces v − cv1 ∈ V1⊥ y con esto la expresión

v = (v − cv1 ) + cv1

muestra que V es la suma de V1 y V1⊥ . Esta suma es directa porque V1 ∩ V1⊥ es un


subespacio de V1 , diferente de V1 ( ya que ⟨v1 , v1 ⟩ ̸= 0) y con esto debe ser O dado
que V1 tiene dimensión 1.
Dado que dim V1 < dim V se repite el procedimiento tratando con el espacio de
V1⊥ , es decir, vı́a inducción. Ası́ se puede encontrar una base ortogonal de V1⊥ , por
ejemplo {v2 , . . . , vn }. Se sigue de inmediato entonces que {v1 , . . . , vn } constituye una
base ortogonal de V . 2

Ejemplo. Sea V = R2 y x = (x1 , x2 ), y = (y1 , y2 )


CHAPTER 7. PRODUCTOS ESCALARES Y ORTOGONALIDAD 175

Defina el producto escalar


⟨x, y⟩ = x1 y1 − x2 y2

Note que {(1, 0), (0, 1)} es una base ortogonal para R2 con dicho producto escalar
definido. Sin embargo {(1, 2), (2, 1)} forma una base ortogonal con tal producto
escalar en R2 , pero no es una base ortogonal con el producto punto ordinario.

Ejemplo. Sea V un subespacio de R3 generado por los vectores


{u1 , u2 } = {(1, 2, 1), (1, 1, 1)}
Para x = (x1 , x2 , x3 ) y y = (y1 , y2 , y3 ) defina el producto escalar

⟨x, y⟩ = x1 y1 − x2 y2 − x3 y3

Se desea encontrar una base ortogonal para V , con respecto a dicho producto. Note
que
⟨u1 , u1 ⟩ = 1 − 4 − 1 = −4 ̸= 0

Sea v1 = u1 . Se desea ortogonalizar u2 . Sea

⟨u2 , v1 ⟩ 1 1
c= = (1 − 2 − 1) =
⟨v1 , v1 ⟩ −4 2
1
⇒ v2 = u2 − c v1 = (1, 1, 1) − (1, 2, 1) = (1/2, 0, 1/2)
2
Note que
1 1
⟨v1 , v2 ⟩ = − 2(0) − (1) = 0
2 2
Por lo tanto {(1, 2, 1), (1/2, 0, 1/2)} es una base ortogonal del subespacio V con el
producto escalar dado.
CHAPTER 7. PRODUCTOS ESCALARES Y ORTOGONALIDAD 176

7.5 Espacio Dual y Productos Escalares


Sea V el espacio vectorial sobre el campo K. Al conjunto de todos los mapeos lineales
de V en K se le llama Espacio Dual y se denota como V ∗ , es decir

V ∗ = L(V, K)

A los elementos del espacio dual V ∗ se les llama funcionales en V . Sea φ un elemento
de V ∗ y v un elemento de V . Es conveniente denotar a φ(v) por el sı́mbolo ⟨φ, v⟩; en
virtud de si φ1 , φ2 ∈ V ∗ y c ∈ K, se tiene

(φ1 + φ2 )(v) = φ1 (v) + φ2 (v) y (c φ)(v) = c φ(v)

En otras palabras,
⟨φ1 + φ2 , v⟩ = ⟨φ1 , v⟩ + ⟨φ2 , v⟩,

⟨c φ, v⟩ = c ⟨φ, v⟩

Además si v1 , v2 ∈ V , dado que φ es lineal, se tiene que

⟨φ, v1 + v2 ⟩ = ⟨φ, v1 ⟩ + ⟨φ, v2 ⟩

⟨φ, c v⟩ = c ⟨φ, v⟩

Se tiene ası́ un formalismo similar al producto interno, excepto que en la notación


⟨φ, v⟩, los dos componentes no pertenecen al mismo espacio.

Ejemplo. Sea V = K n . Sea φ : K n −→ K el mapeo proyección en el primer factor,


es decir,
φ(x1 , . . . , xn ) = x1

Entonces φ es un funcional. De hecho para cada i = 1, . . . , n de manera similar se


tiene un funcional φi tal que

φi (x1 , . . . , xn ) = xi
CHAPTER 7. PRODUCTOS ESCALARES Y ORTOGONALIDAD 177

Ejemplo. Sea V un espacio vectorial sobre K, con un producto interno. Sea v0 un


elemento de V . Entonces el mapeo v 7−→ ⟨v, v0 ⟩, v ∈ V , es un funcional, por las
propiedades del producto interno.

Ejemplo. Sea V el espacio vectorial de funciones continuas valuadas real en el


intervalo [0, 1]. Entonces para f ∈ V ,
Z 1
L(f ) = f (t)dt
0

define un funcional. Si f0 es un elemento fijo en V , entonces el mapeo


Z 1
f 7−→ f0 (t)f (t) dt
0

también define un funcional en V .

Ejemplo. En Estadı́stica T (·) denota un funcional en algún subconjunto del conjunto


de todas las funciones de distribución acumulada, tales que el parámetro de interés
es γ = T (F ). Por ejemplo la media funcional definida por
Z ∞
γ = T1 (F ) = t dF (t)
−∞

para todas las distribuciones con primer momento finito. Si se tiene una muestra
aleatoria X1 , . . . , Xn de una población con f.d.a. F (x), y se define la distribución
empı́rica de tales observaciones como
1
Fn (t) = [número de Xi ’s ≤ t] t ∈ R
n
entonces un estimador razonable es usar la f.d.a. empı́rica en el funcional, lo que
produce γ̂ = T (Fn ). Entonces el estimador correspondiente a la media funcional es
Z ∞ n
X Xi
γ̂ = T1 (Fn ) = t dFn (t) = = X̄
−∞ i=1
n

Teorema 7.5.1 Sea V un espacio vectorial de dimensión finita sobre el campo K.


Entonces el espacio dual V ∗ es también de dimensión finita, y dim V = dim V ∗ .
CHAPTER 7. PRODUCTOS ESCALARES Y ORTOGONALIDAD 178

Se usa la misma terminologı́a de perpendicularidad tal como en el producto in-


terno. De tal modo que si S es un subconjunto de V y φ ∈ V ∗ , se dice que φ es
perpendicular u ortogonal a S si para cualquier v ∈ S, φ(v) = ⟨φ, v⟩ = 0. El con-
junto de elementos φ ∈ V ∗ que son ortogonales a S, es un subespacio de V ∗ , denotado
nuevamente S ⊥ . Cada elemento de S ⊥ es perpendicular al subespacio de V generado
por S.
Existe una estrecha relación entre producto interno en un espacio vectorial y el
espacio dual, que se pueden examinar en los siguientes resultados.

Teorema 7.5.2 Sea V un espacio de dimensión finita sobre K. Sea W un subespacio.


Entonces
dim W + dim W ⊥ = dim V

Sea V un espacio vectorial sobre K, con un producto interno. A cada elemento


v ∈ V , se puede asociar un funcional Lv en el espacio dual, es decir, el mapeo tal que

Lv (w) = ⟨v, w⟩

para cualquier w ∈ V . Si v1 , v2 ∈ V , entonces Lv1 +v2 = Lv1 + Lv2 . Si c ∈ K entonces


Lcv = c Lv , nuevamento por la definición de producto interno. Por consiguiente se
puede decir que el mapeo v 7−→ Lv , es un mapeo lineal de V a el espacio dual V ∗ .

Teorema 7.5.3 Sea V un espacio vectoria de dimensión finita sobre K con un pro-
ducto escalar o interno no degenerado. Dado un funcional L : V −→ K, existe un
único elemento v ∈ V tal que
L(w) = ⟨v, w⟩

para cualquier w ∈ V .
CHAPTER 7. PRODUCTOS ESCALARES Y ORTOGONALIDAD 179

7.6 Forma Cuadrática

7.7 Teorema de Sylvester


Referencias

[1] Andrilli, S. and Hecker, D. 2010. Elementary Linear Algebra 4th ed. Elsevier
Academic Press

[2] Anton, H. and Kaul, A. 2019. Elementary Linear Algebra 12th ed. John Wiley

[3] Axler, S. 2015. Linear Algebra Done Right 3rd ed. Springer

[4] Grossman, S. I. y Flores-Godoy, J. 2012. Álgebra Lineal 7a ed. McGraw-Hill

[5] Kolman, B. and Hill, D. R. 2008. Elementary Linear Algebra With Applications
9th ed. Pearson

[6] Lang, S. 1987. Introduction to Linear Algebra 2nd ed. Springer

[7] Lang, S. 1997. Linear Algebra 3rd ed. Springer

[8] Larson, R. 2017. Elementary Linear Algebra 8th ed. Cengage Learning

[9] Leon, S. J. 2010. Linear Algebra with Applications. 8th ed. Pearson

[10] Lipschutz, S and Lipson, N. 2009. Linear Algebra 4th ed. Schaum’s Outline
McGraw-Hill

[11] Ramirez-Galarza, A. I. 2004. Geometrı́a Analı́tica: una introducción a la


geometrı́a. Facultad de Ciencias UNAM

180
REFERENCIAS 181

[12] Strang, G. 2016. Introduction to Linear Algebra 5th ed. Wellesley-Cambridge


Press

[13] Shilov, G. E. 1977. Linear Algebra. Dover

[14] Smith, L. 1998. Linear Algebra 3rd ed. Springer

[15] Venit, S. and Bishop, W. 1989. Elementary Linear Algebra 3rd ed. PWS-KENT
Pub

[16] Yoshida, R. 2021. Linear Algebra and Its Applications with R. CRC Press

También podría gustarte