Conceptos Básicos de Vectores
Conceptos Básicos de Vectores
1.1 Vectores
Notación
Q = {q : q = m
n
,m y n ∈ J, n ̸= 0} Números racionales.
I = Números irracionales
R = Q ∪ I Números Reales.
Q∩I=∅
A × B = {(a, b) : a ∈ A, b ∈ B}
1
2
Ejemplo.
R × R = {(x, y) : x ∈ R, y ∈ R} = R2
R2 × R = {(x, y, z) : x ∈ R, y ∈ R, z ∈ R} = R3
..
.
Rn = (x1 , x2 , x3 , . . . , xn ), xi ∈ Ri = 1, 2, . . . , n
Punto x en la lı́nea R
Punto (x, y) en el plano R2
Punto (x, y, z) en el espacio R3
..
.
Punto (x1 , x2 , . . . , xn ) en el espacio Rn , n ∈ N
(x1 , x2 , . . . , xn )
Notas
3
Letra negrita
x = (x1 , x2 , . . . , xn )
Guión bajo
x = (x1 , x2 , . . . , xn )
Flecha arriba
⃗x = (x1 , x2 , . . . , xn )
Ejemplos
Grafico
4
a + b = (a1 + b1 , a2 + b2 , . . . , an + bn )
Ejemplos:
a + b = (2 + 1, 1 + 6, 5 − 2) = (3, 7, 3)
Note que empleando el escalar c = −1, se tiene la diferencia o resta de dos vectores
a + (−b) = a − b = (a1 − b1 , . . . , an − bn )
Ejemplos:
a) u + v = v + u
b) (u + v) + w = u + (v + w)
c) u + 0 = 0 + u = u
d) u + (−u) = 0
e) c1 (u + v) = c1 u + c1 v
f ) (c1 + c2 ) u = c1 u + c2 u
g) c1 (c2 u) = (c1 c2 ) u
h) 1 u = u
i) 0 u = 0
k) c1 0 = 0
k) −1 u = −u
(u + v) + w = (u1 + v1 , u2 + v2 , . . . , un + vn ) + (w1 , w2 , . . . , wn )
= (u1 , u2 , . . . , un ) + (v1 + w1 , v2 + w2 , . . . , vn + wn )
= u + (v + w)
6
c1 (u + v) = c1 (u1 + v1 , u2 + v2 , . . . , un + vn )
= (c1 u1 + c1 v1 , c1 u2 + c1 v2 , . . . , c1 un + c1 vn )
= (c1 u1 , c1 u2 , . . . , c1 un ) + (c1 v1 , c1 v2 , . . . , c1 vn )
= c1 u + c1 v
c1 (c2 u) = c1 (c2 u1 , c2 u2 , . . . , c2 un )
= (c1 c2 u1 , c1 c2 u2 , . . . , c1 c2 un )
= c1 c2 (u1 , u2 , . . . , un ) = (c1 c2 ) u 2
Gráfico
b1 = a1 + (b1 − a1 )
b2 = a2 + (b2 − a2 )
B − A = O + (B − A − O) = B − A
−→
Por esto, para el vector localizado P Q, el vector Q − P , representa una traslación al
origen.
Si se visualiza la ley del paralelogramo en el plano, entonces la equivalencia entre
dos vectores localizados, tiene como interpretación geométrica que las longitudes de
los segmentos de lı́neas determinados por los pares de puntos, son iguales y que las
”direcciones” en la cuales apuntan, son la misma.
8
Ejemplos:
−→ −→
Como B − A = 3(Q − P ) se tiene que P Q y AB, son paralelos y tienen la misma
dirección, ya que c = 3.
u · v = u1 v1 + u2 v2 + · · · + un vn
Ejemplos:
a) u · v = v · u
b) u · (v + w) = u · v + u · w = (v + w) · u
10
c) (c u) · v = u · (c v) = c (u · v)
d) u · 0 = 0
Demostración (Parcial)
= u1 v1 + u1 w1 + · · · + un vn + un wn
= u1 v1 + · · · + un vn + u1 w1 + · · · + un wn
= u·v+u·w
La norma mide la distancia del origen al punto que representa el vector. Es decir
∥x∥ = d(0, x). Note que ∥x∥2 = x · x.
Se tiene que para R2 y R3 , la definición de distancia dada, coincide con la noción
intuitiva derivada del Teorema de Pitágoras.
Para el vector u = (x, y) en R2
p
∥u∥ = x2 + y 2 .
11
Ejemplos:
Teorema 1.2.2
b) ∥u∥ = 0 ⇔ u = 0
∥c u∥ = |c| ∥u∥
∥c u∥2 = (c u) · (c u) = c2 (u · u)
2
p
Por lo cual ∥c u∥ = c2 (u · u) = |c| ∥u∥.
Ejemplos:
a) Vectores unitarios en R2 ,
3 2
e1 = (1, 0), e2 = (0, 1), √ ,√
13 13
b) Vectores unitarios en R3 ,
−2 2 3
e1 = (1, 0, 0), e2 = (0, 1, 0), e3 = (0, 0, 1), √ ,√ ,√
17 17 17
c) Vectores unitarios en Rn ,
1
1
1
u ⇒
u
= ∥u∥ = 1
∥u∥ ∥u∥ ∥u∥
√
Ejemplo. (3, 2) ⇒ ∥(3, 2)∥ = 13. El vector unitario en la dirección de (3, 2) es,
3 2
√ ,√
13 13
(u + v) · (u + v) = (u − v) · (u − v)
u · u + 2u · v + v · v = u · u − 2u · v + v · v
⇔ 4u · v = 0 ⇔ u · v = 0
Por consiguiente,
∥u + v∥ = ∥u − v∥ ⇔ u · v = 0
Ejemplos:
15
c) Los vectores unitarios i = (1, 0, 0), j = (0, 1, 0) y k = (0, 0, 1), son ortonormales.
∥u + v∥2 = (u + v) · (u + v) = u · u + 2 u · v + v · v
= ∥u∥2 + ∥v∥2 2
Note que si u y v son vectores en R2 y se hace coincidir tales vectores con los ejes
x y y respectivamente, entonces 0 < x = ∥u∥, 0 < y = ∥v∥ y c = ∥u + v∥, de tal
modo que se tiene la propiedad de Pitágoras, c2 = x2 + y 2 .
Si u y v son vectores en R2 y R3 , distintos del vector cero, entonces el ángulo θ
entre los dos vectores está relacionado con el producto punto, como se muestra en el
resultado siguiente.
c2 = a2 + b2 − 2 ab cos θ
Por definición
∥v − u∥2 = (v − u) · (v − u) = (v − u) · v − (v − u) · u
= v·v−u·v−v·u+u·u
= ∥v∥2 − 2 (u · v) + ∥u∥2
Ejemplos:
u·v π
cos θ = = 0 ⇒ θ = rad
∥u∥ ∥v∥ 2
−→
c) Determine el ángulo θ formado en el punto P , por los vectores localizados P Q
−→ √ √
y P R, donde P = (1, 2), Q = (1 + 3, −1) y R = (1 − 3, 3)
√ √
(Q − P ) · (R − P ) ( 3, −3) · (− 3, 1) −6
cos θ = = √ √ =p = −0.8660254
∥Q − P ∥ ∥R − P ∥ ∥( 3, −3)∥ ∥(− 3, 1)∥ 12(4)
θ = 150◦ . Entonces
π rad π rad
θrad = ◦
θgrad = (150) = 0.8333 π rad
180 180
Proyecciones
Se desea establecer el concepto de proyección de un vector sobre otro. Sean dos
vectores u y v, v ̸= 0. Se proyecta el vector u sobre el vector u considerando una
distancia mı́nima posible, como se muestra en la gráfica. Sea, temporalmente, dicho
vector resultante P = cv.
18
(u − cv) · v = 0 ⇔ u · v = c v · v
u·v u·v
⇒c= =
v·v ∥v∥2
Definición 1.2.6 Proyección de u en v. Se define la proyección de u en v, al vector,
u·v
Pv u = c v = v
∥v∥2
Al número c se le llama componente de u en v. Note que si ∥v∥ = 1 entonces c = u·v.
Geométricamente:
Suponga dos vectorea A y B en el primer
cuadrante, y considere: el ángulo θ entre A y B,
los vectores PB A = c B y A − cB. Entonces, dado que
c ∥B∥ A·B
cos θ = y c=
∥A∥ ∥B∥2
se tiene que
A · B ∥B∥ A·B
cos θ = 2
=
∥B∥ ∥A∥ ∥A∥∥B∥
Lo que implica
A · B = ∥A∥∥B∥ cos θ
B
|A · E| = |A · | ≤ ∥A∥
∥B∥
Ejemplo. Sean u = (1, 2, −3) y v = (2, 1, 5). Determine el coseno del ángulo entre
tales vectores.
u·v 1(2) + 2(1) − 3(5) −11
cos θ = = √ √ =√
∥u∥∥v∥ 14 30 420
b) ángulo recto si u · v = 0
∥A + B∥2 = (A + B) · (A + B)
= A · A + 2A · B + B · B
= (∥A∥ + ∥B∥)2
x = p + ta y = q + tb
x = 2 − t, y = 1 + 5t
5x = 10 − 5t
y = 1 + 5t
⇒ 5x + y = 11
Esta eliminación de t muestra que cualquier par de puntos (x, y) que satisface
x = 2 − t, y = 1 + 5t (1.2)
5x + y = 11 (1.3)
En sentido inverso, suponga que se tiene un par de números (x, y) que satisfacen (1.3).
Sea t = 2 − x, entonces
y = 11 − 5x = 11 − 5(2 − t) = 1 + 5t
Con esto, existe algún valor de t, el cual satisface (1.2). Por consiguiente, se prueba
que los pares de valores (x, y), que son soluciones de (1.3), son exactamente el mismo
par de números como aquellos obtenidos al proveer valores arbitrarios para t en (1.2).
22
P = P0 + tv
P − P0 = tv
(P − P0 ) · (A, B) = 0 (1.4)
(x − x0 , y − y0 ) · (A, B) = 0
entonces el lugar geométrico de los puntos P (x, y) que satisfacen dicha ecuación,
coincide con la recta que pasa por P0 paralela a u = (−B, A):
Ası́ la lı́nea recta puede ser descrita paramétricamente como en (1.2) ó en términos
de la ecuación familiar en (1.3). Lo anterior se resume en el siguiente
Teorema 1.3.1 Cualquier recta L del plano cartesiano, determina una ecuación poli-
nomial de primer grado en dos variables Ax+By+C = 0. Y recı́procamente, cualquier
ecuación de primer grado en dos variables, es la ecuación de una recta.
x = p + ta y = q + tb
se obtiene
c B
x= − t ≡ p + ta
A A
y = q + tb ≡ t ⇒ q = 0 y b = 1
Lo que implica,
c
B
P = (p, q) = ,0 , v = (a, b) = − , 1
A A
24
Con esto se tiene que un punto arbitrario (x, y) que satisface la ecuación (1.6), puede
ser expresada paramétricamente
(x, y) = P + tv
Definición 1.3.1 Lı́nea Recta. Se define la ecuación paramétrica de una lı́nea recta
que pasa por P y paralela al vector no nulo v, P y v ∈ Rn como,
La forma de la ecuación de la recta que pasa por dos puntos P1 y P2 está dada
por
X(t) = P1 + t(P2 − P1 ), t∈R
la cual describe la lı́nea que pasa por el punto P1 y paralelo al vector (P2 − P1 ), que
−−−→
equivale al vector localizado P1 P2 . Note que la ecuación anterior se puede reescribir
como
X(t) = (1 − t)P1 + tP2
Expresión útil cuando se desea representar el segmento de lı́nea recta que uno a los
puntos P1 con P2 , si 0 ≤ t ≤ 1; notando que X(0) = P1 y X(1) = P2 .
La ecuación paramétrica de una lı́nea recta es una función X : R −→ Rn .
Definición 1.3.2 Lı́neas Rectas Paralelas. Dos lı́neas rectas son paralelas si sus
vectores dirección son paralelas.
Ejemplos
Note además que X(t) = (2, 2, 0) + t(−3, −1, 2) = (2 − 3t, 2 − t, 2t); lo que
implica que las ecuaciones paramétricas son:
x = 2 − 3t, y = 2 − t, z = 2t
1 + t − 2u = 0 1 + t − 2u = 0 t = 2u − 1
−10 + 2t − u = 0 ⇒ −10 + 2t − u = 0 ⇒ −10 + 2(2u − 1) − u = 0
1 + t − 2u = 0 ⇒ u = 4, t = 7
Ax + By + Cz + D = 0
27
También se sabe que dicho plano se puede describir usando una lı́nea perpendicular
al plano, llamada normal.
Gráfico
⇒x·n=p·n
Gráfica
(x − x0 , y − y0 , z − z0 ) · (A, B, C) = 0
Ax + By + Cz + D = 0 (1.9)
También se define al plano con una ecuación llamada forma vectorial dada por
P = P0 + α u + β v (1.10)
Ejemplos
(x − p) · n = 0 ⇒ x · n = p · n
x + 2y − 2z = −2
n = (3, −1, 2)
(x − p) · n = 0
X · n = P · n ⇒ Ax + By = d
X(t) = P + tn (1.12)
31
Mientras que la ecuación del plano, en forma punto-normal, que pasa por Q, perpen-
dicular a n es
(x − Q) · n = 0 (1.13)
Se desea encontrar t tal que el vector X en (1.12), también sea el mismo que satisface
(1.13). Ası́, substituyendo (1.12) en (1.13) se tiene
(P + tn − Q) · n = 0
⇒ (P − Q) · n + tn · n = 0
(Q − P) · n
⇒ t=
n·n
Tal valor de t, usado en (1.12) provee el punto de intersección deseado.
Ejemplo. Sea el plano que pasa por Q = (1, 1, 1) y con vector normal n = (1, 2, 3),
y sea la lı́nea que pasa por P = (1, −1, 2), en la dirección de n. Determine el punto
de intersección de la lı́nea y el plano.
(Q − P) · n
t=
n·n
((1, 1, 1) − (1, −1, 2)) · (1, 2, 3) 1
= =
(1, 2, 3) · (1, 2, 3) 14
El punto de intersección es,
1 1
P + tn = (1, −1, 2) + (1, 2, 3) = (15, −12, 31)
14 14
Suponga que ahora que se desea establecer la ecuación de un plano que pasa por
los tres puntos
2x + y + z = 3
Mientras que la ecuación de la lı́nea que pasa por P en la dirección del vector n es
X(t) = P + tn (1.15)
Producto Cruz
u × v = (u2 v3 − u3 v2 , u3 v1 − u1 v3 , u1 v2 − u2 v1 )
2 −1 1 −1 1 2
u × v = det , −det , det
2 3 0 3 0 2
Demostración
u · (u × v) = (u1 , u2 , u3 ) · (u2 v3 − u3 v2 , u3 v1 − u1 v3 , u1 v2 − u2 v1 )
= u1 u2 v3 − u1 u3 v2 + u2 u3 v1 − u1 u2 v3 + u1 u3 v2 − u2 u3 v1 = 0
a) u × v = −(v × u)
b) u × (v + w) = (u × v) + (u × w) y (u + v) × w = (u × w) + (v × w)
c) c (u × v) = (c u) × v = u × (c v)
d) u × 0 = 0 × u = 0
e) u × u = 0
p
f ) ∥u × v∥ = ∥u∥∥v∥ sin θ = ∥u∥2 ∥v∥2 − (u · v)2
donde θ es el ángulo entre los vectores u y v.
Demostración. (Parcial)
u × v = (u2 v3 − u3 v2 , u3 v1 − u1 v3 , u1 v2 − u2 v1 )
v × u = (v2 u3 − v3 u2 , v3 u1 − v1 u3 , v1 u2 − v2 u1 )
u × (v + w) = (u1 , u2 , u3 ) × (v1 + w1 , v2 + w2 , v3 + w3 )
u1 (v2 + w2 ) − u2 (v1 + w1 ))
= (u2 v3 + u2 w3 − u3 v2 − u3 w2 , u3 v1 + u3 w1 − u1 v3 − u1 w3 ,
u1 v2 + u1 w2 − u2 v1 − u2 w1 )
= (u2 v3 − u3 v2 , u3 v1 − u1 v3 − u1 w3 , u1 v2 − u2 v1 )
+(u2 w3 − u3 w2 , u3 w1 − u1 w3 , u1 w2 − u2 w1 )
= (u × v) + (u × w)
36
∥u × v∥2 = (u × v) · (u × v)
= u22 v32 + u23 v22 − 2u2 v3 u3 v2 + u23 v12 + u21 v32 − 2u3 v1 u1 v3 +
= u21 v22 + u21 v32 + u22 v12 + u22 v32 + u23 v12 + u23 v22
= u21 v12 − u21 v12 + u22 v22 − u22 v22 + u23 v32 − u23 v32
u21 v22 + u21 v32 + u22 v12 + u22 v32 + u23 v12 + u23 v22
= u21 v12 + u21 v22 + u21 v32 + u22 v12 + u22 v22 + u22 v32 + u23 v12 + u23 v22 + u23 v32
Geometrı́a de ∥u × v∥
Sea A el área del paralelogramo formado por u y v. Sea θ el ángulo entre los
vectores u y v y sea h el cateto opuesto de θ.
37
Gráfica
h
sin θ = ⇒ A = ∥u∥h = ∥u∥∥v∥ sin θ = ∥u × v∥
∥v∥
Ejemplo. Encuentre el área del triángulo determinado por los puntos P = (1, 2, 3),
Q = (−3, 2, 1) y R = (2, 4, 5).
−−→ −−→
Trasladando PQ y PR al origen, se obtienen los vectores u = Q−P = (−4, 0, −2)
y v = R − P = (1, 2, 2). Con esto
0 −2 −4 −2 −4 0
u × v = det , −det , det = (4, 6, −8)
2 2 1 2 1 2
1 1√
⇒ A = ∥u × v∥ = 116 = 5.3851
2 2
Chapter 2
2x + y + z = 1
5x − y + 7z = 0
a1 x 1 + a2 x 2 + · · · + am x m = b
38
CHAPTER 2. MATRICES Y SISTEMAS DE ECUACIONES LINEALES 39
√
o x1 ), solo las variables multiplicadas por un coeficiente escalar. Las siguientes
ecuaciones no son lineales.
a) El sistema,
2x + y +z =1
5x −y +7z = 0
se satisface con (−1, 2, 1) y con (1/7, 5/7, 0).
b) El sitema
x +y =0
x +y =1
es inconsistente.
CHAPTER 2. MATRICES Y SISTEMAS DE ECUACIONES LINEALES 40
(x1 x2 · · · xn )
A + B = (aij + bij ), i = 1, 2, . . . , m; j = 1, 2, . . . , n
Ejemplos
Se tiene
6 0 −1 −1 1 0
A+B = , −1A =
4 4 3 −2 −3 −4
−4 −2 1 2 −2 0
A−B = , 2A =
0 2 5 4 6 8
A + B = (a1 + b1 , a2 + b2 , . . . , an + bn )
A+0=0+A=A
Ejemplos
e) Aun cuando A y B sean matrices cuadradas del mismo orden y por tanto con-
formables para la multiplicación, en general el producto de dos matrices no es
conmutativo, es decir no siempre AB = BA se cumple. Por ejemplo, sean
3 2 2 −1
A= , B=
0 1 0 5
CHAPTER 2. MATRICES Y SISTEMAS DE ECUACIONES LINEALES 46
3 2 2 −1 6 7
AB = =
0 1 0 5 0 5
2 −1 3 2 6 3
BA = =
0 5 0 1 0 5
Ax = b (2.2)
representado por
a ··· a1n x a x + · · · + a1n xn b
11 1 11 1 1
.. .. .. .. ..
. . . = . = .
am1 · · · amn xn am1 x1 + · · · + amn xn bm
Ejemplos
a) El sistema lineal
3x − 2y + 3z = 1
− x + 7y − 4z = −5
x
3 −2 3 1
A= , x =
y , b =
−1 7 −4 −5
z
CHAPTER 2. MATRICES Y SISTEMAS DE ECUACIONES LINEALES 47
b)
x + 2z = 3
2x − 3y − 4z = −1
−y +z = 0
1 0 2 x 3
2 −3 −4 y = −1
0 −1 1 z 0
c)
x1 − 3x2 + x4 = 0
− x 2 + x3 − x4 = 0
x
1
1 −3 0
1 x2 0
=
0 −1 1 −1 x3
0
x4
a) A + B = B + A, propiedad conmutativa
b) A + (B + C) = (A + B) + C, propiedad asociativa
c) A + 0 = A
CHAPTER 2. MATRICES Y SISTEMAS DE ECUACIONES LINEALES 48
d) A + (−A) = 0
f ) AI = A = IA
i) A0 = 0A = 0 y a0 = 0
Ejemplo
−y +z = 3 x − y −z = 0
x − y −z = 0 ⇒ −y +z = 3
−x − z = −3 −x − z = −3
h1 ↔ h2 h3 → h1 + h3
x −y −z = 0 x −y −z = 0
⇒ −y +z = 3 ⇒ y − z = −3
− y − 2z = −3 − y − 2z = −3
h2 → −1h2 h1 → h2 + h1
h3 → h2 + h3
x − 2z = −3 x − 2z = −3 x =1
⇒ y − z = −3 ⇒ y − z = −3 ⇒ y = −1
− 3z = −6 z =2 z =2
h3 → − 31 h3 h1 → 2h3 + h1
h2 → h3 + h2
Por consiguiente, el vector (1, −1, 2), es la solución del sistema lineal
−y +z = 3
x − y −z = 0
−x − z = −3
− (−1) + 2 = 3
1 − (−1) − 2 = 0
−1 − 2 = −3
CHAPTER 2. MATRICES Y SISTEMAS DE ECUACIONES LINEALES 50
Ejemplo
x1 + 3x3 + x4 = 0 x1 + 3x3 + x4 = 0
− x1 + 2x2 + x3 + x 4 = 0 ⇒ 2x2 + 4x3 + 2x4 = 0
− x1 + x2 − x3 =0 x2 + 2x3 + x4 = 0
h2 → h1 + h2 h2 → 12 h2
h3 → h1 + h3
x1 + 3x3 + x4 = 0 x1 + 3x3 + x4 = 0
⇒ x2 + 2x3 + x4 = 0 ⇒ x2 + 2x3 + x4 = 0
x2 + 2x3 + x4 = 0 0 =0
h3 → −h2 + h3
x1 + 3x3 + x4 = 0 x1 = − 3x3 − x4
⇒ ⇒
x2 + 2x3 + x4 = 0 x2 = − 2x3 − x4
Sea x3 = s y x4 = t y con esto se tiene una familia de (infinitas) soluciones, de dos
parámetros,
x1 = −3s − t
x2 = −2s − t
x3 = s
x4 = t
que en forma de vector es (−3s − t, −2s − t, s, t), donde s y t, son cualquier par de
números (son arbitrarios) reales. Por ejemplo
Si s = 0 y t = 0 una solución es (0, 0, 0, 0)
Si s = 0 y t = 1 una solución es (−1, −1, 0, 1)
Si s = 1 y t = 1 una solución es (−4, −3, 1, 1)
CHAPTER 2. MATRICES Y SISTEMAS DE ECUACIONES LINEALES 51
Note que
Ri −→ k Ri
Ri ←→ Ri′
Ri −→ k Ri′ + Ri
Definición 2.3.3 Equivalencia por Renglón. Se dice que dos matrices son equiva-
lentes por renglón, si una se puede obtener de la otra, a través de una sucesión finita
de operaciones elementales por renglón.
Teorema 2.3.2 Si dos matrices aumentadas son equivalentes por renglón, entonces
los correspondientes sistemas lineales son equivalentes y ambos sitemas tienen la
misma solución.
Por consiguiente
0 −1 1 3 1 −1 −1 1 −1 −1
0 0
1 −1 −1 ⇒ 0 −1 3 ⇒ 0 1 −1 −3
0 1
−1 0 −1 −3 −1 0 −1 −3 0 −1 −2 −3
R1 ↔ R2 R3 → R1 + R3 R1 → R2 + R1
R2 → −1R2 R3 → R2 + R3
1 0 −2 −3 1 0 −2 −3 1 0 0 1
⇒ 0 1 −1 −3 ⇒ 0 1 −1 −3 ⇒ 0 1 0 −1
0 0 −3 −6 0 0 1 2 0 0 1 2
R3 → − 31 R3 R1 → 2R3 + R1
R2 → R3 + R2
Se obtiene la matriz aumentada del sistema lineal equivalente
x = 1
y = −1
z = 2
Como se vió anteriormente, el sistema tiene una solución única, dada por el vector
(1, −1, 2).
Ejemplo. Resuelva el sistema
x3 + 2x4 = 3
2x1 + 4x2 − 2x3 =4
2x1 + 4x2− x3 + 2x4 = 7
0 0 1 2 3 2 4 −2 0 4
2 4 −2 0 4 ⇒ 0 0
1 2 3
2 4 −1 2 7 2 4 −1 2 7
R1 ↔ R2 R3 → −R1 + R3
R1 → 21 R1
CHAPTER 2. MATRICES Y SISTEMAS DE ECUACIONES LINEALES 54
1 2 −1 0 2 1 2 0 2 5
⇒ 0 0 ⇒ 0 0 1 2 3
1 2 3
0 0 1 2 3 0 0 0 0 0
R1 → R2 + R1
R3 → −R2 + R3
Se tiene el sistema lineal equivalente y solución
x1 + x3 = 1
x2 − x3 = −1
2x1 + x2 + x3 = 2
1 0 1 1 1 0 1 1 1 0 1 1
0 1 −1 −1 ⇒ 0 1 −1 −1 ⇒ 0 1 −1 −1
2 1 1 2 0 1 −1 0 0 0 0 1
R3 → −2R1 + R3 R3 → −R2 + R3
La matriz aumentada del sistema serı́a:
x1 + x3 = 1
x2 − x3 = −1
0x1 + 0x2 + 0x3 = 1
CHAPTER 2. MATRICES Y SISTEMAS DE ECUACIONES LINEALES 55
Como la tercera ecuación del sistema equivalente 0x1 + 0x2 + 0x3 = 1 implica 0 = 1,
no existen (x1 , x2 , x3 ) que satisfagan al sistema lineal dado, no hay solución, es decir,
el sistema es inconsistente.
Definición 2.3.4 Matriz Escalonada Reducida por Renglón. Una matriz está en
forma reducida escalonada por renglón si satisface las condiciones siguientes:
b) En cada columna que contiene un guı́a 1 de algún renglón, tiene como todos sus
otros componentes, ceros.
d) Cualquier renglón que contiene únicamente ceros, está más al inferior que cualquier
renglón con componentes no nulos.
Ejemplos
de Gauss,
x3 + 2x4 = 3
2x1 + 4x2 − 2x3 =4
2x1 + 4x2 − x3 + 2x4 = 7
Se obtuvieron las matrices siguietes:
0 0 1 2 3 1 2 0 2 5
2 4 −2 0 4 ⇒ · · · ⇒
0 0 1 2 3
2 4 −1 2 7 0 0 0 0 0
nótese que la 2a matriz está en su forma escalonada reducida por renglón. El sistema
lineal asociado a ésta última matriz condujo a la familia de soluciones (infinitas)
representadas por dos parámetros, por el vector (5 − 2s − t, s, 3 − 2t, t). Es decir, se
ha aplicado, implı́citamente, el método de eliminación de Gauss-Jordan.
x1 + 2x2 =1
x1 + 2x2 + 3x3 + x4 = 0
− x1 − x2 + x3 + x4 = −2
x2 + x3 + x4 = −1
− x2 + 2x3 =0
1 2 0 0 1 1 2 0 0 1 1 2 0 0 1
1 2 3 1 0 0 0 3 1 −1 0 1 1 1 −1
−1 −1 1 1 −2 ⇒ 1 1 −1 ⇒ 0 3 1 −1
0 1 0
1 1 1 −1 1 1 −1 1 1 −1
0 0 1 0 1
0 −1 2 0 0 0 −1 2 0 0 0 −1 2 0 0
R2 → −R1 + R2 R2 ↔ R3 R4 → −R2 + R4
R3 → R1 + R3 R5 → R2 + R5
CHAPTER 2. MATRICES Y SISTEMAS DE ECUACIONES LINEALES 58
1 2 0 0 1 1 0 −2 −2 3 1 0 0 −4/3 7/3
0 1 1 1 −1 0 1 1 1 −1 0 1 0 2/3 −2/3
⇒ 0 0 3 1 −1 ⇒ 1 1/3 −1/3 ⇒ 1/3 −1/3
0 0 0 0 1
−1
0 0 0 0 0 0 0 3 1 0 0 0 0 0
0 0 3 1 −1 0 0 0 0 0 0 0 0 0 0
R1 → −2R2 + R1 R1 → 2R3 + R1
R3 → 31 R3 R2 → −R3 + R2
R4 ↔ R5 R4 → −3R3 + R4
La matriz última obtenida, es la matris escalonada reducida por renglón de la matriz
aumentada, la cual tiene el siguiente sistema lineal correspondiente;
x1 − 34 x4 = 7
3
x1 = 7
3
+ 43 x4
x2 + 23 x4 = − 23 ⇒ x2 = − 23 − 32 x4
x3 + 13 x4 = − 13 x3 = − 13 − 31 x4
Teorema 2.4.1
a) Cualquier matriz puede ser transformada, vı́a una sucesión finita de operaciones
elementales por renglón, a otra matriz que está en forma escalonada reducida
por renglón.
Ejemplos
1 0 1 1 1 0 2 0 0
1 1
BA = 1 0 −1 1 0 1 = 0 2 0 = I3
2 2
−1 2 −1 1 −1 0 0 0 2
B = BI = B(AC) = (BA)C = IC = C 2
Ejemplos
a) Sea la matriz
2 −1
A=
0 1
2 −1 1 0 1 −1/2 1/2 0 1 0 1/2 1/2
⇒ ⇒ = [C|D]
0 1 0 1 0 1 0 1 0 1 0 1
R1 → 21 R1 R1 → 12 R2 + R1
b) Considere a la matriz
1 1 0
A= 1
0 1
1 −1 0
1 1 0 1 0 0 1 1 0 1 0 0 1 0 1 0 1 0
0 1 0 1 0 ⇒ 0 −1 1 −1 1 0 ⇒ 0 1 −1 1 −1 0
1
1 −1 0 0 0 1 0 −2 0 −1 0 1 0 0 −2 1 −2 1
R2 → −R1 + R2 R1 → R2 + R1 R3 → − 12 R3
R3 → −R1 + R3 R3 → −2R2 + R3
R2 → −R2
1 0 1 0 1 0 1 0 0 1/2 0 1/2
⇒ 0 1 −1 1 −1 0 ⇒ 0 1 0 1/2 0 −1/2
0 0 1 −1/2 1 −1/2 0 0 1 −1/2 1 −1/2
R1 → −R3 + R1
R2 → R3 + R2
1 0 1 1 1 0 0 0 1 0 1 1 1 0 0 0
0 0 1 0 0 1 0 0 0 0 1 0 0 1 0 0
⇒
0 −1 −1
1 1 1 0 0 0 1 0 0 1 0 1 0
1 0 0 2 0 0 0 1 0 0 −1 1 −1 0 0 1
R3 → −R1 + R3 R2 ↔ R3
R4 → −R1 + R4
1 0 1 1 1 0 0 0 1 0 0 1 1 −1 0 0
0 −1 −1 0 −1 −1
0 1 0 1 0 0 1 0 1 0
⇒
⇒
0 0 1 0 0 1 0 0 0 0 1 0 0 1 0 0
0 0 −1 1 −1 0 0 1 0 0 0 1 −1 1 0 1
R1 → −R3 + R1 R1 → −R4 + R1
R4 → R3 + R4 R2 → R4 + R2
1 0 0 0 2 −2 0 −1 2 −2 0 −1
0 0 −2 −2
0 1 1 1 1 1 1 1
⇒ ⇒ A−1 =
0 0 1 0 0 1 0 0 0 1 0 0
0 0 0 1 −1 1 0 1 −1 1 0 1
1 0 1 1 0 0 1 0 1 0 −1/2 1/2
⇒ 0 1 −1 0 ⇒ 0 1 −1 0
1 0 1 0
0 0 0 1 1/2 −1/2 0 0 0 1 1/2 −1/2
R1 → −R3 + R1
Note que la matriz C ̸= I3 , por consiguiente A no es invertible.
Ax = b
Ejemplos
a) Resuelva el sistema
x1 + x2 =2 1 1 0 x 2
1
= 1 ⇒ Ax = 1 0 1 x2 = 1
x1 + x3
x1 − x2 =3 1 −1 0 x3 3
Note que la matriz A es del ejemplo (b) anterior donde ya se obtuvo A−1 . Con
esto,
1/2 0 1/2 2 2/2 + 3/2 5/2
−1
x=A b= 1/2 0 −1/2 1 = 2/2 − 3/2 = −1/2
−1/2 1 −1/2 3 −2/2 + 1 − 3/2 −3/2
5/2 +(−1/2) =2
5/2 −3/2 = 1
5/2 −(−1/2) =3
CHAPTER 2. MATRICES Y SISTEMAS DE ECUACIONES LINEALES 64
−1 2 1 2 −3
x = A−1 b = −1 −1 = −2
1 1
2 −2 −1 1 5
Ax = 0
Ejemplos
Ax = b, rango(A) = p, rango[A|b] = q
CHAPTER 2. MATRICES Y SISTEMAS DE ECUACIONES LINEALES 67
Note que p ≤ q.
Demostración
xn = d n
el cual tiene solución única dada por (d1 , d2 , . . . , dn ).
equivalente,
Corolario 2.6.2 El Sistema lineal homogéneo Ax = 0, con más incógnitas que ecua-
ciones, tiene infinitamente muchas soluciones.
b) rango(A) = n,
Determinantes
Definición 3.0.1 Submatriz Aij . Para una matriz m An se defina la submatriz Aij
como la (sub)matriz que se obtiene al borrar el renglón i y la columna j de A.
Ejemplo. Sea
1 1 0 2
1 1 2
2 1 1 1
A= ⇒ A23 = 3 0 −1
0 0 −1
3
1 1 1
1 1 2 1
a) Si n = 1, det(A) = a11
c) Si n > 2
69
CHAPTER 3. DETERMINANTES 70
Note que para n ≤ 2 se tiene una definición explı́cita; mientras que para n > 2,
la definición es recursiva.
Ejemplos
b) Sea
2 1 −3
A = −3 −2 0
2 1 2
= −8 + 6 − 3 = −5
a22 a23 a21 a23 a21 a22
|A| = a11
− a12
+ a13
a32 a33 a31 a33 a31 a32
= a11 (a22 a33 − a23 a32 ) − a12 (a21 a33 − a23 a31 ) + a13 (a21 a32 − a22 a31 )
= a11 a22 a33 + a12 a23 a31 + a13 a21 a32 − a11 a23 a32 − a12 a21 a33 − a13 a22 a31
= −a21 (a12 a33 − a13 a32 ) + a22 (a11 a33 − a13 a31 ) − a23 (a11 a32 − a12 a31 )
= a11 a22 a33 + a12 a23 a31 + a13 a21 a32 − a11 a23 a32 − a12 a21 a33 − a13 a22 a31
= |A|
= a11 (a22 a33 − a23 a32 ) − a21 (a12 a33 − a13 a32 ) + a31 (a12 a23 − a13 a22 )
= a11 a22 a33 + a12 a23 a31 + a13 a21 a32 − a11 a23 a32 − a12 a21 a33 − a13 a22 a31
= |A|
det(A) = a11 [(−1)1+1 det(A11 )] + a12 [(−1)1+2 det(A12 )] + · · · + a1n [(−1)1+n det(A1n )]
n
X
= a1j C1j
j=1
|A| = ai1 [(−1)i+1 det(Ai1 )] + ai2 [(−1)i+2 det(Ai2 )] + · · · + ain [(−1)i+n det(Ain )]
n
X
= aij Cij
j=1
o para la columna j,
|A| = a1j [(−1)1+j det(A1j )] + a2j [(−1)2+j det(A2j )] + · · · + anj [(−1)n+j det(Anj )]
n
X
= aij Cij
i=1
Expandiendo la 4a hilera
4
X
|A| = a4j C4j
j=1
= 0 − 2 − 6 = −8
Definición 3.0.4 Adjunta de una Matriz. Sea una matriz n An = (aij ). Se define la
matriz adjunta de A denotada, adj A o A+ , a la matriz n × n cuya (i, j) componente
es el cofactor Cji de aji . Entonces
C C21 · · · Cn1
11
C12 C22 · · ·
Cn2
A+ = adj A =
.. .. ..
. . .
C12 C2n · · · Cnn
1 1 +
A−1 = adj A = A
|A| |A|
a) |A| = |At |,
Espacios vectoriales
A3) ∃ un elemento O ∈ V ∋ u + O = u ∀u ∈ V
A4) ∀ u ∈ V ∃ − u ∈ V ∋ u + (−u) = O
77
CHAPTER 4. ESPACIOS VECTORIALES 78
M4) 1u=u.
Notas
Ejemplos:
p(x) + q(x) = (an + bn )xn + (an−1 + bn−1 )xn−1 + · · · + (a1 + b1 )x1 + (a0 + b0 )
Note que p(x) + q(x) y cp(x) son polinomios de grado ≤ n. Por otra parte, dado
que ai + bi = bi + ai , ∀ i = 0, 1, . . . , n, se tiene que p(x) + q(x) = q(x) + p(x).
El cero-polinomial es el requerido para verificar la propiedad A3. Mientras que
el negativo de p(x), −p(x) descrito por
= cp(x) + dp(x)
CHAPTER 4. ESPACIOS VECTORIALES 80
d) Sea C(−∞, ∞) el conjunto de todas las funciones valuada real continuas definidas
en R. Si f (x) y g(x) ∈ C(−∞, ∞) y se define:
a) 0u = O
CHAPTER 4. ESPACIOS VECTORIALES 81
b) cO = O
c) (−1)u = −u ∀u ∈ V
Demostración (Parcial)
a) O = u + (−1)u = (1 − 1)u = 0u
de tal manera que al sumar −u a ambos lados, se tiene que (−1)u = −u. 2
Ejemplos:
O+O =O y cO = O
a1 0 b1 0
A= , B=
0 a2 0 b2
La suma y multiplicación por un escalar son tales que;
a1 + b 1 0 ca1 0
A+B = ∈ D2,2 , cA = ∈ D2,2
0 a2 + b 2 0 ca2
d) Sea P2∗ el conjunto de todos los polinomios de grado exacto igual a 2. Entonces
P2∗ es un subconjunto de P, el espacio vectorial de todos los polinomiales; pero
no es un subespacio de P, ya que
/ P2∗
(2t2 + 3t + 1) + (−2t2 + 1 + 2) ∈
Nota. La aplicación resumida del teorema anterior es: W un conjunto no vacı́o del
espacio vectorial V es un subespacio de V si y solo si ∀u, v ∈ W y ∀c, d ∈ R, se
tiene que cu + dv ∈ W .
a1 v 1 + a2 v 2
CHAPTER 4. ESPACIOS VECTORIALES 84
w1 = a1 v1 + a2 v2 w2 = b1 v1 + b2 v2
v = a1 v1 + a2 v2 + · · · + an vn
CHAPTER 4. ESPACIOS VECTORIALES 85
c1 v 1 + c2 v 2 + · · · + cn v n
a) si v1 , v2 ∈ W ⇒ v1 + v2 ∈ W
b) v ∈ W , c ∈ R ⇒ cv ∈ W
c1 v 1 + c2 v 2 + · · · + cn v n
c1 v1 + c2 v2 + · · · + cn vn = O
Notas
a1 e1 + a2 e2 + · · · + an en = 0
1 0 1 c 0
1
A c = 0 1 1 c2 = 0
−1 2 3 c3 0
¿ Tiene el sistema lineal A c = 0 una solución distinta a la trivial ?
Considerando a la matriz aumentada [A|0] y transformando ésta a su forma escalon-
ada reducida por renglón, se tiene que;
1 0 1 0 1 0 0 0
[A|0] = 0 1 1 0 ∼ 0 1 0 0
−1 2 3 0 0 0 1 0
Ejemplo. Muestre que los siguientes vectores son l.d., indicando su relación de
dependencia
−2 1 4
v1 = 0 , v2 = −1 , v3 = −2
1 2 3
Considerando la matriz cuyas columnas son dichos vectores y transformando a la
forma escalonada reducida por renglón,
−2 1 4 1 −1/2 −2 1 −1/2 −2
0 −1 −2 ∼ 2 ∼
0 1 0 1 2
1 2 3 1 2 3 0 5/2 5
R1 → −1/2 R1 R3 → −R1 + R3 R1 → 1/2 R2 + R1
R3 → 2/5 R3
CHAPTER 4. ESPACIOS VECTORIALES 89
1 0 −1 1 0 −1
∼ ∼ 0 1 2
0 1 2
0 1 2 0 0 0
R3 → −R2 + R3
Los coeficientes en la tercer columna de la matriz escalonada reducida por renglón
indican que
v3 = (−1)v1 + (2)v2
Resumen cuando V = Rm .
S = {v1 , v2 , . . . , vn }
Para ver independencia o dependencia
a) si n > m ⇒ S es l.d.
Ejemplos:
CHAPTER 4. ESPACIOS VECTORIALES 91
a) Sea el conjunto S
−1
3 0
0 1 1
S= ,
,
−2 4
2
1
0 3
−1 3 0 1 0 3
0 1 1 0 1 1
A= ∼ ··· ∼ B =
2 −2 4
0 0 0
1 0 3 0 0 0
Por consiguiente S en un conjunto l.d. Además, por el teorema anterior,
0 −1 3
1 0 1
= (3) + (1)
−2
4 2
3 1 0
b) Muestre que los vectores v1 = (1, −1, 2), v2 = (−2, 3, 0), v3 = (0, 1, 4), v4 =
(1, 0, 1) y v5 = (2, 1, 1) son l.d. y exprese la dependencia de al menos un vi como una
c.l. de los otros vectores.
Dado que n = 5 > m = 3, por los resultados mencionados, los vectores son l.d.
Para establecer la dependencia, sea la matriz A con ai = vi y transformando a B,
1 −2 0 1 2 1 −2 0 1 2 1 0 2 3 8
A = −1 3 1 0 1 ∼ 0 1 1 1 3 ∼ 0
1 1 1 3
2 0 4 1 1 0 4 4 −1 −3 0 0 0 −5 −15
R2 → R1 + R2 R1 → 2R2 + R1 R3 → −1/5 R3
R3 → −2R1 + R3 R3 → −4R2 + R3
CHAPTER 4. ESPACIOS VECTORIALES 92
1 0 2 3 8 1 0 2 0 −1
∼ 0 1 1 1 3 ∼ 0 1 1 0 0 = B
0 0 0 1 3 0 0 0 1 3
R1 → −3R3 + R1
R2 → −R3 + R2
Note que los vectores v1 , v2 y v4 han sido transformados a los vectores elementales
e1 , e2 y e3 respectivamente. Por el teorema anterior, v1 , v2 y v4 se convierten en
w1 , w2 y w3 . Con esto la dependencia lineal está dada por
c) Sean los vectores v1 = (1, 2, 3), v2 = (−1, 0, 1), v3 = (0, 0, 1). Determine si son o
no l.d.
Sea la matriz A con ai = vi y considere la tercer columna para el determinante,
1 −1 0
1 −1
A = 2 0 0 ⇒ |A| = 1 = 0 − (−1)2 = 2
2 0
3 1 1
Dado que det(A) = 2 ̸= 0, por un teorema anterior se concluye que los vectores son
l.i.
CHAPTER 4. ESPACIOS VECTORIALES 93
c1 =0
c2 =0
c3 =0
−c1 −c2 −c3 = 0
⇒ c1 = c2 = c3 = 0, ⇒ S es l.i.
c1 (x + 1) + c2 (x − 1) + c3 (2x + 1) = 0
c1 (1) + c2 x + c3 sen x = 0
donde 0 es la función cero. Dado que la ecuación debe ser válida para toda x, ésta
es cierta para x = 0, π/2 y π. Substituyendo sucesivamente tales valores de x en la
ecuación previa, se tiene el sistema de ecuaciones lineales
c1 =0
c1 + π2 c2 +c3 = 0
c1 +π c2 =0
Ejemplos:
a) El conjunto S = {e1 , e2 , . . . , en } genera a Rn . Sea x = (x1 , x2 , . . . , xn ) un vector
arbitrario en Rn , entonces se observa que x es una c.l. de los elementos de S,
x = x1 e1 + x2 e2 + · · · + xn en = (x1 , x2 , . . . , xn )
c1 (1) + c2 (x − 1) + c3 (x2 − 1) = a0 + a1 x + a2 x2
⇒ (c1 − c2 − c3 ) + c2 x + c3 x2 = a0 + a1 x + a2 x2
c1 −c2 −c3 = a0
⇒ c2 = a1
c3 = a2
El sistema obtenido tiene una sola solución para c1 , c2 , c3 sin importar qué valores
toman a1 , a2 , a3 . Por consiguiente S expande P2 .
c) Sea S = {x2 + 2x + 1, x2 + 2} ¿ Expande S a P2 ?
Sea p(x) = a0 + a1 x + a2 x2 un elemento arbitrario de P2 . Se desea saber si existen
escalares c1 , c2 tales que
c1 (x2 + 2x + 1) + c2 (x2 + 2) = a0 + a1 x + a2 x2
c1 +c2 = a2
⇒ 2c1 = a1
c1 +2c2 = a0
Considerando la matriz aumentada del sistema
1 1 a2 1 1 a2
∼ 0 −2 −2a2 + a1 ∼
2 0 a1
1 2 a0 0 1 −a2 + a0
R2 → −2R1 + R2 R2 ↔ R3
R3 → −R1 + R3
1 1 a2 1 0 2a2 − a0
∼ 0 1 −a2 + a0 ∼ 0 1 −a2 + a0
0 −2 −2a2 + a1 0 0 −4a2 + a1 + 2a0
R1 → −R2 + R1
R3 → 2R2 + R3
Note que el sistema es inconsistente, a menos que −4a2 + a1 + 2a0 = 0. Por lo que S
no genera a P2 .
a) S es l.i.
b) S genera a V .
Ejemplos:
c1 (1) + c2 (x − 1) + c3 (x2 − 1) = 0
CHAPTER 4. ESPACIOS VECTORIALES 98
⇒ (c1 − c2 − c3 ) + c2 x + c3 x2 = 0
c1 −c2 −c3 = 0
⇒ c2 =0
c3 =0
Note que la única solución del sistema es c1 = c2 = c3 = 0; lo que implica que
S es l.i. Por lo tanto S es una base para P2 .
Nota. Un espacio vectorial V puede ser generado por más de una base, i.e. la base
no es única.
Notas.
Ejemplos:
a) El conjunto S = {1, x, x2 , x3 } es una base para P3 .
b) El conjunto S dado por
1 0 0 0 1 0 0 0 1 0 0 0 0 0 0 0 0 0
S= , , , , ,
0 0 0 0 0 0 0 0 0 1 0 0 0 1 0 0 0 1
es una base para el subespacio W de M 2,2 , que consiste en todas las matrices 2 × 2
cuya suma de las entradas es cero.
En un ejemplo anterior ya se mostró que S es l.i. Se requiere mostrar que los
elementos de S generan a W . Sea la matriz
a1 a2
∋ a1 + a2 + a3 + a4 = 0
a3 a4
c1 = a1
c2 = a2
c3 = a3
−c1 −c2 −c3 = a4
Teorema 4.3.5 Sea V un espacio vectorial generado por el conjunto S. Si uno de los
elementos en S es una combinación lineal de los otros, entonces el conjunto obtenido
al eliminar dicho elemento, aún genera a V .
Sea A con ai = vi ,
1 −2 1 1 1 1 −2 0 2 0
0 1 −1 −1 0 0 1 −1 0
0
A= ⇒ B=
−1 2 1 −3 1
0 0 0 0 1
1 −2 1 1 −1 0 0 0 0 0
dim Pn = n + 1
dim P = ∞
dim M m,n = m n
a) si dim W = n ⇒ W = V
b) si W ̸= {O} ⇒ dim W ≤ n.
Definición 4.4.1 Suma Directa. Se dice que el espacio vectorial V es una suma
directa de U y W si para cada elemento v ∈ V , existen elementos únicos u ∈ U y
w ∈ W tal que v = u + w.
Se puede ver que el conjunto S de todas las soluciones del sistema lineal homogéneo
A x = 0, es un subespacio de Rn llamado espacio nulo de A y denotado NA . A la
dimensión de NA se le llama nulidad de A, denotado nulidad(A).
Para esto considere x1 y x2 dos vectores solución de A x = 0; entonces A x1 = 0
y A x2 = 0. Note que
A(x1 + x2 ) = A x1 + Ax2 = 0 + 0 = 0
A(cx) = c(Ax) = c0 = 0
Lo que significa que cx es una solución del sistema homogéneo y por tanto cx ∈ S. Es
decir, S es un subespacio de Rn llamado espacio solución del sistema lineal homogéneo
o espacio nulo.
Nota. No es cierto que el conjunto de todas las soluciones del sistema lineal A x = b
constituya un subespacio.
CHAPTER 4. ESPACIOS VECTORIALES 107
Teorema 4.5.2 Sea una matriz m An con rango(A) = r y sea B su forma escalonada
reducida por renglón, entonces la dimensión del espacio solución del sistema A x = 0
es n − r. Es decir
n = rango(A) + nulidad(A)
Recordando que dos matrices son equivalentes por renglón si una puede ser obtenida
de la otra, via operaciones elementales por renglón; se tiene el siguiente resultado.
Teorema 4.5.4 Si una matriz A es equivalente por renglón a una matriz Be en forma
escalonada por renglón, entonces los vectores renglón no nulos de Be forman una base
para HA .
Por un teorema anterior se sabe que para obtener una base para un subespacio
generado por las columnas de una matriz, se usa su correspondiente matriz escalonada
reducida por renglón. En éste caso, para obtener una base para HA , se usan las
columnas de At y se obtiene su matriz escalonada reducida B. En tal caso,
1 0 −3 3 2 1 0 0 0 −1
t
3 1 0 4 0 0 1 0 4 3
A = ⇒ B =
1 1 6 −2 −4 0 0 1 −1 −1
3 0 −1 1 −2 0 0 0 0 0
Transformaciones Lineales
T : V −→ W
se usa para indicar que T es una función con dominio V y cuyos valores están en W .
Para cada x ∈ V , el elemento T (x) de W se llama imagen de x a través de T y se dice
que T aplica x en T (x). Si A es cualquier subconjunto de V , el conjunto de todas las
imágenes T (x), para x de A, se llama la imagen de A a través de T y se representa
por T (A). La imagen del dominio V , T (V ) es el rango de T .
110
CHAPTER 5. TRANSFORMACIONES LINEALES 111
a) T (u + v) = T (u) + T (v)
b) T (c u) = c T (u)
Ejemplos:
a) Sea T : R2 −→ R3 descrita por,
T (x, y) = (x + y, x, 2x − y)
Se puede verificar que T es una transformación lineal de R2 a R3 .
Sean u = (x1 , y1 ) y v = (x2 , y2 ) y c un escalar.
= T (u) + T (v)
= (a11 + a13 )x2 + (a21 − a22 )x + a23 + (b11 + b13 )x2 + (b21 − b22 )x + b23
= T (A) + T (B)
ca11 ca12 ca13
T (cA) = T
ca21 ca22 ca23
= (ca11 + ca13 )x2 + (ca21 − ca22 )x + ca23
= c T (A)
∇(f + g) = ∇f + ∇g
a) T (O) = O
b) T (−u) = −T (u) ∀u ∈ V
c) T (u − v) = T (u) − T (v) ∀ u, v ∈ V .
Teorema 5.1.2 Transformación Lineal Dada Por Una Matriz. Sea una matriz m An ;
entonces la función definida por T (x) = Ax, es una transformación lineal de Rn a
Rm .
Ejemplos:
a) Sea θ el ángulo en radianes. Una transformación T : R2 −→ R2 dada por la matriz
cos θ −sen θ
A=
sen θ cos θ
Note que T (v) tiene la misma longitud que v. Además el ángulo del eje X a T (v) es
θ + α, es decir T (v) resulta en rotar v en sentido contrareloj, un ángulo θ.
CHAPTER 5. TRANSFORMACIONES LINEALES 115
es una transformación lineal que refleja en la lı́nea l a través del origen que forma un
ángulo θ con el eje X positivo.
a) La suma S + T es la función
b) La diferencia S − T es la función
(cS)(x) = c(S(x))
CHAPTER 5. TRANSFORMACIONES LINEALES 116
Composición de transformaciones.
Sean las funciones f : A −→ B y g : B −→ D
g ◦ f : A −→ D, (g ◦ f )(x) = g(f (x)) ∀ x ∈ A
Similarmente para las transformaciones lineales.
= c(T ◦ S)(u) 2
T (x, y) = (x + y, x, 2x − y)
CHAPTER 5. TRANSFORMACIONES LINEALES 118
Ejemplos:
a) Sea T : R2 −→ R3 definida por, T (x, y) = (x + y, x, 2x − y). Obtenga el ker(T ).
CHAPTER 5. TRANSFORMACIONES LINEALES 119
x +y = 0
(x + y, x, 2x − y) = (0, 0, 0) ⇒ x = 0
2x −y = 0
3 2
b) Sea el mapeo
T : R −→ R definida por, T (x) = Ax, con la matriz
lineal
2 0 1
A=
1 1 −1
x
2 0 1 2x +z 0
T (x) = y = =
1 1 −1 x +y −z 0
z
2x +z = 0 2 0 1 0 1 0 1/2 0
⇒ ⇒ ∼
x +y −z = 0 1 1 −1 0 0 1 −3/2 0
1 3
⇒ x=− t y= t z=t
2 2
La familia paramétrica de soluciones es
x = t(−1/2, 3/2, 1)
Por lo tanto el ker(T ) es la lı́nea que pasa por el origen, determinada por el vector
(−1/2, 3/2, 1) o por (−1, 3, 2).
n = rango(A) + nulidad(A)
Se observa que para cualquier x ∈ R3 , T (x) es una c.l. de los vectores columna de A.
Cualquier c.l. de tales vectores
Por lo tanto el conjunto {(2, 1, 1), (1, −1, 2), (1, 0, 1)} generan Im(T )
Conociendo dicho conjunto generador, se puede obtener una base. Note que la matriz
escalonada reducida por renglón B es,
2 1 1 1 0 1/3
A = 1 −1 0 ⇒ B = 0 1 1/3
1 2 1 0 0 0
Por lo anterior, una base para Im(T ) es {(2, 1, 1), (1, −1, 2)}
Con esto, una base para Im(T ) esta compuesta por a1 , a3 , a5 , es decir
rango(A)=r dim(Im(T))=rango(T)
dim(Ker(T))=n-r dim(Im(T))=r
nulidad + rango = n
dim(Ker(T )) + dim(Im(T )) = n − r + r = n. 2
Note que la matriz A ya está en la forma escalonada reducida por renglón, es decir,
A = B, se tiene entonces que
rango(A) = 2 ⇒ rango(T ) = 2
dim(Ker(T )) = nulidad(A) = n − r = 3 − 2 = 1.
Teorema 5.3.7 Sea T : V −→ W una t.l., entonces T es inyectiva (uno a uno) sı́ y
solo si Ker(T ) = {O}.
x1 T (v1 ) + · · · + xn T (vn ) = 0
T (x1 v1 + · · · + xn vn ) = 0
Note que
Teorema 5.4.1 Sea T : Rn −→ Rn una t.l.. Las siguientes declaraciones son equiv-
alentes:
b) T es sobre (suprayectiva)
c) T es invertible
T (x, y, z) = (2x − y, x + y + z, 2y − z)
CHAPTER 5. TRANSFORMACIONES LINEALES 128
Definición 5.4.2 Isomorfismo. Una t.l. T : V −→ W que es biyectiva (es decir 1-1
y sobre) es llamado un isomorfismo. Además si V y W son espacios vectoriales tales
que existe un isomorfismo de V a W entonces V y W se dice que son isomórficos
entre sı́.
Teorema 5.4.4 Sea T : Rn −→ Rn una t.l. con matriz estándar A. Entonces las
siguientes condiciones son equivalentes:
a) T es invertible
b) T es un isomorfismo
c) A es invertible.
Transformaciones Lineales y
Matrices
TA : Rn −→ Rm
131
CHAPTER 6. TRANSFORMACIONES LINEALES Y MATRICES 132
La multiplicación por la izquierda por A coincide con la t.l. T sobre una base de Rn ,
la base estándar, y por un teorema anterior, T (x) = Ax es una t.l. Además por otro
resultado Ax = T (x) para cualquier x ∈ Rn . Para verificar unicidad, suponga que B
es una matriz tal que Bx = T (x) ∀ x ∈ Rn , entonces en particular Bei = T (ei ) para
i = 1, . . . , n. Pero Bei = bi y T (ei ) = ai , lo que significa que la i-ésima columna de
B es la i-ésima columna de A, es decir, A = B. 2
TA+B = TA + TB
TcA = cTA
Procedimiento para obtener una base para el núcleo de una t.l. dada por una
matriz.
Sea m An una matriz tal que rango(A) = r,
CHAPTER 6. TRANSFORMACIONES LINEALES Y MATRICES 133
⇒ dim(Ker(T )) = n − r = 5 − 3 = 2.
La matriz B implica el sistema equivalente
x1 +2x2 +x4 = 0
x1 = −2x2 −x4
x3 −2x4 = 0 ⇒
x3 = 2x4
x5 = 0
Estableciendo s = 1 y t = 0 ⇒ (−2, 1, 0, 0, 0)
Estableciendo s = 0 y t = 1 ⇒ (−1, 0, 2, 1, 0)
Por consiguiente, una base para el Ker(T ) es,
Procedimiento para obtener una base para la imagen de una t.l. dada por una
matriz A.
Transforme la matriz A a la forma escalonada reducida por renglón B. Una base
para la Im(T ) consiste en aquellas columnas de A que son transformadas en columnas
elementales en B.
de dimensión finita.
Sea V un espacio vectorial con la base B = {v1 , v2 , . . . , vn }. Se llama vector
coordenado de un vector v ∈ V al único x ∈ Rn de coeficientes requeridos para
expresar v como una combinación lineal de elementos de B:
v = x1 v1 + x2 v2 + · · · + xn vn
El vector coordenado puede ser usado para reemplazar al vector original en diversos
cálculos.
A fin de construir una matriz que representa una t.l. T : V −→ W considere el
siguiente procedimiento:
a) Seleccione B = {b1 , b2 , . . . , bn } y B ′ = {b′1 , b′2 , . . . , b′n } las bases de V y W respecti-
vamente.
b) Exprese cada T (bi ) como una c.l. de B ′ .
c) Sea ai los coeficientes de los b′j , es decir ai es el vector coordenado de T (bi ) con
respecto a B ′ .
d) A es la matriz cuya iésima columna es ai .
v = c1 v1 + c2 v2 + · · · + cn vn
se tiene entonces que las coordenadas de x relativo a B ′ = {(1, 0), (0, 1)} son
5
[x]B′ =
4
Note que si solo se tiene el vector x = (5, 4) ∈ R2 , entonces con respecto a la base
B = {(1, 0), (1, 2)}, puede verse que el vector coordenado es único,
1 1 5
c1 + c2 =
0 2 4
Se observa que se tiene el sistema y solución
c1 +c2 = 5 c1 = 3
⇒
2c2 = 4 c2 = 2
CHAPTER 6. TRANSFORMACIONES LINEALES Y MATRICES 139
Por consiguiente,
x = 5(1, 0, 1) − 8(0, −1, 2) − 2(2, 3, −5)
P [x]B′ = [x]B
CHAPTER 6. TRANSFORMACIONES LINEALES Y MATRICES 140
Notas:
P [x]B′ = [x]B
Explicitando P , se tiene
1 0 2 c 1
1
0 −1 3 c2 = 2
1 2 −5 c3 −1
Soln.
−1 2 −3 4 1 0 −1 2
[B ′ |B] = ∼
2 −2 2 −2 0 1 −2 3
por lo tanto
−1 2
P −1 =
−2 3
Ejemplo. La matriz de transición de B = {(1, 0), (1, 2)} a B ′ = {(1, 0), (0, 1)}, por
la parte (b) de la nota anterior, es
1 1
P −1 =B=
0 2
[T (v)]B′ = A[v]B
Por consiguiente,
1
[v]B =
−1
B
′
Via matrices de transición como B es la base estándar, se recurre a un teorema
enunciado que establece que la matriz P −1 de transición de B a B ′ es,
Es decir,
1 −1 1/3 1/3
P −1 = ⇒ P =
2 1 −2/3 1/3
P es la matriz de transicioón de B ′ a B. En tal caso,
1/3 1/3 2 1
P [v]B′ = = = [v]B
−2/3 1/3 1 −1
B
T : V −→ V
A
[v]B −→ [T (v)]B
P ↑ ↓ P −1
A′
[v]B′ −→ [T (v)]B′
De la gráfica se nota que hay dos maneras de obtener las coordenadas de [T (v)]B′
a partir de [v]B′ ; una es usando directamente la matriz A′ y obtener,
A′ [v]B′ = [T (v)]B′
CHAPTER 6. TRANSFORMACIONES LINEALES Y MATRICES 146
P −1 AP [v]B′ = [T (v)]B′
Note que sin apoyo de la gráfica, se consideran las igualdades siguientes, iniciando
con P ,
⇒ [T (v)]B = AP [v]B′
⇒ P −1 [T (v)]B = P −1 AP [v]B′
⇒ [T (v)]B′ = P −1 AP [v]B′
Pero por la definición de matriz de una t.l. relativo a una base, lo anterior muestra
que
A′ = P −1 AP
Ejemplo. Encontrando una matriz para una t.l. con ambas bases B y B ′ no estándares.
Sean B = {(−3, 2), (4, −2)} y B ′ = {(−1, 2), (2, −2)}, bases para R2 y sea la
matriz
−2 7
A=
−3 7
para T : R2 −→ R2 relativo a B. Encuentre A′ , la matriz de T relativo a B ′ .
En un ejemplo anterior se encontró que
−1 2 3 −2
P −1 = y por lo tanto P =
−2 3 2 −1
a) A es similar a A
Por consiguiente
1/2 1/2 0
P −1 = 1/2 −1/2 0
0 0 1
Por lo tanto la matriz para T relativo a B ′ es
1/2 1/2 0 1 3 0 1 1 0 4 0 0
′ −1
A = P AP = 1/2 −1/2 0 3 1 0 1 −1 0 = 0 −2 0
0 0 1 0 0 −2 0 0 1 0 0 −2
Productos Escalares y
Ortogonalidad
a) ⟨u, v⟩ = ⟨v, u⟩
149
CHAPTER 7. PRODUCTOS ESCALARES Y ORTOGONALIDAD 150
= u1 v1 + u1 w1 + 2u2 v2 + 2u2 w2
c⟨u, v⟩ = c(u1 v1 + 2u2 v2 ) = (cu1 )v1 + 2(cu2 )v2 = ⟨cu, v⟩ Tercera propiedad
Finalmente
⟨u, u⟩ = u21 + 2u22 ≥ 0 Cuarta propiedad
defina la función
⟨A, B⟩ = a11 b11 + a21 b21 + a12 b12 + a22 b22
Se pueden verificar las propiedades del producto interno. Por lo que tal función define
un espacio con producto interno en M 2,2 .
Por las propiedades de la integral se puede verificar que tal definición es un producto
escalar o interno.
a) ⟨O, v⟩ = ⟨v, O⟩ = 0
b) ⟨u + v, w⟩ = ⟨u, w⟩ + ⟨v, w⟩
⟨u, v⟩
cos θ = , 0≤θ≤π
∥u∥∥v∥
∥v + w∥2 = ⟨v + w, v + w⟩
= ∥v∥2 + ∥w∥2 2
Demostración. Se tiene,
∥v + w∥2 + ∥v − w∥2 = ⟨v + w, v + w⟩ + ⟨v − w, v − w⟩
= 2∥v∥2 + 2∥w∥2 2
v = v − cw + cw
|c|∥w∥ ≤ ∥v∥
∥u + v∥ ≤ ∥u∥ + ∥v∥
CHAPTER 7. PRODUCTOS ESCALARES Y ORTOGONALIDAD 155
∥u + v∥2 = ⟨u + v, u + v⟩
= (∥u∥ + ∥v∥)2 2
c = ⟨x, ei ⟩ = x · ei = xi
Ejemplo. Sea V = C[−π, π], espacio de funciones continuas en el intervalo [−π, π],
k ∈ N , entonces para f (x) = sen kx,
π 1/2
√
Z
p 2
∥f ∥ = ⟨f, f ⟩ = sen kx dx = π
−π
si g() es cualquier función que pertenece a C[−π, π], entonces el coeficiente de Fourier
de g con respecto a f es,
π
⟨g, f ⟩
Z
1
= g(x) sen kx dx
⟨f, f ⟩ π −π
v − c1 v1 − · · · − cn vn ⊥ v1 , . . . , vn
CHAPTER 7. PRODUCTOS ESCALARES Y ORTOGONALIDAD 156
Esto se puede ver considerando los productos con vj ∀ j, donde todos los términos
⟨vi , vj ⟩ = 0 si i ̸= j y solo se tendrán los términos restantes,
⟨v, vj ⟩
⟨v, vj ⟩ − cj ⟨vj , vj ⟩ = ⟨v, vj ⟩ − ⟨vj , vj ⟩ = 0
⟨vj , vj ⟩
Teorema 7.1.8 Sea V un espacio vectorial finito con un producto escalar definido
positivo. Sea W un subespacio de V y sea {w1 , . . . , wm } una base ortogonal de W . Si
W ̸= V entonces existen elementos wm+1 , . . . , wn de V tal que {w1 , . . . , wn } es una
base ortogonal de V .
⟨vm+1 , w1 ⟩ ⟨vm+1 , wm ⟩
c1 = , . . . , cm =
⟨w1 , w1 ⟩ ⟨wm , wm ⟩
wm+1 = vm+1 − c1 w1 − · · · − cm wm
Corolario 7.1.1 Sea V un espacio vectorial de dimensión finita con un producto es-
calar definido positivo. Suponga que V ̸= {O}. Entonces V tiene una base ortogonal.
v1′ = v1
⟨v2 , v1′ ⟩ ′
v2′ = v2 − ′ ′ · v1
⟨v1 , v1 ⟩
⟨v3 , v2′ ⟩ ′ ⟨v3 , v1′ ⟩ ′
v3′ = v3 − ′ ′ · v2 − ′ ′ · v1
⟨v2 , v2 ⟩ ⟨v1 , v1 ⟩
..
.
′
⟨vn , vn−1 ⟩ ⟨vn , v1′ ⟩ ′
vn′ = vn − ′ · v ′
− · · · − ·v
⟨vn−1 , vn−1 ′
⟩ n−1 ⟨v1′ , v1′ ⟩ 1
v′1 = v1 = (1, 1, 0)
v2 · v′1 ′ 3 1 1
v′2 = v2 − ′ v = (1, 2, 0) − (1, 1, 0) = (− , , 0)
′ 1
v1 · v1 2 2 2
′ ′
v3 · v2 ′ v3 · v1 ′ 1/2 1 1 1
v′3 = v3 − ′ v − ′
′ 2
v = (0, 1, 2) −
′ 1
(− , , 0) − (1, 1, 0) = (0, 0, 2)
v2 · v2 v1 · v1 1/2 2 2 2
Con esto, una base ortogonal para R3 es {(1, 1, 0), (−1/2, 1/2, 0), (0, 0, 2)}. Normal-
CHAPTER 7. PRODUCTOS ESCALARES Y ORTOGONALIDAD 160
Teorema 7.1.9 Sea V un espacio vectorial sobre R, con un producto escalar definido
positivo, de dimensión n. Sea W un subespacio de V de dimensión r. Sea W ⊥ el
subespacio de V de todos los elementos los cuales son perpendiculares a W . Entonces
V es la suma directa de W y W ⊥ y dim(W ⊥ ) = n − r, es decir
u = x1 w1 + · · · + xr wr + xr+1 ur+1 + · · · + xn un
v = x1 w1 + · · · + xr wr + xr+1 ur+1 + · · · + xn un
A1) Si x ∈ F, y ∈ F ⇒ x + y ∈ F .
M1) Si x, y ∈ F ⇒ xy ∈ F .
Teorema 7.2.1 Existe un campo ordenado R el cual tiene la propiedad mı́nima cota
superior. Además, R contiene al conjunto Q como subcampo.
b) z1 z2 = (x1 x2 − y1 y2 , x1 y2 + x2 y1 )
c) z1 = z2 ⇔ x1 = x2 y y1 = y2 .
Lema 7.2.2 i2 = −1
a) z1 + z2 = z1 + z2
b) z1 z2 = z1 · z2
c) z + z = 2Re(z)
d) z − z = 2iIm(z)
√
Note que si z0 = (x, 0) ∈ C, z0 = x en R, |z0 | = x2 . No obstante de que R es un
campo ordenado, C no es un campo ordenado.
Para establecer la exponencial de un complejo, considere la representación de
coordenadas polares del punto (x, y),
para algunas funciones reales A(y) y B(y). Diferenciando dos veces ésta ecuación y
resolviendo la ecuación diferencial de segundo orden obtenida, resulta que
Por lo cual,
ez = ex (cos y + i sin y)
Ejemplo.
f (x) = u(x) + iv(x) donde u(x) y v(x) son funciones de R a R.
f (z) = ez
Se desea preservar la noción de producto escalar definido positivo en tanto sea posible.
El producto punto de 2 vectores con componentes complejos puede ser cero sin que
los vectores sean cero; por lo que se requiere hacer algunas modificaciones.
Note que si v = (i, 1) se tiene (i, 1) · (i, 1) = i2 + 1 = 0, es decir ∥v∥ = 0.
b) Si u, v, w ∈ V , entonces
⟨u, v + w⟩ = ⟨u, v⟩ + ⟨u, w⟩
c) Si α ∈ C entonces
⟨αu, v⟩ = α⟨u, v⟩ y ⟨u, αv⟩ = α⟨u, v⟩
⟨x, y⟩ = x1 y 1 + · · · + xn y n
Se puede verificar que se satisfacen las condiciones (a), (b) y (c) de la definición
establecida.
Note que ⟨(i, 1), (i, 1)⟩ = ii + 1 = 1 + 1 = 2
Además si x ̸= 0, algún xi ̸= 0 y xi xi > 0. Por consiguiente ⟨x, x⟩ > 0.
Se puede ver, por las propiedades de la integral, que se trata de un producto hermi-
tiano definido positivo.
Sea fn (t) = eint . Se puede ver que si m ̸= n
Z π Z π
int −imt
⟨fn , fm ⟩ = e e dt = ei(n−m)t dt
Z−π
π
−π
Z π
= cos(n − m)tdt + i sin(n − m)tdt = 0
−π −π
CHAPTER 7. PRODUCTOS ESCALARES Y ORTOGONALIDAD 167
= (∥v∥ + ∥w∥)2
Se tienen los resultados análogos, para un espacio vectorial V con producto her-
mitiano definido positivo.
Teorema 7.2.4 Sea V un espacio vectorial de dimensión finita sobre C, con un pro-
ducto hermitiano definido positivo. Sea W un subespacio de V y sea {w1 , . . . , wm }
una base ortogonal de W . Si V ̸= W , entonces existen elementos wm+1 , . . . , wn de V
tal que {w1 , . . . , wn } es una base ortogonal de V .
Teorema 7.2.5 Sea V un espacio vectorial ya sea sobre R con un producto interno
definido positivo, o en C con un producto hermitiano definido positivo. Suponga que
V tiene dimensión finita n. Sea W un subespacio de V de dimensión r. Sea W ⊥ el
subespacio de V que consiste en todos los elementos de V , que son perpendiculares a
W . Entonces W ⊥ tiene dimensión n − r. Es decir,
Teorema 7.2.6 Sea V un espacio vectorial ya sea sobre R con un producto interno
definido positivo, o en C con un producto hermitiano definido positivo. Suponga que
V es de dimensión finita. Sea W un subespacio de V . Entonces V es la suma directa
de W y de W ⊥ .
t
Si A es una matriz real, entonces A∗ = A = At .
Se tiene
1−i 2
1−i i 0 t
A= ⇒ A = i
3 + 2i
2 3 + 2i −i
0 −i
g : U × V −→ W
CHAPTER 7. PRODUCTOS ESCALARES Y ORTOGONALIDAD 171
Se dice que g es bilineal si para cada fijo u ∈ U , el mapeo v 7−→ g(u, v) es lineal; y si
para cada fijo v ∈ V , el mapeo u 7−→ g(u, v) es lineal.
La primera condición implica que
g(u, v1 + v2 ) = g(u, v1 ) + g(u, v2 )
g(u, cv) = cg(u, v)
y similarmente la segunda condición.
gA : Rm × Rn −→ R
considerando
a ··· a1n y
11 1
t .. .. ..
gA (x, y) = x Ay = (x1 , . . . , xm ) . . .
am1 · · · amn yn
Note que:
gA mapea pares de vectores en R.
Si x está fijo, el mapeo y −→ xt Ay es lineal.
Si y está fijo, el mapeo x −→ xt Ay es lineal.
En otra palabras, suponga que x está fijo, entonces
xt A(cy) = cxt Ay
CHAPTER 7. PRODUCTOS ESCALARES Y ORTOGONALIDAD 172
Note que
Xm m
X
t
xA=( xi ai1 , . . . , xi ain )
i=1 i=1
con lo cual
n X
X m n X
X m
t
x Ay = xi aij yj = aij xi yj
j=1 i=1 j=1 i=1
g(x, y) = xt Ay
g(x, y) = g(x1 E 1 + · · · + xm E m , y1 U 1 + · · · + yn U n )
Xm
= xi g(E i , y1 U 1 + · · · + yn U n )
i=1
m X
X n
= xi yj g(E i , U j )
i=1 j=1
el cual es la expresión que representa el producto xt Ay, donde A = (aij ). Esto implica
que g = gA por la elección de aij indicado.
Para mostrar la unicidad suponga que B es una matriz tal que g = gB ; entonces
∀ x y y se tiene que xt Ay = xt By y entonces substrayendo,
xt (A − B)y = 0 ∀ x, y
0 = (E k )t CU l = ckl
Lo que implica que ckl = 0 ∀ k, l. Esto muestra la primera parte del teorema. 2
v = (v − cv1 ) + cv1
Note que {(1, 0), (0, 1)} es una base ortogonal para R2 con dicho producto escalar
definido. Sin embargo {(1, 2), (2, 1)} forma una base ortogonal con tal producto
escalar en R2 , pero no es una base ortogonal con el producto punto ordinario.
⟨x, y⟩ = x1 y1 − x2 y2 − x3 y3
Se desea encontrar una base ortogonal para V , con respecto a dicho producto. Note
que
⟨u1 , u1 ⟩ = 1 − 4 − 1 = −4 ̸= 0
⟨u2 , v1 ⟩ 1 1
c= = (1 − 2 − 1) =
⟨v1 , v1 ⟩ −4 2
1
⇒ v2 = u2 − c v1 = (1, 1, 1) − (1, 2, 1) = (1/2, 0, 1/2)
2
Note que
1 1
⟨v1 , v2 ⟩ = − 2(0) − (1) = 0
2 2
Por lo tanto {(1, 2, 1), (1/2, 0, 1/2)} es una base ortogonal del subespacio V con el
producto escalar dado.
CHAPTER 7. PRODUCTOS ESCALARES Y ORTOGONALIDAD 176
V ∗ = L(V, K)
A los elementos del espacio dual V ∗ se les llama funcionales en V . Sea φ un elemento
de V ∗ y v un elemento de V . Es conveniente denotar a φ(v) por el sı́mbolo ⟨φ, v⟩; en
virtud de si φ1 , φ2 ∈ V ∗ y c ∈ K, se tiene
En otras palabras,
⟨φ1 + φ2 , v⟩ = ⟨φ1 , v⟩ + ⟨φ2 , v⟩,
⟨c φ, v⟩ = c ⟨φ, v⟩
⟨φ, c v⟩ = c ⟨φ, v⟩
φi (x1 , . . . , xn ) = xi
CHAPTER 7. PRODUCTOS ESCALARES Y ORTOGONALIDAD 177
para todas las distribuciones con primer momento finito. Si se tiene una muestra
aleatoria X1 , . . . , Xn de una población con f.d.a. F (x), y se define la distribución
empı́rica de tales observaciones como
1
Fn (t) = [número de Xi ’s ≤ t] t ∈ R
n
entonces un estimador razonable es usar la f.d.a. empı́rica en el funcional, lo que
produce γ̂ = T (Fn ). Entonces el estimador correspondiente a la media funcional es
Z ∞ n
X Xi
γ̂ = T1 (Fn ) = t dFn (t) = = X̄
−∞ i=1
n
Lv (w) = ⟨v, w⟩
Teorema 7.5.3 Sea V un espacio vectoria de dimensión finita sobre K con un pro-
ducto escalar o interno no degenerado. Dado un funcional L : V −→ K, existe un
único elemento v ∈ V tal que
L(w) = ⟨v, w⟩
para cualquier w ∈ V .
CHAPTER 7. PRODUCTOS ESCALARES Y ORTOGONALIDAD 179
[1] Andrilli, S. and Hecker, D. 2010. Elementary Linear Algebra 4th ed. Elsevier
Academic Press
[2] Anton, H. and Kaul, A. 2019. Elementary Linear Algebra 12th ed. John Wiley
[3] Axler, S. 2015. Linear Algebra Done Right 3rd ed. Springer
[5] Kolman, B. and Hill, D. R. 2008. Elementary Linear Algebra With Applications
9th ed. Pearson
[8] Larson, R. 2017. Elementary Linear Algebra 8th ed. Cengage Learning
[9] Leon, S. J. 2010. Linear Algebra with Applications. 8th ed. Pearson
[10] Lipschutz, S and Lipson, N. 2009. Linear Algebra 4th ed. Schaum’s Outline
McGraw-Hill
180
REFERENCIAS 181
[15] Venit, S. and Bishop, W. 1989. Elementary Linear Algebra 3rd ed. PWS-KENT
Pub
[16] Yoshida, R. 2021. Linear Algebra and Its Applications with R. CRC Press