Álgebra
Álgebra
Notas de clase
Curso 2023-2024
Estructuras algebraicas básicas
1
Sección 1
Tabla de verdad:
p
V
F
Conectores:
• Símbolos para representar conexiones lógicas entre proposiciones
• Forman proposiciones compuestas
• Operan entre proposiciones (operaciones lógicas)
2
Conectores (un argumento): NEGACIÓN ( ¬ )
p ¬p
V F
F V
Conjunción: p Y q, p AND q
Disyunción: p O q, p OR q
3
2
¿Cuántos conectores diferentes podremos definir con dos proposiciones? 22
El valor de verdad de cualquier expresión con 2 variables proposicionales es una de estas columnas
Así: f1 ≡ p ∧ q f7 ≡ p ∨ q f6 ≡ p ∨ q f13 ≡ p ⟹ q f9 ≡ p ⟺ q
o por ejemplo: f8 ≡ ¬(p ∨ q) f14 ≡ ¬(p ∧ q) f12 ≡ ¬p
3
El valor de verdad de una expresión con 3 variables proposicionales es una de las 22 posibles
p q r f0 f1 f2 f3 f254 f255
V V V F V F V F V
V V F F F V V V V
V F V F F F F V V
V F F F F F F ⋯⋯ V V
F V V F F F F V V
F V F F F F F V V
F F V F F F F V V
F F F F F F F V V
4
Tautología: expresión lógica que es verdadera independientemente de los valores de verdad de las proposiciones que la forman
f15 en el caso de dos variables, f255 en el caso de tres variables
Contradicción: expresión lógica que es falsa independientemente de los valores de verdad de las proposiciones que la forman
f0 en el caso de dos o tres variables
Proposición contingente o factual: enunciado que puede ser verdadero o falso según lo sean las proposiciones que lo forman
Ejemplos:
• Contradicciones:
• p ∧ ¬p
• ¬(p ∨ ¬p)
• (p ⟹ q) ∧ (p ∧ ¬q)
• Tautologías:
• p ∨ ¬p (ley del tercio excluso)
• ¬(p ∧ ¬p) (ley de no contradicción)
Cuando tienen forma de implicación se denomina IMPLICACIÓN LÓGICA: no puede darse que el consecuente sea falso siendo
verdadero el antecedente.
Cuando tiene forma de bicondicional se denomina EQUIVALENCIA LÓGICA: las dos proposiciones relacionadas tienen el mismo
valor de verdad
5
Ejemplos:
• Implicaciones lógicas:
• (p ∧ (p ⟹ q)) ⟹ q (modus ponendo ponens)
• ( ¬q ∧ (p ⟹ q)) ⟹ ¬p (modus tollendo tollens)
• ( ¬p ∧ (p ∨ q)) ⟹ q (silogismo disyuntivo, modus tollendo ponens)
• (p ∧ ¬(p ∧ q)) ⟹ ¬q (modus ponendo tollens)
• ((p ⟹ q) ∧ (q ⟹ r)) ⟹ (p ⟹ r) (silogismo hipotético)
• (p ∧ ¬p) ⟹ q (de una contradicción se deduce cualquier cosa)
• ((p ⟹ q) ∧ ( ¬p ⟹ q)) ⟹ q
• Equivalencias lógicas:
• (p ⟹ q) ⟺ ( ¬q ⟹ ¬p) (ley de contraposición: equivalencia entre condicional y contrarrecíproca)
• ¬( ¬p) ⟺ p (ley de involución o doble negación)
• (p ⟹ q) ⟺ ((p ∧ ¬q) ⟹ (p ∧ ¬p)) (ley de reducción al absurdo)
• p ⟺ ( ¬p ⟹ (q ∧ ¬q)) (otra variante)
• ( ¬p ⟹ p) ⟺ p (otra variante)
• ((p ⟹ q) ∧ (p ⟹ r)) ⟺ (p ⟹ (q ∧ r))
• ((p ⟹ q) ∨ (r ⟹ q)) ⟺ ((p ∧ r) ⟹ q)
6
• Equivalencias lógicas entre conectivas:
• (p ∨ q) ⟺ ¬(p ⟺ q) (equivalencia de la disyunción exclusiva)
• (p ⟺ q) ⟺ ((p ⟹ q) ∧ (q ⟹ p)) (equivalencia del bicondicional)
• (p ⟺ q) ⟺ ( ¬p ⟺ ¬q)
• (p ⟹ q) ⟺ ( ¬p ∨ q) (equivalencia del condicional)
• (p ⟹ q) ⟺ ( ¬(p ∧ ¬q)) (equivalencia del condicional)
• (p ↓ q) ⟺ ¬(p ∨ q) (equivalencias del operador de Peirce)
• (p ↓ p) ⟺ ¬p
• ((p ↓ q) ↓ (p ↓ q)) ⟺ (p ∨ q)
• ((p ↓ p) ↓ (q ↓ q)) ⟺ (p ∧ q)
• (((p ↓ p) ↓ q) ↓ ((p ↓ p) ↓ q)) ⟺ (p ⟹ q)
• (p | q) ⟺ ¬(p ∧ q) (equivalencias del operador de Sheffer)
• (p | p) ⟺ ¬p
• ((p | q) | (p | q)) ⟺ (p ∧ q)
• ((p | p) | (q | q)) ⟺ (p ∨ q)
• (p | (q | q)) ⟺ (p ⟹ q)
7
Lógica de predicados (de primer orden)
Predicado: enunciado que se refiere a una propiedad de un objeto o de varios, representados por una o más variables.
Cuando se sustituyen las variables (se “ligan”) por algún elemento de cierto conjunto o universo del discurso obtenemos una
proposición.
Ejemplos:
P(n) [ n es un número par]. El universo del discurso es el conjunto de los números naturales o el de los enteros.
Así: P(2), P(4) son proposiciones verdaderas y P(7), P(1) son falsas. L(2,2) es verdadera y L(9,1) es falsa.
Cuantificadores: Son alusiones a algunos de los elementos del universo del discurso.
“Ligan” las variables presentes en el predicado, que dejan de ser “libres”, lo que contribuye a convertirlo en proposición (lo será
cuando todas sus variables estén “ligadas”).
8
Cuantificador universal: ∀ (“para cada”, “para todo”).
Notaciones: ∀x P(x) ∀x, P(x) ∀x∥P(x) ( ∀x ) P(x) (Universo del discurso implícito)
∀x ∈ D, P(x) ∀x, x ∈ D, P(x) (Universo del discurso explícito)
Se verifica:
∀x ∈ D, P(x) ⟺ ∀x, (x ∈ D ⟹ P(x))
∀x ∈ D, P(x) ⟹ P(a) (si a ∈ D)
Notaciones: ∃x P(x) ∃x, P(x) ∃x∥P(x) ( ∃x ) P(x) (Universo del discurso implícito)
∃x ∈ D, P(x) ∃x, x ∈ D, P(x) (Universo del discurso explícito)
Se verifica:
∃x ∈ D, P(x) ⟺ ∃x, (x ∈ D ∧ P(x))
P(a) ⟹ ∃x ∈ D, P(x) (si a ∈ D)
(Nótese que ∃y, ∀x, P(x, y) ⟹ ∀x, ∃y, P(x, y), pero no la recíproca)
9
Negación de los cuantificadores:
UNIVERSAL:
¬ ∀x, P(x) ⟺ ∃x, ¬P(x) ¬ ∀x ∈ D, P(x) ⟺ ∃x ∈ D, ¬P(x) (a veces se emplea ∀/ x, P(x))
Nótese que:
¬ ∀x ∈ D, P(x) ⟺ ¬ ∀x, (x ∈ D ⟹ P(x)) ⟺ ∃x, ¬(x ∈ D ⟹ P(x)) ⟺ ∃x, (x ∈ D ∧ ¬P(x)) ⟺ ∃x ∈ D, ¬P(x)
EXISTENCIAL:
¬ ∃x, P(x) ⟺ ∀x, ¬P(x) ¬ ∃x ∈ D, P(x) ⟺ ∀x ∈ D, ¬P(x) (a veces se emplea ∃x,
/ P(x))
Nótese que:
¬ ∃x ∈ D, P(x) ⟺ ¬ ∃x, (x ∈ D ∧ P(x)) ⟺ ∀x, ¬(x ∈ D ∧ P(x)) ⟺ ∀x, (x ∈ D ⟹ ¬P(x)) ⟺ ∀x ∈ D, ¬P(x)
EJEMPLOS:
¬ ∀d, ∃m, ∀p, L(m, p, d ) ⟺ ∃d, ¬ ∃m, ∀p, L(m, p, d ) ⟺ ∃d, ∀m, ¬ ∀p, L(m, p, d ) ⟺ ∃d, ∀m, ∃p, ¬L(m, p, d )
¬ ∃m, ∀p, ∀d, L(m, p, d ) ⟺ ∀m, ¬ ∀p, ∀d, L(m, p, d ) ⟺ ∀m, ∃p, ¬ ∀d, L(m, p, d ) ⟺ ∀m, ∃p, ∃d, ¬L(m, p, d )
10
Razonamiento deductivo
Regla de inferencia o forma de argumentación: Proceso por el que, a partir de un conjunto de proposiciones conocidas
(premisas) hipotéticamente verdaderas, se obtiene otra proposición verdadera (conclusión).
p1
p2
p3
(*) ⋮
pn
q
La conclusión se deriva de las premisas, es decir que siendo estas verdaderas, la conclusión es necesariamente verdadera (no
es posible que las premisas sean verdaderas y la conclusión falsa).
Razonamiento válido: Conclusión verdadera en todos los casos en que todas las premisas sean simultáneamente verdaderas.
Razonamiento no válido o falacia: Conclusión falsa en al menos algún caso en que todas las premisas sean simultáneamente
verdaderas.
Razonamiento inconsistente: Cuando no es posible que todas las premisas sean simultáneamente verdaderas.
11
El lenguaje matemático
Conjetura: proposición que se cree cierta, pero que no se ha podido demostrar verdadera ni falsa
Ej: Conjetura de Goldbach (1742): Todo número par mayor que 2 puede escribirse como la suma de dos números primos
4 = 2+2 6 = 3+3 8 = 3+5 10 = 5+5 12 = 5+7 14 = 7+7 16 = 5+11 ...
(se ha comprobado computacionalmente hasta aprox. 4 ⋅ 1018)
Demostraciones: a partir de un conjunto de proposiciones iniciales, deducimos proposiciones más complejas, mediante reglas
de razonamiento aceptadas.
12
Estrategias de demostración (en muchos casos aparecen combinaciones de dos o más de ellas):
13
Hacia adelante:
Hacia atrás:
x+y
∀x, y ∈ R, x, y ≥ 0 ⟹ xy ≤ (La media geométrica de dos números no es mayor que su media aritmética
2
x+y ⟸ x+y
1. xy ≤ − xy ≥ 0
2 ⟺ 2
x+y ⟸
2. − xy ≥ 0 ⟺ x + y − 2 xy ≥ 0
2
⟸
3. x + y − 2 x y ≥ 0 ⟺ ( x)2 + ( y)2 − 2( x)( y) ≥ 0
⟸
4. ( x)2 + ( y)2 − 2( x)( y) ≥ 0 ⟺ ( x − y)2 ≥ 0
5. ∀x, y ∈ R, x, y ≥ 0 ⟹ ( x − y)2 ≥ 0
14
Contraposición (y por casos):
{ ∃k ∈ Z, m = 2k ⟹ mn = 2kn = 2(kn) }
∃k ∈ Z, n = 2k ⟹ mn = 2km = 2(km)
3. ⟹ Par(mn)
{n ≠ 2 ∧ 2 | n}
n=2
3. ∃k ∈ N, n = 2k ⟹
{n ≠ 2 ∧ 2 | n} { ¬Primo(n)}
n=2 n=2
4. ⟹ ⟹ n = 2 ∨ ¬Primo(n)
5. n = 2 ∨ ¬Primo(n) ⟹ n ≤ 2 ∨ ¬Primo(n)
/ ∈ Z, n 2 + n − c = 0
Impar(c) ⟹ ∃n (La ecuación n 2 + n − c = 0 no tiene solución entera para c impar)
1. ∃n ∈ Z, n 2 + n − c = 0 ⟹ Par(n) ∨ Impar(n)
{Impar(n)} { ∃k ∈ Z, n = 2k + 1}
Par(n) ∃k ∈ Z, n = 2k
2. ⟹
4. Par(c) ⟹ ¬Impar(c)
{ }
∀n ∈ N, Impar(n 2) ⟹ Impar(n)
(sus contrarrecíprocas fueron demostradas hacia adelante)
∀n ∈ N, Par(n 2) ⟹ Par(n)
15
Reducción al absurdo (y por casos):
2∉Q ( 2 es irracional)
p
1. 2 ∈ Q ⟹ ∃p, q ∈ N, Coprimos(p, q) ∧ 2=
q
p p2
2. 2= ⟹ 2= 2
q q
3. p 2 = 2q 2 ⟹ Par(p 2)
4. Par(p 2) ⟹ Par(p) (2 | p)
5. Par(p) ⟹ ∃k ∈ N, p = 2k
6. p 2 = 2q 2 ⟹ 4k 2 = 2q 2 ⟹ q 2 = 2k 2
7. q 2 = 2k 2 ⟹ Par(q 2)
8. Par(q 2) ⟹ Par(q) (2 | q)
9. 2 | p ∧ 2 | q ∧ Coprimos(p, q) es UNA CONTRADICCIÓN
{Q ⋅ R = 2 ⋅ 3 ⋅ 5 ⋅ 7⋯Q⋯P + 1} {Q ⋅ (R − 2 ⋅ 3 ⋅ 5 ⋅ 7⋯P) = 1} {Q | 1
4. ⟹ ⟹
(CONTRADICCIÓN)}
16
Por contraejemplo:
¬ ( f continua en x = a ⟹ f derivable en x = a)
1. Considérese f : R → R, f (x) = | x | en x = 0
n
n(n + 1)
∑
∀n ∈ N, i=
i=1
2
n
n(n + 1)
∑
1. F(n) = S(n) = i =1+2+3+⋯+n
2 i=1
2. Queremos probar que ∀n ∈ N, S(n) = F(n)
1 ⋅ (1 + 1)
3. n = 1 ⟹ S(1) = 1 ∧ F(1) = =1
2
(k + 1)(k + 2)
4. F(k + 1) =
2
k+1
∑
5. S(k + 1) = i = 1 + 2 + ⋯ + k + (k + 1) = S(k) + (k + 1)
i=1
k(k + 1) k(k + 1) + 2(k + 1) (k + 1)(k + 2)
6. S(k + 1) = + (k + 1) = = = F(k + 1)
2 2 2
17
Por inducción completa:
{k + 1 = pq ∧ p < k + 1 ∧ q < k + 1}
Primo(k + 1)
3. n = k + 1 ⟹
{Producto_de_primos(k + 1)}
5. ⟹
18
Sección 2
Álgebra de Boole
Teoría de conjuntos
Conjunto: Colección de objetos determinados y distintos de nuestra percepción o nuestro pensamiento reunidos en un todo (†)
Pertenencia: Dado un objeto x siempre tendremos que poder decidir si x está o no en el conjunto C
Definimos así el predicado x ∈ C y su negación ¬x ∈ C ⟺ x ∉ C
Determinación:
Ejemplos:
• C′ = {x ∈ Z | Par(x)}
19

Paradoja de B. Russell:
Sea X el conjunto de los conjuntos que no son elementos de sí mismos: X = {x | x ∉ x} ¿Será X elemento de sí mismo?
La “paradoja del barbero” es similar, en términos de la lógica: En una ciudad hay solamente un barbero, que afeita a todos los
que no se afeitan a sí mismos. ¿Quién afeita al barbero?
Sea A(b,x) el predicado el barbero b afeita al ciudadano x. Luego ∀x, ¬A(x, x) ⟺ A(b, x)
Estos problemas se resuelven con la teoría axiomática de conjuntos, que construye estos de manera precisa y rigurosa.
No la abordaremos en esta asignatura.
20
Primeras definiciones:
Igualdad: A = B ⟺ ∀x(x ∈ A ⟺ x ∈ B) A = B ⟺ (A ⊂ B ∧ B ⊂ A)
Propiedades:
• ∀A, ∅ ⊂ A
• ∀A, A ⊂ A
• ∀X, ∅ ∈ (X )
• ∀X, X ∈ (X )
21
𝒫
𝒫
𝒫
𝒫





Ejemplo:
Sea X = {a, b, c, d}
(X ) = {∅, {a}, {b}, {c}, {d}, {a, b}, {a, c}, {a, d}, {b, c}, {b, d}, {c, d}, {a, b, c}, {a, b, d}, {a, c, d}, {b, c, d}, {a, b, c, d}}
22
𝒫
𝒫
Operaciones en (X )
Sean A, B ∈ (X )
Unión: A ∪ B = {x ∈ X | x ∈ A ∨ x ∈ B}
⋃
V = {x | x ∈ X ∧ ∃V ∈ I, x ∈ V}
V∈I⊂ (X )
Intersección: A ∩ B = {x ∈ X | x ∈ A ∧ x ∈ B}
⋂
V = {x | x ∈ X ∧ ∀V ∈ I, x ∈ V}
V∈I⊂ (X ),I≠∅
23
𝒫
𝒫
𝒫
𝒫
Complementario A = {x ∈ X | x ∉ A} = X − A
Diferencia: A − B = {x ∈ X | x ∈ A ∧ x ∉ B} = A ∩ B
24
Propiedades:
• ∀A, B ∈ (X ), A ⊂ A ∪ B ∀A, B ∈ (X ), A ∩ B ⊂ A
• ∀A, B ∈ (X ), A ⊂ B ⟺ A ∪ B = B ∀A, B ∈ (X ), A ⊂ B ⟺ A ∩ B = A
• ∀A ∈ (X ), ∅ − A = ∅ ∀A ∈ (X ), A − ∅ = A
• ∀A ∈ (X ), A ∪ A = A ∀A ∈ (X ), A ∩ A = A (idempotencia)
• ∀A ∈ (X ), A ∪ ∅ = A ∀A ∈ (X ), A ∩ X = A (elem. neutros)
• ∀A ∈ (X ), A ∪ X = X ∀A ∈ (X ), A ∩ ∅ = ∅ (elem. absorbentes)
• ∀A ∈ (X ), A ∪ A = X ∀A ∈ (X ), A ∩ A = ∅ (el. complementarios)
25
𝒫
𝒫
𝒫
𝒫
𝒫
𝒫
𝒫
𝒫
𝒫
𝒫
𝒫
𝒫
𝒫
𝒫
𝒫
𝒫
𝒫
𝒫
𝒫
𝒫
𝒫
𝒫
𝒫
𝒫
Sección 3
A × B = {(x, y) | x ∈ A ∧ y ∈ B}
26
Grafo
27
Composición de grafos G ⊂ A × B y H ⊂ B × C H ∘ G = {(x, z) ∈ A × C | ∃y ∈ B, (x, y) ∈ G ∧ (y, z) ∈ H}
Propiedades:
I. K ∘ (H ∘ G) = (K ∘ H ) ∘ G
II. (H ∘ G)−1 = G −1 ∘ H −1
III. (G −1)−1 = G
28
Función
I. ∀x ∈ A, ∃y ∈ B, (x, y) ∈ f
Notaciones:
f :A→B
( f, A, B) (x, y) ∈ f ⟺ y = f (x)
x ↦ y = f (x)
29
Se dice que A es el dominio de f y que B es el codominio de f
Imagen de X ⊂ A: f (X ) = {y ∈ B | ∃x ∈ X, y = f (x)}
Propiedades:
I. f (∅) = ∅
II. f −1(∅) = ∅
30





𝒫
𝒫
𝒫
𝒫
𝒫










Inyectividad: f : A → B es inyectiva ⟺ ∀x, x′ ∈ A, x ≠ x′ ⟹ f (x) ≠ f (x′)
(equiv.) ⟺ B = f (A)
31






Composición de funciones: Siendo f : A → B y g : B → C se denomina aplicación compuesta de f y g a la aplicación
g ∘ f : A → C, ∀x ∈ A, (g ∘ f )(x) = g[ f (x)]
Propiedades:
I. Asociatividad: f : A → B, g : B → C, h : C → D ⟹ (h ∘ g) ∘ f = h ∘ (g ∘ f )
g : R → R, g(x) = x 2}
f : R → R, f (x) = 2x
{( f ∘ g)(x) = 2(x 2) = 2x 2
(g ∘ f )(x) = (2x)2 = 4x 2
Contraejemplo: ⟹
V. f, g biyectivas ⟹ g ∘ f biyectiva
32
Función inversa: Toda aplicación, por ser grafo, tiene grafo inverso. Este, sin embargo, no siempre es función.
(Recuérdese que la función identidad es iA : A → A, ∀x ∈ A, iA(x) = x y nótese que es una función biyectiva)
Propiedades:
33
Sección 4
⋄:K×A→A ∀a ∈ A, ∀k ∈ K, c = ⋄ (k, a) = k ⋄ a (c ∈ A)
34
Posibles propiedades de una ley de composición interna ⋆ : A × A → A
{ ∀b, c ∈ A, b ⋆ a = c ⋆ a ⟹ b = c
∀b, c ∈ A, a ⋆ b = a ⋆ c ⟹ b = c
Elemento regular: a ∈ A es regular o simplificable ⟺
Idempotencia: ⋆ es idempotente ⟺ ∀a ∈ A, a ⋆ a = a
35



Con dos leyes de composición interna ⋆ : A × A → A y ⋄:A×A→A
Si ambas operaciones tienen elemento neutro se les suele denominar elemento cero (0) y elemento unidad (1),
respectivamente. En algunos casos se emplearán los símbolos ⊥ y ⊤ u otros
{(b ⋄ c) ⋆ a = (b ⋆ a) ⋄ (c ⋆ a)
a ⋆ (b ⋄ c) = (a ⋆ b) ⋄ (a ⋆ c)
Distributividad: ⋆ es distributiva respecto de ⋄ ⟺ ∀a, b, c ∈ A,
{a ⋄ a = ⊥
a⋆a =⊤
Complementario‡: a ∈ A admite complementario ⟺ ∃a ∈ A,
†
Es el elemento simétrico respecto a la segunda operación cuando esta se denomina producto. Cuando existe se le denomina
elemento inverso. Al elemento simétrico respecto de la primera operación cuando esta se denomina suma se le denomina
elemento opuesto
‡
En este caso, los elementos neutros se han denominado ⊥ (neutro de ⋆) y ⊤ (neutro de ⋄)
36
Ejemplo: Zn
{0 ⊙ 0 = 0 , 0 ⊙ 1 = 0 , 1 ⊙ 0 = 0 , 1 ⊙ 1 = 1}
⊕ : Zn × Zn → Zn ∀x, y ∈ Zn, x ⊕ y = x + y mod n 0⊕0=0 , 0⊕1=1 , 1⊕0=1 , 1⊕1=0
Z2 = {0,1}
⊙ : Zn × Zn → Zn ∀x, y ∈ Zn, x ⊙ y = x ⋅ y mod n
Z2 Z3
+ 0 1 . 0 1 + 0 1 2 . 0 1 2
0 0 1 0 0 0 0 0 1 2 0 0 0 0
1 1 0 1 0 1 1 1 2 0 1 0 1 2
2 2 0 1 2 0 2 1
+ 0 1 2 3 Z4 . 0 1 2 3 + 0 1 2 3 4 Z5 . 0 1 2 3 4
0 0 1 2 3 0 0 0 0 0 0 0 1 2 3 4 0 0 0 0 0 0
1 1 2 3 0 1 0 1 2 3 1 1 2 3 4 0 1 0 1 2 3 4
2 2 3 0 1 2 0 2 0 2 2 2 3 4 0 1 2 0 2 4 1 3
3 3 0 1 2 3 0 3 2 1 3 3 4 0 1 2 3 0 3 1 4 2
4 4 0 1 2 3 4 0 4 3 2 1
37
Principales estructuras algebraicas para (A, ⋆ )
⋆:A×A→A
Magma Si
Semigrupo Si Si
Semigrupo
Si Si Si
conmutativo
Monoide (semigrupo
con elemento Si Si Si
neutro)
Monoide
Si Si Si Si
conmutativo
Grupo Si Si Si Si
Grupo conmutativo
Si Si Si Si Si
o abeliano
38
Principales estructuras algebraicas para (A, ⋆ , ⋄ )
⋆:A×A→A ⋄:A×A→A
Semigrupo
Anillo conmutativo Grupo conmutativo Si
conmutativo
Anillo conmutativo
Grupo conmutativo Monoide conmutativo Si
unitario
Dominio de
Grupo conmutativo Monoide conmutativo Si Si
integridad
Campo o cuerpo
Grupo conmutativo Grupo conmutativo (*) Si (propiedad)
conmutativo
(*) En el caso del cuerpo y del cuerpo conmutativo, (A − {0}, ⋄ ) ha de ser grupo o grupo conmutativo, respectivamente, ya que 0
nunca es invertible
39
Principales estructuras algebraicas para (A, ⋆ , ⋄ )
⋆:A×A→A ⋄:A×A→A
{ ∀a, b ∈ A, a ⋄ b = b ⋄ a
∀a, b ∈ A, a ⋆ b = b ⋆ a
I. ⋆ , ⋄ conmutativas:
{ ∃ ⊤ ∈ A, ∀a ∈ A, a ⋄ ⊤ = ⊤ ⋄ a = a
∃ ⊥ ∈ A, ∀a ∈ A, a ⋆ ⊥ = ⊥ ⋆ a = a
II. ⋆ , ⋄ tienen elementos neutros ⊥ , ⊤ :
{a⋄a = a⋄a = ⊥
a⋆a =a⋆a =⊤
III. Todo elemento admite elemento complementario: ∀a ∈ A, ∃a ∈ A,
{(b ⋆ c) ⋄ a = (b ⋄ a) ⋆ (c ⋄ a)
a ⋄ (b ⋆ c) = (a ⋄ b) ⋆ (a ⋄ c)
IV. ⋄ es distributiva respecto de ⋆: ∀a, b, c ∈ A,
{(b ⋄ c) ⋆ a = (b ⋆ a) ⋄ (c ⋆ a)
a ⋆ (b ⋄ c) = (a ⋆ b) ⋄ (a ⋆ c)
V. ⋆ es distributiva respecto de ⋄: ∀a, b, c ∈ A,
Ejemplos
• ( (X ), ∪ , ∩ ) (elementos neutros, ∅ y X)
• ({V, F}, ∨ , ∧ ) (elementos neutros, F y V)
• ({0,1}, ⊕ , ⊙ ) (elementos neutros, 0 y 1)
40
𝒫
Propiedades
n′ elemento neutro} { n′ ⋆ n = n ⋆ n′ = n }
n elemento neutro n ⋆ n′ = n′ ⋆ n = n′
⟹ ⟹ n = n′
a′′ simétrico de a}
a′ simétrico de a
⟹ a′′ = a′′ ⋆ n = a′′ ⋆ (a ⋆ a′) = (a′′ ⋆ a) ⋆ a′ = n ⋆ a′ = a′
• ∀a, b ∈ A, (a ⋆ b)′ = b′ ⋆ a′
41
























































• a ∈ A, a ⋆ a = a ⟺ a = n (el único elemento idempotente es el neutro)
a ⋆ a = a ⟹ a′ ⋆ (a ⋆ a) = a′ ⋆ a ⟹ n ⋆ a = n ⟹ a = n
a =n ⟹ a⋆a =a⋆n ⟹ a⋆a =a
a ⊙ 0 = a ⊙ (0 ⊕ 0) = (a ⊙ 0) ⊕ (a ⊙ 0) ⟹ 0 = − (a ⊙ 0) ⊕ (a ⊙ 0) = − (a ⊙ 0) ⊕ (a ⊙ 0) ⊕ (a ⊙ 0) ⟹ 0 = (a ⊙ 0)
0 ⊙ a = (0 ⊕ 0) ⊙ a = (0 ⊙ a) ⊕ (0 ⊙ a) ⟹ 0 = − (0 ⊙ a) ⊕ (0 ⊙ a) = − (0 ⊙ a) ⊕ (0 ⊙ a) ⊕ (0 ⊙ a) ⟹ 0 = (0 ⊙ a)
• 0 no es simplificable
∀a, b ∈ A, a ⊙ 0 = b ⊙ 0 = 0 ⟹ ∃a, b ∈ A, a ≠ b ∧ a ⊙ 0 = b ⊙ 0
∀a, b ∈ A,0 ⊙ a = 0 ⊙ b = 0 ⟹ ∃a, b ∈ A, a ≠ b ∧ 0 ⊙ a = 0 ⊙ b
42


• ∀a ∈ A, a ≠ 0, a divisor de cero ⟺ a no simplificable
{0 = b ⊙ a = 0 ⊙ a ⟹ b = 0
0=a⊙b =a⊙0 ⟹ b =0
a ∈ A, a ≠ 0, simpli cable y b ∈ A, ⟹ ∃b
/ ∈ A, b ≠ 0,a ⊙ b = 0 ∨ b ⊙ a = 0
⟹ a no es divisor de cero
a ∈ A, a ≠ 0, no divisor de cero, b, c ∈ A,
⟹ b = c ⟹ a es simplificable
• ∀a ∈ A, (−a) = (−1) ⊙ a
(−1) ⊙ a = 1 ⊙ (−a) = − (1 ⊙ a) = − a
43
fi
• a ∈ A invertible ⟹ a no es divisor de cero (a ∈ A es divisor de cero ⟹ a no es invertible)
{b ⊙ a = 0 ⟹ (b ⊙ a) ⊙ a −1 = 0 ⊙ a −1 ⟹ b ⊙ 1 = 0}
a ⊙ b = 0 ⟹ a −1 ⊙ (a ⊙ b) = a −1 ⊙ 0 ⟹ 1 ⊙ b = 0
a ≠ 0, invertible ⟹ ⟹ b=0
• 0 ∈ A no es invertible
44
Propiedades de las álgebras de Boole
• ∀a ∈ A, a ⋆ a = a ∧ a ⋄ a = a (idempotencia)
a ⋆ a = (a ⋆ a) ⋄ ⊤ = (a ⋆ a) ⋄ (a ⋆ a ) = a ⋆ (a ⋄ a ) = a ⋆ ⊥ = a
a ⋄ a = (a ⋄ a) ⋆ ⊥ = (a ⋄ a) ⋆ (a ⋄ a ) = a ⋄ (a ⋆ a ) = a ⋄ ⊤ = a
a ⋆ ⊤ = (a ⋆ ⊤ ) ⋄ ⊤ = (a ⋆ ⊤ ) ⋄ (a ⋆ a ) = a ⋆ ( ⊤ ⋄ a ) = a ⋆ a = ⊤
a ⋄ ⊥ = (a ⋄ ⊥ ) ⋆ ⊥ = (a ⋄ ⊥ ) ⋆ (a ⋄ a ) = a ⋄ ( ⊥ ⋆ a ) = a ⋄ a = ⊥
• ∀a, b ∈ A, a ⋄ (a ⋆ b) = a ∧ a ⋆ (a ⋄ b) = a (absorción)
a ⋄ (a ⋆ b) = (a ⋆ ⊥ ) ⋄ (a ⋆ b) = a ⋆ ( ⊥ ⋄ b) = a ⋆ ⊥ = a
a ⋆ (a ⋄ b) = (a ⋄ ⊤ ) ⋆ (a ⋄ b) = a ⋄ ( ⊤ ⋆ b) = a ⋄ ⊤ = a
• ∀a, b, c ∈ A, a ⋆ (b ⋆ c) = (a ⋆ b) ⋆ c ∧ a ⋄ (b ⋄ c) = (a ⋄ b) ⋄ c (asociativa)
q = (a ⋆ b) ⋆ c ⟹ a ⋄ q = a ⋄ ((a ⋆ b) ⋆ c) = (a ⋄ (a ⋆ b)) ⋆ (a ⋄ c) = a ⋆ (a ⋄ c) = a}
p = a ⋆ (b ⋆ c) ⟹ a ⋄ p = a ⋄ (a ⋆ (b ⋆ c)) = a
⟹ a⋄p =a⋄q
⟹ (a ⋄ p) ⋆ (a ⋄ p) = (a ⋄ q) ⋆ (a ⋄ q) ⟹ (a ⋆ a ) ⋄ p = ⟹ (a ⋆ a ) ⋄ q ⟹ ⊤ ⋄ p = ⊤ ⋄ q ⟹ p = q
45


• ∀a ∈ A, ∃!a ∈ A, a ⋆ a = ⊤ ∧ a ⋄ a = ⊥ (el complementario es único)
a, a′ ∈ A, a ⋆ a = ⊤ ∧ a ⋄ a = ⊥ ∧ a ⋆ a′ = ⊤ ∧ a ⋄ a′ = ⊥ ⟹
a = a ⋄ ⊤ = a ⋄ (a ⋆ a′) = (a ⋄ a) ⋆ (a ⋄ a′) = ⊥ ⋆ (a ⋄ a′) = (a ⋄ a′) =
= (a ⋄ a′) ⋆ ⊥ = (a ⋄ a′) ⋆ (a ⋄ a′) = (a ⋆ a) ⋄ a′ = ⊤ ⋄ a′ = a′
• ∀a ∈ A, (a ) = a (doble complementación)
∀a ∈ A, ∃a, a ⋆ a = ⊤ ∧ a ⋄ a = ⊥ ⟹ a ⋆ a = ⊤ ∧ a ⋄ a = ⊥ ⟹ (a ) = a
⊥⋄⊤=⊤ }
⊥⋆⊤=⊤
⟹ ⊥=⊤
⊥⋆⊥=⊥∧⊥⋄⊤=⊤}
⊤⋆⊥=⊤∧⊤⋄⊤=⊤
⟹
⊤⋄⊥=⊤ }
⊤⋆⊥=⊤
⟹ ⊥=⊤
⟹ (a ⋆ b) = a ⋄ b
⟹ (a ⋄ b) = a ⋆ b






46







Subestructuras algebraicas
Sea (A, ⋆ ) grupo y S ⊂ A. Si (S, ⋆ ) es grupo decimos que (S, ⋆ ) es subgrupo de (A, ⋆ )
Sea (A, ⋆ , ⋄ ) anillo y S ⊂ A. Si (S, ⋆ , ⋄ ) es anillo decimos que (S, ⋆ , ⋄ ) es subanillo de (A, ⋆ , ⋄ )
Sea (A, ⋆ , ⋄ ) cuerpo y S ⊂ A. Si (S, ⋆ , ⋄ ) es cuerpo decimos que (S, ⋆ , ⋄ ) es subcuerpo de (A, ⋆ , ⋄ )
Ejemplos
47
Álgebra matricial y sist. de ecs. lineales
48
Sección 1
Una solución del sistema son n elementos s1, s2, ⋯, sn ∈ tales que al sustituir cada xi por si se obtienen m igualdades
Sistema compatible: tiene al menos una solución, determinado, si tiene solamente una, e indeterminado si tiene más de una
49
𝕂
𝕂
𝕂
𝕂
𝕂
Sistema homogéneo: el que es de la forma:
El sistema (‡) obtenido a partir de (†) se le denomina sistema homogéneo asociado a (†)
50
Métodos
1. Método de igualación
2. Método de sustitución
Algunos de estos métodos no son siempre generales ni prácticos para sistemas “grandes”
Ejemplo:
3x − y = 2}
x+y =2
51
Método de Gauss
Se pueden realizar las siguientes operaciones, denominadas operaciones elementales, con las ecuaciones del sistema:
El resultado de aplicar una secuencia de operaciones elementales a un sistema es otro sistema equivalente, es decir que tiene
las mismas soluciones
El objetivo del método es lograr un sistema equivalente al dado lo más sencillo posible
I. Forma escalonada (no es única, y requiere operaciones adicionales para obtener posteriormente la solución)
II. Forma escalonada reducida (es única y da directamente la solución, si la hay única)
ambas permiten dilucidar si el sistema es compatible o incompatible y obtener fácilmente la solución o las soluciones
52
𝕂
𝕂
Ejemplos:
x1 + 3x2 + x3 = − 3
3x1 + 9x2 + 4x3 = − 7
2x1 − x2 + x3 = 6
1. e2 − 3e1
2. e3 − 3e1
x1 +3x2 +x3 = −3
3. e2 ↔ e3 En este momento obtenemos una forma escalonada: −7x2 −x3 = 12
x3 = 2
4. e1 − e3
5. e2 + e3
−1
6. e
7 2
x1 = 1
7. e1 − 3e2 Obtenemos la forma escalonada reducida que nos da directamente la solución única: x2 = −2
x3 = 2
En este proceso hemos “escrito” repetidamente símbolos innecesarios: x1, x2, x3, + , =
Podemos eliminar los símbolos, escribiendo únicamente los coeficientes, respetando la “posición” de las incógnitas
53
Matrices
Disposición rectangular de coeficientes (y términos independientes), encerrada entre paréntesis:
Las operaciones elementales que realizamos con las ecuaciones pueden hacerse con las filas de la matriz ampliada
Ejemplo: El sistema del ejemplo anterior anterior puede representarse por la matriz:
1 3 1 −3
3 9 4 −7
2 −1 1 6
−1
y realizando sobre ella la secuencia de operaciones elementales e2 − 3e1, e3 − 3e1, e2 ↔ e3, e1 − e3, e2 + e3, e y e − 3e2 obtenemos
7 2 1
1 0 0 1
(0 0 1 2 )
0 1 0 −2
𝕂
𝕂
54
¿Cuándo una matriz está en forma escalonada?
Ejemplos:
x1 = − 3 + λ
x1 + 3x2 − x3 + x4 = 1 1 3 −1 1 1 1 0 −1 0 −3
( 0 1 0 −1 0) (0 0 0 1 1 )
x2 = 1
−2x1 + x2 + 2x3 = 7 ⟶ −2 1 2 0 7 ⟶ 0 1 0 0 1 ⟶
x3 = λ
x2 − x4 = 0
x4 = 1
2
x1 − x2 + x3 = 1 1 −1 1 1 1 0 3
0
(2 −2 2 3)
2x1 + x2 + x3 = 0 ⟶ 2 1 1 0 ⟶ 0 1 − 13 0 ¡SISTEMA INCOMPATIBLE!
2x1 − 2x2 + 2x3 = 3
0 0 0 1
55
Teorema de Rouché-Frobenius (1.0)
Siendo:
Nota: Un sistema homogéneo siempre admite la solución trivial 0,0,⋯,0 y es por tanto siempre compatible (p = p)
56
Ejemplos
x + 2y = 0
+ 0 1 2 . 0 1 2
Resolver en ℤ3 = {0,1,2} 2x + y + z = 1
2y + z = 2
0 0 1 2 0 0 0 0
1 1 2 0 1 0 1 2
1 2 0 0 1 2 0 0 1 2 0 0
(0 2 1 2) (0 1 2 1) (0 0 1 1)
2 2 0 1 2 0 2 1
⟶ 2 1 1 1 ⟶ 0 0 1 1 ⟶ 0 1 2 1
1 2 0 0 1 0 0 2 x=2
(0 0 1 1) (0 0 1 1)
⟶ 0 1 0 2 ⟶ 0 1 0 2 ⟹ y=2
z=1
x+y+z =0 + 0 1 . 0 1
Resolver en ℤ2 = {0,1} y+z =1
x+y =1 0 0 1 0 0 0
1 1 1 0 1 1 1 0 1 0 0 1 1 1 0 1 0 1
(1 1 0 1) (0 0 1 1) (0 0 1 1)
⟶ 0 1 1 1 ⟶ 0 1 1 1 ⟶ 0 1 1 1
1 0 0 1 x=1
(0 0 1 1)
⟶ 0 1 0 0 ⟹ y=0
z=1
57
Sección 2
Componentes de un vector: x1, primera componente; x2, segunda componente; .... ;xn, n-ésima componente
Llamaremos vectores fila y vectores columna de una matriz a cada una de sus filas y columnas
Según interese, escribiremos indistintamente los vectores vertical u horizontalmente, y los podremos considerar matrices:
x1
n
x2 n
x = (x1, x2, ⋯, xn), x ∈ x ∈ M1×n( ) x= ,x ∈ x ∈ Mn×1( )
⋮
xn
𝕂
58
𝕂
𝕂
𝕂
𝕂
𝕂
𝕂
Definimos una ley de composición interna y otra externa, que denominaremos suma de vectores y producto por un escalar:
n n n
+: × → x + y = (x1 + y1, x2 + y2, ⋯, xn + yn)
n n
⋅: × → α ⋅ x = (αx1, αx2, ⋯, αxn)
Propiedades:
B. El elemento opuesto de cada x = (x1, x2, ⋯, xn) es (−x) = (−x1, − x2, ⋯, − xn)
n
II. ∀α ∈ , ∀x, y ∈ , α ⋅ (x + y) = α ⋅ x + α ⋅ y
n
III. ∀α, β ∈ , ∀x ∈ , (α + β) ⋅ x = α ⋅ x + β ⋅ x
n
IV. ∀α, β ∈ , ∀x ∈ , (αβ) ⋅ x = α(β ⋅ x)
n
V. ∀x ∈ ,1 ⋅ x = x
n
A. ∀x ∈ ,0 ⋅ x = 0 ∧ ∀α ∈ ,α ⋅ 0 = 0
n
B. ∀x ∈ , − x = (−1) ⋅ x
Notas:
n
Llamaremos posteriormente a esta estructura algebraica espacio vectorial ( ,+,⋅)
Nótese que son precisamente estas operaciones las que hemos utilizado, con los vectores fila, en el método de Gauss
59
𝕂
𝕂
𝕂
𝕂
𝕂
𝕂
𝕂
𝕂
𝕂
𝕂
𝕂
𝕂
𝕂
𝕂
𝕂
𝕂
𝕂
Dependencia e independencia lineal
n n
Combinación lineal: x ∈ es combinación lineal de x1, x2, ⋯, xk ∈ ⟺ ∃α1, α2, ⋯, αk ∈ , x = α1 ⋅ x1 + α2 ⋅ x2 + ⋯ + αk ⋅ xk
Dependencia lineal:
n
I. El conjunto de vectores {x1, x2, ⋯, xk} ⊂ es linealmente dependiente o ligado
⟺ α1 ⋅ x1 + α2 ⋅ x2 + ⋯ + αk ⋅ xk = 0 ⟹ α1 = α2 = ⋯ = αn = 0
60
𝕂
𝕂
𝕂
𝕂
𝕂
𝕂
Ejemplos:
{ α + β = 0}
2α + β = 0
α ⋅ (2,1) + β ⋅ (1,1) = (0,0) ⟺ (2α, α) + (β, β) = (0,0) ⟺ (2α + β, α + β) = (0,0) ⟺ (sistema homogéneo 2x2)
(1 1 0) (2 1 0) (0 −1 0) (0 1 0)
2 1 0 1 1 0 1 1 0 1 1 0
⟶ ⟶ ⟶ (sistema compatible determinado, solución única (0,0))
El conjunto es libre
α+γ =0
α ⋅ (1,1,3) + β ⋅ (0,1,2) + γ(1,2,5) = (0,0,0) ⟺ (α + γ, α + β + 2γ,3α + 2β + 5γ) = (0,0,0) ⟺ α + β + 2γ = 0 (S.H. 3x3)
3α + 2β + 5γ = 0
1 0 1 1 0 1 1 0 1
(3 2 5) (0 2 2) (0 0 0)
1 1 2 ⟶ 0 1 1 ⟶ 0 1 1 (S.C.I, varias soluciones)
El conjunto es ligado
Para determinar si un conjunto de vectores es libre o ligado, basta escribir la matriz cuyas columnas son los vectores dados y
realizar operaciones elementales para encontrar una forma escalonada. El sistema es libre solamente si el número de peldaños
coincide con el de columnas (el número de vectores dados), siendo ligado en caso contrario
61
Rango
Se denomina rango de un conjunto de vectores al mayor número de elllos que son linealmente independientes
El rango de una matriz coincide con el número de peldaños de una de sus formas escalonadas
Los vectores correspondientes a las columnas pivote (escalones) son linealmente independientes
62
Teorema de Rouché-Frobenius (2.0)
Siendo:
63
Estructura de las soluciones
Sea el sistema (†) y su sistema homogéneo asociado (‡) aij, bi ∈ , i ∈ {1,2,⋯, m}, j ∈ {1,2,⋯, n}
I. Si u = (u1, u2, ⋯, un), v = (v1, v2, ⋯, vn) son soluciones de (‡) u + v es solución de (‡)
Además k = n − r(A)
IV. Si w = (w1, w2, ⋯, wn), w′ = (w′1, w′2, ⋯, w′n) son soluciones de (†), w − w′ es solución de (‡)
V. Si w = (w1, w2, ⋯, wn) es solución de (†) y u = (u1, u2, ⋯, un) es solución de (‡), w + u es también solución de (†)
VI. Dada w = (w1, w2, ⋯, wn), solución de (†), cualquier otra solución de (†), w′ = (w′1, w′2, ⋯, w′n), puede escribirse:
A la expresión u + α1 ⋅ u1 + α2 ⋅ u2 + ⋯ + αk ⋅ uk se le denomina solución general del sistema (†), siendo u una solución particular
64


𝕂



𝕂
𝕂
𝕂





𝕂
Sección 3
o bien f (x) = f (x1, x2, ⋯, xn) = (a11x1 + a12 x2 + ⋯ + a1n xn, a21x1 + a22 x2 + ⋯ + a2n xn, ⋯ , am1x1 + am2 x2 + ⋯ + amn xn)
Propiedades:
n
I. ∀x, y ∈ , f (x + y) = f (x) + f (y)
n
II. ∀x ∈ , ∀α ∈ , f (αx) = α f (x)
𝕂
65
𝕂
𝕂
𝕂
𝕂
𝕂
𝕂
Ejemplos:
(1 0)
0 1
Para F = la aplicación lineal asociada es f : R2 → R2,f (x, y) = (0x + 1y, 1x + 0y) = (y, x)
66
1 0 0
(0 0 0)
Para F = 0 1 0 la aplicación lineal asociada es f : R3 → R3, f (x, y, z) = (x + 0y + 0z, 0x + 1y + 0z, 0x + 0y + 0z) = (x, y, 0)
67
La imagen de la recta r = r0 + λv (que pasa por r0 y tiene la dirección de v), por una aplicación lineal f : ℝ2 → ℝ2 (o f : ℝ3 → ℝ3)
es:
Ejemplo:
(1 2)
2 1
Para F = , la imagen del cuadrado de vértices(0,0), (0,1), (1,1), (1,0) es
f
⟶
68
Teorema:
n m
Sea f : → una aplicación que:
n
I. ∀x, y ∈ , f (x + y) = f (x) + f (y)
n
II. ∀x ∈ , ∀α ∈ , f (αx) = α f (x)
⟹ f es una aplicación lineal cuya matriz está formada por las columnas f (1,0,0,⋯,0), f (0,1,0,⋯,0), f (0,0,1,⋯,0), ⋯, f (0,0,0,⋯,1)
Demostración:
Como x = (x1, x2, ⋯, xn) = (x1,0,⋯,0) + (0,x2, ⋯,0) + (0,0,⋯, xn) = x1(1,0,⋯,0) + x2(0,1,⋯,0) + xn(0,0,⋯,1),
f (x) = f (x1, x2, ⋯, xn) = f (x1(1,0,⋯,0) + x2(0,1,⋯,0) + xn(0,0,⋯,1)) = x1 f (1,0,⋯,0) + x2 f (0,1,⋯,0) + xn f (0,0,⋯,1)
Siendo f (1,0,⋯,0) = (a11, a21, ⋯, am1), f (0,1,⋯,0) = (a12, a22, ⋯, am2), ⋯, f (0,0,⋯,1) = (a1n, a2n, ⋯, amn),
f (x1, x2, ⋯, xn) = (a11x1 + a12 x2 + ⋯ + a1n xn, a21x1 + a22 x2 + ⋯ + a2n xn, ⋯ , am1x1 + am2 x2 + ⋯ + amn xn)
f
⟶
( sin α cos α )
g(1,0) = (cos α, sin α) cos α −sin α
⟹ G=
g(0,1) = (−sin α, cos α)
70
Operaciones con aplicaciones lineales
n m n m
Llamando m×n = ( , ) al conjunto de aplicaciones lineales f : → (f∈ m×n ) podemos definir
n
+: m×n × m×n → m×n ∀f, g ∈ m×n, ∀x ∈ , ( f + g)(x) = f (x) + g(x)
n
⋅: × m×n → m×n ∀f ∈ m×n, ∀α ∈ , ∀x ∈ , (α f )(x) = α f (x)
II. (α f )(λ x) = α f (λ x) = α(λ f (x)) = (αλ)f (x) = (λα)f (x) = λ(α f (x)) = λ(α f )(x)
71
𝕃
𝕂
𝕂
𝕃
𝕃
𝕃
𝕃
𝕃
𝕃
𝕂
𝕂
𝕃
𝕂
𝕃
𝕂
𝕂
𝕃
𝕂
a11 a12 ⋯ a1n b11 b12 ⋯ b1n
a21 a22 ⋯ a2n b b ⋯ b2n
Si las matrices de f, g son respectivamente F, G F= , G = 21 22
⋮ ⋮ ⋱ ⋮ ⋮ ⋮ ⋱ ⋮
am1 am2 ⋯ amn bm1 bm2 ⋯ bmn
⋮ ⋮
72
Operaciones con matrices
En Mm×n( ) podemos definir
0 0 ⋯ 0
0 0 ⋯ 0
{
0 ∈ Mm×n( ),0 = Mm×n( )
A. ⋮ ⋮ ⋱ ⋮ es el elemento neutro de
0 0 ⋯ 0 m×n
{ ∀α ∈ K, ∀f, g ∈ m×n, α ⋅ ( f + g) = α ⋅ f + α ⋅ g
∀α ∈ K, ∀F, G ∈ Mm×n( ), α ⋅ (F + G) = α ⋅ F + α ⋅ G
II.
{ ∀α, β ∈ , ∀f ∈ m×n, (α + β) ⋅ f = α ⋅ f + β ⋅ f
∀α, β ∈ , ∀F ∈ Mm×n( ), (α + β) ⋅ F = α ⋅ F + β ⋅ F
III.
{ ∀f ∈ m×n, 1 ⋅ f = f
∀F ∈ Mm×n( ), 1 ⋅ F = F
V.
n
I. ∀x, y ∈ , (g ∘ f )(x + y) = g( f (x + y)) = g( f (x) + f (y)) = g( f (x)) + g( f (y)) = (g ∘ f )(x) + (g ∘ f )(y)
n
II. ∀x ∈ , ∀α ∈ (g ∘ f )(αx) = g( f (αx)) = g(α f (x)) = αg( f (x)) = α(g ∘ f )(x)
b11a11 + b12a21 + ⋯ + b1m am1 b11a12 + b12a22 + ⋯ + b1m am2 ⋯ b11a1n + b12a2n + ⋯ + b1m amn
b a + b22a21 + ⋯ + b2m am1 b21a12 + b22a22 + ⋯ + b2m am2 ⋯ b21a1n + b22a2n + ⋯ + b2m amn
y la matriz de g ∘ f es 21 11 ∈ Mp×n( )
⋮ ⋮ ⋱ ⋮
bp1a11 + bp2a21 + ⋯ + bpm am1 bp1a12 + bp2a22 + ⋯ + bpm am2 ⋯ bp1a1n + bp2a2n + ⋯ + bpm amn
𝕂
75
𝕃
𝕂
𝕃
𝕂
𝕃
𝕂
Producto de matrices
b11a11 + b12a21 + ⋯ + b1m am1 b11a12 + b12a22 + ⋯ + b1m am2 ⋯ b11a1n + b12a2n + ⋯ + b1m amn
b a + b22a21 + ⋯ + b2m am1 b21a12 + b22a22 + ⋯ + b2m am2 ⋯ b21a1n + b22a2n + ⋯ + b2m amn
G ⋅ F = 21 11 ∈ Mp×n
⋮ ⋮ ⋱ ⋮
bp1a11 + bp2a21 + ⋯ + bpm am1 bp1a12 + bp2a22 + ⋯ + bpm am2 ⋯ bp1a1n + bp2a2n + ⋯ + bpm amn
de modo que el elemento situado en la fila i ∈ {1,2,⋯, p}, columna j ∈ {1,2,⋯, n} del resultado C = G ⋅ F es
m
∑
cij = bi1a1j + bi2a2j + ⋯ + bim amj = bik akj
k=1
De este modo, la matriz de la aplicación lineal g ∘ f es la matriz G ⋅ F (siendo G, F las matrices de g, f , resp.)
𝕂
𝕂
76
j j
↓ ↓
⋯ ⋯ ⋯ ⋯ ⋯ ⋯ ⋯ ★ ⋯ ⋯ ⋯ ⋯ ⋯ ⋯ ⋯
⋮ ⋮ ⋱ ⋮ ⋮ ⋮ ⋮ ★ ⋮ ⋮ ⋮ ⋮ ⋮ ⋮ ⋮
G⋅F = i→ ★ ★ ⋯ ★ ★ ⋅ ⋮ ⋮ ⋮ ⋮ ⋮ = ⋮ ⋮ ★ ⋮ ⋮ ←i
⋮ ⋮ ⋱ ⋮ ⋮ ⋮ ⋮ ★ ⋮ ⋮ ⋮ ⋮ ⋮ ⋮ ⋮
⋯ ⋯ ⋯ ⋯ ⋯ ⋯ ⋯ ★ ⋯ ⋯ ⋯ ⋯ ⋯ ⋯ ⋯
⋯ ⋯ ★ ⋯ ⋯
⋮ ⋮ ★ ⋮ ⋮
⋮ ⋮ ⋮ ⋮ ⋮
⋮ ⋮ ★ ⋮ ⋮
⋮ ⋮ ★ ⋮ ⋮
⋯ ⋯ ★ ⋯ ⋯
⇓
⋯ ⋯ ⋯ ⋯ ⋯ ⋯ ⋯ ⋯ ⋯ ⋯ ⋯
⋮ ⋮ ⋱ ⋮ ⋮ ⋮ ⋮ ⋮ ⋮ ⋮ ⋮
★ ★ ⋯ ★ ★ ★ ⇒ ⋮ ⋮ ★ ⋮ ⋮
⋮ ⋮ ⋱ ⋮ ⋮ ⋮ ⋮ ⋮ ⋮ ⋮ ⋮
★ ★ ⋯ ★ ★ ★ ⇒ ⋮ ⋮ ★ ⋮ ⋮
⋮ ⋮ ⋱ ⋮ ⋮ ⋮ ⋮ ⋮ ⋮ ⋮ ⋮
⋯ ⋯ ⋯ ⋯ ⋯ ⋯ ⋯ ⋯ ⋯ ⋯ ⋯
77
Propiedades:
En el producto de matrices, al igual que en la composición de funciones, el orden está determinado, y cuando es posible
(0 2) (2 1) (4 2) (2 1) (0 2) (2 2)
1 0 1 1 1 1 1 1 1 0 1 2
cambiarlo, ni el producto ni la composición son conmutativos: ⋅ = ≠ ⋅ =
(0 0) (3 4) (0 0) (0 0) (4 3) (0 0) (3 4) (4 3)
1 0 1 2 1 2 1 0 1 2 1 2 1 2 1 2
El producto de matrices no es cancelativo: ⋅ = ∧ ⋅ = ∧ ≠
{(H ⋅ G) ⋅ F = H ⋅ (G ⋅ F )
(h ∘ g) ∘ f = h ∘ (g ∘ f )
I.
{H ⋅ (G + F ) = H ⋅ G + H ⋅ F
h ∘ (g + f ) = h ∘ g + h ∘ f
II.
{(H + G) ⋅ F = H ⋅ F + G ⋅ F
(h + g) ∘ f = h ∘ f + g ∘ f
III.
78
Sistemas de ecuaciones, matrices y aplicaciones lineales
79
Sección 4
n m
La aplicación lineal f : → admite inversa ⟺ ∃f −1 : m
→ n
, f −1 ∘ f = i n ∧ f ∘ f −1 = i m
Veremos más adelante que solamente admitirán inversa (algunas) aplicaciones lineales cuando n = m
1 0 ⋯ 0
0 1 ⋯ 0
F ⋅ F −1 = F −1 ⋅ F = In = (matriz de i n)
⋮ ⋮ ⋱ ⋮
0 0 ⋯ 1
80
𝕂
𝕂
𝕂
𝕂
𝕂
𝕂
𝕂
𝕂
𝕂
𝕂
Cálculo de la inversa de una matriz
a11 a12 ⋯ a1n b11 1 a11 a12 ⋯ a1n b12 0 a11 a12 ⋯ a1n b1n 0
a21 a22 ⋯ a2n b 0 a21 a22 ⋯ a2n b 1 a21 a22 ⋯ a2n b 0
⋅ 21 = , ⋅ 22 = , ⋯, ⋅ 2n =
⋮ ⋮ ⋱ ⋮ ⋮ ⋮ ⋮ ⋮ ⋱ ⋮ ⋮ ⋮ ⋮ ⋮ ⋱ ⋮ ⋮ ⋮
an1 an2 ⋯ ann bn1 0 an1 an2 ⋯ ann bn2 0 an1 an2 ⋯ ann bnn 1
Tenemos n sistemas de ecuaciones, cada uno de n ecuaciones y n incógnitas†, teniendo todos ellos la misma matriz del sistema.
Si todos ellos son compatibles y determinados, tendremos una (única) matriz inversa:
F es invertible ⟺ r(F ) = n
†
Las n incógnitas de cada sistema los elementos de una de las columnas de F −1
𝕂
𝕂
81
Para resolverlos, podemos hacer la misma secuencia de operaciones elementales en cada uno de ellos
y resolverlos simultáneamente:
F −1 ⋅ (F ⋅ x) = F −1 ⋅ b (F −1 ⋅ F ) ⋅ x = F −1 ⋅ b In×n ⋅ x = F −1 ⋅ b
es decir x = F−1 ⋅ b
82
𝕂
Ejemplo:
(4 3)
2 1
Calcular la inversa de A =
(x3 x4)
x1 x2
Llamemos A −1 =
Se verificará:
(4 3) ( 3) (0)
21 x1 1
⋅ x =
(4 3) ( 3 4) (0 1)
2 1 x1 x2 1 0
⋅ x x = ⟹ y los resolvemos simultáneamente:
(4 3) ( 4) (1)
21 x2 0
⋅ x =
( −2 1 )
3/2 −1/2
→ → → ⟹ ⟹ A −1 =
(4 3 1) (0 1 1) (0 1 1) (0 1 1) { x4 = 1
2 1 0 2 1 0 2 0 −1 1 0 −1/2 x2 = − 1/2
(4 3 0 1) (0 1 −2 1) (0 1 −2 1 ) (0 1 −2 1 ) ( −2 1 )
2 1 1 0 2 1 1 0 2 0 3 −1 1 0 3/2 −1/2 3/2 −1/2
→ → → ⟹ A −1 =
83
Ampliación de conceptos de matrices
★ 0 ⋯ 0
0 ★ ⋯ 0
Matriz diagonal F ∈ Mn×n( ): ∀i, j ∈ {1,2,⋯, n}, i ≠ j ⟹ aij = 0
⋮ ⋮ ⋱ ⋮
0 0 ⋯ ★
Matriz identidad In ∈ Mn×n( ): matriz diagonal que además ∀i ∈ {1,2,⋯, n}, aii = 1
84
𝕂
𝕂
𝕂
𝕂
Matriz triangular inferior F ∈ Mm×n( ): ∀i ∈ {1,2,⋯, m}, ∀j ∈ {1,2,⋯, n}, i < j ⟹ aij = 0
★ 0 ⋯ 0
★ ★ ⋯ 0
★ 0 ⋯ 0 0 ⋯ 0
⋮ ⋮ ⋱ ⋮
★ ★ ⋯ 0 0 ⋯ 0
★ ★ ⋯ ★
⋮ ⋮ ⋱ ⋮ ⋮ ⋯ 0
★ ★ ⋯ ★
★ ★ ⋯ ★ 0 ⋯ 0
⋮ ⋮ ⋯ ★
★ ★ ⋯ ★
Matriz triangular superior F ∈ Mm×n( ): ∀i ∈ {1,2,⋯, m}, ∀j ∈ {1,2,⋯, n}, i > j ⟹ aij = 0
★ ★ ⋯ ★
0 ★ ⋯ ★
★ ★ ⋯ ★ ★ ⋯ ★
⋮ ⋮ ⋱ ⋮
0 ★ ⋯ ★ ★ ⋯ ★
0 0 ⋯ ★
⋮ ⋮ ⋱ ⋮ ⋮ ⋯ ★
0 0 ⋯ 0
0 0 ⋯ ★ ★ ⋯ ★
⋮ ⋮ ⋯ 0
0 0 ⋯ 0
Matriz triangular unitaria F ∈ Mm×n( ): matriz triangular que además ∀i ∈ {1,2,⋯, min(m, n)}, aii = 1
1 0 ⋯ 0 1 ★ ⋯ ★
★ 1 ⋯ 0 0 1 ⋯ ★
1 0 ⋯ 0 0 ⋯ 0 1 ★ ⋯ ★ ★ ⋯ ★
⋮ ⋮ ⋱ ⋮ ⋮ ⋮ ⋱ ⋮
★ 1 ⋯ 0 0 ⋯ 0 0 1 ⋯ ★ ★ ⋯ ★
★ ★ ⋯ 1 0 0 ⋯ 1
⋮ ⋮ ⋱ ⋮ ⋮ ⋯ 0 ⋮ ⋮ ⋱ ⋮ ⋮ ⋯ ★
★ ★ ⋯ ★ 0 0 ⋯ 0
★ ★ ⋯ 1 0 ⋯ 0 0 0 ⋯ 1 ★ ⋯ ★
⋮ ⋮ ⋯ ★ ⋮ ⋮ ⋯ 0
★ ★ ⋯ ★ 0 0 ⋯ 0
85
𝕂
𝕂
𝕂
⟵ k ⟶
† 2 3 2 k k−1
Potencias de matrices F ∈ Mn×n( ) : F =F⋅F F =F ⋅F =F⋅F⋅F F =F ⋅F =F⋅F⋅⋯⋅F (k ∈ N)
⟵ k ⟶
−2 −1 −1 −k −(k−1) −1 −1 −1 −1
F =F ⋅F F =F ⋅F =F ⋅F ⋅⋯⋅F (k ∈ N)
†
Potencias negativas solo si F es invertible F 0 = In ∀k, l ∈ Z, F k+l = F k ⋅ F l
Matriz transpuesta de F ∈ Mm×n( ): F T ∈ Mn×m( ) ∀i ∈ {1,2,⋯, n}, ∀j ∈ {1,2,⋯, m}, bij = aji
★ ★ ⋯ ★
★ ⨀ ⋯ ⨁ ⨂
⨀ ⨀ ⋯ ⨀
★ ⨀ ⋯ ⨁ ⨂
F= ⟹ FT = ⋮ ⋮ ⋱ ⋮
⋮ ⋮ ⋱ ⋮ ⋮ ⨁ ⨁ ⋯ ⨁
★ ⨀ ⋯ ⨁ ⨂
⨂ ⨂ ⋯ ⨂
Matriz transpuesta hermitiana de F ∈ Mm×n(C): F H ∈ Mn×m(C) ∀i ∈ {1,2,⋯, n}, ∀j ∈ {1,2,⋯, m}, bij = aji
Propiedades:
I. (F T )T = F (F H )H = F
86
𝕂
𝕂
𝕂
F ∈ Mn×n( ) es una matriz simétrica ⟺ F = FT
Propiedades:
1 1
VI. F ∈ Mn×n( ) ⟹ F= (F + F T ) + (F − F T ) ∈ Mn×n
2 2
87
𝕂
𝕂
𝕂
𝕂
𝕂
𝕂
𝕂
𝕂
𝕂
𝕂
𝕂
a11 a12 ⋯ a1n fF1
a21 a22 ⋯ a2n f
Matriz particionada por filas: F= = F2 con fFi = (ai1 ai2 ⋯ ain)
⋮ ⋮ ⋱ ⋮ ⋮
am1 am2 ⋯ amn fFm
G ⋅ F = (cG1 cG2 ⋯ cGm) ⋅ fF2 = cG1 ⋅ fF1 + cG2 ⋅ fF2 + ⋯ + cGm ⋅ fFm b b a b a
cGi ⋅ fFi = 2i ⋅ (ai1 ai2 ⋯ ain) = 2i i1 2i i2
⋯ b2i ain
⋮ ⋮ ⋮ ⋮ ⋱ ⋮
bpi bpi ai1 bpi ai2 ⋯ bpi ain
fFm
88
𝕂
𝕂
𝕂
Producto por matriz columna: F ∈ Mm×n( ), X ∈ Mn×1( ), F ⋅ X ∈ Mm×1( )
★ ⨀ ⋯ ⨁ ⨂ x1 ★ ⨀ ⨁ ⨂
★ ⨀ ⋯ ⨁ ⨂ x2 ★ ⨀ ⨁ ⨂
⋅ = x1 + x2 + ⋯ + xn−1 + xn
⋮ ⋮ ⋱ ⋮ ⋮ ⋮ ⋮ ⋮ ⋮ ⋮
★ ⨀ ⋯ ⨁ ⨂ xn ★ ⨀ ⨁ ⨂
★ ⨀ ⋯ ⨁ ⨂
★ ⨀ ⋯ ⨁ ⨂
(y1 y2 ⋯ ym) ⋅ = y1 (★ ⨀ ⋯ ⨁ ⨂ ) + y2 (★ ⨀ ⋯ ⨁ ⨂ ) + ⋯ + ym (★ ⨀ ⋯ ⨁ ⨂ )
⋮ ⋮ ⋱ ⋮ ⋮
★ ⨀ ⋯ ⨁ ⨂
89
𝕂
𝕂
𝕂
𝕂
𝕂
𝕂
Matriz columna unidad:
0
⋮
0
ej = 1 ←j (columna j de la matriz identidad In)
0
⋮
0
j
↓
ejT = (0 ⋯ 0 1 0 ⋯ 0) (fila j de la matriz identidad In)
90
Propiedades:
j
0 ↓ 0
⋮ 0 ⋯ 0 ⋯ 0 ⋮
0 ⋮ ⋱ ⋮ ⋱ ⋮ 0 (0) i≠j
{(1)
ei ⋅ ejT = 1 ⋅ (0 ⋯ 0 1 0 ⋯ 0) = 0 ⋯ 1 ⋯ 0 ←i ejT ⋅ ei = (0 ⋯ 0 1 0 ⋯ 0) ⋅ 1 =
0 ⋮ ⋱ ⋮ ⋱ ⋮ 0 i=j
⋮ 0 ⋯ 0 ⋯ 0 ⋮
0 0
0
⋮ 0 0 ⋯ 0
0 ⋮ ⋮ ⋱ ⋮
ei ⋅ (ejT ⋅ F ) = 1 ⋅ (aj1 aj2 ⋯ ajn) = aj1 aj2 ⋯ ajn ← i
0 ⋮ ⋮ ⋱ ⋮
⋮ 0 0 0 0
0
91
Matrices elementales:
i j
↓ ↓
1 0 ⋯ 0 ⋯ 0 ⋯ 0
0 1 ⋯ 0 ⋯ 0 ⋯ 0
⋮ ⋮ ⋱ ⋮ ⋱ ⋮ ⋱ ⋮
0 0 ⋯ 0 ⋯ 1 ⋯ 0 ←i
Eij = (intercambio de filas i < j de la matriz identidad In)
⋮ ⋮ ⋱ ⋮ ⋱ ⋱ ⋱ ⋮
0 0 ⋯ 1 ⋯ 0 ⋯ 0 ←j
⋮ ⋮ ⋱ ⋮ ⋱ ⋮ ⋱ ⋮
0 0 ⋯ 0 ⋯ 0 ⋯ 1
i
↓
1 0 ⋯ 0 ⋯ 0
0 1 ⋯ 0 ⋯ 0
⋮ ⋮ ⋱ ⋮ ⋱ ⋮
Ei(α) = (multiplicación de la fila i de la matriz identidad In por α ≠ 0)
0 0 ⋯ α ⋯ 0 ←i
⋮ ⋮ ⋱ ⋮ ⋱ ⋮
0 0 ⋯ 0 ⋯ 1
92
i j
↓ ↓
1 0 ⋯ 0 ⋯ 0 ⋯ 0
0 1 ⋯ 0 ⋯ 0 ⋯ 0
⋮ ⋮ ⋱ ⋮ ⋱ ⋮ ⋱ ⋮
0 0 ⋯ 1 ⋯ α ⋯ 0 ←i
Eij(α) = (adición a la fila i de la matriz identidad In su fila j multiplicada por α ≠ 0 )
⋮ ⋮ ⋱ ⋮ ⋱ ⋱ ⋱ ⋮
0 0 ⋯ 0 ⋯ 1 ⋯ 0 ←j
⋮ ⋮ ⋱ ⋮ ⋱ ⋮ ⋱ ⋮
0 0 ⋯ 0 ⋯ 0 ⋯ 1
Propiedades:
I. Las matrices elementales son invertibles: Eij−1 = Eji = Eij Ei(α)−1 = Ei(α −1) Eij(α)−1 = Eij(−α)
93
𝕂
𝕂
𝕂
𝕂
𝕂
Espacios vectoriales
94
Sección 1
+: × → ⋅: × →
(u, v) → w =u+v (α, v) → w = αv
I. ∀u, v ∈ ,u + v = v + u
II. ∀u, v, w ∈ , (u + v) + w = u + (v + w)
III. ∃0 ∈ , ∀u ∈ ,u + 0 = 0 + u = u
V. ∀u ∈ ,1u = u
95
𝕂
𝒱
𝕂
𝕂
𝒱
𝒱
𝒱
𝒱
𝒱
𝒱
𝒱
𝒱
𝒱
𝒱
𝕂
𝕂
𝕂
𝒱
𝒱
𝕂
𝒱
𝒱
𝒱
𝒱
𝒱
Espacio vectorial real: cuando =R
Propiedades:
I. ∀u ∈ , 0u = 0
u = 1u = (0 + 1)u = 0u + 1u = 0u + u ⟹ 0u = 0
II. ∀α ∈ , α0 = 0
a0 = a(0 + 0) = a0 + a0 ⟹ a0 = 0
Ejemplos:
n m n m
( , ), aplicaciones lineales f : →
96
𝕂
𝕂𝕃
𝕂
𝕂
𝕂
𝕂
𝕂
𝕂
𝕂
𝒱
𝒱
𝕂
𝕂
Ejemplos:
∞
= {(a1, a2, ⋯ , an, ⋯ ) | an ∈ , n ∈ N} (sucesiones de elementos de ) con las operaciones:
(a1, a2, ⋯ , an, ⋯ ) + (b1, b2, ⋯ , bn, ⋯ ) = (a1 + b1, a2 + b2, ⋯ , an + bn, ⋯ )
[x] = {a0 + a1x + a2 x 2 + ⋯ + an x n | aj ∈ , j ∈ {0,1,2,⋯, n}, n ∈ N ∪ {0}} (polinomios en x con coeficientes en ), con:
(a0 + a1x + ⋯ + an x n) + (b0 + b1x + ⋯ + bn x m) = (a0 + b0) + (a1 + b1)x + ⋯ + (am + bm)x m + am+1x m+1 + ⋯ + an x n (si m ≤ n)
m[x] = {a0 + a1x + a2 x 2 + ⋯ + an x n | aj ∈ , j ∈ {0,1,2,⋯, n}, n ≤ m ∈ N ∪ {0}} (polinomios de [x] de grado como mucho m)
97
𝕂
𝕂
𝕂
𝕂
𝕂
𝕂
𝕂
𝕂
𝕂
𝕂
𝕂
a11 ⋅ x1 + a12 ⋅ x2 + ⋯ + a1n ⋅ xn = 0
n a21 ⋅ x1 + a22 ⋅ x2 + ⋯ + a2n ⋅ xn = 0 n
El conjunto S ⊂ de soluciones de un sistema homogéneo con las ops. de ( ,+,⋅)
⋮
am1 ⋅ x1 + am2 ⋅ x2 + ⋯ + amn ⋅ xn = 0
x, y ∈ S, A ⋅ (x + y) = 0 ⟹ x + y ∈ S
x ∈ S, α ∈ A ⋅ (αx) = 0 ⟹ αx ∈ S
n
Las propiedades de ( , + , ⋅ ) las tiene (S, + , ⋅ ) ya que
A⋅0=0 ⟹ 0∈S
A ⋅ (−x) = − A ⋅ x = 0 ⟹ (−x) ∈ S
98
𝕂
𝕂
𝕂
𝕂
Sección 2
Combinación lineal: v ∈ es combinación lineal de v1, v2, ⋯, vk ∈ ⟺ ∃α1, α2, ⋯, αk ∈ , v = α1v1 + α2v2 + ⋯ + αk vk
Dependencia lineal:
II. El conjunto de vectores {v1, v2, ⋯, vk} ⊂ es linealmente independiente o libre si no es ligado
⟺ α1v1 + α2v2 + ⋯ + αk vk = 0 ⟹ α1 = α2 = ⋯ = αn = 0
99
𝕂
𝒱
𝒱
𝒱
𝒱
𝒱
𝕂
𝕂
Sistema de generadores:
Propiedades:
I. Si el conjunto V = {v1, v2, ⋯, vk} ⊂ es ligado, al menos uno de sus elementos es combinación lineal de los demás
III. Si el conjunto finito V ⊂ es libre, W ⊂ V ⟹ W es libre (W = {v1, v2, ⋯, vl} ⊂ V = {v1, v2, ⋯, vl, ⋯, vk})
Si W fuese ligado, V lo sería también: ∃αj ≠ 0,j ∈ {1,⋯, l} α1v1 + ⋯ + αj vj + ⋯ + αl vl + 0vl+1 + ⋯ + 0vk = 0
V. V = {v} es libre ⟺ v ≠ 0
v ≠ 0 ∧ αv = 0 ⟹ α = 0
v = 0 ∧ 1v = 0
100
𝒱
𝒱
𝕂
𝒱
𝒱
𝒱
𝒱
𝒱
𝕂
Ejemplos:
n
En cualquier conjunto de más de n vectores es ligado
Sea V = {v1, v2, ⋯, vn, vn+1}, con vi = (v1i, v2i, ⋯, vni), i ∈ {1,2,⋯, n + 1}
La expresión α1v1 + ⋯ + αnvn + αn+1vn+1 = 0 es equivalente a un sistema homogéneo cuya matriz del sistema tiene como columnas
los vectores de V:
y su rango verificará R(A) ≤ n < n + 1 ⟹ El sistema homogéneo asociado a A es compatible indeterminado y V es ligado
n n
En cualquier conjunto libre con n vectores es un sistema de generadores de
n
Sea V = {v1, v2, ⋯, vn} libre, ∀v ∈ el conjunto {v, v1, v2, ⋯, vn} es ligado y
†
Si fuese α = 0 ⟹ ∃αj ≠ 0,j ∈ {1,⋯, n} ∧ 0v + α1v1 + ⋯ + αnvn = 0 y V sería ligado
𝕂
101
𝕂
𝕂
𝕂
𝕂


Los polinomios {1,x, x 2, ⋯, x n} ⊂ (x) forman un conjunto libre
α01 + α1x + ⋯ + αn x n = 0† ⟹ α0 = α1 = ⋯ = αn = 0
α01 + α1x + α2 x 2 = 0‡ ⟹ α0 = α1 = α2 = 0
‡ El segundo miembro de la igualdad representa la función 0 ∈ C([−1,1], R) que ∀x ∈ [−1,1], 0(x) = 0. No confundir esta
igualdad con la ecuación α01 + α1x + α2 x 2 = 0 que puede verificarse para un máximo de dos valores de x ∈ [−1,1]
Las funciones {1, sin2 x, cos2 x} ⊂ C([−π, π], R) forman un conjunto ligado
102
𝕂
𝕂
Dependencia lineal en conjuntos numerables:
Ejemplos:
{1, sin x, cos x, sin 2x, cos 2x, ⋯, sin n x, cos n x, ⋯} ⊂ C([−π, π], R) es libre
103
𝒱
𝒱
𝕂
𝚥
𝚥
𝚥
𝚥
Sección 3
Bases y dimensión
El conjunto de vectores B = {v1, v2, ⋯, vn} ⊂ es una base del -e.v.
{B es sistema de generadores de
B es libre
⟺
Si B = {v1, v2, ⋯, vn} es una base de y ∀v ∈ , ∃α1, α2, ⋯, αn, v = α1v1 + α2v2 + ⋯ + αnvn
Se denominan componentes o coordenadas de v respecto de la base B a los escalares α1, α2, ⋯, αn.
Son únicas
v = α1v1 + α2v2 + ⋯ + αnvn ∧ v = α′1v1 + α′2v2 + ⋯ + α′nvn ⟹ 0 = (α1 − α′1)v1 + (α2 − α′2)v2 + ⋯ + (αn − α′n)vn ⟹ ∀i ∈ {1,⋯, n}, αi = α′i
Escribiremos las coordenadas de v ∈ respecto de la base B† con la tupla (α1, α2, ⋯, αn) ∈ n
n
Dada una base B podemos definir la función (biyectiva) de coordenadas: cB : → que ∀v ∈ , cB(v) = (α1, α2, ⋯, αn)
†
Para escribir las coordenadas del vector respecto de una base ha de consignarse un orden para los elementos de esta
104
𝒱
𝒱
𝕂
𝒱
𝒱
𝒱
𝒱
𝒱
𝕂
𝕂
𝒱







Ejemplos:
j
↓
n
Bc = {e1, e2, ⋯, en}, con ej = (0 ⋯ 0 1 0 ⋯ 0), es una base de
1 0 ⋯ 0 0 1 ⋯ 0 0 0 ⋯ 1 0 0 ⋯ 0 0 0 ⋯ 0
0 0 ⋯ 0 0 0 ⋯ 0 0 0 ⋯ 0 1 0 ⋯ 0 0 0 ⋯ 0
Bc = { , , ⋯, , , ⋯, } es base de Mm×n( )
⋮ ⋮ ⋱ ⋮ ⋮ ⋮ ⋱ ⋮ ⋮ ⋮ ⋱ ⋮ ⋮ ⋮ ⋱ ⋮ ⋮ ⋮ ⋱ ⋮
0 0 ⋯ 0 0 0 ⋯ 0 0 0 ⋯ 0 0 0 ⋯ 0 0 0 ⋯ 1
Las coordenadas del polinomio 1 + x + 3x 2 ∈ (Z5)9[x] respecto de la base Bc son el vector (1,1,3,0,0,0,0,0,0,0) ∈ Z10
5
(2 4)
1 3
Las coordenadas de la matriz ∈ M2×2(R) respecto de la base Bc son el vector (1,3,2,4) ∈ R4
105
𝕂
𝕂
𝕂
Proposición:
Si el -espacio vectorial tiene una base B con n elementos, cualesquiera n + 1 vectores de son ligados
Sea la base B = {v1, v2, ⋯, vn} y los n + 1 vectores cualesquiera de w1, w2, ⋯, wn, wn+1
Es decir:
γ1(α11v1 + α21v2 + ⋯ + αn1vn) + γ2(α12v1 + α22v2 + ⋯ + αn2vn) + ⋯ + γn(α1nv1 + α2nv2 + ⋯ + αnnvn) + γn+1(α1 n+1v1 + α2 n+1v2 + ⋯ + αn n+1vn) = 0
(γ1α11 + γ2α12 + ⋯ + γnα1n + γn+1α1 n+1)v1 + (γ1α21 + γ2α22 + ⋯ + γnα2n + γn+1α2 n+1)v2 + ⋯ + (γ1αn1 + γ2αn2 + ⋯ + γnαnn + γn+1αn n+1)vn = 0
Como rango ≤ n < n + 1 el sistema es compatible indeterminado y los vectores w1, w2, ⋯, wn, wn+1 son ligados
Corolarios:
Si el -espacio vectorial tiene una base B con n elementos, cualesquiera m (m > n) vectores de son ligados
Si el -espacio vectorial tiene una base B con n elementos, cualquier conjunto libre de vectores tiene como mucho n vectores
106
𝒱
𝕂
𝒱
𝒱
𝕂
𝒱
𝒱
𝒱
𝒱
𝕂
Teorema:
B′ base ∧ B libre ⟹ n ≤ m}
B base ∧ B′ libre ⟹ m ≤ n
⟹ m=n
Llamamos dimensión del -espacio vectorial al número de vectores de una cualquiera de sus bases - dim( )
Ejemplos:
dim({0}) = 0
n
dim( )=n
dim(Mm×n( )) = m n
Decimos que un -espacio vectorial es de dimensión infinita si se puede encontrar un S ⊂ no finito y libre
Ejemplos:
107

𝕂
𝒱
𝕂
𝒱
𝕂
𝒱
𝕂

𝒱
𝕂
𝕂
𝒱


𝕂


Proposición:
En un -espacio vectorial de dimensión n, todo conjunto libre que tenga n vectores es una base de
Sea el conjunto libre {u1, u2, ⋯, un}, ∀v ∈ el conjunto {v, u1, u2, ⋯, un} tiene n + 1 vectores y por tanto es ligado
∃α, α1, ⋯, αn ∈ , αv + α1u1 + ⋯ + αnun = 0 y α≠0 (si fuese α = 0 {u1, u2, ⋯, un} no podría ser libre)
Teorema:
En un -espacio vectorial de dimensión n, todo conjunto libre de vectores puede completarse para obtener una base, es decir
si {u1, u2, ⋯, uk}, k < n, es libre, existen n − k vectores uk+1, ⋯, un ∈ de modo que {u1, u2, ⋯, uk, uk+1, ⋯, un} es una base de
Dado {u1, u2, ⋯, uk} siempre podemos encontrar algún vector linealmente independiente con ellos, ya que de lo contrario
{u1, u2, ⋯, uk} sería una base, lo que contradice que k < n. Sea uk+1 ese vector. Repitiendo el razonamiento para {u1, u2, ⋯, uk, uk+1}
llegaremos a encontrar n vectores linealmente independientes, que han de ser necesariamente base
108
𝒱
𝒱
𝕂
𝒱
𝕂
𝒱
𝒱
𝒱
𝒱
𝕂
Lema:
En un -espacio vectorial de dimensión n, si el conjunto {u1, u2, ⋯, uk, uk+1, ⋯, um} es un sistema de generadores de y los
vectores uk+1, ⋯, um son combinación de lineal de los vectores u1, u2, ⋯, uk, entonces {u1, u2, ⋯, uk} es un sistema de generadores
de
Por ser {u1, u2, ⋯, uk, uk+1, ⋯, um} sistema de generadores de : ∀v ∈ , v = α1u1 + ⋯ + αk uk + αk+1uk+1 + ⋯ + αmum
v = (α1 + αk+1α1 k+1 + ⋯ + αmα1 m)u1 + ⋯ + (αk + αk+1αk k+1 + ⋯ + αmαk m)uk
Teorema:
Elegimos u1 ∈ S, u1 ≠ 0. A continuación elegimos u2 ∈ S con {u1, u2} libre. Suponiendo elegidos {u1, u2, ⋯, uk}, elegimos uk+1 ∈ S de
modo que {u1, u2, ⋯, uk, uk+1} sea libre. Se repite este proceso hasta que sea imposible añadir un nuevo vector de S que sea
linealmente independiente con los obtenidos {u1, u2, ⋯, um}. Este conjunto será sistema de generadores de (lema anterior) y
por construcción, libre. Por tanto será una base y m = n
109
𝒱
𝒱
𝒱
𝒱
𝕂
𝒱
𝒱
𝒱
𝕂
𝒱
𝒱
𝒱
Cambio de base
Sean B = {v1, v2, ⋯, vn}, B′ = {v′1, v′2, ⋯, v′n} bases del -e.v. , denominadas base antigua y base nueva respectivamente
Nótese que la columna i de MBB′ son las coordenadas de v′i respecto de los vectores de la base B











110











𝒱
𝒱
𝕂
𝒱



















′−1
Ambas matrices de cambio de base son invertibles y MBB B
= MB′
v1 = a′11v′1 + a′21v′2 + ⋯ + a′n1v′n = a′11(a11v1 + ⋯ + an1vn) + ⋯ + a′n1(a1nv1 + ⋯ + annvn) = (a′11a11 + ⋯ + a′n1a1n)v1 + ⋯ + (a′11an1 + ⋯ + a′n1ann)vn
v2 = a′12v′1 + a′22v′2 + ⋯ + a′n2v′n = a′12(a11v1 + ⋯ + an1vn) + ⋯ + a′n2(a1nv1 + ⋯ + annvn) = (a′12a11 + ⋯ + a′n2a1n)v1 + ⋯ + (a′12an1 + ⋯ + a′n2ann)vn
⋮ ⋮
vn = a′1nv′1 + a′2nv′2 + ⋯ + a′nnv′n = a′1n(a11v1 + ⋯ + an1vn) + ⋯ + a′nn(a1nv1 + ⋯ + annvn) = (a′1na11 + ⋯ + a′nna1n)v1 + ⋯ + (a′1nan1 + ⋯ + a′nnann)vn
a11a′11 + ⋯ + a1na′n1 = 1
⋮
an1a′11 + ⋯ + anna′n1 = 0
{0 si i ≠ j
n
1 si i = j
∑
abreviadamente: aik a′kj =
a11a′12 + ⋯ + a1na′n2 = 0 k=1
a21a′12 + ⋯ + a2na′n2 = 1
⋮
an1a′12 + ⋯ + anna′n2 = 0 a11 a12 ⋯ a1n a′11 a′12 ⋯ a′1n 1 0 ⋯ 0
a21 a22 ⋯ a2n a′ a′ ⋯ a′2n 0 1 ⋯ 0
⋮ o bien: ⋅ 21 22 = = In
⋮ ⋮ ⋱ ⋮ ⋮ ⋮ ⋱ ⋮ ⋮ ⋮ ⋱ ⋮
an1 an2 ⋯ ann a′n1 a′n2 ⋯ a′nn 0 0 ⋯ 1
a11a′1n + ⋯ + a1na′nn = 0
⋮
an1a′1n + ⋯ + anna′nn = 1




′−1 −1
Es decir: MBB′ ⋅ MB′
B
= In de lo que inmediatamente se deduce MBB B
= MB′ B
y MB′ = MBB′





























111



































Teorema (cambio de base):
Sea el vector v ∈ , y B = {v1, v2, ⋯, vn}, B′ = {v′1, v′2, ⋯, v′n} bases del -e.v. (base antigua y base nueva)
α1 α′1
Denominemos VB = ⋮ y VB′ = ⋮ a las coordenadas de v respecto de la bases B y B′ respectivamente
αn α′n
−1
Se verifican: VB = MBB′ ⋅ VB′ y B
VB′ = MB′ ⋅ VB (VB′ = MBB′ ⋅ VB)
α1 α′1
v = α1v1 + ⋯ + αnvn VB = ⋮ v = α′1v′1 + ⋯ + α′nv′n VB′ = ⋮
αn α′n
Las coordenadas de v respecto de la base B pueden obtenerse multiplicando la matriz de cambio de la base B a B′
por las coordenadas de v respecto de la base B′








112





















𝒱
𝕂
𝒱




𝒱





















Sección 4
W≠∅
W⊂ es un subespacio vectorial de ⟺ ∀u, v ∈ W, u + v ∈ W
∀u ∈ W, ∀α ∈ , αu ∈ W
Todas las rectas y planos que pasan por el origen son subespacios vectoriales de R3
L(S ) = {a1u1 + a2u2 + ⋯amum | a1, a2, ⋯, am ∈ } es un subespacio vectorial de denominado subespacio generado por S
n n
El conjunto S ⊂ de soluciones de un sistema homogéneo es un subespacio vectorial de . Su dimensión es r = n − r(A)
114
𝒱
𝕂
𝕂
𝕂
𝒱
𝕂
𝕂
𝕂
n
Análogamente, todo subespacio vectorial de puede expresarse por un sistema homogéneo. Veamos un ejemplo:
Sea V el subespacio de R5 que tiene como base {(1,2,0,1,0), (1,1,1,1,1)}, formada por los vectores e′1, e′2
Dado cualquier vector x = (x1, x2, x3, x4, x5) ∈ V el conjunto de vectores {e′1, e′2, x} deberá ser ligado y tener rango 2
Por tanto la matriz formada -por columnas- con las coordenadas† de esos tres vectores tendrá rango 2:
1 1 x1
2 1 x2
0 1 x3
1 1 x4
0 1 x5
1 1 x1 1 1 x1 1 1 x1 1 1 x1
2 1 x2 0 −1 x2 − 2x1 0 1 2x1 − x2 0 1 2x1 − x2
0 1 x3 → 0 1 x3 → 0 1 x3 → 0 0 −2x1 + x2 + x3
1 1 x4 0 0 x4 − x1 0 0 −x1 + x4 0 0 −x1 + x4
0 1 x5 0 1 x5 0 1 x5 0 0 −2x1 + x2 + x5
−2x1 + x2 + x3 = 0
para que tenga rango 2, ha de verificarse el sistema homogéneo: −x1 + x4 = 0
−2x1 + x2 + x5 = 0
†
Nótese que respecto de la base canónica de R5, el elemento x = (x1, x2, x3, x4, x5) se escribe x = x1e1 + x2e2 + x3e3 + x4e4 + x5e5 y
sus coordenadas respecto de esa misma base son cC (x) = (x1, x2, x3, x4, x5)
115
𝕂




Operaciones con subespacios vectoriales:
x, y ∈ U ∩ W ⟹ x, y ∈ U ∧ x, y ∈ W ⟹ x + y ∈ U ∧ x + y ∈ W ⟹ x + y ∈ U ∩ W
x ∈ U ∩ W ⟹ x ∈ U ∧ x ∈ W ⟹ αx ∈ U ∧ αx ∈ W ⟹ αx ∈ U ∩ W
x ∈ U + W ⟹ x = xu + xw ⟹ αx = (αxu) + (αxw) ⟹ αx ∈ U + W
xu∈U∧x w∈W αxu∈U∧αx w∈W
Sean U, W ⊂ subespacios del -e.v. de dimensión n. Se verifica: dim(U + W ) = dim(U ) + dim(W ) − dim(U ∩ W )
Completamos dicha base para formar bases de U y W a partir de ella (añadiendo n − r y m − r vectores respectivamente)
BU = {e1, e2, ⋯, er, u1, ⋯, un−r} BW = {e1, e2, ⋯, er, w1, ⋯, wm−r}
Sea el conjunto B = BU ∪ BW = {e1, e2, ⋯, er, u1, ⋯, un−r, w1, ⋯, wm−r}, formado por r + (n − r) + (m − r) = n + m − r vectores
I. BU ∪ BW es sistema de generadores de U + W
x ∈ U + W ⟹ x = xu + xw ⟹ x = xu1e1 + ⋯xur er + x′u1u1 + ⋯ + x′u n−r un−r + xw1e1 + ⋯xwr er + x′w1w1 + ⋯ + x′w m−r wm−r
xu∈U∧x w∈W
⟹ x = (xu1 + xw1)e1 + ⋯(xur + ⋯xwr )er + x′u1u1 + ⋯ + x′u n−r un−r + x′w1w1 + ⋯ + x′w m−r wm−r ⟹ x ∈ L(BU ∪ BW )
II. B es libre
Sea α1e1 + ⋯ + αr er + β1u1 + ⋯ + βn−r un−r + γ1w1 + ⋯ + γm−r wm−r = 0 y podemos escribir:
α1e1 + ⋯ + αr er + β1u1 + ⋯ + βn−r un−r = − γ1w1 − ⋯ − γm−r wm−r ⟹ α1e1 + ⋯ + αr er + β1u1 + ⋯ + βn−r un−r ∈ U ∩ W
α1 = ⋯ = αr = γ1 = ⋯ = γm−r = 0
117
𝒱
𝕂
𝒱








Suma directa:
1. =U+W
2. U ∩ W = {0}
Ejemplos. En R3:
118
𝒱
𝕂
𝒱
𝒱
𝒱
𝒱
Proposición:
v∈ ∧ v = u + w ∧ v = u′ + w′ ⟹ u + w = u′ + w′ ⟹ u − u′ = w′ − w, ⟹ u − u′ ∈ U ∧ w′ − w ∈ W
⟹ u − u′ ∈ U ∩ W ∧ w′ − w ∈ U ∩ W U ∩ W = {0} ⟹ u − u′ = w′ − w = 0 ⟹ u = u′ ∧ w′ = w
v ∈U∩W ⟹ v =0+v∧v =v+0 ⟹ v =0 Esto es: U ∩ W ⊂ {0}. Como {0} ⊂ U ∩ W tenemos que U ∩ W = {0}
Definiciones:
La suma de los subespacios vectoriales V1, V2, ⋯, Vn se dice que es suma directa, que escribiremos = V1 ⊕ V2 ⊕ ⋯ ⊕ Vn si
119
𝒱
𝒱
𝕂
𝒱
𝒱
𝕂
𝒱
𝒱
𝒱


𝒱

𝒱











Aplicaciones lineales
Aplicaciones lineales
Núcleo e imagen
Representación matricial. Cambios de base
Composición de aplicaciones lineales
120
Sección 1
{ ∀v ∈ , ∀α ∈ , f (αv) = α f (v)
∀u, v ∈ , f (u + v) = f (u) + f (v)
es una aplicación lineal ⟺
Ejemplo:
(alternativamente puede definirse D : m[x] → [x] D: m[x] → m[x] o incluso D: m[x] → m−1[x])
Propiedades:
I. f (0) = 0
121
𝒱
𝕂
𝒲
𝒱
𝕂
𝒱
𝕂
𝕂
𝕂
𝕂
𝒱
𝒲
𝕂
𝕂
𝕂
𝕂
𝒱
III. V⊂ es subespacio vectorial de ⟹ f (V ) ⊂ es subespacio vectorial de
{
w1 + w2 = f (v1) + f (v2) = f (v1 + v2) ∧ v1 + v2 ∈ V ⟹ w1 + w2 ∈ f (V )
w1, w2 ∈ f (V ) ⟹ ∃v1, v2 ∈ V, f (v1) = w1 ∧ f (v2) = w2 ⟹
α w1 = α f (v1) = f (αv1) ∧ αv1 ∈ V ⟹ α w1 ∈ f (V )
V. dim(V ) = k ⟹ dim( f (V )) ≤ k
122
𝒱
𝒲
𝒲
𝒱
𝒱
𝒱
𝒲
𝒱
𝒲
𝒱
VI. B = {e1, e2, ⋯, en} base de y {w1, w2, ⋯, wn} vectores cualesquiera de ⟹ existe una única aplicación lineal f : →
{ v = v1e1 + ⋯vnen ∈
u = u1e1 + ⋯unen ∈
Sean: Definamos f de modo que f (e1) = w1 ∧ f (e2) = w2 ∧ ⋯ ∧ f (en) = wn
Supuestas dos aplicaciones lineales f, g que satisfagan f (e1) = g(e1) = w1 ∧ f (e2) = g(e2) = w2 ∧ ⋯ ∧ f (en) = g(en) = wn
f (v) = f (v1e1 + ⋯ + vnen) = v1 f (e1) + ⋯ + vn f (en) = v1w1 + ⋯ + vnwn = v1g(e1) + ⋯ + vn g(en) = g(v1e1 + ⋯ + vnen) = g(v)
123
𝒱
𝒲
𝒱
𝒱
𝒲
𝒱
IX. {v1, v2, ⋯, vk} libre, f inyectiva ⟹ {f (v1), f (v2), ⋯, f (vk )} libre
X. {v1, v2, ⋯, vk} base de , f sobreyectiva ⟹ {f (v1), f (v2), ⋯, f (vk )} sistema de generadores de
XI. {v1, v2, ⋯, vk} base de , f biyectiva ⟹ {f (v1), f (v2), ⋯, f (vk )} base de
124
𝒲
𝒱
𝒲
𝒲
𝒱
𝒲
Sección 2
Sean dim( ) = n, dim( ) = m, B = {v1, ⋯, vn} base de ,yB = {w1, ⋯, wm} base de
f (v) = α1 f (v1) + ⋯αn f (vn) = α1(a11w1 + ⋯ + am1wm) + ⋯αn(a1nw1 + ⋯ + amnwm) = (α1a11 + ⋯ + αna1n)w1 + ⋯ + (α1am1 + ⋯ + αnamn)wm
Nótese que la columna j de la matriz F son las coordenadas respecto de la base B de la imagen del vector vj de la base B , f (vj )
Obtenemos las coordenadas de la imagen f (v) respecto de la base B multiplicando la matriz F por las coordenadas de v
respecto de la base B
𝒲
𝒲
𝕂
𝒲
125
𝒲
𝒱
𝒱
𝒲
𝒱
𝒱
𝒲
𝒱
𝒲
𝒲
𝒲
𝒱
𝕂
𝒱
𝒲
𝒱
𝒲
𝒱
𝒲
𝒲
Toda aplicación lineal entre -espacios vectoriales de dimensión finita puede representarse mediante una matriz respecto a dos
bases dadas.
Análogamente, dadas dos bases de un par de -espacios vectoriales de dimensión finita, n y m, toda matriz de Mm×n( )
representa a una única aplicación lineal entre ambos espacios.
⋅: × ( , )→ ( , ) ∀f ∈ ( , ), ∀α ∈ , ∀x ∈ , (α f )(x) = α f (x)
Podemos comprobar que efectivamente ( f + g) y (α f ) son aplicaciones lineales y que ( , ) es un -espacio vectorial
Entre los espacios vectoriales ( , ) y Mm×n( ) existe una aplicación (lineal) biyectiva
126
𝕂
𝕂
𝕃
𝕃
𝕃
𝕂
𝒱
𝒱
𝒱
𝒱
𝕂
𝕃
𝕃
𝒱
𝕃
𝒲
𝒲
𝒲
𝕃
𝒱
𝒱
𝕂
𝕂
𝒱
𝕃
𝕃
𝒱
𝒲
𝒲
𝒲
𝒱
𝒱
𝒲
𝒲
𝒲
𝒲
𝕃
𝒱
𝒲
𝕃
𝒲
𝕂
𝒱
𝒱
𝒲
𝕃
𝕂
𝒱
𝒱
𝒲
Cambios de base en aplicaciones lineales:
Consideremos los -espacios vectoriales y y la aplicación lineal f : → , siendo dim( ) = n, dim( )=m
Sean B = {v1, ⋯, vn} base de ,B = {w1, ⋯, wm} base de y F ∈ Mm×n( ) la matriz de f respecto de ambas
• Dado v ∈ llamemos cv a sus coordenadas respecto a B y c′v a sus coordenadas respecto a B′ cv = MBB′ ⋅ c′v
• Siendo w = f (v) ∈ llamemos cw a sus coordenadas respecto a B y c′w a sus coordenadas respecto a B′ cw = MBB′ ⋅ c′w
Podemos escribir MBB′ ⋅ c′w = F ⋅ MBB′ ⋅ c′v ⟺ c′w = (MBB′ )−1 ⋅ F ⋅ MBB′ ⋅ c′v
Si denominamos F′ la matriz de f respecto de las bases B′ y B′ , se verificará c′w = F′ ⋅ c′v y por tanto:
127
𝒱
𝒲
𝒲
𝒱
𝒲
𝒲
𝒱
𝒱
𝒲
𝒱
𝒱
𝒲
𝒱
𝒲
𝒱
𝒲
𝒱
𝒲
𝒱
𝒲
𝒲
𝒱
𝕂
𝒱
𝒲
𝒱
𝒲











𝒱
𝒱
𝒲
𝒱


𝒲



𝕂
𝒲







𝒱
𝒲
𝒲
𝒱
𝒲
𝒲
𝒱
𝒱
𝒲
𝒱










En este esquema MV se refiere a MBB′ y MW a MBB′
128
𝒱
𝒲
𝒱
𝒲


Ejemplo:
Encontremos la matriz de esta aplicación lineal respecto de la base canónica (tanto en el dominio como en el codominio)
Una base de R3 para que es sencillo encontrar las imágenes de sus vectores es B′ = {v1, v2, v3} = {(1, − 1,2), (1, − 1, − 1), (2,2,0)}
129

f (v1) = − v1 = (−1,1, − 2) f (v2) = v2 = (1, − 1, − 1) f (v3) = v3 = (2,2,0)
La matriz de f respecto de esta base B′ está formada por las coordenadas (columnas) de f (v1), f (v2), f (v3) respecto de esta base:
La matriz del cambio de base, de la base canónica B = {e1, e2, e3} a la base B′ = {v1, v2, v3}, está formada por las coordenadas
(columnas) de v1, v2, v3 respecto de la base canónica
La relación entre la matriz pedida F y las obtenidas arriba es F′ = (MBB′)−1 ⋅ F ⋅ MBB′ lo que puede escribirse:
2 1
1
6
− 16 1
3 3 3
− 23
1 1 2 −1 0 0
( 2 −1 0) ( 0 0 1)
1 1 2 2
F= MBB′ ⋅ F′ ⋅ (MBB′)−1 = −1 −1 2 ⋅ 0 1 0 ⋅ 3
− 13 − 13 = 3 3 3
− 23 2
1
4
1
4
0 3
− 13
(3 3 )
2 1 2 1 2 2 2 2 1
f (x, y, z) = x + y − z, x + y + z, − x + y − z
3 3 3 3 3 3 3



130







Sección 3
Propiedades:
I. 0 ∈ ker( f ) ( ker( f ) ≠ ∅ )
f (0) = 0 ⟹ 0 ∈ ker( f )
131
𝒲
𝒱
𝕂
𝒱
𝒱
𝒲
𝒱
𝒱
1 1 1 1 1
(1 0 1 2 0)
5 3
Ejemplo: Encontrar el núcleo de la aplicación lineal t : R → R , cuya matriz (respecto la b.c.) es T = 0 1 0 −1 1
Se trata de encontrar los vectores v = (v1, v2, v3, v4, v5) tales que t(v) = 0, es decir:
v1
1 1 1 1 1 v2 0
(1 0 1 2 0) v (0)
T ⋅ v = 0 1 0 −1 1 ⋅ v3 = 0
4
v5
1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 0 1 2 0
(1 0 1 2 0) (0 −1 0 1 −1) (0 1 0 −1 1) (0 0 0 0 0) (0 0 0 0 0)
0 1 0 −1 1 → 0 1 0 −1 1 → 0 1 0 −1 1 → 0 1 0 −1 1 → 0 1 0 −1 1
132
Sean los -espacios vectoriales y y la aplicación lineal f : →
Propiedades:
I. 0 ∈ img( f ) ( img( f ) ≠ ∅ )
f (0) = 0 ⟹ 0 ∈ img( f )
IV. {v1, v2, ⋯, vn} base de ⟹ {f (v1), f (v2), ⋯, f (vn)} es sistema de generadores de img( f )
133
𝒲
𝒱
𝕂
𝒲
𝒱
𝒱
𝒱
𝒲
𝒲
𝒱
𝒱
𝒲
𝒱
𝒲
𝒱
𝒱
1 1 1 1 1
(1 0 1 2 0)
5 3
Ejemplo: Encontrar la imagen de la aplicación lineal t : R → R , cuya matriz (respecto la b.c.) es T = 0 1 0 −1 1
Se trata de encontrar los vectores w = (w1, w2, w3) tales que ∃v = (v1, v2, v3, v4, v5), t(v) = w, es decir:
v1
1 1 1 1 1 v2 w1
(1 0 1 2 0) v
w = T ⋅ v = 0 1 0 −1 1 ⋅ v3 = w2
4 w3
v5
w1 1 1 1 1 1
(1) (0) (1) (2) (0)
w2 = v1 0 + v2 1 + v3 0 + v4 −1 + v5 1
w3
1 1 1 1 1
(1 0 1 2 0)
Recuérdese que r 0 1 0 −1 1 = 2 y que sus dos primeras columnas son l.i.
1 1 x 1 1 x 1 1 x
r 0 1 y =2 ⟹ 0 1 y → 0 1 y ⟹ x−y−z =0
1 0 z 0 −1 z − x 0 0 z−x+y
134
Teorema: Sean los -espacios vectoriales y , con dim( ) = n, y la aplicación lineal f : →
Sea k = dim(ker( f )), k ≤ n Elijamos una base de ker( f ), BK = {v1, v2, ⋯, vk}
Completémosla con n − k vectores hasta obtener una base de , BV = {v1, v2, ⋯, vk, vk+1, ⋯, vn}
135
𝒲
𝒱
𝕂
𝒱
𝒱
𝒱
𝒲
𝒱
𝒱
𝒱
Corolarios:
Corolario:
Sean los -espacios vectoriales y , con dim( ) = dim( ) = n, y la aplicación lineal f : → . Son equivalentes:
(a) f inyectiva
(b) f sobreyectiva
(c) f biyectiva
(e) r( f ) = n
(c) ⟹ (a) ⟺ (d )
⇕ (cor. II)
(e) ⟺ (b) ⟸ (c)
136
𝒲
𝒱
𝕂
𝒱
𝒱
𝒲
𝒱
𝒱
𝒲
𝒱
𝒲
𝒱
𝒱
𝒲
𝒲
𝒱
Notas (nomenclatura):
137
𝒲
𝒱
𝕂
𝒱
𝒱
𝒱
𝒲
𝒲
𝒲
Sección 4
Composición:
y que siendo F y G las matrices de f y g, respecto de bases fijadas de antemano, la matriz de h = g ∘ f es:
H=G⋅F
138
𝕃
𝒱
𝒱
𝒱
𝒲
𝕃
𝒱
𝕂
𝒳
𝕃
𝒲
𝒳
𝒱
dim(ker( f )) + dim(img( f )) = dim( ) dim(ker(g)) + dim(img(g)) = dim( ) dim(ker(g ∘ f )) + dim(img(g ∘ f )) = dim( )
†
Considerando gf : img( f ) →
139
𝒳
𝒲
𝒱
𝒱
𝒲
Producto escalar y ortogonalidad
Espacios euclídeos
Ortogonalidad
Ortogonalización. Método de Gram-Schmidt
Proyecciones ortogonales.
Ejemplo: Series de Fourier
140
Sección 1
141
𝒱
𝒱
𝒱
𝒱
𝒱
𝒱
𝒱
𝒱
𝒱
𝒱
𝒱
𝒱
PROPIEDADES
V. ∀α ∈ R, ∀u, v ∈ < u, αv > = α < u, v > ( ∀α ∈ C, ∀u, v ∈ , < u, αv > = α < u, v > )
142
𝒱
𝒱
𝒱
𝒱
𝒱
EXPRESIÓN ANALÍTICA (MATRIZ DE GRAM)
∑ ∑
una base de , B = {e1, e2, ⋯, en} y dos vectores u= uiei y v= vj ej
i=1 j=1
El producto escalar o hermítico de dos vectores se puede escribir en función de sus coordenadas y de la matriz de Gram de la
base empleada:
143
𝒱
𝒱
EJEMPLOS
En Rn
v1
n
v
< u, v > = < (u1 u2 ⋯ un), (v1 v2 ⋯ vn) > = ui vi = u1v1 + u2v2 + ⋯unvn = (u1 u2 ⋯ un) ⋅ 2
∑ ⋮
i=1
vn
En Cn
v1
n
v
< u, v > = < (u1 u2 ⋯ un), (v1 v2 ⋯ vn) > = ui vi = u1v1 + u2v2 + ⋯unvn = (u1 u2 ⋯ un) ⋅ 2
∑ ⋮
i=1
vn
b b
∫a ∫a
En C([a, b]; R) < f, g > = fg = f (x)g(x) d x
b b
∫a ∫a
En C([a, b]; C) < f, g > = fg = f (x)g(x) d x
144
NORMA
Sea un R − e . v . o un C − e . v .
Llamando al cuerpo, diremos que la aplicación ∥ ⋅ ∥ : → ℝ es una norma sobre si verifica las siguientes propiedades:
I. ∀u ∈ ∥u∥ ≥ 0
II. ∀u ∈ u = 0 ⟺ ∥u∥ = 0
Toda norma permite definir una distancia d: × → R de modo que ∀u, v ∈ , d(u, v) = ∥u − v∥
Propiedades:
∀u, v, w ∈ I. d(u, v) ≥ 0 II. d(u, v) = 0 ⟺ u = v III. d(u, v) = d(v, u) IV. d(u, w) ≤ d(u, v) + d(v, w)
NORMA INDUCIDA
En un espacio euclídeo o hermítico puede definirse la siguiente norma a partir del producto escalar / hermítico del espacio:
145
𝕂
𝒱
𝒱
𝒱
𝒱
𝒱
𝕂
𝒱
𝒱
𝒱
𝒱
𝒱
𝒱
que cumple además la siguiente propiedad (desigualdad de Schwarz):
∀u, v ∈ | < u, v > | ≤ ∥u∥ ⋅ ∥v∥ ( | < u, v > |2 ≤ < u, u > ⋅ < v, v > )
< u, v >
cos∡u,v =
∥u∥ ⋅ ∥v∥
146
𝒱
𝒱
Sección 2
Propiedades:
147
𝒱
𝒱
𝒱
Sea un espacio euclídeo o hermítico. Considerando los conjuntos V, W ⊂ y el vector u ∈ definimos:
En el caso de que V, W ⊂ sean subespacios vectoriales de , con bases BV = {v1, v2, ⋯, vn} y BW = {w1, w2, ⋯, wm}
respectivamente, se verifica:
148
𝒱
𝒱
𝒱
𝒱
𝒱
SISTEMAS ORTOGONALES
Un conjunto finito o numerable de vectores S = {u1, u2, ⋯, un, ⋯} es un sistema ortogonal de vectores si
Propiedades:
Llamamos sistema ortonormal de vectores a un sistema ortogonal de vectores que además verifique:
∀i ∈ {1,⋯, m} | | ui | | = 1
Propiedad:
I. A partir de todo sistema ortogonal de vectores que no incluya a 0 podemos construir uno ortonomal
{ ∥u1∥ ∥u2∥ }
u1 u u
S = {u1, u2, ⋯, un, ⋯} es ortogonal ∧ 0 ∉ S ⟹ T= , 2 , ⋯, n , ⋯ es ortonormal
∥un∥
149
Sección 3
Llamemos Lk = L({u1, u2, ⋯, uk}) al subespacio generado por los k primeros vectores de S
• e1 = u1
< u2, e1 >
e
• 2 = u 2 − e
< e1, e1 > 1
se verifica que:
III. 0∉T
150
𝒱

(Se verá después que ek = uk − PL⊥k−1(uk ), siendo PL⊥k(v) la proyección ortogonal de v sobre el subespacio Lk)
BASES ORTOGONALES
Sea B = {u1, u2, ⋯, un} una base de ( = L({u1, u2, ⋯, un}) = Ln)
⟹B N
es base (ortogonal) de
(en todo espacio euclídeo o hermítico de dimensión finita existen bases ortogonales)
151
𝒱
𝒱
𝒱
𝒱
𝒱
𝒱
𝒱
𝒱
𝒱

𝒱
PRODUCTO ESCALAR EN BASES ORTOGONALES
Sea B = {e1, e2, ⋯, en} una base ortonormal de (espacio euclídeo / hermítico)
n n
∑ ∑
u= uiei ∈ v= vj ej ∈
i=1 j=1
Se verifica:
n n n n n n n n n n
∑ ∑ ∑∑ ∑ ∑ ∑ ∑∑ ∑
< u, v > = < uiei, vj ej > = ui vj < ei, ej > = ui vi < u, v > = < uiei, vj ej > = ui vj < ei, ej > = ui vi
i=1 j=1 i=1 j=1 i=1 i=1 j=1 i=1 j=1 i=1
Es decir:
v1
v
< u, v > = (u1 u2 ⋯ un) ⋅ 2
⋮
vn
v1
v
< u, v > = (u1 u2 ⋯ un) ⋅ 2
⋮
vn
152
𝒱
𝒱
𝒱
𝒱
COORDENADAS EN BASES ORTOGONALES
∑
u= uiei ⟹ ∀j ∈ {1,⋯, n}, < u, ej > = uj < ej, ej > ∀j ∈ {1,⋯, n}, < u, ej > = uj
i=1
Luego:
n n
< u, ei >
∑ < ei, ei > i ∑
u= e u= < u, ei > ei (†)
i=1 i=1
Se verifica:
n n
< u, ei > < v, ei >
∑ ∑
< u, v > = < u, v > = < u, ei > < v, ei > (†)
i=1
< ei, ei > i=1
n n
< u, ei > < v, ei >
∑ ∑
< u, v > = < u, v > = < u, ei > < v, ei > (†)
i=1
< ei, ei > i=1
Y por tanto:
| < u, ei > |2
n n
2 2
| < u, ei > |2
∑ < ei, ei > ∑
∥u∥ = ∥u∥ = (†)
i=1 i=1
| < u, ei > |2
n n
2 2
| < u, ei > |2 (†)
∑ < ei, ei > ∑
∥u∥ = ∥u∥ =
i=1 i=1
153
𝒱
𝒱
𝒱
Sección 4
Proyecciones ortogonales
Sea un espacio euclídeo / hermítico de dimensión finita y U ⊂ un subespacio vectorial de
U ⊥ = {w ∈ / ∀u ∈ U, < w, u > = 0}
Propiedades:
I. U ⊥ es subespacio vectorial de
II. U ∩ U ⊥ = {0}
V. (U ⊥)⊥ = U
154
𝒱
𝒱
𝒱
𝒱
𝒱
𝒱
𝒱
𝒱
CÁLCULO DE LA PROYECIÓN ORTOGONAL
Dada una base del subespacio U ⊂ , BU = {u1, u2, ⋯, un}, la proyección ortogonal sobre U de v ∈ será
n
∑
u= αiui
i=1
n
αiui ∈ U ⊥ ha de ser ortogonal a U, se verifica:
∑
Como v −
i=1
∑
∀j ∈ {1,⋯, n} < v − αiui, uj > = 0 (sistema de n ecuaciones y n incógnitas αj)
i=1
Si la base del subespacio U ⊂ , BU = {e1, e2, ⋯, en}, es ortogonal / ortonormal, para cualquier v ∈ su proyección ortogonal
sobre U es:
n n
< v, ei >
∑ < ei, ei > i ∑
u= e u= < v, ei > ei
i=1 i=1
Propiedades:
I. pU⊥ es lineal
155
𝒱
𝒱
𝒱
𝒱
𝒱
𝒱
MEJOR APROXIMACIÓN
∀w ∈ U,∥v − pU⊥(v)∥ ≤ ∥v − w∥
Propiedades:
| < v, ei > |2
n
| < v, ei > |2
n
≤ ∥v∥2 = ∥v∥2 (‡)
∑ < ei, ei > ∑ < ei, ei >
(†) v∈U ⟹
i=1 i=1
156
𝒱
Sección 5
• CT([a, b]; ) de las funciones reales o complejas de variable real continuas a trozos
• R2([a, b]; ) de las funciones reales o complejas de variable real, continuas a trozos en (a, b) y de cuadrado integrable† en
[a, b]
b b
∫a ∫a
Caso =R f : [a, b] → R Producto escalar < f, g > = fg = f (x)g(x) d x
b b
∫a ∫a
Caso =C f : [a, b] → C Producto hermítico < f, g > = fg = f (x)g(x) d x
En los casos CT([a, b]; ) y R2([a, b]; ) es necesario considerar como iguales funciones que lo son en casi todo punto (pero no
en todos) para que puedan considerarse estos productos escalares / hermíticos
b b b
∫a ∫a ∫a
2 2
† Existencia de f (x)d x en el caso real y de | f (x) | d x = ℜ( f (x))2 + ℑ( f (x))2d x en el complejo
157
𝕂
𝒱
𝕂
𝕂
𝕂
𝕂
𝕂
𝕂
𝒱
𝒱
PROYECCIÓN ORTOGONAL
U ⊥ = {w ∈ / ∀u ∈ U, < w, u > = 0}
Propiedades:
I. U ⊥ es subespacio vectorial de
II. U ⊂ (U ⊥)⊥
III. U ∩ U ⊥ = {0}
V. Si U es de dimensión finita, con base BU = {e1, e2, ⋯, en} ortogonal / ortonormal, sí está garantizada la existencia de la
proyección ortogonal ∀v ∈
n n
< v, ei >
pU⊥(v) pU⊥(v)
∑ < ei, ei > i ∑
= e = < v, ei > ei
i=1 i=1
† El término complemento ortogonal está reservado para el caso de espacios de dimensión finita
158
𝒱
𝒱
𝒱
𝒱
𝒱
𝒱
𝒱
𝒱
MEJOR APROXIMACIÓN
Sea S = {e1, e2, ⋯, en, ⋯} un sistema ortogonal / ortonormal del espacio euclídeo / hermítico
n
| < v, ei > |2 n
≤ ∥v∥2 | < v, ei > |2 ≤ ∥v∥2
∑ < ei, ei > ∑
i=1 i=1
| < v, ei > |2
n m
| < v, ei > |2 n
2
m
≤ ∥v∥2 | < v, ei > |2 ≤ ∥v∥2
∑ < ei, ei > ∑ < ei, ei > ∑ ∑
≤ | < v, ei > | ≤
i=1 i=1 i=1 i=1
| < v, ei > |2
m n
| < v, ei > |2 m
2
n
2 2 2 2
| < v, ei > |2
∑ < ei, ei > ∑ < ei, ei > ∑ ∑
∥v∥ − ≤ ∥v∥ − ∥v∥ − | < v, ei > | ≤ ∥v∥ −
i=1 i=1 i=1 i=1
Por tanto al considerar más vectores de S, obtenemos mejores aproximaciones, con menos error (en norma)
159
𝒱
𝒱
∞
| < v, ei > |2 n
| < v, ei > |2 ∞
2
n
| < v, ei > |2
∑ < ei, ei > n→∞ ∑ ∑ n→∞ ∑
Llamando: = lim | < v, ei > | = lim
i=1 i=1
< ei, ei > i=1 i=1
∞
| < v, ei > |2 ∞
≤ ∥v∥2 | < v, ei > |2 ≤ ∥v∥2
∑ < ei, ei > ∑
Se verifica: (desigualdad de Bessel)
i=1 i=1
| < v, ei > |
y lim =0 lim | < v, ei > | = 0
i→∞ ∥ei∥ i→∞
El (cuadrado del) error en norma cometido con la sucesión de mejores aproximaciones converge a:
∞
| < v, ei > |2 ∞
2 2
| < v, ei > |2
∑ < ei, ei > ∑
∥v∥ − ∥v∥ −
i=1 i=1
SERIE DE FOURIER
S = {e1, e2, ⋯, en, ⋯} un sistema ortogonal /ortonormal del espacio euclídeo / hermítico
160
𝒱
𝒱
PERIODICIDAD
1 2π
Llamamos frecuencia de f a ν = , y pulsación de f a ω =
T0 T0
T
α+T T
∫α ∫0 ∫− T
2
Propiedad: f :R→ periódica de período T ⟹ ∀α ∈ R, f (x)d x = f (x)d x = f (x)d x
2
( n )
2π
1 (cualquier período) sin x, cos x (T0 = 2π) sin n x, cos n x T0 =
2π
Si realizamos el cambio de variables x = ωt = t obtenemos las funciones periódicas
T
( ω) ( nω )
2π 2π
sin ωt, cos ωt T0 = sin nωt, cos nωt T0 =
2π 2π
k ≠ 0 ⟹ e jkω(t+ kω ) = e jkωt e 2πj = e jkωt (T0 = )
kω
162
EXTENSIÓN PERIÓDICA
Dada función f : [a, b] → , f (a) = f (b), definimos su extensión periódica de período T = b − a, a la función
⌊ T ⌋
x−a
f˜ : R → que ∀x ∈ R, f˜(x) = f (x − T)
163
𝕂
𝕂
SISTEMA TRIGONOMÉTRICO
En espacios reales en [−π, π], el sistema trigonométrico {1, sin n x, cos n x}n∈N es ortogonal
π π
∫−π ∫−π
Y que ∀k ∈ Z − {0}, sin k xd x = cos k x = 0
∫−π ∫−π
< 1, sin n x > = sin n xd x = 0 < 1, cos n x > = cos n xd x = 0
π
1 π
∫−π 2 ∫−π
< sin n x, cos m x > = sin n x cos m xd x = (sin(n − m)x + sin(n + m)x)d x = 0
π
1 π
∫−π 2 ∫−π
< sin n x, sin m x > = sin n x sin m xd x = (cos(n − m)x − cos(n + m)x)d x = 0 (m ≠ n)
π
1 π
∫−π 2 ∫−π
< cos n x, cos m x > = cos n x cos m xd x = (cos(n − m)x + cos(n + m)x)d x = 0 (m ≠ n)
164
Las normas son:
π
∫−π
< 1,1 > = 1d x = 2π ∥1∥ = 2π
π π
1 − cos 2n x
∫−π ∫−π
2
< sin n x, sin n x > = sin n xd x = dx = π ∥ sin n x∥ = π
2
π π
1 + cos 2n x
∫−π ∫−π
2
< cos n x, cos n x > = cos n xd x = dx = π ∥ cos n x∥ = π
2
{ }
1 sin n x cos n x
Por tanto el sistema , , es ortonormal
2π π π n∈N
[ 2 2]
T T
En espacios reales de funciones definidas en el intervalo − , , [0,T ] (o en general [α, α + T ])
2π
y llamando ω = , el sistema {1, sin nωt, cos nωt}n∈N es ortogonal
T
T
1 π
∫− T ω ∫−π
2
Por ejemplo: < sin nωt, cos mωt > = sin nωt cos mωtdt = sin n x cos m xd x = 0
2
165
Las normas son:
T
∫− T
2
< 1,1 > = 1dt = T ∥1∥ = T
2
T T
1 − cos 2nωt T T
∫− T ∫− T
2 2
< sin nωt, sin nωt > = sin2 nωtdt = dt = ∥ sin nωt∥ =
2 2 2
2 2
T T
1 + cos 2nωt T T
∫− T ∫− T
2 2
< cos nωt, cos nωt > = cos2 nωtdt = dt = ∥ cos nωt∥ =
2 2 2
2 2
Siendo:
166
𝕃
< f (x), sin n x > 1 π
π ∫−π
bn = = f (x)sin n xd x
< sin n x, sin n x >
∞
| < v, ei > |2 a0 2 1 ∞
(π an )2 (πbn )2 π
∫−π
Ya que ∑ < ei, ei >
2
= ∥v∥ ⟺ (2π ) +
∑ π
+ = f 2(x)d x
i=1
2 2π n=1
π
2 T T
Dado f ∈ ([− , ]; R)
2 2
∞
a0
(an cos nωt + bn sin nωt)
2 ∑
f (t) ≈ +
n=1
T T T
a0 1 2 2 2 2 2
T ∫− T T ∫− T T ∫− T
= f (t)dt an = f (t)cos nωtdt bn = f (t)sin nωtdt
2
2 2 2
167
𝕃
T
∞
a02 2 2 2
∫− T
an2 + bn2 =
∑
+ f (t)dt (identidad de Parseval)
2 n=1
T
2
{ 2π }
e jkx
Por tanto el sistema es ortonormal
k∈Z
168
[ 2 2]
T T
En espacios complejos de funciones definidas en el intervalo − , , [0,T ] (o en general [α, α + T ])
2π
y llamando ω = , el sistema {e jkωt}k∈Z es ortogonal
T
T
1 π jkx jlx
∫− T ω ∫−π
2
jkωt jlωt jkωt jlωt
<e ,e >= e e dt = e e dx = 0 (k ≠ l)
2
∫− T ∫− T ∫− T
2 2 2
< e jkωt, e jkωt > = e jkωt e jkωt dt = e jkωt e −jkωt dt = 1dt = T ∀k ∈ Z,∥e jωt∥ = T
2 2 2
2 π
{bn = 0
an = ∫ f (x) cos n xd x ∀n ∈ N ∪ {0}
f es par ⟹ π 0
∀n ∈ N
169
∞
a0
2 ∑
f (x) ≈ + an cos n x
n=1
∞
2 T T a0
2 ∑
(en f ∈ ([− , ]; R), f (t) ≈ + an cos nωt)
2 2 n=1
an = 0 ∀n ∈ N ∪ {0}
{bn =
f es impar ⟹ 2 π
∫
π 0
f (x) sin n xd x ∀n ∈ N
∑
f (x) ≈ bn sin n x
n=1
∞
2 T T
∑ n
(en f ∈ ([− , ]; R), f (t) ≈ b sin nωt)
2 2 n=1
170
𝕃
𝕃
Análisis espectral: autovalores, autovectores
171
Sección 1
Ejemplos:
Si r : R3 → R3 representa una rotación de ángulo α (0 < α < 2π) en R3 con respecto al eje Z, son invariantes el plano XY y el eje Z
Si p : R3 → R3 representa la proyección ortogonal de R3 sobre el plano XY, son invariantes, el plano XY, el eje Z, cualquier plano
que contenga al eje Z y cualquier recta contenida en el plano XY que pase por el origen
Propiedades:
172
𝕂
𝒱
𝒲
𝒰
𝒰
𝒲
𝒲
𝒲
𝒱
𝒱
𝒲
𝒲
𝒰
𝒰
𝒱
𝒲
𝒱
𝒱
𝒰
𝒲
𝒱
𝒱
𝒱
𝒲
𝒲
𝒲
𝒲
𝒲
𝒰
𝒲
𝒲
𝒰
𝒲
𝒰
𝒲
𝒲
𝒰
𝒰
𝒲
𝒲
Definiciones:
v∈ , v ≠ 0 es un vector propio, vector característico o autovector de f si existe λ ∈ tal que f (v) = λv,
Propiedades:
0 ∈ Sλ ⟹ Sλ ≠ ∅
v ∈ Sλ ⟹ f (v) = λv ∈ Sλ
Ejemplo: D : C ∞(R, R) → C ∞(R, R), que D( f (x)) = f′(x). f (x) = eλx es autovector de D asociado al autovalor λ ∈ R
†
Sλ incluye a 0, además de a los autovectores asociados a λ
173
𝒱
𝒱
𝕂
𝕂
𝕂
𝒱
𝕂
𝒱
𝒱
𝒱
𝕂
𝒱
𝒱

Sean un -e.v. y f la aplicación lineal (endomorfismo) f : →
Si dim = n y B = {v1, v2, ⋯, vn} es una base formada por autovectores (f (vi) = λi vi),
λ1 0 ⋯ 0
0 λ2 ⋯ 0
la matriz de f respecto a B es diagonal F=
⋮ ⋮ ⋱ ⋮
0 0 ⋯ λn
Definición:
Proposición:
Proposición:
Respecto de esta base de autovectores, la matriz de f es P −1 ⋅ F ⋅ P, diagonal por ser respecto de una base de autovectores
174
𝒱
𝒱
𝕂
𝒱
𝒱
𝒱
𝒱
𝒱
𝕂
𝒱
𝒱
𝒱
𝕂
𝕂
Proposición:
Vectores propios del endomorfismo f : → correspondientes a valores propios distintos son linealmente independientes
Sean λ1, λ2, ⋯, λn autovalores distintos de f y v1, v2, ⋯, vn autovectores asociados (f (vi) = λi vi). Inductivamente:
{v1} es libre
{v1, v2, ⋯, vk} libre y α1v1 + α2v2 + ⋯ + αk vk + αk+1vk+1 = 0 ⟹ λk+1(α1v1 + α2v2 + ⋯ + αk vk + αk+1vk+1) = 0
Corolario:
175
𝒱
𝒱
𝒱
𝒱
𝒱
Cálculo de los autovalores y autovectores:
{v ∈ ker( f − λi )
r( f − λi ) < n
f (v) = λv ⟺ f (v) − λv = 0 ⟺ ( f − λi )(v) = 0 ⟺
n
Si dim( ) = n y la matriz de f respecto a cierta base B es F ∈ Mn×n( ), y siendo V ∈ las coordenadas de un autovector v ∈
{(F − λIn) ⋅ V = 0
r(F − λIn) < n ⟺ | F − λIn | = 0
F ⋅ V = λV ⟺ F ⋅ V − λV = 0 ⟺ F ⋅ V − λIn ⋅ V = 0 ⟺ (F − λIn) ⋅ V = 0 ⟺
𝒱
176
𝒱
𝒱
𝒱
𝕂
𝒱
𝕂
𝒱
𝒱
𝒱
𝒱
𝕂
𝕂
𝒱
𝒱
𝕂
Definiciones:
Polinomio característico de una matriz F ∈ Mn×n( ), p(λ) = | F − λIn | = (−1)n λ n + an−1λ n−1 + ⋯ + a1λ + a0
Ecuación característica de una matriz F ∈ Mn×n( ), p(λ) = | F − λIn | = 0 ⟺ (−1)n λ n + an−1λ n−1 + ⋯ + a1λ + a0 = 0
Proposición:
Dos matrices F, F′ ∈ Mn×n( ) del endomorfismo f : → respecto de dos bases B, B′ tienen el mismo polinomio característico
(y por tanto, los mismos autovalores)
Polinomio característico y ecuación característica de un endomorfismo. los de una cualquiera de sus matrices
Proposición:
λ∈ es autovalor del endomorfismo f ⟺ λ es raíz del polinomio característico de f (o solución de su ecuación característica)
177
𝒱
𝕂


𝒱
𝕂
𝕂
𝕂
𝕂


Si = R, el polinomio característico tiene como mucho n raíces
Sea p(λ) = (−1)n λ n + an−1λ n−1 + ⋯ + a1λ + a0. Supongamos que sus raíces son λ1, λ2, ⋯, λk
Podemos escribir p(λ) = (−1)n(λ − λ1)m1(λ − λ2)m 2⋯(λ − λk )mk i(λ)†, con m1 + m2 + ⋯ + mk ≤ n
Definiciones:
rj = dim(Sλj ) es la multiplicidad geométrica del autovalor λj (representa el máximo número de autovectores l.i. asociados a λj)
I. 1 ≤ rj ≤ mj
II. k ≤ r1 + r2 + ⋯ + rk ≤ m1 + m2 + ⋯ + mk ≤ n
†
i(λ) es un polinomio irreducible en . En el caso de = C, i(λ) = 1 y m1 + m2 + ⋯ + mk = n
178
𝕂
𝕂
𝕂
𝕂