0% encontró este documento útil (0 votos)
65 vistas179 páginas

Álgebra

Este documento presenta conceptos básicos de lógica proposicional y predicados de primer orden. Introduce las estructuras algebraicas básicas, incluyendo conjuntos, funciones entre conjuntos, conectores lógicos, tablas de verdad, tautologías, contradicciones y proposiciones contingentes. También explica la lógica de predicados con predicados, cuantificadores y ligadura de variables para formar proposiciones.

Cargado por

Jesús GMCA
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
65 vistas179 páginas

Álgebra

Este documento presenta conceptos básicos de lógica proposicional y predicados de primer orden. Introduce las estructuras algebraicas básicas, incluyendo conjuntos, funciones entre conjuntos, conectores lógicos, tablas de verdad, tautologías, contradicciones y proposiciones contingentes. También explica la lógica de predicados con predicados, cuantificadores y ligadura de variables para formar proposiciones.

Cargado por

Jesús GMCA
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

Álgebra

Notas de clase

Curso 2023-2024
Estructuras algebraicas básicas

Lenguaje y razonamiento matemáticos


Conjuntos: Álgebra de Boole
Funciones entre conjuntos
Introducción a las estructuras algebraicas

1
Sección 1

Lenguaje y razonamiento matemáticos


Lógica de proposiciones

Proposición: enunciado que puede ser verdadero o falso

Variable proposicional: p, q, r, s, t, ...

Valor de verdad de una proposición: VERDADERO: V, T, ⊤, 1 FALSO: F, ⊥, 0

Tabla de verdad:
p
V
F

Conectores:
• Símbolos para representar conexiones lógicas entre proposiciones
• Forman proposiciones compuestas
• Operan entre proposiciones (operaciones lógicas)

2
Conectores (un argumento): NEGACIÓN ( ¬ )
p ¬p
V F
F V

Conectores (dos argumentos): CONJUNCIÓN ( ∧ ), DISYUNCIÓN ( ∨ ), DISYUNCIÓN EXCLUSIVA ( ∨ )


CONDICIONAL ( ⟹ ), BICONDICIONAL ( ⟺ )

p q p∧q p∨q p∨q p ⟹ q p ⟺ q


V V V V F V V
V F F V V F F
F V F V V V F
F F F F F V V

Conjunción: p Y q, p AND q

Disyunción: p O q, p OR q

Disyunción exclusiva: O p O q, p XOR q

Condicional: Implicación material (antecedente: p, consecuente: q ; cond. necesaria q, cond. suficiente: p)


• inversa de p ⟹ q : ¬p ⟹ ¬q
• Recíproca de p ⟹ q : q ⟹ p
• Contrarrecíproca de p ⟹ q : ¬q ⟹ ¬p

Bicondicional: Equivalencia ( p, q cond. necesaria y suficiente)

3
2
¿Cuántos conectores diferentes podremos definir con dos proposiciones? 22

p q f0 f1 f2 f3 f4 f5 f6 f7 f8 f9 f10 f11 f12 f13 f14 f15


V V F V F V F V F V F V F V F V F V
V F F F V V F F V V F F V V F F V V
F V F F F F V V V V F F F F V V V V
F F F F F F F F F F V V V V V V V V

El valor de verdad de cualquier expresión con 2 variables proposicionales es una de estas columnas
Así: f1 ≡ p ∧ q f7 ≡ p ∨ q f6 ≡ p ∨ q f13 ≡ p ⟹ q f9 ≡ p ⟺ q
o por ejemplo: f8 ≡ ¬(p ∨ q) f14 ≡ ¬(p ∧ q) f12 ≡ ¬p

Podemos definir otros conectores:


Operador de Peirce: f8 ≡ p ↓ q (NI p NI q, p NOR q)
Operador de Sheffer: f14 ≡ p | q (p INCOMPATIBLE CON q, p NAND q)

3
El valor de verdad de una expresión con 3 variables proposicionales es una de las 22 posibles

p q r f0 f1 f2 f3 f254 f255
V V V F V F V F V
V V F F F V V V V
V F V F F F F V V
V F F F F F F ⋯⋯ V V
F V V F F F F V V
F V F F F F F V V
F F V F F F F V V
F F F F F F F V V

4
Tautología: expresión lógica que es verdadera independientemente de los valores de verdad de las proposiciones que la forman
f15 en el caso de dos variables, f255 en el caso de tres variables

Contradicción: expresión lógica que es falsa independientemente de los valores de verdad de las proposiciones que la forman
f0 en el caso de dos o tres variables

Proposición contingente o factual: enunciado que puede ser verdadero o falso según lo sean las proposiciones que lo forman

Ejemplos:

• Contradicciones:
• p ∧ ¬p
• ¬(p ∨ ¬p)
• (p ⟹ q) ∧ (p ∧ ¬q)

• Tautologías:
• p ∨ ¬p (ley del tercio excluso)
• ¬(p ∧ ¬p) (ley de no contradicción)

Las tautologías reciben el nombre de LEYES LÓGICAS.

Cuando tienen forma de implicación se denomina IMPLICACIÓN LÓGICA: no puede darse que el consecuente sea falso siendo
verdadero el antecedente.

Cuando tiene forma de bicondicional se denomina EQUIVALENCIA LÓGICA: las dos proposiciones relacionadas tienen el mismo
valor de verdad

5
Ejemplos:

• Implicaciones lógicas:
• (p ∧ (p ⟹ q)) ⟹ q (modus ponendo ponens)
• ( ¬q ∧ (p ⟹ q)) ⟹ ¬p (modus tollendo tollens)
• ( ¬p ∧ (p ∨ q)) ⟹ q (silogismo disyuntivo, modus tollendo ponens)
• (p ∧ ¬(p ∧ q)) ⟹ ¬q (modus ponendo tollens)
• ((p ⟹ q) ∧ (q ⟹ r)) ⟹ (p ⟹ r) (silogismo hipotético)
• (p ∧ ¬p) ⟹ q (de una contradicción se deduce cualquier cosa)
• ((p ⟹ q) ∧ ( ¬p ⟹ q)) ⟹ q

• Equivalencias lógicas:
• (p ⟹ q) ⟺ ( ¬q ⟹ ¬p) (ley de contraposición: equivalencia entre condicional y contrarrecíproca)
• ¬( ¬p) ⟺ p (ley de involución o doble negación)
• (p ⟹ q) ⟺ ((p ∧ ¬q) ⟹ (p ∧ ¬p)) (ley de reducción al absurdo)
• p ⟺ ( ¬p ⟹ (q ∧ ¬q)) (otra variante)
• ( ¬p ⟹ p) ⟺ p (otra variante)
• ((p ⟹ q) ∧ (p ⟹ r)) ⟺ (p ⟹ (q ∧ r))
• ((p ⟹ q) ∨ (r ⟹ q)) ⟺ ((p ∧ r) ⟹ q)

6
• Equivalencias lógicas entre conectivas:
• (p ∨ q) ⟺ ¬(p ⟺ q) (equivalencia de la disyunción exclusiva)
• (p ⟺ q) ⟺ ((p ⟹ q) ∧ (q ⟹ p)) (equivalencia del bicondicional)
• (p ⟺ q) ⟺ ( ¬p ⟺ ¬q)
• (p ⟹ q) ⟺ ( ¬p ∨ q) (equivalencia del condicional)
• (p ⟹ q) ⟺ ( ¬(p ∧ ¬q)) (equivalencia del condicional)
• (p ↓ q) ⟺ ¬(p ∨ q) (equivalencias del operador de Peirce)
• (p ↓ p) ⟺ ¬p
• ((p ↓ q) ↓ (p ↓ q)) ⟺ (p ∨ q)
• ((p ↓ p) ↓ (q ↓ q)) ⟺ (p ∧ q)
• (((p ↓ p) ↓ q) ↓ ((p ↓ p) ↓ q)) ⟺ (p ⟹ q)
• (p | q) ⟺ ¬(p ∧ q) (equivalencias del operador de Sheffer)
• (p | p) ⟺ ¬p
• ((p | q) | (p | q)) ⟺ (p ∧ q)
• ((p | p) | (q | q)) ⟺ (p ∨ q)
• (p | (q | q)) ⟺ (p ⟹ q)

• Equivalencias lógicas (propiedades):


• (p ∧ p) ⟺ p (p ∨ p) ⟺ p (leyes de idempotencia)
• (p ∧ (p ∨ q)) ⟺ p (p ∨ (p ∧ q)) ⟺ p (leyes de absorción)
• (p ∧ q) ⟺ (q ∧ p) (p ∨ q) ⟺ (q ∨ p) (leyes de conmutatividad)
• ((p ∧ q) ∧ r) ⟺ (p ∧ (q ∧ r)) ((p ∨ q) ∨ r) ⟺ (p ∨ (q ∨ r)) (leyes de asociatividad)
• (p ∧ ⊤ ) ⟺ p (p ∨ ⊥ ) ⟺ p (elementos neutros)
• (p ∧ ⊥ ) ⟺ ⊥ (p ∨ ⊤ ) ⟺ ⊤ (elementos absorbentes)
• (p ∧ ¬p) ⟺ ⊥ (p ∨ ¬p) ⟺ ⊤ (elemento complementario)
• (p ∧ (q ∨ r)) ⟺ ((p ∧ q) ∨ (p ∧ r)) (p ∨ (q ∧ r)) ⟺ ((p ∨ q) ∧ (p ∨ r)) (ley de distribuitividad)
• ¬(p ∧ q) ⟺ ( ¬p ∨ ¬q) ¬(p ∨ q) ⟺ ( ¬p ∧ ¬q) (leyes de De Morgan)

7
Lógica de predicados (de primer orden)

Predicado: enunciado que se refiere a una propiedad de un objeto o de varios, representados por una o más variables.

Cuando se sustituyen las variables (se “ligan”) por algún elemento de cierto conjunto o universo del discurso obtenemos una
proposición.

Ejemplos:

P(n) [ n es un número par]. El universo del discurso es el conjunto de los números naturales o el de los enteros.

L(x, y) [ x ≤ y ]. El universo del discurso es el conjunto de los números reales.

Así: P(2), P(4) son proposiciones verdaderas y P(7), P(1) son falsas. L(2,2) es verdadera y L(9,1) es falsa.

Cuantificadores: Son alusiones a algunos de los elementos del universo del discurso.

“Ligan” las variables presentes en el predicado, que dejan de ser “libres”, lo que contribuye a convertirlo en proposición (lo será
cuando todas sus variables estén “ligadas”).

8
Cuantificador universal: ∀ (“para cada”, “para todo”).

Notaciones: ∀x P(x) ∀x, P(x) ∀x∥P(x) ( ∀x ) P(x) (Universo del discurso implícito)
∀x ∈ D, P(x) ∀x, x ∈ D, P(x) (Universo del discurso explícito)

Se verifica:
∀x ∈ D, P(x) ⟺ ∀x, (x ∈ D ⟹ P(x))
∀x ∈ D, P(x) ⟹ P(a) (si a ∈ D)

Cuantificador existencial: ∃ (“existe algún”, “para algún”, “al menos un”).

Notaciones: ∃x P(x) ∃x, P(x) ∃x∥P(x) ( ∃x ) P(x) (Universo del discurso implícito)
∃x ∈ D, P(x) ∃x, x ∈ D, P(x) (Universo del discurso explícito)

Se verifica:
∃x ∈ D, P(x) ⟺ ∃x, (x ∈ D ∧ P(x))
P(a) ⟹ ∃x ∈ D, P(x) (si a ∈ D)

Cuantificador de existencia y unicidad: ∃! (“existe un único”, “para un y solo un”).

Orden de los cuantificadores: puede ser relevante.

Ejemplos: ∀x, ∃y, P(x, y) ∃y, ∀x, P(x, y)

(Nótese que ∃y, ∀x, P(x, y) ⟹ ∀x, ∃y, P(x, y), pero no la recíproca)

9
Negación de los cuantificadores:

UNIVERSAL:
¬ ∀x, P(x) ⟺ ∃x, ¬P(x) ¬ ∀x ∈ D, P(x) ⟺ ∃x ∈ D, ¬P(x) (a veces se emplea ∀/ x, P(x))

Nótese que:
¬ ∀x ∈ D, P(x) ⟺ ¬ ∀x, (x ∈ D ⟹ P(x)) ⟺ ∃x, ¬(x ∈ D ⟹ P(x)) ⟺ ∃x, (x ∈ D ∧ ¬P(x)) ⟺ ∃x ∈ D, ¬P(x)

(Se ha empleado: ¬(p ⟹ q) ⟺ (p ∧ ¬q) )

EXISTENCIAL:
¬ ∃x, P(x) ⟺ ∀x, ¬P(x) ¬ ∃x ∈ D, P(x) ⟺ ∀x ∈ D, ¬P(x) (a veces se emplea ∃x,
/ P(x))

Nótese que:
¬ ∃x ∈ D, P(x) ⟺ ¬ ∃x, (x ∈ D ∧ P(x)) ⟺ ∀x, ¬(x ∈ D ∧ P(x)) ⟺ ∀x, (x ∈ D ⟹ ¬P(x)) ⟺ ∀x ∈ D, ¬P(x)

(Se ha empleado: ¬(p ∧ q) ⟺ p ⟹ ¬q )

EJEMPLOS:
¬ ∀d, ∃m, ∀p, L(m, p, d ) ⟺ ∃d, ¬ ∃m, ∀p, L(m, p, d ) ⟺ ∃d, ∀m, ¬ ∀p, L(m, p, d ) ⟺ ∃d, ∀m, ∃p, ¬L(m, p, d )
¬ ∃m, ∀p, ∀d, L(m, p, d ) ⟺ ∀m, ¬ ∀p, ∀d, L(m, p, d ) ⟺ ∀m, ∃p, ¬ ∀d, L(m, p, d ) ⟺ ∀m, ∃p, ∃d, ¬L(m, p, d )

10
Razonamiento deductivo

Regla de inferencia o forma de argumentación: Proceso por el que, a partir de un conjunto de proposiciones conocidas
(premisas) hipotéticamente verdaderas, se obtiene otra proposición verdadera (conclusión).

p1
p2
p3
(*) ⋮
pn
q

La conclusión se deriva de las premisas, es decir que siendo estas verdaderas, la conclusión es necesariamente verdadera (no
es posible que las premisas sean verdaderas y la conclusión falsa).

Razonamiento válido: Conclusión verdadera en todos los casos en que todas las premisas sean simultáneamente verdaderas.

Razonamiento no válido o falacia: Conclusión falsa en al menos algún caso en que todas las premisas sean simultáneamente
verdaderas.

Razonamiento inconsistente: Cuando no es posible que todas las premisas sean simultáneamente verdaderas.

El razonamiento (*) es válido (o inconsistente) ⟺ p1 ∧ p2 ∧ p3 ∧ ⋯ ∧ pn ⟹ q es tautológica.

11
El lenguaje matemático

Uniforme: para todos lo mismo

Unívoco: sin ambigüedades

Conjunto de proposiciones verdaderas.

Proposiciones iniciales: axiomas, postulados y definiciones


Proposiciones deducidas: proposición, lema, teorema, corolario, ...

Conjetura: proposición que se cree cierta, pero que no se ha podido demostrar verdadera ni falsa

Ej: Conjetura de Goldbach (1742): Todo número par mayor que 2 puede escribirse como la suma de dos números primos
4 = 2+2 6 = 3+3 8 = 3+5 10 = 5+5 12 = 5+7 14 = 7+7 16 = 5+11 ...
(se ha comprobado computacionalmente hasta aprox. 4 ⋅ 1018)

Demostraciones: a partir de un conjunto de proposiciones iniciales, deducimos proposiciones más complejas, mediante reglas
de razonamiento aceptadas.

Las proposiciones a demostrar suelen ser de la forma:


• A ⟹ B
• A ⟺ B (A ⟹ B) ∧ (B ⟹ A)
• B A ⟹ B siendo A un conjunto de proposiciones admitidas previamente

12
Estrategias de demostración (en muchos casos aparecen combinaciones de dos o más de ellas):

• Hacia adelante, directa o método sintético, para demostrar A ⟹ B:


Examinamos A y buscamos una cadena de implicaciones que lleve a B
A ⟹ X1, X1 ⟹ X2, X2 ⟹ ⋯ ⋯ ⟹ Xn, Xn ⟹ B

• Hacia atrás, indirecta o método analítico, para demostrar A ⟹ B:


Examinamos B y buscamos una cadena de implicaciones que lleve a B desde A
Xn ⟹ B, ⋯ ⟹ Xn, X2 ⟹ ⋯, X1 ⟹ X2, A ⟹ X1

• Por distinción de casos:


Cuando la proposición se demuestra separadamente para cada caso en que pueda separarse

• Contraposición, para demostrar A ⟹ B:


Demostramos ¬B ⟹ ¬A

• Reducción al absurdo, para demostrar A ⟹ B (o B):


Intentamos demostrar A ∧ ¬B (o ¬B) y llegamos a una contradicción

• Por contraejemplo, para demostrar ¬ ∀x, P(x) :


Basta encontrar algún a para el que ¬P(a)

• Inducción simple, para demostrar ∀n ∈ N, P(n):


Demostramos P(1) y P(k) ⟹ P(k + 1)

• Inducción fuerte o completa, para demostrar ∀n ∈ N, P(n):


Demostramos P(1) y P(1) ∧ ⋯ ∧ P(k) ⟹ P(k + 1)

13
Hacia adelante:

∀n ∈ N, Impar(n) ⟹ Impar(n 3) (El cubo de todo número impar es impar)


1. ∀n ∈ N, Impar(n) ⟹ ∃k ∈ N, n = 2k + 1
2. n = 2k + 1 ⟹ n 3 = (2k + 1)3 = 8k 3 + 12k 2 + 6k + 1 = 2(4k 3 + 6k 2 + 3k) + 1
3. n 3 = 2(4k 3 + 6k 2 + 3k) + 1 ⟹ Impar(n 3)

∀n ∈ N, Impar(n) ⟹ Impar(n 2) (El cuadrado de todo número impar es impar)


1. ∀n ∈ N, Impar(n) ⟹ ∃k ∈ N, n = 2k + 1
2. n = 2k + 1 ⟹ n 2 = (2k + 1)2 = 4k 2 + 4k + 1 = 2(2k 2 + 2k) + 1
3. n 2 = 2(2k 2 + 2k) + 1 ⟹ Impar(n 2)

∀n ∈ N, Par(n) ⟹ Par(n 2) (El cuadrado de todo número par es par)


1. ∀n ∈ N, Par(n) ⟹ ∃k ∈ N, n = 2k
2. n = 2k ⟹ n 2 = (2k)2 = 4k 2 = 2(2k 2)
3. n 2 = 2(2k 2) ⟹ Par(n 2)

Hacia atrás:

x+y
∀x, y ∈ R, x, y ≥ 0 ⟹ xy ≤ (La media geométrica de dos números no es mayor que su media aritmética
2
x+y ⟸ x+y
1. xy ≤ − xy ≥ 0
2 ⟺ 2
x+y ⟸
2. − xy ≥ 0 ⟺ x + y − 2 xy ≥ 0
2

3. x + y − 2 x y ≥ 0 ⟺ ( x)2 + ( y)2 − 2( x)( y) ≥ 0

4. ( x)2 + ( y)2 − 2( x)( y) ≥ 0 ⟺ ( x − y)2 ≥ 0
5. ∀x, y ∈ R, x, y ≥ 0 ⟹ ( x − y)2 ≥ 0

14
Contraposición (y por casos):

∀m, n ∈ Z, Impar(nm) ⟹ Impar(n) ∧ Impar(m) (Si mn es impar, m y n son impares)


1. ¬(Impar(n) ∧ Impar(m)) ⟹ Par(n) ∨ Par(m)
2. Par(n) ∨ Par(m) ⟹ ∃k ∈ Z, n = 2k ∨ ∃k ∈ Z, m = 2k

{ ∃k ∈ Z, m = 2k ⟹ mn = 2kn = 2(kn) }
∃k ∈ Z, n = 2k ⟹ mn = 2km = 2(km)
3. ⟹ Par(mn)

∀n ∈ N, n > 2 ∧ Primo(n) ⟹ Impar(n) (Todo número primo mayor que 2 es impar)


1. ¬Impar(n) ⟹ Par(n)
2. Par(n) ⟹ ∃k ∈ N, n = 2k

{n ≠ 2 ∧ 2 | n}
n=2
3. ∃k ∈ N, n = 2k ⟹

{n ≠ 2 ∧ 2 | n} { ¬Primo(n)}
n=2 n=2
4. ⟹ ⟹ n = 2 ∨ ¬Primo(n)

5. n = 2 ∨ ¬Primo(n) ⟹ n ≤ 2 ∨ ¬Primo(n)

/ ∈ Z, n 2 + n − c = 0
Impar(c) ⟹ ∃n (La ecuación n 2 + n − c = 0 no tiene solución entera para c impar)
1. ∃n ∈ Z, n 2 + n − c = 0 ⟹ Par(n) ∨ Impar(n)

{Impar(n)} { ∃k ∈ Z, n = 2k + 1}
Par(n) ∃k ∈ Z, n = 2k
2. ⟹

{ ∃k ∈ Z, n = 2k + 1} {c = n + n = (4k + 4k + 1) + (2k + 1) = 4k + 6k + 2 = 2(2k + 3k + 1)}


∃k ∈ Z, n = 2k c = n 2 + n = 4k 2 + 2k = 2(2k 2 + k)
3. ⟹ 2 2 2 2
⟹ Par(c)

4. Par(c) ⟹ ¬Impar(c)

{ }
∀n ∈ N, Impar(n 2) ⟹ Impar(n)
(sus contrarrecíprocas fueron demostradas hacia adelante)
∀n ∈ N, Par(n 2) ⟹ Par(n)

15
Reducción al absurdo (y por casos):

2∉Q ( 2 es irracional)
p
1. 2 ∈ Q ⟹ ∃p, q ∈ N, Coprimos(p, q) ∧ 2=
q
p p2
2. 2= ⟹ 2= 2
q q
3. p 2 = 2q 2 ⟹ Par(p 2)
4. Par(p 2) ⟹ Par(p) (2 | p)
5. Par(p) ⟹ ∃k ∈ N, p = 2k
6. p 2 = 2q 2 ⟹ 4k 2 = 2q 2 ⟹ q 2 = 2k 2
7. q 2 = 2k 2 ⟹ Par(q 2)
8. Par(q 2) ⟹ Par(q) (2 | q)
9. 2 | p ∧ 2 | q ∧ Coprimos(p, q) es UNA CONTRADICCIÓN

El conjunto de los números primos no es finito


1. PRIMOS = {2,3,5,7,⋯, P}
2. M = 2 ⋅ 3 ⋅ 5 ⋅ 7⋯P + 1 ∧ M > P

{ ¬Primo(M ) M = Q ⋅ R ∧ Primo(Q)} {M = Q ⋅ R = 2 ⋅ 3 ⋅ 5 ⋅ 7⋯Q⋯P + 1}


Primo(M ) (CONTRADICCIÓN)
3. ⟹

{Q ⋅ R = 2 ⋅ 3 ⋅ 5 ⋅ 7⋯Q⋯P + 1} {Q ⋅ (R − 2 ⋅ 3 ⋅ 5 ⋅ 7⋯P) = 1} {Q | 1
4. ⟹ ⟹
(CONTRADICCIÓN)}

16
Por contraejemplo:

¬ ( f continua en x = a ⟹ f derivable en x = a)
1. Considérese f : R → R, f (x) = | x | en x = 0

Por inducción simple:

n
n(n + 1)

∀n ∈ N, i=
i=1
2
n
n(n + 1)

1. F(n) = S(n) = i =1+2+3+⋯+n
2 i=1
2. Queremos probar que ∀n ∈ N, S(n) = F(n)
1 ⋅ (1 + 1)
3. n = 1 ⟹ S(1) = 1 ∧ F(1) = =1
2
(k + 1)(k + 2)
4. F(k + 1) =
2
k+1


5. S(k + 1) = i = 1 + 2 + ⋯ + k + (k + 1) = S(k) + (k + 1)
i=1
k(k + 1) k(k + 1) + 2(k + 1) (k + 1)(k + 2)
6. S(k + 1) = + (k + 1) = = = F(k + 1)
2 2 2

17
Por inducción completa:

∀n ∈ N, n > 1 ⟹ Primo(n) ∨ Poducto_de_primos(n)


1. Para n = 1 es cierta
2. n = 2 ⟹ Primo(2)

{k + 1 = pq ∧ p < k + 1 ∧ q < k + 1}
Primo(k + 1)
3. n = k + 1 ⟹

{k + 1 = pq ∧ (Primo(p) ∨ Producto_de_primos(p)) ∧ (Primo(q) ∨ Producto_de_primos(q))}


4. ⟹

{Producto_de_primos(k + 1)}
5. ⟹

18
Sección 2

Álgebra de Boole
Teoría de conjuntos

Conjunto: Colección de objetos determinados y distintos de nuestra percepción o nuestro pensamiento reunidos en un todo (†)

Pertenencia: Dado un objeto x siempre tendremos que poder decidir si x está o no en el conjunto C
Definimos así el predicado x ∈ C y su negación ¬x ∈ C ⟺ x ∉ C

Determinación:

• Por extensión: enumerando todos sus elementos C = {a, b, c}


No es útil cuando el número de elementos es muy grande o no finito

• Por intensión o comprensión: mediante la extensión de un predicado C = {x | P(x)}


Dado cualquier predicado P(x) siempre tiene asociado un conjunto: el de elementos x que lo hacen verdadero

Ejemplos:

• C = {2,4,6,8} = {x | x ∈ N ∧ x < 10 ∧ Par(x)}

• C′ = {x ∈ Z | Par(x)}

(†) Es una definición cuestionada porque conduce a la aparición de paradojas.

19

Paradoja de B. Russell:

Sea X el conjunto de los conjuntos que no son elementos de sí mismos: X = {x | x ∉ x} ¿Será X elemento de sí mismo?

• Si lo fuera, X ∈ X, pero entonces X ∉ X

• Si no lo fuera, X ∉ X, pero entonces X ∈ X

La “paradoja del barbero” es similar, en términos de la lógica: En una ciudad hay solamente un barbero, que afeita a todos los
que no se afeitan a sí mismos. ¿Quién afeita al barbero?

Sea A(b,x) el predicado el barbero b afeita al ciudadano x. Luego ∀x, ¬A(x, x) ⟺ A(b, x)

En el caso del barbero b tenemos que ¬A(b, b) ⟺ A(b, b)

Estos problemas se resuelven con la teoría axiomática de conjuntos, que construye estos de manera precisa y rigurosa.
No la abordaremos en esta asignatura.

20
Primeras definiciones:

Inclusión† (subconjunto): A ⊂ B ⟺ ∀x(x ∈ A ⟹ x ∈ B)

Igualdad: A = B ⟺ ∀x(x ∈ A ⟺ x ∈ B) A = B ⟺ (A ⊂ B ∧ B ⊂ A)

Conjunto vacío: ∅ = {x | x ≠ x} ∀x, x ∉ ∅ (es único‡)

Conjunto potencia de X: (X ) = {A | A ⊂ X} A∈ (X ) ⟺ A ⊂ X (o conjunto de partes de X)

Propiedades:

• ∀A, ∅ ⊂ A

• ∀A, A ⊂ A

• ∀A, ∀B, ∀C, (A ⊂ B ∧ B ⊂ C ) ⟹ A ⊂ C

• ∀X, ∅ ∈ (X )

• ∀X, X ∈ (X )

(†) Se dice que la inclusión es estricta cuando A ⊂ B ∧ A ≠ B, es decir A ⊂ B ∧ ∃x ∈ B, x ∉ A


y se dice que A es un subconjunto propio de B. A veces se emplean símbolos diferentes:
⊆ para la inclusión (o inclusión amplia) y ⊂ para la inclusión estricta

(‡) Si ∅, ∅′ vacíos ⟹ ∅ ⊂ ∅′ por ser ∅ vacío y ∅′ ⊂ ∅ por ser ∅′ vacío ⟹ ∅ = ∅′

21
𝒫
𝒫
𝒫
𝒫





Ejemplo:

Sea X = {a, b, c, d}

(X ) = {∅, {a}, {b}, {c}, {d}, {a, b}, {a, c}, {a, d}, {b, c}, {b, d}, {c, d}, {a, b, c}, {a, b, d}, {a, c, d}, {b, c, d}, {a, b, c, d}}

¿Cuántos elementos tiene? 24 = 16

Si X tiene n elementos, (X ) tiene 2n elementos

Representación mediante diagrama de Venn:

22
𝒫
𝒫
Operaciones en (X )

Sean A, B ∈ (X )

Unión: A ∪ B = {x ∈ X | x ∈ A ∨ x ∈ B}


V = {x | x ∈ X ∧ ∃V ∈ I, x ∈ V}
V∈I⊂ (X )

Intersección: A ∩ B = {x ∈ X | x ∈ A ∧ x ∈ B}


V = {x | x ∈ X ∧ ∀V ∈ I, x ∈ V}
V∈I⊂ (X ),I≠∅

23
𝒫
𝒫
𝒫
𝒫
Complementario A = {x ∈ X | x ∉ A} = X − A

Diferencia: A − B = {x ∈ X | x ∈ A ∧ x ∉ B} = A ∩ B

24
Propiedades:

• ∀A, B ∈ (X ), A ⊂ A ∪ B ∀A, B ∈ (X ), A ∩ B ⊂ A

• ∀A, B ∈ (X ), A ⊂ B ⟺ A ∪ B = B ∀A, B ∈ (X ), A ⊂ B ⟺ A ∩ B = A

• ∀A ∈ (X ), ∅ − A = ∅ ∀A ∈ (X ), A − ∅ = A

• ∀A ∈ (X ), A ∪ A = A ∀A ∈ (X ), A ∩ A = A (idempotencia)

• ∀A, B ∈ (X ), A ∪ (A ∩ B) = A ∀A, B ∈ (X ), A ∩ (A ∪ B) = A (absorción)

• ∀A, B ∈ (X ), A ∪ B = B ∪ A ∀A, B ∈ (X ), A ∩ B = B ∩ A (conmutatividad)

• ∀A, B, C ∈ (X ), (A ∪ B) ∪ C = A ∪ (B ∪ C ) ∀A, B, C ∈ (X ), (A ∩ B) ∩ C = A ∩ (B ∩ C ) (asociatividad)

• ∀A, B, C ∈ (X ), A ∪ (B ∩ C ) = (A ∪ B) ∩ (A ∪ C ) ∀A, B, C ∈ (X ), A ∩ (B ∪ C ) = (A ∩ B) ∪ (A ∩ C ) (distributividad)

• ∀A ∈ (X ), A ∪ ∅ = A ∀A ∈ (X ), A ∩ X = A (elem. neutros)

• ∀A ∈ (X ), A ∪ X = X ∀A ∈ (X ), A ∩ ∅ = ∅ (elem. absorbentes)

• ∀A ∈ (X ), A ∪ A = X ∀A ∈ (X ), A ∩ A = ∅ (el. complementarios)

• ∀A, B ∈ (X ), A ∪ B = A ∩ B ∀A, B ∈ (X ), A ∩ B = A ∪ B (De Morgan)

25
𝒫
𝒫
𝒫
𝒫
𝒫
𝒫
𝒫
𝒫
𝒫
𝒫
𝒫
𝒫
𝒫
𝒫
𝒫
𝒫
𝒫
𝒫
𝒫
𝒫
𝒫
𝒫
𝒫
𝒫
Sección 3

Funciones entre conjuntos


Producto cartesiano

Dados dos conjuntos A, B se define el producto cartesiano de A y B:

A × B = {(x, y) | x ∈ A ∧ y ∈ B}

y a sus elementos (x, y) se les denomina pares ordenados

Dados n conjuntos X1, X2, ⋯Xn se define:

X1 × X2 × ⋯ × Xn = {(x1, x2, ⋯, xn) | xj ∈ Xj, j ∈ {1,⋯, n}}

y a sus elementos se les denomina tuplas o n-tuplas

26
Grafo

Dados dos conjuntos A, B se define correspondencia o grafo G a cualquier subconjunto G ⊂ A × B

Se dice que A es el dominio de G y que B es el codominio de G

Grafo inverso del grafo G: G −1 = {(y, x) ∈ B × A | (x, y) ∈ G}

G = {(a,2), (b,1), (b,3), (d,2)}

G −1 = {(2,a), (1,b), (3,b), (2,d )}

27
Composición de grafos G ⊂ A × B y H ⊂ B × C H ∘ G = {(x, z) ∈ A × C | ∃y ∈ B, (x, y) ∈ G ∧ (y, z) ∈ H}

Propiedades:

I. K ∘ (H ∘ G) = (K ∘ H ) ∘ G

II. (H ∘ G)−1 = G −1 ∘ H −1

III. (G −1)−1 = G

G = {(a,2), (b,1), (b,3), (d,2)}

H = {(1,α), (1,δ), (2,δ)}

H ∘ G = {(a, δ), (b, α), (b, δ), (d, δ)}

28
Función

Dados dos conjuntos A, B se define función o aplicación de A en B a un grafo f ⊂ A × B que:

I. ∀x ∈ A, ∃y ∈ B, (x, y) ∈ f

II. ∀x ∈ A, (x, y) ∈ f ∧ (x, z) ∈ f ⟹ y = z

Notaciones:

f :A→B
( f, A, B) (x, y) ∈ f ⟺ y = f (x)
x ↦ y = f (x)

29
Se dice que A es el dominio de f y que B es el codominio de f

Se dice que y es la imagen de x por f, o que x es preimagen de y mediante f

Igualdad: ( f, A, B) = (g, C, D) ⟺ A = C ∧ B = D ∧ ∀x ∈ A, f (x) = g(x)

Función identidad: iA : A → A, ∀x ∈ A, iA(x) = x

Imagen de X ⊂ A: f (X ) = {y ∈ B | ∃x ∈ X, y = f (x)}

Recorrido, rango o imagen de f: Im( f ) = f (A)

Imagen inversa o preimagen de Y ⊂ B: f −1(Y ) = {x ∈ A | f (x) ∈ Y}

Propiedades:

I. f (∅) = ∅

II. f −1(∅) = ∅

III. ∀X, X′ ∈ (A), X ⊂ X′ ⟹ f (X ) ⊂ f (X′)

IV. ∀X, X′ ∈ (A), f (X ∪ X′) = f (X ) ∪ f (X′)

V. ∀X, X′ ∈ (A), f (X ∩ X′) ⊂ f (X ) ∩ f (X′)

VI. ∀Y, Y′ ∈ (B), f −1(Y ∪ Y′) = f −1(Y ) ∪ f −1(Y′)

VII. ∀Y, Y′ ∈ (B), f −1(Y ∩ Y′) = f −1(Y ) ∩ f −1(Y′)

30





𝒫
𝒫
𝒫
𝒫
𝒫










Inyectividad: f : A → B es inyectiva ⟺ ∀x, x′ ∈ A, x ≠ x′ ⟹ f (x) ≠ f (x′)

(equiv.) ⟺ ∀x, x′ ∈ A, f (x) = f (x′) ⟹ x = x′

Sobreyectividad: f : A → B es sobreyectiva o suprayectiva o sobre ⟺ ∀y ∈ B, ∃x ∈ A, y = f (x)

(equiv.) ⟺ B = f (A)

Biyectividad: f : A → B es biyectiva o biunívoca ⟺ f es inyectiva y sobreyectiva

31






Composición de funciones: Siendo f : A → B y g : B → C se denomina aplicación compuesta de f y g a la aplicación

g ∘ f : A → C, ∀x ∈ A, (g ∘ f )(x) = g[ f (x)]

Propiedades:

I. Asociatividad: f : A → B, g : B → C, h : C → D ⟹ (h ∘ g) ∘ f = h ∘ (g ∘ f )

II. En general no es conmutativa

g : R → R, g(x) = x 2}
f : R → R, f (x) = 2x
{( f ∘ g)(x) = 2(x 2) = 2x 2
(g ∘ f )(x) = (2x)2 = 4x 2
Contraejemplo: ⟹

III. f, g inyectivas ⟹ g ∘ f inyectiva

IV. f, g sobreyectivas ⟹ g ∘ f sobreyectiva

V. f, g biyectivas ⟹ g ∘ f biyectiva

VI. g ∘ f inyectiva ⟹ f inyectiva

VII. g ∘ f sobreyectiva ⟹ g sobreyectiva

32
Función inversa: Toda aplicación, por ser grafo, tiene grafo inverso. Este, sin embargo, no siempre es función.

f : A → B admite (función) inversa ⟺ ∃g : B → A, g ∘ f = iA ∧ f ∘ g = iB y se denota g = f −1

(Recuérdese que la función identidad es iA : A → A, ∀x ∈ A, iA(x) = x y nótese que es una función biyectiva)

Propiedades:

I. f admite inversa ⟹ f −1 es única

II. f admite inversa f −1 ⟺ f es biyectiva

III. f, g admiten inversa ⟹ g ∘ f admite inversa y (g ∘ f )−1 = f −1 ∘ g −1

33
Sección 4

Grupos, anillos y cuerpos


Operaciones

Dado un conjunto A ≠ ∅ definimos una operación o ley de composición interna:

⋆:A×A→A ∀a, b ∈ A, c = ⋆ (a, b) = a ⋆ b (c ∈ A)

Dados un conjunto A ≠ ∅ y otro K ≠ ∅ definimos una operación o ley de composición externa:

⋄:K×A→A ∀a ∈ A, ∀k ∈ K, c = ⋄ (k, a) = k ⋄ a (c ∈ A)

34
Posibles propiedades de una ley de composición interna ⋆ : A × A → A

Asociatividad: ⋆ es asociativa ⟺ ∀a, b, c ∈ A, (a ⋆ b) ⋆ c = a ⋆ (b ⋆ c)

Comnutatividad: ⋆ es conmutativa ⟺ ∀a, b ∈ A, a ⋆ b = b ⋆ a

Elemento neutro: ⋆ tiene elemento neutro ⟺ ∃n ∈ A, ∀a ∈ A, a ⋆ n = n ⋆ a = a

Elemento simétrico: a ∈ A tiene elemento simétrico ⟺ ∃a′ ∈ A, a ⋆ a′ = a′ ⋆ a = n (exige elemento neutro)

Elemento idempotente: a ∈ A es idempotente ⟺ a⋆a =a

Elemento absorbente: a ∈ A es absorbente ⟺ ∀b ∈ A, a ⋆ b = b ⋆ a = a

{ ∀b, c ∈ A, b ⋆ a = c ⋆ a ⟹ b = c
∀b, c ∈ A, a ⋆ b = a ⋆ c ⟹ b = c
Elemento regular: a ∈ A es regular o simplificable ⟺

Idempotencia: ⋆ es idempotente ⟺ ∀a ∈ A, a ⋆ a = a

Ley de simplificación o cancelativa: A es regular para ⋆ ⟺ ∀a ∈ A, a es regular

35



Con dos leyes de composición interna ⋆ : A × A → A y ⋄:A×A→A

Si ambas operaciones tienen elemento neutro se les suele denominar elemento cero (0) y elemento unidad (1),
respectivamente. En algunos casos se emplearán los símbolos ⊥ y ⊤ u otros

{(b ⋄ c) ⋆ a = (b ⋆ a) ⋄ (c ⋆ a)
a ⋆ (b ⋄ c) = (a ⋆ b) ⋄ (a ⋆ c)
Distributividad: ⋆ es distributiva respecto de ⋄ ⟺ ∀a, b, c ∈ A,

Elemento invertible†: a ∈ A es invertible ⟺ ∃a −1 ∈ A, a ⋄ a −1 = a −1 ⋄ a = 1

Divisor de 0: a ∈ A, a ≠ 0 es divisor de 0 ⟺ ∃b ∈ A − {0}, a ⋄ b = 0 ∨ b ⋄ a = 0

(A, ⋆ , ⋄ ) no tiene divisores de 0 ⟺ a⋄b =0 ⟹ a =0∨b =0

{a ⋄ a = ⊥
a⋆a =⊤
Complementario‡: a ∈ A admite complementario ⟺ ∃a ∈ A,


Es el elemento simétrico respecto a la segunda operación cuando esta se denomina producto. Cuando existe se le denomina
elemento inverso. Al elemento simétrico respecto de la primera operación cuando esta se denomina suma se le denomina
elemento opuesto

En este caso, los elementos neutros se han denominado ⊥ (neutro de ⋆) y ⊤ (neutro de ⋄)

36
Ejemplo: Zn

Sea Zn = {0,1,2,⋯, n − 1}, definimos:

{0 ⊙ 0 = 0 , 0 ⊙ 1 = 0 , 1 ⊙ 0 = 0 , 1 ⊙ 1 = 1}
⊕ : Zn × Zn → Zn ∀x, y ∈ Zn, x ⊕ y = x + y mod n 0⊕0=0 , 0⊕1=1 , 1⊕0=1 , 1⊕1=0
Z2 = {0,1}
⊙ : Zn × Zn → Zn ∀x, y ∈ Zn, x ⊙ y = x ⋅ y mod n

Las operaciones las podemos representar mediante tablas de Cayley

Z2 Z3
+ 0 1 . 0 1 + 0 1 2 . 0 1 2

0 0 1 0 0 0 0 0 1 2 0 0 0 0

1 1 0 1 0 1 1 1 2 0 1 0 1 2

2 2 0 1 2 0 2 1

+ 0 1 2 3 Z4 . 0 1 2 3 + 0 1 2 3 4 Z5 . 0 1 2 3 4

0 0 1 2 3 0 0 0 0 0 0 0 1 2 3 4 0 0 0 0 0 0

1 1 2 3 0 1 0 1 2 3 1 1 2 3 4 0 1 0 1 2 3 4

2 2 3 0 1 2 0 2 0 2 2 2 3 4 0 1 2 0 2 4 1 3

3 3 0 1 2 3 0 3 2 1 3 3 4 0 1 2 3 0 3 1 4 2

4 4 0 1 2 3 4 0 4 3 2 1
37
Principales estructuras algebraicas para (A, ⋆ )
⋆:A×A→A

Operación Elemento Elemento


Asociativa Conmutativa
interna neutro inverso

Magma Si

Semigrupo Si Si

Semigrupo
Si Si Si
conmutativo

Monoide (semigrupo
con elemento Si Si Si
neutro)

Monoide
Si Si Si Si
conmutativo

Grupo Si Si Si Si

Grupo conmutativo
Si Si Si Si Si
o abeliano

38
Principales estructuras algebraicas para (A, ⋆ , ⋄ )
⋆:A×A→A ⋄:A×A→A

(A, ⋆ ) (A, ⋄ ) ⋄ distributiva resp.⋆ ⋄ sin divisores de 0

Anillo Grupo conmutativo Semigrupo Si

Semigrupo
Anillo conmutativo Grupo conmutativo Si
conmutativo

Anillo unitario Grupo conmutativo Monoide Si

Anillo conmutativo
Grupo conmutativo Monoide conmutativo Si
unitario

Anillo íntegro Grupo conmutativo Semigrupo Si Si

Dominio de
Grupo conmutativo Monoide conmutativo Si Si
integridad

Cuerpo Grupo conmutativo Grupo (*) Si (propiedad)

Campo o cuerpo
Grupo conmutativo Grupo conmutativo (*) Si (propiedad)
conmutativo
(*) En el caso del cuerpo y del cuerpo conmutativo, (A − {0}, ⋄ ) ha de ser grupo o grupo conmutativo, respectivamente, ya que 0
nunca es invertible

39
Principales estructuras algebraicas para (A, ⋆ , ⋄ )
⋆:A×A→A ⋄:A×A→A

Álgebra de Boole (A, ⋆ , ⋄ ):

{ ∀a, b ∈ A, a ⋄ b = b ⋄ a
∀a, b ∈ A, a ⋆ b = b ⋆ a
I. ⋆ , ⋄ conmutativas:

{ ∃ ⊤ ∈ A, ∀a ∈ A, a ⋄ ⊤ = ⊤ ⋄ a = a
∃ ⊥ ∈ A, ∀a ∈ A, a ⋆ ⊥ = ⊥ ⋆ a = a
II. ⋆ , ⋄ tienen elementos neutros ⊥ , ⊤ :

{a⋄a = a⋄a = ⊥
a⋆a =a⋆a =⊤
III. Todo elemento admite elemento complementario: ∀a ∈ A, ∃a ∈ A,

{(b ⋆ c) ⋄ a = (b ⋄ a) ⋆ (c ⋄ a)
a ⋄ (b ⋆ c) = (a ⋄ b) ⋆ (a ⋄ c)
IV. ⋄ es distributiva respecto de ⋆: ∀a, b, c ∈ A,

{(b ⋄ c) ⋆ a = (b ⋆ a) ⋄ (c ⋆ a)
a ⋆ (b ⋄ c) = (a ⋆ b) ⋄ (a ⋆ c)
V. ⋆ es distributiva respecto de ⋄: ∀a, b, c ∈ A,

Ejemplos

• ( (X ), ∪ , ∩ ) (elementos neutros, ∅ y X)
• ({V, F}, ∨ , ∧ ) (elementos neutros, F y V)
• ({0,1}, ⊕ , ⊙ ) (elementos neutros, 0 y 1)

40
𝒫
Propiedades

• Si (A, ⋆ ) tiene elemento neutro n ∈ A, es único:

n′ elemento neutro} { n′ ⋆ n = n ⋆ n′ = n }
n elemento neutro n ⋆ n′ = n′ ⋆ n = n′
⟹ ⟹ n = n′

• Si (A, ⋆ ) es monoide, el elemento simétrico, si existe, es único:

a′′ simétrico de a}
a′ simétrico de a
⟹ a′′ = a′′ ⋆ n = a′′ ⋆ (a ⋆ a′) = (a′′ ⋆ a) ⋆ a′ = n ⋆ a′ = a′

• a′ simétrico de a ⟹ a simétrico de a′ (es decir (a′)′ = a)

Propiedades de los grupos

• Todos los elementos son regulares (ley de simplificación o ley cancelativa):

{a, x, y ∈ A, x ⋆ a = y ⋆ a ⟹ (x ⋆ a) ⋆ a′ = (y ⋆ a) ⋆ a′ ⟹ x ⋆ (a ⋆ a′) = y ⋆ (a ⋆ a′) ⟹ x ⋆ n = y ⋆ n ⟹ x = y


a, x, y ∈ A, a ⋆ x = a ⋆ y ⟹ a′ ⋆ (a ⋆ x) = a′ ⋆ (a ⋆ y) ⟹ (a′ ⋆ a) ⋆ x = (a′ ⋆ a) ⋆ y ⟹ n ⋆ x = n ⋆ y ⟹ x = y

• ∀a, b ∈ A, (a ⋆ b)′ = b′ ⋆ a′

(b′ ⋆ a′) ⋆ (a ⋆ b) = b′ ⋆ (a′ ⋆ (a ⋆ b) = b′ ⋆ ((a′ ⋆ a) ⋆ b) = b′ ⋆ (n ⋆ b) = b′ ⋆ b = n }


(a ⋆ b) ⋆ (b′ ⋆ a′) = ((a ⋆ b) ⋆ b′) ⋆ a′ = (a ⋆ (b ⋆ b′)) ⋆ a′ = (a ⋆ n) ⋆ a′ = a ⋆ a′ = n
⟹ (a ⋆ b)′ = b′ ⋆ a′

41
























































• a ∈ A, a ⋆ a = a ⟺ a = n (el único elemento idempotente es el neutro)

a ⋆ a = a ⟹ a′ ⋆ (a ⋆ a) = a′ ⋆ a ⟹ n ⋆ a = n ⟹ a = n
a =n ⟹ a⋆a =a⋆n ⟹ a⋆a =a

Propiedades de los anillos†



En adelante se empleará el anillo (A, ⊕ , ⊙ ), denotándose los elementos neutros como 0 y 1, y a los simétricos de a ∈ A como (−a) y a −1
respectivamente de las operaciones ⊕ , ⊙

• ∀a ∈ A, a ⊙ 0 = 0 ⊙ a = 0 (El elemento neutro de ⊕ es absorbente para ⊙)

a ⊙ 0 = a ⊙ (0 ⊕ 0) = (a ⊙ 0) ⊕ (a ⊙ 0) ⟹ 0 = − (a ⊙ 0) ⊕ (a ⊙ 0) = − (a ⊙ 0) ⊕ (a ⊙ 0) ⊕ (a ⊙ 0) ⟹ 0 = (a ⊙ 0)
0 ⊙ a = (0 ⊕ 0) ⊙ a = (0 ⊙ a) ⊕ (0 ⊙ a) ⟹ 0 = − (0 ⊙ a) ⊕ (0 ⊙ a) = − (0 ⊙ a) ⊕ (0 ⊙ a) ⊕ (0 ⊙ a) ⟹ 0 = (0 ⊙ a)

• ∀a, b ∈ A, (−a) ⊙ b = a ⊙ (−b) = − (a ⊙ b)


(a ⊙ b) ⊕ ((−a) ⊙ b) = (a ⊕ (−a)) ⊙ b = 0 ⊙ b = 0 ⟹ − (a ⊙ b) = (−a) ⊙ b
(a ⊙ b) ⊕ (a ⊙ (−b)) = a ⊙ (b ⊕ (−b)) = a ⊙ 0 = 0 ⟹ − (a ⊙ b) = a ⊙ (−b)

• ∀a, b ∈ A, (−a) ⊙ (−b) = a ⊙ b

((−a) ⊙ (−b)) = − (a ⊙ (−b)) = − ( − (a ⊙ b)) = a ⊙ b

• 0 no es simplificable
∀a, b ∈ A, a ⊙ 0 = b ⊙ 0 = 0 ⟹ ∃a, b ∈ A, a ≠ b ∧ a ⊙ 0 = b ⊙ 0
∀a, b ∈ A,0 ⊙ a = 0 ⊙ b = 0 ⟹ ∃a, b ∈ A, a ≠ b ∧ 0 ⊙ a = 0 ⊙ b

42


• ∀a ∈ A, a ≠ 0, a divisor de cero ⟺ a no simplificable

{0 = b ⊙ a = 0 ⊙ a ⟹ b = 0
0=a⊙b =a⊙0 ⟹ b =0
a ∈ A, a ≠ 0, simpli cable y b ∈ A, ⟹ ∃b
/ ∈ A, b ≠ 0,a ⊙ b = 0 ∨ b ⊙ a = 0

⟹ a no es divisor de cero

a ∈ A, a ≠ 0, no divisor de cero, b, c ∈ A,

{(b ⊙ a) = (c ⊙ a) ⟹ (b ⊙ a) ⊕ ( − (c ⊙ a)) = 0 ⟹ (b ⊙ a) ⊕ ((−c) ⊙ a) = 0 ⟹ (b ⊕ (−c)) ⊙ a = 0


(a ⊙ b) = (a ⊙ c) ⟹ (a ⊙ b) ⊕ ( − (a ⊙ c)) = 0 ⟹ (a ⊙ b) ⊕ (a ⊙ (−c)) = 0 ⟹ a ⊙ (b ⊕ (−c)) = 0

⟹ b = c ⟹ a es simplificable

Propiedades de los anillos unitarios

• ∀a ∈ A, (−a) = (−1) ⊙ a

(−1) ⊙ a = 1 ⊙ (−a) = − (1 ⊙ a) = − a

• a, b ∈ A invertibles ⟹ a ⊙ b invertible y (a ⊙ b)−1 = b −1 ⊙ a −1

(a ⊙ b) ⊙ (b −1 ⊙ a −1) = (a ⊙ (b ⊙ b −1)) ⊙ a −1 = (a ⊙ 1) ⊙ a −1 = a ⊙ a −1 = 1 ⟹ (a ⊙ b)−1 = (b −1 ⊙ a −1)

• a ∈ A invertible ⟹ − a invertible y (−a)−1 = − (a −1)

(−a) ⊙ ( − (a −1)) = − ((−a) ⊙ a −1) = − ( − (a ⊙ a −1)) = − (−1) = 1 ⟹ (−a)−1 = − (a −1)

43
fi
• a ∈ A invertible ⟹ a no es divisor de cero (a ∈ A es divisor de cero ⟹ a no es invertible)

{b ⊙ a = 0 ⟹ (b ⊙ a) ⊙ a −1 = 0 ⊙ a −1 ⟹ b ⊙ 1 = 0}
a ⊙ b = 0 ⟹ a −1 ⊙ (a ⊙ b) = a −1 ⊙ 0 ⟹ 1 ⊙ b = 0
a ≠ 0, invertible ⟹ ⟹ b=0

• 0 ∈ A no es invertible

/ −1 ∈ A,0 ⊙ 0−1 = 0−1 ⊙ 0 = 1


∀a ∈ A,0 ⊙ a = 0 ∧ a ⊙ 0 = 0 ⟹ ∃0

Propiedades de los cuerpos

• No tiene divisores de cero

∀a, a ≠ 0 ⟹ ∃a −1 ∈ A ⟹ a no es divisor de cero

• a ≠ 0, ∀b, c ∈ A, (a ⊙ x) ⊕ b = c y (x ⊙ a) ⊕ b = c tienen solución única en x

((a ⊙ x) ⊕ b) ⊕ (−b) = c ⊕ (−b) ⟹ a ⊙ x = c ⊕ (−b) ⟹ a −1 ⊙ (a ⊙ x) = a −1 ⊙ (c ⊕ (−b)) ⟹ x = a −1 ⊙ (c ⊕ (−b))

((x ⊙ a) ⊕ b) ⊕ (−b) = c ⊕ (−b) ⟹ x ⊙ a = c ⊕ (−b) ⟹ (x ⊙ a) ⊕ a −1 = (c ⊕ (−b)) ⊙ a −1 ⟹ x = (c ⊕ (−b)) ⊙ a −1

44
Propiedades de las álgebras de Boole

• ∀a ∈ A, a ⋆ a = a ∧ a ⋄ a = a (idempotencia)

a ⋆ a = (a ⋆ a) ⋄ ⊤ = (a ⋆ a) ⋄ (a ⋆ a ) = a ⋆ (a ⋄ a ) = a ⋆ ⊥ = a
a ⋄ a = (a ⋄ a) ⋆ ⊥ = (a ⋄ a) ⋆ (a ⋄ a ) = a ⋄ (a ⋆ a ) = a ⋄ ⊤ = a

• ∀a ∈ A, a ⋆ ⊤ = ⊤ ∧ a ⋄ ⊥ = ⊥ (neutros cruzados absorbentes)

a ⋆ ⊤ = (a ⋆ ⊤ ) ⋄ ⊤ = (a ⋆ ⊤ ) ⋄ (a ⋆ a ) = a ⋆ ( ⊤ ⋄ a ) = a ⋆ a = ⊤
a ⋄ ⊥ = (a ⋄ ⊥ ) ⋆ ⊥ = (a ⋄ ⊥ ) ⋆ (a ⋄ a ) = a ⋄ ( ⊥ ⋆ a ) = a ⋄ a = ⊥

• ∀a, b ∈ A, a ⋄ (a ⋆ b) = a ∧ a ⋆ (a ⋄ b) = a (absorción)

a ⋄ (a ⋆ b) = (a ⋆ ⊥ ) ⋄ (a ⋆ b) = a ⋆ ( ⊥ ⋄ b) = a ⋆ ⊥ = a
a ⋆ (a ⋄ b) = (a ⋄ ⊤ ) ⋆ (a ⋄ b) = a ⋄ ( ⊤ ⋆ b) = a ⋄ ⊤ = a

• ∀a, b, c ∈ A, a ⋆ (b ⋆ c) = (a ⋆ b) ⋆ c ∧ a ⋄ (b ⋄ c) = (a ⋄ b) ⋄ c (asociativa)

q = (a ⋆ b) ⋆ c ⟹ a ⋄ q = a ⋄ ((a ⋆ b) ⋆ c) = (a ⋄ (a ⋆ b)) ⋆ (a ⋄ c) = a ⋆ (a ⋄ c) = a}
p = a ⋆ (b ⋆ c) ⟹ a ⋄ p = a ⋄ (a ⋆ (b ⋆ c)) = a
⟹ a⋄p =a⋄q

a ⋄ p = a ⋄ (a ⋆ (b ⋆ c)) = (a ⋄ a ) ⋆ (a ⋄ (b ⋆ c)) = ⊥ ⋆ (a ⋄ (b ⋆ c)) = a ⋄ (b ⋆ c)


a ⋄ q = a ⋄ ((a ⋆ b) ⋆ c) = (a ⋄ (a ⋆ b)) ⋆ (a ⋄ c) = ((a ⋄ a) ⋆ (a ⋄ b)) ⋆ (a ⋄ c) = ⟹ a⋄p =a⋄q
= ( ⊥ ⋆ (a ⋄ b)) ⋆ (a ⋄ c) = a ⋄ (b ⋆ c)

⟹ (a ⋄ p) ⋆ (a ⋄ p) = (a ⋄ q) ⋆ (a ⋄ q) ⟹ (a ⋆ a ) ⋄ p = ⟹ (a ⋆ a ) ⋄ q ⟹ ⊤ ⋄ p = ⊤ ⋄ q ⟹ p = q

(demostración dual para el otro caso, con p′ = a ⋄ (b ⋄ c) ∧ q′ = (a ⋄ b) ⋄ c)

45


• ∀a ∈ A, ∃!a ∈ A, a ⋆ a = ⊤ ∧ a ⋄ a = ⊥ (el complementario es único)

a, a′ ∈ A, a ⋆ a = ⊤ ∧ a ⋄ a = ⊥ ∧ a ⋆ a′ = ⊤ ∧ a ⋄ a′ = ⊥ ⟹
a = a ⋄ ⊤ = a ⋄ (a ⋆ a′) = (a ⋄ a) ⋆ (a ⋄ a′) = ⊥ ⋆ (a ⋄ a′) = (a ⋄ a′) =
= (a ⋄ a′) ⋆ ⊥ = (a ⋄ a′) ⋆ (a ⋄ a′) = (a ⋆ a) ⋄ a′ = ⊤ ⋄ a′ = a′

• ∀a ∈ A, (a ) = a (doble complementación)

∀a ∈ A, ∃a, a ⋆ a = ⊤ ∧ a ⋄ a = ⊥ ⟹ a ⋆ a = ⊤ ∧ a ⋄ a = ⊥ ⟹ (a ) = a

• ⊤=⊥∧⊥=⊤ (complementación de neutros)

⊥⋄⊤=⊤ }
⊥⋆⊤=⊤
⟹ ⊥=⊤

⊥⋆⊥=⊥∧⊥⋄⊤=⊤}
⊤⋆⊥=⊤∧⊤⋄⊤=⊤

⊤⋄⊥=⊤ }
⊤⋆⊥=⊤
⟹ ⊥=⊤

• ∀a, b ∈ A, (a ⋆ b) = a ⋄ b ∧ (a ⋄ b) = a ⋆ b (leyes de De Morgan)

(a ⋆ b) ⋆ (a ⋄ b) = ((a ⋆ b) ⋆ a ) ⋄ ((a ⋆ b) ⋆ b) = (b ⋆ (a ⋆ a )) ⋄ (a ⋆ (b ⋆ b)) = (b ⋆ ⊤ ) ⋄ (a ⋆ ⊤ ) = ⊤ ⋄ ⊤ = ⊤


(a ⋆ b) ⋄ (a ⋄ b) = (a ⋄ (a ⋄ b)) ⋆ (b ⋄ (a ⋄ b)) = ((a ⋄ a ) ⋄ b) ⋆ ((b ⋄ b) ⋄ a ) = ( ⊥ ⋄ b) ⋆ ( ⊥ ⋄ a ) = ⊥ ⋆ ⊥ = ⊥

⟹ (a ⋆ b) = a ⋄ b

(a ⋄ b) ⋆ (a ⋆ b) = (a ⋆ (a ⋆ b)) ⋄ (b ⋆ (a ⋆ b)) = ((a ⋆ a ) ⋆ b) ⋄ ((b ⋆ b) ⋆ a ) = ( ⊤ ⋆ b) ⋄ ( ⊤ ⋆ a ) = ⊤ ⋄ ⊤ = ⊤


(a ⋄ b) ⋄ (a ⋆ b) = ((a ⋄ b) ⋄ a ) ⋆ ((a ⋄ b) ⋄ b) = (b ⋄ (a ⋄ a )) ⋆ (a ⋄ (b ⋄ b)) = (b ⋄ ⊥ ) ⋆ (a ⋄ ⊥ ) = ⊥ ⋆ ⊥ = ⊥

⟹ (a ⋄ b) = a ⋆ b






46







Subestructuras algebraicas

Sea (A, ⋆ ) grupo y S ⊂ A. Si (S, ⋆ ) es grupo decimos que (S, ⋆ ) es subgrupo de (A, ⋆ )
Sea (A, ⋆ , ⋄ ) anillo y S ⊂ A. Si (S, ⋆ , ⋄ ) es anillo decimos que (S, ⋆ , ⋄ ) es subanillo de (A, ⋆ , ⋄ )
Sea (A, ⋆ , ⋄ ) cuerpo y S ⊂ A. Si (S, ⋆ , ⋄ ) es cuerpo decimos que (S, ⋆ , ⋄ ) es subcuerpo de (A, ⋆ , ⋄ )

Ejemplos

(Z, + ), (Q, + ), (R, + ), (C, + ) son grupos abelianos


(Zn, + ) es grupo abeliano
(Q − {0}, ⋅ ), (R − {0}, ⋅ ), (C − {0}, ⋅ ) son grupos abelianos
(Mm×n(R), + ) es grupo abeliano
(N, + ) es semigrupo conmutativo
(Z, ⋅ ), (Q, ⋅ ), (R, ⋅ ), (C, ⋅ ) son monoides conmutativos
(Z, + , ⋅ ) es anillo conmutativo unitario (dominio de integridad)
(Q, + , ⋅ ), (R, + , ⋅ ), (C, + , ⋅ ) son cuerpos conmutativos
(Mn×n(R), + , ⋅ ) es anillo unitario (no conmutativo, tiene divisores de cero)
(F(R, R), + , ⋅ ) es anillo conmutativo unitario (tiene divisores de cero)
(Q[X ], + , ⋅ ), (R[X ], + , ⋅ ), (C[X ], + , ⋅ ) son anillos conmutativos unitarios (dominios de integridad)
(Zn, + , ⋅ ) es anillo conmutativo unitario (tiene divisores de 0) si n no es primo
y cuerpo conmutativo si n es primo
(Z, + ), (Q, + ), (R, + ), (C, + ) son subgrupos (cada uno de los que le siguen)
(Q, + , ⋅ ), (R, + , ⋅ ), (C, + , ⋅ ) son subcuerpos (cada uno de los que le siguen)

47
Álgebra matricial y sist. de ecs. lineales

Método de eliminación de Gauss


Rango de una matriz
Operaciones con matrices
Inversa de una matriz

48
Sección 1

Método de eliminación de Gauss


Definiciones

Se denomina sistema de m ecuaciones lineales con n incógnitas a una expresión de la forma:

a11 ⋅ x1 + a12 ⋅ x2 + ⋯ + a1n ⋅ xn = b1


a21 ⋅ x1 + a22 ⋅ x2 + ⋯ + a2n ⋅ xn = b2
(†) aij, bi ∈ , i ∈ {1,2,⋯, m}, j ∈ {1,2,⋯, n}

am1 ⋅ x1 + am2 ⋅ x2 + ⋯ + amn ⋅ xn = bm

Coeficientes del sistema: elementos aij, ∈ , i ∈ {1,2,⋯, m}, j ∈ {1,2,⋯, n}

Términos independientes del sistema: elementos bi ∈ , i ∈ {1,2,⋯, m}

Incógnitas: los elementos desconocidos xi ∈ , i ∈ {1,2,⋯, n}

Una solución del sistema son n elementos s1, s2, ⋯, sn ∈ tales que al sustituir cada xi por si se obtienen m igualdades

Sistema compatible: tiene al menos una solución, determinado, si tiene solamente una, e indeterminado si tiene más de una

Sistema incompatible: no tiene ninguna solución

49
𝕂
𝕂
𝕂
𝕂
𝕂
Sistema homogéneo: el que es de la forma:

a11 ⋅ x1 + a12 ⋅ x2 + ⋯ + a1n ⋅ xn = 0


a21 ⋅ x1 + a22 ⋅ x2 + ⋯ + a2n ⋅ xn = 0
(‡)

am1 ⋅ x1 + am2 ⋅ x2 + ⋯ + amn ⋅ xn = 0

El sistema (‡) obtenido a partir de (†) se le denomina sistema homogéneo asociado a (†)

50
Métodos

Métodos de resolución de sistemas de ecuaciones lineales:

1. Método de igualación

2. Método de sustitución

3. Método de reducción o eliminación

4. Método de Cramer o de los determinantes

Algunos de estos métodos no son siempre generales ni prácticos para sistemas “grandes”

Ejemplo:

3x − y = 2}
x+y =2

En esta asignatura abordaremos únicamente el método de reducción, también denominado:

método de eliminación Gaussiana o método de Gauss

51
Método de Gauss

Se pueden realizar las siguientes operaciones, denominadas operaciones elementales, con las ecuaciones del sistema:

1. Multiplicar una ecuación por un α ∈ ,α ≠ 0

2. Intercambiar dos ecuaciones

3. Sumar a una ecuación el resultado de multiplicar cualquier otra por un β ∈

El resultado de aplicar una secuencia de operaciones elementales a un sistema es otro sistema equivalente, es decir que tiene
las mismas soluciones

El objetivo del método es lograr un sistema equivalente al dado lo más sencillo posible

Son de interés dos formas equivalentes sencillas equivalentes a un sistema dado:

I. Forma escalonada (no es única, y requiere operaciones adicionales para obtener posteriormente la solución)

II. Forma escalonada reducida (es única y da directamente la solución, si la hay única)

ambas permiten dilucidar si el sistema es compatible o incompatible y obtener fácilmente la solución o las soluciones

52
𝕂
𝕂
Ejemplos:

x1 + 3x2 + x3 = − 3
3x1 + 9x2 + 4x3 = − 7
2x1 − x2 + x3 = 6

1. e2 − 3e1

2. e3 − 3e1

x1 +3x2 +x3 = −3
3. e2 ↔ e3 En este momento obtenemos una forma escalonada: −7x2 −x3 = 12
x3 = 2

4. e1 − e3

5. e2 + e3

−1
6. e
7 2

x1 = 1
7. e1 − 3e2 Obtenemos la forma escalonada reducida que nos da directamente la solución única: x2 = −2
x3 = 2

En este proceso hemos “escrito” repetidamente símbolos innecesarios: x1, x2, x3, + , =

Podemos eliminar los símbolos, escribiendo únicamente los coeficientes, respetando la “posición” de las incógnitas

53
Matrices
Disposición rectangular de coeficientes (y términos independientes), encerrada entre paréntesis:

a11 a12 ⋯ a1n


a21 a22 ⋯ a2n
Matriz de los coeficientes del sistema: ∈ Mm×n( )
⋮ ⋮ ⋱ ⋮
am1 am2 ⋯ amn

a11 a12 ⋯ a1n b1


a21 a22 ⋯ a2n b2
Matrix ampliada del sistema: ∈ Mm×n+1( )
⋮ ⋮ ⋱ ⋮ ⋮
am1 am2 ⋯ amn bm

Las operaciones elementales que realizamos con las ecuaciones pueden hacerse con las filas de la matriz ampliada

Ejemplo: El sistema del ejemplo anterior anterior puede representarse por la matriz:

1 3 1 −3
3 9 4 −7
2 −1 1 6

−1
y realizando sobre ella la secuencia de operaciones elementales e2 − 3e1, e3 − 3e1, e2 ↔ e3, e1 − e3, e2 + e3, e y e − 3e2 obtenemos
7 2 1
1 0 0 1
(0 0 1 2 )
0 1 0 −2
𝕂
𝕂
54
¿Cuándo una matriz está en forma escalonada?

1. Puede trazarse una “escalera” descendente

2. Cada “peldaño” tiene altura 1 y está a la derecha del anterior

3. Bajo la “escalera” todos los elementos de la matriz son nulos

4. En cada esquina de un “peldaño” hay un elemento no nulo, llamado pivote

¿Cuándo una matriz está en forma escalonada reducida?

1. Está en forma escalonada

2. Cada pivote es la unidad

3. Sobre cada pivote los elementos son nulos

Ejemplos:

x1 = − 3 + λ
x1 + 3x2 − x3 + x4 = 1 1 3 −1 1 1 1 0 −1 0 −3
( 0 1 0 −1 0) (0 0 0 1 1 )
x2 = 1
−2x1 + x2 + 2x3 = 7 ⟶ −2 1 2 0 7 ⟶ 0 1 0 0 1 ⟶
x3 = λ
x2 − x4 = 0
x4 = 1

2
x1 − x2 + x3 = 1 1 −1 1 1 1 0 3
0

(2 −2 2 3)
2x1 + x2 + x3 = 0 ⟶ 2 1 1 0 ⟶ 0 1 − 13 0 ¡SISTEMA INCOMPATIBLE!
2x1 − 2x2 + 2x3 = 3
0 0 0 1

55
Teorema de Rouché-Frobenius (1.0)
Siendo:

A = matriz de coeficientes de un sistema de ecuaciones lineales

p = número de peldaños de una matriz escalonada de A

A = matriz ampliada del sistema de ecuaciones lineales

p = número de peldaños de una matriz escalonada de A

n = número de incógnitas del sistema

Un sistema de ecuaciones lineales es:

I. compatible determinado ⟺ p=p=n

II. compatible indeterminado ⟺ p=p<n

III. incompatible ⟺ p≠p (p + 1 = p)

Nota: Un sistema homogéneo siempre admite la solución trivial 0,0,⋯,0 y es por tanto siempre compatible (p = p)

Si admite alguna más, es compatible indeterminado (p = p < n).

Si solamente admite la trivial es compatible determinado (p = p = n)

56
Ejemplos

x + 2y = 0
+ 0 1 2 . 0 1 2
Resolver en ℤ3 = {0,1,2} 2x + y + z = 1
2y + z = 2
0 0 1 2 0 0 0 0

1 1 2 0 1 0 1 2

1 2 0 0 1 2 0 0 1 2 0 0
(0 2 1 2) (0 1 2 1) (0 0 1 1)
2 2 0 1 2 0 2 1
⟶ 2 1 1 1 ⟶ 0 0 1 1 ⟶ 0 1 2 1

1 2 0 0 1 0 0 2 x=2

(0 0 1 1) (0 0 1 1)
⟶ 0 1 0 2 ⟶ 0 1 0 2 ⟹ y=2
z=1

x+y+z =0 + 0 1 . 0 1
Resolver en ℤ2 = {0,1} y+z =1
x+y =1 0 0 1 0 0 0

1 1 1 0 1 1 1 0 1 0 0 1 1 1 0 1 0 1

(1 1 0 1) (0 0 1 1) (0 0 1 1)
⟶ 0 1 1 1 ⟶ 0 1 1 1 ⟶ 0 1 1 1

1 0 0 1 x=1

(0 0 1 1)
⟶ 0 1 0 0 ⟹ y=0
z=1

57
Sección 2

Rango de una matriz


Vectores
Podemos agrupar las soluciones de un sistema lineal, s1, s2, ⋯, sn ∈ , en un único objeto que denominaremos vector
n
Definimos el conjunto (de los vectores) = {(x1, x2, ⋯, xn) | xi ∈ , i ∈ {1,2,⋯, n}}

Componentes de un vector: x1, primera componente; x2, segunda componente; .... ;xn, n-ésima componente

Vector cero: 0 = (0,0,⋯,0)

y = (y1, y2, ⋯, yn) }


x = (x1, x2, ⋯, xn)
Igualdad de vectores: x = y ⟺ ∀i ∈ {1,2,⋯, n}, xi = yi

Llamaremos vectores fila y vectores columna de una matriz a cada una de sus filas y columnas

Según interese, escribiremos indistintamente los vectores vertical u horizontalmente, y los podremos considerar matrices:

x1
n
x2 n
x = (x1, x2, ⋯, xn), x ∈ x ∈ M1×n( ) x= ,x ∈ x ∈ Mn×1( )

xn
𝕂
58
𝕂
𝕂
𝕂
𝕂
𝕂
𝕂
Definimos una ley de composición interna y otra externa, que denominaremos suma de vectores y producto por un escalar:
n n n
+: × → x + y = (x1 + y1, x2 + y2, ⋯, xn + yn)
n n
⋅: × → α ⋅ x = (αx1, αx2, ⋯, αxn)

Propiedades:

I. La suma es un grupo conmutativo

A. 0 = (0,0,⋯,0) es el elemento neutro

B. El elemento opuesto de cada x = (x1, x2, ⋯, xn) es (−x) = (−x1, − x2, ⋯, − xn)
n
II. ∀α ∈ , ∀x, y ∈ , α ⋅ (x + y) = α ⋅ x + α ⋅ y
n
III. ∀α, β ∈ , ∀x ∈ , (α + β) ⋅ x = α ⋅ x + β ⋅ x
n
IV. ∀α, β ∈ , ∀x ∈ , (αβ) ⋅ x = α(β ⋅ x)
n
V. ∀x ∈ ,1 ⋅ x = x

n
A. ∀x ∈ ,0 ⋅ x = 0 ∧ ∀α ∈ ,α ⋅ 0 = 0
n
B. ∀x ∈ , − x = (−1) ⋅ x

Notas:
n
Llamaremos posteriormente a esta estructura algebraica espacio vectorial ( ,+,⋅)

Nótese que son precisamente estas operaciones las que hemos utilizado, con los vectores fila, en el método de Gauss

59
𝕂
𝕂
𝕂
𝕂
𝕂
𝕂
𝕂
𝕂
𝕂
𝕂
𝕂
𝕂
𝕂
𝕂
𝕂
𝕂
𝕂
Dependencia e independencia lineal

n n
Combinación lineal: x ∈ es combinación lineal de x1, x2, ⋯, xk ∈ ⟺ ∃α1, α2, ⋯, αk ∈ , x = α1 ⋅ x1 + α2 ⋅ x2 + ⋯ + αk ⋅ xk

o también: 0 = (−1) ⋅ x + α1 ⋅ x1 + α2 ⋅ x2 + ⋯ + αk ⋅ xk.

0 es combinación lineal de cualquier conjunto de vectores: 0 = 0 ⋅ x1 + 0 ⋅ x2 + ⋯ + 0 ⋅ xn

Dependencia lineal:
n
I. El conjunto de vectores {x1, x2, ⋯, xk} ⊂ es linealmente dependiente o ligado

⟺ ∃α1, α2, ⋯, αk ∈ no todos nulos que α1 ⋅ x1 + α2 ⋅ x2 + ⋯ + αk ⋅ xk = 0


n
II. El conjunto de vectores {x1, x2, ⋯, xk} ⊂ es linealmente independiente o libre si no es ligado

⟺ α1 ⋅ x1 + α2 ⋅ x2 + ⋯ + αk ⋅ xk = 0 ⟹ α1 = α2 = ⋯ = αn = 0

60
𝕂
𝕂
𝕂
𝕂
𝕂
𝕂
Ejemplos:

Determinar si {(2,1), (1,1)} es libre o ligado.

{ α + β = 0}
2α + β = 0
α ⋅ (2,1) + β ⋅ (1,1) = (0,0) ⟺ (2α, α) + (β, β) = (0,0) ⟺ (2α + β, α + β) = (0,0) ⟺ (sistema homogéneo 2x2)

(1 1 0) (2 1 0) (0 −1 0) (0 1 0)
2 1 0 1 1 0 1 1 0 1 1 0
⟶ ⟶ ⟶ (sistema compatible determinado, solución única (0,0))

El conjunto es libre

Determinar si {(1,1,3), (0,1,2), (1,2,5)} es libre o ligado.

α+γ =0
α ⋅ (1,1,3) + β ⋅ (0,1,2) + γ(1,2,5) = (0,0,0) ⟺ (α + γ, α + β + 2γ,3α + 2β + 5γ) = (0,0,0) ⟺ α + β + 2γ = 0 (S.H. 3x3)
3α + 2β + 5γ = 0

1 0 1 1 0 1 1 0 1
(3 2 5) (0 2 2) (0 0 0)
1 1 2 ⟶ 0 1 1 ⟶ 0 1 1 (S.C.I, varias soluciones)

El conjunto es ligado

Para determinar si un conjunto de vectores es libre o ligado, basta escribir la matriz cuyas columnas son los vectores dados y
realizar operaciones elementales para encontrar una forma escalonada. El sistema es libre solamente si el número de peldaños
coincide con el de columnas (el número de vectores dados), siendo ligado en caso contrario

61
Rango

Se denomina rango de un conjunto de vectores al mayor número de elllos que son linealmente independientes

Se denomina rango de una matriz A, r(A), al rango de sus vectores columna

El rango de una matriz coincide con el número de peldaños de una de sus formas escalonadas

Los vectores correspondientes a las columnas pivote (escalones) son linealmente independientes

62
Teorema de Rouché-Frobenius (2.0)
Siendo:

A = matriz de coeficientes de un sistema de ecuaciones lineales

A = matriz ampliada del sistema de ecuaciones lineales

n = número de incógnitas del sistema

Un sistema de ecuaciones lineales es:

I. compatible determinado ⟺ r(A) = r(A ) = n

II. compatible indeterminado ⟺ r(A) = r(A ) < n

III. incompatible ⟺ r(A) ≠ r(A ) ( r(A) + 1 = r(A ) )

63
Estructura de las soluciones
Sea el sistema (†) y su sistema homogéneo asociado (‡) aij, bi ∈ , i ∈ {1,2,⋯, m}, j ∈ {1,2,⋯, n}

a11 ⋅ x1 + a12 ⋅ x2 + ⋯ + a1n ⋅ xn = b1 a11 ⋅ x1 + a12 ⋅ x2 + ⋯ + a1n ⋅ xn = 0


a21 ⋅ x1 + a22 ⋅ x2 + ⋯ + a2n ⋅ xn = b2 a21 ⋅ x1 + a22 ⋅ x2 + ⋯ + a2n ⋅ xn = 0
(†) (‡)
⋮ ⋮
am1 ⋅ x1 + am2 ⋅ x2 + ⋯ + amn ⋅ xn = bm am1 ⋅ x1 + am2 ⋅ x2 + ⋯ + amn ⋅ xn = 0

I. Si u = (u1, u2, ⋯, un), v = (v1, v2, ⋯, vn) son soluciones de (‡) u + v es solución de (‡)

II. Si u = (u1, u2, ⋯, un) es solución de (‡), ∀α ∈ , α ⋅ u es solución de (‡)


n
III. Si (‡) es indeterminado ∃u1, u2, ⋯, uk ∈ linealmente independientes de modo que cualquier solución de (‡) es:

sgh = α1 ⋅ u1 + α2 ⋅ u2 + ⋯ + αk ⋅ uk para algunos α1, α2, ⋯, αk ∈

Además k = n − r(A)

IV. Si w = (w1, w2, ⋯, wn), w′ = (w′1, w′2, ⋯, w′n) son soluciones de (†), w − w′ es solución de (‡)

V. Si w = (w1, w2, ⋯, wn) es solución de (†) y u = (u1, u2, ⋯, un) es solución de (‡), w + u es también solución de (†)

VI. Dada w = (w1, w2, ⋯, wn), solución de (†), cualquier otra solución de (†), w′ = (w′1, w′2, ⋯, w′n), puede escribirse:

w′ = w + sgh = w + α1 ⋅ u1 + α2 ⋅ u2 + ⋯ + αk ⋅ ukpara algunos α1, α2, ⋯, αk ∈

A la expresión u + α1 ⋅ u1 + α2 ⋅ u2 + ⋯ + αk ⋅ uk se le denomina solución general del sistema (†), siendo u una solución particular

64


𝕂



𝕂
𝕂
𝕂





𝕂
Sección 3

Operaciones con matrices


Aplicaciones lineales

a11 a12 ⋯ a1n


a21 a22 ⋯ a2n n m
Aplicación lineal asociada a la matriz F = ∈ Mm×n( ) es la aplicación f : → que
⋮ ⋮ ⋱ ⋮
am1 am2 ⋯ amn

a11x1 + a12 x2 + ⋯ + a1n xn


a21x1 + a22 x2 + ⋯ + a2n xn n
f (x) = f (x1, x2, ⋯, xn) = ∀x = (x1, x2, ⋯, xn) ∈

am1x1 + am2 x2 + ⋯ + amn xn

o bien f (x) = f (x1, x2, ⋯, xn) = (a11x1 + a12 x2 + ⋯ + a1n xn, a21x1 + a22 x2 + ⋯ + a2n xn, ⋯ , am1x1 + am2 x2 + ⋯ + amn xn)

Propiedades:
n
I. ∀x, y ∈ , f (x + y) = f (x) + f (y)
n
II. ∀x ∈ , ∀α ∈ , f (αx) = α f (x)
𝕂
65
𝕂
𝕂
𝕂
𝕂
𝕂
𝕂
Ejemplos:

(1 0)
0 1
Para F = la aplicación lineal asociada es f : R2 → R2,f (x, y) = (0x + 1y, 1x + 0y) = (y, x)

y es el punto (vector) simétrico de cada (x, y) ∈ R2 respecto de la recta y = x

66
1 0 0
(0 0 0)
Para F = 0 1 0 la aplicación lineal asociada es f : R3 → R3, f (x, y, z) = (x + 0y + 0z, 0x + 1y + 0z, 0x + 0y + 0z) = (x, y, 0)

y es la proyección de cada punto (vector) (x, y, z) ∈ R3 sobre el plano z = 0

67
La imagen de la recta r = r0 + λv (que pasa por r0 y tiene la dirección de v), por una aplicación lineal f : ℝ2 → ℝ2 (o f : ℝ3 → ℝ3)
es:

f (r) = f (r0 + λv) = f (r0) + λ f (v)

es decir, la recta que pasa por f (r0) y tiene la dirección de f (v)

Ejemplo:

(1 2)
2 1
Para F = , la imagen del cuadrado de vértices(0,0), (0,1), (1,1), (1,0) es

f

68
Teorema:
n m
Sea f : → una aplicación que:
n
I. ∀x, y ∈ , f (x + y) = f (x) + f (y)
n
II. ∀x ∈ , ∀α ∈ , f (αx) = α f (x)

⟹ f es una aplicación lineal cuya matriz está formada por las columnas f (1,0,0,⋯,0), f (0,1,0,⋯,0), f (0,0,1,⋯,0), ⋯, f (0,0,0,⋯,1)

Demostración:

Como x = (x1, x2, ⋯, xn) = (x1,0,⋯,0) + (0,x2, ⋯,0) + (0,0,⋯, xn) = x1(1,0,⋯,0) + x2(0,1,⋯,0) + xn(0,0,⋯,1),

f (x) = f (x1, x2, ⋯, xn) = f (x1(1,0,⋯,0) + x2(0,1,⋯,0) + xn(0,0,⋯,1)) = x1 f (1,0,⋯,0) + x2 f (0,1,⋯,0) + xn f (0,0,⋯,1)

Siendo f (1,0,⋯,0) = (a11, a21, ⋯, am1), f (0,1,⋯,0) = (a12, a22, ⋯, am2), ⋯, f (0,0,⋯,1) = (a1n, a2n, ⋯, amn),

f (x1, x2, ⋯, xn) = (a11x1 + a12 x2 + ⋯ + a1n xn, a21x1 + a22 x2 + ⋯ + a2n xn, ⋯ , am1x1 + am2 x2 + ⋯ + amn xn)

a11 a12 ⋯ a1n


a21 a22 ⋯ a2n
y por tanto su matriz asociada es F= ∈ Mm×n( )
⋮ ⋮ ⋱ ⋮
am1 am2 ⋯ amn
𝕂
69
𝕂
𝕂
𝕂
𝕂
𝕂
Ejemplo:

Sabiendo que un giro de un ángulo α en R2 es una aplicación lineal, encontrar su matriz

f

( sin α cos α )
g(1,0) = (cos α, sin α) cos α −sin α
⟹ G=
g(0,1) = (−sin α, cos α)

70
Operaciones con aplicaciones lineales

n m n m
Llamando m×n = ( , ) al conjunto de aplicaciones lineales f : → (f∈ m×n ) podemos definir
n
+: m×n × m×n → m×n ∀f, g ∈ m×n, ∀x ∈ , ( f + g)(x) = f (x) + g(x)
n
⋅: × m×n → m×n ∀f ∈ m×n, ∀α ∈ , ∀x ∈ , (α f )(x) = α f (x)

Efectivamente ( f + g) y (α f ) son aplicaciones lineales:

I. ( f + g)(x + y) = f (x + y) + g(x + y) = f (x) + f (y) + g(x) + g(y) = ( f + g)(x) + ( f + g)(y)

II. ( f + g)(λ x) = f (λ x) + g(λ x) = λ f (x) + λg(x) = λ( f (x) + g(x)) = λ( f + g)(x)

I. (α f )(x + y) = α f (x + y) = α( f (x) + f (y)) = α f (x) + α f (y) = (α f )(x) + (α f )(y)

II. (α f )(λ x) = α f (λ x) = α(λ f (x)) = (αλ)f (x) = (λα)f (x) = λ(α f (x)) = λ(α f )(x)

71
𝕃
𝕂
𝕂
𝕃
𝕃
𝕃
𝕃
𝕃
𝕃
𝕂
𝕂
𝕃
𝕂
𝕃
𝕂
𝕂
𝕃
𝕂
a11 a12 ⋯ a1n b11 b12 ⋯ b1n
a21 a22 ⋯ a2n b b ⋯ b2n
Si las matrices de f, g son respectivamente F, G F= , G = 21 22
⋮ ⋮ ⋱ ⋮ ⋮ ⋮ ⋱ ⋮
am1 am2 ⋯ amn bm1 bm2 ⋯ bmn

Las columnas de las matrices de f + g y de α f son

a11 b11 a11 + b11 a11 αa11


a21 b a + ba21 a21 αa21
( f + g)(1,0,⋯,0) = f (1,0,⋯,0) + g(1,0,⋯,0) = + 21 = 21 (α f )(1,0,⋯,0) = α f (1,0,⋯,0) = α =
⋮ ⋮ ⋮ ⋮ ⋮
am1 bm1 am1 + bm1 am1 αam1

a12 b12 a12 + b12 a12 αa12


a22 b a + ba22 a22 αa22
( f + g)(0,1,⋯,0) = f (0,1,⋯,0) + g(0,1,⋯,0) = + 22 = 22 (α f )(0,1,⋯,0) = α f (0,1,⋯,0) = α =
⋮ ⋮ ⋮ ⋮ ⋮
am2 bm2 am2 + bm2 am2 αam2

⋮ ⋮

a1n b1n a1n + b1n a1n αa1n


a2n b a + ba2n a2n αa2n
( f + g)(0,0,⋯,1) = f (0,0,⋯,1) + g(0,0,⋯,1) = + 2n = 2n (α f )(0,0,⋯,1) = α f (0,0,⋯,1) = α =
⋮ ⋮ ⋮ ⋮ ⋮
amn bmn amn + bmn amn αamn

a11 + b11 a12 + b12 ⋯ a1n + b1n αa11 αa12 ⋯ αa1n


a21 + b21 a22 + b22 ⋯ a2n + b2n αa21 αa22 ⋯ αa2n
La matriz de f + g es y la de α f es
⋮ ⋮ ⋱ ⋮ ⋮ ⋮ ⋱ ⋮
am1 + bm1 am2 + bm2 ⋯ amn + bmn αam1 αam2 ⋯ αamn

72
Operaciones con matrices
En Mm×n( ) podemos definir

a11 + b11 a12 + b12 ⋯ a1n + b1n


a + b21 a22 + b22 ⋯ a2n + b2n
+ : Mm×n( ) × Mm×n( ) → Mm×n( ) ∀F, G ∈ Mm×n( ), F + G = 21
⋮ ⋮ ⋱ ⋮
am1 + bm1 am2 + bm2 ⋯ amn + bmn

αa11 αa12 ⋯ αa1n


αa21 αa22 ⋯ αa2n
⋅: × Mm×n( ) → Mm×n( ) ∀F ∈ Mm×n( ), ∀α ∈ , αF =
⋮ ⋮ ⋱ ⋮
αam1 αam2 ⋯ αamn

a11 a12 ⋯ a1n b11 b12 ⋯ b1n


a21 a22 ⋯ a2n b b ⋯ b2n
siendo F = , G = 21 22
⋮ ⋮ ⋱ ⋮ ⋮ ⋮ ⋱ ⋮
am1 am2 ⋯ amn bm1 bm2 ⋯ bmn
𝕂
𝕂
𝕂
73
𝕂
𝕂
𝕂
𝕂
𝕂
𝕂
𝕂
Propiedades de la suma y el producto externo de aplicaciones lineales (y de matrices)

I. La suma es un grupo conmutativo

0 0 ⋯ 0
0 0 ⋯ 0
{
0 ∈ Mm×n( ),0 = Mm×n( )
A. ⋮ ⋮ ⋱ ⋮ es el elemento neutro de
0 0 ⋯ 0 m×n

0 ∈ m×n, ∀x ∈ n,0(x) = (0,0,⋯,0)

a11 a12 ⋯ a1n −a11 −a12 ⋯ −a1n


a21 a22 ⋯ a2n −a21 −a22 ⋯ −a2n
F= −F =
B. El elemento opuesto de cada ⋮ ⋮ ⋱ ⋮ es ⋮ ⋮ ⋱ ⋮
am1 am2 ⋯ amn −am1 −am2 ⋯ −amn
n m n
f: → −f ∈ m×n, ∀x ∈ , (−f )(x) = − f (x)

{ ∀α ∈ K, ∀f, g ∈ m×n, α ⋅ ( f + g) = α ⋅ f + α ⋅ g
∀α ∈ K, ∀F, G ∈ Mm×n( ), α ⋅ (F + G) = α ⋅ F + α ⋅ G
II.

{ ∀α, β ∈ , ∀f ∈ m×n, (α + β) ⋅ f = α ⋅ f + β ⋅ f
∀α, β ∈ , ∀F ∈ Mm×n( ), (α + β) ⋅ F = α ⋅ F + β ⋅ F
III.

{ ∀α, β ∈ , ∀f ∈ m×n, (αβ) ⋅ f = α(β ⋅ f )


∀α, β ∈ , ∀F ∈ Mm×n( ), (αβ) ⋅ F = α(β ⋅ F )
IV.

{ ∀f ∈ m×n, 1 ⋅ f = f
∀F ∈ Mm×n( ), 1 ⋅ F = F
V.

{ ∀f ∈ m×n, 0 ⋅ f = 0 ∧ ∀α ∈ , α ⋅ 0 = 0 { ∀f ∈ m×n, − f = (−1) ⋅ f


∀F ∈ Mm×n( ), 0 ⋅ F = 0 ∧ ∀α ∈ , α ⋅ 0 = 0 ∀F ∈ Mm×n( ), − F = (−1) ⋅ F
Y además:
𝕂
𝕃
𝕂
𝕂
𝕃
𝕂
𝕂
74
𝕂
𝕂
𝕃
𝕃
𝕃
𝕃
𝕃
𝕃
𝕂
𝕃
𝕂
𝕂
𝕂
𝕂
𝕂
𝕂
𝕂
𝕂
𝕂
𝕂
Composición de aplicaciones lineales
a11 a12 ⋯ a1n b11 b12 ⋯ b1m
a21 a22 ⋯ a2n b b ⋯ b2m
Sean f∈ m×n, g ∈ p×m de matrices F = , G = 21 22
⋮ ⋮ ⋱ ⋮ ⋮ ⋮ ⋱ ⋮
am1 am2 ⋯ amn bp1 bp2 ⋯ bpm

La composición de aplicaciones lineales g ∘ f ∈ p×n es una aplicación lineal:

n
I. ∀x, y ∈ , (g ∘ f )(x + y) = g( f (x + y)) = g( f (x) + f (y)) = g( f (x)) + g( f (y)) = (g ∘ f )(x) + (g ∘ f )(y)
n
II. ∀x ∈ , ∀α ∈ (g ∘ f )(αx) = g( f (αx)) = g(α f (x)) = αg( f (x)) = α(g ∘ f )(x)

La columna j ∈ {1,2,⋯, n} de su matriz es:

b11a1j + b12a2j + ⋯ + b1m amj


b21a1j + b22a2j + ⋯ + b2m amj
(g ∘ f )(0,0,⋯,1,⋯,0) = g( f (0,0,⋯,1,⋯,0)) = g(a1j, a2j, ⋯, amj ) =

bp1a1j + bp2a2j + ⋯ + bpm amj

b11a11 + b12a21 + ⋯ + b1m am1 b11a12 + b12a22 + ⋯ + b1m am2 ⋯ b11a1n + b12a2n + ⋯ + b1m amn
b a + b22a21 + ⋯ + b2m am1 b21a12 + b22a22 + ⋯ + b2m am2 ⋯ b21a1n + b22a2n + ⋯ + b2m amn
y la matriz de g ∘ f es 21 11 ∈ Mp×n( )
⋮ ⋮ ⋱ ⋮
bp1a11 + bp2a21 + ⋯ + bpm am1 bp1a12 + bp2a22 + ⋯ + bpm am2 ⋯ bp1a1n + bp2a2n + ⋯ + bpm amn

𝕂
75
𝕃
𝕂
𝕃
𝕂
𝕃
𝕂
Producto de matrices

a11 a12 ⋯ a1n b11 b12 ⋯ b1m


a21 a22 ⋯ a2n b b ⋯ b2m
Siendo las matrices F = ∈ Mm×n( ), y G = 21 22 ∈ Mp×m( ) se define el producto de ambas
⋮ ⋮ ⋱ ⋮ ⋮ ⋮ ⋱ ⋮
am1 am2 ⋯ amn bp1 bp2 ⋯ bpm

b11a11 + b12a21 + ⋯ + b1m am1 b11a12 + b12a22 + ⋯ + b1m am2 ⋯ b11a1n + b12a2n + ⋯ + b1m amn
b a + b22a21 + ⋯ + b2m am1 b21a12 + b22a22 + ⋯ + b2m am2 ⋯ b21a1n + b22a2n + ⋯ + b2m amn
G ⋅ F = 21 11 ∈ Mp×n
⋮ ⋮ ⋱ ⋮
bp1a11 + bp2a21 + ⋯ + bpm am1 bp1a12 + bp2a22 + ⋯ + bpm am2 ⋯ bp1a1n + bp2a2n + ⋯ + bpm amn

de modo que el elemento situado en la fila i ∈ {1,2,⋯, p}, columna j ∈ {1,2,⋯, n} del resultado C = G ⋅ F es
m


cij = bi1a1j + bi2a2j + ⋯ + bim amj = bik akj
k=1

De este modo, la matriz de la aplicación lineal g ∘ f es la matriz G ⋅ F (siendo G, F las matrices de g, f , resp.)
𝕂
𝕂
76
j j
↓ ↓
⋯ ⋯ ⋯ ⋯ ⋯ ⋯ ⋯ ★ ⋯ ⋯ ⋯ ⋯ ⋯ ⋯ ⋯
⋮ ⋮ ⋱ ⋮ ⋮ ⋮ ⋮ ★ ⋮ ⋮ ⋮ ⋮ ⋮ ⋮ ⋮
G⋅F = i→ ★ ★ ⋯ ★ ★ ⋅ ⋮ ⋮ ⋮ ⋮ ⋮ = ⋮ ⋮ ★ ⋮ ⋮ ←i
⋮ ⋮ ⋱ ⋮ ⋮ ⋮ ⋮ ★ ⋮ ⋮ ⋮ ⋮ ⋮ ⋮ ⋮
⋯ ⋯ ⋯ ⋯ ⋯ ⋯ ⋯ ★ ⋯ ⋯ ⋯ ⋯ ⋯ ⋯ ⋯

⋯ ⋯ ★ ⋯ ⋯
⋮ ⋮ ★ ⋮ ⋮
⋮ ⋮ ⋮ ⋮ ⋮
⋮ ⋮ ★ ⋮ ⋮
⋮ ⋮ ★ ⋮ ⋮
⋯ ⋯ ★ ⋯ ⋯

⋯ ⋯ ⋯ ⋯ ⋯ ⋯ ⋯ ⋯ ⋯ ⋯ ⋯
⋮ ⋮ ⋱ ⋮ ⋮ ⋮ ⋮ ⋮ ⋮ ⋮ ⋮
★ ★ ⋯ ★ ★ ★ ⇒ ⋮ ⋮ ★ ⋮ ⋮
⋮ ⋮ ⋱ ⋮ ⋮ ⋮ ⋮ ⋮ ⋮ ⋮ ⋮
★ ★ ⋯ ★ ★ ★ ⇒ ⋮ ⋮ ★ ⋮ ⋮
⋮ ⋮ ⋱ ⋮ ⋮ ⋮ ⋮ ⋮ ⋮ ⋮ ⋮
⋯ ⋯ ⋯ ⋯ ⋯ ⋯ ⋯ ⋯ ⋯ ⋯ ⋯

77
Propiedades:

En el producto de matrices, al igual que en la composición de funciones, el orden está determinado, y cuando es posible

(0 2) (2 1) (4 2) (2 1) (0 2) (2 2)
1 0 1 1 1 1 1 1 1 0 1 2
cambiarlo, ni el producto ni la composición son conmutativos: ⋅ = ≠ ⋅ =

(0 0) (3 4) (0 0) (0 0) (4 3) (0 0) (3 4) (4 3)
1 0 1 2 1 2 1 0 1 2 1 2 1 2 1 2
El producto de matrices no es cancelativo: ⋅ = ∧ ⋅ = ∧ ≠

{(H ⋅ G) ⋅ F = H ⋅ (G ⋅ F )
(h ∘ g) ∘ f = h ∘ (g ∘ f )
I.

{H ⋅ (G + F ) = H ⋅ G + H ⋅ F
h ∘ (g + f ) = h ∘ g + h ∘ f
II.

{(H + G) ⋅ F = H ⋅ F + G ⋅ F
(h + g) ∘ f = h ∘ f + g ∘ f
III.

{(αG) ⋅ F = G ⋅ (αF ) = α(G ⋅ F )


(αg) ∘ f = g ∘ (α f ) = α(g ∘ f )
IV.

78
Sistemas de ecuaciones, matrices y aplicaciones lineales

a11 ⋅ x1 + a12 ⋅ x2 + ⋯ + a1n ⋅ xn = b1


a21 ⋅ x1 + a22 ⋅ x2 + ⋯ + a2n ⋅ xn = b2
Sistema de ecuaciones lineales:

am1 ⋅ x1 + am2 ⋅ x2 + ⋯ + amn ⋅ xn = bm

a11x1 + a12 x2 + ⋯ + a1n xn


a21x1 + a22 x2 + ⋯ + a2n xn
Aplicación lineal: f (x) = f (x1, x2, ⋯, xn) =

am1x1 + am2 x2 + ⋯ + amn xn

El sistema puede escribirse:

f (x) = b f (x1, x2, ⋯, xn) = (b1, b2, ⋯, bm)

a11 a12 ⋯ a1n x1 b1


a21 a22 ⋯ a2n x2 b
F⋅x =b ⋅ = 2
⋮ ⋮ ⋱ ⋮ ⋮ ⋮
am1 am2 ⋯ amn xn bm

¿Cómo es el sistema según f sea inyectiva, sobreyectiva o biyectiva?

Solución/soluciones del sistema: f −1({b})

79
Sección 4

Inversa de una matriz


Inversa de una aplicación lineal

n m
La aplicación lineal f : → admite inversa ⟺ ∃f −1 : m
→ n
, f −1 ∘ f = i n ∧ f ∘ f −1 = i m

Veremos más adelante que solamente admitirán inversa (algunas) aplicaciones lineales cuando n = m

La aplicación inversa f −1 es lineal†:

I. f ( f −1(x + y)) = x + y = f ( f −1(x)) + f ( f −1(y)) = f ( f −1(x) + f −1(y)) ⟹ f −1(x + y) = f −1(x) + f −1(y)

II. f ( f −1(αx)) = αx = α f ( f −1(x)) = f (α f −1(x)) ⟹ f −1(αx) = α f −1(x)

Si F ∈ Mn×n( )‡ es la matriz (cuadrada) de f (invertible), a la matriz de f −1 la denominaremos matriz inversa F −1 ∈ Mn×n( ) y:

1 0 ⋯ 0
0 1 ⋯ 0
F ⋅ F −1 = F −1 ⋅ F = In = (matriz de i n)
⋮ ⋮ ⋱ ⋮
0 0 ⋯ 1

y diremos que la matriz F es invertible, regular o no singular



Recuérdese que las únicas aplicaciones que admiten inversa son las biyectivas, y que la inversa cuando existe es única

Conjunto a veces denominado Mn( )

80
𝕂
𝕂
𝕂
𝕂
𝕂
𝕂
𝕂
𝕂
𝕂
𝕂
Cálculo de la inversa de una matriz

a11 a12 ⋯ a1n b11 b12 ⋯ b1n


a21 a22 ⋯ a2n b b ⋯ b2n
Sea la matriz F = ∈ Mn×n( ), su inversa F −1 = 21 22 ∈ Mn×n( ) verificará:
⋮ ⋮ ⋱ ⋮ ⋮ ⋮ ⋱ ⋮
an1 an2 ⋯ ann bn1 bn2 ⋯ bnn

a11 a12 ⋯ a1n b11 b12 ⋯ b1n 1 0 ⋯ 0


a21 a22 ⋯ a2n b b ⋯ b2n 0 1 ⋯ 0
F ⋅ F −1 = In ⟺ ⋅ 21 22 = , es decir
⋮ ⋮ ⋱ ⋮ ⋮ ⋮ ⋱ ⋮ ⋮ ⋮ ⋱ ⋮
an1 an2 ⋯ ann bn1 bn2 ⋯ bnn 0 0 ⋯ 1

a11 a12 ⋯ a1n b11 1 a11 a12 ⋯ a1n b12 0 a11 a12 ⋯ a1n b1n 0
a21 a22 ⋯ a2n b 0 a21 a22 ⋯ a2n b 1 a21 a22 ⋯ a2n b 0
⋅ 21 = , ⋅ 22 = , ⋯, ⋅ 2n =
⋮ ⋮ ⋱ ⋮ ⋮ ⋮ ⋮ ⋮ ⋱ ⋮ ⋮ ⋮ ⋮ ⋮ ⋱ ⋮ ⋮ ⋮
an1 an2 ⋯ ann bn1 0 an1 an2 ⋯ ann bn2 0 an1 an2 ⋯ ann bnn 1

Tenemos n sistemas de ecuaciones, cada uno de n ecuaciones y n incógnitas†, teniendo todos ellos la misma matriz del sistema.

Si todos ellos son compatibles y determinados, tendremos una (única) matriz inversa:

F es invertible ⟺ r(F ) = n


Las n incógnitas de cada sistema los elementos de una de las columnas de F −1
𝕂
𝕂
81
Para resolverlos, podemos hacer la misma secuencia de operaciones elementales en cada uno de ellos

y resolverlos simultáneamente:

a11 a12 ⋯ a1n 1 0 ⋯ 0 1 0 ⋯ 0 b11 b12 ⋯ b1n


a21 a22 ⋯ a2n 0 1 ⋯ 0 0 1 ⋯ 0 b21 b22 ⋯ b2n
→ ⋯ →
⋮ ⋮ ⋱ ⋮ ⋮ ⋮ ⋱ 0 ⋮ ⋮ ⋱ 0 ⋮ ⋮ ⋱ ⋮
an1 an2 ⋯ ann 0 0 ⋯ 1 0 0 ⋯ 1 bn1 bn2 ⋯ bnn

Inversa de la matriz de un sistema de ecuaciones

a11 a12 ⋯ a1n x1 b1


a21 a22 ⋯ a2n x2 b
Dado el sistema dado por F ∈ Mn×n( ) : F⋅x =b ⋅ = 2
⋮ ⋮ ⋱ ⋮ ⋮ ⋮
an1 an2 ⋯ ann xn bn

Si la matriz F admite inversa (y tiene por tanto rango n) se verifica:

F −1 ⋅ (F ⋅ x) = F −1 ⋅ b (F −1 ⋅ F ) ⋅ x = F −1 ⋅ b In×n ⋅ x = F −1 ⋅ b

es decir x = F−1 ⋅ b

82
𝕂
Ejemplo:

(4 3)
2 1
Calcular la inversa de A =

(x3 x4)
x1 x2
Llamemos A −1 =

Se verificará:

(4 3) ( 3) (0)
21 x1 1
⋅ x =

(4 3) ( 3 4) (0 1)
2 1 x1 x2 1 0
⋅ x x = ⟹ y los resolvemos simultáneamente:

(4 3) ( 4) (1)
21 x2 0
⋅ x =

(4 3 0) (0 1 −2) (0 1 −2) (0 1 −2) {x3 = − 2


2 1 1 2 1 1 20 3 1 0 3/2 x1 = 3/2

( −2 1 )
3/2 −1/2
→ → → ⟹ ⟹ A −1 =

(4 3 1) (0 1 1) (0 1 1) (0 1 1) { x4 = 1
2 1 0 2 1 0 2 0 −1 1 0 −1/2 x2 = − 1/2

O De manera más rápida y práctica:

(4 3 0 1) (0 1 −2 1) (0 1 −2 1 ) (0 1 −2 1 ) ( −2 1 )
2 1 1 0 2 1 1 0 2 0 3 −1 1 0 3/2 −1/2 3/2 −1/2
→ → → ⟹ A −1 =

83
Ampliación de conceptos de matrices

Matriz cuadrada: F ∈ Mn×n( )

Diagonal principal de F ∈ Mn×n( ): a11, a22, ⋯, ann

★ 0 ⋯ 0
0 ★ ⋯ 0
Matriz diagonal F ∈ Mn×n( ): ∀i, j ∈ {1,2,⋯, n}, i ≠ j ⟹ aij = 0
⋮ ⋮ ⋱ ⋮
0 0 ⋯ ★

Matriz identidad In ∈ Mn×n( ): matriz diagonal que además ∀i ∈ {1,2,⋯, n}, aii = 1

84
𝕂
𝕂
𝕂
𝕂
Matriz triangular inferior F ∈ Mm×n( ): ∀i ∈ {1,2,⋯, m}, ∀j ∈ {1,2,⋯, n}, i < j ⟹ aij = 0

★ 0 ⋯ 0
★ ★ ⋯ 0
★ 0 ⋯ 0 0 ⋯ 0
⋮ ⋮ ⋱ ⋮
★ ★ ⋯ 0 0 ⋯ 0
★ ★ ⋯ ★
⋮ ⋮ ⋱ ⋮ ⋮ ⋯ 0
★ ★ ⋯ ★
★ ★ ⋯ ★ 0 ⋯ 0
⋮ ⋮ ⋯ ★
★ ★ ⋯ ★

Matriz triangular superior F ∈ Mm×n( ): ∀i ∈ {1,2,⋯, m}, ∀j ∈ {1,2,⋯, n}, i > j ⟹ aij = 0

★ ★ ⋯ ★
0 ★ ⋯ ★
★ ★ ⋯ ★ ★ ⋯ ★
⋮ ⋮ ⋱ ⋮
0 ★ ⋯ ★ ★ ⋯ ★
0 0 ⋯ ★
⋮ ⋮ ⋱ ⋮ ⋮ ⋯ ★
0 0 ⋯ 0
0 0 ⋯ ★ ★ ⋯ ★
⋮ ⋮ ⋯ 0
0 0 ⋯ 0

Matriz triangular unitaria F ∈ Mm×n( ): matriz triangular que además ∀i ∈ {1,2,⋯, min(m, n)}, aii = 1

1 0 ⋯ 0 1 ★ ⋯ ★
★ 1 ⋯ 0 0 1 ⋯ ★
1 0 ⋯ 0 0 ⋯ 0 1 ★ ⋯ ★ ★ ⋯ ★
⋮ ⋮ ⋱ ⋮ ⋮ ⋮ ⋱ ⋮
★ 1 ⋯ 0 0 ⋯ 0 0 1 ⋯ ★ ★ ⋯ ★
★ ★ ⋯ 1 0 0 ⋯ 1
⋮ ⋮ ⋱ ⋮ ⋮ ⋯ 0 ⋮ ⋮ ⋱ ⋮ ⋮ ⋯ ★
★ ★ ⋯ ★ 0 0 ⋯ 0
★ ★ ⋯ 1 0 ⋯ 0 0 0 ⋯ 1 ★ ⋯ ★
⋮ ⋮ ⋯ ★ ⋮ ⋮ ⋯ 0
★ ★ ⋯ ★ 0 0 ⋯ 0

85
𝕂
𝕂
𝕂
⟵ k ⟶
† 2 3 2 k k−1
Potencias de matrices F ∈ Mn×n( ) : F =F⋅F F =F ⋅F =F⋅F⋅F F =F ⋅F =F⋅F⋅⋯⋅F (k ∈ N)
⟵ k ⟶
−2 −1 −1 −k −(k−1) −1 −1 −1 −1
F =F ⋅F F =F ⋅F =F ⋅F ⋅⋯⋅F (k ∈ N)

Potencias negativas solo si F es invertible F 0 = In ∀k, l ∈ Z, F k+l = F k ⋅ F l

Matriz transpuesta de F ∈ Mm×n( ): F T ∈ Mn×m( ) ∀i ∈ {1,2,⋯, n}, ∀j ∈ {1,2,⋯, m}, bij = aji

★ ★ ⋯ ★
★ ⨀ ⋯ ⨁ ⨂
⨀ ⨀ ⋯ ⨀
★ ⨀ ⋯ ⨁ ⨂
F= ⟹ FT = ⋮ ⋮ ⋱ ⋮
⋮ ⋮ ⋱ ⋮ ⋮ ⨁ ⨁ ⋯ ⨁
★ ⨀ ⋯ ⨁ ⨂
⨂ ⨂ ⋯ ⨂

Matriz transpuesta hermitiana de F ∈ Mm×n(C): F H ∈ Mn×m(C) ∀i ∈ {1,2,⋯, n}, ∀j ∈ {1,2,⋯, m}, bij = aji

Propiedades:

I. (F T )T = F (F H )H = F

II. (F + G)T = F T + G T (F + G)H = F H + G H

III. (αF )T = αF T (αF )H = αF H

IV. (F ⋅ G)T = G T ⋅ F T (F ⋅ G)H = G H ⋅ F H

86
𝕂
𝕂
𝕂
F ∈ Mn×n( ) es una matriz simétrica ⟺ F = FT

F ∈ Mn×n( ) es una matriz antisimétrica ⟺ F = − FT

F ∈ Mn×n(C) es una matriz hermítica (o hermitiana) ⟺ F = FH

F ∈ Mn×n( ) es una matriz idempotente ⟺ F2 = F

F ∈ Mn×n( ) es una matriz involutiva ⟺ F2 = I ( ⟺ F = F −1)

Propiedades:

I. F ∈ Mm×m( ), G ∈ Mm×n( ), F simétrica ⟹ G T ⋅ F ⋅ G ∈ Mn×n es simétrica

II. F ∈ Mm×m(C), G ∈ Mm×n(C), F hermítica ⟹ G H ⋅ F ⋅ G ∈ Mn×n es hermítica

III. F ∈ Mm×n( ) ⟹ F T ⋅ F ∈ Mn×n y F ⋅ F T ∈ Mm×m son simétricas

IV. F ∈ Mn×n( ) ⟹ F + F T ∈ Mn×n es simétrica

V. F ∈ Mn×n( ) ⟹ F − F T ∈ Mn×n es antisimétrica

1 1
VI. F ∈ Mn×n( ) ⟹ F= (F + F T ) + (F − F T ) ∈ Mn×n
2 2

VII. F ∈ Mn×n( ) invertible ⟹ F T invertible y (F T )−1 = (F −1)T

VIII. F ∈ Mn×n(C) invertible ⟹ F H invertible y (F H )−1 = (F −1)H

87
𝕂
𝕂
𝕂
𝕂
𝕂
𝕂
𝕂
𝕂
𝕂
𝕂
𝕂
a11 a12 ⋯ a1n fF1
a21 a22 ⋯ a2n f
Matriz particionada por filas: F= = F2 con fFi = (ai1 ai2 ⋯ ain)
⋮ ⋮ ⋱ ⋮ ⋮
am1 am2 ⋯ amn fFm

a11 a12 ⋯ a1n a1i


a21 a22 ⋯ a2n a2i
Matriz particionada por columnas: F= = (cF1 cF2 ⋯ cFn) con cFi =
⋮ ⋮ ⋱ ⋮ ⋮
am1 am2 ⋯ amn ami

Producto de matrices mediante matrices particionadas: G ∈ Mp×m( ), F ∈ Mm×n( ), G ⋅ F ∈ Mp×n( )

fF1 b1i b1i ai1 b1i ai2 ⋯ b1i ain

G ⋅ F = (cG1 cG2 ⋯ cGm) ⋅ fF2 = cG1 ⋅ fF1 + cG2 ⋅ fF2 + ⋯ + cGm ⋅ fFm b b a b a
cGi ⋅ fFi = 2i ⋅ (ai1 ai2 ⋯ ain) = 2i i1 2i i2
⋯ b2i ain
⋮ ⋮ ⋮ ⋮ ⋱ ⋮
bpi bpi ai1 bpi ai2 ⋯ bpi ain
fFm

fG1 fG1 ⋅ cF1 fG1 ⋅ cF2 ⋯ fG1 ⋅ cFn


a1j
f f ⋅c f ⋅c ⋯ fG2 ⋅ cFn
( k=1 )
a2 j m
G ⋅ F = G2 ⋅ (cF1 cF2 ⋯ cFn) = G2 F1 G2 F2 fGi ⋅ cFj = (bi1 bi2 ⋯ bim) ⋅ = (bi1a1j + bi2 a 2 j + ⋯ + bim a1m) = ∑ bik ak j
⋮ ⋮ ⋮ ⋱ ⋮ ⋮
amj
fGp fGp ⋅ cF1 fGp ⋅ cF2 ⋯ fGp ⋅ cFn

88
𝕂
𝕂
𝕂
Producto por matriz columna: F ∈ Mm×n( ), X ∈ Mn×1( ), F ⋅ X ∈ Mm×1( )

a11 a12 ⋯ a1n x1 x1


a21 a22 ⋯ a2n x2 x2
F⋅X= ⋅ = (cF1 cF2 ⋯ cFn) ⋅ = x1cF1 + x2cF2 + ⋯ + xncFn
⋮ ⋮ ⋱ ⋮ ⋮ ⋮
am1 am2 ⋯ amn xn xn

Es una matriz columna combinación lineal de las columnas de F

★ ⨀ ⋯ ⨁ ⨂ x1 ★ ⨀ ⨁ ⨂
★ ⨀ ⋯ ⨁ ⨂ x2 ★ ⨀ ⨁ ⨂
⋅ = x1 + x2 + ⋯ + xn−1 + xn
⋮ ⋮ ⋱ ⋮ ⋮ ⋮ ⋮ ⋮ ⋮ ⋮
★ ⨀ ⋯ ⨁ ⨂ xn ★ ⨀ ⨁ ⨂

Producto por matriz fila: F ∈ Mm×n( ), Y ∈ M1×m( ), Y ⋅ F ∈ M1×n( )

a11 a12 ⋯ a1n fF1


a a ⋯ a2n f
Y ⋅ F = (y1 y2 ⋯ ym) ⋅ 21 22 = (y1 y2 ⋯ ym) ⋅ F2 = y1 fF1 + y2 fF2 + ⋯ + ym fFm
⋮ ⋮ ⋱ ⋮ ⋮
am1 am2 ⋯ amn fFm

Es una matriz fila combinación lineal de las filas de F

★ ⨀ ⋯ ⨁ ⨂
★ ⨀ ⋯ ⨁ ⨂
(y1 y2 ⋯ ym) ⋅ = y1 (★ ⨀ ⋯ ⨁ ⨂ ) + y2 (★ ⨀ ⋯ ⨁ ⨂ ) + ⋯ + ym (★ ⨀ ⋯ ⨁ ⨂ )
⋮ ⋮ ⋱ ⋮ ⋮
★ ⨀ ⋯ ⨁ ⨂

89
𝕂
𝕂
𝕂
𝕂
𝕂
𝕂
Matriz columna unidad:

0

0
ej = 1 ←j (columna j de la matriz identidad In)
0

0

Matriz fila unidad:

j

ejT = (0 ⋯ 0 1 0 ⋯ 0) (fila j de la matriz identidad In)

90
Propiedades:
j
0 ↓ 0
⋮ 0 ⋯ 0 ⋯ 0 ⋮
0 ⋮ ⋱ ⋮ ⋱ ⋮ 0 (0) i≠j
{(1)
ei ⋅ ejT = 1 ⋅ (0 ⋯ 0 1 0 ⋯ 0) = 0 ⋯ 1 ⋯ 0 ←i ejT ⋅ ei = (0 ⋯ 0 1 0 ⋯ 0) ⋅ 1 =
0 ⋮ ⋱ ⋮ ⋱ ⋮ 0 i=j
⋮ 0 ⋯ 0 ⋯ 0 ⋮
0 0

a11 a12 ⋯ a1n


a21 a22 ⋯ a2n
⋮ ⋮ ⋱ ⋮ a a ⋯ ajn)
ejT ⋅ F = (0 ⋯ 0 1 0 ⋯ 0) ⋅ a aj2 ⋯ ajn = ( j1 j2
j1
⋮ ⋮ ⋱ ⋮
am1 am2 ⋯ amn

0
⋮ 0 0 ⋯ 0
0 ⋮ ⋮ ⋱ ⋮
ei ⋅ (ejT ⋅ F ) = 1 ⋅ (aj1 aj2 ⋯ ajn) = aj1 aj2 ⋯ ajn ← i
0 ⋮ ⋮ ⋱ ⋮
⋮ 0 0 0 0
0

91
Matrices elementales:

i j
↓ ↓
1 0 ⋯ 0 ⋯ 0 ⋯ 0
0 1 ⋯ 0 ⋯ 0 ⋯ 0
⋮ ⋮ ⋱ ⋮ ⋱ ⋮ ⋱ ⋮
0 0 ⋯ 0 ⋯ 1 ⋯ 0 ←i
Eij = (intercambio de filas i < j de la matriz identidad In)
⋮ ⋮ ⋱ ⋮ ⋱ ⋱ ⋱ ⋮
0 0 ⋯ 1 ⋯ 0 ⋯ 0 ←j
⋮ ⋮ ⋱ ⋮ ⋱ ⋮ ⋱ ⋮
0 0 ⋯ 0 ⋯ 0 ⋯ 1

i

1 0 ⋯ 0 ⋯ 0
0 1 ⋯ 0 ⋯ 0
⋮ ⋮ ⋱ ⋮ ⋱ ⋮
Ei(α) = (multiplicación de la fila i de la matriz identidad In por α ≠ 0)
0 0 ⋯ α ⋯ 0 ←i
⋮ ⋮ ⋱ ⋮ ⋱ ⋮
0 0 ⋯ 0 ⋯ 1

92
i j
↓ ↓
1 0 ⋯ 0 ⋯ 0 ⋯ 0
0 1 ⋯ 0 ⋯ 0 ⋯ 0
⋮ ⋮ ⋱ ⋮ ⋱ ⋮ ⋱ ⋮
0 0 ⋯ 1 ⋯ α ⋯ 0 ←i
Eij(α) = (adición a la fila i de la matriz identidad In su fila j multiplicada por α ≠ 0 )
⋮ ⋮ ⋱ ⋮ ⋱ ⋱ ⋱ ⋮
0 0 ⋯ 0 ⋯ 1 ⋯ 0 ←j
⋮ ⋮ ⋱ ⋮ ⋱ ⋮ ⋱ ⋮
0 0 ⋯ 0 ⋯ 0 ⋯ 1

Propiedades:

I. Las matrices elementales son invertibles: Eij−1 = Eji = Eij Ei(α)−1 = Ei(α −1) Eij(α)−1 = Eij(−α)

II. Al intercambiar las filas i, j de F ∈ Mm×n( ) obtenemos: Eij ⋅ F

III. Al multiplicar la fila i de F ∈ Mm×n( ) por α ≠ 0 obtenemos: Ei(α) ⋅ F

IV. Al añadir a la fila i de F ∈ Mm×n( ) la fila j multiplicada por α ≠ 0 obtenemos: Eij(α) ⋅ F

V. Una secuencia de operaciones elementales de fila realizadas sobre F ∈ Mm×n( ) es:


S ⋅ F = En ⋅ ⋯ ⋅ E2 ⋅ E1 ⋅ F

S = En ⋅ ⋯ ⋅ E2 ⋅ E1 ∈ Mm×m( ) es invertible y S −1 = E1−1 ⋅ E2−1 ⋅ ⋯ ⋅ En−1

93
𝕂
𝕂
𝕂
𝕂
𝕂
Espacios vectoriales

Espacio vectorial. Ejemplos


Dependencia e independencia lineal
Bases y dimensión
Subespacios vectoriales. Operaciones entre ellos

94
Sección 1

Espacio vectorial. Ejemplos


Sean un conjunto y un cuerpo ( , + , ⋅ ), a cuyos elementos denominaremos vectores y escalares respectivamente

Definamos una operación interna + y una externa ⋅ :

+: × → ⋅: × →
(u, v) → w =u+v (α, v) → w = αv

Diremos que ( , + , ⋅ ) es un -espacio vectorial o espacio vectorial sobre el cuerpo si se verifican:

I. ∀u, v ∈ ,u + v = v + u

II. ∀u, v, w ∈ , (u + v) + w = u + (v + w)

III. ∃0 ∈ , ∀u ∈ ,u + 0 = 0 + u = u

IV. ∀u ∈ , ∃(−u) ∈ , u + (−u) = (−u) + u = 0

V. ∀u ∈ ,1u = u

VI. ∀u ∈ , ∀α, β ∈ , α(βu) = (αβ)u

VII. ∀u ∈ , ∀α, β ∈ , (α + β)u = αu + βu

VIII. ∀u, v ∈ , ∀α ∈ , α(u + v) = αu + αv

Nótese que las cuatro primeras indican que ( , + ) es grupo conmutativo

95
𝕂
𝒱
𝕂
𝕂
𝒱
𝒱
𝒱
𝒱
𝒱
𝒱
𝒱
𝒱
𝒱
𝒱
𝕂
𝕂
𝕂
𝒱
𝒱
𝕂
𝒱
𝒱
𝒱
𝒱
𝒱
Espacio vectorial real: cuando =R

Espacio vectorial complejo: cuando =C

Propiedades:

I. ∀u ∈ , 0u = 0

u = 1u = (0 + 1)u = 0u + 1u = 0u + u ⟹ 0u = 0

II. ∀α ∈ , α0 = 0

a0 = a(0 + 0) = a0 + a0 ⟹ a0 = 0

III. ∀u ∈ , (−u) = (−1)u

u + (−1)u = 1u + (−1)u = (1 + (−1))u = 0u = 0 ⟹ (−u) = (−1)u

Ejemplos:

(R2, + , ⋅ ) vectores reales en el plano

(R3, + , ⋅ ) vectores reales en el espacio


n
( ,+,⋅) vectores n-tuplas de elementos de

(Mm×n( ), + , ⋅ ) matrices de m filas y n columnas de elementos de

n m n m
( , ), aplicaciones lineales f : →

96
𝕂
𝕂𝕃
𝕂
𝕂
𝕂
𝕂
𝕂
𝕂
𝕂
𝒱
𝒱
𝕂
𝕂
Ejemplos:

{0} con las operaciones 0 + 0 = 0 y ∀α ∈ , α0 = 0


= {(a1, a2, ⋯ , an, ⋯ ) | an ∈ , n ∈ N} (sucesiones de elementos de ) con las operaciones:

(a1, a2, ⋯ , an, ⋯ ) + (b1, b2, ⋯ , bn, ⋯ ) = (a1 + b1, a2 + b2, ⋯ , an + bn, ⋯ )

α(a1, a2, ⋯ , an, ⋯ ) = (αa1, αa2, ⋯ , αan, ⋯ )

[x] = {a0 + a1x + a2 x 2 + ⋯ + an x n | aj ∈ , j ∈ {0,1,2,⋯, n}, n ∈ N ∪ {0}} (polinomios en x con coeficientes en ), con:

(a0 + a1x + ⋯ + an x n) + (b0 + b1x + ⋯ + bn x m) = (a0 + b0) + (a1 + b1)x + ⋯ + (am + bm)x m + am+1x m+1 + ⋯ + an x n (si m ≤ n)

α(a0 + a1x + ⋯ + an x n) = (αa0) + (αa1)x + ⋯ + (αan)x n

m[x] = {a0 + a1x + a2 x 2 + ⋯ + an x n | aj ∈ , j ∈ {0,1,2,⋯, n}, n ≤ m ∈ N ∪ {0}} (polinomios de [x] de grado como mucho m)

con las mismas operaciones que (x)

C([a, b], R) funciones reales continuas definidas en [a, b] con:

∀x ∈ [a, b], ( f + g)(x) = f (x) + g(x)

∀x ∈ [a, b], (α f )(x) = α f (x)

97
𝕂
𝕂
𝕂
𝕂
𝕂
𝕂
𝕂
𝕂
𝕂
𝕂
𝕂
a11 ⋅ x1 + a12 ⋅ x2 + ⋯ + a1n ⋅ xn = 0
n a21 ⋅ x1 + a22 ⋅ x2 + ⋯ + a2n ⋅ xn = 0 n
El conjunto S ⊂ de soluciones de un sistema homogéneo con las ops. de ( ,+,⋅)

am1 ⋅ x1 + am2 ⋅ x2 + ⋯ + amn ⋅ xn = 0

Si A es la matriz del sistema: x ∈S ⟺ A⋅x =0

Las dos operaciones son leyes de composición en S

x, y ∈ S, A ⋅ (x + y) = 0 ⟹ x + y ∈ S

x ∈ S, α ∈ A ⋅ (αx) = 0 ⟹ αx ∈ S

n
Las propiedades de ( , + , ⋅ ) las tiene (S, + , ⋅ ) ya que

A⋅0=0 ⟹ 0∈S

A ⋅ (−x) = − A ⋅ x = 0 ⟹ (−x) ∈ S

98
𝕂
𝕂
𝕂
𝕂
Sección 2

Dependencia e indepencia lineal


Sea un -espacio vectorial:

Combinación lineal: v ∈ es combinación lineal de v1, v2, ⋯, vk ∈ ⟺ ∃α1, α2, ⋯, αk ∈ , v = α1v1 + α2v2 + ⋯ + αk vk

o también: 0 = (−1)v + α1v1 + α2v2 + ⋯ + αk vk.

0 es combinación lineal de cualquier conjunto de vectores: 0 = 0v1 + 0v2 + ⋯ + 0vn

Dependencia lineal:

I. El conjunto de vectores {v1, v2, ⋯, vk} ⊂ es linealmente dependiente o ligado

⟺ ∃α1, α2, ⋯, αk ∈ no todos nulos que α1v1 + α2v2 + ⋯ + αk vk = 0

II. El conjunto de vectores {v1, v2, ⋯, vk} ⊂ es linealmente independiente o libre si no es ligado

⟺ α1v1 + α2v2 + ⋯ + αk vk = 0 ⟹ α1 = α2 = ⋯ = αn = 0

99
𝕂
𝒱
𝒱
𝒱
𝒱
𝒱
𝕂
𝕂
Sistema de generadores:

El conjunto de vectores {v1, v2, ⋯, vk} ⊂ es un sistema de generadores de

⟺ ∀v ∈ , ∃α1, α2, ⋯, αk ∈ , v = α1v1 + α2v2 + ⋯ + αk vk

Propiedades:

I. Si el conjunto V = {v1, v2, ⋯, vk} ⊂ es ligado, al menos uno de sus elementos es combinación lineal de los demás

∃αj ≠ 0, j ∈ {1,⋯, k}, αj ≠ 0 ∧ α1v1 + ⋯ + αj−1vj−1 + αj vj + αj+1vj+1 + ⋯ + αk vk = 0

⟹ vj = − α1αj−1v1 − ⋯ − αj−1αj−1vj−1 − αj+1αj−1vj+1 − ⋯ − αk αj−1vk

II. Cualquier conjunto finito V ⊂ que 0 ∈ V es ligado

V = {0,v1, ⋯, vk} ⟹ ∀α ∈ , α0 + 0v1 + 0v2 + ⋯ + 0vk = 0

III. Si el conjunto finito V ⊂ es libre, W ⊂ V ⟹ W es libre (W = {v1, v2, ⋯, vl} ⊂ V = {v1, v2, ⋯, vl, ⋯, vk})

Si W fuese ligado, V lo sería también: ∃αj ≠ 0,j ∈ {1,⋯, l} α1v1 + ⋯ + αj vj + ⋯ + αl vl + 0vl+1 + ⋯ + 0vk = 0

IV. Si el conjunto finito V ⊂ es ligado, V ⊂ W ⟹ W es ligado

V. V = {v} es libre ⟺ v ≠ 0

v ≠ 0 ∧ αv = 0 ⟹ α = 0

v = 0 ∧ 1v = 0

100
𝒱
𝒱
𝕂
𝒱
𝒱
𝒱
𝒱
𝒱
𝕂
Ejemplos:
n
En cualquier conjunto de más de n vectores es ligado

Sea V = {v1, v2, ⋯, vn, vn+1}, con vi = (v1i, v2i, ⋯, vni), i ∈ {1,2,⋯, n + 1}

La expresión α1v1 + ⋯ + αnvn + αn+1vn+1 = 0 es equivalente a un sistema homogéneo cuya matriz del sistema tiene como columnas
los vectores de V:

v11 v12 ⋯ v1n+1


v21 v22 ⋯ v2n+1
A= ∈ Mn×n+1( )
⋮ ⋮ ⋱ ⋮
vn1 vn2 ⋯ vnn+1

y su rango verificará R(A) ≤ n < n + 1 ⟹ El sistema homogéneo asociado a A es compatible indeterminado y V es ligado

n n
En cualquier conjunto libre con n vectores es un sistema de generadores de
n
Sea V = {v1, v2, ⋯, vn} libre, ∀v ∈ el conjunto {v, v1, v2, ⋯, vn} es ligado y

0 = αv + α1v1 + ⋯ + αnvn ⟹ α ≠ 0† ∧ v = α′1v1 + ⋯ + α′nvn


Si fuese α = 0 ⟹ ∃αj ≠ 0,j ∈ {1,⋯, n} ∧ 0v + α1v1 + ⋯ + αnvn = 0 y V sería ligado
𝕂
101
𝕂
𝕂
𝕂
𝕂


Los polinomios {1,x, x 2, ⋯, x n} ⊂ (x) forman un conjunto libre

α01 + α1x + ⋯ + αn x n = 0† ⟹ α0 = α1 = ⋯ = αn = 0

† El segundo miembro de la igualdad representa al polinomio 0 ∈ (x)

Las funciones {1,x, x 2} ⊂ C([−1,1], R) forman un conjunto libre

α01 + α1x + α2 x 2 = 0‡ ⟹ α0 = α1 = α2 = 0

‡ El segundo miembro de la igualdad representa la función 0 ∈ C([−1,1], R) que ∀x ∈ [−1,1], 0(x) = 0. No confundir esta
igualdad con la ecuación α01 + α1x + α2 x 2 = 0 que puede verificarse para un máximo de dos valores de x ∈ [−1,1]

Las funciones {1, sin2 x, cos2 x} ⊂ C([−π, π], R) forman un conjunto ligado

(−1)1 + 1 sin2 x + 1 cos2 x = 0

102
𝕂
𝕂
Dependencia lineal en conjuntos numerables:

I. El conjunto de vectores {v1, v2, ⋯, vk ⋯} ⊂ es linealmente dependiente o ligado

⟺ Algún subconjunto finito {v1, v2, ⋯, vn} es ligado

II. El conjunto de vectores {v1, v2, ⋯, vk ⋯} ⊂ es linealmente independiente o libre

⟺ Todo subconjunto finito {v1, v2, ⋯, vn} es libre

Ejemplos:

{1, sin x, cos x, sin 2x, cos 2x, ⋯, sin n x, cos n x, ⋯} ⊂ C([−π, π], R) es libre

{1,e x, e− x, ⋯, e nx, e− nx⋯} ⊂ C([−π, π], C) es libre

{1,x, x 2, ⋯, x n, ⋯} ⊂ [x] es libre

103
𝒱
𝒱
𝕂
𝚥
𝚥
𝚥
𝚥
Sección 3

Bases y dimensión
El conjunto de vectores B = {v1, v2, ⋯, vn} ⊂ es una base del -e.v.

{B es sistema de generadores de
B es libre

Si B = {v1, v2, ⋯, vn} es una base de y ∀v ∈ , ∃α1, α2, ⋯, αn, v = α1v1 + α2v2 + ⋯ + αnvn

Se denominan componentes o coordenadas de v respecto de la base B a los escalares α1, α2, ⋯, αn.

Son únicas

v = α1v1 + α2v2 + ⋯ + αnvn ∧ v = α′1v1 + α′2v2 + ⋯ + α′nvn ⟹ 0 = (α1 − α′1)v1 + (α2 − α′2)v2 + ⋯ + (αn − α′n)vn ⟹ ∀i ∈ {1,⋯, n}, αi = α′i

Escribiremos las coordenadas de v ∈ respecto de la base B† con la tupla (α1, α2, ⋯, αn) ∈ n

n
Dada una base B podemos definir la función (biyectiva) de coordenadas: cB : → que ∀v ∈ , cB(v) = (α1, α2, ⋯, αn)


Para escribir las coordenadas del vector respecto de una base ha de consignarse un orden para los elementos de esta

104
𝒱
𝒱
𝕂
𝒱
𝒱
𝒱
𝒱
𝒱
𝕂
𝕂
𝒱







Ejemplos:
j

n
Bc = {e1, e2, ⋯, en}, con ej = (0 ⋯ 0 1 0 ⋯ 0), es una base de

Bc = {1,x, x 2, ⋯, x n} es una base de n[x]

1 0 ⋯ 0 0 1 ⋯ 0 0 0 ⋯ 1 0 0 ⋯ 0 0 0 ⋯ 0
0 0 ⋯ 0 0 0 ⋯ 0 0 0 ⋯ 0 1 0 ⋯ 0 0 0 ⋯ 0
Bc = { , , ⋯, , , ⋯, } es base de Mm×n( )
⋮ ⋮ ⋱ ⋮ ⋮ ⋮ ⋱ ⋮ ⋮ ⋮ ⋱ ⋮ ⋮ ⋮ ⋱ ⋮ ⋮ ⋮ ⋱ ⋮
0 0 ⋯ 0 0 0 ⋯ 0 0 0 ⋯ 0 0 0 ⋯ 0 0 0 ⋯ 1

Las coordenadas del polinomio 1 + x + 3x 2 ∈ (Z5)9[x] respecto de la base Bc son el vector (1,1,3,0,0,0,0,0,0,0) ∈ Z10
5

Las coordenadas del vector (1,2,3) ∈ R3 respecto de la base Bc son él mismo

(2 4)
1 3
Las coordenadas de la matriz ∈ M2×2(R) respecto de la base Bc son el vector (1,3,2,4) ∈ R4

105
𝕂
𝕂
𝕂
Proposición:

Si el -espacio vectorial tiene una base B con n elementos, cualesquiera n + 1 vectores de son ligados

Sea la base B = {v1, v2, ⋯, vn} y los n + 1 vectores cualesquiera de w1, w2, ⋯, wn, wn+1

w1 = α11v1 + α21v2 + ⋯ + αn1vn


w2 = α12v1 + α22v2 + ⋯ + αn2vn
Por ser B base de ⋮ Para que sean ligados γ1w1 + γ2w2 + ⋯ + γnwn + γn+1wn+1 = 0
wn = α1nv1 + α2nv2 + ⋯ + αnnvn
wn+1 = α1 n+1v1 + α2 n+1v2 + ⋯ + αn n+1vn

Es decir:
γ1(α11v1 + α21v2 + ⋯ + αn1vn) + γ2(α12v1 + α22v2 + ⋯ + αn2vn) + ⋯ + γn(α1nv1 + α2nv2 + ⋯ + αnnvn) + γn+1(α1 n+1v1 + α2 n+1v2 + ⋯ + αn n+1vn) = 0

(γ1α11 + γ2α12 + ⋯ + γnα1n + γn+1α1 n+1)v1 + (γ1α21 + γ2α22 + ⋯ + γnα2n + γn+1α2 n+1)v2 + ⋯ + (γ1αn1 + γ2αn2 + ⋯ + γnαnn + γn+1αn n+1)vn = 0

Por ser B base (y por tanto libre):

γ1α11 + γ2α12 + ⋯ + γnα1n + γn+1α1 n+1 = 0


γ1α21 + γ2α22 + ⋯ + γnα2n + γn+1α2 n+1 = 0
Sistema homogéneo con n ecuaciones y n + 1 incógnitas γi, i ∈ {1,2,⋯, n + 1}

γ1αn1 + γ2αn2 + ⋯ + γnαnn + γn+1αn n+1 = 0

Como rango ≤ n < n + 1 el sistema es compatible indeterminado y los vectores w1, w2, ⋯, wn, wn+1 son ligados

Corolarios:

Si el -espacio vectorial tiene una base B con n elementos, cualesquiera m (m > n) vectores de son ligados

Si el -espacio vectorial tiene una base B con n elementos, cualquier conjunto libre de vectores tiene como mucho n vectores

106
𝒱
𝕂
𝒱
𝒱
𝕂
𝒱
𝒱
𝒱
𝒱
𝕂
Teorema:

Todas las bases de un -espacio vectorial poseen el mismo número de elementos

Sean las bases B = {v1, v2, ⋯, vn} y B′ = {v′1, v′2, ⋯, v′m}

B′ base ∧ B libre ⟹ n ≤ m}
B base ∧ B′ libre ⟹ m ≤ n
⟹ m=n

Llamamos dimensión del -espacio vectorial al número de vectores de una cualquiera de sus bases - dim( )

Ejemplos:

dim({0}) = 0
n
dim( )=n

dim( n[x]) =n+1

dim(Mm×n( )) = m n

Decimos que un -espacio vectorial es de dimensión infinita si se puede encontrar un S ⊂ no finito y libre

Ejemplos:

C([−π, π], R) C([−π, π], C) [x]

107

𝕂
𝒱
𝕂
𝒱
𝕂
𝒱
𝕂

𝒱
𝕂
𝕂
𝒱


𝕂


Proposición:

En un -espacio vectorial de dimensión n, todo conjunto libre que tenga n vectores es una base de

Sea el conjunto libre {u1, u2, ⋯, un}, ∀v ∈ el conjunto {v, u1, u2, ⋯, un} tiene n + 1 vectores y por tanto es ligado

∃α, α1, ⋯, αn ∈ , αv + α1u1 + ⋯ + αnun = 0 y α≠0 (si fuese α = 0 {u1, u2, ⋯, un} no podría ser libre)

v = − α −1α1u1 − ⋯ − α −1αnun ({u1, u2, ⋯, un} es un sistema de generadores de )

Teorema:

En un -espacio vectorial de dimensión n, todo conjunto libre de vectores puede completarse para obtener una base, es decir
si {u1, u2, ⋯, uk}, k < n, es libre, existen n − k vectores uk+1, ⋯, un ∈ de modo que {u1, u2, ⋯, uk, uk+1, ⋯, un} es una base de

Dado {u1, u2, ⋯, uk} siempre podemos encontrar algún vector linealmente independiente con ellos, ya que de lo contrario
{u1, u2, ⋯, uk} sería una base, lo que contradice que k < n. Sea uk+1 ese vector. Repitiendo el razonamiento para {u1, u2, ⋯, uk, uk+1}
llegaremos a encontrar n vectores linealmente independientes, que han de ser necesariamente base

108
𝒱
𝒱
𝕂
𝒱
𝕂
𝒱
𝒱
𝒱
𝒱
𝕂
Lema:

En un -espacio vectorial de dimensión n, si el conjunto {u1, u2, ⋯, uk, uk+1, ⋯, um} es un sistema de generadores de y los
vectores uk+1, ⋯, um son combinación de lineal de los vectores u1, u2, ⋯, uk, entonces {u1, u2, ⋯, uk} es un sistema de generadores
de

Por ser {u1, u2, ⋯, uk, uk+1, ⋯, um} sistema de generadores de : ∀v ∈ , v = α1u1 + ⋯ + αk uk + αk+1uk+1 + ⋯ + αmum

uk+1 = α1 k+1u1 + ⋯ + αk k+1uk


Por ser los m − k últimos combinación lineal de los k primeros: ⋮
um = α1 mu1 + ⋯ + αk muk

Sustituyendo: ∀v ∈ , v = α1u1 + ⋯ + αk uk + αk+1(α1 k+1u1 + ⋯ + αk k+1uk ) + ⋯ + αm(α1 mu1 + ⋯ + αk muk )

v = (α1 + αk+1α1 k+1 + ⋯ + αmα1 m)u1 + ⋯ + (αk + αk+1αk k+1 + ⋯ + αmαk m)uk

Es decir {u1, u2, ⋯, uk} es un sistema de generadores de

Teorema:

Si S es un sistema de generadores de un -espacio vectorial de dimensión n, podemos encontrar un subconjunto de S con n


elementos que sea una base de

Elegimos u1 ∈ S, u1 ≠ 0. A continuación elegimos u2 ∈ S con {u1, u2} libre. Suponiendo elegidos {u1, u2, ⋯, uk}, elegimos uk+1 ∈ S de
modo que {u1, u2, ⋯, uk, uk+1} sea libre. Se repite este proceso hasta que sea imposible añadir un nuevo vector de S que sea
linealmente independiente con los obtenidos {u1, u2, ⋯, um}. Este conjunto será sistema de generadores de (lema anterior) y
por construcción, libre. Por tanto será una base y m = n

109
𝒱
𝒱
𝒱
𝒱
𝕂
𝒱
𝒱
𝒱
𝕂
𝒱
𝒱
𝒱
Cambio de base

Sean B = {v1, v2, ⋯, vn}, B′ = {v′1, v′2, ⋯, v′n} bases del -e.v. , denominadas base antigua y base nueva respectivamente

Podremos escribir, por ser B base de :

v′1 = a11v1 + a21v2 + ⋯ + an1vn a11 a12 ⋯ a1n


v′2 = a12v1 + a22v2 + ⋯ + an2vn a21 a22 ⋯ a2n
y denominaremos matriz del cambio de base de B a B′ a MBB′ =
⋮ ⋮ ⋮ ⋱ ⋮
v′n = a1nv1 + a2nv2 + ⋯ + annvn an1 an2 ⋯ ann

Y análogamente, por ser B′ base de :

v1 = a′11v′1 + a′21v′2 + ⋯ + a′n1v′n a′11 a′12 ⋯ a′1n


v2 = a′12v′1 + a′22v′2 + ⋯ + a′n2v′n a′ a′ ⋯ a′2n
y denominaremos matriz del cambio de base de B′ a B a B
MB′ = 21 22
⋮ ⋮ ⋮ ⋱ ⋮
vn = a′1nv′1 + a′2nv′2 + ⋯ + a′nnv′n a′n1 a′n2 ⋯ a′nn

Nótese que la columna i de MBB′ son las coordenadas de v′i respecto de los vectores de la base B











110











𝒱
𝒱
𝕂
𝒱



















′−1
Ambas matrices de cambio de base son invertibles y MBB B
= MB′

v1 = a′11v′1 + a′21v′2 + ⋯ + a′n1v′n = a′11(a11v1 + ⋯ + an1vn) + ⋯ + a′n1(a1nv1 + ⋯ + annvn) = (a′11a11 + ⋯ + a′n1a1n)v1 + ⋯ + (a′11an1 + ⋯ + a′n1ann)vn
v2 = a′12v′1 + a′22v′2 + ⋯ + a′n2v′n = a′12(a11v1 + ⋯ + an1vn) + ⋯ + a′n2(a1nv1 + ⋯ + annvn) = (a′12a11 + ⋯ + a′n2a1n)v1 + ⋯ + (a′12an1 + ⋯ + a′n2ann)vn
⋮ ⋮
vn = a′1nv′1 + a′2nv′2 + ⋯ + a′nnv′n = a′1n(a11v1 + ⋯ + an1vn) + ⋯ + a′nn(a1nv1 + ⋯ + annvn) = (a′1na11 + ⋯ + a′nna1n)v1 + ⋯ + (a′1nan1 + ⋯ + a′nnann)vn

Y como las coordenadas respecto de una base son únicas:

a11a′11 + ⋯ + a1na′n1 = 1

an1a′11 + ⋯ + anna′n1 = 0
{0 si i ≠ j
n
1 si i = j

abreviadamente: aik a′kj =
a11a′12 + ⋯ + a1na′n2 = 0 k=1

a21a′12 + ⋯ + a2na′n2 = 1

an1a′12 + ⋯ + anna′n2 = 0 a11 a12 ⋯ a1n a′11 a′12 ⋯ a′1n 1 0 ⋯ 0
a21 a22 ⋯ a2n a′ a′ ⋯ a′2n 0 1 ⋯ 0
⋮ o bien: ⋅ 21 22 = = In
⋮ ⋮ ⋱ ⋮ ⋮ ⋮ ⋱ ⋮ ⋮ ⋮ ⋱ ⋮
an1 an2 ⋯ ann a′n1 a′n2 ⋯ a′nn 0 0 ⋯ 1
a11a′1n + ⋯ + a1na′nn = 0

an1a′1n + ⋯ + anna′nn = 1




′−1 −1
Es decir: MBB′ ⋅ MB′
B
= In de lo que inmediatamente se deduce MBB B
= MB′ B
y MB′ = MBB′





























111



































Teorema (cambio de base):

Sea el vector v ∈ , y B = {v1, v2, ⋯, vn}, B′ = {v′1, v′2, ⋯, v′n} bases del -e.v. (base antigua y base nueva)

α1 α′1
Denominemos VB = ⋮ y VB′ = ⋮ a las coordenadas de v respecto de la bases B y B′ respectivamente
αn α′n

−1
Se verifican: VB = MBB′ ⋅ VB′ y B
VB′ = MB′ ⋅ VB (VB′ = MBB′ ⋅ VB)

Siendo B, B′ bases de podremos escribir

α1 α′1
v = α1v1 + ⋯ + αnvn VB = ⋮ v = α′1v′1 + ⋯ + α′nv′n VB′ = ⋮
αn α′n

v = α′1(a11v1 + a21v2 + ⋯ + an1vn) + α′2(a12v1 + a22v2 + ⋯ + an2vn) + ⋯ + α′n(a1nv1 + a2nv2 + ⋯ + annvn)


= (a11α′1 + a12α′2 + ⋯ + a1nα′n)v1 + (a21α′1 + a22α′2 + ⋯ + a2nα′n)v2 + ⋯ + (an1α′1 + an2α′2 + ⋯ + annα′n)vn

Al ser las coordenadas respecto una base únicas:

α1 = a11α′1 + a12α′2 + ⋯ + a1nα′n α1 a11 a12 ⋯ a1n α′1


α2 = a21α′1 + a22α′2 + ⋯ + a2nα′n α2 a21 a22 ⋯ a2n α′
o bien: = ⋅ 2
⋮ ⋮ ⋮ ⋮ ⋱ ⋮ ⋮
αn = an1α′1 + an2α′2 + ⋯ + annα′n αn an1 an2 ⋯ ann α′n

Es decir: VB = MBB′ ⋅ VB′ y al ser MBB′, MB′


B
inversas: B
VB′ = MB′ ⋅ VB

Las coordenadas de v respecto de la base B pueden obtenerse multiplicando la matriz de cambio de la base B a B′
por las coordenadas de v respecto de la base B′








112





















𝒱
𝕂
𝒱




𝒱





















Sección 4

Subespacios vectoriales y operaciones


Un subconjunto W ⊂ del -e.v. es un subespacio vectorial de si W es un -e.v. con las operaciones definidas en

W≠∅
W⊂ es un subespacio vectorial de ⟺ ∀u, v ∈ W, u + v ∈ W
∀u ∈ W, ∀α ∈ , αu ∈ W

Subespacios impropios de un -espacio vectorial : {0} y

es -e.v. de dimensión finita n ⟹ la dimensión de cualquier subespacio de no supera a n


𝕂
113
𝒱
𝕂
𝒱
𝒱
𝕂
𝒱
𝒱
𝕂
𝒱𝒱
𝒱
𝕂
𝒱
𝒱
Ejemplos:

Todas las rectas y planos que pasan por el origen son subespacios vectoriales de R3

m[x] es un subespacio vectorial de [x]

Siendo S = {u1, u2, ⋯, um} un conjunto de vectores de un -e.v. , el conjunto

L(S ) = {a1u1 + a2u2 + ⋯amum | a1, a2, ⋯, am ∈ } es un subespacio vectorial de denominado subespacio generado por S

n n
El conjunto S ⊂ de soluciones de un sistema homogéneo es un subespacio vectorial de . Su dimensión es r = n − r(A)

a11 ⋅ x1 + a12 ⋅ x2 + ⋯ + a1n ⋅ xn = 0


a21 ⋅ x1 + a22 ⋅ x2 + ⋯ + a2n ⋅ xn = 0
x ∈S ⟺ A⋅x =0

am1 ⋅ x1 + am2 ⋅ x2 + ⋯ + amn ⋅ xn = 0

114
𝒱
𝕂
𝕂
𝕂
𝒱
𝕂
𝕂
𝕂
n
Análogamente, todo subespacio vectorial de puede expresarse por un sistema homogéneo. Veamos un ejemplo:

Sea V el subespacio de R5 que tiene como base {(1,2,0,1,0), (1,1,1,1,1)}, formada por los vectores e′1, e′2

Dado cualquier vector x = (x1, x2, x3, x4, x5) ∈ V el conjunto de vectores {e′1, e′2, x} deberá ser ligado y tener rango 2

Por tanto la matriz formada -por columnas- con las coordenadas† de esos tres vectores tendrá rango 2:

1 1 x1
2 1 x2
0 1 x3
1 1 x4
0 1 x5

Obtenemos una forma escalonada de esa matriz_

1 1 x1 1 1 x1 1 1 x1 1 1 x1
2 1 x2 0 −1 x2 − 2x1 0 1 2x1 − x2 0 1 2x1 − x2
0 1 x3 → 0 1 x3 → 0 1 x3 → 0 0 −2x1 + x2 + x3
1 1 x4 0 0 x4 − x1 0 0 −x1 + x4 0 0 −x1 + x4
0 1 x5 0 1 x5 0 1 x5 0 0 −2x1 + x2 + x5

−2x1 + x2 + x3 = 0
para que tenga rango 2, ha de verificarse el sistema homogéneo: −x1 + x4 = 0
−2x1 + x2 + x5 = 0


Nótese que respecto de la base canónica de R5, el elemento x = (x1, x2, x3, x4, x5) se escribe x = x1e1 + x2e2 + x3e3 + x4e4 + x5e5 y
sus coordenadas respecto de esa misma base son cC (x) = (x1, x2, x3, x4, x5)
115
𝕂




Operaciones con subespacios vectoriales:

Sean U, W ⊂ subespacios del -e.v. , los siguientes conjuntos:

I. U ∩ W = {v ∈ | | v ∈ U ∧ v ∈ W} Intersección de los subespacios vectoriales U y W

II. U + W = {u + w | | u ∈ U ∧ w ∈ W} Suma de los subespacios vectoriales U y W

son subespacios vectoriales del -e.v.

x, y ∈ U ∩ W ⟹ x, y ∈ U ∧ x, y ∈ W ⟹ x + y ∈ U ∧ x + y ∈ W ⟹ x + y ∈ U ∩ W

x ∈ U ∩ W ⟹ x ∈ U ∧ x ∈ W ⟹ αx ∈ U ∧ αx ∈ W ⟹ αx ∈ U ∩ W

x, y ∈ U + W ⟹ x = xu + xw ∧ y = yu + yw ⟹ x + y = (xu + yu) + (xw + yw) ⟹ x + y ∈ U + W


xu∈U∧x w∈W yu∈U∧yw∈W xu+yu∈U∧x w+yw∈W )

x ∈ U + W ⟹ x = xu + xw ⟹ αx = (αxu) + (αxw) ⟹ αx ∈ U + W
xu∈U∧x w∈W αxu∈U∧αx w∈W

La unión de espacios vectoriales U ∪ W = {v ∈ | | v ∈ U ∨ v ∈ W} no es, en general, subespacio vectorial del -e.v.

(Contra-)ejemplo: En R3 la unión de los subespacios:

P1 = {(x, y, z) ∈ R3 | | x + y + z = 0} y P2 = {(x, y, z) ∈ R3 | | x = 0} no es subespacio vectorial de R3

(1,1, − 2) ∈ P1 ∧ (0,1,1) ∈ P2 ⟹ (1,1, − 2), (0,1,1) ∈ P1 ∪ P2 y (1,1, − 2) + (0,1,1) = (1,2, − 1) ∉ P1 ∪ P2


116
𝒱
𝕂
𝒱
𝕂
𝒱
𝕂
𝒱
𝒱
𝒱
Proposición (fórmula de Grassman):

Sean U, W ⊂ subespacios del -e.v. de dimensión n. Se verifica: dim(U + W ) = dim(U ) + dim(W ) − dim(U ∩ W )

Sean dim(U ) = n, dim(W ) = m y dim(U ∩ W ) = r y {e1, e2, ⋯, er} una base de U ∩ W

Completamos dicha base para formar bases de U y W a partir de ella (añadiendo n − r y m − r vectores respectivamente)

BU = {e1, e2, ⋯, er, u1, ⋯, un−r} BW = {e1, e2, ⋯, er, w1, ⋯, wm−r}

Sea el conjunto B = BU ∪ BW = {e1, e2, ⋯, er, u1, ⋯, un−r, w1, ⋯, wm−r}, formado por r + (n − r) + (m − r) = n + m − r vectores

I. BU ∪ BW es sistema de generadores de U + W

x ∈ U + W ⟹ x = xu + xw ⟹ x = xu1e1 + ⋯xur er + x′u1u1 + ⋯ + x′u n−r un−r + xw1e1 + ⋯xwr er + x′w1w1 + ⋯ + x′w m−r wm−r
xu∈U∧x w∈W

⟹ x = (xu1 + xw1)e1 + ⋯(xur + ⋯xwr )er + x′u1u1 + ⋯ + x′u n−r un−r + x′w1w1 + ⋯ + x′w m−r wm−r ⟹ x ∈ L(BU ∪ BW )

II. B es libre

Sea α1e1 + ⋯ + αr er + β1u1 + ⋯ + βn−r un−r + γ1w1 + ⋯ + γm−r wm−r = 0 y podemos escribir:

α1e1 + ⋯ + αr er + β1u1 + ⋯ + βn−r un−r = − γ1w1 − ⋯ − γm−r wm−r ⟹ α1e1 + ⋯ + αr er + β1u1 + ⋯ + βn−r un−r ∈ U ∩ W

⟹ β1 = ⋯ = βn−r = 0 quedando α1e1 + ⋯ + αr er + γ1w1 + ⋯ + γm−r wm−r = 0 y al ser BW base:

α1 = ⋯ = αr = γ1 = ⋯ = γm−r = 0

Por tanto B = BU ∪ BW es una base de U + W y dim(U + W ) = n + m − r = dim(U ) + dim(W ) − dim(U ∩ W )

117
𝒱
𝕂
𝒱








Suma directa:

Un -espacio vectorial es suma directa de dos de sus subespacios U, W ⊂ :

1. =U+W

2. U ∩ W = {0}

y escribiremos = U ⊕ W. Se verifica que: dim( ) = dim(U ⊕ W ) = dim(U ) + dim(W )

Ejemplos. En R3:

Sean P1, P2 planos que pasan por el origen y se cortan en la recta R = P1 ∩ P2

dim(P1 + P2) = dim(P1) + dim(P2) − dim(P1 ∩ P2) = 2 + 2 − 1 = 3 ⟹ R3 = P1 + P2

Sean P un plano y R una recta no contenida en él que pasan por el origen

dim(P + R) = dim(P) + dim(R) − dim(P ∩ R) = 2 + 1 − 0 = 3 ⟹ R3 = P ⊕ R

118
𝒱
𝕂
𝒱
𝒱
𝒱
𝒱
Proposición:

=U⊕W ⟺ ∀v ∈ , ∃!u ∈ U, ∃!w ∈ W, v = u + w

v∈ ∧ v = u + w ∧ v = u′ + w′ ⟹ u + w = u′ + w′ ⟹ u − u′ = w′ − w, ⟹ u − u′ ∈ U ∧ w′ − w ∈ W
⟹ u − u′ ∈ U ∩ W ∧ w′ − w ∈ U ∩ W U ∩ W = {0} ⟹ u − u′ = w′ − w = 0 ⟹ u = u′ ∧ w′ = w

v ∈U∩W ⟹ v =0+v∧v =v+0 ⟹ v =0 Esto es: U ∩ W ⊂ {0}. Como {0} ⊂ U ∩ W tenemos que U ∩ W = {0}

Definiciones:

Sean V1, V2, ⋯, Vn ⊂ subespacios del -e.v. , los siguientes conjuntos:

I. V1 ∩ V2 ∩ ⋯ ∩ Vn = {v ∈ | | ∀i ∈ {1,⋯, n}, v ∈ Vi}

II. V1 + V2 + ⋯ + Vn = {v1 + v2 + ⋯ + vn | | ∀i ∈ {1,⋯, n}, vi ∈ Vi}

son subespacios vectoriales del -e.v.

La suma de los subespacios vectoriales V1, V2, ⋯, Vn se dice que es suma directa, que escribiremos = V1 ⊕ V2 ⊕ ⋯ ⊕ Vn si

∀v ∈ , ∃!v1 ∈ V1, ∃!v2 ∈ V2, ⋯, ∃!vn ∈ Vn, v = v1 + v2 + ⋯ + vn

y se verifica: dim(V1 ⊕ V2 ⊕ ⋯ ⊕ Vn) = dim(V1) + dim(V2) + ⋯ + dim(Vn)

119
𝒱
𝒱
𝕂
𝒱
𝒱
𝕂
𝒱
𝒱
𝒱


𝒱

𝒱











Aplicaciones lineales

Aplicaciones lineales
Núcleo e imagen
Representación matricial. Cambios de base
Composición de aplicaciones lineales

120
Sección 1

Aplicación lineal entre espacios vectoriales


Sean los -espacios vectoriales y . Diremos que una aplicación f : →

{ ∀v ∈ , ∀α ∈ , f (αv) = α f (v)
∀u, v ∈ , f (u + v) = f (u) + f (v)
es una aplicación lineal ⟺

Ejemplo:

D: [x] → [x] D(p0 + p1x + p2 x 2 + ⋯ + pn x n) = p1 + 2p2 x + ⋯ + npn x n−1

(alternativamente puede definirse D : m[x] → [x] D: m[x] → m[x] o incluso D: m[x] → m−1[x])

Propiedades:

I. f (0) = 0

f (0) = f (0 + 0) = f (0) + f (0) ⟹ f (0) = 0

II. ∀v ∈ , f (−v) = − f (v)

f (−v) = f (−1v) = (−1)f (v) = − f (v)

121
𝒱
𝕂
𝒲
𝒱
𝕂
𝒱
𝕂
𝕂
𝕂
𝕂
𝒱
𝒲
𝕂
𝕂
𝕂
𝕂
𝒱
III. V⊂ es subespacio vectorial de ⟹ f (V ) ⊂ es subespacio vectorial de

{
w1 + w2 = f (v1) + f (v2) = f (v1 + v2) ∧ v1 + v2 ∈ V ⟹ w1 + w2 ∈ f (V )
w1, w2 ∈ f (V ) ⟹ ∃v1, v2 ∈ V, f (v1) = w1 ∧ f (v2) = w2 ⟹
α w1 = α f (v1) = f (αv1) ∧ αv1 ∈ V ⟹ α w1 ∈ f (V )

IV. W⊂ es subespacio vectorial de ⟹ f −1(W ) ⊂ es subespacio vectorial de

f (v1) + f (v2) = f (v1 + v2) ∈ W ⟹ v1 + v2 ∈ f −1(W )


{
−1
v1, v2 ∈ f (W ) ⟹ f (v1), f (v2) ∈ W ⟹
α f (v1) = f (αv1) ∈ W ⟹ αv1 ∈ f −1(W )

V. dim(V ) = k ⟹ dim( f (V )) ≤ k

B = {e1, ⋯, ek} base de ⟹ ∀v ∈ , v = v1e1 + ⋯ + vk ek ⟹ f (v) = f (v1e1 + ⋯vk ek ) = v1 f (e1) + ⋯ + vk f (ek )

⟹ f (v) ∈ L({f (e1), f (e2), ⋯, f (ek )}) = f (V ) ⟹ dim( f (V )) ≤ k

122
𝒱
𝒲
𝒲
𝒱
𝒱
𝒱
𝒲
𝒱
𝒲
𝒱
VI. B = {e1, e2, ⋯, en} base de y {w1, w2, ⋯, wn} vectores cualesquiera de ⟹ existe una única aplicación lineal f : →

f (e1) = w1 ∧ f (e2) = w2 ∧ ⋯ ∧ f (en) = wn

{ v = v1e1 + ⋯vnen ∈
u = u1e1 + ⋯unen ∈
Sean: Definamos f de modo que f (e1) = w1 ∧ f (e2) = w2 ∧ ⋯ ∧ f (en) = wn

{ f (v) = f (v1e1 + ⋯ + vnen) = v1 f (e1) + ⋯ + vn f (en) = v1w1 + ⋯ + vnwn


f (u) = f (u1e1 + ⋯ + unen) = u1 f (e1) + ⋯ + un f (en) = u1w1 + ⋯ + unwn
Se verificará

f (u + v) = f (u1e1 + ⋯unen + v1e1 + ⋯ + vnen) = f ((u1 + v1)e1 + ⋯ + (un + vn)en)


⟹ = (u1 + v1)w1 + ⋯ + (un + vn)wn = u1w1 + ⋯ + unwn + v1w1 + ⋯ + vnwn = f (u) + f (v) ( f es lineal)
f (αu) = f (αu1e1 + ⋯ + αunen) = αu1w1 + ⋯ + αunen = α(u1w1 + ⋯ + unwn) = α f (u)

Supuestas dos aplicaciones lineales f, g que satisfagan f (e1) = g(e1) = w1 ∧ f (e2) = g(e2) = w2 ∧ ⋯ ∧ f (en) = g(en) = wn

f (v) = f (v1e1 + ⋯ + vnen) = v1 f (e1) + ⋯ + vn f (en) = v1w1 + ⋯ + vnwn = v1g(e1) + ⋯ + vn g(en) = g(v1e1 + ⋯ + vnen) = g(v)

VII. {v1, v2, ⋯, vk} ligado ⟹ {f (v1), f (v2), ⋯, f (vk )} ligado

∃αj ≠ 0,α1v1 + ⋯ + αj vj + ⋯αk vk = 0 ⟹ α1 f (v1) + ⋯ + αj f (vj ) + ⋯αk f (vk ) = f (0) = 0 ∧ αj ≠ 0

VIII. {f (v1), f (v2), ⋯, f (vk )} libre ⟹ {v1, v2, ⋯, vk} libre

123
𝒱
𝒲
𝒱
𝒱
𝒲
𝒱
IX. {v1, v2, ⋯, vk} libre, f inyectiva ⟹ {f (v1), f (v2), ⋯, f (vk )} libre

α1 f (v1) + ⋯ + αk f (vk ) = 0 ⟹ f (α1v1 + ⋯ + αk vk ) = 0 ⟹ α1v1 + ⋯ + αk vk = 0 ⟹ α1 = ⋯ = αk = 0

X. {v1, v2, ⋯, vk} base de , f sobreyectiva ⟹ {f (v1), f (v2), ⋯, f (vk )} sistema de generadores de

∀w ∈ , ∃v = α1v1 + ⋯ + αk vk, w = f (v) = f (α1v1 + ⋯ + αk vk ) = α1 f (v1) + ⋯ + αk f (vk )

XI. {v1, v2, ⋯, vk} base de , f biyectiva ⟹ {f (v1), f (v2), ⋯, f (vk )} base de

f inyectiva ⟹ {f (v1), f (v2), ⋯, f (vk )} libre

f sobreyectiva ⟹ {f (v1), f (v2), ⋯, f (vk )} sistema de generadores de

124
𝒲
𝒱
𝒲
𝒲
𝒱
𝒲
Sección 2

Representaciones matriciales de una aplicación lineal


Sean los -espacios vectoriales y y la aplicación lineal f : →

Sean dim( ) = n, dim( ) = m, B = {v1, ⋯, vn} base de ,yB = {w1, ⋯, wm} base de

f (v1) ∈ ⟹ f (v1) = a11w1 + a21w2 + ⋯ + am1wm


f (v2) ∈ ⟹ f (v2) = a12w1 + a22w2 + ⋯ + am2wm
⟹ f (v) = f (α1v1 + ⋯αnvn) = α1 f (v1) + ⋯αn f (vn) y sustituyendo

f (vn) ∈ ⟹ f (vn) = a1nw1 + a2nw2 + ⋯ + amnwm

f (v) = α1 f (v1) + ⋯αn f (vn) = α1(a11w1 + ⋯ + am1wm) + ⋯αn(a1nw1 + ⋯ + amnwm) = (α1a11 + ⋯ + αna1n)w1 + ⋯ + (α1am1 + ⋯ + αnamn)wm

a11 a12 ⋯ a1n


a21 a22 ⋯ a2n
Si denominamos a F = ∈ Mm×n( ) matriz de la aplicación lineal f respecto de las bases B y B :
⋮ ⋮ ⋱ ⋮
am1 am2 ⋯ amn

a11 a12 ⋯ a1n α1


a21 a22 ⋯ a2n α2
cB ( f (v)) = ⋅ Es decir cB ( f (v)) = F ⋅ cB (v)
⋮ ⋮ ⋱ ⋮ ⋮
am1 am2 ⋯ amn αn

Nótese que la columna j de la matriz F son las coordenadas respecto de la base B de la imagen del vector vj de la base B , f (vj )

Obtenemos las coordenadas de la imagen f (v) respecto de la base B multiplicando la matriz F por las coordenadas de v
respecto de la base B
𝒲
𝒲
𝕂
𝒲
125
𝒲
𝒱
𝒱
𝒲
𝒱
𝒱
𝒲
𝒱
𝒲
𝒲
𝒲
𝒱
𝕂
𝒱
𝒲
𝒱
𝒲
𝒱
𝒲
𝒲
Toda aplicación lineal entre -espacios vectoriales de dimensión finita puede representarse mediante una matriz respecto a dos
bases dadas.

Análogamente, dadas dos bases de un par de -espacios vectoriales de dimensión finita, n y m, toda matriz de Mm×n( )
representa a una única aplicación lineal entre ambos espacios.

Llamando ( , ) al conjunto de aplicaciones lineales f : → (f∈ ( , ) , dim( ) = n ∧ dim( ) = m ) podemos definir

+: ( , )× ( , )→ ( , ) ∀f, g ∈ ( , ), ∀x ∈ , ( f + g)(x) = f (x) + g(x)

⋅: × ( , )→ ( , ) ∀f ∈ ( , ), ∀α ∈ , ∀x ∈ , (α f )(x) = α f (x)

Podemos comprobar que efectivamente ( f + g) y (α f ) son aplicaciones lineales y que ( , ) es un -espacio vectorial

Entre los espacios vectoriales ( , ) y Mm×n( ) existe una aplicación (lineal) biyectiva

Se verifica además que dim( ( , )) = dim(Mm×n( )) = m ⋅ n

126
𝕂
𝕂
𝕃
𝕃
𝕃
𝕂
𝒱
𝒱
𝒱
𝒱
𝕂
𝕃
𝕃
𝒱
𝕃
𝒲
𝒲
𝒲
𝕃
𝒱
𝒱
𝕂
𝕂
𝒱
𝕃
𝕃
𝒱
𝒲
𝒲
𝒲
𝒱
𝒱
𝒲
𝒲
𝒲
𝒲
𝕃
𝒱
𝒲
𝕃
𝒲
𝕂
𝒱
𝒱
𝒲
𝕃
𝕂
𝒱
𝒱
𝒲
Cambios de base en aplicaciones lineales:

Consideremos los -espacios vectoriales y y la aplicación lineal f : → , siendo dim( ) = n, dim( )=m

Sean B = {v1, ⋯, vn} base de ,B = {w1, ⋯, wm} base de y F ∈ Mm×n( ) la matriz de f respecto de ambas

Consideremos otra base de , B′ = {v′1, ⋯, v′n}, y otra de , B′ = {w′1, ⋯, w′m}

Llamemos MBB′ y MBB′ las correspondientes matrices de cambio de base:

• Dado v ∈ llamemos cv a sus coordenadas respecto a B y c′v a sus coordenadas respecto a B′ cv = MBB′ ⋅ c′v

• Siendo w = f (v) ∈ llamemos cw a sus coordenadas respecto a B y c′w a sus coordenadas respecto a B′ cw = MBB′ ⋅ c′w

• La relación entre ambas coordenadas es cw = F ⋅ cv

Podemos escribir MBB′ ⋅ c′w = F ⋅ MBB′ ⋅ c′v ⟺ c′w = (MBB′ )−1 ⋅ F ⋅ MBB′ ⋅ c′v

Si denominamos F′ la matriz de f respecto de las bases B′ y B′ , se verificará c′w = F′ ⋅ c′v y por tanto:

F′ = (MBB′ )−1 ⋅ F ⋅ MBB′

127
𝒱
𝒲
𝒲
𝒱
𝒲
𝒲
𝒱
𝒱
𝒲
𝒱
𝒱
𝒲
𝒱
𝒲
𝒱
𝒲
𝒱
𝒲
𝒱
𝒲
𝒲
𝒱
𝕂
𝒱
𝒲
𝒱
𝒲











𝒱
𝒱
𝒲
𝒱


𝒲



𝕂
𝒲







𝒱
𝒲
𝒲
𝒱
𝒲
𝒲
𝒱
𝒱
𝒲
𝒱










En este esquema MV se refiere a MBB′ y MW a MBB′

128
𝒱
𝒲
𝒱
𝒲


Ejemplo:

Considere la (aplicación lineal de) simetría respecto al plano P = {(x, y, z) ∈ R3 | x − y + 2z = 0}

Encontremos la matriz de esta aplicación lineal respecto de la base canónica (tanto en el dominio como en el codominio)

Una base de R3 para que es sencillo encontrar las imágenes de sus vectores es B′ = {v1, v2, v3} = {(1, − 1,2), (1, − 1, − 1), (2,2,0)}

129

f (v1) = − v1 = (−1,1, − 2) f (v2) = v2 = (1, − 1, − 1) f (v3) = v3 = (2,2,0)

La matriz de f respecto de esta base B′ está formada por las coordenadas (columnas) de f (v1), f (v2), f (v3) respecto de esta base:

f (v1) = −v1 = (−1)v1 + 0v2 + 0v3 −1 0 0


( 0 0 1)
f (v2) = v2 = 0v1 + 1v2 + 0v3 ⟹ F′ = 0 1 0
f (v3) = v3 = 0v1 + 0v2 + 1v3

La matriz del cambio de base, de la base canónica B = {e1, e2, e3} a la base B′ = {v1, v2, v3}, está formada por las coordenadas
(columnas) de v1, v2, v3 respecto de la base canónica

v1 = (1, − 1,2) = 1e1 + (−1)e2 + 2e3 1 1 2


( 2 −1 0)
v2 = (1, − 1, − 1) = 1e1 + (−1)e2 + (−1)e3 ⟹ MBB′ = −1 −1 2
v3 = (2,2,0) = 2e1 + 2e2 + 0e3

La relación entre la matriz pedida F y las obtenidas arriba es F′ = (MBB′)−1 ⋅ F ⋅ MBB′ lo que puede escribirse:

2 1
1
6
− 16 1
3 3 3
− 23
1 1 2 −1 0 0
( 2 −1 0) ( 0 0 1)
1 1 2 2
F= MBB′ ⋅ F′ ⋅ (MBB′)−1 = −1 −1 2 ⋅ 0 1 0 ⋅ 3
− 13 − 13 = 3 3 3

− 23 2
1
4
1
4
0 3
− 13

Por tanto, respecto de la base canónica:

(3 3 )
2 1 2 1 2 2 2 2 1
f (x, y, z) = x + y − z, x + y + z, − x + y − z
3 3 3 3 3 3 3



130







Sección 3

Núcleo e imagen de una aplicación lineal


Sean los -espacios vectoriales y y la aplicación lineal f : →

Núcleo de f : N( f ) = ker( f ) = {v ∈ | f (v) = 0}

Propiedades:

I. 0 ∈ ker( f ) ( ker( f ) ≠ ∅ )

f (0) = 0 ⟹ 0 ∈ ker( f )

II. ker( f ) ⊂ es subespacio vectorial de

v, w ∈ ker( f ) ⟹ f (v) = 0 ∧ f (w) = 0 ⟹ f (v + w) = f (v) + f (w) = 0 + 0 = 0 ⟹ v + w ∈ ker( f )

v ∈ ker( f ) ⟹ f (v) = 0 ⟹ f (αv) = α f (v) = α0 = 0 ⟹ αv ∈ ker( f )

III. f es inyectiva ⟺ ker( f ) = {0}

f (0) = 0 ∧ f inyectiva ∧ v ∈ ker( f ) ⟹ f (v) = 0 ⟹ v = 0 ⟹ ker( f ) = {0}

ker( f ) = {0} ∧ f (v) = f (w) ⟹ f (v) − f (w) = 0 ⟹ f (v − w) = 0 ⟹ v − w ∈ ker( f ) ⟹ v − w = 0 ⟹ v = w

131
𝒲
𝒱
𝕂
𝒱
𝒱
𝒲
𝒱
𝒱
1 1 1 1 1
(1 0 1 2 0)
5 3
Ejemplo: Encontrar el núcleo de la aplicación lineal t : R → R , cuya matriz (respecto la b.c.) es T = 0 1 0 −1 1

Se trata de encontrar los vectores v = (v1, v2, v3, v4, v5) tales que t(v) = 0, es decir:

v1
1 1 1 1 1 v2 0
(1 0 1 2 0) v (0)
T ⋅ v = 0 1 0 −1 1 ⋅ v3 = 0
4
v5

Resolvemos el sistema homogéneo de 3 ecuaciones y 5 incógnitas:

1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 0 1 2 0
(1 0 1 2 0) (0 −1 0 1 −1) (0 1 0 −1 1) (0 0 0 0 0) (0 0 0 0 0)
0 1 0 −1 1 → 0 1 0 −1 1 → 0 1 0 −1 1 → 0 1 0 −1 1 → 0 1 0 −1 1

v1 = −v3 − 2v4 = −λ − 2μ v1 λ − 2μ λ −2μ 0 1 −2 0


v2 = v4 − v5 = μ−γ v2 μ−γ 0 μ −γ 0 1 −1
v3 = λ ⟹ v3 = λ = λ + 0 + 0 =λ 1 +μ 0 +γ 0
v4 = μ v4 μ 0 μ 0 0 1 0
v5 = γ v5 γ 0 0 γ 0 0 1

ker(t) = L({(1,0,1,0,0), (−2,1,0,1,0), (0, − 1,0,0,1)})

Nótese que r(T ) = 2 y que dim(ker(t)) = 3

132
Sean los -espacios vectoriales y y la aplicación lineal f : →

Imagen de f : img( f ) = f ( ) = {w ∈ | ∃v ∈ , f (v) = w}

Propiedades:

I. 0 ∈ img( f ) ( img( f ) ≠ ∅ )

f (0) = 0 ⟹ 0 ∈ img( f )

II. img( f ) ⊂ es subespacio vectorial de

img( f ) = f ( ) por ser la imagen de un subespacio vectorial de

III. f es sobreyectiva ⟺ img( f ) =

IV. {v1, v2, ⋯, vn} base de ⟹ {f (v1), f (v2), ⋯, f (vn)} es sistema de generadores de img( f )

w ∈ img( f ) ⟹ ∃v ∈ , v = α1v1 + ⋯ + αnvn ∧ w = f (v) ⟹ w = f (α1v1 + ⋯ + αnvn) = α1 f (v1) + ⋯ + αn f (vn)

⟹ w ∈ L({f (v1), ⋯, f (vn)})

Corolario: dim(img( f )) ≤ dim( )

Definición: Se denomina rango de la aplicación lineal f, r( f ) = dim(img( f ))

133
𝒲
𝒱
𝕂
𝒲
𝒱
𝒱
𝒱
𝒲
𝒲
𝒱
𝒱
𝒲
𝒱
𝒲
𝒱
𝒱
1 1 1 1 1
(1 0 1 2 0)
5 3
Ejemplo: Encontrar la imagen de la aplicación lineal t : R → R , cuya matriz (respecto la b.c.) es T = 0 1 0 −1 1

Se trata de encontrar los vectores w = (w1, w2, w3) tales que ∃v = (v1, v2, v3, v4, v5), t(v) = w, es decir:

v1
1 1 1 1 1 v2 w1

(1 0 1 2 0) v
w = T ⋅ v = 0 1 0 −1 1 ⋅ v3 = w2
4 w3
v5

w1 1 1 1 1 1
(1) (0) (1) (2) (0)
w2 = v1 0 + v2 1 + v3 0 + v4 −1 + v5 1
w3

img(t) = L({(1,0,1), (1,1,0), (1,0,1), (1, − 1,2), (1,1,0)}) = col(T )

img(t) = L({(1,0,1), (1,1,0)})

1 1 1 1 1
(1 0 1 2 0)
Recuérdese que r 0 1 0 −1 1 = 2 y que sus dos primeras columnas son l.i.

dim(img(t)) = r(T ) = dim(col(T )) = 2

Podemos expresar img(t) mediante un sistema de ecuaciones:

1 1 x 1 1 x 1 1 x
r 0 1 y =2 ⟹ 0 1 y → 0 1 y ⟹ x−y−z =0
1 0 z 0 −1 z − x 0 0 z−x+y

134
Teorema: Sean los -espacios vectoriales y , con dim( ) = n, y la aplicación lineal f : →

dim(ker( f )) + dim(img( f )) = dim( )

Sea k = dim(ker( f )), k ≤ n Elijamos una base de ker( f ), BK = {v1, v2, ⋯, vk}

Completémosla con n − k vectores hasta obtener una base de , BV = {v1, v2, ⋯, vk, vk+1, ⋯, vn}

Consideremos B = {f (vk+1), ⋯, f (vn)}

w ∈ img( f ) ⟹ ∃v ∈ , v = α1v1 + ⋯ + αk vk + αk+1vk+1 + ⋯ + αnvn, w = f (v) = f (α1v1 + ⋯ + αk vk + αk+1vk+1 + ⋯ + αnvn) =

= α1 f (v1) + ⋯ + αk f (vk ) + αk+1 f (vk+1) + ⋯ + αn f (vn) = αk+1 f (vk+1) + ⋯ + αn f (vn) ⟹ w ∈ L(B)

(es decir, B es sistema de generadores de img( f ))

Además, si αk+1 f (vk+1) + ⋯ + αn f (vn) = 0 ⟹ f (αk+1vk+1 + ⋯ + αnvn) = 0 ⟹ αk+1vk+1 + ⋯ + αnvn ∈ ker( f )

⟹ αk+1vk+1 + ⋯ + αnvn = α1v1 + ⋯ + αk vk ⟹ α1v1 + ⋯ + αk vk − αk+1vk+1 − ⋯ − αnvn = 0 ⟹ αk+1 = ⋯ = αn = 0

(es decir, B es libre)

Por tanto B es base de img( f ) y dim(img( f )) = n − k = dim( ) − dim(ker( f ))

135
𝒲
𝒱
𝕂
𝒱
𝒱
𝒱
𝒲
𝒱
𝒱
𝒱
Corolarios:

I. dim(img( f )) ≤ dim( ) dim(ker( f )) ≤ dim( )

II. f inyectiva ⟺ dim = r( f ) = dim(img( f ))

III. f inyectiva ⟹ dim( ) = dim(img( f )) ≤ dim( )

IV. f sobreyectiva ⟹ dim( ) = dim(img( f )) ≤ dim( )

V. f biyectiva ⟹ dim( ) = dim( )

Corolario:

Sean los -espacios vectoriales y , con dim( ) = dim( ) = n, y la aplicación lineal f : → . Son equivalentes:

(a) f inyectiva

(b) f sobreyectiva

(c) f biyectiva

(d) ker( f ) = {0}

(e) r( f ) = n

(c) ⟹ (a) ⟺ (d )
⇕ (cor. II)
(e) ⟺ (b) ⟸ (c)

136
𝒲
𝒱
𝕂
𝒱
𝒱
𝒲
𝒱
𝒱
𝒲
𝒱
𝒲
𝒱
𝒱
𝒲
𝒲
𝒱
Notas (nomenclatura):

Sean los -espacios vectoriales y y la aplicación lineal f : →

• Se dice que f es un homomorfismo

• Si f es inyectiva se dice que es un monomorfismo

• Si f es sobreyectiva se dice que es un epimorfismo

• Si f es biyectiva se dice que es un isomorfismo

• Si = se dice que f es un endomorfismo

• Si = y f es biyectiva se dice que es un automorfismo

137
𝒲
𝒱
𝕂
𝒱
𝒱
𝒱
𝒲
𝒲
𝒲
Sección 4

Composición de aplicaciones lineales

Composición:

Siendo f ∈ ( , ), g ∈ ( , ), la composición de ambas es h = g ∘ f ∈ ( , ), ∀v ∈ , h(v) = (g ∘ f )(v) = g( f (v))

Podemos comprobar que efectivamente g ∘ f es una aplicación lineal:

I. ∀x, y ∈ , (g ∘ f )(x + y) = g( f (x + y)) = g( f (x) + f (y)) = g( f (x)) + g( f (y)) = (g ∘ f )(x) + (g ∘ f )(y)

II. ∀x ∈ , ∀α ∈ (g ∘ f )(αx) = g( f (αx)) = g(α f (x)) = αg( f (x)) = α(g ∘ f )(x)

y que siendo F y G las matrices de f y g, respecto de bases fijadas de antemano, la matriz de h = g ∘ f es:

H=G⋅F

138
𝕃
𝒱
𝒱
𝒱
𝒲
𝕃
𝒱
𝕂
𝒳
𝕃
𝒲
𝒳
𝒱
dim(ker( f )) + dim(img( f )) = dim( ) dim(ker(g)) + dim(img(g)) = dim( ) dim(ker(g ∘ f )) + dim(img(g ∘ f )) = dim( )

img( f ) ⊂ ⟹ img(g ∘ f ) ⊂ img(g) ⟹ r(g ∘ f ) ≤ r(g)


⟹ r(g ∘ f ) ≤ min(r( f ), r(g))

dim(ker(g) ∩ img( f )) + dim(img(g ∘ f )) = dim(img( f )) ⟹ r(g ∘ f ) ≤ r( f )


Considerando gf : img( f ) →

139
𝒳
𝒲
𝒱
𝒱
𝒲
Producto escalar y ortogonalidad

Espacios euclídeos
Ortogonalidad
Ortogonalización. Método de Gram-Schmidt
Proyecciones ortogonales.
Ejemplo: Series de Fourier

140
Sección 1

Productos escalares. Espacios euclídeos


Sea un R − e . v . ( C − e . v . )

Diremos que la aplicación < ⋅ , ⋅ >: × → R ( < ⋅ , ⋅ >: × → C) es un producto escalar


(producto hermítico) sobre si verifica las siguientes propiedades:

I. ∀u, v ∈ < u, v > = < v, u > ( < u, v > = < v, u > )

II. ∀α ∈ ℝ, ∀u, v ∈ < αu, v > = α < u, v > ( ∀α ∈ ℂ, ∀u, v ∈ )

III. ∀u, v, w ∈ < u + v, w > = < u, w > + < v, w >

IV. ∀u ∈ u ≠ 0 ⟹ < u, u > > 0

Diremos también que ( , < ⋅ , ⋅ > ) es un Espacio euclídeo (Espacio hermítico)

141
𝒱
𝒱
𝒱
𝒱
𝒱
𝒱
𝒱
𝒱
𝒱
𝒱
𝒱
𝒱
PROPIEDADES

V. ∀α ∈ R, ∀u, v ∈ < u, αv > = α < u, v > ( ∀α ∈ C, ∀u, v ∈ , < u, αv > = α < u, v > )

VI. ∀u, v, w ∈ < u, v + w > = < u, v > + < u, w >

VII. ∀u ∈ < 0,u > = 0

VIII. ∀u ∈ u = 0 ⟺ < u, u > = 0

< u1, v1 > ⋯ < u1, vm > b1


n m n m
< u2, v1 > ⋯ < u2, vm > b
aibj < ui, vj > = (a1 a2 ⋯ an) ⋅ ⋅ 2
∑ ∑ ∑∑
IX. < aiui, bj vj > =
⋮ ⋱ ⋮ ⋮
i=1 j=1 i=1 j=1
< un, v1 > ⋯ < un, vm > bm

< u1, v1 > ⋯ < u1, vm > b1


n m n m
< u2, v1 > ⋯ < u2, vm > b2
aibj < ui, vj > = (a1 a2 ⋯ an) ⋅
∑ ∑ ∑∑
< aiui, bj vj > = ⋅
⋮ ⋱ ⋮ ⋮
i=1 j=1 i=1 j=1
< un, v1 > ⋯ < un, vm > bm

142
𝒱
𝒱
𝒱
𝒱
𝒱
EXPRESIÓN ANALÍTICA (MATRIZ DE GRAM)

En espacios de dimensión finita, sean:


n n

∑ ∑
una base de , B = {e1, e2, ⋯, en} y dos vectores u= uiei y v= vj ej
i=1 j=1

< e1, e1 > ⋯ < e1, en > v1


n n
< e2, e1 > ⋯ < e2, en > v2
ui vj < ei, ej > = (u1 u2 ⋯ un) ⋅
∑∑
< u, v > = ⋅
⋮ ⋱ ⋮ ⋮
i=1 j=1
< en, e1 > ⋯ < en, en > vn

< e1, e1 > ⋯ < e1, en > v1


n n
< e2, e1 > ⋯ < e2, en > v
ui vj < ei, ej > = (u1 u2 ⋯ un) ⋅ ⋅ 2
∑∑
< u, v > =
⋮ ⋱ ⋮ ⋮
i=1 j=1
< en, e1 > ⋯ < en, en > vn

El producto escalar o hermítico de dos vectores se puede escribir en función de sus coordenadas y de la matriz de Gram de la
base empleada:

< u, v > = u T ⋅ G ⋅ v < u, v > = u T ⋅ G ⋅ v

143
𝒱
𝒱
EJEMPLOS

En Rn

v1
n
v
< u, v > = < (u1 u2 ⋯ un), (v1 v2 ⋯ vn) > = ui vi = u1v1 + u2v2 + ⋯unvn = (u1 u2 ⋯ un) ⋅ 2
∑ ⋮
i=1
vn

En Cn

v1
n
v
< u, v > = < (u1 u2 ⋯ un), (v1 v2 ⋯ vn) > = ui vi = u1v1 + u2v2 + ⋯unvn = (u1 u2 ⋯ un) ⋅ 2
∑ ⋮
i=1
vn

b b

∫a ∫a
En C([a, b]; R) < f, g > = fg = f (x)g(x) d x

b b

∫a ∫a
En C([a, b]; C) < f, g > = fg = f (x)g(x) d x

144
NORMA

Sea un R − e . v . o un C − e . v .

Llamando al cuerpo, diremos que la aplicación ∥ ⋅ ∥ : → ℝ es una norma sobre si verifica las siguientes propiedades:

I. ∀u ∈ ∥u∥ ≥ 0

II. ∀u ∈ u = 0 ⟺ ∥u∥ = 0

III. ∀α ∈ , ∀u ∈ ∥αu∥ = | α | ⋅ ∥u∥

IV. ∀u, v ∈ ∥u + v∥ ≤ ∥u∥ + ∥v∥ (desigualdad triangular)

Toda norma permite definir una distancia d: × → R de modo que ∀u, v ∈ , d(u, v) = ∥u − v∥

Propiedades:

∀u, v, w ∈ I. d(u, v) ≥ 0 II. d(u, v) = 0 ⟺ u = v III. d(u, v) = d(v, u) IV. d(u, w) ≤ d(u, v) + d(v, w)

NORMA INDUCIDA

En un espacio euclídeo o hermítico puede definirse la siguiente norma a partir del producto escalar / hermítico del espacio:

∥u∥ = < u, u >

145
𝕂
𝒱
𝒱
𝒱
𝒱
𝒱
𝕂
𝒱
𝒱
𝒱
𝒱
𝒱
𝒱
que cumple además la siguiente propiedad (desigualdad de Schwarz):

∀u, v ∈ | < u, v > | ≤ ∥u∥ ⋅ ∥v∥ ( | < u, v > |2 ≤ < u, u > ⋅ < v, v > )

En el caso de espacios euclídeos, puede escribirse:


< u, v >
∀u, v ∈ u, v ≠ 0 ⟹ − 1 ≤ ≤1
∥u∥ ⋅ ∥v∥

lo que permite definir el ángulo entre u y v (∡u,v ∈ [0,π]):

< u, v >
cos∡u,v =
∥u∥ ⋅ ∥v∥

146
𝒱
𝒱
Sección 2

Ortogonalidad entre vectores y subespacios


En Geometría decimos que dos vectores son perpendiculares si el ángulo entre ellos es recto
π
Se verifica que ∀u, v ∈ u, v ≠ 0 ∧ ∡u,v = ⟹ < u, v > = 0
2

Generalizando este concepto, definimos, en espacios euclídeos y hermíticos:

Dos vectores u, v ∈ son ortogonales ⟺ < u, v > = 0

Propiedades:

I. 0 es ortogonal a todos los vectores ∀u ∈ < 0,u > = 0

II. Solamente 0 es ortogonal a sí mismo < u, u > = 0 ⟹ u = 0


π
III. En un espacio euclídeo, si dos vectores son ortogonales, o bien uno es nulo o bien forman un ángulo de
2
π
< u, v > = 0 ⟹ (u = 0 ∨ v = 0 ∨ (u ≠ 0 ∧ v ≠ 0 ∧ ∡u,v = ))
2

147
𝒱
𝒱
𝒱
Sea un espacio euclídeo o hermítico. Considerando los conjuntos V, W ⊂ y el vector u ∈ definimos:

u es ortogonal a V ⟺ ∀v ∈ V, < u, v > = 0

V es ortogonal a W ⟺ ∀v ∈ V, ∀w ∈ W, < v, w > = 0

En el caso de que V, W ⊂ sean subespacios vectoriales de , con bases BV = {v1, v2, ⋯, vn} y BW = {w1, w2, ⋯, wm}
respectivamente, se verifica:

u es ortogonal a V ⟺ ∀i ∈ {1,⋯, n}, < u, vi > = 0

V es ortogonal a W ⟺ ∀i ∈ {1,⋯, n}, ∀j ∈ {1,⋯, m}, < vi, wj > = 0

148
𝒱
𝒱
𝒱
𝒱
𝒱
SISTEMAS ORTOGONALES

Un conjunto finito o numerable de vectores S = {u1, u2, ⋯, un, ⋯} es un sistema ortogonal de vectores si

∀i, j ∈ ℕ, i ≠ j ⟹ < ui, uj > = 0

Propiedades:

I. S = {u1, u2, ⋯, un, ⋯} sistema ortogonal ∧ 0 ∉ S ⟹ S es libre


n n
2
∥ui∥2
∑ ∑
II. S = {u1, u2, ⋯, un} sistema ortogonal ⟹ ∥ ui∥ = (teorema generalizado de Pitágoras)
i=1 i=1

Llamamos sistema ortonormal de vectores a un sistema ortogonal de vectores que además verifique:

∀i ∈ {1,⋯, m} | | ui | | = 1

Propiedad:

I. A partir de todo sistema ortogonal de vectores que no incluya a 0 podemos construir uno ortonomal

{ ∥u1∥ ∥u2∥ }
u1 u u
S = {u1, u2, ⋯, un, ⋯} es ortogonal ∧ 0 ∉ S ⟹ T= , 2 , ⋯, n , ⋯ es ortonormal
∥un∥

149
Sección 3

Método de ortogonalización de Gram-Schmidt


Sea S = {u1, u2, ⋯, un, ⋯} un conjunto libre, finito o numerable de vectores de

Llamemos Lk = L({u1, u2, ⋯, uk}) al subespacio generado por los k primeros vectores de S

Construyamos el conjunto T = {e1, e2, ⋯, en, ⋯} de manera que:

• e1 = u1
< u2, e1 >
e
• 2 = u 2 − e
< e1, e1 > 1

< u3, e1 > < u3, e2 >


e
• 3 = u 3 − e − e
< e1, e1 > 1 < e2, e2 > 2
k−1
< uk, ei >
∑ < ei, ei > i
ek = uk − e

i=1

se verifica que:

I. Lk = L({u1, u2, ⋯, uk}) = L({e1, e2, ⋯, ek}) = L′k

II. ek+1 es ortogonal a Lk

III. 0∉T

IV. T = {e1, e2, ⋯, en, ⋯} es un sistema ortogonal de vectores

150
𝒱

(Se verá después que ek = uk − PL⊥k−1(uk ), siendo PL⊥k(v) la proyección ortogonal de v sobre el subespacio Lk)

BASES ORTOGONALES

Sea un espacio euclídeo o hermítico de dimensión finita n

Sea B = {u1, u2, ⋯, un} una base de ( = L({u1, u2, ⋯, un}) = Ln)

Aplicando el procedimiento de Gram-Schmidt obtenemos B N


= {e1, e2, ⋯, en}, sistema ortogonal (y libre)
de vectores, con L′n = L({e1, e2, ⋯, en}) = Ln =

⟹B N
es base (ortogonal) de

(en todo espacio euclídeo o hermítico de dimensión finita existen bases ortogonales)

La matriz del cambio de base de B N


= {e1, e2, ⋯, en} a B = {u1, u2, ⋯, un} es

< u 2, e1 > < un−1, e1 > < un, e1 >


1 < e1, e1 >
⋯ < e1, e1 > < e1, e1 >
< un−1, e2 > < un, e2 >
0 1 ⋯ < e2, e2 > < e2, e2 >
⋮ ⋮ ⋱ ⋮ ⋮
< un, en−1 >
0 0 ⋯ 1 < en−1, en−1 >
0 0 ⋯ 0 1

151
𝒱
𝒱
𝒱
𝒱
𝒱
𝒱
𝒱
𝒱
𝒱

𝒱
PRODUCTO ESCALAR EN BASES ORTOGONALES

Sea B = {e1, e2, ⋯, en} una base ortonormal de (espacio euclídeo / hermítico)
n n

∑ ∑
u= uiei ∈ v= vj ej ∈
i=1 j=1

Se verifica:
n n n n n n n n n n

∑ ∑ ∑∑ ∑ ∑ ∑ ∑∑ ∑
< u, v > = < uiei, vj ej > = ui vj < ei, ej > = ui vi < u, v > = < uiei, vj ej > = ui vj < ei, ej > = ui vi
i=1 j=1 i=1 j=1 i=1 i=1 j=1 i=1 j=1 i=1

Es decir:

v1
v
< u, v > = (u1 u2 ⋯ un) ⋅ 2

vn
v1
v
< u, v > = (u1 u2 ⋯ un) ⋅ 2

vn

(La matriz de Gram para bases ortonormales es la identidad)

152
𝒱
𝒱
𝒱
𝒱
COORDENADAS EN BASES ORTOGONALES

Sea B = {e1, e2, ⋯, en} una base ortogonal / ortonormal de y u, v ∈


n


u= uiei ⟹ ∀j ∈ {1,⋯, n}, < u, ej > = uj < ej, ej > ∀j ∈ {1,⋯, n}, < u, ej > = uj
i=1

Luego:
n n
< u, ei >
∑ < ei, ei > i ∑
u= e u= < u, ei > ei (†)
i=1 i=1

Se verifica:
n n
< u, ei > < v, ei >
∑ ∑
< u, v > = < u, v > = < u, ei > < v, ei > (†)
i=1
< ei, ei > i=1

n n
< u, ei > < v, ei >
∑ ∑
< u, v > = < u, v > = < u, ei > < v, ei > (†)
i=1
< ei, ei > i=1

Y por tanto:

| < u, ei > |2
n n
2 2
| < u, ei > |2
∑ < ei, ei > ∑
∥u∥ = ∥u∥ = (†)
i=1 i=1

| < u, ei > |2
n n
2 2
| < u, ei > |2 (†)
∑ < ei, ei > ∑
∥u∥ = ∥u∥ =
i=1 i=1

(†) Fórmulas de Parseval

153
𝒱
𝒱
𝒱
Sección 4

Proyecciones ortogonales
Sea un espacio euclídeo / hermítico de dimensión finita y U ⊂ un subespacio vectorial de

Llamamos subespacio ortogonal (complemento ortogonal) de U

U ⊥ = {w ∈ / ∀u ∈ U, < w, u > = 0}

Propiedades:

I. U ⊥ es subespacio vectorial de

II. U ∩ U ⊥ = {0}

III. = U ⊕ U⊥ (y dim( ) = dim(U ) + dim(U ⊥))

IV. ∀v ∈ , ∃!u ∈ , ∃!u ⊥ ∈ U ⊥, v = u + u ⊥ A u ∈ U le llamamos proyección ortogonal de v sobre U

(y u ⊥ ∈ U ⊥ es la proyección ortogonal de v sobre U ⊥)

V. (U ⊥)⊥ = U

154
𝒱
𝒱
𝒱
𝒱
𝒱
𝒱
𝒱
𝒱
CÁLCULO DE LA PROYECIÓN ORTOGONAL

Dada una base del subespacio U ⊂ , BU = {u1, u2, ⋯, un}, la proyección ortogonal sobre U de v ∈ será
n


u= αiui
i=1

n
αiui ∈ U ⊥ ha de ser ortogonal a U, se verifica:

Como v −
i=1


∀j ∈ {1,⋯, n} < v − αiui, uj > = 0 (sistema de n ecuaciones y n incógnitas αj)
i=1

Si la base del subespacio U ⊂ , BU = {e1, e2, ⋯, en}, es ortogonal / ortonormal, para cualquier v ∈ su proyección ortogonal
sobre U es:
n n
< v, ei >
∑ < ei, ei > i ∑
u= e u= < v, ei > ei
i=1 i=1

Podemos definir la aplicación pU⊥ : ⟶ U que asigne a cada v ∈ su proyección ortogonal u

Propiedades:

I. pU⊥ es lineal

II. pU⊥ es idempotente pU⊥ ∘ pU⊥ = pU⊥

III. Im(pU⊥) = U ∧ Ker(pU⊥) = U ⊥

155
𝒱
𝒱
𝒱
𝒱
𝒱
𝒱
MEJOR APROXIMACIÓN

Siendo pU⊥(v) la proyección ortogonal sobre U de v ∈ se verifica

∀w ∈ U,∥v − pU⊥(v)∥ ≤ ∥v − w∥

siendo por tanto pU⊥(v) el elemento de U más cercano a v de todos los w de U


(pU⊥(v) es la mejor aproximación a v en U)

Propiedades:

I. ∥v∥2 = ∥u∥2 + ∥v − u∥2 (∥v∥2 = ∥pU⊥(v)∥2 + ∥pU⊥⊥(v)∥2)

II. Siendo BU = {e1, e2, ⋯, en} una base ortogonal de U

| < v, ei > |2
n
| < v, ei > |2
n
≤ ∥v∥2 = ∥v∥2 (‡)
∑ < ei, ei > ∑ < ei, ei >
(†) v∈U ⟹
i=1 i=1

III. Siendo BU = {e1, e2, ⋯, en} una base ortonormal de U


n n
2 2
| < v, ei > |2 = ∥v∥2 (‡)
∑ ∑
| < v, ei > | ≤ ∥v∥ (†) v∈U ⟹
i=1 i=1

(†) Primera desigualdad de Bessel

(‡) Identidad de Parseval

156
𝒱
Sección 5

Ejemplo: Series de Fourier


Sea un espacio euclídeo / hermítico de dimensión no finita

El sistema S = {u1, u2, ⋯, un, ⋯} ⊂ es libre ⟺ ∀n ∈ ℕ, Sn = {u1, u2, ⋯, un} es libre

El sistema S = {u1, u2, ⋯, un, ⋯} ⊂ es ligado ⟺ ∃n ∈ ℕ, Sn = {u1, u2, ⋯, un} es ligado

Encontraremos ejemplos de espacios de dimensión no finita en los espacios funcionales

• C([a, b]; ) de las funciones reales o complejas de variable real continuas

• CT([a, b]; ) de las funciones reales o complejas de variable real continuas a trozos

• R2([a, b]; ) de las funciones reales o complejas de variable real, continuas a trozos en (a, b) y de cuadrado integrable† en
[a, b]
b b

∫a ∫a
Caso =R f : [a, b] → R Producto escalar < f, g > = fg = f (x)g(x) d x

b b

∫a ∫a
Caso =C f : [a, b] → C Producto hermítico < f, g > = fg = f (x)g(x) d x

En los casos CT([a, b]; ) y R2([a, b]; ) es necesario considerar como iguales funciones que lo son en casi todo punto (pero no
en todos) para que puedan considerarse estos productos escalares / hermíticos

b b b

∫a ∫a ∫a
2 2
† Existencia de f (x)d x en el caso real y de | f (x) | d x = ℜ( f (x))2 + ℑ( f (x))2d x en el complejo

157
𝕂
𝒱
𝕂
𝕂
𝕂
𝕂
𝕂
𝕂
𝒱
𝒱
PROYECCIÓN ORTOGONAL

Sea un espacio euclídeo / hermítico de dimensión no finita y U ⊂ un subespacio vectorial de

Llamamos subespacio ortogonal† de U

U ⊥ = {w ∈ / ∀u ∈ U, < w, u > = 0}

Propiedades:

I. U ⊥ es subespacio vectorial de

II. U ⊂ (U ⊥)⊥

III. U ∩ U ⊥ = {0}

IV. No tiene porqué existir la proyección ortogonal de un vector v ∈ sobre U

V. Si U es de dimensión finita, con base BU = {e1, e2, ⋯, en} ortogonal / ortonormal, sí está garantizada la existencia de la
proyección ortogonal ∀v ∈
n n
< v, ei >
pU⊥(v) pU⊥(v)
∑ < ei, ei > i ∑
= e = < v, ei > ei
i=1 i=1

† El término complemento ortogonal está reservado para el caso de espacios de dimensión finita

158
𝒱
𝒱
𝒱
𝒱
𝒱
𝒱
𝒱
𝒱
MEJOR APROXIMACIÓN

Sea S = {e1, e2, ⋯, en, ⋯} un sistema ortogonal / ortonormal del espacio euclídeo / hermítico

Consideremos v ∈ y los subespacios Un = L({e1, e2, ⋯, en})


n n
< v, ei >
pU⊥n(v) pU⊥n(v)
∑ < ei, ei > i ∑
En cada uno de ellos, la mejor aproximación es = e = < v, ei > eiverificándose:
i=1 i=1

n
| < v, ei > |2 n
≤ ∥v∥2 | < v, ei > |2 ≤ ∥v∥2
∑ < ei, ei > ∑
i=1 i=1

considerando m > n ( Um ⊃ Un ) se verifica: (suma de términos no negativos acotada)

| < v, ei > |2
n m
| < v, ei > |2 n
2
m
≤ ∥v∥2 | < v, ei > |2 ≤ ∥v∥2
∑ < ei, ei > ∑ < ei, ei > ∑ ∑
≤ | < v, ei > | ≤
i=1 i=1 i=1 i=1

El (cuadrado del) error cometido es, en cada caso:

| < v, ei > |2
m n
| < v, ei > |2 m
2
n
2 2 2 2
| < v, ei > |2
∑ < ei, ei > ∑ < ei, ei > ∑ ∑
∥v∥ − ≤ ∥v∥ − ∥v∥ − | < v, ei > | ≤ ∥v∥ −
i=1 i=1 i=1 i=1

Por tanto al considerar más vectores de S, obtenemos mejores aproximaciones, con menos error (en norma)

Las mejores aproximaciones pU⊥n(v) forman una sucesión de Cauchy

159
𝒱
𝒱

| < v, ei > |2 n
| < v, ei > |2 ∞
2
n
| < v, ei > |2
∑ < ei, ei > n→∞ ∑ ∑ n→∞ ∑
Llamando: = lim | < v, ei > | = lim
i=1 i=1
< ei, ei > i=1 i=1


| < v, ei > |2 ∞
≤ ∥v∥2 | < v, ei > |2 ≤ ∥v∥2
∑ < ei, ei > ∑
Se verifica: (desigualdad de Bessel)
i=1 i=1

| < v, ei > |
y lim =0 lim | < v, ei > | = 0
i→∞ ∥ei∥ i→∞

El (cuadrado del) error en norma cometido con la sucesión de mejores aproximaciones converge a:

| < v, ei > |2 ∞
2 2
| < v, ei > |2
∑ < ei, ei > ∑
∥v∥ − ∥v∥ −
i=1 i=1

SERIE DE FOURIER

S = {e1, e2, ⋯, en, ⋯} un sistema ortogonal /ortonormal del espacio euclídeo / hermítico

Definimos Serie de Fourier asociada a cada v ∈


∞ ∞
< v, ei >
∑ < ei, ei > i ∑
v∼ e v∼ < v, ei > ei
i=1 i=1

y representa el límite al que convergen las mejores aproximaciones

¿Representará a v su Serie de Fourier?

160
𝒱
𝒱
PERIODICIDAD

Una función f : R → se dice periódica de período T si verifica ∀x ∈ R, f (x) = f (x + T )

Propiedad: f :R→ periódica de período T ⟹ ∀x ∈ R, ∀k ∈ Z, f (x) = f (x + kT )

(es también periódica de período kT)

Llamamos periodo fundamental T0 al menor T > 0 que verifique ∀x ∈ R, f (x) = f (x + T )

1 2π
Llamamos frecuencia de f a ν = , y pulsación de f a ω =
T0 T0

T
α+T T

∫α ∫0 ∫− T
2
Propiedad: f :R→ periódica de período T ⟹ ∀α ∈ R, f (x)d x = f (x)d x = f (x)d x
2

Las funciones del sistema trigonométrico son periódicas

( n )

1 (cualquier período) sin x, cos x (T0 = 2π) sin n x, cos n x T0 =

Las funciones del sistema de exponenciales complejas son periódicas


161
𝕂
𝕂
𝕂
2π 2π
e j0x = 1 (cualquier período) k ≠ 0 ⟹ e jk(x+ k ) = e jkx e 2πj = e jkx (T0 = )
k


Si realizamos el cambio de variables x = ωt = t obtenemos las funciones periódicas
T

( ω) ( nω )
2π 2π
sin ωt, cos ωt T0 = sin nωt, cos nωt T0 =

2π 2π
k ≠ 0 ⟹ e jkω(t+ kω ) = e jkωt e 2πj = e jkωt (T0 = )

162
EXTENSIÓN PERIÓDICA

Dada función f : [a, b] → , f (a) = f (b), definimos su extensión periódica de período T = b − a, a la función

⌊ T ⌋
x−a
f˜ : R → que ∀x ∈ R, f˜(x) = f (x − T)

que es periódica de período T = b − a y verifica ∀x ∈ [a, b], f˜(x) = f (x)

163
𝕂
𝕂
SISTEMA TRIGONOMÉTRICO

En espacios reales en [−π, π], el sistema trigonométrico {1, sin n x, cos n x}n∈N es ortogonal

Para comprobarlo, emplearemos las siguientes relaciones trigonométricas

sin(a − b) = sin a cos b − cos a sin b}


sin(a + b) = sin a cos b + cos a sin b
⟹ sin a cos b = 12 (sin(a − b) + sin(a + b))

cos a cos b = 12 (cos(a − b) + cos(a + b))


cos(a − b) = cos a cos b + sin a sin b}
cos(a + b) = cos a cos b − sin a sin b

sin a sin b = 12 (cos(a − b) − cos(a + b))

π π

∫−π ∫−π
Y que ∀k ∈ Z − {0}, sin k xd x = cos k x = 0

Consideraremos los productos escalares entre todos los pares de vectores


π π

∫−π ∫−π
< 1, sin n x > = sin n xd x = 0 < 1, cos n x > = cos n xd x = 0

π
1 π
∫−π 2 ∫−π
< sin n x, cos m x > = sin n x cos m xd x = (sin(n − m)x + sin(n + m)x)d x = 0
π
1 π
∫−π 2 ∫−π
< sin n x, sin m x > = sin n x sin m xd x = (cos(n − m)x − cos(n + m)x)d x = 0 (m ≠ n)

π
1 π
∫−π 2 ∫−π
< cos n x, cos m x > = cos n x cos m xd x = (cos(n − m)x + cos(n + m)x)d x = 0 (m ≠ n)

164
Las normas son:
π

∫−π
< 1,1 > = 1d x = 2π ∥1∥ = 2π

π π
1 − cos 2n x
∫−π ∫−π
2
< sin n x, sin n x > = sin n xd x = dx = π ∥ sin n x∥ = π
2
π π
1 + cos 2n x
∫−π ∫−π
2
< cos n x, cos n x > = cos n xd x = dx = π ∥ cos n x∥ = π
2

{ }
1 sin n x cos n x
Por tanto el sistema , , es ortonormal
2π π π n∈N

[ 2 2]
T T
En espacios reales de funciones definidas en el intervalo − , , [0,T ] (o en general [α, α + T ])


y llamando ω = , el sistema {1, sin nωt, cos nωt}n∈N es ortogonal
T

T
1 π
∫− T ω ∫−π
2
Por ejemplo: < sin nωt, cos mωt > = sin nωt cos mωtdt = sin n x cos m xd x = 0
2

(realizando el cambio x = ωt, d x = ωdt )

Puede comprobarse que en los demás productos escalares el resultado es similar

165
Las normas son:
T

∫− T
2
< 1,1 > = 1dt = T ∥1∥ = T
2

T T
1 − cos 2nωt T T
∫− T ∫− T
2 2
< sin nωt, sin nωt > = sin2 nωtdt = dt = ∥ sin nωt∥ =
2 2 2
2 2

T T
1 + cos 2nωt T T
∫− T ∫− T
2 2
< cos nωt, cos nωt > = cos2 nωtdt = dt = ∥ cos nωt∥ =
2 2 2
2 2

SERIE DE FOURIER TRIGONÓMETRICA


2
Dado f ∈ ([−π, π]; R)

a0
(an cos n x + bn sin n x)
2 ∑
f (x) ≈ +
n=1

Siendo:

a0 < f (x),1 > 1 π


2π ∫−π
= = f (x)d x
2 < 1,1 >

< f (x), cos n x > 1 π


π ∫−π
an = = f (x)cos n xd x
< cos n x, cos n x >

166
𝕃
< f (x), sin n x > 1 π
π ∫−π
bn = = f (x)sin n xd x
< sin n x, sin n x >

La identidad de Parseval queda:



a02 1 π 2
∫−π
2 2
∑ n
+ a + bn = f (x)d x
2 n=1
π


| < v, ei > |2 a0 2 1 ∞
(π an )2 (πbn )2 π

∫−π
Ya que ∑ < ei, ei >
2
= ∥v∥ ⟺ (2π ) +
∑ π
+ = f 2(x)d x
i=1
2 2π n=1
π

2 T T
Dado f ∈ ([− , ]; R)
2 2


a0
(an cos nωt + bn sin nωt)
2 ∑
f (t) ≈ +
n=1

T T T
a0 1 2 2 2 2 2
T ∫− T T ∫− T T ∫− T
= f (t)dt an = f (t)cos nωtdt bn = f (t)sin nωtdt
2
2 2 2

167
𝕃
T

a02 2 2 2
∫− T
an2 + bn2 =

+ f (t)dt (identidad de Parseval)
2 n=1
T
2

SISTEMA DE EXPONENCIALES COMPLEJAS

En espacios complejos en [−π, π], el sistema de exponenciales complejas {e jkx}k∈Z es ortogonal

Consideraremos los productos hermíticos entre todos los pares de vectores


π π π
1
∫−π ∫−π ∫−π
jkx jlx jkx jlx jkx −jlx
<e ,e >= e e dx = e e dx = e j(k−l)x d x = [ e j(k−l)x ]π−π = 0 (k ≠ l)
j(k − l)

Las normas son:


π π π

∫−π ∫−π ∫−π


jkx jkx jkx jkx jkx −jkx
<e ,e >= e e dx = e e dx = 1d x = 2π ∀k ∈ Z,∥e jkx∥ = 2π

{ 2π }
e jkx
Por tanto el sistema es ortonormal
k∈Z

168
[ 2 2]
T T
En espacios complejos de funciones definidas en el intervalo − , , [0,T ] (o en general [α, α + T ])


y llamando ω = , el sistema {e jkωt}k∈Z es ortogonal
T

T
1 π jkx jlx
∫− T ω ∫−π
2
jkωt jlωt jkωt jlωt
<e ,e >= e e dt = e e dx = 0 (k ≠ l)
2

(realizando el cambio x = ωt, d x = ωdt)

Puede comprobarse que en los demás productos escalares el resultado es similar

Las normas son


T T T

∫− T ∫− T ∫− T
2 2 2
< e jkωt, e jkωt > = e jkωt e jkωt dt = e jkωt e −jkωt dt = 1dt = T ∀k ∈ Z,∥e jωt∥ = T
2 2 2

2 π

{bn = 0
an = ∫ f (x) cos n xd x ∀n ∈ N ∪ {0}
f es par ⟹ π 0
∀n ∈ N

169

a0
2 ∑
f (x) ≈ + an cos n x
n=1


2 T T a0
2 ∑
(en f ∈ ([− , ]; R), f (t) ≈ + an cos nωt)
2 2 n=1

an = 0 ∀n ∈ N ∪ {0}
{bn =
f es impar ⟹ 2 π

π 0
f (x) sin n xd x ∀n ∈ N


f (x) ≈ bn sin n x
n=1


2 T T
∑ n
(en f ∈ ([− , ]; R), f (t) ≈ b sin nωt)
2 2 n=1

170
𝕃
𝕃
Análisis espectral: autovalores, autovectores

Autovalores y autovectores de un endomorfismo


Subespacios propios
Diagonalización de endomorfismos y matrices

171
Sección 1

Autovalores y autovectores de un endomorfismo


Sean un -e.v. y f la aplicación lineal (endomorfismo) f : →

El subespacio vectorial ⊂ se dice invariante respecto de f si f ( )⊂ (es decir, v ∈ ⟹ f (v) ∈

Ejemplos:

{0}, , ker( f ) e img( f ) son subespacios invariantes de cualquier endomorfismo f : →

Si r : R3 → R3 representa una rotación de ángulo α (0 < α < 2π) en R3 con respecto al eje Z, son invariantes el plano XY y el eje Z

Si p : R3 → R3 representa la proyección ortogonal de R3 sobre el plano XY, son invariantes, el plano XY, el eje Z, cualquier plano
que contenga al eje Z y cualquier recta contenida en el plano XY que pase por el origen

Propiedades:

I. , ⊂ invariantes ⟹ + invariante y ∩ invariante

u∈ ∧w ∈ ⟹ u+w ∈ + ⟹ f (u + w) = f (u) + f (w) ∈ +

u∈ ∩ ⟹ u∈ ∧u ∈ ⟹ f (u) ∈ ∧ f (u) ∈ ⟹ f (u) ∈ ∩

II. ⊂ ∧ dim( )=1∧ invariante ∧ f (x) = λ x ⟹ ∀y ∈ , f (y) = λy

= L({e1}) ⟹ x = x1e1 ⟹ e1 = x1−1x ⟹ y = y1e1 = y1x1−1x ⟹ f (y) = y1x1−1 f (x) = y1x1−1λ x = λy

172
𝕂
𝒱
𝒲
𝒰
𝒰
𝒲
𝒲
𝒲
𝒱
𝒱
𝒲
𝒲
𝒰
𝒰
𝒱
𝒲
𝒱
𝒱
𝒰
𝒲
𝒱
𝒱
𝒱
𝒲
𝒲
𝒲
𝒲
𝒲
𝒰
𝒲
𝒲
𝒰
𝒲
𝒰
𝒲
𝒲
𝒰
𝒰
𝒲
𝒲
Definiciones:

Sean un -e.v. y f la aplicación lineal (endomorfismo) f : →

v∈ , v ≠ 0 es un vector propio, vector característico o autovector de f si existe λ ∈ tal que f (v) = λv,

llamándose a λ ∈ valor propio, valor característico o autovalor de f correspondiente al vector v

Propiedades:

I. v∈ , v ≠ 0 es autovector de f con autovalor λ ∈ ⟹ ∀w ∈ L({v}), w ≠ 0, f (w) = λw y L({v}) es invariante

II. λ∈ es autovalor de f ⟹ Sλ = {v ∈ , f (v) = λv}† es un subespacio vectorial invariante de

0 ∈ Sλ ⟹ Sλ ≠ ∅

v, w ∈ Sλ ⟹ f (v + w) = f (v) + f (w) = λv + λw = λ(v + w) ⟹ v + w ∈ Sλ

v ∈ Sλ ⟹ f (αv) = α f (v) = αλv = λ(αv) ⟹ αv ∈ Sλ

v ∈ Sλ ⟹ f (v) = λv ∈ Sλ

Se denomina subespacio propio, o autoespacio, correspondiente al autovalor λ a Sλ = {v ∈ , f (v) = λv}

Ejemplo: D : C ∞(R, R) → C ∞(R, R), que D( f (x)) = f′(x). f (x) = eλx es autovector de D asociado al autovalor λ ∈ R

Sλ incluye a 0, además de a los autovectores asociados a λ

173
𝒱
𝒱
𝕂
𝕂
𝕂
𝒱
𝕂
𝒱
𝒱
𝒱
𝕂
𝒱
𝒱

Sean un -e.v. y f la aplicación lineal (endomorfismo) f : →

Si dim = n y B = {v1, v2, ⋯, vn} es una base formada por autovectores (f (vi) = λi vi),

λ1 0 ⋯ 0
0 λ2 ⋯ 0
la matriz de f respecto a B es diagonal F=
⋮ ⋮ ⋱ ⋮
0 0 ⋯ λn

Definición:

f: → es diagonalizable ⟺ Existe una base de respecto de la cual la matriz de f es diagonal


n n
F ∈ Mn×n es diagonalizable ⟺ La aplicación lineal f : → que tiene a F como matriz es diagonalizable

Proposición:

f: → es diagonalizable ⟺ Existe una base de formada por autovectores

Proposición:

F ∈ Mn×n es diagonalizable ⟺ ∃P ∈ Mn×n( ), P −1 ⋅ F ⋅ P es diagonal (llamándose a P matriz de paso)

Considere P la matriz del cambio de base a la base formada por autovectores

Respecto de esta base de autovectores, la matriz de f es P −1 ⋅ F ⋅ P, diagonal por ser respecto de una base de autovectores

174
𝒱
𝒱
𝕂
𝒱
𝒱
𝒱
𝒱
𝒱
𝕂
𝒱
𝒱
𝒱
𝕂
𝕂
Proposición:

Vectores propios del endomorfismo f : → correspondientes a valores propios distintos son linealmente independientes

Sean λ1, λ2, ⋯, λn autovalores distintos de f y v1, v2, ⋯, vn autovectores asociados (f (vi) = λi vi). Inductivamente:

{v1} es libre

{v1, v2, ⋯, vk} libre y α1v1 + α2v2 + ⋯ + αk vk + αk+1vk+1 = 0 ⟹ λk+1(α1v1 + α2v2 + ⋯ + αk vk + αk+1vk+1) = 0

α1 f (v1) + α2 f (v2) + ⋯ + αk f (vk ) + αk+1 f (vk+1) = 0 ⟹ α1λ1v1 + α2 λ2v2 + ⋯ + αk λk vk + αk+1λk+1vk+1 = 0 ⟹

α1(λ1 − λk+1)v1 + α2(λ2 − λk+1)v2 + ⋯ + αk(λk − λk+1)vk = 0 ⟹ α1 = α2 = ⋯ = αk = 0 ⟹ αk+1 = 0

{v1, v2, ⋯, vk, vk+1} libre

Corolario:

dim( ) = n y f : → tiene n autovalores distintos ⟹ f es diagonalizable

175
𝒱
𝒱
𝒱
𝒱
𝒱
Cálculo de los autovalores y autovectores:

Sean un -e.v. y f la aplicación lineal (endomorfismo) f : → . Si λ ∈ es un autovalor y v ∈ un autovector asociado

{v ∈ ker( f − λi )
r( f − λi ) < n
f (v) = λv ⟺ f (v) − λv = 0 ⟺ ( f − λi )(v) = 0 ⟺

n
Si dim( ) = n y la matriz de f respecto a cierta base B es F ∈ Mn×n( ), y siendo V ∈ las coordenadas de un autovector v ∈

{(F − λIn) ⋅ V = 0
r(F − λIn) < n ⟺ | F − λIn | = 0
F ⋅ V = λV ⟺ F ⋅ V − λV = 0 ⟺ F ⋅ V − λIn ⋅ V = 0 ⟺ (F − λIn) ⋅ V = 0 ⟺

Nótese que el subespacio propio asociado al autovalor λ ∈ , Sλ = {v ∈ , f (v) = λv} es Sλ = ker( f − λi )

𝒱
176
𝒱
𝒱
𝒱
𝕂
𝒱
𝕂
𝒱
𝒱
𝒱
𝒱
𝕂
𝕂
𝒱
𝒱
𝕂
Definiciones:

Polinomio característico de una matriz F ∈ Mn×n( ), p(λ) = | F − λIn | = (−1)n λ n + an−1λ n−1 + ⋯ + a1λ + a0

Ecuación característica de una matriz F ∈ Mn×n( ), p(λ) = | F − λIn | = 0 ⟺ (−1)n λ n + an−1λ n−1 + ⋯ + a1λ + a0 = 0

Proposición:

Dos matrices F, F′ ∈ Mn×n( ) del endomorfismo f : → respecto de dos bases B, B′ tienen el mismo polinomio característico
(y por tanto, los mismos autovalores)

∃P ∈ Mn×n( ), F′ = P −1 ⋅ F ⋅ P ⟹ | F′ − λIn | = | P −1 ⋅ F ⋅ P − λP −1 ⋅ In ⋅ P | = | P −1 ⋅ (F − λIn) ⋅ P | = | P −1 | ⋅ | F − λIn | ⋅ | P | = | F − λIn |

Polinomio característico y ecuación característica de un endomorfismo. los de una cualquiera de sus matrices

Proposición:

λ∈ es autovalor del endomorfismo f ⟺ λ es raíz del polinomio característico de f (o solución de su ecuación característica)

177
𝒱
𝕂


𝒱
𝕂
𝕂
𝕂
𝕂


Si = R, el polinomio característico tiene como mucho n raíces

Si = C, el polinomio característico tiene exactamente n raíces (pudiendo ser múltiples)

Sea p(λ) = (−1)n λ n + an−1λ n−1 + ⋯ + a1λ + a0. Supongamos que sus raíces son λ1, λ2, ⋯, λk

Podemos escribir p(λ) = (−1)n(λ − λ1)m1(λ − λ2)m 2⋯(λ − λk )mk i(λ)†, con m1 + m2 + ⋯ + mk ≤ n

Definiciones:

mj es la multiplicidad algebraica del autovalor λj

rj = dim(Sλj ) es la multiplicidad geométrica del autovalor λj (representa el máximo número de autovectores l.i. asociados a λj)

Propiedades (sin demostración):

I. 1 ≤ rj ≤ mj

II. k ≤ r1 + r2 + ⋯ + rk ≤ m1 + m2 + ⋯ + mk ≤ n

III. El número máximo de autovectores de f linealmente independientes es r1 + r2 + ⋯ + rk

IV. m1 + ⋯ + mk = n ∧ ∀j ∈ {1,⋯, k}, mj = rj ⟺ f diagonalizable


i(λ) es un polinomio irreducible en . En el caso de = C, i(λ) = 1 y m1 + m2 + ⋯ + mk = n

178
𝕂
𝕂
𝕂
𝕂

También podría gustarte