0% encontró este documento útil (0 votos)
25 vistas11 páginas

Fundamentos de Álgebra Lineal y Matrices

El documento aborda los fundamentos de álgebra lineal, incluyendo tipos de matrices, operaciones con matrices, y propiedades de determinantes. Se explican conceptos como matrices diagonales, simétricas, inversas y el cálculo del rango de una matriz. Además, se presentan métodos para resolver sistemas de ecuaciones lineales y la existencia de soluciones a través del teorema de Rouche-Frobenius.

Cargado por

alemenjivar03
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
25 vistas11 páginas

Fundamentos de Álgebra Lineal y Matrices

El documento aborda los fundamentos de álgebra lineal, incluyendo tipos de matrices, operaciones con matrices, y propiedades de determinantes. Se explican conceptos como matrices diagonales, simétricas, inversas y el cálculo del rango de una matriz. Además, se presentan métodos para resolver sistemas de ecuaciones lineales y la existencia de soluciones a través del teorema de Rouche-Frobenius.

Cargado por

alemenjivar03
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

Fundamentos de Matemáticas para el Aprendizaje Automático - MECOFIN 2

Matriz diagonal. Es una matriz cuadrada en la que todos los elementos son 0
excepto aquéllos que están en la diagonal principal.
Matriz simétrica. Es una matriz cuadrada en la que aij = aji para todo i, j.
Matriz anti-simétrica. Es una matriz cuadrada en la que aij = −aji para todo
Tema 1 i, j.
Matriz Nula (Θ). Todos sus elementos son 0.

Introducción al Álgebra Lineal Matriz Identidad de orden n (In ). Es una matriz diagonal en la que aii = 1
para todo i = 1, . . . , n.

1.1.2. Operaciones con matrices


1.1. Álgebra de vectores y matrices. Determinante Suma: Sean A = (aij ) y B = (bij ) matrices de dimensión m × n. La suma de A y B es
de una matriz. la matriz

Una matriz es una tabla rectangular de números o “entradas”. Si A tiene m filas y n A + B = (aij + bij )
columnas, es una matriz m × n (m por n):
Propiedades:
a11 a12 · · · a1n
 
 a21 a22 · · · a2n  Propiedad Commutativa: A + B = B + A.
A =  .. .. .. 
 
 . ...
. .  Propiedad Asociativa: A + (B + C) = (A + B) + C.
am1 am2 · · · amn
Elemento neutro: (Θ): A + Θ = Θ + A = A.

Esto es A = (aij ). Elemento opuesto: Dada una matriz A, existe una matriz (−A) tal que A + (−A) =
(−A) + A = Θ.
Habitualmente trabajaremos con matrices cuyas entradas son números reales.
Producto por un escalar: Sea A = (aij ) una matriz y α un número. El producto α · A
La diagonal principal de una matriz es la formada por a11 , a22 ,..., akk , con k =
es la matriz
min(m, n).
α · A = (α · aij )
Dos matrices se dice que son iguales si tienen el mismo número de filas, el mismo
número de columnas y sus elementos correspondientes son iguales. Propiedades: (A y B matrices, α y β escalares)

α · (A + B) = α · A + α · B.
1.1.1. Tipos de matrices
(α + β) · A = α · A + β · A.
Matriz cuadrada. Satisface m = n, es decir, tiene el mismo número de filas que
de columnas. Se dice que es una matriz cuadrada de orden n. α · (β · A) = (α · β) · A.
Matriz fila. Es una matriz con una única fila, por tanto su dimensión es 1 × n. 1 · A = A.
Matriz columna. Es una matriz con una única columna, por tanto su dimensión
es m × 1. Producto: Sean A = (aij ) una matriz m × n y B = (bij ) una matriz n × p. Su producto
es la matriz m × p:
Matriz triangular superior. Todos los elementos bajo la diagonal principal son
0. Esto es aij = 0 si i > j. n
X
A · B = C = (cij ) = ( aik · bkj )
Matriz triangular inferior. Todos los elementos sobre la diagonal principal son k=1
0. Esto es aij = 0 si i < j.
Propiedades:

1
Fundamentos de Matemáticas para el Aprendizaje Automático - MECOFIN 3 Fundamentos de Matemáticas para el Aprendizaje Automático - MECOFIN 4

Propiedad asociativa: A · (B · C) = (A · B) · C. 1.1.5. Matrices elementales


Elemento unidad: Si A es una matriz m × n, entonces A · In = Im · A = A. Dada una matriz A de dimensión m × n, las transformaciones elementales son aquellas
operaciones realizadas sobre las filas y las columnas de la matriz A para transformarla en
Propiedad distributiva: A · (B + C) = A · B + A · C. otra matriz más sencilla (por ejemplo, hallando su forma escalonada por filas). El objetivo
(B + C) · A = B · A + C · A. es conseguir facilitar la realización de los cálculos.
Estas transformaciones se usan para hallar la inversa de una matriz, para calcular el
La propiedad conmutativa no se cumple para el producto de matrices: A · B ̸= B · A
determinante de una matriz y para resolver sistemas de ecuaciones lineales:
.

Hay divisores de cero, es decir, cuando A · B = Θ es posible que A ̸= Θ y B ̸= Θ. Permutar dos filas (o columnas) de la matriz.
Ası́, la propiedad cancelativa tampoco se cumple, i.e. A · B = A · C y A ̸= Θ, no
Multiplicar una fila (o columna) por un número no nulo.
implica B = C.
Sumar una fila (o columna) a otra fila (o columna) multiplicada por un número no
nulo.
1.1.3. Matriz traspuesta
Una matriz elemental es una matriz cuadrada obtenida al aplicar una transforma-
La traspuesta de una matriz A = (aij ) de dimensión m × n es la que se obtiene cam- ción elemental a la matriz identidad:
biando sus filas por sus columnas. Denotamos At a la matriz traspuesta de A que es la
matriz n × m dada por (aji ). Fij (o Cij ): Permuta las filas (resp. columnas) i y j.

Propiedades: Fi (α) (o Ci (α)): Multiplica la fila (resp columna) i por un número α ̸= 0.

(At )t = A. Fij (α) (o Cij (α)): Suma la fila (resp. columna) j multiplicada por α a la fila (resp.
columna) i.
(A + B)t = At + B t .
Teorema: Para realizar cualquiera de estas tres transformaciones por filas (o columnas)
(A · B)t = B t · At . en una matriz A, basta con tomar el producto E · A (resp. A · E), donde E es la matriz
(α · A)t = α · At . elemental obtenida realizando la transformación por filas (o columnas) deseada en la
matriz identidad.
A simétrica ⇔ At = A. Observación: Las inversas de las matrices elementales son también matrices elementales.
Además,
A anti-simétrica ⇔ At = −A. 1
 
Fij−1 = Fij Fi (α)−1 = Fi Fij (α)−1 = Fij (−α)
α
1.1.4. Matriz Inversa
Cálculo de A−1 por Gauss-Jordan:
Una matriz cuadrada A de dimensión n se dice invertible (también no singular o no
Dada un matriz A de dimensión n × n, usando transformaciones elementales sobre la
degenerada), si existe una matriz B cuadrada n × n tal que A · B = B · A = In .
matriz ampliada (A|In ), si A es una matriz invertible, se obtiene la matriz inversa de A
al transformar A en In .
B = A−1 se llama matriz inversa de A.
El resultado final de estas transformaciones será (In |A−1 ).
Si existe, la matriz A−1 está unı́vocamente determinada por A.
1.1.6. Determinantes
Propiedades: Considera el conjunto {1, 2, . . . , n}. Una transposición es una permutación de estos
A invertible ⇒ A−1 es invertible y (A−1 )−1 = A. n elementos que intercambia dos de ellos y deja el resto sin cambios. Por ejemplo, (32145),
es una transposición.
A y B invertibles ⇒ A · B es invertible y
(A · B)−1 = B −1 · A−1 . Sea σ una permutación de {1, 2, . . . , n}. El ı́ndice de σ es i(σ), el número mı́nimo de
−1 −1 −1
transposiciones que hay en σ. Por ejemplo, si n = 4 y σ = (1342), entonces i(σ) = 2.
A invertible y α ̸= 0 ⇒ α · A es invertible y (α · A) =α ·A .

A invertible ⇒ At es invertible y (At )−1 = (A−1 )t . Dada A una matriz n × n, el determinante de A es


Fundamentos de Matemáticas para el Aprendizaje Automático - MECOFIN 5 Fundamentos de Matemáticas para el Aprendizaje Automático - MECOFIN 6

(−1)i(σ) a1σ(1) a2σ(2) . . . anσ(n)


X
|A| = Si B es una matriz obtenida al permutar dos filas (o columnas) de A, entonces
σ∈Pn |B| = −|A|.
donde Pn es el conjunto de todas las permutaciones de {1, 2, . . . , n}. Si B es una matriz obtenida multiplicando una fila (o columna) de A por un escalar
α, entonces se tiene |B| = α|A|.
Determinantes de orden 1, 2 y 3:
a11 = a11 Si B es la matriz que resulra al sumar en A un múltiplo de una fila (o columna) a
otra fila (o columna), entonces |B| = |A|.
a11 a12
= a11 · a22 − a12 · a21 El derterminante de una matriz cuadrada triangular es el producto de los elementos
a21 a22
de su diagonal principal.
a11 a12 a13
a21 a22 a23 = a11 · a22 · a33 + a13 · a21 · a32 + La inversa de una matriz usando determinantes:
a31 a32 a33 Dada una matriz invertible A, su matriz inversa es
+a12 · a23 · a31 − a13 · a22 · a31 − a12 · a21 · a33 − a11 · a23 · a32 1
A−1 = · (Aij )t
|A|
Definición: Dada A una matriz n × n, el cofactor o adjunto del elemento aij es donde (Aij ) es la matriz adjunta (o de cofactores) de A.
Aij = (−1)i+j · mij

donde mij es el determinante de la submatriz Mij de orden n − 1 obtenida al suprimir 1.1.7. Rango de una matriz
en A la fila i y la columna j.
Dada A matriz de dimensión m x n, se denomina menor de orden p a un determi-
nante de orden p que puede formarse al suprimir m − p filas y n − p columnas de A.
El determinante de A es el producto escalar (usual) de cualquier fila (o columna) de
A por su fila (columna) de cofactores:
Se define el rango de A, y se denota rg(A), como el orden del mayor menor distinto
de cero contenido en A.
|A| = ai1 · Ai1 + . . . + ain · Ain = a1j · A1j + . . . + anj · Anj
Propiedad: El rango de una matriz no varı́a si se le realizan transformaciones elemen-
para todo i = 1, . . . , n y para todo j = 1, . . . , n.
tales. Tampoco cambia si se añade o suprime una fila (o columna) que sea combinación
lineal de las demás.
Propiedades de los determinantes:

|At | = |A|. Métodos para el cálculo del rango de una matriz:

|A · B| = |A| · |B|. 1. Método del orlado


n Dada una matriz A, se denomina orlar un menor de orden p a obtener a partir
|α · A| = α · |A|.
de él un menor de orden p + 1 añadiéndole una fila y una columna de A que no
A invertible ⇔ |A| =
̸ 0. intervenı́an en el menor de partida.

|A−1 | = 1
|A|
.
El método del orlado para calcular el rango de una matriz consiste en partir de un
Si una fila (o columna) de A está formada por ceros, entonces |A| = 0. menor de orden uno distinto de cero y en cada paso obtener orlando un menor de
orden superior no nulo.
Si hay dos filas (o columnas) proporcionales en A, entonces |A| = 0. El proceso finaliza cuando se obtiene un menor de orden r no nulo tal que todos
Si la fila Fi es una combinación lineal de otras filas F1 , . . . , Fi−1 , Fi+1 , . . . , Fm , i.e. si los menores de orden r + 1 obtenidos al orlar dicho menor, o bien no existen o son
existen escalares α1 , . . . αi−1 , αi+1 , . . . , αm tales que todos nulos. En este caso se tiene que rg(A) = r.

Fi = α1 F1 + . . . + αi−1 Fi−1 + αi+1 Fi+1 + . . . + αm Fm ,

entonces |A| = 0. Se tiene también un resultado análogo para las columnas.


Fundamentos de Matemáticas para el Aprendizaje Automático - MECOFIN 7 Fundamentos de Matemáticas para el Aprendizaje Automático - MECOFIN 8

2. Método de Gauss 1.2.1. Existencia de soluciones. El teorema de Rouché-Frobenius


El método de Gauss consiste en transformar la matriz A de partida en una matriz es- Teorema (Rouché-Frobenius). El sistema de ecuaciones lineales A·x = b es compatible
calonada A′ mediante transformaciones elementales. Se verifica que rg(A) = rg(A′ ), (tiene solución) si y sólo si rg(A|b) = rg(A), siendo (A|b) la matriz ampliada.
siendo éste el número de filas con algún elemento no nulo que tiene la matriz A′ . Si n es el número de incógnitas del sistema, entonces:

Si rg(A|b) = rg(A) = n, la solución es única.


Definiciones:
Si rg(A|b) = rg(A) < n, hay infinitas soluciones y el sistema tiene n − rg(A) grados
Una matriz está en forma escalonada por filas si:
de libertad.
ˆ El primer elemento no nulo de cada fila, llamado pivote, está uno o varios
lugares a la derecha del primer elemento no nulo de la fila anterior. (Todos Propiedades:
los elementos bajo cada pivote son nulos.)
ˆ Cualquier fila formada únicamente por ceros está bajo todas las filas con Un sistema homogéneo de ecuaciones lineales tiene al menos la solución trivial
elementos distintos de cero. (0, . . . , 0)t .

Una matriz en forma escalonada por filas se dice que está en forma reducida Si Ax = b es compatible, entonces el conjunto de soluciones S es S = p + SH ,
por fila si tiene además las siguientes propiedades: donde p es una solución particular de S, y SH es el conjunto de soluciones del
ˆ Todos los pivotes son 1. sistema homogéneo asociado Ax = Θ.
ˆ Todos los elementos situados sobre cada pivote son nulos.
1.2.2. Regla de Cramer
Observación: Las matrices en forma escalonada por filas y las matrices en forma reducida
Teorema (Regla de Cramer). Si A es matriz invertible n × n, para cualquier matriz
por filas dan sistemas de ecuaciones fáciles de resolver.
columna b, el sistema A · x = b tiene una úncia solución dada por
n
1 X
xj = bi Aij for j = 1, 2, . . . , n.
|A| i=1
1.2. Teorı́a de matrices. Sistemas de ecuaciones li-
neales. 1.2.3. Método de Gauss
Un sistema de m ecuaciones lineales con n incógnitas Dos sistemas de ecuaciones son equivalentes si tienen las mismas soluciones.
Las transformaciones elementales por filas sobre la matriz de coeficientes ampliada de


 a11 x1 + a12 x2 + · · · + a1n xn = b1


 a21 x1 + a22 x2 + · · · + a2n xn = b2 un sistema de ecuaciones lineales producen sistemas equivalentes.
.. .. .. ..




. . . . A sistema de ecuaciones lineales se dice que es un sistema escalonado si la matriz de
am1 x1 + am2 x2 + · · · + amn xn = bm coeficientes ampliada está en forma escalonada por filas.

se puede representar también matricialmente como El Método de Gauss para resolver sistemas de ecuaciones lineales consiste en aplicar
transformaciones elementales por filas a su matriz de coeficientes ampliada, hasta trans-
   

a11 a12 · · · a1n x1 b1 formar el sistema original en un sistema escalonado que se resolverá de manera sencilla
 a21 a22 · · · a2n 


x2 


 b2 
 por remontada.
 ..

.. .. ..   ..  =  .. 
 . . . .  .
 
.

   
Este método es computacionalmente menos costoso que la Regla de Cramer, es decir,
am1 am2 · · · amn xn bm requiere menos operaciones.
A·x=b Desventajas del método de Gauss:
donde A es la matriz de coeficientes, x es la matriz columna (o vector) de incógnitas, con Los pivotes no deben estar demasiado cerca de cero, porque dividir entre dichos
componentes (x1 , . . . , xn ), y b es la matriz columna (o vector) de términos independientes pivotes producirı́a números muy grandes. Este problema se resuelve eligiendo pivotes
(b1 , . . . , bm ). adecuados (”pivotes parciales”).
Si b1 = · · · = bm = 0, el sistema es homogéneo.
Este método no se recomienda para matrices muy grandes y dispersas. En estos
casos es mejor utilizar métodos numéricos.
Fundamentos de Matemáticas para el Aprendizaje Automático - MECOFIN 9 Fundamentos de Matemáticas para el Aprendizaje Automático - MECOFIN 10

1.3. Espacios vectoriales. Aplicaciones lineales. Ejemplos:

(V, +, ·K) es un espacio vectorial sobre K si 1. (Rn , +, ·R) es un espacio vectorial sobre R con:

V es un conjunto no vacı́o cuyos elementos se llaman vectores: →



u, →

v , ... (o u, v, . . .) a) (a1 , . . . , an ) + (b1 , . . . , bn ) = (a1 + b1 , . . . , an + bn ).
b) α · (a1 , . . . , an ) = (αa1 , . . . , αan ), con α ∈ R.
K es un cuerpo (normalmente K = R) cuyos elementos se llaman escalares: α, β, ...

“+” se llama suma de vectores y V es cerrado para esta operación. 2. (Mm×n (R), +, ·R), donde Mm×n (R) es el conjunto de m×n matrices cuyas entradas
están en R, es un espacio vectorial sobre R con estas operaciones:
+: V × V −→ V
(→
−u ,→

v ) −→ →

u +→−
v (aij ) + (bij ) = (aij + bij ).
“·” se llama multiplicación escalar. Para cada escalar α ∈ K y cada vector en →

u ∈ V se α · (aij ) = (αaij ), con α ∈ R.
obtiene el vector α→

u ∈V.
· : K×V −→ V 3. (Pn (R), +, ·R), donde Pn (R) es el conjunto de polinomios de grado ≤ n con coefi-
(α, →

u) −→ α·→
−u cientes en R, es un espacio vectorial sobre R con estas operaciones:
Verificándose las siguientes propiedades: a) (a0 + a1 x + · · · + an xn ) + (b0 + b1 x + · · · + bn xn ) = (a0 + b0 ) + (a1 + b1 )x +
· · · (an + bn )xn .
(V, +) es un grupo conmutativo, esto significa que la suma de elementos de V cumple:
b) α · (a0 + a1 x + · · · + an xn ) =
ˆ Conmutatividad de la suma de vectores: = αa0 + αa1 x + · · · + αan xn , con α ∈ R.


u +→−
v =→ −
v +→ −
u ∀→−
u ,→

v ∈V.
ˆ Asociatividad de la suma de vectores: 1.3.1. Dependencia e independencia lineal.


u + (→
−v +→ −
w ) = (→
−u +→−
v)+→ −w ∀→
−u ,→

v ,→

w ∈V. Sea (V, +, ·K) un espacio vectorial.
ˆ Existencia de un vector cero o nulo:

− →
− −
∃ 0 ∈ V tal que 0 + → u =→ −u ∀→−
u ∈V. Un vector → −v es combinación lineal de los vectores → −
v 1, . . . , →

v k si existen escalares
α1 , . . . , αk tal que
ˆ Existencia de “ negativos ” u opuestos: →

v = α1 · →−
v 1 + · · · + αk · →

vk


∀→

u ∈ V, ∃→ −u ′ = −→

u ∈ V tal que →−u +→ −
u′ = 0.
Observaciones:
Para cualesquiera vectores →

u ,→

v ∈ V y cualesquiera escalares α, β ∈ K, el producto →

1. El vector 0 es combinación lineal de cualquier conjunto de vectores.
escalar satisface:
2. →

v es combinación lineal de cualquier conjunto de vectores que contenga al propio →

v.
ˆ Distributividad:
α · (→

u +→ −
v)=α·→ −
u +α·→ −
v.

− →
− →
− Los vectores →

v 1, . . . , →

v k son linealmente dependiente si existen escalares α1 , . . . , αk
(α + β) · u = α · u + β · u . no todos cero tales que


ˆ Asociatividad: α · (β · →

u ) = (αβ) · →

u. α1 · →

v 1 + · · · + αk · →

vk= 0

− →

ˆ Existencia de unidad: 1 · u = u .
Los vectores →

v 1, . . . , →

v k son linealmente independiente si

Consecuencias. Si V es un espacio vectorial sobre K, →


− →

u ∈ V y α ∈ K entonces α1 · →

v 1 + · · · + αk · →

v k = 0 ⇒ α1 = · · · = αk = 0

− →

α· 0 = 0.


0·→
−u = 0. Ejemplos: Consideramos el espacio vectorial V = R3
α · (−→

u ) = (−α) · →

u = −α · →

u.
Fundamentos de Matemáticas para el Aprendizaje Automático - MECOFIN 11 Fundamentos de Matemáticas para el Aprendizaje Automático - MECOFIN 12

El vector (−2, 3, 0) es combinación lineal de (−1, 1, 0) y (0, 1, 0), ya que (−2, 3, 0) = Existe (siempre) una base de V .
2(−1, 1, 0) + 1(0, 1, 0).
Cualquier base de V tiene el mismo número de vectores. El número de vectores de
Los vectores (−1, 1, 0), (0, 1, 0) y (−2, 3, 0) son linealmente dependientes (l.d.), ya cualquier base de V es la dimensión de V , denotada dim(V ).
que 2(−1, 1, 0) + 1(0, 1, 0) + (−1)(−2, 3, 0) = 0.
Ejemplos:
Los vectores (−1, 1, 0), (0, 1, 0) y (2, 0, 1) son linealmente independientes (l.i.), ya
que si escribimos α1 (−1, 1, 0) + α2 (0, 1, 0) + α3 (2, 0, 1) = (0, 0, 0) llegaremos a que 1. dim(Rn ) = n.
α1 = α2 = α3 = 0.
2. dim(Mm×n (R)) = m · n.
Propiedades: 3. dim(Pn (R)) = n + 1.

− →

Si 0 ∈ {→

v 1, . . . , →

v k } entonces →

v 1, . . . , →

v k son l.d. 4. Si V = { 0 }, entonces dim(V ) = 0.
Un conjunto está formado por vectores l.d. si y sólo si alguno de ellos es una com-
binación lineal del resto. Sea V un espacio vectorial con dim(V ) = n. Entonces:
Si S es un conjunto de vectores l.d., entonces cualquier conjunto que contenga a S
Cada conjunto de n vectores linealmente independientes es una base de V .
también es un conjunto de vectores l.d.
Cada conjunto generador de n vectores es una base de V .
Si S es un conjunto de l.i. vectores, entonces cualquier subconjunto de S también
es un conjunto de vectores l.i. Si hay más de n vectores en un conjunto, entonces es un conjunto linealmente
dependiente.
Un espacio vectorial V tiene dimensión finita si existe un conjunto finito de vectores
Cada conjunto generador de V tiene al menos n vectores.
{→

v 1, . . . , →

v k } tal que cualquier vector →

v en V es combinación lineal de ellos. El conjunto
{→

v 1, . . . , →

v k } se llama conjunto generador de V . Cada conjunto de k vectores linealmente independientes, con k < n, se puede am-
pliar a una base de V .
(De ahora en adelante V será un espacio vectorial de dimensión finita.)
Cada conjunto generador de V con k vectores, siendo k > n, contiene una base de
V.
1.3.2. Bases y dimensión. Cambios de bases
Sea (V, +, ·K) un espacio vectorial. Coordenadas de un vector con respecto a una base.
Teorema. Sea B = {→ −v 1, . . . , →

v n } una base de V y →

v cualquier vector de V . Entonces
El conjunto {→
−v 1, . . . , →

v k } es una base de V si está formado por vectores linealmente existen escalares únicos α1 , . . . , αn tales que
independientes que “generan” V .


v = α1 · →

v 1 + · · · + αn · →

v n.

Ejemplos: Y (α1 , . . . , αn ) se denominan las coordenadas de →



v con respecto a la base B. De este
modo → −v = (α1 , . . . , αn )B .
1. {(1, 0, . . . , 0), (0, 1, . . . , 0), . . . , (0, 0, . . . , 1)} es una base para Rn y se llama base
estándar o canónica. Sean B = {→

v 1, . . . , →

v n } y B ′ = {→

v ′1 , . . . , →

v ′n } dos bases de V . Si →

v = (x1 , . . . , xn )B =
(x′1 , . . . , x′n )B′ , ′ ′
entonces las ecuaciones para obtener (x1 , . . . , xn ) a partir de (x1 , . . . , xn )
2. Sea Eij la matriz m × n donde eij = 1 y el resto de las entradas son cero. Entonces
se llaman ecuaciones de cambio de base de B a B ′ . Usando matrices:
{E11 , . . . , E1n , E21 , . . . , E2n , . . . , Em1 , . . . , Emn }
x′1
   
x1
 ..   .. 
es la base estándar para Mm×n (R).  = MB′ ,B · 
.  . 
 
 
x′n xn
3. {1, x, x2 , . . . , xn } es la base estándar para Pn (R).
donde MB′ ,B es la matriz de cambio de base B a B ′ (o matriz de paso de B a B ′ ).
Teorema. Si V es un espacio vectorial de dimensión finita, entonces La columna i está formada por las coordenadas de →

v i con respecto a la base B ′ .
Fundamentos de Matemáticas para el Aprendizaje Automático - MECOFIN 13 Fundamentos de Matemáticas para el Aprendizaje Automático - MECOFIN 14

Propiedad: Se tiene que MB,B′ = MB−1


′ ,B . 1. Una base del subespacio, es decir, mediante un conjunto de vectores l.i de V , BU ,
tal que U = L(BU ).
Ejercicio: Sean B = {(1, 0, 1), (0, 1, 1), (0, 0, 2)} y B ′ = {(1, 1, 2), (1, 0, 1), (0, 1, 2)} dos
bases de R3 . Halla las ecuaciones de cambio de base de B a B ′ y las ecuaciones de cambio 2. Un sistema de ecuaciones paramétricas con respecto a una base de V , lo que
de base de B ′ a B. permite expresar un vector de U de forma genérica.
3. Un sistema de ecuaciones implı́citas con respecto a una base de V .
Ejercicio: Sean B = {1, x, x2 , x3 } y B ′ = {x3 + x2 + x + 1, x3 + x2 + x, x3 + x2 , x3 } dos
bases para P3 (R). Determina las ecuaciones de cambio de base de B a B ′ y las coordenadas Ecuaciones de un subespacio vectorial
del vector p(x) = x3 + 2x respecto de B ′ .
Sea B = {→

v 1, . . . , →

v n } una base de V .
1.3.3. Subespacios vectoriales
Sea U =< →

u 1, . . . , →

u k > el subespacio generado por {→

u 1, . . . , →

u k }.
Sea (V, +, ·K) un espacio vectorial y U ⊆ V .
Para cualquier vector →−x ∈ U , existen escalares α1 , . . . , αk tales que →

x = α1 · →

u1 +
Entonces U es un subespacio vectorial de V si (U, +, ·K) también es un espacio →

· · · + αk · u k . Y usando coordenadas con respecto a B obtenemos
vectorial.
(x1 , . . . , xn )B = α1 · (u11 , . . . , u1n )B + · · · + αk · (uk1 , . . . , ukn )B
Teorema. U es un subespacio vectorial de V si y sólo si: y por tanto 
x1 = α1 u11 + · · · + αk uk1


u1+→

u 2 ∈ U para todo →

u 1, →


u 2 ∈ U.

.. .. ..

. . .
α·→

u ∈ U para todo →


u ∈ U y todo α ∈ K. n = α1 u1n + · · · + αk ukn
 x

Esto se llama sistema de ecuaciones paramétricas para U con respecto a B.


Observaciones:

− Como se trata de un sistema compatible, el rango de la matriz de coeficientes (que es
U = { 0 } es un subespacio vectorial de V .
igual a dim(U )) es igual al rango de la matriz ampliada, esto es


Si U es un subespacio vectorial entonces 0 ∈ U .  
u11 · · · uk1 x1
.. . . . .. 
. ..

Ejemplos: rg 
 .  = dim(U )
. 
u1n · · · ukn xn
1. El conjunto de todas las soluciones de un sistema lineal homogéneo de ecuaciones
con n incógnitas y coeficientes en R es un subespacio vectorial de Rn . Ası́ obtenemos un sistema homogéneo de ecuaciones lineales en x1 , . . . , xn llamado ecua-
ciones implı́citas para U con respecto a B, cuyo conjunto de soluciones es U .
2. El conjunto de matrices triangulares superiores m × n con entradas en R es un
subespacio vectorial de Mm×n (R). Análogamente para matrices triangulares infe-
Propiedad: Sea A la matriz de coeficientes de un sistema E de ecuaciones implı́citas
riores.
para U . Entonces dim(U ) = n − rg(A), siendo rg(A) el número de ecuaciones implı́citas
3. El conjunto de polinomios de grado ≤ n y coeficientes en R que no tienen término independientes de E.
independiente es un subespacio vectorial de Pn (R).

Sea S un conjunto de vectores del espacio vectorial V . El conjunto de todas las com- Ejercicio: En V = R4 , encuentra una base, un conjunto de ecuaciones paramétricas y
binaciones lineales de vectores de S se denota < S > o L(S). un sistema de ecuaciones implı́citas independientes del subespacio

Propiedades: U =< (1, 1, 0, 0), (1, 0, 1, 0), (1, 2, −1, 0), (0, 0, 0, 1) > .
4
Ejercicio: En R , tenemos el subespacio dado por las siguientes ecuaciones paramétricas:
< S > es un subespacio vectorial de V . Además, es el menor subespacio de V que 
contiene a S. 
 x = λ+µ
y = λ + 2µ


Si S ⊆ T entonces < S >⊆< T >. 
 z = λ−µ

t = µ

Un subespacio vectorial U ⊆ V se puede representar mediante: Encuentra una base, y un sistema de ecuaciones implı́citas independientes.
Fundamentos de Matemáticas para el Aprendizaje Automático - MECOFIN 15 Fundamentos de Matemáticas para el Aprendizaje Automático - MECOFIN 16

Intersección y suma de subespacios. Existen diferentes nombres para una aplicación lineal según sus propiedades:
Teorema. Si U1 y U2 son subespacios vectoriales de V entonces U1 ∩ U2 es un subespacio ˆ Endomorfismo: Es una aplicación lineal de V a V .
vectorial de V llamado intersección de U1 y U2 .
ˆ Monomorfismo: Es una aplicación lineal inyectiva.
Propiedad: Dada una base B de V , si E1 es un sistema de ecuaciones implı́citas para
U1 con respecto a B y E2 es un sistema de ecuaciones implı́citas para U2 con respecto ˆ Epimorfismo: Es una aplicación lineal sobreyectiva.
a B, entonces E1 ∪E2 es un sistema de ecuaciones implı́citas para U1 ∩U2 con respecto a B.
ˆ Isomorfismo: Es una aplicación lineal biyectiva.
La unión de subespacios vectoriales no siempre es un subespacio vectorial. Dados U1 ˆ Automorfismo: Es un endomorfismo biyectivo.
y U2 , subespacios vectoriales de V , la suma de ellos es el menor subespacio vectorial de
V que contiene a U1 ∪ U2 , es decir, U1 + U2 =< U1 ∪ U2 >. Si hay un isomorfismo de V a W , entonces se dice que V y W son espacios vectoriales
isomorfos (V ≈ W ).
Teorema. Si U1 y U2 son subespacios en V entonces Propiedades: Sea f una aplicación lineal de V a W . Entonces:

U1 + U2 = {→

v ∈V :→

v =→

u1+→

u 2 , con →

u 1 ∈ U1 , →

u 2 ∈ U2 } →
− →

f( 0 ) = 0 .

Propiedad: Si G1 es un conjunto generador para U1 y G2 es un conjunto generador para f (−→



v ) = −f (→

v ).
U2 , entonces G1 ∪ G2 es un conjunto generador para U1 + U2 .
f conserva la dependencia lineal: si → −
v 1, . . . , →

v k son vectores l.d. en V entonces
Teorema (Fórmula de las dimensiones). Sean U1 y U2 subespacios en V . Entonces f (→

v 1 ), . . . , f (→

v k ) también son vectores l.d. en W .

Las aplicaciones lineales no siempre conservan la independencia lineal. Si f es una


dim(U1 ) + dim(U2 ) = dim(U1 ∩ U2 ) + dim(U1 + U2 )
aplicación lineal inyectiva, entonces f sı́ conserva la independencia lineal.

Si U es un subespacio vectorial de V entonces f (U ) =


{→
−w ∈ W : existe → −v ∈ U con f (→

v)=→ −w } es un subespacio vectorial de W . Además,
si U =< v 1 , . . . , v k > entonces f (U ) =< f (→

− →
− −v 1 ), . . . , f (→

v k ) >.
1.3.4. Aplicaciones lineales.
Si U ′ es un subespacio vectorial de W entonces f −1 (U ′ ) = {→

v ∈ V : f (→

v ) ∈ U ′ } es
Sean V y W espacios vectoriales sobre un cuerpo K.
un subespacio vectorial de V .
Una aplicación lineal (u homomorfismo) de V en W es una aplicación f : V −→ W
tal que: Si {→
−v 1, . . . , →

v n } es una base de V y →

w 1, . . . , →

w n ∈ W , entonces existe una única
aplicación lineal f de V en W tal que
f (→

v1+→

v 2 ) = f (→

v 1 ) + f (→

v 2 ) para todo →

v 1, →

v2 ∈V.
f (→

v i) = → −
w i para i = 1, . . . , n.
f (α · →

v ) = α · f (→

v ) para todo →

v ∈ V y para todo α ∈ K.
Si f es un isomorfismo de V en W entonces f −1 es un isomorfismo de W a V .
Ejemplos:
dim(V ) = dim(W ) si y sólo si V ≈ W .


Θ : V −→ W , definido como Θ(→

v ) = 0 , para todo →

v ∈ V , es una aplicación lineal
llamada la aplicación nula. La matriz de una aplicación lineal
idV : V −→ V , definida como idV (→

v)=→

v , es una aplicación lineal conocida como Sea B = {→ −v 1, . . . , →

v n } una base de V , y B ′ = {→

w 1, . . . , →

w m } una base de W . Sea
la aplicación identidad. f una aplicación lineal de V en W .

Si dim(V ) = n y B es una base de V , la aplicación Si →



x B = (x1 , . . . , xn ) ∈ V y f (→

x )B′ = (x′1 , . . . , x′m ), entonces
f : V −→ Kn 
x′1
 
x1



v 7−→ (v1 , · · · , vn )  ..   .. 
 = MB′ ,B (f ) · 
.  . 
 
 

que asigna a cada vector de V sus coordenadas con respecto a B, es una aplicación xm xn
lineal.
Fundamentos de Matemáticas para el Aprendizaje Automático - MECOFIN 17 Fundamentos de Matemáticas para el Aprendizaje Automático - MECOFIN 18

donde MB′ ,B (f ) es la matriz de f con respecto a las bases B y B ′ . Las columnas de Si f es una aplicación lineal de V en V , (i.e. un endomorfismo de V ), y B1 y B2 son bases
esta matriz son f (→−v j )B′ . de V , entonces
MB1 ,B1 (f ) = MB−1
2 ,B1
· MB2 ,B2 (f ) · MB2 ,B1
Propiedades:
Cuando B1 = B2 = B escribiremos MB,B (f ) = MB (f ).
Para la aplicación identidad idV : V −→ V ,
MB′ ,B (idV ) = MB′ ,B .
Dos matrices cuadradas A y B se dice que son semejantes si existe una matriz
Si f es un isomorfismo entonces invertible P , llamada matriz de paso, tal que
ˆ |MB′ ,B (f )| =
̸ 0. B = P −1 · A · P.
−1
ˆ MB,B′ (f −1
) = (MB′ ,B (f )) .

Ejercicio: Sea f : R3 −→ R2 una aplicación lineal tal que f (1, 0, 1) = (0, 1), f (0, 1, 1) = El Núcleo y la Imagen de una aplicación lineal
(0, 2) y f (1, 1, 0) = (1, 1). Halla la matriz de f con respecto a las bases canónicas.
Sea f : V −→ W una aplicación lineal de V en W .
Operaciones con aplicaciones lineales
El subconjunto de todos los vectores de V cuya imagen es el vector nulo se llama el
Suma: Si f y g son aplicaciones lineales de V en W , entonces f + g : V −→ W es una Núcleo de f ,
aplicación lineal definida como (f + g)(→

v ) = f (→

v ) + g(→
− →

v ). Ker(f ) = {→−
v ∈ V : f (→

v ) = 0 }.

Producto por un escalar: Si f es una aplicación lineal de V en W y α es un escalar, El subconjunto de todos los vectores de W que son imagen de algún vector de V se
entonces α · f : V −→ W es una aplicación lineal definida como (α · f )(→

v ) = α · f (→

v ). llama la Imagen de f ,

Composición: Si f : V −→ W y g : W −→ X son aplicaciones lineales, entonces Im(f ) = {→



w ∈ W : existe →

v ∈ V con f (→

v)=→

w}
g ◦ f : V −→ X es una aplicación lineal definida como (g ◦ f )(→

v ) = g(f (→

v )).

Propiedades: Observaciones:


Sean f, g : V −→ W aplicaciones lineales, α ∈ K un escalar, B una base de V y B ′ Ker(f ) = f −1 ({ 0 }).
una base de W . Entonces
Im(f ) = f (V ).
MB′ ,B (f + g) = MB′ ,B (f ) + MB′ ,B (g)
Propiedades:
MB′ ,B (α · f ) = α · MB′ ,B (f )
Ker(f ) es un subespacio vectorial de V .
Sean f : V −→ W y g : W −→ X aplicaciones lineales, B una base de V , B ′ una
base de W y B ′′ una base de X. Entonces Im(f ) es un subespacio vectorial de W .
MB′′ ,B (g ◦ f ) = MB′′ ,B′ (g) · MB′ ,B (f ) f es sobreyectiva si y sólo si dim(Im(f )) = dim(W ).


f es inyectiva si y sólo si Ker(f ) = { 0 }.

dim(V ) = dim(Ker(f )) + dim(Im(f )).


Cambio de base para aplicaciones lineales
Sea B = {→−v 1, . . . , →

v n } una base de V , B ′ una base de W , →

x ∈ V y (x1 , . . . , xn )B
Teorema. Sea f una aplicación lineal de V en W , B1 y B2 bases de V y B1′ y B2′ bases las coordenadas de → −x con respecto a la base B. Entonces
de W . Entonces
MB1′ ,B1 (f ) = MB1′ ,B2′ · MB2′ ,B2 (f ) · MB2 ,B1
   
x1 0
ˆ →

x ∈ Kerf ⇔

MB′ ,B (f ) ·  ..   .. 
=
.  . 

 
xn 0
Fundamentos de Matemáticas para el Aprendizaje Automático - MECOFIN 19 Fundamentos de Matemáticas para el Aprendizaje Automático - MECOFIN 20

ˆ Im(f ) =< f (→

v 1 ), . . . , f (→

v n ) >. Si λ1 , . . . , λr son autovalores de A distintos y → −
v i es un autovector asociado a λi ,
para i = 1, . . . , r, entonces →
−v 1, . . . , →

v r son vectores linealmente independientes.

Ejercicio: Sea f : R4 −→ R3 una aplicación lineal definida como Sea λ un autovalor de A. La multiplicidad algebraica (ma ) de λ es el número de veces
que aparece λ como raı́z de |A − λI| = 0. La multiplicidad geométrica (mg ) es el número
f (1, 0, 0, 0) = (1, −1, 2) f (0, 1, 0, 0) = (2, 1, 1) de autovectores independientes para λ, esto es, mg (λ) = dim(Vλ ) = n − rg(A − λIn ).
f (0, 0, 1, 0) = (4, −1, 5) f (0, 0, 0, 1) = (−1, −5, 4) Propiedad: Si λ es un autovalor de A entonces
Determina una base y un conjunto de ecuaciones implı́citas para Ker(f ) y para Im(f ). 1 ≤ mg (λ) ≤ ma (λ).

1.4. Autovalores y autovectores. 1.4.1. Matrices diagonalizables


Dado un endomorfismo f en un espacio vectorial V , nuestro objetivo es encontrar (si es Una matriz A ∈ Mn (K) se dice que es diagonalizable sobre K si es semejante, en
posible) una base B de V tal que MB (f ) sea una matriz diagonal. K, a una matriz diagonal.

Sea K un cuerpo (K = R o C) y A ∈ Mn (K). Teorema. Sea A ∈ Mn (K). Estas afirmaciones son equivalentes:
Ciertos vectores excepcionales →

x están en la misma dirección que A→−x . Éstos son los A es diagonalizable sobre K.
llamados autovectores de A.


Un escalar λ ∈ K es un autovalor de A si existe un vector → −v ∈ Kn , →
−v ̸= 0 , tal que Hay un conjunto de n autovectores de A que son linealmente independientes, esto

− →
− →

A v = λ v . Diremos que este vector v es un autovector de A asociado al autovalor λ. es, existe una base para Kn formada por autovectores de A.

Propiedades: El polinomio caracterı́stico factoriza en K y para cualquier autovalor λ se verifica


que mg (λ) = ma (λ).
Los autovalores de A son las soluciones en K de la ecuación |A − λIn | = 0, llamada
ecuación caracterı́stica de A.
Propiedades:
Demostración: Si A tiene n autovalores distintos, entonces A es diagonalizable.

− →

λ autovalor de A ⇔ ∃ → −v ̸= 0 tal que A→
−v = λ→

v ⇔∃→ −
v ̸= 0 tal que A→−
v − λ→

v =

− →
− →
− →
− Si A ∈ Mn (R) es simétrica entonces:
0 ⇔ ∃ v ̸= 0 tal que (A−λIn ) v = 0 ⇔ el sistema homogéneo (A−λIn )→

− →
− −
x = 0


tiene alguna solución distinta de 0 ⇔ rg(A − λIn ) < n ⇔ |A − λIn | = 0. ˆ Autovectores asociados a autovalores distintos son ortogonales (considerando
p(λ) = |A − λIn | es un polinomio en λ de grado n, llamado polinomio carac- el producto escalar habitual de Rn ).
terı́stico de A. Por tanto, los autovalores de A son las raı́ces de p(λ) en K. ˆ A es diagonalizable con matriz de paso ortogonal Q. (Recuerda que Q es orto-
gonal si Q−1 = Qt ).
Si A y B son matrices semejantes, entonces tienen el mismo polinomio caracterı́stico.

Si λ es un autovalor de A, entonces el conjunto de todos los autovectores asociados El proceso de diagonalización




a λ, junto con el vector nulo 0 , forman un subespacio vectorial de Kn llamado Sea A una matriz diagonalizable con autovalores λ1 , . . . , λn , no necesariamente distin-
espacio propio asociado a λ denotado por Vλ . tos.
ˆ Vλ es el espacio nulo de A − λIn . Sea B = {→ −v 1, . . . , →

v n } una base de Kn formada por autovectores, donde →−v i está
    asociado a λi , para i = 1, . . . , n.
x1 0 Entonces:
ˆ (A −

λIn )  .. 
=

.. 
La matriz diagonal D = (dij ) tal que dii = λi , i = 1, . . . , n, es semejante a A, siendo
. . es un conjunto de ecuaciones implı́citas para
  
   
P = (→−v 1 | · · · |→

v n ) una matriz de paso, esto es, las columnas de P son los vectores de B y
   
xn 0
Vλ con respecto a la base canónica de Kn . D = P −1 · A · P


ˆ Si λ1 y λ2 son autovalores de A distintos, entonces se tiene que Vλ1 ∩Vλ2 = { 0 }.
Observación: Si A es simétrica podemos tomar P ortogonal, esto es, podemos tomar
P tal que sus columnas forman una base cuyos vectores son ortonormales, (es decir, son
Fundamentos de Matemáticas para el Aprendizaje Automático - MECOFIN 21

vectores unitarios y ortogonales dos a dos con respecto al producto escalar habitual en Rn ).

Ejercicio: Averigua si estas matrices son diagonalizables en R. Cuando sea posible, cal-
cula una matriz semejante diagonal y una matriz de paso.

     
1 0 0 −4 −2 3 0 −2 5

 0 1 0 


 8 −12 2 

 2 −7 8 

−1 0 2 0 0 −8 5 −8 6

Potencias de una matriz diagonalizable


Si una matriz cuadrada A ∈ Mn (R) es diagonalizable, encontramos una matriz dia-
gonal D, formada por autovalores, y una matriz invertible P , cuyas columnas son auto-
vectores, tales que D = P −1 · A · P , y por lo tanto A = P · D · P −1 .
Entonces cualquier potencia de A será Ak = (P · D · P −1 )k = (P · D · P −1 ) · (P · D ·
P −1 ) · . . . · (P · D · P −1 ), esto es:

Ak = P · Dk · P −1 ,

donde Dk = diag(λk1 , · · · , λkn ).


Observación: Cuando una matriz A es diagonalizable y todos sus autovalores son no
nulos (λi ̸= 0 ∀i), entonces A es invertible y

A−1 = P · D−1 · P −1 .

Como D−1 = diag(1/λ1 , · · · , 1/λn ), los autovalores de A−1 son 1/λi , y se tiene que A−1
también es diagonalizable.

También podría gustarte