0% encontró este documento útil (0 votos)
25 vistas9 páginas

Conceptos de Álgebra

El documento aborda conceptos fundamentales de álgebra, incluyendo números complejos, matrices y espacios vectoriales. Se explican propiedades y operaciones de matrices, así como definiciones clave en espacios vectoriales como subespacios, combinaciones lineales y bases. Además, se presentan teoremas sobre dimensiones y relaciones entre espacios, junto con el cambio de base y la representación de vectores en diferentes bases.

Cargado por

israelpmk7
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
25 vistas9 páginas

Conceptos de Álgebra

El documento aborda conceptos fundamentales de álgebra, incluyendo números complejos, matrices y espacios vectoriales. Se explican propiedades y operaciones de matrices, así como definiciones clave en espacios vectoriales como subespacios, combinaciones lineales y bases. Además, se presentan teoremas sobre dimensiones y relaciones entre espacios, junto con el cambio de base y la representación de vectores en diferentes bases.

Cargado por

israelpmk7
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

Conceptos de álgebra

Tema 1. Preliminares
Números complejos. Sea i = √-1, existen números de la forma z = a + bi
denominados números complejos, donde a es la parte real Re(z), y b ∙ i es la parte
imaginaria Im(z).
Todo número complejo se sitúa en el plano complejo y puede expresarse con
notación en polares (dependiente de r y 𝜃), donde

• r es el módulo, r = √a2 + b 2 0≤r<∞


b
• θ es el ángulo formado, 𝜃 = arctan(a) 0 ≤ 𝜃 ≤ 2𝜋

A través de desarrollo de potencias, puede obtenerse la fórmula de Euler, que


representa un número complejo de módulo 1.
𝑒 𝑖𝜃 = cos 𝜃 + 𝑖 sin 𝜃
Se puede obtener entonces la siguiente igualdad:
z = a + bi = r𝑒 𝑖𝜃 = r(cos 𝜃 + 𝑖 sin 𝜃)
Se cumplen entonces las siguientes igualdades
• 𝑒 𝑖(n𝜃) = cos(n𝜃) + 𝑖 sin(n𝜃)
• z n = r n 𝑒 𝑖n𝜃 = r n (cos(n𝜃) + 𝑖 sin(n𝜃))
𝜃 2𝜋k
𝜃 2𝜋k 𝜃 2𝜋k
• z1/n = r1/n 𝑒 i(n+n
)
= r1/n (cos(n + ) + 𝑖 sin(n + )) k = 1,2,3, . ..
n n
Este es un caso particular denominado fórmula de De Moivre, donde el
𝜃 2𝜋k
ángulo cumple la siguiente relación: 0 ≤ n + ≤ 2𝜋 k ∈ ℕ
n

Matrices. Las matrices son un conjunto ordenado de números, clasificados en


filas y columnas. Cumplen la propiedad conmutativa, asociativa, de elemento
neutro y de elemento opuesto de la suma. Sin embargo, en cuanto al producto de
matrices, aunque cumplen la propiedad asociativa, distributiva y el producto por
un escalar, en general no cumplen la propiedad conmutativa.
Operaciones esenciales.
• Traza de una matriz ≡ tr(A) = ∑ni=1 aii
1 si i = j
• Matriz identidad ≡ In = 𝛿ij {
0 si i ≠ j
a11 ⋯ a1n a11 ⋯ an1
• Matriz traspuesta. Sea A = ( ⋮ ⋱ ⋮ ), A = ( ⋮
T ⋱ ⋮ )
an1 ⋯ ann a1n ⋯ ann
• Matriz inversa. Sean A, B matrices nxn, si A ∙ B = In → B = A-1
• Una matriz es simétrica si se cumple que A = AT
• Una matriz es antisimétrica si se cumple que A = - AT
Tema 2. Espacios vectoriales
Sean v⃗ i vectores pertenecientes al espacio V, se define espacio vectorial como un
conjunto de vectores que cumplen dos operaciones, la suma y el producto por un
escalar.

- Suma: v ⃗2 ∈ V
⃗1 +v
• Conmutativa: v
⃗1 +v
⃗2 =v
⃗2+v
⃗1
• Asociativa: (v
⃗1 +v
⃗ 2) + v
⃗3 = v⃗ 1 + ⃗⃗⃗
(v2 + v
⃗ 3)
• Elemento neutro: v⃗ + ⃗0 = ⃗0 + v⃗ =v ⃗
• Elemento opuesto: v ⃗ ) = ⃗0
⃗ + (-v

- Producto por un escalar: λv ⃗i ∈ 𝑉


• λ(v⃗1 +v⃗ 2 ) = λv⃗ 1 + λv
⃗2
• (λ + μ)v⃗ = λv ⃗ + μv ⃗
• (𝜆𝜇)v ⃗ = 𝜆(𝜇v ⃗ ) = 𝜇(𝜆v ⃗)
• 1∙v ⃗ =v⃗
• ∃0⃗ ∈ ℝn

Los polinomios de grado ≤ n y las matrices Mmxn son espacios vectoriales


Definición 1. Se define subespacio W como un subconjunto de vectores de V
tal que W ⊂ V. W también es espacio vectorial.

Definición 2. Sea S = {v ⃗ n } un conjunto de vectores de V, se dice que ⃗v es


⃗ 1, . . . , v
combinación lineal de v ⃗ i con i = 1, . . . , n si v
⃗ = λ1 v ⃗ n = ∑ni=1 λi v
⃗ 1 +. . . +λn v ⃗i ∈ V

Definición 3. Sea S = {v ⃗ n } un conjunto de vectores de V, se define


⃗ 1, . . . , v
envolvente lineal como un subespacio de V que recoge los componentes de S
linealmente independientes y todas sus combinaciones lineales, aunque puede
simplificarse sólo a los vectores de S linealmente independientes.

lin(S) = {v ⃗ n }, si v
⃗ 1, . . . , v ⃗ n es combinacion lineal de v
⃗ i con i = 1, . . . , n-1

se puede representar la envolvente lineal como lin(S) = {v ⃗ n-1 }


⃗ 1, . . . , v

Definición 4. Se dice que un vector v ⃗ tiene dependencia lineal del conjunto de


vectores {v ⃗ n } si existen una serie de coeficientes λi , i = 1, … , n tal que
⃗ 1, . . . , v
⃗ = λ1 v
v ⃗ 1 +. . . +λn v ⃗ n = ∑ni=1 λi v
⃗ i.

Definición 5. Por el contrario, se dice que un vector es linealmente


independiente si para el sistema λ1 v ⃗ n = ∑ni=1 λi v
⃗ 1 +. . . +λn v ⃗ i = 0, sólo existe una
única solución, y es λ1 = λ2 =. . . = λn = 0 (implica que un vector no es
combinación lineal de ningún otro vector del espacio al que pertenecen)
Definición 6. Se define sistema de generadores al conjunto de vectores
S = {v ⃗ n } ∈ V sobre un cuerpo K si cualquier ⃗w
⃗ 1, . . . , v ⃗ ∈ V es combinación lineal de
n
los elementos de S | ⃗w ⃗ i . Se cumple que lin(S) = V.
⃗ = ∑i=1 λi v
Definición 7. Se define base a un conjunto de vectores linealmente
independientes que forman todo el espacio. Sea S = {v ⃗ n } ∈ V tal que
⃗ 1, . . . , v
lin(S) = V y {v ⃗ n } linealmente independientes, S es una base de V. La base
⃗ 1, . . . , v
no es única. Se puede definir base como un sistema de generadores cuyos vectores
son linealmente independientes.

Suma de subespacios. Sean W1 , W2 subespacios del e. vectorial V (W1 , W2 ⊂ V),


la suma de los subespacios es la envolvente lineal de la unión de los subespacios.

W1 + W2 = lin{W1 ∪ W2 }
Definición 8. Se define suma directa de subespacios a la suma de los
subespacios W1 , W2 ⊂ 𝑉 cuando no existe un subespacio intersección de W1 , W2 .

⃗}
W1 + W2 = W1 ⊕ W2 ↔ W1 ∩ W2 = {0

Definición 9. Se define dimensión de un espacio como el número de vectores


linealmente independientes de ese espacio, es decir, el número de vectores que
conforma la base. La dimensión de ℝn es n.
Teoremas de dimensión.

• Sea W ⊂ V subespacio de V, dim(W) ≤ dim(V)


• Sea V espacio vectorial de dimensión n. Sea W subespacio con base
Bw = {w ⃗ k } con k≤n, es posible encontrar un conjunto de vectores
⃗⃗ 1 , . . . , ⃗w
{w ⃗⃗ n } tal que {w
⃗⃗⃗ k+1 , . . . , ⃗w ⃗⃗ 1 , . . . , ⃗w
⃗ k , ⃗w ⃗ n } sea base de V.
⃗ k+1 , . . . , ⃗w
• Sean W1 , W2 subespacios ⊂ V, se cumple:

dim(W1 ) + dim(W2 ) = dim(W1 ∪ W2 ) + dim(W1 ∩ W2 )

a11 ⋯ a1n
Sea una matriz nxn A = ( ⋮ ⋱ ⋮ )
an1 ⋯ ann
Definición 10. Se define espacio filas a la envolvente lineal de todos los vectores
que conforman las filas, tal que

R(A) = lin{(a11 , . . . , a1n ), (a21 , . . . , a2n ), . . . , (an1 , . . . , ann )} ⊂ ℝn


Definición 11. Se define espacio columnas a la envolvente lineal de todos los
vectores que conforman las columnas, tal que
a11 a12 a1n
C(A) = lin {( ) , ( ) , . . . , ( ⋮ )} ⊂ ℝn
⋮ ⋮
an1 an2 ann

Se obtiene entonces que: R(A) = C(AT ) así como R(AT ) = C(A)


Teorema. dim(R(A)) = dim(C(A)) = rango(A)
Definición 12. Se define núcleo o kernel de una matriz al conjunto de vectores
(envolvente lineal) tal que el producto de ambos da como resultado el conjunto
vacío.

⃗ ∈ ℝn ∶ A ∙ v
𝑘𝑒𝑟(A) = {v ⃗ = 0}
Definición 13. Se define nulidad de una matriz a la dimensión de su núcleo.

𝑑𝑖𝑚(𝑘𝑒𝑟(𝐴)) = 𝑛𝑢𝑙𝑙(A)

Teorema. Sea A una matriz sobre el espacio vectorial V con dimensión n, se


cumple que 𝑑𝑖𝑚(𝑘𝑒𝑟(𝐴)) + 𝑟𝑎𝑛𝑔𝑜(𝐴) = 𝑛 o bien 𝑛𝑢𝑙𝑙(𝐴) + 𝑟𝑎𝑛𝑔𝑜(𝐴) = 𝑛

Ecuaciones implícitas del subespacio. Un espacio vectorial se puede


expresar con un conjunto de vectores cuya envolvente lineal es el mismo espacio,
sin embargo, existe otra manera de expresar un espacio vectorial.

V = {(x1 , x2 , . . . , xn ) ∈ ℝn ∶ condiciones}
Las condiciones que se le aplican a los vectores del espacio de alguna manera
restringen o limitan la libertad de los vectores en ese espacio, de modo que:

𝑑𝑖𝑚(𝑉) = 𝑛 - #𝑐𝑜𝑛𝑑𝑖𝑐𝑖𝑜𝑛𝑒𝑠

Cambio de base. Sea V un espacio vectorial sobre un cuerpo K, existen


diferentes bases para describir el espacio. Sean las bases B1 = {u ⃗ n} y
⃗ 1, . . . , u
B2 = {v ⃗ n }, es posible escribir un vector ⃗w
⃗ 1, . . . , v ⃗ en las diferentes bases, tal que:

⃗⃗ = (x1 , x2 , . . . , xn )TB1 = (y1 , y2 , . . . , yn )TB2


⃗w

Para V = ℝn , la base canónica es C = {e⃗1 , . . . , e⃗n } = {(1,0, . . . ,0), . . . , (0,0, . . . ,1)}

Puede escribirse un vector de la base arbitraria B1 como una combinación lineal


de los vectores de la canónica, de modo que

⃗ 1 = a11 e⃗1 + a21 e⃗2 + ⋯ + an1 e⃗n


u

⃗ 2 = a12 e⃗1 + a22 e⃗2 + ⋯ + an2 e⃗n


u

⃗ n = a1n e⃗1 + a2n e⃗2 + ⋯ + ann e⃗n


u

Una forma más cómoda de representar esto es mediante producto de matrices


a11 ⋯ an1
(u
⃗1 ⃗ n ) = (e⃗1
⋯ u ⋯ e⃗n ) ( ⋮ ⋱ ⋮ )
a1n ⋯ ann
Por tanto, sea un vector arbitrario ⃗w
⃗⃗ escrito en las bases B1 y canónica:
x1
⃗w
⃗ = x1 u ⃗ n = (u
⃗ 1 + ⋯ + xn u ⃗1 ⋯ ⃗ n) ( ⋮ )
u
xn B1
y1
⃗ = y1 e⃗1 + ⋯ + yn e⃗n = (e⃗1
⃗w ⋯ e⃗n ) ( ⋮ )
yn C
x1 a11 ⋯ a1n x1
⃗⃗ = (u
⃗w ⃗1 ⋯ ⃗ n ( ⋮ ) = (e⃗1
u ) ⋯ e⃗n ( ⋮
) ⋱ ⋮ )( ⋮ )
xn B1 an1 ⋯ ann xn B1
y1 a11 ⋯ a1n x1 a11 ⋯ a1n
Puede concluirse que: ( ⋮ ) = ( ⋮ ⋱ ⋮ )( ⋮ ) P≡( ⋮ ⋱ ⋮ )
yn C an1 ⋯ ann xn B1 an1 ⋯ ann

Siendo P la matriz de cambio de base de B1 a la base canónica. Si se quiere


cambiar un vector de la base canónica a la base B1 , la matriz cambio de base sería
P -1 , es decir, la matriz inversa de P. Para cambiar de una base B1 a una base B2 ,
se sigue el procedimiento pasando por la base canónica.

Tema 3. Aplicaciones lineales


Dados V y W espacios vectoriales sobre el mismo cuerpo K, T es una aplicación
lineal si se cumple que
T(v
⃗1 +v
⃗ 2 ) = T(v
⃗ 1 ) + T(v
⃗ 2) y T(λv
⃗ ) = λ ∙ T(v
⃗)

Un vector v
⃗ ∈ V, bajo la aplicación T, se transforma en un vector ⃗w
⃗ ∈ W.
Propiedades:

• ⃗ ) = 0 (todas las aplicaciones lineales tienen el cero en el cero).


T(0
• T(-v
⃗ ) = -T(v ⃗ ), por tanto, T(v
⃗1 -v
⃗ 2 ) = T(v
⃗ 1 ) - T(v
⃗ 2)
• n n
⃗ i ) = ∑i=1 λi T(v
T(∑i=1 λi v ⃗ i)
• Toda matriz mxn es una aplicación lineal | Mmxn ∶ ℝn → ℝm

Aplicaciones importantes

• Matriz de giro. Sea una aplicación lineal R ∶ ℝ2 → ℝ2 (matriz cuadrada),


la matriz de giro produce una rotación de un vector v
⃗ =(a,b) un ángulo θ
en sentido antihorario, conservando su módulo, de modo que:

cosθ -senθ a a'


( )( ) = ( )
senθ cosθ b b'
R
• Matriz de proyección. Sea un vector v ⃗ ∈ ℝ3 , de componentes (a,b,c), es
posible proyectar el vector sobre el plano xy (z=0), tal que:

1 0 0 a a
(0 1 0) (b) = (b)
0 0 0 c 0
Se puede representar el kernel de una matriz como el kernel de una aplicación
lineal, de modo que sea T ∶ V → W, 𝑘𝑒𝑟(𝑇) = {v ⃗ ) = 0}
⃗ ∈ 𝑉 ∶ 𝑇(v

Definición 1. Sea una aplicación lineal T ∶ V → W, se define subespacio imagen


a la envolvente lineal del conjunto de vectores resultantes ⃗w ⃗ ∈ W de una
aplicación lineal sobre un conjunto de vectores v⃗ ∈ V.

Im(T) = {v ⃗ ) = ⃗w
⃗ ∈ 𝑉 ∶ 𝑇(v ⃗}

Sea A ∶ ℝn → ℝm una aplicación lineal en forma de matriz que actúa sobre


vectores de V,
a11 ⋯ a1n a11 a12 a1n
A=( ⋮ ⋱ ⋮ ) Im(A) = {w ⃗⃗ n } = lin {( ⋮ ) , ( ⋮ ) , . . . , ( ⋮ )}
⃗⃗ 1 , . . . , ⃗w
am1 ⋯ amn am1 am2 amn
Nótese que es la envolvente lineal de los vectores en columnas, no en filas.
a11 a1n
Para la base estándar (canónica): A(e⃗1 ) = ( ⋮ ) , ⋯ , A(e⃗n ) = ( ⋮ )
am1 amn

Teorema. Sea 𝑇 ∶ 𝑈 → 𝑊,

𝑑𝑖𝑚(𝑈) = 𝑑𝑖𝑚(𝑘𝑒𝑟(𝑇)) + 𝑑𝑖𝑚(𝐼𝑚(𝑇)) = 𝑛𝑢𝑙𝑙(𝑇) + 𝑟𝑎𝑛𝑔𝑜(𝑇)

Definición 2. Una aplicación lineal se dice que es inyectiva (monomorfismo) si


y sólo si su núcleo es igual al conjunto vacío, es decir, no hay ninguna imagen que
provenga de dos vectores distintos.

F inyectiva ↔ 𝑘𝑒𝑟(𝐹) = ⃗0
Definición 3. Una aplicación lineal se dice que es sobreyectiva (epimorfismo)
cuando todos los elementos del espacio imagen provienen del espacio origen.

F ∶ U → W sobreyectiva si dim(Im(F)) = rango(F) = dim(W)


Definición 4. Una aplicación lineal se dice que es biyectiva (isomorfismo) si es
inyectiva y sobreyectiva, es decir, sea F ∶ U → W

null(F) = 0 y rango(F) = dim(W), por lo que dim(U) = dim(W)


Composición de aplicaciones lineales. Sea f1 ∶ ℝn → ℝm , f2 ∶ ℝm → ℝp y
A1 , A2 las matrices asociadas en la base estándar de f1 , f2 respectivamente:

∃F = f2 o f1 tal que la matriz asociada es Apxm = A2pxm ∙ A1mxn

⃗ ∈ ℝn es:
La acción de F sobre un vector arbitrario v ⃗ ) = f2 (f1 (v
F(v ⃗ ))

Definición 5. Sea f1 ∶ ℝn → ℝn , f2 ∶ ℝn → ℝn cuyas matrices asociadas


(A1 , A2 ) son cuadradas, se dice que f1 es invertible y su aplicación inversa es f2
si se cumple que

f1 (f2 (v
⃗ )) = v
⃗ o bien f2 (f1 (v
⃗ )) = v

Si f1 es la inversa de f2 , sus matrices asociadas cumplen la relación de inversa

f1 -1 = f2 → A1 -1 = A2 y viceversa
Para que una aplicación lineal en forma de matriz A sea invertible, es necesario
que A sea un isomorfismo, así como A debe ser regular (de determinante distinto
de cero).

Definición 6. Sea f ∶ V → V aplicación lineal. Sea A la matriz de la aplicación en


la base B, y A’ la matriz asociada en la base B’. Se define la matriz de transición
P a la matriz de cambio de base que transforma un vector de la base B’ en un
vector de la base B.

P ∙ [v ⃗ ]B o bien P -1 ∙ [v
⃗ ]B' → [v ⃗ ]B → [v
⃗ ]B'

Las matrices A, A’ transforman vectores v ⃗ bajo una aplicación lineal en f(v


⃗)
respectivamente en las distintas bases B, B’

A ∙ [v
⃗ ]B → [𝑓(v
⃗ )]B

A' ∙ [v
⃗ ]B' → [f(v
⃗ )]B'

Definición 7. Se definen matrices similares a las matrices A, A’ si cumplen la


siguiente relación con la matriz de transición P.

A' = P -1 ∙ A ∙ P
Propiedades

• det(A) = det(A')
• tr(A) = tr(A')

Esto implica que la traza y el determinante de una matriz son invariables ante un
cambio de base.
Tema 4. Valores y vectores propios
Sea A una matriz nxn sobre un cuerpo K, se define polinomio característico:

p(λ) = det(A - λIn ) siendo In la matriz identidad nxn


a11 ⋯ a1n a11 -λ ⋯ a1n
A=( ⋮ ⋱ ⋮ ) → det(A - λIn ) = det ( ⋮ ⋱ ⋮ )
an1 ⋯ ann an1 ⋯ ann -λ
Si se extiende el polinomio:

p(λ) = (- λ)n + (- λ)n-1 ∙ tr(A) +. . . + det(A)


nos encontramos con un polinomio de grado n, la traza tiene orden n-1 y el
término independiente coincide con el determinante de la matriz A.

Teorema de Cayley-Hamilton.

Sea pA (λ) el polinomio característico asociado a la matriz A, se cumple pA (A) = 0.


Este teorema es útil para calcular la inversa y potencias de una matriz.

Si se iguala a cero el polinomio característico p(λ) de una matriz A, se obtienen


sus raíces, que, para algunos vectores, cumplen la siguiente propiedad:

p(λ) = det(A - λIn ) = 0 → Av


⃗ = λi v
⃗, i = #raíces de p(λ)

Definición 1. Sea A una matriz nxn sobre un cuerpo K, se denominan


autovalores a las soluciones del polinomio característico de la matriz, es decir,
sus raíces λi .
Definición 2. Para la matriz A, se denominan autovectores al conjunto de
vectores v
⃗ i que cumplen la relación Av ⃗ para cada autovalor obtenido.
⃗ = λi v
Definición 3. Se define espectro de A al conjunto de autovalores de la matriz,
𝜎(A) = {λ1 , . . . , λn }
Se cumple que si dos matrices A, A’ son similares, sus espectros serán los mismos.

Teorema. Sea una aplicación lineal f ∶ V → V descrita en una base B = {e⃗1 , . . . , e⃗n }
base de V, siendo F la matriz asociada de f en B:

• λ es autovalor de f o de F.
• ∃v⃗ ∈ V, v ⃗ ≠ ⃗0, | f(v⃗ ) = λv
⃗, siendo v
⃗ = ker(f - λIn )
• ∃ x⃗ ∈ K , x⃗ ≠ ⃗0, | F(x⃗) = λx⃗,
n
siendo x⃗ = ker(F - λIn )
Se define subespacio propio asociado a λi al conjunto de autovectores
correspondientes al autovalor λi , tal que

Vλi = {v
⃗ ∈ V ∶ f(v ⃗}
⃗ ) = λv | Vλi = ker(f - λi In )

También podría gustarte