0% encontró este documento útil (0 votos)
23 vistas47 páginas

02MIAR Algebra

Presentaciones de Algebra
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
23 vistas47 páginas

02MIAR Algebra

Presentaciones de Algebra
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

Álgebra

02MIAR | Matemáticas para la IA


Álgebra lineal

Definición
Un vector real v de dimensión n es una lista ordenada de n números reales:

v = (v1 , v2 , . . . , vn ), vi 2 R.

Se denota por Rn el conjunto formado por todos los vectores de dimensión n. Por tanto,
podemos escribir v 2 Rn .

Ejemplos
1. v = (1, 23 ) 2 R2 .
p
2. w = ( 2, 1.2, ⇡) 2 R3 .
Álgebra lineal
Los vectores en Rn se pueden interpretar de forma gráfica mediante un sistema de n
coordenadas. En caso de tener una dimensión de n = 3 o inferior, éstos se pueden
dibujar.
Álgebra lineal

Definición
Dados dos vectores v , w 2 Rn , v = (v1 , v2 , . . . , vn ), w = (w1 , w2 , . . . , wn ), podemos
definir su suma como

v + w = (v1 + w1 , v2 + w2 , . . . , vn + wn ).

Definición
Dado un valor real 2 R (escalar) y un vector v 2 Rn , v = (v1 , v2 , . . . , vn ), podemos
definir su producto como
· v = ( v1 , v2 , . . . , vn ).
Álgebra lineal
La longitud de los vectores se puede medir a través de normas. Algunas normas
vectoriales importantes son:
I Norma euclı́dea: v
u n q
uX
kv k2 = t vi = v12 + v22 + · · · + vn2 .
2

i=1

I Norma 1:
n
X
kv k1 = |vi | = |v1 | + |v2 | + · · · + |vn |.
i=1
I Norma del máximo:
kv k1 = máx |vi |.
1in
Álgebra lineal

Ejemplo
Construimos un modelo de machine learning para predecir las temperaturas a partir de
algunas variables de entrada (input). Supongamos que obtenemos un conjunto de n
predicciones con el modelo considerado, almacenadas en un vector:

v̂ = (v̂1 , v̂2 , . . . , v̂n ) 2 Rn .

Comparamos ahora el vector de predicciones, v̂ , con el vector de respuestas reales


(observaciones), v = (v1 , . . . , vn ). Una forma de hacerlo es utilizar alguna norma sobre la
diferencia de los dos vectores:
1
E = kv̂ v k.
n
Objetivo: encontrar un algoritmo que minimice E .
Álgebra lineal

El producto escalar entre dos vectores v , w 2 Rn se define como:


n
X
v ·w = v i wi .
i=1

Ejemplo
Sean v , w 2 R3 , con v = (2, 1, 0) y w = ( 3, 2, 1). Entonces

v · w = (2, 1, 0) · ( 3, 2, 1)
= 2 · ( 3) + ( 1) · ( 2) + 0 · 1 = 6+2+0= 4.
Álgebra lineal

Definición
Sean u, v 2 Rn . Definimos la
proyección de u sobre v como
u·v
Projv (u) = v.
v ·v

Definición
Sean u, v 2 Rn . Definimos la
ortogonal de u sobre v como

Ortv (u) = u Projv (u) .


Álgebra lineal

Definición
Diremos que dos vectores u, v 2 Rn son ortogonales si u · v = 0.
La definición de ortogonalidad entre dos vectores se corresponde con la noción
geométrica de perpendicularidad.

Más concretamente,
u · v = kuk2 kv k2 cos(c
uv ),
donde uc
v es el ángulo que forman los vectores u y v .
Álgebra lineal

Propiedades
Para u, v , w 2 Rn y a 2 R:
I u + v = v + u.
I u · v = v · u.
I u · (v + w ) = u · v + u · w .
I (a · u) · v = a · (u · v ).
I v · v = kv k22 .
I u · v = 0 si y sólo si u y v son ortogonales.
I v · u = v · Projv (u).
I Ortv (u) · v = 0
Álgebra lineal
Definición
Dados v1 , v2 , . . . , vk 2 V , una combinación lineal de los k vectores anteriores es
cualquier expresión de la forma
a1 v 1 + a2 v 2 + . . . + ak v k ,
con a1 , a2 , . . . , ak 2 K .
Definición
Sean v1 , v2 , . . . , vk 2 V . Diremos que los vectores anteriores son linealmente
independientes si se cumple que la ecuación
a1 v1 + a2 v2 + . . . + ak vk = 0
tiene como única solución a1 = a2 = · · · = ak = 0. En caso contrario, se dice que dichos
vectores son linealmente dependientes.
Álgebra lineal
Definición
Una matriz de tamaño m ⇥ n sobre el cuerpo de los números reales R es un conjunto
formado por m · n valores reales, ai,j , 1  i  m, 1  j  n, distribuidos en m filas y n
columnas de la siguiente forma:
0 1
a1,1 a1,2 · · · a1,n
B a2,1 a2,2 · · · a2,n C
B C
A = B .. .. . . .. C .
@ . . . . A
am,1 am,2 · · · am,n

Escribimos A 2 Rm⇥n , siendo Rm⇥n el conjunto formado por todas las matrices m ⇥ n.
Asimismo, diremos que una matriz A 2 Rm⇥n es cuadrada si m = n, es decir, si tiene el
mismo número de filas y de columnas.
Álgebra lineal
Sean A, B 2 Rm⇥n . Podemos definir la suma y la resta A ± B como:
0 1
a1,1 ± b1,1 a1,2 ± b1,2 · · · a1,n ± b1,n
B a2,1 ± b2,1 a2,2 ± b2,2 · · · a2,n ± b2,n C
B C
A±B =B .. .. .. .. C
@ . . . . A
am,1 ± bm,1 am,2 ± bm,2 · · · am,n ± bm,n

Asimismo, dado un escalar 2 R, definimos el producto · A como


0 1
a1,1 a1,2 · · · a1,n
B a2,1 a2,2 · · · a2,n C
B C
A = B .. .. . . .. C
@ . . . . A
am,1 am,2 · · · am,n
Álgebra lineal

Por último, si A 2 Rm⇥s y B 2 Rs⇥n , entonces definimos el producto matricial


A · B 2 Rm⇥n como 0 1
c1,1 c1,2 · · · c1,n
B c2,1 c2,2 · · · c2,n C
B C
A · B = B .. .. . . .. C
@ . . . . A
cm,1 cm,2 · · · cm,n
s
X
donde ci,j = ai,k bk,j = ai,1 b1,j + ai,2 b2,j + · · · + ai,s bs,j .
k=1
Álgebra lineal

Nota
En general, el producto de matrices NO es conmutativo. Por ejemplo:
✓ ◆ ✓ ◆ ✓ ◆
1 0 0 1 0 1
· =
1 2 3 4 6 7
✓ ◆ ✓ ◆ ✓ ◆
0 1 1 0 1 2
· =
3 4 1 2 7 8

Definición
Sea A 2 Rn⇥n . Diremos que A es invertible o regular si 9B 2 Rn⇥n tal que
A · B = B · A = In . La matriz B recibe el nombre de matriz inversa y se denota por A 1 .
Álgebra lineal
Definición
Sea A 2 Rn⇥n una matriz cuadrada de la forma
0 1
a1,1 a1,2 · · · a1,n
B a2,1 a2,2 · · · a2,n C
B C
B .. .. . . . C.
@ . . . .. A
an,1 an,2 · · · an,n
Definimos el determinante de A de forma recurrente como sigue:
I Si n = 1, det(A) = a1,1 .
I Para n > 1, n
X
det(A) = ( 1)1+j a1,j det(A1,j ),
j=1
donde Ai,j 2 R (n 1)⇥(n 1)
es la matriz resultante de eliminar en A la fila i y la
columna j.
Álgebra lineal
Teorema
El determinante de una matriz A puede calcularse de cualquiera de las siguientes formas:
I Desarrollo por la fila i, 1  i  n:
n
X
det(A) = ( 1)i+j ai,j det(Ai,j ).
j=1

I Desarrollo por la columna j, 1  j  n:


n
X
det(A) = ( 1)i+j ai,j det(Ai,j ).
i=1

donde Ai,j 2 R(n 1)⇥(n 1)


es la matriz resultante de eliminar en A la fila i y la
columna j.
Álgebra lineal
Teorema
8A, B 2 Rn⇥n , se cumple

det(A · B) = det(A) · det(B).

Teorema
A 2 Rn⇥n es regular si y sólo si det(A) 6= 0.

Definición
El rango de una matriz A 2 Rm⇥n es el número máximo de columnas que, como
vectores, son linealmente independientes entre sı́. Se denota por rank(A).

Teorema
A 2 Rn⇥n es regular si y sólo si rank(A) = n.
Álgebra lineal

Definición
Sea A 2 Rm⇥n . La traspuesta de la matriz A se define como la matriz A0 2 Rn⇥m tal
que A0 (i, j) = A(j, i), 1  i  n, 1  j  m.

Teorema
Sea A 2 Rn⇥n regular. Entonces la inversa de A, A 1 , viene dada por

1 1
A = · adj(A),
det(A)

donde adj(A) es la matriz adjunta de A, dada por adj(A) = C 0 , con


C (i, j) = ( 1)i+j |Ai,j |, 1  i, j  n, con |Ai,j | = det(Ai,j ).
Álgebra lineal

Definición
Diremos que una aplicación f : Rn ! Rm es una aplicación lineal si 8u1 , u2 2 Rn y
8a, b 2 R se cumple
f (au1 + bu2 ) = af (u1 ) + bf (u2 ).

Ejemplos
1. La aplicación f : R3 ! R2 dada por f (x, y , z) = (x + y , 2z x) es lineal.
2. La aplicación f : R2 ! R2 dada por f (x, y ) = (x, x 2 y ) no es lineal.
3. La aplicación f : R2 ! R2 dada por f (x, y ) = (x y , x + 1) no es lineal.
Álgebra lineal
Teorema
Toda aplicación lineal f : Rn ! Rm tiene una matriz que la representa, que además es
única. Concretamente, 9!Mf 2 Rm⇥n tal que 8v 2 Rn puede escribirse:

f (v ) = Mf v .

Ejemplo
Sea f : R3 ! R4 dada por
0 1 0 1
x +y 1 1 0
B y z C B 1 C
f (x, y , z) = B C B 0 1 C
@ 2x + y + z A ! Mf = @ 2 1 1 A
3z 0 0 3
Álgebra lineal
Teorema
Sea f : Rn ! Rs y g : Rs ! Rm aplicaciones lineales, con Mf y Mg las matrices que las
representan, respectivamente. Entonces g f : Rn ! Rm es una aplicación lineal, cuya
matriz que la representa viene dada por Mg f = Mg Mf .

Ejercicios
1. Comprueba que el teorema se cumple para las dos ejemplos anteriores.
2. Probar el teorema para dos aplicaciones lineales cualesquiera. Es decir, probar lo
siguiente:
2.1 g f es una aplicación lineal si f y g lo son.
2.2 La matriz que representa g f , Mg f , puede escribirse como el producto de las
matrices que representan g y f , esto es, Mg Mf .
Álgebra lineal
Ejemplo
Un ejemplo clásico de aplicaciones lineales son las rotaciones. En el caso de R2 vienen
dadas por f✓ : R2 ! R2 definidas como:
✓ ◆ ✓ ◆
cos(✓)x sin(✓)y cos(✓) sin(✓)
f✓ (x, y ) = ! Mf✓ = ,
sin(✓)x + cos(✓)y sin(✓) cos(✓)

donde ✓ representa el ángulo de rotación (en sentido antihorario). Por tanto, esta
aplicación envı́a un vector (x, y ) 2 R2 a su correspondiente versión rotada ✓ grados:
cos(✓)x sin(✓)y , sin(✓)x + cos(✓)y . Asimismo, y como ya sabemos, podemos
expresar la transformación matricialmente:
✓ ◆✓ ◆
cos(✓) sin(✓) x
f✓ (x, y ) = .
sin(✓) cos(✓) y
Álgebra lineal
Ejemplo
Por ejemplo, la rotación de 30 (o ⇡/6 rad) viene dada por:
✓ ◆ p !
3 1
cos ⇡6 sin ⇡6
f⇡/6 ⌘ = 2 p2
sin ⇡6 cos ⇡6 1 3
2 2

Por otra parte, la rotación de 60 (o ⇡/3 rad) viene dada por:


✓ ◆ p !
1 3
cos ⇡3 sin ⇡3
f⇡/3 ⌘ ⇡ ⇡ = p2 2
sin 3 cos 3 3 1
2 2

Por tanto, si componemos sendas rotaciones queda:


p ! p ! ✓ ◆
3 1 1 3
0 1
f⇡/3 f⇡/6 ⌘ 2 p2 p2 2 =
1 3 3 1 1 0
2 2 2 2
Álgebra lineal
Ejemplo
Cabe esperar que el resultado sea una rotación de 90 (o ⇡/2 rad) con respecto al
original: ✓ ◆✓ ◆ ✓ ◆
0 1 x y
=
1 0 y x
cumpliéndose (x, y ) · ( y , x) = xy + yx = 0, luego son ortogonales.

Ejercicio
Utilizando las identidades trigonométricas que procedan, demuestra los siguientes
enunciados:
(a) kf✓ (v )k2 = kv k2 8v 2 R2 , 8✓ 2 R.
(b) f f↵ = f↵+ 8↵, 2 R.
Motivación
Las matrices (y las aplicaciones lineales que representan) constituyen un elemento
importante en la descripción de redes neuronales.

a1R = f1 !1,1 a1L + !1,2 a2L + !1,3 a3L + b1 ,


a1L !1,1
a2R = f2 !2,1 a1L + !2,2 a2L + !2,3 a3L + b2 .
!2,1
a1R
0 1
✓ ◆ a1L
!1,2 !1,1 !1,2 !1,3
a2L W = , aL = @ a2L A .
!2,1 !2,2 !2,3
!2,2 a3L
a2R
!1,3 a1R = f1 W (1, :)aL + b1 ,
a3L !2,3 a2R = f2 W (2, :)aL + b2 .
Motivación
En general, para el caso de información de una capa de n neuronas que se transmite a
otra capa de m neuronas:
0 1
a1L a1R n
X
aiR = fi @ !i,j ajL + bi A , 1  i  m.
j=1

a2L a2R 0 1
!1,1 !1,2 ··· !1,n 1 !1,n
B !2,1 !2,2 ··· !2,n 1 !2,n C
B C
B .. .. .. .. .. C
.. .. W =B
B . . . . . C,
C
. . @ !
m 1,1 !m 1,2 ··· !m 1,n 1 !m 1,n A
!m,1 !m,2 ··· !m,n 1 !m,n
0 L 1
a1
anL 1
R
am 1 B a2L C
B C ⇣ ⌘
B .. C
aL = B . C ! aiR = fi W (i, :)aL + bi , 1  i  m.
B C
@ aL A
n 1
anL R
am an L
Autovectores y autovalores
Definición
!
Sea A 2 Rn⇥n una matriz cuadrada. Un vector propio o autovector v 2 Rn⇥1 , v 6= 0 ,
asociado a A es aquel que cumple que 9 2 R tal que Av = v . El valor recibe el
nombre de valor propio o autovalor de A asociado al autovector v .
Ejemplo
✓ ◆
7 10
Sea A = . 1=2y 2 = 3 son valores propios de A asociados a los vectores
5 8
✓ ◆ ✓ ◆
2 1
propios v1 = y v2 = , resp.:
1 1
! ! ! !
7 10 2 4 2
Av1 = = = 2 = 2v1 ,
5 8 1 2 1
! ! ! !
7 10 1 3 1
Av2 = = = 3 = 3v2 .
5 8 1 3 1
Diagonalización
I ¿Qué interés tiene conocer los autovalores y autovectores?
I Supongamos que, dada A 2 Rn⇥n , conseguimos encontrar n autovectores
linealmente independientes, {vi }ni=1 (base de Rn ), asociados respectivamente a n
autovalores, { i }ni=1 .
I Por definición, se tiene Avi = i vi para 1  i  n.
I Denotamos P 2 Rn⇥n a la matriz formada por los vectores propios dispuestos en
columna y D a la matriz diagonal formada por los valores propios:
0 1
0 1 1 0 ··· 0
" " " B 0 0 C
B 2 ··· C
P = @ v1 v2 · · · vn A , D = B .. .. . . .. C .
@ . . . . A
# # #
0 0 ··· n
I Entonces se cumple AP = PD. Equivalentemente: P 1 AP = D.
I (AP)(:, j) = AP(:, j) = Avj = j vj = PD(:, j) = (PD)(:, j).
Diagonalización
Ejemplo
✓ ◆ ✓ ◆
7 10 2
Anteriormente vimos que los vectores propios de A = son v1 = y
✓ ◆ 5 8 1
1
v2 = , asociados, respectivamente, a los autovalores 1 = 2 y 2 = 3. Definimos
1
✓ ◆ ✓ ◆
2 1 2 0
P= , D=
1 1 0 3
0 1
✓ ◆✓ ◆ " " ✓ ◆
7 10 2 1 @ A 4 3
AP = = Av1 Av2 =
5 8 1 1 2 3
# #
0 1
✓ ◆✓ ◆ " " ✓ ◆
2 1 2 0 @ A 4 3
PD = = 1 v1 2 v2 =
1 1 0 3 2 3
# #
Diagonalización
Definición
Sea A 2 Rn⇥n una matriz cuadrada. Diremos que A es diagonalizable si 9P 2 Rn⇥n
regular y D 2 Rn⇥n diagonal tales que
1
P AP = D.

I ¿Qué utilidad tiene diagonalizar una matriz?


I Cálculo del determinante:
1 1
det(A) = det PDP = det(P) det(D) det P
Y n
1
= det(P) det(D) = det(D) = i.
det (P) i=1
I Cálculo del rango:
rank(A) = |{ i | i 6= 0, 1  i  n}| .
Diagonalización
I Cálculo de potencias matriciales.
Si P 1 AP = D, entonces multiplicando por P a la izquierda y P 1
a la derecha
podemos obtener
A = PDP 1 .
I A2 = A · A = (PDP 1 )(PDP 1) = PD(P 1 P)DP 1 = PDIn DP 1 =
P(D · D)P 1 = PD 2 P 1 .
I A3 = A2 · A = (PD 2 P 1 )(PDP 1 ) = PD 2 (P 1 P)DP 1 = PD 2 In DP 1 =
P(D 2 D)P 1 = PD 3 P 1.

I En general, se tiene
0 k
1
1 0 ··· 0
B 0 k ··· 0 C
B 2 C
Ak = PD k P 1
, donde D k = B . .. .. .. C.
@ .. . . . A
0 0 ··· k
n
Diagonalización
I Si A 2 Rn⇥n , 2 R es un valor propio de A y v 2 Rn⇥1 es un vector propio
asociado a , entonces:
! ! !
Av = v $ Av v = 0 $ Av In v = 0 $ (A In )v = 0 .
!
I (A In )v = 0 es un sistema de ecuaciones lineal homogéneo (términos
independientes nulos). Por tanto, siempre es compatible:
I Si det(A In ) 6= 0, entonces es compatible determinado y su única solución es
!
v= 0
I Si det(A In ) = 0, entonces es compatible indeterminado y tiene infinitas
soluciones.
!
I Queremos encontrar vectores propios v 6= 0 , luego imponemos det(A In ) = 0
(ecuación caracterı́stica). Las raı́ces de esta ecuación con incógnita son los
valores propios.
I Para cada valor propio obtenido { i }ki=1 se obtiene el máximo número de vectores
!
linealmente independientes como que verifican (A i In )v = 0 , 1  i  k.
Diagonalización
Ejemplo
✓ ◆
7 10
I Sea A = .
5 8 ✓ ◆
7 10
I Ec. caract.: det(A I2 ) = 0 ! det =0! 2
+ 6=0!
5 8
1 = 3, 2 = 2.
I Vectores propios:
✓ ◆✓ ◆ ✓ ◆ ✓ ◆ ✓ ◆
! 10 10 x 0 x ↵
I (A 1 I2 )v = 0 ! = ! = , ↵ 2 R.
5 5 y 0 y ↵
✓ ◆
1
↵ = 1 ! v1 = .
1
✓ ◆✓ ◆ ✓ ◆ ✓ ◆ ✓ ◆
! 5 10 x 0 x 2↵
I (A 2 I2 )v = 0 ! = ! = , ↵ 2 R.
5 10 y 0 y ↵
✓ ◆
2
↵ = 1 ! v2 = .
1
Otras descomposiciones matriciales
I No todas las matrices son diagonalizables en R.
I Si A es cuadrada y no diagonalizable ! Forma canónica de Jordan.
I Si A es rectangular ! Factorización SVD (singular value decomposition) ! PCA.
I Otras factorizaciones útiles:
I Factorización LU (método de eliminación de Gauss).
I Factorización de Cholesky (mı́nimos cuadrados, Montecarlo...).
I Factorización QR (mı́nimos cuadrados).

Definición
Una matriz A 2 Rn⇥n es simétrica si A0 = A

Teorema
Si A 2 Rn⇥n es simétrica, entonces A es diagonalizable. Además, 9P 2 Rn⇥n ortogonal
(P 0 = P 1 ) tal que P 0 AP = D.
Matrices simétricas
Definición
Una matriz simétrica A 2 Rn⇥n es definida positiva (respectivamente semidefinida
!
positiva) si 8v 2 Rn⇥1 , v 6= 0 , v 0 Av > 0 (respectivamente v 0 Av 0). Por otra parte,
A es (semi)definida negativa si A es (semi)definida positiva.

Ejemplos
!
1. In 2 Rn⇥n es definida positiva 8n 2 N. En efecto, dado v 2 Rn⇥1 , v 6= 0 ,
v 0 In v = v 0 v = kv k22 > 0.
!
2. 0n 2 Rn⇥n es semidefinida positiva 8n 2 N. En efecto, dado v 2 Rn⇥1 , v 6= 0 ,
v 0 0n v = 0.
✓ ◆
7 10
3. A = 2 R2⇥2 no es (semi)definida positiva, pues, por ejemplo,
5 8
tomando v 0 = (1, 1), se tiene v 0 Av = 6 < 0.
Matrices simétricas

Definición
Sea A 2 Rn⇥n y k 2 {1, 2, . . . , n}. El menor principal dominante de orden k asociado
a A, al que denotaremos por Ak , es Ak = det (A(1 : k, 1 : k)); es decir, el determinante
de la submatriz formada por las primeras k filas y columnas.

Teorema
Sea A 2 Rn⇥n una matriz simétrica. Los enunciados siguientes son equivalentes:
I A es definida positiva (respectivamente, semidefinida positiva).
I Ak > 0, 8k 2 {1, 2, . . . , n} (respectivamente, Ak 0).
I 8 2 R valor propio de A, > 0 (respectivamente, 0).
Álgebra tensorial
Definición
Un tensor es un objeto invariante con respecto a un cambio de coordenadas.

Ejemplos
1. Los escalares en R son tensores.
2. Los vectores v de un espacio vectorial V son tensores.
3. Los elementos del conjunto V ⇤ , formado por las aplicaciones lineales de la forma
V ! R, llamados covectores, son tensores.
4. Las aplicaciones lineales entre dos espacios vectoriales V y W , de la forma
V ! W , tienen representación como tensor.
5. En consecuencia, las matrices de Rm⇥n tienen representación como tensor.
6. Tensores métricos (ecuaciones de campo de Einstein).
Sistemas de coordenadas
✓ ◆
5
I Vector: v =
4
I Base B = {e1 , e2 }, donde:
✓ ◆ ✓ ◆
1 0
e1 = , e2 =
0 1
I v = 5e1 + 4e2
I Coordenadas de v en la base B:

5
4 B
Sistemas de coordenadas
✓ ◆
5
I Vector: v =
4
I Base Be = {e
e1 , ee2 }, donde:
✓ ◆ ✓ ◆
1 1
ee1 = , ee2 =
1 2

I v = 2e
e1 + 3e
e2
I Coordenadas de v en la base B:
e

2
3 Be
Sistemas de coordenadas
✓ ◆
5
I Vector: v =
4
I Base Be = {e
e1 = 2e1 ,ee2 = 2e1 },
donde:
✓ ◆ ✓ ◆
2 0
ee1 = , ee2 =
0 2

I v = 2.5e
e1 + 2e
e2
I Coordenadas de v en la base B:
e
 
2.5 1 5
=
2 Be 2 4 B
Sistemas de coordenadas
✓ ◆
5
I Vector: v =
4
I Base Be = {e
e1 = 12 e1 ,e
e2 = 12 e1 },
donde:
✓ 1 ◆ ✓ ◆
0
ee1 = 2 , ee2 = 1
0 2

I v = 10e
e1 + 8e
e2
I Coordenadas de v en la base B:
e
 
10 5
=2
8 Be 4 B
Sistemas de coordenadas

I Diremos que una componente de un tensor es contravariante si ésta varı́a en


proporción inversa con respecto a un cambio de coordenadas.
I Ejemplo: coordenadas de un vector con respecto a una base.
I Diremos que una componente de un tensor es covariante si ésta varı́a en
proporción directa con respecto a un cambio de coordenadas.
I Ejemplo: coordenadas de un vector v formadas a partir de su producto escalar con
los elementos de la base B = {bi }ni=1 :
2 3
v · b1
6 .. 7
4 . 5
v · bn
Arrays multidimensionales
I Los arrays multidimensionales son casos particulares de objetos que tienen
representación de tensor.
I El rango de un tensor en forma de array representa las dimensiones espaciales en
términos de la disposición de sus entradas.
I Un escalar x 2 R tiene rango 0.
I Un vector v 2 Rn tiene rango 1 (y dimensión n).
I Una matriz A 2 Rn⇥n tiene rango 2 (y dimensión n).
I Un array del tipo A 2 Rn⇥n⇥n tiene rango 3 (y dimensión n).
A1,1,1 A1,1,2
A1,2,1 A1,2,2
A2,1,1 A2,1,2
A2,2,1 A2,2,2

I En general, Tji11,...,j
,...,ip
q
es un tensor de tipo (p, q) (p componentes contravariantes y q
componentes covariantes), con rango p + q.
Arrays multidimensionales

Ejemplos
1. Audio PCM Mono de 2 segundos, con frecuencia de muestreo de 48 kHz (48000
muestras por segundo).
I Rango: 1.
I Dimensión: 96000.
2. Audio PCM Stereo de 3 segundos, con frecuencia de muestreo 44.1 kHz (44100
muestras por segundo).
I Rango: 2.
I Dimensión: 2 ⇥ 132300.
3. Imagen monocroma, con 600 pı́xeles de anchura y 800 pı́xeles de altura.
I Rango: 2.
I Dimensión: 600 ⇥ 800.
Arrays multidimensionales

Ejemplos
4. Imagen RGB, con 2000 pı́xeles de anchura y 1200 pı́xeles de altura.
I Rango: 3.
I Dimensión: 3 ⇥ 2000 ⇥ 1200.
5. Vı́deo monocromo de 1 minuto, a 30 fps (frames por segundo), con resolución
720p:
I Rango: 3.
I Dimensión: 1800 ⇥ 1280 ⇥ 720.
6. Vı́deo RGB de 40 segundos, a 60 fps (frames por segundo), con resolución 1080p:
I Rango: 4.
I Dimensión: 2400 ⇥ 3 ⇥ 1920 ⇥ 1080.

También podría gustarte