Econometría I – EAE 250A
Pontificia Universidad Católica de Chile
Instituto de Economía
Juan Ignacio Urquiza – Primer Semestre 2017
Repaso de Matrices
Definiciones Básicas:
Matriz Cuadrada, Diagonal, Identidad, etc…
Operaciones Básicas:
Suma, Multiplicación
Transpuesta
Inversa
Independencia Lineal
Diferenciación
Vectores aleatorios Apéndice D - Wooldridge
Definiciones Básicas
Definición de Matriz:
Es un arreglo rectangular de números.
Una matriz de orden m x n tiene m filas y n
columnas.
Suelen representarse mediante letras mayúsculas.
Definiciones Básicas
Definición de Matriz Cuadrada:
Es una matriz que tiene el mismo número de filas
y columnas.
Es decir, una matriz donde m = n.
Ejemplos:
Definiciones Básicas
Definición de Vector:
Conjunto ordenado de números, dispuestos en
una fila o una columna.
Vector fila: matriz de dimensión 1 x m.
Ejemplo:
Vector columna: matriz de dimensión n x 1.
Ejemplo:
Definiciones Básicas
Definición de Matriz Diagonal:
Es una matriz cuadrada cuyos elementos fuera
de la diagonal son iguales a cero.
Es decir, aij = 0 para todo i ≠ j.
Ejemplo:
Definiciones Básicas
Definición de Matriz Identidad (In):
Es una matriz diagonal donde sus elementos no
nulos son iguales a 1.
Es decir, aij = 1 para todo i = j.
Ejemplo:
Operaciones Básicas
Suma de Matrices:
Lasuma de dos matrices A y B, de dimensión m
x n, es una matriz C de igual dimensión.
La suma se lleva a cabo elemento por elemento.
Más precisamente: C = A + B = [aij + bij]
Ejemplo:
Operaciones Básicas
Multiplicación de una Matriz por un escalar:
Consiste en la suma de una matriz con si misma
k veces.
Más precisamente:
C = kA = [kaij]
Ejemplo:
Operaciones Básicas
Multiplicación de Matrices:
Para multiplicar la matriz A por la matriz B, la cantidad
de columnas de la matriz A debe ser igual al número de
filas de la matriz B (números en azul deben coincidir).
Luego de multiplicar, la matriz resultante tendrá la
misma cantidad de filas que A y la misma cantidad de
columnas que B (ver números en rojo y verde).
Ejemplo: (AB = C)
Operaciones Básicas
Proceso de multiplicación: (AB = C)
donde:
Multiplicación de Matrices
Propiedades:
(α+β)A = αA + βA (distributiva de escalar)
α(A+B) = αA + αB (distributiva de matriz)
α(AB) = (αA)B (asociativa)
A(B+C) = AB + AC
(A+B)C = AC + BC
IA = AI = A (elemento neutro)
AB ≠ BA
Operaciones Básicas
Matriz Transpuesta:
La transpuesta de una matriz A se obtiene de
intercambiar sus filas por sus columnas.
Es decir, A’ = [aji]
Ejemplo:
Matriz Transpuesta
Propiedades:
(A’)’=A
(αA)’ = αA’
(A+B)’ = A’ + B’
(AB)’ = B’A’
Matriz Simétrica:
Una matriz cuadrada A es simétrica si y sólo si
A’ = A.
Traza
La traza de una matriz cuadrada A es igual a la
suma de los elementos de su diagonal.
Formalmente:
tr(A) = Σ aii
Ejemplo:
Traza
Propiedades:
tr(In) =n
tr(A’) = tr(A)
tr(A+B) = tr(A) + tr(B)
tr(αA) = α tr(A)
tr(AB) = tr(BA)
Inversa
La inversa de una matriz cuadrada A se denota
A–1, y viene dada por:
AA–1 = In o A–1A = In
En este caso, decimos que la matriz A es
invertible o no singular.
Propiedades:
(αA)–1 = (1/α)A–1
(AB)–1 = B–1A–1
(A’)–1 = (A–1)’
Independencia Lineal
Sea {x1, x2, …, xr} un conjunto de vectores n x 1.
Decimos que los vectores son linealmente
independientes si y sólo si la única solución a:
a1x1 + a2x2 + … + arxr = 0
es a1 = a2 = … = ar = 0.
Intuitivamente, decir que son linealmente
dependientes implica que al menos un vector
puede escribirse como una combinación lineal de
los otros vectores.
Ejemplo
Vectores linealmente independientes:
A = (1, 0, 0)
No existe combinación lineal entre
B = (0, 1, 0) los vectores que permita obtener
otro, por lo tanto, decimos que son
linealmente independientes
C = (0, 0, 1)
Vectores linealmente dependientes:
A = (2, -1, 1) Sí existe combinación lineal entre
los vectores que permite obtener
B = (1, 0, 1) otro. Concretamente, si sumamos A
y B, obtenemos el vector C, por lo
tanto, decimos que son linealmente
C = (3, -1, 2) dependientes
Rango
Sea A una matriz n x m, entonces el rango de A
es el máximo número de columnas linealmente
independientes.
Si A tiene dimensión n x m, y su rango es igual
a m, entonces decimos que A es de rango
completo.
Propiedades:
rank(A’) = rank(A)
Si A es n x k, entonces rank(A) ≤ min(n,k)
Si A es k x k, y rank(A)=k, entones A es invertible
Formas Cuadráticas
Sea A una matriz simétrica.
La forma cuadrática asociada a la matriz A viene
dada por la siguiente función definida para todo
vector x:
f(x) = x’Ax =
Ejemplo (calcular forma cuadrática asociada a A):
Formas Cuadráticas
Para visualizar mejor, escribimos lo siguiente:
De esta manera obtenemos:
Formas Cuadráticas
Matriz semi-definida positiva/negativa:
Método 1:
Decimos que A es definida positiva si:
x’Ax > 0 para todo vector x excepto x = 0
Decimos que A es semi-definida positiva si:
x’Ax ≥ 0 para todo vector x
Formas Cuadráticas
Método 2 (análogo):
Calculamos eigenvalues (autovalores):
Buscamos todos los λ que satisfagan:
Si todos los valores de λ son mayores o iguales a
cero, la matriz A es semi-definida positiva.
Si todos los valores de λ son menores o iguales a
cero, la matriz A es semi-definida negativa.
Formas Cuadráticas
Propiedades:
Si A es definida positiva, entonces la suma de los
elementos de su diagonal es estrictamente positiva,
mientras que si A es semi-definida positiva dicha
suma es no negativa.
Si A es definida positiva, entonces A–1 existe y es
también definida positiva.
Si X es n x k, entonces X’X y XX’ son semi-definidas
positivas.
Si X es n x k, y rank(X)=k, entonces X’X es definida
positiva y, por tanto, no singular.
Matriz Idempotente
A es una matriz idempotente si y sólo si:
AA = A
Propiedades:
Sea A una matriz simétrica e idempotente,
entonces:
rank(A)=tr(A)
A es semi-definida positiva
Diferenciación
Sea a un vector n x 1, y considere la siguiente función
lineal:
f(x) = a’x
para todo vector x (n x 1).
Entonces, la derivada de f con respecto a x es igual a
un vector (1 x n) con las derivadas parciales:
∂f(x)/∂x = a’
Sea la siguiente forma cuadrática – A matriz simétrica:
g(x) = x’Ax
Entonces,
∂g(x)/∂x = 2x’A vector 1 x n
Vectores Aleatorios
Valor esperado:
Si y es un vector n x 1 aleatorio, su valor esperado es
el vector de los valores esperados:
𝐸 𝒚 = 𝐸 𝑦1 , 𝐸 𝑦2 , … , 𝐸(𝑦𝑛 ) ′
Si Z es una matriz aleatoria de n x m, E(Z) es la
matriz n x m de valores esperados:
𝐸 𝒁 = 𝐸(𝑧𝑖𝑗 )
Propiedad:
Si A es una matriz m x n y b un vector n x 1 ambos
no aleatorios, entonces 𝐸 𝑨𝒚 + 𝒃 = 𝑨𝐸 𝒚 + 𝑏.
Vectores Aleatorios
Matriz varianza-covarianza:
Si y es un vector n x 1 aleatorio, su matriz varianza-
covarianza Var(y) se define como:
𝜎12 𝜎12 𝜎1𝑛
⋯ 𝜎
𝑉𝑎𝑟 𝒚 = 𝜎21 𝜎22 2𝑛
⋮ ⋱ ⋮
𝜎𝑛1 𝜎𝑛2 ⋯ 𝜎𝑛2
donde 𝜎𝑗2 = 𝑉𝑎𝑟(𝑦𝑗 ) y 𝜎𝑖𝑗 = 𝐶𝑜𝑣 𝑦𝑖 , 𝑦𝑗 .
Es decir, contiene las varianzas de cada elemento en
la diagonal, con las covarianzas fuera de la diagonal.
Vectores Aleatorios
Matriz varianza-covarianza:
Propiedades:
𝑉𝑎𝑟 𝒚 = 𝐸 𝒚 − 𝝁 𝒚 − 𝝁 ′ , donde 𝝁 = 𝐸(𝒚).
Si a es un vector no aleatorio de n x 1, entonces
𝑉𝑎𝑟 𝒂′ 𝒚 = 𝒂′ 𝑉𝑎𝑟 𝒚 𝒂 ≥ 0.
Si A es una matriz m x n y b un vector n x 1 ambos
no aleatorios, entonces 𝑉𝑎𝑟 𝑨𝒚 + 𝒃 = 𝑨 𝑉𝑎𝑟 𝒚 𝑨′.