Álgebra Matricial
Autor: Juan Manuel Rivas Castillo
Fecha: 22 de agosto de 2025
2
Especificaciones Técnicas
Bases de datos utilizadas
Para el desarrollo de los ejercicios del libro se emplean bases de
datos de diferentes fuentes, para ello consideremos el siguiente
código en python:
import numpy as np
import os
import pandas as pd
import [Link] as sm
import wget
import requests
import zipfile
from [Link] import minimize
np.set_printoptions(suppress=True)
pd.set_option('display.float_format', '{:.6f}'.format)
[Link]('/workspaces/Econometria')
# ENAHO
# Modulo 34
url1 = '[Link]
[Link](url1)
# Modulo 100
url2 = '[Link]
[Link](url2)
# Modulo 200
url3 = '[Link]
[Link](url3)
# WTI
url = "[Link]
[Link](url)
# Henry Hub
url = "[Link]
[Link](url)
url = "[Link]
output_file = "pwt_data.csv" # Cambia el nombre si sabes el formato real
response = [Link](url)
with open(output_file, "wb") as f:
[Link]([Link])
0.1. REVISIÓN DE CONCEPTOS DE ÁLGEBRA MATRICIAL 3
0.1. Revisión de Conceptos de Álgebra Matricial
0.1.1. Matrices y Operaciones Básicas
Definición de Matriz
Una matriz A es un arreglo rectangular de escalares ank o aij . Su dimensión está
representada por n (filas) y k (columnas) o m (columnas), como n × k o n × m. Los
vectores fila y columna son componentes fundamentales de una matriz.
Tipos de Matrices Clave
Matrices Cuadradas: Tienen igual número de filas y columnas (n = k o n = m).
Matriz Simétrica: Una matriz cuadrada A es simétrica si A = A′ (su transpues-
ta). Una propiedad importante es que si X es cualquier matriz n × k, entonces X′ X
siempre será una matriz simétrica.
Matriz Diagonal: Todos sus elementos fuera de la diagonal principal son cero.
Matriz Escalar: Una matriz diagonal donde todos los elementos de la diagonal
principal son iguales.
Matriz Identidad (I): Una matriz diagonal con unos en la diagonal principal y
ceros en el resto.
Matriz Nula (0): Todos sus elementos son ceros.
Matriz Triangular: Puede ser superior o inferior.
Operaciones con Matrices
Igualdad de Matrices: Las matrices A y B son iguales si tienen la misma dimen-
sión y cada elemento de A es igual a su correspondiente en B.
Matriz Transpuesta (A′ o At ): Se crea al convertir las filas de la matriz original
en sus columnas (o viceversa).
• Propiedades de la Transposición:
◦ (A′ )′ = A.
◦ (αA)′ = αA′ para un escalar α.
◦ (A + B)′ = A′ + B′ .
◦ (AB)′ = B′ A′ .
4
Suma y Resta de Matrices: Se definen elemento a elemento. Para que dos ma-
trices puedan sumarse o restarse, es necesario que tengan la misma dimensión; en
ese caso, se dice que son conformables para la suma. La suma con una matriz
nula no altera la matriz: A + 0 = A.
Producto de Matrices: Se define a partir del producto interno de vectores. Para
multiplicar dos matrices, el número de columnas de la primera matriz debe coincidir
con el número de filas de la segunda matriz; cuando esto ocurre, se dice que son
conformables para el producto.
• Producto Interno de Vectores: Para vectores a y b, es un escalar: a′ b =
a1 b 1 + a2 b 2 + · · · + an b n .
• Leyes del Producto de Matrices:
◦ Asociativa: (AB)C = A(BC).
◦ Distributiva: A(B + C) = AB + AC.
◦ El producto de matrices no es conmutativo en general (AB ̸= BA).
◦ AB = 0 no implica que A = 0 o B = 0.
Suma de Elementos Usando Notación Matricial:
• La suma de los elementos de un vector x: ni=1 xi = i′ x, donde i es un vector
P
columna de unos.
• La media aritmética: x̄ = n1 ni=1 xi = n1 i′ x.
P
• La suma de cuadrados: ni=1 x2i = x′ x.
P
• La suma de productos cruzados de dos vectores x e y: ni=1 xi yi = x′ y [13].
P
• Una matriz idempotente útil M0 = I − n1 ii′ se usa para transformar datos
en desviaciones respecto a la media. La suma de cuadrados de las desviaciones
se expresa como (x − x̄i)′ (x − x̄i) = x′ M0 x [13].
0.1.2. Sistemas de Ecuaciones Lineales y Conceptos Relaciona-
dos
Sistemas de Ecuaciones Lineales
Se representan comúnmente en forma matricial como AX = b, donde A es la matriz
de coeficientes, X el vector de incógnitas y b el vector de valores especı́ficos. Se busca
determinar si existe una solución y, en caso afirmativo, cómo obtenerla y si es única.
Eliminación Gaussiana: Un método para resolver estos sistemas.
Tipos de Soluciones: Un sistema lineal puede no tener soluciones, tener una única
solución o tener infinitas soluciones.
0.1. REVISIÓN DE CONCEPTOS DE ÁLGEBRA MATRICIAL 5
Condición de Solución: Un sistema de ecuaciones lineales tiene solución si y solo
si el rango de la matriz aumentada (rank(Aa )) es igual al rango de la matriz de
coeficientes (rank(A)).
Si la matriz A es inversible, el sistema AX = b tiene una única solución.
Espacio Columna (o Imágen)
El espacio columna o imagen de A (im(A)) es el conjunto de todas las combinaciones
lineales de las columnas de A. El sistema AX = b tiene solución si y solo si b pertenece
al im(A). La dimensión de im(A) se denomina rango columna de A.
Núcleo (o Kernel)
El núcleo de A, denotado como Nu(A) o Ker(A), es el espacio de todos los vectores
X para los cuales AX = 0.
Teoremas Fundamentales del Álgebra Lineal
Teorema Fundamental del Álgebra Lineal I: La suma de la dimensión del
núcleo de A y la dimensión de la imagen de A es igual al número de columnas de
A (Dim Nu(A) + Dim Im(A) = n).
Teorema Fundamental del Álgebra Lineal II: El rango fila de A es igual al
rango columna de A.
Inversibilidad e Implicaciones: Si una matriz A es inversible, esto implica que
rank(A) = n ⇔ im(A) = Rn ⇔ Nu(A) = {0} (el conjunto que contiene solo el
vector cero).
Determinantes
El determinante (det(A) o |A|) es un escalar asociado a matrices cuadradas.
Test de Inversibilidad: Es una prueba fundamental; una matriz es inversible si y
solo si su determinante es diferente de cero.
!
a b
Para una matriz 2 × 2, A = ⇒ det(A) = ad − bc.
c d
El determinante de una matriz es igual al producto de sus autovalores.
La Regla de Cramer es un método para encontrar la solución de un sistema de
det(A )
ecuaciones lineales AX = b cuando A es inversible: xj = det(A)j , donde Aj es la
matriz A con la j-ésima columna reemplazada por b.
6
Inversa de una Matriz
Una matriz es singular si y solo si su inversa no existe. La inversa de una matriz A,
si existe, se denota como A−1 .
Propiedades de la Inversa:
• |A−1 | = 1/|A|.
• (A−1 )−1 = A.
• (A−1 )′ = (A′ )−1 [21]. Si A es simétrica, entonces (A′ )−1 también es simétrica.
• (AB)−1 = B−1 A−1 [15].
• (ABC)−1 = C−1 B−1 A−1 .
• La inversa de matrices triangulares (superiores o inferiores) y diagonales son
matrices del mismo tipo, respectivamente.
0.1.3. Formas Cuadráticas y Autovalores/Autovectores
Formas Cuadráticas
Una forma cuadrática Q(x) es una función que puede representarse como xt Ax,
donde A es una matriz simétrica [24].
Clasificación de Formas Cuadráticas [24-26]:
• Definida Positiva: Si Q(x) = xt Ax > 0 para todo x ̸= 0.
• Definida Negativa: Si Q(x) = xt Ax < 0 para todo x ̸= 0.
• Indefinida: Si Q(x) toma valores positivos para algunos x y negativos para
otros x.
Matrices Definidas Simétricas
Una matriz simétrica se clasifica como definida positiva, negativa o indefinida de acuer-
do con la clasificación de la forma cuadrática Q(x) = xt Ax que representa.
Menores Principales de una Matriz
Los menores principales son los determinantes de las submatrices cuadradas for-
madas por los elementos de la esquina superior izquierda de la matriz.
Teorema para Matrices Simétricas:
• Una matriz simétrica A es definida positiva si y solo si sus menores princi-
pales más grandes son todos positivos.
0.1. REVISIÓN DE CONCEPTOS DE ÁLGEBRA MATRICIAL 7
• Una matriz simétrica A es definida negativa si y solo si sus menores princi-
pales alternan los signos: el primero es negativo, el segundo positivo, el tercero
negativo, y ası́ sucesivamente (|A1 | < 0, |A2 | > 0, |A3 | < 0, etc.).
• En cualquier otro caso, la matriz se considera indefinida.
Autovalores y Autovectores
Un autovalor (r) de una matriz cuadrada A es un número (escalar) que, al restarse
de los elementos de la diagonal de A (A−rI), transforma a A en una matriz singular
(es decir, det(A − rI) = 0).
Un autovector (v) correspondiente a un autovalor r es un vector no nulo que
satisface la ecuación (A − rI)v = 0, lo que es equivalente a Av = rv.
El Polinomio Caracterı́stico es la ecuación det(A − rI) = 0. Las raı́ces de este
polinomio son los autovalores de la matriz.
Los elementos de la diagonal de una matriz diagonal son sus autovalores.
Una matriz cuadrada A es singular si y solo si 0 (cero) es un autovalor de A.
Propiedades de Autovalores:
• La suma de los autovalores de una matriz es igual a su traza (tr(A), la suma
de los elementos de su diagonal principal).
• El producto de los autovalores de una matriz es igual a su determinante
(det(A)).
Diagonalización de Matrices
Si una matriz cuadrada A tiene un conjunto de autovalores r1 , r2 , . . . , rk y sus corres-
pondientes autovectores v1 , v2 , . . . , vk , se puede formar una matriz P cuyas columnas son
estos autovectores: P = [v1 v2 . . . vk ]. Si P es inversible, entonces P−1 AP es una matriz
diagonal D, donde los elementos de la diagonal son precisamente los autovalores de A.
Esto implica que A = PDP−1 .
Matrices Simétricas y Autovalores
Las matrices simétricas poseen propiedades distintivas en relación con sus autovalores
y autovectores:
Todos sus autovalores son números reales (nunca ocurren autovalores complejos).
Siempre tienen suficientes autovectores independientes para permitir la diagona-
lización de la matriz.
8
Los autovectores de matrices simétricas son naturalmente ortogonales entre sı́.
La matriz P formada por los autovectores de una matriz simétrica es una matriz
ortogonal, lo que significa que su transpuesta es igual a su inversa (P′ = P−1 ) o,
equivalentemente, P′ P = I.
Relación entre Autovalores y Definitud:
• Una matriz simétrica A es definida positiva si y solo si todos sus autovalores
son mayores a cero.
• Una matriz simétrica A es definida negativa si y solo si todos sus autovalores
son menores a cero.
• Una matriz simétrica A es indefinida si tiene al menos un autovalor positivo
y al menos un autovalor negativo.