0% encontró este documento útil (0 votos)
39 vistas8 páginas

Algebra Matricial: Autor: Juan Manuel Rivas Castillo Fecha: 22 de Agosto de 2025

El documento proporciona una revisión exhaustiva de conceptos fundamentales de álgebra matricial, incluyendo definiciones de matrices, operaciones básicas, sistemas de ecuaciones lineales, y propiedades de determinantes e inversas. Se abordan también formas cuadráticas, autovalores y autovectores, así como la diagonalización de matrices, con énfasis en matrices simétricas. Además, se incluyen ejemplos de código en Python para la manipulación de bases de datos utilizadas en ejercicios prácticos.

Cargado por

juan.ccopap
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
39 vistas8 páginas

Algebra Matricial: Autor: Juan Manuel Rivas Castillo Fecha: 22 de Agosto de 2025

El documento proporciona una revisión exhaustiva de conceptos fundamentales de álgebra matricial, incluyendo definiciones de matrices, operaciones básicas, sistemas de ecuaciones lineales, y propiedades de determinantes e inversas. Se abordan también formas cuadráticas, autovalores y autovectores, así como la diagonalización de matrices, con énfasis en matrices simétricas. Además, se incluyen ejemplos de código en Python para la manipulación de bases de datos utilizadas en ejercicios prácticos.

Cargado por

juan.ccopap
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

Álgebra Matricial

Autor: Juan Manuel Rivas Castillo


Fecha: 22 de agosto de 2025
2

Especificaciones Técnicas

Bases de datos utilizadas


Para el desarrollo de los ejercicios del libro se emplean bases de
datos de diferentes fuentes, para ello consideremos el siguiente
código en python:

import numpy as np
import os
import pandas as pd
import [Link] as sm
import wget
import requests
import zipfile
from [Link] import minimize
np.set_printoptions(suppress=True)
pd.set_option('display.float_format', '{:.6f}'.format)

[Link]('/workspaces/Econometria')
# ENAHO

# Modulo 34
url1 = '[Link]
[Link](url1)

# Modulo 100
url2 = '[Link]
[Link](url2)

# Modulo 200
url3 = '[Link]
[Link](url3)

# WTI
url = "[Link]
[Link](url)

# Henry Hub
url = "[Link]
[Link](url)

url = "[Link]
output_file = "pwt_data.csv" # Cambia el nombre si sabes el formato real

response = [Link](url)
with open(output_file, "wb") as f:
[Link]([Link])
0.1. REVISIÓN DE CONCEPTOS DE ÁLGEBRA MATRICIAL 3

0.1. Revisión de Conceptos de Álgebra Matricial

0.1.1. Matrices y Operaciones Básicas


Definición de Matriz

Una matriz A es un arreglo rectangular de escalares ank o aij . Su dimensión está


representada por n (filas) y k (columnas) o m (columnas), como n × k o n × m. Los
vectores fila y columna son componentes fundamentales de una matriz.

Tipos de Matrices Clave

Matrices Cuadradas: Tienen igual número de filas y columnas (n = k o n = m).

Matriz Simétrica: Una matriz cuadrada A es simétrica si A = A′ (su transpues-


ta). Una propiedad importante es que si X es cualquier matriz n × k, entonces X′ X
siempre será una matriz simétrica.

Matriz Diagonal: Todos sus elementos fuera de la diagonal principal son cero.

Matriz Escalar: Una matriz diagonal donde todos los elementos de la diagonal
principal son iguales.

Matriz Identidad (I): Una matriz diagonal con unos en la diagonal principal y
ceros en el resto.

Matriz Nula (0): Todos sus elementos son ceros.

Matriz Triangular: Puede ser superior o inferior.

Operaciones con Matrices

Igualdad de Matrices: Las matrices A y B son iguales si tienen la misma dimen-


sión y cada elemento de A es igual a su correspondiente en B.

Matriz Transpuesta (A′ o At ): Se crea al convertir las filas de la matriz original


en sus columnas (o viceversa).

• Propiedades de la Transposición:
◦ (A′ )′ = A.
◦ (αA)′ = αA′ para un escalar α.
◦ (A + B)′ = A′ + B′ .
◦ (AB)′ = B′ A′ .
4

Suma y Resta de Matrices: Se definen elemento a elemento. Para que dos ma-
trices puedan sumarse o restarse, es necesario que tengan la misma dimensión; en
ese caso, se dice que son conformables para la suma. La suma con una matriz
nula no altera la matriz: A + 0 = A.

Producto de Matrices: Se define a partir del producto interno de vectores. Para


multiplicar dos matrices, el número de columnas de la primera matriz debe coincidir
con el número de filas de la segunda matriz; cuando esto ocurre, se dice que son
conformables para el producto.

• Producto Interno de Vectores: Para vectores a y b, es un escalar: a′ b =


a1 b 1 + a2 b 2 + · · · + an b n .
• Leyes del Producto de Matrices:
◦ Asociativa: (AB)C = A(BC).
◦ Distributiva: A(B + C) = AB + AC.
◦ El producto de matrices no es conmutativo en general (AB ̸= BA).
◦ AB = 0 no implica que A = 0 o B = 0.

Suma de Elementos Usando Notación Matricial:

• La suma de los elementos de un vector x: ni=1 xi = i′ x, donde i es un vector


P

columna de unos.
• La media aritmética: x̄ = n1 ni=1 xi = n1 i′ x.
P

• La suma de cuadrados: ni=1 x2i = x′ x.


P

• La suma de productos cruzados de dos vectores x e y: ni=1 xi yi = x′ y [13].


P

• Una matriz idempotente útil M0 = I − n1 ii′ se usa para transformar datos


en desviaciones respecto a la media. La suma de cuadrados de las desviaciones
se expresa como (x − x̄i)′ (x − x̄i) = x′ M0 x [13].

0.1.2. Sistemas de Ecuaciones Lineales y Conceptos Relaciona-


dos
Sistemas de Ecuaciones Lineales

Se representan comúnmente en forma matricial como AX = b, donde A es la matriz


de coeficientes, X el vector de incógnitas y b el vector de valores especı́ficos. Se busca
determinar si existe una solución y, en caso afirmativo, cómo obtenerla y si es única.

Eliminación Gaussiana: Un método para resolver estos sistemas.

Tipos de Soluciones: Un sistema lineal puede no tener soluciones, tener una única
solución o tener infinitas soluciones.
0.1. REVISIÓN DE CONCEPTOS DE ÁLGEBRA MATRICIAL 5

Condición de Solución: Un sistema de ecuaciones lineales tiene solución si y solo


si el rango de la matriz aumentada (rank(Aa )) es igual al rango de la matriz de
coeficientes (rank(A)).

Si la matriz A es inversible, el sistema AX = b tiene una única solución.

Espacio Columna (o Imágen)

El espacio columna o imagen de A (im(A)) es el conjunto de todas las combinaciones


lineales de las columnas de A. El sistema AX = b tiene solución si y solo si b pertenece
al im(A). La dimensión de im(A) se denomina rango columna de A.

Núcleo (o Kernel)

El núcleo de A, denotado como Nu(A) o Ker(A), es el espacio de todos los vectores


X para los cuales AX = 0.

Teoremas Fundamentales del Álgebra Lineal

Teorema Fundamental del Álgebra Lineal I: La suma de la dimensión del


núcleo de A y la dimensión de la imagen de A es igual al número de columnas de
A (Dim Nu(A) + Dim Im(A) = n).

Teorema Fundamental del Álgebra Lineal II: El rango fila de A es igual al


rango columna de A.

Inversibilidad e Implicaciones: Si una matriz A es inversible, esto implica que


rank(A) = n ⇔ im(A) = Rn ⇔ Nu(A) = {0} (el conjunto que contiene solo el
vector cero).

Determinantes

El determinante (det(A) o |A|) es un escalar asociado a matrices cuadradas.

Test de Inversibilidad: Es una prueba fundamental; una matriz es inversible si y


solo si su determinante es diferente de cero.
!
a b
Para una matriz 2 × 2, A = ⇒ det(A) = ad − bc.
c d

El determinante de una matriz es igual al producto de sus autovalores.

La Regla de Cramer es un método para encontrar la solución de un sistema de


det(A )
ecuaciones lineales AX = b cuando A es inversible: xj = det(A)j , donde Aj es la
matriz A con la j-ésima columna reemplazada por b.
6

Inversa de una Matriz

Una matriz es singular si y solo si su inversa no existe. La inversa de una matriz A,


si existe, se denota como A−1 .

Propiedades de la Inversa:

• |A−1 | = 1/|A|.
• (A−1 )−1 = A.
• (A−1 )′ = (A′ )−1 [21]. Si A es simétrica, entonces (A′ )−1 también es simétrica.
• (AB)−1 = B−1 A−1 [15].
• (ABC)−1 = C−1 B−1 A−1 .
• La inversa de matrices triangulares (superiores o inferiores) y diagonales son
matrices del mismo tipo, respectivamente.

0.1.3. Formas Cuadráticas y Autovalores/Autovectores


Formas Cuadráticas

Una forma cuadrática Q(x) es una función que puede representarse como xt Ax,
donde A es una matriz simétrica [24].

Clasificación de Formas Cuadráticas [24-26]:

• Definida Positiva: Si Q(x) = xt Ax > 0 para todo x ̸= 0.


• Definida Negativa: Si Q(x) = xt Ax < 0 para todo x ̸= 0.
• Indefinida: Si Q(x) toma valores positivos para algunos x y negativos para
otros x.

Matrices Definidas Simétricas

Una matriz simétrica se clasifica como definida positiva, negativa o indefinida de acuer-
do con la clasificación de la forma cuadrática Q(x) = xt Ax que representa.

Menores Principales de una Matriz

Los menores principales son los determinantes de las submatrices cuadradas for-
madas por los elementos de la esquina superior izquierda de la matriz.

Teorema para Matrices Simétricas:

• Una matriz simétrica A es definida positiva si y solo si sus menores princi-


pales más grandes son todos positivos.
0.1. REVISIÓN DE CONCEPTOS DE ÁLGEBRA MATRICIAL 7

• Una matriz simétrica A es definida negativa si y solo si sus menores princi-


pales alternan los signos: el primero es negativo, el segundo positivo, el tercero
negativo, y ası́ sucesivamente (|A1 | < 0, |A2 | > 0, |A3 | < 0, etc.).
• En cualquier otro caso, la matriz se considera indefinida.

Autovalores y Autovectores

Un autovalor (r) de una matriz cuadrada A es un número (escalar) que, al restarse


de los elementos de la diagonal de A (A−rI), transforma a A en una matriz singular
(es decir, det(A − rI) = 0).

Un autovector (v) correspondiente a un autovalor r es un vector no nulo que


satisface la ecuación (A − rI)v = 0, lo que es equivalente a Av = rv.

El Polinomio Caracterı́stico es la ecuación det(A − rI) = 0. Las raı́ces de este


polinomio son los autovalores de la matriz.

Los elementos de la diagonal de una matriz diagonal son sus autovalores.

Una matriz cuadrada A es singular si y solo si 0 (cero) es un autovalor de A.

Propiedades de Autovalores:

• La suma de los autovalores de una matriz es igual a su traza (tr(A), la suma


de los elementos de su diagonal principal).
• El producto de los autovalores de una matriz es igual a su determinante
(det(A)).

Diagonalización de Matrices

Si una matriz cuadrada A tiene un conjunto de autovalores r1 , r2 , . . . , rk y sus corres-


pondientes autovectores v1 , v2 , . . . , vk , se puede formar una matriz P cuyas columnas son
estos autovectores: P = [v1 v2 . . . vk ]. Si P es inversible, entonces P−1 AP es una matriz
diagonal D, donde los elementos de la diagonal son precisamente los autovalores de A.
Esto implica que A = PDP−1 .

Matrices Simétricas y Autovalores

Las matrices simétricas poseen propiedades distintivas en relación con sus autovalores
y autovectores:

Todos sus autovalores son números reales (nunca ocurren autovalores complejos).

Siempre tienen suficientes autovectores independientes para permitir la diagona-


lización de la matriz.
8

Los autovectores de matrices simétricas son naturalmente ortogonales entre sı́.

La matriz P formada por los autovectores de una matriz simétrica es una matriz
ortogonal, lo que significa que su transpuesta es igual a su inversa (P′ = P−1 ) o,
equivalentemente, P′ P = I.

Relación entre Autovalores y Definitud:

• Una matriz simétrica A es definida positiva si y solo si todos sus autovalores


son mayores a cero.
• Una matriz simétrica A es definida negativa si y solo si todos sus autovalores
son menores a cero.
• Una matriz simétrica A es indefinida si tiene al menos un autovalor positivo
y al menos un autovalor negativo.

También podría gustarte