Álgebra lineal
Ir a la navegaciónIr a la búsqueda
El espacio euclídeo tridimensional R3 es un espacio vectorial y las líneas y los planos que pasan por
el origen son subespacios vectoriales de R3.
El álgebra lineal es una rama de las matemáticas que estudia conceptos tales
como vectores, matrices, espacio dual, sistemas de ecuaciones lineales y en su
enfoque de manera más formal, espacios vectoriales y sus transformaciones
lineales.
Dicho de otra forma, el Álgebra lineal es la rama de las matemáticas que se
ocupa de las ecuaciones lineales como:
y aplicaciones lineales tales como:
y sus representaciones en espacios vectoriales y a través de matrices.123
El álgebra lineal es fundamental en casi todas las áreas de las
matemáticas. Por ejemplo, el álgebra lineal es fundamental en las
presentaciones modernas de la geometría, incluso para definir objetos
básicos como líneas, planos y rotaciones. Además, el análisis funcional,
una rama del análisis matemático, puede considerarse básicamente como
la aplicación del álgebra lineal al espacios de funciones.
El álgebra lineal también se utiliza en la mayoría de las ciencias y campos
de la ingeniería, porque permite modelar muchos fenómenos naturales, y
computar eficientemente con dichos modelos. Para los sistemas no
lineales, que no pueden ser modelados con el álgebra lineal, se utiliza a
menudo para tratar la aproximaciones de primer orden, utilizando el hecho
de que la diferencial de una 'función multivariante' en un punto es el mapa
lineal que mejor aproxima la función cerca de ese punto así como
el análisis funcional, las ecuaciones diferenciales, la investigación de
operaciones, las gráficas por computadora, la ingeniería entre otras más.
La historia del álgebra lineal moderna se remonta a 1843, cuando William
Rowan Hamilton (de quien proviene el uso del término vector) creó
los cuaterniones inspirado en los números complejos;4 y a 1844,
cuando Hermann Grassmann publicó su libro Die lineare
Ausdehnungslehre (La teoría lineal de extensión).
Índice
1Historia
2Contexto general
3Espacios vectoriales
o 3.1Antecedentes
o 3.2Algunas operaciones básicas
o 3.3Aplicaciones lineales
o 3.4Subespacios, intervalo y base
4Matrices
5Sistemas lineales
6Endomorfismos y matrices cuadradas
o 6.1Determinantes
o 6.2Valores propios y vectores propios
7Dualidad
o 7.1Mapa lineal de un espacio vectorial a su campo de escalares
o 7.2Mapa dual
8Espacios vectoriales de uso común
o 8.1Vectores en Rn
o 8.2Espacio vectorial de polinomios en una misma variable
9Generalización y temas relacionados
10Relación con la geometría
11Utilización y aplicaciones
o 11.1Geometría del espacio ambiental
o 11.2Análisis funcional
o 11.3Estudio de sistemas complejoss
o 11.4Cálculo científico
12Véase también
13Referencias
14Fuentes principales
15Bibliografía
o 15.1Historia
o 15.2Libros de texto introductorios
o 15.3Libros de texto avanzados
16Enlaces externos
Historia[editar]
El procedimiento para resolver ecuaciones lineales simultáneas que ahora
se denomina eliminación gaussiana aparece en el antiguo texto
matemático chino Cálculo de barras#Sistema de ecuaciones lineales;
Capítulo octavo: Matrices rectangulares de Los nueve capítulos sobre el
arte matemático. Su uso se ilustra en dieciocho problemas, con dos a cinco
ecuaciones.5
Los Sistemas de ecuaciones lineales surgieron en Europa con la
introducción en 1637 por René Descartes de las coordenadas en
la geometría. De hecho, en esta nueva geometría, ahora
llamada geometría cartesiana, las líneas y los planos están representados
por ecuaciones lineales, y calcular sus intersecciones equivale a resolver
sistemas de ecuaciones lineales.
Los primeros métodos sistemáticos para resolver sistemas lineales
utilizaban determinantes, considerados por primera vez por Leibniz en
1693. En 1750, Gabriel Cramer los utilizó para dar soluciones explícitas de
sistemas lineales, lo que ahora se llama regla de Cramer. Más
tarde, Gauss describió aún más el método de eliminación, que inicialmente
fue catalogado como un avance en geodesia.6
En 1844 Hermann Grassmann publicó su "Teoría de la Extensión" que
incluía nuevos temas fundacionales de lo que hoy se llama álgebra lineal.
En 1848, James Joseph Sylvester introdujo el término matriz, que en latín
significa vientre.
El álgebra lineal creció con las ideas anotadas en el plano complejo. Por
ejemplo, dos números w y z en ℂ tienen una diferencia w - z, y los
segmentos de línea y tienen la misma longitud y dirección. Los segmentos
son equipolentes. El sistema cuatridimensional ℍ de cuaterniones se inició
en 1843. El término vector fue introducido como v = x i + y j + z k
representando un punto en el espacio. La diferencia de
cuaterniones p - q también produce un segmento equipolente a la Otros
sistemas de números hipercomplejos también utilizaron la idea de un
espacio lineal con una base.
Arthur Cayley introdujo la multiplicación matricial y la matriz inversa en
1856, haciendo posible el grupo lineal general. El mecanismo
de representación de grupo se hizo disponible para describir los números
complejos e hipercomplejos. Fundamentalmente, Cayley utilizó una sola
letra para denotar una matriz, tratando así una matriz como un objeto
agregado. También se dio cuenta de la conexión entre las matrices y los
determinantes, y escribió "Habría muchas cosas que decir sobre esta teoría
de las matrices que deberían, me parece, preceder a la teoría de los
determinantes".6
Benjamin Peirce publicó su Álgebra lineal asociativa (1872), y su
hijo Charles Sanders Peirce amplió el trabajo posteriormente.7
El telégrafo requería un sistema explicativo, y la publicación en 1873 de A
Treatise on Electricity and Magnetism instituyó una teoría de campos de
fuerzas y requirió la geometría diferencial para su expresión. El álgebra
lineal es geometría diferencial plana y sirve en los espacios tangentes a
los colectores. Las simetrías electromagnéticas del espaciotiempo se
expresan mediante las transformaciones de Lorentzs, y gran parte de la
historia del álgebra lineal es la historia de las transformaciones de Lorentz.
La primera definición moderna y más precisa de un espacio vectorial fue
introducida por Peano en 1888;6 en 1900 había surgido una teoría de las
transformaciones lineales de los espacios vectoriales de dimensión finita.
El álgebra lineal tomó su forma moderna en la primera mitad del siglo XX,
cuando muchas ideas y métodos de siglos anteriores se generalizaron
como álgebra abstracta. El desarrollo de los ordenadores hizo que
aumentara la investigación de algoritmos eficientes para la eliminación
gaussiana y las descomposiciones matriciales, y el álgebra lineal se
convirtió en una herramienta esencial para la modelización y las
simulaciones.6
Contexto general[editar]
De manera más formal, el álgebra lineal estudia conjuntos denominados
espacios vectoriales, los cuales constan de un conjunto de vectores y un
conjunto de escalares que tiene estructura de campo, con una operación
de suma de vectores y otra de producto entre escalares y vectores que
satisfacen ciertas propiedades (por ejemplo, que la suma es conmutativa).
Estudia también transformaciones lineales, que son funciones entre
espacios vectoriales que satisfacen las condiciones de linealidad:
A diferencia del ejemplo desarrollado en la sección anterior, los vectores no
necesariamente son n-adas de escalares, sino que pueden ser elementos
de un conjunto cualquiera (de hecho, a partir de todo conjunto puede
construirse un espacio vectorial sobre un campo fijo).
Finalmente, el álgebra lineal estudia también las propiedades que aparecen
cuando se impone estructura adicional sobre los espacios vectoriales,
siendo una de las más frecuentes la existencia de un producto interno (una
especie de producto entre dos vectores) que permite introducir nociones
como longitud de vectores y ángulo entre un par de los mismos.
Espacios vectoriales[editar]
Artículo principal: Espacio vectorial
Antecedentes[editar]
Hasta el siglo XIX, el álgebra lineal se presentaba a través de sistemas de
ecuaciones lineales y matrices. En la matemática moderna, se prefiere
generalmente la presentación a través de espacios vectoriales, ya que es
más sintética, más general (no se limita al caso de dimensión finita) y
conceptualmente más sencilla, aunque más abstracta.
Algunas operaciones básicas[editar]
Un espacio vectorial sobre un campo F, con frecuencia el campo de
los números reales, es un Conjunto V dotado de dos operaciones
binarias que satisfacen los siguientes axiomass. Los elementos de V se
llaman vectores, y los elementos de F se llaman escalares.
La primera operación, la suma de vectores, se expresa de la siguiente
manera: tómese dos vectores cualesquiera v y w; la suma tiene como
resultado un tercer vector v + w.
La segunda operación, multiplicación escalar, se expresa de la siguiente
manera: tómese cualquier escalar a y cualquier vector v y produce un
nuevo vector av. Los axiomas que deben satisfacer la suma y la
multiplicación escalar son los siguientes, siendo en la lista
siguiente, u, v y w elementos arbitrarios de V; y a y b son escalares
arbitrarios en el campo F.8
Axioma Significación
Asociativa de adición u + (v + w) = (u + v) + w
Conmutativa de adición u + v = v + u
Existe un elemento 0 en V, llamado el v
Elemento neutro de adición
conjunto V.
Elemento simétrico se adición Para todo v en V, existe un elemento −v
Distributividad de la multiplicación escalar con respecto a la suma
a(u + v) = au + av
vectorial
Distributividad de la multiplicación escalar con respecto a la suma de
(a + b)v = av + bv
campos
Compatibilidad de la multiplicación escalar con la multiplicación de
a(bv) = (ab)v 9
campos
Elemento de identidad de la multiplicación escalar 1v = v, donde 1 indica el elemento neut
Aplicaciones lineales[editar]
Artículo principal: Aplicación lineal
Las aplicaciones lineales son mapeos entre espacios vectoriales que
preservan la estructura del espacio vectorial. Dados dos espacios
vectoriales V y W sobre un campo F, un mapa lineal, también llamado en
algunos contextos, transformación lineal o mapeo lineal, es
un mapa o aplicación
que es compatible con la suma y la multiplicación escalar, es decir
para los vectores u,v in V y escaleres a en F.
Esto implica que para cualquier vector u, v en V y
escalares a, b en F, se tiene
Donde V = W son el mismo espacio vectorial, un mapa
lineal también se conoce como un operador lineal en V.
Un mapa lineal biyectivo entre dos espacios vectoriales, es
decir, cada vector del segundo espacio se asocia exactamente
con uno en el primero, es un isomorfismo. Dado que un
isomorfismo preserva la estructura lineal, dos espacios
vectoriales isomorfos son "esencialmente iguales" desde el
punto de vista del álgebra lineal, en el sentido de que no pueden
distinguirse utilizando las propiedades del espacio vectorial. Una
cuestión esencial en el álgebra lineal es probar si un mapa lineal
es un isomorfismo o no, y, si no es un isomorfismo, encontrar
su rango (o imagen) y el conjunto de elementos que son
mapeados al vector cero, llamado el núcleo del mapa. Todas
estas cuestiones pueden resolverse mediante el uso de
la eliminación gaussiana o alguna variante de este algoritmo.
Subespacios, intervalo y base[editar]
Artículos principales: Subespacio vectorial, Sistema generador y Base
(álgebra).
El estudio de aquellos subconjuntos de espacios vectoriales que
son en sí mismos espacios vectoriales bajo las operaciones
inducidas es fundamental, al igual que para muchas estructuras
matemáticas. Estos subconjuntos se denominan subespacios
lineales. Más precisamente, un subespacio lineal de un espacio
vectorial V sobre un campo F es un subconjunto de W of V tal
que u + v y au están en W, para todo u, v en W, y todo a in F.
Estas condiciones son suficientes para implicar que W es un
espacio vectorial.
Por ejemplo, dado un campo lineal , la imagen T(V) de V, y
la imagen inversa T−1(0) de 0, llamada núcleo o kernel, son
subespacios lineales de W y V, respectivamente.
Otra forma importante de formar un subespacio es considerar
las combinaciones lineales de un conjunto S de vectores: el
conjunto de todas las sumas
donde v1, v2, …, vk están en S, y a1, a2, ..., ak están
en F forman un subespacio lineal llamado Sistema
generador de S. El sistema generador de S es también la
intersección de todos los subespacios lineales que contienen
a S. En otras palabras, es el subespacio lineal, más pequeño
para la relación de inclusión, que contiene a S.
Un conjunto de vectores es linealmente independiente si
ninguno está en el intervalo de los demás. De manera
equivalente, un conjunto S de vectores es linealmente
independiente si la única forma de expresar el vector cero
como una combinación lineal de elementos de S es tomar
cero para cada coeficiente
Un conjunto de vectores que abarca un espacio vectorial se
denomina conjunto de expansión o sistema generador. Si un
conjunto generador S es linealmente dependiente (que no es
linealmente independiente), entonces algún
elemento w de S es en el lapso de los otros elementos
de S , y el lapso seguiría siendo el mismo si uno
remove w de S. Se puede continuar eliminando elementos
de S hasta obtener un conjunto de expansión linealmente
independiente. Un conjunto linealmente independiente que
abarca un espacio vectorial V se llama base de V. La
importancia de las bases radica en el hecho de que hay
juntos grupos electrógenos mínimos y grupos
independientes máximos. Más precisamente, si S es un
conjunto linealmente independiente y T es un conjunto de
expansión tal que , entonces hay una base B tal que
Si dos bases cualesquiera de un espacio vectorial V tienen la
misma cardinalidad que se llama dimensión; este es
el Teorema de la dimensión de espacios vectoriales.
Además, dos espacios vectoriales sobre el mismo
campo F son isomorfos si y solo si tienen la misma
dimensión. 10
Si alguna base de V (y por lo tanto cada base) tiene un
número finito de elementos, V es un espacio vectorial de
dimensión finita. Si U es un subespacio de V,
entonces dim U ≤ dim V. En el caso en el que V es de
dimensión finita, la igualdad de las dimensiones implica
que U = V.
Si U1 y U2 son subespacios de V , entonces
donde denota el lapso de 11
Matrices[editar]
Artículo principal: Matriz (matemáticas)
La matriz es una disposición rectangular de números,
símbolos o expresiones, cuyas dimensiones son
descritas en las cantidades de filas (usualmente m) por
las de columnas (n) que poseen. Las disposiciones
matriciales son particularmente estudiados por el álgebra
lineal y son bastante usados en ciencias e ingeniería.
Las matrices permiten la manipulación explícita de
espacios vectoriales de dimensión finita y mapas lineales
. Por tanto, su teoría es una parte esencial del álgebra
lineal.
Sea V un espacio vectorial de dimensión finita sobre un
campo F, y (v1, v2, …, vm) es una base de V, por lo
tanto m es ladimensión de V). Por definición, de una
base, el mapa