0% encontró este documento útil (0 votos)
44 vistas33 páginas

Tareas Rufino

Este documento trata sobre conceptos básicos de álgebra lineal como espacios vectoriales, subespacios vectoriales, combinaciones lineales e independencia lineal. En particular, define qué es un espacio vectorial y sus propiedades, cómo identificar un subespacio vectorial, cómo representar una combinación lineal de vectores y cuándo se dice que un conjunto de vectores es linealmente dependiente o independiente.

Cargado por

eduardo Quiroga
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
44 vistas33 páginas

Tareas Rufino

Este documento trata sobre conceptos básicos de álgebra lineal como espacios vectoriales, subespacios vectoriales, combinaciones lineales e independencia lineal. En particular, define qué es un espacio vectorial y sus propiedades, cómo identificar un subespacio vectorial, cómo representar una combinación lineal de vectores y cuándo se dice que un conjunto de vectores es linealmente dependiente o independiente.

Cargado por

eduardo Quiroga
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd

INSTITUTO TECNOLÓGICO SUPERIOR DE VILLA LA

VENTA

ALGEBRA LINEAL
UNIDAD 4
4.1 Definición de espacio vectorial.
4.2 Definición de subespacio vectorial y sus propiedades.
4.3 Combinación lineal. Independencia lineal.
4.4 Base y dimensión de un espacio vectorial, cambio de base.
4.5 Espacio vectorial con producto interno y sus propiedades.

INVESTIGACIÓN UNIDAD 4

INGENIERIA INDUSTRIAL

ALUMNO: JESUS EDUARDO CHABLE QUIROGA


CATEDRATICO: RUFINO AQUINO BOSQUEZ
4.1 Definición de espacio vectorial.
Sean K un cuerpo dado y V un conjunto no vacio, con reglas de suma y producto por escalar que
asigna a cada par u, vϵV una suma u+vϵV y a cada par uϵV, kϵK un producto kuϵV. V recibe el
nombre de espacio vectorial sobre K (y los elementos de V se llaman vectores) si satisfacen los
siguientes axiomas.

[A1] para toda terna de vectores u, v, wϵV, (u+v)+w=u+(v+w).


[A2] existe un vector en V, denotado por 0 y denominado el vector cero, tal que u+0=u para todo
vector uϵV.
[A3] para todo vector uϵV existe un único vector en V, denotado por –u, tal que u+(-u)=0.
[A4] para todo par de vectores u, vϵV, u+v=v+u.
[M1] para todo escalar kϵK y todo par de vectores u, vϵV, k(u+v)=ku+kv.
[M2] para todo par de escalares a, bϵK y todo vector uϵV, (a+b)u=au+bu.
[M3] para todo par de escalares a, bϵK y todo vector uϵV, (ab)u=a(bu).
[M4] el escalar unidad 1ϵK cumple 1u=u para todo vector uϵV.

Los axiomas precedentes se desdoblan de forma natural en dos categorías. Los cuatro primeros
atañen únicamente a la estructura aditiva de V y pueden resumirse diciendo que V es un grupo
conmutativo bajo la suma. De ello se deriva que cualquier suma de vectores de la forma v1+v2+…
+vm no requieren paréntesis y no depende del orden de los sumandos, que el vector cero, 0, es
único, que el opuesto –u de u es único y que se verifica la ley de cancelación; esto es, para tres
vectores cualesquiera u, v, wϵV.

U+w=v+w implica u=v. Asimismo, la resta se define según u-v=u+(-v).

Por otra parte, los cuatro axiomas restantes se refieren a la <<acción>> del cuerpo K sobre V.
observece que la rotulación de los axiomas refleja este desdoblamiento. Empleando estos axiomas
adicionales probaremos las siguientes propiedades elementales de un espacio vectorial.

Teorema: sea V un espacio vectorial sobre un cuerpo K.


1. Para todo escalar kϵK y 0ϵV, k0-0.
2. Para 0ϵK y todo vector uϵV, 0u=0.
3. Si ku=0, donde kϵK y uϵV, entonces k=0 o u=0.
4. Para todo kϵK y todo uϵV, (-k)u=-ku.

4.2 Definición de subespacio vectorial y sus propiedades.


Sea W un subconjunto de un espacio vectorial V sobre un cuerpo K. W se denomina un subespacio
de V si es a su vez un espacio vectorial sobre K con respecto a las operaciones de V, suma
vectorial y producto por un escalar. Un criterio simple para identificar subespacios es el siguiente.

Teorema: supongamos que W es un subconjunto de un espacio vectorial V. entonces W es un


subespacio de V si y solo si se cumple:
1. 0єW
2. W es cerrado bajo la suma de vectores, es decir: para todo par de vectores u, vєW, la
suma u+vєW.
3. W es cerrado bajo el producto por un escalar, esto es: para todo uєW y para todo kєK el
múltiplo kuєW.

Corolario: W es un subespacio de V si y solo si:

1. 0єW.
2. au+bvєW para todos los u, vєW y a, bєK.

Ejemplo: sean U y W subespacios de un espacio vectorial V. probemos que la intersección UW


es también subespacio de V. claramente, 0U y 0W, porque U y W son subespacios, de donde
0UW. supongamos ahora que u, vUW. entonces u, vU y u, vE y, dado que U y W son
subespacios, u+v, kuU y u+v, kuW para cualquier escalar k. así u+v, kuUW y por
consiguiente UW es un subespacio de V. El resultado del ejemplo precedente se generaliza como
sigue.

Teorema: la intersección de cualquier número de subespacios de un espacio vectorial V es un


subespacio de V.

Recuérdese que toda solución de un sistema de ecuaciones lineales con n incógnitas AX=B puede
verse como un punto en Kn y por tanto el conjunto solución de tal sistema es un subconjunto de
Kn. Supongamos que el sistema homogéneo, es decir, supongamos que el sistema tiene la forma
AX=0. Denotemos por W su conjunto solución. Como A0=0, el vector cero 0W además, si u y v
pertenecen a W, esto es, si u y v son soluciones de AX=0, necesariamente Au=0 y Av=0. Por esta
razón, para todo par de escalares a y b en K, tendremos A(au+bv)=aAu+bAv=a0+b0=0+0=0. De
esta manera, au + bv es también una solución de AX=0 o, dicho de otro modo, au+bvW. En
consecuencia, según el corolario, hemos demostrado:

Teorema: el conjunto solución W de un sistema homogéneo con n incógnitas AX=0 es un


subespacio de kn.

Hacemos énfasis en que el conjunto solución de un sistema inhomogéneo AX=B no es subespacio


de Kn. De hecho, el vector cero, 0, no pertenece a dicho conjunto solución.
4.3 Combinación lineal. Independencia lineal.
COMBINACIÓN LINEAL

Sean v1, v2, …, vn, vectores en un espacio vectorial V. entonces cualquier vector de la forma:
a1v1+a2v2+…+anvn, donde a1,a2,…,an son escalares se denomina una combinación lineal de v1,
v2,…,vn.

Una combinación lineal en M23

Conjunto generador.

Se dice que los vectores v1, v2, …, vn de un espacio vectorial V generan a V si todo vector en V se
puede escribir como una combinación lineal de los mismo. Es decir, para todo vÎV, existen
escalares a1, a2, …, an tales que v=a1v1+a2v2+…+anvn

Cuatro vectores que generan a M22

Espacio generado por un conjunto de vectores.

Sean v, v2, …, vk, k vectores de un espacio vectorial V. el espacio generado por {v1, v2, …, vk} es
el conjunto de combinaciones lineales v1, v2, …, vk. Es decir

donde a1, a2, …, ak, son


escalares arbitrarios.

Teorema: si v1, v2, …, vk son vectores en un espacio vectorial V, entonces gen{v1, v2, …, vk} es
un subespacio de V.

Ejemplo: el espacio generado por dos vectores en R3

Sea v1=(2,-1,4) y v2=(4,1,6). Entonces H=gen{v1, v2}={v:v=a1(2,-1,4)+a2(4,1,6)}. ¿Cuál es la


apariencia de H? si v=(x, y,z)ÎH, entonces tiene x=2a1+4a 2, y=-a1+a2 y z=4a 1+6ª 2. Si se piensa
que (x, y, z) esta fijo, entonces estas ecuaciones se pueden ver como un sistema de tres
ecuaciones con tres incognitas a1, a2. Este sistema se resuelve en la forma usual:

INDEPENDENCIA LINEAL
En el estudio del algebra lineal, una de las ideas centrales es la de dependencia o independencia
lineal de los vectores. En esta sección se define el significado de independencia lineal y se muestra
su relación con la teoría de sistemas homogéneos de ecuaciones y determinantes.

Existe una relación espacial entre los vectores , se puede


apreciar que v2=2v1; o si se escribe esta ecuación de otra manera. 2v1-v2=0.

En otras palabras, el vector cero se puede escribir como una combinación no trivial de v1 y v2 (es
decir, donde los coeficientes en la combinación lineal no son ambos cero). ¿Qué tienen de especial

los vectores ? La respuesta a esta pregunta


es más difícil a simple vista. Sin embargo, es sencillo verificar que v3=3v1+2v2; rescribiendo esto

se obtiene .

Se ha escrito el vector cero como una combinación lineal de v1, v2, y v3. Parece que los dos
vectores de la ecuación y los tres vectores de la otra ecuación tienen una relación más cercana
que un par arbitrario de 2-vectores a una terna arbitraria de 3-vectores. En cada caso, se dice que
los vectores son linealmente dependientes. En términos generales, se tiene la importante definición
a continuación presentada.

Definición: sean v1, v2, …, vn vectores en un espacio vectorial V. entonces se dice que lois
vectores son linealmente dependientes si existen n escalares c1, c2, …, cn no todos ceros tales

que .

Si los vectores no son linealmente dependientes, se dice que son linealmente independientes.
Para decirlo de otra forma, v1, v2, .., vn son linealmente independientes si la ecuación c1v1+c2v2+
…+cnvn=0 se cumple únicamente para c1=c2=…=cn=0. Son linealmente dependientes si el vector
cero en V se puede expresar como una combinación lienal de v1, v2,…,vn con coeficientes no
todos iguales a cero.

Nota. Se dice que los vectores v1, v2, …, vn son linealmente independientes (o dependientes), o
que el conjunto de vectores {v1, v2, …, vn} es linealmente independiente (o pendiente). Esto es, se
usan las dos frases indistintivamente.

Teorema:dependencia e independencia lineal

Dos vectores en un espacio vectorial son linealmente dependientes si y solo si uno de ellos es un
múltiplo escalar del otro.

Demostración: primero suponga que v2=cv1 para elgun escalar c≠0. Entonces cv1-v2=0 y v1 y v2
son linealmente dependientes. Por otro parte, suponga que v1 y v2 son linealmente dependientes.
Entonces existen constantes c1 y c2 al menos uno distinto a cero, tales que c1v1+c2v2=0. Si c1≠0,

entonces dividiendo entre c1 se obtiene v1+(c2/c1)v2=0, o sea,

Es decir, v1 es un múltiplo escalar de v2. Si c1=0, entonces c2≠0 y, por lo tanto, v2=0=0v1.

4.4 Base y dimensión de un espacio vectorial, cambio de


base.
Se ha visto en R2 conviene escribir vectores como una combinación lineal de los vectores

. En R3 se escribieron los vectores en términos

de . Ahora se generalizara esta idea.

BASEUn conjunto finito de vectores es una base para un espacio vectorial V

si

Todo conjunto de n vectores linealmente independiente en Rn es una base en Rn.


En Rn se define
Puesto que los vectores e, son las columnas d una matriz identidad (que tiene determinante 1),

es un conjunto linealmente independiente y, por lo tanto, constituye una


base en Rn. Esta base especial se denomina base canonica en Rn. Ahora se encontraran bases
para otros espacios.

EJEMPLO: base canonica para M22

Se vio que generan


a

, entonces es evidentemente que . Así, estas cuatro matrices son


linealmente independientes y forman una base para M22, lo que se denomina base cononica para
M22.

TEOREMA: si es una base para V y si vÎV, entonces existe un conjunto único

de escalares tales que

Existe cuando menos un conjunto de dichos escalares porque genera a V.


suponga entonces que v se puede escribir e dos maneras como una combinación lineal de los
vectores de la base.

Es decir, suponga que

Sea dos bases para V. debe demostrarse


que m=n. esto se prueba mostrando que si m>n, entonces S es un conjunto literalmente
independiente, lo que contradice la hipótesis de que S es una bse. Esto demostrara que m≤n. la
misma prueba demostrara que ≤m y esto prueba el teorema. Así, basta demostrar que si m>n,
entonces S es independiente. Como S constituye una base, todo u se puede expresar como una
combinación lineal de las v. se tiene (1)
TEOREMA: suponga que dimV=n. si

Entonces, restando se obtiene la ecuación


pero como los v son linealmente independientes, esta ecuación se cumple si y solo si

Así, y el teorema queda demostrado.

TEOREMA: si son bases en un espacio vectorial


V, entonces m=n; es decir, cualesquiera dos bases en un espacio vectorial V tienen el mismo
numero de vectores.

Para demostrar que S es dependiente, deben encontrarse escalares

no todos cero, tales que (2)

Sustituyendo (1) en (2) se obtiene (3)

La ecuación (3) se puede reescribir como


Pero como son linealmente independientes, se debe tener (5)

El sistema (5) es un sistema homogéneo de n ecuaciones con las m incógnitas


y como m>n, el teorema dice que el sistema tiene un numero infinito de soluciones. De esta forma,
existen escalares no todos cero, tales que (2) se satisface y, por lo tanto, S es
un conjunto linealmente dependiente. Esta contradicción prueba que m≤n si se cambian los
papeles de S1 y S2, se demuestra que n≤m y la prueba queda completa.
Por este teorema se puede definir uno de los conceptos centrales en el algebra lineal.

DIMENSIÓN
Si el espacio vectorial V tiene una base con un numero finito de elementos, entonces la dimensión
de V es el numero de vectores en todas las bases y V se denomina espacio vectorial de dimensión
finita. De otra manera, V se denomina espacio vectorial de dimensión infinita. Si V={0}, entonces se
dice que V tiene dimensión cero.
Notación. La dimensión V se denota por dimV.

EJEMPLO: la dimensión de Mmn


En Mmn sea A la matriz de mxn con un uno en la posición ij y cero en otra parte. Es sencillo
demostrar que las matrices a para i=1,2,…,m y j=1,2,…,n forman una base para Mmn. Así,
dimMmn=mn.

TEOREMA: suponga que dimV=n. si es un conjunto de m vectores


linealmente independientes en V, entonces m≤n.

Sea entonces, igual que la prueba del teorema, se pueden encontrar


constantes no todas cero, tales que la ecuación (2) se satisface. Esto contradice
la independencia lineal de los vectores u. así, m≤n.

TEOREMA: sea H un subespacio de un espacio vectorial de dimensión finita V. entonces H tiene

dimensión finita y (6)

Sea dimV=n. cualquier conjunto de vectores linealmente independientes en H es también


linealmente independiente en V. por el teorema anterior, cualquier conjunto linealmente
independiente en H puede contener a lis mas n vectores. Si H={0}, entonces dimH=0. Si dimH≠{0},
sea v≠0 un vector en H y H=gen{v}. si H=H, dimH=1 y la prueba queda completa. De lo contrario,
elija a vÎH tal que vÏH y sea H=gen{v1,v2}, y así sucesivamente. Continuamos hasta encontrar

vectores linealmente independientes tales que H=gen{ }.


El proceso tiene que terminar porque se pueden encontrar a lo mas n vectores linealmente
independientes en H. entonces H-k≤n.
EJEMPLO: una base para el espacio de solución de un sistema homogéneo
Encuentre una base (y la dimensión) para el espacio de solución S del sistema

homogéneo

SOLUCIÓN: aquí . Como A es una matriz de 2x3, S es un subespacio de


R3. Reduciendo por renglones, se encuentra, sucesivamente,

Entonces y=z y x=-z de manera que todas las soluciones son de la forma .Así, es
una base para S y dimS=1. Obsérvese que S es el conjunto de vectores que se encuentran en la
recta x=-t, y=t, z=t.
TEOREMA: cualquier conjunto de n vectores linealmente independientes en eun espacio vectorial
V de dimensión n constituyen una base apara V.

Sean , n vectores. Si generan el espacio V, entonces constituyen una base.

De lo contrario, existe un vector uÎV tal que uÏgen . Esto significa que los n+1

vectores , u donde linealmente independientes. Para ver esto observe que si


(8)

Entonces porque de lo contrario podríamos escribir u como una combinación lineal

de dividiendo la ecuación (8) entre y poniendo todos los términos,

excepto u, en el lado derecho. Pero si entonces (8) es


Lo que significa que ya que los v son linealmente independientes.

Ahora sea W=gen{ ,u}. como todos los vectores entre las llaves están en V, W

es un subespacio de V. como ,u son linealmente independientes, forman una


base para W, y dimW=n+1. Pero por el teorema, dimW≤n. esta contradicción muestra que no existe

el vector uÎV tal que uÏgen{ }. Así, genera a V y, por lo tanto,


constituye una base para V.

CAMBIO DE BASE

En R2 se expresaron vectores en términos de la base canónica . En Rn se

definió la base canonica . En Pn se definió la base estandra como

. Estas bases se usan ampliamente por la sencillez que ofrecen a la hora


de trabajar con ellas. Pero en ocasiones ocurre que es mas conveniente alguna otra base. Existe un
numero infinito de bases para elegir, ya que en un espacio vectorial de dimensión n, cualesquiera
n vectores, linealmente independientes, forman una base. En esta sección se vera como cambiar
de una base a otra mediante el calculo de cierta matriz. Iniciaremos por un ejemplo sencillo. Sean

u . entonces, es la base canonica en R2. Sean

Como v1 y v2 son linealmente independientes (porque v1 no es un

múltiplo de v2), es una segunda base en R2. Sea un vector en R2.

Esta notación significa que

Es decir, x esta expresando en términos de los vectores de la base B. para hacer hincapié en este

hecho, se escribe Como B es otra base en R2, existen escalares c1 y c2 tales que

(1) Una vez que se encuentran estos escalares. Se puede escribir


para indicar que x esta ahora expresado en términos de los vectores en B.
para encontrar los números c1 y c2, se escribe la base anterior en términos de la nueva base. Es

sencillo verificar que (2)

y es decir,

Entonces,

Así, de (1),

o
Por ejemplo, si

entonces

4.5 Espacio vectorial con producto interno y sus


propiedades.
Un espacio vectorial complejo V se denomina espacio con producto interno si para cada par
ordenado de vectores u y v en V, existe un numero complejo único (u,v), denominado producto
interno de u y v, tal que si u, v y w están en V y αϵC, entonces

La barra es las condiciones v) y vii) denota el conjugado complejo.


Nota. Si (u,v) es real, entonces (u,v)=(u,v) y se puede eliminar la barra en v).

EJEMPLO: producto interno de dos vectores en C3


En C3 sean x=(1+i, -3, 4-3i) y y=(2-i, -i, 2+i). entonces
Sea V un espacio con producto interno y suponga que u y v están en V. entonces

Nota 1. Aquí se usa la doble barra en lugar de una sola para evitar confusión con el valor absoluto.
Por ejemplo ǁsen tǁ denota la norma de sen t como un “vector” en C[0, 2π] mientras que |sen t|
denota el valor absoluto de la función sen t.
Nota 2. La ecuación anterior tiene sentido ya que (u, u)≥0.

EJEMPLO: dos vectores ortogonales en C2


En C2 los vectores (3,-i) y (2,6i) son ortogonales porque

Conjunto ortonormal

El conjunto de vectores es un conjunto ortonormal en V si

y
Si solo el primero se cumple, se dice que el conjunto es ortonormal.

TEOREMA: cualquier conjunto finito de vectores ortonormales diferentes de cero en un espacio


con producto interno es linealmente independiente.

TEOREMA: cualquier conjunto finito linealmente independiente en un espacio con producto interno
se puede convertir en un conjunto ortonormal mediante el proceso de Gram-Schmidt. En particular,
cualquier espacio con producto interno tiene una base ortonormal.

Proyección ortogonal
Sea H un subespacio del espacio con producto interno V con base ortonormal

Si vϵV, entonces la proyección ortonormal de v sobre H denotada por proyHv esta dada por (6)

Las demostraciones de los siguientes teoremas son idénticas a sus contrapartes en Rn.
TEOREMA: sea H un subespacio de dimensión finita con producto interno V. suponga que H tiene

dos bases ortonormales


Sea vϵV. entonces

Complemento ortogonal
Sea H un subespacio del espacio con producto interno V. entonces el complemento ortogonal de

H, denotado por H, esta dado por (7)

TEOREMA: si H es un subespacio del espacio con producto interno V, entonces

TEOREMA DE PROYECCIÓN: sea H un subespacio de dimensión finita del espacio con producto
interno V y suponga que vϵV. entonces existe un par único de vectores h y p tales que hϵH, pϵH, y
(8) v=h+p donde h=proyHv.

Si V tiene dimensión finita, entonces p=proyHv.

TEOREMA: sea A una matriz de nxn; entonces A tiene vectores propios linealmente
independientes si y solo si multiplicidad geométrica de cada valor propio es igual a su
multiplicidades algebraica. En particular, A tiene n vectores propios linealmente independientes si
todos los valores propios son distintos (ya que entonces la multiplicidad algebraica de cada valor
propio es 1).

4.6 Base ortonormal, proceso de ortonormalización de


Gram-Schmidt.
Conjunto ortonormal en Rn
Se dice que un conjunto de vectores S={u1, u2, …, uk} en Rn es un conjunto ortonormal si (1) (2)

Si solo satisface la ecuación (1), se dice que el conjunto es ortogonal.


Si u, v y w en Rn y α es un numero real, entonces (3) (4) (5) (6)(7)

Ahora se presenta otra definición útil


Si vϵRn, entonces la longitud o norma de v, denotada por |v|, esta dada por (8)

Nota. Si entonces v*v= Esto significa que

(9)

De esta forma se puede obtener la raíz cuadrada en (8), y se tiene (10)(11)

TEOREMA: si S= es un conjunto ortogonal de vectores diferentes de cero,


entonces S es linealmente independiente.

Suponga que
Entonces, para cualquier i=1,2,…,k

Como v≠0 por hipótesis |v|2>0 y se dice que c=0. Esto es cierto para i=1,2,…,k, lo que completa la
prueba.

Proceso de ortonormalizacion de Gram-Schmidt


Sea H un subespacio de dimensión m de Rn. Entonces H tiene una base ortonormal.

Sea S= una base de H. se probara el teorema construyendo una base


ortonormal a partir de vectores en S. antes de dar los pasios para esta construccion, se observa el
hecho sencillo de que un conjunto de vectores linealmente independiente no contiene al vector
cero.

Paso 1. Eleccion del primer vector unitario

Sea (12)

Entonces
De manera que |u|=1.

Paso 2. Eleccion de un segundo vector ortogonal a u

Como anteriormente se ha visto que, en R2, el vector es la ortogonal a v. en

este caso es la proyeccion de u sobre v. esto se ilustra en la siguiente figura.

Resulta que el vector w dado es ortogonal a v cuando w y v están en Rn para cualquier n≥2.

Obsérvese que como u es un vector unitario, para cualquier vector v.

Sea (13)
entonces de manera que v’ es
ortogonal a u. mas aun, por el teorema, u y v´son linealmente independientes. v’≠0 porque de otra

manera lo que contradice la independencia de v1 y v2.

Paso 3. Elección de un segundo vector unitario

Sea (14) entonces es evidente que {u1,u2} es un conjunto ortonormal.


Suponga que se han construido los vectores u1, u2,…,uk(k<m) y que forman un conjunto
ortonormal. Se mostrara como construir uk+1.

Paso 4. Continuación del proceso


Sea (15) entonces para i=1,2,

…,k

Pero Por lo

tanto,

Así, es un conjunto linealmente independiente, ortogonal y v´k+1≠0.

Paso 5

Sea

Entonces es claro que es un conjunto ortonormal y se puede


continuar de esta manera hasta que k+1=m con lo que se completa la prueba.

Nota. Como cada u es una combinación lineal de vectores v, gen es un

subespacio de gen y como cada espacio tiene dimensión k, los espacio son
iguales.

INSTITUTO TECNOLÓGICO SUPERIOR DE VILLA LA


VENTA

ALGEBRA LINEAL
UNIDAD 5
 5.1 Introducción a las transformaciones lineales.
 5.2 Núcleo e imagen de una transformación lineal.
 5.3 La matriz de una transformación lineal.
 5.4 Aplicación de las transformaciones lineales

INVESTIGACIÓN UNIDAD 5

INGENIERIA INDUSTRIAL

ALUMNO: JESUS EDUARDO CHABLE QUIROGA


CATEDRATICO: RUFINO AQUINO BOSQUEZ

5.1 Introducción a las transformaciones lineales.


El presente capitulo aborda una clase especial de funciones denominadas transformaciones
lineales que ocurren con mucha frecuencia en el algebra lineal y otras ramas de las matematicas.
Estas tienen una gran variedad de aplicaciones importantes. Antes de definirlas, se estudiaran dos
ejemplos sencillos para ver lo que es posible realizar.

Ejemplo 1: reflexión respecto al eje x


En R2 se define una función T mediante la formula T(x;y)=(x;-y). Geométricamente, T toma un
vector en R2 y lo refleja respecto al eje x. esto se ilustra en la figura. Una vez que se ha dado la
definición básica, se vera que T es una transformación lineal de R2 en R2.

Ejemplo 2: transformación de un vector de producción en un vector de materia prima.


Un fabricante elabora cuatro tipos de productos distintos, de los cuales cada uno requiere tres
tipos de materiales. Se identifican los cuatro productos como P1, P2, P3, y P4 y a los materiales
por R1, R2 y R3. La tabla siguiente muestra el numero de unidades de cada materia prima que se
requieren para fabricar 1 unidad de cada producto.

Ejemplo 2: transformación de un vector de producción en un vector de materia prima.


Un fabricante elabora cuatro tipos de productos distintos, de los cuales cada uno requiere tres
tipos de materiales. Se identifican los cuatro productos como P1, P2, P3, y P4 y a los materiales
por R1, R2 y R3. La tabla siguiente muestra el numero de unidades de cada materia prima que se
requieren para fabricar 1 unidad de cada producto.

Surge una pregunta natural: si se produce cierto número de los cuatro productos, ¿Cuántas
unidades de cada material se necesitan? Sean p1, p2, p3 y p4 el número de artículos fabricados en
los cuatro productos y sean r1, r2, y r3 el número de unidades necesarios de los tres materiales.
Entonces se define

Por ejemplo, suponga que P=(10,30,20,50). ¿Cuántas unidades de R1 se necesitan para producir
estos números de unidades de los cuatro productos? De la tabla se tiene que
r=p1*2+p2*1+p3*3+p4*4=10*2+30*1+20*3+50*4=310 unidades
de manera similar r2=10*4+30*2+20*2+50*1=190 unidades
y r3=10*3+30*3+20*1+50*2=240 unidades
en general se ve que
o Ap= r.
Esto se puede ver de otra manera. Si a p se le conoce como le vector de producción y a r como el
vector de materia prima, se define la función T por = T(p) = Ap. Esto es, T es la función que
“transforma” el vector de producción en el vector de materia prima y se hace mediante la
multiplicación de matrices ordinaria. Como se verá , esta función es también una transformación
lineal.
Antes de definir una transformación lineal, hablaremos un poco sobre las funciones. En la sección
1.7 se escribió un sistema de ecuaciones como
Ax=b
Donde A es una matriz de m*n, x R” y b R”. Se pidió encontrar x cuando A y b se conocían . No
obstante, esta ecuación se puede ver de otra forma: suponga que A se conoce. Entonces la
ecuación Ax=b “dice” : proporcione una x en R´´ y yo le daré una b en R´´´; es decir , A representa
una función con dominio R´´ e imagen en R´´´.
La función que se acaba de definir tiene las propiedades de que A ( si es un escalar y A(x + y)
= Ax + Ay. Esta propiedad caracteriza las transformaciones lineales.

Definición 1 transformación lineal


Sean V y W espacios vectoriales reales. Una transformación lineal T de V en W es una función que
asigna a cada vector v V un vector único Tv W y que satisface, para cada u y v en V y cada
escalar .
T(u + v) = Tu + Tv
Y
T(av)=aTv

TRES OBSERVACIONES SOBRE NOTACIÓN


1. Se escribe T: v W para indicar que T toma el espacio vectorial real V y lo lleva al espacio
vectorial real W; esto es, T es una función con V como su dominio y un subconjunto de W como su
imagen.
2. Se escriben indistintamente Tv y T(v). Denotan lo mismo; las dos se leen “T de v”. Esto es
análogo a la notación funcional ʄ(x), que se lee “ʄ de x”.
3. Gran parte de las definiciones y teoremas en este capítulo también se cumplen para los
espacios vectoriales complejos (espacios vectoriales en donde los escalares son números
complejos).
Ejemplo 5 La transformación identidad
Sea V un espacio vectorial y definida I: V V por Iv = v para todo v en V. Aquí es obvio que es I es
una transformación lineal, la cual se denomina transformación identidad u operador identidad.

Ejemplo 6 Transformación de reflexión


Sea T:R2 R2 definida por T(x;y)=(x;-y). Es fácil verificar que T es lineal. En términos geométricos, T
toma un vector en R2 y lo refleja respecto al eje y (vea la figura 5.2)

Ejemplo 7 Transformaciones de Rn Rm dada por la multiplicación por una matriz de m*n.


Sea A una matriz de m*n y definida T:R´´ R´´´ por Tx = Ax. Como A(x + y) = Ax + Ay y
A( si x y y están en R´´, se observa que T es una transformación lineal. Entonces:
toda matriz A de m*n se puede utilizar para definir una transformación lineal de R´´ en
R´´´.

5.2 Núcleo e imagen de una transformación lineal.


En esta sección se desarrollan algunas propiedades básicas de las transformaciones
lineales.
Teorema 1. Sea T: V W una transformación lineal. Entonces para todos los vectores u, v, v 1, v2,
….vn en V y todos los escalares

Nota en la parte i el 0 de la izquierda es el vector cero en v; mientras que el cero de la derecha es


el vector cero en W.
i. T(0) = T(0 + 0)= T(0) + T(0). Así 0= T(0) – T(0) = T(0) + t(0) – T(0) = T(0)
ii.T(u-v) = T[u + (-1)v] = Tu + T[(-1)v] = Tu + (-1)Tv = Tu – Tv.
iii.Esta parte se prueba por inducción (vea el apéndice 1). Para n = 2 se tiene T(α1v1 + α2v2) = T
(α1v1) + T(α2v2) = α1Tv1 + α2Tv2. Así, la ecuación (1) se cumple para n = 2. Se supone que se
cumple para n = k y se prueba para n=k + 1: T(α1v1 + α2v2+ ….+ αkvk+αk+1vk-1 ) = T(α1v1 + α2v2+….
+αkvk) + T(αk+1vk+1), y usando la ecuación en la parte iii para n= k, esto es igual a (α1Tv1 + α2Tv2+
….αkTvk) + αk+1Tvk+1, que es lo que se quería demostrar. Esto completa la prueba.

Observación. Los incisos i) y ii) del teorema 1 son casos especiales del inciso iii). Un dato
importante sobre las transformaciones lineales es que están completamente determinadas por el
efecto sobre los vectores de la base.

Teorema 2 Sea v un espacio vectorial de dimensión finita con base B= {v1,v2,….vn}. Sean w1,w2,
….wn vectores en W. Suponga que T1 y T2 son dos transformaciones lineales de V en W tales que
T1vi = T2vi = wi para i = 1, 2,…,n. Entonces para cualquier vector v ϵ v, T 1v = T2v; es decir T1 = T2.
Como B es una base para V, existe un conjunto único de escalares α1, α2,…., αn. Tales que v =
α1v1 + α2v2 + …+ αn vn.

Entonces, del inciso iii) del teorema 1, T1v = T1(α1 v1 + α2v2 + …+ αnvn) = α1T2v1 + α2T2v2 +… +
αnTnvn= α1w1 + α2w2 +…+ αnTnvn

De manera similar T2v = T2(α1v1 + α2v2 + …+ αnvn) = α1T2v1 + α2T2v2 +…+ αnTnvn
= α1w1 + α2w2 +…+ αnvn

Por lo tanto, T1v =T2v.

El teorema 2 indica que si T:v W y V tiene dimensión finita, entonces sólo es necesario conocer el
efecto que tiene T sobre los vectores de la base en V. Esto es, si se conoce la imagen de cada
vector básico, se puede determinar la imagen de cualquier vector en V. Esto determina T por
completo. Para ver esto, sean v1, v2,….vn una base en V y sea v otro vector en V. Entonces, igual
que en l aprueba del teorema 2, Tv = α1Tv1 + α2Tv2 +…+ αnTvn

Así, se puede calcular Tv para cualquier vector vϵ V si se conocen Tv1,Tv2,….Tvn

Ejemplo 1 Si se conoce el efecto de una transformación lineal sobre los vectores de la base, se
conoce el efecto sobre cualquier otro vector.

Sea T una transformación lineal de R3 en R2 y suponga que


Solución. Se tiene

Entonces

Surge otra pregunta; si w1,w2,….,wn son n vectores en W, ¿existe una transformación lineal
T tal que Tv1 = w1 para i = 1,2,…,n? La respuesta es sí. Como lo muestra el siguiente
teorema.

Definición 1 Núcleo e imagen de una transformación lineal


Sean V y W dos espacios vectoriales y sea T:V W una transformación lineal. Entonces

i . El núcleo de T, denotado por un, está dado por

ii. La imagen de T, denotado por Im T, esta dado por

Observacion 1. Observe que un T es no vacio porque, de acuerdo al teorema 1, T(0) = 0 de


manera que 0 ϵ un T para cualquier transformación lineal T. Se tiene interés en encontrar otros
vectores en V que “se transformen en 0”. De nuevo, observe que cuando escribimos T(0) = 0, el 0
de la izquierda está en V y el de la derecha en W.
Observación 2. La imagen de T es simplemente el conjunto de “imajenes” de los vectores en V
bajo la transformación T. De hecho, si w = Tv, se dice que w es la imagen de v bajo T.

Antes de dar ejemplos de núcleos e imágenes , se demostrará un teorema de gran utilidad.

Teorema 4 Si T:V W es una transformación lineal, entonces


i.Un T es un subespacio de V.
ii.Im T es un subespacio de W.

Demostracion
i.Sean u y v en un T; Entonces T(u + v) = Tu + Tv =0 + 0 =0 y T( ) = = 0 = 0 de forma que u + v
y ∝u están en un T.
ii. Sean w y x en Im T. Entonces w = Tu y x = Tv para dos vestores u y v en V. Esto significa que
T(u + v)= Tu + Tv = w + x y T(∝u) = ∝Tu =∝w. Por lo tanto, w + x y ∝w están en Im T.

Ejemplo 3. Núcleo e imagen de la transformación cero


Sea Tv = 0 para todo vϵ V(T es la transformación cero). Entonces un T = v e Im T = {0}.

Ejemplo 4 Núcleo e imagen de la transformación identidad


Sea Tv = v para vϵ V(T es la transformación identidad). Entonces un T= {0} e Im T = V.

Las transformaciones cero e identidad proporcionan dos extremos. En la primera


todo se encuentra en el núcleo. En la segunda sólo el vector cero se
encuentra en el núcleo. Los casos intermedios son más interesantes.
Ejemplo 5 Núcleo e imagen de un operador de proyección

Sea T:R3 R3 definida por


T es el operador de proyección de R3 en el plano xy.

Entonces x = y = 0. Así, nu T = {(x,y,z):x = y = 0, zϵR}, es decir, el eje z, e Im T = {(x,y,z): z = 0}, es


decir el plano xy. Observe que dim un T = 1 y dim Im T = 2.

Definición 2 Nulidad y rango de una transformación lineal


Si T es una transformación lineal de v en w, entonces se define.

Observación. En la sección 4.7 se definieron el rango, la imagen, el espacio nulo y la nulidad de


una matriz. Según el ejemplo 5.1.7, Toda matriz A de m*n da lugar a una transformación lineal T:R
´´
R´´´ definida por Tx = Ax. Es evidente que un T = NA, Im T = Im A = CA, v(T) = v(A) y p(T) = p(A).
Entonces se ve que las definiciones de núcleo, imagen, nulidad y rango de una transformación
lineal son extensiones del espacio nulo, la imagen, la nulidad y el rango de una matriz.

Ejemplo 6. Núcleo y nulidad de un operador de proyección


Sea H un subespacio de R´´ y sea Tv = proyH v. Es obvio que la Im T = H. Se tiene que toda vϵ V si
v=h + proyH v + proyHv. Si Tv = 0, entonces h=0, lo que significa498

5.3 La matriz de una transformación lineal.


Si A es una matriz de m*n y T: R n-Rm está definida por Tx = Ax, entonces, T es una transformación
lineal. Ahora se verá que para toda transformación lineal de R n en Rm existe una matriz A de m*n
tal que Tx = Ax para todo x ϵ Rn. Este hecho es de gran utilidad. Si Tx = Ax. Entonces un T = N A e
Im T = RA. más aun, v(T) = dim un T = v(A) y p(T) = dim Im T = p(A). Así se puede determinar el
núcleo, la imagen, la nulidad y el rango de una transformación lineal de Rn-Rm determinando el
espacio nulo y la imagen de la matriz correspondiente. Adicionalmente, una vez que se sabe que
Tx = Ax. Se puede evaluar Tx para cualquier x en R n mediante una simple multiplicación de
matrices.
Pero esto no es todo. Como se verá, cualquier transformación lineal entre espacios vectoriales de
dimensión finita se puede representar mediante una matriz.
Teorema 1
Sea T:Rn -Rm una transformación lineal. Existe entonces una matriz única de m*n, AT tal que

Demostración
Sea w1 = Te1,w2 = Te2,….,wn = Ten. Sea AT la matriz cuyas columnas son w 1, w2,…., wn y hagamos
que AT denote también ala transformación de Rn-Rm, que multiplica un vector en Rn por AT. si

Entonces
De esta forma, ATei = wi para i = 1,2,….n., T y la transformación AT son las mismas porque
coinciden en los vectores básicos.

Ahora se puede demostrar que AT es única. Suponga que Tx = ATx y que Tx = BTx para todo
x ϵ Rn. Entonces ATx = BTx, o estableciendo CT= AT – BT, se tiene que CTx = 0 para todo x ϵ Rn. En
particular, CTei es la columna i de CT. Así, cada una de las n columnas de CT es el m-vector cero, la
matriz cero de m*n. Esto muestra que AT = BT y el teorema queda demostrado.

Definición 1 Matriz de transformación


La matriz AT en el teorema 1 se denomina matriz de transformación correspondiente a T o
representación matricial de T.

NOTA. La matriz de transformación AT está definida usando las bases estándar tanto en Rn como
en R3. Si se utilizan otras bases, se obtendrá una matriz de transformación diferente.

TEOREMA 2 sea AT la matriz de transformación correspondiente a laa transformación lineal T.


entonces.
i. Im T = Im A = CAT
ii. P(T) = p(AT)
iii. Un T = NAT
iv. v(T) = v(AT
Ejemplo 1 Representación matricial de una transformación de proyección
Encuentre la matriz de transformación AT correspondiente ala proyección de un vector en R3 sobre
el plano xy.
Solución
Teorema 4
Sean V y W espacios vectoriales de dimensión finita con dim V = n. sea T:V-W una transformación
lineal y sea AT una representación matricial de T respecto a las bases B1 en V y B2 en W. entonces
i. p(T) =p(AT) ii. V(A) = v(AT) iii. V(a) + p(T) = n

Teorema 5 Sea T:Rn-Rm una transformación lineal. Suponga que C es la matriz de transformación
de T respecto a las bases estándar Sn y Sm en Rn y Rm, respectivamente. Sea A1 la matriz de
transición de B2 a base Sm en Rm. Si AT denota la matriz de transformación de T respecto a las
bases B1 y B2, entonces.

Geometría de las transformaciones lineales de R2 en R2.


Sea T:R2-R2 una transformación lineal con representación matricial A T Ahora de demostrará que si
AT es invertible, entonces T se puede escribir como una sucesión de una o más transformaciones
especiales, denominadas expansiones, compresiones, reflexiones y cortes.

Expansiones a lo largo de los ejes x o y


Una expansión a lo largo del eje x es una transformación lineal que multiplica a la coordenada x de
un vector en R2 por una constante C >1. Esto es
De manera similar, una expansión a lo largo del eje y es una transformación lineal que multiplica la
coordenada y de todo vector en R2 por una constante C>1. Como antes ,

entonces la representación matricial de T es de manera que

a) se comienza con este rectángulo.


b) Expansión en la dirección de x c = 2.
c) Expansión en la dirección de y con c = 4.

Compresión a lo largo de los ejes x o y.


Una compresión a lo largo de los ejes x o y es una transformación lineal que multiplica ala
coordenada x o y de un vector en R2 por una constante positiva 0<c<1, mientras que para la
expansión c<1.
a) se comienza con este rectángulo.
b) Compresión a lo largo del eje x con c =1/3.
c) Compresión a lo largo del eje x con c=1/2.
5.4 Aplicación de las transformaciones lineales: reflexión,
dilatación, contracción y rotación.
Reflexión sobre el eje x
En este caso, queremos averiguar como está definida la
transformación T de R2 en R2 que cada

vector lo refleja sobre el eje x, para obtener

un vector

En una gráfica, vemos la situación como sigue:


En este caso, la situación es más sencilla ya que claramente tenemos
dos triángulos rectángulos que son congruentes, de donde T queda
definida como sigue:

Esta transformación se llama la reflexión sobre el eje x, y es lineal, ya


que:

Ejemplo dilatación o expansión

Una dilatación es una transformación que incrementa distancias.

Sea V= (2 4) encontrara la expansión vertical cuando K=2


Expansión horizontal (k71) o contracción (0<k<1)
Expansión vertical (k71) o contracción (0<k<1)

Ejemplo contracción

Una contracción es una transformación que decrece distancias. Bajo una


contracción, cualquier par de puntos es enviado a otro par a distancia
estrictamente menor que la original.

Sea V= (2 4) encontrara la contracción horizontal cuando K=1/2


Haciendo la grafica el punto disminuye en el eje horizontal.

Rotación por un ángulo


Sea un ángulo medido en radianes. Queremos
averiguar cual es la transformación T de R2 en R2 que gira cada

vector un angulo , para obtener un


vector

En una gráfica, vemos la situación como sigue:

Si usamos las funciones trigonométricas, tenemos que:

Distribuyendo y usando el hecho de que

y tenemos que:

Por lo tanto, ya descubrimos cómo debe estar definida la

transformación tal
que

Esta transformación se llama la rotación por un ángulo y es lineal, ya


que:

También podría gustarte