0% encontró este documento útil (0 votos)
628 vistas325 páginas

LIBRO Algebra Lineal

Este documento presenta un libro de texto sobre álgebra lineal. Contiene siete capítulos que cubren temas como sistemas de ecuaciones lineales, espacios vectoriales, aplicaciones lineales, matrices, determinantes y diagonalización. El libro proporciona definiciones, propiedades, teoremas y ejercicios resueltos para cada tema.

Cargado por

Milton Sanchez
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
628 vistas325 páginas

LIBRO Algebra Lineal

Este documento presenta un libro de texto sobre álgebra lineal. Contiene siete capítulos que cubren temas como sistemas de ecuaciones lineales, espacios vectoriales, aplicaciones lineales, matrices, determinantes y diagonalización. El libro proporciona definiciones, propiedades, teoremas y ejercicios resueltos para cada tema.

Cargado por

Milton Sanchez
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

1

æ
æ
Algebra Lineal

Dra. Marı́a Teresa Alcalde


Dr. César Burgueño

Depto. de Matemática y Estadı́stica


Facultad de Ingenierı́a, Ciencias y Administración
Universidad de La Frontera

Tercera Edición - 2008


Indice de materias

Introducción 5

1 Sistemas de Ecuaciones Lineales 7


1.1 Definiciones y ejemplos . . . . . . . . . . . . . . . . . . 7
1.2 Combinación lineal de ecuaciones . . . . . . . . . . . . 12
1.3 Operaciones elementales . . . . . . . . . . . . . . . . . 13
1.4 Sistemas dependientes e independientes . . . . . . . . . 16
1.5 Sistema de Cramer . . . . . . . . . . . . . . . . . . . . 17
1.6 Proceso de escalonamiento de un sistema . . . . . . . . 19
1.7 Ejercicios Resueltos . . . . . . . . . . . . . . . . . . . . 22

2 Espacios Vectoriales 31
2.1 Definición y propiedades básicas de espacio vectorial . . 31
2.2 Sub-espacios vectoriales . . . . . . . . . . . . . . . . . 42
2.3 Combinaciones Lineales . . . . . . . . . . . . . . . . . . 52
2.4 Sub-espacio generado . . . . . . . . . . . . . . . . . . . 58
2.5 Dependencia Lineal . . . . . . . . . . . . . . . . . . . . 69
2.6 Bases de un espacio vectorial . . . . . . . . . . . . . . . 79
2.6.1 Método para encontrar una base de un espacio
vectorial . . . . . . . . . . . . . . . . . . . . . . 85
2.6.2 Aplicación del Teorema de Steinitz . . . . . . . 89
2.7 Dimensión de un espacio vectorial . . . . . . . . . . . . 92
2.8 Suma de sub-espacios vectoriales . . . . . . . . . . . . 101
2.9 Ejercicios propuestos . . . . . . . . . . . . . . . . . . . 116

3 Aplicaciones Lineales 119


3.1 Introducción, definición y ejemplos . . . . . . . . . . . 119

1
2

3.2 Determinación de una aplicación lineal . . . . . . . . . 126


3.3 Imagen y Núcleo de una aplicación lineal . . . . . . . . 131
3.4 Morfismos y dimensiones . . . . . . . . . . . . . . . . . 141
3.5 Estructura de un conjunto de morfismos . . . . . . . . 152
3.6 Ejercicios resueltos . . . . . . . . . . . . . . . . . . . . 155
3.7 Ejercicios propuestos . . . . . . . . . . . . . . . . . . . 170

4 Matrices 173
4.1 Matriz asociada a una aplicación lineal . . . . . . . . . 173
4.2 Suma de morfismos y suma de matrices . . . . . . . . . 179
4.3 Producto de un escalar por un morfismo y producto de
un escalar por una matriz . . . . . . . . . . . . . . . . 181
4.4 Composición de morfismos y producto de matrices . . . 183
4.5 Algunos tipos especiales de matrices . . . . . . . . . . . 186
4.6 Forma matricial de f (v) = w . . . . . . . . . . . . . . . 193
4.7 Forma matricial de un sistema de ec. lineales . . . . . 195
4.8 Isomorfismos y matrices invertibles . . . . . . . . . . . 195
4.9 Automorfismo y matriz de cambio de base . . . . . . . 200
4.10 Un morfismo cualquiera y matrices equivalentes . . . . 203
4.11 Ejercicios resueltos . . . . . . . . . . . . . . . . . . . . 206
4.12 Ejercicios propuestos . . . . . . . . . . . . . . . . . . . 215

5 Determinantes 219
5.1 Determinantes de matrices de M2 (K) . . . . . . . . . . 219
5.2 Determinantes de matrices de M3 (K) . . . . . . . . . . 225
5.3 Determinante de matrices de Mn (K) . . . . . . . . . . 228
5.4 Interpretación geométrica del determinante . . . . . . . 231
5.5 Matriz adjunta . . . . . . . . . . . . . . . . . . . . . . 232
5.6 Determinante de un endomorfismo . . . . . . . . . . . 234
5.7 Ejercicios resueltos . . . . . . . . . . . . . . . . . . . . 236
5.8 Ejercicios propuestos . . . . . . . . . . . . . . . . . . . 246

6 Diagonalización 249
6.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . 249
6.2 Valores propios y vectores propios . . . . . . . . . . . . 253
6.3 Valores propios simples . . . . . . . . . . . . . . . . . . 258
6.4 Valores propios múltiples . . . . . . . . . . . . . . . . . 265
3

6.5 Ejercicios resueltos . . . . . . . . . . . . . . . . . . . . 268


6.6 Ejercicios propuestos . . . . . . . . . . . . . . . . . . . 273

7 Aplicaciones Bilineales 275


7.1 Aplicaciones bilineales . . . . . . . . . . . . . . . . . . 276
7.1.1 Ejemplos. Propiedades generales . . . . . . . . . 276
7.2 Formas bilineales . . . . . . . . . . . . . . . . . . . . . 287
7.2.1 Matriz asociada a una forma bilineal . . . . . . 288
7.2.2 Representación matricial de f (x, y) . . . . . . . 289
7.3 Espacios Euclidianos . . . . . . . . . . . . . . . . . . . 291
7.3.1 Producto escalar . . . . . . . . . . . . . . . . . 291
7.3.2 Norma . . . . . . . . . . . . . . . . . . . . . . . 293
7.3.3 Ortogonalidad . . . . . . . . . . . . . . . . . . . 298
7.3.4 Angulo y distancia entre vectores . . . . . . . . 304
7.4 Formas bilineales simétricas . . . . . . . . . . . . . . . 306
7.5 Ejercicios resueltos . . . . . . . . . . . . . . . . . . . . 307
7.6 Ejercicios propuestos . . . . . . . . . . . . . . . . . . . 315

Epı́logo 317

Bibliografı́a 319
Introducción

Queremos que sepas que estos apuntes los escribimos con toda ded-
icación para ti. Deseamos que te entretengas estudiando y que por
supuesto, te alegre aprender.
Tratamos de explicarte cómo ha ido naciendo el Algebra Lineal. Tu
sabes, las matemáticas han sido creadas por personas al igual que ti
y siempre tuvieron un motivo para crear tal definición, proposición o
teorema. Siempre tuvieron un motivo para dar tal nombre a tal ente
matemático.
Queremos conversarte de lo importante que es para ti, estudiar clase
a clase, muy especialmente en el primer y segundo capı́tulo. Son con-
ceptos muy distintos, sin embargo, bastantes alumnos los confunden
y esto se debe exclusivamente a la falta de estudio organizado.
El Algebra Lineal, como las demás materias, no se puede estudiar
sólo la última semana antes de la prueba. Que no tengas que decir:
”Estudié los dos últimos dı́as hasta la madrugada y mire profe, me
saqué un dos”
Al ir estudiando es muy importante que leas con mucha atención la in-
troducción en cada capı́tulo y en cada sección. Ahı́ se explica lo que se
quiere conseguir en esa sección, se explica cuál es el problema a estu-
diar. Ası́ será más fácil entender la materia. Si tienes poco tiempo para
estudiar, no creas que ganarás tiempo saltándote las introducciones.
Eso es un error.
Las explicaciones que hay a lo largo de los apuntes se deben a una serie
de consultas que han hecho los alumnos en forma frecuente y también

5
6

a errores que cometen todos los semestres en sus pruebas.


Es por estos motivos que nos hemos dado el trabajo de dar ciertas
explicaciones. Piensa querido alumno o querida alumna, en todos los
jóvenes que te han presedido y nos han pedido esa explicación. ¿De
acuerdo?
Estamos seguros que en este tercer milenio tendrán ventaja en su
profesión, aquellas personas que dominen los conceptos. Tienes que
pensar en tu futuro y no solamente en la nota que tendrás en los dı́as
próximos.
Queremos que sepas que estamos muy agradecidos de muchas personas
que han permitido la realización de estos apuntes. Muchos alumnos
que nos animaron a escribirlos. El doctor Cristián Mallol, amigo y
colega quien es el autor de muchos ejercicios y quien nos hizo varias
sugerencias. Nuestros hijos quienes pacientemente han aceptado las
horas dedicadas a este escrito.
Marı́a Teresa y César
Capı́tulo 1

Sistemas de Ecuaciones
Lineales

1.1 Definiciones y ejemplos


Nos hemos dado cuenta que muchos alumnos que llegan al curso de
álgebra lineal no saben qué es una ecuación lineal, entonces ¿empece-
mos por el principio?
Comencemos por ver algunos ejemplos de ecuaciones lineales:
Ejemplo: x + 2y − 3z + t = 6
Ejemplo: 2x1 − 3x2 + 5x3 = 7
Antiejemplo: 2xy + 5x + 5z = 4 No es lineal, pues hay incógnitas
multiplicadas entre sı́.
Antiejemplo: 2x2 + 3x − 5t = 5 No es lineal, pues la incógnita x
está elevada a una potencia distinta a 1.
Creo que ahora vas a entender bien la definición ¿cierto?

Definición 1.1.1 Una ecuación lineal de n incógnitas es una


expresión del tipo:

α1 x1 + α2 x2 + · · · + αn xn = β , αi , β ∈ K

7
8 M.T. Alcalde - C. Burgueño Algebra Lineal

K un cuerpo. Los xi son llamados incógnitas.

K = Q, IR, C, ZZ 2 , ZZ 3 , ZZ p , p primo

Recuerde que ZZ es un anillo, no alcanza a ser un cuerpo.


Resolver una ecuación es encontrar todos los elementos de K que
cumplen la igualdad. Esto quiere decir que no basta con encontrar
algunas soluciones.
Veamos en un ejemplo cómo encontrar todas las soluciones.

Ejemplo

Resolvamos la ecuación lineal 2x + 3y − 2z = 5

Solución

Bueno hay que despejar una de las incógnitas. En esta oportunidad


escogeremos x:
3 5
x = − y + z + ; y, z ∈ IR
2 2
Esto quiere decir que cada vez que le demos un valor a y y a z, ten-
dremos una solución (x, y, z).
5
Por ejemplo: Sea y = z = 0, entonces x = 2
luego la solución es
( 52 , 0, 0)
Otro ejemplo: Sea y = 1, z = 0, entonces x = − 23 + 52 , luego x = 1.
Luego otra solución es (1, 1, 0)
El conjunto de soluciones está dado por {( −3
2
y + z + 25 , y, z); y, z ∈ IR}
Es interesante que sepas, que cuando en matemática uno define un
ente, el próximo paso a seguir es definir cuando dos de esos entes son
iguales.
En este caso no hablaremos de igualdad de ecuaciones, sino, siguiendo
la tradición hablaremos de ecuaciones equivalentes, ¿ de acuerdo ?
Capı́tulo 1. Sistemas de Ecuaciones Lineales 9

Definición 1.1.2 Diremos que dos ecuaciones lineales son equiva-


lentes si y sólo si tienen las mismas soluciones.

Veamos dos ejemplos:

Ejemplo

Consideremos las ecuaciones


E1 : x+y+z = 3
E2 : 2x + 2y + 2z = 6

Estas dos ecuaciones son equivalentes pues tienen las mismas solu-
ciones.

Ejemplo

1) : x + 3y − 5z = 5
2) : 2x + 6y − 10z = 10
Estas dos ecuaciones son equivalentes.

Nota

Hemos observado que hay alumnos que no saben resolver la ecuación


lineal:
E : 0x = 0
¿Cuáles son los números reales que cumplen esta ecuación? Por
supuesto, todos los números reales! ¡trivial!
Algunos contestan x = 0.
A lo largo del curso nos encontraremos en repetidas oportunidades
ante esta situación, ası́ es que: ¡no lo olvides!
Antes de dar la definición de un sistema de ecuaciones lineales, veremos
algunos ejemplos:
10 M.T. Alcalde - C. Burgueño Algebra Lineal

Ejemplo

)
2x − y + z = −1
x + 3y + 2z = 5

Este es un sistema de ecuaciones lineales de 2 ecuaciones y 3 incógnitas.


Resolver este sistema, significa que debemos encontrar todos los
x, y, z ∈ K, tales que cumplen las 2 ecuaciones al mismo tiempo.

Ejemplo

3x + 2y = 11



4x − y = 11


x + 3y = 9 


x + y = 14

Sistema formado por 4 ecuaciones y 2 incógnitas

Ejemplo


x+y+z=4  
2x + 3y = 7
3x − y + z = −2 

Sistema formado por 3 ecuaciones y 3 incógnitas.

Ejemplo

)
x+y+z=2
2x + 2y + 2z = 5

Este sistema es incompatible, pues no existen 3 números que al sumar-


los se obtenga 2 y 52 al mismo tiempo.
Capı́tulo 1. Sistemas de Ecuaciones Lineales 11

Bueno, como has podido apreciar no hay relación entre el número de


ecuaciones y el número de incógnitas para tener un sistema. Veamos
la definición.

Definición 1.1.3 Un sistema lineal de m ecuaciones y n incógnitas,


es un sistema del tipo:

α11 x1 + α12 x2 + · · · +α1n xn = β1





α21 x1 + α22 x2 + · · · +α2n xn = β2


...................................... 


αm1 x1 + αm2 x2 + · · · +αmn xn = βm

Donde αij , βi ∈ K, los xj son llamados las incógnitas.

Dada la definición, el próximo paso a seguir es definir cuándo dos


sistemas son equivalentes. A la vista, no es obvio cuándo dos sistemas
lo son.
¿Lo vemos primero en un ejemplo?

Observación

Estudiemos el sistema
)
E1 : 2x − y = 4
⇒ E1 + E2 : 5x = 5 ⇒ x=1
E2 : 3x + y = 1

x = 1 en E2 : y = 1 − 3 ⇒ y=-2

Ahora estudiemos el siguiente sistema, de apariencia muy distinta al


anterior:
)
E1 : 3x − 2y = 7
⇒ E1 + E2 : 4x = 4 ⇒ x=1
E2 : x + 2y = −3

x = 1 en E2 : 2y = −3 − 1 ⇒ y=-2
12 M.T. Alcalde - C. Burgueño Algebra Lineal

Puesto que los dos sistemas tienen las mismas soluciones diremos que
son ”equivalentes”.
Tenemos, entonces, la definición siguiente:

Definición 1.1.4 Diremos que dos sistemas son equivalentes si


tienen exactamente las mismas soluciones.

1.2 Combinación lineal de ecuaciones


En esta sección nos ocuparemos de cómo obtener a partir de algunas
ecuaciones, otras ecuaciones, dentro del mismo sistema.
Veamoslo en un ejemplo. ¡ Es tan fácil comprender los conceptos en
un ejemplo! ... y luego generalizarlo.

Observación

Consideremos el sistema siguiente:


)
E1 : x + 2y = −1
E2 : 2x + y = 1

De este sistema podemos obtener la ecuación


E3 = E2 + 2E1 : 4x + 5y = −1, de tal modo que, si x e y cumplen
las ecuaciones E1 y E2 , entonces cumplen E3 .
Diremos que E3 es una ”combinación lineal” de E1 y E2
Ahora, entenderás la definición siguiente:

Definición 1.2.1 Sean E1 , E2 , · · · , En , n ecuaciones. Diremos que


la ecuación
E = α1 E1 + α2 E2 + · · · + αn En
es una combinación lineal de las ecuaciones E1 , E2 , · · · , En
Capı́tulo 1. Sistemas de Ecuaciones Lineales 13

1.3 Operaciones elementales

Bueno, el problema que enfrentaremos ahora es encontrar las opera-


ciones que podemos efectuar a un sistema de manera de obtener otro
equivalente.

Definición 1.3.1 Diremos que una operación es elemental si nos


permite pasar de un sistema de ecuaciones a otro equivalente.

Pero, veamos cuáles son estas operaciones. Es trivial que si cambiamos


el orden de las ecuaciones seguimos teniendo el mismo sistema, es decir,
uno equivalente. Entonces
Primera operación: Consiste en intercambiar el orden de las ecua-
ciones.

Ejemplo

Es super importante que comiences a aprender la notación que usare-


mos para indicar la operación ¡Es fácil! ¡Es trivial!
) )
x+y=3 L12 x−y=7
x−y=7 −→ x+y=3

A pesar de ser una operación trivial, la usaremos a lo largo de todo


el curso con el objetivo de ordenar algunas cosas.
Notación: Lij denota el intercambio de la ecuación i con la ecuación
j.
También es trivial la operación siguiente:
Segunda operación: Consiste en multiplicar una ecuación por un
número distinto de cero.
14 M.T. Alcalde - C. Burgueño Algebra Lineal

Ejemplo

(Nuevamente observe la notación)


) )
x+y=3 L1 (2) 2x + 2y = 6
x − 2y = 7 −→ x − 2y = 7

La ecuación (1) fue multiplicada por 2.


Observación: Si se multiplica una ecuación por cero, ésta se elimina,
por lo tanto el sistema obtenido no es equivalente al original. Es decir
no está permitida la multiplicación por cero.
Notación: Li (α) denotará la multiplicación por α de la ecuación i.

Ejemplo

) )
x=6 L1 (0) 0x = 0
x + 2y = 7 −→ x + 2y = 7

En el primer sistema, existe una única solución, ésta es (6, 21 ). En el


segundo sistema, el conjunto de soluciones es

7−x
{(x, ); x ∈ IR}
2

Ejemplo

(α − 5)x + (α − 5)y = 3(α − 5)

Esta ecuación es equivalente a x + y = 3 salvo en el caso α = 5


Tercera operación: Consiste en sumarle a una ecuación un múltiplo
de otra ecuación.
Capı́tulo 1. Sistemas de Ecuaciones Lineales 15

Ejemplo

(1)
) )
x+y=3 L21 x+y=3
x−y=7 −→ 2x = 10

A la segunda ecuación, le hemos sumado 1 vez la primera ecuación.


Notación: Lij (α) denotará sumarle a la ecuación i, α veces la ecuación
j.
Estas son las únicas tres operaciones elementales. No hay otras.

Nota

Estas operaciones son reversibles. En efecto:

1. La primera operación: Si cambiamos la ecuación Ei con la


ecuación Ej , la operación inversa es ella misma.

2. La segunda operación: Si la ecuación Ei la multiplicamos por α,


α 6= 0, entonces la operación inversa es multiplicar la ecuación
1
Ei por .
α

3. La tercera operación: Si la ecuación Ei la cambiamos por Ei′ =


Ei + αEj , volvemos a la ecuación Ei , al efectuar la operación
Ei′ − αEj = Ei

El hecho de que tales operaciones sean reversibles garantiza que el


sistema que se obtiene de otro por operaciones elementales sucesivas
sea equivalente al inicial.
Luego los dos sistemas son equivalentes.
El sentido de utilizar las operaciones elementales es conseguir trabajar
sobre un sistema con una escritura más simple.
Debemos cuidar de ir haciendo tales transformaciones por etapa.
16 M.T. Alcalde - C. Burgueño Algebra Lineal

1.4 Sistemas dependientes e independi-


entes
Si en un sistema, una ecuación está escrita dos veces, es algo realmente
inútil. ¡Trivial!
Pero, a veces, no es tan trivial que hay ecuaciones agregadas inútil-
mente, es decir ecuaciones que se pueden obtener de las anteriores. En
lenguaje elegante: ecuaciones que son combinación lineal de las demás.

Observación

Consideremos el sistema:

E1 : 3x + y = 2 

E2 : 2x − y = 3
E3 : x + 2y = −1

Vemos que E3 = E1 − E2 , es decir, E3 es una combinación lineal de


E1 y E2 .
Diremos que el sistema es ”dependiente”.
Es obvio, que para buscar la solución del sistema nos quedamos sola-
mente con las dos primeras ecuaciones.

Definición 1.4.1 Diremos que un sistema de ecuaciones es lineal-


mente dependiente si al menos una ecuación es combinación lineal
de las otras.

Observación

Consideremos el sistema siguiente:


)
E1 : x + y = 3
E2 : x + 3y = 5
Este sistema no es dependiente pues una ecuación no es múltiplo de
la otra. Diremos que es ”independiente”.
Capı́tulo 1. Sistemas de Ecuaciones Lineales 17

Definición 1.4.2 Diremos que un sistema de ecuaciones es lineal-


mente independiente cuando no es linealmente dependiente, es de-
cir, si ninguna ecuación es combinación lineal de las otras.

En definitiva, en un sistema linealmente independiente no hay infor-


mación de más.
Un sistema de ecuaciones linealmente independiente puede tener tres
aspectos posibles:

más incógnitas que ecuaciones.

más ecuaciones que incógnitas.

número de ecuaciones = número de incógnitas.

1.5 Sistema de Cramer


Cuando estudiamos un sistema de ecuaciones lineales, a nosotros nos
interesa el número de ecuaciones independientes.
Se supone que el primer paso para resolver un sistema, es quedarse
con un sistema independiente.
Entonces, comencemos por estudiar un sistema independiente.

Definición 1.5.1 Un sistema de n ecuaciones y n incognitas, lineal-


mente independiente, es llamado Sistema de Cramer.

Observación

En la Educación Media, uno comprendió que un sistema lineal de 2


ecuaciones y 2 incógnitas tiene una única solución. Comprendimos que
18 M.T. Alcalde - C. Burgueño Algebra Lineal

lo mismo ocurre en un sistema de 3 ecuaciones y 3 incógnitas. Debido a


la manera en que se llega a esta solución única, uno imagina que esto
ocurre para un sistema lineal de n ecuaciones y n incógnitas, pero,
para ser más cuidadosos habrı́a que agregar: ”sistema independiente”
¿ cierto ?
Tenemos, entonces, la proposición siguiente:

Proposición 1.5.1 Un sistema de Cramer tiene una única solución.

Demostración

La demostración la haremos por inducción sobre n = número de ecua-


ciones = número de incógnitas.
Si n = 1, tenemos un sistema lineal de 1 ecuación y 1 incógnita inde-
pendiente, que trivialmente tiene una única solución.
Supongamos que todo sistema lineal independiente de n ecuaciones
y n incógnitas tiene una única solución (Esta es nuestra hipótesis de
inducción).
Ahora, consideremos un sistema de Cramer formado por las ecuaciones
E1 , E2 , · · ·, En+1 siguientes:


E1 : α11 x1 + α12 x2 + · · · +α1n+1 xn+1 = β1 


E2 : α21 x1 + α22 x2 + · · · +α2n+1 xn+1 = β2




....................................................
En : αn1 x1 + αn2 x2 + · · · +αnn+1 xn+1 = βn





En+1 : αn+11 x1 + αn+12 x2 + · · · +αn+1n+1 xn+1 = βn+1

Estudiemos el sistema formado por las n primeras ecuaciones. Este


sistema lo escribimos de la manera siguiente:

E1′ : α11 x1 + α12 x2 + · · · +α1n xn = β1 − α1n+1 xn+1





E2′ : α21 x1 + α22 x2 + · · · +α2n xn = β2 − α2n+1 xn+1


....................................... 

En′ : αn1 x1 + αn2 x2 + · · · +αnn xn = βn − αnn+1 xn+1


Capı́tulo 1. Sistemas de Ecuaciones Lineales 19

Podemos pensar γj = βj − αjn+1 xn+1 como constantes. Entonces, te-


nemos un sistema de Cramer de n × n, luego tiene solución única, a
saber θ1 , · · · , θn , con los elementos θi en función de αij , βi y xn+1 . Estos
θ1 , · · · , θn los reemplazamos en En+1 y tenemos:
En+1 : αn+11 θ1 + αn+12 θ2 + · · · + αn+1n θn + αn+1n+1 xn+1 = βn+1
De esta ecuación se despeja xn+1 (recuerde que los θ1 , · · · , θn están en
función de xn+1 )
Entonces tenemos una solución única. Luego todo sistema de Cramer
de n ecuaciones y n incógnitas tiene una única solución, para todo n,
número natural.

1.6 Proceso de escalonamiento de un sis-


tema
El proceso que nos ocupa ahora es escribir los sistemas en su forma
más simple posible, pero, antes debemos definir qué será para nosotros
”la forma más simple posible”. A esta forma la llamaremos forma
escalonada.
Entonces, comencemos por ver algunos ejemplos de sistemas escalo-
nados.

Ejemplo

El sistema siguiente está en su forma escalonada:


x + 2y + 5t = 2 

z + 3t = 3
u=4

Observemos cómo estan dispuestos los coeficientes:


20 M.T. Alcalde - C. Burgueño Algebra Lineal

 
1 2 0 5 0 2
 0 0 1 3 0 3 
 

0 0 0 0 1 4

Definición de sistema escalonado

Diremos que un sistema de ecuaciones lineales está escalonado si sat-


isface las tres condiciones siguientes:

1. El coeficiente de la primera incógnita distinta de cero de cada


ecuación es 1. Es llamado lı́der.

2. Cuando hay un lı́der, los demás elementos de la columna son


ceros.

3. Los lı́deres deben ir de izquierda a derecha y de arriba hacia


abajo.

Veamos otros ejemplos:

Ejemplo

)
x + 4z + 3t = 1
y + 2z + 5t = 4

Los coeficientes están distribuı́dos como sigue:

!
1 0 4 3 1
0 1 2 5 4

El cual es un sistema escalonado.


Capı́tulo 1. Sistemas de Ecuaciones Lineales 21

Ejemplo

Se puede tener también el sistema, obviamente incompatible, siguiente:



x + 4z = 0 

y + 2z = 0
0=1

Sus coeficientes están distribuı́dos como sigue:


 
1 0 4 0
 0 1 2 0 
 

0 0 0 1

El cual es un sistema escalonado.

Definición 1.6.1 Matriz es una ordenación rectangular de números.

Definición 1.6.2 Escalonar un sistema de ecuaciones lineales es lle-


varlo a un sistema escalonado equivalente, a través de operaciones
elementales.

Observaciones

Si al escalonar quedan filas con ceros únicamente, significa que el sis-


tema inicial era dependiente, es decir habı́a información de sobra.
Si al escalonar queda una fila del tipo:

0 0 ··· 0 1

significa que el sistema no tiene solución.


Si al escalonar, las filas distintas de cero corresponden a un sistema
de n ecuaciones y n incógnitas, es un sistema de Cramer, luego tiene
solución única.
22 M.T. Alcalde - C. Burgueño Algebra Lineal

Y si al escalonar, las filas distintas de cero corresponde a un sistema


que tiene menos ecuaciones que incógnitas, obviamente que habrá in-
finitas soluciones.
Pero más que saber cuántas soluciones tiene un sistema, es importante
encontrar las soluciones.
A continuación veremos varios ejercicios en los cuales se encuentran
las soluciones de los sistemas, en caso que estas soluciones existan.
Es emocionante ver cómo recién comenzado el curso, podemos resolver
los sistemas lineales y familias de sistemas lineales.

1.7 Ejercicios Resueltos

Ejercicio

Estudiemos el sistema de ecuaciones:

x+y+z=2



2x − y + 2z = −2


x + 2y + 2z = 3 


x − y + 2z = −3

Solución

Comencemos por escalonar el sistema, es decir, escribámoslo en su


forma más simple.
Anotemos solamente los coeficientes, para no escribir tantas letras,
Capı́tulo 1. Sistemas de Ecuaciones Lineales 23

pero, siempre respetando el orden.

(−2)
1 1 1 2 L21 1 1 1 2
   

 2 −1 2 −2 
 −→ 
 0 −3 0 −6 

(−1)
1 2 2 3 L31 0 1 1 1
   
   
1 −1 2 −3 (−1)
L41 0 −2 1 −5
(−1)
1 1 1 2 L12 1 0 1 0
   
( −1 )
L2 3 −→
 0 1 0 2   0 1 0 2 
−→ 
   
(−1)
0 1 1 1 L32 0 0 1 −1
  
(−1)
   
L4 0 2 −1 5 (−2) 0 0 −1 1
L42
1 0 0 1
 
(−1)
L13 x=1
 0 1 0 2 
−→ 
 ⇒

y=2
0 0 1 −1

(1)  
L43 0 0 0 0 z=-1

Es decir, la solución es (1, 2, −1)


Realmente fácil de obtener la solución ¿ cierto ?

Ejercicio

Estudiemos el sistema de ecuaciones sgte.:

x − y − z + 2u = 0



x + y + 3z + 4u = 0


2x + y + 4z + 7u = 0 


3x + y + 5z + 10u = 0

Solución

Comencemos por escalonar el sistema:


24 M.T. Alcalde - C. Burgueño Algebra Lineal

(−1)
1 −1 −1 2 0 L21 1 −1 −1 2 0
   

 1 1 3 4 0 
 −→ 
 0 2 4 2 0 

(−2)
2 1 4 7 0 L31 0 3 6 3 0
   
   
3 1 5 10 0 (−3) 0 4 8 4 0
L41
(1) (1)
L22  1 −1 −1 2 0 
L12

1 0 1 3 0

−→   0 1 2 1 0 
 −→ 
 0 1 2 1 0 

( 31 )  (−1)
L3  0 1 2 1 0 L32 0 0 0 0 0
  
  
( 41 ) 0 1 2 1 0 (−1) 0 0 0 0 0
L4 L42

Es decir tenemos el sistema


)
x + z + 3u = 0
y + 2z + u = 0

Si despejamos las incógnitas que corresponden a los lı́deres, tenemos:


)
x = −z − 3u
; z, u ∈ IR
y = −2z − u

Luego, el conjunto de soluciones es:


{(−z − 3u, −2z − u, z, u); z, u ∈ IR}

Definición 1.7.1 Una familia de sistemas es un conjunto formado


por una cantidad infinita de sistemas que han sido construı́dos de man-
era análoga.

Ejercicio

Estudiemos la familia de sistemas siguiente para los diferentes valores


de α ∈ IR

x + 4z + 6t = 1 

x + y + 9z + 6t = 3
2y + 10z + (α + 3)t = (α + 3) 

Capı́tulo 1. Sistemas de Ecuaciones Lineales 25

Solución

   
1 0 4 6 1 (−1) 1 0 4 6 1
L21 
 1 1 9 6 3   0 1 5 0 2 

−→
 
0 2 10 α + 3 α + 3 0 2 10 α + 3 α + 3
 
(−2) 1 0 4 6 1
L32
 0 1 5 0 2  (1.1)

−→

0 0 0 α+3 α−1

Debemos estudiar separadamente el sistema con α + 3 = 0 y la familia


con α + 3 6= 0.
Caso 1 α + 3 = 0 es decir α = −3
Tenemos el sistema:
 
1 0 4 6 1
 0 1 5 0 2  ⇒ 0 = −4 ⇒⇐
 

0 0 0 0 −4

Es decir, este sistema no tiene solución.


Caso 2 α + 3 6= 0 es decir α 6= −3
Seguimos escalonando el sistema (1.1):

−5α+9
1 0 4 0
   
( 1 ) 1 0 4 6 1 (−6) α+3
L3α+3  L13
 0 1 5 0 2   0 1 5 0 2
  
−→

−→ 0 0 0 1 α−1
0 0 0 1 α−1
α+3 α+3

La familia de sistemas escalonada es la siguiente:

x + 4z = −5α+9

α+3 

y + 5z = 2 α 6= −3
t = α−1


α+3

Despejando las incógnitas que corresponden a los lı́deres tenemos:


26 M.T. Alcalde - C. Burgueño Algebra Lineal

x = −5α+9 − 4z 

α+3 
y = 2 − 5z ; z ∈ IR, α 6= −3
α−1
t = α+3

Comprobemos las soluciones:


Caso α = −3

 
1 0 4 6 1
 1 1 9 6 3 
 
2E1 − 2E2 + E3 : 0 = −4 ⇒⇐
0 2 10 0 0

Luego no existe solución.


Caso α 6= −3

E1 : ( −5α+9
α+3
− 4z) + 4z + 6α−6
α+3
= α+3
α+3
= 1
−5α+9 6α−6 α+3
E2 : ( α+3 − 4z) + (2 − 5z) + 9z + α+3 = α+3
+ 2 = 3
α−1
E3 : 2(2 − 5z) + 10z + (α + 3) α+3 = 4 + α − 1 = (α + 3)

Luego cumple

Ejercicio

Resolvamos la siguiente familia de sistemas según los diferentes valores


de α ∈ IR


x + 2y + 3z = −1 

x + (α + 1)y + (α + 2)z = 2
x + 2y + (α + 5)z = α2 − α − 7 

Capı́tulo 1. Sistemas de Ecuaciones Lineales 27

Solución

 
1 2 3 −1
 1 α+1 α+2 2
 

1 2 α + 5 α2 − α − 7
(−1)  
L21 1 2 3 −1
−→  0 α − 1 α − 1

3 
 (1.2)
(−1) 2
L31 0 0 α + 2 α − α − 6

Caso 1 α + 2 = 0 es decir α = −2
Reemplazando en (1.2), tenemos:
   
1 2 3 −1 ( −1 ) 1 2 3 −1
 L2 3
 0 −3 −3 3   0 1 1 −1 
  

0 0 0 0 −→ 0 0 0 0
 
1 0 1 1
L12 (−2) 
 0 1 1 −1 

−→
0 0 0 0

El sistema escalonado es :
) )
x+z=1 x=1−z
→ ; z ∈ IR
y + z = −1 y = −1 − z

Caso 2 α + 2 6= 0 es decir α 6= −2. Puesto que α + 2 6= 0 podemos


seguir escalonando el sistema (1.2):
 
( 1 ) 1 2 3 −1
L3α+2  0 α−1 α−1

3  (1.3)
−→ 0 0 1 α−3

Caso 2i α − 1 = 0, es decir α = 1
En el sistema (1.3), la segunda ecuación queda
28 M.T. Alcalde - C. Burgueño Algebra Lineal

0 = 3 ⇒⇐

Luego no existe solución.


Caso 2ii α 6= 1, −2
Seguimos escalonando el sistema (1.3). Tenemos

(−3)
1 2 3 −1
 
( 1 ) L13
L2α−1  0 1 1
3
α−1  −→
 
−→ 0 0 1 α−3 (−1)
L23
−α2 +3α−8
 
1 2 0 −3α + 8 (−2)  1 0 0
 
α−1
−α2 +4α  L12 −α2 +4α

0 1 0  0 1 0
 
 α−1 
−→  α−1 
0 0 1 α−3 0 0 1 α−3

Luego tenemos una única solución, a saber

−α2 + 3α − 8 −α2 + 4α
x= ; y= ; z =α−3
α−1 α−1

Sólo haremos la comprobación del caso α = 1


Tenemos

)
E1 : x + 2y + 3z = −1
E2 : x + 2y + 3z = 2

Con estas dos ecuaciones basta ver que el sistema es inconsistente. Las
demás soluciones satisfacen el sistema. Ahora es su turno comprobar
las otras soluciones. ¡Ánimo!

Ejercicio

Estudiemos la siguiente familia de sistemas de ecuaciones según los


diferentes valores de α ∈ IR
Capı́tulo 1. Sistemas de Ecuaciones Lineales 29


x+z=1 

y + z = −1
(α2 − 4)y + (α − 2)z = α + 2 

Solución

Comencemos a escalonar el sistema. Tenemos

 
1 0 1 1
 0

1 1 −1 

2
0 α −4 α−2 α+2

 
(−α2 +4) 1 0 1 1
L32 −1
 0 1 1 =
 
−→ 0 0 −α2 + α + 2 α2 + α − 2

 
1 0 1 1
= 0 1

1 −1 
 (1.4)
0 0 −(α − 2)(α + 1) (α + 2)(α − 1)

Caso 1 α − 2 = 0, es decir α = 2
La tercera ecuación queda 0 = 4 ⇒⇐ Luego no existe solución.
Caso 2 α + 1 = 0, es decir α = −1
La tercera ecuación queda 0 = −2 ⇒⇐ Luego no existe solución.
Caso 3 α 6= −1, 2
Escalonamos a partir de (1.4)

 
−1 1 0 1 1
L3 ( (α−2)(α+1) )  0 1 1 −1
 

−→ 
(α+2)(α−1)

0 0 1 −(α−2)(α+1)
30 M.T. Alcalde - C. Burgueño Algebra Lineal

2(α2 −2)
 
(−1)
L13  1 0 0 (α−2)(α+1)

 0 1 0

−→  (α−2)(α+1)


(−1) −(α+2)(α−1)
L23 0 0 1 (α−2)(α+1)

Luego se tiene la solución única:

2(α2 − 2) 2α −(α + 2)(α − 1)


x= ; y= ; z=
(α − 2)(α + 1) (α − 2)(α + 1) (α − 2)(α + 1)

Ejercicios Propuestos

1. Considere el sistema de 2 ecuaciones lineales y 5 incógnitas y


encuentre todas sus soluciones.
)
x1 + 2x2 + x3 + x4 + x5 = 6
2x1 + 4x2 − x3 + x5 = 3

2. Resuelva el sistema siguiente



x + y + 2z = 3 

2x + y − z = 8
4x + 3y + 3z = 14

3. Resuelva la familia de sistemas, según el valor de α ∈ IR



αx + y + z = 1 

x + αy + z = 1
x + y + αz = 1 

4. Según los diferentes valores de k ∈ IR encuentre todas las solu-


ciones de la siguiente familia de sistemas de ecuaciones lineales

x+y−z=1 

2x + 3y + kz = 3
x + ky + 3z = 2


Capı́tulo 2

Espacios Vectoriales

2.1 Definición y propiedades básicas de


espacio vectorial

Nos parece que este es uno de los capı́tulos más emocionante del curso.
Este concepto de ”espacio vectorial”, realmente hace crear un nuevo
espacio en nuestras mentes. Es algo muy diferente a lo estudiado en el
curso anterior de Algebra.
Todos los conceptos de este capı́tulo, los veremos geométricamente
para poder entenderlos mejor.
Después de haber visualizado estos conceptos uno puede hacer her-
mosas abstracciones y llegar a tener pensamientos tales como ”una
función es un vector”.
Veremos muchı́simos ejemplos y ejercicios. Vas a poder experimentar,
tú mismo, qué es un espacio vectorial y qué es lo que ocurre en él que
lo hace algo tan especial.
Además esperamos que te vayas imaginando los conceptos y propiedades,
de manera que vayas haciéndote preguntas de materias que veremos
unas hojas más adelante.
Es tratar de vivir uno mismo la historia de la creación de esta rama

31
32 M.T. Alcalde - C. Burgueño Algebra Lineal

de las matemáticas que es el Algebra Lineal.


Te invitamos a sumergirte en los ”Espacios Vectoriales”. Bienvenido!.

Observación

Consideremos IR2 , el plano cartesiano y en él consideremos los vectores


que parten en el origen y solamente ellos.

Algebraicamente, IR2 se describe como IR2 = {(x, y); x, y ∈ IR}. En


IR2 , podemos definir la suma de dos elementos, de la manera siguiente:
Sean u, v ∈ IR2 , luego u = (x, y), v = (x′ , y ′ ), ciertos x, x′ , y, y ′ ∈ IR.
Entonces u + v = (x, y) + (x′ , y ′ ) = (x + x′ , y + y ′ ).
Este último es un elemento tı́pico de IR2 , es decir, IR2 es cerrada para
la suma.
Esta suma, geométricamente corresponde a ”la ley del paralelógramo”.
Veámoslo geométricamente
Capı́tulo 2. Espacios Vectoriales 33

Tenemos que IR2 con esta suma cumple las siguientes propiedades

1. La suma es asociativa

2. Existe neutro: ~0 = (0, 0)

3. Todo elemento tiene inverso, a saber

−(x, y) = (−x, −y) ∀(x, y) ∈ IR2

4. La suma es conmutativa

Es decir, (IR2 , +) es un grupo abeliano.


Bueno, la novedad es que a estos vectores les podemos cambiar su
−−−→
magnitud, es decir, multiplicarlos por un número, por ejemplo: 2·(1, 5),
−−−→ −−−−→
dos veces el vector (1, 5), obtenemos el vector (2, 10) que sigue estando
en IR2 .
Es decir, uno puede definir la operación externa, llamada ponderación,
siguiente:

Ex : IR × IR2 → IR2
(α, (x, y)) 7→ (αx, αy) ∀(x, y) ∈ IR2 , ∀α ∈ IR

Esta operación cumple las siguientes propiedades:

5. 1 · (x, y) = (x, y)
34 M.T. Alcalde - C. Burgueño Algebra Lineal

6. (α + β)(x, y) = α(x, y) + β(x, y)


7. α((x, y) + (x′ , y ′ )) = α(x, y) + α(x′ , y ′ )
8. (α · β)(x, y) = α · (β(x, y))

Esto para todo (x, y) ∈ IR2 y todo α, β ∈ IR


Bueno, creo que esto te parece fácil ¿cierto?
¡Esperamos no equivocarme en nuestra apreciación!
Ocurre que por cumplir IR2 estas 8 propiedades, diremos que IR2 es
un ”IR-espacio vectorial o un ”espacio vectorial sobre IR”.
Resumiendo, veremos IR2 como un conjunto cuyos elementos son vec-
tores que parten en el origen y tales que se pueden sumar y ponderar.
Esta estructura la vamos a genelizar
¿Te animas a dar un salto de abstracción?

Observación

Un ejemplo fı́sico de espacio vectorial, es el modelo que representa las


fuerzas ejercidas sobre un punto material.

Definición 2.1.1 Sea V un conjunto. Sea K un cuerpo (K = Q; IR;


C; ZZ 2 ; ZZ 3 ; Zp , p primo, etc.). Sobre V definamos dos operaciones:

1. Una operación llamada suma, denotada por +:


+ : V × V → V ; (v, w) ; v + w
Capı́tulo 2. Espacios Vectoriales 35

Esta operación es una ley de composición interna.

2. Una operación entre los elementos de V y los elementos de K,


denotada por Ex que cumple

Ex : K × V → V ; (α, v) ; α · v

Es una operación externa, pues opera con elementos que están


fuera de V . Esta operación es conocida con el nombre de pro-
ducto por escalar o ponderación.

Los elementos de V son llamados vectores y los elementos de K


son llamados escalares. Sobre este conjunto V haremos, además, 8
exigencias, llamadas los axiomas de espacios vectoriales. Son los si-
guientes:

E.V.1. (~u+~v )+w ~ ∀~u, ~v , w


~ = ~u+(~v +w), ~ ∈ V (Asociatividad)
E.V.2. Existe neutro aditivo, denotado por ~0.
E.V.3. Para todo ~v ∈ V , existe w ~ = ~0.
~ ∈ V tal que ~v +w
~ = −~v .
Notación w
E.V.4. ~v +w ~ v , ∀~v , w
~ = w+~ ~ ∈ V . (Conmutatividad)
E.V.5. 1 · ~v = ~v
E.V.6. (α + β)~v = α~v +β~v ∀α, β ∈ K, ∀~v ∈ V
E.V.7. α(~v +w) ~ ∀α ∈ K, ∀~v , w
~ = α~v +αw, ~ ∈V
E.V.8. (αβ) · ~v = α · (β · ~v ) , ∀α, β ∈ K, ∀~v ∈ V

En tal caso diremos que V es un K - espacio vectorial o un espacio


vectorial sobre K.

Nota

Fundándose en estos axiomas, se desarrolla la teorı́a llamada Algebra


Lineal.
36 M.T. Alcalde - C. Burgueño Algebra Lineal

Nota

De ahora en adelante, K, denotará Q, IR o C.

Ejemplo

Estudiemos V sobre K. Donde V = {(−2x, x); x ∈ K} ⊂ K 2


~ ∈ V , luego los vectores ~v y w
Sea ~v , w ~ tienen la forma ~v = (−2x, x) y
w
~ = (−2y, y). V es cerrado para la suma pues,

~v + w
~ = (−2x, x)+(−2y, y) = (−2x+(−2y), x+y) = (−2(x+y), x+y)

el cual es un elemento tı́pico de V . También es cerrado para la pon-


deración, pues,

α · ~v = α · (−2x, x) = (α(−2x), αx) = (−2(αx), αx)

el cual es un elemento tı́pico de V . Además V cumple los 8 axiomas


de espacios vectoriales. En efecto, cumple:
(En lo sucesivo escribiremos simplemente v en lugar de ~v ).

E.V.1. Sean u, v, w ∈ V , luego u = (−2x, x), v = (−2y, y), w =


(−2z, z), ciertos x, y, z ∈ K.

(u + v) + w = ((−2x, x) + (−2y, y)) + (−2z, z)


= (−2x + −2y, x + y) + (−2z, z)
= ((−2x + −2y) + −2z, (x + y) + z)
= (−2x + (−2y + −2z), x + (y + z))
= (−2x, x) + (−2y + −2z, y + z)
= (−2x, x) + ((−2y, y) + (−2z, z))
= u + (v + w)

E.V.2. ~0 = (0, 0) = ((−2)0, 0), el cual es un elemento tı́pico de V .


E.V.3. Sea v = (−2x, x) ∈ V , entonces −v = (−2(−x), (−x)), el
cual es un elemento de V .
Capı́tulo 2. Espacios Vectoriales 37

E.V.4. v + w = (−2x, x) + (−2y, y) = (−2x + −2y, x + y)


= (−2y + −2x, y + x) = (−2y, y) + (−2x, x)
=w+v
E.V.5. 1 · v = 1 · (−2x, x) = (1(−2x), 1x) = (−2x, x) = v.
E.V.6. (α + β)v = (α + β) · (−2x, x)
= ((α + β)(−2x), (α + β)x)
= (α(−2x) + β(−2x), (αx + βx)
= (α(−2x), αx) + (β(−2x), βx)
= α(−2x, x) + β(−2x, x) = αv + βv
E.V.7. α · (v + w) = α · ((−2x, x) + (−2y, y))
= α · (−2x + −2y, x + y)
= (α(−2x + −2y), α(x + y))
= (α(−2x) + α(−2y), αx + αy)
= (α(−2x), αx) + (α(−2y), αy)
= α · (−2x, x) + α · (−2y, y)
=α·v+α·w
E.V.8. (αβ) · v = (αβ)(−2x, x) = ((αβ)(−2x), (αβ)x)
= (α(β(−2x)), α(βx)) = α(β(−2x), α(βx))
= α(β(−2x, x)) = α(βv)

Luego hemos demostrado que V es un K espacio vectorial.

Ejemplo

V = {(3x, x); x ∈ K}, es un K-espacio vectorial.

Ejemplo

Sea V = K n = {(x1 , x2 , . . . , xn ); x1 , x2 , . . . , xn ∈ K}. Entonces K n es


un K-espacio vectorial, donde la suma está definida por:
(x1 , . . . , xn ) + (x′1 , x′2 , . . . , x′n ) = (x1 + x′1 , x2 + x′2 , . . . , xn + x′n )
y el producto por escalar está definido por:
α(x1 , x2 , . . . , xn ) = (αx1 , αx2 , . . . , αxn )
38 M.T. Alcalde - C. Burgueño Algebra Lineal

Ejemplo
√ √
Q( 2) = {a + b 2; a, b ∈ Q} es un Q-espacio vectorial, donde la suma
está definida por:
√ √ √
(a + b 2) + (a′ + b′ 2) = (a + a′ ) + (b + b′ ) 2
y el producto por escalar por:
√ √
α(a + b 2) = αa + (αb) 2

de donde Q(√2) es cerrado para la suma y producto por escalar. Se
tiene que Q( 2) con la suma y la ponderación ası́ definidas, cumple
los ocho axiomas.

Ejemplo

Sea V = K[X] = {a0 + a1 X + a2 X + · · · + an X n ; a0 , . . . , an ∈ K} el


conjunto de los polinomios con coeficientes en K.
Entonces K[X] es un espacio vectorial sobre K con la suma y la pon-
deración definidas en el curso anterior.

Ejemplo

Sea V = K2 [X] = {a0 + a1 X + a2 X 2 ; a0 , a1 , a2 ∈ K} el conjunto de


los polinomios truncos de grado 2. Entonces K2 [X] es un espacio
vectorial sobre K.

Ejemplo

V = Km [X] = {a0 + a1 X + · · · + am X m ; a0 , . . . , am ∈ K} polinomios


truncos de grado m.
Nótese que los polinomios tienen grado menor o igual a m, razón por
la cual m interviene en el nombre del conjunto: Km [X].
Sin embargo, en K[X] los polinomios pueden tener cualquier grado,
pues la letra n no tiene relación con la notación K[X].
Capı́tulo 2. Espacios Vectoriales 39

Bueno, Km [X] es un K-espacio vectorial.

Ejemplo

a b
 
M2×2 (K) = { ; a, b, c, d ∈ K}, es el espacio vectorial formado
c d
por todas las matrices de 2 × 2 con coeficientes en K.
La igualdad de matrices está dada por:
a b a′ b′
   
= si y sólo si a = a′ , b = b′ , c = c′ , d = d′ .
c d c′ d′
Además la suma está definida por:

a b a′ b′ a + a′ b + b′
     
+ =
c d c′ d′ c + c′ d + d′

y la multiplicación por escalar está definida por:

a b αa αb
   
α =
c d αc αd

Ejemplo

V = {f ; f : IR → IR} es el espacio vectorial formado por todas las


funciones reales sobre los reales.
La suma de dos funciones f y g es una función, denotada por f + g,
y en cada número real se comporta de la siguiente manera:

(f + g)(x) = f (x) + g(x)

La ponderación de una función f por un escalar α, es una función, es


denotada por α · f , y en cada número real se comporta de la manera
siguiente:

(αf )(x) = α · f (x)


40 M.T. Alcalde - C. Burgueño Algebra Lineal

Estas dos operaciones cumplen los 8 axiomas.


Sólo mostraremos E.V.2 y E.V.3, el resto queda de ejercicio.

El neutro es la función 0 : IR → IR; 0(x) = 0 ∀x ∈ IR

El inverso aditivo de la función f es −f , dada por (−f )(x) =


−f (x)

Definición 2.1.2 Un espacio vectorial finito es un espacio vecto-


rial que tiene una cantidad finita de vectores.

Ejemplo de un espacio vectorial finito

√ √
ZZ 3 ( 2) = {a + b 2); a, b ∈ ZZ 3 }
es un espacio vectorial sobre ZZ 3 , con la suma definida por
√ √ √
(a + b 2) + (c + d 2) = (a + c) + (b + d) 2

y la ponderación definida por


√ √
α · (a + b 2) = (αa) + (αb) 2, ∀α ∈ ZZ 3

Ejemplo de un espacio vectorial finito

√ √ √ √ √
ZZ 3 ( 2, 5) = {a + b 2 + c 5 + d 10; a, b, c, d ∈ K3 }
√ √
es un espacio vectorial sobre ZZ 3 , sobre ZZ 3 ( 2) y sobre ZZ 3 ( 5)

Ejemplo

ZZ 5 [X] = {a0 + a1 X + a2 X 2 + . . . + an X n ; a0 , a1 , a2 , . . . , an ∈ ZZ 5 } es
un ZZ 5 -espacio vectorial, con la suma definida en ZZ 5 [X]:
Cuya multiplicación por escalar está definida por:
Capı́tulo 2. Espacios Vectoriales 41

α(a0 + a1 X + . . . + an X n ) = (αa0 ) + (αa1 )X + . . . + (αan )X n

Observe que este espacio vectorial tiene un número infinito de elemen-


tos.

Proposición 2.1.1 Sea V un K-espacio vectorial. Entonces

1. El neutro es único.

2. Todo vector tiene un único inverso aditivo.

Demostración de 1

Sean 0 y 0′ dos neutros, entonces 0 = 0 + 0′ = 0′ . En la primera


igualdad usamos que el 0′ es neutro y en la segunda igualdad usamos
que 0 es neutro.

Demostración de 2

Sean v ′ y v ′′ dos opuestos aditivos de v. Entonces tenemos que

v ′ = v ′ + 0 = v ′ + (v + v ′′ ) = (v ′ + v) + v ′′ = 0 + v ′′ = v ′′

luego v ′ = v ′′ , es decir, el inverso es único.

Proposición 2.1.2 Sea V un K-espacio vectorial. Entonces:

1. 0v = ~0, ∀v ∈ V .

2. α~0 = ~0, ∀α ∈ K

3. α~v = ~0, α ∈ K, v ∈ V =⇒ α = 0 o v = ~0

4. α(−v) = −(αv) = (−α)v, ∀α ∈ K, ∀v ∈ V

5. (−1)v = −v, ∀v ∈ V
42 M.T. Alcalde - C. Burgueño Algebra Lineal

Demostración 1

0 · v = (0 + 0)v = 0 · v + 0 · v luego 0 · v = ~0

Demostración 2

α · ~0 = α(~0 + ~0) = α · ~0 + α · ~0 luego α · ~0 = ~0

Demostración 3

Si α = 0 está demostrada la proposición.


Supongamos α 6= 0, luego existe α−1 ∈ K. Multiplicando αv = ~0 por
α−1 , se tiene α−1 · (αv) = α−1 · ~0, luego (α−1 · α) · v = ~0 luego 1 · v = ~0
luego v = ~0.

Demostración 4

Por (2) se tiene α~0 = ~0, luego, α(v + −v) = ~0, luego αv + α(−v) = ~0,
luego −(αv) = α(−v), es decir, el opuesto de αv es α(−v).
Además 0v = ~0 y ~0 = 0v = (α + −α)v = αv + (−α)v, luego 0 =
αv + (−α)v. Esto dice que el inverso aditivo de αv es (−α)v y se
escribe −(αv) = (−α)v

Demostración 5

(−1)v + v = (−1)v + 1v = (−1 + 1)v = 0v = ~0


luego el inverso aditivo de v es (−1)v, se escribe −v = (−1)v.

2.2 Sub-espacios vectoriales


Ahora sabemos bien qué es un espacio vectorial ¿No te parece?. Bueno,
es natural preguntarse si puede haber un espacio vectorial dentro de
Capı́tulo 2. Espacios Vectoriales 43

otro espacio vectorial.


En el curso anterior, estudiamos los grupos y luego definimos los sub-
grupos.
Entonces, inspirados en el concepto de sub-grupo, definamos un ”sub-
espacio vectorial”.

Definición 2.2.1 Sea S ⊂ V , S 6= ∅, entonces S es un sub-espacio


vectorial de V si S es un K-espacio vectorial, con las mismas opera-
ciones de V . Notación S ≤ V .

Ejemplo

Sabemos que IR2 es un espacio vectorial y conocemos la interpretación


geométrica de sus vectores. En IR2 , consideremos el subconjunto

S = {(2x, x); x ∈ IR}

S es una recta que pasa por el origen.


Observemos que S es cerrado para la suma y la ponderación y S es
un espacio vectorial. Luego S es un sub-espacio vectorial de IR2 .

Observación

En K 2 , consideremos
A = {(2x + 1, x); x ∈ K}
44 M.T. Alcalde - C. Burgueño Algebra Lineal

Sea v = (2x + 1, x) un elemento de A. Ponderemos este vector por el


escalar 5, tenemos
5 · v = 5(2x + 1, x) = (10x + 5, 5x)
el cual no es un elemento de A.

Luego esta operación no es una ponderación, es decir, la operación Ex ,


no cumple
Ex : K × A → A
Luego A no es un sub-espacio vectorial de K 2 .

Problema

Si uno se pone a meditar sobre el ejercicio penúltimo, comprende que


no era necesario demostrar E.V.1, E.V.4, E.V.5, E.V.6, E.V.7, E.V.8.
Entonces a uno le gustarı́a saber qué es lo justo y necesario que hay
que probar para tener que S es sub-espacio vectorial de V .
La respuesta a esta inquietud la tenemos en la siguiente proposición.

Proposición 2.2.1 (Caracterización de sub-espacio vectorial)


Sea V un K-espacio vectorial. S ⊂ V , S 6= ∅. Entonces son equiva-
lentes
Capı́tulo 2. Espacios Vectoriales 45

1. S es sub-espacio de V .

2. (a) v + w ∈ S, ∀v, w ∈ S

(b) αv ∈ S, ∀α ∈ K, ∀v ∈ S

3. αv + w ∈ S ∀v, w ∈ S, ∀α ∈ K

Demostración

(1)⇒(2)
Puesto que S es un sub-espacio vectorial de V , en particular es un
espacio vectorial, luego cumple (2).
(2)⇒(1)
Para demostrar (1), tenemos que demostrar que se cumplen los 8 a-
xiomas y que las operaciones están bien definidas.
Que S es cerrado para la suma, lo sabemos por (a). Que la ponderación
está bien definida, lo sabemos por (b).
Sabemos que en V , la suma es asociativa y conmutativa y S ⊂ V ,
luego la suma es asociativa y conmutativa en S.
En la hipótesis general, tenemos que S 6= ∅, luego existe un vector en
S, llamémosle v. Multipliquemos v por el escalar 0 (este existe, pues
K es un cuerpo) tenemos 0 · v = ~0. Luego ~0 está en S. Ası́ tenemos
E.V.2.
Sea v ∈ S, un vector cualquiera. Este vector lo podemos multiplicar
por (−1), tenemos (−1)v = −v, luego −v ∈ S. Ası́ tenemos E.V.3.
En ambos casos, usamos (b).
los restantes axiomas se obtienen trivialmente por el hecho que S es
un subconjunto de V .
Luego (2)⇒(1)
46 M.T. Alcalde - C. Burgueño Algebra Lineal

Nota

Una ”Caracterización” significa que podemos usar la proposición, en


vez de la definición. Estas propiedades ”caracterizan” un sub-espacio
vectorial.

Ejemplo

S = {(a, 0)/a ∈ K} ≤ K 2
En efecto, S 6= ∅, pues, por ejemplo (2, 0) ∈ S. Sean s, s′ ∈ S, luego
s = (a, 0) y s′ = (a′ , 0), ciertos a, a′ ∈ K. Tenemos s + s′ = (a, 0) +
(a′ + 0) = (a + a′ , 0) el cual es un elemento de S.
Sea α ∈ K, luego α · s = α · (a, 0) = (αa, α · 0) = (αa, 0) el cual es
también un elemento de S. Luego S es un sub-espacio vectorial de K 2 .

Ejemplos

S = {(0, 0)} ≤ K 2 ; U = {(0, 0, 0)} ≤ K 3 ; S = {~0} ≤ K; {~0} ≤ V ,


para todo V , espacio vectorial.

Ejemplo

S = {(a, b); a + b = 0} ≤ K 2
En efecto, S 6= ∅, pues, por ejemplo (2, −2) ∈ S. Sean s, s′ ∈ S,
entonces s = (a, −a), s′ = (b, −b), ciertos a, b ∈ K. Tenemos s + s′ =
(a, −a) + (b, −b) = (a + b, −a − b) el cual es un elemento de S, pues
la suma de las componentes del par ordenado es nula.
Sea α ∈ K, tenemos α(a, −a) = (αa, α(−a)) = (αa, −αa), el cual es
un elemento de S. Luego S ≤ K 2 .

Ejercicio

Demostremos que S = {(x, y); 2x − 3y = 0} ≤ IR2 .


Capı́tulo 2. Espacios Vectoriales 47

Solución

1. Demostremos que en S hay al menos un elemento:


(3, 2) ∈ S pues 2 · 3 − 3 · 2 = 0. Luego S 6= ∅

2. Demostremos que u, v ∈ S ⇒ u + v ∈ S
Sean u, v ∈ S. Esto significa que u y v tienen la forma u = (x, y),
v = (x1 , y1 ) donde 2x − 3y = 0 y 2x1 − 3y1 = 0. La suma de u y
v es:
u + v = (x, y) + (x1 , y1 ) = (x + x1 , y + y1 )
y se cumple:
2(x + x1 ) − 3(y + y1 ) = 2x + 2x1 − 3y − 3y1 =
= (2x − 3y) + (2x1 − 3y1 ) = 0
Luego u + v ∈ S.

3. Demostremos que u ∈ S ⇒ αu ∈ S, ∀α ∈ IR.


Sea u ∈ S, luego u = (x, y) con 2x − 3y = 0, de donde:
αu = α(x, y) = (αx, αy)
Se tiene:
2(αx) − 3(αy) = α(2x − 3y) = α · 0 = 0

Ası́ hemos demostrado que S es un sub-espacio vectorial de IR2 .


Además observamos que S representa la recta que pasa por el origen
con pendiente 2/3.
48 M.T. Alcalde - C. Burgueño Algebra Lineal

Ejercicio

a b
  
Demostremos que S = ; a, b, c ∈ K ≤ M2×2 (K).
0 c

Solución
3 5
 
1. ∈ S, luego S 6= ∅.
0 2
2. u, v ∈ S. Esto significa que u y v tienen la forma:
a b a1 b 1
   
u= yv= .
0 c 0 c1
Sumando tenemos:
a b a1 b 1 a + a1 b + b 1
     
u+v = + = ∈ S.
0 c 0 c1 0 c + c1

a b αa αb
   
3. α · u = α · = ∈ S.
0 c 0 αc

Luego S es un sub-espacio vectorial de M2×2 (K).

Ejercicio

Demostremos que K2 [X] = {a0 + a1 X + a2 X 2 / a0 , a1 , a2 ∈ K} es un


sub-espacio vectorial de K[X].

Solución

1. 3 + 2X + X 2 ∈ K2 [X], luego K2 [X] 6= ∅.

2. Sean p(X), q(X) ∈ K2 [X]. Luego p(X) y q(X) tienen la forma:


p(X) = a0 + a1 X + a2 X 2 y q(X) = b0 + b1 X + b2 X 2 .
p(X) + q(X) = (a0 + a1 X + a2 X 2 ) + (b0 + b1 X + b2 X 2 )
= (a0 + b0 ) + (a1 + b1 )X + (a2 + b2 )X 2 ∈ K2 [X]
Capı́tulo 2. Espacios Vectoriales 49

3. Sea p(X) ∈ K[X], luego p(X) = a0 +a1 X +a2 X 2 , luego tenemos:


α · p(X) = α · (a0 + a1 X + a2 X 2 ) = αa0 + (αa1 )X + (αa2 )X 2 ∈
K2 [X].

De (1), (2) y (3), tenemos que K2 [X] es un sub-espacio vectorial de


K[X].
Otra forma de escribir K2 [X] es:

K2 [X] = {p(X) ∈ K[X]/ gr p(X) ≤ 2}

Ejercicio

¿Es el conjunto S = {p(X) ∈ K[X]/grp(X) = 2} un sub-espacio


vectorial de K[X]?

Solución

1. p(X) = 1 + X + X 2 ∈ S, luego S 6= ∅.

2. Sean p(X), q(X) ∈ S, dados por


p(X) = 2 + 3X + 5X 2 y q(X) = 4 + 7X − 5X 2 ∈ S. Sin embargo
p(X)+q(X) = (2+3X +5X 2 )+(4+7X −5X 2 ) = 6+10X, el cual
no pertenece a S pues su grado no es 2. Esto es un contraejemplo.

Concluı́mos entonces que S no es un sub-espacio de K[X].

Ejercicio

Sea C = {f : IR → IR; f es continua}. Probemos que C es un sub-


espacio vectorial de F = {f : IR → IR}.

Solución

Del curso de Cálculo recordamos que:


50 M.T. Alcalde - C. Burgueño Algebra Lineal

1. La función id : IR → IR; id(x) = x, ∀x ∈ IR es una función


continua, luego C 6= ∅.

2. La suma de dos funciones continuas es continua.

3. La ponderación de una función continua es continua.

Luego C es un sub-espacio vectorial de F .

Ejercicio

Sea V = {f : IR → IR}. Sea S = {f ∈ V ; f (x − 1) = f (x)}. De-


mostremos que S es un sub-espacio vectorial de V

Solución

1. La aplicación nula pertenece a S, pues 0(x − 1) = 0(x). Luego


S 6= ∅

2. Sean f, g ∈ S, luego
(f + g)(x − 1) = f (x − 1) + g(x − 1) = f (x) + g(x) = (f + g)(x).
Luego (f + g) ∈ S

3. Sean f, g ∈ S, luego (αf )(x − 1) = α(f (x − 1)) = α(f (x)) =


(αf )(x)

Por (1), (2), (3), tenemos que S es sub-espacio vectorial de V

Ejercicio

En K 4 , considere el sub-espacio
S = {(x + y + 2z, x + 2y + 2z, 2x + 3y + 5z, x + 2y + 5z); x, y, z ∈ K}.
Busquemos una representación cartesiana de S.
Capı́tulo 2. Espacios Vectoriales 51

Solución

Sea
x + y + 2z = a



x + 2y + 2z = b


2x + 3y + 5z = c 


x + 2y + 5z = d

Luego escalonando el sistema se tiene:


1 1 2 a 1 0 2 2a − b
   
 1 2 2 b   0 1 0 b−a 
 
−→ ··· −→  
2 3 5 c 0 0 1 c−b−a
   
   
1 2 5 d 0 0 0 3a + 2b − 3c + d
El sistema representa el sub-espacio dado ssi 3a + 2b − 3c + d = 0
Luego S = {(a, b, c, d); 3a + 2b − c + d = 0} es la representación
cartesiana de S

Ejercicio

En K 4 , considere el sub-espacio
S = {(a, b, c, d); 2a − b − c + d = 0, a + b + d = 0}
descrito en forma cartesiana.
Busquemos una representación paramétrica de S.
! !
2 −1 −1 1 0 1 0 − 13 2
0
−→ ··· −→ 3
1 1 0 1 0 0 1 13 1
3
0
) )
a − 13 c + 23 d = 0 a = 31 c − 32 d
Luego Es decir c, d ∈ K
b + 13 c + 13 d = 0 b = − 13 c − 13 d
S = {( 13 c − 23 d, − 31 c − 13 d, c, d); c, d ∈ K}

Ejercicio

Sea V un K-espacio vectorial y S, T ≤ V . Demostremos que S ∩ T es


un sub-espacio vectorial de V .
52 M.T. Alcalde - C. Burgueño Algebra Lineal

Solución

1. 0 ∈ S, 0 ∈ T luego 0 ∈ S ∩ T , es decir S ∩ T 6= ∅
2. Sean u, v ∈ S ∩ T , esto significa que u, v ∈ S y al mismo tiempo
u, v ∈ T .
Pero si u, v ∈ S se tiene que u + v ∈ S, pues S es un sub-espacio
vectorial de V y u + v ∈ T , pues T es un sub-espacio vectorial
de V . Luego u + v ∈ S ∩ T .
3. Sea u ∈ S ∩ T , luego u ∈ S y u ∈ T . Puesto que S y T son sub-
espacios vectoriales, tenemos que α · u ∈ S y α · u ∈ T ∀α ∈ K,
es decir, α · u ∈ S ∩ T , ∀α ∈ K

Por (1), (2), (3) tenemos que S ∩ T es un sub-espacio vectorial de V .

Ejercicio

Sea V un K-espacio vectorial. Sea v1 , v2 , . . . , vn ∈ V . Demuestre que


S = {α1 v1 + α2 v2 + . . . + αn vn ; α1 , α2 , . . . αn ∈ K} es un sub-espacio
de V .

Demostración

El ~0 ∈ S, pues ~0 = 0v1 + 0v2 + · · · + 0vn Observemos que al sumar dos


elementos de S obtenemos un elemento de S y que al multiplicar un
elemento de S por un escalar también obtenemos un elemento de S

2.3 Combinaciones Lineales


Sabes, el problema que tenemos ahora es saber si dado un vector, lo
podemos obtener a partir de otros dos vectores dados. Bueno, es decir
sumando y ponderando esos vectores.
Nos parece bastante lógico hacerse esta pregunta pues en todo espacio
vectorial se puede sumar y ponderar ¿Es lógico, cierto?
Capı́tulo 2. Espacios Vectoriales 53

Observación

Sea V = IR2 , espacio vectorial sobre IR, sea u = (2, 1) ∈ IR2 . A partir
de u podemos obtener otros vectores, como por ejemplo, u1 = 3(2, 1),
es decir, u1 = (6, 3), o bien u2 = (10, 5), o u3 = (−8, −4), etc.
Entonces diremos que u1 es ”combinación lineal” de u. Lo mismo para
u2 y u 3 .

Observación

Sea V = IR2 , u = (2, 1), v = (1, 2). A partir de u y v podemos obtener


otros vectores. Recordemos que solamente está permitido sumar y
cambiar la magnitud de los vectores. Por ejemplo, el vector w1 = (3, 3)
se puede obtener de u y v:

w1 = u + v; (3, 3) = (2, 1) + (1, 2)

También, el vector w2 = (5, 4), pues:

w2 = 2u + v; (5, 4) = 2(2, 1) + (1, 2)

Diremos que w1 es ”combinación lineal” de u y v. Lo mismo para w2 .

Observación

Sea u = (2, 1), v = (4, 2). Veamos si hay algún par de escalares α y β
que satisfagan la igualdad:

(3, 3) = α(2, 1) + β(4, 2)

Luego
(3, 3) = (2α + 4β, α + 2β)
es decir, que cumplan simultáneamente
)
3 = 2α + 4β
3 = α + 2β
54 M.T. Alcalde - C. Burgueño Algebra Lineal

pero, dos cantidades iguales a una tercera son iguales entre si, luego
comparando las ecuaciones tenemos 3 = 32 , lo cual es una con-
tradicción. El error estuvo en suponer que w lo podı́amos obtener
a partir de u y v.
En este caso diremos que w ”no es combinación lineal” de u y v.

Definición 2.3.1 Un vector v ∈ V se dice que es combinación lin-


eal de los vectores v1 , v2 , . . . , vn , si existen escalares α1 , α2 , . . . , αn ∈
K tales que:
v = α1 v1 + α2 v2 + . . . + αn vn

Definición 2.3.2 Sea S un subconjunto de V , v ∈ V , se dice que v


es combinación lineal de los vectores de S si:

v = α1 v1 + α2 v2 + . . . + αn vn , ciertos αi ∈ K, ciertos vi ∈ S

Ejemplo

Sea V = K 3 , es decir los vectores son 3-uplas. Sea v1 = (1, 2, 3),


v2 = (2, 5, −1), entonces v = (−9, −22, 1) es combinación lineal de v1
y v2 . En efecto:

(−9, −22, 1) = −1(1, 2, 3) + −4(2, 5, −1)

Ejercicio

En K2 [X], consideremos los vectores u = 1 + 2X + X 2 y v = X − X 2

1. Demostremos que el vector w1 = 2 + 3X + 3X 2 es combinación


lineal de u y v.

2. Veamos si el vector w2 = 3 + X es combinación lineal de u y v.

3. Queremos saber para qué valor de k, el vector w3 = 1 + kX − X 2


es combinación lineal de u y v.
Capı́tulo 2. Espacios Vectoriales 55

Solución

1. Sea w1 = α(1 + 2X + X 2 ) + β(X − X 2 ). Luego

2 + 3X + 3X 2 = α + (2α + β)X + (α − β)X 2

Por definición de igualdad de polinomios tenemos



α−β = 3  
2α + β = 3
α = 2 

Escalonemos este sistema. Tenemos:


  (−2)   (1)
1 −1 3 L21 1 −1 3 L13
 2 1 3  −→  0 3 −3  −→
   
(−1) (−3)
1 0 2 L31 0 1 −1 L23
 
1 0 2 α=2
 0 0 0  Luego
 

0 1 −1 β = −1

Luego w1 = 2u + (−1)v. Efectivamente w1 es combinación lineal


de u y v.

2. Supongamos que w2 = 3 + X es combinación lineal de u y v, es


decir, supongamos que existe α y β reales tal que:

3 + X = α(1 + 2X + X 2 ) + β(X − X 2 )
= α + (2α + β)X + (α − β)X 2

Por la definición de igualdad de polinomios tenemos:



α−β = 0  
2α + β = 1
α = 3 

Escalonando este sistema tenemos:


56 M.T. Alcalde - C. Burgueño Algebra Lineal

  (−2)   (1)  
1 −1 0 L21 1 −1 0 L13 1 0 3
 2 1 1  −→  0 3 1  −→  0 0 −8 
     
(−1) (−3)
1 0 3 L31 0 1 3 L23 0 1 3

En la segunda ecuación nos queda 0 = −8, lo que es una con-


tradicción. Bueno, el error estuvo en suponer que existı́a un tal
α y β, es decir en suponer que w2 era combinación lineal de u y
v.
Luego w2 no es combinación lineal de u y v.

3. Sea w3 = αu + βv. Luego:

1 + kX − X 2 = α1 + (2α + β)X + (α − β)X 2

Luego se tiene que se deben cumplir las ecuaciones siguientes:



α − β = −1 

2α + β = k
α = 1 

Escribamos este sistema en forma matricial y luego escalonémos-


lo.
Tenemos
  (−1)  
1 0 1 L21 1 0 1
 1 −1 −1  −→  0 −1 −2 
  

(−2)
2 1 k L31 0 1 k−2
 
(1) 1 0 1
L31
 0 −1 −2 

−→

0 0 k−4

Vemos que este sistema tiene solución si y sólo si k − 4 = 0, es


decir k = 4.
Luego w3 es combinación lineal de u y v si y sólo si k = 4.
Capı́tulo 2. Espacios Vectoriales 57

Ejercicio

Sea V = M2×3 (K) sobre K. Es decir, los vectores son matrices de 2


filas y 3 columnas.
Sean
1 2 5 1 0 0 0 1 1
     
v1 = ; v2 = ; v3 =
0 1 1 0 1 6 0 0 2

0 −1 −4
 
Demostremos que v = es combinación lineal de v1 , v2
0 0 7
y v3 .
Es decir, tenemos que encontrar α1 , α2 , α3 ∈ K tales que v = α1 v1 +
α2 v2 + α3 v3 .

Solución

0 −1 −4 1 2 5 1 0 0 0 1 1
       
= α1 + α2 + α3
0 0 7 0 1 1 0 1 6 0 0 2

Usando la definición de igualdad de matrices, tenemos el sistema:



α1 + α2 = 0 
2α1 + α3 = −1 




5α1 + α3 = −4 

0 = 0 

α1 + α2 = 0 




α1 + 6α2 + 2α3 = 7

El cual reducido a su forma más simple, mediante el escalonamiento


del sistema, tenemos

α1 = −1, α2 = 1, α3 = 1

Luego v = −1v1 + 1v2 + 1v3 , es decir, v es combinación lineal de v1 ,


v2 , v3 .
58 M.T. Alcalde - C. Burgueño Algebra Lineal

Como ejercicio al lector, te proponemos lo siguiente:


1 4 10
 
Comprueba que el vector w = es combinación lineal de
0 1 −4
los vectores v1 , v2 , v3 .
Además, estudie la pregunta siguiente:
2 5 7
 
¿ Es t = combinación lineal de v1 , v2 , v3 ?
1 2 5

2.4 Sub-espacio generado


La pregunta que ahora uno se hace es un poco más exigente. La idea
es fácil: dado un vector, queremos encontrar todos los vectores que
se pueden obtener a partir de él. Bueno, se trata de ir sumando y
ponderando los vectores que se van obteniendo.
. . . y los queremos ”todos”.
O bien, dados dos vectores, queremos encontrar todos los vectores que
se pueden obtener a partir de ellos. Idem para el caso de n vectores.

Observación

Consideremos V = K 2 , un K-espacio vectorial. En él, démosnos el


vector v = (−1, 2). Entonces queremos encontrar todos los vectores
que se pueden obtener a partir de v. Estos vectores son todos aquellos
de la forma w = α(−1, 2), es decir, w = (−α, 2α).
El conjunto obtenido es

S = {(x, y); y = −2x}

Escribiremos S =< (−1, 2) >.


En este caso, S es un sub-espacio vectorial de K 2 . ¿ Ocurrirá esto,
siempre ?
Capı́tulo 2. Espacios Vectoriales 59

Observación

Consideremos V = IR2 y u = (−1, 2) y v = (2, −4). ¿Cuánto es


lo máximo de espacio que podemos alcanzar a partir de u y v? Es
decir, haciendo combinaciones lineales de estos vectores, ¿Qué vectores
podemos obtener ?. Es decir, ¿A qué conjunto es igual el conjunto
{α(−1, 2) + β(2, −4); α, β ∈ IR} ?
Observamos que haciendo combinaciones lineales de estos vectores
no es posible ”salir” de la recta. Diremos que el espacio genera-
do por u y v es la recta L = {(x, y); y = −2x} y escribiremos
L =< (−1, 2), (2, −4) >.
En este caso L también es un sub-espacio vectorial de IR2 . Esto es
curioso. ¿No te parece? Tenemos la siguiente proposición.

Proposición 2.4.1 Sean V un K-espacio vectorial y v1 , v2 , . . . , vn ∈


V . Entonces

S = {α1 v1 + α2 v2 + · · · + αn vn ; α1 , α2 , . . . , αn ∈ K}

es el más pequeño sub-espacio de V que contiene a v1 , v2 , . . . , vn .

Demostración

Vimos en un ejercicio que S es un subespacio vectorial de V , al final


de la sección 2.2
Demostremos ahora que es el más pequeño que contiene a v1 , v2 , . . . , vn .
Sea H un sub-espacio vectorial de V que contiene a v1 , v2 , . . . , vn .
Por ser un sub-espacio debe contener α1 v1 , α2 v2 , . . . , αn vn para todo
α1 , α2 , . . . , αn ∈ K. También debe contener todas las sumas de vec-
tores de H, es decir, H debe contener α1 v1 + α2 v2 + . . . + αn vn para
todo α1 , α2 , . . . , αn ∈ K. Luego H debe contener a S. Bueno, esto
quiere decir que es el más pequeño que contiene a v1 , v2 , . . . , vn .
60 M.T. Alcalde - C. Burgueño Algebra Lineal

Ejemplo

Sea V = K 3 . Consideremos los vectores v1 = (1, 2, 1) y v2 = (−1, 1, 3).


Entonces S = {α(1, 2, 1) + β(−1, 1, 3); α, β ∈ K} es un sub-espacio
vectorial de K 3 , el cual será denotado por S =< (1, 2, 1), (−1, 1, 3) >.

Definición 2.4.1 Sea V un K-espacio vectorial. Sean v1 , v2 , . . . , vn ∈


V . Entonces el conjunto formado por todas las combinaciones lineales
de v1 , v2 , . . . , vn es el sub-espacio llamado el sub-espacio generado
por v1 , v2 , . . . , vn y se denota < v1 , v2 , . . . , vn >, es decir,

< v1 , v2 , . . . , vn >= {α1 v1 +α2 v2 +· · ·+αn vn ; α1 , α2 , . . . , αn ∈ K} = S.

Diremos que {v1 , v2 , . . . , vn } es un conjunto de generadores de S.

Pregunta

Sea V = K 2 . Sea u = (3, 1) y v = (1, −3) ¿Cuál es el sub-espacio más


grande que se puede obtener ponderando y sumando estos vectores?
Es decir, ¿Cuál es el sub-espacio generado por u y v?
Respuesta

< (3, 1), (1, −3 >= {α(3, 1) + β(1, −3); α, β ∈ K} =


= {(3α + β, α − 3β); α, β ∈ K}

Luego
3x + y x − 3y
(x, y) = (3, 1) + (1, −3)
10 10
Es decir todo vector (x, y) de K 2 , es combinación lineal de (3, 1) y
(1, −3). De donde tenemos que < (3, 1), (1, −3) >= K 2 .

Ejercicio

Busquemos el sub-espacio de K 3 , generado por u = (1, 1, 1) y v =


(2, 3, 1) y demos una descripción cartesiana de este sub-espacio.
Capı́tulo 2. Espacios Vectoriales 61

Solución

S = {α(1, 1, 1) + β(2, 3, 1)}; α, β ∈ K}


Sea (x, y, z) = α(1, 1, 1) + β(2, 3, 1). Esto equivale a suponer que el
sistema de ecuaciones siguiente

x = α + 2β 

y = α + 3β tiene solución
z = α+β

Es decir, debemos encontrar la condición necesaria y suficiente, para


que este sistema tenga solución.
Escalonemos el sistema. Tenemos

  (−1)    
1 2 x L21 1 2 x (1) 1 2 x
 L32 
 1 3 y  −→  0 1 y − x   0 1 y−x
   
−→

(−1)
1 1 z L31 0 −1 z − x 0 0 y + z − 2x

Luego < (1, 1, 1), (2, 3, 1) >= {(x, y, z); 2x − y − z = 0}

Ejercicio

Encontremos un sistema de generadores para el sub-espacio de K 3 ,


siguiente:
U = {(x, y, z); 2x + y = 0}

Solución

Los elementos de U tienen entonces la forma tı́pica (x, −2x, z). Ahora
bien (x, −2x, z) = x(1, −2, 0)+z(0, 0, 1). Esto nos dice que todo vector
de U lo podemos obtener a partir de (1, −2, 0) y (0, 0, 1), es decir,
lo podemos obtener como combinación lineal de (1, −2, 0) y (0, 0, 1).
Entonces (1, −2, 0) y (0, 0, 1) generan U , es decir
U =< (1, −2, 0), (0, 0, 1) >
62 M.T. Alcalde - C. Burgueño Algebra Lineal

Ejercicio

Busquemos un conjunto de generadores para el sub-espacio V de K 3 ,


V = {(x + 2y + z, x + 2y, −x − 2y + 3z); x, y, z ∈ K}

Solución

Observamos que:

(x + 2y + z, x + 2y, −x − 2y + 3z) = x(1, 1, −1) + y(2, 2, −2) + z(1, 0, 3)

Luego los vectores (1, 1, −1) ,(2, 2, −2), (1, 0, 3) generan V , es decir

V =< (1, 1, −1), (2, 2, −2), (1, 0, 3) >

Ejercicio

Busquemos un conjunto de generadores para el sub-espacio W de K 3 ,

W = {(x, y, z); x + 3y − z = 0}

Solución

Los elementos de W tienen la forma tı́pica (x, y, x + 3y). Tenemos que:

(x, y, x + 3y) = x(1, 0, 1) + y(0, 1, 3)

Luego un conjunto de generadores de W es {(1, 0, 1), (0, 1, 3)} y luego


W =< (1, 0, 1), (0, 1, 3) >

Ejercicio

Sea V = K 3 .
Sea U =< (1, −2, 0), (0, 0, 1) > y V =< (1, 0, 1), (0, 1, 3) >.
Busquemos un conjunto de generadores de U ∩ V .
Capı́tulo 2. Espacios Vectoriales 63

Solución

Sea v ∈ U ∩ V , luego:

v = α(1, −2, 0) + β(0, 0, 1) = a(1, 0, 1) + b(0, 1, 3))

Tenemos:

α = a  
−2α = b
β = a + 3b 

Luego β = −5α.
Entonces v = α(1, −20) − 5α(0, 0, 1) = (α, −2α, −5α) = α(1, −2, −5)
Luego U ∩V =< (1, −2, −5) >. Entonces {(1, −2, −5)} es un conjunto
de generadores de U ∩ V

Ejercicio

Sea V = K 3 y S =< (1, 2, 1), (1, 0, 1) >. Busquemos 5 vectores de S.

Solución

Por ejemplo:
v1 = (1, 2, 1) + (1, 0, 1), es decir v1 = (2, 2, 2);
v2 = 2(1, 2, 1) = (2, 4, 2);
v3 = 3(1, 2, 1) − (1, 0, 1) = (2, 6, 2);
v4 = 2(1, 0, 1) = (2, 0, 2);
v5 = (1, 2, 1) + 3(1, 0, 1) = (4, 2, 4)
En fin, toda combinación lineal de (1, 2, 1) y (1, 0, 1) es un vector de
S.
64 M.T. Alcalde - C. Burgueño Algebra Lineal

Ejercicio

Sea V = K3 [X]. Busquemos un conjunto de generadores de

S = {a + bX + cX 2 + dX 3 ; 2a + b = c}

Solución

Los elementos de S se caracterizan por tener el coeficiente de X 2


igual a la suma del doble de la constante más el coeficiente de X. Un
elemento tı́pico de S, tiene la forma s = a + bX + (2a + b)X 2 + dX 3 ,
luego s = a(1 + 2X 2 ) + b(X + X 2 ) + dX 3 . Tenemos

S =< 1 + 2X 2 , X + X 2 , X 3 >

puesto que todo elemento de S se puede escribir como una combinación


lineal de estos tres vectores.

Propiedades elementales de un sub-espacio generado

1. < u, v >=< αu, v >; ∀α ∈ K − {0}

2. < u, v >=< u + βv, v >, ∀β ∈ K

3. < u, v >=< v, u >

Demostración 1

Sea w ∈< u, v >, luego w tiene la forma w = α1 u + α2 v, ciertos


α1 , α2 ∈ K. Pero:
α1
w= αu + α2 v, α 6= 0 luego w ∈< αu, v >
α
Por otra parte, sea w ∈< αu, v >, entonces:

w = β1 (αu) + β2 v = (β1 α)u + β2 v, luego w ∈< u, v >


Capı́tulo 2. Espacios Vectoriales 65

Demostración 2

Sea w ∈< u, v >, luego:

w = α1 u + α2 v = α1 (u + βv) + (α2 − α1 β)v, luego w ∈< u + βv, v >

Por otra parte, sea w ∈< u + βv, v >, entonces:

w = α1 (u + βv) + α2 v = α1 u + (α1 β + α2 )v, luego w ∈< u, v >

Demostración 3

Sea w ∈< u, v >, luego: w = αu+βv, ciertos α, β ∈ K ssi w = βv+αu


ssi w ∈< v, u >

Notación

Estas tres propiedades se cumplen para el segundo vector.

Observación

< u, v >=< u, v, 0 >

Observación

Esto se generaliza para un conjunto finito de vectores. Se tiene:

1. < u1 , u2 , . . . , un >=< αu1 , u2 , . . . , un >; α ∈ K, α 6= 0.

2. < u1 , u2 , . . . , un >=< u1 + αu2 , u2 , . . . , un >, α ∈ K.

3. < u1 , u2 , . . . , un >=< u2 , u1 , . . . , un >

Estas operaciones que han sido realizadas en u1 , u2 , pueden realizarse


∀ ui , uj ; i, j = 1, . . . , n.
66 M.T. Alcalde - C. Burgueño Algebra Lineal

Definición 2.4.2 Estos tres tipos de operaciones que dejan invariante


un conjunto de generadores son llamadas operaciones elementales.

Ejercicio

Sea V = K 3 , U =< (3, 9, 12), (1, 3, 6), (1, 3, 4) >. Busquemos una pre-
sentación más simple de U .

Solución

Para mayor comodidad, los vectores los anotaremos sin comas y los
ordenaremos en una matriz. Hagamos las siguientes operaciones ele-
mentales:

3 9 12 L1 ( 13 ) 1 3 4 L21 (−1) 1 3 4
     

 1 3 4  −→  1 3 4  −→ 0 0 0
     

1 3 6 1 3 6 L31 (−1) 0 0 2

Es decir, < (3, 9, 12), (1, 3, 6), (1, 3, 4) >=< (1, 3, 4), (0, 0, 2) >.
Con esto hemos conseguido una presentación más simple del espacio.

Ejercicio

En IR2 , determinemos el sub-espacio generado por el conjunto de vec-


tores:
A = {(1, 3), (3, 9), (2, 6)}

Solución

       
1 3 L (1) 1 3 1 3 1 3
 2 3  L31 (−2)  L21 (−1) 
 3 9  −→  1 3  −→  1 3  −→ 0 0
  

2 6 2 6 0 0 0 0
Capı́tulo 2. Espacios Vectoriales 67

Luego < (1, 3), (3, 9), (2, 6) >=< (1, 3) >= {(x, 3x); x ∈ IR}. Este
sub-espacio de IR2 , representa la recta que pasa por el origen y tiene
pendiente 3.

Ejercicio

Lo mismo que el ejercicio anterior, para

A = {(2, 4, 6), (1, 2, 3), (5, 10, 15)}

Solución

     
2 4 6 L (1) 1 2 3 1 2 3
1 2  L21 (−1) 
1 2 3  −→  1 2 3  −→  0 0 0 


5 10 15 5 10 15 5 10 15
 
1 2 3
L31 (−5) 
−→  0 0 0 

0 0 0
=⇒ < (2, 4, 6), (1, 2, 3), (5, 10, 15) > = < (1, 2, 3) >
= {(x, 2x, 3x); x ∈ IR}
El cual representa una recta de IR3 que pasa por el origen.

Ejercicio

En K 2 , consideremos A = {(1, 2), (1, 1)}. Determinemos el espacio


generado por A.

Solución

1 2 1 2 1 2 1 0
       
L21 (−1) L2 (−1) L12 (−2)
−→ −→ −→
1 1 0 −1 0 1 0 1
68 M.T. Alcalde - C. Burgueño Algebra Lineal

Luego < (1, 2), (1, 1) >=< (1, 0), (0, 1) >= {(x, y); x, y ∈ K} = K 2
Entonces A genera K 2 .

Ejercicio

En V = K3 [X] consideremos el sub-espacio

S =< 2 + X + 5X 2 + X 3 , 4 + 2X + 10X 2 + 2X 3 , 1 + X + 2X 2 + X 3 >

Busquemos un conjunto de generadores que tenga una cantidad mı́ni-


ma de elementos.

Solución

Por comodidad anotaremos solamente los coeficientes de cada poli-


nomio.
     
2 1 5 1 2 1 5 1 1 0 3 0
 L21 (−2)   L13 (−1) 
 4 2 10 2  −→  0 0 0 0  −→  0 0 0 0 
 

1 1 2 1 1 1 2 1 1 1 2 1
   
1 0 3 0 1 0 3 0
L23   L21 (−1) 
−→  1 1 2 1  −→  0 1 −1 1 

0 0 0 0 0 0 0 0

Luego, basta generar S por el conjunto de vectores

{1 + 3X 2 , X − X 2 + X 3 }

Nota

Hemos observado que a un conjunto A de generadores de un sub-


espacio S de V , al sacarle uno o más vectores puede, a veces seguir
generando el mismo sub-espacio S.
Esto nos conduce a la siguiente definición.
Capı́tulo 2. Espacios Vectoriales 69

Definición 2.4.3 Sea V un K-espacio vectorial. Sea G un conjunto


finito de generadores de un sub-espacio S de V . Diremos que G es
un conjunto minimal de generadores de S, si cada vez que se le
quita alguno de sus elementos, pierde su propiedad de ser generador
de S.

Ejemplo

G = {(1, 2), (3, 2)} es un conjunto minimal de generadores de K 2 .


T = {(1, 1, 1), (1, 1, 0), (1, 0, 0)} es un conjunto minimal de generadores
de K 3 .

2.5 Dependencia Lineal

Ahora es necesario que recuerdes el concepto de dependencia lineal en


un sistema de ecuaciones lineales. A veces, tenı́amos ecuaciones que
podı́an ser obtenidas de otras, entonces decı́amos que el sistema era
linealmente dependiente.
Ahora pensemos en un conjunto de vectores en un espacio vectorial.
De la misma manera, a veces hay vectores que se pueden obtener de
los otros, pues son combinación lineal de ellos.
Es entonces natural usar este mismo concepto para un conjunto de
vectores. ¿No es ası́?
Nos encantarı́a que esta sección la encuentres ¡Trivial!. Eso dirı́a que
estás asimilando bien el curso.
Te recomendamos no empezar esta sección si no has comprendido las
anteriores, pues se te pueden confundir los conceptos que, sin embargo,
son muy diferentes.
70 M.T. Alcalde - C. Burgueño Algebra Lineal

Observación

Sea V = IR2 , u = (2, 3), v = (10, 15). Observamos que v = 5u,


diremos que el conjunto {u, v} es ”linealmente dependiente”, es decir
que el vector v se puede obtener a partir de u

Observación

Sea V = K 3 , u = (1, 1, 2), v = (2, 1, 5), w = (4, 3, 9). Tenemos que w =


2u+v. Diremos que el conjunto {u, v, w} es ”linealmente dependiente”.
Ahora que tienes el concepto en forma intuitiva, podrás apreciar mejor
la definición siguiente.

Definición 2.5.1 Sea V un K-espacio vectorial. Sea

A = {v1 , v2 , . . . , vn }

Diremos que A es linealmente dependiente si al menos un vector


vi ∈ A es combinación lineal de los demás vectores de A.
Diremos que un conjunto es linealmente independiente si ningún
vector depende de los otros, es decir, si ningún vector es combinación
lineal de los demás. Abreviamos l.d. y l.i respectivamente.

Ejercicio

Sea V = K 4 . Sea A = {(1, 0, 0, 5), (0, 1, 0, 4), (0, 0, 1, 1)}. Demostremos


que A es linealmente independiente.

Solución

Si suponemos que existen a, b ∈ K tal que

(1, 0, 0, 5) = a(0, 1, 0, 4) + b(0, 0, 1, 1)

llegaremos a una contradicción. Lo mismo ocurre si suponemos que


existen c, d, e, f ∈ K tales que
Capı́tulo 2. Espacios Vectoriales 71

(0, 1, 0, 4) = c(1, 0, 0, 5) + d(0, 0, 1, 1) ó


(0, 0, 1, 1) = e(1, 0, 0, 5) + f (0, 1, 0, 4)
Luego el conjunto A es linealmente independiente

Observación

Sea V = K 2 . Sea A = {(3, 1), (6, 2)}. Estudiemos la dependencia lineal


de A.
Observe el chispazo genial siguiente: Obtengamos el vector ~0 = (0, 0)
a partir de estos dos vectores.
Por ejemplo, tenemos

1. ~0 = (0, 0) = (−2)(3, 1) + 1(6, 2), o bien

2. ~0 = (0, 0) = (−4)(3, 1) + 2(6, 2), o bien

3. ~0 = (0, 0) = 0(3, 1) + 0(6, 2)

De (2): 4(3, 1) = 2(6, 2), como 4 = 6 0, podemos despejar (3, 1) =


2
4
(6, 2), es decir
1
(3, 1) = (6, 2)
2
Conclusión: el conjunto A es l.d.
Observemos que esto lo pudimos hacer, pues tenı́amos más de una
manera de obtener el vector ~0, a partir de los vectores en estudio.

Ejercicio

Sea V = K 2 Estudiemos la dependencia lineal del conjunto

A = {(3, 1), (6, 2), (1, 1)}


72 M.T. Alcalde - C. Burgueño Algebra Lineal

Solución

Veamos las posibles maneras de obtener el vector (0, 0)


Sea (0, 0) = α(3, 1) + β(6, 2) + γ(1, 1). luego:
)
0 = 3α + 6β + γ
0 = 3α + 6β + 3γ
Tenemos γ = 0, α = −2β. Luego

(0, 0) = −2β(3, 1) + β(6, 2) + 0(1, 1), β ∈ K

Tomemos β = 1

(0, 0) = −2(3, 1) + 1 · (6, 2) + 0(1, 1)

luego
(6, 2) = 2(3, 1) + 0(1, 1)
Entonces el conjunto A es l.d.

Nota

Esta forma de estudiar la dependencia lineal parece interesante. No


hay que estudiar tantas ecuaciones como al usar directamente la
definición.
Antes de estudiar una caracterización de dependencia lineal, veamos
las siguientes definiciónes:

Definición 2.5.2 Sea {v1 , v2 , . . . , vn } un conjunto de vectores de un


espacio V . Diremos que

0v1 + 0v2 + · · · + 0vn

es una combinación lineal trivial.

Definición 2.5.3 {~0} es linealmente dependiente.


{v} es linealmente independiente si y sólo si ~v 6= ~0
Capı́tulo 2. Espacios Vectoriales 73

Proposición 2.5.1 (Caracterización de dependencia lineal)


Sea V un espacio vectorial sobre K. Sea A = {v1 , v2 , . . . , vn }, entonces
son equivalentes:

1. A es linealmente dependiente.

2. ∃ αi 6= 0, αi ∈ K tal que α1 v1 + · · · + αi vi + · · · + αn vn = ~0.

Demostración

Dem (1) ⇒ (2):


Sea A linealmente dependiente, luego existe al menos un vector que es
combinación lineal de los demás. Sin pérdida de generalidad, supong-
amos que v1 es combinación lineal de los demás. Tenemos
v1 = α2 v2 + · · · + αn vn , ciertos α2 , . . . , αn ∈ K, luego
0 = (−1)v1 + α2 v2 + · · · + αn vn
luego tenemos (2)
Dem (2) ⇒ (1) :
Supongamos que existe αi 6= 0, αi ∈ K tal que
α1 v1 + · · · + αi vi + · · · + αn vn = ~0
Sin pérdida de generalidad, supongamos α1 6= 0. Luego
α1 v1 = −α2 v2 + · · · + −αn vn , puesto que α1 6= 0, tenemos
−α2 −αn
v1 = α1 2
v + ··· + v ,
α1 n
luego tenemos (1)

Repaso de lógica

La proposición: (1) ⇔ (2) , es lógicamente equivalente a la proposición:


no(1) ⇔ no(2).
Luego la proposición anterior es lógicamente equivalente al siguiente
corolario:
74 M.T. Alcalde - C. Burgueño Algebra Lineal

Corolario 2.5.2 Sea V un K-espacio vectorial. Sea

A = {v1 , v2 , . . . , vn }

entonces son equivalentes las siguientes proposiciones:

1. A es linealmente independiente.

2. Existe una única manera de obtener el vector ~0, a saber, como


una combinación lineal trivial.
Escrito en forma simbólica es

α1 v1 + · · · + αn vn = ~0 ⇒ α1 = · · · = αn = 0

Ejercicio

En V = K 3 , consideremos A = {(1, 1, 1), (1, 1, 0), (1, 0, 0)}. Es-


tudiemos la dependencia lineal de A.

Solución

Sea α(1, 1, 1) + β(1, 1, 0) + γ(1, 0, 0) = (0, 0, 0). Luego



α+β+γ = 0 

α+β = 0
α = 0 

luego α = β = γ = 0. Entonces la única manera de obtener el vector


(0, 0, 0), es la forma trivial. Luego A es l.i.

Ejercicio

Estudiemos en K 3 , la dependencia lineal del conjunto

A = {(1, 1, 2), (3, 3, 6), (1, 2, 5)}


Capı́tulo 2. Espacios Vectoriales 75

Solución

Sea α(1, 1, 2) + β(3, 3, 6) + γ(1, 2, 5) = (0, 0, 0).


De aquı́ obtenemos que α = −3β y γ = 0. Luego todas las maneras
posibles de obtener el vector ~0 son:
(0, 0, 0) = −3β(1, 1, 2) + β(3, 3, 6) + 0(1, 2, 5); β ∈ K
es decir, hay más de una manera de obtener el vector ~0. Luego A es
l.d.

Proposición 2.5.3 Sea V un K-espacio vectorial. Entonces:

1. Sea A ⊂ V , B ⊂ A y A linealmente independiente, entonces B


es linealmente independiente.
2. Si un conjunto de vectores contiene el ~0, entonces el conjunto es
linealmente dependiente.
3. Sea {v1 , v2 , . . . , vn } l.i. y {v1 , v2 , . . . , vn , w} l.d., entonces w es
combinación lineal de v1 , v2 , . . . , vn .
4. Sea {v1 , v2 , . . . , vn } l.i. y supongamos que w no es combinación
lineal de v1 , v2 , . . . , vn , entonces {v1 , v2 , . . . , vn , w} es l.i.

Demostración 1: ¡Trivial!

Demostración 2

Basta con escribir una combinación lineal nula no trivial como:


5~0 + 0v1 + 0v2 + · · · + 0vn = ~0

Demostración 3

Supongamos que A = {v1 , v2 , . . . , vn , w} es l.d., entonces se puede


obtener una combinación lineal nula no trivial con los elementos de A:
α1 v1 + α2 v2 + · · · + αn vn + βw = ~0
76 M.T. Alcalde - C. Burgueño Algebra Lineal

Si β = 0 entonces:

α1 v1 + α2 v2 + · · · + αn vn = ~0

y como {v1 , v2 , . . . , vn } es l.i., tenemos que:

α1 = α2 = · · · = αn = 0

luego A es l.i. contradicción, luego β 6= 0, es decir, podemos despejar


w en la primera ecuación:
−α1 −α2 −αn
w= v1 + v2 + · · · + vn
β β β
es decir,w es combinación lineal de v1 , v2 , . . . , vn

Demostración 4

Sea α1 v1 + α2 v2 + · · · + αn vn + βw = ~0, tenemos que β = 0 pues w no


es combinación lineal de los otros vectores, luego:

α1 v1 + α2 v2 + · · · + αn vn = ~0

luego α1 = α2 = · · · = αn = 0.

Ejercicio

Sea V un K-espacio vectorial y {u, v, w} un conjunto de vectores l.i.


Estudiemos la dependencia lineal de los vectores
s = u + 2v, t = u + v − w, r = v + 2w

Solución

Sea αs + βt + γr = ~0. Luego α(u + 2v) + β(u + v − w) + γ(v + 2w) = ~0,


luego (α + β)u + (2α + β + γ)v + (−β + 2γ)w = ~0.
Puesto que {u, v, w} es l.i., hay una única manera de obtener el ~0 y
ésta es:
Capı́tulo 2. Espacios Vectoriales 77


α+β = 0  
2α + β + γ = 0
−β + 2γ = 0 

   
1 1 0 0 1 0 0 0

 2 1 1 0 
 −→ 
 0 1 0 0 

0 −1 2 0 0 0 1 0
Luego α = 0, β = 0, γ = 0, es decir {r, s, t} es l.i.

Ejercicio

Sea V un K-espacio vectorial y {u, v, w} un conjunto l.i. Estudiemos


la dependencia lineal de la siguiente familia de vectores.
{u, s = (α − 2)v + (α − 2)w, t = v + (α2 − 4)w; α ∈ K}

Solución

Sea au + bs + ct = ~0. Luego

au + b((α − 2)v + (α − 2)w) + c(v + (α2 − 4)w) = ~0

Es decir au + ((α − 2)b + c)v + ((α − 2)b + (α2 − 4)c)w = ~0.


Puesto que {u, v, w} es un conjunto l.i., entonces

a = 0 

(α − 2)b + c = 0
(α − 2)b + (α2 − 4)c = 0 

En forma matricial, tenemos


 
1 0 0 0
 0 α−2 1 0  (2.1)


2
0 α−2 α −4 0

Caso α − 2 = 0 ssi α = 2
78 M.T. Alcalde - C. Burgueño Algebra Lineal

Tenemos
 
1 0 0 0 )
a = 0
 0 0 1 0  Luego
 
Para todo b ∈ IR
c = 0
0 0 0 0
Reemplazando en (2.1), tenemos u, s = ~0, t = v. Luego para todo
b ∈ IR, tenemos 0u + bs + 0t = ~0, luego {u, ~0, t} es l.d., luego{u, s, t}
es l.d.
Caso α − 2 6= 0 ssi α 6= 2
1
L2 ( α−2 ) 1 0 0 0
   
1 1 0 0
1  0 1 1
(2.1) −→  0 1

α−2
0  −→ 

α−2
0 

1 α2 −5
L3 ( α−2 ) 0 1 α+2 0 0 0 α−2
0
Caso α2 − 5 = 0 ssi α2 = 5
Tenemos
) )
a = 0 a = 0
1 =⇒ 1 c ∈ IR
b + α−2 c = 0 b = α−2
c

Luego 0u + 1
α−2
cs + ct = ~0, ∀c ∈ IR, α2 = 5. Luego {u, s, t} es l.d. en
este caso
Caso α2 6= 5
en este caso tenemos a = b = c = 0, luego {u, s, t} es l.i.

Definición 2.5.4 Sea A = {v1 , v2 , . . . , vn } un conjunto de vectores


de un espacio vectorial V . Diremos que A es un conjunto maximal
linealmente independiente si {v1 , v2 , . . . , vn , w} es linealmente de-
pendiente para todo w ∈ V

Ejemplo

Sea V = K 2 . A = {(1, 1), (1, 0)} es un conjunto maximal linealmente


independiente en V . En efecto, todo (a, b) ∈ V se puede escribir como
(a, b) = (b − a)(1, 1) + b(1, 0). Luego
{(a, b), (1, 1), (1, 0)} es l.d. ∀(a, b) ∈ K 2
Capı́tulo 2. Espacios Vectoriales 79

2.6 Bases de un espacio vectorial


Ahora vamos a estudiar al mismo tiempo las dos secciones anteriores.
Vamos a entrelazar el concepto de generadores de un espacio, con el
concepto de dependencia lineal.
Para esto vamos a iniciar esta sección con algunas consideraciones
sobre las posibles posiciones de tres vectores no nulos en el plano.
Sea V = IR2 y consideramos u, v, w ∈ V . Las posibles ubicaciones de
u, v, w en el plano son las dadas en las siguientes tres observaciones:

Observación

Observemos la siguiente figura:

Los vectores u, v, w no nulos son colineales, es decir se encuentran


sobre una recta que denotamos por L.
Observamos que:
< u, v, w >= L =< u, v >=< u, w >=< v, w >=< u >=< v >=
=< w >

En este caso:

{u, v, w}, {u, v}, {u, w}, {v, w}


80 M.T. Alcalde - C. Burgueño Algebra Lineal

son linealmente dependientes, mientras que


{u}, {v}, {w}
son linealmente independientes.
Diremos que los conjuntos {u}, {v}, {w}, son ”bases de L”.

Observación

Consideremos vectores no nulos u, v colineales, es decir se encuen-


tran sobre una recta que denotamos por L y w otro vector que no se
encuentra sobre L.

Dada una combinación lineal nula de los vectores u, v, w:


~0 = αu + βv + γw
necesariamente se debe tener γ = 0; mientras que α y β pueden ser
no nulos.
El sub-espacio generado por estos tres vectores es:
< u, v, w >=< u, w >=< v, w >= IR2 y < u, v >6= IR2
En este caso {u, v, w}, {u, v} son linealmente dependientes y {u, w},
{v, w}, {u}, {v},{w} son linealmente independientes.
Diremos que {u, w}, {v, w} forman, cada uno de ellos, una ”base de
IR2 ”.
Capı́tulo 2. Espacios Vectoriales 81

Observación

Sean u, v, w tres vectores no nulos, de los cuales no hay dos sobre la


misma recta:

Se puede tener:

αu + βv + γw = ~0 con α, β, γ 6= 0

Luego se tiene:

< u, v, w >= IR2 =< u, v >=< v, w >=< u, w >

Además se tiene que {u, v, w} l.d.; {u, w} l.i.; {v, w} l.i.; {u, v} l.i.
Diremos que {u, v}, {u, w}, {v, w} forman ”bases de IR2 ”.

Definición 2.6.1 Un subconjunto B de V , se dice que forma una


base de V , si B es l.i. y B es un conjunto de generadores de V .

Problema

En este momento, uno se pregunta qué relación habrá entre base y los
conceptos de conjunto l.i. maximal y conjunto de generadores minimal.
La respuesta a esta inquietud, está dada en la proposición siguiente:
82 M.T. Alcalde - C. Burgueño Algebra Lineal

Proposición 2.6.1 (Conceptos equivalentes a base)


Sea B = {v1 , v2 , . . . , vn }, entonces son equivalentes:

1. B es l.i. y < v1 , v2 , . . . , vn >= V


2. ∀v ∈ V , existen únicos α1 , α2 , . . . , αn ∈ K, tales que:

v = α1 v1 + α2 v2 + · · · + αn vn

3. B es un conjunto minimal de generadores de V


4. B es un conjunto maximal l.i.de V

Demostración

(1)=⇒(3)
Sea B = {v1 , v2 , . . . , vn } l.i y V =< B >. Por demostrar que B es un
conjunto minimal de generadores de V . Por hipótesis B genera V. Sólo
falta demostrar que este conjunto es minimal.
Supongamos que no es minimal, es decir, supongamos sin pérdida de
generalidad que B = {v1 , v2 , . . . , vn−1 } genera V , luego vn es combi-
nación lineal de v1 , . . . vn−1 , es decir, vn = α1 v1 +α2 v2 +. . .+αn−1 vn−1 ,
ciertos αi ∈ K, luego {v1 , v2 , . . . , vn } es l.d. contradicción. Luego B es
minimal.
(3) =⇒ (4)
Supongamos que {v1 , v2 , . . . , vn } es un conjunto minimal de gener-
adores y supongamos además que {v1 , v2 , . . . , vn } es l.i. Sea C =
{v1 , v2 , . . . , vn , w}. Por (3) se tiene que w = α1 v1 + α2 v2 + . . . + αn vn .
Luego {v1 , v2 , . . . , vn , w} es l.d., luego {v1 , v2 , . . . , vn } es l.i. maximal
(4)=⇒(1)
B es l.i. pues es l.i. maximal
Sea w ∈ V un vector cualquiera. Tenemos que {v1 , v2 , . . . , vn , w} es
l.d., luego w = α1 v1 + α2 v2 + . . . + αn vn , luego < v1 , v2 , . . . , vn >= V
(1)=⇒(2)
Capı́tulo 2. Espacios Vectoriales 83

Sea v = α1 v1 + α2 v2 + . . . + αn vn y v = β1 v1 + β2 v2 + . . . + βn vn . Dos
descomposiciones de v.
Luego α1 v1 + α2 v2 + . . . + αn vn = β1 v1 + β2 v2 + . . . + βn vn .
Luego (α1 − β1 )v1 + (α2 − β2 )v2 + . . . + (αn − βn )vn = ~0.
Puesto que {v1 , v2 , . . . , vn } es l.i. tenemos que α1 − β1 = α2 − β2 =
. . . = αn − βn = 0, luego α1 = β1 , α2 = β2 , . . . , αn = βn . Entonces
existe una única manera de escribir los vectores de V según el conjunto
de vectores {v1 , v2 , . . . , vn }
(2)=⇒(1)
(i) Por demostrar {v1 , v2 , . . . , vn } es l.i. Sea α1 v1 +α2 v2 +. . .+αn vn = 0.
Pero 0 = 0v1 + 0v2 + . . . + 0vn . Entonces α1 v1 + α2 v2 + . . . + αn vn =
0v1 + 0v2 + . . . + 0vn .
Puesto que la escritura es única, α1 = 0, α2 = 0, . . . , αn = 0. Luego es
l.i.
(ii) Sea v ∈ V , entonces v = α1 v1 + α2 v2 + . . . + αn vn de manera única,
en particular v = α1 v1 + α2 v2 + . . . + αn vn . Por (i) y (ii), tenemos (1)
Hemos demostrado que (1)=⇒(3), (3)=⇒(4), (4)=⇒(1) y (1)=⇒(2),
(2)=⇒(1). Luego el teorema está demostrado.

Definición 2.6.2 Sea B = {v1 , v2 , . . . , vn } una base de V . Sea v =


α1 v1 + α2 v2 + . . . + αn vn . Entonces α1 , α2 , . . . , αn son llamadas las
componentes de v, según la base B

Definición 2.6.3 Llamaremos la base canónica de K n a la base


{e1 = (1, 0, ..., 0), e2 = (0, 1, ..., 0), ..., en = (0, 0, ..., 0, 1)} .

Observamos que para todo elemento de K n se tiene:


Si (a1 , a2 , . . . , an ) ∈ K n , entonces

(a1 , a2 , . . . , an ) = a1 (1, 0, . . . , 0) + a2 (0, 1, . . . , 0) + · · · +


+an (0, 0, . . . , 1) =
= a1 e1 + a2 e2 + · · · + an en
84 M.T. Alcalde - C. Burgueño Algebra Lineal

Definición 2.6.4 La base canónica de Km [X], es la base


2 m
{1, X, X , ..., X }. Por otra parte, la base canónica de K[X], es
la base {1, X, X 2 , ..., X n , ...}.

Por ejemplo la base canónica de K 2 , es {e1 = (1, 0), e2 = (0, 1)}.


Por otra parte la base canónica de K2 [X], es la base {1, X, X 2 }.

Ejercicio

Sea V = K 2 . Demostremos que B = {(1, 1), (1, 2)} es una base de K 2 .

Solución

1. Demostremos que B genera K 2 .


Sea (x, y) = α(1, 1) + β(1, 2), ciertos α, β ∈ K luego:

(x, y) = (α + β, α + 2β)

de donde β = y − x y α = 2x − y, es decir:

(x, y) = (2x − y)(1, 1) + (y − x)(1, 2)

2. Demostremos que B es l.i. Sea α(1, 1) + β(1, 2) = (0, 0), luego:

(α + β, α + 2β) = (0, 0)

De aquı́ se desprende que α = β = 0.


Puesto que la única manera de escribir el ~0 a partir de los dos
vectores de B es la forma trivial, se tiene que B es l.i.

Por (1) y (2) se tiene que B es una base de K 2 .


Las componentes de un vector cualquiera (x, y) según la base B son:
2x − y, y − x. Por ejemplo: (3, 5) = 1(1, 1) + 2(1, 2)
Luego un vector (x, y), cualquiera de K 2 , se puede escribir como com-
binación lineal de (1, 1) y (1, 2).
Capı́tulo 2. Espacios Vectoriales 85

Proposición 2.6.2 Sea V un K-espacio vectorial. Entonces

1. Las componentes de la suma de dos vectores, son la suma de las


componentes.

2. Las componentes del producto de un vector por un escalar, son


el producto de las componentes por el escalar.

Demostración

Sea B = {v1 , v2 , . . . , vn } una base de V sobre K. Sea

v = α1 v1 + α2 v2 + · · · + αn vn y w = β1 v1 + β2 v2 + · · · + βn vn

Entonces:
v + w = (α1 v1 + α2 v2 + · · · + αn vn ) + (β1 v1 + β2 v2 + · · · + βn vn )
= (α1 + β1 )v1 + (α2 + β2 )v2 + · · · + (αn + βn )vn

Luego se tiene (1).


Además:
β · v = β(α1 v1 + α2 v2 + · · · + αn vn )
= (βα1 )v1 + (βα2 )v2 + · · · + (βαn )vn

Luego se tiene (2)

2.6.1 Método para encontrar una base de un es-


pacio vectorial
Recuerda que para tener escrito un sistema de ecuaciones lineales en
su forma más simple, hacı́amos el proceso de escalonamiento, pues las
operaciones elementales no alteran el sistema.
De la misma manera, tu sabes, que las operaciones elementales en un
conjunto de generadores no alteran el espacio obtenido.
¿Te parece, entonces, natural, escalonar un conjunto de generadores?
86 M.T. Alcalde - C. Burgueño Algebra Lineal

Obviamente que al escalonar un conjunto de vectores, el conjunto


obtenido, quitándole los vectores nulos, es un conjunto minimal de
generadores, luego es una base.
También los vectores escalonados son l.i., luego forman una base del
espacio en cuestión.

Ejercicio

Sea V = K 3 , U =< (2, 4, −5), (−4, −8, −2), (2, 4, 5) >. Busquemos
una base de U cuyos vectores estén escalonados.

Solución

1
  (2)   (− )
2 4 −5 L21 2 4 −5 L2 12
 −4 −8 −2  −→  0 0 −12  −→
   
(−2) 1
2 4 5 0 0 10 )
L31 L310
  (5)  
2 4 −5 L12 1 2 0
0 0

1  −→  0 0 1 
 

(−1)
0 0 1 L32 0 0 0

Diremos que la ”base escalonada” de U es B = {(1, 2, 0), (0, 0, 1)}.

Definición 2.6.5 Sea V un espacio vectorial. Diremos que un con-


junto de vectores de V es escalonado si al escribirlos como filas de
una matriz, se obtiene una matriz escalonada.

Proposición 2.6.3 Sea V un K-espacio vectorial y sea S ≤ V , en-


tonces el conjunto escalonado de generadores de S es único y consti-
tuye una base de S.

Definición 2.6.6 La base de un espacio vectorial formada por el con-


junto de vectores escalonados es llamada la base escalonada del es-
pacio considerado.
Capı́tulo 2. Espacios Vectoriales 87

Corolario 2.6.4 (Caracterización de igualdad de sub-espacios)


Sean S, T ≤ V , V un K-espacio vectorial, entonces S = T si y sólo si
tienen la misma base escalonada.

Ejercicio

En K 3 , busquemos la base escalonada del subespacio vectorial descrito


por
S = {(x, y, z); 5x − 3y − z = 0}

Solución

Tenemos que z = 5x − 3y, luego los elementos de S tienen la forma


v = (x, y, 5x − 3y). Además:

(x, y, 5x − 3y) = x(1, 0, 5) + y(0, 1, −3)

Luego el conjunto B = {(1, 0, 5), (0, 1, −3)} es un conjunto de gener-


adores de S y puesto que están escalonados, B es la base escalonada
de S.

Ejercicio

En K 3 , busquemos la base escalonada del sub-espacio S generado por


el conjunto de vectores {(1, 2, 4), (3, 6, 1), (5, 10, 9), (2, 4, −3)}

Solución

1 2 4 1 2 4 1 2 0
     
L21 (−3)
3 6 1  31 (−5)
 L 0 0 −11 

0
 0 1
 −→ 
  
 5 10 9  −→ 0 0 −11  0 0 0
   
L41 (−2)
2 4 −3 0 0 −11 0 0 0
Luego, la base escalonada de S es {(1, 2, 0), (0, 0, 1)}.
88 M.T. Alcalde - C. Burgueño Algebra Lineal

Ejercicio

En K 4 , busquemos la base escalonada del sub-espacio

S = {(x − y − z + 2u, x + y + 3z + 4u, 2x + y + 4z + 7u, 3x + y+


+5z + 10u); x, y, z, u ∈ K}

Solución

Todo elemento de S lo podemos escribir en la forma:

v = x(1, 1, 2, 3) + y(−1, 1, 1, 1) + z(−1, 3, 4, 5) + u(2, 4, 7, 10)

luego

S =< (1, 1, 2, 3), (−1, 1, 1, 1), (−1, 3, 4, 5), (2, 4, 7, 10) >

Al escalonar este conjunto de vectores tenemos la base escalonada B,


1 3
B = {(1, 0, , 1), (0, 1, , 2)}
2 2

Ejercicio

Sea V = K 3 , S, T ≤ V , definidos por:

S = {(x + 2y, 2x + 4y, 3x + 10y); x, y ∈ K}


T = {(2x + 3y, 4x + 6y, 2x + 5y); x, y ∈ K}

Estudiemos la posible igualdad de estos dos sub-espacios.

Solución

S =< (1, 2, 3), (2, 4, 10) >; T =< (2, 4, 2), (3, 6, 5) >. Ambos con-
juntos al ser escalonados tienen la misma base escalonada B =
{(1, 2, 0), (0, 0, 1)}, luego S = T .
Capı́tulo 2. Espacios Vectoriales 89

Teorema 2.6.5 (de Steinitz) Sea V un K-espacio vectorial. Sea


{v1 , v2 , . . . , vn } un conjunto l.i. y {w1 , w2 , . . . , wm } un conjunto de
generadores de V . Entonces existe una base de V de la forma:
{v1 , v2 , . . . , vn , wk1 , wk2 , . . . , wkp }, ciertos k1 , k2 , . . . , kp ∈ {1, 2, . . . , m}

Demostración

Sea S =< v1 , v2 , . . . , vn >

1. Tenemos dos posibilidades:


(a) wj ∈< v1 , v2 , . . . , vn >= S, ∀j = 1, 2, . . . , m. Entonces te-
nemos que S = V y {v1 , v2 , . . . , vn } forman una base de
V.
(b) Existe wk1 que no pertenece a S. En este caso tenemos que
{v1 , v2 , . . . , vn , wk1 } es l.i.
Sea S1 =< v1 , v2 , . . . , vn , wk1 >
2. Nuevamente tenemos dos posibilidades:
(a) S1 = V , entonces {v1 , v2 , . . . , vn , wk1 } es una base de V
(b) S1 6= V , entonces existe wk2 que no pertenece a S1 . En este
caso tenemos que {v1 , v2 , . . . , vn , wk1 , wk2 } es l.i.

En forma análoga se construye S2 =< v1 , v2 , . . . , vn , wk1 , wk2 >.


Luego de un número finito de pasos no mayor a m, se obtiene la base
buscada.

2.6.2 Aplicación del Teorema de Steinitz


Sea V un K-espacio vectorial. Sea {v1 , v2 , . . . , vn } un conjunto l.i. y
sea {e1 , e2 , . . . , em } una base de V , entonces existe una base de V de
la forma:
{v1 , v2 , . . . , vn , ek1 , ek2 , . . . , ekp }, ciertos k1 , k2 , . . . , kp ∈ {1, 2, . . . , m}
90 M.T. Alcalde - C. Burgueño Algebra Lineal

Ejercicio

Obtengamos una base de K 4 que contenga al conjunto de vectores


A = {(1, 3, 5, 7), (1, 6, 5, 0)}

Solución

La base escalonada del espacio generado por A es


7
B = {(1, 0, 5, 14), (0, 1, 0, − )}
3
Luego una base de V que contiene los vectores de A es

C = {(1, 3, 5, 7), (1, 6, 5, 0), (0, 0, 1, 0), (0, 0, 0, 1)}

Para esto se eligió dos vectores de la base canónica de K 4 que tienen


el 1 en lugares distintos de los elementos lı́deres de B.

Ejercicio

Busquemos una base de K3 [X] que contenga el conjunto de vectores

A = {3 + 6X − 12X 3 , 2 − 4X + X 2 }

Solución

La base escalonada del espacio generado por A es


1 1
B = {1 + X 2 − 2X 3 , X − X 2 − X 3 }
4 8
De la misma manera que en el caso anterior se elige una base que
contenga los vectores de la base canónica de K3 [X] que tienen el 1 en
lugares diferentes de los lı́deres de la base B. Entonces se ha elegido
la base
C = {3 + 6X − 12X 3 , 2 − 4X + X 2 , X 2 , X 3 }
Capı́tulo 2. Espacios Vectoriales 91

Ejercicio

Sea V = K 4 y S = {(a + b + 3c, a + 2c, b + c, a + b + 3c); a, b, c ∈ K}


un sub-espacio de V . Busquemos una base B de S que contenga el
vector u = (0, 1, −1, 0) y una base C de S que contenga el vector
v = (5, 3, 2, 5)

Solución

El conjunto escalonado de generadores de S es

A = {(1, 0, 1, 1), (0, 1, −1, 0)}

Entonces es fácil completar con vectores de la base escalonada de S,


eligiendo vectores que tengan el elemento lı́der en un lugar distinto al
del vector u = (0, 1, −1, 0). Se tiene ası́ la base

B = {(0, 1, −1, 0), (1, 0, 1, 1)}

Para la base C, tenemos

3 2
< (5, 3, 2, 5) >=< (1, , , 1) >
5 5
La base pedida puede ser C = {(5, 3, 2, 5), (0, 1, −1, 0)}

Ejercicio

Sea V = M2×3 (K). S ≤ V definido por


3
a + 23 b − c −a − b + c d
 
S={ 2 ; a, b, c, d ∈ IR}
a b c

Busquemos una base de S que contenga los vectores

5 −3 0 2 0 0
   
u= yv=
2 2 1 2 2 4
92 M.T. Alcalde - C. Burgueño Algebra Lineal

Solución

Un conjunto de generadores de S es
3 3
0 0 1 −1 0 −1 0 −1 1 0
         
, 2 , 2 ,
0 0 0 1 0 0 0 1 0 0 0 1
La base escalonada de S es:
1 0 0 0 1 0 0 0 1 0 0 0
         
, , ,
0 2 2 0 2 3 0 0 0 1 −1 0

La base escalonada del subespacio generado por u y v, es


0 1 0 1 0 0
     
,
1 1 3 1 1 2
Luego una posibilidad para B es:
5 −3 0 2 0 0 0 0 1 0 0 0
         
, , ,
2 2 1 2 2 4 0 0 0 1 −1 0

2.7 Dimensión de un espacio vectorial


Sabes, es bueno que vayas comprendiendo que uno de los problemas
que preocupa en matemáticas, es encontrar entes que permanezcan
invariantes al producir ciertos cambios. Son los llamados invariantes.
Por el momento, hemos visto que todas las bases de K 2 , como K-
espacio vectorial, tienen 2 elementos.
Es decir el número de elementos de cada base es ”invariante” en K 2 .
¿Será cierto que en K 3 , todas las bases tienen 3 elementos?.
¿. . .Y en un K-espacio vectorial V , ocurrirá que todas las bases tiene
la misma cantidad de elementos?.
Es decir, uno se pregunta si el número de elementos de las diferentes
bases de un espacio vectorial es un invariante.
Interesante pregunta ¿cierto?.
Bueno, esta sección nos da la respuesta a esa pregunta.
Capı́tulo 2. Espacios Vectoriales 93

Comencemos por unos lemas y luego el teorema que dará la respuesta


a esta pregunta.

Lema

Sea B = {u1 , u2 , . . . , un } una base de un espacio vectorial V sobre K.


Sea u ∈ V tal que u = α1 u1 + α2 u2 + · · · + αi ui + · · · + αn un , con algún
αi 6= 0.
Entonces el conjunto C = {u1 , u2 , . . . , ui−1 , u, ui+1 , . . . , un } también es
una base de V.

Demostración

Sin pérdida de generalidad, supongamos α1 6= 0. En este caso


C = {u, u2 , . . . , un }, luego u1 = α1−1 u + −α1−1 α2 u2 + · · · + −α1−1 αn un

1. Demostremos que C genera V.


Sea v ∈ V . Entonces:
v = β1 u1 + β2 u2 + · · · + βn un , ciertos β1 , β2 , . . . , βn ∈ K.
Luego

v = β1 (α1−1 u − α1−1 α2 u2 − · · · − α1−1 αn un ) + β2 u2 + · · · + βn un


= β1 α1−1 u + (−α2 β1 α1−1 + β2 )u2 + · · · + (−α1−1 αn β1 + βn )un

Es decir, v ∈< u, u2 , . . . , un >, es decir {u, u2 , . . . , un } genera V.

2. Demostremos que C es l.i.


Sea
αu + β2 u2 + · · · + βn un = 0
Luego

α(α1 u1 + · · · + αn un ) + β2 u2 + · · · + βn un = 0
94 M.T. Alcalde - C. Burgueño Algebra Lineal

De donde

(αα1 )u1 + (αα2 + β2 )u2 + · · · + (ααn + βn )un = 0

Pero B es l.i., entonces:

(1) αα1 = 0



(2) αα2 + β2 = 0


········· ··· · 


(n) ααn + βn = 0

De 1) tenemos α = 0, pues hemos supuesto α1 6= 0. Reemplazando


en las ecuaciones (2),. . . , (n), se tiene βi = 0, i = 2, · · · , n. Luego
{u, u2 , . . . , un } es l.i.

Ejemplo

B = {(1, 1, 1), (1, 1, 0), (1, 0, 0)} es una base de K 3 .


Tenemos que:

(5, 5, 2) = 2(1, 1, 1) + 3(1, 1, 0) + 0(1, 0, 0)

Entonces C = {(5, 5, 2), (1, 1, 0), (1, 0, 0)} es otra base de K 3 , o bien,
D = {(1, 1, 1), (5, 5, 2), (1, 0, 0)}.
Sin embargo, el conjunto A = {(1, 1, 1), (1, 1, 0), (5, 5, 2)} no es una
base de K 3

Lema

Supongamos que existe una base de V con n vectores. Si B =


{u1 , u2 , . . . , un } ⊂ V es l.i. y posee n vectores, entonces B es una
base de V .
Capı́tulo 2. Espacios Vectoriales 95

Demostración

Sea C = {v1 , v2 , . . . , vn } una tal base de V . Entonces:

u1 = α1 v1 + α2 v2 + · · · + αn vn

ciertos α1 , α2 , . . . , αn ∈ K. Sabemos que u1 es no nulo, pues B es


l.i., luego existe algún αi ∈ K, i ∈ {1, . . . , n} no nulo. Sin pérdida de
generalidad, supongamos α1 6= 0. El lema anterior nos asegura que
{u1 , v2 , . . . , vn } es una base de V . Luego u2 es combinación lineal de
u1 , v2 , . . . , vn , luego existen β1 , β2 , . . . , βn no todos nulos tales que:

u2 = β1 u1 + β2 v2 + · · · + βn vn

Si β2 = β3 = · · · = βn = 0, se tendrı́a β1 6= 0 , luego {u1 , u2 } es l.d.,


luego {u1 , u2 , . . . , un } l.d., lo cual es una contradicción. Luego existe
al menos un βj no nulo, j ∈ {2, . . . , n} Supongamos que β2 6= 0, luego
{u1 , u2 , v3 , . . . , vn } es una base de V . Repitiendo sucesivamente este
proceso, tenemos que {u1 , . . . , un } es una base de V .

Lema

Supongamos que en V existe una base con n vectores. Entonces todo


subconjunto de V que sea l.i. tiene a lo más n vectores. Es decir, si
A = {v1 , . . . , vm }, entonces m ≤ n

Demostración

Supongamos que existe S = {u1 , . . . , un , un+1 , . . . , ut } ⊂ V que tenga


t vectores, con t > n y que sea l.i. Entonces B = {u1 , . . . , un } tiene n
vectores y es un conjunto l.i., luego B es una base, por el lema anterior.
Luego existen α1 , α2 , . . . , αn ∈ K tal que:

un+1 = α1 u1 + α2 u2 + · · · + αn un

luego {u1 , u2 , . . . , un , un+1 } es l.d., lo que es una contradicción al hecho


que S es l.i. Luego V tiene a lo más n vectores l.i.
96 M.T. Alcalde - C. Burgueño Algebra Lineal

Teorema 2.7.1 (de invariancia) Sea V un K-espacio vectorial. Si


V tiene una base con un número finito de elementos, entonces toda
otra base tiene el mismo número de elementos.

Demostración

Sean B = {u1 , u2 , . . . , un } y C = {v1 , v2 , . . . , vm } dos bases cua-


lesquieras de V.
Como B es una base de V y C es l.i. entonces m ≤ n. Análogamente,
como C es una base de V y B es l.i., entonces n ≤ m. Luego n=m.

Nota

Este teorema se llama de invariancia, pues nos dice que el número de


elementos de una base no varı́a en las diferentes bases de un espacio
vectorial.

Definición 2.7.1 Un espacio vectorial se dice de dimensión finita


si posee una base con un número finito de elementos. En caso contrario
se dice que es un espacio de dimensión infinita.

Ejemplo

K 2 es un K-espacio vectorial de dimensión finita, pues:

B = {(1, 2), (3, 5)}

es una base de IR2 sobre IR.

Ejemplo

K 3 es un K-espacio vectorial de dimensión finita, pues:

B = {(1, 1, 1), (1, 1, 0), (1, 0, 0)}

es una base de IR3 sobre K.


Capı́tulo 2. Espacios Vectoriales 97

Ejemplo

IR[X] es un espacio vectorial de dimensión infinita sobre IR, pues no es


posible construir una base que tenga un número finito de elementos.
En efecto, supongamos que existe un conjunto finito B, tal que:

B = {P1 (X), . . . , Pn (X)}

es un conjunto de generadores de IR[X] con


m = máx {gr(P1 (X)), . . . , gr(Pn (X))},
entonces, por ejemplo, el polinomio P (X) = 1 + X + X m+1 no es una
combinación lineal de P1 (X), . . . , Pn (X). Luego no es posible construir
un conjunto finito de generadores.

Definición 2.7.2 Sea V un K-espacio vectorial de dimensión finita.


Se llama dimensión de V al número de elementos de una (luego de
cualquier) base de V .

Notación: dimK V

Ejemplos

dimIR IR2 = 2, dimIR IR3 = 3

Ejercicios de espacios vectoriales comple-


jos
Ejercicio

Sea V = C y K = IR. Encuentre una base de C sobre IR.

Solución

Afirmación: B = {1, i} es una base de C sobre IR


98 M.T. Alcalde - C. Burgueño Algebra Lineal

Un elemento cualquiera de C tiene la forma a + bi y tenemos que


a + bi = a · 1 + b · i luego B genera C sobre K.
Además, sea α · 1 + β · i = 01 + 0i luego α = 0 y β = 0 luego B es l.i.
es decir, B es una base de C sobre IR.

Ejercicio

Sea V = C2 = C × C y K = C. Busquemos una base de C2 sobre C.

Solución

Afirmación: A = {(1, 0), (0, 1)} es una base de C2 sobre C.


La forma tı́pica de un elemento de C2 es (a + bi, c + di) el cual se
escribe:

(a + bi, c + di) = (a + bi)(1, 0) + (c + di)(0, 1)

Luego A genera C2 sobre C.


Demostremos que A es l.i. sobre C. Sea (α + βi)(1, 0) + (γ + δi)(0, 1) =
(0, 0), con α, β, γ, δ ∈ IR. Nótese que esta igualdad está en C2 . Luego
α + βi = 0 + 0i y γ + δi = 0 + 0i, (ambas igualdades en C), luego
α = β = γ = δ = 0. Luego A es una base de C2 sobre C y dimC C2 = 2.
Nótese que los escalares están en C, luego dimC C = 1

Ejercicio

Sea V = C2 = C × C y K = IR. Busquemos la dimensión de C2 sobre


IR

Solución

Afirmación: A = {(1, 0), (i, 0), (0, 1), (0, i)} es una base de C2 sobre
IR.
Capı́tulo 2. Espacios Vectoriales 99

La forma tı́pica de un elemento de C2 es (a+bi, c+di), con a, b, c, d ∈ IR


el cual se escribe:
(a + bi, c + di) = a(1, 0) + b(i, 0) + c(0, 1) + d(0, i)
Luego A genera C2 sobre IR.
Demostremos que A es l.i. sobre IR.
Sea α(1, 0) + β(i, 0) + γ(0, 1) + δ(0, i) = (0 + 0i, 0 + 0i), (esta igualdad
está en C2 ), luego (α + βi, γ + δi) = (0 + 0i, 0 + 0i), luego α = β =
γ = δ = 0. Se tiene que A es una base de C2 sobre IR y dimIR C2 = 4.

Ejercicio

Sea V = C3 y K = C. Busquemos la dimensión de C3 sobre C.

Solución

Afirmación: A = {(1, 0, 0), (0, 0, 1), (0, 0, 1)} es una base de C3 sobre
C.
La forma tı́pica de un elemento de C3 es (a + bi, c + di, e + f i), el cual
se escribe:

(a+bi, c+di, e+f i) = (a+bi)(1, 0, 0)+(c+di)(0, 1, 0)+(e+f i)(0, 0, 1)

Prueba que A es un conjunto l.i.

Ejercicio

Sea V = C3 y K = IR. Busquemos la dimensión de C3 sobre IR

Solución

Afirmación: A = {(1, 0, 0), (i, 0, 0), (0, 1, 0), (0, i, 0), (0, 0, 1), (0, 0, i)}
es una base de C3 sobre IR y dimIR C3 = 6.
Bueno, la demostración queda para ti como ejercicio.
100 M.T. Alcalde - C. Burgueño Algebra Lineal

Ejercicio

Sea V un espacio vectorial de dimensión n sobre C. Demostremos que


V tiene dimensión 2n sobre IR.

Solución

Sea A = {v1 , v2 , . . . , vn } una base de V sobre C. Luego v ∈ V se


escribe en la forma:

v = (α1 + β1 i)v1 + (α2 + β2 i)v2 + · · · + (αn + βn i)vn


= α1 v1 + α2 v2 + · · · + αn vn + (β1 i)v1 + (β2 i)v2 + · · · + (βn i)vn
= α1 v1 + α2 v2 + · · · + αn vn + β1 (iv1 ) + β2 (iv2 ) + · · · + βn (ivn )

Luego B = {v1 , v2 , . . . , vn , iv1 , iv2 , . . . , ivn } genera C sobre IR.


Sea α1 v1 + α2 v2 + · · · + αn vn + β1 iv1 + β2 iv2 + · · · + βn ivn = 0 + 0i
Luego

(α1 + iβ1 )v1 + (α2 + iβ2 )v2 + · · · + (αn + iβn )vn = 0 + 0i

Pero {v1 , v2 , . . . , vn } es l.i. sobre C, luego

α1 + iβ1 = 0 + 0i, α2 + iβ2 = 0 + 0i, . . . , αn + iβn = 0 + 0i

por definición de igualdad de números complejos, tenemos

α1 = β1 = 0 = α2 = β2 = · · · = αn = βn

Luego B = {v1 , v2 , . . . , vn , iv1 , iv2 , . . . , ivn } es l.i. sobre IR.


Luego B forma una base sobre IR. Entonces V tiene dimensión 2n
sobre IR.
Capı́tulo 2. Espacios Vectoriales 101

2.8 Suma de sub-espacios vectoriales


Nosotros vimos que la intersección de los sub-espacios vectoriales es
un sub-espacio vectorial.
Uno se pregunta si ocurre lo mismo con la unión de dos sub-espacios.
A simple vista, ¿¡intuición!?, parece que no.
Entonces si no lo fuera ¿Cuál serı́a el más pequeño sub-espacio que
contiene a la unión de dos sub-espacios?
Bueno, de esto se trata esta sección.
Comencemos por estudiar un ejemplo concreto ¿Te animas?, ¡Vamos!.

Observación

En IR2 , consideremos S =< (1, 2) > y T =< (1, 1) >, ¿ Es S ∪ T un


sub-espacio vectorial ?.
Tenemos que (1, 2) ∈ S ∪ T . Además (1, 1) ∈ S ∪ T . Sin embargo,
(1, 2) + (1, 1) = (2, 3) ∈
/ S ∪ T . Luego S ∪ T no es un sub-espacio
vectorial.
¿ Cuándo S ∪ T es un sub-espacio vectorial ?
¿ Cuál es el sub-espacio más pequeño que contiene a S ∪ T ?
< (1, 2), (1, 1) >= {α(1, 2) + β(1, 1); α, β ∈ IR} = {s + t; s ∈ S, t ∈
T} = S + T
Este sub-espacio debe contener todas las combinaciones lineales de
(1, 2) y (1, 1). ¿ Será entonces {α(1, 2) + β(1, 1); α, β ∈ K}?

Definición 2.8.1 Sea V un K-espacio vectorial. Sean S, T ≤ V . En-


tonces se define el conjunto

S + T = {s + t; s ∈ S, t ∈ T }

Proposición 2.8.1 Sean S y T dos sub-espacios de V . Entonces S+T


es un sub-espacio de V .
102 M.T. Alcalde - C. Burgueño Algebra Lineal

Demostración

1. S + T 6= ∅ pues 0 + 0 ∈ S + T
2. Sean u, v ∈ S + T , luego u = s + t y v = s′ + t′ , ciertos s, s′ ∈ S,
ciertos t, t′ ∈ T . Tenemos que:
u + v = (s + t) + (s′ + t′ ) = (s + s′ ) + (t + t′ )
que es un elemento tı́pico de S + T . Luego S + T es cerrado para
la suma.
3. Sea v ∈ S + T , luego v = s + t ciertos s ∈ S, cierto t ∈ T . Ahora
bien
αv = α(s + t) = αs + αt
el cual es un elemento de S + T .

Por (1), (2), (3), S + T es un sub-espacio de V .

Definición 2.8.2 El sub-espacio vectorial S + T es llamado el sub-


espacio suma de S y T .

Proposición 2.8.2 Sea V un K-espacio vectorial. Sean S, T ≤ V .


Entonces S + T es el más pequeño sub-espacio de V que contiene a
S∪T

Demostración

Demostremos que S ∪ T ⊂ S + T .
v ∈ S ∪ T ⇔ v = s, cierto s ∈ S, o bien v = t, cierto t ∈ T . Luego
v = s + 0 ∈ S + T o bien v = 0 + t ∈ S + T , en ambos casos v ∈ S + T

Demostremos que todo sub-espacio vectorial que contiene a S y T


debe contener a S + T .
Sea H ≤ V tal que S, T ≤ H. Sea s ∈ S y t ∈ T , luego s ∈ H y
t ∈ H, luego s + t ∈ H, pues H es un sub-espacio vectorial, luego
todo elemento de la forma s + t pertenece a H. Esto quiere decir que
S + T ⊂ H.
Capı́tulo 2. Espacios Vectoriales 103

Corolario 2.8.3 S ⊂ T ⇔ S + T = T

Demostración

⇒)
S + T es el más pequeño sub-espacio que contiene a S ∪ T , pero
S ∪ T = T . Además T es un sub-espacio vectorial y es el más pequeño
que se contiene a si mismo, luego S + T = T .
⇐)
S ⊂S∪T ⊂S+T =T

Nota

Sean S, T ≤ V con bases B y C respectivamente. Entonces:

S + T =< B ∪ C >

Ejercicio

Sea V = K 3 , S =< (1, −1, 1), (1, 2, 3) >, T =< (1, −1, 1), (2, 1, 0) >.
Busquemos la base escalonada de S + T .

Solución

S + T =< (1, −1, 1), (2, 1, 0), (1, −1, 1), (1, 2, 3) >

1 −1 1 1 −1 1 1 −1 1
     
 1 2 3   0 3 2  L (−1) 
 42 0 3 2 
→  −→ 
    
1 −1 1  0 0 0 0 0 0
  
    
2 1 0 0 3 −2 0 0 −4
104 M.T. Alcalde - C. Burgueño Algebra Lineal

1 0 0
 
 0 1 0 
→ 
0 0 0
 
 
0 0 1
La base escalonada de S + T es {(1, 0, 0), (0, 1, 0), (0, 0, 1)}

Ejercicio

Sea U = K 4 .
Sean S =< (1, 1, −1, 1), (1, 2, 3, 0) > , T =< (3, 4, 1, 2), (0, 1, −1, 0) >
Busquemos la base escalonada de S + T

Solución

Sabemos que:

S + T =< (1, 1, −1, 1), (1, 2, 3, 0), (3, 4, 1, 2), (0, 1, −1, 0) >

1 1 −1 1 1 1 −1 1 1 0 0 1
     
 1 2 3 0   0 1 4 −1   0 1 4 −1 
 −→   −→
     
3 4 1 2  0 1 4 −1  0 0 0 0 
  
  
0 1 −1 0 0 1 −1 0 0 −1 1 0
1 0 0 1 1 0 0 1
   

L42 (1)  0 1 4 −1 
   0 1 0 − 51 
−→  →
 
 0 0 0 0  0 0 0 0 
 

0 0 5 −1 0 0 1 − 15
La base escalonada de S + T es: {(1, 0, 0, 1), (0, 1, 0, − 51 ), (0, 0, 1, − 15 )}

Observación

Sea V = K 3 , S =< (1, −1, 0), (1, 2, 3) >, T =< (1, −1, 1), (2, 1, 0) >,
dimS = 2, dimT = 2
Capı́tulo 2. Espacios Vectoriales 105

1 −1 0 1 −1 0 1 0 0
     
 1 2 3   0 3 3   0 1 0 
→ →
     
1 −1 1  0 0 0  0 0 1
   
   
2 1 0 0 3 0 0 0 0
Luego dim(S + T ) = 3
Busquemos S ∩ T . Sea v ∈ S ∩ T , luego

v = α(1, −1, 0) + β(1, 2, 3) = a(1, −1, 1) + b(2, 1, 0)


(1) : α + β = a + 2b 

(2) : −α + 2β = −a + b
(3) : 3β = a

)
(3) en (1) : α = 2β + 2b
(3) en (2) : −α = −5β + b

A la primera ecuación, restémosle 2 veces la segunda. Tenemos 3α =


12β, es decir, α = 4β.
Luego v = 4β(1, −1, 0) + β(1, 2, 3), es decir v = β(5, −2, 3), de donde
S ∩ T =< (5, −2, 3) > y dim S ∩ T = 1.
Resulta que dim S + dim T = dim S + T − dim S ∩ T . ¿Ocurrirá esto
siempre?
Uno piensa: en la suma, puede que se repitan vectores, entonces hay
que restarle la intersección. ¡Parece obvio!. Bueno, este chispazo genial
está enunciado en el siguiente teorema.

Teorema 2.8.4 Sean S, T ≤ V . Entonces:

dim(S + T ) = dimS + dimT − dim(S ∩ T )

Demostración

Sea B1 = {u1 , u2 , . . . , ur } base de S ∩ T


106 M.T. Alcalde - C. Burgueño Algebra Lineal

Como B1 es linealmente independiente, entonces por el corolario del


teorema de Steinitz:
(1) ∃ v1 , v2 , . . . , vs ∈ S tal que B2 = {u1 , u2 , . . . , ur , v1 , v2 , . . . , vs } es
una base de S.
(2) ∃ w1 , w2 , . . . , wt , en T tal que B3 = {u1 , u2 , . . . , ur , w1 , w2 , . . . , wt }
es una base de T .
Demostremos que:
B = {u1 , u2 , . . . , ur , v1 , v2 , . . . , vr , w1 , w2 , . . . , wt } es una base de S +T .

1. Por demostrar que B genera S + T :


Sea w ∈ S + T , luego w = s + t, cierto s ∈ S y t ∈ T .
Luego:

w = (α1 u1 + · · · + αr ur + β1 v1 + · · · + βs vs )+
(α1′ u1 + · · · + αr′ ur + γ1 w1 + · · · + γt wt )
= (α1 + α1′ )u1 + · · · + (αr + αr′ )ur +
β1 v1 + · · · + βs vs + γ1 w1 + · · · + γt wt ∈< B >

2. Por demostrar que B es l.i.


α1 u1 + · · · + αr ur + β1 v1 + · · · + βs vs + γ1 w1 + · · · + γt wt = ~0 (∗)
⇒ α1 u1 + · · · + αr ur + β1 v1 + · · · + βs vs = −γ1 w1 − γ2 w2 − · · · −
γ t wt ∈ S ∩ T
⇒ −γ1 w1 − γ2 w2 − · · · − γt wt ∈ S ∩ T
⇒ −γ1 w1 − · · · − γt wt = δ1 u1 + · · · + δ2 u2 + · · · + δr ur
⇒ γ1 w1 + · · · + γt wt + δ1 u1 + · · · + δr ur = ~0
⇒ γ1 = · · · = γt = δ1 = · · · = δr = 0
Reemplazando en (∗) tenemos que:

α1 u1 + · · · + αr ur + β1 v1 + · · · + βs vs = ~0

Entonces α1 = · · · = αr = β1 = · · · = βs = 0
Capı́tulo 2. Espacios Vectoriales 107

Luego B es l.i.
Por (1) y (2) se tiene que B es una base de S + T .
Luego dim(S+T ) = r+s+t; dimS = r+s, dimT = r+t, dimS∩T = r

r + s + t = (r + s) + (r + t) − r

Luego dim S + T = dim S + dim T − dim S ∩ T

Ejercicio

Consideremos los sub-espacios de K 4 .


S =< (1, 0, 1, 0), (0, 1, 0, 0) >; T = {(x, y, z, t); x + y = 0}
Busquemos una base de S ∩ T y S + T .

Solución

Sea v = (x, y, z, t) ∈ T luego:


(x, y, z, t) = (x, −x, z, t) = x(1, −1, 0, 0) + z(0, 0, 1, 0) + t(0, 0, 0, 1)
     
1 0 1 0 1 0 1 0 1 0 0 0
0 1 0 0 0 1 0 0 0 1 0 0
     
     
  L31 (−1)    

 1 −1 0 0  −→ 
  0 −1 −1 0 →
  0 1 0 0 →


 0 0 1 0 


 0 0 1 0 


 0 0 1 0 

0 0 0 1 0 0 0 1 0 0 0 1
 
1 0 0 0
0 1 0 0
 
 
 
 0 0 1 0  ⇒ dim(S + T ) = 4
 

 0 0 0 1 

0 0 0 0

4 = 2 + 3 − dim(S ∩ T ) ⇒ dim(S ∩ T ) = 1
Necesitamos encontrar v ∈ S ∩ T , v 6= ~0
v = α(1, 0, 1, 0)+β(0, 1, 0, 0) = γ(1, −1, 0, 0)+δ(0, 0, 1, 0)+ǫ(0, 0, 0, 1)
108 M.T. Alcalde - C. Burgueño Algebra Lineal

Luego, (α, β, α, 0) = (γ, −γ, δ, ǫ), de donde α = −β = γ = δ, ǫ = 0


Entonces tenemos

v = α(1, 0, 1, 0) − α(0, 1, 0, 0) o bien,

v = α(1, −1, 0, 0) + α(0, 0, 1, 0) + 0(0, 0, 0, 1)


Luego S ∩ T =< (1, −1, 1, 0) >

Nota

Ahora vamos a poner la atención en aquellos sub-espacios cuya inter-


sección entre ellos es {~0}.

Definición 2.8.3 Sean S, T , W sub-espacios de V , diremos que un


sub-espacio W de V es suma directa de los sub-espacios S y T
si:

1. W = S + T

2. S ∩ T = {~0}.

Notación: W = S T
L

Ejercicio

Sea V = K 3 , S = {(x, 0, 0); x ∈ K}, T = {(0, y, z); y, z ∈ K}.


Entonces, demostremos que S T = K3
L

Solución

1. Demostremos que K 3 = S + T
Sea v ∈ K 3 luego v = (x, y, z) = (x, 0, 0) + (0, y, z) luego (x, y, z)
se escribe como un vector de S más un vector de T . Luego K 3 ⊆
S + T , luego K 3 = S + T
Capı́tulo 2. Espacios Vectoriales 109

Otra manera de verlo serı́a la siguiente:


S =< (1, 0, 0) > y T =< (0, 1, 0), (0, 0, 1) >.
Luego S + T =< (1, 0, 0) > + < (0, 1, 0), (0, 0, 1) > y este último
es K 3

2. Sea v ∈ S ∩ T , luego v ∈ S y v ∈ T . Luego v = (x, 0, 0) y


v = (0, y, z). Luego (x, 0, 0) = (0, y, z) ⇒ x = 0, y = 0, z = 0
⇒ v = ~0 = (0, 0, 0)

Entonces K 3 = S T
L

Ejercicio

Consideremos V = K 3 , W = {(x, 0, z); x, z ∈ K}, S =< (1, 0, 2) >,


T =< (2, 0, 1) >.
Demostremos que W = S T:
L

1. Demostremos que W = S + T :
! ! !
1 0 2 L21 (−2) 1 0 2 L2 ( −1
3
) 1 0 2
−→ −→
2 0 1 0 0 −3 0 0 1
!
L21 (−2) 1 0 0
−→
0 0 1
Pero también {(1, 0, 0), (0, 0, 1)} es una base de W pues los vec-
tores son l.i. y además (x, 0, z) = x(1, 0, 0)+z(0, 0, 1). Luego W =
S+T
Otra manera de demostrar que W = S + T es la siguiente
Consideremos w ∈ W y hacemos la siguiente afirmación:

(x, 0, z) = α(1, 0, 2) + β(2, 0, 1), ciertos α, β ∈ K

Luego (x, 0, z) = (α + 2β, 0, 2α + β)


De donde se concluye que x = α + 2β, z = 2α + β
110 M.T. Alcalde - C. Burgueño Algebra Lineal

Entonces
2z − x 2x − z
α= y β=
3 3

Luego tenemos:

2z − x 2x − z
(x, 0, z) = ( )(1, 0, 2) + ( )(2, 0, 1) ∈ S + T
3 3

Es decir w = s + t, ciertos s ∈ S, t ∈ T . Luego W = S + T

2. Ahora debemos demostrar que S ∩ T = {~0}


v ∈ S ∩ T ⇒ v ∈ S y v ∈ T ⇒ v = α(1, 0, 2) y v = β(2, 0, 1))
⇒ v = (α, 0, 2α) y v = (2β, 0, β) ⇒ ((α, 0, 2α) = (2β, 0, β))
⇒ α = 2β, 2α = β, ⇒ v = (0, 0, 0), es decir W = S T.
L

Definición 2.8.4 Dos sub-espacios S y T de un sub-espacio vectorial


V se dicen linealmente independientes ssi:

S ∩ T = {~0}

Nota: Si S T es directa entonces S y T son l.i. . .


L

Definición 2.8.5 Si S T = W entonces S y T son llamados sub-


L

espacios suplementarios entre sı́ en W .

Ejemplo

K 2 =< (1, 1) > < (1, 3) >,


L

< (1, 1) > es suplementario de < (1, 3) > en K 2 y < (1, 3) > es
suplementario de < (1, 1) > en K 2
Capı́tulo 2. Espacios Vectoriales 111

Observación

Sean:
S =< (1, 3, 0 >, T =< (0, 0, 1), (0, 1, 0) >, U =< (1, 0, 0), (0, 0, 1) >
Tenemos entonces que K 3 =< (1, 3, 0) > < (0, 0, 1), (0, 1, 0) >
L

También:
K 3 =< (1, 3, 0) > < (1, 0, 0), (0, 0, 1) >
L

Se tiene K 3 = S T y K3 = S U y T 6= U
L L

Ejemplo

1 0 0 x
   
M2×2 (K) =< > { ; x, y, z ∈ K}
L
0 0 y z
1 0 0 1 0 0 0 0
       
M2×2 (K) =< > < , , >
L
0 0 0 0 1 0 0 1

Observación

Sea fn : IR → IR; fn (x) = xn , n ∈ IN. Observamos que:

f2 (−x) = x2 = f2 (x); f3 (−x) = −x3 = −f3 (x)

f2n (−x) = x2n = f2n (x); f2n+1 (−x)2n+1 = −x2n+1 = −f2n+1 (x)

De manera natural se define

Definición 2.8.6 Diremos que una función g es par ssi g(−x) =


g(x) y diremos ue una función g es impar ssi g(−x) = −g(x)

Ejercicio

Sea V = {f : IR → IR}. Demostremos que


V = {funciones pares} {funciones impares}
L
112 M.T. Alcalde - C. Burgueño Algebra Lineal

Solución

1. Demostremos que V = {funciones pares} + {funciones impares}


f (x)+f (−x) f (x)−f (−x)
Afirmación: f (x) = 2
+ 2
f (x)+f (−x)
Sea g(x) = 2
. Demostremos que g es par.
f (−x)+f (−(−x)) f (x)+f (−x)
g(−x) = 2
= 2
= g(x), luego g es par.
Demostremosque h es impar
f (−x)−f (−(−x)) f (−x)−f (x)
h(−x) = 2
= 2
= −( f (x)−f
2
(−x)
) = −h(x)
Luego h es impar.
Luego V = {funciones pares} + {funciones impares}

2. Demostremos que {funciones pares} ∩ {funciones impares} =


{~0}
Sea f par e impar a la vez: Es decir, f (−x) = f (x)∀x ∈ K y
f (−x) = −f (x) ∀x ∈ IR
Luego f (x) = f (−x) = −f (x)
luego 2f (x) = 0∀x ∈ K, luego f (x) = 0∀x ∈ K luego f = ~0,
luego {funciones pares} ∩ {funciones impares} = {~0}

Proposición 2.8.5 Sea V un K-espacio vectorial; S, T, W ≤ V . En-


tonces son equivalentes:

1. W = S T
L

2. W = S + T y ~0 = s + t, s ∈ S, t ∈ T =⇒ s = t = ~0
La afirmación 2 nos dice que W = S + T y el ~0 se escribe de
manera única.

Demostración

(1)=⇒(2)
Capı́tulo 2. Espacios Vectoriales 113

Sea W = S T y s + t = ~0, ciertos s ∈ S y t ∈ T . Luego s + t ∈ S ∩ T ,


L

pues {~0} = S ∩ T , luego s + t = s′ y s + t = t′ . Luego t = s′ − s y


s = t′ − t. Luego t, s ∈ S ∩ T = {~0}. Luego s = t = ~0
(2)=⇒(1)
Tenemos que demostrar que S ∩ T = {~0}
Sea v ∈ S ∩ T , luego v ∈ S y v ∈ T . Además −v ∈ S y −v ∈ T .
El chispazo genial es escribir el ~0 de la manera siguiente: ~0 = v + (−v)
y pensar que v ∈ S y −v ∈ T . Entonces por (2.) tenemos que v = ~0 y
−v = ~0. Luego S ∩ T = ~0

Proposición 2.8.6 Sea W = S + T . Entonces son equivalentes:

1. ~0 = s + t =⇒ s = t = ~0 (El vector ~0 se escribe de manera única)

2. s + t = s′ + t′ =⇒ s = s′ y t = t′ (Todo vector de la forma s + t


se escribe de manera única)

Demostración

(1)⇒(2)
Sea s + t = s′ + t′ . Luego (s − s′ ) + (t − t′ ) = ~0
Por (1), tenemos que s − s′ = ~0 y t − t′ = ~0.
Luego s = s′ y t = t′
(2)⇒(1)
Sea s + t = ~0. Pensemos el ~0 como ~0 + ~0, el primer ~0 lo pensamos en
S y el segundo en T .
Luego s + t = ~0 + ~0. De (2.) tenemos s = ~0 y t = ~0.

Definición 2.8.7 Sean V1 , V2 , . . . , Vn ≤ V . Entonces la suma de es-


tos sub-espacios está definida por:

V1 + V2 + · · · + Vn = {v1 + v2 + · · · + vn ; vi ∈ Vi , i = 1, 2, . . . , n}
114 M.T. Alcalde - C. Burgueño Algebra Lineal

Proposición 2.8.7 Sean V1 , V2 , . . . , Vn ≤ V . Entonces

V1 + V2 + · · · + Vn ≤ V

Demostración

Se deja como ejercicio.

Definición 2.8.8 Decimos que W es suma directa de los subes-


pacios V1 , V2 , . . . , Vn si:

1. W = V1 + V2 + · · · + Vn

2. ~0 = v1 + v2 + · · · + vn , vi ∈ Vi , i = 1, 2, . . . , n
=⇒ v1 = v2 = · · · = vn = ~0. ( El cero se escribe de una sola
manera ).

Cuando esto ocurra, escribiremos:


W = V1 V2 ··· Vn
L L L

Proposición 2.8.8 Sean V1 , V2 , . . . , Vn ≤ V . Sea W ≤ V y W =


V1 + V2 + . . . + Vn , entonces son equivalentes:

n
1. vi = ~0, vi ∈ Vi , ∀i = 1, . . . , n =⇒ vi = 0
P
i=1

n n
2. vi = wi , vi , wi ∈ Vi ∀i = 1, . . . , n =⇒ vi = wi
P P
i=1 i=1

n
3. Vi ∩ Vj = {~0}, ∀i = 1, . . . , n
P
j=1
i6=j

En palabras el punto tercero se puede expresar como:


Cada sub-espacio intersectado con la suma de todos los otros sub-
espacios es el {~0}.
Capı́tulo 2. Espacios Vectoriales 115

Ejemplo

Sea V = K 3 , V1 = {(x, 2x, 0), x ∈ K}, V2 = {(2x, x, 0), x ∈ K} ,


V3 = {(x, 2x, 3x), x ∈ IR}
Es fácil ver que V1 + V2 + V3 = K 3 . Veamos ahora si esta suma es
directa.

1. ¿ V1 ∩ (V2 + V3 ) ?. Primero conozcamos S = V2 + V3


V2 =< (2, 1, 0) > y V3 =< (1, 2, 3) >. Luego:
V2 + V3 =< (2, 1, 0), (1, 2, 3) >
! ! !
2 1 0 L21 1 2 3 L21 (−2) 1 2 3
−→ −→
1 2 3 2 1 0 0 −3 −6
! !
L2 (− 31 ) 1 2 3 L12 (−2) 1 0 −1
−→ −→
0 1 2 0 1 2
Luego
V2 + V3 =< (1, 0, −1), (0, 1, 2) >
luego
S =< (1, 0, −1), (0, 1, 2) >
consideremos u = α(1, 2, 0) = β(1, 0, −1)+γ(0, 1, 2) ∈ V1 ∩(V2 +
V3 ) Entonces (α, 2α, 0) = (β, γ, −β + 2γ), luego α = β, 2α =
γ, 0 = −β + 2γ
⇒α=β=γ=0
Luego V1 ∩ (V2 + V3 ) = {~0}
De la misma manera debemos probar que V2 ∩ (V1 + V3 ) = {~0}
y V3 ∩ (V1 + V2 ) = {~0}
2. O bien, podrı́amos demostrar que el ~0 se escribe de manera única.
~0 = (0, 0, 0) = v1 + v2 + v3 = α(1, 2, 0) + β(2, 1, 0) + γ(1, 2, 3).
Luego
α + 2β + γ = 0, 2α + β + 2γ = 0, 3γ = 0, luego α = β = γ = 0

Por (1) o por (2) tenemos que K 3 = V1 V2 V3


L L
116 M.T. Alcalde - C. Burgueño Algebra Lineal

2.9 Ejercicios propuestos


1. En IR2 se define las siguientes operaciones:

(a, b) ⊕ (c, d) = (a + d, b + c)

α ∗ (a, b) = (αa, −αb)


Estudie cuales de axiomas de espacio vectorial cumplen estas
operaciones.

2. Considere el conjunto IR1 [X]. En él se define las siguientes op-


eraciones:

(a + bX) + (c + dX) = (a + c) + (b + d)X

α∆(a + bX) = (αa) + bX


¿ Es IR1 [X] un IR espacio vectorial con estas operaciones?

3. Estudie si los siguientes conjuntos son sub-espacios de los espa-


cios vectoriales respectivos:

(a) S = {a + bX + cX 2 + dX 3 ∈ K3 [X]; 2cd = b, b + a = 0} de


K3 [X]
a b
 
(b) T = { ∈ M2 (K); a+d = 0, c2 +d2 = −1} de M2 (K)
c d
(c) S = {(x, y, z); 2x + xy = 0} de K 3

4. Estudie si el vector u = (5 + 5i, −1 + 3i) está en el C-espacio


vectorial generado por el vector v = (3 − i, 1 + i)

5. Estudie si es posible encontrar dos sub-espacios de IR4 , de di-


mensión 2 cada uno, cuya intersección sea ~0

6. Sea V un K-espacio vectorial y sea {u, v, w, t} un conjunto de


vectores linealmente independientes.

(a) Demuestre que A = {u + v, v + w, w + u} es linealmente


independiente.
Capı́tulo 2. Espacios Vectoriales 117

(b) Estudie la dependencia lineal de B = {u + v, v + w, w +


t, t + u}.
(c) Estudie si el sub-espacio < A > es igual al sub-espacio
< B >. Justifique su respuesta.

7. Estudie la dependencia lineal del conjunto de vectores siguiente:


{(1, 1, 2), (2, α2 − 2, α + 2), (3, α2 + α − 3, α2 + 3α − 4)} según los
diferentes valores de α

8. En K n , indique en cada uno de los casos, las condiciones que


debe cumplir n, para tener u, v, w ∈ K n , tal que

(a) {u, v}l.i.


(b) {u, v}l.i. y w no pertenece a < u, v >
(c) {u, v, w} es un conjunto minimal de generadores de K n

9. Sea V el IR-espacio vectorial definido por V = {f ; f : IR −→ IR}.


Sean f1 (x) = sen(x), f2 (x) = sen(2x), para todo x ∈ IR. Estudie
la dependencia lineal de {f1 , f2 }.

10. Sea V u K-espacio vectorial. Si dimk (V ) es n y e1 , e2 , . . . , en es


una base de V , muestre que existen sub-espacios H0 , H1 , . . . , Hn
de V tales que H0 ⊂ H1 ⊂ · · · ⊂ Hn y dimk (Hi ) = i

11. En K 4 , considere los sub-espacios:

S = {(x, 2x + y, x + 2y, 2y); x, y ∈ K}

T =< (3, 4, 1, 7), (5, 0, −5, 3), (0, 0, 0, 4) >


Encuentre la base escalonada de S, T, S∩T, S+T . Encuentre una
base de K 4 que contenga los vectores que generan el sub-espacio
T.
Capı́tulo 3

Aplicaciones Lineales

3.1 Introducción, definición y ejemplos


Nosotros vimos que lo más importante de un espacio vectorial es la
existencia de una base en él. Uno dirı́a que la esencia de un espacio
vectorial es la existencia de una base en él.
Entonces, si queremos definir una aplicación entre dos espacios vec-
toriales, debemos tener en cuenta esta consideración. ¡Obvio! Si no lo
hacemos, entonces cerremos los libros y terminemos aquı́ el curso. ¿No
te parece? Bueno, pero ¿Que quiere decir tener en cuenta la existencia
de una base?. Creo que será mejor que lo veamos en un ejemplo.
Consideremos IR2 y IR3 como IR-espacios vectoriales y f : IR2 → IR3 .
Además consideremos la base B = {(2, 1), (3, 2)} en el dominio de f .
Supongamos que sólo sabemos como se comporta f en los elementos
de esta base.
Supongamos, por ejemplo, que

f (2, 1) = (3, 2, 1) y f (3, 2) = (5, 1, 1)

La pregunta que nos hacemos, es si es posible obtener la imagen de


cualquier vector de IR2 , o en qué condiciones lo podrı́amos obtener.

119
120 M.T. Alcalde - C. Burgueño Algebra Lineal

Para esto, comencemos por usar el concepto de base, es decir, que todo
elemento de IR2 se escribe de una manera única como combinación
lineal de la base.
Veamos, por ejemplo, si es posible conocer la imagen del vector v =
(1, 0)
Sabemos que (1, 0) = 2(2, 1) + (−1)(3, 2), luego f (1, 0) = f [2(2, 1) +
(−1)(3, 2)].
¿Qué exigencias deberı́amos hacer a f para que la información dada
a los vectores de B, pueda ser extendida a todo IR2 ?
... un chispazo genial y hacemos las operaciones siguientes:
f [2(2, 1) + (−1)(3, 2)] = f (2(2, 1)) + f (−1(3, 2)) =
= 2f (2, 1) + (−1)f (3, 2) =
= 2(3, 2, 1) + (−1)(5, 1, 1) =
= (1, 3, 1)
Es decir hicimos las exigencias siguientes:

1. f (u + v) = f (u) + f (v)

2. f (αu) = αf (u)

Las exigencias (1.) y (2.) hechas a una aplicación, se entrelazan con la


noción de espacio vectorial y ası́ la información con respecto a los el-
ementos de una base, se extiende a todos los vectores del espacio.
Además, sólo para las aplicaciones que cumplan estas dos exigen-
cias podremos utilizar el hecho que el Dominio y el Codominio sean
espacios vectoriales. Estas consideraciones nos llevan a la siguiente
definición:

Definición 3.1.1 Sean U y V dos K-espacios vectoriales. Diremos


que f : U −→ V es una aplicación lineal si se cumplen si-
multáneamente:

1. f (u + v) = f (u) + f (v)

2. f (αu) = αf (u)
Capı́tulo 3. Aplicaciones Lineales 121

Es muy agradable conocer una larga cantidad de ejemplos, antes de


comenzar a estudiar sus propiedades.
Veremos muchos ejemplos, pero también de aplicaciones que no son
lineales. Esperamos que los estudies todos. ¿De acuerdo ?...Tenemos
que seguir ilusionados con el Algebra Lineal...

Ejemplo

Sea V un K-espacio vectorial. Sea f : V −→ V ;f (v) = v. Esta


aplicación es llamada identidad y se denota f = idV .
Tenemos

f (u + v) = u + v = f (u) + f (v) y f (αu) = αu = αf (u)

Luego idV es una aplicación lineal. ¡Trivial! ¿Cierto?

Ejemplo

Sea V un K-espacio vectorial. Sea f : V −→ V ; f (v) = 0, llamada la


aplicación nula. Denotada por f = 0.

f (u + v) = 0 = 0 + 0 = f (u) + f (v)
f (αu) = 0 = α0 = αf (u)

Luego f es lineal.

Ejemplo

Sea V un K-espacio vectorial. Sea T : V −→ V ; T (v) = λv. Esta


aplicación es llamada homotecia de razón λ. Tenemos

T (u + v) = λ(u + v) = λu + λv = T (u) + T (v)


T (αu) = λ(αu) = α(λu) = αT (u)

Luego T es una aplicación lineal.


122 M.T. Alcalde - C. Burgueño Algebra Lineal

Ejemplo: Reflexión en torno al eje X

Sea T : IR2 −→ IR2 ; T (x, y) = (x, −y)

T [(x, y) + (x′ , y ′ )] = T [(x + x′ , y + y ′ )]


= (x + x′ , −(y + y ′ ))
= (x, −y) + (x′ , −y ′ )
= T ((x, y)) + T ((x′ , y ′ ))
T [α(x, y)] = T ((αx, αy))
= (αx, −(αy))
= α(x, −y)
= αT ((x, y))
Luego T es lineal.

Antiejemplo

Sea f : IR −→ IR; f (x) = cos x


cos (x + y) = cos x cos y − sin x sin y
Si fuese una aplicación lineal tendrı́amos que tener :
cos (x + y) = cosx + cosy
Capı́tulo 3. Aplicaciones Lineales 123

Luego coseno no es una aplicación lineal.


De la misma manera

g : IR −→ IR; g(x) = sin x

no es una aplicación lineal, pues

sin (x + y) = sin x cos y + sin y cos x

lo cual es distinto de sin x + sin y

Antiejemplo: Translación en el plano

Sea T : IR2 −→ IR2 ; T (x, y) = (x + a, y + b). Esta aplicación llamada


translación, no es lineal si a 6= 0 o b 6= 0, pues

T [(x, y) + (x′ , y ′ )] = T [(x + x′ , y + y ′ )]


= (x + x′ + a, y + y ′ + b))
= (x + a, y + b) + (x′ , y ′ )
= T (x, y) + (x′ , y ′ )
6= T (x, y) + T (x′ , y ′ )

También podrı́amos haber dicho:


La aplicación no es lineal. Contraejemplo:
Sea
T : IR2 −→ IR2 ; T (x, y) = (x + 1, y + 2)

Observemos que tenemos

T (1, 0) + T (1, 1) = (2, 2) + (2, 3) = (4, 5)

Por otra parte

T [(1, 0) + (1, 1)] = T (2, 1) = (3, 3) 6= (4, 5)


124 M.T. Alcalde - C. Burgueño Algebra Lineal

Ejemplo: Rotación en un ángulo α

La rotación en un ángulo α, Rα , está definida por


Rα : IR2 −→ IR2 ; Rα (x, y) = (x cos α − y sin α, x sin α + y cos α).

Demostremos que Rα es lineal.

(1) Rα ((x, y) + (x′ , y ′ )) = Rα (x + x′ , y + y ′ )


= ((x + x′ ) cos α − (y + y ′ ) sin α,
(x + x′ ) sin α + (y + y ′ ) cos α)
= (x cos α − y sin α, x sin α + y cos α)+
(x′ cos α − y ′ sin α, x′ sin α + y ′ cos α)
= Rα (x, y) + Rα (x′ , y ′ )

(2) Rα (λ(x, y)) = Rα (λx, λy)


= (λx cos α − λy sin α, λx sin α + λy cos α)
= λ(x cos α − y sin α, x sin α + y cos α)
= λRα (x, y)

Por (1) y (2), tenemos que Rα es una aplicación lineal.


Capı́tulo 3. Aplicaciones Lineales 125

Ejemplo

La aplicación f : K 2 −→ K 2 ; f (x, y) = (2x + y, 3y) es lineal.


Veamos la demostración:

(1) f ((x, y) + (x′ , y ′ )) = f ((x + x′ , y + y ′ ))


= (2(x + x′ ) + (y + y ′ ), 3(y + y ′ ))
= (2x + y, 3y) + (2x′ + y ′ , 3y ′ )
= f (x, y) + f (x′ , y ′ )

(2) f (α(x, y)) = f ((αx, αy))


= (2(αx) + (αy), 3(αy))
= α(2x + y, 3y)
= αf (x, y)

Por (1) y (2) f es una aplicación lineal.

Ejemplo

La aplicación f : K 3 −→ K 2 ; f (x, y, z) = (x + 2z, x − y) es una


aplicación lineal.
La prueba queda como ejercicio.

Ejemplo

Sea f : K2 [X] −→ K1 [X] ; f (a + bX + cX 2 ) = (a + 2c) + (b − a)X es


una aplicación lineal.
La demostración es igual a las anteriores, pero veámosla pues a muchos
alumnos les complica los polinomios... para que veas que es ¡ ¡ trivial!!
f (a+bX +cX 2 )+(a′ +b′ X +c′ X 2 )) = f ((a+a′ )+(b+b′ )X +(c+c′ )X 2 )
= ((a+a′ )+2(c+c′ ))+((b+b′ )−(a+a′ ))X
= a + a′ + 2c + 2c′ + (b + b′ − a − a′ )X
126 M.T. Alcalde - C. Burgueño Algebra Lineal

= (a+2c+(b−a)X)+(a′ +2c′ +(b′ −a′ )X)


= f (a + bX + cX 2 ) + f (a′ + b′ X + c′ X 2 )

f (α(a + bX + cX 2 )) = f (αa + αbX + αcX 2 )


= (αa) + 2(αc) + ((αb) − (αa))X
= αa + α2c + (αb − αa)X
= α(a + 2c + (b − a)X) = αf (a + bX + cX 2 )

Luego f es lineal.

Ejemplo
 
! a b
a b
Sea f : M2 (K) −→ M3×2 (K), definida por f  a b+c 
= 
c d
d 2a
es una aplicación lineal.

Nota

Sea f : V −→ W lineal. Entonces f (~0) = ~0.


En efecto f (~0) = f (0 · ~0) = 0 · f (~0) = ~0.

Nota

Es interesante observar que hemos visto aplicaciones lineales entre


espacios diferentes, pero con la exigencia que tengan sus escalares en
el mismo cuerpo.

3.2 Determinación de una aplicación lin-


eal
Tenemos resuelto el problema filosófico sobre la existencia de aplica-
ciones lineales. Existen aplicaciones lineales. Ahı́ tienes muchos ejem-
Capı́tulo 3. Aplicaciones Lineales 127

plos en la sección anterior. Pero aún tenemos un problema filosófico


pendiente.
Es el siguiente: Dados dos K-espacios vectoriales cualquiera... Mejor te
lo explicamos en un ejemplo. ¿ Bueno ? Es mejor comprender primero
en un ejemplo y luego uno mismo hacer la generalización o abstracción.
Tomemos K 2 en el Dominio y K 3 en el Codominio. Dados los vec-
tores (1, 1) y (1, 0) en el Dominio y los vectores (1, 3, 2) y (1, 0, 3) en
el Codominio, quisiéramos saber si existe una aplicación lineal que
cumpla : f (1, 1) = (1, 3, 2) y f (1, 0) = (1, 0, 3) y además saber si hay
otras aplicaciones lineales que cumplen estas mismas condiciones.
Tomemos un vector (x, y) ∈ K 2 cualquiera.
Tenemos (x, y) = y(1, 1) + (x − y)(1, 0). Puesto que estamos exigiendo
que f sea lineal, tenemos
f (x, y) = yf (1, 1) + (x − y)f (1, 0) = y(1, 3, 2) + (x − y)(1, 0, 3) =
= (x, 3y, 3x − y)
Luego f (x, y) = (x, 3y, 3x − y) cumple con las condiciones pedi-
das. Luego existe una tal aplicación. Ahora nos queda una pregunta:
¿Habrá otra?
Supongamos g : K 2 −→ K 3 lineal tal que g(1, 1) = (1, 3, 2) y g(1, 0) =
(1, 0, 3)
Hacemos el mismo procedimiento y tenemos que g(x, y) = (x, 3y, 3x −
y), la cual tiene la misma expresión analı́tica de f . Luego existe una
aplicación lineal que cumple las condiciones dadas y ésta es única.
Bueno, esta explicación es sólo un ejemplo. Espero que te sirva para
comprender el problema en forma general.
Es emocionante observar un problema tan importante y sin embargo
de demostración tan fácil. Es, digamos un relámpago de genialidad...
Aquı́ está:

Teorema 3.2.1 (Teorema fundamental del Algebra Lineal)


Sea B = {v1 , v2 , ..., vn } una base de un espacio vectorial V, de di-
mensión n sobre K y C = {w1 , w2 , ..., wn } una familia de n vectores
de un espacio vectorial W sobre K.
128 M.T. Alcalde - C. Burgueño Algebra Lineal

Entonces existe una aplicación lineal f y solamente una, f : V −→ W ,


tal que
f (v1 ) = w1 , f (v2 ) = w2 , ..., f (vn ) = wn

Demostración

Comencemos por ver la existencia de una tal aplicación. Para esto, te


mostraré una aplicación lineal que cumple las condiciones, luego existe
una. ¿ De acuerdo?
Sea v ∈ V . Luego v = α1 v1 + α2 v2 + · · · + αn vn , ciertos αi ∈ K. Nótese
que los αi son únicos.
Ahora, al vector v le hacemos corresponder un vector w, definido por,

w = α1 w1 + α2 w2 + · · · + αn wn

Tenemos que Dom(f ) = V , Im(f ) ≤ W


Demostremos que f es lineal.

n
X n
X
1. Sea v = αi vi , v ′ = βi vi . Entonces
i=1 i=1
n
X n
X n
X
f (v + v ′ ) = f ( αi vi + βi vi ) = f ( (αi + βi )vi ) =
i=1 i=1 i=1
n n n
βi wi = f (v) + f (v ′ ).
X X X
= (αi + βi )wi = αi wi +
i=1 i=1 i=1

2. Sea α ∈ K. Tenemos
n
X n
X n
X n
X
f (αv) = f (α αi vi ) = f ( (ααi )vi ) = ααi wi = α αi wi =
i=1 i=1 i=1 i=1

= αf (v).

Por (1) y (2) f es lineal.


Veamos ahora el problema de la unicidad de f .
Capı́tulo 3. Aplicaciones Lineales 129

Sea g : V −→ W lineal tal que

g(v1 ) = w1 , g(v2 ) = w2 , · · · , g(vn ) = wn

Sea v = α1 v1 + α2 v2 + · · · + αn vn un vector cualquiera de V. Entonces

g(v) = g(α1 v1 + α2 v2 + · · · + αn vn )
= α1 g(v1 ) + α2 g(v2 ) + · · · + αn g(vn )
= α1 w1 + α2 w2 + · · · + αn wn
= α1 f (v1 ) + α2 f (v2 ) + · · · + αn f (vn )
= f (α1 v1 + α2 v2 + · · · + αn vn )
= f (v)

Luego f (v) = g(v), ∀v ∈ V . De donde se concluye f = g.

Comentario

Este Teorema nos dice que una aplicación lineal está totalmente de-
terminada cuando conocemos su comportamiento en los elementos de
una base y esta información se extiende por linealidad a todos los vec-
tores del Dominio de la aplicación lineal. Es decir, si uno conoce el
comportamiento de una aplicación lineal en una base, entonces se da
por conocida la aplicación. Uno dice : ”Está bien, sé de qué aplicación
se trata”.

Observación

Geométricamente podemos observar que la rotación en un ángulo α,


en el plano, es una aplicación lineal.
Es lo mismo sumar dos vectores y luego rotarlos, que rotarlos y luego
sumarlos. Por otra parte, es lo mismo, ponderar un vector y luego
rotarlo, que rotarlo y luego ponderarlo.
Bueno, el problema ahora es obtener una expresión analı́tica de esta
aplicación.
130 M.T. Alcalde - C. Burgueño Algebra Lineal

Sea rα : IR2 −→ IR2 tal aplicación. Por la definición de seno y


coseno, fácilmente vemos que rα (1, 0) = (cosα, senα); rα (0, 1) =
(−senα, cosα).
Sea (x, y) un vector cualquiera de IR2 . Tenemos (x, y) = x(1, 0)+y(0, 1)
y aplicando rα , tenemos
rα (x, y) = xrα (1, 0) + yrα (0, 1) = x(cosα, senα) + y(−senα, cosα) =
= (xcosα − ysenα, xsenα + ycosα)
Es decir, basta conocer el comportamiento de rα en una base de IR2 ,
para saber su comportamiento en todo el plano.

Ejercicio

Queremos saber si habrá una aplicación lineal f : K 2 −→ K 3 tal que


f (1, 1) = (1, 5, 1), f (1, 2) = (1, 0, 1), f (3, 4) = (3, 10, 7)

Solución

Bueno, {(1, 1), (1, 2)} forman una base de K 2 . Luego el vector (3, 4)
lo podemos escribir como combinación lineal de esta base y nótese de
manera única. A saber:
(3, 4) = 2(1, 1) + 1(1, 2)
Si f fuese lineal, tendrı́amos:
f (3, 4) = 2f (1, 1) + 1f (1, 2) = 2(1, 5, 1) + 1(1, 0, 1) = (3, 10, 3) que es
distinto a (3, 10, 7)
Luego no existe una aplicación lineal que cumpla tales condiciones.

Ejercicio

¿ Existirá una aplicación lineal f : K 3 −→ K 3 , tal que:

f (1, 1, 1) = (1, 0, 0), f (1, 1, 0) = (2, 1, 1)?


Capı́tulo 3. Aplicaciones Lineales 131

¿ Habrá una, o más de una ?

Solución

Sabemos que existe una y sólo una aplicación lineal si está definida
en una base, pero {(1, 1, 1), (1, 1, 0)} no forma una base de K 3 .
Entonces cada vez que definamos f en una base, por ejemplo en
{(1, 1, 1), (1, 1, 0), (1, 0, 0)}, tendremos una aplicación lineal.
La respuesta es : Hay infinitas aplicaciones lineales que cumplen las
condiciones dadas.
Ejemplos:
Ej 1: f (1, 1, 1) = (1, 0, 0), f (1, 1, 0) = (2, 1, 1), f (1, 0, 0) = (2, 1, 3)
Ej 2: f (1, 1, 1) = (1, 0, 0), f (1, 1, 0) = (2, 1, 1), f (1, 0, 0) = (4, 2, 6)
Ej 3: f (1, 1, 1) = (1, 0, 0), f (1, 1, 0) = (2, 1, 1), f (1, 0, 0) = (2, 1, 1)
Para cada a, b, c ∈ K, se tiene f (1, 1, 1) = (1, 0, 0), f (1, 1, 0) = (2, 1, 1),
f (1, 0, 0) = (a, b, c), una aplicación que cumple las exigencias pedidas.
Luego hay infinitas aplicaciones lineales que cumplen las propiedades
exigidas.
Bueno, ahora que hemos resuelto el problema filosófico sobre la exis-
tencia de una aplicación lineal, comencemos por ver sus propiedades.

3.3 Imagen y Núcleo de una aplicación


lineal
Dada una aplicación lineal queremos saber la estructura de la imagen
de un sub-espacio vectorial.

Definición 3.3.1 Si f : V −→ W es una aplicación lineal y S un sub-


espacio de V , entonces se define la imagen de S bajo f por: f (S) =
{f (s); s ∈ S}.
132 M.T. Alcalde - C. Burgueño Algebra Lineal

Proposición 3.3.1 Sean V y W dos K-espacios vectoriales. Sea


f : V −→ W una aplicación lineal y sea S un sub-espacio de V , en-
tonces f (S) es un sub-espacio de W .

Demostración

1. f (S) 6= ∅ pues como ~0 ∈ S entonces f (~0) ∈ f (S).


2. Por demostrar que f (S) es cerrado para la suma.
Sean t, t′ ∈ f (S), luego t y t′ tienen la forma: t = f (s), t′ = f (s′ ),
ciertos s, s′ ∈ S.
t + t′ = f (s) + f (s′ ) = f (s + s′ ) = f (s′′ ), s′′ = s + s′ , el cual es
un vector de S. Luego t + t′ ∈ f (S).
3. Demostremos que α · f (s) ∈ f (S), ∀α ∈ K, ∀s ∈ S.
α · f (s) = f (αs) = f (s′ ) ∈ f (S), s′ = αs ∈ S.

Por (1), (2) y (3) f (S) es un sub-espacio de W .

Corolario 3.3.2 Sean V y W dos K-espacios vectoriales. Sea f : V −→ W


una aplicación lineal. Entonces Im(f ) es un sub-espacio vectorial de
W.

Demostración

Basta tomar S = V en la proposición anterior ya que f (V ) = Im(f )

Observación

Consideremos

f : K 2 −→ K 3 ; f (x, y) = (x + y, 3x, 2y)

Tenemos que

Im(f ) = {(x + y, 3x, 2y); x, y ∈ K} ≤ K 3


Capı́tulo 3. Aplicaciones Lineales 133

Luego
Im(f ) =< (1, 3, 0), (1, 0, 2) >
Una base de Im(f ) es {(1, 3, 0), (1, 0, 2)}, luego

dimK Im(f ) = 2 6= 3 = dimK Codom(f )

Podemos concluir que f no es epiyectiva, pues Im(f ) está estricta-


mente contenida en K 3 . Luego, para estudiar si una aplicación lineal
es epiyectiva, basta saber cual es la dimensión de Im(f ). Tenemos la
proposición siguiente:

Teorema 3.3.3 (Primera caracterización de las aplicaciones


lineales epiyectivas)
Sean V y W dos K-espacios vectoriales. Sea f : V −→ W lineal.
Entonces
f es epiyectiva si y sólo si dimK Im(f ) = dimK W

Demostración

Por una parte, si f es epiyectiva entonces se tiene que Im(f ) = W ,


luego dimK Im(f ) = dimK W .
Recı́procamente: Tenemos que Im(f ) ⊂ W . Ahora si dimK Im(f ) =
dimK W , entonces Im(f ) = W , luego f es epiyectiva.

Nota

Sea f : V −→ W lineal. Entonces f (~0) = ~0. En efecto se tiene:


f (~0) = f (0 · ~0) = 0 · f (~0) = ~0

Observación

Dada una aplicación lineal, queremos estudiar el conjunto formado por


todos los vectores que tienen el ~0 por imagen.
134 M.T. Alcalde - C. Burgueño Algebra Lineal

Como vimos anteriormente, f (~0) = ~0, luego hay al menos un vector


que tiene por imagen al ~0. Tiene entonces sentido, preguntarse por el
conjunto formado por todos los vectores que tienen al ~0 por imagen.
Observemos un caso particular, para ver si esto nos inspira a encontrar
la estructura de este conjunto.

Observación

Sea
f : K 2 −→ K 3 ; f (x, y) = (x, 3x, 5x)

N = {(x, y); f (x, y) = (0, 0, 0)}


= {(x, y); (x, 3x, 5x) = (0, 0, 0)}
= {(0, y); y ∈ K}

Nosotros sabemos que este conjunto N es un sub-espacio vectorial de


K 2 ¿ Ocurrirá esto siempre ?

Observación

Sea
f : K 3 −→ K 3 ; f (x, y, z) = (x + y, x, 3z)

N = {(x, y, z); f (x, y, z) = (0, 0, 0)}


= {(x, y, z); (x + y, x, 3z) = (0, 0, 0)}
= {(0, 0, 0)}

el cual es también un sub-espacio vectorial de K 3 = Dom(f ).


Nuestra intuición estaba en lo cierto. He aquı́ la proposición que es-
perábamos:

Proposición 3.3.4 Sean V y W dos espacios vectoriales sobre K.


Sea f : V −→ W lineal, entonces N (f ) = {v ∈ V ; f (v) = ~0} es un
sub-espacio de V.
Capı́tulo 3. Aplicaciones Lineales 135

Demostración

1. N (f ) 6= ∅ pues ~0 ∈ N (f ).

2. Sean v, w ∈ N (f ), entonces f (v) = f (w) = ~0, luego f (v + w) =


f (v) + f (w) = ~0, es decir v + w ∈ N (f )

3. Sea v ∈ N (f ). Tenemos f (αv) = αf (v) = α~0 = ~0. Luego αv ∈


N (f )

Por (1), (2) y (3) N (f ) es un sub-espacio de V.

Observación

Sabemos que N (f ) 6= ∅ pues ~0 ∈ N (f ), es decir N (f ) nunca es vacı́o.


Además hemos visto que N (f ) tiene una estructura interesante, es un
conjunto importante. ¿ Qué hace entonces un matemático? Obvio, le
pone nombre a este conjunto. Tenemos entonces:

Definición 3.3.2 Sea f : V −→ W lineal. El conjunto formado por


todos los vectores de V que tienen por imagen el vector ~0 en W , es
llamado el núcleo de f, denotado N (f ) o Ker(f ).

N (f ) = {v ∈ V ; f (v) = ~0}

Comentario

La abreviación Ker(f ) viene del alemán, Kernel, que significa cuesco


o hueso de una fruta. Esto porque el Núcleo de una aplicación lineal
está como al centro del Dominio de f .

Ejercicio

Sea f : K 4 −→ K 2 ; f (x, y, z, u) = (x + y + z, 2y − 3z). Queremos


encontrar N (f ).
136 M.T. Alcalde - C. Burgueño Algebra Lineal

Solución

Recordemos que describir un espacio vectorial se reduce a exhibir una


base de él. N (f ) = {(x, y, z, u) ∈ K 4 ; (x + y + z, 2y − 3z) = (0, 0)}
Escribamos este sistema en su forma más simple:
) )
x+y+z = 0 z+y+x = 0
ssi
2y − 3z = 0 3z − 2y = 0
! !
1 1 1 0 L21 (−3) 1 1 1 0
3 −2 0 0 −→ 0 −5 −3 0
! !
L2 ( −1
5
) 1 1 1 0 L12 (−1) 1 0 2
5
0
−→ 0 1 53 0 −→ 0 1 3
5
0

Es decir, el sistema inicial es equivalente al sistema siguiente:


) )
z + 25 x = 0 z = −2
5
x
Luego
y + 53 x = 0 y = −3
5
x

−3 −2 −3 −2
(x, x, x, u) = x(1, , , 0) + u(0, 0, 0, 1)
5 5 5 5
La base escalonada de N (f ) es {(1, −3
5
, −2
5
, 0), (0, 0, 0, 1)}. Se tiene en-
tonces que dimK N (f ) = 2
Utilizando este resultado observamos: como dimK N (f ) 6= 0, hay más
de un vector que tiene por imagen al ~0, luego f no es inyectiva.
¿ Qué ocurre si N (f ) = {~0} ? ¿ Es f inyectiva ?
La respuesta a esta pregunta la tenemos en el siguiente teorema.

Teorema 3.3.5 (Primera caracterización de las aplicaciones


lineales inyectivas)
Sea f : V −→ W lineal. Entonces

f es inyectiva si y sólo si N (f ) = {~0}


Capı́tulo 3. Aplicaciones Lineales 137

Demostración

Sea f inyectiva, entonces demostremos que N (f ) = {~0}


Sea v ∈ N (f ), luego f (v) = ~0. Además f (~0) = ~0. Puesto que f es
inyectiva v = ~0. Luego N (f ) = {~0}.
Ahora supongamos N (f ) = {~0} y demostremos que f es inyectiva.
Sea f (u) = f (v), luego f (u) − f (v) = ~0, es decir, f (u − v) = ~0. Puesto
que N (f ) = {~0}, tenemos que u − v = ~0, luego u = v con lo que
concluı́mos que f es inyectiva.

Ejercicio

Estudiemos si es inyectiva la aplicación lineal

f : K 2 −→ K 3 ; f (x, y) = (x + y, 3x − y, 2y)

Solución

Debemos conocer el núcleo de f .

N (f ) = {(x, y) ∈ K 2 ; f (x, y) = (0, 0, 0)}

Tenemos: (x + y, 3x − y, 2y) = (0, 0, 0). Luego x = y = 0, de donde


N (f ) = {(0, 0)}. Ası́ f es inyectiva.

Nota

El Teorema anterior nos dice que para estudiar si una aplicación lineal
es inyectiva, no es necesario usar su definición, sino estudiar su núcleo
y entonces este es {~0} si y sólo si f es inyectiva.
(Es decir, el ~0 es 1-1, si y sólo si todo vector es 1-1)
138 M.T. Alcalde - C. Burgueño Algebra Lineal

Nota

Ahora que conocemos el Núcleo y la Imagen de una aplicación lineal y


algunas propiedades de ellos, queremos saber si habrá alguna relación
entre sus dimensiones y tal vez con algún otro espacio, por ejemplo su
Dominio o su Codominio.
Dejémosnos inspirar por algunos ejemplos.

Observación

Sea f : K −→ K 5 f (x) = (3x, 2x, x, 5x, 7x). Tenemos que N (f ) =


{~0}, luego dimK N (f ) = 0. Es decir no tiene base.
Veamos su Imagen

(3x, 2x, x, 5x, 7x) = x(3, 2, 1, 5, 7)

Luego una base de Im(f) es {(3, 2, 1, 5, 7)}. Luego dimK Im(f ) = 1.


Observamos que dimK Dom(f ) = dimK K = 1 y 1 = 0 + 1. El 1 de la
izquierda corresponde a la dimK Dom(f ), es decir lo que tenemos a la
partida.

dimK Dom(f ) = dimK N (f ) + dimK Im(f )

Observación

Sea f : K 5 −→ K; f (x, y, z, t, u) = x + y + z.
Conozcamos el Núcleo de f : Tenemos x + y + z = 0 =⇒ y = −x − z.
Entonces

(x, y, z, t, u) = (x, −x − z, z, t, u)
= x(1, −1, 0, 0, 0) + z(0, −1, 1, 0, 0)+
t(0, 0, 0, 1, 0) + u(0, 0, 0, 0, 1)
Capı́tulo 3. Aplicaciones Lineales 139

Luego una base de N (f ) es

{(1, −1, 0, 0, 0), (0, −1, 1, 0, 0), (0, 0, 0, 1, 0), (0, 0, 0, 0, 1)}

puesto que estos vectores son l.i. Luego dimK N (f ) = 4


Por otra parte Im(f ) = K. Luego dimK Im(f ) = 1. Si quieres, busque-
mos una base de Im(f ).
Tenemos: x + y + z = x · 1 + y · 1 + z · 1.
Luego Im(f ) =< 1, 1, 1 >=< 1 >. Luego una base de Im(f ) = {1}.
Además observamos que dimK Dom(f ) = 5. Tenemos 5 = 4 + 1. Es
decir:

dimK Dom(f ) = dimK N (f ) + dimK Im(f )

Ocurre que esta hipótesis es verdadera. Tenemos entonces el siguiente


Teorema:

Teorema 3.3.6 Sea f : V −→ W lineal. Entonces


dimK Dom(f ) = dimK N (f ) + dimK Im(f )

Demostración

Sea B = {u1 , u2 , ..., up } una base de N (f ) ≤ V .


Sea C = {z1 , z2 , ..., zq } una base de Im(f ) ≤ W .
Tenemos que dimK N (f ) = p y dimK Im(f ) = q.
Recordemos que Im(f ) = {f (v); v ∈ V }

z1 ∈ Im(f ) =⇒ z1 = f (up+1 ), cierto up+1 ∈ V


z2 ∈ Im(f ) =⇒ z2 = f (up+2 ), cierto up+2 ∈ V
........... ... .............................
zq ∈ Im(f ) =⇒ zq = f (up+q ), cierto up+q ∈ V

Sea B ′ = {up+1 , up+2 , ..., up+q }.


140 M.T. Alcalde - C. Burgueño Algebra Lineal

Afirmamos que B∪B ′ = {u1 , u2 , ..., up , up+1 , up+2 , ..., up+q } es una base
de V .
Luego debemos demostrar que B ∪ B ′ genera V y es un conjunto l.i.

1. Demostremos que B ∪ B ′ genera V .


Sea v ∈ V , luego f (v) ∈ Im(f ) entonces

f (v) = αp+1 z1 + αp+2 z2 + · · · + αp+q zq


= αp+1 f (up+1 ) + αp+2 f (up+2 ) + · · · + αp+q f (up+q )
= f (αp+1 up+1 + αp+2 up+2 + · · · + αp+q up+q )
= f (v ′ )

con v ′ = αp+1 up+1 + αp+2 up+2 + · · · + αp+q up+q


Luego f (v) = f (v ′ ), es decir, f (v − v ′ ) = ~0, luego v − v ′ ∈ N (f )
y se puede escribir como una combinación lineal de la base de
N (f ). Entonces v − v ′ = α1 u1 + α2 u2 + · · · + αp up , luego

v = α1 u1 +α2 u2 +· · ·+αp up +αp+1 up+1 +αp+2 up+2 +· · ·+αp+q up+q

Ası́ hemos demostrado que B ∪ B ′ genera V .


2. Demostremos que B ∪ B ′ es l.i.
Sea α1 u1 + · · · + αp up + αp+1 up+1 + · · · + αp+q up+q = ~0 (∗)
Luego

f (α1 u1 + · · · + αp up + αp+1 up+1 + · · · + αp+q up+q ) = ~0

Entonces

α1 f (u1 ) + · · · + αp f (up ) + αp+1 f (up+1 ) + · · · + αp+q f (up+q ) = ~0

Como f (u1 ) = f (u2 ) = · · · = f (up ) = 0, tenemos

αp+1 f (up+1 ) + · · · + αp+q f (up+q ) = ~0.

Puesto que C es una base de Im(f ), C es l.i., luego

αp+1 = αp+2 = · · · = αp+q = 0 (3.1)


Capı́tulo 3. Aplicaciones Lineales 141

Reemplazando este resultado en (∗), tenemos

α1 u1 + α2 u2 + · · · + αp up = ~0

Puesto que B es una base de N (f ), B es l.i., luego

α1 = α2 = · · · = αp = 0 (3.2)

Por (3.1) y (3.2), tenemos que B ∪ B ′ es l.i.

Por (1) y (2), B ∪ B ′ es una base de V.


Luego dimk V = p + q = dimk N (f ) + dimk Im(f )
Es una demostración muy sencilla, que esperamos hayas podido seguir.
Si no es ası́, inténtalo nuevamente. ¡Verás que puedes entenderla !

3.4 Morfismos y dimensiones


En el curso anterior uno comprendió que no puede haber una función
inyectiva cuando el Dominio de la función tiene más elementos que el
Codominio. Además, uno comprendió que no puede haber una función
epiyectiva cuando el Dominio de la función tiene menos elementos que
el Codominio.
Entonces uno se inspira en esta situación y se pregunta ¿ Qué ocurrirá
con las aplicaciones lineales inyectivas o epiyectivas?
¡Los espacios vectoriales pueden tener una cantidad infinita de vec-
tores!
Las preguntas interesantes son las siguientes:
¿Podrá haber una aplicación lineal inyectiva entre dos espacios cuando
la dimensión del Dominio es mayor que la dimensión del Codominio?
¿Y el recı́proco?
¿Podrá haber una aplicación lineal epiyectiva entre dos espacios vec-
toriales cuando la dimensión del Dominio es menor que la dimensión
del Codominio? ¿Y el recı́proco?
142 M.T. Alcalde - C. Burgueño Algebra Lineal

¿Qué condiciones deben cumplir dos espacios vectoriales de dimensión


finita, para que pueda haber una aplicación biyectiva entre ellos?
En fin todas estas preguntas analizaremos a continuación. ¿Comen-
zamos?
Antes de hablar de dimensiones comencemos por la proposición sigu-
iente:

Proposición 3.4.1 Sea f : V −→ W lineal

1. Sea S ≤ V y A = {v1 , v2 , ..., vr } un conjunto de generadores de


S. Entonces
f (A) = {f (v1 ), f (v2 ), ..., f (vr )} es un conjunto de generadores
de f (S).

2. Si B = {v1 , v2 , ..., vt } es l.i. y f inyectiva entonces


f (B) = {f (v1 ), f (v2 ), ..., f (vt )} es l.i.

Demostración (1)

Sea S =< v1 , ..., vr >. Sea w ∈ f (S) luego w = f (s), cierto s ∈ S.


Pero s ∈ S, significa que s = α1 v1 + · · · + αr vr , ciertos α1 , · · · , αr ∈ K.
Luego w = f (s) = f (α1 v1 + · · · + αr vr ) = α1 f (v1 ) + · · · + αr f (vr ).
Esto nos dice que w se puede escribir como una combinación lineal de
f (v1 ), · · · , f (vr ), luego f (S) =< f (v1 ), · · · , f (vr ) >.

Demostración(2)

Sea α1 f (v1 ) + · · · + αt f (vt ) = ~0, luego f (α1 v1 + · · · + αt vt ) = ~0.


Puesto que f es inyectiva y que α1 v1 + · · · + αt vt ∈ N (f ). Entonces
α1 v1 + · · · + αt vt = ~0. Luego α1 = · · · = αt = 0 pues {v1 , v2 , ..., vt } es
l.i.
La segunda parte de la proposición anterior nos dice, en palabras, que
toda aplicación lineal inyectiva, lleva un conjunto l.i., en otro conjunto
l.i.
Capı́tulo 3. Aplicaciones Lineales 143

Teorema 3.4.2 (Segunda caracterización de las aplicaciones


lineales inyectivas y epiyectivas)
Sea f : V −→ W lineal. Sea {v1 , v2 , ..., vn } una base de V . Entonces

1. f inyectiva ssi {f (v1 ), f (v2 ), ..., f (vn )} es l.i.

2. f epiyectiva ssi {f (v1 ), f (v2 ), ..., f (vn )} genera W

3. f biyectiva ssi {f (v1 ), f (v2 ), ..., f (vn )} es una base de W

Demostración (1.)

Sea {f (v1 ), ..., f (vn )} l.i. Demostremos que f es inyectiva, es decir, que
N (f ) = {~0}. Sea v ∈ N (f ), luego f (v) = ~0. Si v ∈ N (f ), en particular
v ∈ V , luego v = α1 v1 + · · · + αn vn , ciertos α1 , ..., αn ∈ K y f (v) = ~0.
Luego ~0 = f (v) = f (α1 v1 + · · · + αn vn ) = α1 f (v1 ) + · · · + αn f (vn ).
Luego α1 = · · · = αn = 0, luego v = ~0.

Demostración (2.)

Sea f epiyectiva, demostremos que {f (v1 ), ..., f (vn )} genera W . Te-


nemos que para todo w ∈ W , existe v ∈ V tal que w = f (v). Pero
v = α1 v1 + · · · + αn vn , ciertos α1 , ...αn ∈ K. Luego w = f (v) =
f (α1 v1 + · · · + αn vn ) = α1 f (v1 ) + · · · + αn f (vn ). Luego w es combi-
nación lineal de los vectores {f (v1 ), ..., f (vn )}, luego {f (v1 ), ..., f (vn )}
genera W .
Ahora, recı́procamente, sea W =< f (v1 ), ..., f (vn ) >. Sea w ∈ W ,
luego w = α1 f (v1 ) + · · · + αn f (vn ) = f (α1 v1 + · · · + αn vn ) = f (v), con
v = α1 v1 + · · · + αn vn . Luego f es epiyectiva.

Nota

Esta proposición nos dice que si queremos averiguar si una aplicación


lineal es inyectiva, basta estudiar si lleva una base en un conjunto l.i.
144 M.T. Alcalde - C. Burgueño Algebra Lineal

Nótese que una aplicación lineal puede llevar un conjunto l.i. en otro l.i.
y no ser inyectiva. Por ejemplo consideremos f : K 4 −→ K 4 lineal tal
que f (1, 0, 0, 0) = (1, 1, 1, 1), f (0, 1, 0, 0) = (1, 1, 1, 2), f (0, 0, 1, 0) =
(1, 2, 3, 4), f (0, 0, 0, 1) = (1, 2, 3, 4).
Esta aplicación lleva el conjunto l.i. {(1, 0, 0, 0), (0, 1, 0, 0)} en el con-
junto l.i. {(1, 1, 1, 1), (1, 1, 1, 2)} y no es inyectiva.

Nota

Esta proposición también nos dice que una aplicación lineal epiyectiva
se reconoce por llevar una base del Dominio de la aplicación en un
conjunto de generadores del Codominio de ella.

Nota

Veamos algunas definiciones antes de seguir. Y Además veremso por


qué llevan tales nombres.
Recuerda algo trivial, pero tú que eres joven a veces olvidas y es que
todo lo que te enseñamos en la Universidad ha sido creado por per-
sonas, al igual que ti, sólo que vinieron antes al mundo y todas estas
definiciones las dieron por ”algo”. ¿Estamos de acuerdo? Bueno aquı́
las tienes:

Definiciones

Para decir que f es una aplicación lineal, podemos decir simple-


mente que f es un morfismo. Esta palabra viene de la palabra griega
”morfo” (µρϕη) que significa forma.
Un endomorfismo es un morfismo que va de un espacio vectorial
dentro del mismo espacio, es decir f : V −→ V es un endomorfismo.
”Endo” (ǫ̈νδoν) es una palabra griega que significa ”dentro”.
Un monomorfismo es un morfismo inyectivo. Mono es un prefijo
griego (µóνoζ) que significa único o uno sólo (es decir que a vectores
distintos del dominio le corresponden imágenes distintas).
Capı́tulo 3. Aplicaciones Lineales 145

Un epimorfismo es un morfismo epiyectivo. Epi es una preposición


griega (ǫ́πί) que significa sobre.
Un isomorfismo es un morfismo biyectivo. Iso es una palabra griega
(ϊσoζ) que significa igual.
Veremos que si f : V −→ W es un isomorfismo, entonces V y W
tienen ”igual forma” (queda pendiente una explicación más completa,
ver más adelante en esta misma sección ).
Un endomorfismo biyectivo es llamado un automorfismo, es decir,
f : V −→ V isomorfismo. Auto palabra griega (αύτ óζ) que significa
mismo, propio. Es decir que es un isomorfismo dentro del mismo es-
pacio o propio al espacio.

Proposición 3.4.3 Sea f : V −→ W un monomorfismo. Entonces

dimK V ≤ dimK W

Demostración

Sea A = {v1 , v2 , ..., vn } una base de n elementos de V . Luego f (A) =


{f (v1 ), f (v2 ), ..., f (vn )} es un conjunto l.i. (segunda caracterización de
una aplicación lineal inyectiva).
Tenemos n vectores l.i. en W . Esto nos dice que dimK W ≥ n.

Proposición 3.4.4 Sea f : V −→ W un epimorfismo. Entonces

dimK V ≥ dimK W

Demostración

Sea B = {v1 , v2 , ..., vn } una base de V . Luego

f (B) = {f (v1 ), f (v2 ), ..., f (vn )}

genera W . Luego dimK W ≤ n y n = dimK V .


146 M.T. Alcalde - C. Burgueño Algebra Lineal

Proposición 3.4.5 (Todo ó nada) Sea f : V −→ W lineal tal que


dimK V = dimK W . Entonces son equivalentes:

1. f es inyectiva

2. f es epiyectiva

Demostración

Sea {z1 , z2 , ..., zq } una base de Im(f ).


Tenemos z1 = f (u1 ), z2 = f (u2 ), ..., zq = f (uq ), ciertos ui ∈ V .
Sea B = {u1 , u2 , ..., uq }.
Demostremos que (1) =⇒ (2)
Sea N (f ) = {~0}. Veamos que B es una base de V .
(a) Afirmamos: B genera V . En efecto
Sea v ∈ V , entonces f (v) ∈ Im(f ), luego

f (v) = α1 z1 + α2 z2 + · · · + αq zq , ciertos α1 , α2 , ...αq ∈ K

Tenemos
f (v) = α1 f (u1 ) + α2 f (u2 ) + · · · + αq f (uq )
= f (α1 u1 + α2 u2 + · · · + αq uq )
= f (v ′ )

con v ′ = α1 u1 + α2 u2 + · · · + αq uq .
Como f (v) = f (v ′ ), se tiene f (v−v ′ ) = ~0, es decir v−v ′ ∈ N (f ) = {~0},
luego v − v ′ = ~0, es decir

v = v ′ = α1 u1 + α2 u2 + · · · + αq uq

(b) Afirmamos: B es l.i. En efecto, sea

α1 u1 + α2 u2 + · · · + αq uq = ~0,
Capı́tulo 3. Aplicaciones Lineales 147

luego

f (α1 u1 + · · · + αq uq ) = α1 f (u1 ) + · · · + αq f (uq ) = ~0

luego α1 = α2 = · · · = αq = 0, pues {f (u1 ), f (u2 ), ..., f (uq )} son l.i.


Luego B es l.i.
Por (a) y (b) tenemos que B es una base de V .
Luego dimK V = q = dimK Im(f )
Además dimK V = dimK W
Se obtiene que dimK W = dimK Im(f ), es decir que f es epiyectiva.
Demostremos que (2) =⇒ (1)
Sea f epiyectiva, luego dimK Im(f ) = dimK W = dimK V
Primero veamos que B es l.i.
Sea α1 u1 + α2 u2 + · · · + αq uq = ~0. Luego
f (α1 u1 + α2 u2 + · · · + αq uq ) = α1 f (u1 ) + α2 f (u2 ) + · · · + αq f (uq ) = ~0.
Luego α1 = α2 = · · · = αq = 0
Puesto que la dimensión de V es q, entonces q vectores l.i. forman una
base de V . Luego B es una base de V .
Sea u ∈ N (f ), entonces u = β1 u1 + β2 u2 + · · · + βq uq y f (u) = ~0,
entonces

~0 = f (u) = f (β1 u1 + · · · + βq uq ) = β1 f (u1 ) + · · · + βq f (uq )

Luego β1 = β2 = · · · = βq = 0, es decir u = ~0. Entonces N (f ) = {~0}


y f es inyectiva.

Nota

Esta proposición nos dice que si la dimensión del Dominio de una


aplicación lineal, es igual a la dimensión del Codominio, entonces, o
es inyectiva y epiyectiva a la vez, o no es ninguna de las dos, es por
esto que la titulamos de esta manera ”Todo o nada”, o excluyente.
148 M.T. Alcalde - C. Burgueño Algebra Lineal

Proposición 3.4.6 Sea f : V −→ W y g : W −→ U morfismos tal


que Im(f ) ⊂ Dom(g). Entonces:

1. g ◦ f es lineal

2. Si f y g son monomorfismos, entonces g◦f es un monomorfismo

3. Si f y g son epimorfismos, entonces g ◦ f es un epimorfismo

Demostración 1

(g ◦ f )(v + w) = g(f (v + w)) = g(f (v) + f (w)) = g(f (v)) + g(f (w)) =
(g ◦ f )(v) + (g ◦ f )(w)
(g ◦ f )(αv) = g(f (αv)) = g(αf (v)) = αg(f (v)) = α(g ◦ f )(v)
Luego (g ◦ f ) es lineal.

Demostración 2

Sea (g ◦ f )(v) = ~0, luego g(f (v)) = ~0. Entonces f (v) = ~0 pues N (g) =
{~0}. Además v = ~0 ya que v ∈ N (f ). Luego N (g ◦ f ) = {~0}, es decir
g ◦ f es inyectiva, dicho más elegantemente g ◦ f es un monomorfismo.

Demostración 3

Sea u ∈ U , luego existe w ∈ W tal que g(w) = u. Pero f también


es epiyectiva, luego existe v ∈ V tal que f (v) = w. Tenemos que:
u = g(w) = g(f (v)) = (g ◦ f )(v). Entonces g ◦ f es un epimorfismo.
De esta proposición se deduce trivialmente el resultado siguiente:

Corolario 3.4.7 Sean f : V −→ W y g : W −→ U isomorfismos.


Entonces g ◦ f : V −→ U es un isomorfismo.

Con respecto a los isomorfismos tenemos la siguiente definición.


Capı́tulo 3. Aplicaciones Lineales 149

Definición 3.4.1 Diremos que V y W , dos K-espacios, son isomor-


fos si nosotros podemos establecer un isomorfismo entre ellos, es
decir, si podemos construir un isomorfismo f : V −→ W . Lo deno-
taremos V ∼ = W.

Ejemplos de isomorfismos

Ejemplo

IR2 ∼
=C

Sabemos que un morfismo es biyectivo si y sólo si lleva una base en


otra base.
Consideremos la aplicación
f : IR2 −→ C lineal, tal que f (1, 0) = 1, f (0, 1) = i. Esta aplicación es
un isomorfismo de IR2 en C. Su expresión analı́tica es f (a, b) = a + bi.

Ejemplo

K2 [X] ∼
= K3

Construyamos la aplicación lineal f : K2 [X] −→ K 3 , tal que f (1) =


(1, 0, 0), f (X) = (0, 1, 0), f (X 2 ) = (0, 0, 1). Este morfismo lleva
la base {1, X, X 2 } de K2 [X] en la base canónica de K 3 , es decir,
{(1, 0, 0), (0, 1, 0), (0, 0, 1)}.
Se tiene entonces que f es un isomorfismo y de esto se concluye que
los espacios vectoriales son isomorfos.

Ejemplo

M2 (K) ∼
= K4
150 M.T. Alcalde - C. Burgueño Algebra Lineal

Basta con construir la aplicación lineal f : M2 (K) −→ K 4 definida


por (la más simple posible):
! !
1 0 0 1
f( ) = (1, 0, 0, 0); f( ) = (0, 1, 0, 0)
0 0 0 0
! !
0 0 0 0
f( ) = (0, 0, 1, 0); f( ) = (0, 0, 0, 1)
1 0 0 1
es evidente que es un isomorfismo, pues lleva una base en otra base.

Antiejemplo

No podemos construir un isomorfismo de K 2 en K 3 , pues toda base


de K 2 tiene dos elementos y toda base de K 3 tiene tres elementos. No
podemos llevar dos elementos en tres elementos de manera biunı́voca.

Teorema 3.4.8 (Isomorfismo Fundamental) Sea V un K-espacio


vectorial. Entonces dimK V = n si y sólo si V ∼
= K n.

Demostración

Comencemos por demostrar que si dimK V = n entonces V ∼


= K n.
Sea dimK V = n, entonces consideremos {v1 , v2 , ..., vn } una base de V .
Sea f : V −→ K n lineal tal que f (v1 ) = e1 , f (v2 ) = e2 , ..., f (vn ) = en
que es un isomorfismo.
Luego V ∼= K n.
Demostremos que si V ∼ = K n , entonces dimK V = n.
Sea V ∼
= K n , luego existe f : K n −→ V isomorfismo tal que

f (e1 ) = u1 , f (e2 ) = u2 , ..., f (en ) = un ,

con {u1 , u2 , ..., un }, una base de V . Luego dimK V = n.


Capı́tulo 3. Aplicaciones Lineales 151

Ejercicio

Establezcamos un isomorfismo entre

V = {(x, y, z, u); x + y + z = 0, x + 2u = 0} y algún K n

Solución

Primero observamos que z = −x − y y u = − 12 x. Luego

1 1
(x, y, z, u) = (x, y, −x − y, − x) = x(1, 0, −1, − ) + y(0, 1, −1, 0)
2 2

Entonces tenemos que una base de V es

1
B = {(1, 0, −1, − ), (0, 1, −1, 0)}
2

De donde dimK V = 2 y V ∼
= K 2.
Establezcamos el isomorfismo siguiente:

1
f : V −→ K 2 ; f (1, 0, −1, − ) = (1, 0), f (0, 1, −1, 0) = (0, 1)
2

La forma tı́pica de los elementos de V , es, (x, y, −x − y, − 12 x) y la


escritura de f es f (x, y, −x − y, − 21 x) = (x, y).

Nota

Este teorema nos dice que todos los espacios vectoriales de dimensión
finita están clasificados.
Todos los espacios vectoriales de una misma dimensión tienen las mis-
mas propiedades, sólo que tienen una escritura diferente.
152 M.T. Alcalde - C. Burgueño Algebra Lineal

3.5 Estructura de un conjunto de morfis-


mos
Sean U y V dos K-espacios vectoriales. El conjunto de todas las apli-
caciones lineales de U en V , será denotado por LK (U, V ) o cuando no
haya confusión, denotaremos simplemente L(U, V ). o bien Hom(U, V ).
Comencemos por estudiar la suma de dos morfismos.

Lema

Sean f, g ∈ LK (U, V ). Entonces la aplicación h : U −→ V definida


por:
h(u) = f (u) + g(u), ∀u ∈ U
es lineal.

Demostración

1. h(u + v) = f (u + v) + g(u + v) = f (u) + f (v) + g(u) + g(v) =


(f (u) + g(u)) + (f (v) + g(v)) = h(u) + h(v).

2. h(αu) = f (αu) + g(αu) = αf (u) + αg(u) = α(f (u) + g(u)) =


αh(u).

Por (1) y (2) tenemos que h es lineal.


Es interesante que esta aplicación h, obtenida de dos aplicaciones li-
neales es lineal. Este lema nos induce entonces a la siguiente definición

Definición 3.5.1 Dadas f, g ∈ LK (U, V ), se define una nueva apli-


cación en LK (U, V ), denotada por f + g y definida por

(f + g)(u) = f (u) + g(u), ∀u ∈ U

llamada la suma de f y g.
Capı́tulo 3. Aplicaciones Lineales 153

Entonces el siguiente problema es estudiar qué estructura algebraica


tiene LK (U, V ) con la suma.
¡Es el tı́pico pensamiento algebrista!

Teorema 3.5.1 (LK (U, V ), +) es un grupo abeliano.

Demostración

1. La suma es asociativa.
((f + g) + h)(u) = (f + g)(u) + h(u) = f (u) + g(u)) + h(u) =
= f (u) + (g(u) + h(u)) = f (u) + (g + h)(u) = (f + (g + h))(u).

2. LK (U, V ) posee elemento neutro, a saber, la aplicación nula O :


U −→ V ; O(u) = 0, ∀u ∈ U .

3. Todo morfismo tiene inverso aditivo −f , definivo por


(−f )(u) = −f (u), ∀u ∈ U .

4. La suma es conmutativa.
(f + g)(u) = f (u) + g(u) = g(u) + f (u) = (f + g)(u).

Pregunta

¿Qué ocurre con la ponderación de un morfismo?


La respuesta la tenemos en el siguiente lema.

Lema

Sea f un morfismo de LK (U, V ) y α ∈ K un escalar. Entonces la


aplicación de U en V , definida por

h(u) = α · f (u)

es lineal.
154 M.T. Alcalde - C. Burgueño Algebra Lineal

Demostración

1. h(u1 + u2 ) = α · f (u1 + u2 ) = α · (f (u1 ) + f (u2 )) = α · f (u1 ) +


α · f (u2 ) = h((u1 ) + h(u2 ).

2. h(βu) = α · f (βu) = α · (βf (u)) = (α · β) · f (u) = β · (α · f (u)) =


βh(u).

Por (1) y (2) tenemos que h es lineal.


Esta propiedad nos induce la siguiente definición.

Definición 3.5.2 A todo escalar α ∈ K y a todo morfismo f de


LK (U, V ), le asociamos un morfismo de LK (U, V ) llamado producto
escalar de α por f , denotado α · f y definido por

(α · f )(u) = α · f (u), ∀u ∈ U

Proposición 3.5.2 Dados f, g ∈ LK (U, V ) y α, β ∈ K, se tiene que


se cumplen los axiomas de espacio vectorial siguientes: E.V.5. 1·f = f
E.V.6. (α + β)f = αf + βf
E.V.7. α · (f + g) = α · f + α · g
E.V.8. (α · β)f = α · (β · f )

La demostración se deja al lector. ¿Bueno?

Teorema 3.5.3 LK (U, V ) es un espacio vectorial sobre K.

Demostración

Es obtenida de las proposiciones anteriores.


Capı́tulo 3. Aplicaciones Lineales 155

3.6 Ejercicios resueltos


Ejercicio

Sea f : K 2 −→ K 2 ; f (x, y) = (2x+y, 3x) una aplicación. Demostremos


que f es lineal.

Solución

Sean u, v ∈ K 2 , luego tienen la forma u = (x, y), v = (x′ , y ′ ), ciertos


x, y, x′ , y ′ ∈ K.

1. f (u + v) = f ((x, y) + (x′ , y ′ )) = f (x + x′ , y + y ′ ) =
= (2(x + x′ ) + (y + y ′ ), 3(x + x′ )) = (2x + y + 2x′ + y ′ , 3x + 3x′ ) =
= (2x + y, 3x) + (2x′ + y ′ , 3x′ ) = f (x, y) + f (x′ , y ′ ) = f (u) + f (v).

2. f (αu) = f (α(x, y)) = f (αx, αy) = (2αx + αy, 3αx) =


= α(2x + y, 3x) = αf (x, y) = αf (u), α ∈ K.

Ejercicio

Sea f : K 3 −→ K 3 ; f (x, y, z) = (2x + y, x + y, 2x) una aplicación.


Demostremos que f es lineal.

Solución

Sean u, v ∈ K 3 , luego tienen la forma u = (x, y, z), v = (x′ , y ′ , z ′ ),


ciertos x, y, x′ , y ′ , z, z ′ ∈ K.

1. f (u + v) = f ((x, y, z) + (x′ , y ′ , z ′ )) = f (x + x′ , y + y ′ , z + z ′ ) =
= (2(x + x′ ) + (y + y ′ ), (x + x′ ) + (y + y ′ ), 2(x + x′ )) =
= ((2x + y) + (2x′ + y ′ ), (x + y) + (x′ + y ′ ), 2x + 2x′ ) =
= (2x + y, x + y, 2x) + (2x′ + y ′ , x′ + y ′ , 2x′ ) =
156 M.T. Alcalde - C. Burgueño Algebra Lineal

= f (x, y, z) + f (x′ , y ′ , z ′ ) = f (u) + f (v).


La penúltima igualdad se cumple ∀z, z ′ ∈ K, en particular para
z y z ′ de u y v.
2. f (αu) = f (α(x, y, z)) = f (αx, αy, αz) =
= (2(αx) + αy, αx + αy, 2αx) = α(2x + y, x + y, 2x) =
= αf (x, y, z) = αf (u).

Ejercicio

Sea f : K 5 −→ K 5 definida por:


f (x, y, z, u, v) = (x + y + z + u, 2x + 2y + z + v, x + y + z + u,
2x − y + z + v, y − z − 2u + v)

1. Busquemos una base y la dimensión de N (f ).


2. Busquemos una base y la dimensión de Im(f ).
3. Estudiemos la inyectividad y epiyectividad de f .

Solución

x+y+z+u = 0 


2x + 2y + z + v = 0




(x, y, z, u, v) ∈ N (f ) ssi x+y+z+u = 0
2x − y + z + v = 0





y − z − 2u + v = 0

Este sistema lo escribiremos en su forma más simple, es decir, lo


escalonaremos.

 
1 1 1 1 0 0
 
1 1 1 1 0 0
 L21 (−2) 
2 2 1 0 1 0 0 0 −1 −2 1 0
 
 
  L31 (−1)  
 1 1 1 1 0 0   0 0

0 0 0 0

−→
  
2 −1 1 0 1 0  L (−2)  0 −3 −1 −2 1 0
   
 
41
0 1 −1 −2 1 0 0 1 −1 −2 1 0
Capı́tulo 3. Aplicaciones Lineales 157

 
1 1 1 1 0 0
 0 0 −1 −2 1 0 
 L (− 1 ) L14 (−1)
L45 (−1) 
4 4
0 0 0 0 0 0 −→
 
−→ −→
 
0 −4 0 0 0 0 L54 (−1)
 
 
0 1 −1 −2 1 0
 
1 0 1 1 0 0
 
1 0 0 −1 1 0
 L15 (1)
0 0 −1 −2 1 0 0 0 0 0 0 0
  
−→
   
 
 0 0 0 0 0 0 
 L (−1)

 0 0 0 0 0 0


25

0 1 0 0 0 0 0 1 0 0 0 0
   
  L (−1)  
5
0 0 −1 −2 1 0 0 0 1 2 −1 0

Luego

x−u+v=0 

y=0
z + 2u − v = 0

Es decir

x = u−v  
y = 0 ; u, v ∈ K
z = −2u + v 

Luego los elementos del núcleo tienen la forma (u − v, 0, −2u + v, u, v),


luego

N (f ) = {(u − v, 0, −2u + v, u, v); u, v ∈ K}

Una base de N (f ) es

{(1, 0, −2, 1, 0), (1, 0, −1, 0, −1)}

Puesto que N (f ) 6= {~0}, la aplicación no es inyectiva.


158 M.T. Alcalde - C. Burgueño Algebra Lineal

b) w ∈ Im(f ) ssi w = x(1, 2, 1, 2, 0)+y(1, 2, 1, −1, 1)+z(1, 1, 1, 1, −1)+


u(1, 0, 1, 0, −2) + v(0, 1, 0, 1, 1). Luego tenemos un conjunto de genera-
dores de Im(f ). Puede que existan vectores que dependen linealmente
de los otros. Para tener la cantidad mı́nima de generadores, podemos
escalonar
   
1 2 1 2 0 1 2 1 2 0
 L21 (−1)
1 2 1 −1 1  0 0 0 −3 1 
  
−→
 
   

 1 1 1 1 −1 
 L (−1)

 0 −1 0 −1 −1 

31

1 0 1 0 −2  
0 −2 0 −2 −2 
L41 (−1)
   
0 1 0 1 1 0 1 0 1 1

   
1 0 1 0 −2 1 0 1 0 −2
L15 (−2)
0 0 0 1 −1 0 0 0 1 −1
   
−→ 3  L (−1) 3 
   
32
0 43 
 
 0 1 0 1 1   0 1 0
L35 (1)   −→  

0 0 0 0 0  
0 0 0 0 0 
L45 (2)
   
0 0 0 0 0 0 0 0 0 0

La base escalonada de Im(f ) es

4 −1
{(1, 0, 1, 0, −2), (0, 1, 0, 0, ), (0, 0, 0, 1, )}
3 3
Pero sólo se pedı́a una base, luego podrı́a haber dado la base
{(1, 0, 1, 0, −2), (0, 0, 0, 3, −1), (0, 1, 0, 1, 1)} y habrı́amos evitado dos
pasos de escalonamiento.
Puesto que dimk Im(f ) = 3, f no es epiyectiva, pues dimk Codom(f ) =
5.

Ejercicio

Sea fα : K 3 −→ K 3 tal que

fα (x, y, z) = (x − y + z, 2x − y + 3z, (α − 1)x + (2α − 2)y + (2 − 2α)z)

con α ∈ K; una familia de aplicaciones lineales.


Capı́tulo 3. Aplicaciones Lineales 159

1. Estudiemos el Núcleo y la Imagen de fα , según los diferentes


valores de α. Estudiemos sus dimensiones respectivas.

2. Estudiemos la inyectividad y epiyectividad de fα , según los difer-


entes valores de α.

Solución

Busquemos un conjunto de generadores de Im(f ).


Sea w ∈ Im(f ), luego

w = x(1, 2, (α − 1)) + y(−1, −1, 2α − 2) + z(1, 3, 2 − 2α)

Luego un conjunto de generadores de Im(f ) es

{(1, 2, (α − 1)), (−1, −1, 2α − 2), (1, 3, 2 − 2α)}

Para saber su dimensión, necesitamos encontrar una base.


   
1 2 α−1 L21 (1) 1 2 α−1 L12 (−2)

 −1 −1 2α − 2 
 −→ 
 0 1 3α − 3 
 −→
1 3 2 − 2α L31 (−1) 0 1 3 − 3α L32 (−1)
   
1 0 −5α + 5 1 1 0 −5α + 5 L13 (−5)
 L3 ( 6 ) 
 0 1 3α − 3   0 1 3α − 3  −→
 
−→
0 0 6 − 6α 0 0 1−α L23 (3)
 
1 0 0

 0 1 0 
0 0 1−α
Caso (1) 1 − α = 0 ssi α = 1
La base escalonada de Im(f1 ) es {(1, 0, 0), (0, 1, 0)}.

dimK Im(f1 ) = 2 6= 3 = dimK Codom(f )

luego f1 no es epiyectiva.
160 M.T. Alcalde - C. Burgueño Algebra Lineal

Sabemos que

dimK Dom(f1 ) = dimK N (f1 ) + dimK Im(f1 )

Luego dimK N (f1 ) = 1. Conclusión: f1 no es inyectiva.


O bien, podemos hacer el razonamiento siguiente: Puesto que

dimK Dom(f1 ) = dimK Codom(f1 )

por la proposición ”Todo o nada”, como no es epiyectiva, entonces no


es inyectiva.
Busquemos ahora una base para N (f1 ).
Tenemos (x, y, z) ∈ N (f1 ) ssi (x − y + z, 2x − y + 3z, 0x + 0y + 0z) =
(0, 0, 0) ssi
)
x−y+z = 0
2x − y + 3z = 0
Busquemos la representación más simple de este sistema
! !
1 −1 1 0 L21 (−2) 1 −1 1 0
2 −1 3 0 −→ 0 1 1 0
!
L12 (1) 1 0 2 0
−→ 0 1 1 0

Luego este sistema queda


) )
x + 2z = 0 x = −2z
es decir
y+z = 0 y = −z

Luego N (f1 ) = {(x, y, z); x = −2z, y = −z} = {(−2z, −z, z); z ∈ K}


N (f1 ) =< (−2, −1, 1) >. Luego una base de N (f1 ) es {(2, 1, −1)}.
Luego f1 no es inyectiva, ya que el núcleo de f1 no es {~0}
Por la proposición ”Todo o nada”, tampoco es epiyectiva.
Capı́tulo 3. Aplicaciones Lineales 161

Caso (2) 1 − α 6= 0 ssi α 6= 1


Seguimos escalonando:
 
1 1 0 0
L3 ( 1−α )
 0 1 0 
 
−→
0 0 1
La base escalonada de Im(fα ) = {1, 0, 0), (0, 1, 0), (0, 0, 1)}.
Luego dimK Im(fα ) = 3, con α 6= 1.
Tenemos, entonces que dimK (N (fα ) = 0, luego N (fα ) = {~0}.
Luego la aplicación lineal fα , es epiyectiva e inyectiva.

Ejercicio

Sea f : K 3 −→ K 3 tal que

f (x, y, z) = (4x + 2y, x + y, 7x + 5y)

Busquemos el núcleo y la imagen de f .


Estudiemos si f es inyectiva o epiyectiva.

Solución

Tenemos que

Im(f ) = {(4x + 2y, x + y, 7x + 5y); x, y ∈ K}

Busquemos un conjunto de generadores de Im(f ).

(4x + 2y, x + y, 7x + 5y) = x(4, 1, 7) + y(2, 1, 5)

Luego {(4, 1, 7), (2, 1, 5)} es un conjunto de generadores de Im(f ).


Puesto que
162 M.T. Alcalde - C. Burgueño Algebra Lineal

dimK Dom(f ) = dimK N (f ) + dimK Im(f )

y dimK Im(f ) = 2, entonces dimK N (f ) = 1 y f no es epiyectiva.


Como dimK N (f ) = 1, N (f ) 6= {~0} y f no es inyectiva. Sabemos que
toda base de N (f ) tiene un sólo elemento. Busquemos una base del
núcleo.

4x + 2y = 0  )
 x = o
x+y = 0 ssi
y = 0
7x + 5y = 0 

Observamos que no hay condiciones sobre z, luego


N (f ) = {(x, y, z); x = y = 0} =< (0, 0, 1) >. Luego una base de N (f )
es {(0, 0, 1)}.

Ejercicio

Sea f : K 3 −→ K 3 lineal tal que una base de

N (f ) = {(1, 2, 3), (1, 0, 2)}

y f (0, 1, 1) = (2, 1, 1). Busquemos la escritura de f , es decir, su ex-


presión analı́tica.

Solución

Observemos que {(1, 2, 3), (1, 0, 2), (0, 1, 1)} es una base de Dom(f ) =
K 3 . Luego
(x, y, z) = α(1, 2, 3) + β(1, 0, 2) + γ(0, 1, 1)

α+β = x  
2α + γ = y
3α + 2β + γ = z 

Capı́tulo 3. Aplicaciones Lineales 163

Escalonando, tenemos
   
1 1 0 x L21 (−2) 1 1 0 x
 L13 (1) L3 (−1)
 2 0 1 y 
 
−→  0 −2 1 y − 2x 

−→ −→
3 2 1 z L31 (2) 0 −1 1 z − 3x
   
1 0 1 z − 2x 1 0 1 z − 2x
 L23 (2) 
 0 −2 1 y − 2x   0 0 −1 4x + y − 2z 
 
−→
0 1 −1 3x − z 0 1 −1 3x − z
 
L12 (1) 1 0 0 2x + y − z
−→  0 0 1 −4x − y + 2z 
 

L32 (−1) 0 1 0 −x − y + z
Luego 
α = 2x + y − z 

γ = −4x − y + 2z
β = −x − y + z

f (x, y, z) = αf (1, 2, 3) + βf (1, 0, 2) + (−4x − y + 2z)f (0, 1, 1)


= (−4x − y + 2z)(2, 1, 1)

(Recuerde que los dos primeros vectores están en el núcleo de f )


Luego

f (x, y, z) = (−8x − 2y + 4z, −4x − y + 2z, −4x − y + 2z)

Ejercicio

Sean f, g, h : K 3 −→ K 2

1. f (x, y, z) = (x + y, x + y)

2. g(x, y, z) = ((x − 1)y, z − y)

3. h(1, 0, 0) = (1, 1), h(0, 1, 0) = (a2 , −1), h(0, 0, 1) = (a, 0), donde
a es un real fijo.

i. Determinemos aquellas aplicaciones que no son lineales. Argu-


mentemos la respuesta.
164 M.T. Alcalde - C. Burgueño Algebra Lineal

ii. De las aplicaciones lineales, indiquemos cuáles son inyectivas,


epiyectivas, biyectivas. Argumentemos la respuesta.

Solución (1)

Afirmación: La aplicación f es lineal.


(a) f ((x, y, z) + (x′ , y ′ , z ′ )) = f (x + x′ , y + y ′ , z + z ′ )
= (x + x′ + y + y ′ , x + x′ + y + y ′ )
= (x + y, x + y) + (x′ + y ′ , x′ + y ′ )
= f (x, y, z) + f (x′ , y ′ , z ′ )

En la última igualdad podı́amos tomar cualquier z, cualquier z ′ ,


pero en particular podı́amos tomar z y z ′ que tenı́amos al comienzo
(estábamos autorizados a tomar cualquiera).
(b) f (α(x, y, z)) = f (αx, αy, αz)
= (αx + αy, αx + αy)
= α(x + y, x + y) = αf (x, y, z)

Por ( a) y ( b) tenemos que f es lineal.


Contestemos ahora la parte (ii.).
(x, y, z) ∈ N (f ) ssi f (x, y, z) = (0, 0) ssi (x+y, x+y) = (0, 0) ssi x+y =
0 ssi x = −y. Luego no hay exigencias sobre z. Tenemos entonces que
N (f ) = {(x, −x, z); x, z ∈ K} 6= {~0}. Luego f no es inyectiva. Una
base de N (f ) es {(1, −1, 0), (0, 0, 1)} (luego de dimensión dos).
Por otra parte sabemos que:
dimK Dom(f ) = dimK N (f ) + dimK Im(f )
luego dimK Im(f ) = 1.
Conclusión: f no es epiyectiva.

Solución (2)

Tenemos que
Capı́tulo 3. Aplicaciones Lineales 165

g(x, y, z) = ((x − 1)y, z − y)

Afirmación: g no es lineal.
Contraejemplo: g(1, 1, 0) = ((1 − 1)1, 0 − 1) = (0, −1);

g(0, 1, 1) = ((0 − 1)1, 1 − 1) = (−1, 0);


g(1, 2, 1) = ((1 − 1)2, 1 − 2) = (0, −1)

Calculemos, ahora g(1, 2, 1), suponiendo que g es lineal. El cálculo es


el siguiente: g(1, 2, 1) = g((1, 1, 0) + (0, 1, 1)) = g(1, 1, 0) + g(0, 1, 1) =
(0, −1) + (−1, 0) = (−1, −1), que es diferente al obtenido anterior-
mente.

Solución (3)

El Teorema de existencia y unicidad de una aplicación lineal, dice que


dada una base en el Dominio y dado 3 vectores cualesquieras en el
Codominio, existe una aplicación lineal que lleva los vectores de la
base en esos tres vectores y ésta aplicación es única. Luego h existe y
es única pues {(1, 0, 0), (0, 1, 0), (0, 0, 1)} es una base de Dom(h)
Para la pregunta (ii.), tenemos lo siguiente:
Una aplicación lineal es inyectiva si lleva una base en un conjunto l.i.
Vemos que el conjunto {(1, 1), (a2 , −1), (a, 0)} es l.d., pues no puede
haber más de dos vectores l.i. en K 2 . Luego h no es inyectiva,
cualquiera que sea a ∈ K.
Por otra parte, a2 6= −1, ∀a ∈ K, luego el vector (a2 , −1) nunca es un
múltiplo del vector (1, 1).
Entonces K 2 =< (1, 1), (a2 , −1) >=< (1, 1), (a2 , −1), (a, 0) >, ∀a ∈
K.
Luego Im(h) = K 2 y h es epiyectiva.
166 M.T. Alcalde - C. Burgueño Algebra Lineal

Ejercicio

Sea fα : K 3 −→ K 3 una aplicación lineal tal que

fα (x, y, z) = (x + z, y + 2z, (α − 3)z)

Encontremos el núcleo y la imagen de fα para los distintos valores de


α ∈ K y luego estudiemos la inyectividad y epiyectividad de fα .

Solución

Busquemos el núcleo de fα

x+z = 0  
y + 2z = 0
(α − 3)z = 0 

es decir tenemos la matriz


 
1 0 1 0
 0 1 2 0 


0 0 α−3 0

Caso (1) α − 3 = 0 ssi α = 3


)
x+z = 0
Luego, x = −z, y = −2z
y + 2z = 0

De donde (−z, −2z, z) = z(−1, −2, 1), luego N (f3 ) =< (1, 2, −1) >;
y por lo tanto fα no es inyectiva en el caso α = 3 y en tal caso la
dimensión del núcleo es uno, luego por el teorema de las dimensiones
se tiene que dimIm(f3 ) = 2. Busquemos Im(f3 )
Tenemos (x + z, y + 2z, 0) = x(1, 0, 0) + y(0, 1, 0) + z(1, 2, 0) y como
(1, 2, 0) es combinación lineal de (1, 0, 0) y (0, 1, 0), entonces
Im(f3 ) =< (1, 0, 0), (0, 1, 0) >, luego f3 no es epiyectiva.
Caso (2) α − 3 6= 0 ssi α 6= 3
Capı́tulo 3. Aplicaciones Lineales 167

Seguimos escalonando
   
1 1 0 1 0 L13 (−1) 1 0 0 0
L3 ( α−3 )
 0 1 2 0 
 
−→  0 1 0 0 
 
−→
0 0 1 0 L23 (−2) 0 0 1 0

Luego x = y = z = 0, es decir N (fα ) = {(0, 0, 0)} y usando nueva-


mente el teorema de las dimensiones tenemos que dimfα = 3, es decir
Im(fα ) = K 3 . Luego en este caso (α 6= 3), se tiene que fα es inyectiva
y epiyectiva. Además recordemos que fα es un endomorfismo, luego es
inyectivo ssi es epiyectivo.

Ejercicio

Observando las imagenes de los elementos de la base, estudiemos si la


aplicación lineal f : K 3 −→ K 3 , dada por:
f (1, 0, 0) = (1, 1, 0); f (0, 1, 0) = (0, 0, 1); f (0, 0, 1) = (2, 2, −1) es un

1. monomorfismo;

2. epimorfismo;

3. automorfismo.

Solución

1. Una aplicación lineal es un monomorfismo si lleva una base en


un conjunto l.i.
Tenemos que {(1, 0, 0), (0, 1, 0), (0, 0, 1)} es una base. Ahora
necesitamos estudiar la dependencia lineal de

B = {(1, 1, 0), (0, 0, 1), (2, 2, −1)}

Sea α(1, 1, 0) + β(0, 0, 1) + γ(2, 2, −1) = (0, 0, 0). Es equivalente


a
168 M.T. Alcalde - C. Burgueño Algebra Lineal


α + 2γ = 0  )
 α = −2γ
α + 2γ = 0 equivalente a
β = γ
β−γ = 0

Quiere decir que el ~0 se puede obtener de infinitas maneras:


−2γ(1, 1, 0) + γ(0, 0, 1) + γ(2, 2, −1) = (0, 0, 0), ∀γ ∈ K, luego
el conjunto es l.d. Entonces la aplicación lineal no es inyectiva.
[monomorfismo=lineal inyectiva].
2. Una aplicación lineal es un epimorfismo si lleva una base en un
conjunto de generadores.
El vector (2, 2, −1) = 2(1, 1, 0) + −1(0, 0, 1)
Luego < (1, 1, 0), (0, 0, 1), (2, 2, −1) >=< (1, 1, 0), (0, 0, 1) >,
Luego dimK Im(f ) = 2. es decir, B no es un conjunto de gener-
adores del Codom(f).
Luego f no es un epimorfismo.
3. Por (1) y (2) f no es un automorfismo (lineal biyectiva).

Ejercicio

Sea f : K2 [X] −→ M2 (K) y B = {1 + X 2 , 2X 2 , 1 + X + X 2 } una base


de K2 [X], definamos f en ésta base de la siguiente manera:
1 1 4 2
   
2
f (1 + X ) = ; f (2X 2 ) = ;
1 1 0 0
3 1
 
f (1 + X + X 2 ) =
−1 −1
Extendamos f por linealidad a todo el espacio.

Solución

Sea a + bX + cX 2 = α(1 + X 2 ) + β(2X 2 ) + γ(1 + X + X 2 ). Lo primero


que observamos es que γ debe valer b, γ = b, pues el único término
que tiene X es γ.
Capı́tulo 3. Aplicaciones Lineales 169

α debe ser igual ser a − b, para que el término constante sea a.


Igualando los coeficientes de X 2 , tenemos: c = α + 2β + γ, luego
c−a
2β = c − (a − b) − b, luego β = 2
.
Ahora estamos en condiciones de extender f por linealidad.
f (a + bX + cX 2 ) =
= f [(a − b)(1 + X 2 ) + (c−a)
2
(2X 2 ) + b(1 + X + X 2 )]
(c−a)
= (a − b)f(1 + X2 ) + 2 f (2X 2) + bf(1 + X +X 2 )
1 1 4 2 3 1
= (a − b) + (c−a) +b
1 1 2
0 0 −1 −1
−a + 2b + 2c c

=
a − 2b a − 2b
luego
−a + 2b + 2c c
 
f (a + bX + cX 2 ) =
a − 2b a − 2b

Ejercicio

Sea T : K 3 −→ K 3 tal que T (1, 1, 1) = (1, 3, 5), T (1, 0, 1) = (0, 1, 3).


Estudiemos en cada uno de los casos la existencia y unicidad de T si
agregamos la condición

1. T (2, 1, 2) = (1, 4, 8)

2. T (2, 1, 2) = (0, 4, 8)

3. T (1, 0, 0) = (1, 3, 5)

Solución (1)

Se tiene (2, 1, 2) = 1(1, 1, 1) + 1(1, 0, 1). Si T fuese lineal T (2, 1, 2) =


1T (1, 1, 1) + 1T (1, 0, 1) = 1(1, 3, 5) + 1(0, 1, 3) = (1, 4, 8). Luego existe
T que cumple (1), pero T no es única, faltarı́a definirla en un tercer
vector tal que los tres vectores formen una base de K 3
170 M.T. Alcalde - C. Burgueño Algebra Lineal

Solución (2)

No existe T que cumpla (2), pues vimos que si T es lineal T (2, 1, 2) =


(1, 4, 8)

Solución (3)

Ocurre que {(1, 1, 1), (1, 0, 1), (1, 0, 0)} es una base de K 3 , luego existe
una aplicación lineal definida en esta base y es única.
Busquemos su escritura.
(x, y, z) = y(1, 1, 1) + (z − y)(1, 0, 1) + (x − z)(1, 0, 0)
T (x, y, z) = yT (1, 1, 1) + (z − y)T (1, 0, 1) + (x − z)T (1, 0, 0) =
= y(1, 3, 5) + (z − y)(0, 1, 3) + (x − z)(1, 3, 5)
Luego T (x, y, z) = (x + y − z, 3x + 2y − 2z, 5x + 2y − 2z)

3.7 Ejercicios propuestos


1. Determine cuáles de las siguientes aplicaciones son lineales:

(a) T : K 2 −→ K 3 ; T (x, y) = (2x − y, x + y, −x + 3y)


x x+y y
   
(b) g : M2×1 (K) −→ M2 (K); g( )=
y x x−y
(c) D : Kn [x] −→ Kn [x]; D(a0 + a1 x + · · · + an ) = a1 + 2a2 x +
3a3 x2 + · · · + nan xn−1

2. Determine si existe una aplicación lineal f : IR2 −→ IR2 tal que

(a) f (2, 1) = (1, 0), f (0, 1) = (0, 1) y f (1, 1) = (3, 2)


(b) f (2, 1) = (1, 0), f (0, 1) = (0, 1) y f (1, 1) = ( 12 , 21 )

3. Sea f la aplicación lineal definida por f : M2×2 (K) → M2×2 (K);


4 1
f (X) = BX donde B = .
5 −1
Capı́tulo 3. Aplicaciones Lineales 171

(a) Encuentre la base escalonada y la dimensión de N (f ) y de


Im(f )
(b) Estudie la inyectividad y la epiyectividad de f
Capı́tulo 4

Matrices

4.1 Matriz asociada a una aplicación lin-


eal

¡Al fin nos vamos a dedicar a las matrices!. Seguramente, tu sabı́as


que en el curso de Algebra Lineal se estudian las matrices. Desde el
comienzo del curso hemos utilizado las matrices, pero no hemos puesto
la atención en ellas.
Este capı́tulo trata lo siguiente: sabemos que una aplicación lineal está
determinada si conocemos su comportamiento en una base. Luego toda
aplicación lineal está determinada por un conjunto de vectores
. . . ahora seremos más exigentes . . .
Queremos determinar una aplicación lineal por un conjunto de nú-
meros, los cuales serán ordenados en una matriz. Luego veremos op-
eraciones entre aplicaciones lineales y propiedades y sus respectivas
operaciones y propiedades entre matrices.

173
174 M.T. Alcalde - C. Burgueño Algebra Lineal

Observación

Consideremos a modo de ejemplo, K 3 y en él la base

B = {(1, 2, 5), (2, 3, 1), (1, 1, −1)}

y una aplicación lineal f : K 3 −→ K 2 , definida por

f (1, 2, 5) = (5, 12); f (2, 3, 1) = (8, 5); f (1, 1, −1) = (3, −1)

Entonces estos seis vectores determinan f .


En K 2 , consideremos la base C = {(1, 1), (1, 0)}.
Observemos que:

(5, 12) = 12(1, 1) + (−7)(1, 0)


(8, 5) = 5(1, 1) + 3(1, 0)
(3, −1) = (−1)(1, 1) + 4(1, 0)

Luego, si fijamos las bases B y C y respetamos el orden de los elemen-


tos de la bases, entonces f está definida por los números: 12,-7,5,3,-1,4.
Para que estos números sean más fáciles de leer y por otras considera-
ciones que haremos más adelante, escribiremos
12 5 −1
 
(f ; B, C) =
−7 3 4
y diremos que es la matriz de f con respecto a las bases B y C.

Construcción de la matriz asociada a una aplicación lineal

Sean V y W dos K-espacios vectoriales de dimensión n y m respecti-


vamente. Tomemos una base B de V , B = {v1 , v2 , ..., vn } y una base
C en W , C = {w1 , w2 , ..., wm }.
Todo vector v de V y todo vector w de W , lo expresaremos por sus
coordenadas respectivas en B y C.
Vamos a respetar el orden en que nos han sido dados los elementos de
las bases.
Capı́tulo 4. Matrices 175

n
X
Sea f (v) = w. Sea v = x1 v1 + x2 v2 + · · · + xn vn = xj v j
j=1

m
X
w = y 1 w1 + y 2 w2 + · · · + y m wm = y i wi
i=1

Tomemos una aplicación lineal f : V −→ W . Por el Teorema Funda-


mental del Álgebra Lineal, tenemos que f está determinada y de una
manera única cuando se fijan las imágenes de los elementos de la base
de V :
f (v1 ), f (v2 ), ..., f (vn )
Estos vectores los descomponemos en la base C de W de la manera
siguiente:
m
X
f (vj ) = a1j w1 + a2j w2 + · · · + amj wm = aij wi
i=1

n
X
Todo vector v de V , v = xj vj , es enviado, por la aplicación lineal
j=1
f , en el vector de W siguiente:
n
X
w = f (v) = x1 f (v1 ) + x2 f (v2 ) + · · · + xn f (vn ) = xj f (vj )
j=1

Reemplazando los f (vj ), tenemos


n
X m
X m X
X n
w = f (v) = xj ( aij wi ) = ( aij xj )wi
j=1 i=1 i=1 j=1

Obtenemos entonces, las componentes y1 , y2 , ..., ym de w, es decir, de


n
X
f (v) en la base C de W , yi = aij xj , 1 ≤ i ≤ m, es decir,
j=1

y1 = a11 x1 + a12 x2 + · · · + a1n xn





y2 = a21 x1 + a22 x2 + · · · + a2n xn


..................................... 


ym = am1 x1 + am2 x2 + · · · + amn xn

176 M.T. Alcalde - C. Burgueño Algebra Lineal

se utilizó la unicidad de las componentes al descomponerlo en una


base.
Estas m ecuaciones son caracterizadas por el arreglo rectangular (es
decir, por la matriz) siguiente:

a11 a12 · · · a1n


 

 a21 a22 · · · a2n 

...................
 
 
am1 am2 · · · amn

llamada la matriz asociada a f con respecto a la base B de V


y a la base C de W y se denota (f ; B, C).
Se dice que esta matriz tiene m filas y n columnas y cada escalar aij
es llamado término de la matriz.
Recı́procamente, si nos damos una matriz de m filas y n columnas, las
fórmulas n X
yi = aij xj
j=1

definen una aplicación lineal de V en W .


En efecto, para todo v ∈ V , de coordenadas x1 , x2 , ..., xn en la base
n
X
B, los yi = aij xj hacen corresponder un vector único de W de
j=1
coordenadas y1 , y2 , ..., ym en la base C.
Este vector w está dado por la relación

X n
m X n
X m
X n
X n
X
w= ( aij xj )wi = xj ( aij wi ) = xi f (vj ) = f ( xj vj ) = f (v)
i=1 j=1 j=1 i=1 j=1 j=1

Tenemos que f es lineal (Te lo dejamos gentilmente de ejercicio


¿bueno?)
m
X
Para v = vj , se tiene f (vj ) = aij vi , se sabe que existe una aplicación
i=1
lineal que cumple esta condición y se sabe que es única.
Capı́tulo 4. Matrices 177

Ejemplo

Sea f : K 3 −→ K 2 ; definida por: f (x, y, z) = (3x, x + y).


Consideremos B = {(1, 1, 1), (1, −1, 0), (1, 0, 0)} una base ordenada
(no podemos cambiar el orden dado) de K 3 y C = {(1, 0), (1, −1)}
una base ordenada de K 2 . Busquemos (f ; B, C) ¿ de acuerdo?

Solución

Sabiendo que f (x, y, z) = (3x, x + y), tenemos


f (1, 1, 1) = (3, 2) = 5(1, 0) + −2(1, −1)
f (1, −1, 0) = (3, 0) = 3(1, 0) + 0(1, −1)
f (1, 0, 0) = (3, 1) = 4(1, 0) + −1(1, −1)
5 3 4
 
Luego (f ; B, C) =
−2 0 −1

Ejemplo

Sea f : K 3 −→ K 2 ; f (x, y, z) = (x + y + z, 3z).


Consideremos B = {(1, 1, 1), (1, 1, 0), (1, 0, 0)} una base de K 3 y
C = {(0, 1), (1, 1, )} una base de K 2 .
Busquemos (f ; B, C).
A partir de f (x, y, z) = (x + y + z, 3z), obtenemos
f (1, 1, 1) = (3, 3) = 0(0, 1) + 3(1, 1)
f (1, 1, 0) = (2, 0) = −2(0, 1) + 2(1, 1)
f (1, 0, 0) = (1, 0) = −1(0, 1) + 1(1, 1)
0 −2 −1
 
Entonces (f ; B, C) =
3 2 1

Ejercicio

Sea f : K2 [t] −→ K2 [t]; f (g(t)) = (1−t)g ′ (t). Determinemos (f ; B, C),


178 M.T. Alcalde - C. Burgueño Algebra Lineal

donde B = {1 + t + t2 , 1 + t, 1} y C = {t + t2 , 1 + t + t2 , t2 }.

Solución

Tal vez debemos explicarte mejor el comportamiento de f . Bueno es


ası́:
f (a + bt + ct2 ) = (1 − t)(b + 2ct), pues g ′ (t) es la derivada formal de
g(t) (es decir que tiene la misma forma de la derivada. ¿de acuerdo?)

f (1 + t + t2 ) = (1 − t)(1 + 2t) = 1 + t − 2t2


f (1 + t) = (1 − t) · 1 = 1−t
f (1) = (1 − t) · 0 = 0

Busquemos las coordenadas de estos vectores en la base C.

1 + t − 2t2 = 0(t + t2 ) + 1(1 + t + t2 ) + −3t2


1−t = −2(t + t2 ) + 1(1 + t + t2 ) + 1t2
0 = 0 · (t + t2 ) + 0 · (1 + t + t2 ) + 0 · t2

Luego
 
0 −2 0
(f ; B, C) =  1

1 0
−3 1 0

Ejercicio

Sea f : K 2 −→ K2 [X] lineal cuya matriz según las bases


B = {(1, 1), (1, 0)} y C = {1 + X + X 2 , 1 + X, 1} es
 
1 2
(f ; B, C) =  3 7 
 

5 4

Busquemos la expresión analı́tica de f .


Capı́tulo 4. Matrices 179

Solución

Sabemos que:

f (1, 1) = 1(1 + X + X 2 ) + 3(1 + X) + 5(1)


f (1, 0) = 2(1 + X + X 2 ) + 7(1 + X) + 4(1)

Luego
f (1, 1) = 9 + 4X + X 2
f (1, 0) = 13 + 9X + 2X 2
Ahora escribamos (z, t) ∈ K 2 , según la base B

(z, t) = t(1, 1) + (z − t)(1, 0)

Luego

f (z, t) = tf (1, 1)+(z−t)f (1, 0) = t(9+4X+X 2 )+(z−t)(13+9X+2X 2 )

es decir,

f (z, t) = (13z − 4t) + (9z − 5t)X + (2z − t)X 2

4.2 Suma de morfismos y suma de matri-


ces
Observación

Sean f, g : K 2 −→ K 3 definidas por:

f (x, y) = (2x + y, 3y − 3x, 2y − 3x) y g(x, y) = (4x − 2y, 2x − y, x)

Escojamos las bases ordenadas


B = {(1, 2), (1, 1)} en K 2 y C = {(1, 1, 1), (1, 1, 0), (1, 0, 0)} en K 3

(f + g)(x, y) = f (x, y) + g(x, y) = (6x − y, 2y − x, 2y − 2x)


180 M.T. Alcalde - C. Burgueño Algebra Lineal

luego,

f (1, 2) = (4, 3, 1) = 1(1, 1, 1) + 2(1, 1, 0) + 1(1, 0, 0)


f (1, 1) = (3, 0, −1) = −1(1, 1, 1) + 1(1, 1, 0) + 3(1, 0, 0)
g(1, 2) = (0, 0, 1) = 1(1, 1, 1) − 1(1, 1, 0) + 0(1, 0, 0)
g(1, 1) = (2, 1, 1) = 1(1, 1, 1) + 0(1, 1, 0) + 1(1, 0, 0)
(f + g)(1, 2) = (4, 3, 2) = 2(1, 1, 1) + 1(1, 1, 0) + 1(1, 0, 0)
(f + g)(1, 1) = (5, 1, 0) = 0(1, 1, 1) + 1(1, 1, 0) + 4(1, 0, 0)
de donde
   
1 −1 1 1
2
(f ; B, C) =  ;
1   −1 0 
(g; B, C) =  

1 3 0 1
 
2 0
1 1
(f + g; B, C) =  

1 4
Es obvio como uno sumarı́a las dos primeras matrices de manera de
obtener la tercera como resultado de esta suma. ¡Todos somos un poco
matemáticos en nuestro ser! ¿Cierto?
En general si consideramos espacios vectoriales cualesquieras, se tiene:
Sean V y W dos K-espacios vectoriales. Sea B = {v1 , v2 , ..., vn } una
base ordenada de B y C = {w1 , w2 , ..., wm } una base ordenada de W .
Sean f, g : V −→ W dos morfismos
m
X m
X
f (vj ) = aij wi , g(vj ) = bij wi . Luego
i=1 i=1
m
X m
X m
X
(f + g)(vj ) = f (vj ) + g(vj ) = aij wi + bij wi = (aij + bij )wi
i=1 i=1 i=1
Luego
 
a11 . . . a1j . . . a1n
.........................
 
 
 
(f ; B, C) = 
 ai1 . . . aij . . . ain 


 ......................... 

am1 . . . amj . . . amn
Capı́tulo 4. Matrices 181

 
b11 . . . b1j . . . b1n
........................
 
 
 
(g; B, C) = 
 bi1 . . . bij . . . bin 


 ........................ 

bm1 . . . bmj . . . bmn

 
a11 + b11 . . . a1j + b1j . . . a1n + b1n
...........................................
 
 
 
(f + g; B, C) = 
 ai1 + bi1 . . . aij + bij . . . ain + bin 


 ........................................... 

am1 + bm1 . . . amj + bmj . . . amn + bmn

Esto motiva la siguiente definición

Definición 4.2.1 A todo par de matrices (aij ) y (bij ) pertenecientes


a Mm×n (K), le asociamos una matriz de Mm×n (K), llamada suma
de (aij ) y (bij ), denotada (aij ) + (bij ) y definida por

(aij ) + (bij ) =: (aij + bij )

es decir,
(f ; B, C) + (g; B, C) = (f + g; B, C)

En palabras, la suma de las matrices de dos morfismos es la matriz de


la suma de esos dos morfismos.

4.3 Producto de un escalar por un mor-


fismo y producto de un escalar por
una matriz
Recordemos que en el capı́tulo anterior definimos el producto por es-
calar α · f donde f es un morfismo.
182 M.T. Alcalde - C. Burgueño Algebra Lineal

Observación

Considerando el morfismo f : K 2 −→ K 3 y las bases de la observación


anterior, tenemos

(αf )(x, y) = α · f (x, y) = (2αx + αy, 3αy − 3αx, 2αy − 3αx)

Luego

(αf )(1, 2) = (4α, 3α, α) = α(1, 1, 1) + 2α(1, 1, 0) + α(1, 0, 0)

(αf )(1, 1) = (3α, 0, −α) = −α(1, 1, 1) + α(1, 1, 0) + 3α(1, 0, 0)

   
1 −1 α −α
(f ; B, C) =  2 1  y (αf ; B, C) =  2α α 
   

1 3 α 3α

Nuevamente uno tiene de inmediato el chispazo para multiplicar una


matriz por un escalar
En general si consideramos espacios vectoriales cualesquieras, se tiene:
Consideremos la misma aplicación lineal f y las mismas bases que
consideramos para el caso de la suma. Sea α ∈ K. Por la definición de
la aplicación lineal α · f , tenemos

m
X m
X
(αf )(vj ) = α · f (vj ) = α aij wi = (αaij )wi
i=1 i=1

Luego
 
αa11 . . . αa1j . . . αa1n
.............................
 
 
 
(αf ; B, C) = 
 αai1 . . . αaij . . . αain 


 ............................. 

αam1 . . . αamj . . . αamn

es decir, (αf ; B, C) = (αaij ). Esto nos motiva a la siguiente definición


Capı́tulo 4. Matrices 183

Definición 4.3.1 A toda matriz (aij ) perteneciente a Mm×n (K) y a


todo escalar α ∈ K,le asociaciamos una matriz de Mm×n (K), llamada
producto de α por (aij ), denotada α · (aij ) y definida por

α · (aij ) = (α · aij )

es decir,
α · (f ; B, C) = (α · f ; B, C)

En palabras, el producto escalar por una matriz de un morfismo es la


matriz del producto escalar por el morfismo.

4.4 Composición de morfismos y produc-


to de matrices
Sean U , V y W tres K-espacios vectoriales de dimensiones n, p y q
respectivamente. Sean f : U −→ V y g : V −→ W . Escojamos las
bases B, C y D respectivamente en U , V y W .
B = {u1 , u2 , · · · , un }, C = {v1 , v2 , · · · , vp }, D = {w1 , w2 , · · · , wq }.
Sean
(f ; B, C) = (aij ),1 ≤ j ≤ n, 1 ≤ i ≤ p; (g; C, D) = (bki ), 1 ≤ i ≤ p, 1 ≤ k ≤ q
Busquemos la matriz de g ◦ f .
p
X q
X
f (uj ) = aij vi , g(vi ) = bki wk
i=1 k=1

Luego

p
X p
X p
X q
X
(g ◦ f )(uj ) = g(f (uj )) = g( aij vi ) = aij g(vi ) = aij ( bki wk )
i=1 i=1 i=1 k=1

De donde
184 M.T. Alcalde - C. Burgueño Algebra Lineal

q X
X p
(g ◦ f )(uj ) = ( bki aij )wk , 1 ≤ j ≤ n
k=1 i=1

Sea p
X
ckj = bki aij = bk1 a1j + bk2 a2j + · · · + bkp apj
i=1
Obtenemos entonces
q
X
(g ◦ f )(uj ) = ckj wk
k=1

La matriz asociada a g ◦ f es entonces (ckj ).


Tenemos entonces la siguiente definición

Definición 4.4.1 A una matriz (aij ) en Mp×n (K) y una matriz (bki )
en Mq×p (K), le asociamos una matriz de Mq×n (K), llamada pro-
ducto de las matrices (bki ) y (aij ), denotada (bki ) · (aij ) y definida
por

p
X
(bki ) · (aij ) = ( bki aij )
i=1

El orden inverso (aij ) · (bki ) en general no tiene sentido.

Esquema de la definición:

a1j
 
   .. 

 a2j 
 
. 
 bk1

bk2 ··· bkp  ·
  ..  = ··· ckj ···
. ..
   
 
apj .

Representa la multiplicación de la fila k por la columna j y se obtiene


el lugar (k, j) de la matriz producto.

(g; C, D) · (f ; B, C) = (g ◦ f ; B, D)

Es decir, el producto de las matrices de dos morfismos es la matriz de


la composición de los morfismos.
Capı́tulo 4. Matrices 185

Ejemplo

Consideremos nuevamente la aplicación lineal


f : K 2 −→ K 3 ; f (x, y) = (2x + y, 3y − 3x, 2y − 3x)
y las mismas bases ordenadas de las observaciones anteriores.
Además consideremos la aplicación lineal
g : K 3 −→ K 2 ; g(x, y, z) = (x − y + 2z, −x + 2y)
Consideremos D = {(1, 1), (1, 0)} una base ordenada del Codominio
de g y busquemos las matrices: (g; C, D) y (g ◦ f ; B, D)
Tenemos:
g(1, 1, 1) = (2, 1) = 1(1, 1) + 1(1, 0)
g(1, 1, 0) = (0, 1) = 1(1, 1) + −1(1, 0)
g(1, 0, 0) = (1, −1) = −1(1, 1) + 2(1, 0)
(g ◦ f )(x, y) = g(f (x, y)) = (−x + 2y, −8x + 5y)
(g ◦ f )(1, 2) = (3, 2) = 2(1, 1) + 1(1, 0)
(g ◦ f )(1, 1) = (1, −3) = −3(1, 1) + 4(1, 0)

Luego tenemos
 
1 −1
1 1 −1
 
(g; C, D) = ; (f ; B, C) =  2 1 

1 −1 2

1 3

2 −3
 
(g ◦ f ; B, D) =
1 4
El número 2 de la tercera matriz se obtiene de 1 · 1 + 1 · 2 + (−1) · 1, es
decir la primera fila de (g; C, D), por la primera columna de (f ; B, C).
Además

−3 = 1 · (−1) + 1 · 1 + (−1) · 3
1 = 1 · 1 + (−1) · 2 + 2 · 1
4 = 1 · (−1) + (−1) · 1 + 2 · 3
186 M.T. Alcalde - C. Burgueño Algebra Lineal

4.5 Algunos tipos especiales de matrices


Proposición 4.5.1 (Mm×n (K), +) es un grupo abeliano.

Demostración

La suma es una ley de composición interna. Esta suma es asociativa


y conmutativa.
El neutro para la suma es la matriz nula, es decir 0 = (aij ) con aij = 0;
∀i = 1, · · · , m, ∀j = 1, · · · , n Toda matriz A = (aij ) tiene inversa
aditiva −A = (−aij )

Proposición 4.5.2 (Mn (K), +, ·) es un anillo con unidad.

Demostración

En efecto, el producto es asociativo y se distribuye con respecto a la


suma.
La unidad es la matriz identidad In = (aij ), donde aii = 1 y aij = 0 si
i 6= j.

Observación
1 2 2 −1
   
Sea A = yB= . Entonces
3 −1 3 6
1 2 2 −1 8 11
     
A·B = · =
3 −1 3 6 3 −9
2 −1 1 2 −1 5
     
B·A= · =
3 6 3 −1 21 0

Nota

Se tiene entonces que el producto de matrices no es conmutativo.


Capı́tulo 4. Matrices 187

Observación

Consideremos las mismas dos matrices del ejemplo anterior y obser-


vamos lo siguiente.
1 2 1 2 7 0
     
2
A = · =
3 −1 3 −1 0 7
2 −1 2 −1 1 −8
    
B2 = ·
3 6 3 6 24 33
7 0 16 22 1 −8 24 14
       
A2 + 2A · B + B 2 = + + =
0 7 6 −18 24 33 30 22
Por otra parte:
1 2 2 −1 2 3 1 2
     
2
(A + B) = ( + ) = ) =
3 −1 3 6 6 5
3 1 3 1 15 8
     
= · )= )
6 5 6 5 48 31
Luego (A + B)2 6= A2 + 2AB + B 2
Esto ocurre pues (A + B)2 = (A + B) · (A + B) = A2 + AB + BA + B 2 ,
y como vimos anteriormente: AB + BA 6= 2AB

Definición 4.5.1 Diremos que una matriz A ∈ Mn (K) es invertible


o regular, si existe una matriz B ∈ Mn (K), tal que AB = BA = In .
Diremos que es singular, en caso que no sea invertible.

Ejercicio

En el espacio de las matrices M2 (IR), determine el conjunto de todas


1 1
 
las matrices que conmutan con la matriz:
0 0

Solución

a b 1 1 1 1 a b
       
· = ·
c d 0 0 0 0 c d
188 M.T. Alcalde - C. Burgueño Algebra Lineal

a a a+c b+d
   
Luego =
c c 0 0
b+d b
 
Entonces a = b + d y c = 0. Luego { ; b, d ∈ IR}, es el
0 d
conjunto de todas las matrices que conmutan con la matriz A.

Ejercicio
 
1 a 1
Estudie para qué valores de a, a ∈ IR, la matriz A =  a 1 a 

,
0 a 1
es invertible.

Solución
     
1 a 1 1 a 1 1 a 1
 L21 (−a)  L23 (a) 
 a 1 a  −→  0 1 − a2 0 −→  0 1 a 
 

0 a 1 0 a 1 0 a 1
1 0 1 − a2
 
L12 (−a) L32 (−a) 
−→ −→  0 1 a  
2
0 0 1−a
Luego la matriz A es invertible ssi a 6= 1, −1

Definición 4.5.2 Sea A ∈ Mn (K), A = 6 0. Diremos que A es un


divisor de cero, si existe B ∈ Mn (K), B =
6 0, tal que A · B = 0

Ejemplo

0 2 0 3
   
Consideremos las matrices A = y .
0 0 0 0
0 0
 
Su producto es: A · B = . Luego las matrices A y B, son
0 0
divisores de cero.
Capı́tulo 4. Matrices 189

Observación

0 1
 
Consideremos la matriz A = . Se tiene que A2 = 0. Diremos
0 0
que A es una ”matriz nilpotente de grado 2 ”

Definición 4.5.3 Sea A ∈ Mn (K). Diremos que A es una matriz


nilpotente de grado m, si Am = 0 y At 6= 0 ∀t < m

Ejemplo
   
0 0 0 0 0 0
2
Sea A =  1 0 0 . Entonces A =  0 0 0  y A3 = 0.
  
 
2 1 0 1 0 0
Luego A es una matriz nilpotente de grado 3.

Definición 4.5.4 Sea A ∈ Mn (K). Diremos que A es idempotente


si A2 = A

Ejemplo

1 0
 
Consideremos A = . Se tiene que A2 = A
0 0

Definición 4.5.5 Sea A ∈ Mn (K). Diremos que A es involutiva si


A2 = In

Ejemplo
 
0 1 −1
Consideremos A =  4 −3 4 . Se tiene que A2 = I3
 

3 −3 4
Luego A es involutiva.
190 M.T. Alcalde - C. Burgueño Algebra Lineal

Ejercicio

Demuestre que si la matriz A es involutiva, entonces B = 12 (In + A) y


C = 21 (In − A), son idempotentes y B · C = 0

Proposición 4.5.3 Para el producto de matrices no se cumple la ley


de cancelación.

Contraejemplo

1 2 1 −1 3 −3
     
Sea A = ,B= yC= .
2 4 2 0 1 1
Se tiene A · B = A · C y B 6= C

Definición 4.5.6 Sea A ∈ Mm×n (K), A = (aij ), i = 1, · · · , m; j =


1, · · · , n. Diremos que B ∈ Mn×m es la matriz transpuesta A si
B = (aji ), i = 1, · · · , m; j = 1, · · · , n. Notación: B = At

Ejemplo
 
1 4
1 2 3
 
Sea A = . Entonces At = 
2 5

4 5 6
3 6

Proposición 4.5.4 Sean A, B matrices. Entonces:

1. (A + B)t = At + B t

2. (αA)t = α · At

3. (A · B)t = B t · At

Ejercicio

Sea A ∈ Mm×n (K) y G ∈ Mn (K). Sea G = At · A, entonces Gt = G


Capı́tulo 4. Matrices 191

Solución

Gt = (At · A)t = At · (At )t = At · A = G

Definición 4.5.7 Sea A ∈ Mn (K). Diremos que:

1. A es una matriz simétrica si At = A


2. A es una matriz antisimétrica si At = −A
3. A es una matriz ortogonal si At = (A)−1

Ejemplos

0 3 2 −5 1 −4
     
Son simétricas las matrices: , ,
3 2 −5 1 −4 0
0 3 0 −1 0 −5
     
Son antisimétricas las matrices: , ,
−3 0 1 0 5 0
0 1 0 1 1 0
     
Son ortogonales las matrices: , ,
−1 0 1 0 0 −1

Lema

Sea A ∈ Mn (K), entonces A + At , es una matriz simétrica y A − At ,


es una matriz antisimétrica.

Demostración

En efecto, (A + At )t = At + (At )t = At + A. Luego A + At es simétrica.


Por otra parte: (A − At )t = At − (At )t = At − A = −(A − At ). Luego
A − At es antisimétrica.

Lema

Sea A ∈ Mn (K), entonces A = B+C, donde B es una matriz simétrica


y C es una matriz antisimétrica.
192 M.T. Alcalde - C. Burgueño Algebra Lineal

Demostración

Sea B = 12 (A + At ) y C = 12 (A − At ). Entonces B y C cumplen lo


pedido.

Definición 4.5.8 Sea A ∈ Mn (K). Entonces B = 12 (A + At ) y


C = 12 (A − At ), serán llamadas la parte simétrica y la parte anti-
simétrica de A respectivamente.

Ejercicio

1 2
 
Sea A = ∈ M2 (IR). Busquemos su parte simétrica y su parte
3 4
antisimétrica.

Solución
1 2 1 3
   
1 t 1
Su parte simétrica S es: S = 2
(A +A) = 2
( + )=
3 4 2 4
5
2 5 1
   
1 2
2
( )= 5
5 8 2
4
1 2 1 3
   
1 1
Su parte antisimétrica T es: T = 2
(A−At ) = 2
( − )=
3 4 2 4
0 −1 0 −1
   
1
2
( )= 1 2
1 0 2
0
Se tiene que A = S + T

Definición 4.5.9 Sea A = (ai,j ) ∈ Mn (K). Llamaremos traza de


A, denotada por T r(A), al número ni=1 aii , es decir, a la suma de los
P

elementos de la diagonal principal.

Proposición 4.5.5 Sea A, B ∈ Mn (K). Entonces se tiene:

1. T r(α · A) = α · T r(A)
2. T r(A + B) = T r(A) + T r(B)
3. T r(A · B) = T r(B · A)
Capı́tulo 4. Matrices 193

4.6 Forma matricial de f (v) = w


Sean V y W dos K-espacios vectoriales.
Sea B = {v1 , v2 , ..., vn } una base de V y C = {w1 , w2 , ..., wm } una base
de W , ambas bases ordenadas.
Si v ∈ V , entonces

v = x1 v 1 + x2 v 2 + · · · + x n v n

y
f (v) = y1 w1 + y2 w2 + · · · + ym wm

Sea (f ; B, C) = (aij ), es decir

f (v1 ) = a11 w1 + a21 w2 + · · · + am1 wm





f (v2 ) = a12 w1 + a22 w2 + · · · + am2 wm


........................................ 


f (vn ) = a1n w1 + a2n w2 + · · · + amn wm

Luego
f (v) = f (x1 v1 + · · · + xn vn )
= x1 f (v1 ) + · · · + xn f (vn )
= x1 (a11 w1 + · · · + am1 wm ) + · · · + xn (a1n w1 + · · · + amn wm )
= (x1 a11 + · · · + xn a1n )w1 + · · · + (x1 am1 + · · · + xn amn )wm
Luego por la unicidad de las componentes de la base:

y1 = x1 a11 + x2 a12 + · · · + xn a1n





y2 = x1 a21 + x2 a22 + · · · + xn a2n


..................................... 


ym = x1 am1 + x2 am2 + · · · + xn amn

De donde
 

a11 a12 · · · a1n
 
x1

y1
a21 a22 · · · a2n   x2   y2 
  
 ·  ..  =  . 
   
 .. 

...................

   .  
am1 am2 · · · amn xn ym
194 M.T. Alcalde - C. Burgueño Algebra Lineal

Es decir,

   
v f (v)
(f ; B, C) · 
 según 
 = 
 según 

B C

Ejemplo

Sea f : K2 [X] −→ K 2 ; f (a+bX +cX 2 ) = (a+5b, 4b+c). Consideremos


las bases B = {1, 1 + X, 1 + X + X 2 } y C = {(1, 1), (1, 0)} de K2 [X]
y K 2 , respectivamente.
Veamos cual es la imagen del vector v = 9 + 2X + 5X 2 . Comencemos
por buscar (f ; B, C)

f (1) = (1, 0) = 0(1, 1) + 1(1, 0)


f (1 + X) = (6, 4) = 4(1, 1) + 2(1, 0)
f (1 + X + X 2 ) = (6, 5) = 5(1, 1) + 1(1, 0)

Escribamos v según la base B

9 + 2X + 5X 2 = 7 · 1 + −3(1 + X) + 5(1 + X + X 2 )

Multiplicando las dos matrices asociadas tenemos


 
7
0 4 5 13
   
·  −3  =
 
1 2 1 6
5

es decir,

f (9 + 2X + 5X 2 ) = 13(1, 1) + 6(1, 0) = (19, 13)

Resultado que se puede comprobar aplicando directamente la definición


de f .
Capı́tulo 4. Matrices 195

4.7 Forma matricial de un sistema de ec.


lineales
El sistema de ecuaciones lineales de m ecuaciones y n incógnitas si-
guiente:
α11 x1 + α12 x2 + · · · + α1n xn = β1 


α21 x1 + α22 x2 + · · · + α2n xn = β2 

...................................... 

αm1 x1 + αm2 x2 + · · · + αmn xn = βm

Puede ser representado matricialmente, de la manera siguiente:


 

α11 α12 · · · α1n
 
x1

β1
α21 α22 · · · α2n   x2   β2 
  
 ·  ..  =  . 
   
 .. 

....................

   .  
αm1 αm2 · · · αmn xn βm
Es decir, en la forma: A · X = B
 
x1


β1
 x2   β2 
 
donde A es la matriz de los coeficientes, X =  ..  y B =  .. 
  
 .   . 

xn βm

4.8 Isomorfismos y matrices invertibles


Sabemos que todo isomorfismo es invertible. Es natural preguntarse si
su aplicación inversa es lineal. ¿ Cierto? He aquı́ la respuesta.

Lema

Sea f : V −→ W un isomorfismo, entonces f −1 : W −→ V es lineal.

Demostración

Dados w1 , w2 ∈ W , existen v1 , v2 únicos tales que f (v1 ) = w1 y


196 M.T. Alcalde - C. Burgueño Algebra Lineal

f (v2 ) = w2
Tenemos que

f −1 (w1 ) + f −1 (w2 ) = v1 + v2 (1)

Pero f (v1 + v2 ) = f (v1 ) + f (v2 ) = w1 + w2 , luego

f −1 (w1 + w2 ) = v1 + v2 (2)

De (1) y (2), obtenemos que f −1 (w1 + w2 ) = f −1 (w1 ) + f −1 (w2 )


Además f (αv1 ) = αf (v1 ) = αw1 , luego

f −1 (αw1 ) = αv1 = α · f −1 (w1 )

Proposición 4.8.1 Sea f : V −→ W un isomorfismo. Sean B y C


bases ordenadas de V y W respectivamente. Entonces

(f ; B, C)−1 = (f −1 ; C, B)

En palabras: la inversa de la matriz de una aplicación lineal invertible,


es la matriz de la aplicación lineal inversa.

Demostración

Tenemos que f −1 ◦ f = IdV .


Luego I = (IdV ; B, B) = (f −1 ◦ f ; B, B) = (f −1 ; C, B)(f ; B, C)
Luego (f ; B, C)−1 = (f −1 ; C, B)

Proceso para encontrar la matriz inversa

Hay un método genial para encontrar la matriz inversa de una matriz.


Es tan interesante, pues sólo utiliza las operaciones elementales.
Capı́tulo 4. Matrices 197

Comenzaremos por observar que a cada operación elemental efectuada


en las lı́neas de una matriz, le corresponde una multiplicación por una
matriz especial.
Veamos cada uno de estos tipos de operaciones en un ejemplo.

Observación

Multipliquemos por 3 la primera fila de la matriz A siguiente:


   
1 2 1 3 6 3
 L1 (3) 
 3 7 2   3 7 2 
 
−→
2 1 1 2 1 1

Esta última matriz la obtenemos del producto:


     
3 0 0 1 2 1 3 6 3
0 1 0 · 3 7 2 = 3 7 2
     

0 0 1 2 1 1 2 1 1

Lema

Multiplicar por α la fila i de una matriz A, corresponde a multiplicar


a la izquierda de A, por la matriz obtenida de la matriz identidad,
cambiando el 1 de la i-ésima fila por α.

Observación

Permutemos la primera y la tercera fila de la matriz A siguiente:


   
1 2 1 2 1 1
 L13 

3 7 2  3 7 2 

−→
 
2 1 1 1 2 1

Esta última matriz la obtenemos del producto:


198 M.T. Alcalde - C. Burgueño Algebra Lineal

     
0 0 1 1 2 1 2 1 1
0 1 0 · 3 7 2 = 3 7 2
     

1 0 0 2 1 1 1 2 1

Lema

Permutar la i-ésima fila de una matriz A, por la j-ésima fila de la


misma matriz, corresponde a multiplicar a la izquierda de A por la
matriz obtenida de la matriz identidad permutando la i-ésima fila por
la j-ésima fila.

Observación

A la tercera fila de la matriz A, le vamos a sumar (−2) veces la primera


fila.
   
1 2 1 1 2 1
 L31 (−2) 

3 7 2 3 7 2 
−→
   
2 1 1 0 −3 −1

Esta última matriz la obtenemos del producto:


     
1 0 0 1 2 1 1 2 1

 0 1 0 ·
 
  3 7 2 
 = 
 3 7 2 

−2 0 1 2 1 1 0 −3 −1

Lema

A la i-ésima fila de la matriz A, sumarle α veces la j-ésima fila de


la misma matriz, corresponde multiplicar a la izquierda de A, por la
matriz obtenida de la matriz identidad, cambiando el elemento del
lugar (i, j) por α

Definición 4.8.1 Diremos que una matriz es una matriz elemen-


tal, si es obtenida de la matriz identidad, a través de una y sólo una
Capı́tulo 4. Matrices 199

operación elemental.

Teorema 4.8.2 Una matriz A puede ser reducida a la matriz identi-


dad, por una sucesión finita de operaciones elementales en las lı́neas,
si y sólo si A es invertible. Se tiene que la matriz inversa de A, es
obtenida a partir de la matriz identidad, a la cual se le aplica la misma
sucesión de operaciones en las lı́neas.

Demostración

Es una sucesión de aplicaciones de los lemas anteriores.

Conclusión

En la práctica operamos simultáneamente con la matriz dada y la


matriz identidad, a través de operaciones elementales, hasta llegar a
la identidad en el lugar que estaba A. La matriz obtenida en el lugar
correspondiente a la matriz identidad, es la matriz inversa de A.
Esquemáticamente tenemos:

(A|I) −→ · · · −→ · · · −→ (I|A−1 )

Ejemplo

Busquemos la matriz inversa de

1 2
 
A=
1 4
200 M.T. Alcalde - C. Burgueño Algebra Lineal

Solución

! !
1 2 1 0 L21 (−1) 1 2 1 0
1 4 0 1 −→ 0 2 −1 1
! !
L12 (−1) 1 0 2 −1 L2 ( 12 ) 1 0 2 −1
−→ 0 2 −1 1 −→ 0 1 − 21 12

Luego

!
−1 2 −1
A =
− 21 21

4.9 Automorfismo y matriz de cambio de


base
Introducción

Consideremos el espacio vectorial K 2 sobre K y dos bases ordenadas


B = {(1, 1), (1, 0)} y C = {(1, −1), (0, 1)}. Supongamos que tenemos
una gran cantidad de vectores descompuestos según la base B y nece-
sitamos sus componentes según la base C.
Por ejemplo, el vector u = (1, 2) se descompone según la base B
en (1, 2) = 2(1, 1) + (−1)(1, 0) y su descomposición en la base C es
(1, 2) = 1(1, −1) + 3(0, 1).
Otro ejemplo serı́a v = (7, 2) que tiene componentes 2 y 5 según la
base B y 7 y 9 según la base C.
Buscamos un método práctico para obtener las componentes de los
vectores con respecto a la base C, conociendo las componentes según
la base B.
El enunciado de este problema en forma general es el siguiente
Capı́tulo 4. Matrices 201

Problema

Sea V un K-espacio vectorial. Consideremos dos bases de V , B =


{v1 , v2 , ..., vn } y C = {u1 , u2 , ..., un }. Conociendo las componentes
{y1 , y2 , ..., yn } del vector v ∈ V en una base C, determinar las compo-
nentes {x1 , x2 , ..., xn } de este mismo vector v en una base B.

Solución

Existe un único endomorfismo f de V que envı́a la base B en la base


C, es decir, tal que f (v1 ) = u1 , f (v2 ) = u2 , ..., f (vn ) = un . Puesto que
lleva una base en otra, f es biyectiva, es decir, f es un automorfismo.
En lenguaje de matrices: toda representación matricial de f es inver-
tible, sea cual sea la base elegida en el dominio o en el codominio.
Sea n 
X
u1 = f (v1 ) = αi1 vi





i=1 

Xn 


u2 = f (v2 ) = αi2 vi


i=1

..................... 



n

X  
un = f (vn ) = αin vi 



i=1

La matriz P = (αij ) es la matriz de f con respecto a la base B en el


dominio y en el co-dominio, es decir, P = (αij ) = (f ; B, B), pero esta
matriz a su vez exhibe la descomposición de cada elemento de la base
C con respecto a la base B.
Sigamos resolviendo este problema.
Sea v ∈ V , v = x1 v1 + x2 v2 + ... + xn vn .
Por otra parte:

v = y 1 u1 + y 2 u2 + · · · + y n u n
n
X n
X n
X
= y1 αi1 vi + y2 αi2 vi + · · · + yn αin vi
i=1 i=1 i=1
= (y1 α11 + · · · + yn α1n )v1 + · · · + (y1 αn1 + · · · + yn αnn )vn
202 M.T. Alcalde - C. Burgueño Algebra Lineal

Luego
x1 = α11 y1 + α12 y2 + ... + α1n yn



x2 = α21 y1 + α22 y2 + ... + α2n yn


.................................. 


xn = αn1 y1 + αn2 y2 + ... + αnn yn

Sea
x1 y1
   
x  y 
2  2 
X= ; Y = ; X = PY ; Y = P −1 X
··· ···
 

xn yn

x1 α11 α12 · · · α1n y1


     
x  
 2  α21 α22 · · · α2n  y 
 2 
=  ·

···  .................... ···
  

xn αm1 αm2 · · · αmn yn

(v según B) = (C según B) ◦ (v según C)

Definición 4.9.1 La matriz P = (αij ) es llamada matriz de cam-


bio de base, de la base C a la base B.

Nota

Puesto que P es una matriz de un automorfismo, es invertible y su


matriz inversa P −1 es la matriz que exhibe la descomposición de la
base B según la base C

Ejemplo

En IR2 consideremos las bases B = {(1, 2), (1, 0)} y la base B ′ =


{(1, 1), (0, 1)}. Descompongamos las base B con respecto a la base B ′ .
Tenemos

(1, 2) = 1(1, 1) + 1(0, 1)


(1, 0) = 1(1, 1) + (−1)(0, 1)
Capı́tulo 4. Matrices 203

1 1
 

Luego (B según B ) =
1 −1
Esta matriz nos permite efectuar el cambio de base de B a B ′ . Por
ejemplo si consideramos el vector v = (−2, 6), con respecto a la base
B tenemos que sus componentes con respecto a dicha base son 3 y
−5 pues v = 3(1, 2) + (−5)(1, 0). Para obtener las componentes de v
con respecto a la base B ′ basta realizar la siguiente multiplicación de
matrices:

1 1 3 −2
     
· =
1 −1 −5 8

4.10 Un morfismo cualquiera y matrices


equivalentes
Problema
Tenemos un morfismo f : V −→ W expresado por una matriz M , con
respecto a las bases B y C. Queremos expresarlo con respecto a otras
bases B ′ y C ′ .
También nos interesa estudiar la relación que hay entre estas dos ma-
trices y en general, entre todas las matrices asociadas a este morfismo.

Cambio de base de un morfismo

Sea f : V −→ W un morfismo. Sean B y B ′ dos bases de V y C y C ′


dos bases de W .
Se tiene M = (f ; B, C) y se necesita M ′ = (f ; B ′ , C ′ )
Sean P : B ′ según B; Q: C ′ según C; Q−1 : C según C ′
x1 y1
   
x  y 
2  2 
X= v según B; Y = f (v) según C;
··· ···
   

xn ym
204 M.T. Alcalde - C. Burgueño Algebra Lineal

x′1 y1′
   
 x′   y′ 
X′ = 
 2

v según B ′ ; Y′ =
 2 

f (v) según C ′
··· ···
x′n ′
ym
Se tiene (1): Y = M X; (2): Y ′ = M ′ X ′ (3): X = P X ′ (4): Y = QY ′
Reemplazando (3) y (4) en (1) se tiene: QY ′ = M P X ′ de donde,
multiplicando por Q−1 se obtiene (5): Y ′ = Q−1 M P X ′ . Comparando
(5) y (2) tenemos:
M ′ = Q−1 M P
Es decir,
(f ; B ′ → C ′ ) = (C según C ′ )(f ; B −→ C)(B ′ según B)

Entonces, de una matriz se puede llegar a la otra a través de la mul-


tiplicación por las matrices de cambio de base respectivas. Nótese que
estas matrices son invertibles.

Ejemplo

Sea f : IR2 → IR3 ; talque f (x, y) = (x + y, 2x, 3y). Consideremos


las bases B = {(1, 2), (1, 0)} y B ′ = {(1, 1), (0, 1)} de IR2 y las bases
C = {(1, 0, 0), (0, 1, 0), (1, 1, 1)} y C ′ = {(0, 10), (1, 1, 0), (0, 0, 1)} de
IR3
Primero encontraremos la matriz que exhibe las componentes de la
base B ′ según la base B. En efecto tenemos:

(1, 1) = 12 (1, 2) + 12 (1, 0)


(0, 1) = 21 (1, 2) − 12 (1, 0)
 1 1 
′ 2 2
Es decir, (B según B) = 1
2
− 12
Ahora busquemos la matriz de f con respecto a las bases B y C:

f (1, 2) = (3, 2, 6) = −3(1, 0, 0) − 4(0, 1, 0) + 6(1, 1, 1)


f (1, 0) = (1, 2, 0) = 1(1, 0, 0) + 2(0, 1, 0) + 0(1, 1, 1)
Capı́tulo 4. Matrices 205

 
−3 1
Luego tenemos la matriz (f ; B, C) =  −4 2 


6 0
Nos falta por encontrar la matriz de cambio de base de C a C ′ :

(1, 0, 0) = −1(0, 1, 0) + 1(1, 1, 0) + 0(0, 0, 1)


(0, 1, 0) = 1(0, 1, 0) + 0(1, 1, 0) + 0(0, 0, 1)
(1, 1, 1) = 0(0, 1, 0) + 1(1, 1, 0) + 1(0, 0, 1)
 
−1 1 0

Luego (C según C ) =  1 0 1 


0 0 1
Por otra parte, debemos determinar la matriz (f ; B ′ , C ′ ). En efecto

f (1, 1) = (2, 2, 3) = 0(0, 1, 0) + 2(1, 1, 0) + 3(0, 0, 1)


f (0, 1) = (1, 0, 3) = −1(0, 1, 0) + 1(1, 1, 0) + 3(0, 0, 1)
 
0 −1
Por lo tanto la matriz (f ; B ′ , C ′ ) = 
2 1 

3 3
Luego se tiene la siguiente igualdad:
     
0 −1 −1 1 0 −3 1 1 1 
2

1  =  1 0 1  ·  −4 2  · 21
     2
2
− 12
3 3 0 0 1 6 0

(f ; B ′ → C ′ ) = (C según C ′ )(f ; B −→ C)(B ′ según B)


Lo anterior nos lleva a dar una nueva definición en el espacio de las
matrices. Diremos que estas matrices son equivalentes, pero, daremos
una definición más general que esta.

Definición 4.10.1 Se dice que una matriz M ∈ Mm×n (K) es equi-


valente a una matriz M ′ ∈ Mm×n (K), si existe una matriz invertible
P ∈ Mn (K) y una matriz invertible Q ∈ Mm (K), tales que:
M ′ = Q−1 M P
206 M.T. Alcalde - C. Burgueño Algebra Lineal

En el caso particular M ∈ Mn (K), diremos que M es semejante a


una matriz M ′ ∈ Mn (K), si existe una matriz invertible P ∈ Mn (K)
tal que:
M ′ = P −1 M P

Esto ocurre, si tomamos V = W , B = C y B ′ = C ′ .

Observación

”Ser equivalente a” y ”ser semejante a” son relaciones de equivalencia.

Observación

Sea f un endomorfismo en V , es decir f : V −→ V lineal. Entonces


todas las matrices asociadas a f son semejantes entre ellas, es decir,
cada vez que cambiamos las bases, obtenemos una matriz semejante
a la anterior.

4.11 Ejercicios resueltos


Ejercicio

Sean V y W dos K-espacios vectoriales. Sea fα : V −→ W con dimV =


dimW = 3. Estudiemos los valores de α para los cuales fα es un
isomorfismo, donde
 
2 1 2α − 8
(fα ; B) =  1 6

0  ; con B una base dada
2 5 2α − 8

Solución

fα es un isomorfismo si y sólo si (fα ; B) es una matriz invertible si y


sólo si su matriz escalonada es la identidad. Tenemos:
Capı́tulo 4. Matrices 207

 
2 1 2α − 8 1 0 0
L31 (−1)
 1 6 0 0 1 0 

−→

2 5 2α − 8 0 0 1


 
2 1 2α − 8 1 0 0
L3 ( 14 )
 1 6 0 0 1 0 

−→

0 4 0 −1 0 1


 
2 1 2α − 8 1 0 0
 1 6 0 0 1 0  −→ ··· −→


1 1
0 1 0 −4 0 4


3
1 − 23
 
1 0 0
2
 0 1

0
− 14 0 14   (∗)
7 11
0 0 −α + 4 1 −8

8

Caso α − 4 = 0 ssi α = 4

1 0 0 32 1 − 23
 
1 1
 0 1 0 −4 0
 
4 
0 0 0 8 1 − 11
7
8

Luego la matriz A4 no es invertible y el monomorfismo f4 no es un


isomorfismo.
Caso α − 4 6= 0 ssi α 6= 4
Reemplazando en (*)
3
− 23

1
 
1 0 0 2
 0 1 0

− 14 0 1
4


7 1 11
0 0 1 − 8(−α+4)

8(−α+4) −α+4

En este caso:
3
1 − 32
 
2
Aα = 
 − 41 0 1
4


7 1 11
8(−α+4) −α+4
− 8(−α+4)

Esta matriz Aα es invertible, luego fα es un isomorfismo, para α 6= 4


208 M.T. Alcalde - C. Burgueño Algebra Lineal

Ejercicio

1 1
 
Sea f : K 2 −→ K 2 . Dada la matriz (f ; B, C) = ; De-
2 −1
terminemos f (x, y) y f −1 (x, y), donde B = {(1, 2), (2, 0)} y C =
{(1, 1), (0, 3)}

Solución

Comencemos por escribir (x, y) en función de B. Tenemos:

2x−y
(x, y) = y2 (1, 2) + 4
(2, 0)

f (1, 2) = 1(1, 1) + 2(0, 3) = (1, 7)


f (2, 0) = 1(1, 1) + −1(0, 3) = (1, −2)
De donde

f (x, y) = y2 f (1, 2) + ( 2x−y


4
)f (2, 0) = y2 (1, 7) + ( 2x−y
4
)(1, −2)

Luego
x y
f (x, y) = ( + , −x + 4y)
2 4
Busquemos (f ; C, B) = (f ; B, C)−1
−1

! !
1 1
1 1 1 0 1 0

−→ −→ 3
2
3
2 −1 0 1 0 1 − 13

3

1
f −1 (1, 1) = 3
(1, 2) + 32 (2, 0) = ( 53 , 32 )
1
f −1 (0, 3) = 3
(1, 2) − 31 (2, 0) = (− 13 , 32 )

f −1 (x, y) = xf −1 (1, 1) + ( −x+y


3
)f −1 (0, 3) = x( 53 , 32 ) + ( −x+y
3
)(− 13 , 32 )

Luego

f −1 (x, y) = ( 16
9
x − 19 y, 49 x + 29 y)
Capı́tulo 4. Matrices 209

Ejercicio

Determinemos, si existen, las matrices en Mn (K) que son simétricas


y antisimétricas a la vez.

Solución

Sea A = (aij ) ∈ Mn (K). Recordemos que A es simétrica ssi aij = aji


y que A es antisimétrica ssi aij = −aji Como A es simétrica y anti-
simétrica a la vez, entonces se tiene que aii = −aii , luego la diagonal
consta de ceros.
Además aji = −aji , luego aji = 0, ∀i, j ∈ {1, 2, ..., n}. Luego la matriz
nula es la única matriz que es simétrica y antisimétrica a la vez.

Ejercicio

En M2 (K), determinemos las matrices A2 , A3 , A4 , ..., An , n ∈ IN, donde


1 0

A=
0 −1

Solución

(a) Caso n par


1 0 1 0 1 0
     
Sea n = 2; A2 = · = =I
0 −1 0 −1 0 1
Hipótesis de inducción: A2n = I. Por demostrar A2n+2 = I
En efecto, A2n+2 = A2n A2 = I · I = I. Luego A2n = I, ∀n ∈ IN
(b) Caso n impar n = 1 : A1 = A,
Hipótesis de inducción A2n+1 = A. Por demostrar A2n+3 = A
A2n+3 = A2n+1 · A2 = A · I = A. Luego A2n+1 = A, ∀n ∈ IN
210 M.T. Alcalde - C. Burgueño Algebra Lineal

Ejercicio

1 1
 
Determinemos A2 , A3 , A4 , ..., An , n ∈ IN, donde A =
1 1

Solución
1 1 1 1 2 2
     
A2 = · =
1 1 1 1 2 2
2 2 1 1 4 4 22 22
       
3 2
A =A A= · = =
2 2 1 1 4 4 22 22
Luego ”pienso”
Hipótesis de inducción

2n−1 2n−1
 
An =
2n−1 2n−1

2n 2n
 
Por demostrar An+1 =
2n 2n
En efecto:
2n−1 2n−1 1 1
   
n+1 n
A =A ·A= · =
2n−1 2n−1 1 1

2n−1 + 2n−1 2n−1 + 2n−1 2 · 2n−1 2 · 2n−1 2n 2n


     
= =
2n−1 + 2n−1 2n−1 + 2n−1 2 · 2n−1 2 · 2n−1 2n 2n

Luego
2n−1 2n−1
 
n
A = ∀n ∈ IN
2n−1 2n−1

Ejercicio

Sea V un K-espacio vectorial. Sea B = {v1 , v2 , ..., vn } una base de V .


Sea f un endomorfismo de V definido por
Capı́tulo 4. Matrices 211

(
0 si k = 1
f (vk ) =
v1 + v2 + · · · + vk−1 si k > 1

Encontremos A = (f ; B), A2 , A3 , A4 y hagamos una hipótesis sobre el


menor número m tal que Am = 0

Solución

Tenemos que


f (v1 ) = 0 = 0v1 + 0v2 + 0v3 + · · · + 0vn 


f (v2 ) = v1 = 1v1 + 0v2 + 0v3 + · · · + 0vn




f (v3 ) = v1 + v2 = 1v1 + 1v2 + 0v3 + · · · + 0vn
...........................................................





f (vn ) = v1 + v2 + · · · + vn−1 = 1v1 + 1v2 + · · · + 1vn−1 + 0vn

0 1 1 1 ··· 1 1
 

 0 0 1 1 ··· 1 1 

0 0 0 1 ··· 1 1
 
 
Luego (f ; B, B) =  

 ..................... 

0 0 0 0 ··· 0 1
 
 
0 0 0 0 ··· 0 0
!
0 1
Para n = 2, tenemos A = y A2 = 0
0 0
 
0 1 1
 y A3 = 0
Para n = 3, tenemos A =  0 0 1 

0 0 0
Hipótesis: el menor número entero tal que Am = 0 es m = n, con
A ∈ Mn (K)
Demuestre, por inducción, tal afirmación
212 M.T. Alcalde - C. Burgueño Algebra Lineal

Ejercicio

Sean A, B ∈ Mn (K). Recordando que B es idempotente ssi B 2 = B.


Demuestre

1. B es idempotente ssi I − B es idempotente.

2. Si B 2 − B + I = 0 entonces B es invertible.

3. Si BA = AB, entonces (A + B)2 = A2 + 2AB + B 2

Solución

1. Supongamos que B es idempotente. Entonces


(I −B)2 = (I −B)(I −B) = I 2 −IB −BI +B 2 = I 2 −2B +B 2 =
I 2 − 2B + B = I − B, luego I − B es idempotente.
Supongamos que I − B es idempotente. Entonces:

(I − B)2 = I − B =⇒ I 2 − IB − BI + B 2 = I − B
=⇒ I − 2B + B 2 = I − B
=⇒ B2 − B = 0
=⇒ B2 = B

Es decir B es idempotente.

2. B 2 − B + I = 0 =⇒ B − B 2 = I =⇒ B(I − B) = I. Luego B −1
existe y B −1 = I − B

3. Supongamos que BA = AB. Luego

(A+B)2 = (A+B)(A+B) = A2 +AB+BA+B 2 = A2 +2AB+B 2

Ejercicio

1 2
 
En M2 (K), consideremos A = . Busquemos A−1 y escribamos
3 4
esta última como el producto de matrices elementales.
Capı́tulo 4. Matrices 213

Solución
! !
1 2 1 0 L21 (−3) 1 2 1 0
L2 ( −1
2
)
3 4 0 1 −→ 0 −2 −3 1 −→

! !
1 2 1 0 L12 (−2) 1 0 −2 1
0 1 23 −1
−→ 0 1 32 −1

2 2
Luego
!
−1 −2 1
A = 3 −1
2 2

Escribámosla como producto de matrices elementales.


! ! !
1 −2 1 2 1 0
· =
0 1 0 1 0 1
! ! ! !
1 −2 1 0 1 2 1 0
· −1 · =
0 1 0 2
0 −2 0 1
! ! ! ! !
1 −2 1 0 1 0 1 2 1 0
· −1 · · =
0 1 0 2
−3 1 3 4 0 1
Luego
! ! !
−1 1 −2 1 0 1 0
A = · −1 ·
0 1 0 2
−3 1

A−1 quedó escrita como producto de 3 matrices elementales.

Ejercicio
 
1 2 2
Sea A =  0

1 2 . Descompongamos A en una suma conveniente
0 0 1
de matrices y utilicemos el binomio de Newton para encontrar A50

Solución

Observemos que A puede escribirse como:


214 M.T. Alcalde - C. Burgueño Algebra Lineal

     
1 0 0 0 2 2 0 2 2
A =  0 1 0  +  0 0 2  = I + B, donde B =  0 0 2 
    

0 0 1 0 0 0 0 0 0
    
0 2 2 0 2 2 0 0 4
B2 = 
0 0 20 0 2 = 0 0 0
   

0 0 0 0 0 0 0 0 0
     
0 0 4 0 2 2 0 0 0
3
B = 0 0 0 · 0 0 2 = 0 0 0
    

0 0 0 0 0 0 0 0 0
Recordemos que A es nilpotente de grado n ssi n es el menor entero
tal que An = 0
Luego B 3 = 0. Además todas las potencias de B conmutan con las
potencias de I, es decir, con I, luego es aplicable a esta situación el
Teorema del Binomio de Newton
A50 = (I + B)50
50 50−0 0 50 50−1 1 50 50−50 50
     
= I B + I B + ··· + I B
0 1 50
Luego
50 50 50
     
50
A = B0 + B1 + B2
0  1  2 
0 2 2 0 0 4
 0 0 2  + 1.225  0 0 0 
= I + 50    

0 0 0 0 0 0
Luego  
1 100 5.000
A50 0
= 1 100 
0 0 1

Ejercicio

Sea rα : K 2 −→ K 2 la rotación en un ángulo α, tal que cuya matriz


asociada es √ √
− √22 2
!
A = (rα ; C, C) = 2√ ,
− 22 − 22
Capı́tulo 4. Matrices 215

donde C es la base canónica de K 2 .


Busquemos A63 y A−1

Solución

cos α − sin α 63
63
cos 5π − sin 5π
  
63 4 4
A = = 5π
sin α cos α sin√ 4 √cos!5π
4
cos 63·5π − sin 63·5π −√ 22 − √22
 
= 4 4 =
63·5π
sin 4 cos 63·5π
4
2
− 22
2

Utilizamos que cos 63·5π
4
= cos 315π
4
= cos (39·8+3)π
4
= cos 3π
4
=− 2
2

Idem para sin 63·5π


4

4.12 Ejercicios propuestos


1. Sea f : K 3 −→ K 2 . Encuentre la matriz asociada a f según las
bases B = {(1, 0, 0), (1, 1, 0), (1, 1, 1)} de K 3 y C = {(1, 0)(1, 1)}
de K 2 , en los siguientes casos:

(a) f (x, y, z) = (x + 2y, x)


(b) f (x, y, z) = (3z, x − y)

2. Sea f un endomorfismo de K 2 , cuya matriz con


 respecto a la
7 0

base B = {(1, 1), (1, −1)} es (f ; B, B) = . Determine la
0 2
matriz de f con respecto a la base canónica de K 2 .

3. Sean f, g : K 2 −→ K 3 . Sabiendo que f (x, y) = (3x, x + y, y) y


que la  de f +g con respecto a las bases canónicas de K 2 y
matriz 
2 1
K 3 es 
 0 1 . Determine g(x, y) y la matriz de g con respecto

3 3
a esas bases.
216 M.T. Alcalde - C. Burgueño Algebra Lineal

4. Sea f : K 2 −→ K 2 y g : K 2 −→ K 2 dos aplicaciones lineales tal


1 3
 
que g(x, y) = (x + 2y, 3y) y tal que (f ; B, C) = donde
2 4
C = {(1, 1), (0, −1)} y D = {(−1, −1), (1, 0)}

(a) Encuentre (g; C, D) y (g ◦ f ; B, D)


(b) Sabiendo que las componentes de v ∈ IR3 , según la base B,
son -1 y 2, encuentre las componentes de f (v) según la base
C
   
1 2 1 2 1 1
 2 1 1  y AB −1 =  1 1 1 . Determine B 2
5. Si AB =    

1 1 1 1 0 1

6. Determine todas las matrices cuadradas de orden 3 que conmu-


tan con la matriz
 
a 1 0
0 a 1
 

0 0 a

7. Para cada número real α, considere la matriz


cosα −senα
 
Mα =
senα cosα

(a) Demuestre que Mα Mβ = Mα+β


(b) Calcule M−α

8. Estudie para qué valores de α la siguiente familia de matrices,


Mα ,
 
1 α 0
Mα =  1 1 + α 2α − 3 


1 α 2α − 3
es invertible. En caso que sea invertible busque su inversa.

9. Sea A ∈ Mn (K) tal que A2 − 2A − 3I = 0. Busque A−1

10. Busque todas las matrices A ∈ M2 (K) tal que A2 = I


Capı́tulo 4. Matrices 217

11. 
Determine
√ si es posible x, y ∈ IR, de manera que la matriz
2 √x
sea ortogonal.
y 2
12. Demuestre que el producto de dos matrices ortogonales es ortog-
onal.

13. Sea V = Mn (K). Estudie cuáles de los siguientes subconjuntos


de V , son subespacios vectoriales de V .

(a) S = {A ∈ V ; A es invertible}
(b) T = {A ∈ V ; AB = BA, B una matriz fija}
(c) U = {A ∈ V ; A es idempotente}
(d) W = {A ∈ V ; A es simétrica}
(e) X = {A ∈ V ; A es antisimétrica}
(f) Y = {A ∈ V ; A es ortogonal}
Capı́tulo 5

Determinantes

5.1 Determinantes de matrices de M2(K)


Nos interesa que comiences por saber que la palabra determinante se
refiere a un número que determina cuándo un sistema de ecuaciones
lineales tiene solución.
Comencemos por un sistema de ecuaciones lineales de 2 ecuaciones
linealmente independientes y 2 incógnitas.

Motivación

Consideremos el sistema de ecuaciones lineales l.i. siguiente:


)
(1) : ax + by = α
(2) : cx + dy = β

Hagamos las operaciones siguientes: d·(1)−b·(2): adx−bcx = αd−βb


Luego: (ad − bc)x = αd − βb
Si ad − bc = 0 y αd − β = 0, entonces el sistema es l.d.
Si ad − bc = 0 y αd − βb 6= 0, entonces no existe solución para el
sistema.

219
220 M.T. Alcalde - C. Burgueño Algebra Lineal

αd−βb
Si (ad − bc) 6= 0, entonces x = ad−bc
.
Hagamos ahora las operaciones siguientes c · (1) − a · (2): (bc − ad)y =
αc − βa O bien (ad − bc)y = βa − αc
βa−αc
Si ad − bc 6= 0, tenemos y = ad−bc

Tenemos entonces que el sistema tiene solución si y sólo si ad − bc 6= 0.


Luego la cantidad ad − bc determina si el sistema tiene solución.
El sistema puede ser escrito en la forma matricial siguiente:

a b x α
     
· =
c d y β

Con respecto a la matriz de los coeficientes tenemos la notación si-


guiente:

a b
Notación =: ad − bc

c d



α b a α



β d c β


Entonces x = ;y=
a b a b



c d c d

a b
 
Definición 5.1.1 Sea A = una matriz con sus elementos en
c d
un cuerpo K. El determinante de A, denotado |A|, es el número de
K,

a b
=: ad − bc

c d

Ejemplos


1 2 2 4
= 4 − 6, =4−4

3 4 1 2


Capı́tulo 5. Determinantes 221

Nota

a b
 
Sea A = , A1 = ( a b ), A2 = ( c d ). Podemos escribir
c d
A1
 
D(A), det(A) o bien D . Es decir, podemos considerar el deter-
A2
minante como función de la matriz A o como una función de las filas
de la matriz A.

Propiedades(1) y (2)

a + a′ b + b ′ a b a′ b′
1. = +

c d c d c d



ta tb a b
2. =t·

c d c d

Las mismas propiedades para la segunda fila.


La demostración es trivial. Sigue de la definición.

Ejemplo

2 6 1 3
=2·2· = 4 · (5 − 6) = −4

4 10 2 5

Ejercicio

2 6
Calculemos el valor de

3 9

Solución

2 6 1 3
=2·3· = 2 · 3 · (3 − 3) = 0

3 9 1 3


222 M.T. Alcalde - C. Burgueño Algebra Lineal

Observación


a + a′ b + b′ a b a′ b′
= + =

c + c′ d + d′ c + c′ d + d′ c + c′ d + d′


a b a b a′ b′ a′ b′
= + ′

+

+ ′

c d c d′ c d c d′

Propiedad (3)

Si dos filas son iguales, entonces el determinante de la matriz es nulo.

Demostración

a b
= ab − ab = 0

a b

Propiedad (4)

El determinante de la matriz identidad es 1, es decir,



1 0
=1

0 1

Propiedad (5)

Si se suma un múltiplo de una fila a la otra fila, el valor del determi-


nante no cambia, es decir,

a + tc b + td a b
=

c d c d

Lo mismo ocurre para la segunda fila.


Capı́tulo 5. Determinantes 223

Ejercicio


71 72 L (−1) 71 72
21
=

74 75 = 3 3



71 72
= 3 · = 3(71 − 72) = −3
1 1

Propiedad(6)

Si se intercambian las dos filas, entonces el determinante cambia de


signo, es decir,


a b c d
= −

c d a b

Propiedad(7)

t
a b a b
  
Det = Det
c d c d

Demostración
t
a c

a b

a b

Det = = ad − bc =

c d b d c d

Propiedad(8)

Los vectores ( a  b ) y ( c d ) son linealmente dependientes si y sólo


a b

si el Det es nulo.
c d
224 M.T. Alcalde - C. Burgueño Algebra Lineal

Demostración

Sea ( a b ) = ( αc αd ). Luego

a b αc αd c d
= = α =α·0=0

c d c d c d

Recı́procamente tenemos

a b
Si = 0, entonces ad − bc = 0, es decir, ad = bc.

c d
b
Supongamos c 6= 0 y d 6= 0, luego a = d
· c. Luego

b
( a b ) = ( db · c b · dd ) = ( db · c b
d
· d) = (c d)
d
Luego son linealmente dependientes.
Supongamos d = 0. Luego b = 0 o c = 0.

i) Si b = 0 y c 6= 0, entonces ( a b ) = ( a 0 ) = ac ( c 0 ) =
a
c
( c d ). Luego el vector ( a b ) es linealmente dependiente con
el vector ( c d )
ii) Si b 6= 0 y c = 0, entonces
{( a b ) , ( c d )} = {( a b ) , ( 0 0 )}
el cual es un conjunto l.d. por tener el ~0.

Ejemplo


2 5
=0

6 15

Propiedad(9)

Todas las propiedades anteriores son válidas para las columnas.


Capı́tulo 5. Determinantes 225

Propiedad(10)

Det(A · B) = (DetA) · (DetB)

Demostración

La demostración de esta proposición es un simple cálculo.

5.2 Determinantes de matrices de M3(K)


Motivación

Consideremos el sistema de ecuaciones lineales siguiente:



(1) : ax + by + cz = α 
(2) : dx + ey + f z = β
(3) : gx + hy + iz = γ 

Hagamos las operaciones siguientes:


(ei-hf)(1)+(ch-ib)(2)+(bf-ec)(3):


(aei − ahf )x + (bei − bhf )y + (cei − chf )z = αei − αhf 

(dch − dib)x + (ech − eib)y + (f ch − f ib)z = βch − βib
(gbf − gec)x + (hbf − hec)y + (ibf − iec)z = γbf − γec 

Sumando las tres ecuaciones, tenemos:


[a(ei−hf )+d(ch−ib)+g(bf −ec)]x = α(ei−hf )+β(ch−ib)+γ(bf −ec)
Observemos que el número que multiplica a x se puede escribir como
sigue:

e f b c b c
a − d +g

h i h i e f


226 M.T. Alcalde - C. Burgueño Algebra Lineal

Este tiene solución ssi el coeficiente que acompaña a x es distinto de


0. Luego determina si el sistema tiene o no solución, de ahı́ su nombre.
En forma matricial el sistema se escribe como sigue:
     
a b c x α
d e f  · y  = β 
     

g h i z γ
diremos que el determinante de la matriz de los coeficientes, denotado:

a b c

d e f

g h i

desarrollado por subdeterminante por la primera columna es:



e f b c b c
a − d +g

h i h i e f

Los determinantes que acompañan a las letras a, d y g son llamados


subdeterminantes de a, d y g. Estos determinantes se obtienen de la
matriz inicial quitando la fila y la columna del elemento respectivo.

Definición 5.2.1 Sea


 
a11 a12 a13
A =  a21

a22 a23 

a31 a32 a33
Se define su determinante de acuerdo con la fórmula conocida como
desarrollo por la primera fila.

a a23 a a23 a a22
Det(A) = a11 22 21
− a12
21
+ a13

a32 a33 a31 a33 a31 a32

Definición 5.2.2 Llamamos subdeterminante de aij , denotado S(aij )


al determinante obtenido de A al eliminar la fila i y la columna j.

Utilizando esta notación, tenemos:


Det(A) = a11 S(a11 ) − a12 S(a12 ) + a13 S(a13 )
Capı́tulo 5. Determinantes 227

Ejemplo
 
1 2 1
 1
Sea A =  −1 −1 
. Calculemos el determinante de A.
−1 3 5

1 2 1
−1 −1 1 −1 1 −1
1

−1 −1 = 1

− 2

+ 1

= −8

3 5 −1 5 −1 3
−1 3 5

Nota

El determinante de una matriz de 3 × 3 se puede escribir como


 
A1
 A2  ,
D(A) = Det(A) = Det  

A3

que para mayor comodidad lo denotaremos D(A1 , A2 , A3 ), es decir, el


determinante en función de las filas.
Este mismo número puede ser obtenido a partir de la segunda fila,
llamado desarrollo del determinante por la segunda fila y éste es:

Det(A) = −a21 S(a21 ) + a22 S(a22 ) − a23 S(a23 )

También se puede obtener este mismo número, haciendo el desarrollo


por la tercera fila de la manera siguiente:

Det(A) = a31 S(a31 ) − a32 S(a32 ) + a33 S(a33 )

También por la primera columna:

Det(A) = a11 S(a11 ) − a21 S(a21 ) + a31 S(a31 )

Idem para la segunda y tercera columna.


La segunda columna comienza con signo negativo y la tercera columna
con signo positivo.
228 M.T. Alcalde - C. Burgueño Algebra Lineal

Los determinantes de las matrices de 3 × 3 tienen las mismas 10


propiedades de los determinantes de 2 × 2
Con respecto a la propiedad 6, quiero que quede claro que cada vez
que se intercambian dos filas de una matriz, el determinante cambia
de signo.

Regla de Gramer

(SOLAMENTE matrices de 3×3) Se copian las dos primeras columnas


a la derecha o bien las dos primeras filas abajo de la matriz dada:

a a12 a13 a11 a12
11
a21 a22 a23 a21 a22

a31 a32 a33 a31 a32

Se multiplican las diagonales de la manera siguiente:


a11 a22 a33 + a12 a23 a31 + a13 a21 a32 − a31 a22 a13 − a32 a23 a11 − a33 a21 a12
Cantidad que corresponde al determinante de la matriz.

5.3 Determinante de matrices de Mn(K)


Definición 5.3.1 Sea
a11 a12 · · · a1n
 
 a21 a22 · · · a2n 
A= 
.................
 
 
an1 an2 · · · ann

El determinante de A lo definiremos en forma recursiva.


Tenemos definido los determinantes para las matrices de M2 (K).
Sea i, j un par de números enteros entre 1 y n, es decir, 1 ≤ i ≤ n,
1 ≤ j ≤ n.
Se define el subdeterminante de aij , denotado S(aij ), como el deter-
minante obtenido de A al eliminar la fila i y la columna j.
Capı́tulo 5. Determinantes 229

El determinante de una matriz A de Mn (K), se define en términos de


determinantes de matrices de Mn−1 (K).
Se define:
Det(A) = (−1)i+1 ai1 S(ai1 ) + (−1)i+2 ai2 S(ai2 ) + · · · + (−1)i+n ain S(ain )

Esta definición es conocida como el desarrollo del determinante


por la fila i, i ∈ ZZ, 1 ≤ i ≤ n.
Este determinante se puede escribir como

det(A) = det(A1 , A2 , ..., An ),

donde Ai es la i-ésima fila. (−1)i+j S(aij ) se llama el cofactor de aij .

Propiedad (1)

Si la fila Aj es igual a la suma de dos vectores fila, Aj = C + C ′ ,


entonces

det(A1 , ..., C+C ′ , ..., An ) = det(A1 , ..., C, ..., An )+det(A1 , ..., C ′ , ..., An )

Propiedad (2)

det(A1 , ..., tAj , ..., An ) = t · det(A1 , ..., Aj , ..., An ), ∀t ∈ K

Propiedad (3)

Si hay dos filas iguales, entonces el determinante es nulo.

Propiedad (4)

El determinante de la matriz identidad es 1.


230 M.T. Alcalde - C. Burgueño Algebra Lineal

Propiedad (5)

Si se suma un múltiplo de una fila a otra fila, el valor del determinante


no cambia.

Propiedad (6)

Si se intercambian dos filas, el determinante cambia de signo.

Propiedad (7)

Det(At ) = Det(A)

Propiedad (8)

Dos filas son linealmente dependientes si y sólo si el determinante de


la matriz es nulo.

Propiedad (9)

Todas las propiedades anteriores son válidas para las columnas.

Propiedad (10)

Sean A, B ∈ Mn (K). Entonces

Det(A · B) = Det(A) · Det(B)

Teorema 5.3.1 Sea A ∈ Mn (K), la matriz

a11 a12 · · · a1n


 
 a21 a22 · · · a2n 
A= 
.................
 
 
an1 an2 · · · ann
Capı́tulo 5. Determinantes 231

Entonces

Det(A) = (−1)1+j a1j S(a1j ) + · · · + (−1)n+j anj S(anj )

(llamado desarrollo del determinante por la j-ésima columna).

Teorema 5.3.2 Sea A ∈ Mn (K) una matriz invertible. Entonces

Det(A−1 ) = (DetA)−1

Demostración

1 = Det(In ) = Det(A · A−1 ) = DetA · Det(A−1 )


Luego (DetA)−1 = Det(A−1 )

5.4 Interpretación geométrica del deter-


minante
Si en el plano cartesiano consideramos los vectores u y v, entonces el
área del paralelógramo que tiene por lados estos vectores corresponde
a |Det(u, v)|, es decir, el valor absoluto de Det(u, v),donde u y v son
considerados como vectores filas.

Ejemplo


2 0
A = | | = 6
1 3

1 3
A = | | = |0 − 6| = | − 6| = 6
2 0

Si en un sistema cartesiano de 3 coordenadas, consideramos los vec-


tores u, v y w, el volumen del paralelepı́pedo rectangular de lados u, v
y w es
232 M.T. Alcalde - C. Burgueño Algebra Lineal

V ol(u, v, w) = |Det(u, v, w)|

donde u, v y w son considerados como vectores filas.

5.5 Matriz adjunta


En el capı́tulo anterior observaste que no toda matriz tiene matriz
inversa.
Lo interesante es, que toda matriz A, tiene una matriz asociada a ella,
que siempre existe, es decir, que siempre ”va junto a A”, es por esto
llamada la matriz adjunta de A.
Comencemos por el Lema siguiente:

Lema

Sea A ∈ Mn (K)
Si A es invertible, entonces Det(A) 6= 0

Demostración

1 = Det(In ) = Det(A · A−1 ) = DetA · DetA−1 .


Luego DetA 6= 0.

Nota

Ahora quisiéramos saber si el recı́proco es verdadero, es decir, si


DetA 6= 0, entonces A es invertible. Para esto debemos construir la
inversa, en caso que exista.
Veamos qué ocurre en M2 (K).
Capı́tulo 5. Determinantes 233

Lema

Sea A ∈ M2 (K). Entonces siempre existe B ∈ M2 (K) tal que


detA 0
 
A·B =
0 detA

Demostración
a b d −b
   
En efecto, sea A = , consideremos B = y se tiene,
c d −c a
a b d −b detA 0
     
· =
c d −c a 0 detA

Lema

Sea A ∈ M3 (K). Entonces, siempre existe B ∈ M3 (K) tal que

A · B = (DetA) · I3

Demostración
 
a11 a12 a13
 a21
En efecto, sea A =  a22 a23 
,
a31 a32 a33
 
S(a11 ) −S(a21 ) S(a31 )
Tomando B = 
 −S(a 12 ) S(a22 ) −S(a32 ) 

S(a13 ) −S(a23 ) S(a33 )
Tenemos
   
a11 a12 a13 S(a11 ) −S(a21 ) S(a31 )
 a21 a22 a23  ·  −S(a12 ) S(a22 ) −S(a32 )  =
   

a31 a32 a33 S(a13 ) −S(a23 ) S(a33 )


 
detA 0 0
=
 0 detA 0 

0 0 detA
234 M.T. Alcalde - C. Burgueño Algebra Lineal

Teorema 5.5.1 Si A ∈ Mn (K), entonces siempre existe B ∈ Mn (K)


tal que A · B = |A| · In

Demostración

La demostración consiste en probar que si A = (ai,j ) entonces

B = ((−1)i+j S(aji ))

cumple las condiciones del teorema.


Esta demostración no la haremos pues, escapa a los objetivos del curso.

Definición 5.5.1 Esta matriz B es llamada, la matriz adjunta de


A, denotada Ã.

Es decir la adjunta de una matriz A es la matriz transpuesta de la


matriz de los cofactores de la matriz A.

Corolario 5.5.2 Si A ∈ Mn (K) tal que DetA 6= 0, entonces A es


invertible y
1
A−1 = · Ã
DetA

Nota

Ahora tenemos dos maneras de encontrar la matriz inversa, cuando


ésta existe. Obviamente que el método más seguro es el escalo-
namiento, pues en este nuevo método hay muchos determinantes en
juego y hay que estar pensando en A y en At al mismo tiempo.

5.6 Determinante de un endomorfismo


Una propiedad genial que cumplen los determinantes, la tienes en el
siguiente lema:
Capı́tulo 5. Determinantes 235

Lema

Sea V un K-espacio vectorial, sea f ∈ End(V ). Sea M = (f ; B, B) y


M ′ = (f : C, C) con B y C ciertas bases de V . Entonces
DetM = DetM ′

Demostración

Sea P la matriz de cambio de base que exhibe la base C según la base


B. Entonces
(f ; C, C) = P −1 · (f ; B, B) · P
Luego
M ′ = P −1 · M · P
Tenemos
DetM ′ = Det(P −1 )·DetM ·DetP = (DetP )−1 ·DetM ·DetP = DetM

Observación

¿Te das cuenta, que nuevamente hemos encontrado un invariante?


Si, pues, si cambiamos una base en la representación matricial de un
endomorfismo, entonces, seguimos teniendo el mismo determinante.
Es obvia la siguiente definición:

Definición 5.6.1 Sea V un K-espacio vectorial de dimensión finita.


Para todo endomorfismo f ∈ End(V ), se llama determinante de
f , denotado Det(f ), el determinante de la matriz de f en una base
cualquiera de V .

Observación

El valor del determinante de un endomorfismo nos indica si éste es o


no un automorfismo.
Esta caracterización la tenemos en el siguiente lema:
236 M.T. Alcalde - C. Burgueño Algebra Lineal

Lema

Sea V un K-espacio vectorial de dimensión finita. Entonces

f es un automorfismo de V ssi Det(f ) 6= 0

Demostración

f es un automorfismo ssi f es invertible ssi (f ; B, B) es invertible ∀B,


base de V ssi Det(f ; B, B) 6= 0, ∀B, base de V ssi Det(f ) 6= 0

Nota

Equivalentemente:

f no es un automorfismo ssi Det(f ) = 0

5.7 Ejercicios resueltos


Ejercicio

Resolvamos el determinante siguiente:

22 32 42 52




62 72 82 92
102 112 122 132


142 152 162 172

Solución

22 32 42 52 22 32 42 52



62 72 82 92 62 − 22 72 − 32 82 − 42 92 − 52

= =

102 112 122 132 10− 22 112 − 32 122 − 42 132 − 52


142 152 162 172 142 − 22 152 − 32 162 − 42 172 − 52


Capı́tulo 5. Determinantes 237

22 32 42 52
2
2 32 42 52



4·8 4 · 10 4 · 12 4 · 14 4 5 6 7
= = 4·8·12·23 =

8 · 12 8 · 14 8 · 16 8 · 18 6 7 8 9

12 · 16 12 · 18 12 · 20 12 · 22 8 9 10 11
2
2 32 42 52


4 5 6 7
10
= 2 · 3
=0

2 2 2 2

4 4 4 4

Ejercicio

Calculemos el determinante de Vandermonde de 3 × 3 siguiente:

a2

1 a

1 b

b2

1 c c2

Solución

a2 a2

1 a L (−1) 1 a
21
1 b

b2
= 0 b − a b 2 − a2 =

1 c c2 L31 (−1) 0 c − a c2 − a2

a2

1 a
1 b + a L (−1)
21
= (b − a)(c − a) 0 1 b + a = (b − a)(c − a)

1 c+a =

0 1 c+a

1 b+a 1 b+a
= (b − a)(c − a)
= (b − a)(c − a)(c − b)

=

0 c−b 0 1
= (b − a)(c − a)(c − b)

Ejercicio

Demostremos que
238 M.T. Alcalde - C. Burgueño Algebra Lineal


1 1 1

a b c = (a + b + c)(b − a)(c − a)(c − b)

3
a b3 c 3

Solución

1 1 1 C (−1) 0 1 0
32


a b c = a−b b c − b =


3
a b3 c 3 C12 (−1) a3 − b3 b3 c3 − b3



0 1 0

= (a − b)(c − b)

1 b 1 =

2
a + ab + b2 b3 c2 + bc + b2



0 1 0

= (a − b)(c − b)

0 b 1 =

2
a − c2 + b(a − c) b3 c2 + bc + b2



0 1 0

= (a − b)(c − b)(a − c)

0 b 1 =

a + b + c b3 c2 + bc + b2


1 0
= (a − b)(c − b)(a − c)(a + b + c)

=

b 1
= (a − b)(c − b)(a − c)(a + b + c)

Ejercicio

Si B ∈ Mn (K) y detB = 5 entonces det(2B) = 2n · detB = 2n · 5

Ejercicio

Calculemos el determinante de la matriz de rotación en un ángulo α


Capı́tulo 5. Determinantes 239

Solución

cos α − sin α
= cos2 α + sin2 α = 1

sin α cos α

Ejercicio

Busquemos los valores de k ∈ K, de manera que


k + 3 1 −2


3 −2 1 = −6
k2 3 −3

Solución

k + 3 1 −2 k + 3 −1 −2
C (1) L (−1)

3 −2 1 23
3 −1 1 21
= =

k2 3 −3 k2 0 −3



k + 3 −1 −2
−k 3 L (1) k2 − k 0
12
−k 0 3 = 2 =

k −3 = k2 −3

k2 0 −3

−3(k 2 − k)
Luego −3(k 2 − k) = −6, luego k 2 − k − 2 = 0, luego (k − 2)(k + 1) = 0
Entonces k = 2 o k = −1

Ejercicio

Resolvamos el determinante siguiente:


3
−6 x
1

−2 y
2 −4 z

240 M.T. Alcalde - C. Burgueño Algebra Lineal

Solución


3 −6 x 3 0 x
C (2)
1

−2 y 21 1

0 y = 0
=
2 −4 z 2 0 z

Ejercicio

Demostremos que:


x y z

2
x y 2 z 2 = (y − z)(z − x)(x − y)(yz + xz + xy)
yz xz xy

Solución

x y z C13 (−1) x−z y−z z

2
x y 2 z 2 = 2
x − z2 2
y −z 2
z 2 =
yz xz xy C23 (−1) yz − xy xz − xy xy




1 1 z
= (x − z)(y − z) x + z

y + z z 2 =
−y −x xy


C21 (−1)
1 0 0

= (x − z)(y − z) x + z y − x

−xz =

C31 (−z) −y y − x xy + yz



1 −xz
= (x − z)(y − z)(y − x) =

1 xy + yz

1 −xz
= (x − z)(y − z)(y − x) =

0 xy + yz + xz

= (y − z)(z − x)(x − y)(yz + xz + xy)


Capı́tulo 5. Determinantes 241

Ejercicio

Calculemos en tres pasos el determinante siguiente:

1 x y z+t




1 y z x+t

1 z t x+y



1 t x y+z

Solución

1 x y z+t L21 (−1) 1 x y z+t





1 y z x+t = 0 y−x z−y x−z
=

1 z t x+y L31 (−1) 0 z−x t−y x+y−z−t



1 t x y+z L (−1)
41
0 t−x x−y y−t


y−x z−y x−z C (1) y−x z−y 0
31


= z − x t − y x+y−z−t
= z−x t−y

0 =0

t−x x−y y−t C32 (1) t−x x−y 0

!!Trivial!!

Ejercicio

Demostremos que:



1 cos x cos 2x
cos x cos 2x cos 3x = 0

cos 2x cos 3x cos 4x

242 M.T. Alcalde - C. Burgueño Algebra Lineal

Solución

Recordemos las siguientes identidades:


cos(α + β) = cos α cos β − sin α sin β
cos(α − β) = cos α cos β + sin α sin β
cos(α + β) + cos(α − β) = 2 cos α cos β

Reemplazando en la última identidad α + β = 3x y α − β = x, es


decir, α = 2x y β = x, tenemos:

1. cos 3x + cos x = 2 cos 2x cos x


Análogamente se obtienen:
2. cos 4x + cos 2x = 2 cos 3x cos x
3. (cos 2x) + 1 = 2 cos2 x

Entonces


1 cos x cos 2x L31 (1)
cos x cos 2x cos 3x =

cos 2x cos 3x cos 4x (1)(2)(3)



1 cos x cos 2x

= cos x

cos 2x cos 3x =

2 cos2 x 2 cos x cos 2x 2 cos x cos 3x


1 cos x cos 2x

= 2 cos x cos x cos 2x cos 3x = 2 cos x · 0 = 0
cos x cos 2x cos 3x

Ejercicio

Demostremos que

a2 1 a2 a3

bc a

ca b

b2 = 1 b2

b3
con abc 6= 0
ab c c2 1 c2 c3


Capı́tulo 5. Determinantes 243

Solución

bc a a2 L1 (a) a2 a3 1 a2 a3

abc
= 1

ca b b2 abc b2 b3 = 1 b2 b3

ab c c2 L 2 (b)
abc
abc c 2 c3 1 c2 c3

L3 (c)

Ejercicio

Calculemos el siguiente determinante:

1 x x2 x3




x3 1 x x2
x2 x3 1 x


x x 2 x3 1

Solución

1 x x2 x3 L21 (−x3 ) 1 x x2 x3



x3 1 x x2 = 0 1 − x x − x x − x6
4 5 2
=

x x 1 x L31 (−x2 )
2 3
0 0 1 − x4 x − x5


x x2 x3 1 L41 (−x) 1 − x4

0 0 0

= (1 − x4 )3

Ejercicio

Que el ejercicio anterior nos sirva de inspiración para resolver el de-


terminante de (n + 1) × (n + 1) siguiente:


1 x x 2 x3 · · · xn

xn 1 x x2 · · · xn−1


xn−1 xn 1 x · · · xn−2




............................

x x 2 x3 x4 · · · 1


244 M.T. Alcalde - C. Burgueño Algebra Lineal

Solución

Con las operaciones L21 (−xn ), L31 (−xn−1 ), . . . , Ln+11 (−x) tenemos



1 x x2 x3 ··· xn

0 1 − xn+1 x − xn+2 x2 − xn+3 · · · xn−1 − x2n


1 − xn+1 x − xn+2 · · · xn−2 − x2n−1 = (1 − xn+1 )n


0 0

................................................

0 0 0 0 · · · 1 − xn+1

Ejercicio

Resolvamos el determinante de n × n siguiente:




x+1 x x ··· x x

x x+2 x ··· x x




x x x + 3 ··· x x


..................................

x x x ··· x x + n

Solución

L21 (−1)


x + 1 x x ··· x x

L31 (−1)
−1 2 0 ··· 0 0


=

−1 0 3 ··· 0 0 =
..
......................

.


−1 0 0 ··· 0 n

Ln1 (−1)
n
1

X
1+x x x ··· x x

k=1 k

n
∗ 0 2 0 ··· 0 0 1
X

= (1 + x )n!
=
0 0 3 ··· 0 0
k=1 k
...........................



0 0 0 ··· 0 n

Donde ∗ = C12 12 C13 13 · · · C1n n1


Capı́tulo 5. Determinantes 245

Ejercicio

Resolvamos el determinante de n × n siguiente:

1 0 1 1 ··· 1 1




1 1 0 1 ··· 1 1

1 1 1 0 ··· 1 1




.....................

1 1 1 1 ··· 1 0



0 1 1 1 ··· 1 1

Solución

1 ··· 1

1 0 1 1
L21 (−1)
0 1 −1 0 · · · 0 0

L31 (−1)
0 1 0 −1 · · · 0 0

= .......................... =

..
.

0 1 0 0 · · · 0 −1


Ln−11 (−1) 0 1 1
1 ··· 1 1


1 −1 0 · · · 0 0 0 −1 0 · · · 0 0

1 0 −1 · · · 0 0 0 0 −1 · · · 0 0

(a) (b) . . . . . . . . . . . . . . . . . . . . . . . . . . .


. . . . . . . . . . . . . . . . . . . . . . .
= =
1 0 0 · · · 0 −1 0

0 0 · · · 0 −1

1 1 1 ··· 1 1 n−1 1 1 ··· 1 1

−1 0 ··· 0 0


0 −1 · · · 0 0
= (n − 1)(−1n−1+1 )
....................


0 0 · · · 0 −1
= (n − 1)(−1)n (−1)n−2 = (n − 1)(−1)2n−2 = n − 1
(a): desarollamos el determinante por la primera columna.
(b) A la columna 1 se le suman las demás columnas
246 M.T. Alcalde - C. Burgueño Algebra Lineal

Ejercicio

Resolvamos el determinante de n × n siguiente:



n n − 1 n − 2 ··· 2 1

n − 1 n − 2 n − 3 ··· 1 0




..............................


2 1 0 ··· 0 0

1 0 0 ··· 0 0

Solución

Observando los casos n = 3, 4, 5 podrás conjeturar que:



n n − 1 n − 2 ··· 3 2 1

n − 1 n − 2 n − 3 ··· 2 1 0


(n+1)(n+2) n2 +3n
−3


................................. = (−1)
2 = (−1) 2

2 1 0 ··· 0 0 0

1 0 0 ··· 0 0 0

lo cual se demuestra fácilmente por inducción.

5.8 Ejercicios propuestos

1. Encuentre el valor del determinante siguiente:


71 72 73

74 75 76

77 78 79

2. Encuentre el valor del determinante siguiente:


Capı́tulo 5. Determinantes 247



10 15 20 25 30

11 17 23 29 35




12 19 26 33 40


13 21 29 37 45

14 23 32 41 50

(a − x)2 (a − y)2 (a − z)2





3. Demuestre que (b − x)2 (b − y)2 (b − z)2

(c − x)2 (c − y)2 (c − z)2

= 2(b − c)(c − a)(a − b)(y − z)(z − x)(x − y)

4. Demuestre por inducción que el determinante de n × n siguiente




∗ ∗ ··· ∗ 1

∗ ∗ ··· 1 0


(n+2)(n+1)
+1


............... = (−1)
2

∗ 1 ··· 0 0

1 0 ··· 0 0

5. Calcule el determinante de n × n siguiente:




a b b ··· b b

a a b ··· b b




..................


a a a ··· a b

a a a ··· a a


Capı́tulo 6

Diagonalización

6.1 Introducción
Tú sabes que una aplicación lineal está determinada por su compor-
tamiento en una base. Quisiéramos saber si existirá una base tal que
la imagen de cada vector de ella, sea colineal con él mismo. Es decir, si
V es un K-espacio vectorial y f : V −→ V un endomorfismo ¿Existirá
B = {v1 , v2 , ..., vn } base de V , tal que

f (vi ) = λi vi , i = 1, ..., n ?

Esta serı́a una manera más fácil, más cómoda de trabajar con un
endomorfismo. Por ejemplo, serı́a ¡trivial! conocer el valor de

f n (vi ), ∀n ∈ IN, i = 1, ..., n

Seguramente recuerdas que una aplicación lineal tiene una familia de


matrices asociadas. Buscamos, entonces, la representación matricial
más simple posible. Posiblemente concordamos en decir que ésta serı́a
una matriz diagonal.
En este capı́tulo veremos las condiciones para que una aplicación li-
neal, tenga asociada una matriz diagonal. También aprenderemos a
encontrar tal matriz, en caso que ésta exista.

249
250 M.T. Alcalde - C. Burgueño Algebra Lineal

Las matrices diagonales tienen propiedades muy agradables. Por ejem-


plo, ellas conmutan entre sı́. Calcular el determinante de una matriz
diagonal es ¡Trivial!, pues es el producto de los elementos de la dia-
gonal. También, es fácil conocer las potencias de una matriz diagonal.
Veámoslo en la siguiente observación.

Observación

2
5 0 5 0 5 0 52 0
      
= · =
0 7 0 7 0 7 0 72
3 2 
5 0 5 0 5 0 52 0 5 0 53 0
       
= · = =
0 7 0 7 0 7 0 72 0 7 0 73

Hipótesis de inducción

n
5 0 5n 0
  
=
0 7 0 7n

Demostremos que
n+1
5 0 5n+1 0
  
=
0 7 0 7n+1
n+1 n 
5 0 5 0 5 0 5n 0 5 0
      
= · = · =
0 7 0 7 0 7 0 7n 0 7
5n+1 0
 
=
0 7n+1
Luego para todo número natural n, tenemos

n
5 0 5n 0
  
=
0 7 0 7n

Lema

Para todo k, número natural, tenemos


Capı́tulo 6. Diagonalización 251

k
a11 0 0 ··· 0 0 ak11 0 0 ··· 0
  
k
 0 a22 0 · · · 0 0   0 a22 0 · · · 0 
 =
   
....................... ....................
 
   
0 0 0 · · · 0 ann 0 0 0 · · · aknn

La demostración se hace por inducción sobre k.

Pregunta

Dada una aplicación lineal f ¿Habrá alguna matriz diagonal asociada


af ?
Veamos algunos ejemplos

Observación

Sea f : K 2 −→ K 2 ; f (x, y) = (3y, 3x)


Buscamos una base B = {v1 , v2 } tal que
∗ 0
 
(f ; B, B) =
0 ∗
En este caso
f (v1 ) = λ1 v1 = λ1 v1 + 0 · v2
f (v2 ) = λ2 v2 = 0 · v1 + λ2 v2
Buscamos los vectores v ∈ K 2 tal que

f (v) = λv

Supongamos que tales vectores existen. Tenemos


f (x, y) = (3y, 3x) = λ(x, y). Luego (3y, 3x) = (λx, λy)
De donde
)
3y = λx
3x = λy
252 M.T. Alcalde - C. Burgueño Algebra Lineal

Si x, y 6= 0 entonces 9xy = λ2 xy, luego λ2 = 9 y se obtiene dos


resultados, a saber λ1 = 3 y λ2 = −3
Caso λ1 = 3
f (x, y) = (3y, 3x) = 3(x, y). Luego 3y = 3x. Luego x = y. Los vectores
asociados a λ = 3, tienen la forma v = (x, x).
Sea v1 = (1, 1).
Caso λ2 = −3
f (x, y) = (3y, 3x) = −3(x, y). Luego (3y, 3x) = (−3x, −3y). Luego
x = −y. Los vectores asociados a λ2 = −3, tienen la forma v =
(x, −x). Sea v2 = (1, −1)
Tomemos B = {(1, 1), (1, −1)}.
En este caso

f (1, 1) = 3(1, 1) = 3(1, 1) + 0(1, −1)

f (1, −1) = −3(1, −1) = 0(1, 1) + −3(1, −1)


Luego
3 0
 
(f ; B, B) =
0 −3
En este caso es posible encontrar una matriz diagonal asociada.
Veamos otro ejemplo

Observación

Sea
f : K 2 −→ K 2 ; f (x, y) = (2y, −x)
¿Existirá B, base de K 2 , tal que (f ; B, B) es una matriz diagonal?
Supongamos que existe v = (x, y) ∈ K 2 tal que f (x, y) = λ(x, y)
Tenemos
f (x, y) = λ(x, y) y f (x, y) = (2y, −x)
Luego
(2y, −x) = λ(x, y)
Capı́tulo 6. Diagonalización 253

De donde
)
2y = λx
−x = λy

Luego −2xy = λ2 xy. Suponemos x, y 6= 0, pues x = 0 ⇔ y = 0.


Ocurre que v = (0, 0) no puede estar en una base. Luego λ2 = −2, lo
cual es una contradicción.
En este caso, entonces, no existe una base B tal que (f ; B, B) sea
diagonal.

Nota

Esta forma de resolver el problema es un tanto complicada. Entonces


buscaremos un método que nos diga cuándo existe una tal matriz
diagonal y cómo encontrarla.

6.2 Valores propios y vectores propios

Sea V un K-espacio vectorial. Sea f : V −→ V , es decir, f , un endo-


morfismo de V . Definiremos elementos propios a f.
Propio, en filosofı́a, se aplica al accidente inseparable de la esencia y
naturaleza de las cosas.

Observación

En la primera motivación tenı́amos: f : K 2 −→ K 2 ; f (x, y) = (3y, 3x).


Averiguamos que f (1, 1) = 3(1, 1) y f (1, −1) = −3(1, −1). Diremos
que v1 = (1, 1) , v2 = (1, −1) son ”vectores propios” de f y diremos
que λ1 = 3 y λ2 = −3 son los ”valores propios” asociados a v1 , v2
respectivamente.
254 M.T. Alcalde - C. Burgueño Algebra Lineal

Lema

Sea f : V −→ V lineal, y f (v) = λv y f (v) = λ′ v, cierto v ∈ V .


Entonces λ = λ′

Demostración

λv = λ′ v =⇒ λv −λ′ v = ~0 =⇒ (λ−λ′ )v = ~0 =⇒ λ−λ′ = 0 =⇒ λ = λ′


Debido a la unicidad de λ, damos la siguiente definición:

Definición 6.2.1 Se llama valor propio de un endomorfismo f ∈


End(V ), a todo escalar λ ∈ K que tiene la propiedad siguiente:
Si existe v 6= ~0 tal que f (v) = λv, entonces este vector v 6= ~0 es
llamado vector propio correspondiente al valor propio λ.

Observación

Sea f : V −→ V tal que f (v) = λv , cierto v ∈ V , cierto λ ∈ K,


entonces f (αv) = αf (v) = α · λv = λ(αv).
Luego αv es también un vector propio asociado al valor propio λ, para
todo α ∈ K , pero podrı́a haber otros vectores linealmente indepen-
dientes a v ¿por qué no los va a haber?.
Es natural, entonces definir el conjunto de vectores propios asociados
a un valor propio λ. Veamos cómo caracterizarlo:
f (v) = λv ⇔ f (v) − λv = ~0
⇔ f (v) − λidV (v) = ~0
⇔ (f − λidV )(v) = ~0
⇔ v ∈ N (f − λidV )

Tenemos entonces:
Para todo valor propio λ de f se tiene
f (v) = λv ⇔ v ∈ N (f − λidV )
Tenemos la definición siguiente:
Capı́tulo 6. Diagonalización 255

Definición 6.2.2 Para todo valor propio λ, el núcleo,N (f − λidV )


es llamado el sub-espacio propio correspondiente a λ, el cual lo
denotaremos por Sλ . Es decir:

Sλ := N (f − λidV )

Nota

El núcleo de un morfismo puede tener dimensión mayor o igual a 2,


luego puede haber vectores l.i. asociados a un mismo λ.

Observación

El siguiente teorema nos dará una caracterización sobre la existencia


de un valor propio.

Teorema 6.2.1 Sea V un K-espacio vectorial de dimensión finita y


f ∈ End(V ). Entonces una condición necesaria y suficiente para que
un escalar λ sea un valor propio de f , es det(f − λidV ) = 0.

Demostración

λ es un valor propio de f ⇔ existe v 6= ~0 tal que f (v) = λv


⇔ (f − λidV )(v) = ~0, v 6= ~0
⇔ v ∈ N (f − λidV ), v 6= ~0
⇔ N (f − λidV ) 6= {~0}
⇔ f − λidV no es un automorfismo
⇔ det(f − λidV ) = 0

Observación

Si f ∈ End(V ), entonces también se tiene f − λidv ∈ End(V ). La


proposición anterior y esta observación nos introducen a la definición
siguiente.
256 M.T. Alcalde - C. Burgueño Algebra Lineal

Definición 6.2.3 El det(f − λidV ) es llamado el Polinomio Carac-


terı́stico de f. Nótese que es un polinomio en λ.

Nota

De acuerdo a lo visto anteriormente tenemos que λ es un valor propio


de f ssi λ es una raı́z del polinomio caracterı́stico de f .

Definición 6.2.4 Si M ∈ Mn (K), el det(M − λIn ) es llamado el


Polinomio Caracterı́stico de la matriz M .

Veamos ahora la relación que existe entre los vectores propios asocia-
dos a valores propios distintos de dos en dos.

Proposición 6.2.2 Sea V un K-espacio vectorial de dimensión finita


y supongamos que un endomorfismo f ∈ End(V ) tiene n valores pro-
pios λ1 , λ2 , ..., λn distintos de dos en dos, con vectores propios asocia-
dos v1 , v2 , ..., vn , entonces B = {v1 , v2 , ..., vn } es l.i.

Demostración

Hagamos inducción sobre n.

1. Supongamos que tenemos dos valores propios distintos λ y µ,


con vectores propios distintos asociados v y w respectivamente.
Supongamos que w = αv.
Tenemos f (w) = f (αv) = αf (v) = αλv = λ(αv) = λw, luego
λ = µ contradicción luego {v, w} es l.i.

2. Supongamos que tenemos n valores propios distintos de dos en


dos λ1 , λ2 , ..., λn y {v1 , v2 , ..., vn } un conjunto l.i. de vectores aso-
ciados a los valores propios, respectivamente.

3. Debemos demostrar que si tenemos (n+1) valores propios distin-


tos de dos en dos, λ1 , λ2 , ..., λn , λn+1 , entonces {v1 , v2 , ..., vn , vn+1 }
Capı́tulo 6. Diagonalización 257

un conjunto de vectores propios asociados a los valores propios,


son l.i..
Supongamos que

vn+1 = α1 v1 + α2 v2 + ... + αn vn ,

luego
f (vn+1 ) = α1 f (v1 ) + ... + αn f (vn ) = α1 λ1 v1 + ... + αn λn vn
Pero

f (vn+1 ) = λn+1 vn+1 = λn+1 α1 v1 + λn+1 α2 v2 + ... + λn+1 αn vn

Luego:

α1 λ1 = λn+1 α1



α2 λ2 = λn+1 α2


............... 


αn λn = λn+1 αn

Pero como vn+1 es no nulo, sabemos que al menos un αi es no


nulo, luego λi = λn+1 , contradicción. Es decir {v1 , v2 , .., vn , vn+1 }
es l.i..

Por (1), (2) y (3) tenemos que la proposición es válida para todo
n ∈ N , n ≤ dimV .

Definición 6.2.5 Sea V un K - espacio vectorial. Si f ∈ End(V ) y


si existe B = {v1 , .., vn } una base de V tal que:

λ1 0 · · · 0
 
 0 λ2 · · · 0 
(f ; B; B) =  
...............
 
 
0 0 · · · λn

entonces diremos que f es diagonalizable y B será llamada una base


diagonalizante de f .
258 M.T. Alcalde - C. Burgueño Algebra Lineal

Definición 6.2.6 Si M ∈ Mn (K) y existe P ∈ Mn (K) invertible tal


que M ′ = P −1 M P con

λ1 0 · · · 0
 
 0 λ2 · · · 0 
M′ =  
...............
 
 
0 0 · · · λn

entonces diremos que M es diagonalizable.

6.3 Valores propios simples


En esta sección, estudiaremos el caso particular de un espacio vectorial
V , con dimV = n, f ∈ End(V ) y n valores propios distintos de dos
en dos. Comencemos por la siguiente definición.

Definición 6.3.1 Si λ es una raı́z simple del polinomio caracterı́stico


entonces diremos que λ es un valor propio simple.

Nota

Obviamente que λ es un valor propio de f ssi λ es una raı́z del poli-


nomio caracterı́stico de f .

Proposición 6.3.1 Sea V un K-espacio vectorial con dimV = n.


Supongamos que f ∈ End(V ) tiene n valores propios simples λ1 , λ2 ,
. . ., λn con vectores propios asociados v1 , v2 , ..., vn entonces

λ1 0 · · · 0
 
 0 λ2 · · · 0 
(f ; B, B) =  
...............
 
 
0 0 · · · λn

con B = {v1 , v2 , ..., vn }


Capı́tulo 6. Diagonalización 259

Demostración

B = {v1 , v2 , ..., vn } es l.i. y puesto que son n vectores, forman una base
de V . Además, f (v1 ) = λ1 v1 , f (v2 ) = λ2 v2 , ..., f (vn ) = λn vn . Luego se
obtiene la matriz diagonal buscada.

Procedimiento para diagonalizar una matriz

Supongamos que M ∈ Mn (K) es una matriz diagonalizable y supon-


gamos que las raı́ces del polinomio caracterı́stico de M , det(M − λIn ),
son raı́ces distintas de dos en dos.
Por el Teorema Fundamental del Algebra Lineal, existe f ∈ End(K n )
tal que M = (f ; C, C) con C la base canónica de K n .
Sean λ1 , λ2 , ..., λn los valores propios de f . La ecuación :
x1 0
   
x   0 
2 
( M − λ i In ) ·  =

 (∗)

··· ···

xn 0

nos entrega los vectores propios asociados a λi . En este caso dimSλi =


1. Se escoge vi = (x1 , x2 , ..., xn ). Obviamente que la ecuación (∗) se
escalona, para obtener un vi a elección. Tenemos que D = {v1 , v2 , ..., vn }
es una base diagonalizante de f .
Tenemos :

λ1 0 · · · 0
 
 0 λ2 · · · 0 
P −1 M P =  
...............
 
 
0 0 · · · λn

donde P es la matriz que exhibe las componentes de los vectores de la


base D según la base canónica C. Nótese que si tenemos D, es trivial
encontrar la matriz P .

(f ; D, D) = (C según D)(f ; C, C)(D según C)


260 M.T. Alcalde - C. Burgueño Algebra Lineal

Esta matriz P no es única, pues depende de la base D escogida.


Además, el orden de los vectores propios fue escogido al azar, luego la
matriz diagonal tampoco es única. Por lo tanto es necesario fijar un
orden y luego respetarlo.

Ejercicio

Diagonalicemos
 
4 6 0
M =  −3 −5 0 

 ∈ M3 (K)
−3 −6 −5

Solución

M = (f ; C; C) cierto f ∈ End(K 3 ), C la base canónica de K 3 .


Comencemos por buscar los valores propios de f .
Sea det(M − λI3 ) = 0

4−λ 6 0
4−λ 6
−3 −5 − λ 0 = (−5 − λ) =

−3 −5 − λ
−3 −6 −5 − λ



1 1 1 0
= (−5 − λ)(1 − λ) = (λ + 5)(λ − 1) =

−3 −5 − λ −3 −2 − λ

= (λ + 5)(λ − 1)(λ + 2)(−1)


Luego los valores propios son −5, 1, −2.
Busquemos los vectores propios.
 
x
Sea v =  y  un vector propio. Si λ es el valor propio correspondiente
 

z  
0
a v, entonces (M − λI3 )(v) =  0 
 

0
Escribir este sistema en su forma más sencilla, equivale a escalonar la
matriz M − λI3
Capı́tulo 6. Diagonalización 261

Caso λ1 = −5
Al azar fue escogido −5 como primer valor propio.

     
9 6 0 3 2 0 1 0 0
 −3 0 0  −→  1 0 0   1 2 0 
     
−→
−3 −6 0 1 2 0 3 2 0

   
L21 (−1) 1 0 0 1 0 0
−→  0 2 0 
 
 0 1 0 
 
−→
L31 (−3) 0 2 0 0 0 0
Es decir obtenemos el siguiente sistema equivalente

    
1 0 0 x 0
 0 1 0  y  =  0 
    

0 0 0 z 0

Luego x = y = 0, ∀z ∈ K
Nótese que tenemos 0 · z = 0. Luego es válido para todo z ∈ K.
Escojamos v1 = (0, 0, 1). Podrı́amos haber escogido v1 = (0, 0, 2) o
v1 = (0, 0, 3) etc.
S−5 = {(0, 0, z); z ∈ K} =< (0, 0, 1) >
Caso λ2 = −2

     
6 6 0 1 1 0 L21 (−1) 1 1 0
 −3 −3 0  −→  1 1 0  −→  0 0 0 
     

−3 −6 −3 1 2 1 L31 (−1) 0 1 1

 
1 0 −1
L13 (−1) 
 0 0 0 

−→
0 1 1
Es decir obtenemos el siguiente sistema equivalente
262 M.T. Alcalde - C. Burgueño Algebra Lineal

    
1 0 −1 x 0
 0 0 0  y  =  0 
    

0 1 1 z 0
Luego x = z, y = −z.
Luego S−2 = {(z, −z, z); z ∈ K} =< (1, −1, 1) >
Sea v2 = (1, −1, 1)
Caso λ3 = 1

L1 ( 13 )
     
3 6 0 L21 (1) 3 6 0 1 2 0
 −3 −6 0  −→  0 0 0  −→   0 0 0 
    

−3 −6 −6 L31 (1) 0 0 −6 L3 (− 61 ) 0 0 1

Es decir obtenemos el siguiente sistema equivalente


    
1 2 0 x 0
 0 0 0  y  =  0 
    

0 0 1 z 0

Luego x + 2y = 0, z = 0. Luego S1 = {(−2y, y, 0); y ∈ K}, o bien


S1 =< (1, − 12 , 0) >
Sea v3 = (1, − 12 , 0)
Sea D = {(0, 0, 1), (1, −1, 1), (1, − 12 , 0)}
Entonces
 
−5 0 0
(f ; D, D) =  0 −2 0 


0 0 1
Sea P la matriz que exhibe la base D según la base canónica C, luego
 
0 1 1
1 
P =
 0 −1 − 2 
1 1 0
Capı́tulo 6. Diagonalización 263

Luego (f ; D; D) = P −1 M P

(f ; D, D) = (C según D)(f ; C, C)(D según C)

Ejercicio
 
2 2 3
Sea M =  1 2 1   la matriz de un endomorfismo f de K 3 con

2 −2 1
respecto a la base canónica. Busquemos:

1. El polinomio caracterı́stico de f.

2. Los valores propios de f y sus subespacios asociados.

3. Una base diagonalizante D

4. La matriz diagonal (f ; D) y una matriz invertible P tal que


(f ; D) = P −1 M P

Solución

Comencemos por encontrar el polinomio caracterı́stico de f ,

p(λ) = det(M − λI3 )


En efecto

2−λ 2 3 4−λ 0 4−λ
L13 (1)

1 2−λ 1
1 2−λ 1 =

=

2 −2 1 − λ 2 −2 1 − λ



1 0 1 1 0 0
C31 (−1)
(4 − λ) 1 2−λ 1
(4 − λ) 1 2−λ 0 =

=

2 −2 1 − λ 2 −2 −1 − λ



2−λ 0
(4 − λ) = (4 − λ)(2 − λ)(−1 − λ)

−2 −1 − λ
264 M.T. Alcalde - C. Burgueño Algebra Lineal

Luego
p(λ) = (4 − λ)(2 − λ)(1 + λ)(−1)
es el polinomio caracterı́stico de f . Luego los valores propios son:
−1, 2, 4
Caso λ = −1
   
3 2 3 1 1 −1 1 L21 (−1)
 L3 ( 2 ) L13 
 1 3 1 

 1 3 1 

−→
−→ −→
2 −2 2 3 2 3 L31 (−3)
   
1 −1 1 1 0 1
 0 4 0  −→  0 1 0 
   

0 5 0 0 0 0
Luego tenemos el sistema siguiente:
    
1 0 1 x 0
 0 1 0  y  =  0 
    

0 0 0 z 0

x + z = 0, y = 0 luego x = −z, y = 0
S−1 = {(−z, 0, z); z ∈ K} =< (1, 0, −1) > es el subespacio propio
asociado a λ = −1
Caso λ = 2
     
0 2 3 0 2 3 1 0 1
L32 (−2)  3 
 1 0 1   1 0  −→  0 1 2 
1 
 
−→

2 −2 −1 0 −2 −3 0 0 0
Luego tenemos el siguiente sistema de ecuaciones:
    
1 0 1 x 0
3 
 0 1 2  y  =  0 
   

0 0 0 z 0

De donde: x + z = 0, y + 32 z = 0, Luego x = −z, y = − 23 z, z ∈ K


S2 = {(−z, − 32 z, z); z ∈ K} =< (2, 3, −2) >, es el subespacio asociado
aλ=2
Capı́tulo 6. Diagonalización 265

Caso λ = 4
   
−2 2 3 2 −2 −3
 L31 (1) L1 (−1) 
 1 −2 1   1 −2 1  −→
 
−→ −→
2 −2 −3 0 0 0
   
1 −2 1 1 0 −4
5 
 0 2 −5  −→  0 1 − 2 
  

0 0 0 0 0 0
Luego tenemos el siguiente sistema:
    
1 0 −4 x 0
5 

 0 1 − 2 
y 
 =  0 
 

0 0 0 z 0

De donde se obtiene:
) )
x − 4z = 0 x = 4z
=⇒ z∈K
y − 25 z = 0 y = 52 z

S4 = {(4z, 25 z, z); z ∈ K} =< (4, 25 , 1) >, es el subespacio asociado a


λ=4
Una base diagonalizante es D = {(1, 0, −1), (2, 3, −2), (8, 5, 2)} Luego
    
−1 0 0 2 2 3 1 2 8
−1 
 0 2 0  = P  1 2 1  0 3 5 
  

0 0 4 2 −2 1 −1 −2 2

Donde P = (D según C)
(f ; D, D) = (C según D)(f ; C, C)(D según C)

6.4 Valores propios múltiples


Ahora estudiaremos el caso general, es decir, cuando el polinomio car-
acterı́stico es de la forma
266 M.T. Alcalde - C. Burgueño Algebra Lineal

P (λ) = (λ − λ1 )α1 · (λ − λ2 )α2 · · · (λ − λr )αr

y α1 + α2 · · · + αr corresponde a la dimensión del espacio vectorial.


Si λ es un valor propio de multiplicidad k, k ≥ 2, quisiéramos saber
cuál es la dimensión del sub-espacio propio asociado a λ. Una cota a
esta dimensión, la tenemos en la siguiente proposición

Proposición 6.4.1 Sea V un K-espacio vectorial de dimensión n.


Supongamos que el polinomio caracterı́stico de f ∈ End(V ) tiene una
raı́z λ de multiplicidad k, entonces

dimK N (f − λidV ) ≤ k

Demostración

Sea r la dimensión del sub-espacio propio asociado a λ, es decir, r =


dimK N (f − λidV ).
Sea {v1 , v2 , ..., vr }una base de sub-espacio formado por vectores pro-
pios asociados a λ, es decir

f (vi ) = λvi , i = 1, ..., r

Extendamos esta base a una base B = {v1 , v2 , ..., vr , vr+1 , ..., vn } de V .


Entonces  
λ ... 0
 . .
 . . . ...

 . P  
 0 ... λ
 

M = (f ; B, B) = 
 0 ... 0


 
 . . .
 . . . ..

 . Q  
0 ... 0

donde P ∈ Mn−r (K) y Q ∈ Mn−r (K).


Capı́tulo 6. Diagonalización 267

El polinomio caracterı́stico de f es


λ − X ... 0

.. ... .. P


. .

0 ... λ−X


P (X) = det(M − XIn ) =
0 ... 0

.. ... .. Q − XIn


. .

0 ... 0

Luego, P (X) = (λ − X)r · det(Q − XIn ). Es decir, (λ − X)r divide a


P (X), luego r ≤ k.
La caracterización de f diagonalizable, la tenemos en el teorema si-
guiente

Teorema 6.4.2 Sea V un K-espacio vectorial de dimensión n y


f ∈ End(V ). Entonces son equivalentes

1. f es diagonalizable

2. P (λ) = (λ − λ1 )α1 · (λ − λ2 )α2 · · · (λ − λr )αr y dimK Sλi = αi ,


∀i = 1, · · · , r

Demostración

(1) ⇒ (2)
Supongamos que f es diagonalizable. Entonces existe una base B =
{v1 , v2 , ..., vn } formada por vectores propios de f . Además (f ; B) es
diagonal y el polinomio caracterı́stico de f es de la forma

P (λ) = (λ − λ1 )k1 · (λ − λ2 )k2 · · · (λ − λp )kp


con k1 + k2 + · · · + kp = n = dimV
En la diagonal principal de (f ; B), hay para todo i ∈ {1, 2, ..., p} exac-
tamente ki términos iguales a λi .
268 M.T. Alcalde - C. Burgueño Algebra Lineal

Puesto que cada uno de los vectores propios correspondientes a λi de


B pertenecen a Sλi = N (f −λi idV ), se tiene que dimSλi ≥ ki . Pero por
la proposición anterior ki ≤ dimSλi , luego se tiene que ki = dimSλi
(2) ⇒ (1)
Por hipótesis, el polinomio caracterı́stico tiene la forma
P (λ) = (λ − λ1 )k1 · (λ − λ2 )k2 · · · (λ − λp )kp , y dimSλi = αi , i = 1, ..., r
Tenemos que Sλ1 ⊕ Sλ2 ⊕ · · · ⊕ Sλr es directa y
dim(Sλ1 ⊕ Sλ2 ⊕ · · · ⊕ Sλr ) = dimSλ1 + dimSλ2 + · · · + dimSλr
= α1 + α2 + · · · + αr
= n
Para cada ı́ndice i, consideremos Bi una base de Sλi (constituı́da por
los vectores propios vi , correspondientes al valor propio λi )
Entonces B = B1 ∪B2 ∪· · ·∪Br es una base de V formada por vectores
propios. Luego (f ; B) es diagonal, es decir, f es diagonalizable.

6.5 Ejercicios resueltos


Ejercicio

Sea f : K 3 −→ K 3 lineal. Sabiendo que la matriz de f con respecto a


la base canónica es
 
3 1 1
M = 2 4 2

1 1 3
Encontremos

1. El polinomio caracterı́stico de f.
2. Los valores propios de f y sus subespacios propios asociados.
3. Una base diagonalizante D
4. La matriz diagonal (f ; D) y una matriz invertible P tal que
(f ; D) = P −1 M P
Capı́tulo 6. Diagonalización 269

Solución

3−λ 1 1 L (−1) 2 − λ 0 −2 + λ


13

2 4−λ 2
2 4−λ 2 =

=

1 1 3−λ 1 1 3−λ



1 0 −1 1 0 0
C (1)
= (2 − λ) 2 4 − λ

2 31 (2 − λ) 2 4 − λ

4 =
=
1 1 3−λ 1 1 4−λ


4−λ 4
= (2−λ) = (2−λ)((4−λ)2 −4) = (2−λ)(2−λ)(6−λ)

1 4−λ
Luego los valores propios son: 2 de multiplicidad 2 y 6 de multiplicidad
1.
Caso λ = 6

   
3−6 1 1 −3 1 1 1
 L2 ( 2 )

2 4−6 2  =  2 −2 2 

−→

1 1 3−6 1 1 −3
   
−3 −1 −1 1 0 −1
 1 −1 1  · · · −→  0 1 −2 
   

1 1 −3 0 0 0

Luego
    
1 0 −1 x 0
 0 1 −2   y  =  0 
    

0 0 0 z 0

Luego )
x−z = 0
y − 2z = 0

Luego x = z, y = 2z
Reemplazando, tenemos
(x, y, z) = (z, 2z, z) = z(1, 2, 1) luego v6 = (1, 2, 1) y S6 =< (1, 2, 1) >
270 M.T. Alcalde - C. Burgueño Algebra Lineal

Caso λ = 2
     
3−2 1 1 1 1 1 1 1 1

 2 4−2 2  =  2 2 2  −→  0 0 0 
   

1 1 3−2 1 1 1 0 0 0
Luego

    
1 1 1 x 0
 0 0 0  y  =  0 
    

0 0 0 z 0

Tenemos que x + y + z = 0 de donde x = −y − z.


Reemplazando tenemos

(x, y, z) = (−y − z, y, z) = y(−1, 1, 0) + z(−1, 0, 1)

Entonces S2 =< (1, −1, 0), (1, 0, −1) >. Vemos que la dimensión de
S2 coincide con la multiplicidad del valor propio 2.
La base diagonalizante de f es D = {(1, 2, 1), (1, −1, 0)(1, 0, −1)}
La matriz es diagonalizable. Tenemos

1 1 1
     
6 0 0 4 4 4
3 1 1 1 1 1
1
 0 2 0 =
  
2
− 21 1
2   2 4 2   2 −1 0 
  
1 1
0 0 2 4 4
− 34 1 1 3 1 0 −1

Ejercicio

Sea f : K 3 −→ K 3 lineal. Sabiendo que la matriz de f con respecto a


la base canónica es
 
1 2 −2
M =  2 1 −2 
 

2 2 −3
Estudiemos si M es diagonalizable.
Capı́tulo 6. Diagonalización 271

Solución

Comencemos por encontrar el polinomio caracterı́stico de M .



1−λ −2
2 L (−1) 1 − λ 2 −2


32

2 1−λ −2
2 1−λ −2 =
=

2 2 −3 − λ 0 1 + λ −1 − λ



1−λ 2 −2 1−λ 0 −2
C (1)
= (1+λ) 2

1 − λ −2 23 (1+λ) 2

−1 − λ −2 =
=
0 1 −1 0 0 −1



1 − λ 0 −2
2 1−λ 0

2
= (1+λ) 2 −1 −2 = −1(1+λ) = (1+λ)2 (1−

2 −1
0 0 −1


λ)
Luego los valores propios son: −1 de multiplicidad 2 y 1 de multipli-
cidad 1.
Caso λ = −1
 
2 2 −2
 2 2 −2 
 

2 2 −2

Luego x + y + −z = 0 de donde x = −y + z; y, z ∈ IR
Por lo tanto
S−1 = {(−y + z, y, z); y, z ∈ IR}

Es decir
S−1 =< (−1, 1, 0), (1, 0, 1) >

En este caso dimS−1 = 2 = a la multiplicidad de la raı́z −1


Caso λ = 1
   
0 2 −2 1 0 −1
 2 0 −2  −→  0 1 −1 
   

2 2 −4 0 0 0
Luego
272 M.T. Alcalde - C. Burgueño Algebra Lineal

    
1 0 −1 x 0

 0 1 −1 
 y 
 =  0 
 

0 0 0 z 0

Luego se obtienen las condiciones siguientes: x = z y y = z.


Entonces S1 =< (1, 1, 1) >. Por la matriz es diagonalizable y la base
diagonalizante de f es D = {(−1, 1, 0), (1, 0, 1)(1, 1, 1)}
Finalmente tenemos
     
−1 0 0 −1 0 1 1 2 −2 −1 1 1
 0 −1 0  =  −1 −1 2   2 1 −2   1 0 1 
     

0 0 1 1 1 −1 2 2 −3 0 1 1

Ejercicio

Sea f : K 3 −→ K 3 lineal. Sabiendo que la matriz de f con respecto a


la base canónica es
 
4 2 3
M =  2 1 2 
−1 −2 0
Busquemos, si existe, la matriz diagonal D, equivalente a M .

Solución

Comencemos por encontrar el polinomio caracterı́stico de f ,

p(λ) = det(M − λI3 )



4−λ 2 3 1−λ 2 3
C13 (−1)

2 1−λ 2
0 1−λ 2 =

=

−1 −2 −λ −1 + λ −2 −λ



1 2 3 1 2 3
L31 (1)
(1 − λ) 0 1−λ 2
(1 − λ) 0 1−λ 2 =

=

−1 −2 −λ 0 0 3−λ


Capı́tulo 6. Diagonalización 273


1−λ 2
(1 − λ) = (1 − λ)(1 − λ)(3 − λ)

0 3−λ

Luego p(λ) = (1 − λ)2 (3 − λ) es el polinomio carcterı́stico de f . Luego


los valores propios son: 1 de multiplicidad 2 y 3 una raı́z simple
Caso λ = 1 multiplicidad 2
   
3 2 3 1 2 1
L12 (−1) L2 ( 12 )

2 0 2   1 0 1 
 
−→ −→
 
−1 −2 −1 3 2 3
   
1 2 1 1 0 1
L32 (−3) 
 1 0 1  −→  0 1 0 
  
−→
0 2 0 0 0 0
    
1 0 1 x 0
 0 1 0  y  =  0 
    

0 0 0 z 0

Luego tenemos el siguiente sistema de ecuaciones: x + z = 0, y = 0,


Luego x = −z, y = 0, z ∈ K
S1 = {(−z, 0, z); y ∈ K} =< (1, 0, −1) >, es el subespacio propio
asociado a λ = 1
Este subespacio tiene dimensión 1, luego esta matriz no es diagonaliza-
ble pues la dimensión del subespacio no coincide con la multiplicidad
de la raı́z.

6.6 Ejercicios propuestos


1. Encuentre el polinomio caracterı́stico descompuesto en sus fac-
tores irreducibles en IR, de la matriz siguiente:
 
1 2 −2
A=
 2 1 −2 

2 2 −3

2. Sea f : K 3 −→ K 3 lineal. Sabiendo que la matriz de f con


274 M.T. Alcalde - C. Burgueño Algebra Lineal

 
4 1 2
respecto a la base canónica es A =  0

3 0, encuentre
−1 −1 1
(a) El polinomio caracterı́stico de f.
(b) Los valores propios de f y sus subespacios propios asocia-
dos.
(c) Una base diagonalizante D
(d) Una matriz invertible P tal que (f ; D) = P −1 M P

3. Idem ejercicio anterior para la matriz


 
6 −1 3
A=  −3 2 −3  
−1 1 2
Además encuentre A10
Capı́tulo 7

Aplicaciones Bilineales

Introducción

Nosotros hemos visto los determinantes de matrices de 2 × 2; vimos


que se definen por
a c
= ad − bc

b d

Consideremos el determinante como una aplicación de las columnas


de la matriz, es decir

det : M2×1 (K) × M2×1 (K) → K

tal que
a c
   
det , = ad − bc
b d
Tenemos las propiedades siguientes

1.
a + a′ c a c a′ c
= + ′

b + b′ d b d b d

en esta nueva expresión se escribe


a + a′ c a c a′ c
           
det , = det , + det ,
b + b′ d b d b′ d

275
276 M.T. Alcalde - C. Burgueño Algebra Lineal

2. Análogamente en la segunda columna, se tiene


a c + c′ a c a c′
           
det , = det , + det , ′
b d + d′ b d b d

3.
αa c a c
= α

αb d b d

En esta nueva expresión se escribe


αa c a c
       
det , = αdet ,
αb d b d

4. Análogamente
a αc a c
       
det , = αdet ,
b αd b d

Sean u, u′ , v, v ′ ∈ M2×1 (K), α ∈ K. Estas cuatro propiedades se des-


criben de la manera siguiente

1. det(u + u′ , v) = det(u, v) + det(u′ , v)

2. det(u, v + v ′ ) = det(u, v) + det(u, v ′ )

3. det(αu, v) = αdet(u, v)

4. det(u, αv) = αdet(u, v)

7.1 Aplicaciones bilineales

7.1.1 Ejemplos. Propiedades generales


Observación

En IR2 consideremos el producto punto

(x1 ı̂ + y1 ̂) · (x2 ı̂ + y2 ̂) = x1 x2 + y1 y2


Capı́tulo 7. Aplicaciones Bilineales 277

cambiando a escritura cartesiana, se tiene

(x1 , y1 ) · (x2 , y2 ) = x1 x2 + y1 y2

Analicemos las cuatro observaciones siguientes

1.
((x1 , y1 ) + (x2 , y2 )) · (x3 , y3 ) = (x1 + x2 , y1 + y2 ) · (x3 , y3 )
= (x1 + x2 ) · x3 + (y1 + y2 ) · y3
= x 1 x3 + x 2 x3 + y1 y3 + y2 y3
= (x1 x3 + y1 y3 ) + (x2 x3 + y2 y3 )
= ((x1 , y1 ) · (x3 , y3 ))+
+((x2 , y2 ) · (x3 , y3 ))

2. Análogamente a la observación anterior, tenemos

(x1 , y1 ) · ((x2 , y2 ) + (x3 , y3 )) = (x1 , y1 ) · (x2 , y2 ) + (x1 , y1 ) · (x2 , y2 )

3.
(α(x1 , y1 )) · (x2 , y2 ) = (αx1 , αy1 ) · (x2 , y2 )
= (αx1 )x2 + (αy1 )y2
= α(x1 x2 + y1 y2 )
= α((x1 , y1 ) · (x2 , y2 ))

4. Análogamente a (3) tenemos

(x1 , y1 ) · (α(x2 , y2 )) = α((x1 , y1 ) · (x2 , y2 ))

Definamos f : IR2 × IR2 → IR; f ((x1 , y1 ), (x2 , y2 )) = (x1 , y1 ) · (x2 , y2 ).


Describiendo nuevamente las cuatro observaciones anteriores, esta
aplicación f satisface:

1. f (u + u′ , v) = f (u, v) + f (u′ , v), ∀u, u′ , v ∈ IR2

2. f (u, v + v ′ ) = f (u, v) + f (u, v ′ ), ∀u, v, v ′ ∈ IR2

3. f (αu, v) = αf (u, v), ∀u, v ∈ IR2


278 M.T. Alcalde - C. Burgueño Algebra Lineal

4. f (u, αv) = αf (u, v), ∀u, v ∈ IR2

En un lenguaje informal dirı́amos que f es dos veces lineal; también


podrı́amos decir que es lineal a la derecha y a la izquierda. Esto nos
induce al siguiente concepto.

Definición 7.1.1 Sean U , V , W tres espacios vectoriales sobre un


mismo cuerpo K. Se dice que f es una aplicación bilineal de U × V
en W si verifica los siguientes axiomas:
Para todo u, u′ ∈ U , ∀v, v ′ ∈ V , ∀α ∈ K

1. f (u + u′ , v) = f (u, v) + f (u′ , v)

2. f (u, v + v ′ ) = f (u, v) + f (u, v ′ )

3. f (αu, v) = αf (u, v)

4. f (u, αv) = αf (u, v)

En otras palabras, f es bilineal si y sólo si las aplicaciones parciales

1. g : U → W ; g(u) = f (u, v) ∀v ∈ V

2. h : V → W ; h(v) = f (u, v) ∀u ∈ U

son lineales

Ejercicio

Sea U = V = IR2 , W = IR. Sea

f : IR2 × IR2 → IR; f ((x, y), (x′ , y ′ )) = 3xx′ − 5yy ′

Estudiemos si f es bilineal
Capı́tulo 7. Aplicaciones Bilineales 279

Solución

1. f ((x, y) + (x′ , y ′ ), (x′′ , y ′′ )) = f ((x + x′ , y + y ′ ), (x′′ , y ′′ ))


= 3(x + x′ )x′′ − 5(y + y ′ )y ′′
= 3xx′′ + 3x′ x′′ − 5yy ′′ − 5y ′ y ′′
= (3xx′′ − 5yy ′′ ) + (3x′ x′′ − 5y ′ y ′′ )
= f ((x, y), (x′′ , y ′′ ))+
+f ((x′ , y ′ ), (x′′ , y ′′ ))
2. f ((x, y), (x′ , y ′ ) + (x′′ , y ′′ )) = f ((x, y), (x′ + x′′ , y ′ + y ′′ ))
= 3x(x′ + x′′ ) − 5y(y ′ + y ′′ )
= 3xx′ + 3xx′′ − 5yy ′ − 5yy ′′
= f ((x, y), (x′ , y ′ ))+
+f ((x, y), (x′′ , y ′′ ))

3. f (α(x, y), (x′ , y ′ )) = f ((αx, αy), (x′ , y ′ ))


= 3(αx)x′ − 5(αy)y ′
= α(3xx′ − 5yy ′ )
= αf ((x, y), (x′ , y ′ ))

4. f ((x, y), α(x′ , y ′ )) = f ((x, y), (αx′ , αy ′ ))


= 3x(αx′ ) − 5y(αy ′ )
= α(3xx′ − 5yy ′ )
= αf ((x, y), (x′ , y ′ ))

Ejercicio

Sea U = V = IR2 , W = IR. Sea f : IR2 × IR2 → IR tal que

f ((x, y), (x′ , y ′ )) = 2xx′ − 2xy ′ − 2x′ y + 5yy ′ (7.1)

demuestre que f es bilineal.

Teorema 7.1.1 (Teorema fundamental de las aplicaciones bi-


lineales) Sean U , V y W tres K-espacios vectoriales. Sean B =
280 M.T. Alcalde - C. Burgueño Algebra Lineal

{u1 , u2 , . . . , un }, C = {v1 , v2 , . . . , vm } bases ordenadas de U y V re-


spectivamente y {wij ; i = 1, . . . , n; j = 1, . . . , m} un conjunto de vec-
tores de W , entonces existe una única aplicación bilineal f : U × V →
W tal que
f (ui , vj ) = wij

Demostración
n
X m
X
1. Existencia. Sean u = αi ui , v = βj vj . Sea f tal que
i=1 j=1
X
f (u, v) = αi βj wij
i,j

(a) Demostramos primero la suma en la primera componente


 
n m
= f  (αi + αi′ )ui ,
X X
f (u + u′ , v) βj vj 
i=1 j=1
(αi + αi′ )βj wij
X
=
i,j
αi′ βj wij
X X
= αi βj wij +
i,j i,j

= f (u, v) + f (u , v)

(b) Análogamente se prueba que


f (u, v + v ′ ) = f (u, v) + f (u, v ′ )

(c) Para el producto por escalar tenemos


!
X
f (α(u, v)) = f α αi ui , v
 i 
X X
= f (ααi )ui , βj vj 
i j
X
= (ααi )βj wij
ijX
= α αi βj wij
ij
= αf (u, v)
Capı́tulo 7. Aplicaciones Bilineales 281

(d) Análogamente se prueba

f (u, αv) = αf (u, v)

2. Unicidad
Sea g : U ×V → W bilineal tal que g(ui , vj ) = wij . Por demostrar
que f = g
 
n
X m
X X
f (u, v) = f  αi ui , βj vj  = αi βj wij =
i=1 j=1 ij
 
X n
X m
X
= αi βj g(ui vj ) = g  αi ui , βj vj  = g(u, v)
i,j i=1 j=1

luego f = g.

Ejemplo

Sea f : IR2 × IR2 → IR. Sea B = {(1, 1), (1, 0)} una base ordenada de
IR2 . Se tiene que f está determinada por:

f ((1, 1), (1, 1)) = 1


f ((1, 1), (1, 0)) = 2
f ((1, 0), (1, 1)) = 3
f ((1, 0), (1, 0)) = 4

En efecto
f ((x, y), (x′ , y ′ )) =
= f (y(1, 1) + (x − y)(1, 0), y ′ (1, 1) + (x′ − y ′ )(1, 0))
= yy ′ f ((1, 1), (1, 1)) + y(x′ − y ′ )f ((1, 1), (1, 0))+
+(x − y)y ′ f ((1, 0), (1, 1)) + (x − y)(x′ − y ′ )f ((1, 0), (1, 0))
luego
f ((x, y), (x′ , y ′ )) =
= yy ′ · 1 + y(x′ − y ′ ) · 2 + (x − y)y ′ · 3 + (x − y)(x′ − y ′ ) · 4
= yy ′ + 2x′ y − 2yy ′ + 3xy ′ − 3yy ′ + 4xx′ − 4xy ′ − 4x′ y + 4yy ′
= 4xx′ − 2x′ y − xy ′
282 M.T. Alcalde - C. Burgueño Algebra Lineal

Es decir
f ((x, y), (x′ , y ′ )) = 4xx′ − 2x′ y − xy ′

Observación

Que f esté determinada por estos cuatro valores quiere decir que no
puede haber una aplicación bilineal distinta de f que coincida en estos
cuatro valores.
Dicho de otra manera: esos cuatro valores son una microinformación
del comportamiento de f . Con esos cuatro valores se sabe exactamente
el comportamiento de f en todo IR2 × IR2 .
Nota: En IR3 consideremos la base canónica B = {i, j, k} y la apli-
cación bilineal f : IR3 × IR3 → IR definida por

f (i, j) = k; f (j, k) = i; f (k, i) = j


f (j, i) = −k; f (k, j) = −i; f (i, k) = −j
f (i, i) = f (j, j) = f (k, k) = 0

Puesto que conocemos su comportamiento en una base, por el teo-


rema fundamental de las aplicaciones bilineales, podemos obtener su
expresión analı́tica de la manera siguiente:
f (a1 i + b1 j + c1 k, a2 i + b2 j + c2 k) = a1 a2 · 0 + a1 b2 k + a1 c2 (−j)+
+b1 a2 (−k) + b1 b2 · 0 + b1 c2 i + c1 a2 j + c1 b2 (−i) + c1 c2 · 0 =
= (b1 c2 − c1 b2 )i + (c1 a2 − a1 c2 )j + (a1 b2 − b1 a2 )k
Esta aplicación bilineal es muy usada en fı́sica y es llamada producto
vectorial o producto cruz.
En lenguaje algebraico esta aplicación bilineal queda descrita de la
manera siguiente:
Sea B = {e1 = (1, 0, 0), e2 = (0, 1, 0), e3 = (0, 0, 1)}
f ((a1 , b1 , c1 ), (a2 , b2 , c2 )) =
= f (a1 e1 + b1 e2 + c1 e3 , a2 e1 + b2 e2 + c2 e3 ) =
= (b1 c2 − c1 b2 )e1 + (c1 a2 − a1 c2 )e2 + (a1 b2 − b1 a2 )e3 =
= (b1 c2 − c1 b2 , c1 a2 − a1 c2 , a1 b2 − b1 a2 )
Capı́tulo 7. Aplicaciones Bilineales 283

Ejercicio

Sea f : IR2 ×IR2 → IR bilineal definida, con respecto a la base canónica


B = {e1 , e2 }, de la siguiente manera

f (e1 , e1 ) = f (e2 , e2 ) = 0; f (e1 , e2 ) = 1, f (e2 , e1 ) = −1

Busquemos la expresión analı́tica de f .


Sea x = x1 e1 + x2 e2 , y = y1 e1 + y2 e2 , entonces

f (x, y) = f (x1 e1 + x2 e2 , y1 e1 + y2 e2 )
= x1 y1 · 0 + x1 y2 · 1 + x2 y1 (−1) + x2 y2 · 0
= x 1 y2 − x2 y1
x y
= 1 1
x2 y2

que es el determinante de los vectores x e y según la base canónica.

Definición 7.1.2 Sean f, g : U × V → W dos aplicaciones bilineales.


Se define la suma de f y g, denotada f + g, como

f + g : U × V → W ; (f + g)(u, v) = f (u, v) + g(u, v)

y se define la ponderación de una aplicación bilineal f , denotada α · f ,


como
(α · f ) : U × V → W ; (α · f )(u, v) = α · f (u, v)

Proposición 7.1.2 Sean U , V , W tres K-espacios vectoriales. Sean


f, g : U × V → W dos aplicaciones bilineales. Entonces f + g y β · f
son bilineales.

Demostración

Demostrar que f + g es bilineal, es equivalente a demostrar que


∀u, u1 , u2 ∈ U y ∀v, v1 , v2 ∈ V se tiene:

1. (f + g)(u1 + u2 , v) = (f + g)(u1 , v) + (f + g)(u2 , v)


284 M.T. Alcalde - C. Burgueño Algebra Lineal

2. (f + g)(u, v1 + v2 ) = (f + g)(u, v1 ) + (f + g)(u, v2 )

3. (f + g)(αu, v) = α((f + g)(u, v))

4. (f + g)(u, αv) = α((f + g)(u, v))

Demostración de (1)

(f + g)(u1 + u2 , v) =(a) f (u1 + u2 , v) + g(u1 + u2 , v) =


=(b) (f (u1 , v) + f (u2 , v)) + (g(u1 , v) + g(u2 , v)) =
=(c) (f (u1 , v) + g(u1 , v)) + (f (u2 , v) + g(u2 , v)) =
=(d) (f + g)(u1 , v) + (f + g)(u2 , v)

(a) y (d) definición de suma de aplicaciones, (b) bilinealidad de f y g,


(c) asociatividad y conmutatividad de la suma en W .
Análogamente se demuestra (2).
Demostración de (3)

(f + g)(αu, v) =(a) f (αu, v) + g(αu, v) =


=(b) αf (u, v) + αg(u, v) =
=(c) α(f (u, v) + g(u, v)) =(d) α((f + g)(u, v))

(a) y (d) definición de suma de aplicaciones, (b) bilinealidad de f y g,


(c) axioma de distribución de espacios vectoriales.
Análogamente se demuestra (4)
Demostrar que β · f es bilineal, es equivalente a demostrar que
∀u, u1 , u2 ∈ U y ∀v, v1 , v2 ∈ V se tiene:

1. (β · f )(u1 + u2 , v) = (β · f )(u1 , v) + (β · f )(u2 , v)

2. (β · f )(u, v1 + v2 ) = (β · f )(u, v1 ) + (β · f )(u, v2 )

3. (β · f )(αu, v) = α((β · f )(u, v))

4. (β · f )(u, αv) = α((β · f )(u, v))


Capı́tulo 7. Aplicaciones Bilineales 285

Demostración de (1)

(β · f )(u1 + u2 , v) =(a) β(f (u1 + u2 , v) =


=(b) β(f (u1 , v) + f (u2 , v)) =(c) β(f (u1 , v)) + β(f (u2 , v)) =
=(d) (β · f )(u1 , v) + (β · f )(u2 , v)

(a) y (d) definición de ponderación de una aplicación, (b) bilinealidad


de f , (c) axioma de distribución en un espacio vectorial.
Análogamente se demuestra (2)
Demostración de (3)

(β · f )(αu, v) =(a) β(f (αu, v) =(b) β(α(f (u, v)) =


=(c) (βα)(f (u, v)) =(d) α(β(f (u, v))) =(e) = α((β · f )(u, v))

(a) y (e) definción de ponderación de una aplicación, (b) bilinealidad


de f , (c) axioma de espacios vectoriales E.V.8, (d) conmutatividad de
la multiplicación en K y luego E.V.8.
Análogamente se demuestra (4.)

Definición 7.1.3 El conjunto formado por todas las aplicaciones bi-


lineales de U × V en W , se denota BK (U, V ; W ).

Proposición 7.1.3 Sean U , V , W tres K-espacios vectoriales, en-


tonces BK (U, V ; W ) es un K-espacio vectorial.

Demostración

Hay que demostrar los ocho axiomas de espacio vectorial. Solamente


demostraremos E.V.2 y E.V.3
E.V.2. El neutro es la aplicación bilineal nula, denotada 0 y definida
como sigue
0 : U × V → W ; 0(u, v) = 0 ∀(u, v) ∈ U × V
(0 + f )(u, v) = 0(u, v) + f (u, v) = 0 + f (u, v) = f (u, v)
286 M.T. Alcalde - C. Burgueño Algebra Lineal

luego 0 + f = f
E.V.3. Dada f : U × V → W bilineal, su aplicación bilineal opuesta
es denotada −f y se define por

−f : U × V → W ; (−f )(u, v) = −(f (u, v))

(f + (−f ))(u, v) = f (u, v) + (−f )(u, v) = f (u, v) + −(f (u, v)) = 0


luego f + (−f ) = 0

Observación

En IR2 , el producto punto cumple

(x, y) · (x′ , y ′ ) = xx′ + yy ′ = x′ x + y ′ y = (x′ , y ′ ) · (x, y)

Esta observación nos induce al siguiente concepto

Definición 7.1.4 Sea f : V × V → W una aplicación bilineal. Dire-


mos que f es simétrica si

f (u, v) = f (v, u) ∀(u, v) ∈ V × V

Ejemplo

En la aplicación bilineal del ejercicio (7.1) se tiene

f ((x, y), (x′ , y ′ )) = 2xx′ − 2xy ′ − 2x′ y + 5yy ′ =


= 2x′ x − 2x′ y − 2xy ′ + 5y ′ y = f ((x′ , y ′ ), (x, y))

es decir,
f (u, v) = f (v, u); ∀ u, v ∈ IR2
Capı́tulo 7. Aplicaciones Bilineales 287

Ejemplo

Sea f : IR2 × IR2 → IR, definida por:


f ((x1 , y1 ), (x2 , y2 )) = x1 x2 + 3x1 y2 + 3x2 y1 − y1 y2

Esta aplicación es bilineal y simétrica.

Ejemplo

Sea V = {f : [0, 1] → IR; f continua}


Entonces Z 1
(f, g) = f (t)g(t)dt (7.2)
0
es simétrica. Es decir, el producto convolución sobre IR es simétrico.

7.2 Formas bilineales


Definición 7.2.1 Sea V un espacio vectorial sobre K. Una forma
bilineal sobre V , es una aplicación bilineal
f :V ×V →K

Ejemplo

f : IR2 × IR2 → IR; f ((x, y), (x′ , y ′ )) = 3xx′ − 2xy ′ − 2x′ y + 7yy ′ .
Es fácil ver que f es una forma bilineal.

Ejemplo

Sea V = {f : [0, 1] → IR; f continua }. Entonces


Z 1
µ(f, g) = f (t)g(t)dt
0

es una forma bilineal.


288 M.T. Alcalde - C. Burgueño Algebra Lineal

7.2.1 Matriz asociada a una forma bilineal


Observación

Consideremos la forma bilineal de la referencia (7.1)

f : IR2 × IR2 → IR; f ((x, y), (x′ , y ′ )) = 2xx′ − 2xy ′ − 2x′ y + 5yy ′

En el dominio consideremos las bases B = {(1, 1), (0, 1)} y C =


{(1, 0), (−1, 1)} de IR2 , a la izquierda y a la derecha respectivamente.
Se tiene:
f ((1, 1), (1, 0)) = 2 − 2 = 0
f ((1, 1), (−1, 1)) = 2 · 1 · (−1) − 2 · 1 · 1 − 2 · (−1) · 1 + 5 · 1 · 1 = 3
f ((0, 1), (1, 0)) = 2 · 0 · 1 − 2 · 0 · 0 − 2 · 1 · 1 + 5 · 1 · 0 = −2
f ((0, 1), (−1, 1)) = 2 · 0 · (−1) − 2 · 0 · 1 − 2 · (−1) + 5 · 1 · 1 = 7
Naturalmente uno asociaciarı́a
0 3
 
(f ; B, C) =
−2 7
Efectivamente a toda forma bilineal le asociaremos una matriz con
respecto a dos bases dadas de la manera obtenida anteriormente.

Construcción de la matriz asociada

Sean U y V dos K-espacios vectoriales. Sean B = {u1 , u2 , . . . , un } y


C = {v1 , v2 , . . . , vm } bases ordenadas de U y V respectivamente.
Para todo u ∈ U y v ∈ V se tiene
n
X m
X
u= αi ui , v = βj vj
i=1 j=1

Para toda forma bilineal f : U × V → K a causa de la bilinealidad, se


tiene
 
n
X m
X n X
X m
f (u, v) = f  αi ui , βj vj  = αi βj f (ui , vj )
i=1 j=1 i=1 j=1
Capı́tulo 7. Aplicaciones Bilineales 289

Sea (aij ) = f (ui , vj ); 1 ≤ i ≤ n, 1 ≤ j ≤ m.


Se obtiene la matriz A = (cij ) ∈ Mn×m (K) de n lı́neas y m columnas,
la cual se llama matriz de la forma bilineal f relativa a las bases B y
C, denotada (f ; B, C).
Recı́procamente, a toda matriz A = (aij ) ∈ Mn×m (K), le corresponde
una única forma bilineal f : U × V → K, definida por
n X
X m
f (u, v) = αi βj aij
i=1 j=1

la cual es bilineal.
Se tiene entonces el teorema siguiente:

Teorema 7.2.1 Sean U y V dos K-espacios vectoriales de dimensio-


nes n y m respectivamente. Para todo par de bases B = {e1 , e2 , . . . , en }
de U y C = {u1 , u2 , . . . , um } de V , existe una biyección

ϕ : B(U, V ; K) → Mn×m (K)


f 7→ (f (ei , uj ) = (aij ))

el cual es un isomorfismo de espacios vectoriales.

Definición 7.2.2 La matriz que corresponde a f se llama matriz de


la forma bilineal f con respecto a las bases B y C.

7.2.2 Representación matricial de f (x, y)


Sea f ∈ B(U, V : K) y su correspondiente matriz A = (aij ), tal que
A ∈ Mn×m (K), en el isomorfismo anterior, relativo a las bases B y C
de U y V respectivamente.
Para todo (x, y) ∈ U × V se tiene
 
X m
n X n
X n
X
f (x, y) = aij xi yj = xi  aij yj 
i=1 j=1 i=1 j=1
290 M.T. Alcalde - C. Burgueño Algebra Lineal

Consideremos las matrices columnas


 
x1
 
y1
 x2  
 y2 

X =  ..  ; Y =  .. 
  
 .   . 

xn ym

El producto AY es una matriz columna de n filas. El elemento de la


m
X
fila i es aij yj .
j=1

El producto X t AY de la matriz fila X t por la matriz columna AY es


una matriz de M1×1 (K) que tiene, por elemento único a
 
n
X m
X
xi  aij yj 
i=1 j=1

Resulta, identificando toda la matriz de un solo elemento a este ele-


mento
f (x, y) = X t AY

Proposición 7.2.2 Sean U y V dos K-espacios vectoriales de dimen-


siones n y m respectivamente. Si, relativo a las bases B y C de U y V ,
A es la matriz de f ∈ B(U, V : K) y si X e Y son las matrices colum-
nas de las componentes de u ∈ U y v ∈ V en estas bases. Entonces se
tiene
f (u, v) = X t AY

Ejemplo

Volvamos al ejercicio de la referencia (7.1)


f : IR2 × IR2 → IR; f ((x, y), (x′ , y ′ )) = 2xx′ − 2xy ′ − 2x′ y + 5yy ′
B = {(1, 1), (0, 1)}, C = {(1, 0), (−1, 1)}

(x, y) = x(1, 1) + (y − x)(0, 1)


(x′ , y ′ ) = (x′ + y ′ )(1, 0) + y ′ (−1, 1)
Capı́tulo 7. Aplicaciones Bilineales 291

Entonces
0 3 x′ + y ′
  
′ ′
f ((x, y), (x , y )) = ( x y − x )
−2 7 y′

7.3 Espacios Euclidianos

7.3.1 Producto escalar


Introducción

En IR3 , consideremos la base canónica {ı̂,̂, k̂}.


Sean u = x1 i + x2 j + x3 k y v = y1 i + y2 j + y3 k dos vectores en IR3 .
Entonces el producto punto de u y v se define por

u · v = x 1 y1 + x2 y2 + x 3 y3

llamado ası́, pues a dos vectores se le asocia un número real y en


lenguaje geométrico se le asocia un punto.
La norma se define por
q
|u| = x21 + x22 + x23

es decir, |u|2 = u · u
Este producto punto puede también ser descrito por u·v = |u|·|v|·cos θ,
donde θ es el menor ángulo comprendido entre u y v; u, v 6= 0. Además
u · v = 0 si y sólo si θ es π2 .
Luego u · v = 0 si y sólo si u y v son perpendiculares.
Los conceptos de producto punto, longitud de un vector, ortogonalidad
serán generalizados a espacios vectoriales que no tienen fácil descrip-
ción geométrica como son IRn , n ≥ 4 y los espacios de funciones, y en
IR2 y IR3 se dará conceptos más amplios que el producto punto.
Nota: En esta sección consideramos solamente formas bilineales que
tienen por codominio los números reales, pues en el codominio vamos
a utilizar el concepto de orden.
292 M.T. Alcalde - C. Burgueño Algebra Lineal

Observación

En la forma bilineal del ejercicio de referencia (7.1) se tiene


f ((x, y), (x, y)) = 2x2 − 4xy + 5y 2 =
= x2 + (x2 − 4xy + 4y 2 ) + y 2 = x2 + (x − 2y)2 + y 2
que es siempre un número positivo o nulo, pues es suma de cuadrados.

Definición 7.3.1 Sea f : V × V → IR una forma bilineal. Diremos


que f es positiva si
f (v, v) ≥ 0 ∀v ∈ V

Ejemplo

En el ejemplo (7.2) se tiene que


Z 1
(f, f ) = f (t)2 dt
0
es cero o positivo, pues el producto convolución de f consigo misma,
representa el área bajo la curva f (t)2 cuyos puntos están en el eje X
o sobre el eje X.

Observación

En la forma bilineal del ejercicio (7.1) se tiene que f ((x, y), (x, y)) = 0
implica que x2 + (x − 2y)2 + y 2 = 0 luego x = y = 0, es decir (x, y) =
(0, 0).

Definición 7.3.2 Sea f : V × V → IR una forma bilineal. Diremos


que f es definida cuando el único vector de V que satisface f (v, v) = 0
es el vector v = ~0, es decir f (v, v) = 0 ⇒ v = ~0.

Ejemplo

En la forma
Z 1
bilineal del ejercicio (7.2) se tiene que si (f, f ) = 0 en-
tonces f (t)2 dt = 0 luego f (t)2 = 0 ∀t ∈ IR luego f (t) = 0 ∀t ∈ [0, 1]
0
Capı́tulo 7. Aplicaciones Bilineales 293

es decir f = 0 en[0,1]

Definición 7.3.3 Si f : V × V → IR es una forma bilineal, entonces


diremos que f es un producto escalar si f es simétrica, positiva y
definida. Notación: f (u, v) =:< u, v >

Ejemplos

Las formas bilineales del ejercicio (7.1) y del ejercicio (7.2) son pro-
ductos escalares.

Definición 7.3.4 Sea V un IR-espacio vectorial. Diremos que V es un


Espacio Euclidiano si sobre V se puede definir un producto escalar.

7.3.2 Norma
Observación

En IR2 con el producto punto, se define la longitud o norma de un


vector, de la manera siguiente
q
||(x, y)|| = x2 + y 2

pero x2 + y 2 corresponde al producto usual de (x, y) consigo mismo,


es decir q
||(x, y)|| = (x, y) · (x, y)
El concepto de norma se generaliza de la manera siguiente:

Definición 7.3.5 Sea V un espacio euclidiano, con un producto es-


calar < u, v >. Dado u ∈ V , es llamado norma del vector u, deno-
tado ||u||, el número real positivo:

||u|| = < u, u >
294 M.T. Alcalde - C. Burgueño Algebra Lineal

Ejemplo

En IR2 , considerando el producto usual, se tiene


√ √
||(1, 2)|| = 12 + 22 = 5

||(3, 4)|| = 32 + 42 = 5

Ejemplo

En IR2 , considerando el producto del ejercicio (7.1) se tiene:


√ √
||(1, 0)|| = 2 · 12 − 4 · 1 · 0 + 5 · 02 = 2
√ √
||(1, 2)|| = 2 · 12 − 4 · 1 · 2 + 5 · 22 = 14
√ √
||(3, 4)|| = 2 · 32 − 4 · 3 · 4 + 5 · 42 = 50
√ q √ √ q √
||(1, 3)|| = 2 · 12 − 4 · 1 · 3 + 5 · ( 3)2 = 17 − 4 3

Ejemplo
h i
V = {f : − π2 , π2 → IR continua} con el producto

Z π
2
(f, g) = f (t)g(t)dt
− π2

Algunos ejemplos en este caso son:


Sea n ∈ IN
Z π
2 2
||sennx|| = (sennx, sennx) = sen2 nxdx =
− π2
π π π
1 − cos 2nx 1 1 π
Z
2 2 2
= dx = x − sen2nx =
− π2 2 2 −2π 4n −2π 2
q
π
Luego ||sennx|| = 2
∀n ∈ IN
Sea m ∈ IN
Capı́tulo 7. Aplicaciones Bilineales 295

Z π
2
|| cos mx||2 = (cos mx, cos mx) = cos2 mxdx =
− π2
π π π
Z
2 1 + cos 2mx 1 2 1 2 π
= dx = x + sen2mx =
− π2 2 2 − π2 4m − π2 2
q
π
luego || cos mx|| = 2
∀m ∈ IN

Ejemplo

En IRn con el producto escalar usual se tiene


q
||(u1 , u2 , . . . , un )|| = < (u1 , u2 , . . . , un ), (u1 , u2 , . . . , un ) > =
q
= u21 + u22 + · · · + u2n

Proposición 7.3.1 Sea V un espacio euclidiano, entonces se tiene

1. ||αu|| = |α| · ||u|| ∀α ∈ IR, ∀u ∈ V

2. ||u|| ≥ 0 ∀u ∈ V

3. ||u|| = 0 si y sólo si u = ~0

Demostración (1)
√ √ √ √
||αu|| = < αu, αu > = α2 < u, u > = α2 · < u, u > =
= |α| · ||u||

Demostración (2)

< u, u > ≥ 0 ∀u ∈ V ⇒ < u, u > está definida ∀u ∈ V y

< u, u > ≥ 0 ∀u ∈ V luego ||u|| ≥ 0 ∀u ∈ V

Demostracion (3)

||u|| = 0 ⇔ < u, u > = 0 ⇔< u, u >= 0 ⇔ u = ~0
296 M.T. Alcalde - C. Burgueño Algebra Lineal

Proposición 7.3.2 (Desigualdad de Cauchy-Schwartz) Sea V


un espacio euclidiano, entonces

| < u, v > | ≤ ||u|| · ||v|| ∀u, v ∈ V

Demostración

Supongamos primero que v = ~0. Entonces ambos miembros de la


igualdad son cero (ejercicio).
<u,v>
Supongamos v 6= 0 luego < v, v >6= 0. Sea λ = <v,v>
.
Como la forma bilineal es positiva, se tiene que

< u − λv, u − λv >≥ 0

De la bilinealidad, se deduce

< u, u > −λ < u, v > −λ < v, u > +λ2 < v, v >≥ 0

Usando la propiedad simétrica y la definición de λ se tiene


< u, v >2 < u, v >2 < u, v >2
< u, u > −2 + ≥ 0 ⇒< u, u > − ≥0
< v, v > < v, v > < v, v >
Multiplicando por < v, v > se tiene

< u, u >< v, v > − < u, v >2 ≥ 0 ⇒< u, u >< v, v >≥< u, v >2

luego
√ √
< u, u > < v, v > ≥ | < u, v > | ⇒ | < u, v > | ≤ ||u|| · ||v||

Ejemplo

En IR2 con el producto escalar usual, se tiene

| < (x1 , y1 ), (x2 , y2 ) > | ≤ ||(x1 , y1 )|| · ||(x2 , y2 )||

es decir q q
|x1 x2 + y1 y2 | ≤ x21 + y12 · x22 + y22
Capı́tulo 7. Aplicaciones Bilineales 297

Ejemplo

En IRn con el producto escalar usual, se tiene

| < (x1 , x2 , . . . , xn ), (y1 , y2 , . . . , yn ) > | ≤


≤ ||(x1 , x2 , . . . , xn )|| · ||(y1 , y2 , . . . , yn ||

es decir v v
n u n u n

X uX uX



x i yi ≤


t x2 i · t y2 i
i=1 i=1 i=1

elevando al cuadrado, se tiene


X 2 n n
x2i · yi2
X X
xi yi ≤
i=1 i=1

conocida como la desigualdad de Lagrange.

Corolario 7.3.3 (Desigualdad triangular de Minkowsky)

||u + v|| ≤ ||u|| + ||v||

Demostración

||u + v||2 =< u + v, u + v >=


=< u, u > + < u, v > + < v, u > + < v, v >=
=< u, u > +2 < u, v > + < v, v >= ||u||2 + 2 < u, v > +||v||2 ≤
≤ ||u||2 + 2||u|| · ||v|| + ||v||2 = (||u|| + ||v||)2
Como ||u + v|| y ||u|| + ||v|| son positivos, entonces

||u + v|| ≤ ||u|| + ||v||

Corolario 7.3.4

| ||u|| − ||v|| | ≤ ||u − v||


298 M.T. Alcalde - C. Burgueño Algebra Lineal

Demostración

Puesto que u = (u − v) + v, por el corolario anterior se tiene

||u|| ≤ ||u − v|| + ||v||

luego
||u|| − ||v|| ≤ ||u − v|| (7.3)
Además v = (v − u) + u, luego

||v|| ≤ ||v − u|| + ||u||

luego
||v|| − ||u|| ≤ ||v − u|| = ||u − v||
de donde
||v|| − ||u|| ≤ ||u − v|| (7.4)
Por (7.3) y (7.4)
| ||u|| − ||v|| | ≤ ||u − v||

7.3.3 Ortogonalidad
En IR2 , considerando el producto usual se tiene que el producto entre
dos vectores es nulo si y sólo si el ángulo comprendido es de π2 radianes,
es decir, si y sólo si estos vectores son ortogonales.
Este concepto de ortogonalidad se generaliza de la manera siguiente:

Definición 7.3.6 En un espacio euclidiano V , diremos que dos vec-


tores u y v son ortogonales si el producto escalar entre ellos es nulo.

Ejemplo

En IR3 , considerando el producto usual se tiene que u = (3, 0, 0) y


v = (0, 5, 0) son ortogonales. También u = (3, 0, 0), w = (0, 0, 7) son
ortogonales.
Capı́tulo 7. Aplicaciones Bilineales 299

Ejemplo

Volviendo al ejercicio (7.1)


f ((1, 1), (2, 0)) = 2 · 1 · 2 − 2 · 1 · 0 − 2 · 2 · 1 + 5 · 1 · 0 = 0
Entonces diremos que u = (1, 1) y v = (2, 0) son ortogonales con
respecto a este producto.

Definición 7.3.7 Sea S = {u1 , u2 , . . . , un } en un espacio euclidiano


V . Diremos que S es un conjunto ortogonal de vectores si los vec-
tores de S son ortogonales de dos en dos. Si además todos ellos tienen
norma 1, diremos que S es un conjunto ortonormal de vectores.

Ejemplo

En el ejercicio (7.1) el conjunto B = {(1, 1), (2, 0)} es ortogonal.


n   o
El conjunto C = √1 , √1 , √1 , 0 es ortonormal con respecto al
3 3 2
mismo producto escalar.

Ejercicio

Sea V = {f : [−l, l] → IR; f continua}, con el producto escalar


siguiente:
Z l
(f, g) = f (x)g(x)dx
−l

nπx nπx
    
Demostremos que cos , sen ; n = 0, 1, 2, . . .} es una fa-
l l
milia ortogonal. Determinemos además la norma de cada vector.
300 M.T. Alcalde - C. Burgueño Algebra Lineal

Solución

1. Sea m 6= n
mπx nπx Z l
mπx nπx
        
cos , cos = cos cos dx =
l l −l l l
" ! !#
Z l
1 (m + n)πx (m − n)πx
= cos + cos dx = 0
−l 2 l l
2. Sea m 6= n
mπx nπx Z l
mπx nπx
        
sen , sen = sen sen dx =
l l −l l l
" ! !#
Z l
1 (m − n)πx (m + n)πx
= cos − cos dx = 0
−l 2 l l
3. ∀m, n ∈ IN
mπx nπx Z l
mπx nπx
        
cos , sen = cos sen dx =
l l −l l l
" ! !#
Z l
1 (m − n)πx (m + n)πx
= sen + sen dx = 0
−l 2 l l

Luego la familia dada es ortogonal Ahora busquemos la norma de estas


funciones

1. Para n = 0, se tiene cos 0x = 1 y su norma es


Z l
||1||2 = dx = 2l
−l

es decir, ||1|| = 2l
2. Para n ≥ 1
nπx 2 Z l 2 nπx
   

cos = cos dx =

l −l l
1Z l 2nπx
  
= 1 + cos dx =
2 −l l
! l
1 l 2nπx

= x+ sen
=l
2 2nπ l


−l
Capı́tulo 7. Aplicaciones Bilineales 301

es decir

nπx √
 

cos
= l

l
3. Para n ≥ 1
nπx 2 Z l 2 nπx
   

sen = sen dx =

l −l l
1Z l 2nπx
  
= 1 − cos dx =
2 −l l
! l
1 l 2nπx

= x− sen
=l
2 2nπ l


−l
es decir
nπx √
 

sen
= l

l

Definición 7.3.8 Sea V un espacio euclidiano de dimensión finita.


Diremos que el conjunto B = {u1 , u2 , . . . , un } es una base ortonor-
mal de V , si B es una base de V y B es un conjunto ortonormal de
vectores de V .

Teorema 7.3.5
(Proceso de ortonormalización de Gram-Schmidt)
Todo espacio euclidiano V de dimensión finita n, no nulo, admite una
base ortonormal {g1 , g2 , . . . , gn }.

Demostración
1
1. Si dim V = 1. Sea {u} una base de V , entonces g = . Se
||u||
tiene que ||g1 || = 1.
1
2. Si dim V = 2. Sea {u1 , u2 } una base de V , entonces g1 = u1 .
||u1 ||
Sea v2 = u2 − < u2 , g1 > g1 . Se tiene que
302 M.T. Alcalde - C. Burgueño Algebra Lineal

< v2 , g1 > = < u2 − < u2 , g1 > g1 , g1 >=


= < u2 , g1 > − < u2 , g1 >< g1 , g1 >= 0
1
Se construye g2 = · v2
||v2 ||
Entonces {g1 , g2 } es una base ortonormal de V .

3. Si dim V = 3. Sea {u1 , u2 , u3 } una base de V . Se construye v3 de


la manera siguiente
v3 = u3 − < u3 , g1 > g1 − < u3 , g2 > g2
Se tiene que < v3 , g1 >= 0 y < v3 , g2 >= 0 (se deja de ejercicio
al lector). Luego se construye g3 de la manera siguiente
1
g3 = v
||v3 || 3

En general se construye vr de la manera siguiente


vr = ur − < ur , g1 > g1 − < ur , g2 > g2 · · · < ur , gr−1 > gr−1
1
gr = v
||vr || r

Este proceso debe terminar en algún momento pues el espacio


euclidiano considerado es de dimensión finita.

Definición 7.3.9 Diremos que {g1 , . . . , gn } es la base ortonorma-


lizada de {u1 , u2 , . . . , un }.

Ejercicio

Con respecto al producto escalar


< (x, y), (x′ , y ′ ) >= 2xx′ − 2xy ′ − 2x′ y + 5yy ′
ortonormalicemos la base B = {(1, 1), (1, −1)}

Solución

Sea u1 = (1, 1)
||u1 ||2 =< (1, 1), (1, 1) >= 2 · 1 · 1 − 2 · 1 · 1 − 2 · 1 · 1 + 5 · 1 · 1 = 3
Capı́tulo 7. Aplicaciones Bilineales 303

(1, 1)
g1 = √
3
v2 = u2 − < u2 , g1 > g1
D E
v2 = (1, −1) − (1, −1), (1,1)

3
(1,1)

3
(1,1)
v2 = (1, −1)− < (1, −1), (1, 1) > 3
(1,1)
v2 = (1, −1) − (2 · 1 · 1 − 2 · 1 · 1 − 2 · 1 · (−1) + 5 · (−1) · 1) · 3
(1,1)
v2 = (1, −1) + 3 · 3
= (1, −1) + (1, 1) = (2, 0)
< v2 , v2 >=< (2, 0), (2, 0) >= 8
√ √
||v2 || = < v2 , v2 > = 2 2
(2, 0) (1, 0)
g2 = √ = √
2 2 2
n o
√ , (1,0)
(1,1)
La base ortonormalizada es B = 3

2

Ejemplo

En IRn , con el producto usual, el conjunto


S = {e1 = (1, 0, . . . , 0), e2 = (0, 1, 0, . . . , 0), . . . , en = (0, . . . , 0, 1)}
es un conjunto ortonormal.

Ejemplo

En V = {f : [0, 1] → IR contı́nuas} con el producto escalar


Z
< f, g >= f (t)g(t)dt, el conjunto

     
 cos mπx sen nπx 
l l
S= √ , √ ; m, n ∈ IN
l l

es un conjunto ortonormal de vectores.


304 M.T. Alcalde - C. Burgueño Algebra Lineal

Ejemplo

En IR2 , con el producto usual B = {(1, 0), (0, 1)} es una base ortonor-
mal de IR2 .

Proposición 7.3.6 Sea V un espacio euclidiano. Sea U un sub-


espacio de V , entonces el conjunto S = {v ∈ V ; < u, v >= 0 ∀u ∈ U }
es un sub-espacio vectorial de V .

Demostración

Sean u1 , u2 ∈ U entonces

1. < u1 + u2 , v >=< u1 , v > + < u2 , v >= 0 + 0 = 0, luego


u1 + u 2 ∈ U .
2. Además < αu1 , v >= α < u1 , v >= α · 0 = 0 luego αu1 ∈ U

Por (1.) y (2.) S es un sub-espacio vectorial de V .

Definición 7.3.10 El sub-espacio S de la proposición anterior será


denotado S ⊥ y es llamado el subespacio ortogonal a S.

7.3.4 Angulo y distancia entre vectores


En IR2 , considerando el producto punto, se obtiene el coseno del ángulo
menor entre dos vectores de la igualdad

< u, v >= ||u|| · ||v|| · cos θ

Este concepto se generaliza de la manera siguiente:

Definición 7.3.11 Sea V un espacio vectorial euclidiano con pro-


ducto escalar < u, v >. Se define el coseno del ángulo menor com-
prendido entre dos vectores no nulos como
< u, v >
cos θ =
||u|| · ||v||
Capı́tulo 7. Aplicaciones Bilineales 305

Ejemplo

En IR2 con el producto


 √  escalar usual, el ángulo menor entre los vectores
u = (1, 0) y v = 21 , 23 es
 √ 
1 3
< (1, 0), ,
2 2
> 1
2 1
cos θ =  √  = =
(1, 0) · 1
, 3 1·1 2
2 2

luego θ = π3 . Por supuesto que el ángulo entre u = (1, 0) y w = (1, 3)
es también θ = π3

Ejemplo

En IR2 , considerando el producto escalar del √


ejemplo (7.1). El ángulo
menor entre los vectores u = (1, 0) y v = (1, 3) es
√ √ √ √
<(1,0),(1, √ 3)> 2·1·1−2·1· 3−2·0·1+5·0·( 3) 2−2 3
cos θ = ||(1,0)||·||(1, 3)||
= √ √ √ = √ √ √
2· 17−4 3 2 17−4 3

Observación

En IR2 , consideremos el producto usual. La distancia entre dos puntos


de IR2 , P1 = (x1 , y1 ) y P2 = (x2 , y2 ) es
q
d(P1 , P2 ) = (x2 − x1 )2 + (y2 − y1 )2
Este número corresponde a ||(x2 , y2 ) − (x1 , y1 )||, es decir, se puede
pensar como la distancia entre dos vectores
d((x1 , y1 ), (x2 , y2 )) = ||(x2 , y2 ) − (x1 , y1 )||
Este concepto de distancia entre dos vectores se puede generalizar de
la manera siguiente:

Definición 7.3.12 Sea V un espacio euclidiano con norma ||u||, en-


tonces la aplicación d : V × V → IR+
0 definida por d(u, v) = ||u − v||,
es llamada la función distancia. El número d(u, v) es llamado la
distancia entre u y v .
306 M.T. Alcalde - C. Burgueño Algebra Lineal

Proposición 7.3.7 Sea V un espacio euclidiano. Entonces

1. d(u, v) ≥ 0 ∀u, v ∈ V

2. d(u, v) = 0 si y sólo si u = v

3. d(u, v) = d(v, u) ∀u, v ∈ V

4. d(u, v) ≤ d(u, w) + d(w, v) ∀u, v, w ∈ V

La demostración la dejamos al lector

Definición 7.3.13 Un espacio vectorial real dotado de una distancia


es llamado un espacio métrico.

7.4 Formas bilineales simétricas


El estudio de las formas bilineales está ı́ntimamente ligado al estudio
de las formas cuadráticas.

Definición 7.4.1 Sea f : V × V → K una forma bilineal simétrica.


Consideremos una función qf : V → K definida por

qf (v) = f (v, v) ∀v ∈ V (7.5)

Esta función de una variable, es llamada la forma cuadrática sobre


V asociada a la forma bilineal f .

Ejemplo

La función cuadrática asociada al producto interno usual de IRn es

q(x1 , x2 , . . . , xn ) = x21 + x22 + · · · + x2n


Capı́tulo 7. Aplicaciones Bilineales 307

Ejemplo

Sea f : IR2 × IR2 → IR del ejercicio (7.1).


Entonces la función cuadrática asociada a f es

q((x, y)) = 2x2 − 4xy + 5y 2

Nota: Recı́procamente, si q es la forma cuadrática asociada a una


forma bilineal f , podemos recuperar f de la manera siguiente:
1
f (u, v) = [q(u + v) − q(u) − q(v)] ∀u, v ∈ V (7.6)
2
Las fórmulas (7.5) y (7.6) son conocidas como identidades de polariza-
ción y muestran que no solamente q está unı́vocamente determinada
por f , sino también q determina unı́vocamente a f .

Proposición 7.4.1 Sea f : V × V → IR bilineal simétrica, Si


f (v, v) = 0 ∀v ∈ V , entonces f es nula.

Demostración

Sea u, v ∈ V , entonces
0 = f (u + v, u + v) = f (u, u) + 2f (u, v) + f (v, v) =
= 2f (u, v) luego f (u, v) = 0 ∀u, v ∈ V luego f = 0.

7.5 Ejercicios resueltos


Ejercicio

Sea f : M2 (IR) × M2 (IR) → IR, la forma bilineal definida por:


a b e f
   
f( , ) = ae + 2bf + 3cg + dh
c d g h

1. Demostremos que f es un producto interno en M2 (IR).


308 M.T. Alcalde - C. Burgueño Algebra Lineal

2. Sean
1 −1 2 1
   
A= yB=
0 1 −1 1
Calculemos ||A||, ||B||, d(A, B) y el ángulo comprendido entre
AyB

Solución de (1)

Se ha supuesto que f es bilineal. Debemos demostrar entonces:

(a) Demostremos que f es simétrica.


a b e f
   
f( , ) = ae + 2bf + 3cg + dh
c d g h
e f a b
   
f( , ) = ea + 2f b + 3gc + hd
g h c d
ambos productos son iguales, luego f es simétrica.
(b) Demostremos que f es positiva.
a b a b
   
f( , ) = a2 + 2b2 + 3c2 + d2 ≥ 0
c d c d
(c) demostremos que f está bien definida.
a b a b
   
f( , ) = a2 + 2b2 + 3c2 + d2 = 0
c d c d
⇒a=0=b=c=d

por (a), (b) y (c) f es un producto interno.

Solución de (2)
s
√ 
1 −1 1 −1
  
||A|| = < A, A > = < , >=
0 1 0 1
√ √
= 1+2+0+1= 4=2
s
√ 
2 1 2 1
  
||B|| = < B, B > = < , >=
−1 1 −1 1
Capı́tulo 7. Aplicaciones Bilineales 309

√ √
= 4+2+3+1= 10
1 −1 2 1
   
d(A, B) = ||A − B|| = || − || =
0 1 −1 1
s
−1 −2 1 −2 1 −2
     
= || || = < , >=
1 0 1 0 1 0
√ √ √
= 1 + 8 + 3 + 0 = 12 = 2 3
Tenemos que ||A|| · ||B|| cos θ =< A, B >, luego

1 −1 2 1
   
< , >
< A, B > 0 1 −1 1 1
cos θ = = √ = √
||A|| · ||B|| 2 10 2 10

luego
1
θ = arccos √
2 10

Ejercicio

Sea f : IR2 × IR2 → IR una forma bilineal definida por:

f ((x1 , y1 ), (x2 , y2 )) = 3x1 x2 + 2x1 y2 + 2x2 y1 + 10y1 y2

1. Demuestre que f es un producto interno.

2. Sean u = (1, −1) y v = (1, 0). Encuentre la norma de estos dos


vectores, la distancia entre ellos y el coseno del ángulo compren-
dido entre ellos.

Solución de (1)

Se ha dado por supuesto que es bilineal. Debemos demostrar entonces:

(a) f es simétrica.
En efecto
310 M.T. Alcalde - C. Burgueño Algebra Lineal

f ((x1 , y1 ), (x2 , y2 )) = 3x1 x2 + 2x1 y2 + 2x2 y1 + 10y1 y2


f ((x2 , y2 ), (x1 , y1 )) = 3x2 x1 + 2x2 y1 + 2x1 y2 + 10y2 y1
Ambas imágenes coinciden, luego f es simétrica.

(b) f es positiva.
En efecto
f ((x, y), (x, y)) = 3x2 +4xy+10y 2 = 2x2 +(x2 +4xy+4y 2 )+6y 2 =
= 2x2 + (x + 2y)2 + 6y 2 ≥ 0 ∀(x, y) ∈ IR2

(c) f está bien definida.


En efecto
f ((x, y), (x, y)) = 0 ⇒ 2x2 + (x + 2y)2 + 6y 2 = 0
⇒ x = y = 0 ⇒ (x, y) = (0, 0)

por (a), (b) y (c) f es un producto interno.

Solución de (2)
q
||u|| = ||(1, −1)|| = f ((1, −1), (1, −1)) = 3
q √
||v|| = ||(1, 0)|| = f ((1, 0), (1, 0)) = 3
d(u, v) = ||u − v|| = ||(1, −1) − (1, 0)|| = ||(0, −1)|| =
q √
3 · 02 + 4 · 0 · (−1) + 10 · (−1)2 = 10
Tenemos que

< u, v >= ||u|| · ||v|| · cos θ


< u, v >
luego cos θ =
||u|| · ||v||
< u, v >=< (1, −1), (1, 0) >= 3·1·1+2·1·0+2·1(−1)+10(−1)·0 = 1
1
Luego cos θ = √
3 3
Capı́tulo 7. Aplicaciones Bilineales 311

Ejercicio

Sobre M2 (IR), consideremos el producto interno siguiente:

f : M2 (IR) × M2 (IR) → IR; f (A, B) = tr(At B)

Sea S subespacio de M2 (IR) con base

1 1 1 −1 1 0
     
C = {u1 = , u2 = , u3 = }
1 0 1 0 0 1

1. Ortonormalicemos la base de C de S

2. Busquemos el subespacio ortogonal a S

Solución de (1)
s 
1 1
t 
1 1
 √
||u1 || = tr = 3
1 0 1 0
1 1
 
Sea g1 = √1
1 0
3

Se tiene que v2 = u2 − < u2 , g1 > g1 =

1 −1 1 −1 √1 1 1
     
= −< , 3 > √1 =
1 0 1 0 1 o 3

2
1 −1 1 1 − 43
     
= − (1 + (−1) + 1) 13 = 3
2
1 0 1 0 3
0
q √
||v2 || = ( 32 )2 + (− 43 )2 + ( 32 )2 = 2
3
6
2
− 34 1 −2
   
1
g2 = 6 ·
2
√ 3
2= √16
3 0 3
1 0
Se tiene que: v3 = u3 − < u3 , g1 > g1 − < u3 , g2 > g2
1 0 1 0 √1 1 1 1 1
       
v3 = −< , 3 > √1 −
0 1 0 1 1 0 3 1 0
312 M.T. Alcalde - C. Burgueño Algebra Lineal

1 1 √1 1 −2 1 −2
     
< , 6 > √1 =
1 0 1 0 6 1 0
1
1 0 1 1 1 −2 0
       
1 1
= − − = 2
0 1 3 1 0 6 1 0 − 21 1
s t 
1 1
0 0
  q q
||v3 || = tr 2 · 2 = ( 21 )2 + (− 21 )2 + 12 = 3
− 21 1 − 21 1 2

1
0
 
2  √ 
1 √2 0
−√ 1  2 √3
g3 = 2
3
= √ 
2 − 2√23 √2
3

Luego {g1 , g2 , g3 } es la base ortonormal de S obtenida por el proceso


de Grahn-Schmidt.

Solución de (2)

Busquemos el subespacio ortogonal a S


Construyamos el sistema de ecuaciones siguiente:

x y 1 1
   
< , >= 0 ⇔ x + y + z = 0
z t 1 0
x y 1 −1
   
< , >= 0 ⇔ x − y + z = 0
z t 1 0
x y 1 0
   
< , >= 0 ⇔ x + t = 0
z t 0 1

Si escalonamos el sistema tenemos: x = −t; y = 0; z = t.


−1 0
 

Luego el subespacio ortogonal de S es S =< >
1 1

Ejercicio

Sea f : IR3 × IR3 → IR definida por:

f ((x1 , y1 , z1 ), (x2 , y2 , z2 )) = 2x1 x2 +3x1 y2 +3x2 y1 +5y1 z2 +5y2 z1 +4z1 z2


Capı́tulo 7. Aplicaciones Bilineales 313

1. Busquemos la forma cuadrática asociada a esta forma bilineal


simétrica.

2. Busquemos la matriz asociada a f con respecto a la base


canónica.

Solución de (1)

q(x, y, z) = f ((x, y, z), (x, y, z)) = 2x2 + 3xy + 3xy + 5yz + 5yz + 4z 2 .
Luego q(x, y, z) = 2x2 + 6xy + 10yz + 4z 2

Solución de (2)

Tenemos que hacer los siguientes cálculos:

f ((1, 0, 0), (1, 0, 0)) = 2; f ((1, 0, 0), (0, 1, o)) = 3;


f ((0, 1, 0), (1, 0, 0)) = 0; f ((1, 0, 0), (0, 0, 1)) = 0
f ((0, 0, 1), (1, 0, 0)) = 0; f ((0, 1, 0), (0, 1, 0)) = 0
f ((0, 1, 0), (0, 0, 1)) = 5; f ((0, 0, 1), (0, 1, 0)) = 5
f ((0, 0, 1), (0, 0, 1)) = 4
 
2 0 0
3 0 5
Luego (f ; C, C) =  

0 5 4

Ejercicio

Sea q : IR3 → IR definida por: q(x, y, z) = 3x2 + 2xz − 10yz + 2z 2

1. Busquemos la matriz asociada a q con respecto a la base canónica


C = {e1 , e2 , e3 }

2. Busquemos la forma bilineal asociada a q


314 M.T. Alcalde - C. Burgueño Algebra Lineal

Solución de (1)

Tenemos que
  
a b c x
q(x, y, z) = ( x y z)b d e y  =
  

c e f z
 
x
= ( ax + by + cz bx + dy + ez cx + ey + f z )  y  =
 

z
= (ax2 + 2bxy + 2cxz + dy 2 + 2eyz + f z 2 ) =
= (ax2 + 2bxy + 2cxz + dy 2 + 2eyz + f z 2 )
Luego a = 3; b = 0; c = 1; d = 0; e = −5; f = 2
Luego
 
3 0 1
(q; C) =  0 0 5 
 

1 −5 2

Solución de (2)

f (e1 , e1 ) = 3; f (e1 , e2 ) = f (e2 , e1 ) = 0; f (e1 , e3 ) = f (e3 , e1 ) = 1;


f (e2 , e2 ) = 0; f (e2 , e3 ) = f (e3 , e2 ) = −5; f (e3 , e3 ) = 2

Sea x = α1 e1 + α2 e2 + α3 e3 y y = β1 e1 + β2 e2 + β3 e3
f (x, y) = f (α1 e1 + α2 e2 + α3 e3 , β1 e1 + β2 e2 + β3 e3 ) =
= α1 β1 · 3 + (α1 β2 + α2 , β1 ) · 0 + (α1 β3 + α3 β1 ) · 1 + α2 β2 · 0 +
+ (α2 β3 + α3 β2 ) · (−5) + α3 β3 · 2
Luego
f (x, y) = 3α1 β1 + α1 β3 + α3 β1 + (−5)α2 β3 + (−5)α3 β2 + 2α3 β3
O bien lo podrı́amos haber obtenido de la manera siguiente:
Capı́tulo 7. Aplicaciones Bilineales 315

   
a b c x2
f ((x1 , y1 , z1 ), (x2 , y2 , z2 )) = ( x1 y1 z1 ) ·  b d e  ·  y2 
   

c e f z2

7.6 Ejercicios propuestos


1. Sea f : IR3 × IR3 → IR una forma bilineal definida por:

f ((x, y, z), (a, b, c)) = xa + 4xb + kya + lyb + mzc

(a) Encuentre las propiedades que deben cumplir k, l, m de


manera que f sea un producto interno.
(b) Para k = 4, l = 17, m = 1, encuentre la matriz asociada a
f con respecto a la base B = {(1, 1, 1), (1, 1, 0), (1, 0, 0)}

2. Sea q : IR3 → IR la forma cuadrática definida por q(x, y, z) = xy.

(a) Encuentre la forma bilineal simétrica sociada a q.


(b) Encuentre la matriz asociada a q con respecto a la base
B = {(1, 1, 0), (−1, 1, 0), (0, 0, 1)}

3. Sea f : V × V → IR un producto interno. Demuestre que


f (u, v) = 41 ku + vk2 − 14 ku − vk2 .

4. Demuestre que ku + vk2 = kuk2 + kvk2 ⇒ u es ortogonal con v.

5. Considere el producto escalar <, >: IR3 × IR3 → IR definido por:

< (x, y, z), (x′ , y ′ , z ′ ) >= 2xx′ + 2xz ′ + 2x′ z + 3zz ′ + yy ′

Sea S = {(x, y, z); x + y + z = 0}. Encuentre S ⊥ .


Epı́logo

Antes de terminar, queremos felicitarte por llegar hasta el final de


estos apuntes.
Deseamos que apruebes el curso. Feliz tú si apruebas este ramo y
mejor aún si es con buena nota. ¡Felicitaciones! Esperamos que ahora
entiendas mejor como se van construyendo las matemáticas.
Si debes profundizar este ramo el próximo semestre, entonces ánimo
Sabes, todos nos hemos caı́do en nuestras vidas y lo importante es
pararse, animarse y volver a hacer todo de nuevo y mucho mejor que
antes. ¿Todo de nuevo? Si ¡Todo de nuevo!, pero el próximo semestre
entenderás muy bien y tal vez sea el comienzo de una nueva etapa en
tu vida de estudiante. ¡De ahora en adelante te irá estupendo!

317
Bibliografı́a

[1] Boldrini, Costa, Figueiredo, Wetzler, Algebra Linear, Har-


bra.

[2] C. A. Callioli, H. H. Domingues, R. C. F. Costa, Algebra


Linear e aplicacoes, Atual.

[3] A. Doneddu, Polinome et Algebre Lineaire. Vuibert.

[4] J. B. Fraleigh, Algebra Lineal, Addison-Wesley Iberoameri-


cana.

[5] E. Gentille, Notas de Algebra, Algebra Lineal, Docencia S.A.


Buenos Aires.

[6] S. Grossman, Algebra Lineal, MacGraw Hill.

[7] K. Hoffman y R. Kunze, Algebra Lineal. Prentice-Hall His-


panoamericana, S.A.

[8] B. Kolman, Algebra Lineal, Addison-Wesley Iberoamericana.

[9] S. Lang, Linear Algebra, Springer-Verlag New York Inc.

[10] I. Proskuriakov, Problemas de Algebra lineal, Mir. Moscu.

[11] P. C. Shields, Algebra Lineal, Interamericana.

319
Indice de términos

Angulo entre vectores, 304 Conjunto ortonormal, 299


Aplic. Bil. simétrica, 286
Aplicación lineal, 119 Desigualdad de Cauchy-Schwartz,
Aplicación nula, 121 296
Aplicaciones Bilineales, 275, 276, Desigualdad de Lagrange, 297
278 Desigualdad triangular, 297
Automorfismo, 145, 200 Determinante, 219, 220, 226, 228,
229
Base, 81 Determinante de un endomor-
base canónica de K[X], 84 fismo, 234, 235
base canónica de K 2 , 84 Diagonalizable, 257, 258
base canónica de K n , 83 Diagonalización, 249
base canónica de K2 [X], 84 Dimensión, 92, 96, 97
base canónica de Km [X], 84 Distancia entre vectores, 305
base canónica de K[X], 84 divisor de cero, 188
Base Diagonalizante, 257
Base escalonada, 86 Ecuaciones equivalentes, 9
Base ortonormal, 301 Elementos propios, 253
Base ortonormalizada, 302 Endomorfismo, 144
Epimorfismo, 145
Cambio de base, 202 Esp. vec. complejos, 97
Cofactor, 229 Espacio Euclidiano, 291, 293
Combinación lineal, 12, 54 Espacio métrico, 306
Combinación lineal de ecuaciones, Espacio vectorial, 35
12 Espacio vectorial finito, 40
Componentes, 83
Composición de morfismos, 183 Familia de sistemas, 24
Conjunto maximal l.i., 78 Forma Bilineal, 287
Conjunto minimal, 69 Forma cuadrática, 306
Conjunto ortogonal, 299 Forma definida, 292

321
322 M.T. Alcalde - C. Burgueño Algebra Lineal

Forma matricial de f (v) = w, Norma, 293


193
Forma matricial de un sistema Operación elemental, 13, 66
de EC., 195 Operaciones elementales, 13
Forma positiva, 292 Ortogonalidad, 298

Homotecia, 121 Parte antisimétrica, 192


Parte simétrica, 192
idempotente, 189 Polinomio caracterı́stico, 256
Identidad, 121 Polinomios truncos, 38
involutiva, 189 Ponderación de una Aplic. Bil.,
Isomorfismo, 145 283
Isomorfo, 149 Producto λ · f , 181
Linealmente dependiente, 70 Producto λ · M , 181
Linealmente independiente, 70 Producto de matrices, 183, 184
Producto escalar, 291, 293
Matrices equivalentes, 203, 205 Producto por escalar, 35, 154
Matrices semejantes, 206
Matriz, 21 Reflexión, 122
Matriz adjunta, 232, 234 Rotación, 124
Matriz antisimétrica, 191
Sistema de Cramer, 17
Matriz asociada, 173, 174, 176,
Sistema de Ec. l.d., 16
288, 289
Sistema de Ec. l.i., 17
Matriz de cambio de base, 200,
Sistema escalonado, 20
202
Sistema lineal, 11
Matriz elemental, 198
Sub-espacio generado, 60
Matriz idempotente, 212
Sub-espacio suma, 102
Matriz invertible, 187
Sub-espacio vectorial, 43, 44
matriz nilpotente de grado m,
Sub-espacios l.i., 110
189
Sub-espacios suplementarios, 110
Matriz ortogonal, 191
Sub-espacios vectoriales, 42
Matriz simétrica, 191
Matriz singular, 187 Subdeterminante, 226
Matriz transpuesta, 190 Subespacio ortogonal, 304
Monomorfismo, 144 Subespacio propio, 255
Morfismo, 144 Suma de Aplic. Bilineales, 283
Suma de matrices, 179
Núcleo, 131, 135 Suma de morfismos, 179
Capı́tulo
Aplicaciones
7. Bilineales 323

Suma de sub-espacios, 101, 113


Suma directa de sub-espacios,
108, 114

Teo. Gram-Schmidt, 301


Teorema Aplic. Bil., 279
Teorema de invariancia, 96
Teorema de Steinitz, 89
Teorema fundamental, 127
Tipos especiales de matrices, 186
Translación, 123
Traza de una matriz, 192

Valor propio, 254


Valor propio múltiple, 265
Valor propio simple, 258
Vector propio, 254
Vectores escalonados, 86
Vectores l.d., 70
Vectores l.i., 70
Vectores ortogonales, 298

También podría gustarte