0% encontró este documento útil (0 votos)
50 vistas226 páginas

Álgebra Lineal y Cálculo para Telecomunicaciones

Cargado por

iceokey158
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
50 vistas226 páginas

Álgebra Lineal y Cálculo para Telecomunicaciones

Cargado por

iceokey158
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

ALGEBRA LINEAL Y

CÁLCULO DE UNA VARIABLE


PARA ESTUDIANTES
DE GRADO EN TECNOLOGIAS

DE LA TELECOMUNICACIÓN

Prof. José L. López

Dpto. Estadı́stica, Informática y Matemáticas

Universidad Pública de Navarra

1
INDICE
0. Introducción y objetivos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1. Números reales y complejos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.1 Números complejos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.2. Problemas resueltos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.3. Problemas propuestos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2. Vectores y matrices. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .19
2.1 Vectores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.2 Combinación lineal, independencia lineal, bases, dimensión y coordenadas . . . . 25
2.3 Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.4 Algunas matrices importantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.5 Rango . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
2.6 Determinante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
2.7 Matriz inversa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
2.8. Descomposición LU . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
2.9 Problemas resueltos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
2.10 Problemas propuestos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
3. Producto escalar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
3.1 Producto escalar, longitud de un vector y ortogonalidad . . . . . . . . . . . . . . . . . . . . 58
3.2 Proyección ortogonal. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
3.3 Mı́nimos cuadrados e inferencia de modelos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
3.4 Construcción de bases ortogonales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
3.5 Problemas resueltos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
3.6 Problemas propuestos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
4. Aplicaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
4.1 Concepto de aplicación lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
4.2 Núcleo e imagen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
4.3 Composición de aplicaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
4.4 Problemas resueltos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
4.5 Problemas propuestos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92

2
5. Diagonalización de matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
5.1 Valores y vectores propios de una matriz. Subespacios fundamentales . . . . . . . . 96
5.2 Polinomio caracterı́stico. Multiplicidad algebraica y geométrica . . . . . . . . . . . . . . 98
5.3 Matrices diagonalizables. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
5.4 Problemas resueltos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
5.5 Problemas propuestos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
6. Formas cuadráticas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
6.1 Definición de formas cuadráticas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
6.2 Diagonalización de formas cuadráticas y clasificación . . . . . . . . . . . . . . . . . . . . . . . 121
6.3 Problemas resueltos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124
6.4 Problemas propuestos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129
7. Funciones, lı́mites y continuidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .134
7.1. Nociones preliminares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134
7.2. Funciones reales de una variable real . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134
7.3. Lı́mites y continuidad de funciones reales de una variable real . . . . . . . . . . . . . 137
7.4. Teoremas de Weierstrass, Bolzano y valores intermedios . . . . . . . . . . . . . . . . . . . 139
7.5. Problemas resueltos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139
7.6. Problemas propuestos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141
8. Cálculo diferencial en |R . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153
8.1. Derivada. Función derivada . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153
8.2. Polinomio de Taylor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 154
8.3. Extremos relativos y absolutos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 159
8.4. Regla de L’Hôpital y equivalencias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .162
8.5. Localización de raı́ces de funciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 163
8.6. Problemas resueltos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 166
8.7. Problemas propuestos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 169
9. Sucesiones y series . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 175
9.1. Sucesiones numéricas. Criterios de convergencia . . . . . . . . . . . . . . . . . . . . . . . . . . 175
9.2. Sucesiones y series de funciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .182
9.3. Series de potencias. Series de Taylor y MacLaurin . . . . . . . . . . . . . . . . . . . . . . . . 187
9.5. Problemas resueltos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 191

3
9.6. Problemas propuestos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 195
10. Integración en |R . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 204
10.1. Integral de Riemann . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 204
10.2. Integración impropia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 205
10.3. Integración paramétrica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 212
10.4. Problemas resueltos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 216
10.11. Problemas propuestos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .220
Bibliografia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 226

4
INTRODUCCION Y OBJETIVOS

En este curso introductorio y básico de Algebra Lineal y cálculo en una variable


real para alumnos de primer curso del grado de Ingenierı́a de Tecnologı́as de la Telecomuni-
cación, pretendemos cubrir todos los aspectos básicos del Algebra Lineal y del cálculo en una
variable de una forma sencilla, sin entrar en las profundidades que requiere un estudiante
de Matemáticas, pero sin descuidar por ello el rigor y la claridad en la exposición de los
conceptos. Por ello, seguimos un discurso descriptivo de la asignatura, haciendo hincapié
en la clara exposición de los conceptos, ayudada de numerosos ejemplos. No seguiremos el
más riguroso esquema teorema-demostración más apropiado para otro tipo de estudiantes,
aunque sı́ haremos algunas demostraciones sencillas y trataremos de argumentar o justi-
ficar al menos heurı́sticamente los resultados que presentemos. El objetivo principal de este
curso es que el alumno aprenda las técnicas del Algebra Lineal y el cálculo en una varible
de una forma absolutamente práctica que le permita abordar los problemas matemáticos
que le puedan surgir a lo largo de sus estudios, tanto en asignaturas matemáticas como no
matemáticas. De este modo, la clasificación de formas cuadráticas será de utilidad en el es-
tudio de máximos y mı́nimos de funciones de varias variables y en problemas de optimización
libre o condicionada. El estudio de la diagonalización de matrices y sus aplicaciones serán
de utilidad en sistemas lineales de ecuaciones diferenciales.
En nuestra experiencia como profesor de estudiantes de grados de Ingenierı́a nos
hemos encontrado con textos de dos tipos: por una parte textos muy rigurosos y comple-
tos de difı́cil comprensión para el alumno y, por otra, textos de sencilla comprensión, pero
que no abordan los conceptos más interesantes y prácticos. En este texto intento seguir
un camino intermedio, intentado llegar a los resultados más importantes del Algebra Lineal
y del cálculo en una variable por caminos muy sencillos, evitando meternos en conceptos
los más ásperos y abstractos. Ası́, por ejemplo, en el capı́tulo 1 abordamos los conceptos
de espacio vectorial sin mencionar las palabras espacio vectorial ni la teorı́a abstracta del
mismo; simplemente introducimos los conjuntos |Rn (que al fin y al cabo son, salvo isomor-
fismos, los único espacios vectoriales de dimensión finita que existen) con sus propiedades
de linealidad. En el capı́tulo 2 introducimos el concepto de producto escalar en |Rn y otros
aspectos geométricos de |Rn como el de longitud de un vector, proyección, ortogonalidad y
aprovechamos la coyuntura para introducir el problema de mı́nimos cuadrados y sus apli-
caciones. Abordamos en el capı́tulo 3 el concepto de aplicaciones lineales sin introducirnos
en el concepto de cambio de base, de modo que consideramos únicamente la representación
coordenada de una aplicación en la base canónica. Evitamos la complicación del concepto
de cambio de base pues en el capı́tulo 4 introducimos el concepto de la diagonalización de
matrices de un modo constructivo sin necesidad de recurrir al cambio de base. Más aún, nos
introducimos en la forma canónica de Jordan de un modo absolutamente directo sin hablar
de polinomio mı́nimo ni de ningún aspecto abstracto de la teorı́a de formas canónicas. En
el capı́tulo 5 explotamos el concepto de diagonalización del capı́tulo anterior aplicándolo al

5
cálculo matricial y de problemas de evolución tı́picos de economı́a. En el capı́tulo 6 estudi-
amos el concepto de aplicaciones bilineales y formas cuadráticas de nuevo desde un punto
de vista operacional, sin introducirnos en la teorı́a abstracta. En el capı́tulo 7 resumimos
los conceptos y propiedades fundamentales de la teorı́a de funciones de una variable real.
En el capı́tulo 8 recordamos el concepto de derivada de una función real de variable real
e introducimos los conceptos de polinomio y aproximación de Taylor y el cálculo aproxi-
mado de soluciones de ecuaciones. En el capı́tulo 9 recordamos el concepto de sucesión e
introducimos los conceptos de series numéricas y series de funciones, ampliando la teorı́a de
Taylor del capı́tulo anterior con el concepto de serie de Taylor. En el capı́tulo 10 recordamos
el concepto de integral de Riemann e introducimos los conceptos de integral impropia y
paramétrica.
La escasez de tiempo a la hora de impartir los programas de matemáticas es un
problema muy habitual. El contenido de este libro está pensado para un curso de unas 90
horas (9 créditos), por lo que debe ajustarse si el curso es más corto. En este sentido, hay
algunos apartados que, por su carácter autocontenido y práctico pueden relegarse a clases
de problemas o clases prácticas, como son por ejemplo la sección 1.4 (algunas matrices
importantes), la sección 2.5 (construcción de bases ortogonales), la sección 3.3 (composición
de aplicaciones) o la sección 4.3.1 (valores propios de algunas matrices especiales).
Cada capı́tulo contiene una sección de problemas resueltos y otra sección de proble-
mas propuestos en las que intentamos abordar todos los tipos de problemas que se pueden
plantear sobre la teorı́a estudiada en el capı́tulo, muchos de ellos con un carácter claramente
aplicado.

6
CAPITULO 1. NUMEROS REALES
Y COMPLEJOS

1.1. Números complejos


Los números naturales se emplean para contar en la vida cotidiana: |N = {1, 2, 3, ...}.
Si únicamente los sumamos o multiplicamos, no necesitamos más números. Pero si restamos
números naturales, puede que no éstos no sean suficientes para, por ejemplo, decidir que
significa 3 − 5. Por ello se inventan los enteros Z
/ = {..., −3, −2, −1, 0, 1, 2, 3, ...}. Estos ya

son suficientes para tener en cuenta todo tipo de sumas, restas y multiplicaciones, pero no
divisiones pues, por ejemplo, debemos decidir que significa 2/3. Por ello se inventan los
racionales Q| := {p/q}, donde p y q son enteros primos entre sı́. Estos son suficientes para

tener en cuenta todo tipo de sumas, restas, multiplicaciones y divisiones, pero no por ejemplo

raı́ces cuadradas pues, por ejemplo, no estamos seguros de si 2 es un número racional o es
algo nuevo. Veámoslo:

2
1
Ρ
0 1 2

En esta figura se muestra un triángulo rectangulo con catetos de longitud 1 y, según


√ √ √
el teorema de Pitágoras, de hipotenusa 2 = 12 + 12 . ¿ Es 2 un número racional o es

algo nuevo? Si es racional, debe ocurrir que 2 = p/q con p y q enteros primos entre sı́.
Entonces, p2 = 2q 2 , por lo que p es un número par, es decir, p = 2n con n entero. Entonces
4n2 = 2q 2 , es decir, q 2 = 2n2 , por lo que q es también un número par y por tanto p y

q no son primos entre sı́. Llegamos a una contradicción, por lo que 2 no es un número
racional. En general, la raı́z cuadrada de cualquier número primo no es racional. Para incluir
este (y muchos otros) números no racionales, nos inventamos los números irracionales que
caracterizamos del siguiente modo. Mientras que los racionales pueden escribirse, o bien con
un número finito de cifras decimales, o bien con un número infinito de cifras decimales, pero
periódicas:
4.8345634, 64.385385385....

7
los irracionales se escriben siempre con un número infinito de cifras decimales no periódicas,
como por ejemplo

2 = 1.41421356237309504880168872420969807857......

El conjunto de todos los números irracionales lo denotamos | I . Junto con los racionales
S
forman el conjunto de números reales |R := Q| | I que dibjujamos ordenados en una recta (la

recta real). Estos son suficientes para realizar todo tipo de sumas, restas, multiplicaciones,
divisiones y raı́ces cuadradas. Pero no son suficientes para resolver todo tipo de ecuaciones

algebraicas. Por ejemplo, la solución de x2 − 3 = 0 son dos números reales, x = ± 3.
Pero ningún número real es solución de x2 + 1 = 0. Luego, si queremos soluciones de
esta ecuación (y otras), necesitamos inventarnos nuevos números que vamos a denominar
números complejos. Empezamos por inventarnos uno en concreto, una de las soluciones de

esa ecuación algebraica x = −1. Nos inventamos también un nombre para este número

i := −1 y lo llamamos unidad imaginaria. Observemos la propiedad importante de que
i2 = −1, i3 = −i, i4 = 1.
Ejercicio 1.1. Calcular in según n sea múltiplo de 4, múltiplo de 4 menos 1, múltiplo de
4 menos 2 ó múltiplo de 4 menos 3.
A continuación nos inventamos infinitos números
√ más, todos los que resultan al mul-
tiplicar todos los números reales por i: i, 2i, −5i, i 2, .... Es decir, acabamos de ”duplicar el
número de números”: tenemos todos los reales |R y otros tantos más, todos los de la forma
xi con x real y que denominamos números imaginarios puros: = := {xi, x ∈ |R}.
En la recta real no queda sitio para albergar a estos nuevos números =. Como son
tantos como los reales, los dibujamos en otra recta, distinta, que situamos perpendicular a
la recta real (dentro de un plano por tanto):

2i
1.5i
i

0 2
-2 -1 1 2

-i
-i 2
-2i

Estas dos rectas de números ahora tampoco son suficientes para incluir todo tipo
de operaciones entre ellos, como por ejemplo puede ser la suma de un número de una
recta con otro de la otra recta. Nos inventamos entonces el conjunto que ya va a ser
el conjunto de números más grande que vamos a considerar, el conjunto C / de números

complejos. Consiste en sumar todas las posibles parejas de números de una recta (la recta

8
real horizontal) con números de la otra (recta imaginaria pura vertical), es decir, todos los
números de la forma a + bi donde a y b son números reales (a está en la recta horizontal
/ := {a + bi, a, b, reales}. Todos estos números a + bi
y bi en la vertical). Entonces, C
se sitúan en el plano anterior como si fueran puntos del plano |R2 de coordenadas (a, b):
ix

a+bi
bi
i

0
-2 -1 1 a x

-i

-2i

Por ello, al conjunto de númeos complejos C


/ se le denomina también plano complejo; que

contiene en su interior la recta real (horizontal) y la recta imaginaria pura (vertical). Todos
los números reales (incluido el 0) pueden considerarse números complejos: x = x + i0. Los
números complejos admiten todas las operaciones conocidas para números reales (y alguna
más), como por ejemplo raı́ces cuadradas de números negativos. No admiten la división por
0. Antes de estudiar como son las operaciones con números complejos, veamos otra forma
de escribirlos que nos va a ayudar a realizar ciertas operaciones, la forma módulo-argumento
(o forma polar). Ası́ como un número genérico real suele representarse con la letra x, un
número complejo genérico suele representarse con la letra z. Hasta ahora únicamente los
hemos escrito en la forma z = x + iy, con x e y reales. Esta forma se denomina forma
cartesiana; el número real x se denomina parte real de z; el número real y se denomina parte
imaginaria de z.

Dado un número complejo z = x+iy, el número z ∗ = x−iy se denomina conjugado de


z. Ambos tienen la misma parte real x y opuesta parte imaginaria (y y −y respectivamente).

Utilizando el Teorema de Pitágoras, sabemos que la distancia del origen (el número
p
0) al número z = x + iy es x2 + y 2 (ver la siguiente figura).

Denominamos a esta distancia módulo del número complejo z = x + iy y denotamos


p
|z| := x2 + y 2 > 0. Además, el segmento que une el 0 con z forma un ángulo con el eje
real. Denominamos a este ángulo argumento del número complejo z = x + iy y denotamos
θ =arctan(y/x) ∈ (−π, π]. (Obsérvese que tan θ = y/x).

Observemos que x = |z| cos θ y que y = |z| sin θ. Por tanto, z = x + iy = |z|(cos θ +
i sin θ). Utilizando el teorema de Taylor para las funciones f (θ) = eiθ , g(θ) = cos θ y

9
h(θ) = sin θ en θ = 0 tenemos que:

θ2 iθ3 θ4 iθ5 θ6 θ7
eiθ =1 + iθ − − + + − − i + .....,
2! 3! 4! 5! 6! 7!
θ2 θ4 θ6
cos θ =1 − + − + .....,
2! 4! 6!
iθ3 iθ5 θ7
sin θ =iθ − + − i + .....
3! 5! 7!

z=x+iy
iy

z
θ
0
x

Observamos que eiθ = cos θ + i sin θ. Esta igualdad es fundamental y nos ayudará a
realizar muchas operaciones. Entonces, como z = |z|(cos θ + i sin θ), podemos escribir

y
z = x + iy = |z|eiθ |z|2 = x2 + y 2 , tan θ = .
x

El lado derecho de esta fórmula se denomina forma polar (o módulo-argumento) del número
complejo z. Si z = |z|eiθ = |z| cos θ + i|z| sin θ, entonces z ∗ = |z| cos θ − i|z| sin θ = |z|e−iθ .
Es decir, el módulo de z ∗ es el mismo que el de z: |z ∗ | = |z| y su argumento −θ es el opuesto
que el de z. Estas ideas se ven mejor en el siguiente dibujo.

z=x+iy= z e ιθ
iy

z
θ
0
−θ x

-iy z*=x-iy= z e −ιθ

A continuación introducimos algunas operaciones con números complejos.

10
Suma. La suma de z = x + iy y w = a + bi es z + w = (x + a) + i(y + b). Es decir, se suman
partes reales e imaginarias por su cuenta. La resta es similar.
Multiplicación. La multiplicación de z = x + iy y w = a + bi es zw = (x + iy)(a + bi) =
xa+ibx+iay +ybi2 = (ax−by)+i(bx+ay). Es decir, se multiplican de forma ”distributiva”.
Utilizando la forma módulo-argumento, la operación resulta más sencilla: si z = |z|eiθ ,
w = |w|eiϕ , entonces
zw = |z||w|ei(θ+ϕ) .
Observemos que

|zw|2 =(ax − by)2 + (bx + ay)2 = a2 x2 + b2 y 2 + b2 x2 + a2 y 2 .


|z|2 |w|2 =(x2 + y 2 )(a2 + b2 ) = a2 x2 + b2 y 2 + b2 x2 + a2 y 2 .

Por tanto tenemos que el módulo del producto de números complejos es igual al producto
de sus módulos: |z|zw| = |z||w| y su argumento la suma de sus argumentos.
La siguiente propiedad es interesante: al multiplicar un número complejo z por su
conjugado z ∗ obtenemos zz ∗ = (x+iy)(x−iy) = x2 +y 2 = |z|2 . Resultado que resulta incluso
más sencillo de obtener si utilizamos la forma módulo-argumento: zz ∗ = |z|eiθ |z|e−iθ = |z|2 .
Es decir, un número multiplicado por su complejo conjugado es igual al cuadrado de su
módulo.
División. La división de z = x + iy y w = a + bi es

z x + iy (x + iy)(a − bi) (ax + by) + i(ay − bx) (ax + by) ay − bx


= = = 2 2
= 2 2
+i 2 .
w a + bi (a + bi)(a − bi) a +b a +b a + b2

En la segunda igualdad hemos multiplicado numerador y denominador por w∗ = a − bi


para que el denominador se haga real (positivo). Utilizando la forma módulo-argumento, la
operación resulta más sencilla: si z = |z|eiθ , w = |w|eiϕ , entonces

z |z| i(θ−ϕ)
= e .
w |w|

Por tanto tenemos que el módulo del cociente de números complejos es igual al cociente de
sus módulos y su argumento la resta de sus argumentos.
Potenciación. Para elevar un número complejo z a una potencia natural n, simplemente
multiplicamos z = x + iy ó z = |z|eiθ por si mismo n veces:

z n = (x + iy)(x + iy)(x + iy)....(x + iy), n veces.

z n = (|z|eiθ )n = |z|n einθ .


Obviamente, resulta más sencillo utilizar la forma múdulo-argumento. Tenemos que z n es
otro número complejo cuyo módulo es la potencia n del módulo de z y su argumento es n
veces el de z.

11
En la siguiente figura se muestra el significado gráfico de algunas de estas operaciones.
zw
z+w

zw
w=a+ib= w e ιφ
w=a+ib= w e ιφ
θ+φ
ιθ
z=x+iy= z e
z=x+iy= z e ιθ
w

φ
z

w
φ
z
θ
0 θ
0

Resumimos a continuación varias propiedades de las operaciones anteriores, algu-


nas ya vistas, el resto se propone demostrarlas como ejercicio. Para cualesquiera números
complejos z, z1 y z2 se tiene:
P1. |z| ≥ 0. Además |z| = 0 ⇐⇒ z = 0.
P2. |z1 z2 | = |z1 ||z2 |.
P3. |z1 + z2 | ≤ |z1 | + |z2 | (desigualdad triangular).
P4. ||z1 | − |z2 || ≤ |z1 − z2 | (desigualdad triangular inversa).
P5. z1 + z2 = z1 + z2 y z1 · z2 = z1 · z2 .
P6. |z|2 = z · z.
P7. Si z 6= 0, |z −1 | = |z|−1 y z −1 = z/|z|2 .
P8. z + z = 2<z y z − z = 2i=z.
P9. Arg(z1 z2 )=Arg(z1 )+Arg(z2 ) (salvo una sutileza que veremos a continuación).
P10. z = |z|eiθ , con θ :=Arg(z).
P11. z = |z|e−iθ y z −1 = |z|−1 e−iθ .
P12. z1 z2 = |z1 ||z2 |ei(θ1 +θ2 ) .
P13. z n = |z|n einθ .
Dejamos para el final la última operación elemental, la radicación, por ser más sutil:
Raices n−ésimas. Para todo complejo z, se dice que otro complejo w es una raı́z n−ésima
de z (n natural) si wn = z. Calcularemos mejor w si escribimos z y w en forma polar:
z = |z|eiθ , w = |w|eiϕ . Por tanto:

z = |z|eiθ = wn = |w|n einϕ .

Entonces debe ocurrir:


θ
|w| = |z|1/n y ϕ= .
n
12
Ahora bien, esto no ”cuadra” con lo que sabemos en el caso real. Por ejemplo, sabemos

que cualquier número real positivo x tiene dos raı́ces cuadradas reales ± x. Es decir,
x1/2 = ±|x|1/2 . En el caso complejo ocurre que todo número complejo tiene n raices
n−ésimas. Esto es ası́ porque, en realidad, cuando decimos que un número complejo z tiene
argumento θ, también tiene argumento θ + 2π, ó θ − 2π, ó θ + 4π, etc..., es decir, θ + 2kπ,
/ . Entonces, tenemos que, en realidad z = |z|ei(θ+2kπ) , k = 0, ±1, ±2, ... y que,
con k ∈ Z

θ + 2kπ
|w| = |z|1/n y ϕk = , k = 0, 1, 2, ..., n − 1.
n

No es necesario, en esta fórmula, coger todos los k enteros, basta coger los k indicados, ya que
coger más que éstos, por ejemplo k = −1 ó k = n no aporta raices w nuevas, repite algunas
de las anteriores. Todo número complejo z tiene por tanto n raices n−ésimas. Veámoslo
con un ejemplo.
Ejemplo 1.1. Calcular las raices cuartas de z = 16 = 16 · ei(0+2kπ) . Buscamos w tales que
w4 = 16. Escribimos entonces z = 16 · ei(0+2kπ) , k = 0, 1, 2, 3 y entonces sus cuatro raı́ces
cuartas son
w0 = |16|1/4 ei0/4 = 2, w1 = |16|1/4 eiπ/2 = 2i,

w2 = |16|1/4 eiπ = −2, w3 = |16|1/4 e3iπ/2 = −2i.

Im(z)
iπ/2
2e =2i

Re(z)
-iπ 0 i0
2e =-2 2e =2

-iπ/2
2e =-2i

Figura 1.7. Las 4 raı́ces cuartas de z = 16. Las raı́ces n−ésimas de un número complejo
siempre se sitúan equiespaciadas angularmente: las raı́ces cuartas cada π/2 radianes, las
raı́ces cuadradas cada π radianes, las raı́ces quintas cada 2π/5 radianes, etc... En general,
cada 2π/n radianes.

13
No es necesario considerar otros argumentos distintos de 0, 2π, 4π y 6π para z = 16.
Por ejemplo, si tomamos como argumento −2π ó 8π, tenemos que

w−1 = |16|1/4 e−iπ/2 = −2i = w3 , w4 = |16|1/4 e2iπ = 2 = w0 .

Es decir,se repiten las raı́ces ya obtenidas con k = 0, 1, 2, 3.


Ejercicio 1.2. Calcular las raı́ces cuadradas de z = i.

1.2. Problemas resueltos.


1.2.1. Expresar los siguientes números complejos en forma cartesiana:
a) z = eiπ/2 , b) z = 2eiπ , c) z = ei , d) z = 5eiπ/4 + 5e−iπ/4 .
En todos los casos, el problema se resuelve aplicando la identidad de Euler:
a) eiπ/2 = cos π2 + i sen π2 = 0 + i = i.
 

b) 2eiπ = 2(cos π + i sen π) = 2(−1 + 0i) = −2.


c) ei = cos 1 + i sen 1 = 0.540302 + 0.841471 i.

d) 5eiπ/4 + 5e−iπ/4 = 5 cos π4 + i sen π4 + 5 cos π4 − i sen π4 = 10 cos π4 = 5 2.
      

Estamos sumando dos números complejos conjugados, por lo que su suma es un número
real.

1.2.2. Expresar los siguientes números complejos en forma polar:


1−i
a) z = 1 + i, b) z = 1+i , c) z = 1 + i + e1+i , d) z = eiπ/4 + e5iπ/4 .
En todos los casos, el problema se resuelve calculando el módulo y el argumento del número:
√ √
a) |z| = 2, θ = arctan (1/1) = π4 . Por tanto, 1 + i = 2 eiπ/4 .

b) Tomemos primero el numerador w = 1 − i. Tenemos√ −iπ/4 que |1 − i| = 2 y su argumento
π
es θ = arctan (−1/1) = − 4 . Por tanto, 1 − i = 2 e . Dividimos ahora escribiendo el
denominador en la forma módulo-argumento obtenida en a):
√ −iπ/4
1−i 2e
= √ = e−iπ/2 .
1+i 2 eiπ/4

c) Primero expresamos el último sumando en forma cartesiana: e1+i = e · ei = e(cos 1 +


ipsen 1). Por tanto, z = 1 + i + p e1+i = (1 + e cos 1) + i(1 + e sen 1). Entonces |z| =
(1 + e cos 1)2 + (1 + e sen 1)2 = 2 + e2 + 2e(cos 1 + sen 1) = 4.111 y su argumento es
θ = arctan[(1 + e sen 1)/(1 + e cos 1)] = 0.92667. Por tanto 1 + i + e1+i = 4.111e0.92667i .
d) Primero expresamos cada sumando en forma cartesiana: eiπ/4 = √1 + i √12 , e5iπ/4 =
2
− √12 − i √12 . Por tanto eiπ/4 + e5iπ/4 = 0.

14
1.2.3. Calcular la parte real y la parte imaginaria de los siguientes números complejos:

a) z = 1 − i, b) z = 1−2i
2+i , c) z = (1 + e1+i )2 , d) z = |e100i |.
Las partes real e imaginaria de un número complejo z son las componentes x e y
de su forma cartesiana z = x + iy. Por tanto, en todos los casos, los escribimos en forma
cartesiana y simplificamos.

a) Tomamosp√ primero 1 − i. Su módulo es 2 y su argumento θ = −iπ/4. Por tanto,

1−i = 2e−iπ/4 = 21/4 e−iπ/8 = 21/4 (cos(π/8) − i sen(π/8)) = 1.0986 − 0.45509i. Por
tanto, <z = 1.0986, =z = −0.45509. Ahora bien, encontrada una raı́z del número 1 − i, su
opuesta es también raı́z, por lo que otra posibilidad es <z = −1.0986, =z = 0.45509.
b) Para dividir la fracción multiplicamos numerador y denominador por el complejo conju-
gado del denominador, 2 − i:

1 − 2i (1 − 2i)(2 − i) −5i
= = = −i.
2+i (2 + i)(2 − i) 5

Por lo que <z = 0, =z = −1.


c) (1 + e1+i )2 = 1 + e2+2i + 2e1+i = 1 + e2 (cos 2 + i sen 2) + 2e(cos 1 + i sen 1) = [1 +
e2 cos 2 + 2e cos 1] + i[e2 sen 2 + 2e sen 1] = 0.862456 + 11.2936i. Por tanto, <z = 0.862456,
=z = 11.2936.
d) La identidad√ de Euler dice que eiθ = cos θ + i sen θ, para cualquier número real θ. Por
tanto, |eiθ | = cos2 θ + sen 2 θ = 1, es decir, tiene módulo unidad. Entonces |e100i | = 1.
Cualquier número complejo de la forma eiθ tiene módulo unidad, por lo que se en-
cuentra siempre a distancia 1 del origen. Dicho de otro modo, todos los números complejos
situados en una circunferencia de radio 1 y centro el origen son de la forma eiθ con θ real.
Más aún, θ es el ángulo que forma con el eje X positivo. En la siguiente figura se muestran
algunos ejemplos.
e
iπ/2
=i
e 3iπ/4
e iπ/4

e iθ

senθ
e =−1

θ
e =1 0i
cos θ

e 5iπ/4
e 7iπ/4

e 3iπ/2
=−i

15
1.3. Problemas Propuestos
1.3.1. Expresar los siguientes números complejos en forma cartesiana:

a) z = e−iπ/2 . b) z = eiπ/4 · e3iπ/4 .


2
c) z = e2i + 1 + i. d) z = 3eiπ/4 .
1.3.2. Expresar los siguientes números complejos en forma polar:

a) z = 2 + i + 1i . b) z = (1 + i)eiπ/8 .

c) z = (1 − i)100 . d) z = eiπ/4 + e3iπ/4 + e5iπ/4 + e7iπ/4 .


1.3.3. Calcular la parte real y la parte imaginaria de los siguientes números complejos:
√ 2−i
a) z = 1 + i. b) z = 1+2i .

c) z = (1 + eiπ/4 )2 . d) z = e100i · e−100i .

1.3.4. Describir geométricamente el conjunto de los números complejos z que satisfacen


cada una de las condiciones siguientes:
a) |z| = 1, b) |z| < 1, c) z+
z̄ = 1,
d) z+z̄ = |z|2 , e) |z+1| = |z−1|, f) Arg(z) =
|z|.

1.3.5. Demostrar las siguientes fórmulas, para n natural; x, y reales:


a) (cos θ + i sin θ)n = cos nθ + i sin nθ. b) (x + iy)n =
(x + y 2 )n/2 einarctg(y/x) .
2

Soluciones a los problemas propuestos


1.3.1. a) z = 0 − i, b) z = −1 + 0 i, c) z = (1 + cos 2) + i(1 + sen 1), d) z = 0 + 9 i.


1.3.2. a) z = 2e0i , b) z = 2 e3iπ/8 , c) z = 250 eiπ , d) z = 0.


<z = ±21/4 cos π8 , =z = ±21/4 sen π
 
1.3.3. a) √ 8 , b) <z = 0, =z = −1, c) <z = 1 + 2,
=z = 1 + 2, d) <z = 1, =z = 0.

1.3.4. a) Circunferencia de radio unidad centrada en el origen.

16
b) Disco de radio unidad centrada en el origen.
c) Recta <z = 1/2. d) Circunferencia de radio unidad centrada
en z = 1.
e) Recta <z = 0. f) Espiral infinita que parte del origen.

17
BLOQUE 1.

ÁLGEBRA LINEAL

18
CAPITULO 2. VECTORES Y MATRICES
El Algebra Lineal es una teorı́a matemática en la que los ingredientes básicos son los
vectores y las matrices. Los vectores son los ladrillos con los que se construye el Álgebra
Lineal y las matrices son las herramientas más importantes en esa construcción. Estas ideas
se formularán de un modo más preciso en los capı́tulos posteriores donde veremos que las
matrices se usan para transformar unos vectores en otros, los vectores propios son vectores
especiales asociados a las matrices cuadradas que se transforman de un modo muy sencillo,
el producto escalar opera sobre parejas de vectores, las formas cuadráticas transforman
vectores en números,.... Por tanto, este primer capı́tulo constituye el pilar básico sobre el
que descansan todos los demás y donde vamos a introducir el concepto de vector y de matriz
y diversas propiedades relacionadas con ellos.
Para motivar el estudio de vectores y matrices, pensemos un momento en el siguiente
proceso de producción de tres tipos de automóviles A, B y C que requiere de tres procesos
que se realizan en tres máquinas I, II, III. El tiempo en horas para procesar cada automóvil
en cada una de las tres máquinas está dado por: AUTOMOVIL A: 3 h. en I, 2 h. en II,
2 h. en III, AUTOMOVIL B: 1 h. en I, 1 h. en II, 1 h. en III, AUTOMOVIL C: 2 h.
en I, 3 h. en II, a h. en III, donde a es un número real. El tiempo necesario para procesar
automóviles de tipo C en la máquina III se puede ajustar por el fabricante, no es fijo, y por
eso no lo hemos fijado a ningún valor concreto, lo dejamos libre y lo denotamos por a. Se
dispone de la máquina I durante 1210 horas, de la II durante 1650 h. y de la III durante
880 h. Queremos saber cuántos automóviles de cada tipo deberı́an producirse con objeto de
emplear todo el tiempo disponible en las máquinas.
Llamemos x, y, z al número de automóviles producidos de tipo A, B y C respectivamente.
Debe ocurrir que 
 1210 = 3x + y + 2z

1650 = 2x + y + 3z

880 = 2x + y + az.

Es decir, un sistema lineal de ecuaciones que, en forma matricial, se escribe:


    
3 1 2 x 1210
2 1 3   y  =  1650  .
2 1 a z 880

La tabla de números  
3 1 2
2 1 3
2 1 a
es una matriz, mientras que las filas de números (x, y, z) y (1210, 1650, 880) son vectores.
La solución de este problema la encontraremos en el problema resuelto 1.8.10.

19
2.1. Vectores
El conjunto de todos los números reales x se denota por |R y se representa gráficamente
por una recta (la recta real). Pues bien, la definición de vector es una sencilla generalización
del concepto de número real: un vector (de tamaño n) son n números reales separados por
comas y encerrados entre paréntesis (x1 , x2 , ..., xn ). El conjunto de todos los vectores de
tamaño n, (x1 , x2 , ..., xn ) se denota |Rn :

|Rn := {(x1 , x2 , ..., xn ); xi ∈ |R}.

Denotaremos, para abreviar: x = (x1 , x2 , ..., xn ). A los números reales x1 , x2 , ..., xn


que constituyen x los llamaremos componentes de x.
En el conjunto |Rn definimos la suma de dos elementos en la forma

(x1 , x2 , ..., xn ) + (y1 , y2 , ..., yn ) = (x1 + y1 , x2 + y2 , ..., xn + yn ).

Es decir, la suma x + y de dos elementos x e y de |Rn es otro elemento de |Rn cuyas


componentes son las sumas de cada una de las componentes de x e y.
También definimos el producto externo de un número real a por un elemento de |Rn
de la forma
a · (x1 , x2 , ..., xn ) = (ax1 , ax2 , ..., axn ).

Es decir, el producto de un a ∈ |R por un x ∈ |Rn es otro elemento de |Rn cuyas


componentes son las de x multiplicadas por el número real a. Observar la diferente notación
que usamos para escribir las dos diferentes operaciones que hemos llamado con el mismo
nombre: “producto”: El producto de un a ∈ |R por un x ∈ |Rn lo denotamos a · x mientras
que el producto de dos números reales a por x1 , a por x2 , etc. lo denotamos simplemente
ax1 , ax2 ,...
Las dos operaciones suma y producto que acabamos de definir en |Rn , satisfacen las siguientes
10 propiedades:
(i) x + y ∈ |Rn ∀ x, y ∈ |Rn . (La suma de dos elementos de |Rn es otro elemento de |Rn ).
(ii) a · x ∈ |Rn ∀ x ∈ |Rn y ∀ a ∈ |R. (El “producto” de un número real por un elemento de
|Rn es otro elemento de |Rn ).

(iii) ∃ 0 := (0, 0, ..., 0) ∈ |Rn , x + 0 = 0 + x = x ∀ x ∈ |Rn . (Hay un elemento muy especial


en |Rn , el nulo: (0, 0, ..., 0) que sumado con cualquier otro lo deja igual).
(iv) ∀ x ∈ |Rn , ∃ −x ∈ |Rn , x + (−x) = (−x) + x = 0. (Todo elemento (x1 , x2 , ..., xn ) de |Rn
tiene su opuesto (−x1 , −x2 , ..., −xn ), otro elemento de |Rn que sumado con él da el nulo).
(v) x + (y + z) = (x + y) + z ∀ x, y, z ∈ |Rn . (La suma es asociativa).
(vi) x + y = y + x ∀ x, y ∈ |Rn . (La suma es conmutativa).

20
(vii) a · (x + y) = a · x + a · y ∀ x, y ∈ |Rn y ∀ a ∈ |R. (El “producto” por números reales es
distributivo respecto de la suma de elementos de |Rn ).
(viii) (a + b) · x = a · x + b · x ∀ x ∈ |Rn y ∀ a, b ∈ |R. (El “producto” por números reales es
distributivo respecto de la suma de números reales).
(ix) (ab) · x = a · (b · x) ∀ x ∈ |Rn y ∀ a, b ∈ |R. (El “producto” y el producto son asociativos).
(x) 1 · x = x ∀ x ∈ |Rn . (El número real 1 es neutro respecto del “producto”).
Ejercicio 2.1. Comprobar estas propiedades.
Los ejemplos más sencillos de conjuntos |Rn corresponden a los n más bajos: n =
1, 2, 3, es decir, los conjuntos |R1 = |R, |R2 y |R3 . Estos tres conjuntos y las dos operaciones
definidas anteriormente admiten una representación gráfica:
z
(2,0,0)
y (0,0,3)
(0,1,0)
(2,-1) (2,1,3)
0 (-1,3)
1 2 3 x
(1,2) (0,1,0)

x (2,0,0) y

(2,-1) x

(a) (b) (c)


Figura 2.1. (a) |R1 es el conjunto de números reales. Las operaciones 1 + 2 = 3 y 2 · 1 = 2 por
ejemplo pueden representarse mediante operaciones con flechas. (b) |R2 es un plano; (1, 2) − (−1, 3) =
(2, −1). (c) |R3 es el espacio tridimensional en el que vivimos; (2, 0, 0)+(0, 1, 0)+(0, 0, 3) = (2, 1, 3).
Los elementos de |Rn se representan por puntos o también por las ”lanzas de romano” que unen el origen
con ese punto. Para sumar dos elementos de |Rn se pone una lanza a continuación de otra y se une el
origen de una con el extremo de la otra. La “multiplicación” de un número real por un elemento de |Rn
simplemente alarga o contrae y/o invierte el sentido de ese elemento de |Rn .

De estas gráficas podemos concluir que una sencilla forma de imaginar un vector (un
elemento de |Rn ) es como una lanza de romano. Esto es sencillo en dimensión n = 1, 2, 3 y,
aunque en dimensiones mayores que 3 (n = 4, 5, ...) esto no es tan sencillo, sigue resultando
útil imaginarse un vector como una lanza de romano.
El conjunto |R3 es el espacio tridimensional en el que vivimos. Es por ello que vamos a
llamar también espacios a cualquier |Rn . Llamaremos dimensión del espacio |Rn precisamente
al número natural n y mide el tamaño relativo de los espacios |Rn . Ası́, |R es más pequeño
que |R2 , |R2 más pequeño que |R3 , etc. De hecho, podemos pensar que el plano |R2 es un trozo
de |R3 , por ejemplo el plano XY de la Figura 2.1. A su vez, la recta |R es un trozo del plano
|R2 y por tanto de |R3 , por ejemplo el eje X de la Figura 2.1. Pero más todavı́a, en |R3 no hay

un único plano |R2 metido, hay muchos: el plano XZ, el plano Y Z o cualquier otro plano
que podamos imaginar que contenga al origen (0, 0, 0). De igual modo, en el plano XY no
hay una única recta metida, hay muchas: el eje Y o cualquier otra recta que pase por el
origen (0, 0, 0).

21
A cualquier espacio |Rm metido dentro de otro |Rn (con m ≤ n necesariamente) que
contenga al 0 de |Rn se dirá que es subespacio de |Rn . Al conjunto de un sólo vector formado
por el vector nulo de |Rn , {0}, que obviamente {0} ⊂ |Rn y contiene al vector nulo de |Rn (y
a ningún otro) lo llamaremos subespacio trivial de |Rn . También, obviamente, |Rn ⊂ |Rn y
diremos que también, |Rn es un subespacio trivial de |Rn .

y (3,3)
y
(2,2) (1,1)
(0,1) (1.4,0.9)
(1,1) (0.7,0.7)
C (0.7,0,2)
(0,0) (1,0) (2,0) (3,0) (0,0) x

r2 r1 x (1,0)

r3 (1,-1)
(0,-1)

(1,-2)

(a) (b)
Figura 2.2. (a) La recta r1 = {(x, y) ∈ |R2 , y = 0} y la recta r2 = {(x, y) ∈ |R2 , x = y} son
subespacios de |R2 de dimensión 1. (b) La recta r3 = {(x, y) ∈ |R2 , y = −1} y el cuadrado C no son
subespacios de |R2 .

Ejemplo 2.2. En el plano |R2 , cualquier recta que pasa por el (0, 0) es un subespacio de |R2
de dimensión 1. {(0, 0)} es un subespacio trivial de |R2 de dimensión 0 y el propio |R2 es otro
subespacio trivial de |R2 de dimensión 2.
Seamos un poco más explı́citos. En |R2 , la recta r1 = {(x, 0); x ∈ |R} ⊂ |R2 (eje X) o
la recta r2 = {(x, x); x ∈ |R} ⊂ |R2 son subespacios de |R2 de dimensión 1. Observar que
(0, 0) ∈ r1 y también (0, 0) ∈ r2 (ver Figura 2.2 (a)). La recta r3 = {(x, −1); x ∈ |R} ⊂ |R2 no
es subespacio de |R2 pues (0, 0) ∈ / r3 . El cuadrado C = {(x, y) ∈ |R2 , 0 < x < 1, 0 < y < 1}
tampoco es subespacio de |R2 puesto que un cuadrado no es {(0, 0)}, ni una recta que pasa
por (0, 0) ni el propio |R2 (ver Figura 2.2(b)).
Ejemplo 2.3. En |R3 , cualquier recta que pasa por el (0, 0, 0) es un subespacio de |R3 de
dimensión 1. Cualquier plano que pasa por el (0, 0, 0) es un subespacio de |R3 de dimensión
2. {(0, 0, 0)} es un subespacio trivial de |R3 de dimensión 0 y el propio |R3 es otro subespacio
trivial de |R3 de dimensión 3.
Seamos un poco más explı́citos. En |R3 , la recta R1 = {(x, 0, 0); x ∈ |R} ⊂ |R3 (eje X) o la
recta R2 = {(x, 2x, 3x); x ∈ |R} ⊂ |R3 por ejemplo, son subespacios de |R3 de dimensión 1. El
plano P1 = {(x, y, 0); x, y ∈ |R} ⊂ |R3 (plano XY ) o el plano P2 = {(x, −x, z); x, z ∈ |R} ⊂ |R3
por ejemplo, son subespacios de |R3 de dimensión 2. Observar que (0, 0, 0) ∈ R1 , R2 , P1 , P2
(ver Figura 2.3 (a)). El plano P3 = {(x, y, −1); x, y ∈ |R} ⊂ |R3 no es subespacio de |R3 pues
/ P3 . El cubo D = {(x, y, z) ∈ |R2 , 0 ≤ x ≤ 1, 0 ≤ y ≤ 1, 0 ≤ z ≤ 1} tampoco es
(0, 0, 0) ∈

22
subespacio de |R3 puesto que un cubo no es {(0, 0, 0)}, ni una recta que pasa por (0, 0, 0) ni
un plano que pasa por (0, 0, 0) ni el propio |R2 (ver Figura 2.3(b)).

z (1,-1,2) z
(0,0,1)
(1,2,3) (0,1,1)
D
P2 (1,-1,0)
(1,0,1) (1,1,1)
y

(0,0,0) (1,0,0) y (0,1,0)


R1 (1,0,0)
P1 (0,0,-1)
(1,1,0)
x P3
R2

x
(a) (b)
Figura 2.3. (a) La recta R1 = {(x, y, z) ∈ |R3 , y = z = 0} y la recta R2 = {(x, y, z) ∈ |R3 , y =
2x, z = 3x} son subespacios de |R3 de dimensión 1. El plano P1 = {(x, y, z) ∈ |R3 , z = 0} y el
plano P2 = {(x, y, z) ∈ |R3 , x = −y} son subespacios de |R3 de dimensión 2. (b) Ni el plano P3 =
{(x, y, z) ∈ |R3 ; z = −1} ⊂ |R3 ni el cubo D = {(x, y, z) ∈ |R3 , 0 ≤ x ≤ 1, 0 ≤ y ≤ 1, 0 ≤ z ≤ 1}
son subespacios de |R3 .

En los ejemplos anteriores podemos observar una diferencia muy importante entre los
subconjuntos de |R2 o |R3 que son subespacios y los que no lo son:
Si sumamos dos vectores cualesquiera de r1 , siempre obtenemos otro vector de r1 :
(x, 0) + (x0 , 0) = (x + x0 , 0) ∈ r1 . Si sumamos dos vectores cualesquiera de r2 , siempre
obtenemos otro vector de r2 : (x, x) + (x0 , x0 ) = (x + x0 , x + x0 ) ∈ r2 (Figura 2.2(a)). Mientras
que si sumamos dos vectores de r3 , a veces obtenemos un vector que no está en r3 : (0, −1) +
(1, −1) = (1, −2) ∈ / r3 . O si sumamos dos vectores de C, a veces obtenemos un vector que no
está en C: (1/3, 1/3)+(1/2, 1/2) = (5/6, 5/6) ∈ C, pero (0.7, 0.7)+(0.7, 0.2) = (1.4, 0.9) ∈ /C
(Figura 2.2(b)).
Si sumamos dos vectores cualesquiera de P1 , siempre obtenemos otro vector de P1 :
(x, y, 0) + (x0 , y 0 , 0) = (x + x0 , y + y 0 , 0) ∈ P1 . Si sumamos dos vectores cualesquiera de P2 ,
siempre obtenemos otro vector de P2 : (x, −x, z)+(x0 , −x0 , z 0 ) = (x+x0 , −x−x0 , z +z 0 ) ∈ P2
(Figura 2.3(a)). Mientras que si sumamos dos vectores de P3 , a veces obtenemos un vector
que no está en P3 : (0, 0, −1)+(0, 1, −1) = (0, 1, −2) ∈ / P3 . O si sumamos dos vectores de D, a
veces obtenemos un vector que no está en D: (1/2, 1/2, 1/2) + (1/2, 1/2, 1/2) = (1, 1, 1) ∈ D,
pero (0, 1/2, 1/2) + (0, 1, 1) = (0, 3/2, 3/2) ∈ / D (Figura 2.3(b)).
De igual modo, si multiplicamos un vector cualesquiera de r1 por cualquier número
real, siempre obtenemos otro vector de r1 : a(x, 0) = (ax, 0) ∈ r1 . Si multiplicamos un
vector cualesquiera de r2 por cualquier número real, siempre obtenemos otro vector de r2 :
a(x, x) = (ax, ax) ∈ r2 . Mientras que si multiplicamos un vector de r3 por un número real, a
veces obtenemos un vector que no está en r3 : 2(0, −1) = (0, −2) ∈
/ r3 . O si multiplicamos un

23
vector de C por un número real, a veces obtenemos un vector que no está en C: 2(1/3, 1/3) =
(2/3, 2/3) ∈ C, pero 4(1/2, 1/2) = (2, 2) ∈
/ C.
Si multiplicamos un vector cualquiera de P1 por cualquier número real, siempre obten-
emos otro vector de P1 : a(x, y, 0) = (ax, ay, 0) ∈ P1 . Si multiplicamos un vector cualquiera
de P2 por cualquier número real, siempre obtenemos otro vector de P2 : a(x, −x, z) =
(ax, −ax, az) ∈ P2 . Mientras que si multiplicamos un vector de P3 por un número real, a
veces obtenemos un vector que no está en P3 : 2(0, 0, −1) = (0, 0, −2) ∈ / P3 . O si multipli-
camos un vector de D por un número real, a veces obtenemos un vector que no está en D:
2(1/2, 1/2, 1/2) = (1, 1, 1) ∈ D, pero 4(1/2, 1/2, 1/2) = (2, 2, 2) ∈
/ D.
A la vista de estos ejemplos podemos concluir que en cualquier subespacio S 6= ∅ de |Rn
(cualquier |Rm metido dentro de |Rn que contenga al vector 0, con m ≤ n) se satisface que:

(a) Si x, y ∈ S, entonces x + y ∈ S,
(b) Si x ∈ S y a ∈ |R, entones a · x ∈ S.
Observemos que estas dos propiedades que se satisfacen en cualquier subespacio S de
cualquier |Rn son precisamente las propiedades (i) y (ii) de la suma de vectores y producto
de vectores por números reales que se satisfacen en |Rn . Las propiedades (a) y (b) vienen
a decir que un subespacio S de |Rn es un espacio en sı́ mismo (metido dentro de otro más
grande), donde las operaciones + (sumar vectores) y · (multiplicar por números reales) no
nos sacan de S.
La dimensión de |Rn es n y precisamente necesitamos n parámetros reales x1 ,...,xn para
nombrar a todos los vectores de |Rn : |Rn = {(x1 , x2 , ..., xn ); x1 , x2 , ..., xn ∈ |R}. Lo mismo pasa
en cualquier subespacio S de cualquier |Rn . Por ejemplo: r1 = {(x, 0); x ∈ |R}, necesitamos
un paramétro real x para nombrar todos los vectores (x, 0) de r1 (dimensión 1). r2 =
{(x, x); x ∈ |R}, necesitamos un paramétro real x para nombrar todos los vectores (x, x) de
r2 (dimensión 1). R1 = {(x, 0, 0); x ∈ |R}, necesitamos un paramétro real x para nombrar
todos los vectores (x, 0, 0) de R1 (dimensión 1). R2 = {(x, 2x, 3x); x ∈ |R}, necesitamos un
paramétro real x para nombrar todos los vectores (x, 2x, 3x) de R2 (dimensión 1). P1 =
{(x, y, 0); x, y ∈ |R}, necesitamos dos paramétros reales x, y para nombrar todos los vectores
(x, y, 0) de P1 (dimensión 2). P2 = {(x, −x, z); x, z ∈ |R}, necesitamos dos paramétros reales
x, z para nombrar todos los vectores (x, −x, z) de P2 (dimensión 2).
Veámoslo de otro modo. La recta r1 = {(x, y) ∈ |R2 , y = 0} y la recta r2 = {(x, y) ∈
|R2 , x = y} son subespacios de |R2 de dimensión 1 pues se definen mediante dos parámetros x

e y y una restrición entre ellos (una igualdad, y = 0 ó x = y, que relaciona esos parámetros).
Entonces, 2 (parámetros) - 1 (restricción) = 1 (dimensión). La recta R1 = {(x, y, z) ∈
|R3 , y = z = 0} y la recta R2 = {(x, y, z) ∈ |R3 , y = 2x, z = 3x} son subespacios de |R3 de

dimensión 1 pues se definen mediante tres parámetros x, y, z y dos restriciones entre ellos
(dos igualdades, y = 0 y z = 0 ó y = 2x y z = 3x, que relacionan esos parámetros). Entonces,
3 (parámetros) - 2 (restricciones) = 1 (dimensión). El plano P1 = {(x, y, z) ∈ |R3 , z = 0} y el
plano P2 = {(x, y, z) ∈ |R3 , x = −y} son subespacios de |R3 de dimensión 2, pues se definen

24
mediante tres parámetros x, y, z y una restrición entre ellos (una igualdad, z = 0 ó x = −y,
que relaciona esos parámetros). Entonces, 3 (parámetros) - 1 (restricción) = 2 (dimensión).

2.2. Combinación lineal, independencia


lineal, bases, dimension y coordenadas
Para entender el propósito de este apartado, observemos el siguiente hecho que ocurre
en el espacio |R2 : cualquier vector (x, y) de |R2 lo podemos escribir de la siguiente forma:

(x, y) = x · (1, 0) + y · (0, 1).

Es decir, cualquier vector (x, y) de |R2 se obtiene cogiendo los dos vectores (1, 0) y (0, 1),
multiplicandolos por los números reales x e y respectivamente y sumándolos. Esto significa
que podemos “generar” todos los vectores de |R2 a partir únicamente de dos vectores: el (1, 0)
y el (0, 1) mediante la operación descrita: x · (1, 0) + y · (0, 1) que denominamos combinación
lineal de (1, 0) y (0, 1) con coeficientes x e y. Decimos que el conjunto de dos vectores
{(1, 0), (0, 1)} genera |R2 . Esto es igualmente posible en cualquier espacio |Rn , necesitando n
vectores para generarlo:

(x1 , x2 , ...., xn ) = x1 · (1, 0, 0, ..., 0) + x2 · (0, 1, 0, ..., 0) + ... + xn · (0, 0, ..., 0, 1).

El conjunto de vectores {(1, 0, 0, ..., 0), (0, 1, 0, ..., 0), ..., (0, 0, ..., 0, 1)} genera |Rn . Este hecho
motiva la siguiente definición.

Definición 2.4. Sea A = {x1 , · · · , xm } un subconjunto de vectores de |Rn . Entonces se


define la Clausura Lineal de A, que se denota por < A >, como el conjunto de todas las
posibles combinaciones lineales realizadas con elementos de A:

< A >:={a1 · x1 + . . . + am · xm ; ai ∈ |R , xi ∈ A} .

Ejemplo 2.5. Tomemos A = {(1, 0)}, un subconjunto de |R2 con un único elemento.
Entonces tenemos que < (1, 0) >= {a · (1, 0) = (a, 0); a ∈ |R}, es decir < (1, 0) > es el eje X
(ver Figura 2.4(a)).

25
y (3,3)

y
(1,1) (1,1) (2,1)
(0,1)

(-2,0) (-1,0) (2,0)

(1,0) x (1,0) x
-1(1,1) -1(0,1)
(-2,-2)
(-1,-2)

(a) (b)
Figura 2.4. (a) Multiplicando el vector (1, 0) de |R2 por números reales obtenemos todo el eje X ,
por ejemplo (2, 0) = 2(1, 0), (−1, 0) = −1(1, 0), (−2, 0) = −2(1, 0), etc. Multiplicando el vector
(1, 1) de |R2 por números reales obtenemos toda la recta r1 del Ejemplo 2.2, por ejemplo (3, 3) =
3(1, 1), (−2, −2) = −2(1, 1), etc. (b) Cualquier vector (x, y) de |R2 se puede obtener combinando
linealmente los vectores (1, 0), (0, 1) y (1, 1) de |R2 . Por ejemplo, (2, 1) = 2(1, 0) + 1(0, 1) + 0(1, 1),
(−1, −2) = 0(1, 0) − 1(0, 1) − 1(1, 1), etc.

Ejemplo 2.6. Tomemos A = {(1, 0), (0, 1), (1, 1)}, un subconjunto de |R2 con 3 elementos.
Tenemos entonces que

< (1, 0), (0, 1), (1, 1) >= {x · (1, 0) + y · (0, 1) + z · (1, 1) = (x + z, y + z); x, y, z ∈ |R} ,

es decir < (1, 0), (0, 1), (1, 1) >= |R2 , todo el plano (ver Figura 2.4(b)).
No es posible generar |Rn con menos de n vectores. Por ejemplo, hemos visto que el
(1, 0) ∈ |R2 no es suficiente para generar todo |R2 , únicamente genera el eje X de |R2 . Los
tres vectores (1, 0), (0, 1) y (1, 1) son suficientes. Demasiados de hecho, pues únicamente los
dos vectores (1, 0) y (0, 1) son suficientes.
Observar que en los dos ejemplos anteriores, el conjunto < A > es un subespacio de
|R2 .En el primero es una recta que pasa por el origen y en el segundo el propio |R2 . Nos
preguntamos si lo que pasa en estos dos ejemplos (el conjunto < A > no es un conjunto
cualquiera sino que tiene la cualidad de ser un subespacio de |R2 ) ocurre en general. Efec-
tivamente: multiplicando un vector x1 ∈ |Rn por todos los números reales a, obtenemos
todos los vectores situados en la misma recta que x1 , es decir, una recta que pasa por el
origen, un subespacio de dimensión 1. Lo mismo al multiplicar otro vector x2 ∈ |Rn por
todos los números reales b: obtenemos una recta que pasa por el origen (y contiene al vec-
tor x2 ), otro subespacio de dimensión 1. Al sumar todos los vectores de una recta con los
de la otra obtenemos todos los vectores situados en el plano que contiene a ambas rectas,
todos los vectores de la forma ax1 + bx2 con a y b recorriendo todos los posibles números
reales. Pero el plano que contiene a ambas rectas es un plano que contiene al origen, es

26
decir, otro subespacio. Y ası́ sucesivamente, si x1 , x2 , ..., xm son vectores de |Rn , entonces
< x1 , x2 , ..., xm > es siempre un subespacio de |Rn .
Observar que el número de vectores (uno) de A en el ejemplo 2.5 genera una recta, pero
no todo el plano |R2 . Sin embargo, como hemos visto al principio de esta sección, los dos
vectores (1, 0) y (0, 1) generan todo |R2 . Ello nos lleva a la siguiente definición.
Definición 2.7. Sea A un subconjunto de vectores de |Rn , se dice que A = {x1 , · · · , xm } es
un sistema de generadores de |Rn si el subespacio < A > generado por A coincide con |Rn ,
es decir, < A >= |Rn . Dicho de otro modo: si todo elemento x de |Rn puede escribirse como
combinación lineal de los elementos de A:

x = a1 · x1 + · · · + am · xm

para ciertos números reales a1 , · · · , am .


Ejemplo 2.8. Retomemos de nuevo el conjunto A introducido al principio de esta sección
y los de los ejemplos 2.5 y 2.6. Es decir A1 = {(1, 0), (0, 1)}, A2 = {(1, 0), (0, 1), (1, 1)} y
A3 = {(1, 0)}. Hemos visto que tanto < (1, 0), (0, 1) >= |R2 como < (1, 0), (0, 1), (1, 1) >=
|R2 . Por tanto ambos, A1 y A2 , son sistemas generadores de |R2 . El conjunto A3 = {(1, 0)}

no es un sistema generador de |R2 puesto que < A3 >= eje X, no todo el plano |R2 .
En este ejemplo vemos que un único vector (el de A3 ) no es suficiente para generar todo
el plano |R2 . Pero los dos vectores de A1 o los tres vectores de A2 si lo son. Tanto A1
como A2 generan |R2 , sin embargo el sistema generador A1 es más económico que el sistema
generador A2 pues contiene menos vectores. La pregunta que nos hacemos ahora es, de todos
los sistemas generadores de un espacio |Rn , cuál es el sistema generador más económico. Ello
nos lleva a la siguiente definición.
Definición 2.9. Sea A = {x1 , . . . , xm } un subconjunto de vectores de |Rn . Obviamente,
0 · x1 + . . . + 0 · xm = 0. Pues bien, se dice que A es un conjunto de vectores linealmente
independientes (L I) si la única combinación lineal de los elementos de A que da el vector
nulo es esa, con coeficientes nulos. Es decir, los vectores de A son linealmente independientes
si para cualesquiera números a1 , . . . , am ∈ |R se cumple que

a1 · x1 + . . . + am · xm = 0 ⇐⇒ ai = 0, 1 ≤ i ≤ m.

Por definición asumimos que el conjunto vacı́o es L I.


Ejercicio 2.10. Comprobar que un conjunto de vectores A de |Rn son linealmente indepen-
dientes si ninguno de ellos puede escribirse como combinación lineal de los demás.
Definición 2.11. Los vectores de A se dicen linealmente dependientes si no son linealmente
independientes, es decir, si alguno de ellos puede escribirse como combinación lineal de los
demás.

27
Ejemplo 2.12. El conjunto X = {(1, 0), (0, 1)} es L I en |R2 . Para comprobarlo escribimos
a(1, 0) + b(0, 1) = (0, 0) y nos preguntamos para que valores de a y b se cumple esa igualdad.
Sumando obtenemos
(
a =0
a(1, 0) + b(0, 1) = (a, b) = (0, 0) ⇔
b =0.

La única solución de este sistema lineal de dos ecuaciones con dos incógnitas a y b es
a = b = 0. Por tanto {(1, 0), (0, 1)} son linealmente independientes. La igualdad anterior se
escribe 0(1, 0) + 0(0, 1) = (0, 0) y es imposible despejar el vector (1, 0) o el vector (0, 1) de
esa igualdad.
Ejemplo 2.13. El conjunto X = {(1, 0), (0, 1), (1, 1)} no es L I en |R2 . Para comprobarlo
escribimos a(1, 0) + b(0, 1) + c(1, 1) = (0, 0) y nos preguntamos para que valores de a, b y c
se cumple esa igualdad. Sumando obtenemos
(
a + b =0
a(1, 0) + b(0, 1) + c(1, 1) = (a + c, b + c) = (0, 0) ⇔
b + c =0.

Este sistema lineal de dos ecuaciones con tres incógnitas a, b y c tiene infinidad de soluciones:
a = −c, b = −c con c cualquier número real. Por tanto {(1, 0), (0, 1), (1, 1)} son linealmente
dependientes. Una solución posible es c = −1, a = 1 y b = 1. Por tanto la igualdad anterior
se escribe (1, 0) + (0, 1) − (1, 1) = (0, 0) y podemos despejar por ejemplo el vector (1, 1) en
función de los otros dos: (1, 1) = (1, 0) + (0, 1).
Ejemplo 2.14. El conjunto X = {(1, 1), (2, 2)} no es L I en |R2 . Para comprobarlo escribi-
mos a(1, 1) + b(2, 2) = (0, 0) y nos preguntamos para que valores de a y b se cumple esa
igualdad. Sumando obtenemos
(
a + 2b =0
a(1, 1) + b(2, 2) = (a + 2b, a + 2b) = (0, 0) ⇔
a + 2b =0.

Este sistema lineal de dos ecuaciones con dos incógnitas a y b tiene infinidad de soluciones:
a = −2b con b cualquier número real. Por tanto {(1, 1), (2, 2)} son linealmente dependientes.
Una solución posible es b = −1, a = 2. Por tanto la igualdad anterior se escribe 2(1, 1) −
(2, 2) = (0, 0) y podemos despejar por ejemplo el vector (2, 2) en función del otro: (2, 2) =
2(1, 1).
Como muestra este ejemplo, dos vectores cualesquiera de |R2 son linealmente dependientes
si son proporcionales y son linealmente independientes si no son proporcionales.
Hemos comprobado con los ejemplos anteriores que bastan dos vectores LI para generar
|R2 . Proponemos entonces el siguiente ejercicio.
Ejercicio 2.15. Comprobar que basta un vector no nulo para generar |R1 . Comprobar que
bastan tres vectores LI para generar |R3 . Dar ejemplos.

28
Podemos ahora introducir la definición que da nombre al sistema generador más económico:
Definición 2.16. El conjunto de vectores B ⊂ |Rn es una base de |Rn si cumple dos condi-
ciones: (a) B es un sistema generador de |Rn , es decir < B >= |Rn , y (b) los vectores de B
son linealmente independientes, es decir, B es L I.
Ejemplo 2.17. Tanto el conjunto S1 = {(1, 0), (0, 1)} como S2 = {(1, 0), (0, 1), (1, 1)} son
sistemas generadores de |R2 . Sin embargo, los vectores de S1 son linealmente independientes
mientras que los de S2 no lo son. Por tanto S1 es una base de |R2 mientras que S2 no lo es.
Por supuesto que S3 = {(1, 0)} tampoco lo es pues no es un sistema generador de |R2 .
Ejemplo 2.18. En general, en |Rn los vectores

e1 := (1, 0, 0, . . . , 0), e2 := (0, 1, 0, . . . , 0), . . . , en := (0, 0, . . . , 0, 1)

constituyen la llamada base canónica de |Rn .


Ejemplo 2.19. El conjunto ∅ es, por definición, la única base del espacio nulo {0}.
Una de las principales caracterizaciones del concepto de base indispensable en la práctica
es la siguiente. Sea B = {v1 , . . . vn }, un conjunto de vectores de |Rn . Entonces, B es una
base de |Rn si y solo si cada vector v ∈ |Rn tiene una representación única como combinación
lineal de elementos de B en la forma:

v = x1 · v1 + · · · + xn · vn , xi ∈ |R, 1 ≤ i ≤ n.

Definición 2.20. La n-tupla de números reales (x1 . . . xn ) se denominan coordenadas del


vector v en la base B.
Es muy importante tener en cuenta que las coordenadas de un vector dependen
de la base B elegida. Ası́ por ejemplo, el vector (6, −2) de |R2 tiene coordenadas 6, −2 en
la base canónica B = {(1, 0), (0, 1)}, pues (6, −2) = 6(1, 0) − 2(0, 1) y coordenadas 2, 4 en la
base B 0 = {(1, 1), (1, −1)}, pues (6, −2) = 2(1, 1) + 4(1, −1).
Todos los espacios |Rn tienen infinitas bases. En |R, cualquier vector x 6= 0 es base. En |R2 ,
cualquier pareja de vectores LI es base {(1, 0), (0, 1)}, ó {(1, 1), (1, −1)}, ó {(2, 0), (0, 3)}, etc.
En |R3 , cualquier trı́o de vectores LI es base, como por ejemplo {(1, 0, 0), (0, 1, 0), (0, 0, 1)}, ó
{(1, 1, 1), (1, −1, 0), (0, 1, 1)}, ó {(1, 2, 3), (0, 1, 2, ), (0, 0, 1)}, etc. En general, en |Rn , cuaquier
conjunto de n vectores independientes es base. El único espacio con base única es el espacio
{0}.
No obstante, todas las bases de |R2 tienen una cosa en común: poseen dos elementos.
Todas las bases de |R3 poseen tres elementos. En general, todas las bases de |Rn poseen n
elementos, es decir, el número de elementos de una base de |Rn es igual a su dimensión.

29
2.3. Matrices
Una matriz es una tabla de números reales como la que aparece en el ejemplo de la
introducción de este capı́tulo. Más precisamente, una matriz de tamaño n × m es una tabla
de números reales dispuestos en n filas y m columnas:

a11 a12 ... a1m


 
 a21 a22 ... a2m 
A= . . ... . ,
 
. . ... .
 
an1 an2 ... anm

donde los aij son números reales. Observar que los vectores de |Rn son matrices n × 1
x1
 
 x2 
si los escribimos ”verticales”:  .  o matrices 1 × n si los escribimos ”horizontales”:
 
.
 
xn
(x1 , x2 , ..., xn ). Para fijar la notación, en lo que sigue consideraremos los vectores x de |Rn
x1
 
 x2 
siempre ”verticales”: x =  . , como una matrices n × 1. Cuando queramos escribirlos
 
.
 
xn
horizontales los denotaremos xT y los escribiremos xT = (x1 , x2 , ..., xn ). El porqué de la
notación xT será claro en un momento.
Observar que podemos ver las n filas de A como n vectores de |Rm ”horizontales”:

v1T = (a11 , a12 , ..., a1m ), v2T = (a21 , a22 , ..., a2m ), vnT = (an1 , an2 , ..., anm )

y las m columnas de A como m vectores de |Rn ”verticales” (aunque los escribamos horizon-
tales para ahorrar espacio y por tanto con el superı́ndice T ):

uT1 = (a11 , a21 , ..., an1 ), uT2 = (a12 , a22 , ..., an2 ), uTm = (a1m , a2m , ..., anm ).

Al igual que los vectores de |Rn , las matrices de cualquier tamaño n × m se pueden sumar
y multiplicar por números reales. La suma de dos matrices A y B del mismo tamaño es
otra matriz C del mismo tamaño cuyos elementos son la suma de los respectivos elementos
de A y B, y denotamos C = A + B. El producto de un número real x por una matriz A es
otra matriz B cuyos elementos son los de A multiplicados por x, y denotamos B = xA. Por
ejemplo, la suma de matrices 2 × 2 es:
     
a b e f a+e b+f
+ = .
c d g h c+g d+h

30
El producto por un número real:
   
a b xa xb
x· = .
c d xc xd

Aparte de la suma y producto por números reales, hay otra operación importante, la multi-
plicación entre matrices. Definiremos primero la multiplicación entre matrices con una única
fila (es decir, vectores ”horizontales” xT de |Rn ) y matrices con una única columna (es decir,
vectores ”verticales” x de |Rn ).
Dada la matriz 1 × n (o vector ”horizontal” de |Rn , como más nos guste verlo),

xT = (x1 , x2 , ..., xn )

..

y la matriz n × 1 (o vector ”vertical” de |Rn , como más nos guste verlo), y = y1 .yn ,
definimos la multiplicación de las matrices xT e y como la matriz 1 × 1 (un número real)
que resulta de la siguiente operación:

y1
 
 y2 
 . 
 
T
x · y := (x1 , x2 , ..., xn ) ·   = x1 y1 + x2 y2 + ... + xn yn .
 . 
.
 
yn

Es decir, multiplicamos elemento por elemento de ambas matrices (o vectores) y sumamos.


La multiplicación de matrices de mayor tamaño es una generalización de esta multiplicación
de matrices 1 × n por matrices n × 1. Dada una matriz A de tamaño n × m y otra B de
tamaño m × p, el producto A · B es otra matriz de tamaño n × p que se obtiene multiplicando
las filas de A por las columnas de B tal y como acabamos de ver en la fórmula anterior.
Para ello pensamos en las n filas de la primera matriz A como n vectores ”horizontales” de
|Rm y en las p columnas de la segunda matriz B como p vectores ”verticales” de |Rm :

v1 T
 
 − − − − −− 
| | |
 
v2 T
 
| | |
 
 − − − − −− 
   
A= ; B =  b1 | b2 | ... | bp  ;
 
.
| | |
   
.
 
| | |
 
− − − − −−
 
vn T

v1 T · b1 v1 T · b2 ... v1 T · bp
 
 v T · b1 v2 T · b2 ... v2 T · bp 
AB =  2 ,
. . ... .
T T
vn · b1 vn · b2 ... vn T · bp

31
donde los vectores vi son n vectores fila de A (pertenecientes a |Rm ) y los vectores bj son p
vectores columna de B (pertenecientes a |Rm ).
Observar que es importante que los tamaños de las matrices que queremos multiplicar
”encajen”: para multiplicar A por B, el número de columnas de A debe ser el mismo que el
número de filas de B. Por tanto, para multiplicar una matriz cuadrada A por sı́ misma, debe
tener el mismo número de filas que de columnas, es decir, debe ser una matriz cuadrada.
Otras operaciones importantes con matrices y que usaremos constantemente son la trans-
posición y la potenciación. La potenciación de matrices no es más que el producto repetido
de una matriz por sı́ misma. La multiplicación de una matriz cuadrada A por sı́ misma n
veces se denota An : An = A · A · ... · A n veces, que es obviamente otra matriz del mismo
tamaño que A.
Dada una matriz A de tamaño n × m, se define la matriz transpuesta de A y se denota
T
A como la matriz de tamaño m × n que resulta de intercambiar filas por columnas de la
matriz A:

v1 T
 
 − − − − −− 
| | |
 
T
v
 
2
| | |
 
 − − − − −− 
   
T
A=  =⇒ A =  v1 | v2 | ... | vn  .
 
.
| | |
   
.
 
| | |
 
− − − − −−
 
vn T

Es por esta razón que hemos utilizado la notación x para referirnos a vectores verticales
de |Rn y xT para referirnos a vectores horizontales. El vector horizontal es una matriz de
tamaño 1 × n que resulta de transponer el vector vertical o matriz de tamaño n × 1.
Veamos ahora algunos tipos especiales de matrices que son muy utilizadas por su forma
particular.

2.4. Algunas matrices importantes


Matriz nula n × n. Es una matriz cuadrada con sus n2 elementos nulos:

0 0 0 ... 0
 
0 0 0 ... 0
0 0 0 ... 0
 
0= .
. . . ... .
. . . ... .
 
0 0 0 ... 0

32
Triangular superior. Una matriz se dice triangular superior si tiene ceros por debajo de
la diagonal principal:
a11 a12 a13 ... a1n
 
 0 a22 a23 ... a2n 
 0 0 a33 ... a3n 
 
.
 . . . ... . 

. . . ... .
 
0 0 0 ... ann

Triangular inferior. Una matriz se dice triangular inferior si tiene ceros por encima de la
diagonal principal:
a11 0 0 ... 0
 
 a21 a22 0 ... 0 
 . . . ... . 
 
.
 . . . ... . 

an−1 1 an−1 2 an−1 3 ... 0
 
an1 an2 an3 ... ann

Diagonal. Una matriz se dice diagonal si es cuadrada y es triangular superior e inferior:

a11 0 0 ... 0
 
 0 a22 0 ... 0 
 0 0 a33 ... 0 
 
.
 . . . ... . 

. . . ... .
 
0 0 0 ... ann

Identidad. La matriz identidad In de tamaño n es diagonal n × n con unos en la diagonal:

1 0 0 ... 0
 
0 1 0 ... 0
0 0 1 ... 0
 
.
. . . ... .

. . . ... .
 
0 0 0 ... 1

Escalonada. Es una matriz triangular superior en la que además, en cada fila, el número
de ceros que hay a la izquierda del primer elemento no nulo de esa fila es mayor que en la
fila anterior. Ejemplos:

1 2 3 4 1 2 3 4
   
0 1 2 3 0 0 2 3
, .
0 0 0 1 0 0 0 1
 
0 0 0 0 0 0 0 0

Toda matriz escalonada es triangular superior, pero lo contrario no es cierto (ejercicio:


buscar un ejemplo).

33
Simétrica. Una matriz A se dice simétrica si coincide con su transpuesta A = AT . Ejemplo:
 
1 2 4
2 0 3.
4 3 5
Obsévese que es simétrica respecto de la diagonal (los mismos números a ambos lados de la
diagonal).
Antisimétrica. Una matriz A se dice antisimétrica si su opuesta coincide con su transpuesta
A = −AT . Ejemplo:  
0 2 −4
 −2 0 3 .
4 −3 0
Obsévese que la diagonal debe ser nula.
Ortogonal. Una matriz P se dice ortogonal si multiplicada por su transpuesta en cualquier
orden es la identidad, P P T = P T P = I. Ejemplo:
 
1 1 −1
√ .
2 1 1

Idempotente. Una matriz A se dice idempotente si su cuadrado es ella misma, A2 = A.


Ejemplo:  
1 0
.
0 0

Nilpotente de ı́ndice p. Una matriz A se dice nilpotente de ı́ndice p si sus primeras


p − 1 potencias no son la matriz nula, pero su potencia p ésima es la matriz nula, A 6= 0,
A2 6= 0,...,Ap−1 6= 0, Ap = 0. Ejemplo:
 
0 1
0 0
es nilpotente de ı́ndice 2.
Para finalizar este capı́tulo estudiaremos tres conceptos importantes relacionados con las
matrices: rango, determinante y matriz inversa.

2.5. Rango
Utilicemos la visión dual que tenemos de una matriz A de tamaño n × m como una tabla
de n vectores fila v de |Rm o como una tabla de m vectores columna u de |Rn :
a11 a12 ... a1m
 
 a21 a22 ... a2m 
A= . . ... . , donde los aij son numeros reales.
 
. . ... .
 
an1 an2 ... anm

34
Tenemos entonces la siguiente definición:
Definición 2.21. El subespacio < v1 , v2 , ..., vn > de |Rm generado por las n filas de A se
denomina subespacio fila de A. El subespacio < u1 , u2 , ..., um > de |Rn generado por las m
columnas de A se denomina subespacio columna de A.
Obviamente, ambos subespacios tienen dimensión ≤ min{n, m}. Pero aún más, se puede
ver fácilmente que ambos subespacios tienen la misma dimensión.
Definición 2.22. Se denomina rango de A y se denota rank(A) a la dimensión del subespacio
fila o subespacio columna de A. Es decir, el rango de A es el mayor número de vectores fila
o vectores columna linealmente independientes que posee A.
Ejemplo 2.23. Sean las siguiente matrices de tamaño 2 × 3 y 3 × 3 respectivamente:
 
  1 2 3
1 2 3
A= , B = 1 3 5.
2 4 6
2 5 8

A tiene rango 1 y B tiene rango 2.


Una propiedad importante del rango de una matriz, cuya demostración dejamos como
ejercicio, es la siguiente:
Propiedad 1. El rango de una matriz no cambia si multiplicamos una fila o una columna
por un número no nulo. Tampoco cambia si intercambiamos filas o columnas.
Propiedad 2. El rango de una matriz no cambia si a una fila le sumamos una combinación
lineal de las demás. El rango de una matriz no cambia si a una columna le sumamos una
combinación lineal de las demás.
Propiedad 3. El rango de una matriz escalonada es el número de filas que no son
idénticamente nulas.
Las operaciones descritas en las propiedades 1 y 2 (multiplicar filas por números, in-
tercambiar filas y sumar a una fila una combinación lineal de las demás) se conocen como
operaciones de Gauss. Utilizando las propiedades 1 y 2 (usando el método de Gauss) pode-
mos, a partir de una matriz cualquiera A, encontrar otra matriz escalonada B que tiene el
mismo rango que A. Y, entonces, la propiedad 3 nos permite deducir inmediatamente el
rango de B y, por tanto, el de A. El proceso de obtención de B a partir de A es lo que se
conoce como proceso de Gauss y lo explicamos a continuación con un ejemplo.
Ejemplo 2.24. Calcular el rango de la matriz:
 
2 4 6
A= 3
 −1 2.
5 3 8

La estrategia a seguir es la siguiente. 1o Necesitamos un 1 en la posición (1, 1). Para


ello, o bien multiplicamos la primera fila por el número adecuado (1/2 en este ejemplo) o

35
intercambiamos la primera fila con otra que tenga un 1 en la primera posición (ninguna en
este ejemplo). Multiplicamos por tanto la primera fila por 1/2 y obtenemos:
 
1 2 3
A1 =  3 −1 2  .
5 3 8

2o Utilizando ese 1 en la posición (1, 1) de la matriz A1 , vamos a conseguir ceros en la primera


columna de A1 por debajo de ese primer 1 de la diagonal. Para ello cogemos la segunda
fila (3, −1, 2) y le sumamos la primera (1, 2, 3) multiplicada por −3. También, cogemos la
tercera fila (5, 3, 8) y le sumamos la primera (1, 2, 3) multiplicada por −5. Obtenemos:
 
1 2 3
A2 =  0 −7 −7  .
0 −7 −7

3o Necesitamos un 1 en la posición (2, 2), en el segundo elemento de la diagonal. Para


ello, o bien multiplicamos la primera fila por el número adecuado (−1/7 en este ejemplo) o
intercambiamos la primera fila con otra (a parte de la primera) que tenga un 1 en la segunda
posición de la diagonal (ninguna en este ejemplo). Multiplicamos por tanto la segunda fila
por −1/7 y obtenemos:  
1 2 3
A3 =  0 1 1 .
0 −7 −7
4o Utilizando ese 1 en la posición (2, 2) de la matriz A3 , vamos a conseguir ceros en la
segunda columna de A3 por debajo de ese segundo 1 de la diagonal. Para ello cogemos la
tercera fila (0, −7, −7) y le sumamos la segunda (0, 1, 1) multiplicada por 7. Obtenemos:
 
1 2 3
B = A4 =  0 1 1  .
0 0 0

El número de filas no nulas de B es 2 y, por tanto, el rango de la matriz B y de la matriz


A es 2. La dimensión de los subespacios fila o columna de A es 2.
El proceso de Gauss descrito en este ejemplo para obtener el rango de A sirve también
para resolver sistemas lineales de ecuaciones como por ejemplo el planteado al principio del
capı́tulo. Utilizando las propiedades 1 y 2 podemos transformar el sistema de ecuaciones
en otro sistema cuya matriz de coeficientes es triangular superior y que tiene las mismas
soluciones que el original. Ahora bien, por ser la matriz de coeficientes triangular superior,
las soluciones del nuevo sistema obtenido se calculan inmediatemante. Veámoslo resolviendo
el sistema planteado al principio del capı́tulo:
    
3 1 2 x 1210
 2 1 3   y  =  1650  .
2 1 a z 880

36
Añadimos a la derecha de la matriz de coeficientes A,
 
3 1 2
A = 2 1 3,
2 1 a

la columna de términos independientes b:


 
1210
B =  1650  ,
880

obteniendo lo que se conoce como matriz ampliada del sistema Ab,


 
3 1 2 1210
Ab =  2 1 3 1650  .
2 1 a 880

A continuación aplicamos a la matriz AB el proceso de Gauss para llevarla a una matriz


triangular superior. Multiplicamos la primera fila de Ab por 1/3, obteniendo
 
1 1/3 2/3 1210/3
Ab1 =  2 1 3 1650  .
2 1 a 880

Le sumamos a la segunda fila la primera multiplicada por −2 y a la tercera le sumamos la


primera multiplicada también por −2:
 
1 1/3 2/3 1210/3
Ab2 =  0 1/3 5/3 2530/3  .
0 1/3 a − 4/3 220/3

Multiplicamos la segunda y tercera filas de Ab2 por 3, obteniendo


 
1 1/3 2/3 1210/3
Ab3 =  0 1 5 2530  .
0 1 3a − 4 220

Le sumamos a la tercera fila la segunda multiplicada por −1:


 
1 1/3 2/3 1210/3
Ab4 = 0 1 5 2530  .
0 0 3a − 9 −2310

Esta matriz ampliada representa al sistema


 1 2 1210
 x + 3y + 3z = 3

 y + 5z =2530


(3a − 9)z = − 2310.

37
La matriz de coeficientes de este sistema es
 
1 1/3 2/3
A4 =  0 1 5 .
0 0 3a − 9

y la ampliada es Ab4 . Las soluciones de este sistema son las mismas que las del original y
se obtienen de forma muy sencilla despejando de abajo hacia arriba. Observemos que de
la última ecuación es imposible despejar z si a = 3, pues tendrı́amos 0 = −2310, lo que es
imposible, por lo que decimos que el sistema no tiene solución si a = 3.
Si a = 3 tenemos entonces que el rango de la matriz de coeficientes A4 es 2 (también
el de A), mientras que el de la ampliada Ab4 es 3 (también el de Ab). El sistema no tiene
solución si el rango de la matriz de coeficientes es distinto del rango de la matriz ampliada.
Si a 6= 3 entonces si es posible despejar z de la última ecuación: z = 2310/(9 − 3a) y
despejar después x e y. Si a 6= 3 tenemos entonces que el rango de la matriz de coeficientes
A4 es 3 (también el de A), el mismo que el de la ampliada Ab4 (y de Ab). El sistema tiene
solución si el rango de la matriz de coeficientes coincide con el de la matriz ampliada.
Asunto distinto es su interpretación económica. Podemos decir que si a = 3 es imposible
utilizar las máquinas todo el tiempo disponible, no hay solución. Si a 6= 3 entonces sı́
se utilizan las máquinas todo el tiempo disponible, sı́ hay solución matemática. Ahora
bien, resolviendo el sistema (con a 6= 3) encontramos (ejercicio) x = 110(5 − 4a)/(a − 3),
y = 2530+3850/(a−3), z = 770/(3−a). Estas cantidades pueden ser negativas para algunos
valores de a, lo que no tiene sentido económico pues los automóviles producidos no pueden
ser negativos, en cuyo caso, aunque hay solución matemática no hay solución económica.
Si 5/4 ≤ a ≤ 34/23 (ejercicio) entonces resultan x, y, z positivos con lo que hay solución
matemática y también económica. Pero si a < 5/4 ó a > 34/23, entonces resultan alguno
de los x, y, z negativos con lo que hay solución matemática (y solo una) pero no económica.
Si a = 3 no hay solución matemática ni económica.
Si, en vez de la matriz Ab4 obtenida en este ejemplo, la última matriz del proceso de
Gauss hubiera sido por ejemplo
 
1 1/3 2/3 1210/3
Ab4 =  0 1 5 2530  ,
0 0 3a − 9 0

entonces tendrı́amos que el sistema de ecuaciones serı́a:


 1 2 1210
 x + y + z =
3 3 3


 y + 5z =2530


(3a − 9)z =0.

Observemos que ahora la última ecuación determina z de forma única si a 6= 3, pues


tendrı́amos z = 0. Las otras incógnitas serı́an x = −440, y = 2530. El sistema tiene

38
una única solución matemática, aunque no ecónomica pues x < 0. En este caso el rango de
la matriz de coeficientes coincide con el de la ampliada y es 3, el número de incógnitas.
Si a = 3 entonces la última ecuación es 0 = 0 y no determina el valor de z, para cualquier
valor de z se cumple la ecuación 0 = 0, z es libre. Las soluciones son z libre, x = z − 440,
y = 2530 − 5z. En este caso tenemos infinidad de soluciones matemáticas, aunque no
económicas, puesto que el número de automóviles no puede ser negativo tenemos que debe
ser z > 440 para que x > 0 y que z < 506 para que y > 0. Por tanto 440 < z < 506. En
este caso el rango de la matriz de coeficientes también coincide con el de la ampliada, pero
es 2, menor que el número de incógnitas.
Podemos resumir la discusión del modo siguiente (Teorema de Rouché-Frobenius):
• Si el rango de la matriz de coeficientes es menor que el de la ampliada entonces el
sistema no tiene solución matemática.
• Si el rango de la matriz de coeficientes coincide con el de la ampliada entonces el
sistema tiene solución:
Una única solución matemática si ese rango coincide con el número de incógnitas.
Infinitas soluciones matemáticas si ese rango es menor que el número de incógnitas.
Discusión distinta es sobre el número de soluciones económicas, que desde luego nunca
será mayor que el de soluciones matemáticas.
Para finalizar esta sección, vamos a relacionar esta discusión con la discusión sobre
dependencia/independencia lineal de un conjunto de vectores {v1 , v2 , ..., vm } ⊂ |Rn . La
ecuación que debemos estudiar para determinar si son dependientes o independientes es
      

0
a1  v1  + a2  v2  + ... + am  vm  =  ·  .
0

Pero esta ecuación es la misma que la ecuación matricial

a1 0

  
| | |
 
a
 2  0
| | |
 ·   · 
    
 v1 | v2 | ... | vm    =  .

 ·   · 
| | |

· ·
   
| | |
am 0

Dado que los vi son vectores de |Rn , se trata de un sistema homogéneo de n ecuaciones con
m incógnitas a1 , a2 ,...,am donde las columnas de la matriz de coeficientes son los vectores
vi y, por tanto, se trata de una matriz n × m. En un sistema homogéneo la matriz de
coeficientes y la ampliada tienen el mismo rango, por lo que siempre tiene solución (al
menos la solución trivial a1 = a2 = ... = am = 0). Si sólo tiene la solución trivial, los
vectores vi son independientes y si tiene alguna más son dependientes. Pero el número de

39
soluciones depende del rango de la matriz de coeficientes, que nunca será mayor que n ni
que m:
• Si el rango es igual a m (al número de incógnitas) entonces solo admite la solución
trivial, los vectores son independientes.
• Si el rango es menor que m entonces admite infinidad de soluciones, los vectores son
dependientes.
Observemos que si m ≤ n, hay menos vectores o igual que dimensión tiene el espacio
donde viven, entonces puede ocurrir que ese rango sea igual a m ó menor, pueden ser
independientes o dependientes. Sin embargo, si m > n, hay más vectores que dimensión
tiene el espacio donde viven, entonces ese rango es ≤ n < m, son dependientes: en cualquier
|Rn nunca podemos encontrar más de n vectores independientes.

2.6. Determinante
Para introducir el concepto de determinante necesitamos previamente recordar el con-
cepto de permutación de n números {1, 2, 3, ..., n}: los diferentes órdenes en que podemos
escribir esos n números. Hay n! órdenes posibles. Por ejemplo, las 3! = 6 permutaciones de
los tres números {1, 2, 3} son

{1, 2, 3}, {2, 3, 1}, {3, 1, 2}, {2, 1, 3}, {1, 3, 2}, {3, 2, 1}.

A cada permutación de n números asignaremos un signo + ó − según el siguiente criterio.


Contamos el número de intercambios de parejas de números que necesitamos para convertir
una permutación dada en la permutación identidad {1, 2, 3, ..., n}. Si ese número de inter-
cambios es par, le asignaremos a esa permutación un signo +; si es impar un signo − (el
número 0 lo consideramos par).
Ejemplo 2.25. Tomemos el ejemplo de permutaciones de 3 números y la permutación
{3, 1, 2}. Necesitamos 2 intercambios de parejas de números para llevarla a la {1, 2, 3}:
{3, 1, 2} → {1, 3, 2} → {1, 2, 3}. Entonces, la permutación {3, 1, 2} tiene signo +. Sin
embargo, necesitamos sólo un intercambio entre la pareja 3 y 1 para llevar la permutación
{3, 2, 1} a la identidad: {3, 2, 1} → {1, 2, 3}; la permutación {3, 2, 1} tiene signo −.
Antes de definir el concepto de determinante para una matriz de cualquier tamaño n × n,
hagámoslo para matrices 3 × 3. Dada la matriz
 
a11 a12 a13
A =  a21 a22 a23  ,
a31 a32 a33

cojamos los 6 posibles productos de 3 de sus elementos de la forma a1i · a2j · a3k , donde
{i, j, k} puede ser cualquiera de las 6 permutaciones de {1, 2, 3}. El determinante de A,

40
llamado |A|, es la suma de esos 6 productos, cada uno de ellos afectado de un signo + ó −
según el signo de la permutación {i, j, k}:
|A| := a11 · a22 · a33 + a12 · a23 · a31 + a13 · a21 · a32 − a12 · a21 · a33 − a11 · a23 · a32 − a13 · a22 · a31 .

Ejercicio 2.26. Quizá el lector conozca ya alguna regla nemotécnica para calcular de-
terminantes de matrices 2 × 2 ó 3 × 3. Comparar la definición anterior con esa regla de
cálculo.
Definición 2.27. El determinante de una matriz real A de tamaño n × n es la suma de los
n! posibles productos de n de sus elementos de la forma a1n1 · a2n2 · ... · a3nn , cada uno de
ellos afectado de un signo + ó − según el signo de la permutación {n1 , n2 , ..., nn }:
|A| := a11 · a22 · a33 · ... · ann − a12 · a21 · a33 · ... · ann + ....
Observar que cada sumando de la forma a1n1 · a2n2 · ... · a3nn es el producto de n elementos de
A, cada uno de una fila y de una columna distintas. No hay en ese sumando dos elementos
de una misma fila o de una misma columna. Observar también que el determinante es una
aplicación que asigna a cada matriz cuadrada n × n, A, un número real que llamamos |A|.
De esta definición se deducen fácilmente diversas propiedades de los determinantes que
pasamos a resumir a continuación sin demostración.
Propiedad 1. Dada una matriz cuadrada A, sea B la matriz que resulta al coger A e
intercambiar dos de sus filas. Entonces |B| = −|A|. Y lo mismo pasa al intercambiar
columnas: sea C la matriz que resulta al coger A e intercambiar dos de sus columnas.
Entonces |C| = −|A|.
Propiedad 2. Si dos filas de una matriz cuadrada son proporcionales (en particular si son
iguales) su determinante es 0. Si dos columnas de una matriz cuadrada son proporcionales
(en particular si son iguales) su determinante es 0.
Propiedad 3. Sean A y B dos matrices n × n iguales salvo por la fila i−ésima que es
distinta. Sea C una matriz n × n igual a la matriz A ó B salvo la fila i−ésima que es la
suma de las filas i−ésimas de las matrices A y B. Entonces |C| = |A| + |B|:
a11 a12 ... a1n a11 a12 ... a1n
   
 . . ... .   . . ... . 
 ai−1,1 ai−1,2 ... ai−1,n   ai−1,1 ai−1,2 ... ai−1,n 
   
A =  ai,1 ai,2 ... ai,n  , B =  bi,1 bi,2 ... bi,n  ,
   
 ai+1,1 ai+1,2 ... ai+1,n   ai+1,1 ai+1,2 ... ai+1,n 
   
. . ... . . . ... .
   
an1 an2 ... ann an1 an2 ... ann
a11 a12 ... a1n
 
 . . ... . 
a a ... a
 
 i−1,1 i−1,2 i−1,n 
C =  ai,1 + bi,1 ai,2 + bi,2 ... ai,n + bi,n  ,
 
 ai+1,1 ai+1,2 ... ai+1,n 
 
. . ... .
 
an1 an2 ... ann

41
Propiedad 4. |aA| = an |A|, donde a es un número real y n el tamaño de la matriz.
Propiedad 5. |A| = |AT |. |AB| = |A||B|. |A−1 | = 1/|A|.
Propiedad 6. El determinante de una matriz triangular (superior, inferior, diagonal) es el
producto de los elementos de la diagonal principal:
a11 a12 a13 ... a1n
0 a22 a23 ... a2n
0 0 a33 ... a3n
= a11 a22 a33 · · · ann .
. . . ... .
. . . ... .
0 0 0 ... ann

Aparte de usando la definición de determinante, existen diversas formas de calcular


un determinante (desarrollo por filas o columnas por ejemplo). Usando algunas de las
propiedades anteriores vamos a dar a continuación otra forma de calcularlo muy similar al
método de Gauss de cálculo del rango de una matriz visto en el Ejemplo 2.27 o de resolución
de un sistema lineal de ecuaciones visto anteriormente. Veámoslo con un ejemplo:
Queremos calcular el determinante de la matriz
 
1 2 3
A = 2 1 1.
1 0 1
Vamos a aplicarle el proceso de Gauss para convertirla en una matriz triangular superior.
Pero únicamente usaremos: ”sumar a una fila otra multiplicada por un número” y, si es
necesario, también ”intercambiar filas”. Por las propiedades 2 y 3, la primera operación
no cambia el determinate. Por la propiedad 1, la segunda operación únicamente puede
cambiarlo en un signo. No utilizaremos la operación ”multiplicar una fila por un número”,
ya que esta operación cambia el determinante según la propiedad 4 (aunque podrı́mos usarla
teniendo en cuenta este efecto, no lo haremos por simplicidad).
Dejamos la primera fila igual. Sumamos a la segunda la primera multiplicada por −2:
   
1 2 3 1 2 3
2 1 1  →  2 + (−2) 1 + (−4) 1 + (−6)  .
1 0 1 1 0 1
Por la propiedad 3 tenemos que
1 2 3 1 2 3 1 2 3
2 + (−2) 1 + (−4) 1 + (−6) = 2 1 1 + (−2) (−4) (−6) .
1 0 1 1 0 1 1 0 1
En este último determinante, la segunda fila es proporcional a la primera y por la propiedad
2, este determinante es nulo. Entonces:
1 2 3 1 2 3
2 + (−2) 1 + (−4) 1 + (−6) = 2 1 1 .
1 0 1 1 0 1

42
Es decir, el determinante no cambia al efectuar la operación ”sumar a una fila otra multi-
plicada por un número”. La nueva matriz
 
1 2 3
 0 −3 −5 
1 0 1

obtenida tras esa operación de Gauss tiene el mismo determinante que la anterior:

1 2 3 1 2 3
0 −3 −5 = 2 1 1 .
1 0 1 1 0 1

Y ası́ sucesivamente: tras este tipo de operaciones de Gauss, las distintas matrices que se
van obteniendo en el proceso de Gauss tienen todas el mismo determinante. Por tanto,
llevando el proceso de Gauss hasta el final utilizando únicamente ”sumar a una fila
otra multiplicada por un número”:
     
1 2 3 1 2 3 1 2 3
A =  2 1 1  →  0 −3 −5  →  0 −3 −5  = B,
1 0 1 0 −2 −2 0 0 4/3

la última matriz obtenida B tiene el mismo determinante que la matriz original A. Como esta
última matriz del proceso de Gauss es triangular superior, su determiante es muy sencillo de
calcular: el producto de los elementos de la diagonal, por tanto: |A| = |B| = 1(−3)(4/3) =
−4.
Si en algún momento del proceso de Gauss hubiéramos necesitado un intercambio de
filas, deberı́amos entonces tener en cuenta la propiedad 1, con lo que podrı́amos obtener
|A| = −|B|.
Mediante este proceso de Gauss restringido (usamos únicamente ”sumar a una fila otra
multiplicada por un número” y quizá ”intercambiar dos filas”) transformamos la matriz
original A en otra B triangular superior. Ambas tienen el mismo determinante (salvo un
signo quizá). Por las propiedades 1, 2 y 3 del rango tenemos que igualmente el rango no
cambia tras este proceso de Gauss: rank(B) =rank(A). Observemos que la matriz B no
tiene filas idénticamente nulas y por tanto su rango es 3 y por tanto rank(A) =rank(B) = 3.
No tener filas idénticamente nulas significa que sus elementos de la diagonal son todos no
nulos y por tanto su determinante es no nulo (−4 en este caso). Si, en otro ejemplo distinto
del anterior, la última matriz B del proceso de Gauss hubiera sido por ejemplo
 
1 2 3
B =  0 −3 −5  ,
0 0 0

entonces su rango serı́a 2 y su determinante 0: rango menor que n significa que al menos
una fila es nula, lo que implica que al menos un elemento de la diagonal es nulo y por tanto
el determinante es nulo.

43
2.7. Matriz inversa
Dada una matriz cuadrada A de tamaño n × n, su inversa (si existe) es otra matriz n × n
que denotamos A−1 tal que AA−1 = A−1 A = I. Entonces, cuando existe A−1 se dice que
A es inversible. La manera más sencilla de calcular A−1 a partir de A es usando el mt́odo
de Gauss. Veámoslo con un ejemplo.
Queremos calcular la inversa de la matriz
 
1 2 1
A = 1 0 1.
2 1 0

Pongamos a la derecha de la matriz A, la matriz identidad I:


   
1 2 1 1 0 0
A = 1 0 1 I = 0 1 0. (1)
2 1 0 0 0 1

Vamos a aplicarles a ambas matrices, A e I, las mismas operaciones de Gauss, ¿cuáles?,


aquellas que sean necesarias para llevar la matriz A a la matriz identidad I, si es que
es posible. Para ello, primeramente, como cuando resolvemos sistemas de ecuaciones o
calculamos rangos, transformaremos A en una matriz triangular superior con unos en la
diagonal. Después, haremos ceros por encima de la diagonal.
Ya tenemos un 1 en la primera posición de la diagonal de A, ası́ pues hacemos ceros por
debajo de ese 1 restándole a la segunda fila la primera y restándole a la tercera fila la primera
multiplicada por 2. Estas dos mismas operaciones se las hacemos a la matriz I situada a la
derecha de A, obteniendo:
   
1 2 1 1 0 0
A1 =  0 −2 0 , I1 =  −1 1 0.
0 −3 −2 −2 0 1

Observemos que obtenemos exactamente el mismo resultado A1 e I1 si multiplicamos por la


izquierda A y también I en (1) por la matriz
 
1 0 0
P1 =  −1 1 0
−2 0 1

O dicho de otro modo, aplicar esas dos operaciones de Gauss que acabamos de describir a
la matriz A y también a la I es equivalente a multiplicar A y también I por la izquierda por
la matriz P1 : A1 = P1 A y I1 = P1 I.

44
En un segundo paso de Gauss multiplicamos la segunda fila de A1 (y de I1 ) por −1/2
para conseguir un 1 en la segunda posición de la diagonal de A1 , lo que equivale a multiplicar
A1 e I1 por la matriz  
1 0 0
P2 =  0 −1/2 0 
0 0 1
obteniendo
   
1 2 1 1 0 0
A 2 = P2 A 1 = 0
 1 0 , I2 = P2 I1 = 1/2
 −1/2 0.
0 −3 −2 −2 0 1

En un tercer paso de Gauss le sumamos a la tercera fila (de A2 y de I2 ) la segunda


multiplicada por 3 para conseguir un 0 por debajo del segundo 1 de la diagonal de A2 , lo
que equivale a multiplicar A2 e I2 por la matriz
 
1 0 0
P3 =  0 1 0 
0 3 1

obteniendo
   
1 2 1 1 0 0
A 3 = P3 A 2 =  0 1 0 , I3 = P3 I2 =  1/2 −1/2 0  .
0 0 −2 −1/2 −3/2 1

En un cuarto paso de Gauss multiplicamos la tercera fila de A3 (y de I3 ) por −1/2 para


conseguir un 1 en la tercrera posición de la diagonal de A3 , lo que equivale a multiplicar A3
e I3 por la matriz  
1 0 0
P4 =  0 1 0 
0 0 −1/2
obteniendo
   
1 2 1 1 0 0
A 4 = P4 A 3 = 0
 1 0, I4 = P4 I3 = 1/2
 −1/2 0 .
0 0 1 1/4 3/4 −1/2

Ahora buscamos ceros por encima de la diagonal de A4 , de derecha a izquierda. En un


quinto paso de Gauss le restamos a la primera fila (de A4 y de I4 ) la tercera para tener todo
0 por encima del tercer 1 de la diagonal de A4 , lo que equivale a multiplicar A4 e I4 por la
matriz  
1 0 0
P5 =  0 1 0 
1 0 −1

45
obteniendo
   
1 2 0 3/4 −3/4 1/2
A 5 = P5 A 4 = 0
 1 0, I5 = P5 I4 = 1/2
 −1/2 0 .
0 0 1 1/4 3/4 −1/2

Finalmente le restamos a la primera fila (de A5 y de I5 ) la segunda multiplicada por 2


para tener un 0 por encima del segundo 1 de la diagonal de A5 , lo que equivale a multiplicar
A5 e I5 por la matriz  
1 −2 0
P6 =  0 1 0 
0 0 1
obteniendo
   
1 0 0 −1/4 1/4 1/2
A 6 = P6 A 5 = 0
 1 0, I 6 = P6 I 5 =  1/2 −1/2 0 .
0 0 1 1/4 3/4 −1/2

Recopilando todas las operaciones que hemos hecho tenemos que A6 = P6 P5 P4 P3 P2 P1 A


y que I6 = P6 P5 P4 P3 P2 P1 I. Llamando P = P6 P5 P4 P3 P2 P1 tenemos que A6 = P A y que
I6 = P . Pero observemos que A6 = I y por tanto I = P A, es decir, P = A−1 , la inversa
de la matriz A. Y como justamente I6 = P = A−1 , tenemos que precisamente la matriz
I6 = A−1 , es decir, la matriz inversa de la A que andamos buscando es la última matriz del
proceso de Gauss que hemos aplicado a la matriz identidad I, la matriz de la derecha de la
última fórmula.
De la identidad AA−1 = I y de la segundad identidad en la propiedad 5 de determinantes
vista anteriormente tenemos que |A||A−1 | = 1. Por tanto, si |A| = 0 tenemos que no existe
A−1 pues es imposible que se cumpla |A||A−1 | = 1.
La discusión anterior se resume en la siguiente propiedad importante que relaciona el
determinate de una matriz cuadrada con su rango y con la existencia de su matriz inversa:
Propiedad importante. El rango de una matriz cuadrada A de tamaño n×n es n si y solo
si |A| =
6 0 y entonces, además, si y solo si A es inversible. Es decir, el rango de una matriz
cuadrada A de tamaño n × n es < n si y solo si |A| = 0 y si y solo si A no es inversible:

6 0 ⇔ ∃ A−1 .
rank(A) = n ⇔ |A| =
rank(A) < n ⇔ |A| = 0 ⇔ /∃ A−1 .

46
2.8. Descomposición LU
Retomemos de nuevo el ejemplo de matriz cuadrada de la sección anterior:
 
1 2 1
A= 1 0 1
2 1 0
y las matrices triangulares inferiores P1 , P2 y P3 . En la sección anterior hemos calculado I3 =
P3 P2 P1 , que también es una matriz triangular inferior por serlo P1 , P2 y P3 . Recordemos
que la matriz A3 = P3 P2 P1 A = I3 A es una matriz triangular superior (resultado de aplicar
el proceso de Gauss a la matriz A). Llamemos U = A3 , ya que al ser A3 triangular superior,
usamos la sigla U de la palabra inglesa up (superior). Tenemos entonces que U = I3 A. La
matriz I3 es inversible, ya que es producto de matrices Pk que son inversibles, y su inversa
I3−1 es también una matriz triangular inferior que denotamos L = I3−1 , ya que al ser I3−1
triangular inferior usamos la sigla L de la palabra inglesa low (inferior). Tenemos que
   
1 2 1 1 0 0
U= 0
 1 0 , L = I3−1 = 1
 −2 0  .
0 0 −2 2 −3 1

Y por tanto, si U = I3 A, entonces A = I3−1 U = LU .


    
1 2 1 1 0 0 1 2 1
A = LU :  1 0 1 = 1 −2 0
    0 1 0 .
2 1 0 2 −3 1 0 0 −2
Que podemos leer del siguiente modo: la matriz cuadrada A puede escribirse como el pro-
ducto de dos matrices, una triangular inferior L y otra triangular superior U .
El proceso puede refinarse asegurándonos de obtener una matriz L con unos en la diagonal
y aplicarse a matrices A no inversibles. Pero esto lo dejamos para clase de problemas.

2.9. Problemas resueltos


2.8.1. Determinar si la tira infinita T = {(x, y) ∈ |R2 , x ∈ |R, 0 ≤ y ≤ 1} (ver dibujo) es
subespacio de |R2 .
y
(0,2) (1,2)

(0,1) (1,1)

47
Solución. Todos los subespacios de |R2 son: {(0, 0)}, cualquier recta que pase por el origen
y el propio |R2 . Esta tira T no es ninguno de estos conjuntos y por tanto no es subespacio.
Otra forma de determinar que T no es subespacio es comprobando que no cumple alguna
de las dos propiedades (a) y (b) recuadradas en la página 10. Algunos vectores de T , como
por ejemplo (0, 1/2) y (1, 1/2), cumplen (a) pues su suma (0, 1/2) + (1, 1/2) = (1, 1) ∈ T .
Pero esto no es cierto para todos los vectores de T , por ejemplo (0, 1), (1, 1) ∈ T pero
(0, 1) + (1, 1) = (1, 2) ∈
/ T . Algunos vectores de T y algunos números reales, como por
ejemplo (0, 1/2) y 2 cumplen (b) pues su producto 2(0, 1/2) = (0, 1) ∈ T . Pero esto no es
cierto para todos los vectores de T y todos los números reales, por ejemplo (0, 1) ∈ T pero
2(0, 1) = (0, 2) ∈
/ T.

2.8.2. Indicar cuáles de los siguientes conjuntos son subespacios de |R3 :


i) S = {(x, y, z) : x + y + z = 0},
ii) T = {(x, 2x, x + y) : x, y ∈ |R},
iii) U = {(1 + x, 2x, x + y) : x, y ∈ |R}.
Solución.
i) S es un plano de |R3 que pasa por el origen: (0, 0, 0) ∈ |R3 pues 0 + 0 + 0 = 0. Por tanto
es un subespacio de |R3 . Otra forma de comprobarlo es observando que todos los vectores
de S cumplen las propiedades (a) y (b) del cuadro de la página 10:
Cojamos cualesquiera dos vectores (x, y, z), (x0 , y 0 , z 0 ) ∈ S, es decir, x+y+z = 0 y también
x0 +y 0 +z 0 = 0. Su suma es (x+x0 , y +y 0 , z +z 0 ) y está en S pues (x+x0 )+(y +y 0 )+(z +z 0 ) =
(x + y + z) + (x0 + y 0 + z 0 ) = 0 + 0 = 0, es decir, se cumple (a). Multipliquemos cualquier
vector (x, y, z) ∈ S (por tanto x + y + z = 0) por cualquier número real a ∈ |R: a(x, y, z) =
(ax, ay, az). Tenemos que (ax, ay, az) ∈ S pues ax + ay + az = a(x + y + z) = a · 0 = 0, es
decir, se cumple (b).
ii) T = {x(1, 2, 1) + y(0, 0, 1) : x, y ∈ |R} =< (1, 2, 1), (0, 0, 1) >. Es decir, T es un subespacio
de |R3 de dimensión 2 generado por los vectores (1, 2, 1) y (0, 0, 1). Otra forma de com-
probarlo es observando que todos los vectores de S cumplen las propiedades (a) y (b) del
cuadro de la página 10:
Cojamos cualesquiera dos vectores (x, 2x, x + y), (x0 , 2x0 , x0 + y 0 ) ∈ T , con x, y, x0 , y 0 cua-
lesquiera números reales. Su suma es (x + x0 , 2x + 2x0 , x + y + x0 + y 0 ) = (X, 2X, X + Y ),
con X = x + x0 , Y = y + y 0 y está por tanto en T , es decir, se cumple (a). Multiplique-
mos cualquier vector (x, 2x, x + y) ∈ T por cualquier número real a ∈ |R: a(x, 2x, x + y) =
(ax, a2x, a(x + y)) = (X, 2X, X + Y ), con X = ax, Y = ay y está por tanto en T , es decir,
se cumple (b).
iii) U no es un subespacio de |R3 pues, aunque es un plano, no pasa por el origen, (0, 0, 0) ∈
/U
pues para ningún valor de x se tiene 1 + x = 0 y también 2x = 0. Otra forma de
comprobarlo es observar que no cumple alguna de las propiedades (a) ó (b) del cuadro de
la página 10. Cojamos un par de vectores de U , como por ejemplo uno con x = 1, y = 0

48
y otro con x = 0, y = 1, es decir, (2, 2, 1) y (1, 0, 1). Su suma es (3, 2, 2), que no es de la
forma (1 + x, 2x, x + y) para ningún x, y, pues tendrı́a que ser

 1 + x =3

2x =2

x + y =2,

que es un sistema incompatible: de la primera ecuación x = 2 y de la segunda x = 1. Por


tanto U no cumple la propiedad (a).

2.8.3. Decir si los siguientes vectores son o no independientes: {(1, 1, 2), (1, 2, 1), (3, 1, 1)}.
Solución. Podemos hacerlo de dos modos. Primero usando la definición 2.9, es decir, son
dependientes si podemos encontrar tres números reales a, b, c, al menos uno de ellos no nulo,
tales que
a(1, 1, 2) + b(1, 2, 1) + c(3, 1, 1) = (0, 0, 0).
Son independientes si esta igualdad únicamente se satisface para a = b = c = 0. Com-
probémoslo. Esta igualdad entre vectores se traduce en tres igualdades entres números:

 a + b + 3c =0

a + 2b + c =0 (2)

2a + b + c =0.

Se trata de un sistema lineal homogéneo cuya única solución es a = b = c = 0 y, por tanto,


son independientes.
La segunda forma de hacerlo (que en realidad es equivalente a la primera) es usando que
el rango de una matriz es el número de filas independientes. Construyamos una matriz A
cuyas columnas son esos tres vectores:
 
1 1 3
A = 1 2 1.
2 1 1

Calculamos su rango mediante el método de Gauss:


     
1 1 3 1 1 3 1 1 3
 1 2 1  →  0 1 −2  →  0 1 −2  .
2 1 1 0 −1 −5 0 0 −7

La última matriz, triangular superior, no tiene ninguna fila o columna idénticamente nula
y, por tanto, su rango y el rango de la matriz A es 3, sus columnas son vectores linealmente
independientes.
En realidad ambos métodos son el mismo escrito de dos formas distintas; observemos
que la matriz A es la matriz de coeficientes del sistema homogéno (2) que, como cualquier

49
sistema homogéneo tiene al menos la solución trivial a = b = c = 0. Pero como el rango de
la matriz de coeficientes A es igual al número de incógnitas, entonces a = b = c = 0 es la
única solución.

2.8.4. Encontrar un contraejemplo a la siguiente afirmación: si B = {v1 , v2 } es base


cualquiera de |R2 , y si W es un subespacio cualquiera de |R2 de dimensión mayor que 0,
entonces algunos de los vectores de B (uno de ellos o los dos) es una base de W .
Solución. Si dim(W ) = 1, entonces cualquier base de W tendrá únicamente un vector. Si
dim(W ) = 2, entonces W = |R2 y cualquier base de W tendrá dos vectores. Intuitivamente
puede parecer entonces que la afirmación es cierta: si dim(W ) = 1, entonces uno de los
vectores de B será base de W ; si dim(W ) = 2, entonces B será base de W = |R2 . Desde
luego que lo último es cierto pues nos dicen que B es base de |R2 . Pero la otra afirmación
no tiene por qué ser cierta para cualesquiera base B y subespacio W . Por ejemplo, si
B = {(1, 0), (0, 1)} y W =< (1, 0) >, es decir, W es el eje X, entonces si es cierta, una base
de W es el primer vector de B: (1, 0). Pero si por ejemplo W =< (1, 1) >, entonces {(1, 0)}
no puede ser base porque ni siquiera (1, 0) ∈ W , lo mismo puede decirse de {(0, 1)} y ambos
{(1, 0), (0, 1)} tampoco pueden ser base pues dim(W ) = 1 y cualquier base de W sólo puede
contener un vector (una base de W puede ser {(1, 1)}).

2.8.5. Encontrar las dimensiones de:


a) W = {(x, y, x + y, x − y); x, y ∈ |R}.
b) U =< (1, 1, 0, 0), (0, 1, 1, 0), (0, 0, 1, 1), (1, 0, 0, 1) >.
c) El subespacio de todos los vectores de |R4 cuyas componentes suman cero.
Solución. Los tres subespacios son subespacios de |R4 .
a) Podemos escribir W = {x(1, 0, 1, 1)+y(0, 1, 1, −1); x, y ∈ |R} =< (1, 0, 1, 1), (0, 1, 1, −1) >.
Por tanto, como mucho, la dimensión de W es 2. Y efectivamente dim(W ) = 2 pues los
vectores (1, 0, 1, 1) y (0, 1, 1, −1) son independientes.
b) dim(U ) es el número de vectores independientes que hay en el conjunto de vectores
{(1, 1, 0, 0), (0, 1, 1, 0), (0, 0, 1, 1), (1, 0, 0, 1)}. Si ponemos estos cuatro vectores en las fi-
las de una matriz y aplicamos el proceso de Gauss para calcular su rango, obtenemos:

1 1 0 0 1 1 0 0
   
0 1 1 0 0 1 1 0
→ .
0 0 1 1 0 0 1 1

1 0 0 1 0 0 0 0

Por tanto, el rango es 3 y sólo hay tres vectores independientes. Podemos comprobar
que se satisface (1, 0, 0, 1) = (1, 1, 0, 0) − (0, 1, 1, 0) + (0, 0, 1, 1) y por tanto tenemos que
U =< (1, 1, 0, 0), (0, 1, 1, 0), (0, 0, 1, 1) >, dim(U ) = 3.
c) Ese subespacio puede escribirse como T = {(x, y, z, t) ∈ |R4 ; x + y + z + t = 0}, o lo que
es lo mismo, T = {(x, y, z, −x − y − z); x, y, z ∈ |R} = {x(1, 0, 0, −1) + y(0, 1, 0, −1) +

50
z(0, 0, 1, −1); x, y, z ∈ |R} =< (1, 0, 0, −1), (0, 1, 0, −1), (0, 0, 1, −1) >. Podemos compro-
bar que estos tres vectores son independientes y por tanto dim(T ) = 3.
Una forma intuitiva de deducir la dimensión de un subespacio es contar el número de
parámetros reales independientes que necesitamos para escribir el subespacio. Por ejemplo,
para definir W necesitamos dos: x e y, dimensión 2 por tanto. U no lo hemos definido
usando parámetros reales. Para definir T necesitamos tres: x, y y z, dimensión 3 por tanto;
aunque en un principio hemos usado 4 parámetros: x, y, z y t, únicamente 3 son libres pues
el cuarto está ligado: t = −x−y −z. La dimensión de T es igual al número de incógnitas que
hay en un principio (cuatro) menos el número de restricciones sobre esas incógnitas (una,
x + y + z + t = 0).

2.8.6. Estudiar la existencia y unicidad de la solución del sistema Ax = b en función de


los parámetros a y c, donde:
   
1 2 0 1
A= 1 8 3
  b = 2
0 a 5 c

Solución. Escribamos la matriz de coeficientes A y la ampliada Ab y apliquemos el proceso


de Gauss para calcular los rangos de ambas:
     
1 2 0 | 1 1 2 0 | 1 1 2 0 | 1
1 8 3 | 2 → 0 6 3 | 1 → 0 1 1/2 | 1/6 
0 a 5 | c 0 a 5 | c 0 0 5 − a/2 | c − a/6

Si a = 10 y c 6= 5/3 entonces rank(A) = 2 y rank(Ab) = 3, con lo que el sistema no tiene


solución. Si a = 10 y c = 5/3 entonces rank(A) =rank(Ab) = 2, con lo que el sistema tiene
infinidad de soluciones. Si a 6= 10 entonces rank(A) =rank(Ab) = 3, con lo que el sistema
tiene una única solución.

2.8.7. Comprobar que el producto de dos matrices n×n triangulares superiores es una matriz
triangular superior. ¿Es triangular el producto de dos matrices n × n, ambas triangulares?
Solución. Sean A y B dos matrices triangulares superiores y C = AB. Entonces, el
elemento ckj de la matriz C resulta de hacer el producto del vector fila k de A, llamémoslo
ak por el vector columna j de B, llamémoslo bj . Como A y B son triangulares superiores,
las k − 1 primeras componentes de ak son nulas: ak T = (0, 0, ..., 0, akk , ..., akn ) y las n − j
últimas componentes de bj también son nulas: bj T = (b1j ..., bjj , 0, ..., 0). Si el elemento ckj
de la matriz C está por debajo de la diagonal, eso significa que k > j, con lo que

b1j
 
 . 
 bjj 
 
ckj = ak T · bj = (0, 0, ..., 0, akk , ..., akn ) ·   = 0 + ... + 0 + 0 + ... + 0 = 0.
 0 
.
 
0

51
De una forma similar se prueba que si A y B son dos matrices triangulares inferiores, entonces
C = AB también es triangular inferior. Sin embargo, el producto de una matriz triangular
inferior por otra triangular superior no es, en general, una matriz triangular como demuestra
el siguiente ejemplo:
     
1 1 1 0 2 1
A= , B= , AB = .
0 1 1 1 1 1

2.8.8. Comprobar que el producto de dos matrices cuadradas del mismo orden y simétricas
es una matriz simétrica si y sólo si ambas conmutan.
Solución. Sean A y B matrices simétricas de tamaño n × n, es decir A = AT y B = B T .
Probemos que si AB es simétrica entonces A y B conmutan. Si AB es una matriz simétrica
entonces (AB)T = AB. Pero como (AB)T = B T AT = BA tenemos que AB = BA, es
decir, A y B conmutan. Ahora probemos lo recı́proco, supongamos que A y B conmutan
y probemos que AB es simétrica. Si A y B conmutan entonces AB = BA. Calculemos
(AB)T = B T AT = BA. Usando que AB = BA nos queda que (AB)T = AB, es decir, que
AB es una matriz simétrica.

2.8.9. Comprobar que si las matrices A y B conmutan y A es inversible, entonces A−1 y B


también conmutan.
Solución. Si A y B conmutan significa que AB = BA. Tenemos que comprobar que
A−1 B = BA−1 . Multiplicando la igualdad AB = BA por la izquierda y también por la
derecha por A−1 tenemos que A−1 ABA−1 = A−1 BAA−1 y simplificando: BA−1 = A−1 B,
que es lo que querı́amos comprobar.

2.8.10. La producción de tres tipos de automóviles A, B y C requiere de tres procesos que


se realizan en tres máquinas I, II, III. El tiempo en horas para procesar cada automóvil en
cada una de las tres máquinas está dado por: AUTOMOVIL A: 3 h. en I, 2 h. en II, 2
h. en III. AUTOMOVIL B: 1 h. en I, 1 h. en II, 1 h. en III. AUTOMOVIL C: 2 h. en
I, 3 h. en II, a h. en III. Se dispone de la máquina I durante 1210 horas, de la II durante
1650 h. y de la III durante 880. Quremos saber cuantos automóviles de cada tipo deberı́an
producirse con objeto de emplear todo el tiempo disponible en las máquinas.
Solución. Hemos visto en la introducción de este capı́tulo que para responder a esta
pregunta debemos resolver el sistema lineal de ecuaciones:
    
3 1 2 x 1210
 2 1 3   y  =  1650  .
2 1 a z 880

La matriz ampliada Ab de este sistema de ecuaciones es


 
3 1 2 | 1210
Ab =  2 1 3 | 1650  .
2 1 a | 880

52
Aplicando la reducción de Gauss a esta matriz obtenemos
     
3 1 2 | 1210 3 1 2 | 1210 3 1 2 | 1210
2 1 3 | 1650 → 0   1 5 | 2530 → 0
  1 5 | 2530  .
2 1 a | 880 0 1 3a − 4 | 220 0 0 a−3 | −770
Observemos que si a = 3 entonces rank(A) = 2 < 3 =rank(Ab), por lo que el sistema no tiene
solución. Si la máquina III necesita 3 horas para producir un automóvil tipo C, entonces
es imposible hacer trabajar todas las máquinas el tiempo disponible. Si a 6= 3 entonces
rank(A) = 3 =rank(Ab), por lo que el sistema tiene una única solución que podemos obtener
despejando de abajo hacia arriba:
770 3850 770
z= , y = 2530 − , x= − 440.
3−a 3−a 3−a
Si a 6= 3 el problema tiene una única solución matemática. Ahora bien, la producción de
automóviles no puede ser negativa, por lo que debe ocurrir que x > 0, y > 0, z > 0, es decir,
deben ocurrir simultáneamente las tres desigualdades siguientes:
770 3850 770
> 0, 2530 − > 0, − 440 > 0,
3−a 3−a 3−a
o lo que es lo mismo, despejando a de cada una de las tres desigualdades:
a < 3, a < 1.478, a > 1.25.
Por tanto, debe ser 1.25 < a < 1.478. la máquina III debe emplear entre 1.25 y 1.478 horas
para producir un automóvil tipo C si queremos hacer trabajar todas las máquinas el tiempo
disponible. Podrı́amos hilar más fino todavı́a considereando que x, y, z deben ser números
naturales, pues no vamos a producir coches fraccionarios, pero no consideraremos esto aquı́.
2.8.11. Sea A la matriz cuadrada de tamaño n × n, n > 1, en la que todos sus elementos
valen 1. Comprobar que la matriz I − A tiene inversa de la forma I + aA y calcular a.
Solución. Si la inversa de la matriz I − A es I + aA, entonces su producto debe ser la
matriz identidad: (I − A)(I + aA) = I. Multiplicando los dos paréntesis (aplicando la
propiedad distributiva de la multiplicación respecto de la suma de matrices) tenemos que
I +aA−A−aA2 = I y simplificando: aA−A−aA2 = 0. Pero A no es una matriz cualquiera,
es la matriz n × n
1 1 ... 1
 
1 1 ... 1
A =  . . ... . 
 
. . ... .
 
1 1 ... 1
y
n n ... n
 
n n ... n
A2 = AA =  . . . . . .  = nA.
 
. . ... .
 
n n ... n
Por tanto 0 = aA − A − aA2 = aA − A − anA = (a − na − 1)A. La matriz A 6= 0, por lo que,
para que (a − na − 1)A = 0 tiene que ser a − na − 1 = 0, es decir, a = 1/(1 − n). Hemos
1
comprobado que la matriz I + 1−n A es la inversa de la matriz I − A.

53
2.10. Problemas propuestos
2.9.1. ¿ Cuáles de los siguientes subconjuntos de |R3 son subespacios de |R3 ?
a) El plano de vectores con primera componente x = 0.
b) El plano de vectores con segunda componente y = 0.
c) Todos los vectores (x, y, z) con xy = 0, es decir, la unión de dos subespacios: el plano
x = 0 y el plano y = 0.
d) El conjunto compuesto únicamente por el vector nulo: {(0, 0, 0)}.
e) Los vectores (x, y, z) tales que x − y + 3z = 0.
 
a b c
2.9.2. Probar que si cualquier elemento diagonal de A =  0 d e  es cero, sus filas son
0 0 f
vectores linealmente dependientes.

2.9.3. Encontrar un contraejemplo a la siguiente afirmación: si B = {v1 , v2 , v3 } es base


cualquiera de |R3 , y si W es un subespacio cualquiera de |R3 de dimensión mayor que 0,
entonces algunos de los vectores de B (uno, dos o los tres) es una base de W .

2.9.4. Hallar una base y la dimensión del subespacio de |R4 generado por el conjunto de
vectores {(2, 1, 4, 4), (−1, 3, −4, 3), (4, 2, −3, 3), (−3, 2, 3, 4)}.

2.9.5. Estudiar la existencia y unicidad de la solución del sistema Ax = b en función de los


parámetros a y c, donde:
   
1 1 0 1
A = 1 2 1 b = 2
0 1 a c

2.9.6. Comprobar que para toda matriz A, la matriz B = AAT es una matriz simétrica.

2.9.7. Sea A una matriz antisimétrica de tamaño m × m y B una matriz de tamaño m × n


¿Es antisimétrica la matriz B T AB?

2.9.8. Simplificar la expresión matricial A−1 (AB −1 + A)B − (B(AB)−1 A)−1 .

2.9.9. ¿Qué valores puede tomar el determinante de una matriz ortogonal?


¿Es ortogonal la matriz  
2 1 0
0 3 1 ?
0 0 2

2.9.10. Para producir 1 Kg. de patatas se necesitan 0,01 Kg. de abonos fosfatados y 0,02
Kg. de abonos nitrogenados. Para producir 1 Kg. de boniatos se precisan 0,03 Kg. de

54
abonos fosfatados y 0,04 Kg. de abonos nitrogenados. Por su parte, la producción de 1 Kg.
de pienso compuesto para cerdos utiliza 0,5 Kg. de patatas y 0,3 Kg. de boniatos, mientras
que en la elaboración de pienso compuesto para burros se necesitan 0,2 Kg. de patatas y 0,6
Kg. de boniatos. Mostrar en forma de matrices la relación-utilización de recursos en ambos
procesos y hallar la matriz que relacione la producción de pienso con la de abono.

2.9.11. Comprobar que si A es idempotente entonces la matriz B = I − A también lo es y


que las matrices A y B conmutan (además su producto es nulo).

2.9.12. Calcular el valor de los siguientes determinantes:


1 1 1 ··· 1
1 1 + a2 1 ··· 1
(a) 1 1 1 + a3 · · · 1
··· ··· ··· ··· ···
1 1 1 · · · 1 + an
n 1 1 ··· 1
n 2 1 ··· 1
(b) n 1 3 ··· 1
··· ··· ··· ··· ···
n 1 1 ··· n

2.9.13. Comprobar que el producto de dos matrices ortogonales es una matriz ortogonal.

2.9.14. Comprobar que si A es una matriz cuadrada nilpotente de ı́ndice 3, entonces


−1
(I − A) = I + A + A2 .

2.9.15. ¿Qué valores puede tomar el determinante de una matriz?


(a) idempotente.
(b) nilpotente de ı́ndice k.

2.9.16. Considerar el espacio R2 . Calcular la matriz de proyección P sobre el eje X.


Calcular todos los vectores R2 cuya proyección sobre el eje X es el vector (1, 0). Calcular
todos los vectores v de R2 cuya proyección sobre el eje X es el propio vector v.
 
0 0 0
2.9.17. Dada la matriz A =  2 0 0 : Comprobar que es nilpotente. De que ı́ndice?
1 1 0
Cuál de las siguientes matrices es la inversa de la matriz I + A: (i) I − A, (ii) I − A + A2 , (iii)
−I − A, (iv) I + A−1 ?. Calcular det(aA + AT ). ¿Para que valores de a existe (aA + AT )−1 ?

2.9.18. Sea A una matriz nilpotente de ı́ndice 3. Cuál de las siguientes matrices es la
inversa de la matrizI − A: (i)A − I, (ii) I + A + A2 , (iii) I + A, (iv) I − A−1 , (v) I + A−1 ?
0 0 0
Sea la matriz B = 2 0 0  y sea a un número real. Calcular det(aB + B T ). ¿Para que

1 1 0
valores de a existe (aB + B T )−1 ?

55
2.9.19. Determinar cuáles de los siguientes subconjuntos de R3 son subespacios vectoriales.
Para aquellos que lo sean, obtener una base y su dimensión. a) W1 = {(x, y, z), x2 +y 2 +z 2 =
1}. b) W2 = {(x, y, z), x + y + z = 1}. c) W3 = todos los vectores que son combinación lineal
de (1, 1, 1) y (1, 0, 1). d) W4 = todos los vectores que son combinación lineal de (1, 1, 1) y
(2, 2, 2).

2.9.20. Considerar el siguiente subespacio de |R3 : S :=< (2, 1, a), (1, 1, 1), (1, 0, 2) >, donde
a es un número real. Calcular la dimensión de S, una base y decir de que tipo de subespacio
se trata. Todo ello según los valores de a.
T
2.9.21. Encuentra una base de U , otra de V , otra de U + V y otra de U V :
a) U =< (1, 0, 1), (2, 1, 1) >, V =< (3, 1, 2), (0, 1, −1) >.
b) U =< (1, 1, 0), (1, −1, 0) >, V =< (1, 1, 1), (0, 0, 1) >.

2.9.22. Sean U =< x1 , x2 > y V =< y1 , y2 > tales que x1 , x2 ∈/ V y y1 , y2 ∈/ U . Es


T
cierto que U V = {0}? Si la respuesta es afirmativa, demostrarlo; si es negativa dar un
contraejemplo.

2.9.23. U es un subespacio vectorial si y solo si au + bv ∈ U ∀ u, v ∈ U y ∀ a, b ∈ |R. Ahora


bien, ¿es posible que u + v ∈ U sin que ni u ∈ U ni v ∈ U ? ¿Y es posible que au ∈ U con
a ∈ |R sin que u ∈ U ?

2.9.24. Prueba que si A y B son dos matrices m × n tales que Ax = Bx para todos
los vectores x ∈ |Rn , entonces A = B. ¿Es suficiente que Avk = Bvk para los vectores
{v1 , ..., vn } de una base de |Rn para llegar a la misma conclusión?

2.9.25. ¿Qué matrices A de tamaño 2 × 2 conmutan con todas las demás matrices B del
mismo tamaño, es decir, cumplen AB = BA? ¿Sabrı́as extender este resultado a matrices
cuadradas de cualquier tamaño?

Soluciones a los problemas propuestos


2.9.1. (a) Si. (b) Si. (c) No. (d) Si. (e) Si.
2.9.3. Tomar v1 , v2 , v3 la base canónica de |R3 y W = {(x, x, x); x ∈ |R}.
2.9.4. B = {(2, 1, 4, 4), (−1, 3, −4, 3), (4, 2, −3, 3)}, dimensión 3.
2.9.5. Incompatible si a = 1 y c 6= 1. Compatible indeterminado si a = 1 y c = 1.
Compatible determinado si a 6= 1.
2.9.7. Si. 2.9.8. B. 2.9.9. ±1. Esa matriz no es ortogonal.
   
0.01 0.03 0.5 0.2
2.9.10. Matrices de ambos procesos: , . La que relaciona
0.02 0.04 0.3 0.6
pienso con abono es el producto de ambas.
2.9.12. (a) a2 a3 · · · an (b) n!. 2.9.15. (a) 1 ó 0. (b) 0.

56
 
1 0
2.9.16. ; (1, y), y ∈ R; (x, 0), x ∈ R.
0 0
2.9.17. Indice 3; (ii); 2a(a + 1); Para a 6= 0, −1.
2.9.18. (ii); 2a(a + 1); Para a 6= 0, −1.
2.9.19. c) B3 = {(1, 1, 1), (1, 0, 1)}. Dim 2; d) B3 = {(1, 1, 1)}. Dim 1.
2.9.20. Si a 6= 3, S = R3 , dim 3, una base cualquiera de R3 . Si a = 3, S =<
(1, 1, 1), (1, 0, 2) >, dim 2, B = {(1, 1, 1), (1, 0, 2)}.
T
2.9.21. a) Observar que U = V =⇒ U + V = U , U V = U . a) BU = {(1, 0, 1), (2, 1, 1)};
BV = BU ; BU +V = BU ; BU T V = BU .

b) BU = {(1, 1, 0), (1, −1, 0)}; BV = {(1, 1, 1), (0, 0, 1)}; U +V = R3 , U V =< (1, 1, 0) >
T

=⇒ BU +V = {(1, 0, 0), (0, 1, 0), (0, 0, 1)}; BU T V = {(1, 1, 0)}.

2.9.22. No, contraejemplo: U =< (1, 0, 0), (0, 1, 0) > (plano XY), V =< (0, 0, 1), (1, 0, 1) >
T
(plano XZ). U V = eje X.
2.9.23. Si. No.
2.9.25. Diagonales.

57
CAPITULO 3. PRODUCTO ESCALAR
En el capı́tulo anterior hemos introducido el concepto de vector y dos formas de operar
con ellos: sumarlos y multiplicarlos por números reales. El objetivo de este capı́tulo es
introducir una noción de ángulo entre dos vectores de |Rn y de longitud de los mismos. Para
ello previamente, en la Seccion 3.1, introduciremos una nueva operación entre vectores: el
producto escalar. Ayudados de estos conceptos, en la Sección 3.2 introduciremos un poco
de geometrı́a en |Rn y, en particular, en las bases de |Rn en la Sección 3.3. En la Sección 3.4
utilizaremos el producto escalar para inferir modelos ecónomicos a partir de datos empı́ricos
utilizando lo que se conoce con el nombre de ajuste por mı́nimos cuadrados.

Supongamos que un cierto modelo de deformaciones nos dice que la deformación y de


una barra es una función lineal de la carga x, es decir, y = ax + b, donde a y b son ciertos
números no fijados por el modelo y que deseamos determinar. Para ello contamos con que
la experimentación nos proporciona los siguientes datos: si la carga es x = 1 entonces la
deformación es y = 1, si la carga es x = 2 entonces la deformación es y = 3, si la carga
es x = 3 entonces la deformación es y = 3. Se trata entonces de, utilizando estos datos,
encontrar cuales son los valores de a y b que hacen que la teorı́a sea lo más realista posible.
Lo veremos en la Sección 3.5.

3.1. Producto escalar, longitud de un


vector y ortogonalidad
El producto escalar de dos vectores es simplemente su producto como matrices que ya
hemos visto en el capı́tulo anterior:

Definición 3.1. Dados dos vectores xT = (x1 , x2 , ..., xn ) e yT = (y1 , y2 , ..., yn ) de |Rn ,
definimos el producto escalar de los vectores x e y como el producto matricial xT · y, que
resulta ser el siguiente número real:

58
y1
 
 y2 
 . 
 
xT · y := (x1 , x2 , ..., xn ) ·   = x1 y1 + x2 y2 + ... + xn yn .
 . 
.
 
yn

Es decir, el producto escalar · es una aplicación de |Rn × |Rn en |R que asigna a cada pareja
de vectores de |Rn el número real obtenido al multiplicar las componentes de esos vectores
entre sı́ y sumarlas.
El concepto de producto escalar nos permite definir inmediatamente el concepto de lon-
gitud de un vector cualquiera de |Rn . Observemos el siguiente ejemplo en dos dimensiones,
en |R2 dado en la Figura 3.1(a).
p
Por el teorema de Pitágoras sabemos que la longitud del vector x es x21 + x22 . Observe-
mos que precisamente xT · x = x21 + x22 . Por tanto, la longitud de x es justamente la raı́z
cuadrada del producto escalar del vector x por sı́ mismo. Podemos extender esta idea de
|R2 a |Rn :

Definición 3.2. Llamaremos longitud, norma o módulo de un vector xT = (x1 , x2 , ..., xn )


de |Rn y la denotaremos |x| a la raı́z cuadrada del producto escalar de x por sı́ mismo:

√ q
|x| := xT · x = x21 + x22 + ... + x2n .

Definición 3.3. La distancia entre dos vectores x e y se define entonces como la norma del
vector x − y.
El producto escalar de los dos vectores uT = (x1 , y1 ) y vT = (x2 , y2 ) de la Figura 3.1(b)
es uT · v = x1 x2 + y1 y2 . Observemos que, utilizando las relaciones trigonométricas conocidas
dentro de un triángulo rectángulo tenemos que:

x1 = |u| cos α, y1 = |u| sin α, x2 = |v| cos β, y2 = |v| sin β.

Por tanto, el producto escalar de los vectores u y v es

uT · v = |u| cos α|v| cos β + |u| sin α|v| sin β = |u||v|(cos α cos β + sin α sin β).

Y utilizando la propiedad cos α cos β + sin α sin β = cos(β − α) = cos θ tenemos que

uT · v = |u||v| cos θ. (3)

Es decir, el producto escalar de dos vectores de |R2 es igual al producto de sus normas por
el coseno del ángulo que forman. Esta propiedad es también cierta en cualquier |Rn , aunque
no lo demostraremos.

59
y y
y2 v
v
β−α=θ u
2
y1
+x
2
x2 x1
2
x2
β
x α x
x1 x2 x1
(a) (b)
Figura 3.1. (a) Longitud del vector v = (x1 , x2 ) de |R2 . (b) Producto escalar de los vectores
u = (x1 , y1 ) y v = (x2 , y2 ) de |R2 .
Algunas propiedades del producto escalar y de la norma son las siguientes:
Propiedad 1 (conmutativa). xT · y = yT · x ∀ x, y ∈ |Rn .
Propiedad 2. (a · x)T · y = a(xT · y) ∀ x, y ∈ |Rn , a ∈ |R.
Propiedad 3 (distributiva). xT · (y + z) = xT · y + xT · z ∀ x, y, z ∈ |Rn .
Propiedad 4. xT · x = 0 ⇐⇒ x = 0. Es decir, |x| = 0 ⇐⇒ x = 0.
Propiedad 5. Si x e y son no nulos, entonces xT · y = 0 ⇐⇒ forman 90o . Se dice que
x e y son ortogonales.
Propiedad 6. |ax| = |a||x| ∀ x ∈ |Rn , a ∈ |R.
Propiedad 7 (desigualdad triangular). |x + y| ≤ |x| + |y| ∀ x, y ∈ |Rn . Ver la Figura
3.2(a).
El concepto de producto escalar y norma de un vector nos permite definir un tipo especial
de bases en |Rn por su sencillez y utilidad:
Definición 3.4. Una base {u1 , u2 , ..., un } de |Rn se dice ortogonal si sus vectores son
ortogonales dos a dos, es decir, ui T · uj = 0 ∀ i 6= j.
Ejemplo 3.5. La base {(2, 0), (0, 3)} de |R2 es ortogonal.
Definición 3.6. Una base {u1 , u2 , ..., un } de |Rn se dice ortonormal si, además de ser
ortogonal sus vectores tienen norma unidad: |ui | = 1 ∀ i.
Ejemplo 3.7. La base canónica de cualquier |Rn es ortonormal.

60
y u

x+y

x θ
v Pu
v
r
(a) (b)
Figura 3.2. (a) La desigualdad triangular en |R2 . (b) El vector Pv u es la ”sombra” al mediodia del
vector u.

3.2. Proyección ortogonal


Se trata de ”calcular la sombra que produce un vector sobre una recta” (ver la Figura
3.2(b)). Para ello cojamos un vector v de la recta de longitud 1, es decir, vT · v = 1.
Multipliquemos ahora el vector v por sı́ mismo pero en el orden contrario al del producto
escalar, es decir, en vez de vT · v (que es el producto de una matriz 1 × n por otra n × 1 que
da una matriz 1×1, un número), multipliquemos v por vT . Entonces estamos multiplicando
una matriz n × 1 por otra 1 × n que da una matriz n × n. Y llamemos P a esa matriz:
P = v · vT .
Ejemplo 3.8. En |R2 , cojamos la recta {(x, 0); x ∈ |R}, es decir, el eje X. En esta recta, un
vector v de longitud 1 es el vector vT = (1, 0). Entonces
   
T 1 1 0
P =v·v = · (1, 0) = .
0 0 0

Observemos que esta matriz satisface que P T = P (es simétrica) y también que P 2 = P
(es idempotente). Supongamos que queremos proyectar el vector uT = (2, 2) sobre el eje X.
Es evidente por el dibujo que esa
 proyeccion,
 su sombra sobre el eje X es el vector (2, 0).
2
Pues bien, precisamente P u = . Es decir, para calcular la proyección del vector u
0
sobre el eje X, simplemente multiplicamos la matriz P por el vector u. Por este motivo, a
la matriz P se la llama matriz de proyección sobre el eje X.
Definición 3.9. En general, a cualquier matriz simétrica e idempotente se la llama matriz
de proyección.
Hemos visto que la matriz P del ejemplo anterior es una matriz de proyección. Esa
matriz la hemos obtenido cogiendo un vector v de longitud 1 y multiplicando v · vT . Pues
bien, cualquier matriz que construyamos de este modo es una matriz de proyección:

61
1. P = v · vT es simétrica, P T = (v · vT )T = (vT )T · vT = v · vT = P .
2. P = v · vT es idempotente, P 2 = (v · vT )(v · vT ) = v · (vT · v) · vT = v · (1)vT =
v · vT = P .
Y cualquier matriz de la forma P = v · vT , con v vector de longitud 1, es una matriz
que proyecta sobre la recta en la que esta contenido el vector v.
Ejemplo 3.10. En |R3 , cojamos la recta {(x, x, 0); x ∈ |R}, es decir, una recta√bisectriz del
plano XY. En esta recta, un vector v de longitud 1 es el vector vT = (1, 1, 0)/ 2. Entonces
   
1 1 1 0
1 1
P = v · vT =  1  · (1, 1, 0) =  1 1 0.
2 2
0 0 0 0

La proyección de, por ejemplo, el vector uT = (1, 1, 1) es


    
1 1 0 1 1
1
Pu = 1 1 01 = 1,
2
0 0 0 1 0

que coincide con nuestra idea de sombra de u sobre esa recta (ver Figura 3.3 (b)).

y
(2,2) z

u
Pu
s 2

45º x v1 v2

(1,0) (2,0) r

Pu
1
Pu
(a) (b)
Figura 3.3. (a) Proyección ortogonal del vector (2, 2) sobre el eje X . (b) Proyección ortogonal del
vector u sobre el plano XY .

Al igual que hemos calculado proyecciones de vectores sobre rectas, podemos hacerlo
sobre planos; la idea es la misma. En el ejemplo anterior, podrı́amos preguntarnos por
la proyección del vector u sobre el plano XY por ejemplo. El cálculo es similar al de la
proyección sobre una recta. Para ello cojamos una base ortonormal cualquiera del plano
{v1 , v2 } y construyamos la matriz P = v1 · v1 T + v2 · v2 T . Podemos comprobar que esta
también es una matriz de proyección:

62
1. P T = (v1 · v1 T + v2 · v2 T )T = (v1 · v1 T )T + (v2 · v2 T )T = v1 · v1 T + v2 · v2 T = P .
2. P 2 = (v1 · v1 T + v2 · v2 T ) · (v1 · v1 T + v2 · v2 T ) = (v1 · v1 T ) · (v1 · v1 T ) + (v1 ·
v1 T ) · (v2 · v2 T ) + (v2 · v2 T ) · (v1 · v1 T ) + (v2 · v2 T ) · (v2 · v2 T ) = v1 · (1)v1 T + v1 (0)v2 T +
v2 (0)v1 T + v2 · (1)v2 T = v1 · v1 T + v2 · v2 T = P .
Entonces, la proyección de cualquier vector u ∈ |Rn sobre un plano es P u, donde P =
v1 · v1 T + v2 · v2 T y {v1 , v2 } es una base ortonormal cualquiera del plano.
Ejemplo 3.11. En |R3 , cojamos el plano {(x, y, 0); x, y ∈ |R}, es decir, el plano XY. En este
plano, una base ortonormal puede ser por ejemplo v1 = (1, 0, 0) y v2 = (0, 1, 0). Entonces
     
1 0 1 0 0
P = v1 · v1 T + v2 · v2 T = 0 · (1, 0, 0) + 1 · (0, 1, 0) = 0 1
     0.
0 0 0 0 0

La proyección de, por ejemplo, el vector uT = (2, 3, 1) es


    
1 0 0 2 2
Pu = 0 1 03 = 3,
0 0 0 1 0

que coincide con nuestra idea de sombra de u sobre ese plano. Observemos en la Figura 3.4
que parece que el vector P u es el vector del plano cuya distancia al vector u es la menor
posible. Cualquier otro vector v del plano parece distar más de u. En efecto, esto es cierto
aunque no lo demostraremos.
Ejercicio 3.12. Sea {v1 , v2 } es una base ortonormal cualquiera de un plano en |Rn , P la
matriz de proyección sobre ese plano y u una vector cualquiera de |Rn . Demostrar que el
vector u − P u es ortogonal a los vectores v1 y v2 . Demostrar a continuación que el vector
u − Pu es ortogonal a cualquier vector del plano de proyección.
z

(2,3,1)

(0,1,0) y
(1,0,0)

x
(2,3,0)

Figura 3.4. Proyección ortogonal del vector (2, 3, 1) sobre el plano XY .


Podemos generalizar la proyección que acabamos de ver sobre una recta y sobre un plano
y definir la proyección de un vector u ∈ |Rn sobre un hiperplano de dimensión m ≤ n en |Rn .
Para ello previamente elegimos una base ortonormal {v1 , v2 , ..., , vm } del hiperplano. y la
matriz P de proyección sobre ese hiperplano:

63
P = v1 · v1 T + v2 · v2 T + ... + vm · vm T .

Entonces la proyección de u sobre el hiperplano es el vector P u. El vector P u es el vector


del hiperplano que más próximo está al vector u. La norma del vector u − P u es menor
que la norma del vector u − v para cualquier vector v del hiperplano. El vector u − P u es
ortogonal a cualquier vector del hiperplano.
Ejercicio 3.13. Demostrar que el vector u − P u es ortogonal a todos los vectores vi .
Demostrar a continuación que el vector u−P u es ortogonal a cualquier vector del hiperplano
definido por {v1 , v2 , ..., , vm }.

3.3. Problema de mı́nimos cuadrados


e inferencia de modelos
Estamos ahora en condiciones de resolver el tipo de problemas que nos planteamos al
principio del capı́tulo. Comencemos resolviendo ese problema concreto formulado de un
modo un poco más general: Dados una serie de puntos en el plano, queremos encontrar
la recta que pasa lo más próxima posible por esos puntos. Observar que los tres puntos
(x1 , y1 ) = (1, 1), (x2 , y2 ) = (2, 3), (x3 , y3 ) = (3, 3) mencionados en ese problema, donde xi
son demandas e yi son precios, son puntos de |R2 y los hemos representado en la Figura 3.5.
Recordemos que nuestra teorı́a dice que la deformación y es una función de la carga x de
la forma y = ax + b, donde a y b son dos números de momento desconocidos. Es decir,
la gráfica de y(x) es una recta de pendiente a y que pasa por el punto (0, b). Se trata de
encontrar la recta que ”mejor pasa” por los tres puntos indicados. Pero esa recta queda
determinada por los valores de a y b. Por tanto se trata de encontrar los valores de a y b
que hacen que la recta y = ax + b pase lo más cerca posible de esos tres puntos. Al no estar
alineados esos tres puntos (en este ejemplo), no existe ninguna recta que pase exactamente
por los tres puntos, pero que pasa lo más cerca posible y es la dibujada en la Figura.
Para que la recta pasara por los tres puntos tendrı́a que ocurrir que los tres puntos
satisfacieran la ecuación de la recta, es decir:

 ax1 + b =y1

ax2 + b =y2

ax3 + b =y3

Es un sistema de tres ecuaciones con dos incógnitas a y b (x1 , y1 ,..., son números conoci-
dos). Podemos escribir el sistema en la forma matricial AX = B, donde A es la matriz de
coeficientes, X el vector de incógnitas y B el vector de términos independientes:
   
x1 1   y1
a
A = x2 1 ,
  X= , B = y2  .

b
x3 1 y3

64
Este sistema no tiene solución (rango de la matriz de coeficientes A 6= rango de la matriz
ampliada AB) salvo si los tres puntos estuvieran alineados (que no es el caso de la Figura
2b). No existe en este ejemplo (ni en general) solución X del sistema AX = B.

y
y3 (x3,y3 )
(x2,y2 )
y2 y=ax+b

y1 (x1,y1 )
x
x1 x2 x3

Figura 3.5. De entre todas las rectas del plano, la recta indicada en la Figura es la que ”mejor pasa”
por los tres puntos indicados.

Pero existe una solución aproximada, un vector X que satisface aproximadamente el


sistema AX = B en el sentido antes indicado, es decir, una recta (dada por X) que mejor
pasa por los puntos de la Figura. Se obtiene del siguiente modo: que la recta pase lo
más cerca posible de esos tres puntos significa que el sistema anterior se satisfaga lo mejor
posible. Dicho de una manera más precisa, ocurre que el vector AX es distinto del vector
B, AX − B 6= 0, pero busquemos X para que el vector
   
ax1 + b − y1 y(x1 ) − y1
R = AX − B =  ax2 + b − y2  =  y(x2 ) − y2 
ax3 + b − y3 y(x3 ) − y3

sea lo más pequeño posible. Más pequeño posible significa que sea lo más corto posible, es
decir, que su longitud sea lo más pequeña posible. Buscando por tanto el vector X ∈ |R2 que
haga que el vector R = AX − B sea lo más corto posible. El vector B, al igual que el vector
AX y el vector R son vectores de |R3 . Al variar el vector X, varı́a obviamente el vector AX.
Si cogemos todos los vectores X ∈ |R2 y calculamos todos los vectores AX obtendremos un
plano en |R3 (Figura 3.6):
         
x1 1   x1 1 x1 1
a
AX =  x2 1 = a  x2  + b  1  =<  x2  ,  1  >⊂ |R3 ,
b
x3 1 x3 1 x3 1

el plano generado por los vectores (x1 , x2 , x3 ) y (1, 1, 1), siempre que sean independientes.
Distintos vectores X suponen distintos vectores AX en ese plano, que están situados a
distintas distancias |R| = |AX−B| del vector B. El vector AX situado a menor distancia de
B es justamente ”la sombra” del vector B sobre el plano, es decir, la proyección de B sobre
el plano. Y como podemos observar en la figura (y hemos deducido en el Ejercicio 3.10), si

65
AX es la proyección de B sobre el plano, entonces debe ocurrir que el vector R = AX − B
debe ser ortogonal al vector AX y por tanto:

0 = (AX)T · (AX − B) = XT AT AX − XT AT B = XT (AT AX − AT B).

La ecuación anterior se satisface si

AT AX = AT B (4)

B
R2
Ax 2
R
R1

Ax1 Ax

Figura 3.6. Los vectores AX1 y AX2 del plano distan del vector B más que el vector AX, que es
justamente la sombra de B sobre el plano. Los vectores R1 = AX1 − B y R2 = AX2 − B son más
largos que el vector R = AX − B.

Ası́ pues, aunque el sistema de ecuaciones AX = B no tenga solución, si el sistema


A AX = AT B tiene solución, entonces el X solución de este segundo sistema es la solución
T

más aproximada del primero. En general, la matriz de coeficientes A del primer sistema
tiene más filas que columnas (más ecuaciones que incógnitas) y el sistema AX = B no
tiene solución. Pero la matriz de coeficientes AT A del sistema (4) siempre es cuadrada
(mismo número de ecuaciones que de incógnitas), por lo que el segundo sistema tiene más
posibilidades de tener solución. Una solución XT = (a, b) del segundo sistema es lo que
andamos buscando: los valores de a y b que puestos en la ecuación y = ax + b nos da la
recta que mejor pasa por esos puntos. Si la matriz AT A es inversible (rango máximo), el
segundo sistema tiene solución única que podemos despejar:

X = (AT A)−1 AT B. (5)

Ejemplo 3.14. Supongamos que en la Figura 3.5 tenemos que (x1 , y1 ) = (1, 1), (x2 , y2 ) =
(2, 3), (x3 , y3 ) = (3, 3). Entonces
   
1 1 1
A= 2
 1, B = 3.

3 1 3

66
Por lo que
 
     1  
a T −1 T 1/2 −1 1 2 3 1
X= = (A A) A B = 3 = .
b −1 7/3 1 1 1 1/3
3

Por tanto a = 1, b = 1/3 y entonces la recta en cuestión es y = x + 1/3.

3.4. Construcción de bases ortogonales


Las bases ortonormales en cualquier |Rn son muy útiles dada su sencillez y buenas
propiedades. En esta sección vamos a ver dos modos de construir una base ortonormal
U = {u1 , u2 , ..., un } a partir de un vector o de una base no ortonomal.

3.4.1. Partiendo de un único vector

Explicaremos el procedimiento con un ejemplo concreto en |R3 . Su generalización a


cualquier |Rn es inmediata. Supongamos que queremos construir una base ortonormal
{u1 , u2 , u3 } de |R3 que contenga un vector proporcional al vector v1 T = (1, 2, −5). También
podrı́amos haber formulado el problema del siguiente modo equivalente: queremos construir
una base ortonormal de |R3 que contenga un vector de la recta 10x = 5y = −2z (ejercicio:
convencerse de esta afirmación).
Comenzaremos primero por construir una base {v1 , v2 , v3 } ortogonal que contiene al
vector v1 T = (1, 2, −5). Buscamos ahora un vector v2 T = (a, b, c) ortogonal a v1 . Para ser
ortogonal debe cumplir que v1 T · v2 = 0, es decir:
 
a
(1, 2, −5) · b  = a + 2b − 5c = 0.

c
La ecuación a + 2b − 5c = 0 es un sistema lineal de una única ecuación y tres incógnitas con
infinidad de soluciones. Tomemos una solución, por ejemplo a = −2, b = 1, c = 0. Entonces
v2 T = (−2, 1, 0).
Ahora buscamos un vector v3 T = (d, e, f ) ortogonal tanto a v1 como a v2 . Por tanto
debe cumplir que v1 T · v3 = 0 y que v2 T · v3 = 0, es decir:
   
d d
(1, 2, −5) ·  e  = d + 2e − 5f = 0 y (−2, 1, 0) ·  e  = −2d + e = 0.
f f
Tenemos ahora un sistema de dos ecuaciones lineales y tres incógnitas con infinidad de
soluciones. Tomemos una solución, por ejemplo d = 1, e = 2, f = 1. Entonces v3 T =
(1, 2, 1).

67
Una vez tenemos una base ortogonal {v1 , v2 , v3 }, simplemente tenemos que dividir v1 ,
v2 y v3 por sus longitudes y tendremos la baser ortonormal {u1 , u2 , u3 } deseada:
√ √ √
|v1 | = 30, |v2 | = 5, |v3 | = 6,

1 1 1
u1 T = √ (1, 2, −5), u2 T = √ (−2, 1, 0), u3 T = √ (1, 2, 1).
30 5 6

3.4.2. Partiendo de una base. Método de Gram-Schmidt

En este apartado vamos a ver cómo cualquier base V = {v1 , v2 , ..., vn } de |Rn se puede
transformar en una base ortonormal U = {u1 , u2 , ..., un } mediante lo que se conoce como
método de Gram-Schmidt. Un ejemplo en |R2 está representado en la Figura 3.7.

w2
v2 w2

u2

Pv2
u1 v1 =w1

Figura 3.7. El método de Gram-Schmidt en |R2 .

Para conseguir U a partir de V , primero conseguiremos una base ortogonal W y luego


U . El esquema será el siguiente:

V = {v1 , v2 , ..., vn } → W = {w1 , w2 , ..., wn } → U = {u1 , u2 , ..., un }.

Y lo haremos vector a vector, es decir primero construiremos v1 → w1 → u1 , luego v2 →


w2 → u2 , etc. Del siguiente modo:
w1
(1) v1 → w1 = v1 → u1 = |w1 | .

De este modo conseguimos un vector u1 de longitud 1 en la misma dirección que v1 .


A continuación, conseguiremos un vector w2 ortogonal a u1 cogiendo v2 y restándole su
proyección sobre v1 (ver Figura 3.7). Luego dividimos w2 por su longitud y ya tenemos el
vector u2 ortogonal a u1 y de longitud 1:
w2
(2) v2 → w2 = v2 − u1 · u1 T · v2 → u2 = |w2 | .

A continuación, conseguiremos un vector w3 ortogonal a u1 y u2 cogiendo v3 y restándole


su proyección sobre u1 y u2 . Luego dividimos w3 por su longitud y ya tenemos el vector
u3 ortogonal a u1 y u2 y de longitud 1:

68
w3
(3) v3 → w3 = v3 − u1 · u1 T · v3 − u2 · u2 T · v3 → u3 = |w3 | .

Y ası́ sucesivamente, a cada vector vn le quitamos su proyección sobre los u1 , u2 , ...,un−1


anteriores con lo que conseguimos un vector wn ortogonal a esos u1 , u2 , ...,un−1 . Y luego
conseguimos un dividiendo wn por su longitud:
wn
(n) vn → wn = vn − u1 · u1 T · vn − u2 · u2 T · vn − ... − un−1 · un−1 T · vn → un = |wn | .

Podemos reescribir las ecuaciones (1)-(n) anteriores de la siguiente manera:

v1 =|w1 |u1
v2 =|w2 |u2 + u1 · u1 T · v2
v3 =|w3 |u3 + u1 · u1 T · v3 + u2 · u2 T · v3
. =...
. =...
vn =|wn |un + u1 · u1 T · vn + u2 · u2 T · vn + ... + un−1 · un−1 T · vn

Podemos reescribir estas igualdades de una forma compacta en forma matricial:


| | | | | | |w1 | u1 T · v2 ... u1 T · vn
    
 | | |   | | |  0 |w2 | ... u2 T · vn 
 v1 | v2 | ... | vn  =  u1 | u2 | ... | un   0 0 ... u3 T · vn  .
    
| | | | | | . . ... .
    
| | | | | | 0 0 ... |wn |
Llamemos A a la primera matriz, P a la segunda y R a la tercera. Entonces tenemos que
A = P R, donde R es triangular superior. Pero más aún:
u1 T
 
− − − − − − −
| | |

T
u2
 
| | |
 
− − − − − − −
  
PTP =   u1 | u2 | ... | un  =
  
.
| | |
  
.
 
| | |
 
−−−−−−−
 
un T
1 0 0 ... 0
 
 T T T
u1 · u1 u1 · u2 ... u1 · un

0 1 0 ... 0
 u2 T · u1 u2 T · u2 ... u2 T · un
 = 0 0 1 ... 0.
  
. . . ... .

. . . ... .
 
un T · u1 un T · u2 ... un T · un
0 0 0 ... 1

Es decir, P T P = P P T = I y por tanto P es ortogonal. Como acabamos de ver, toda matriz


cuyas columnas son una base ortonormal de |Rn es una matriz ortogonal. Lo contrario
también es cierto.
Y como las columnas de la matriz A son también una base (aunque no ortonormal, son la
base V ) de |Rn , la matriz A tiene rango n y por tanto es inversible. Entonces, podemos leer la

69
igualdad A = P R como: ”toda matriz A inversible puede descomponerse como el producto
de una matriz ortogonal P por otra triangular superior R”. No resulta sencillo recordar
la forma de la matriz R, por lo que la forma más sencilla de calcular R es simplemente
R = P T A.
Ejemplo 3.15. Queremos escribir la matriz
 
1 1
A=
1 2

en la forma A = P R con P ortogonal y R triangular superior. Los vectores v son las


columnas de A:    
1 1
v1 = v2 =
1 2
A partir de ellos construimos los vectores u:
   
1 w1 1 1
v1 → w1 = v1 = → u1 = =√ ,
1 |w1 | 2 1
        
T 1 1 1 1 1 −1/2
v2 → w2 = v2 − v1 · v1 · v2 = − √ (1, 1) · √ = →
2 2 2 1 2 1/2
 
w2 1 −1
u2 = =√ .
|w2 | 2 1
Entonces las columnas de la matriz P son los vectores u:
 √ √ 
1/√2 −1/√ 2
P =
1/ 2 1/ 2

y la matriz R simplemente:
√ √ 
T 2 3/√2
R=P A= .
0 1/ 2

70
3.5. Problemas resueltos
3.5.1. ¿Es la base de |R3 B1 = {(1, 0, 1), (1, 1, −1), (−1, 2, 1)} una base ortogonal?. ¿Y la
base B2 = {(1, 1, 1), (1, 2, 1), (0, 1, 1)}?. Si no lo son, aplicar el proceso de Gram-Schmidt
hasta obtener una base ortonormal.
Solución. Tenemos que
     
1 −1 −1
(1, 0, 1) ·  1  = 0, (1, 0, 1) ·  2  = 0, (1, 1, −1) ·  2  = 0.
−1 1 1

Por tanto B1 es una base ortogonal (aunque no ortonormal). No ocurre ası́ con B2 , que no
es ortogonal (y por tanto tampoco ortonormal). Le aplicamos el proceso de Gram-Schmidt
a B2 . Llamemos v1 T = (1, 1, 1), v2 T = (1, 2, 1), v3 T = (0, 1, 1). Tomamos w1 = v1 y
u1 T = w1 T /|w1 = √13 (1, 1, 1). A continuación tomamos
       
1 1 −1/3 −1
4 w2 1
w2 = v2 − u1 · u1 T · v2 =  2  −  1  =  2/3  → u2 = = √  2 .
3 |w2 | 6 −1
1 1 −1/3

Finalmente
       
0 1 −1 −1/2
2 1
w3 = v3 − u1 · u1 T · v3 − u2 · u2 T · v3 =  1  −  1  −  2  =  0 
3 6
1 1 −1 1/2

−1
w3 1
→ u3 = = √  0 .
|w3 | 2 1

3.5.2. Comprobar que la longitud de Ax iguala a la longitud de AT x si AAT = AT A.


Solución. El cuadrado de la longitud de Ax es |Ax|2 = (Ax)T · (Ax) = xT AT Ax. El
cuadrado de la longitud de AT x es |AT x|2 = (AT x)T (AT x) = xT AAT x. Ambas cantidades
son iguales si AAT = AT A.

3.5.3. Calcular la proyección del vector bT = (1, 2, 3) sobre el plano S = {(x, y, z); x+y+z =
0}.
Solución. Necesitamos calcular la matriz P de proyección de vectores de |R3 sobre el plano,
para lo cual necesitamos una base ortonormal {v1 , v2 } del plano. Calculemos primero una
base ortogonal del plano {w1 , w2 }. w1 T = (a, b, c) puede ser un vector cualquiera del
plano, por lo que cualquier vector (a, b, c) que cumpla a + b + c = 0 nos sirve, por ejemplo
w1 T = (1, −1, 0). w2 = (a0 , b0 , c0 ) puede ser cualquier otro vector del plano ortogonal a w2 ,

71
por lo que debe cumplir a0 + b0 + c0 = 0 y también 0 = w1 T · w2 = a0 − b0 . Una solución del
sistema lineal ( 0
a + b0 + c0 =0
a0 − b0 =0
es por ejemplo a0 = b0 = 1, c0 = −2, por lo que w2 = (1, 1, −2). La base ortonormal
{v1 , v2 } que √
necesitamos la conseguimos
√ simplemente
√ dividiendo√w1 y w2 por su longitud:
v1 T = w1 T / 2 = (1, −1, 0)/ 2 y v2 T = w2 T / 6 = (1, 1, −2)/ 6. Entonces la matriz P
de proyección es
     
1 1 2/3 −1/3 −1/3
1 1
P = v1 ·v1 T +v2 ·v2 T =  −1  (1, −1, 0)+  1  (1, 1, −2) =  −1/3 2/3 −1/3  .
2 6
0 −2 −1/3 −1/3 2/3

Y la proyección del vector b sobre el plano es


    
2/3 −1/3 1/3 1 −1
P b =  −1/3 2/3 1/3   2  =  0  ,
1/3 1/3 2/3 3 1

La diferencia entre el vector (1, 2, 3) y su proyección sobre el plano (−1, 0, 1) es el vector


(2, 2, 2). Observemos que este vector (2, 2, 2) es ortogonal a cualquier vector del plano, pues
 
x
(2, 2, 2) ·  y  = 2(x + y + z) = 0 si (x, y, z) ∈ S.
z

3.5.4. Demostrar que una matriz ortogonal que también es triangular superior debe ser
diagonal.
Solución. Una matriz de esas caracterı́sticas, por ser triangular superior, debe ser de la
forma
a11 a12 a13 ... a1n
 
 0 a22 a23 ... a2n 
 0 0 a33 ... a3n 
 
A= .
 . . . ... . 
. . . ... .
 
0 .0 0 ... ann
Y también, por ser ortogonal, sus columnas deben ser vectores ortogonales entre sı́ y de
longitud 1. En particular, por ser la primera columna un vector de longitud 1, debe ser
a11 = 1 ó a11 = −1. Por ser las dos primeras columnas vectores ortogonales debe ser
a11
 
 0 
 0 
 
(a12 , a22 , 0, .., 0) ·   = a11 a12 = 0 =⇒ a12 = 0.
 . 
.
 
0

72
Por ser la segunda columna un vector de longitud 1, debe ocurrir que a22 = 1 ó a22 = −1 y
por ser ortogonal la tercera columna a las dos primeras:

a11
 
 0 
 0 
 
(a13 , a23 , a33 , 0, .., 0) ·   = a11 a13 = 0 =⇒ a13 = 0,
 . 
.
 
0
0
 
 a22 
 0 
 
(a13 , a23 , a33 , 0, .., 0) ·   = a22 a23 = 0 =⇒ a23 = 0.
 . 
.
 
0

Y ası́ sucesivamente. Vemos que no sólo debe ser A diagonal, sino que además los elementos
de la diagonal deben ser 1 ó −1.

3.5.5. Calcular la ecuación de la parábola que mejor ajusta a los datos (−1, 2), (0, 1), (1, 2),
(2, 3).
Solución. La ecuación de una parábola en el plano es de la forma y = ax2 + bx + c. Por
tanto, debemos encontrar los números a, b y c que hacen que la parábola pase lo más próxima
posible a los puntos indicados. Para ello seguiremos los pasos del ejemplo de la sección 3.3.
Para que los cuatro puntos satisfacieran la ecuación de la parábola deberı́a ocurrir que:


 a − b + c =2

c =1




 a + b + c =2

4a + 2b + c =3

En forma matricial este sistema se escribe Ax = B, con

1 −1 1 2
     
a
0 0 1 1
A= , X = b,
 B =  .
1 1 1 2
c
4 2 1 3

De la formula (5) deducimos que


    
1/4 −1/4 −1/4 16 1/2
T −1 T
X = (A A) A B = −1/4
 9/20 3/20   6  =  −1/10  .
−1/4 3/20 11/20 8 13/10

Por lo tanto a = 1/2, b = −1/10, c = 13/10 y la parábola es y = 21 x2 − 1


10 x + 13
10 . En la
siguiente figura representamos los cuatro puntos y la parábola.

73
3
(2,3)
2.5
(-1,2) (1,2)
2

1.5

-1 -0.5 0.5 1 1.5 2


(0,1)

3.6. Problemas propuestos


3.6.1. ¿Qué parejas de vectores ortogonales entre sı́ hay entre los siguientes vectores?

v1 T = (1, 2, 2, −1), v2 T = (4, 0, 4, 0), v3 T = (1, −1, −1, −1).


 
0 1
3.6.2. Se la matriz A = . Comprobar que si x e y son dos vectores ortogonales de
1 0
|R2 , entonces los vectores Ax y Ay también son ortogonales.

3.6.3. Se A una matriz que satisface AT A = I. Comprobar que si x e y son dos vectores
ortogonales de |R2 , entonces los vectores Ax y Ay también son ortogonales.

3.6.4. Calcular la proyección del vector (1, −2, 1) sobre el plano x − y + z = 0.

3.6.5. Proyectar uT = (0, 3, 0) sobre cada uno de los vectores v1 T = (2/3, 2/3, −1/3) y
v2 T = (−1/3, 2/3, 2/3). Encontrar la proyección de u sobre el plano determinado por v1 y
v2 .

3.6.6. Aplicar el proceso de Gram-Schmidt a


     
0 0 1
a = 0, b = 1, c = 1.
1 1 1
Escribir el resultado en la forma A = P R.

3.6.7. Una barra de 10 m está inclinada siguiendo la dirección del vector (1, 1, 1). Es
mediodı́a y el sol se encuentra en la vertical. Utilizando la matriz de proyección, calcular la
longitud de la sombra de la barra y la posición del extremo de la misma.

74
3.6.8. Encontrar una base ortonormal del subespacio generado por

1 0 0
     
 −1   1   0 
v1 =  , v2 =  , v3 =  .
0 −1 1
0 0 −1

3.6.9. Calcular la ecuación de la parábola que mejor ajusta a los datos (−1, 3), (0, 2), (1, 3),
(2, 5).

3.6.10. Encontrar la proyección ortogonal del vector bT = (10, 10, 20, 20) sobre el espacio
generado por los vectores {(2, 1, 0, 0), (0, 0, −1, 3), (4, 2, 2, −6)}.

3.6.11. Obtener una base ortonormal a partir de los vectores (1, 0, 1), (2, 1, 0) y (0, 1, 2).
Dada la matriz  
1 2 0
A = 0 1 1,
1 0 2
encontrar una matriz ortogonal P y otra triangular superior R tal que A = P R.

3.6.12. El producto interior bruto u (en megaeuros) de un cierto paı́s depende del tiempo x
(medido en años) de la forma u = aebx , donde a y b son constantes desconocidas. Calcular
a y b si se sabe que el año 0 el PIB es 1 megaeuro, el año 1 el PIB es 2 megaeuros y el año
2 el PIB es 5 megaeuros.
Ayuda: En lugar de considerar la función u(x), considerar la función y(x) = log u =
log a + bx = c + bx con c = log a.

3.6.13. Considerar el espacio R3 . (a) Calcular la matriz de proyección P sobre el plano XY .


Calcular la proyección del vector (10, 5, 9) sobre el plano XY . Calcular todos los vectores
de R3 cuya proyección sobre el plano XY es el vector (1, 1, 0).

3.6.14. Dar una base ortonormal de R3 con uno de sus vectores contenido en la recta
x = y = z.

3.6.15. Considerar el espacio |R2 . Calcular la matriz de proyección P sobre el eje X.


Calcular todos los vectores de |R2 cuya proyección sobre el eje X es el vector (1, 0). Calcular
todos los vectores v de |R2 cuya proyección sobre el eje X es el propio vector v.

3.6.16. Dada una matriz ortogonal P de tamaño (2n) × (2n), llamemos S al subespacio de
|R2n generado por las n primeras columnas de P y T al subespacio de |R2n generado por las
n últimas columnas de P .
a) Demostrar que S y T son subespacios ortogonales, es decir, que xT · y = 0 ∀ x ∈ S y
∀ y ∈ T.
b) Calcular S S ⊥ .
T

75
3.6.17. Encontrar una base ortonormal de |R3 con dos vectores contenidos en el plano
x + y + z = 0.

3.6.18. Sea X un conjunto de vectores (no necesariamente un subespacio). Probar que el


conjunto de vectores ortogonales a todos los de S:

X ⊥ := {x ∈ |Rn ; x · w = 0 ∀ w ∈ X}

es un subespacio. Demostrar además que


(a) X ⊂ (X ⊥ )⊥ .
(b) Si U es un subespacio que contiene a X, entonces (X ⊥ )⊥ ⊂ U (es decir, (X ⊥ )⊥ es el
menor subespacio que contiene a X).
(c) (X ⊥ )⊥ = X si y solo si X es subespacio.

Soluciones a los problemas propuestos


3.6.1. v2 y v3 . 3.6.4. (−1/3, −2/3, −1/3).
3.6.5. Sobre v1 : 2(2, 2, −1)/3 y sobre v2 : 2(−1, 2, 2)/3. Sobre el plano: 2(1, 4, 1)/3.
     
0 0 1 0 0 1 1 1 1
3.6.6. A =  0 1 1, P = 0 1 0, R = 0 1 1.
1 1 1 1 0 0 0 0 1

3.6.7. Posicion (1, 1, 0). Longitud 2.
1 1 1
     
 −1   1   1 
3.6.8. u1 = √12  , u2 = √16  , u3 = √112  .
0 −2 1
0 0 −3
3.6.9. x2 /2 − x/10 + 13/10. 2.6.10. (12, 6, −4, 12).
 √ √ √  √ √ √ 
1/ 2 1/√3 −1/√ 6 2 √2 2√
3.6.11. P =  0√ 1/ √3 2/√6  , R= 0 3 −1/p 3 .

1/ 2 −1/ 3 1/ 6 0 0 2 2/3
3.6.12. a = 0.963, b = 0.805.
 
1 0 0
3.6.13.  0 1 0 ; (10, 5, 0); (1, 1, z), z ∈ R.
0 0 0
√ √ √ √ √ √ √ √
3.6.14. {(1/ 3, 1/ 3, 1/ 3), (1/ 2, −1/ 2, 0), (1/ 6, 1/ 6, −2/ 6)}.
 
1 0
3.6.15. ; (1, y), y ∈ R; (x, 0), x ∈ R.
0 0
√ √ √ √ √ √ √ √
3.6.17. {(1/ 2, −1/ 2, 0), (1/ 6, 1/ 6, −2/ 6), (1/ 3, 1/ 3, 1/ 3)}.

76
CAPITULO 4. APLICACIONES LINEALES
En la mayorı́a de modelos fı́sicos, la solución de un problema es una función de varias
variables, generalmente no lineal, que nos da una magnitud fı́sica (valor de la función) en
función de otras (variables). En general, las teorı́as que dan estas funciones, las dan de
forma implı́cita como solución de un problema diferencial o de otro tipo, problema difı́cil o
imposible de resolver por ser, en general, no lineal. Pero estos modelos fı́sicos no lineales
pueden muchas veces aproximarse, en ciertos lı́mites de interés, por problemas lineales más
sencillos de resolver. Ası́, por ejemplo, la ecuación no lineal del péndulo puede aproximarse,
para oscilaciones pequeñas, por una ecuación lineal que se resuelve en términos de funciones
trigonométricas. Los modelos lineales pueden estudiarse con las herramientas del álgebra
lineal. En un modelo lineal, las variables independientes forman un vector de |Rn , la función
es otro vector de |Rm y la ley matemática que los relaciona es una matriz m × n. La relación
es muy simple: el y se obtiene multiplicando esa matriz por el x. Matemáticamente esto
significa que la matriz transforma vectores de |Rn en vectores de |Rm .
Por tanto, el objetivo de este capı́tulo es introducir una dinámica (movimiento) entre
espacios vectoriales |Rn : mandar los vectores de un |Rn a otro |Rm (o dicho de otro modo,
emparejar vectores de un |Rn con vectores de otro |Rm ) respetando unas ciertas reglas de
linealidad que explicamos en la sección 4.1. La manera práctica de llevar vectores de un |Rn
a otro |Rm se hará mediante matrices y lo explicaremos en la sección 4.2 y 4.3. No vamos
a introducir en este momento ningún ejemplo del problema que pretendemos resolver en
este capı́tulo pues estudiaremos diversos ejemplos interesantes con cierto detalle al final del
mismo, en las secciones de problemas propuestos, problemas resueltos y prácticas.

4.1. Concepto de aplicación lineal


Ejemplo 4.1. Cojamos el vector (1, 2, 3) de |R3 y multipliquémoslo (por la izquierda) por
la matriz 4 × 3:
2 0 1
 
 1 −1 0
A= .
0 1 2
1 −1 1
Obtenemos un vector de |R4 :
   5 
1
 −1 
A2 =  .
8
3
2
Podemos ver esta operación como la actuación de la matriz A sobre el vector (1, 2, 3). La
matriz A multiplica al vector (1, 2, 3) ∈ |R3 y lo convierte en el vector (5, −1, 8, 2) ∈ |R4 . Y esto
lo hace con cualquier vector de |R3 : tomemos todos los vectores de |R3 , que podemos escribirlos

77
como xT = (x, y, z) con x, y, z tomando todos los posibles valores reales. Multipliquémoslos
a todos ellos por la matriz A por la izquierda y obtendremos multitud de vectores de |R4 :
2 0 1   2x + z
   
x
 1 −1 0     x − y 
y = Ax =   y = . (6)
0 1 2 y + 2z
z
1 −1 1 x−y+z
Observemos que la matriz A ha convertido el vector (x, y, z) de |R3 en el vector (2x +
z, x − y, y + 2z, x − y + z) de |R4 , o podemos decir que la matriz A manda todo vector
(x, y, z) de |R3 a |R4 , más concretamente al vector (2x + z, x − y, y + 2z, x − y + z). Diremos
también que el vector (2x + z, x − y, y + 2z, x − y + z) es la imagen del vector (x, y, z)
por la matriz A y escribiremos f (x, y, z) = (2x + z, x − y, y + 2z, x − y + z). Observemos
que f (1, 0, 0) = (2, 1, 0, 1), f (0, 1, 0) = (0, −1, 1, −1) y f (0, 0, 1) = (1, 0, 2, 1), es decir, las
imágenes de los vectores de la base canónica de |R3 son las columnas de la matriz A.

R
2 f R
2

w2
v4
v2 w4
f
0

v1
w1
f
v3
f

Figura 4.1. Imagen gráfica de una aplicación f de |R2 a |R2 . w3 = 0.

Este ejemplo nos da pie a definir el concepto de aplicación lineal como una operación
que consiste en mandar vectores de un |Rn a otro |Rm (o dicho de otro modo, en emparejar
vectores de un |Rn con vectores de otro |Rm ) respetando ciertas reglas. Observar la Figura
4.1 en la que simbólicamente representamos una aplicación f que empareja vectores v de un
|R2 con vectores w de otro |R2 . Decimos que la imagen mediante f de v1 es w1 , la imagen
mediante f de v2 es w2 , etc. y escribimos f (v1 ) = w1 , f (v2 ) = w2 , etc.
Siguiendo con el ejemplo anterior f (x, y, z) = (2x + z, x − y, y + 2z, x − y + z) o, escrito de
otro modo, f (x) = y = Ax tal y como aparece en (6). Observemos los dos hechos siguientes:
1. Tomemos dos vectores cualesquiera (x, y, z) y (x0 , y 0 , z 0 ) de |R3 y el vector suma de
ambos (x + x0 , y + y 0 , z + z 0 ). Apliquémosle la matriz A a los tres vectores:
   2x + z   0   2x0 + z 0 
x x
 x−y   x0 − y 0 
Ay  =  ; A y0  =  0 ;
y + 2z 0

y + 2z

0
z z
x−y+z x0 − y 0 + z 0

78
2(x + x0 ) + (z + z 0 )
 
0
 
x+x
(x + x0 ) − (y + y 0 )
A  y + y0  =  .
 
0 0
0 (y + y ) + 2(z + z )
z+z
(x + x0 ) − (y + y 0 ) + (z + z 0 )
Observamos la importante propiedad de que
   0     0
x x x x
0 
A   y + y
  = A y + A y0  .
  
0
z z z z0

O escrito de otro modo, f ((x, y, z) + (x0 , y 0 , z 0 )) = f (x, y, z) + f (x0 , y 0 , z 0 ).


2. Tomemos un vector cualesquiera (x, y, z) de |R3 , un número real a cualquiera y el
vector que resulta al multiplicar a por (x, y, z): (ax, ay, az). Apliquémosle la matriz A a los
dos vectores:
   2x + z     a(2x + z) 
x ax
 x−y   a(x − y) 
A y =
  , A ay  = 
 .
y + 2z a(y + 2z)
z az
x−y+z a(x − y + z)

Observamos la importante propiedad de que


   
ax x
A ay = aA y  .
  
az z

O escrito de otro modo, f (ax, ay, az) = af (x, y, z).


A estas dos propiedades se las denomina propiedades de linealidad de la aplicación f o
de la matriz A. La aplicación f (x, y, z) = (2x + z, x − y, y + 2z, x − y + z) se llama aplicación
lineal por cumplir las propiedades 1 y 2.
Generalizando lo que hemos visto hasta ahora, una forma sencilla de emparejar vectores
de |Rn con vectores de |Rm es simplemente multiplicar los vectores de |Rn por una matriz m×n.
Cada matriz m×n (hay infinitas matrices) nos da un emparejamiento de TODOS los vectores
de |Rn con vectores de |Rm (quizá no todos). Además, cualquiera de estos emparejamientos
construidos mediante una matriz m × n cumple las propiedades 1 y 2 que acabamos de ver.
Podemos inventarnos infinidad de emparejamientos de vectores de |Rn con vectores de |Rm de
otro modo que no sea mediante una matriz, es decir, infinidad de aplicaciones entre |Rn y |Rm ,
pero no tienen por qué cumplir las propiedades 1 y 2. De hecho, las únicas aplicaciones entre
|Rn y |Rm que cumplen las propiedades 1 y 2 se construyen con matrices m × n como en el

ejemplo anterior. Antes de seguir adelante, precisemos el concepto intuitivo de ”aplicación”


que estamos usando:
Definición 4.2. Una aplicación entre dos conjuntos (origen e imagen) es una corresponden-
cia de elementos entre ambos (como el representado en la Figura 4.1) que empareja todos
los elementos del conjunto origen (salen flechas de todos los elementos del conjunto origen)

79
con algún elemento (quizá no todos) del conjunto imagen (quizá no llegan flechas a todos
los elementos del conjunto imagen). Cada elemento del conjunto origen únicamente puede
tener una imagen en el conjunto imagen (sólo sale una flecha de cada elemento). Puede
ocurrir sin embargo que elementos del conjunto imagen sean imagen de más de un elemento
del conjunto origen (puede llegar más de una flecha a cada elemento), o que haya elementos
del conjunto imagen a los que no les llega ninguna flecha.
En la Figura 4.1 faltarı́a por dibujar todos los vectores del |R2 de la izda (hay infinitos) y
emparejarlos con algun vector del |R2 de la dcha. (mandar una flecha de todos los vectores
de la izda. a algún vector quizá no a todos de la dcha.). Observar que cada vector de |R2
de la izda. únicamente tiene una imagen en el |R2 de la dcha. y algunos elementos del |R2 de
la dcha. son imagen de más de un elemento del |R2 de la izda.
Ya hemos visto un ejemplo de aplicación lineal entre |R3 y |R4 , dado por la matriz A 4 × 3
del ejemplo 4.1. Evidentemente, además de esa matriz A, cualquier otra matriz 4 × 3 nos
proporciona una aplicación lineal entre |R3 y |R4 y, como todas las matrices 4 × 3 se pueden
escribir
a11 a12 a13
 
 a21 a22 a23 
,
a31 a32 a33

a41 a42 a43
tenemos que todas las aplicaciones entre |R3 y |R4 dadas por matrices 4 × 3 son de la forma:

a11 a12 a13   a11 x + a12 y + a13 z


   
x
 a21 a22 a23     a21 x + a22 y + a23 z 
 y = .
a31 a32 a33 a31 x + a32 y + a33 z

z
a41 a42 a43 a41 x + a42 y + a43 z

Es decir, todas las aplicaciones f entre |R3 y |R4 dadas por una fórmula del tipo f (x, y, z) =
(a11 x+a12 y +a13 z, a21 x+a22 y +a23 z, a31 x+a32 y +a33 z, a41 x+a42 y +a43 z) son aplicaciones
lineales. En general, todas las aplicaciones f entre |Rn y |Rm dadas por una fórmula del
tipo f (x1 , x2 , ...) = (a11 x1 + a12 x2 + ..., a21 x1 + a22 x2 +, ...) son aplicaciones lineales, y
escribiremos f : |Rn → |Rm . Se puede demostrar fácilmente (aunque no lo haremos aquı́) que
toda aplicación lineal es de esta forma:

Cada componente del vector imagen es ”suma de componentes x, y,... del vector origen
multiplicadas por números”.

Observemos en el ejemplo anterior que las imágenes de los vectores de la base canónica
de |R3 son las columnas de A: f (1, 0, 0) = (a11 , a21 , a31 , a41 ), f (0, 1, 0) = (a12 , a22 , a32 , a42 ),
f (0, 0, 1) = (a13 , a23 , a33 , a43 ).
Ejemplo 4.3. La aplicación f : |R2 → |R3 dada por f (x, y) = (y, x, x + y) es una aplicación
lineal. Sin embargo, la aplicación g : |R2 → |R3 dada por g(x, y) = (xy, y, x) no es lineal por

80
no ser de la forma ”suma de componentes x, y,... multiplicadas por números”. La matriz A
que representa a f es
     
0 1 0 1   y
A = 1 0, pues 1 0 x =  x .
y
1 1 1 1 x+y

Sin embargo es imposible escribir (xy, y, x) como una matriz multiplicando a (x, y).

4.2. Núcleo e imagen


Toda aplicación lineal f : |Rn → |Rm define un subconjunto del |Rn de salida y un subcon-
junto del |Rm de llegada muy importantes llamados núcleo e imagen de f respectivamente:
Definición 4.4. Dada una aplicación lineal f : |Rn → |Rm , se define el núcleo de f y se
denota Ker(f ) como el subconjunto de vectores v del |Rn de salida cuya imagen es el vector
nulo del |Rm de llegada, es decir:

Ker(f ) := {v ∈ |Rn , f (v) = 0},

donde 0 es el vector nulo de |Rm : 0 = (0, 0, ..., 0) (m ceros).


Definición 4.5. Dada una aplicación lineal f : |Rn → |Rm , se define la imagen de f y se
denota Im(f ) como el subconjunto de vectores w del |Rm de llegada que son imagen de algún
vector v del |Rn de salida:

Im(f ) := {w ∈ |Rm , ∃ v ∈ |Rn , f (v) = w}.

Es decir, Im(f ) son los vectores de |Rm a los que llega alguna flecha.
Observemos la Figura 4.1. Si el |R2 de salida tuviera únicamente esos 4 vectores v1 , v2 ,
v3 , v4 y la aplicación f allı́ representada fuera lineal, entonces Ker(f ) = {v3 }. Si el |R2 de
llegada tuviera únicamente esos 4 vectores w1 , w2 , w3 , w4 , entonces Im(f ) = {w1 , w2 , w3 }.
Ejemplo 4.6. Sea la aplicación lineal f : |R3 → |R3 definida por f (x, y, z) = (x + y, y + z, z −
x). Su núcleo es el siguiente subespacio del |R3 de salida:

Ker(f ) = {(x, y, z) ∈ |R3 , (x + y, y + z, z − x) = (0, 0, 0)},

donde (0, 0, 0) es el vector nulo del |R3 de llegada. Por tanto, el núcleo son los vectores
(x, y, z) del |R3 de salida tales que
 
x + y = 0  y = −x
y+z =0 ⇒ z=x
z−x=0 x libre
 

81
Es decir, Ker(f ) es el siguiente subespacio de |R3 de dimensión 1:

Ker(f ) = {(x, −x, x); x ∈ |R} =< (1, −1, 1) > .

Ejemplo 4.7. Sea la aplicación lineal f : |R3 → |R2 definida por f (x, y, z) = (x, x). Podemos
escribir f (x, y, z) = x(1, 1), f manda a todos los vectores (x, y, z), con x, y, z recorriendo
todos los números reales, a todos los vectores de la forma x(1, 1). Por tanto, todos los
vectores f (x, y, z) de |R2 imagen por f de algún (x, y, z) de |R3 son proporcionales a (1, 1).
Es decir, cualquier vector de |R2 proporcional a (1, 1) (todas las combinaciones lineales del
(1, 1)) es imagen de algún vector de |R3 por f . Por ejemplo, (1, 1) es imagen de (1, 0, 0)
y también de (1, 1, 1), etc. Por tanto, la imagen de f es el siguiente subespacio del |R2 de
llegada de dimensión 1:

Im(f ) =< (1, 1) > .

Un modo sencillo de calcular Im(f ) consiste en generalizar lo que hemos visto en estos
ejemplos. Cualquier f : |Rn → |Rm lineal se representa mediante una matriz m × n:

a11 a12 ... a1n


 
 a21 a22 ... a2n 
 . . . . 
 
A= , (7)
 . . . . 
. . . .
 
am1 am2 ... amn

x1 x1 a11 x1 + a12 x2 + ... + a1n xn


     
 x2   x2   a21 x1 + a22 x2 + ... + a2n xn 
 .   .   .
     
f   = A  = 

.

     
. . .
     
xn xn am1 x1 + am2 x2 + ... + amn xn
a11 a12 a1n
     
 a21   a22   a2n 
 .   .   . 
     
= x1   + x2   + ... + xn  .
 .   .   . 
. . .
     
am1 am2 amn

Por tanto, las imágenes de todos los vectores (x1 , x2 , ..., xn ) de |Rn son todas las combina-
ciones lineales de los vectores columna de A, es decir:

82
Im(f ) =< v1 , v2 , ..., vn >, (8)

donde v1 , v2 , ..., vn son los vectores columna de A. Observemos que las columnas de A,
los vectores v1 , v2 , ..., vn , son precisamentes las imágenes de los vectores e1 , e2 , ..., en de la
base canónica de |Rn , vi = f (ei ):

f (e1 ) =f (1, 0, 0, ..., 0) = v1 T = (a11 , a21 , ..., am1 )





T

 f (e2 ) =f (0, 1, 0, ..., 0) = v2 = (a12 , a22 , ..., am2 )



..




 ..

f (en ) =f (0, 0, ..., 0, 1) = vn T = (a1n , a2n , ..., amn ).

Vemos en estos dos ejemplos que los subconjuntos Ker(f ) e Im(f ) no son subconjuntos
cualesquiera de |Rn y |Rm respectivamente, sino que tienen la importante cualidad de ser
subespacios (de |Rn y |Rm respectivamente). Este hecho ocurre no únicamente en estos dos
ejemplos, sino que ocurre en toda aplicación lineal y es una propiedad muy importante:
Propiedad 1. Para cualquier f : |Rn → |Rm lineal se tiene que Ker(f ) e Im(f ) son subespa-
cios de |Rn y |Rm respectivamente.
A continuación damos otras dos propiedades importantes y sencillas de cualquier aplicación
lineal f : |Rn → |Rm .
Propiedad 2. Siempre se tiene que f (0n ) = 0m , donde 0n es el vector nulo de |Rn y 0m el
vector nulo de |Rm .
Ejercicio 4.8. Comprobar esta propiedad.
Propiedad 3. Si f (v1 ) y f (v2 ) son vectores independientes de |Rm entonces v1 y v2 son
vectores independientes de |Rn .
Esto es ası́ puesto que si v1 y v2 fueran dependientes entonces serı́an proporcionales:
v1 = αv2 ⇒ v1 − αv2 = 0. Por tanto, usando el resultado anterior, 0 = f (v1 − αv2 ) =
f (v1 ) − αf (v2 ) y entonces f (v1 ) = αf (v2 ) (f (v1 ) y f (v2 ) son proporcionales). Pero esto
es una contradicción pues hemos supuesto que eran independientes.
Observemos que el recı́proco de la propiedad 3 no es cierto: Si v1 y v2 son vectores
independientes de |Rn , no implica que f (v1 ) y f (v2 ) sean vectores independientes de |Rm .
Tomemos por ejemplo la aplicación lineal f (x, y, z) = (0, x + 2y). Los vectores (1, 0, 0) y
(0, 1, 0) son vectores independientes de |R3 , pero sus imágenes f (1, 0, 0) = (0, 1) y f (0, 1, 0) =
(0, 2) no son vectores independientes de |R2 .
A continuación damos unas definiciones importantes que nos ayudan a visualizar un poco
las aplicaciones lineales.

83
Definición 4.9. Una aplicación lineal f : |Rn → |Rm se dice inyectiva cuando vectores
distintos u y v de |Rn tienen imágenes distintas en |Rm :

u 6= v ⇒ f (u) 6= f (v).

Definición 4.10. Una aplicación lineal f : |Rn → |Rm se dice suprayectiva cuando todos los
vectores de |Rm son imagen de algún vector de |Rn :

∀ v ∈ |Rm , ∃ u ∈ |Rn , f (u) = v.

(a) (b) (c)


Figura 4.2. (a) Aplicación inyectiva. Puede haber elementos del conjunto imagen que no son imagen
de ningún elemento del conjunto origen. (b) Aplicación suprayectiva. Puede haber elementos del
conjunto imagen que son imagen de más de un elemento del conjunto origen. (c) Aplicación biyectiva.
Cada elemento del conjunto imagen es imagen de uno y sólo un elemento del conjunto origen.

Definición 4.11. Una aplicación lineal f : |Rn → |Rm se dice biyectiva cuando es inyectiva
y suprayectiva a la vez.
La Figura 3.2 muestra una imagen gráfica del significado de estos conceptos. En esta
Figura se simbolizan dos espacios vectoriales |Rn y |Rm ambos con 3 o 4 elementos (es un
dibujo simbólico pues sabemos que cualquier |Rn tiene infinitos elementos).
Observemos que una aplicación lineal no tiene por qué ser forzosamente inyectiva o
suprayectiva, pudiendo no ser ni inyectiva ni suprayectiva (y por tanto tampoco biyectiva).
Ejercicio 4.12. Tratar de dibujar una aplicación biyectiva simbólica como la de la Figura
(c) entre dos conjuntos con 3 y 4 elementos respectivamente. Idem con 4 y 3 elementos.
¿Qué puedes concluir al respecto?
Ejemplo 4.13. La aplicación lineal f (x, y) = (−x, −y) (una inversión en |R2 ) es inyectiva y
suprayectiva (y por tanto biyectiva). Ver la Figura 4.3.
Ejemplo 4.14. La aplicación lineal f (x, y, z) = (0, x + 2y) no es inyectiva: por ejemplo,
el vector (0, 2) es imagen tanto del (2, 0, 0) como del (0, 1, 0). Ni tampoco suprayectiva: el
vector (1, 0) no es imagen de ningún vector.
A continuación damos un criterio sencillo para saber si una aplicación lineal es inyectiva
y otro para siguiente saber si es suprayectiva.
Sabemos que cualquier aplicación lineal f : |Rn → |Rm es de la forma f (x1 , x2 , ...) =
(a11 x1 + a12 x2 + ... + a1n xn , a21 x1 + a22 x2 + ... + a2n xn , ..., am1 x1 + am2 x2 + ... + amn xn ).
Y que por tanto puede escribirse como f (x) = Ax, donde A es la matriz m × n (7).

84
y
(x,y)

x
(-x,-y)

Figura 4.3. Cualquier vector (x, y) de |R2 es el opuesto de otro: (−x, −y) y por tanto f es
suprayectiva. Ningún vector (x, y) de |R2 es opuesto de dos vectores distintos y por tanto f es inyectiva.

Si la aplicación f es inyectiva significa que, para cualquier pareja de vectores x e y


distintos de |Rn , sus imágenes Ax y Ay (que son vectores de |Rm ), no pueden ser iguales:
Ax 6= Ay. Por tanto 0 6= Ax − Ay = A(x − y) (donde ese 0 es el vector nulo de |Rm ). Como
z = x−y 6= 0, concluimos que ningún vector no nulo de |Rn puede tener por imagen el vector
nulo de |Rm : Az 6= 0 ∀ z 6= 0. Es decir, si f inyectiva entonces el único vector z de |Rn cuya
imagen es el vector nulo de |Rm es el nulo de |Rn : z = 0 (recordar la Propiedad 2 anterior)
o, dicho de otro modo, que el único vector del núcleo es el vector nulo: Ker(f ) = {0n }.
Y viceversa, si el único vector z de |Rn cuya imagen es el vector nulo de |Rm es el nulo
de |Rn : z = 0 (Ker(f ) = {0n }), entonces f es inyectiva: la frase anterior dice que la única
solución del sistema de ecuaciones Az = 0 es z = 0. Si hubiera dos vectores x e y de |Rn
que tuvieran la misma imagen, tendrı́amos que Ax = Ay y por tanto A(x − y) = 0. Pero la
única solución del sistema de ecuaciones Az = 0 es z = 0 y por tanto x − y = 0 y entonces
x = y, no hay dos vectores distintos de |Rn que tengan la misma imagen, f es inyectiva.
Podemos concluir por tanto que:

f : |Rn → |Rm es inyectiva ⇔ Ker(f ) = {0n }.


Es decir, f es inyectiva si el núcleo tiene un único vector, el vector nulo. Por la Propiedad
2 sabemos que el núcleo tiene al menos el vector nulo. Pues bien, es inyectiva si no tiene
más vectores que ese. Es inyectiva cuando el único vector de |Rn que tiene por imagen el
vector nulo de |Rm es el nulo de |Rn . Cualquier otro vector de |Rn tiene por imagen un vector
no nulo en |Rm .
Determinar si f : |Rn → |Rm es suprayectiva es también bastante sencillo: suprayectiva
significa que todo vector de |Rm es imagen de algún vector de |Rn y por tanto todos los
vectores de |Rm están en el espacio imagen Im(f ). Entonces Im(f ) = |Rm . Basta calcular la
dimensión de Im(f ):

Si Dim(Im(f )) = m, f es suprayectiva y si Dim(Im(f )) < m, f no es suprayectiva.

Ejemplo 4.15. Tomemos la aplicación lineal f (x, y) = (−x, −y) del Ejemplo 4.7. Su
núcleo son todos los vectores (x, y) del |R2 de salida tales que (−x, −y) = (0, 0), es decir,

85
todos los vectores (x, y) tales que x = y = 0, o sea, sólo un vector, el vector (0, 0). Por tanto
Ker(f ) = {(0, 0)}, es inyectiva. Su imagen son todos los vectores del |R2 de llegada de la
forma (−x, −y) = x(−1, 0) + y(0, −1) con x e y cualquier número real. Por tanto son todas
las combinaciones lineales de (−1, 0) y (0, −1), es decir, Im(f ) =< (−1, 0), (0, −1) >, que
tiene dimensión 2 y es por tanto todo el |R2 de llegada: Im(f ) = |R2 , es suprayectiva.
Ejemplo 4.16. Sea f : |R2 → |R3 dada por f (x, y) = (x + y, x − y, 2x). Tomemos la
base canónica de |R2 . Sus imágenes son f (1, 0) = (1, 1, 2) y f (0, 1) = (1, −1, 0) y por tanto
Im(f ) =< (1, 1, 2), (1, −1, 0) >. De otro modo, f (x, y) = (x + y, x − y, 2x) = x(1, 1, 2) +
y(1, −1, 0) y por tanto, todas las imágenes f (x, y) de todos los (x, y) de |R2 son todas las
combinaciones lineales de las imágenes de la base canónica del |R2 de salida: f (1, 0) = (1, 1, 2)
y f (0, 1) = (1, −1, 0). Por tanto Dim(Im(f )) = 2 y f no es suprayectiva.
Observación 4.17. Dijimos que una aplicación lineal f : |Rn → |Rm es suprayectiva si
Dim(Im(f )) = m. Pero Im(f ) =< v1 , ..., vn >, es decir, Im(f ) es el subespacio generado
por las columnas de A. La dimensión de Im(f ) es el máximo número de vectores v1 , ..., vn
independientes, es decir, el máximo número de columnas de A independientes, o sea el rango
de A. Ası́ pues hemos concluido que

Dim(Im(f )) =rank(A) y que f es suprayectiva si y sólo si rank(A) = m. (I)


Observación 4.18. Sabemos que Ker(f ) = {v ∈ |Rn , f (v) = 0m } = {v ∈ |Rn , Av = 0m }.
Pero Av = 0m es un sistema lineal homogéneo donde A es la matriz de coeficientes y
vT = (x1 , ..., xn ) el vector de incógnitas. Sabemos que todo sistema lineal homogéneo tiene
al menos la solución nula (el núcleo de f contiene al menos al vector nulo). La solución es
única (el vector 0n ) si rank(A) = n (= al número de incógnitas). Hay infinidad de soluciones
(el núcleo contine infinitos vectores) si rank(A) < n. Por tanto hemos concluido que

Dim(Ker(f )) = n-rank(A) y que f es inyectiva si y sólo si rank(A) = n. (II)


Observación 4.19. El carácter inyectivo, suprayectivo o biyectivo de una aplicación lineal
f : |Rn → |Rm mide el ”tamaño relativo” de los espacios de salida |Rn y de llegada |Rm , es
decir, el valor relativo de sus dimensiones n y m:
(1) Si n > m entonces f no puede ser inyectiva, ”hay más vectores en |Rn que en |Rm ” y
varios vectores de |Rn tienen que tener la misma imagen en |Rm (no hay imágenes disponibles
para todos los vectores de |Rn ).
(2) Si n < m entonces f no puede ser suprayectiva, ”hay más vectores en |Rm que en |Rn ”
y no todos los vectores |Rn pueden tener imagen en |Rm (no hay orı́genes disponibles para
todos los vectores de |Rm ).
(3) Por tanto, para que f sea biyectiva es necesario que n = m, es decir, que los espacios
vectoriales origen e imagen sean el mismo. En este caso ”hay el mismo número de vectores”
en el espacio origen y en el espacio imagen y es posible hacer una correspondencia uno a
uno.

86
Sabemos que rank(A) ≤min{n, m} y por tanto f no puede ser biyectiva si n 6= m. Ası́
pues, para que f sea biyectiva es condición necesaria (no suficiente) que n = m.
Ejemplo 4.20. La aplicación lineal del ejemplo 4.14 no puede ser inyectiva pues el espacio
de salida ”es más grande” que el de llegada. El conjunto imagen es Im(f ) = {x(1, 0) +
y(1, 1) + z(0, 1); x, y, z ∈ |R} =< (1, 0), (1, 1), (0, 1) >=< (1, 0), (0, 1) >= |R2 y por tanto es
suprayectiva. Observemos que el rango de su matriz A es 2 = m < n, confirmando que es
suprayectiva pero no inyectiva.
Concluimos esta sección con un resultado importante, consecuencia inmediata de (I) y
(II), y que relaciona dimensiones y rangos. Para toda aplicación lineal f : |Rn → |Rm , se
tiene que
Dim(Ker(f )) + Dim(Im(f )) = n. (9)

4.3. Composición de aplicaciones


Cojamos una aplicación lineal f que lleva vectores de |Rn a |Rm y su matriz A que la
representa. Cojamos otra aplicación lineal g que lleva vectores de |Rm a |Rp y su matriz B
que la representa. Cogemos un vector v de |Rn , entonces f lo lleva a otro vector f (v) = Av
de |Rm y a continuación g coge ese vector Av de |Rm y lo lleva a otro vector g(Av) = BAv
de |Rp . Entonces,
Definición 4.21. Llamamos aplicación lineal compuesta de f y de g y la denotamos por
g ◦ f a la aplicación lineal que lleva directamente vectores v de |Rn a vectores g(f (v)) de |Rp ,
es decir,
g ◦ f : |Rn −→ |Rp
v −→ (g ◦ f )(v) = g(f (v))

Como (g ◦ f )(v) = g(f (v)) = BAv, tenemos que la matriz C que representa a la
aplicación lineal g ◦ f es C = BA.
Ejemplo 4.22. Sean f : |R2 → |R3 y g : |R3 → |R2 dadas por f (x, y) = (x − y, y, x + y) y
g(u, v, w) = (u + v, w − v). Entonces

(g ◦ f )(x, y) = g(f (x, y)) = g(x − y, y, x + y) = (x, x).

La matriz A de f , la matriz B de g y la matriz C de g ◦ f son


 
1 −1    
1 1 0 1 0
A= 0
 1 , B= , C= .
0 −1 1 1 0
1 1

Se puede comprobar que C = BA.

87
4.4. Problemas resueltos
4.4.1. Sea f : |R3 → |R2 dada por f (x, y, z) = (2x − y + z, 3x + 2y − 3z).
(a) Calcula la matriz A asociada a f .
Solución. La matriz A son simplemente los coeficientes que definen f :
 
2 −1 1
A= .
3 2 −3

O lo que es lo mismo, las columnas de A son las imágenes de los vectores de la base canónica
de |R3 : f (1, 0, 0) = (2, 3), f (0, 1, 0) = (−1, 2), f (0, 0, 1) = (1, −3).
(b) Hallar el núcleo de f , dando una base. ¿Es inyectiva?
Solución. Ker(f ) son los vectores x de |R3 que cumplen f (x) = Ax = 0, es decir, los
vectores Ker(f ) = {(x, y, z) ∈ |R3 , f (x, y, z) = (0, 0)}:
(
2x − y + z =0
3x + 2y − 3z =0

Se trata de un sistema lineal de dos ecuaciones con tres incógnitas con infinidad de soluciones:

 x libre

y =9x

z =7x

Por tanto Ker(f ) = {(x, 9x, 7x), x ∈ |R} = {x(1, 9, 7), x ∈ |R} =< (1, 9, 7) >, es decir, el
subespacio de |R3 generado por el vector (1, 9, 7). Una base del Ker(f ) puede ser la formada
por ese vector: {(1, 9, 7)} y su dimensión es 1, por lo que f no es inyectiva. También, según
la observación 4.19 tenemos que rank(A) = 2 < 3 = n y por tanto no es inyectiva. Podı́amos
haber deducido que f no es inyectiva usando la observación 4.17 sin necesidad de calcular
su núcleo, puesto que f : |R3 → |R2 con 3 > 2.
(c) Hallar la imagen de f , dando una base. ¿Es suprayectiva?
Solución. Im(f ) son todos los vectores de |R2 de la forma f (x, y, z), es decir, Im(f ) =
{(2x − y + z, 3x + 2y − 3z), x, y, z ∈ |R}. Por tanto Im(f ) = {(x(2, 3) + y(−1, 2) + z(1, −3)},
x, y, z ∈ |R} =< (2, 3), (−1, 2), (1, −3) >. Im(f ) es el subespacio de |R2 generado por los
vectores (2, 3), (−1, 2), (1, −3) (las columnas de A). Pero tres vectores de |R2 no pueden
ser independientes, por ejemplo se tiene que (1, −3) = − 17 (2, 3) − 97 (−1, 2), por lo que <
(2, 3), (−1, 2), (1, −3) >=< (2, 3), (−1, 2) >. Los vectores (2, 3) y (−1, 2) sı́ son indendientes,
por lo que Im(f ) =< (2, 3), (−1, 2) >, una base de Im(f ) es la formada por estos dos vectores:
{(2, 3), (−1, 2)} y su dimensión es 2, por lo que f es suprayectiva, es decir Im(f ) = |R2 . Ya
que Im(f ) = |R2 , otra base de Im(f ) puede ser {(1, 0), (0, 1)} por ejemplo. También, según

88
la observación 4.18, rank(A) = 2 = m y por tanto es suprayectiva. Otra forma más sencilla
habrı́a sido utilizar la fórmula (9); una vez hemos visto que dim(Ker(f )) = 1, usando (9):
1+Dim(Im(f )) = 3 ⇒Dim(Im(f )) = 2.

4.4.2. Sea una aplicación lineal f : |R2 → |R4 , de la cual se sabe que las imágenes de los
vectores (2, −1) y (4, 1) son los vectores (1, 0, −1, 3) y (2, −2, 3, 1)
(a) Hallar f (x, y) para todo (x, y) ∈ |R2 y la matriz A de dicha aplicación.
Solución. Como f es lineal se tiene que f (x, y) = xf (1, 0) + yf (0, 1), para conocer f (x, y)
nos basta conocer f (1, 0) y f (0, 1). Los vectores {(2, −1), (4, 1)} son una base de |R2 , por
lo que cualquier vector de |R2 se puede poner como combinación lineal de estos dos; en
particular:

1 1 2 1
(1, 0) = (2, −1) + (4, 1), (0, 1) = − (2, −1) + (4, 1).
6 6 3 3

Por tanto
 
1 1 1 1 1 1 1 2
f (1, 0) = f (2, −1) + f (4, 1) = (1, 0, −1, 3) + (2, −2, 3, 1) = ,− , , ,
6 6 6 6 2 3 3 3
 
2 1 2 1 2 5 5
f (0, 1) = − f (2, −1) + f (4, 1) = − (1, 0, −1, 3) + (2, −2, 3, 1) = 0, − , , − .
3 3 3 3 3 3 3

Con lo que
   
1 1 1 2 2 5 5
f (x, y) =xf (1, 0) + yf (0, 1) = x ,− , , + y 0, − , , −
2 3 3 3 3 3 3
 
x x + 2y x + 5y 2x − 5y
= ,− , , .
2 3 3 3

La matriz A son simplemente los coeficientes que definen f :

1/2 0
 
 −1/3 −2/3 
A= .
1/3 5/3
2/3 −5/3

Las columnas de A son las imágenes de (1, 0) y de (0, 1).

4.4.3. De una aplicación lineal f : |R3 → |R2 , se sabe que el vector (1, 1, 1) ∈ Ker (f ) y que
f (1, 0, 1) = (1, 0), f (x, 0, 0) = (x, 2x) ∀x ∈ |R.
(a) Determinar f (x, y, z) para todo (x, y, z) ∈ |R3 .
Solución. Si (1, 1, 1) ∈ Ker (f ) significa que f (1, 1, 1) = (0, 0). Si f (x, 0, 0) = (x, 2x)
significa que, en particular, f (1, 0, 0) = (1, 2). Por tanto, conocemos las imágenes de los
tres vectores {(1, 0, 0), (1, 1, 1), (1, 0, 1)}, que podemos comprobar que son independientes y

89
por tanto son una base de |R3 . Escribamos los tres vectores (1, 0, 0), (0, 1, 0) y (0, 0, 1) como
combinación lineal de esos tres vectores:

(1, 0, 0) =(1, 0, 0) + 0(1, 1, 1) + 0(1, 0, 1),


(0, 1, 0) =0(1, 0, 0) + (1, 1, 1) − (1, 0, 1),
(0, 0, 1) = − (1, 0, 0) + 0(1, 1, 1) + (1, 0, 1).

Por tanto

f (1, 0, 0) =f (1, 0, 0) = (1, 2),


f (0, 1, 0) =f (1, 1, 1) − f (1, 0, 1) = (0, 0) − (1, 0) = (−1, 0),
f (0, 0, 1) = − f (1, 0, 0) + f (1, 0, 1) = −(1, 2) + (1, 0) = (0, −2).

Por lo que se tiene:

f (x, y, z) = xf (1, 0, 0)+yf (0, 1, 0)+zf (0, 0, 1) = x(1, 2)+y(−1, 0)+z(0, −2) = (x−y, 2x−2z).

(b) Calcular el conjunto de vectores cuya imagen sea el vector (1, 1). ¿Es un subespacio
de |R3 ?
Buscamos los vectores (x, y, z) ∈ |R3 que cumplan que f (x, y, z) = (1, 1), o dicho de
otro modo, queremos determinar el conjunto T = {(x, y, z) ∈ |R3 , f (x, y, z) = (1, 1)} =
{(x, y, z) ∈ |R3 , (x − y, 2x − 2z) = (1, 1)}. Por tanto:
(
x − y =1,
2x − 2z =1.

Es un sistema lineal de dos ecuaciones con tres incógnitas con infinidad de soluciones:

x libre




y =x − 1
 z =x − 1 .


2
Por tanto, T = {(x, x − 1, x − 1/2); x ∈ |R} = {x(1, 1, 1) + (0, −1, −1/2); x ∈ |R}. Se
trata de una recta que no pasa por el origen, pues no hay ningún valor de x para el cual
/ T , por lo que T no es subespacio de |R3 .
(x, x − 1, x − 1/2) = (0, 0, 0). Por tanto 0 ∈

4.4.4. Sea f una aplicación lineal f : |R3 → |R3 , cuya matriz es:
 
1 2 −a
A =  −1 0 −2a 
1 1 1+a

(a) Determinar el valor o valores de a para que f sea inyectiva.

90
   
x x + 2y − az
Solución. Tenemos que f (x, y, z) = A  y  =  −x − 2az . El núcleo de f ,
z x + y + (1 + a)z
Ker(f ), son las soluciones del sistema de ecuaciones Ax = 0:
      
x + 2y − az 1 2 −a x 0
 −x − 2az  = −1 0 −2a
   y = 0.
 
x + y + (1 + a)z 1 1 1+a z 0

Si |A| = 0 (rank(A) < 3) el sistema tiene infinidad de soluciones, Ker(f ) contine infinidad
de vectores y f no es inyectiva. Si |A| 6= 0 (rank(A) = 3), el sistema sólo tiene la solución
trivial x = 0, Ker(f ) = {(0, 0, 0)} y f es inyectiva. Tenemos que |A| = a + 2, por lo que f
es inyectiva si a 6= −2 y no es inyectiva si a = −2.
(b) Encontrar una base del subespacio Im (f ), tanto para el caso en que f sea inyectiva
como para el caso en que no lo sea.
Solución. Im(f ) = {(x + 2y − az, −x − 2az, x + y + (1 + a)z); x, y, z ∈ |R}, es decir Im(f ) =
{x(1, −1, 1) + y(2, 0, 1) + z(−a, −2a, 1 + a); x, y, z ∈ |R} =< (1, −1, 1), (2, 0, 1), (−a, −2a, 1 +
a) > (el subespacio generado por las columnas de A). Si estos tres vectores son inde-
pendientes entonces Im(f ) = |R3 y f es suprayectiva. Si no son independientes entonces
Dim(Ker(f )) < 3 y f no es suprayectiva. Pero esos tres vectores son las columnas de la
matriz A y el rango o el determinante de A nos dicen si son o no independientes. Son indepen-
dientes si rank(A) = 3 o |A| = 6 0. Son dependientes si rank(A) < 3 o |A| = 0. Por tanto son
3
independientes e Im(f ) = |R si a 6= −2. Son dependientes y Dim(Im(f )) < 3 si a = −2. En
cualquier caso tenemos que, si a 6= −2, Im(f ) =< (1, −1, 1), (2, 0, 1), (−a, −2a, 1 + a) >= |R3
y una base de Im(f ) es cualquier base de |R3 , por ejemplo la base canónica de |R3 . Si a = −2
entonces Im(f ) =< (1, −1, 1), (2, 0, 1), (2, 4, −1) >, el tercer vector por ejemplo es combi-
nación lineal de los otros dos: (2, 4, −1) = −4(1, −1, 1) + 3(2, 0, 1), por lo que Im(f ) =<
(1, −1, 1), (2, 0, 1) >, su dimensión es 2 y una base de Im(f ) es {(1, −1, 1), (2, 0, 1)}.
Observar que si a 6= −2 entonces f es inyectiva y suprayectiva (y por tanto biyectiva). Si
a = −2 entonces f no es ni inyectiva ni suprayectiva. En cualquier caso se cumple la fórmula
(9): Dim(Ker(f ))+Dim(Im(f )) = 0+3 = 3 si a 6= −2 y Dim(Ker(f ))+Dim(Im(f )) = 1+2 =
3 si a = −2.

4.4.5. Sea f una aplicación lineal f : |R2 → |R2 , con la propiedad de que transforma la base
canónica {(1, 0), (0, 1)} en dos vectores independientes, es decir, los vectores f (1, 0), f (0, 1)
son independientes. Comprobar que:
(a) La matriz A asociada a f es inversible.
Solución. Pongamos f (1, 0) = (a, b), f (0, 1) = (c, d). Tenemos entonces que
 
a c
A= .
b d

Los vectores (a, b), (c, d) son las columnas de esta matriz y son independientes, por lo que
rank(A) = 2 y A es inversible.

91
(b) f es inyectiva.
Solución. Como rank(A) = 2 = n entonces f es inyectiva según la observación 4.19.
(c) f es suprayectiva.
Solución. Como rank(A) = 2 = m entonces f es suprayectiva según la observación 4.18.

4.5. Problemas propuestos


4.5.1. Sea f una aplicación lineal de |R2 en |R3 definida por f (x, y) = (2x − y, x + y, 3x + 2y).
(a) Calcula la matriz A asociada a f .
(b) Hallar el núcleo de esta aplicación lineal, dando una base. ¿Es inyectiva?
(c) Hallar la imagen de esta aplicación lineal, dando una base. ¿Es suprayectiva?

4.5.2. Sea una aplicación lineal f : |R2 → |R3 , de la cual se sabe que las imágenes de los
vectores (2, −1) y (4, 1) son los vectores (1, 0, 3) y (2, 3, 1)
(a) Hallar f (x, y) para todo (x, y) ∈ |R2 y la matriz A de dicha aplicación.
(b) Hallar el subespacio Im (f ) y una base del mismo.
(c) ¿Es f inyectiva? ¿Es suprayectiva? Razónalo.

4.5.3. De una aplicación lineal f : |R3 → |R2 , se sabe que el vector (1, 1, 0) ∈ Ker (f ) y que
f (0, 1, 1) = (1, 0), f (0, 0, z) = (z, z) ∀z ∈ |R.
(a) Determinar f (x, y, z) para todo (x, y, z) ∈ |R3 y la matriz A asociada a f .
(b) Hallar una base y la dimensión del núcleo y de la imagen.
(c) Calcular el conjunto de vectores cuya imagen sea el vector (0, 1). ¿Es un subespacio
de |R3 ?

4.5.4. Sea f una aplicación lineal f : |R3 → |R3 , cuya matriz es:
 
3 4 −a
A= 2
 6 −2a 
1 3 1+a

(a) Determinar el valor o valores de a para que f sea inyectiva.


(b) Encontrar una base del subespacio Im (f ), tanto para el caso en que f sea inyectiva
como para el caso en que no lo sea.

4.5.5. Sea f : |Rn → |Rm . ¿Puede ser f inyectiva? ¿Puede ser f suprayectiva? ¿Puede ser f
biyectiva?

92
4.5.6. Estudiemos los movimientos de capital entre tres paı́ses A, B y C. Definimos el saldo
de la balanza de capitales de un paı́s como la diferencia entre las entradas de capital menos
las salidas. Se sabe que en cada paı́s, la situación depende de los tipos de interés reales
vigentes (el nominal menos la tasa de inflación del paı́s). La interpretación se puede resumir
en:
Sa = 0, 4Ra − 0, 5Rb − 0, 3Rc
Sb = −0, 3Ra + 0, 6Rb − 0, 4Rc
Sc = −0, 1Ra − 0, 1Rb + 0, 3Rc con Sa , Sb y Sc los saldos, y Ra , Rb y Rc los tipos
de interés reales respectivos. Se pide:
(a) Representar las ecuaciones anteriores en forma matricial, justificando que se refieren
a una aplicación lineal.
(b) Determinar el núcleo y la imagen e interpretar el resultado.

4.5.7. De una aplicación lineal f : R3 → R3 se sabe que f (1, 1, 0) = (2, −1, 1), f (0, 1, 1) =
(1, 0, −1), f (0, 1, 0) = (1, −1, 0). Se pide:
(a) Matriz de la aplicación lineal que liga las componentes de x con las de y y la expresión
concreta de la aplicación.
(b) Calcular Ker(f ).

4.5.8. Sea f una aplicación lineal f : |Rn → |Rn , con la propiedad de que transforma la base
canónica {e1 , e2 , ..., en } en vectores independientes, es decir, los vectores f (e1 ), f (e2 ),...,
f (en ) son independientes. Comprobar que:
(a) La matriz asociada a f es inversible.
(b) f es inyectiva.
(c) f es suprayectiva.

4.5.9. Definimos la aplicación lineal f : R3 → R3 mediante f (x, y, z) = (x−z, x+2y+z, ay),


donde a es un número real. Calcular la matriz A de f . Calcular el núcleo de f y su dimensión.
Calcular la imágen de f y su dimensión.

4.5.10. Diseñar una aplicación lineal f : R3 → R3 tal que Ker(f ) =< (1, 1, 1) >. Diseñar
una aplicación lineal f : R3 → R3 tal que Im(f ) =< (1, 1, 0), (0, 1, 1) >. Diseñar una
aplicación lineal f : R3 → R3 tal que Ker(f ) = R3 . Diseñar una aplicación lineal f : R3 →
R3 tal que Im(f ) = R3 .

4.5.11. Sea f una aplicación lineal de R3 en R3 de la cual sabemos que f (1, 0, 0) = (0, 1, 1),
f (0, 1, 0) = (1, 0, 1) y (0, 1, 1) ∈ Ker(f ). Calcula la matriz A de f . Dar la imagen de cualquier
vector (x, y, z) ∈ R3 , es decir, la expresión general de f : f (x, y, z). Hallar el núcleo de esta
aplicación lineal, dando una base y dimensión. ¿Es inyectiva?

4.5.12. Sea f : R3 → R3 definida por f (x, y, z) = (y − x, x − z, z − y). Calcula la matriz


A de f . Hallar la imagen de esta aplicación lineal, dando una base y su dimensión. ¿Es

93
suprayectiva? Hallar el núcleo de esta aplicación lineal, dando una base y dimensión. ¿Es
inyectiva? ¿Existe algún vector (x, y, z) para el cual f (x, y, z) = (1, 0, 0)?

4.5.13. Sean e1 , e2 y e3 los tres vectores de la base canónica de R3 y f una aplicación


lineal de R3 en R3 que cumple: Ker f está generado por e1 + e2 − e3 , f (e1 − e2 ) = 3 a e2 ,
f (e1 − e3 ) = 2 e1 , siendo a un parámetro real. Determina la forma explı́cita de f , es decir,
f (x, y, z), dependiendo del valor de a. Obtén una base de Im f .

4.5.14. Dada la aplicación lineal f : |R4 → |R4 f (x, y, z, t) = (x + y + z + t, −x + t, x + y −


z − t, x + 2y + at), donde a es un número real. Calcular la matriz A de la aplicación, su
núcleo y su imagen. Decir si es inyectiva y/o suprayectiva. Todo ello según los valores de a.

4.5.15. De una aplicación lineal f : |R3 → |R3 sabemos que f (1, 1, 1) = (4, 0, a + 2),
f (0, 1, 1) = (3, −1, a + 1) y f (0, 0, 1) = (2, 0, a), donde a es un número real. Calcular la
matriz A de la aplicación, la imagen f (x, y, z) de cualquier vector de |R3 , su núcleo y su
imagen. Decir si es inyectiva y/o suprayectiva. Todo ello según los valores de a.

Soluciones a los problemas propuestos


3.5.1. (a)  
2 −1
1 1 ,
3 2
(b) Ker (f ) = {(0, 0)}, es inyectiva. (c) Im(f ) = |R2 , es suprayectiva.
3.5.2. (a) f (x, y) = (x/2, x/2 + y, 2x/3 − 5y/3),
 
1/2 0
 1/2 1 ,
2/3 −5/3

(b) Im(f ) =< (3, 3, 4), (0, 3, −5) >. (c) Si es inyectiva. No es suprayectiva.
 
0 0 1
3.5.3. (a) f (x, y, z) = (z, x − y + z). (b) (c) Ker(f ) =< (1, 1, 0) >, dimension
1 −1 1
1. Im(f ) =< (1, 0), (0, 1) >, dimension 2. (d) {(1 + y, y, 0); y ∈ |R}, no es subespacio.
3.5.4. (a) a 6= −1/2. (b) Im(f)=< (1, 0, 0), (0, 1, 0), (0, 0, 1) > si a 6= −1/2.
Im(f)=< (3, 2, 1), (4, 6, 3) > si a = −1/2.
 
0, 4 −0, 5 −0, 3
3.5.6. (a) S = AR, A =  −0, 3 0, 6 −0, 4 , S = (Sa , Sb , Sc ), R = (Ra , Rb , Rc ).
−0, 1 −0, 1 0, 3
(b) Ker(f)= {(0, 0, 0)}, Im(f)= |R3 .
 
1 1 0
3.5.7. A =  0 −1 1 , f (x, y, z) = (x + y, z − y, x − z); Ker(f ) =< (1, −1, 1) >.
1 0 −1

94
 
1 0 −1
3.5.9. A = 1 2
 1 ; Ker(f ) = {(0, 0, 0)} si a 6= 0, Ker(f ) =< (1, −1, 1) > si a = 0;
0 a 0
3
Im(f ) = R si a 6= 0, Im(f ) = plano XY si a = 0.
3.5.10. f (x, y, z) = (x − y, y − z, z − x) >; f (x, y, z) = (x, x + y, y); f (x, y, z) = (0, 0, 0);
f (x, y, z) = (x, y, z).
 
0 1 −1
3.5.11. A =  1 0 0 ; f (x, y, z) = (y − z, x, x + y − z); Ker(f ) =< (0, 1, 1) >, dim 1.
1 1 −1
 
−1 1 0
3.5.12. A =  1 0 −1 ; Im(f ) =< (−1, 1, 0), (1, 0, −1) >, dim 2, No supra;
0 −1 1
Ker(f ) =< (1, 1, 1) >, dim 1, no Inyec; No.
 
−2 −2 −4
3.5.13. A =  3a 0 3a , f (x, y, z) = (−2x − 2y − 4z, 3ax + 3az, 0); Im(f ) =<
0 0 0
(1, 0, 0), (0, 1, 0) > si a 6= 0, Im(f ) =< (1, 0, 0) > si a = 0.
1 1 1 1
 
 −1 0 0 1 
3.5.14. A =  ; Ker(f ) =< (1, −1, −1, 1) > si a = 1, Ker(f ) =
1 1 −1 −1
1 2 0 a
{(0, 0, 0, 0)} si a 6= 1; Im(f ) =< (1, −1, 1, 1), (1, 0, 1, 2), (1, 0, −1, 0) > si a = 1, Im(f ) = R4
si a 6= 1. Inyectiva y suprayectiva si a 6= 1, nada si a = 1.
 
−1 1 2
3.5.15. A =  1 −1 0 , f (x, y, z) = (−x+y +2z, x−y, (1−a)x+y +az); Im(f ) =<
1−a 1 a
(1, −1, 1), (1, 0, 1) >, Ker(f ) =< (1, 1, 0) >, si a = 2; Im(f ) = R3 , Ker(f ) = {(0, 0, 0)} si
a 6= 2.

95
CAPITULO 5. DIAGONALIZACION
DE MATRICES
Como hemos visto en el capı́tulo anterior, en un modelo ”input-output”, el vector output
f (v) se obtiene del vector input v multiplicándolo por la matriz cuadrada input-ouput A:
f (v) = Av. Ahora bien, puede ocurrir que este modelo represente por ejemplo la dinámica
anual de una economı́a y que este proceso se repita año tras año, siendo el ”ouput” de un
año el ”input” del año siguiente. Es decir, este año, el año 1, el ”input” es v1 y el ”ouput”
es f (v1 ) = Av1 . El año que viene, año 2, el ”input” será el ”ouput” de este año, es decir
v2 = f (v1 ) = Av1 , por lo que el ”output” será f (v2 ) = Av2 = A2 v1 . Y ası́ sucesivamente,
al cabo de m años tendremos que el ”output” será f (vm ) = Am v1 . Si el modelo económico
involucra pocas variables, entonces la matriz A es de pequeño tamaño y el cómputo de Am
puede no ser muy complicado. Pero si el modelo es complejo y envuelve muchas variables,
entonces A es de gran tamaño y, en general, el cálculo de Am puede ser muy complicado.
Uno de los objetivos de este capı́tulo es simplificar el cómputo de potencias de una
matriz. Para ello va a ser interesante, dada una matriz cuadrada A n × n, la búsqueda de
una matriz P n × n tal que la matriz B = P −1 AP sea diagonal, o lo más diagonal posible.
Ello requiere el estudio, con un poco más de profundidad, de las aplicaciones lineales en las
que el espacio de llegada es el mismo que el de salida, es decir, aplicaciones lineales de la
forma f : |Rn → |Rn . Como la matriz que representa a una f : |Rn → |Rn es cuadrada (de
tamaño n × n), en este capı́tulo estudiaremos con más profundidad las matrices cuadradas.

5.1 Valores y vectores propios de una


matriz. Subespacios fundamentales
Dada una matriz cuadrada A de tamaño n, en general, la imagen Ax de un vector x
tiene una dirección distinta de la de x.
Ejemplo 5.1. Sea la matriz  
1 1
A= .
0 2
 
T 1
y el vector x = (0, 1). Su imagen por A es el vector y = Ax = , que no es proporcional
2
a x (ver la Figura 5.1(a)).
Nos preguntamos si existe algún vector x 6= 0 de |Rn para el cual su imagen Ax está en
la misma recta que x, es decir, es proporcional a x. A este tipo de vectores se les da un
nombre especial:

96
Definición 5.2. Dada una matriz cuadrada A de tamaño n, un vector x 6= 0n de |Rn es
vector propio de A con valor propio λ ∈ |R si

Ax = λx.

Excluimos de esta definición al vector nulo pues trivialmente A0 = λ0 para cualquier


número real λ y por tanto no tiene interés.

y y
(1,2) (2,2)
(0,1)

(1,0)
(0,1) (1,1)
(-1,0)
x

x
(0,-1)

(a) (b)
     
0 1 0
Figura 5.1. (a) El vector A = no es proporcional a , mientras que el vector
    1  2 1
1 2 1
A = sı́ es proporcional a (ambos están en la misma recta). (b) Ningún vector Bx
1 2 1
es proporcional a x; todos los Bx son los x girados 90o .
T
Ejemplo
 5.3. Sea la matriz del ejemplo anterior. El vector x = (1, 1) satisface que
2
Ax = = 2x. Por tanto este vector x es vector propio de A con valor propio λ = 2 (ver
2
la Figura 5.1(a)).
Ejemplo 5.4. Sea la matriz  
0 −1
B= .
1 0
       
1 0 0 −1
Observar que B = , B = . En general, esta matriz gira todos los
0 1 1 0
vectores de |R2 90o hacia la izda (ver la Figura 5.1(b)), por lo que es imposible que la imagen
de ningún vector sea proporcional a él mismo. Por tanto esta matriz B no tiene ningún
vector propio.
Observación 5.5. Si x es un vector propio de una matriz A con valor propio λ entonces
Ax = λx. Tomemos cualquier vector proporcional a x: ax, con a ∈ |R cualquiera. Entonces
A(ax) = aAx = aλx = λ(ax), es decir, el vector ax también es vector propio de A con
el mismo valor propio λ. Podemos concluir por tanto que si x es un vector propio de una
matriz A con valor propio λ entonces cualquier vector proporcional a x también lo es con
el mismo valor propio. Es decir, si encontramos un vector propio de una matriz A entonces

97
hemos encontrado una infinidad de vectores propios: todos los situados en la misma recta
que x.
Esta observación motiva la siguiente definición en la que ponemos nombre a todos esos
vectores que, junto al x, son vectores propios de A con el mismo valor propio λ:
Definición 5.6. Dada una matriz cuadrada A de tamaño n y un número real λ, llamaremos
subespacio fundamental asociado a λ y lo denotaremos S(λ) al conjunto de todos los vectores
propios de A con valor propio λ, incluido el vector nulo 0:

S(λ) := {x ∈ |Rn ; Ax = λx}.

Observemos que para cualquier valor propio λ, el vector nulo 0 está en todos los subespecies
fundamentales S(λ).
Ejemplo 5.7. Tomar la matriz A del ejemplo 5.1 y el número real λ = 2. Hemos visto en
el ejemplo 5.3. que (1, 1) es vector propio de A con valor propio 2. Por tanto (1, 1) y todos
sus proporcionales (x, x), x ∈ |R, pertenecen a S(2). Veremos más adelante que ya no hay
más vectores en S(2) que estos y por tanto:

S(2) = {(x, x); x ∈ |R} = {x(1, 1); x ∈ |R} =< (1, 1) > .

Observamos en este ejemplo que S(2) es un subespacio de |R2 (una recta de dimensión 1
en este caso). De hecho, en la definición 5.6. hemos asumido implı́citamente que cualquier
subespacio fundamental S(λ) de cualquier matriz es un subespacio. Veremos más adelante
que, en efecto, esto es siempre ası́: los subespacios fundamentales S(λ) de cualquier matriz
cuadrada A de tamaño n son subespacios de |Rn .
Ya sabemos cuál es el significado de valor y vector propio de una matriz cuadrada A de
tamaño n, o lo que es lo mismo, valor y vector propio de la aplicación lineal f : |Rn → |Rn
representada por la matriz A. En la siguiente sección nos planteamos el problema práctico
de cómo calcular los valores y vectores propios de una matriz cuadrada A.

5.2. Polinomio caracterı́stico.


Multiplicidad algebraica y geométrica
Dada una matriz cuadrada A de tamaño n, queremos obtener los números reales λ y los
vectores 0 6= x ∈ |Rn que satisfacen Ax = λx. Como evidentemente x = Ix, donde I es la
matriz identidad de tamaño n, tenemos que

Ax = λx ⇔ Ax = λIx ⇔ (A − λI)x = 0,

98
donde 0 es el vector nulo de |Rn . Observemos que (A − λI)x = 0 es un sistema lineal
homogéneo de ecuaciones en las incógnitas xT = (x1 , ..., xn ) con matriz de coeficientes A−λI
que contiene un parámetro λ. Por ser homogéneo, tiene la solución trivial xT = (0, ..., 0) = 0
sea cual sea el valor de λ. Esto ya lo sabı́amos, para cualquier valor de λ se tiene que
A0 = λ0 = 0. Pero el vector nulo está excluido del selecto club de los vectores propios por
satisfacer tan trivialmente la condición de vector propio Ax = λx.
Un vector propio x de A es un vector no nulo que satisface Ax = λx para algún λ.
Por tanto, un vector propio x de A es una solución no nula del sistema de ecuaciones
(A − λI)x = 0. Pero un sistema lineal de ecuaciones homogéneo puede tener solución
única (en este caso serı́a la solución trivial x = 0 que siempre la tiene) o tener infinidad
de soluciones. Que tenga una o infinitas soluciones depende del rango de la matriz de
coeficientes A − λI. Y el rango de A − λI dependerá del valor de λ. Si rank(A − λI) = n
entonces el sistema Ax = λx tiene únicamente la solución trivial. Pero si rank(A − λI) < n
entonces el sistema Ax = λx tiene infinidad de soluciones. Por tanto, para que λ sea valor
propio de A tiene que ocurrir que rank(A − λI) < n, o lo que es lo mismo, que |A − λI| = 0.

Ası́ pués, para calcular los valores y vectores propios de una matriz cuadrada A tenemos
que calcular los números reales λ para los cuales el determinante |A − λI| se anula. Una vez
calculados esos λ (pueden ser uno o varios), para calcular los vectores propios x asociados a
cada uno de esos λ, resolveremos el sistema (A − λI)x = 0.

Dejamos como ejercicio la comprobación de que el conjunto de soluciones x de un sistema


lineal homogéneo de n ecuaciones con n incógnitas (como por ejemplo el sistema (A−λI)x =
0) forman un subespacio de |Rn . Por tanto, S(λ) es siempre un subespacio de |Rn .
Ejemplo 5.8. Sea la matriz A del ejemplo 5.1 y calculemos el determinante |A − λI|:
     
1 1 1 0 1−λ 1
|A − λI| = −λ = = (1 − λ)(2 − λ) = λ2 − 3λ + 2.
0 2 0 1 0 2−λ

El determinante se anula para λ = 1 y λ = 2. Por tanto los únicos valores propios de A son
λ1 = 1 y λ2 = 2.
Ahora, para λ1 = 1, calculemos S(1), sus vectores propios asociados resolviendo el
sistema (A − λ1 I)x = 0:
          
1 1 1 0 x 0 1 x 0
−1 = = ,
0 2 0 1 y 0 1 y 0

sistema que sabemos debe tener infinidad de soluciones. En efecto, resolviendo tenemos
(
y=0
x libre

Por tanto todos los vectores x de la forma xT = (x, 0) con x ∈ |R son vectores propios de A
con valor propio λ1 = 1, es decir, S(1) =< (1, 0) >.

99
Para λ2 = 2, calculemos S(2):
          
1 1 1 0 x −1 1 x 0
−2 = = .
0 2 0 1 y 0 0 y 0

Resolviendo tenemos (
y=x
x libre

Por tanto todos los vectores x de la forma xT = (x, x) con x ∈ |R son vectores propios de A
con valor propio λ2 = 2, es decir, S(2) =< (1, 1) >. Esto ya lo sabı́amos desde el Ejemplo
5.3.
Cualquier otro número real λ 6= 1, 2 no es valor propio de A y por tanto no existen
vectores x de |R2 que sean propios de A con valor propio distinto de 1 ó 2. Podemos decir
entonces que S(λ) = ∅ para λ 6= 1, 2.
Observar que el determinante del ejemplo anterior |A−λI| ha resultado ser un polinomio
de grado 2 en λ. Esto va a ser ası́ para cualquier matriz cuadrada A:
Definición 5.9. Dada una matriz cuadrada A de tamaño n × n, llamaremos polinomio
caracterı́stico de A y lo denotaremos p(λ) al polinomio de grado n

p(λ) := |A − λI|.

Observación 5.10. Si A es una matriz triangular (superior por ejemplo), entonces A − λI


también lo es:
a11 a12 a13 . . a1n
 
 0 a22 a23 . . a2n 
 0 0 a33 . . a3n 
 
A= ,
 . . . . . . 
. . . . . .
 
0 . . 0 0 ann
a11 − λ a12 a13 . . a1n
 
 0 a22 − λ a23 . . a2n 
0 0 a33 − λ . . a3n 
 
A − λI =  ,

 . . . . . . 
. . . . . .
 
0 . . 0 0 ann − λ
por lo que el polinomio caracterı́stico p(λ) = |A − λI| es simplemente el producto de los
elementos de la diagonal principal p(λ) = (a11 − λ)(a22 − λ)(a33 − λ) · · · (ann − λ) y por
tanto los valores propios de A son sencillamente los elementos de la diagonal: λ1 = a11 ,
λ2 = a22 ,..., λn = ann .
Observación 5.11. Los valores propios de A son las raı́ces de p(λ), los valores reales o
complejos de λ para los cuales p(λ) = 0. Todo polinomio de grado n tiene n raı́ces reales o

100
complejas y por lo tanto su número de raı́ces reales es menor o igual que n. Ası́, el número
de valores propios de una matriz cuadrada A de tamaño n es siempre n.
Definición 5.12. Llamaremos multiplicidad algebraica de un valor propio λ y la denotare-
mos ma (λ), al número de veces que se repite λ como raı́z del polinomio caracterı́stico.
Ejemplo 5.13. En el ejemplo 5.8. tenemos que ambos valores propios λ1 = 1 y λ2 = 2
aparecen en p(λ) en la forma (λ − 1) y (λ − 2) respectivamente, ambos factores elevados a
la potencia 1, por lo que ma (1) = ma (2) = 1.
Ejemplo 5.14. El polinomio caracterı́stico de la matriz
 
3 1 0
A= 0  1 1
0 2 2

es p(λ) = −λ(λ − 3)2 = −(λ − 0)(λ − 3)2 . Entonces el valor propio λ = 0 aparece una sola
vez y el valor propio λ = 3 dos veces, por lo que ma (0) = 1 y ma (3) = 2.
Para calcular S(3) resolvemos el sistema
    
0 1 0 x 0
(A − 3I)x = 0 −2
 1   y = 0
 
0 2 −1 z 0

y encontramos 
 x = libre

y =0

z =0.

Por tanto todos los vectores x de la forma xT = (x, 0, 0) con x ∈ |R son vectores propios de
A con valor propio 3, es decir, S(3) = {(x, 0, 0); x ∈ |R} = {x(1, 0, 0); x ∈ |R} =< (1, 0, 0) >,
que es un subespacio de dimensión 1. Al resolver el sistema ha quedado una variable libre,
lo que se ha traducido en que Dim(S(3)) = 1.
Para calcular S(0) resolvemos el sistema
    
3 1 0 x 0
(A − 0I)x =  0 1 1y  = 0
0 2 2 z 0

y encontramos 
 x = libre

y = − 3x

z =3x.

Por tanto todos los vectores x de la forma xT = (x, −3x, 3x) con x ∈ |R son vectores propios
de A con valor propio 0, es decir, S(0) = {(x, −3x, 3x); x ∈ |R} = {x(1, −3, 3); x ∈ |R} =<
(1, −3, 3) >, que es un subespacio de dimensión 1.

101
Observación 5.15. Si λ es valor propio de A entonces el sistema de ecuaciones (A−λI)x =
0 tiene infinidad de soluciones pues rank(A − λI) < n. Ası́ pues, para cada valor propio λ
de una matriz cuadrada A existe al menos un vector propio asociado x (y por tanto infinidad
de ellos, todos los proporcionales a ese x). Esto significa que para cualquier valor propio λ,
Dim(S(λ)) ≥ 1.
Ejemplo 5.16. En el ejemplo 5.8. hemos visto que al resolver el sistema (A − λI)x = 0,
tanto para λ = 1 como para λ = 2, hemos encontrado que en la solución nos quedaba una
variable libre, la x. Esto se ha traducido en que tanto Dim(S(1)) = 1 como Dim(S(2)) = 1.
Ejemplo 5.17. Los valores propios de la matriz
 
1 0 0
A= 0
 0 0
0 0 0

son λ1 = 0 con ma (0) = 2 y λ2 = 1 con ma (1) = 1. Para calcular S(0) resolvemos el sistema
    
1 0 0 x 0
(A − 0I)x = 0
 0 0   y = 0
 
0 0 0 z 0

y encontramos
(
x =0
y, z libres.

Por tanto todos los vectores x de la forma xT = (0, y, z) con y, z ∈ |R son vectores propios
de A con valor propio 0, es decir, S(0) = {(0, y, z); y, z ∈ |R} = {y(0, 1, 0) + z(0, 0, 1); y, z ∈
|R} =< (0, 1, 0), (0, 0, 1) >, que es un subespacio de dimensión 2. Al resolver el sistema han

quedado dos variables libres, lo que se ha traducido en que Dim(S(0)) = 2.


Definición 5.18. Llamaremos multiplicidad geométrica de un valor propio λ y la denotare-
mos mg (λ), a la dimensión del subespacio propio S(λ): mg (λ) :=Dim(S(λ)). O lo que es lo
mismo, mg (λ) es el máximo número de vectores propios independientes con valor propio λ.

Por tanto mg (λ) = número de variables libres al resolver el sistema (A − λI)x = 0.

Ya sabemos que asociados a cada valor propio λ hay infinidad de vectores propios. mg (λ)
mide ”cuántos”, cuanto mayor mg (λ), mayor dimensión de S(λ) y por tanto ”más” vectores
propios. Como S(λ) es un subespacio de |Rn entonces S(λ) es una recta que pasa por el
origen si mg (λ) = 1, es un plano que pasa por el origen si mg (λ) = 2, etc.
Una relación muy importante entre los números naturales ma (λ) y mg (λ) y que utilizare-
mos frecuentemente es la siguiente:

102
1 ≤ mg (λ) ≤ ma (λ) ≤ n.

La primera desigualdad ya la hemos deducido antes en la observación 5.15: si λ es valor


propio de A entonces existe al menos una recta de valores propios asociados a ese λ y por
tanto 1 ≤ mg (λ). La última desigualdad es trivial: el polinomio caracterı́stico de A es de
grado n y por lo tanto no puede tener más de n raı́ces reales. La desigualdad del medio es
la más importante y más complicada de comprobar y no lo haremos aquı́.
Una consecuencia inmediata de las desigualdades anteriores es que si ma (λ) = 1 entonces
forzosamente mg (λ) = 1. Es decir, si un valor propio aparece una sola vez en el polinomio
caracterı́stico (no se repite más de una vez), entonces únicamente hay un vector propio
independiente asociado a ese valor propio.
Como veremos más adelante, una buena propiedad de una matriz será que tenga n valores
propios y que éstos verifiquen ma (λ) = mg (λ) (se dé la igualdad en la desigualdad del medio
en el cuadro anterior). Esto estará asegurado si ma (λ) = 1.
A continuación vamos a comprobar que si λ1 y λ2 son valores propios de A distintos,
entonces sus correspondientes vectores propios x1 y x2 no nulos son independientes:
Tenemos que Ax1 = λ1 x1 y Ax2 = λ2 x2 . Si x1 y x2 fueran dependientes entonces
existirı́a un número real a tal que x1 = ax2 . Por tanto Ax1 = aAx2 y entonces λ1 x1 =
aλ2 x2 = λ2 ax2 = λ2 x1 . Restando el primer y último término de estas igualdades tenemos
que (λ1 − λ2 )x1 = 0. Como λ1 6= λ2 entonces x1 = 0, lo cual es una contradicción pues 0
no es vector propio.

5.3. Matrices diagonalizables


Dentro del conjunto de matrices cuadradas hay un subconjunto muy importante que son
las llamadas matrices diagonalizables. Observemos que la matriz A del Ejemplo 5.1 tiene
dos valores propios reales y dos vectores propios independientes: (1, 0) y (1, 1), que por tanto
forman base de |R2 . Sin embargo la matriz del ejemplo 5.14, aunque tiene 3 valores propios
reales, únicamente tiene dos vectores propios independientes: el (1, −3, 3) asociado al valor
propio 0 y el vector (1, 0, 0) asociado al valor propio 3. Por tanto los vectores propios de esa
matriz no forman base de |R3 .
Definición 5.19. Una matriz cuadrada A de tamaño n se dice diagonalizable cuando tiene
n valores propios reales (el máximo que puede tener) y n vectores propios independientes
(el máximo que puede tener), con lo cual sus vectores propios forman base de |Rn .
Dicho de otro modo, cuando todas las raı́ces de su polinomio caracterı́stico λ1 ,...,λm son
reales con ma (λ1 ) + ... + ma (λm ) = n y las dimensiones de sus subespacios caracterı́sticos
suman n: mg (λ1 ) + ... + mg (λm ) = n. Y como siempre ocurre que mg (λ) ≤ ma (λ), entonces

103
tenemos que si A es diagonalizable, las multiplicidades algebraicas y geométricas de todos
sus valores propios λi satisfacen:

mg (λi ) = ma (λi ) ∀ i, ma (λ1 ) + ... + ma (λm ) = n.

Observación 5.20. Si una matriz A tiene n valores propios λ1 ,...,λn todos distintos, en-
tonces, por la igualdad anterior tenemos que forzosamente todos ellos tienen multiplicidad
algebraica igual a uno: ma (λ1 ) = ... = ma (λn ) = 1. Pero como hemos visto anteriormente,
si ma (λ) = 1 entonces también mg (λ) = 1. Por tanto, todos los valores propios λi tienen
también multiplicidad geométrica igual a uno: mg (λ1 ) = ... = mg (λn ) = 1. Como los valores
propios λ1 ,...,λn son todos distintos, entonces los vectores propios v1 , ..., vn asociados a cada
uno de los valores propios λ1 ,...,λn son independientes. Es decir tenemos n valores propios
reales y n vectores propios independientes y por tanto A es diagonalizable. Ası́ pues;

Si una matriz tiene n valores propios distintos entonces es diagonalizable.


A continuación vamos a obtener la propiedad más importante que satisface toda matriz
diagonalizable A con valores propios λi y vectores propios correspondientes vi , i = 1, 2, ..., n,
a la cual debe el nombre de diagonalizable. Para ello construimos las siguientes matrices

λ1 0 0 . . . 0
 
 0 λ2 0 . . . 0 
 . . λ3 . . . . 
 
D= ,
 . . . . . . . 
0 0 0 . . . 0
 
0 0 0 . . . λn

es decir, una matriz diagonal con los valores propios de A (repetidos si su multiplicidad
algebraica es mayor que 1) en la diagonal y

| | |
 
 | | | 
P =  v1 | v2 | ... | vn  ,
 
| | |
 
| | |

es decir, una matriz cuyas columnas son los vectores propios de A en el mismo orden en que
los valores propios aparecen en D. Como sus columnas son vectores independientes, P es
inversible.
Si multiplicamos A por una columna cualquiera de P , vi , obtenemos esa misma columna
multiplicada por λi , pues vi es vector propio de A con valor propio λi : Avi = λi vi . El mismo
resultado obtenemos multiplicando la matriz P por la columna i−ésima de la matriz D: la
columna i−ésima de la matriz P D es λi vi como puede comprobarse de forma muy sencilla.
Por otra parte, multiplicando A por P : AP , tenemos que A está multiplicando a todas las
columnas de P , lo mismo que multiplicando P por D tenemos que P está multiplicando

104
a todas las columnas de D. Y como acabamos de decir, el resultado de multiplicar A por
la columna i−ésima de P es el mismo que el de multiplicar P por la columna i−ésima
de D, tenemos que, AP = P D. Despejando A tenemos el importante resultado de que si
una matriz cuadrada A es diagonalizable, entonces existen una matriz D diagonal y otra P
inversible tales que
A = P DP −1 .

Además, la diagonal de D son los valores propios de A (repetidos si su multiplicidad


algebraica es mayor que 1) y las columnas de P son los vectores propios de A
Lo contrario también es cierto: si A = P DP −1 con D diagonal y P inversible entonces
A es diagonalizable. Se deja como ejercicio comprobar esta afirmación.
Ejemplo 5.21. Para la matriz A del ejemplo 5.1 tenemos que
   
1 0 1 1
D= , P = .
0 2 0 1

Se puede comprobar que A = P DP −1 .


Observación 5.22. Si 0 es valor propio de A tenemos que su correspondiente (o corre-
spondientes) vector propio v0 satisface Av0 = 0v0 = 0 y Ker(f ) = S(0). Por tanto la
correspondiente aplicación lineal f cuya matriz es A, no es inyectiva. Y viceversa, si f es
inyectiva entonces 0 no puede ser valor propio de A.
Ejemplo 5.23. La matriz A del ejemplo 5.1 es la matriz de la siguiente f :
      
y1 1 1 x1 x1 + x2
y= = = .
y2 0 2 x2 2x2

Por tanto f (x1 , x2 ) = (x1 + x2 , 2x2 ). Como 0 no es valor propio de A, entonces esta
f : |R2 → |R2 es inyectiva, Ker(f ) = {0}. Justamente S(0) = ∅.
Ejemplo 5.24. La siguiente matriz
 
1 1
A=
0 0

tiene dos valores propios: 1 y 0 con vectores propios asociados (1, 0) y (1, −1) respectiva-
mente. Es la matriz de la siguiente f : |R2 → |R2 :
      
y1 1 1 x1 x1 + x2
y= = = .
y2 0 0 x2 0

Por tanto f (x1 , x2 ) = (x1 + x2 , 0). Como 0 es valor propio de A, entonces esta f : |R2 → |R2
no es inyectiva. Su núcleo es Ker(f ) = {(x1 , x2 ); (x1 + x2 , 0) = (0, 0)}, es decir, Ker(f ) =
{(x1 , x2 ); x1 + x2 = 0} = {(x, −x); x ∈ |R} =< (1, −1) >. Los subespacios propios de A son
S(1) =< (1, 0) > y S(0) =< (1, −1) >. Justamente S(0) =Ker(f ).

105
5.3.1. Valores propios de algunas matrices especiales
Podemos obtener propiedades de los valores propios del tipo de matrices vistas en la
Sección 2.1 e incluso calcularlos de una forma muy general usando las propiedades de dichas
matrices.
1. Matrices simétricas (A = AT ). Tienen n valores propios reales y n vectores propios
ortogonales (y por tanto independientes). Por tanto toda matriz simétrica es diagonalizable.
No comprobaremos que tienen n valores propios reales y n vectores propios, pero sı́ que
éstos son ortogonales. Si v1 y v2 son vectores propios de A simétrica correspondientes a
valores propios λ1 y λ2 distintos, entonces:

Av1 = λ1 v1 , Av2 = λ2 v2 .

Multiplicando la primera igualdad por v2 T por la izquierda y la segunda igualdad por v1 T


por la izda. obtenemos

v2 T · Av1 = λ1 v2 T · v1 , v1 T · Av2 = λ2 v1 T · v2 .

Como A es simétrica y el producto escalar es conmutativo, entonces el lado izquierdo de la


segunda igualdad queda v1 T · Av2 = v1 T · AT v2 = (AT v2 )T · v1 = v2 T · Av1 . Por tanto,
las dos igualdades anteriores son equivalentes a

v2 T · Av1 = λ1 v2 T · v1 , v2 T · Av1 = λ2 v1 T · v2 .

Restando ambas igualdades tenemos

0 = (λ1 − λ2 )v1 T · v2 .

Y como λ1 6= λ2 entonces v1 T · v2 = 0, es decir, v1 y v2 son ortogonales.


Si fueran λ1 = λ2 , utilizando algunos de los métodos de la sección 2.4 podrı́amos obtener
dos vectores ortogonales u1 y u2 a partir de v1 y v2 que seguirian siendo vectores propios
de A con valor propio λ1 = λ2 .
Observación. Los n vectores propios ortogonales {v1 , ..., vn } ası́ obtenidos forman una
base ortogonal de |Rn . Si ahora dividimos cada uno de ellos vj por su longitud |vj | obten-
emos una base ortonormal {u1 , ..., un }, con uj = |vj |/|vj |. Al igual que los vj , los n vectores
ortonormales uj son vectores propios de A con los mismos valores propios pues son propor-
cionales.
2. Matrices ortogonales (AAT = AT A = I). 0 no puede ser valor propio de una matriz
ortogonal y si λ es valor propio de A ortogonal, entonces λ−1 también lo es.
Si 0 fuera valor propio de A ortogonal entonces habrı́a un vector v 6= 0 tal que Av = 0v =
0. Multiplicando la izquierda de la igualdad por AT tenemos que AT Av = v. Multiplicando
la dcha. de la igualdad por AT tenemos que AT 0 = 0. Por tanto llegamos a la contradicción
de que v = 0. Por tanto 0 no puede ser valor propio de A ortogonal.

106
Si λ es valor propio de A entonces, usando que A es ortogonal y propiedades de los
determinantes tenemos que

0 =|A − λI| = |A − λI||AT | = |(A − λI)AT | = |AAT − λAT | =


|I − λAT | = |λλ−1 I − λAT | = |λ(λ−1 I − AT )| = λn |λ−1 I − AT | =
λn |(λ−1 I − A)T | = λn |λ−1 I − A| = (−λ)n |A − λ−1 I|.

Como 0 no es valor propio de A entonces λ 6= 0 y |A − λ−1 I| = 0, es decir, λ−1 es valor


propio de A.
Ejemplo 5.25. La siguiente matriz es ortogonal:
 
0 1
A= .
1 0

Sus valores propios son λ1 = 1 y λ2 = −1. En este ejemplo, obviamente λ−1 −1


1 = 1 y λ2 = −1
son también valores propios pues son ellos mismos.
3. Matrices idempotentes (A2 = A). Los únicos valores propios son 0 y 1.
Si λ es valor propio de A, entonces existe v 6= 0 tal que Av = λv. Multiplicando los dos
lados de la igualdad por A tenemos que A2 v = λAv = λ2 v. Pero también A2 v = Av = λv.
Por tanto λ2 = λ, cosa que únicamente es posible para λ = 0 ó 1.
4. Matrices nilpotentes de ı́ndice k (Ak−1 6= 0, Ak = 0). El único valor propio es el 0.
Si λ es valor propio de A, entonces existe v 6= 0 tal que Av = λv. Como Ak = 0 tenemos
que 0 = Ak v = Ak−1 Av = Ak−1 λv = λAk−1 v = λAk−2 Av = λ2 Ak−2 v = λ3 Ak−3 v = ... =
λk−1 Av = λk v. Por tanto, escribiendo únicamente el lado izquierdo y derecho vemos que
0 = λk v y por tanto λ = 0.
Observación 5.26. Con lo que sabemos hasta ahora, la estrategia para determinar si una
matriz A es diagonalizable puede ser la siguiente:
(1) Si A es simétrica entonces seguro que es diagonalizable.
(2) Si A no es simétrica entonces calculo sus valores propios.
(2.1) Si tiene n valores propios distintos (todos con multiplicidad algebraica igual
a uno), entonces A es diagonalizable.
(2.2) Si tiene n valores propios pero alguno repetido (alguno con multiplicidad
algebraica mayor que uno), entonces calculemos los vectores propios asociados a los valores
propios repetidos. Si para cada uno de esos valores propios con multiplicidad algebraica
mayor que uno, obtenemos tantos vectores propios independientes como veces se repite el
valor propio (multiplicidad algebraica=multiplicidad geométrica) entonces es diagonalizable.
En caso contrario no es diagonalizable.

107
5.3.2. Matrices no negativas y matrices de Markov
Definición 5.27. Una matriz A se dice no negativa si todos sus elementos son números
no negativos. Escribiremos simbólicamente A ≥ 0. Diremos que una matriz A es positiva
si todos sus elementos son números positivos. Escribiremos simbólicamente A > 0. Igual-
mente, un vector v se dice positivo si sus componentes son números positivos. Escribiremos
simbólicamente v > 0.
Observemos que las matrices positivas son un caso particular de no negativas.
   
1 1 1 1
Ejemplo 5.28. La matriz es no negativa. La matriz es no negativa y,
2 0 2 3
más aún, positiva.
Las matrices no negativas y positivas tienen gran importancia en la modelización de
algunos sistemas de evolución discretos donde los parámetros son cantidades positivas o al
menos no negativas.
El resultado más importante sobre matrices positivas, que no vamos a demostrar aquı́,
afirma que si A > 0, entonces:
1. A tiene un valor propio positivo asociado a un vector propio positivo. Es decir,
Av = λ0 v para algún número real λ0 > 0 y algún v > 0.
2. Más aún, ese valor propio positivo λ0 es el más grande en módulo de todos los valores
propios de A, es decir, el resto de valores propios λ verfican |λ| ≤ λ0 .
Ejemplo 5.29. Los valores propios de la matriz positiva
 
1 1 1
A = 3 1 1
3 1 1

son 4, 0 y −1, de modo que λ0 = 4. El vector propio correspondiente a λ0 es (2, 3, 3), que
es un vector positivo.
Además de las matrices positivas, otro caso particular de matrices no negativas son las
llamadas matrices de Markov.
Definición 5.30. Una matriz A es de Markov si A ≥ 0 y en cada una de sus filas, sus
elementos suman 1.
 
1/2 1/2
Ejemplo 5.31. La matriz es de Markov.
2/3 1/3
Las matrices de Markov tienen gran importancia en la modelización de sistemas evolu-
tivos discretos en función de términos probabilı́sticos.
El resultado más importante sobre matrices de Markov afirma que si A es de Markov,
entonces:

108
1. A tiene un valor propio 1 (positivo) asociado al vector propio (1, 1, 1, ..., 1) (positivo).
Es decir,
1 1
   
1 1
A .  =  . . (10)
   
. .
   
1 1
Esta afirmación es fácil de comprobar y se propone como ejercicio.
2. El resto de los valores propios de A son inferiores a 1 en valor absoluto, es decir, el
resto de valores propios λ satisfacen |λ| < 1. Esta afirmación no la demostraremos aquı́.
Ejemplo 5.32. Los valores propios de la matriz de Markov
 
1/3 1/3 1/3
A= 0 1/2 1/2 
0 1/2 1/2
   
1 1
son 1, 1/3 y 0 y desde luego que A 1 = 1 .
  
1 1

5.4. Problemas resueltos


5.4.1. Diagonalizar la matriz:
 
2 0 4
A= 3
 −4 12 
1 −2 5

Solución. Calculamos primero el polinomio caracterı́stico de A:

2−x 0 4
|A − xI| = 3 −4 − x 12 = x(x − 1)(2 − x),
1 −2 5−x

por lo que sus valores propios son 0, 1 y 2. Como son distintos, A es diagonalizable. Los
vectores propios correspondientes al valor propio 0 son las soluciones del sistema (A−0I)x =
0, es decir:

 x = − 2z
    
2 0 4 x 0 
 3 −4 12   y  =  0  ⇒ y =3z/2
1 −2 5 z 0

z libre

109
Por tanto S(0) =< (−4, 3, 2) > y un vector propio es el (−4, 3, 2). Los vectores propios
correspondientes al valor propio 1 son las soluciones del sistema (A − I)x = 0, es decir:

 x = − 4z
    
1 0 4 x 0 
3 −5 12   y  =  0  ⇒ y =0
1 −2 4 z 0

z libre

Por tanto S(1) =< (−4, 0, 1) > y un vector propio es el (−4, 0, 1). Los vectores propios
correspondientes al valor propio 2 son las soluciones del sistema (A − 2I)x = 0, es decir:

 x =2y
    
0 0 4 x 0 
3 −6 12   y  =  0  ⇒ y libre
1 −2 3 z 0

z =0

Por tanto S(0) =< (2, 1, 0) > y un vector propio es el (2, 1, 0). Entonces A = P DP −1 ,
donde D es una matriz diagonal con los valores propios en la diagonal y P es una matriz
cuyas columnas son los correspondientes vectores propios independientes:
   
0 0 0 −4 −4 2
D = 0 1 0, P = 3 0 1.
0 0 2 2 1 0

5.4.2. Sabemos que (1, 0, 1), (1, 1, 1) y (0, 1, 1) son vectores propios de una matriz A 3 × 3
asociados respectivamente a los valores propios 1, -1 y 0. Encontrar A.
Solución. Como A tiene 3 vectores propios independientes es diagonalizable y es A =
P DP −1 , con D diagonal con 1, -1 y 0 en la diagonal y las columnas de P los vectores
(1, 0, 1), (1, 1, 1) y (0, 1, 1). Por tanto:
   
1 0 0 1 1 0
D= 0
 −1 0, P = 0 1
 1
0 0 0 1 1 1

y
     
1 1 0 1 0 0 0 −1 1 −1 −2 2
A = P DP −1 = 0
 1 1   0 −1 0   1 1 −1 = −1
  −1 1  .
1 1 1 0 0 0 −1 0 1 −1 −2 2

5.4.3. Sean A y B dos matrices cuadradas del mismo orden. Comprobar que si una de ellas
es inversible, entonces las matrices AB y BA tienen el mismo polinomio caracterı́stico y,
por tanto, los mismos valores propios.
Solución. El polinomio caracterı́stico de AB es p1 (x) = |AB − xI| y el de BA es p2 (x) =
|BA − xI|. Supongamos que A es inversible, por lo que |A| = 6 0 y |A−1 | = 1/|A|. Entonces

110
|A||A−1 | = 1. Multiplicando p2 (x) por |A||A−1 | (o sea, multiplicándolo por 1) tenemos
que p2 (x) = |BA − xI||A||A−1 | = |A||BA − xI||A−1 |. Utilizando que el determinante
de un producto es producto de determinantes tenemos que p2 (x) = |A(BA − xI)A−1 | =
|ABAA−1 − xAIA−1 | = |AB − xI| = p1 (x), que es lo que querı́amos comprobar.

5.4.4. Definimos una aplicación lineal f : |R3 → |R3 dando las imágenes de los vectores de
la base canónica:

f (e1 ) = e1 , f (e2 ) = e2 + e3 , f (e3 ) = 2e1 − e3 .

Hallar la matriz A asociada a f y determinar si A es diagonalizable.


Solución. Las columnas de A son las coordenadas de las imágenes de e1 , e2 y e3 , por
tanto:  
1 0 2
A = 0 1 0 .
0 1 −1

El polinomio caracterı́stico de esta matriz es |A − xI| = −(x + 1)(x − 1)2 , por lo que sus
valores propios son −1, con ma (−1) = 1 y 1 con ma (1) = 2. Como el valor propio 1 se repite
dos veces, podrı́a ser mg (1) = 1 o mg (1) = 2. Si mg (1) = 1 no es diagonalizable (habrá
únicamente 2 vectores propios independientes, el del valor propio −1 y uno del valor propio
1). Si mg (1) = 2 entonces hay dos vectores propios independientes de valor propio 1 que,
junto con el del −1 hacen 3 vectores propios independientes y A es diagonalizable. Veamos
pues cuántos vectores propios hay de valor propio 1, cuanto es mg (1), resolviendo el sistema
(A − I)x = 0:

 x libre
    
0 0 2 x 0 
 0 0 0   y  =  0  ⇒ y =0
0 1 −2 z 0

z =0

Por tanto S(1) =< (1, 0, 0) >, mg (1) =Dim(S(1)) = 1 y por tanto A no es diagonalizable.

5.4.5. Hallar las condiciones que deben satisfacer a y b para que la siguiente matriz sea
diagonalizable:  
1 1 a2
A = 0 b 0 .
1 1 1

Solución. Su polinomio caracterı́stico es |A − xI| = (b − x)(x + a − 1)(x − a − 1), por lo


que sus valores propios son 1 − a, 1 + a y b. Si a 6= 0 y b 6= 1 ± a entonces los tres valores
propios son distintos y seguro que A es diagonalizable. Cuando a = 0 y/o b = 1 + a y/o
b = 1 − a entonces al menos un valor propio se repite dos veces y debemos calcular sus
vectores propios para saber si es diagonalizable.

111
Si a = 0 entonces los valores propios son 1, 1 y b. Debemos calcular S(1) resolviendo el
sistema (A − I)x = 0:

x = 0
    
0 1 0 x 0 
0 b − 1 0y  = 0 ⇒ y = 0
1 1 0 z 0

z libre

Por tanto S(1) =< (0, 0, 1) >, mg (1) = 1 < 2 = ma (1) y no es diagonalizable.
Si b = a + 1 entonces los valores propios son a + 1, a + 1 y 1 − a. Debemos calcular
S(a + 1) resolviendo el sistema (A − (a + 1)I)x = 0:

 x = az
 2
   
−a 1 a x 0 
 0 0 0 y  = 0 ⇒ y = 0
1 1 −a z 0

z libre

Por tanto S(a + 1) =< (a, 0, 1) >, su dimensión es mg (a + 1) = 1 < 2 = ma (a + 1) y no es


diagonalizable.
Si b = 1 − a entonces los valores propios son a + 1, 1 − a y 1 − a. Debemos calcular
S(1 − a) resolviendo el sistema (A − (1 − a)I)x = 0:

 x = −az
    
a 1 a2 x 0 
0 0 0 y  = 0 ⇒ y = 0
1 1 a z 0

z libre

Por tanto S(1 − a) =< (−a, 0, 1) >, su dimensión es mg (1 − a) = 1 < 2 = ma (1 − a) y


tampoco es diagonalizable.

5.4.6. Dada A una matriz cuadrada con polinomio caracterı́stico p(x) = (−1)n (xn − 1),
calcular el determinante de A.
Solución. Como p(x) = |A − xI| tenemos que p(0) = |A|, por tanto |A| = p(0) = (−1)n+1 .

5.4.7. ¿Falso o verdadero? (pon un contraejemplo si es falso):


(i) Si formamos B intercambiando dos filas de A y B es diagonalizable, entonces A también
lo es.
 
0 1
Solución. Falso, por ejemplo A = no es diagonalizable como puede comprobarse
 0 0

0 0
fácilmente. Sin embargo, B = es diagonalizable pues ella misma ya es diagonal.
0 1
(ii) Si una matriz triangular A es diagonalizable, entonces A es diagonal.
 
1 1
Solución. Falso, por ejemplo A = es triangular, no diagonal y es diagonalizable
0 2
pues sus valores propios, 1 y 2 son distintos.

112
(iii) Si A y B son diagonalizables, entonces A + B lo es.
   
1 0 0 1
Solución. Falso, por ejemplo A = yB = son diagonalizables pues sus
0 0 0 1
valores propios sondistintos
 (0 y 1, los elementos de sus diagonales, son triangulares). Sin
1 1
embargo A + B = no es diagonalizable como puede comprobarse fácilmente.
0 1

5.4.8. Sean A y B dos matrices tales que B = P AP −1 , con P otra matriz inversible.
Comprobar que A y B tienen el mismo determinante.
Solución. Tenemos que |B| = |P AP −1 |. Como el determinante de un producto de matrices
es el producto de determinantes y el determinante de P −1 es el inverso del determinante
de P , tenemos que |B| = |P AP −1 | = |P ||A||P −1 | = |P ||A||P |−1 = |A|, con lo que queda
comprobado.

5.5. Problemas propuestos


5.5.1. Encontrar P inversible tal que P −1 AP sea diagonal, con
 
1 2
A= .
2 1

5.5.2. Sea la matriz  


m 1 1
A =  3 2 1
−8 2 0

(a) Determinar el valor de m para que λ = 1 sea valor propio de A.


(b) Para este valor de m, hallar los valores propios de A.
(c) Calcular una matriz P , tal que P −1 AP sea diagonal.

5.5.3. Sea la matriz  


1 b c
A = 2 b0 c0 
3 b00 c00
Determinar los elementos de la matriz A sabiendo que admite como vectores propios a
(1, 0, 1), (−1, 1, 0) y (0, 1, −1). Probar que A es diagonalizable. Encontrar una matriz P tal
que P −1 AP sea diagonal. Calcular P −1 AP .

5.5.4. Sabemos que (1, 1, 1), (1, 1, 2) y (0, 1, 1) son vectores propios de una matriz A 3 × 3
asociados respectivamente a los valores propios 1, 2 y 3. Encontrar A.

113
5.5.5. Sean A y B dos matrices tales que B = P AP −1 , con P otra matriz inversible.
Comprobar que A y B tienen el mismo polinomio caracterı́stico. Comprobar que las matrices
   
1 0 1 0
A= y B=
1 1 0 1

tienen el mismo polinomio caracterı́stico y no existe ninguna P inversible tal que B =


P AP −1 . ¿Contradice este hecho el resultado anterior?

5.5.6. ¿Cuáles son los valores y vectores propios de la matriz nula? ¿Y de la matriz
identidad? ¿Y de una matriz triangular? ¿Y de una matriz n × n que tenga todos sus
elementos iguales? ¿Son estas matrices diagonalizables?

5.5.7. Queremos definir una aplicación lineal f : |Rn → |Rn tal que a cada vector de la base
canónica le haga corresponder el siguiente vector, excepto al último que le hará corresponder
el primero.
(a) Mostrar la matriz asociada a f .
(b) Determinar el núcleo y la imagen de f .
(c) Demostrar que el vector e1 + e2 + · · · + en es un vector propio de A.

5.5.8. Una cierta matriz A 3 × 3 es diagonalizable y sus valores propios son 2 (simple) y
-4 (doble) y sus subespacios propios correspondientes son S(2) =< (0, 1, 1) > y S(−4) =<
(2, 3, 0), (−1, 0, 2) >. Hallar la matriz A.

5.5.9. Sea f : |R3 → |R3 dada por: f (1, 0, 0) = (3, 1, 0), f (0, 1, 0) = (0, 2, 0), f (1, 1, 1) =
(2, 2, 2).
(a) Calcula la matriz A de f y deduce f (x, y, z) para cualquier (x, y, z).
(b) ¿Puedes deducir, sin hacer operaciones, que hay algún valor propio con multiplicidad
mayor o igual que 2? ¿Cuál es este valor propio?
(c) Calcula el núcleo y la imagen de la aplicación y deduce el tipo de aplicación que
resulta.
(d) Halla los valores propios y los subespacios fundamentales asociados a ellos.
(e) ¿Es A diagonalizable? En caso afirmativo, halla una matriz D diagonal y P inversible
tal que A = P DP −1 .

5.5.10. Sean tres matrices A, P , D tales que P es ortogonal, D diagonal y D = P −1 AP .


Comprobar en general o negar con un ejemplo las siguientes afirmaciones:
(i) A es simétrica.
(ii) A es inversible.

5.5.11. Para cada número real α se define la aplicación lineal

f (x, y, z) = (x cos α − y sin α, x sin α + y cos α, z).

114
(a) Halla su matriz asociada A.
(b) Calcula Ker (f ) e Im (f ), dando la dimensión y una base de cada uno de ellos.
¿Puede darse una base de Im (f ) independiente de α ? Determina el tipo de apli-
cación que resulta f en función de α.
(c) Demuestra que A admite el valor propio 1 cualquiera que sea α.
(d) ¿Para qué valores de α es A diagonalizable?

5.5.12. Estudiar para qué valores de los parámetros a y b es diagonalizable la siguiente


matriz  
1 a 0
0 1 b.
0 0 2

5.5.13. Estudiar para qué valores de los parámetros a y b es diagonalizable la siguiente


matriz  
5 0 0
0 −1 b  .
3 0 a
Obtener valores y vectores propios.

5.5.14. Construye una matriz que tenga por valores propios 1, 2, 3, 4 y 5 y no sea diagonal.
Construye otra matriz 5×5 que tenga por valores propios 1, 2, 3, 4 y 5 y no sea diagonalizable.
1 1 1 1 1
 
1 1 1 1 1
1 
5.5.15. Considerar la matriz cuadrada A = 5  1 1 1 1 1 . Demostrar que λ1 = 0

1 1 1 1 1
 
1 1 1 1 1
es un valor propio de A. Cuál es la multiplicidad geométrica y algebraica de λ1 = 0?.
Encontrar otro valor propio λ2 6= 0 y su vector propio asociado.

5.5.16. Dar la expresión general de todas las matrices de Markov de tamaño 2 × 2. Dar
la expresión general de todas las matrices de Markov de tamaño 2 × 2 y determinante nulo.
Dar la expresión general de todas las matrices de Markov de tamaño 2 × 2, determinante
nulo y simétricas.

5.5.17. Dar la expresión general de todas las matrices de Markov y triangulares superiores
de tamaño 3 × 3. Dar la expresión general de todas las matrices de Markov, triangulares
superiores de tamaño 3 × 3 y determinante nulo. Dar la expresión general de todas las
matrices de Markov, triangulares superiores de tamaño 3 × 3, determinante nulo y que
tengan como valor propio λ = 0 con multiplicidad algebraica 2.

5.5.18. Los valores propios de una cierta matriz A de tamaño 3 × 3 son 1, 2 y 3 y sus
correspondientes vectores propios v1 , v2 y v3 . Cuáles son los valores propios de B =
(I − A)2 ?. Cuáles son los vectores propios de B?. Es inversible la matriz B? Por qué?

115
5.5.19. Construir la matriz de una aplicación lineal de f : R3 → R3 tal que f (1, 1, 0) =
(1, 1, 0), (0, 0, 1) es vector propio de valor propio 2 y otro vector propio, de valor propio 3,
es ortogonal a los vectores (1, 1, 0) y (0, 0, 1).

5.5.20. Estudiar para


 qué valores de los parámetros a y b es diagonalizable la siguiente
−1 0 0
matriz:  0 0 b.
0 0 a
5.5.21. Estudiar para qué valores del parámetro a es diagonalizable la siguiente matriz:
 
−1 0 0
 0 0 1.
0 0 a

5.5.22. Construir una matriz 3 × 3 que tenga por valores propios 1, 0 y −1 y por vectores
propios respectivos (1, 1, 0), (1, −1, 0) y (0, 0, 1).

5.5.23. Prueba que si A es una matriz simétrica n × n y rank(A) = r < n, entonces el 0


es valor propio de A con ma (0) = n − r. Prueba, encontrando un contraejemplo, que esta
afirmación es falsa si A no es simétrica.

5.5.24. Decir si las siguientes afirmaciones son ciertas o falsas y porqué:


(a) Toda matriz cuadrada A tiene n valores propios distintos.
(b) 0 nunca puede ser un valor propio.
(c) Si λ es valor propio de A2 , entonces λ o −λ es valor propio de A.
(d) Si el único valor propio de A es el 0, entonces A es la matriz nula.
(e) Si u y v son dos vectores propios del mismo valor propio λ, entonces u y v son propor-
cionales.
(f) Si u y v son dos vectores propios del mismo valor propio λ y ma (λ) = 1, entonces u y v
son proporcionales.

5.5.25. Sea A una matriz simétrica, y sean λ1 y v1 un valor propio de A y su correspondiente


vector propio, con |v1 | = 1. Sean λ2 , λ3 , ..., λn el resto de valores propios de A. Probar que
los valores propios de esta otra matriz:

B := A − λ1 v1 v1T

son 0, λ2 , λ3 , ..., λn .

Soluciones a los problemas propuestos


 
  −3 −1 −1
−1 1
5.5.1. P = . 5.5.2 (a) m = 4. (b) 1, 2, 3. (c) P = −5
 −1 −1  .
1 1
14 3 2

116
     
1 5 5 1 −1 0 6 0 0
−1
5.5.3. A = 2 −2 −2 , P = 0 1
   1 , P AP = 0
 −4 0  .
3 3 3 1 0 −1 0 0 0
     
1 1 0 1 0 0 1 −1 1
5.5.4. P =  1 1 1  , D = 0 2 0, A = P DP −1 =  −2 2 1  .
1 2 1 0 0 3 −2 0 3
5.5.5. No contradice.

5.5.6. Nula: 0. Identidad: 1. Trianguar: elementos de la diagonal. De una matriz n × n


que tenga todos sus elementos iguales a 1: 0 y n.
0 0···· 0 1
 
1 0 · · · · 0 0
0 1 · · · · 0 0
 
5.5.7. (a)  · · · · , | n.
(b) Ker(f)= {0}, Im(f)=R
 
· · · ·
 
· · · ·
 
0 0···· 1 0
 
−4 0 0
5.5.8. A =  −36 20 −18  .
−36 24 −22
 
3 0 −1
5.5.9. (a) A =  1 2 −1  . f (x, y, z) = (3x − z, x + 2y − z, 2z) (b) 2, multiplicidad
0 0 2
2. (c) Ker(f)= {(0, 0, 0)}, biyectiva. (d) val. 
prop.: 2,2,3,
 S(2) =< (0, 1, 0), (1, 1,1) >,
2 0 0 0 1 1
S(3) =< (1, 1, 0) >. (e) Es diagonalizable, D = 0 2 0 ,
  P = 1 1 1.

0 0 3 0 1 0
 
1 0
5.5.10. (i) Si. (ii) No, P = I, D = A = .
0 0
 
cos α − sin α 0
5.5.11. (a)  sin α cos α 0  (b) Ker(Fα ) = {(0, 0, 0)}, dimension 0. Im(Fα ) = |R3 ,
0 0 1
dimension 3. Sı́ puede darse una base de Im (Fα ) independiente de α. Es un giro de ángulo
α alrededor del eje z. Es una biyección. (d) α = 0, π.

5.5.12. a = 0.

5.5.13. (i) a 6= −1, 5 y cualquier b. (ii) También para a = −1 si b = 0. Valores propios 5,-1
y a. Vectores propios: (i) (2(5 − a), b, 6), (0, 1, 0), (0, b, 1 + a), (ii) (2, 0, 1), (0, 1, 0), (0, 0, 1).

5.5.14. (a) Cualquier matriz triangular superior con 1, 2, 3, 4, 5 en la diagonal. (b) Imposi-
ble.

5.5.15. ma (1) = mg (1) = 4. Λ2 = 0 con v2 = (1, 1, 1, 1, 1).

117
5.5.16. Con 0 ≤ a, b ≤ 1:
     
a 1−a a 1−a 1/2 1/2
, , .
b 1−b a 1−a 1/2 1/2

5.5.17. Con a, b, c ≥ 0, c ≤ 1, a + b ≤ 1:
       
a b 1−a−b 0 b 1−b a b 1−a−b 0 b 1−b
0 c 1 − c , 0 c 1 − c o 0 0 1 , 0 0 1 .
0 0 1 0 0 1 0 0 1 0 0 1

5.5.18. Valores propios 0, 1, 4. Vectores propios los mismos. B no es inversible pues tiene
un vp cero.
5.5.19.  
2 −1 0
 −1 2 0
0 0 2

5.5.20. Cuando b = 0, a ∈ R y también cuando a 6= 0 y b ∈ R.


5.5.21. Cuando b = 0, a ∈ R y también cuando a 6= 1, 2 y b ∈ R.
5.5.22.  
1/2 1/2 0
 1/2 1/2 0 .
0 0 −1

5.5.24. (a) F. (b) F. (c) V. (d) F. (e) F. (f) V.

118
CAPITULO 6. FORMAS CUADRATICAS
Como decı́amos en la introducción del capı́tulo 4, las leyes matemáticas que describen
algunos modelos, en general, vienen dadas por funciones no lineales. Aunque en algunas
ocasiones esas funciones no lineales pueden aproximarse por funciones lineales que pueden
darnos información sobre el modelo no lineal, en general se hace necesario el estudio del
modelo no lineal. Uno de los problemas básicos en el estudio de ciertos modelos consiste
en la optimización de una función. Matemáticamente, el problema consiste en el estudio
de máximos y mı́nimos libres o condicionados de una función de varias variables. Este
problema matemático se sale del objetivo de este libro y se aborda en otro tipo de textos
sobre cálculo o técnicas de optimización, pero requiere de un ingrediente esencial de tipo
algebraico que es el que vamos a abordar en este capı́tulo: las formas bilineales y formas
cuadráticas. Para nosotros se trata simplemente de una nueva operación entre vectores que
generaliza el concepto de producto escalar introducido en el capı́tulo 2.
Aunque el problema de optimización en modelos realistas no podemos abordarlo aquı́,
sı́ que podemos plantearnos un sencillo problema de optimización que podremos resolver
al final del capı́tulo. Supongamos que el impuesto anual total (en miles de euros) que una
empresa paga al gobierno depende de los beneficios anuales x de la empresa, de su capital
inmobiliario y y de su capital financiero z, viene dado por la función

f (x, y, z) = 2(x2 + y 2 + z 2 ) + 2a(yz − xy) + 2xz,

donde a es un parámetro cuyo valor lo decide el gobierno. El gobierno quiere saber qué
posibles valores puede asignar al parámetro a para que el impuesto sea siempre positivo
(por supuesto) o para penalizar más el capital financiero sobre el inmobiliario por ejemplo.

6.1. Definición de formas cuadráticas


Dado un vecor genérico (x1 , x2 , ..., xn ) de Rn , una forma cuadrática en Rn es una com-
binación lineal de todos los posibles productos de parejas de componentes de ese vector:
x21 , x1 x2 , x1 x3 , .... Por ejemplo, la expresión x2 + y 2 + 2xy es una forma cudrática en R2 .
Toda forma cuadrática en Rn puede escribirse de forma matricial como el producto del
vector (x1 , x2 , ..., xn ) por una matriz simétrica por el mismo vector.
Ejemplo 6.1. La forma cuadrática f (x, y) = x2 + y 2 + 2xy puede escribirse en la forma:
  
1 1 x
f (x, y) = (x, y) = x2 + y 2 + 2xy.
1 1 y

Observar que una forma cuadrática es de la forma ”suma de productos de dos coordenadas
por números”.

119
Observación 6.2. Cualquier forma cuadrática f puede escribirse en la forma f (x) = xT Ax
con A simétrica. Entonces, resulta evidente ver que toda forma cuadrática es de la forma
”suma de productos de dos coordenadas por números”. Cualquier forma cuadrática f :
|Rn → |R es de la forma:

a11 a12 . . . a1n x1


  
 a21 a22 . . . a2n   x2 
f (x1 , x2 , ..., xn ) =xT · A · x = (x1 , x2 , ..., xn )  . . . . . .  .  =
  
. . . . . . .
  
an1 an2 . . . ann xn
a11 x21 + (a12 + a21 )x1 x2 + ... + a22 x22 + ... + (a2n + an2 )x2 xn + ... + ann x2n ,

donde la matriz A es simétrica.


Ejemplo 6.3. Sea f : |R2 → |R dada por  f (x,
2
 y) = x + y. Es imposible encontrar una
x
matriz 2 × 2 tal que xT A x = (x, y) · A · = x2 + y. Es decir, f (x, y) = x2 + y no es
y
una forma cuadrática. Observemos que x2 + y no es de la forma ”suma de productos de dos
coordenadas por números”.
Ejemplo 6.4. La aplicación f (x, y, z) = x2 + 2xy + 4xz − 6yz + 5z 2
es 
una forma cuadrática
x
f : |R3 → |R pues puede ponerse en la forma f (x, y, z) = (x, y, z)A  y  con A simétrica:
z
  
1 1 2 x
f (x, y, z) = (x, y, z)  1 0 −3   y  .
2 −3 5 z

Podrı́amos, en este ejemplo, haber elegido otra matriz A para f , como por ejemplo:
  
1 0 1 x
f (x, y, z) = (x, y, z) 2
 0 −4   y .
3 −2 5 z

Pero esta matriz no es simétrica. Elegiremos siempre una matriz simétrica para
escribir cualquier forma cuadrática.
Una propiedad importante es la siguiente: Toda forma cuadrática f : |Rn → |R satisface
f (ax) = a2 f (x) ∀ x ∈ |Rn y a ∈ |R. Dejamos como ejercicio la comprobación de esta
propiedad.
Una consecuencia inmediata de esta propiedad es que toda forma cuadrática f : |Rn → |R
satisface f (0) = 0 (como le ocurre también a cualquier aplicación lineal f : |Rn → |Rm ).
Podemos verlo del siguiente modo: como 0 = 0x para cualquier vector x, entonces, usando
la propiedad anterior con a = 0 y cualquier vector x tenemos que f (0) = f (0x) = 02 f (x) =
0. O de otro modo, dado que cualquier forma cuadrática f : |Rn → |R es de la forma

120
f (x1 , x2 , ..., xn ) = a11 x21 + (a12 + a21 )x1 x2 + ... + a22 x22 + ... + (a2n + an2 )x2 xn + ... + ann x2n ,
entonces f (0, 0, ..., 0) = a11 0 + (a12 + a21 )0 + ... = 0.

6.2. Diagonalización de formas


cuadráticas y clasificación
Observar los siguientes ejemplos de formas cuadráticas de |R2 a |R:

f (x, y) =x2 + y 2 > 0 ∀ (x, y) 6= (0, 0)


2 2
f (x, y) = − x − y < 0 ∀ (x, y) 6= (0, 0)
2 2
f (x, y) =x − y > 0 para algunos (x, y) y x2 − y 2 < 0 para otros (x, y)
f (x, y) =x2 − 2xy + y 2 = (x − y)2 ≥ 0 ∀ (x, y) 6= (0, 0).

En estos ejemplos resulta sencillo determinar el signo de f (x) para todos los x, lo que da
pie a la siguiente definición.
Definición 6.5. Sea f : |Rn → |R una forma cuadrática. Decimos que:
f es definida positiva (denotamos f > 0) ⇔ f (x) > 0 ∀ x ∈ |Rn , x 6= 0.
f es definida negativa (denotamos f < 0) ⇔ f (x) < 0 ∀ x ∈ |Rn , x 6= 0.
f es semidefinida positiva (denotamos f ≥ 0) ⇔ f (x) ≥ 0 ∀ x ∈ |Rn , x 6= 0.
f es semidefinida negativa (denotamos f ≤ 0) ⇔ f (x) ≤ 0 ∀ x ∈ |Rn , x 6= 0.
f es indefinida (denotamos f >< 0) ⇔ f (x) > 0 para unos x ∈ |Rn y f (x) < 0 para otros
x ∈ |Rn .
Determinar si una forma cuadrática es positiva, negativa, etc,... se denomina clasificarla.
En los sencillos ejemplos anteriores es inmediato determinar que f (x, y) = x2 + y 2 es
definida positiva, o que f (x, y) = −x2 − y 2 es definida negativa, o que f (x, y) = x2 − y 2
es indefinida o que f (x, y) = x2 − 2xy + y 2 es semidefinida positiva. Sin embargo, en la
mayoria de los ejemplos no resulta inmediato clasificarlos. Por ejemplo, no es evidente cómo
se clasifica la forma cuadrática del ejemplo 6.4. El problema de clasificación de formas
cuadráticas se resuelve diagonalizando la matriz A que las representa.
En el capı́tulo 5 vimos que toda matriz simétrica A es diagonalizable y admite una base
ortonormal de vectores propios. Por tanto pude escribirse en la forma A = P DP −1 donde
D es diagonal con los valores propios en la diagonal y las columnas de P son los n vectores
propios ortonormales de A. Pero si las columnas de P son vectores ortonormales, vimos en
el capı́tulo 3 que entonces P es una matriz ortogonal y por tanto P −1 = P T . Entonces, la
matriz que representa a cualquier forma cuadrática f puede escribirse en la forma

A = P DP T .

121
Tenemos entonces que

f (x) = xT Ax = xT (P DP T )x = (xT P )D(P T x) = (P T x)T D(P T x).

Definimos el vector

y1 p11 p21 . . . pn1 x1


    
 y2   p12 p22 . . . pn2   x2 
 .   . . . . . .  . 
    
y = P T x, es decir,  =  ,
 .   . . . . . .  . 
. . . . . . . .
    
yn p1n p2n . . . pnn xn

donde las filas de P T , uj = (p1j , p2j , .., pnj ), son los vectores propios ortonormales de A.
Tenemos entonces que en las nuevas variables yT = (y1 , y2 , ..., yn ), la forma cuadrática se
escribe

λ1 0 . . . 0 y1
  
 0 λ2 . . . 0   y2 
 . . . . . .  . 
  
f (x) = yT Dy = (y1 , y2 , ..., yn ) ·     = λ1 y12 + λ2 y22 + ... + λn yn2 .
 . . . . . .  . 
. . . . . . .
  
0 0 . . . λn yn

Es decir, f (x1 , x2 , ..., xn ) puede escribirse como una suma de números λj por números al
cuadrado yj2 .
La expresión f (x1 , x2 , ..., xn ) = λ1 y12 + λ2 y22 + ... + λn yn2 permite clasificar fácilmente f :
Clasificación de formas cuadráticas. Sea f : |Rn → |R una forma cuadrática y sea A su
matriz asociada (simétrica) con valores propios λ1 , ..., λn . Entonces tenemos que:
i) f > 0 si todos los λi > 0.
ii) f < 0 si todos los λi < 0.
iii) f ≥ 0 si todos los λi ≥ 0.
iv) f ≤ 0 si todos los λi ≤ 0.
v) f es indefinida si algún λi > 0 y algún otro λj < 0.
2
Ejemplo 6.6. Tomemos  la f del ejemplo 6.4, f (x1 , x2 , x3 ) = x1 + 2x1 x2 + 4x1 x3 − 6x2 x3 +
x1
5x23 = (x1 , x2 , x3 )A  x2 , con
x3
 
1 1 2
A= 1
 0 −3  .
2 −3 5

122
Los valores propios de esta matriz son λ1 = 1, λ2 = 6 y λ3 = −4 y por tanto la forma
cuadrática es indefinida. Aunque ya tenemos pues clasificada f , podemos ir un poco más allá
y ver cómo se escribe como suma de cuadrados. Los vectores propios respectivos (obtenidos
resolviendo (A − λI)v = 0) son v1 = (0, 3, 4), v2 = (5, 4, −3) y v3 = (5, −4, 3). Estos
vectores propios son ortogonales pero no son ortonormales. Dividiendo cada uno de ellos
por su norma obtenemos otros tres vectores propios ortonormales u1 = 51 (0, 3, 4), u2 =
√1 (5, 4, −3) y u3 = √1 (5, −4, 3). Tenemos entonces que A = P DP T con
50 50
   √ √ 
1 0 0 0 1/
√ 2 1/√2
D = 0 6 0 , P =  3/5 2 2/5
√ −2 √2/5

0 0 −4 4/5 −3/ 50 3/ 50
y que
         3x2 +4x3 
y1 x1 0√ 3/5
√ 4/5
√ x1 5
 5x1 +4x 2 −3x3 
 y2  = P T  x2  =  1/ 2 2 √2/5 −3/√ 50 x2 =  √
.

   50
y3 x3 1/ 2 −2 2/5 3/ 50 x3 5x1 −4x
√ 2 +3x3
50

Por tanto queda finalmente


 2  2  2
3x2 + 4x3 5x1 + 4x2 − 3x3 5x1 − 4x2 + 3x3
f (x1 , x2 , x3 ) =y12 +6y22 −4y32 = +6 √ −4 √ .
5 50 50
Desarrollando el lado derecho de esta última igualdad reobtendrı́amos de nuevo la expresión
original de f : f (x1 , x2 , x3 ) = x21 + 2x1 x2 + 4x1 x3 − 6x2 x3 + 5x23 . Es decir, visto de otro
modo, lo que hemos hecho es agrupar términos en esta expresión original para conseguir
2  5x1 +4x2 −3x3 2
escribir f como suma de números (1, 6, −4) por cuadrados ( 3x2 +4x 5
3
, √
50
,
 2
5x1 −4x
√ 2 +3x3
50
).
Otro criterio alternativo al de los valores propios lo obtenemos del siguiente razonamiento
para matrices cuadradas diagonales de tamaño 3 que se extiende a cualquier matriz cuadrada
de cualquier tamaño:
       
1 0 0 −1 0 0 1 0 0 1 0 0
A =  0 2 0  , B =  0 −2 0  , C =  0 −2 0  , D =  0 0 0  ,
0 0 3 0 0 −3 0 0 3 0 0 3

Para matrices diagonales, sus valores propios son los elementos de la diagonal, de modo
que A es definida positiva, B negativa, C indefinida y D no es nada de lo anterior. Ocurre
también que los menores principales de estas matrices verifican:

∆1 (A) > 0, ∆2 (A) > 0, ∆3 (A) > 0,


∆1 (B) < 0, ∆2 (B) > 0, ∆3 (B) < 0,
∆1 (C) > 0, ∆2 (C) < 0, ∆3 (C) < 0,
∆1 (D) > 0, ∆2 (A) = 0, ∆3 (A) = 0.

123
Esta concatenación de signos de los menores principales ocurre en general, no sólo para
matrices diagonales:
• Si todos los menores principales son positivos, la matriz es definida positiva.
• Si los menores principales alternan sus signos, empezando por negativo, la matriz es
definida negativa.
• Si los menores son unos positivos y otros negativos, con al menos dos menores consec-
utivos del mismo signo, la matriz es indefinida.
• Si algún menor principal es nulo, no decimos nada.

6.3. Problemas resueltos


6.3.1. Consideremos el problema planteado en la introducción de este capı́tulo: El impuesto
anual total (en miles de euros) que una empresa paga al gobierno depende de los beneficios
anuales x de la empresa, de su capital inmobiliario y y de su capital financiero z, y viene
dado por la función

f (x, y, z) = 2(x2 + y 2 + z 2 ) + 2a(yz − xy) + 2xz,

donde a es un parámetro cuyo valor lo decide el gobierno. El gobierno quiere saber qué
valores puede asignar al parámetro a para que el impuesto sea siempre positivo.
Solución. f es una forma cuadrática que depende de un parámetro a y queremos saber para
qué valores de a f es positiva sea cual sea el vector (x, y, z) (sean cuales sean los beneficios
y capitales inmobiliarios y financieros de la empresa). Se trata pues de un problema de
clasificación de formas cuadráticas. La matriz A de f es:
  
2 −a 1 x
f (x, y, z) = (x, y, z) −a 2 a
   y .
1 a 2 z

El polinomio caracterı́stico de A es

2−λ −a 1
p(λ) = |A − λI3 | = −a 2−λ a = 6(1 − a2 ) + (2a2 − 11)λ + 6λ2 − λ3 .
1 a 2−λ

Utilizando el método de Rufini podemos determinar que una raı́z de este polinomio es λ1 = 3
y podemos escribir
p(λ) = (λ − 3)[2(a2 − 1) + 3λ − λ2 ].
El segundo factor es un polinomio de grado dos y sus raı́ces son
√ √
3 − 1 + 8a2 3 + 1 + 8a2
λ2 = , λ3 = .
2 2
124
Los valores propios de A λ1 y λ3 son positivos sea cual sea el valor de a. Para que f sea
definida positiva, debe ocurrir que λ2 también sea positiva. Pero el signo de λ2 depende de
a, tenemos que λ2 < 0 para valores grandes de |a| (a = 5 por ejemplo), mientras que λ2 > 0
para valores pequeños de |a| (a = 0 por ejemplo). Debemos determinar con más precisión
para que valores de a es λ2 > 0. Para ello calculemos primero para que valores de a es
λ2 = 0: p
λ2 = 0 ⇐⇒ 3 = 1 + 8a2 =⇒ 9 = 1 + 8a2 ⇐⇒ a2 = 1 ⇐⇒ a = ±1.
λ2 = 0 para a = 1 y para a = −1. Entonces debe ocurrir que para a ∈ (−1, 1) λ2 > 0 o lo
contrario, λ2 < 0. Para determinarlo, calculemos λ2 para un a ∈ (−1, 1), como por ejemplo
a = 0. Para a = 0 tenemos que λ2 = 1 > 0, por lo que λ2 > 0 para a ∈ (−1, 1) y λ2 < 0
para a > 1 y a < −1. En definitiva, tenemos que los tres valores propios de A son positivos,
f > 0, si a ∈ (−1, 1); dos valores propios de A son positivos y otro nulo, f ≥ 0, si a = 1 ó
a = −1; dos valores propios de A son positivos y otro negativo, f >< 0, si |a| > 1.
El gobierno tendrá que elegir a ∈ (−1, 1).

6.3.2. Encontrar una matriz P ortogonal y otra D diagonal tal que A = P DP T , siendo
 
1 0 1
A= 0 1
 2 .
1 2 −3

Solución. Como A es simétrica, es posible encontrar esa P y esa D. Los valores propios de
A son
1−λ 0 1
|A − λI| = 0 1−λ 2 = (2 − λ)(λ − 1)(λ + 4),
1 2 −3 − λ
Por lo que sus valores propios son 1, 2 y −4. Sus respectivos vectores propios son las
soluciones de los sistemas (A − λI)x = 0 con λ = 1, 2, −4. Primero con λ = 1:

 x = − 2y
    
0 0 1 x 0 
0 0 2 y  = 0 ⇒ y libre
1 2 −4 z 0

z =0

Por tanto un vector propio asociado a λ = 1 es (−2, 1, 0). Con λ = 2:



 x =z
    
−1 0 1 x 0 
 0 −1 2   y  =  0  ⇒ y =2z
1 2 −5 z 0

z libre

Por tanto un vector propio asociado a λ = 2 es (1, 2, 1). Con λ = −4:



 x libre
    
5 0 1 x 0 
 0 5 2   y  =  0  ⇒ y =2x
1 2 1 z 0

z = − 5x

125
Por tanto un vector propio asociado a λ = −4 es (1, 2, −5). Observemos que estos vectores
propios son ortogonales como corresponde a una matriz A simétrica. Pero no son ortonor-
males, por lo que dividimos cada uno de ellos por su longitud para formar la matriz P con
estos vectores normalizados:
     
−2 1 1
1 1 1
v1 = √  1  , v2 = √  2  , v−4 = √  2  .
5 0 6 1 30 −5

Por tanto
− √25 √1 √1
   
1 0 0 6 30
D = 0 2 0 , P =
 √1 √2 √2 .

5 6 30
0 0 −4 0 √1 − 530

6

6.3.3. Construir una matriz A tal que sus valores propios sean 1, 0 y 2 y sus correspondientes
vectores propios:
     
1 0 1
0, 1,  0 .
1 0 −1

Solución. Este es un problema a la inversa, nos dan valores y vectores propios y debemos
encontrar la matriz A. Observemos que estos vectores son ortogonales, por lo que A será
simétrica. Si utilizamos estos vectores para construir la matriz P , entonces tendremos que
calcular P −1 para obtener A = P DP −1 . Pero si los normalizamos y P es la matriz que
tiene estos vectores por columnas, entonces A = P DP T , y P T es más fácil de calcular que
P −1 . Por tanto, construimos D diagonal con los valores propios en la diagonal y P con los
vectores propios normalizados en sus columnas:
 1
√1
  
1 0 0 √
2
0 2
D = 0 0 0, P = 0 1 0 .
0 0 2 √1 0 − √12
2
 
3/2 0 −1/2
A = P DP T = 0 0 0 .
−1/2 0 3/2

6.3.4. Dada la forma cuadrática f (x, y, z) = x2 + 2y 2 + z 2 − 2xy − 2yz, obtener su expresión


matricial, diagonalizarla y clasificarla.
 
x
Solución. Tenemos que f (x, y, z) = (x, y, z)A y , con

z
 
1 −1 0
A =  −1 2 −1  .
0 −1 1

126
Su polinomio caracterı́stico es |A − xI| = x(x − 1)(3 − x), por lo que sus valores propios son
0, 1 y 3. Sus respectivos vectores propios son las soluciones de los sistemas (A − λI)x = 0
con λ = 0, 1, 3: v0 T = (1, 1, 1), v1 T = (1, 0, −1), v3 T = (1, −2, 1). Son ortogonales por ser
A simétrica. Entonces A = P DP T con
 1
√1 √1

  √
0 0 0 3 2 6
D = 0 1 0, P =  √13 0 − √26 
.

0 0 3 √1
− √21 √1
3 6

Dos valores propios son positivos y otro es nulo, por lo que f ≥ 0.

6.3.5. Sea la familia de formas cuadráticas f (x, y, z) = 4x2 + y 2 + 4z 2 + 2ayz (una para
cada valor de a). Discutir para qué valor o valores de a ∈ |R resultará una forma cuadrática
definida positiva.
Solución. La matriz de f es  
4 0 0
A = 0 1 a.
0 a 4
Sus valores propios son las soluciones de

4−x 0 0
0 = |A − xI| = 0 1−x a = (4 − x)(x2 − 5x + (4 − a2 )).
0 a 4−x

Una solución es x1 = 4 y las otras dos son las raı́ces de x2 − 5x + (4 − a2 ):

1h p i 1h p i
x2 = 5 − 9 + 4a2 , x3 = 5 + 9 + 4a2 .
2 2
Obviamente, x1 y x3 son positivas para cualquier valor de a. Por tanto, el signo de x2
determinará el signo de f . Veamos para que a tenemos que x2 = 0:
p
x2 = 0 ⇔ 9 + 4a2 = 5 ⇒ 9 + 4a2 = 25 ⇔ a = ±2.

Además, ocurrirá que x2 > 0 para a ∈ (−2, 2) y x2 < 0 para a < −2 y a > 2 o viceversa.
Para determinarlo, calculamos x2 para un a ∈ (−2, 2), a = 0 por ejemplo. Para a = 0
tenemos que x2 = 1 > 0, por lo que x2 > 0 para a ∈ (−2, 2) y x2 < 0 para a < −2 y a > 2.
Entonces:
(i) Si a ∈ (−2, 2) tenemos los tres valores propios positivos ⇒ f > 0.
(ii) Si a = ±2 tenemos dos valores propios positivos y uno nulo ⇒ f ≥ 0.
(i) Si a < −2 ó a > 2 tenemos dos valores propios positivos y uno negativo ⇒ f <> 0.

6.3.6. Consideremos la aplicación lineal f : |R3 → |R3 dada por f (x, y, z) = (x+z, y−z, x−y)
y la forma cuadrática g : |R3 → |R dada por g(x, y, z) = x2 + y 2 + 2xz − 2yz. Sea Af la matriz
asociada a f y sea Ag la matriz que representa a g.

127
(a) Encontrar una matriz P tal que P −1 Af P sea diagonal.
Solución. Tenemos que
   
1 0 1 1 0 1
Af =  0 1 −1  , Ag =  0 1 −1  ,
1 −1 0 1 −1 0

es decir, son matrices idénticas y por tanto tienen los mismos valores y vectores propios:
|A − xI| = (x + 1)(x − 1)(2 − x), por lo que sus valores propios son −1, 1 y 2. Sus respectivos
vectores propios son

 x libre
    
2 0 1 x 0 
−1 →  0 2 −1   y  =  0  ⇒ y = − x
1 −1 1 z 0

z = − 2x

Por tanto, S(−1) =< (−1, 1, 2) >.



 x libre
    
0 0 1 x 0 
1→ 0 0 −1   y  =  0  ⇒ y =x
1 −1 −1 z 0

z =0

Por tanto, S(1) =< (1, 1, 0) >.



 x libre
    
−1 0 1 x 0 
2→  0 −1 −1   y  =  0  ⇒ y = − x
1 −1 −2 z 0

z =x

Por tanto, S(2) =< (1, −1, 1) >. Los vectores propios son ortogonales por ser Af simétrica.
Entonces:  
1 −1 1
P =  −1 1 2  .
1 2 0

(b) Encontrar una matriz Q tal que QT Ag Q sea diagonal. ¿Puede tomarse Q = P ?
Solución. Para que QT Ag Q sea diagonal, Q debe ser ortogonal. La matriz P anterior no
es ortogonal pues aunque sus columnas son ortogonales, no tienen longitud 1. La solución
consiste en dividir cada columna (los vectores propios) por su longitud:
 √ √ √ 
1/ √3 −1/√ 6 1/√5
Q =  −1/√ 3 1/√6 2/ 5  .
1/ 3 2/ 6 0

Es también cierto que QT Af Q es diagonal, pues QT = Q−1 , pero no es cierto que P T Ag P


es diagonal pues P T 6= P −1 .

128
6.3.7. Sea A una matriz inversible de tamaño n. Demostrar que AT A es una matriz
simétrica que representa a una forma cuadrática definida positiva.
Solución. Se trata evidentemente de una matriz simétrica pues (AT A)T = AT A. La matriz
AT A representa a la forma cuadrática f (x1 , ..., xn ) = xT (AT A)x, donde xT = (x1 , ..., xn ).
Entonces, f (x) = xT (AT A)x = (Ax)T (Ax) = |Ax|2 ≥ 0. Pero más aún, como A es
inversible, podemos escribir x = A−1 Ax. Si x 6= 0, entonces y = Ax no puede ser el vector
nulo pues si fuera nulo entonces x = A−1 Ax = A−1 y serı́a nulo, lo que es una contradicción.
Por tanto f (x) = |Ax|2 > 0 para cualquier x 6= 0 y f > 0.

6.4. Problemas propuestos


6.4.1. Sabemos que si A es simétrica, entonces existen P ortogonal y D diagonal tal que
A = P DP T ¿Puede existir una matriz no simétrica tal que A = P DP T con P ortogonal y
D diagonal? ¿Por qué?

6.4.2. Descomponer la siguiente matriz simétrica en la forma P DP T con D diagonal:


 
1 1 1
A = 1 1 1.
1 1 0

6.4.3. Comprobar que la forma cuadrática f : |R2 → R, dada por: f (x, y) = x2 + 2xy + y 2
es semidefinida positiva.

6.4.4. Encontrar una matriz cuadrada de orden dos que represente una forma cuadrática
semidefinida y tal que (2, 1) sea vector propio asociado al valor propio 5.

6.4.5. Diagonalizar y clasificar las siguientes formas cuadráticas.


(a) f (x, y, z) = x2 + 2y 2 − z 2 + 4xy − 2xz.
(b) f (x, y) = 3x2 + 6y 2 − 6xy.

6.4.6. Clasificar las siguientes formas cuadráticas:


  
7 −1 −1 x
(a) f (x, y, z) = (x, y, z) −1 5
 1   y
−1 1 5 z
  
7 3 0 x
(b) f (x, y, z) = (x, y, z)  3 7 4   y 
0 4 7 z

6.4.7. Clasificar la forma cuadrática f (x, y, z) = 2xy + 2ayz según los valores de a.

129
6.4.8. Se está estudiando la posibilidad de introducir un nuevo impuesto T , en función de
lo pagado (o devuelto) en concepto de Impuesto sobre la Renta de las personas fı́sicas R y el
impuesto sobre el patrimonio P . El impuesto serı́a T = 2R2 + 4P 2 − αRP . El gobierno no
está dispuesto a que surjan devoluciones por este nuevo impuesto, por lo que le ha encargado
a usted que estudie los posibles valores de α que garanticen este último punto.

6.4.9. Clasificar la forma cuadrática f (x, y, z) = x2 + ay 2 + z 2 + 2xy + 2xz + 2yz según los
distintos valores de a ∈ |R.

6.4.10. Diagonalizar y clasificar la forma cuadrática


  
1 3 3 x
f (x, y, z) = ( x, y, z )  3 1 3   y  .
3 3 1 z

6.4.11. En una comunidad autónoma se establece un consorcio entre fabricantes, mayoristas


y comerciantes, para repartir los beneficios. Se toma como función de beneficio total la dada
por: f (x, y, z) = a(x2 + y 2 + z 2 ) + 2(xy − xz + yz), donde x, y, z representan los beneficios
de cada socio. ¿Para qué valores del parámetro a será posible conseguir un beneficio total
positivo, siendo el beneficio de uno, al menos, de los tres socios, no nulo? Para cualquier
valor de a, diagonalizar la forma cuadrática.

6.4.12. Para construir un automóvil se emplean, entre otros, los siguientes materiales:
hierro, material sintético y pintura. Consideremos las siguientes variables: x = variación
del precio del hierro, y = variación del precio del material sintético, z = variación del precio
de la pintura. Se estima que la variación del precio del automóvil viene dada en función de
x, y, z por: f (x, y, z) = x2 + ay 2 + z 2 + 2xy + 2xz + 2yz. El sector automovilı́stico no está
dispuesto a que los precios del automóvil bajen (es decir, a que la variación sea negativa).
¿Para qué valores de a ∈ |R puede conseguirse?

6.4.13. Clasificar la forma cuadrática X T AX según los valores del parámetro a, con
 
1 −2 0
A =  −2 a −1  .
0 −1 1

6.4.14. Dada la forma cuadrática f (x, y, z) = x2 + y 2 + (a + 1)z 2 + 2xz + 2ayz, clasifı́cala


en función de los distintos valores del parámetro real a y diagonalı́zala para a = 1.
 
a b
6.4.15. Considerar la matriz A = , donde a y b son ciertos números reales. Cal-
b a
cular los valores propios de A. Clasificar la forma cuadrática f (x, y) = a(x2 + y 2 ) + 2xy
dependiendo de los valores de a.

6.4.16. Clasificar la forma cuadrática fa (x, y) = −x2 + ay 2 − 2z 2 + 2 2xz según los valores
de a.

130
6.4.17. Clasificar la forma cuadrática fa (x, y, z) = ax2 + 4y 2 + az 2 − 2axz según los valores
de a.

6.4.18. Clasificar la forma cuadrática fa (x, y, z) = (1+a)x2 +2(2−a)y 2 +(1+a)z 2 +2(1−a)xz


según los valores de a.

6.4.19. Clasificar la forma cuadrática fa (x, y, z) = a2 x2 + y 2 + a2 z 2 + 4axz según los valores


de a. En el caso a = 1, dar un vector (x, y, z) para el cual f (x, y, z) < 0. En el caso a = 2,
dar un vector (x, y, z) distinto del (0, 0, 0) para el cual f (x, y, z) = 0.

6.4.20. Dada la forma cuadrática f (x, y, z) = 3x2 − 2y 2 + 3z 2 − 2xz, obtener la matriz A


que la representa y una matriz diagonal D y otra invertible P tal que A = P DP T . Calcular
y = P T x, donde x = (x, y, z) y escribir la forma cuadrática como suma de cuadrados.

6.4.21. Clasificar la forma cuadrática fa (x, y, z) = x2 + 2y 2 + z 2 + 2axy − 2yz según los


valores de a.

  B es p(x) = −x(x − 1)(x + 1).


6.4.22. El polinomio caracterı́stico de una matriz simétrica
x
Clasificar la forma cuadrática f (x, y, z) = (x, y, z)B y .

z

Soluciones a los problemas propuestos


 √ √ √ 
−1/√ 2 (1 − √3)/2a (1 + √3)/2b
6.4.1. No. 6.5.2. P =  1/ 2 (1 − 3)/2a (1 + 3)/2b ,
0 1/a 1/b
 
0 0√ 0 p √ p √
D = 0 1 − 3 0√  con a = 3 + 3 y b = 3 − 3.
0 0 1+ 3
 
0 10
6.4.4. .
0 5
 √ √ 
−1 −2 + √7 −2 − √7
6.4.5. (a) Indefinida. P =  1 −3 + 7 −3 − 7  .
1 1 1
 √ √ 
(1 + 5)/2 (1 − 5)/2
(b) Definida positiva. P = .
1 1
   
4 0 0 0 1 −2
6.4.6. (a) D =  0 5 0  , P =  −1 1 1  .
0 0 8 1 1 1
   
2 0 0 3 −4 3
(b) D =  0 7 0  , P =  −5 0 5  .
0 0 12 4 3 4

131
√ √
6.4.7. Semidefinida positiva si a ≥ 3 e indefinida si a < 3. 6.5.8. − 32 ≤ α ≤ 32.
positiva si a ≥ 1, indefinida si a < 1.
6.4.9. Semidefinida
   
−2 0 0 −1 −1 1
6.4.10. D =  0 −2 0  , P = 0 1 1  . Indefinida.
0 0 7 1 0 1
 
1 −1 1
6.4.11. a > 2. P = −1 0 1 .

1 1 0
6.4.12. a ≥ 1.
6.4.13. Definida positiva para a > 5. Semidefinida positiva para a = 5. Indefinida para
a < 5.
6.4.14. Definida positiva para 0 < a < 1. Semidefinida
 positiva para a = 0 y a =1.
3 0 0 1 −1 −1
Indefinida para a < 0 y a > 1. Para a = 1: D = 0 1 0 ,
  P = 1 1 −1  .
0 0 0 2 0 1
6.4.15. A > 0 si a ± b > 0; A < 0 si a ± b < 0; A indefinida si a2 − b2 < 0.
6.4.16. A ≤ 0 si a ≤ 0. Indefinida si a > 0.
6.4.17. A ≥ 0 si a ≥ 0. Indefinida si a < 0.
6.4.18. A > 0 si 0 < a < 2. A ≥ 0 si a = 0 o a = 2. Indefinida en cualquier otro caso.
6.4.19. A > 0 si a > 2 o a < −2. A ≥ 0 si a = ±2. Indefinida en cualquier otro caso.
   
4 0 0 −1 0 1
6.4.20. D = 0 −2
 0 , P =  0 1 0 .
0 0 2 1 0 1
6.4.21. A > 0 si −1 < a < 1. A ≥ 0 si a ± 1. Indefinida en cualquier otro caso.
6.4.22. Indefinida.

132
BLOQUE 2

CÁLCULO DE UNA VARIABLE

133
TEMA 7. Funciones, Lı́mites y
Continuidad en R| .
7.1. Nociones Preliminares.
Supondremos conocidos los conceptos de números naturales |N, enteros Z / , racionales Q
| ,

irracionales I y reales R (ver capı́tulo 1). Los números reales están ordenados de menor a
| |

mayor y suelen representarse en una recta, donde toda la recta está ocupada por números
reales (un continuo de números reales).
Dentro de |R hay infinidad de subconjuntos; los más importantes para nosotros son los
intervalos. Un intervalo abierto (a, b) es el conjunto de números reales x que verifican
a < x < b. Un intervalo cerrado [a, b] es el conjunto de números reales x que verifican
a ≤ x ≤ b. Observar que en el abierto, los extremos a y b no forman parte del intervalo, en
el cerrado sı́. Un intervalo semi-abierto [a, b) es el conjunto de números reales x que verifican
a ≤ x < b. Un intervalo semi-abierto (a, b] es el conjunto de números reales x que verifican
a < x ≤ b.
El valor absoluto |x| de un número real x es él mismo si es positivo o cero y su opuesto
si es negativo: (
x si x ≥ 0
|x| =
−x si x < 0.

Por tanto, |x| ≥ 0 siempre, y sólo |x| = 0 si x = 0. Alguna propiedad importante del valor
absoluto es que, para cualesquiera números reales x, y:
|xy| = |x||y|,
|x + y| ≤ |x| + |y| (desigualdad triangular).
Ejercicio 7.1. Determinar si es cierto o falso que para cualquier pareja de números reales
x e y se cumple que si x ≤ y entonces |x| ≤ |y|.

7.2. Funciones reales de una variable


real.
El concepto más importante del cálculo de una variable es el de función: una función real
de una variable real f (x) es una asignación o emparejamiento de números reales x ∈ |R (una
variable independiente) con números reales f (x) ∈ |R (una variable dependiente), x → f (x).
Por ejemplo, la función f (x) = x2 empareja 1 → 1, 2 → 4, −1 → 1, etc... (infinidad de
emparejamientos). Además, toda f (x) tiene un dominio de definición (los posibles valores

134
de x para los cuales existe f (x)), que se denota D(f ), y una imagen (los posibles valores que
toma f (x)), que se denota Im(f ). Por ejemplo, el dominio de f (x) = x2 puede ser todo |R,
pero el de g(x) = 1/x puede ser como mucho D(g) = |R \ {0}. La imagen de f (x) es [0, ∞)
y la de g(x) es |R \ {0}. Suele representarse:

f : |R → |R
x → f (x).

La representación gráfica de una función f : |R → |R se consigue poniendo el eje |R de la


variable independiente x horizontal y el eje |R de la variable dependiente y vertical. Y ahora,
sobre cada x ∈ D(f ) ⊂ |R se levanta un punto a altura f (x), dibujando puntos (x, f (x))
que son puntos del plano |R2 . Todos los puntos juntos forman una curva que llamamos
gráfica de f (x), curva compuesta por los puntos {(x, f (x)); x ∈ D(f )} ⊂ |R2 que ”vive”
en |R2 (curva de ecuación y = f (x)). Por ejemplo, para f (x) = sin x sobre el dominio
D(f ) = [−2π, 2π], sobre cada x ∈ [−2π, 2π] levantamos un punto a altura sin x, obteniendo
la curva {(x, sin x); x ∈ [−2π, 2π]} ⊂ |R2 :
1.0

f(x)
0.5

-6 -4 -2 x 4 6

0.5

1.0

A partir de dos funciones f : D(f ) ⊂ |R → |R y g : D(g) ⊂ |R → |R se pueden obtener otras


funciones mediante la suma: (f + g)(x) = f (x) + g(x), la resta: (f − g)(x) = f (x) − g(x),
la multiplicación (f · g)(x) = f (x) · g(x) y la división (f /g)(x) = f (x)/g(x) (esta última
operación únicamente definida para los x para los que g(x) 6= 0).
Dos funciones f : D(f ) ⊂ |R → |R y g : D(g) ⊂ |R → |R se pueden componer para obtener
una tercera función. Primero, la función f coge cada uno de los puntos x de su dominio
D(f ) ⊂ |R y los convierte en f (x) en su imagen Im(f ) ⊂ |R. Ahora, si estos números
f (x) ∈ Im(f ) ⊂ |R, pertenecen al dominio de g, es decir, si Im(f ) ⊂ D(g), entonces podemos
aplicarles g a los números f (x) para obtener g(f (x)), que son números en la imagen de g,
es decir g(f (x)) ∈ Im(g) ⊂ |R.
Vemos entonces que, a partir de x obtenemos finalmente g(f (x)) ∈ |R. Hemos compuesto
las funciones f y g para obtener una nueva función, que llamamos f compuesta con g y que
denotamos g ◦f : |R → |R que nos lleva diréctamente de x ∈ D(f ) ⊂ |R a g(f (x)) ∈ Im(g) ⊂ |R.
Una función se dice creciente si f (x) ≥ f (y) ∀ x > y en su dominio. Una función se
dice decreciente si f (x) ≤ f (y) ∀ x > y en su dominio. Una función se dice estrı́ctamente
creciente si f (x) > f (y) ∀ x > y en su dominio. Una función se dice estrı́ctamente decreciente

135
si f (x) < f (y) ∀ x > y en su dominio. Por ejemplo, f (x) = ex , D(f ) = |R es estrı́ctamente
creciente. f (x) = 1/x, D(f ) = |R+ es estrı́ctamente decreciente. f (x) = 1/|x|, D(f ) = |R\{0}
no es ni creciente ni decreciente en D(f ) (es estrı́ctamente decreciente en |R+ y estrı́ctamente
creciente en |R− . f (x) = 0, D(f ) = |R, es creciente y decreciente.
Una función está acotada superiormente si f (x) ≤ M ∀ x ∈ D(f ) para algún M ∈ |R. Una
función está acotada inferiormente si f (x) ≥ m ∀ x ∈ D(f ) para algún m ∈ |R. Una función
está acotada si está acotada tanto inferior como superiormente. Por ejemplo, f (x) = 1/x,
D(f ) = |R \ {0} no está acotada. f (x) = 1/x, D(f ) = [1, 2] está acotada.
Una función se dice par si f (−x) = f (x) ∀ x ∈ D(f ). Una función se dice impar si
f (−x) = −f (x) ∀ x ∈ D(f ). Una función se dice periódica de periodo T > 0 si T es el
menor número que cumple f (x + T ) = f (x) ∀ x ∈ D(f ). Por ejemplo, f (x) = sin x es impar
y periódica de periodo T = 2π. f (x) = 0 es par, impar y perı́odica con cualquier periodo.
f (x) = x + x2 no es par, ni impar ni perı́odica.
Una función se dice inyectiva cuando puntos distintos de su dominio tienen imágenes
distintas. Una función se dice suprayectiva cuando Im(f ) = |R. Una función es biyectiva
cuando es inyectiva y suprayectiva. Por ejemplo, f (x) = x3 , D(f ) = |R, es biyectiva.
f (x) = x2 , D(f ) = |R no es inyectiva ni suprayectiva. f (x) = x2 , D(f ) = |R+ es biyectiva.
f (x) = ex , D(f ) = |R es inyectiva pero no suprayectiva. f (x) = ex , D(f ) = |R+ es biyectiva.
Dada una función f : D(f ) ⊂ |R → |R que transforma x ∈ D(f ) en y = f (x) ∈ Im(f ), se
define otra función llamada función inversa f −1 que hace la operación inversa, transforma
y ∈ D(f −1 ) ⊂ Im(f ) en f −1 (y) = x. Es decir x va a y mediante f y vuelve mediante f −1 . No
toda función f : D(f ) ⊂ |R → Im(f ) ⊂ |R tiene inversa, para que ello ocurra, f tiene que ser
inyectiva en D(f ), o una biyección D(f ) → Im(f ). Entonces f −1 : Im(f ) ⊂ |R → D(f ) ⊂ |R
es también una biyección.
Ejemplo 7.2. La función f (x) = x2 tiene inversa en D(f ) = [0, 1] pero no en D(f ) = [−1, 1].

Ello es ası́ porque de la ecuación x2 = y podemos despejar una única x = y si sabemos

que x ∈ [0, 1], pero dos x = ± y si x ∈ [−1, 1].
Una ecuación que contenga a las dos variables x e y puede definir de forma implı́cita una
función y(x). Por ejemplo, de la ecuación y − x2 = 0 podemos despejar de una única manera
(la ecuación tiene solución única) y = x2 , la ecuación y − x2 = 0 define de forma implı́cita
la función y(x) = x2 . Pero por ejemplo, de la ecuación y 2 − x = 0 no podemos despejar la
√ √
y de una única forma (la ecuación no tiene solución única, tiene dos: y = x e y = − x),
la ecuación y 2 − x = 0 no define de forma implı́cita una función y(x).
El hecho de que no se pueda despejar la y en función de la x no significa que F (x, y) = 0
no defina una función y(x). Por ejemplo, no podemos despejar la y de la ecuación F (x, y) :=
y + x − e−y = 0. Sin embargo, para cada valor de x, hay un único valor y que satisface la
igualdad.
Ejercicio 7.3. Convencerse de esta última afirmación observando las siguientes figuras
donde dibujamos las gráficas de las funciones f (y) = y + x y g(y) = e−y para algunos
valores fijos de x.

136
7

e-y
2.5
-y
e-y
2.5

2.0
2.0 e 6

1.5 1.5 4

y+2
1.0 3
1.0

y+1
0.5 2
0.5
1

y
-2 -1 0.5 1.0
0.5
-1 -2 0.5 1.0
y -2 -1 1 2
y
y+0
1.0

Se trata de una forma implı́cita de definir la función y(x) (una función es una asignación
x → y, y esta es una forma de emparejar x con y). Por ejemplo, en estas figuras vemos que
y(0) ' 0.55, y(1) = 0, y(2) ' −0.45.
Como hemos visto, a veces una ecuación F (x, y) = 0 define claramente una función y(x)
(ejemplos: y − x2 = 0 y y + x − e−y = 0), otras veces debemos andar con más cuidado
(ejemplo: y 2 − x = 0).
Cuando una ecuación F (x, y) = 0 define una función y(x), podemos utilizarla para calcular
también y 0 (x) sin necesidad de despejar previamente y(x) de la ecuación (aunque se pueda).
En el primer ejemplo del ejemplo 7.2 tenemos que F (y(x), x) := y(x) − x2 = 0. Tenemos
que la función de x (y solo de x) F (y(x), x) = y(x) − x2 es idénticamente nula y, por tanto,
su derivada también, es decir F 0 (y(x), x) = y 0 (x) − 2x = 0, por lo que y 0 (x) = 2x.
En el tercer ejemplo tenemos que F (y(x), x) := y(x) + x − e−y(x) = 0. Por tanto,
F 0 (y(x), x) = y 0 (x) + 1 + y 0 (x)e−y(x) = 0. Como e−y = y + x, tenemos que y 0 (x) =
−(y(x) + x + 1)−1 . Como no hemos podido despejar y(x), no podemos tampoco conocer
explı́citamente y 0 (x), pero la fórmula anterior es cierta.
En la Sección de Problemas se dan varios ejemplos de funciones elementales con sus
dominios y otras propiedades.

7.3. Lı́mites y continuidad de funciones


reales de una variable real.
Una definición intuitiva de lı́mite de una función en un punto serı́a la siguiente. Dada una
función f : D(f ) ⊂ |R → |R y un punto x0 del dominio de f , diremos que f tiene lı́mite en
x0 y vale l si, a medida que nos acercamos a x0 , es decir, tomamos puntos x aproximándose
a x0 , los valores de la función f (x) se van aproximando a l. Denotaremos

lim f (x) = l.
x→x0

La definición de lı́mites laterales de f (x) en x0 es similar a la de lı́mite, pero acercándonos


a x0 con x > x0 (limite por la derecha) o con x < x0 (lı́mite por la izquierda). Se denota
limx→x+ f (x) = l+ (limx→x− f (x) = l− ).
0 0

137
Lo que le pase a f justamente en el punto x0 es irrelevante para la existencia o no de
lı́mite. Por ejemplo, la función
2
(
e−x si x 6= 0
f0 (x) =
2 si x = 0,
2
tiene en x0 = 0 exactamente el mismo lı́mite que la función f (x) = e−x , es decir, l = 1.
Una función f : |R → |R puede no tener lı́mite en un punto por diversos motivos. Por
ejemplo, las funciones f (x) y g(x) siguientes:
(
1 1 si x ≥ 0
f (x) = 2 , g(x) =
x −1 si x < 0,

no tienen lı́mite en el punto x0 = 0, aunque por diferentes motivos.


Los lı́mites de funciones reales de una variable admiten una serie de operaciones. Dadas
dos funciones f : |R → |R y g : |R → |R con lı́mite en un punto x0 , limx→x0 f (x) = l1 y
limx→x0 g(x) = l2 , tenemos que

lim [f (x) ± g(x)] = l1 ± l2 ,


x→x0

a lim f (x) = a l1 ,
x→x0

donde a es un número real.


lim [f (x) · g(x)] = l1 · l2 .
x→x0

Y si además l2 6= 0, entonces
f (x) l1
lim = .
x→x0 g(x) l2

Un resultado importante desde un punto de vista práctico afirma que una función tiene
lı́mite en un punto x0 si y solo si tiene sus dos lı́mites laterales y coinciden. La función f del
ejemplo anterior no tiene lı́mites laterales en x = 0. La función h tiene pero no coinciden.
La función g tiene y coinciden.
En problemas se trabaja el cálculo de lı́mites en el caso de presencia de indeterminaciones.
Una función f : D(f ) ⊂ |R → |R es continua en un punto x0 ∈ D(f ) si tiene lı́mite en ese
punto y su valor coincide con f (x0 ), es decir:

lim f (x) = f (x0 ).


x→x0

Una función f : D(f ) ⊂ |R → |R es continua en un subconjunto S ⊂ D(f ) si lo es en cada


punto de S.
Si dos funciones son continuas en un punto x0 , también lo son su suma, su diferencia, su
producto y su cociente, este último siempre y cuando no se anule la función del denominador

138
en el punto x0 . De forma intuitiva decimos que una función f : D(f ) ⊂ |R → |R es continua
en un intervalo si su gráfica es una lı́nea continua. Ninguna de las tres funciones del ejemplo
anterior son continuas en x = 0. Son continuas en el resto de puntos de sus dominios.

7.4. Teoremas de Weierstrass, Bolzano


y valores intermedios.
Teorema de Weierstrass. Si f : [a, b] ⊂ |R → |R es continua en [a, b], entonces existen dos
puntos en [a, b] donde la función alcanza su máximo y su mı́nimo valor.
Teorema de Bolzano. Si f : [a, b] ⊂ |R → |R es continua en [a, b] y f (a)f (b) < 0 (f (a) y
f (b) tienen distinto signo), entonces la función se anula en algún punto del interior de [a, b].
Teorema de los valores intermedios. Si f : [a, b] ⊂ |R → |R es continua en [a, b] y
f (a) 6= f (b), entonces f toma en [a, b] todos los valores comprendidos entre f (a) y f (b).

7.5. Problemas resueltos.


7.5.1. Resuelve las siguientes ecuaciones:
(a) |2x − 3| = 5. Tenemos que |2x − 3| = 2x − 3 si 2x ≥ 3 y |2x − 3| = 3 − 2x si 2x ≤ 3, por
lo que esta ecuación equivale a las ecuaciones:
 
2x − 3 = 5 si x ≥ 3/2, x = 4 si x ≥ 3/2,
=⇒
3 − 2x = 5 si x ≤ 3/2. x = −1 si x ≤ 3/2.

Por tanto la ecuación |2x − 3| = 5 tiene dos soluciones x = 4 y x = −1.


(b) |3 − x| − |x + 2| = 5. Los dos valores de x para los que las cantidades dentro de los
valores absolutos cambian de signo son x = −2 y x = 3. Estos dos puntos dividen el eje real
en tres regiones en las que:

|x+2|=-x-2 |x+2|=x+2 |x+2|=x+2

|3-x|=3-x -2 |3-x|=3-x 3 |3-x|=x-3

Por tanto, la ecuación es distinta en cada una de las tres regiones indicadas:
 
 (3 − x) − (−x − 2) =5 si x < −2,
  5 =5
 si x < −2,
(3 − x) − (x + 2) =5 si − 2 ≤ x ≤ 3. =⇒ x = − 2 si − 2 ≤ x ≤ 3.
 
(x − 3) − (x + 2) =5 si x > 3. −5 =5 si x > 3.
 

139
Esta ecuación tiene infinidad de soluciones: cualquier x < −2 es solución (5 = 5 para
cualquier x < −2); en el intervalo [−2, 3] también x = −2 es solución; ningún x en el
intervalo [3, ∞) es solución pues para ningún x en ese intervalo se cumple que 5 = −5.

7.5.2. Sea f (x) = arcsin(x2 − 1). Calcula el Dom(f ).


Sabemos que el dominio del arcoseno es Dom(f ) = {x ∈ |R | − 1 ≤ x2 − 1 ≤ 1 }. Por tanto
deben cumplirse simultáneamente las inecuaciones −1 ≤ x2 − 1 y x2 − 1 ≤ 1; es decir, el
dominio de f es la intersección de las soluciones de ambas inecuaciones:
(a) −1 ≤ x2 − 1 ⇔ 0 ≤ x2 y esto se cumple ∀ x ∈ |R.
√ √ √ √
(b) x2 − 1 ≤ 1 ⇔ x2 − 2 ≤ 0 ⇔ (x − 2)(x + 2) ≤ 0 ⇔ x ∈ [− 2, 2].
√ √
Por tanto, la intersección de ambas soluciones es Dom(f ) = [− 2, 2].

 3x
5+x
7.5.3. Calcula el lı́mite lim .
x→∞ 3+x
Tenemos que
 3x  
5+x 5+x

5+x
3x lim log lim 3x log
lim = ex→∞ 3+x = ex→∞ 3+x .
x→∞ 3+x

Calculemos ahora el lı́mite en el exponente aplicando primero la equivalencia del logaritmo:

log(A(x)) ∼ A(x) − 1 si A(x) → 0.

Entonces
     
5+x 5+x 6x 6
lim 3x log = lim 3x −1 = lim = =6
x→∞ 3+x x→∞ 3+x x→∞ 3+x 1

y
 3x
5+x
lim = e6 .
x→∞ 3+x

log(1 + x)
7.5.4. Calcula el lı́mite lim 2 .
x→0 cos(ex − 1) − 1
2
Inicialmente podemos aplicar las equivalencias log(1 + x) ∼ x y cos(ex − 1) − 1 ∼
2
(ex − 1)2
− quedando
2

log(1 + x) 2x
lim x 2 = lim − x2 .
x→0 cos(e − 1) − 1 x→0 (e − 1)2

140
2
Ahora volvemos a aplicar la equivalencia ex − 1 ∼ x2 :

log(1 + x) 2x 2x
lim 2 = lim − 2 = lim − .
x→0 cos(ex − 1) − 1 x→0 (ex − 1)2 x→0 x4

Finalmente podemos afirmar que este lı́mite no existe, pues los lı́mites laterales son distintos:
+∞ el derecho y −∞ el izquierdo.

7.5.5. Sea f : [3, 5] → |R una función continua tal que f (x) 6= 4 para todo x ∈ [3, 5] y
f (3) = 3. Demuestra que f (5) < 4.
Sabemos que f (5) 6= 4. Supongamos que f (5) > 4. Consideremos h(x) = f (x) − 4 función
continua en [3, 5] tal que h(3) = f (3) − 4 = 3 − 4 = −1 y h(5) = f (5) − 4 > 0. Por tanto,
por el teorema de Bolzano, existe c ∈ [3, 5] tal que h(c) = f (c) − 4 = 0, es decir, f (c) = 4.
Esto es una contradicción con la hipotesis inicial f (x) 6= 4 , ∀x ∈ [3, 4]. Por tanto, de los 3
casos posibles solo puede darse el que queda: f (5) < 4.

7.6. Problemas propuestos.


p
7.6.1. Determinar el dominio de la función f (x) = ln(2 − x2 ).

7.6.2. Para las funciones f (x) definidas de la forma siguiente, encontrar los números c que
las hacen continuas
a) f (x) = sin x, si x < 1; f (x) = c, si x ≥ 1.
b) f (x) = cos3 x, si x 6= π; f (x) = c si x = π.
c) f (x) = c + x, si x < 0; f (x) = c2 + x2 , si x ≥ 0.
d) f (x) = x3 , si x 6= c; f (x) = −8, si x = c.
e) f (x) = 2x, si x < c; f (x) = x + 1, si x ≥ c.
f) f (x) = (x2 + c)/(x − 1), si x 6= 1; f (x) = 2, si x = 1.

7.6.3. Decir si es cierto o falso, razonando la respuesta:


a) Si f (x) es continua en todo x, posee un máximo.
b) Si f (1) = 1 y f (2) = −2, entonces existe un x tal que f (x) = 0.
c) Si f (1) = 1, f (2) = −2 y f es continua en [1, 2], entonces existe un x tal que f (x) = 0.

7.6.4. Encontrar todos los puntos c ∈ (0, 2) tales que

f (2) − f (0) = 2f 0 (c),

141
para las siguientes funciones:
a) f (x) = x3
b) f (x) = sin πx
c) f (x) = 1 + x + x2
d) f (x) = (1 − x)3

7.6.5. Demostrar que sec 2 x y tg 2 x tienen la misma derivada y deduce una conclusión acerca
de
f (x) = sec 2 x − tg 2 x

7.6.6. Si viajas 4.000 km de Nueva York a Los Angeles en 100 horas (se permite dormir,
comer y retroceder), entonces en algún momento tu velocidad es de ...
7.6.7. Un estudiante particularmente curioso hizo un asombroso descubrimiento, a saber,
que 1 = 0. Su razonamiento es el siguiente:
Tomo x = 1. Por tanto x = 1 ⇒ x2 = x ⇒ x2 − 1 = x − 1 ⇒ (x − 1)(x + 1) = (x − 1) ⇒
x + 1 = 1 ⇒ x = 0. Por tanto 1 = 0.
Como no carecı́a de cierto sentido crı́tico, intuyó inmediatamente que algo habı́a hecho
mal. Le bastaron unos segundos para darse cuenta del paso erróneo y del por qué de su
error. ¿Sabrı́as encontrar cuál es?
7.6.8. Resuelve las siguientes ecuaciones:
a) |2x−3| = x+1. b) |2x+3| = x+1. c) |x−2|+|x−1| = x−3.
7.6.9. Encuentra en cada caso, los x reales que satisfagan las siguientes inecuaciones:
a) |5 − x−1 | < 1. b) |x2 − 2| ≤ 1. c) x < x2 − 12 < 4x.
d) |x − 5| < |x + 1|. e) x2 − 7 x + 12 > x2 − 7 x + 12.

7.6.10. Se define la parte entera de un número real x como la función E(x) = max{n ∈
/ ; n ≤ x}.
Z
Dibuja un esbozo de la función. Probad que la función f (x) = x − E(x) es periódica con
periodo 1. ¿Cuál es el dominio y la imagen de f ?

7.6.11. Responde si las siguientes afirmaciones son verdaderas o falsas.


a) Si f (x) es estrictamente monótona, f es inyectiva.
b) Si f (x) es creciente, f 2 (x) es creciente.
c) Si f (x) y g(x) son crecientes, y además g(x) ≥ 0, entonces f (x)g(x) es creciente.
d) Si f (x) es acotada superiormente, 1 + f 2 (x) es acotada superior e inferiormente.

142
e) Si f es periódica con periodo p, f (mx) es periódica con periodo p/m.

7.6.12. Encuentra el dominio de las siguientes funciones:

2 2
(a) √ − x ).
f (x) = arctan(x (h) f (x) = arccos(x
p − 1).
(b) f (x) = cos( x2 − 1). (i) f (x) = sin(x). √
x−1
(c) f (x) = x2 −2x+8 . (j) f (x) = ln(cos(x) − 1/ 2).
  1
(d) f (x) = exp arcsin(cos(sin(x3 + 3x − 8))) . (k) f (x) = √ √ .
2 − x
− 2 +x
 2 
x2 −2x
(e) f (x) = ln xx−1
+1
. (l) f (x) = arccos 3−4x .
2
(f) f (x) = x2x+1 . (m) f (x) = 1
x−|x| .
√ 2
(g) f (x) = x2 + x + 1. (n) f (x) = ln(x − 1).

Halla también la imagen (cuando sea posible).

7.6.13. Calcula la función inversa de las siguientes funciones:

x+1
(a) x+2 . (f) exp(−x2 /2).
 x 
1/3
(b) (x + 1) . (g) arccos .
x+1
(c) x2 + 2x + 3. (h) 4(x+2)/2 .
(d) ln x−1
x+1 . (i) cos(x) + sin(x).
 2 1/3 q
3x +1 2
(e) 2x2 −3 . (j) x2 −3 .

7.6.14. Clasifica estas funciones en funciones pares, impares o bien de ninguno de estos dos
tipos.

x 2
(a) p . (e) ln(ex x).
|x|
x arctan(x3 ) x2 − x
(b) . (f) .
sin(x) cos(x) x3 − x2
(c) arctan(cos(sin(x2 tan(x)))). (g) x cos(x2 ) − x2 sin(x).
sin(x+2)
(d) x3 + x2 + x + 1. (h) x+2 .

7.6.15. Decir si existen o no y calcular los siguientes lı́mites:

143
x4 − 3 x + 2 x4 − 3 x + 2
(a) lim . (i) lim .
x→1 x5 − 4 x + 3 x→1 x5 − 4 x + 3
x4 − 3 x + 2 √ √ 
(b) lim 5 . (j) lim x2 + 2 x − x2 − 2 x .
x→∞ x − 4 x + 3 x→∞

2 x + x2 x−2 x+1
(c) lim . (k) lim .
x→∞ (x − 1)(x + 3) x→1 x−1
√ √
 
1
q p
(d) lim x+ x+ x− x . (l) lim .
x→∞ x→0 x
1 2 x + a x − 3 a2
2
(e) lim . (m) lim , a ∈ |R.
x→0 x2 x→a 3 x2 − a x − 2 a2
 3
1 5−x
(f) lim (n). lim .
x→−1 x + 1 x→∞ 3 + x

ln(x) 3 − x + 12
(g) lim . (o) lim √ .
x→∞ xx x→−3 2 x + 15 + x
−5 x3 + 3 x7 − 4 x + 1 2 − x2 + x3
(h) lim . (p) lim .
x→−∞ x7 + 1 x→−∞ x2 − 2 x3 + 1

Especificar los lı́mites laterales en caso de que éstos no coincidan, o la función no exista para
x mayores o menores que el punto donde se hace el lı́mite.

7.6.16. Responde si son verdaderas o falsas las siguientes afirmaciones:

a) Si f y g son discontinuas en x = a, también lo es f + g.

b) Si f es continua para todo x ∈ D, también lo es f 5 (x).


p
c) Si f es continua para todo x ∈ D, también lo es f (x).

d) Si existe el lı́mite de f (x) cuando x → a, f (x) es continua en a.

e) Los puntos de discontinuidad de ln(x2 ) y de 2 ln x son los mismos.

Justifica las respuestas.

7.6.17. Halla los valores de a y b que hacen que las siguientes funciones sean continuas:
 2
 sin(b(x − 2)) , x 6= 2,  x − 1 , x 6= −1,

(a) f (x) = x−2 (b) g(x) = ax − 2


a − 1, x = 2. b, x = −1.
 

7.6.18. Halla los puntos de discontinuidad de las siguientes funciones. Clasifica las discon-

144
tinuidades.
sin(x2 ) x
(a) (f ) .
x2 x2
 2− 1 
x+3 x +1
(b) 2
. (g) ln .
x − 3x + 2 ( x−1
2x 1, x ∈ Q |
(c) . (h)
ln(x2 ) − 1 x, x ∈ |R \ Q
| .
√
x+6−3
x 6= 3,
( 

2x + 3, x ≤ 3,  rx

(d) 2
(i) −1
1−x , x > 3. 
 3

1 x = 3.

x+1 √
1−x−1
 x , x < 0, , x ≤ 1,

 


(e) (j) x
 2, 0 ≤ x < 2,  x2
  , x > 1.
x ≥ 2.
 
x, x−3

7.6.19. Encuentra y clasifica las ası́ntotas de las siguientes funciones:


x3 + 2x + 3
(a) . (d) exp(−x2 /2).
x2 + 4x − 5
x+3
(b) . (e) arccos(x/(x2 + 1)).
x − 2 
x−1 (x2 − 1) arctan(x)
(c) ln . (f ) .
x+1 x+2

7.6.20. Demuestra que si f : [0, 1] → [0, 1] es una función continua, existe c ∈ [0, 1] tal que
f (c) = c.

1
7.6.21. Halla los puntos de discontinuidad de f (x) = y halla las ası́ntotas de esta
x2 −9
función.
x
7.6.22. Consideremos la función f (x) = . Comprobar que f ( π3 ) > 0 y que f ( 4π
3 ) < 0.
sin(x)
Comprobar que no existe a ∈ π3 , 4π

3 tal que f (a) = 0. Razonar que no se contradice el
teorema de Bolzano.

7.6.23. (Funciones hiperbólicas) Se definen las funciones


ex + e−x
cosh(x) := , coseno hiperbólico.
2
ex − e−x
sinh(x) := , seno hiperbólico.
2
ex − e−x
tanh(x) := x , tangente hiperbólica.
e + e−x

145
Probad que
a) El dominio de sinh, cosh y tanh es |R. La imagen de sinh es todo |R, cosh es [1, ∞] y tanh
es [−1, 1].
b) Las funciones sinh y tanh son impares y cosh es par.
c) Se cumplen las relaciones

ex = cosh(x) + sinh(x), cosh2 (x) − sinh2 (x) = 1.

d) Se satisfacen las siguientes identidades

sinh(x + y) = sinh(x) cosh(y) + cosh(x) sinh(y),


cosh(x + y) = cosh(x) cosh(y) + sinh(x) sinh(y),
tanh(x) + tanh(y)
tanh(x + y) = ,
1 + tanh(x) tanh(y)
cosh(2x) + 1
cosh2 (x) = ,
2
cosh(2x) − 1
sinh2 (x) = .
2

e) Calcula las funciones inversas arcsenh, arccosh y arctanh.

7.6.24. La función ln(x) es la función inversa de ex (o de exp(x)). Es decir

ln(exp(x)) = x, ∀ x ∈ |R; exp(ln(x)) = x, ∀ x ∈ (0, ∞).

Probad que:
a) El dominio de ln(x) es (0, ∞) y su imagen es |R.
b) ln(x) es estrictamente creciente. Además ln(1) = 0.
c) Probad que para x, y > 0,

ln(xy) = ln(x) + ln(y), ln(xy ) = y ln(x).

d) Si a > 0, se tiene
ax = exp(x ln(a)).

(Ésta es la forma con la que se calculaban potencias para casos no triviales porque permitı́a
reducir a un logaritmo, un producto y una exponencial. Para la primera y la última se
utilizaban libros de tablas con los valores de la exponencial y el logaritmo tabulados para
una serie discreta de valores. Hoy en dı́a la misma técnica es utilizada en calculadoras y
ordenadores.)

146
e) Para a > 0, se define el logaritmo en base a, y se denota por lna (x) a la inversa de ax .
Demostrad que

ln(x)
lna (x) = (cambio de base para los logaritmos).
ln(a)

7.6.25. Consideremos la función f : [0, ∞) → R, donde a y b son números reales:

 sin x − x ,

x > 0,
f (x) = xa
b , x = 0.

a) Calcular limx→0+ f (x) según los valores de a y b.


b) Estudiar la continuidad de f (x) en todo su dominio según los valores de a y b.

Soluciones a los problemas propuestos


7.6.1. D = [−1, 1]. Máximo en x = 0 y mı́nimos en x = ±1.
7.6.2. a) c = sin 1; b) c = −1; c) c = 0, 1; d) c = −2; e) c = 1; f) c = −1.
p p
7.6.3. a) Falso. b) Falso. c) Cierto. 7.6.4. a) ± 4/3; b) 1/2, 3/2; c) 1; d) 1± 1/3.
7.6.5. f (x) es constante. 7.6.6. 40km/h

7.6.7. Cuando llegamos a (x − 1)(x + 1) = x − 1 es falso deducir que x + 1 = 1 pues, dado


que x = 1, estamos dividiendo a los dos lados por 0, lo cual no es correcto. Dicho de otra
manera estamos diciendo que 0 · a = 0 · b ⇒ a = b lo cual, obviamente es falso.

7.6.8.
(a) x = 4 ó x = 2/3. (b) No hay solución.
(c) No hay solución.

7.6.9.
√ √
(a) x ∈ (1/6, 1/4). (b) x ∈ [− 3, −1] ∪ [1, 3].
(c) x ∈ (4, 6). (d) x ∈ (2, +∞).
(e) x ∈ (3, 4).

147
7.6.10.
Gráfica de la función parte entera E(x) = max{n ∈ Z
/ | n ≤ x}.

b) f (x) = x − E(x) es periódica de periodo 1 con Dom(f ) = |R y Im(f ) = [0, 1).

7.6.11.
(a) VERDADERO. Supongamos que f es extrictamente monotona, es decir, si a < b ⇒
f (a) < f (b) (creceinte) ó f (a) > f (b (decreciente) y vamos a demostrar que f es inyectiva,
es decir, si f (a) = f (b) ⇒ a = b.
Si f (a) = f (b), tenemos 3 posibilidades para a y b:
• a < b: si fuese asi, por ser f extrictamente monotona tendrı́amos f (a) < f (b) ó f (a) >
f (b) lo que contradice que f (a) = f (b).
• a > b: análogo al anterior.
• Por tanto solo puede darse el caso que falta: a = b.
(b) FALSO. La funcón f (x) = −e−x es creciente sin embargo f 2 (x) = e−2x es decreciente.
(c) FALSO. Las funcones f (x) = −e−x y g(x) = e2x son crecientes con g > 0 sin embargo
f (x)g(x) = −ex no es creciente.
(d) FALSO. La funcón f (x) = −e−x está acotada superiormente sin embargo 1 + f 2 (x) =
1 + e−2x no está acotada superiormente.
(e) VERDADERO. Supongamos f periódica de periodo p, es decir, f (a + p) = f (a), ∀a.
Llamamos g(x) = f (m x) y veamos que g es periódica:
p p
g(x + ) = f (m(x + )) = f (mx + p) = f (mx) = g(x) por ser f periódica. Por tanto,
m m
queda probado que f (m x) es periódica de periodo p/m.

7.6.12.

148
(a) Dom(f ) = |R , Im(f ) = (−π/2, arctan(1/4)].
(b) Dom(f ) = (−∞, −1] ∪ [1, +∞) , Im(f ) = [−1, 1].
√ √
(c) Dom(f ) = |R , Im(f ) = [− 7/14, 7/14].
(d) Dom(f ) = |R.

(e) Dom(f ) = (1, +∞) , Im(f ) = [ln(2(1 + 2)), +∞].
(f) Dom(f ) = |R , Im(f ) = [0, 1).

(g) Dom(f ) = |R , Im(f ) = [ 3/2, +∞).
√ √
(h) Dom(f ) = [− 2, 2] , Im(f ) = [0, π].
S∞
(i) Dom(f ) = n=0 [2nπ , (2n + 1)π] , Im(f ) = [0, 1].
S∞ √
(j) Dom(f ) = n=0 [2nπ − π4 , 2nπ + π4 ] , Im(f ) = (−∞, ln(1 − 1/ 2)].
(k) Dom(f ) = [−2, 0) ∪ (0, 2] , Im(f ) = (−∞, −1/2] ∪ [1/2, +∞).
√ √
(l) Dom(f ) = [−3, 3 − 6] ∪ [1, 3 + 6] , Im(f ) = [0, π].
(m) Dom(f ) = (−∞, 0) , Im(f ) = (−∞, 0).
(n) Dom(f ) = (−∞, −1) ∪ (1, +∞) , Im(f ) = (−∞, +∞).

7.6.13.
2y − 1
(a) x = g(y) = . (b) x = g(y) = y 3 − 1.
1−y
p ey + 1
(c) x = g(y) = −1 − y − 2. (d) x = g(y) = .
1 − ey
s  
p 3y 3 + 1 1
(e)x = g(y) = [3] 3 . (f) x = g(y) = ln .
2y − 3 y2
cos(y)
(g) x = g(y) = . (h) x = g(y) = −2 + 2 ln4 (y).
1 − cos(y)

r
π 2
(i) x = g(y) = + arccos(y/ 2). (j) x = g(y) = 3+ .
4 y2

7.6.14.
(a) Impar. (b) Impar. (c) Par.
(d) Ni par ni impar. (e) Ni par ni impar. (f) Ni par ni impar.
(g) Impar. (h) Ni par ni impar.

7.6.15.
(a) 1. (b) 0. (c) 1.

149
(d) 1/2. (e) +∞. (f) No existe pues los lı́mites laterales son distintos.
(g) 0 (h) 3 (i) −7.
(j) 2. (k) 0. (l) No existe pues los lı́mites laterales son distintos.
(m)1 si a 6= 0 y 2/3 si a = 0. (n) −1. (o) −1/8.
(p) −1/2.

7.6.16.
(a) FALSO. Las funciones f (x) = 1/x y g(x) = −1/x son discontinuas en x = 0 sin
embargo (f + g)(x) = 0 (constante) y por tanto es continua en x = 0.
(b) VERDADERO. Si el limite y la imagen existen y son iguales para f , es obvio que
tambien ocurre para f · f · f · f · f = f 5 .
p
(c) FALSO. f (x) = −x2 es continua para todo x sin embargo f (x) no existe para
ningun x y por tanto no es continua.
sen(x)
(d) FALSO. La función f = (x) = cumple que lim f (x) = 1 pero sin embargo
x x−>0
no es continua pues no existe f (0).
(e) VERDADERO. Ambas funciones son discontinuas unicamente en x = 0.

7.6.17.
(a) β = a − 1. (b) a = −2 , b = 1.

7.6.18.
(a) f (x) presenta una discontinuidad evitable en x = 0.
(b) f (x) presenta una discontinuidad de 1a especie de salto infinito en x = 1 y x = 2.

(c) f (x) presenta una discontinuidad de 1a especie de salto infinito en x = ± e y una
discontinuidad evitable en x = 0.
(d) f (x) presenta una discontinuidad de 1a especie de salto finito en x = 3.
(e) f (x) presenta una discontinuidad de 1a especie de salto infinito en x = 0.
(f) f (x) presenta una discontinuidad de 1a especie de salto infinito en x = 1 y x = −1.
(g) f (x) presenta una discontinuidad de 2a especie ó esencial en x = 1.
(h) f (x) presenta una discontinuidad de 2a especie ó esencial en todo punto.
(i) f (x) presenta una discontinuidad evitable en x = 3.
(j) f (x) presenta una discontinuidad de 1a especie de salto finito en x = 1.

7.6.19.

150
(a) f (x) presenta 2 ası́ntotas verticales en x = 1 y x = −5 y una ası́ntota ablicua en
y = x − 4.
(b) f (x) presenta una ası́ntota vertical en x = 2 y otra ası́ntota horizontal en y = 1.
(c) f (x) presenta 2 ası́ntotas verticales en x = 1 y x = −1 y una ası́ntota horizontal en
y = 0.
(d) f (x) presenta una ası́ntota horizontal en y = 0.
(e) f (x) presenta una ası́ntota horizontal en y = 0.
(f) f (x) presenta una ası́ntota vertical en x = −2 y 2 ası́ntotas horizontales: una y =
π π
x − 1 − π (x → +∞) y otra en y = − x − 1 + π (x → −∞).
2 2

7.6.20. Que f : [0, 1] → [0, 1] significa que ∀ 0 ≤ x ≤ 1 se tiene 0 ≤ f (x) ≤ 1. Por tanto se
pueden dar 3 situaciones:
(i) f (0) = 0: en este caso ya estarı́a demostrado que existe un c ∈ [0, 1] tal que f (c) = c.
Seria el propio c = 0.
(ii) f (1) = 1: en este caso ya estarı́a demostrado que existe un c ∈ [0, 1] tal que f (c) = c.
Seria el propio c = 1.
(iii) 0 < f (0) y f (1) < 1: Consideramos la función h(x) = f (x) − x continua en el
intervalo [0, 1]. Tenemos que h(0) = f (0) − 0 = f (0) > 0 y h(1) = f (1) − 1 < [Link] tanto
aplicando el teorema de Bolzano a h en [0, 1] obtenemos que existe un c ∈ (0, 1) tal que
h(c) = f (c) − c = 0, ó lo que es lo mismo, f (c) = c.

7.6.21. f presenta en x = ±3 una discontinuidad de primera especie de salto infinito. En


ambos puntos f presenta dos ası́ntotas verticales. Además, y = 0 es una ası́ntota horizontal.

2π 8π
7.6.22. f (π/3) = √ y f (4π/3) = − √ . El único cero de f se encuentra en x = 0
3 3 3 3
que no esta en el intervalo (π/3, 4π/3). No se contradice el teorema de Bolzano puesto que
este no se puede aplicar: f no es continua en el intervalo (π/3, 4π/3). En concreto, f es
discontinua en π ∈ (π/3, 4π/3).

7.6.23. a)-d) usar la definición. e) Hacer el cambio ex = z.

7.6.24. a) Dom(ln x) =Im(ex ) = (0, ∞). Im(ln x) =Dom(ex ) = |R. b) ex es creciente


y e0 = 1. c) ln(xy) = u ⇔ xy = eu . ln(x) = a ⇔ x = ea . ln(y) = b ⇔ y = eb .
xy = eu = ea eb ↔ u = a + b −→ ln(xy) = ln x + ln y.
ln(xy ) = a ↔ xy = a, ln x = b ↔ x = eb . xy = (eb )y = eyb = ea ↔ yb = a.
d) ln a = b ↔ a = eb ↔ ex ln a = exb . ax = (eb )x = ebx .

151
e) lna x = u ↔ au = x, ln x = v ↔ ev = x, ln a = w ↔ ew = a. au = ev = (ew )u = ewu ↔
v = wu.

7.6.25. a) 0 si a < 3; 1/3 si a = 3; ∞ si a > 3. b) Continua si a < 3 y b = 0. También si


a = 3 y b = 1/3. No es continua en cualquier otro caso.

152
TEMA 8. Cálculo Diferencial en
R| .
8.1. Derivada. Función derivada.
Observemos la figura siguiente:

f(x)
)
( x-x 0
f(x0+h) α
+tan
f ( x 0)
y =

α
f(x0)

x0 x0+h

La derivada f 0 (x0 ) de una función f (x) en un punto x0 de su dominio se define como la


pendiente tan α de la recta tangente y(x) = f (x0 ) + tan α(x − x0 ) a la gráfica de la función
en el punto x0 . Es decir, f 0 (x0 ) = tan α. Como indica la figura, para x próximo a x0 , es
decir, h pequeño, tenemos que

f (x0 + h) − f (x0 )
f 0 (x0 ) = tan α ' .
h
Con más precisión:
f (x0 + h) − f (x0 )
f 0 (x0 ) = lim .
h→0 h
Esta fórmula vale para cualquier punto x0 del dominio de f donde este lı́mite existe, por
definición, son los puntos del dominio donde f es derivable. En lugar de x0 podemos escribir
x y tenemos
f (x + h) − f (x)
f 0 (x) = lim .
h→0 h
Esta fórmula nos da un número f 0 (x) para cada x ∈ D(f ) donde f es derivable, es decir, al
igual que f (x) es una función f : D(f ) ⊂ |R → |R, f 0 (x) es otra función f 0 : D(f 0 ) ⊂ |R → |R.
Podemos volver a derivarla y obtenemos una nueva función f 00 (x). Y ası́ sucesivamente,
vamos obteniendo la familia de derivadas sucesivas f (n) (x) de f (x). Por ejemplo, para

153
f (x) = sin x, tenemos que f (n) (x) = (−1)n/2 sin x si n par y f (n) (x) = (−1)(n−1)/2 cos x si
n impar.
En la lista de problemas recordaremos las diversas reglas de derivación utilizadas para
calcular derivadas de funciones elementales sin necesidad de calcular el lı́mite anterior. Otras
reglas que pueden ayudarnos son las siguientes:
• Si f y g son dos funciones derivables en un punto x, entonces (f ± g)0 (x) = f 0 (x) ±
g 0 (x), (f g)0 (x) = f 0 (x)g(x) + f (x)g 0 (x) y, si g(x) 6= 0, entonces (f /g)0 (x) = [f 0 (x)g(x) −
f (x)g 0 (x)]/g 2 (x).
• Cuando componemos dos funciones f (x) y g(x) obtenemos una tercera función que
denominamos función compuesta (g ◦ f )(x) = g(f (x)). Si es derivable en un punto x,
podemos obtener (g ◦ f )0 (x) a partir de f 0 (x) y g 0 (x) usando la fórmula (regla de la cadena):

(g ◦ f )0 (x) = g 0 (f (x))f 0 (x).

Ejemplo 8.1. Al componer f (x) = x2 con g(x) = sin x obtenemos (g ◦ f )(x) = sin x2 .
Entonces g 0 (x) = cos x y f 0 (x) = 2x, por lo que (g ◦ f )0 (x) = g 0 (x2 )f 0 (x) = cos x2 · 2x.
Cuando tan α = f 0 (x0 ) > 0, la pendiente de la recta tangente es positiva, tenemos que
la función f (x) es creciente en x0 (f (x) es mayor para x a la derecha de x0 que para x a
la izquierda). Cuando tan α = f 0 (x0 ) < 0, la pendiente de la recta tangente es negativa,
tenemos que la función f (x) es decreciente en x0 (f (x) es menor para x a la derecha de x0
que para x a la izquierda).
Teorema de Rolle. Sea f : D(f ) ⊂ |R → |R continua en [a, b] y derivable (a, b) con
f (a) = f (b), entonces la derivada f 0 (x) de f (x) se anula en algún punto de (a, b) (en algún
punto de (a, b), la recta tangente a la gráfica de f (x) es horizontal).
Teorema del valor medio. Sea f : D(f ) ⊂ |R → |R continua en [a, b] y derivable (a, b),
entonces, en algún punto c ∈ (a, b), ocurre que

f (b) − f (a)
f 0 (c) = .
b−a

8.2. Polinomio de Taylor.


Un problema frecuente cuando usamos funciones, y las queremos evaluar, dibujar su
gráfica, derivar, integrar, etc...., es que, salvo en el caso de funciones elementales, suele
resultar complicado hacerlo. En esta sección vamos a ver que muchas veces se puede aprox-
imar una función f (x) por un polinomio p(x), al menos en las proximidades de un punto
x = a. Es decir, dada una función f (x) y un punto a de su dominio, podemos encontrar un
polinomio p(x) tal que f (x) ' p(x) para x próximos a a.

154
Empecemos con dos ejemplos conocidos. El primero es el siguiente: dada una función
f (x) continua en un punto a, entonces, cerca de a, tenemos que f (x) ' f (a). Por ejemplo,
para f (x) = ex y a = 0 tenemos que ex ' e0 = 1 para x cerca de 0.

Tenemos que p0 (x) := f (a) es una constante (independiente de x), es decir, un polinomio
de grado 0 que aproxima a f (x) cerca de a. Esta aproximación es muy grosera (como indica
la siguiente figura para el ejemplo f (x) = ex ). Una mejor aproximación la proporciona
un segundo ejemplo también conocido: dada una función f (x) derivable en un punto a,
entonces, cerca de a, tenemos que f (x) se aproxima por su recta tangente en a. La pendiente
m de ésta es la derivada de f (x) en a, es decir, m = f 0 (a). Además, obviamente, la recta
tangente a f (x) en a pasa por el punto (a, f (a)), de modo que la ecuación de esa recta es
y − f (a) = f 0 (a)(x − a), o lo que es lo mismo: y = p1 (x) := f (a) + f 0 (a)(x − a). Entonces,
cerca de a, tenemos que f (x) ' f (a) + f 0 (a)(x − a), y ésta es una mejor aproximación que
la anterior (ver Figura 8.1 para el ejemplo f (x) = ex ).

2.5
f(x)=ex
2.0

1.5 p1 (x)=1+x

1.0
p0(x)=1
0.5

-1 -0.5 0.5 1

Figura 8.1. Gráficas de las funciones f (x) = ex y sus polinomios de Taylor en a = 0:


p0 (x) = 1 y p1 (x) = 1 + x. Por tanto, para f (x) = ex y a = 0 tenemos que ex ' 1 + x para
x cerca de 0.

Tenemos que f (a) + f 0 (a)(x − a) es un polinomio de grado 1 que aproxima a f (x) cerca
de a mejor que el polinomio de grado 0 f (a). Llamemos p0 (x) := f (a) y p1 (x) := f (a) +
f 0 (a)(x − a). Estos son los polinomios de Taylor de grados cero y uno respectivamente de
la función f (x) en el punto x = a.

Podemos generalizar esta idea construyendo polinomios de grado cada vez más alto (poli-
nomios de Taylor de mayor grado) que aproximan cada vez mejor a la función f (x) en las
proximidades de un punto a arbitrario. Son los siguientes (suponiendo que f (x) es suficien-
temente derivable en x = a):

155
p0 (x) := f (a),
p1 (x) := f (a) + f 0 (a)(x − a),
f 00 (a)
p2 (x) := f (a) + f 0 (a)(x − a) + (x − a)2 ,
2
00
f (a) f 000 (a)
p3 (x) := f (a) + f 0 (a)(x − a) + (x − a)2 + (x − a)3 ,
2 3!
........

Cualquier polinomio pn (x) de esta lista se puede escribir del siguiente modo:

f 00 (a) f (n) (a)


pn (x) :=f (a) + f 0 (a)(x − a) + (x − a)2 + ... + (x − a)n =
2 n!
n
X f (k) (a)
(x − a)k ,
k!
k=0

que se conoce como polinomio de Taylor de grado n de la función f (x) en el punto x = a.


En el ejemplo f (x) = ex , a = 0, tenemos que todas las derivadas de f (x) son f (n) (x) = ex
y, por tanto, f (n) (0) = 1. Entonces, el polinomio de Taylor de grado n de ex en a = 0 es
n
x2 x3 xn X xk
pn (x) = 1 + x + + + ... = .
2 3! n! k!
k=0

Observemos que cada polinomio pn (x) tiene grado n (si f (n) (a) 6= 0). En la siguiente
figura aparecen los polinomios de Taylor de grado hasta 4 de f (x) = ex en a = 0:

exp (x)
4
6
p (x)
3

p (x)
4 2

p (x)
1
2

p0(x)

-2 -1 1 2

Figura 8.2. Gráficas de las funciones f (x) = ex y sus polinomios de Taylor en a = 0 de


grados 0, 1, 2, 3, 4.
En general, cuanto mayor es el grado del polinomio de Taylor de una función f (x) en un
punto a, mejor aproxima a la función en torno al punto a. También, cuanto más próximo

156
esté x a a, mejor es la aproximación del polinomio de Taylor a la función. Pero vamos
a dar una fórmula que nos permita medir de una forma más precisa como de buena es la
aproximación que proporciona el polinomio de Taylor a una función en torno a un punto.
Para ello definimos el Resto Rn+1 (x) como la diferencia entre la función f (x) y el polinomio
de Taylor de grado n, pn (x) en el punto x = a, es decir, como el error cometido al aproximar
f (x) por pn (x):
Rn+1 (x) := f (x) − pn (x).

O de otro modo:
n
X f (k) (a)
f (x) = pn (x) + Rn+1 (x) = (x − a)k + Rn+1 (x).
k!
k=0

Por lo dicho anteriormente, para un x dado próximo al punto a, Rn+1 (x) es menor cuanto
mayor n. También, para un n dado, Rn+1 (x) es menor cuanto más cerca está el punto x del
punto a.
Evidentemente, si no podemos evaluar f (x), no podemos evaluar Rn+1 (x) aún pudiendo
evaluar pn (x). Pero podemos estimar de forma aproximada el valor de Rn (x) mediante la
siguiente fórmula, fórmula de Lagrange para el resto:

f (n+1) (c)
Rn+1 (x) = (x − a)n+1 , (11)
(n + 1)!

donde c es un punto que está entre a y x, es decir c ∈ (a, x) si x > a y c ∈ (x, a) si x < a.
Esta es toda la información que tenemos del punto c, cuyo valor no se conoce por tanto de
forma exacta (sólo que está en el intervalo (a, x)). Esto significa que Rn+1 (x) no se puede
evaluar de forma precisa (pues desconocemos el valor exacto de c). Pero puede calcularse
una cota para |Rn+1 (x)| (un valor que no puede superar), con lo que sabremos que el error
cometido al aproximar f (x) por pn (x) es como mucho ese valor.
En el ejemplo anterior f (x) = ex y a = 0 tenemos que f (n+1) (x) = ex y, por tanto,
f (n+1) (c) = ec , con c ∈ (0, x) si x > 0 y c ∈ (x, 0) si x < 0. Entonces, para esta función y
a = 0:
ec
Rn+1 (x) = xn+1 .
(n + 1)!
Para valores negativos de x tenemos que x < c < 0 y, por tanto, ec < 1. Entonces,

|x|n+1
|Rn+1 (x)| ≤ , x < 0.
(n + 1)!

Observemos que, para un x fijo negativo, esta cota para el resto disminuye al aumentar n a
partir de un cierto n. También, para n fijo, esta cota disminuye al disminuir |x| (aproximarse
x al valor de a = 0).

157
2.0
25
0.10

1.5 20
0.08

15 0.06
1.0

10 0.04

0.5
5 0.02

2 4 6 8 10 12 14 2 4 6 8 10 12 14 -1.0 -0.8 -0.6 -0.4 -0.2

|2|n+1 |5|n+1 |x|n1 +1 |x|n2 +1


Figura 8.3. Gráficas de , y y para n1 = 2 y n2 = 3.
(n + 1)! (n + 1)! (n1 + 1)! (n2 + 1)!
¿Cuál es cual?
En estas gráficas observamos que, en general, para un x fijo dado, cuanto mayor es n,
menor es el error Rn+1 (x) cometido al aproximar f (x) por pn (x) (dos primeras gráficas).
También, para n fijo dado, cuanto más cerca está x de a = 0 menor es el error Rn+1 (x)
cometido al aproximar f (x) por pn (x) (tercera gráfica).
Un problema tı́pico consiste en, dada una función f (x) de la cual es sencillo calcular su
valor en un punto a, f (a), calcular f (x) con x próximo a a utilizando un polinomio de
Taylor de f (x) en el punto a, ya que este polinomio se parece a f (x) para x proximo a a.
(Suponemos que f (x) no es sencillo de calcular directamente). Por ejemplo, para f (x) = ex
es inmediato calcular f (0) ó f (1), pero no es sencillo calcular f (0.1) ó f (−1.1) sin utilizar la
calculadora. Supongamos que no disponemos de calculadora cientı́fica y queremos calcular
f (0.2) = e0.2 con un error menor que 10−3 . Dado que es inmediato calcular f (0), f 0 (0),
f 00 (0),..., etc, es sencillo calcular el polinomio de Taylor de f (x) = ex de cualquier grado n
en a = 0, de hecho ya lo hemos hecho antes:

x2 x3 xn
pn (x) = 1 + x + + + ... .
2 3! n!

Y sabemos que f (0.2) = e0.2 ' pn (0.2), y tanto mejor cuanto mayor sea el grado n del
polinomio. Pero queremos perder el menor tiempo posible calculando pn (0.2) y, cuanto
mayor n, más sumas y multiplicaciones tenemos que hacer. Por tanto, la cuestión es cual es
el n más pequeño posible con el cual se cumple que |f (0.2) − pn (0.2)| = |Rn+1 (0.2)| ≤ 10−3 .
Para ello utilizamos la fórmula de Lagrange par el resto (11). Sabemos que

ec
Rn+1 (0.2) = (0.2)n+1 ,
(n + 1)!

con 0 < c < 0.2. Por tanto

e0.2
|Rn+1 (0.2)| ≤ (0.2)n+1 .
(n + 1)!

No sabemos evaluar e0.2 sin calculadora, pero es obvio que e0.2 < 2. Entonces,

2
|Rn+1 (0.2)| ≤ (0.2)n+1 .
(n + 1)!

158
Utilizando esta fórmula vemos que R1 (0.2) ≤ 0.4, R2 (0.2) ≤ 0.04, R3 (0.2) ≤ 0.00267 y
R4 (0.2) ≤ 0.000134 < 10−3 . Por tanto, es suficiente con tomar n = 3 para asegurar que el
error cometido al aproximar e0.2 por p3 (0.2) = 1 + 0.2 + 12 (0.2)2 + 16 (0.2)3 = 1.2213 es menor
que 10−3 . De hecho, podemos comprobar con la calculadora que e0.2 = 1.2214.
1
Ejercicio 8.2. Calcular el polinomio de Taylor de grado n de f (x) = en a = 0.
1+x
Encontrar una cota para el resto Rn+1 (x) distinguiendo entre x > 0 y x < 0. ¿Es necesario
considerar también x = 0? Sin usar la calculadora para calcular f (0.1), calcular f (0.1) con
un error menor que 10−3 .
Ejercicio 8.3. Calcular el polinomio de Taylor de grados 1, 2, 3 y 4 de f (x) = 1 + x + x2
en a = 0. ¿Qué puede decirse en general del polinomio de Taylor de grado n de un función
f (x) que es un polinomio de grado m?
Ejercicio 8.4. La siguiente gráfica muestra los polinomios de Taylor de grado 2 de f (x) =
log(5 − x2 ) en los puntos a = −1.5, a = 0 y a = 1.5 (¿Cuál es cual?). Queremos calcular el
área bajo la gráfica de la función f (x), pero la integral de f (x) no es inmediata. En lugar
de calcular este área que es difı́cil, ¿usarı́as alguno de esos tres polinomios para calcular ese
área de forma aproximada? ¿cómo?

1.6

1.5

p2 (x) f(x) 1.4

1.3
q 2(x) r2 (x)
1.2

1.1

-1.5 -1.0 -0.5 0.0 0.5 1.0 1.5

Figura 8.4. Gráficas los polinomios de Taylor de grado 2 de f (x) = log(5 − x2 ) en los
puntos a = −1.5, a = 0 y a = 1.5.

8.3. Extremos relativos y absolutos.


Decimos que f : D(f ) ⊂ |R → |R tiene un máximo relativo en un punto x0 ∈ D(f )
cuando f (x0 ) ≥ f (x) para todos los x próximos a x0 . De forma más precisa: diremos que
f : D(f ) ⊂ |R → |R tiene un máximo relativo en un punto x0 ∈ D(f ) cuando existe un
intervalo de radio r centrado en x0 , (x0 − r, x0 + r) ⊂ D(f ) tal que f (x0 ) ≥ f (x) para todos
los x ∈ (x0 − r, x0 + r). La definición de mı́nimo relativo es idéntica cambiando ≥ por ≤. A
los máximos y mı́nimos relativos se les denomina extremos relativos.

159
Dada una región S ⊂ D(f ), diremos que f : D(f ) ⊂ |R → |R tiene un máximo absoluto
en un punto x0 ∈ S cuando f (x0 ) ≥ f (x) para todos los x en S. La definición de mı́nimo
absoluto es idéntica cambiando ≥ por ≤. A los máximos y mı́nimos absolutos se les denomina
extremos absolutos.
Un punto x0 puede ser a la vez máximo y mı́nimo relativo o absoluto de una función; por
ejemplo, cualquier x ∈ [−1, 1] es máximo y mı́nimo relativo y absoluto de f (x) = 1.
Sabemos, por el teorema de Weierstrass, que si f : [a, b] ⊂ |R → |R es continua en [a, b],
entonces existen dos puntos en [a, b] donde la función alcanza su máximo y su mı́nimo valor.
¿Pero como se calculan esos puntos? Si f es tres veces derivable en (a, b), el polinomio de
Taylor de f nos ayuda a resolver el problema. Vamos a utilizar un ejemplo para comprender
mejor el procedimiento.

Ejemplo 8.5. La siguiente figura muestra la gráfica de la función f (x) = (1 − 2x + x2 )e−x


en el intervalo [0, 5].

1.0
f(0)=1

f(x)

f’(3)=0
0.2
f’(1)=0
f(5)=0.108
0 1 3 5
Figura 8.5. Gráfica de la función f (x) = (1 − 2x + x2 )e−x en el intervalo [0, 5].
Observamos en la figura que esta función tiene dos máximos relativos, uno en x0 = 0 y
otro en x1 ' 3. Y dos mı́nimos relativos, uno en x2 ' 1 y otro en x3 = 5.
La gráfica puede ayudarnos a resolver el problema, pero calcular los valores exactos,
como hemos hecho en este ejemplo, no es siempre sencillo a partir de la gráfica. Para ello
seguiremos el siguiente procedimiento. Si f (x) es derivable en (a, b), entonces, tanto en los
máximos como mı́nimos relativos, la recta tangente a f (x) es horizontal, es decir f 0 (x0 ) = 0
si x0 es un extremo relativo. Lo contrario no es siempre cierto, puede ocurrir que f 0 (x0 ) = 0
sin que x0 sea extremo relativo, como le ocurre a la función g(x) = x3 en x0 = 0 (ver Figura
8.6).
A los puntos x0 en los que g 0 (x0 ) = 0 y no son extremos relativos se les llama puntos de
inflexión. x0 = 0 es un punto de inflexión de g(x) = x3 .
En cualquier caso, sea x0 extremo relativo o punto de inflexión de f (x), tenemos que
0
f (x0 ) = 0. Por tanto, para localizar los extremos relativos de f (x) resolvemos la ecuación

160
f 0 (x) = 0 (aún a riesgo de localizar también puntos de inflexión). Las soluciones de esta
ecuación se denominan puntos crı́ticos de f (x). En nuestro ejemplo tenemos que f 0 (x) =
−(3 − 4x + x2 )e−x . Como e−x no se anula nunca, tenemos que f 0 (x) = 0 equivale a
3 − 4x + x2 = 0, cuyas soluciones son x2 = 1 y x1 = 3. Por tanto, esta función tiene dos
puntos crı́ticos en (0, 5).
1.0

0.5

-1.0 -0.5 0.5 1.0

-0.5

-1.0

Figura 8.6. Gráfica de la función f (x) = x3 en el intervalo [−1, 1].


Ahora queda por determinar si son máximos, mı́nimos o puntos de inflexión. Para ello
recurrimos al polinomio de Taylor de grado dos de f (x) en cada uno de los puntos crı́ticos
(si f (x) es tres veces derivable en x0 ). Si x0 es un punto crı́tico de f (x), tenemos que, cerca
de x0 , la función f (x) se parece a su polinomio de Taylor de grado dos en x0 :

1 1
f (x) ' p2 (x) = f (x0 ) + f 0 (x0 )(x − x0 ) + f 00 (x0 )(x − x0 )2 = f (x0 ) + f 00 (x0 )(x − x0 )2 .
2 2

Por tanto
1 00
f (x) − f (x0 ) ' f (x0 )(x − x0 )2 .
2
Como (x − x0 )2 > 0 para x tanto a un lado como a otro de x0 , tenemos que: Si f 00 (x0 ) > 0
entonces x0 es un mı́nimo relativo de f (x). Si f 00 (x0 ) < 0 entonces x0 es un máximo relativo
de f (x). Si f 00 (x0 ) = 0 no podemos afirmar nada con esta fórmula. Pero entonces, si f (x)
es cuatro veces derivable x0 , cerca de x0 , la función f (x) se parece a su polinomio de Taylor
de grado tres en x0 :

1 1
f (x) ' p3 (x) =f (x0 ) + f 0 (x0 )(x − x0 ) + f 00 (x0 )(x − x0 )2 + f 000 (x0 )(x − x0 )3 =
2 6
1
f (x0 ) + f 000 (x0 )(x − x0 )3 .
6

Por tanto, si en un punto crı́tico x0 de f (x) tenemos que f 00 (x0 ) = 0,

1 000
f (x) − f (x0 ) ' f (x0 )(x − x0 )3 .
6
161
Si f 000 (x0 ) 6= 0 entonces, como (x − x0 )3 tiene distinto signo para x a un lado y otro de
x0 , se trata de un punto de inflexión. Si en un punto crı́tico x0 de f (x) tenemos que
f 00 (x0 ) = f 000 (x0 ) = 0 entonces debemos recurrir al polinomio de Taylor de grado 4 de f (x)
en x0 . Y ası́ sucesivamente.
Ejercicio 8.6. Continuar el razonamiento anterior para encontrar la regla que nos permite
decidir si un punto crı́tico x0 de f (x) es extremo relativo o punto de inflexión, independien-
temente de cuantas derivadas sucesivas se anulan en x0 .
En el ejemplo anterior tenemos que f 00 (x) = (7 − 6x + x2 )e−x . Por tanto f 00 (1) = 0.7 > 0
y f 00 (3) = −0.1 < 0; x2 = 1 es un mı́nimo relativo y x1 = 3 es un máximo relativo.
Para una función continua en [a, b] y suficientemente derivable en (a, b), los únicos ex-
tremos relativos del intervalo [a, b] que no pueden ser localizados mediante este procedi-
miento son los extremos a y b, ya que f (x) puede alcanzar en esos puntos un máximo o un
mı́nimo relativo sin que f 0 (x) se anule en ellos (observar la gráfica de la función del ejemplo
8.1). Pero esto no supone mayor problema, pues no tenemos más que evaluar f 0 (x) en x = a
y x = b para determinar si son máximos o mı́nimos relativos:
Si f 0 (a) > 0 entonces f (x) es creciente en a y por tanto a es un mı́nimo relativo. Si
f 0 (a) < 0 entonces f (x) es decreciente en a y por tanto a es un máximo relativo. Si
f 0 (b) > 0 entonces f (x) es creciente en b y por tanto b es un máximo relativo. Si f 0 (b) < 0
entonces f (x) es decreciente en b y por tanto b es un mı́nimo relativo.
En el ejemplo anterior tenemos que f 0 (0) = −3 y x0 = 0 es un máximo relativo. f 0 (5) =
−0.05 < 0 y por tanto x3 = 5 es un mı́nimo relativo.
Finalmente, para determinar los máximos y mı́nimos absolutos de f (x) continua en [a, b],
no tenemos más que comparar los máximos y mı́nimos relativos para determinar el mayor y
menor respectivamente. En el ejemplo 8.1 hemos visto que f (x) tiene dos máximos relativos,
uno en x0 = 0 y vale f (0) = 1 y otro en x2 = 3 y vale f (3) = 0.2. Por tanto el máximo
absoluto se alcanza en x0 = 0 y vale f (0) = 1. También hemos visto que f (x) tiene dos
mı́nimos relativos, uno en x1 = 1 y vale f (1) = 0 y otro en x3 = 5 y vale f (5) = 0.11. Por
tanto el mı́nimo absoluto se alcanza en x1 = 1 y vale f (1) = 0.

8.4. Regla de L’Hôpital y equivalencias.


La aproximación de Taylor de una función permite entender la regla de L’Hôpital para
calcular lı́mites de funciones. Permite también entender las equivalencias utilizadas en el
cálculo de lı́mites.
Supongamos que limx→x0 f (x) = limx→x0 g(x) = 0 y que ambas funciones son suficiente-
mente derivables en x0 , lo que significa en particular que f (x0 ) = g(x0 ) = 0. Entonces, en
las proximidades de x0 ambas se aproximan por sus polinomios de Taylor en x0 de grado
uno:
f (x) ' 0 + f 0 (x0 )(x − x0 ), g(x) ' 0 + g 0 (x0 )(x − x0 ).

162
Por tanto, si estamos calculando el lı́mite de su cociente en x0 (que en principio es una
indeterminación 0/0) podemos aproximar ambas por sus correspondientes polinomios de
Taylor de grado uno y tenemos que:

f (x) f 0 (x0 )(x − x0 ) f 0 (x0 ) f 0 (x0 )


lim = lim 0 = lim 0 = 0 .
x→x0 g(x) x→x0 g (x0 )(x − x0 ) x→x0 g (x0 ) g (x0 )

A no ser que f 0 (x0 ) = g 0 (x0 ) = 0, en cuyo caso volvemos a tener una indeterminación 0/0.
Pero si esto ocurre, entonces aproximamos ambas funciones por sus polinomios de Taylor en
x0 de grado dos y tenemos:

f (x) f 00 (x0 )(x − x0 )2 f 00 (x0 ) f 00 (x0 )


lim = lim 00 = lim = .
x→x0 g(x) x→x0 g (x0 )(x − x0 )2 x→x0 g 00 (x0 ) g 00 (x0 )

A no ser que f 00 (x0 ) = g 00 (x0 ) = 0, en cuyo caso volvemos a tener una indeterminación 0/0.
Pero si esto ocurre, entonces aproximamos ambas funciones por sus polinomios de Taylor en
x0 de grado tres, etc...
La conocida aproximación sin x ' x cuando x → 0 se debe a que el polinomio de Taylor
de grado 1 de esta función en x0 = 0 es p1 (x) = x. La conocida aproximación cos x ' 1
cuando x → 0 se debe a que el polinomio de Taylor de grado 1 de esta función en x0 = 0 es
p1 (x) = 1. Etc...
Ejercicio 8.7. Demostrar las equivalencias utilizadas en los problemas resueltos 4 y 5 del
capı́tulo anterior.

8.5. Localización de raı́ces de funciones.


Otro problema tı́pico que aparece frecuentemente en la práctica es el cálculo de raı́ces de
funciones f (x), es decir, los valores de x para los cuales se anula la función: f (x) = 0. O
dicho de otro modo, dada una ecuación f (x) = 0, queremos resolverla. El problema puede
ser sencillo cuando f (x) es sencilla; por ejemplo un polinomio de grado uno o dos, entonces
f (x) = 0 es una ecuación polinómica de grado uno o dos para la cual disponemos de una
sencilla fórmula que nos da las raı́ces del polinomio f (x) (¿cuál?). O también, por ejemplo, si
f (x) = sin x entonces sabemos que las soluciones de sin x = 0 son x = 0, π, −π, 2π, −2π, ...,
etc, en general x = nπ con n ∈ Z / . Pero para funciones f (x) más complicadas, resolver

f (x) = 0 puede no ser tan sencillo. Por ejemplo, considerar f (x) = ex − x − 2; ¿como
despejar la x de la ecuación ex − x − 2 = 0? Es imposible hacerlo, es imposible por tanto
resolver la ecuación ex − x − 2 = 0 de forma exacta.
Cuando f (x) es un polinomio de grado 3 (e incluso 4), sı́ es posible resolver f (x) = 0
de forma exacta, hay una fórmula que nos da las 3 (o las 4) raices del polinomio f (x) de
forma exacta. Esta fórmula es más complicada que la conocida fórmula para polinomios

163
de grado 2, y no debemos pretender memorizarla. Por ejemplo, las 3 raı́ces de la ecuación
x3 + ax2 + bx + c = 0 son

a 21/3 (3b − a2 )
x1 = − − √ √ +
3 3[9ab − 2a3 − 27c + 3 3 4b3 − a2 b2 + 4a3 c − 18abc + 27c3 ]1/3
√ √
[9ab − 2a3 − 27c + 3 3 4b3 − a2 b2 + 4a3 c − 18abc + 27c2 ]1/3
,
3 · 21/3

a (1 + i 3)(3b − a2 )
x2 = − + √ √ −
3 3 · 22/3 [9ab − 2a3 − 27c + 3 3 4b3 − a2 b2 + 4a3 c − 18abc + 27c3 ]1/3
√ √ √
(1 − i 3)[9ab − 2a3 − 27c + 3 3 4b3 − a2 b2 + 4a3 c − 18abc + 27c2 ]1/3
,
6 · 21/3

a (1 − i 3)(3b − a2 )
x3 = − + √ √ −
3 3 · 22/3 [9ab − 2a3 − 27c + 3 3 4b3 − a2 b2 + 4a3 c − 18abc + 27c3 ]1/3
√ √ √
(1 + i 3)[9ab − 2a3 − 27c + 3 3 4b3 − a2 b2 + 4a3 c − 18abc + 27c2 ]1/3
.
6 · 21/3

Existe una fórmula similar para las 4 raı́ces de la ecuación x4 + ax3 + bx2 + cx + d = 0,
más complicada, que no vamos a escribir. Para polinomio de grado mayor o igual que 5
ya ni siquiera hay fórmula que nos permita obtener sus raı́ces de forma exacta. Ni por
supuesto, en general, para obtener las soluciones de cualquier ecuación f (x) = 0 con f (x)
una función genérica. Entonces, cuando no sea posible resolver exactamente la ecuación
f (x) = 0 (si f (x) es un polinomio decimos entonces encontrar las raı́ces de ese polinomio),
utilizaremos un método que nos permita resolver la ecuación de forma aproximada. Existen
diversos métodos; aquı́ utilizaremos el Método de Newton (o Newton-Rapson) que se basa
en la siguiente idea geométrica. Dada una función f (x), queremos encontrar los valores de
x para los cuales f (x) = 0. Aunque lo que sigue a continuación es una idea general, para
fijar ideas vamos a coger el ejemplo antes mendionado f (x) = ex − x − 2. Lo primero que
debemos hacer es dibujar la gráfica de la función f (x) (aunque sea de forma aproximada),
para ver donde se cumple aproximadamente que f (x) = 0 (ver Figura 8.7).
En la Figura 8.7 observamos que la ecuación ex − x − 2 = 0 tiene una solución s dentro
del intervalo [1, 1.5]. Si no podemos dibujar la gráfica de f (x), podemos al menos evaluar f
en algunos puntos para ver donde su gráfica cruza el eje X: sabemos que f (0) = −1 < 0,
f (1) = e − 3 < 0, f (2) = e2 − 4 > 0, con lo cual deducimos que hay una raı́z en el intervalo
[1, 2]. La información de la gráfica es más precisa ya que sitúa esa raı́z en un intervalo más
pequeño [1, 1.5]. Pero no importa, cojamos el intervalo [1, 2] que sabemos contiene una raı́z
de f (x). Ahora fijémonos en la recta tangente a f (x) en el extremo derecho del intervalo,
x0 = 2 (ver figura). La ecuación de esta recta tangente es y(x) = f (x0 ) + f 0 (x0 )(x − x0 ).
Observemos que esa recta tangente y(x) corta el eje X en un punto x1 más proximo a la
raı́z s de lo que está el punto de partida x0 = 2. Y ese punto x1 se calcula de forma sencilla,

164
pues el punto x para el cual y(x) = 0, es decir, 0 = f (x0 ) + f 0 (x0 )(x1 − x0 ). Despejando x1
tenemos que
f (x0 )
x1 = x0 − 0 = 1.46955.
f (x0 )

y
3.0
2.5
2.0
1.5
1.0
0.5
s x
1.2 1.4 1.6 1.8 2.0

Figura [Link]́fica ilustrativa del Método de Newton.


Observemos que, partiendo de un punto x0 hemos obtenido otro x1 más próximo a la raı́z
s que estamos buscando. Podemos ahora repetir lo anterior partiendo de x1 para obtener
un punto x2 todavı́a más próximo (ver figura anterior):

f (x1 )
x2 = x1 − = 1.20733.
f 0 (x1 )

Y ası́ sucesivamente hasta que nos cansemos o, mejor aún, hasta que estemos seguros de
haber alcanzado la precisión deseada (la proximidad a s deseada). Lo que estamos haciendo
es, partiendo de un punto x0 dado, generar una sucesión de puntos x0 , x1 , x2 ,...., con la
fórmula
f (xn )
xn+1 = xn − 0 ,
f (xn )
que se aproximan a s. La cuestión ahora es en que xn paramos. El error que cometemos al
aproximar s por xn es s − xn . Este error se puede estimar comparando dos aproximaciones
sucesivas, xn con xn+1 y viendo cuantas cifras decimales permanecen inalteradas la pasar de
xn a xn+1 . En nuestro ejemplo tenemos que x0 = 2, x1 = 1.46955, x2 = 1.20733 y se propone
como ejercicio comprobar que x3 = 1.14881, x4 = 1.146198, x5 = 1.146193. Si por ejemplo
queremos una precisión de dos cifras decimales, nos basta con decir que s ' x3 = 1.14, ya
que sabemos que, a partir de x3 , las cifras 1.14 se mantienen, son buenas. Si queremos una
precisión de cinco cifras decimales, entonces diremos que s ' x4 = 1.14619, ya que sabemos
que, a partir de x4 , las cifras 1.14619 se mantienen, son buenas.
Ejercicio 8.8. Dibujar de forma aproximada la gráfica de la función f (x) = ex + e−x − 3 y
estimar cuantas raı́ces reales tiene y situarlas en un intervalo. Aproximar cada una de ellas
utilizando el método de Newton con 4 cifras de precisión.

165
Ejercicio 8.9. Resolver de forma aproximada, con 4 cifras de precisión, la ecuación x4 −
x3 − 1 = 0.
Ejercicio 8.10. Resolver de forma aproximada, con 4 cifras de precisión, la ecuación
2 sin x = x.

8.6. Problemas resueltos.


8.6.1. Sea f definida del modo siguiente:
1
si |x| > c,

|x| ,
f (x) =
a + b x2 , si |x| ≤ c.

Halla los valores de a y b (en función de c) para que f 0 (c) exista.


Primero indicar que si c = 0 la función quedarı́a
1
si x 6= 0,

|x| ,
f (x) = 2
a + b x , si x = 0.

y esta función, al no ser continua en x = 0 (los limites laterales son infinitos), no es derivable
en x = 0. No existe f 0 (0).
Si c < 0, la función quedarı́a f (x) = 1/|x| y por tanto f 0 (c) existe para todo a y b.
Si c > 0, la función tiene 2 puntos crı́ticos como son x = ±c. Veamos cuando es derivable
aplicando la definición:
(a) Primero el punto x = c:
f (h + c) − f (c)
lim .
h→0 h
Para ello, calcularemos los limites laterales y para que sea derivable, estos deben coincidir.
Primero el derecho:
1
f (h + c) − f (c) h+c − (a + b c2 )
lim = lim .
h→0+ h h→0+ h

Si queremos que este limite exista y sea finito, debemos exigir que 1/c = a + b c2 . Entonces
1
f (h + c) − f (c) h+c − (a + b c2 ) −1 −1
lim+ = lim+ = lim+ = .
h→0 h h→0 h h→0 h+c c
Ahora el limite izquierdo:

f (h + c) − f (c) a + b(h + c)2 − (a + b c2 ) h(bh + 2cb)


lim− = lim− = lim− = 2bc.
h→0 h h→0 h h→0 h

Por tanto debe ocurrir que 1/c = a + b c2 y −1/c = 2bc para que el limite exista.

166
(b) Si consideramos el punto x = −c y siguiendo los mismos pasos del caso anterior se
puede deducir exactamente las 2 mismas condiciones.
3 −1
Por lo tanto, para que exista f 0 (c) se debe cumplir a = y b = 3.
2c 2c

8.6.2. Sea f una función continua en [a, b] tal que tiene derivada segunda f 00 en todo punto
del intervalo abierto (a, b). El segmento de recta que une (a, f (a)) y (b, f (b)) corta la gráfica
de f en un tercer punto (c, f (c)), siendo a < c < b. Prueba que f 00 (x) = 0 por lo menos en
un punto x de (a, b).
Sea r(x) = αx + β la recta que contiene al segmento que hace referencia el enunciado y
g(x) = f (x) − αx − β = f (x) − r(x). Notar que g 00 (x) = f 00 (x) Tenemos:
g(a) = 0, g(c) = 0. Por Tma de Rolle: ∃ c1 ∈ (a, c) tal que g 0 (c1 ) = 0.
g(c) = 0, g(b) = 0. Por Tma de Rolle: ∃ c2 ∈ (c, b) tal que g 0 (c2 ) = 0.
Ahora considerando la función g 0 (x) en el intervalo (c1 , c2 ), podemos aplicar de nuevo el
Tma
de Rolle para concluir que ∃ d ∈ (c1 , c2 ) tal que g 00 (d) = 0. Por tanto, f 00 (d) = 0.

8.6.3. Dada la función f (x) = x3 + x − 9:


a) Di cuántas raı́ces reales y/o complejas tiene. Razona tu respuesta.
b) Aproxima el valor de la raı́z o de las raı́ces reales de la función con cuatro cifras
decimales exactas.
Calculando la derivada f 0 (x) = 3x2 + 2 > 0 se comprueba que la función es creciente para
todo x. Dado que lim f (x) = −∞ y que lim f (x) = ∞ se deduce que la gráfica corta al
x→−∞ x→∞
eje X en una sola ocasión, por tanto f (x) tiene una sola raiz. Al tratarse de un polinomio
de grado 3, las otras 2 raices son complejas.
Es fácil ver que f (1) = −7 y que f (2) = 1 y por tanto, por el teorema de Bolzano, existe
un valor c ∈ (1, 2) tal que f (c) = 0.
f (Xn )
Para aproximar dicha raiz, utilizaremos el método de Newton: Xn+1 = Xn − 0
.
f (Xn+1 )
Asi pues, iterando dicho método varias veces partiendo de X0 = 2:
(i) X0 = 2,
(ii) X1 = 10 923077,
(iii) X2 = 10 920179,
(iv) X3 = 10 920175.
Por tanto la raiz aproximada con 4 cifras decimales exactas serı́a x = 10 9201.

8.6.4. Calcula la ecuación de la recta tangente a la curva y 2 + x2 = y 4 − 2x en el punto


(−2, 1).

167
Sabemos que la ecuación de la recta tangente en el punto x = −2 es ȳ = y(−2) +
y (−2)(x + 2). Por los datos del problema tenemos y(−2) = 1. Calculemos y 0 (−2). Para ello
0

utilizaremos la derivación implicita

−2 − 2x
y 2 + x2 = y 4 − 2x ⇒ 2y y 0 + 2x = 4y 3 y 0 − 2 ⇒ y 0 (x) = .
2y(x)(1 − 2y 2 (x))

Por tanto y 0 (−2) = −1 y la ecuacion es ȳ = −x − 1.


8.6.5. Aplica una fórmula de Taylor de segundo grado para calcular aproximadamente e.
Estima el error.

Queremos aproximar e = e1/2 . Sabemos que el polinomio de Taylor aproxima a la
función cerca del punto a que elijamos. Por ello, vamos a considerar a f (x) = ex como

función y por tanto e podrá ser aproximado por su polinomio de Taylor en el punto
x = 1/2. Es decir:

e = e1/2 = f (1/2) ∼ P2 (1/2).
Ademas, tomaremos como punto a = 0, puesto que x = 1/2 es ”cercano” a dicho punto a y
tanto f (x) como sus derivadas se evalúan de forma sencilla en el punto a = 0. Por tanto:

f 00 (x0 ) x2
P2 (x) = f (x0 ) + f 0 (x0 )(x − x0 ) + (x − x0 )2 = 1 + x + .
2! 2

Entonces e = e1/2 = f (1/2) ∼ P2 (1/2) = 10 625.
Por otro lado, el error que se comete al aproximar f (x) por su polinomio de Tylor P2 (x)
en un punto genérico es

f (3) (c) ec 1 c
R2 (x) = (x − 0)3 = x3 ⇒ R2 (1/2) = e con 0 < c < 1/2.
3! 6 48
1 c 1
Dado que 0 < c < 1/2 tenemos que 1 < ec < e1/2 < 2 y R2 (1/2) = e < .
48 24

Por tanto e ∼ 10 625 con un error menor que 00 0417.

8.6.6. Utilizando un polinomio de Taylor de grado 2 en torno a a = π/2 calcula:

log (sin x)
limπ .
x→ 2 (π − 2 x)2

Vamos a considerar el poliniomio de Taylor de f (x) = log(sin(x)) centrado en a = π/2 de


grado 2:

f 00 (a) −1  π 2
P2 (x) = f (a) + f 0 (a)(x − x0 ) + (x − a)2 = x−
2! 2 2
168
f (3 (c)  π 3
y el resto correspondiente R2 (x) = x− .
3! 2
Tenemos entonces que f (x) = P2 (x) + R2 (x) y sustituyendo en el lı́mite

π 2 π 3
 
log (sen x) −1/2 x − 2 + f (3 (c) x − 2 /3! −1 f (3 (c)  π  −1
limπ = lim 2 = limπ + x− = .
x→ 2 (π − 2 x)2 x→ 2π
4 x − π2 x→ 2 8 4 3! 2 8

8.7. Problemas propuestos.


8.7.1. Calcular el polinomio de Taylor de grado cuatro en a = 0 de la función f (x) =
ex + e−x .

8.7.2. El polinomio de Taylor de grado dos en a = 0 de una cierta función f (x) es p2 (x) =
1 + x + x2 . ¿Cuanto vale f 0 (0)?

8.7.3. ¿Cuantas raı́ces reales tiene el polinomio f (x) = x3 − x2 − 1? Aproximar una de ellas
con dos cifras decimales de precisión.

8.7.4. El polinomio de Taylor de grado dos en 0 de f (x) = a sin x + b cos x + cex es


p2 (x) = 4 + 2x + x2 . Calcular a, b y c.

8.7.5. ¿Cuantas soluciones reales tiene la ecuación ex + e−x − 4 = 0? Aproximar una de


ellas con dos cifras decimales de precisión.

8.7.6. Sea la función f (x) = ln(1 + x). Calcular el valor de ln(1.1) con dos cifras decimales
de precisión utilizando el polinomio de Taylor de f (x) en x0 = 0.

8.7.7. Sea la función f (x) = ln(1 − x).


a) Calcular el polinomio de Taylor de grado 3 en x0 = 0 y utilizarlo para calcular el valor
aproximado de ln(3/4).
b) Calcular el polinomio de Taylor de grado n en x0 = 0.

8.7.8. Para determinar el ángulo α de un segmento de circunferencia, conocidos el arco


(a = 43) y la cuerda (c = 40), hay que resolver la ecuación

α 20α
sin =
2 43

De esta ecuación no es posible obtener una expresión explı́cita para α. En estos casos se
puede proceder utilizando un método numérico, como por ejemplo el método de Newton.
Efectúa tres iteraciones con dicho método para obtener una aproximación de la solución.

169
8.7.9. Sea la función f (x) = 1/(1 + x)2 .
a) Calcular el polinomio de Taylor de grado 3 en x0 = 0 y utilizarlo para calcular el valor
aproximado de 1.1−2 .
b) Calcular el polinomio de Taylor de grado n en x0 = 0.

8.7.10. Consideremos la función

f (x) = bx2 + ln(x),

donde b es una cierta constante desconocida. Se sabe que el polinomio de Taylor p1 (x) de
grado 1 de f (x) en el punto x = 1 es

p1 (x) = −2 + 3x.

Calcular la constante b y el polinomio de Taylor de grado 3 en el punto x = 1.

8.7.11. Supongamos que desde el polo norte y hacia el centro de la Tierra, la temperatura
en grados centı́grados en el interior de la Tierra viene dada, en función de la profundidad x
medida en Km., por la función

T (x) = x3 − x2 + x − 2.

Demostrar que la temperatura T vale T = 0o C para un único valor de la profundidad.


Calcular con dos cifras decimales de precisión este valor.

8.7.12. El coeficiente de dilatación f (x) de un cierto sólido es

f (x) = ex + e−x ,

donde x es la temperatura medida en grados centı́grados.


a) Calcular el polinomio de Taylor p4 (x) de esta función en el punto a = 0o C.
b) Calcular el valor aproximado del coeficiente de dilatación a temperatura x = 0.5 grados
centı́grados usando p4 (x). Obtener una cota para el error cometido.
c) Comparar f (0.5) − p4 (0.5) con la cota de error obtenida en b). ¿Cómo de buena es esta
cota?.

8.7.13. Del coeficiente de dilatación f (x) de un cierto sólido, donde x es la temperatura


medida en grados centı́grados, se sabe que f (0) = 1o , f 0 (0) = π o seg−1 . y f 00 (0) = 2o seg−2 .
a) Construir el polinomio de Taylor de grado 2, p2 (x), de f (x) en x0 = 0o .
b) ¿Podrı́a ser f (x) = 1 + x2 +sen(πx)?. ¿Por qué?. En caso afirmativo, calcular el valor
aproximado del coeficiente de dilatación a temperatura x = 0.1o usando el polinomio de

170
Taylor de grado 1, p1 (x), de f (x) en x0 = 0o . Calcular el error cometido al aproximar f (0.1)
por p1 (0.1).

8.7.14. Sea la función f (x) = ex + ex/2 − 5.


a) Demostrar que la ecuación f (x) = 0 tiene una única solución real y que está en el intervalo
[1, 2].
b) Calcularla con dos cifras decimales de precisión utilizando el método de Newton.

8.7.15. Sea la función f (x) = ex + e−x − 5.


a) Demostrar que la ecuación f (x) = 0 tiene dos soluciones reales y situarlas en sendos
intervalos de longitud 1.
b) Calcularlas con una cifra decimal de precisión utilizando el método de Newton (justificar
que se puede utilizar el método).

8.7.16. La longitud L de un sólido (en metros) en función de la temperatura (en grados


Kelvin) viene dada por
L0
1 − ae−αT ,

L(T ) =
1−a
donde L0 , a y α son ciertas constantes desconocidas. Se sabe que el polinomio de Taylor
L2 (T ) de grado 2 de L(T ) en T = 0 es

L2 (T ) = 1 + 2T − 2T 2 .

a) Calcular las constantes L0 , a y α.


b) Calcular la recta tangente a L(T ) en T = 0.
c) ¿Cuál es la velocidad de elongación en T = 0?. ¿Y cuál serı́a aproximadamente la longitud
en el centro del sol?

8.7.17. La temperatura en grados centı́grados de un cierto sistema viene dada en función


de la presión por la función

T (P ) = 2P 3 − 3P 2 + 6P − 9.

Para cuántos valores distintos de P , la temperatura T vale T = 0o C?. Calcular con dos
cifras decimales de precisión estos valores.
2
8.7.18. Consideremos las funciones ex y ex , donde x es una variable real.
a) Calcular el polinomio de Taylor de grado 2 de ex en x0 = 0.
2
b) Calcular el polinomio de Taylor de grado 4 de ex en x0 = 0.
c) Podrı́a responderse b) usando a)?. Cómo?.

171
d) Usando la fórmula del error, obtener una cota para error cometido al aproximar e−0.4
por el polinomio obtenido en a). Comparar esta cota con el verdadero error (obtenido con
la calculadora). Podrı́a aproximarse e−0.4 usando b)?. Por qué?.

8.7.19. Considerar la función f (x) = 1 + x.
a) Calcular el polinomio de Taylor de grado 2 de esta función en el punto x = 0.

b) Dar una cota superior del error obtenido al aproximar con dicho polinomio 1.1.

8.7.20. Sea la función f (x) = 13 x3 + 4x + 1.


a) ¿Para cuántos valores de x se verifica f (x) = 0?.
b) Calcular con cuatro cifras decimales de precisión esos valores.

8.7.21. Sea la función f (x) = sin(x) cos(x). Calcular el polinomio de Taylor de grado 3 en
x = 0. Calcular el polinomio de Taylor de grado 3 en x = 2π. ¿Que relación existe entre
ellos?.

8.7.22. El polinomio de Taylor de grado uno en x = 0 de la función ln(a + bx), donde x es


una variable real y a y b son ciertas constantes, es P1 (x) = x.
a) Calcular a y b.
b) Calcular el polinomio de Taylor de grado 2 de ln(a + bx) en x0 = 0 para los valores de a
y b hallados en el apartado anterior.
8.7.23. Encontrar el polinomio de Taylor de cuarto grado de f alrededor de x0 = 0, si

f (x) = ex cos x.

Utilizarlo para aproximar f (π/16) y encontrar una cota para el error en esta aproximación.

8.7.24. Sea f (x) = e−x . Encontrar el polinomio de Taylor de tercer grado para f
0
alrededor de x0 = 1 y aproximar e−0 99 utilizando el polinomio de Taylor. ¿Cuántas cifras
decimales de precisión se esperan?

8.7.25. Usar el polinomio de Taylor alrededor de π/4 para aproximar cos(7π/30) con una
precisión de 10−6 .

8.7.26. Encontrar el polinomio de Taylor de segundo grado de f alrededor de x0 = 0


si f (x) = cos x. Usarlo para aproximar f (00 001) y encontrar una cota para el error de
aproximación. Hacer lo mismo para el polinomio de tercer grado.

8.7.27. Encontrar los máximos, mı́nimos y puntos de inflexión de las siguientes funciones
f (x):
a) f (x) = x3 (x − 2)

172
b) f (x) = (1 + x3 )−1/3
c) f (x) = x3 (x − 4)3

8.7.28. La población de una colonia de bacterias está determinada por la ecuación

P (t) = 100 + 15t2 − 3t,

donde t es el tiempo medido en horas. Halla:


a) La velocidad a la que crece la población al cabo de una hora.
b) Halla los momentos de menor y mayor velocidad de crecimiento de la población durante
las 30 primeras horas.
c) Halla el polinomio de Taylor de grado 2 asociado a P (t) alrededor de t = 1. Halla el
correspondiente resto de Taylor. Interpreta el resultado.

8.7.29. Halla el polinomio de Taylor de grado 3 en torno a cero de la función f (x) =


ln(1 + x). Estima el error obtenido al aproximar con dicho polinomio ln(10 4).

8.7.30. Encontrar una función con un mı́nimo local que no sea punto crı́tico.

8.7.31. Demostrar que no existe ningún punto c tal que

f (1) − f (−1) = 2f 0 (c),

para las siguientes funciones f (x). Explicar por qué falla el Teorema del Valor Medio:
a) f (x) = |x − (1/2)|
b) f (x) = |x|1/2
c) f (x) = 1/x2

8.7.32. El precio de un diamante es proporcional al cuadrado de su peso. Demostrar que,


rompiéndolo en dos partes existe una depreciación de su valor. ¿Cómo han de ser estas
partes para que sea máxima esta depreciación?

Soluciones a los problemas propuestos


8.7.1. p4 (x) = 2 + x2 + x4 /12.
8.7.2. 1.
8.7.3. Una: 1.46557.
8.7.4. a = −1, b = 1, c = 3.
8.7.5. Dos: x = ±1.31696.
8.7.6. ln(1.1) = 0.0953102....

173
xk
Pn
8.7.7. a) p3 (x) = −x − x2 /2 − x3 /3. ln(3/4) ' −75/64. b) pn (x) = − k=1 k . c)
− ln(1 − x) − x.
8.7.8. α ' 1.30986 Rad.
Pn
8.7.9. a) p3 (x) = 1 − 2x + 3x3 − 4x3 . 1.1−1 ' p3 (0.1) = 0.826. b) pn (x) = k=0 (−1)
k
(k +
1)xk . c) 1/(1 + x)2 − 1 + 2x.
8.7.10. b = 1. p3 (x) = 1 + 3(x − 1) + (x − 1)2 /2 + (x − 1)3 /3.
8.7.11. 1.35321.
8.7.12. a) p4 (x) = 2 + x2 + x4 /12. b) f (0.5) ' p4 (0.5) = 433/192. |R4 (x)| ≤ 0.0087. c)
R4 (1/2) ' 0.0000436.
8.7.13. a) p2 (x) = 1 + πx + x2 . b) Si. f (0.1) ' p1 (0.1) = 1.31416. R1 (0.1) = f (0.1) −
p1 (0.1) = 0.00486.
8.7.14. b) 1.16.
8.7.15. a) [−2, −1], [1, 2]. b) ±1.56.
8.7.16. a) L = 1, a = 1/2, α = 1. b) 1 + 2T . c) 2 y 2.
8.7.17. Una. 1.5.
8.7.18. a) 1 + x + x2 /2. b) 1 + x2 + x4 /2. c) Si. d) |R2 (−0.4)| < 0.0107. R2 (−0.4) =
0.00967995.
8.7.19. a) 1 + x/2 − x2 /8. |R2 (1.1)| < 0.0000625.
8.7.20. Uno, −0.2487.
8.7.21. x − 2x3 /3. (x − 2π) − 2(x − 2π)3 /3.
8.7.22. a) a = b = 1. x − x2 /2.
8.7.23. p4 (x) = 1 + x − x3 /3 − x4 /6. f (π/16) ' p4 (π/16) = 1.19358. |R5 (π/16)| ≤
0.00001184.
8.7.24. p3 (x) = (1 + (1 − x) + (1 − x)2 /2 + (1 − x)3 /6)/e. f (0.99) ' p3 (0.99) = 0.371577.
8.7.25. p3 (x) = (1 + (π/4 − x) − (π/4 − x)2 /2 − (π/4 − x)3 /6). p3 (7π/30) = 0.743145.
8.7.26. p2 (x) = 1 − x2 /2. f (0.001) ' p2 (0.001) = 0.9999995. |R3 (0.001)| ≤ 1.7 × 10−7 .
Idem porque p3 (x) = p2 (x).
8.7.27. a) x = 0, Inflexión; x = 3/2, mı́nimo. b) x = 0, Inflexión. c) x = 0, Inflexión;
x = 2, mı́nimo.
8.7.28. a) 27. b) T = 30 y T = 0. c) p2 (t) = P (t).
8.7.29. x − x2 /2 + x3 /3. 0.0064.
8.7.30. f (x) = |x|.
8.7.31. a) No derivable en x = 1/2; b) No derivable en x = 0; c) No continua en x = 0.
8.7.32. Iguales.

174
TEMA 9. Sucesiones y Series
9.1. Sucesiones numéricas. Criterios de
convergencia de series
9.1.1. Sucesiones numéricas

Una sucesión de numéros es algo habitual en la vida real, al menos en la sección de


pasatiempos de algunas revistas o en algunos tests de inteligencia: bien conocido es el
problema de, ”dada esta lista de números, adivina cuál viene a continuación”. Por ejemplo,
dada la lista {1, 2, 4, 8, ...}, está claro que el siguiente es el 16, ya que cada uno es el
doble del anterior. Un problema un poco más complicado (que no suele verse en revistas de
pasatiempos o tests de inteligencia) es el de encontrar el término general de la sucesión, es
decir, dada una lista de números {a0 , a1 , a2 ,..., an ,...}, encontrar la expresión matemática
que nos dice cuál es el valor de an , de cualquier número de la sucesión en función de su
posición en la misma (n). En el ejemplo anterior tenemos que su término general es:

an = 2n , n = 0, 1, 2, 3, ...

Una sucesión (an ) se dice acotada superiormente cuando ninguno de sus términos
supera un cierto valor K ∈ |R, es decir, cuando an ≤ K ∀ n. Una sucesión (an ) se dice
acotada inferiormente cuando ninguno de sus términos es menor que un cierto valor
K ∈ |R, es decir, cuando an ≥ K ∀ n. Una sucesión (an ) se dice acotada cuando está
acotada superior e inferiormente y, por tanto, ninguno de sus términos supera, en valor
absoluto, un cierto valor K > 0: |an | ≤ K ∀ n.
Una sucesión (an ) se dice creciente si an ≤ an+1 para todo n. Una sucesión (an ) se dice
decreciente si an ≥ an+1 para todo n. A ambos tipos de sucesiones se las llama también
monótonas.
Ejemplo 9.1. La sucesión an = 2n , n = 0, 1, 2, ..., no está acotada superiormente pero sı́
inferiormente; es creciente. La sucesión an = −n, n = 0, 1, 2, ..., está acotada superiormente
pero no inferiormente; es decreciente. La sucesión an = sin(n), n = 0, 1, 2, ..., es acotada y
no es monótona.
A veces es complicado encontrar el término general de una sucesión (a no ser que nos lo
den), pero resulta sencillo encontrar una expresión recurrente que nos dice cuanto vale un
término an en función de algunos términos anteriores. Por ejemplo, la sucesión de Fibonacci
es la sucesión en la que a0 = 1, a1 = 1 y a partir de éste, cada término de la sucesión es la
suma de los dos anteriores. Entonces:

a2 = a0 + a1 = 2, a3 = a1 + a2 = 3, a4 = a2 + a3 = 5, ...

175
En general, cualquier término an de la sucesión de Fibonacci verifica an = an−2 + an−1 .
La expresión recurrente es siempre una información sobre la sucesión menos completa que
la expresión del término general. Esta última nos dice quienes son todos los términos de
la sucesión en función de su posición en la misma n. Mientras que la expresión recurrente
no, únicamente nos permite calcular los términos de la sucesión uno detrás de otro y, si
queremos por ejemplo conocer a1000 debemos de calcular todos los anteriores. Mientras que si
disponemos de la expresión del término general an , podemos calcular a1000 inmediatamente.
Un concepto importante relativo a las sucesiones de números reales es su lı́mite. Es decir,
a qué valor tienden los términos de la sucesión an cuando n → ∞, si es que tienden a algún
valor concreto. Por ejemplo,

1
lim = 0, lim 2n = ∞, lim (−1)n no existe.
n→∞ 2n n→∞ n→∞

La primera sucesión se dice convergente (tiene lı́mite finito), la segunda divergente (tiene
lı́mite infinito) y la tercera oscilante (no tiende a ningún valor concreto, sino que oscila
entre varios).
No insistiremos en este concepto (cuando una sucesión tiene lı́mite y cuál es su valor
cuando lo tiene) puesto que se trata de un concepto ya trabajado anteriormente .
Los conceptos que acabamos de introducir están relacionados de la siguiente forma:
(a) Si una sucesión es convergente, entonces está acotada.
(b) Si una sucesión es monótona y acotada, entonces es convergente.
(c) Si una sucesión es divergente, entonces no está acotada.
(d) Si una sucesión es monótona y no está acotada, entonces es divergente.

9.1.2. Series numéricas

Vamos a continuación a introducir un concepto nuevo que se asienta sobre el de sucesión,


el concepto de serie numérica. Partimos del siguiente ejemplo que supuso algún quebradero
de cabeza hace unos 2.500 años a algunos pensadores griegos. Supongamos que hoy ganamos
1/2 de euro (bueno, la moneda de aquella época), mañana 1/4, pasado 1/8, etc.., es decir,
cada dı́a la mitad que el anterior (nada raro en tiempos de crisis). ¿Cuánto habremos ganado
al cabo de infinitos dı́as (suponiendo que somos inmortales, claro)? Habremos ganado:

1 1 1 1
+ + + + ...
2 4 8 16
¿Cuanto suma esta suma de infinitos sumandos? ¿∞? La respuesta es sencilla si, en vez de
pensar en dinero, pensamos en metros: supongamos que hoy recorremos 1/2 metro, mañana
1/4 de metro, pasado 1/8, etc.., tal y como muestra la siguiente figura:

176
1/2 1/4 1/8 1/16 ......

Figura 9.1. Solución gráfica de la suma 12 + 1


4 + 1
8 + 1
16 + ... Efectivamente, habremos
recorrido 1 metro, habremos ganado 1 euro.
El ejemplo anterior es un ejemplo de serie numérica, de una suma de infinitos sumandos
de números reales. En general, dada una sucesión de números reales an , n = 0, 1, 2, .., (su
término general), la suma de todos ellos la denotamos

X ∞
X
S := an , o S := an , o....
n=0 n=1

Es decir, la suma empieza en n = 0, n = 1, ..., donde queramos. En el ejemplo anterior


tenemos que

X 1
A= n
= 1.
n=1
2
Otros ejemplos sencillos son, para an = 1 y an = (−1)n respectivamente:

X ∞
X
B= 1 = ∞, C= (−1)n = nada.
n=0 n=0

En el primer ejemplo B, obviamente, si sumamos infinitos euros obtenemos infinitos euros.


Por otro lado, en el ejemplo C, si los dı́as pares ganamos un euro y los impares lo perdemos,
no sabemos que tendremos al cabo de infinitos dı́as, depende de si el último dı́a (sea lo que
sea lo que eso significa) es par o impar.
Tras estos ejemplos, las primeras preguntas que nos hacemos son, dada una serie numérica:
¿suma un valor finito? ¿suma infinito? ¿no suma nada? Para responder a estas preguntas,
definamos primero el concepto de suma parcial Sn , que no es más que la suma de los n
primeros términos de la serie (n arbitrario):
n
X
Sn := ak .
k=0

Ası́, en los tres ejemplos anteriores tenemos que sus sumas parciales son:
n  n n n
(
X 1 1 X X
k
1 si n par
An = = 1− , B n = 1 = n+1, C n = (−1) =
2k 2 0 si n impar.
k=1 k=0 k=0

177
Las dos últimas son evidentes. La primera necesita alguna aclaración: recordar el concepto
de sumas geométricas. Recordemos que una suma geométrica de razón x es una suma (de
un número finito de sumandos, no infinito) de la forma xm + xm+1 + xm+2 + · · ·xn (m < n
claro) y para la cual disponemos de una fórmula que nos da su suma:
 m n+1
x −x
n
X si x 6= 1
xm + xm+1 + xm+2 + · · ·xn = xk = 1−x
n − m + 1 si x = 1.

k=m

Para razón x 6= 1, ”la suma geométrica de estos sumandos de razón x es igual al primero
menos el último por la razón partido por uno menos la razón”. En el ejemplo A tenemos
que x = 1/2 y m = 1 y, aplicando esta fórmula, obtenemos An = 1 − (1/2)n .
Observemos que la suma parcial Sn de una sucesión de números an es de nuevo una
sucesión de números y, su lı́mite, es la suma de la serie:
n
X ∞
X
lim Sn = lim ak = ak .
n→∞ n→∞
k=0 k=0

En los ejemplos anteriores tenemos que


 
1
lim An = lim 1− n = 1, lim Bn = lim (n + 1) = ∞,
n→∞ n→∞ 2 n→∞ n→∞

(
1 si n par
lim Cn = lim = nada.
n→∞ n→∞ 0 si n impar.
Al igual que el concepto más importante asociado al de sucesión, es su lı́mite, en el caso de
series el concepto más importante es el de su suma (que es también un lı́mite, el de sus sumas
parciales). Diremos que una serie es convergente cuando su suma es finita, cuando existe el
lı́mite de sus sumas parciales: existe limn→∞ Sn . Diremos que es divergente cuando su suma
es ∞, cuando limn→∞ Sn = ∞. Diremos que no es sumable cuando el lı́mite limn→∞ Sn
no existe. Evidentemente, el valor de los primeros sumandos de la serie es irrelevante para
determinar si es convergente o no, para determinar si es convergente únicamente importan
los ”últimos” sumandos, es decir, el lı́mite limn→∞ an :


X N
X ∞
X
an = an + an .
n=0 n=0 n=N +1

PN P∞
La primera suma n=0 an es obviamente finita. Por tanto n=0 an es convergente si y solo
P∞
si n=N +1 an también lo es para N tan grande como queramos.
Se dice que una serie es convergente, divergente u oscilante según sea la sucesión Sn
de sus sumas parciales.

178
Ejemplo 9.2. La serie geométrica

X
xk
k=0

converge si y sólo si |x| < 1, puesto que


 1
 si |x| < 1,
1−x



∞ n
1 − xn+1


∞ si x = 1,
X X
k k
x = lim x = lim =
n→∞ n→∞ 1−x
oscila si x = −1,

k=0 k=0 



±∞ si |x| > 1.

Ejemplo 9.3. La serie de sumas parciales An es convergente. La de sumas parciales Bn


divergente y la de sumas parciales Cn oscilante.
Ejemplo 9.4. La serie

X 1
n=1
n(n + 1)

es convergente, ya que la podemos escribir


∞ ∞        
X 1 X 1 1 1 1 1 1 1 1
= − = 1− + − + − + ... = 1 − lim = 1.
n=1
n(n + 1) n=1
n n + 1 2 2 3 3 4 n→∞ n

A este tipo de series se las denomina telescópicas.


Ejemplo 9.5. La serie

X 1
n=1
n

se denomina serie armónica (pues cada término es la media armónica del siguiente y el
anterior). Entonces, las series

X 1
n=1

se las denomina series armónicas generalizadas. Son divergentes para α ≤ 1 (en particular,
la serie armónica es divergente). Y son convergentes para α > 1. Es muy sencillo ver que
son divergentes para α ≤ 0. Lo otro ya no es tan sencillo. En particular (esto tampoco es
sencillo de obtener en este momento),

X 1 π2
= .
n=1
n2 6

Se propone como ejercicio sumar con la calculadora los primeros sumandos y comprobar que
su suma se aproxima a π 2 /6.

179
Un par de propiedades sencillas de comprender son las siguientes:
P P P
(a) Si xn = x y yn = y, entonces (axn + byn ) = ax + by.
P
(b) Si xn es una Pserie convergente, entonces forzosamente lim xn = 0. Por tanto, si
lim xn 6= 0 la serie xn no converge.
Esta segunda propiedad es bastante sencilla de entender: si los sumandos no van a 0, es
imposible que sumen algo finito, si lim xn = l > 0 por ejemplo, entonces sumamos infinitos
sumandos mayores que l, por lo que su suma P es infinito. Pero cuidado, que el hecho de
que lim xn = 0, siendo necesario para que xn = x sea convergente, no es suficiente. Por
ejemplo, la serie armónica no es convergente, a pesar de que sus sumandos van a 0. La serie
armónica generalizada con α = 2 si lo es, al igual que la serie geométrica de razón 1/2 por
ejemplo:
∞ ∞ ∞
X 1 X 1 π2 X 1
= ∞, 2
= , n
= 1.
n=1
n n=1
n 6 n=1
2
Para que la serie converja, sus sumandos deben ir a 0 lo ”suficientemente rápido”. 1/n va a
0, pero no tan rápido como 1/n2 ni como 1/2n .

9.1.3. Criterios de convergencia de series

En los ejemplos anteriores ha resultado sencillo determinar cuándo existe la suma y cuánto
vale cuando existe. En general no es tan sencillo y debemos recurrir a ciertos criterios de
convergencia para determinar cuando una serie es convergente. Y un poco más compli-
cado: caso de ser convergente, determinar cuanto vale la suma. Empecemos por el primer
problema. Para ello necesitamos antes de una serie de conceptos muy sencillos:
P∞
Convergencia
P∞ absoluta. Una serie n=0 an es absolutamente convergente si esta otra
serie: |a
n=0 n | es convergente.
Como

X ∞
X
an ≤ |an |,
n=0 n=0
tenemos que si la serie es absolutamente convergente, también es convergente. Lo contrario
no es siempre cierto. Por ejemplo, la serie A es absolutamente convergente (y convergente).
La serie B ninguna de las dos cosas. La serie

X (−1)n 1 1 1
D := − = 1 − + − + ...
n=1
n 2 3 4
es convergente, D = ln 2 (> 0), pero no absolutamente convergente, ya que tomando los
valores absolutos de sus sumandos obtenemos la serie armónica:

X 1
E := = ∞,
n=1
n
que sabemos no es convergente. Es sencillo determinar que la suma D es finita, observando
el siguiente dibujo donde hemos sumado los primeros sumandos de D sobre un segmento:

180
1/5

1/4

1/3
0 1
D

1-1/2
1-1/2+1/3
1-1/2+1/3-1/4
1-1/2+1/3-1/4+1/5

Figura 9.2. Al ir sumando y restando fraciones cada vez más pequeñas, las sumas parciales
Pn k
Dn = − k=1 (−1) k van oscilando entorno al valor D = ln 2.
La serie D no es absolutamente convergente, ya que la suma de sus términos en valor
absoluto es justamente E, que no es convergente.
Vistos estos ejemplos, para determinar si una serie numérica cualquiera es convergente,
usaremos algunos criterios de convergencia. El más importante es el de comparación con
algunas series estándar cuyo carácter (convergente o no) se conoce. Se basa en la siguiente
observación:
Criterio de comparación. Si xn e yn son dos sucesiones de términos no negativos y xn < yn
P P
a partir de un cierto n, entonces tenemos que si yn converge, también lo hace xn . Por
P P
otra parte, si xn diverge, entonces también lo hace yn .
P
Este criterio es el más usado, tomando como serie de comparación yn , bien una serie
P n P −α
geométrica x , bien una serie armónica generalizada n .
Ejemplo 9.6. Si a partir de un n ≥ n0 , |an | ≤ n−α con α > 1, entonces la serie
P
an es
convergente. (Observar que no importa que le pase a an para los primeros n.)
Si a partir de un n ≥ n0 , an ≥ n−α con α ≤ 1, entonces la serie
P
an es divergente.
Los criterios de convergencia nos permiten determinar cuándo una serie es convergente,
pero no calcular su suma cuando es convergente. Sabemos hacerlo por ejemplo en el caso
de la serie geométrica, pero no en muchos más, ni siquiera en el caso de la serie armónica
generalizada. Entonces, podemos recurrir a un cálculo aproximado, que consiste simplemente
en sumar los primeros términos de la serie (cuantos más mejor):
Ejemplo 9.7. Hemos visto, porque nos lo han dicho, que

X 1 π2
= .
n=1
n2 6

181
Aunque desconociámos este dato, siempre podrı́amos calcular de forma aproximada:
∞ 50
X 1 X 1 π2
2
' 2
= 1.62513... ' = 1.64493...
n=1
n n=1
n 6

9.2. Sucesiones y series de funciones

9.2.1. Sucesiones de funciones

El concepto de sucesión de funciones es una generalización del concepto de sucesión de


números reales. Pedestremente hablando: si una sucesión de números reales es un número
real a continuación del otro,..., una sucesión de funciones es una función a continuación de
otra....
Ejemplo 9.8. Las funciones 1, x, x2 , x3 ,..., xn ,..., son una sucesión de funciones cuyo
término general es xn :

1.0 1
1
0.8

0.6
1/2

x
0.4
x2 x3
0.2
1/4
x4 x5
1/8 x20 x100
0.2 0.4 0.6 0.8
x 1.0
Figura 9.3. Gráficas de las funciones 1, x, x2 , x3 ,..., xn ,... en el intervalo [0, 1].
Ası́ como hemos usado la notación an para referirnos a sucesiones numéricas, usaremos
fn (x) para referirnos a series de funciones. En el ejemplo anterior f0 (x) = 1, f1 (x) = x,...,
fn (x) = xn . Para un x fijo, una sucesión de funciones es una sucesión numérica; por ejemplo,
para x = 1/2, la sucesión xn es la sucesión (1/2)n (la sucesión de puntos en la figura anterior).
Por tanto, una sucesión de funciones puede verse como infinidad de sucesiones numéricas,
una para cada valor de x.

182
Ejemplo 9.9. Las funciones sin(πx), sin(2πx), sin(3πx),..., sin(nπx),..., son una sucesión
de funciones cuyo término general es sin(nπx):

1.0

0.5

0.2 0.4 0.6 0.8 1.0


x
-0.5

-1.0

Figura 9.4. Gráficas de las funciones sin(πx), sin(2πx), sin(3πx), sin(4πx), sin(5πx) en
el intervalo [0, 1]. Cuanto mayor es n, mayor es el número de oscilaciones. Todas se anulan
en x = 0 y x = 1.
De nuevo, al igual que en el caso de sucesiones numéricas, el concepto más importante
aquı́ es el de lı́mite, aunque ahora, al tratarse de funciones y no de números, encontraremos
más sutilezas.
Una sucesión de funciones fn (x) definidas para x ∈ D ⊂ |R se dice que converge puntualmente
a otra función f (x) definida para x ∈ D ⊂ |R si, para todos los x ∈ D se tiene que

lim fn (x) = f (x).


n→∞

Es decir, para cada x fijo en D, tenemos que fn (x) es una simple sucesión de números. El
lı́mite puntual (en un punto x) no es más que el lı́mite de la sucesión de números fn (x).
Como hay infinidad de puntos x en D, tenemos una infinidad de lı́mites puntuales, uno en
cada x y, por tanto, el lı́mite puntual de una sucesión de funciones es otra función.
Ejemplo 9.10. En la sucesión de funciones fn (x) = xn , tenemos que x → 0 si 0 ≤ x < 1 y
que x → 1 si x = 1 (obviamente). Por tanto (tal y como indica la Figura 9.3) vemos que el
lı́mite puntual de la sucesión de funciones xn , en el intervalo [0, 1], es
(
n
0 si x 6= 1,
lim x = T (x) :=
n→∞ 1 si x = 1.

Observemos que, aunque todas las funciones xn son continuas en [0, 1], su lı́mite puntual
T (x) no lo es. Por tanto, en general, el lı́mite puntual de funciones continuas no tiene porqué
ser una función continua (a veces sı́ y a veces no).

183
Observemos la sucesión de puntos sobre x = 1/2 en la Figura 9.3. Imaginemos sucesiones
de puntos (verticales) sobre otros x más a la derecha. Todas ellas tienen lı́mite 0 pero,
cuanto más nos acercamos a x = 1, cada vez les cuesta más llegar a 0, su convergencia a 0
es más lenta.
Para que esto no ocurra y todas las sucesiones de puntos vayan a una velocidad parecida,
debemos pensar en introducir un concepto de lı́mite distinto del puntual:
Una sucesión de funciones fn (x) definidas para x ∈ D ⊂ |R se dice que converge uniforme-
mente a otra función f (x) definida para x ∈ D ⊂ |R si se tiene que

lim sup |fn (x) − f (x)| = 0.


n→∞ x∈D

En esta definición estamos cogiendo, de todas las diferencias |fn (x) − f (x)| (en cada x), ”la
mayor”, y le pedimos que vaya a 0. Esto no ocurre en el ejemplo anterior:
Ejemplo 9.11. Dado que, para todos los n, la mayor diferencia entre xn y su lı́mite puntual
T (x) se alcanza en x = 1, donde esa diferencia vale 1, tenemos que

lim sup |xn − T (x)| = lim 1 = 1.


n→∞ x∈[0,1] n→∞

Por tanto la sucesión xn no converge uniformemente en D = [0, 1]. (Si lo hace puntualmente
a T (x)).
Cosa distinta ocurre cuando cogemos D = [0, r] con 0 < r < 1. Ahora, en el extremo
x = r no ocurre que la diferencia entre rn y su lı́mite puntual 0 no es 1, es rn , que decrece
con n, no se mantiene siempre en 1 para todo n como ocurrı́a antes. Tenemos que

lim sup |xn − T (x)| = lim sup |xn − 0| = lim sup xn = lim rn = 0.
n→∞ x∈[0,r] n→∞ x∈[0,r] n→∞ x∈[0,r] n→∞

Por tanto la sucesión xn converge uniformemente en D = [0, r] a 0. (además de puntual-


mente).
La diferencia entre estos dos ejemplos puede verse ası́: en el extremo derecho de [0, 1],
la sucesión puntual 1n no converge a 0, sino a 1, a diferencia de lo que ocurre en el resto
de x ∈ [0, 1), donde todas las sucesiones puntuales xn convergen a 0. Sin embargo, en el
extremo derecho de [0, r] pasa lo mismo que en el resto de puntos interiores: la sucesión
puntual rn converge a 0.
La convergencia uniforme es importante, más robusta que la puntual, ya que garantiza
(cuando existe) que la función lı́mite se comporte como las funciones de la sucesión. Sea
fn (x) una sucesión de funciones continuas definidas en D ⊂ |R que converge uniformemente
a f (x). Entonces:
(a) f (x) también es continua en D.

184
(b) Si D es un intervalo, Z Z
f (x)dx = lim fn (x)dx.
D n→∞ D
Es decir, la integral del lı́mite es el lı́mite de integrales.
Si además de continuas, las funciones fn (x) son derivables en un intervalo abierto D y
fn0 (x)
convergen uniformemente en D y, además, para algún x0 ∈ D, fn (x0 ) es convergente,
entonces fn (x) converge uniformemente a una función derivable en D y

f 0 (x) = lim fn0 (x).


n→∞

Es decir, el lı́mite de las derivadas es la derivada del lı́mite.

9.2.2. Series de funciones

El concepto de serie de funciones es una generalización del concepto de serie de números


reales: una suma de infinitos sumandos que son funciones. Dada la sucesión de funciones
fn (x), su serie asociada es

X
f0 (x) + f1 (x) + f2 (x) + ... + fn (x) + ... = fn (x).
n=0

Es decir, para cada x fijo, se trata de una serie de números reales. De nuevo,
n
X
Sn (x) = fk (x)
k=0

es la suma parcial de la serie que, ahora es una función (los sumandos dependen de x, por
lo que las sumas parciales dependen de x).
P
Se dice que la serie fn (x) converge puntual o uniformemente en D si lo hace la sucesión
de funciones Sn (x). Y si converge, entonces su lı́mite es la suma de la serie:

X
lim Sn (x) = fk (x).
n→∞
k=0

Ejemplo 9.12. Dada la sucesión xn tenemos que


n
X
k 1 − xn+1
Sn (x) = x =
1−x
k=0

y su lı́mite puntual para x ∈ [0, 1) es

1 − xn+1 1
S(x) = lim Sn (x) = lim = .
n→∞ n→∞ 1−x 1−x

185
Para estudiar la convergencia de series funcionales utilizaremos el criterio de comparación
con una serie numérica, o Criterio M de Weierstrass. Sea fn (x) una sucesión de funciones
en D ⊂ |R y supongamos que podemos acotar |fn (x)| ≤ Mn para todo x ∈ D y para todo
n mayor que un cierto n0 , donde Mn es una sucesión de números positivos. Entonces, si la
P P
serie Mn es convergente, la serie de funciones fn (x) converge uniformemente en D.
Ejemplo 9.13. Consideremos, para x ∈ [0, 1], la serie de funciones

X 1
.
n=1
n(x + n)

Claramente tenemos que



1 1 X 1
≤ 2 y 2
< ∞.
n(x + n) n n=1
n

[n(x + n)]−1 converge, aunque no sepamos calcular exactamente su


P
Por tanto la serie
función suma. Por supuesto, siempre podemos tomar

X 1 1 1 1
' + + ,
n=1
n(x + n) x + 1 2(x + 2) 3(x + 3)

por ejemplo, cuantos más sumandos mejor.


Al igual que ocurre con los lı́mites de sucesiones de funciones, la función suma de una
serie de funciones que convergen uniformemente, hereda las propiedades de los sumandos:
P
Supongamos que fn (x) = f (x) uniformemente en D ⊂ |R con fn (x) todas continuas.
Entonces
(a) f (x) es continua.
(b) Si D es un intervalo cerrado, entonces la serie de integrales es la integral de la serie:
∞ Z
X Z
fn (x)dx = f (x)dx.
n=0 D D

Si además de continuas, las funciones fn (x) son derivables en un intervalo abierto D y la


serie fn0 (x) converge uniformemente en D y, además, para algún x0 ∈ D, la serie fn (x0 )
P P
P
es convergente, entonces la serie fn (x) converge uniformemente a una función derivable
en D y
X∞
0
f (x) = fn0 (x).
n=0

Es decir, la serie de las derivadas es la derivada de la serie.

186
9.3. Series de potencias. Series de Tay-
lor y de MacLaurin
Recordemos del tema anterior que, dada una función f (x) n veces derivable en [a−r, a+r]
(a ∈ |R, r > 0, es decir, un intervalo cerrado centrado en a y de radio r) y n+1 veces derivable
en (a − r, a + r), entonces puede aproximarse, para x ∈ (a − r, a + r), por un polinomio pn (x)
de grado n denominado polinomio de Taylor de grado n de f (x) en el punto a:

f 0 (a) f 00 (a) 2 f (3) (a) 3 f (n) (a)


f (x) ' pn (x) := f (a) + (x − a) + (x − a) + (x − a) + ... + (x − a)n .
1! 2! 3! n!
(k)
El polinomio de Taylor de grado n es la suma de n + 1 funciones fk (x) = f k!(a) (x − a)k .
Pues bien, si f (x) es infinitamente derivable en (a − r, a + r), podemos definir el ”polinomio
de Taylor de grado infinito” como la serie de funciones

f 0 (a) f 00 (a) 2 f
(3)
(a) 3 f (n) (a) n
X f (n) (a)
f (a)+ (x−a)+ (x−a) + (x−a) +...+ (x−a) +... = (x−a)n .
1! 2! 3! n! n=0
n!

Como los sumandos son potencias, a esta serie se la denomina serie de potencias. Recordemos
también del caı́tulo anterior que a la diferencia

Rn (x) := f (x) − pn (x)

se la denomina resto de Taylor de orden n, y puede expresarse como (fórmula de Lagrange)

f n+1 (c)
Rn (x) = (x − a)n+1 , c ∈ (a, x).
(n + 1)!

La nota ”curiosa” de esta fórmula es que el punto c no se conoce con precisión, unicamente
que se sitúa entre a y x. Por ello es imposible evaluar Rn (x). A pesar de lo cual esta fórmula
resulta útil para estimar el error cometido al aproximar f (x) por pn (x) y más cosas, como
veremos en el próximo ejemplo.
Entonces, tomando n cada vez más grande en la igualdad Rn (x) := f (x)−pn (x) (tomando
cada vez más sumandos en el polinomio de Taylor), tenemos que

X f (n) (a)
lim Rn (x) := f (x) − lim pn (x) = f (x) − (x − a)n .
n→∞ n→∞
n=0
n!

Si ocurre que limn→∞ Rn (x) = 0 para x ∈ (a − r, a + r), entonces



X f (n) (a)
f (x) = (x − a)n , x ∈ (a − r, a + r).
n=0
n!

187
La serie en el lado derecho de la igualdad se denomina serie de Taylor de f (x) en el punto
a. Se dice entonces que la función f (x) es analı́tica en el intervalo (a − r, a + r).
En el caso particular a = 0, a la serie de Taylor se la denomina también serie de MacLau-
rin.
Ejemplo 9.14. La función f (x) = ex es analı́tica en cualquier intervalo, por tanto en todo
|R. Comprobémoslo en un intervalo centrado en a = 0. Es sencillo comprobar que su serie

de Taylor en a = 0 es

X xn
n=0
n!

y que, utilizando la fórmula de Lagrange, el resto de Taylor de orden n se expresa como

ec
Rn (x) = xn+1 , c ∈ (0, x).
(n + 1)!

No importa cuanto valga x, cuanto valga c, tenemos que

ec
lim xn+1 = 0,
n→∞ (n + 1)!

puesto que el n! le gana a cualquier potencia xn . Por tanto



x
X xn
e = ,
n=0
n!

la exponencial ex es una función analı́tica en todo |R.


Podemos ver lo anterior a la inversa. Es decir, consideremos una sucesión de funciones
que son potencias crecientes fn (x) = cn (x − a)n , donde cn es una sucesión de números reales
y a ∈ |R. Supongamos que la serie
X ∞
cn (x − a)n
n=0

converge para todos los x de un intervalo abierto (a−r, a+r) centrado en a y de radio r > 0.
Llamemos f (x) a la función suma (que será más o menos difı́cil de computar en forma de
una fórmula cerrada), es decir:


X
f (x) = cn (x − a)n .
n=0

Pues bien, entonces forzosamente se tiene que

f (n) (a)
cn = ,
n!
188
es decir, la serie de potencias es la serie de Taylor en a de f (x), que es una función analı́tica
en (a − r, a + r) por construcción. Para comprobar esta afirmación necesitamos una serie de
propiedades de las series de potencias que son interesantes en sı́ mismas.
cn (x − a)n , o bien (i) únicamente converge para x = a (que
P
P1. Toda serie de potencias
menos, se trata de una suma de ceros), o bien (ii) converge absoluta y uniformemente para
todo x ∈ |R (esto es lo más a lo que se puede aspirar), o bien (iii) existe un r > 0 tal que la
serie converge absoluta y uniformemente en el intervalo abierto x ∈ (a − r, a + r) y diverge
fuera del intervalo cerrado x ∈ [a − r, a + r] (esto tampoco está mal). La convergencia justo
en los extremos del intervalo x = a ± r debe ser analizada en cada ejemplo particular. Al
radio de ese intervalo en el caso (iii) se le denomina radio de convergencia de la serie. En el
caso (i) se dice que el radio de convergencia es nulo, en el caso (ii) infinito.
Si la serie de Taylor de una función f (x) es del tipo (i), se dice que f (x) no es analı́tica
en x = a. En los otros dos casos se dice que es analı́tica en todo |R o en (a − r, a + r)
respectivamente.
Observemos que, cuando converge, lo hace absolutamente (y por tanto puntualmente a
su función suma f (x)).
2
Ejemplo 9.15. Consideremos las funciones f (x) = ex , g(x) = (1 + x)−1 y h(x) = e−1/x .
f (x) es analı́tica en todo |R, como hemos visto. Veamos g(x). Se tiene que

(−1)n n!
g (n) (x) = =⇒ g (n) (0) = (−1)n n!.
(1 + x)n+1

Por tanto, la serie de Taylor de g(x) en a = 0 es la serie de potencias


1 X
= (−x)n ,
x + 1 n=0

es decir, una serie geométrica de razón −x, que converge (absolutamente) si |x| < 1. Por
tanto la anterior serie de potencias converge absoluta y uniformemente en (−1, 1), su radio
de convergencia es r = 1, la función g(x) es analı́tica en (−1, 1).
Veamos ahora h(x). Tenemos que

pn (x) −1/x2
h(n) (x) = e ,
qn (x)

donde pn (x) y qn (x) son polinomios que no necesitamos conocer explı́citamente, puesto que
lo que nos interesa es limx→0 h(n) (x) = 0 para todo n. Por tanto, la serie de Taylor de h(x)
en a = 0 es la serie de potencias
X∞
0 = 0,
n=0

189
es decir, una serie que converge absoluta y uniformemente en todo |R y, efectivamente, su
función suma, la función nula, es analı́tica en todo |R. Pero no converge a h(x), es decir, el
resto de Taylor
n
−1/x2 2
X
Rn (x) = e − 0 = e−1/x
k=0

no va a cero cuando n → ∞, por lo que h(x) no es analı́tica en x = 0.


cn (x − a)n , podemos calcular su radio de convergencia r
P
Dada una serie de potencias
mediante cualquiera de las dos siguientes fórmulas:

1 1
r= ; r= .
limn→∞ cn+1 limn→∞ |cn |1/n
cn

Por ejemplo, para la función f (x) del ejemplo anterior tenemos que

1 1 1
r= n!
= 1 = = ∞.
limn→∞ (n+1)! limn→∞ n+1 0

Y para la función g(x):

1 1
r= = = 1.
limn→∞ (−1)n+1 limn→∞ 1
(−1)n

P∞
P2. Dada la serie de potencias n=0 cn (x − a)n , las series
∞ ∞
X
n−1
X cn
ncn (x − a) y (x − a)n+1
n=1 n=0
n + 1
P
se denominan serie derivada y serie integral respectivamente de la serie de potencias cn (x−
a)n .
Entonces se tiene que las series derivada e integral de una serie de potencias tienen su
mismo radio de convergencia (cero, finito o infinito).
P3. Dada una función analı́tica f (x) = cn (x − a)n (desde luego que cn = f (n) (a)/n!) en
P

un intervalo (a − r, a + r), r > 0, se tiene que:


(i) f (x) es infinitamente derivable en (a − r, a + r) (por tanto continua), con

X
f 0 (x) = ncn (x − a)n−1
n=1

y, en general,

X
(k)
f (x) = n(n − 1)...(n − k + 1)cn (x − a)n−k .
n=k

190
Es decir, la derivada de la serie de potencias es la serie de las derivadas (otra serie de
potencias).
(ii) Para todo cerrado D contenido en (a − r, a + r) se tiene que
Z ∞
X Z
f (x)dx = cn (x − a)n dx.
D n=0 D

Es decir, la integral de la serie de potencias es la serie de las integrales. En particular


Z x ∞
X cn
f (x)dx = (x − a)n+1 ,
a n=0
n + 1

como hemos visto en P2.

9.6. Problemas Resueltos


9.6.1. Determinar si las siguientes sucesiones son convergentes y, en su caso, calcular su
lı́mite:
2n2 + 1
a) an = 2
n + 1/n
2n2
Tenemos que lim an = lim = lim 2 = 2.
n→∞ n→∞ n2 n→∞
−n
b) bn = e
1
Tenemos que lim bn = lim = 0.
n→∞ n→∞ en

c) cn = sin n
Tenemos que cn toma todos los valores entre −1 y 1, sin aproximarse a ninguno en
concreto, no tiene lı́mite.
(−1)n
d) dn =
n
Tenemos que el numerador oscila entre −1 y 1, pero el denominador va a infinito, por lo
que lim dn = 0.
n→∞
3n
e) en =
n!
Tanto numerador como denominador van a infinito, pero el denominador más rápido, por
lo que Tenemos que lim en = 0.
n→∞
2
n +1
f) fn =
n3 + 2

191
n2 1
Tenemos que lim fn = lim 3
= lim = 0.
n→∞ n→∞ n n→∞ n
n+1
3 + n2
g) gn =
3n + n
3n+1
Tenemos que lim gn = lim = lim 3 = 3.
n→∞ n→∞ 3n n→∞
 n n
2 −1
h) hn =
2n + 3
2n − 1 2n + 3 − 4
   
Llamemos lim hn = L. Tenemos que log L = lim n log = lim n log =
 n→∞  n→∞ n→∞2n + 3 2n + 3
4 4
lim n log 1 − n = − lim n n = 0. Por tanto, L = 1.
n→∞ 2 +3 n→∞ 2 +3
 n
n+1
l) in = .
n+2
   
n+1 1
Llamemos lim in = L. Tenemos que log L = limn→∞ n log n+2 = limn→∞ n log 1 − n+2 =
n→∞
n
− limn→∞ n+2 = 1. Por tanto, L = e.

9.6.2. Determinar el carácter de las siguientes series de números reales:



X n2 n2 1
a) n
Convergente puesto que n
<< 2 .
n=0
5 5 n

X n!
b) Divergente puesto que n! >> n10 + 10n .
n=10
n10 + 10n

X sin n sin n 1
c) √ Convergente porque √ ≤ 3/2 .
n=0
n n n n n

X 1
d) Divergente pues log2 n << n.
n=1
1 + log2 n

X n+1 n+1 1
e) Divergente pues ∼ .
n=0
n2 + 2 n2 + 2 n

X n + 1/n2 n + 1/n2 n 1
f) Convergente pues ∼ 3 = 2.
n=1
n3 + 1 3
n +1 n n

X 2 2
g) e−n−n Convergente pues e−n−n ≤ e−n , que es geométrica de razón menor
n=0
que 1.

X en en 1
h) Convergente puesto que << 2 .
n=3
nn n n n

192

X (sin n)n (sin n)n 1
i) 1.5
Convergente puesto que 1.5
≤ 1.5
.
n=1
n n n

9.6.3. Calcular la suma de cada una de las series siguientes :


∞  n
X e π
a) Geométrica de razón e/π < 1, por tanto π−e ' 7.42148.
n=0
π
∞  n
X 1
b) 1− Geométrica de razón 2/3 < 1, por tanto 2.
n=1
3
∞ ∞ ∞  n
X an + b X n X 1
c) n
con c > 1. = a n
+ b . La segunda es geométrica
n=0
c n=0
c n=0
c
∞  n
X 1 c
de razón 1/c < 1, y es = . Para calcular la primera, derivemos ambos
n=0
c c − 1
∞ ∞ ∞
X
n 1 X
n−1 1 X
lados de la igualdad x = : obtenemos nx = 2
, es decir, nxn =
n=0
1−x n=0
(1 − x) n=0

x X n c
2
. Poniendo x = 1/c obtenemos n
= . Por tanto, finalmente queda
(1 − x) n=0
c (c − 1)2
c c
a 2
+b .
(c − 1) c−1
∞ ∞ ∞ ∞
X n2 − n − 1 X n(n − 1) − 1 X 1 X 1
d) = = − = e − e = 0.
n=0
n! n=0
n! n=2
(n − 2)! n=0
n!
∞ ∞ ∞
X an + b X 1 X 1
e) =a +b = (a + b)e.
n=0
n! n=1
(n − 1)! n=0
n!
∞ N   "N N N
X 3n + 2 X 1 1 2 X1 X 1 X
f) = lim + − = lim + −
n=1
n(n + 1)(n + 2) N →∞
n=1
n n + 1 n + 2 N →∞
n=1#
n n=1
n + 1 n=1
n
"N N N
# " N N
" N
X 1 X 1 X 2 X 2 X 2 X 2
lim + − = 1+ lim − = 1+ lim
N →∞
n=0
n + 1 n=1 n + 1 n=1 n + 2 N →∞
n=1
n + 1 n=1 n + 2 N →∞
n=0
n+2
"N N
#
X 2 X 2
1 + 1 + lim − = 2.
N →∞
n=1
n + 2 n=1
n + 2

9.6.4. Determina los valores x ∈ R para los cuales la serie de potencias es convergente y
calcula su suma:
∞ ∞
X xn 1 X  x n 1
a) n+1
= = . Es geométrica de razón x/2, por tanto con-
n=0
2 2 n=0
2 2 − x
verge cuando −2 < x < 2.
∞ ∞
X
n 2n
X 1
b) (−1) x = (−x2 )n = 2
. Es geométrica de razón (−x2 ), por tanto
n=0 n=0
1 + x

193
coverge cuando −1 < x2 < 1, es decir, −1 ≤ x < 1.
∞ ∞ ∞
"∞ #
X xn 1 X xn+1 1 X xn 1 X xn ex − 1
c) = = = −1 = si x 6= 0 o = 1
n=0
(n + 1)! x n=0
(n + 1)! x n=1
n! x n=0
n! x
si x = 0. Converge para todo x.
∞ ∞ ∞
X (x − 1)n 0
X
n−1
X
d) = f (x). Derivando tenemos que f (x) = (x − 1) = (x − 1)n =
n=1
n n=1 n=0
1
. Por tanto f (x) = C − log(2 − x). Como f (1) = 0 tenemos que C = 0. Es geométrica
2−x
de razón x − 1, por tanto coverge cuando −1 < x − 1 < 1, es decir, 0 < x < 2.

9.6.5. Siendo |x| < 1, utiliza la derivación de series de potencias para obtener el valor
∞ ∞
X X n2
exacto de n2 xn . Haz uso de la expresión obtenida para obtener el valor de n
.
n=1 n=1
2
∞ ∞
X
n 1 X 1
Tenemos que x = . Derivando una vez tenemos que nxn−1 = .
n=0
1−x n=1
(1 − x)2
∞ ∞
X
n−2 2 X x
Derivando una vez más, n(n − 1)x = 3
. Por tanto, nxn = y
n=1
(1 − x) n=1
(1 − x)2
∞ ∞
X
n 2x2 X x(1 + x)
n(n − 1)x = 3
. Sumando ambas series queda n2 xn = . La serie
n=1
(1 − x) n=1
(1 − x)3

X n2
numérica se obtiene para x = 1/2: = 6.
n=1
2n


X (−1)n x2n+1
9.6.6. Usa la integración de series de potencias para probar que arctan x = (−1 <
n=0
2n + 1
x < 1). Utiliza esta igualdad para demostrar que

4 4 4
π =4− + − + ···
3 5 7

∞ ∞
X
n 2n
X 1
Tenemos que (−1) x = (−x2 )n = , −1 < x < 1. Integrando ambos lados
n=0 n=0
1 + x2
de la igualdad entre 0 y x obtenemos la igualdad pedida. La serie numérica es 4 veces la
serie de potencias para x = 1.


1 X
9.6.7. Sabiendo que para |x| < 1 se verifica = xn , obtén el desarrollo en serie de
1 − x n=0
potencias de x para la función f (x) = log(1 + x) y determina su intervalo de convergencia.

194

1 X
Cambiando x por −x se tiene que = (−x)n también para |x| < 1. Integrando
1+x n=0

X (−x)n+1
ambos lados de la igualdad entre 0 y x obtenemos log(1 + x) = − .
n=0
n + 1

9.7. Problemas Propuestos


9.7.1. Calcular el lı́mite de las sucesiones:
 n
n(n + 1) 1 (n + 1)(n + 2) sin(n)
(a) 3 ; (b) 1 + . (c) ; (d) .
n +2 n 5n2 + n + 1 n
(n + 1)(n + 2)
(e) ; (f ) n ln(n2 + n + 1) − 2 ln nn .
n+3
(n + 1)(2n + 1) − (2n2 + 1)
(g) ; (h) n[eπ/n − 1].
3n + 1
n n
x10n

2n + (−1) (n + 2) 1+n
i) an = j) bn = k) en = l) fn =
p 7n + 3 3n n!
2
n + 5n + 1 − n
9.7.2. Analizar la convergencia de las series (algunas en función del parámetro a):
∞ ∞ √ 2 ∞ 2
X cos n X n +1−n X
nn + n + 1
(a) 3
; (b) ; (c) (−1) 3
;
n=1
n n=1
n n=1
n
∞ 1/n ∞ √ ∞  
X a−e X
log n− n2 +n+1
X 1
(d) a
; (e) e ; (f ) n sin a
;
n=1
n n=1 n=1
n
∞ ∞
X n2 −n−1 X nn
(g) (−1)n a ; (h) n
.
n=1
n +n+1 n=1
e

∞ ∞ ∞ ∞
X n2 + 1 X 1π X 4n X sin n cos n
(h) (i) sin 2 (j) (k)
n=0
100n2 + 200n + 300 n=1
n n=1
(n!)1/4 n=0
n2 + 1
∞ ∞ ∞
X
2 2
X (−1)n 11n X (−1)n
(l) [(n + 1) − n ] (m) (n) .
n=1 n=1
10n n=1
2log n + 1/n
9.7.3. Hallar la suma de:
∞ ∞ ∞
X 2n + 4 n X 1 X
(a) ; (b) ; (c) [e2−n − e−n ];
n=0
8n n=0
(n + π)(n + π + 1) n=1
∞ ∞ ∞
X cos(nπ) X n+1 X 1 + 22n
(d) ; (e) 2
; (f ) .
n=1
nπ n=1
n(n + 2n + 1) n=0
5n

195
2n
9.7.4. Determinar par que valores de x converge puntualmente la sucesión fn (x) = e−x .
¿Cuándo converge uniformemente?
9.7.5. Determinar los valores de x real para los que convergen las siguientes series de
funciones:
∞ ∞
X x−1
x+1 n
X 1
(a) e ; (b) ;
n=1 n=1
x2 n2 +n−1
∞  ∞
(−1)n x
   
X 1 1 X
(c) log 1 + − x log 1 + ; (d) .
n=1
n n+1 n=1
n x2 + 1

9.7.6. Calcula la serie de Taylor de las siguientes funciones en x = 0 indicando su radio de


convergencia:

ex + e−x
   
a 1−x a
(a) cosh x := ; (b) ; (c) ln ; (d) ln ;
2 a−x 1+x a−x
 
1 x
(e) ln 3
; (f ) ; (g) sin x; (h) cos x.
1−x 3x − 2x2 − 1

9.7.7. Para b real, calcula la serie de Taylor de (b + x)−1 en x = a real genérico, indicando
el intervalo de convergencia.
9.7.8. Calcular la suma de las siguientes series de potencias y su radio de convergencia:
∞ ∞ ∞
X x2n X (n − 1)xn X x2n
(a) ; (b) ; (c) ;
n=1
(2n)! n=1
n n=2
n
∞ ∞ ∞
X X xn X xn
(d) nxn ; (e) ; (f ) .
n=1 n=0
n + 1 n=1
n(n + 1)

(−1)n P∞
9.7.9. Comprueba que n=1 = ln 2 − ln 3 utilizando una serie de Taylor adecuada.
n 2n
9.7.10. Calcular la suma de las siguientes series:
∞ ∞ ∞
X (n − 1)(π/4)n X [1 + (n − 1)!] X (ln π)2n
(a) ; (b) n n!
; (c) ;
n=1
n n=1
2 n=1
(2n)!
∞ ∞ ∞
X n2 + 1 X (−1)n X (−1)n
(d) n
; (e) ; (f ) .
n=2
n 4 n=1
n + 1 n=2
n(n + 1)

9.7.11. Calcula el radio de convergencia y determina el intervalo de convergencia de las


siguientes series de potencias:

196
∞ ∞  n ∞ ∞
X
n
X 2x X (10x)n X (−1)n
(a) n(2x−1) (b) (c) (d) 2 πn
(x−1)n
n=1 n=1
n n=0
n! n=1
n
∞ ∞ ∞ ∞
X
n 2n+1
X x4n X (−1)n 2n
X (x + 1)n
(e) (−1) (2n + 1)!x (f) (g) (ex) (h) .
n=0 n=0
16n n=1
100n n=1
n en

9.7.12. a) Calcular la serie de Taylor de fm (x) := (1 − x)−(m+1) en a = 0, donde m es un


número natural. ¿Cuál es su radio de convergencia?
(m + n)!
Ayuda: Observar que (m + 1)(m + 2) · · · (m + n) = .
m!
P∞
b) Sabemos que (1 − x)−2 = n=0 (n + 1)xn . Calcular

X n
n
.
n=1
π

9.7.13. Dada la función f (x) = − ln(1 − bx), b > 0,

a) Calcula la serie de potencias de f 0 (x) centrada en a = 0, su radio de convergencia y su


intervalo de convergencia.
b) Calcula la serie de potencias de f (x) centrada en a = 0, su radio de convergencia y su
intervalo de convergencia.
c) Para m natural, calcula la serie de potencias de f (m) (x) centrada en a = 0, su radio de
convergencia y su intervalo de convergencia. Puedes usar que (n + 1)(n + 2) · · · (n + m) =
(n + m)!/n!

1
9.7.14. a) Calcular la serie de Taylor de en a = 0. ¿Para qué valores de x es
(1 + x)2
convergente?
1
xa
Z
b) ¿Para qué valores de a y b la integral dx es finita?
0 (1 + bx)2

c) Usar el desarrollo obtenido en a) para calcular la integral anterior en forma de una serie.
¿ Para qué valores de b puede hacerse?


X n+1
d) Calcular la serie numérica (−1)n .
n=0
n + 2

1
9.7.15. a) Para un cierto a > 0, calcular la serie de Taylor de a+x en a = 0. ¿Para qué
valores de x es convergente?

197

e−bx
Z
b) La integral dx es finita para a ≥ 1, b > 0. Usar el desarrollo obtenido en a)
0 a + e−x
para calcular la integral anterior en forma de una serie.


X (−1)n
c) Calcular la serie numérica .
n=0
n + 1

 
1 − bx
9.7.16. a) Calcular la serie de Taylor de ln en a = 0, b > 0. ¿Cuáles son sus
1 + bx
intervalo y radio de convergencia?


X 1
b) Calcular la serie numérica .
n=0
(2n + 1)4n

 
a
9.7.17. Dado a > 0, consideremos la función fa (x) = ln .
a−x
a) Calcular la serie de Taylor de fa (x) en b = 0 y su radio de convergencia.

X
b) Para una cierta secuencia de números cn , n = 0, 1, 2, ..., sabemos que cn xn = ln(cos x)
n=0

X
para x ∈ [−π/2, π/2]. Calcular c0 y la serie de potencias ncn xn .
n=1

9.7.18. La siguiente identidad es cierta para a ≥ 0:

1 ∞
xa (−1)n
Z X
dx = .
0 1 + x2 n=0
2n + a + 1

a) Calcular la siguiente serie.



X (−1)n
n=0
2n + 1


X (−1)n
b) Sabemos que = C := 0.915966..... Calcular
n=0
(2n + 1)2

Z 1
ln x
dx
0 1 + x2

a
9.7.19. Para a > 0, consideremos la función fa (x) = .
a−x

198
a) Calcular la serie de Taylor de fa (x) en b = 0 y su radio e intervalo de convergencia.

X n
b) ¿Para qué valores de a > 0 la serie numérica es convergente? Calcularla cuando
n=1
an
es convergente.

9.7.20. Calcular la serie de Taylor de f (x) = cos x en a = 0 y su radio de convergencia.


Calcular

X (−1)n  π 2n
.
n=1
(2n)! 2

9.7.21. Para m ∈ N , queremos calcular


Z 1
Im := xm ln(1 + x2 )dx.
0

en forma de un serie numérica. Para ello: Calcular la serie de Taylor de ln(1 + x2 ) en a = 0


y su intervalo de convergencia. Posteriormente, en la integral Im , sustituir ln(1 + x2 ) por su
serie de Taylor anterior e intercambiar suma por integral.

9.7.22. Para c > 0, calcular la serie de Taylor de f (x) = ln(c + x) en a = 0. Determinar


radio e intervalo de convergencia.

Soluciones a los problemas propuestos


9.7.1. (a) 0; (b) e; (c) 1/5; (d) 0; (e) ∞; (f) 1; (g) 1;
(h) π. (i) No existe; (j) 0; (k) 0; (l) 5.
9.7.2. (a) Absolutamente convergente; (b) Absolutamente convergente;
(c) Convergente; (d) Absolutamente convergente para a ≥ 1;
(e) Absolutamente convergente; (f) Absolutamente convergente para a > 2;
(g) Absolutamente convergente para a > 3, convergente para a = 3; (h) Divergente.
9.7.3. (a) 10/3; (b) 1/π; (c) e + 1; (d) −(ln 2)/π; (e) 1; (f)
25/4.


 1 si |x| < 1,
−1
9.7.4. Converge puntualmente a f (x) = e si |x| = 1, . Converge uniformemente en

0 si |x| > 1,

cualquier intervalo que no contenga a ninguno de los puntos x = ±1.
9.7.5. (a) (−1, 1); (b) x 6= 0; (c) x = 1; (d) |R.

199
P∞ x2n P∞ n
9.7.6. (a) n=0 (2n)! ; x ∈ |R; (b) n=0 xan ; |x| < a, también para x = −a;
P∞ 2n+1 P∞ n
(c) −2 n=0 x2n+1 ; |x| < 1; (d) n=1 nxan ; |x| < a, también para x = −a.
P∞ 3n P∞
(e) n=1 xn ; |x| < 1, también para x = −1; (f) n=0 (1 − 2n )xn ; |x| < 1/2, también
para x = −1/2.
P∞ n 2n+1 P∞ (−1)n x2n
(g) n=0 (−1) x
(2n+1)! ; ξ ∈ |R; (h) n=0 (2n)! ; ξ ∈ R.
|

9.7.7.

1 X (a − x)n
= , −|b − a| < |x − a| < |b − a|.
b + x n=0 (a + b)n+1

x
9.7.8. (a) f (x) = cosh(x) − 1, x ∈ |R; (b) f (x) = ln(1 − x) + 1−x , x ∈ [−1, 1);
x
(c) f (x) = −x2 − ln(1 − x2 ), x ∈ [−1, 1); (d) f (x) = (1−x)2 , x ∈ [−1, 1);

(e) f (x) = − ln(1−x)


x , x ∈ [−1, 1); (f) f (x) = 1 − ln(1 − x) + ln(1−x)
x , x ∈ [−1, 1).
9.7.9. Evaluar en x = 1 el desarrollo en serie de Taylor de f (x) = ln(1 + x/2) en x = 0.
π √
9.7.10. (a) ln(1 − π/4) + 4−π ; (b) ln 2 + e − 1; (c)
2
(π − 1)
;

(d) ln(4/3) − 1/18; (e) ln(2) − 1; (f) 3/2 − 2 ln 2.
9.7.11. (a) r = 1/2. I = (0, 1). (b) r = ∞. (c) r = ∞. (d) r = π.
I = (1 − π, 1 + π].
(e) r = 0. (f) r = 2. I = (−2, 2). (g) r = 1/e. I = [−1/e, 1/e]. (h)
r = e. I = [−e − 1, e − 1).

9.7.12. a)

1 X (m + n)! n
m+1
= x .
(1 − x) n=0
m!n!
Radio de convergencia=1.

b)
∞ ∞ ∞
X n X n+1 X 1
= − =
n=1
πn n=1
πn n=1
πn
   
1 1 1 1 π
2
−1 − −1 = 2
− = .
(1 − 1/π) (1 − 1/π) (1 − 1/π) (1 − 1/π) (π − 1)2

9.7.13. a)

0 b X
f (x) = =b bn x n , r = 1/b, (−1/b, 1/b).
1 − bx n=0

200
b)

X bn xn
f (x) = − ln(1 − bx) = , r = 1/b, [−1/b, 1/b).
n=1
n

c)


(m) bm m
X (n + m − 1)! n n
f (x) = (m − 1)! m
=b b x , r = 1/b, (−1/b, 1/b).
(1 − bx) n=0
n!

9.7.14. a)

1 X
2
= (n + 1)(−x)n , x ∈ (−1, 1).
(1 + x) n=0

b) Es finita para a > −1 y b > −1.


c)
1 ∞ Z 1 ∞
xa
Z X
n a+n
X n+1
2
dx = (n + 1)(−b) x dx = (−b)n .
0 (1 + bx) n=0 0 n=0
n+a+1
1 1
La serie de Taylor de (1+x) 2 es convergente para −1 < x < 1. Por tanto, (1+bx) 2 es

convergente para −1 < b < 1 cuando −1 < x < 1, que es lo que se necesita en la integral.
d) La serie es divergente porque el término general no va a cero cuando n → ∞. De todos
modos, es la serie anterior para a = b = 1. Entonces, aunque no es correcto,
∞ Z 1  1
X n+1 n x 1 1
(−1) = 2
dx = ln(x + 1) + = ln 2 − .
n=0
n+2 0 (1 + x) x+1 0 2

9.7.15. a)


1 1 1 1 X  x n
= = − , x ∈ (−a, a).
a+x a 1 + x/a a n=0 a

b)
∞ ∞  n Z ∞ ∞  n+1
e−bx
Z
1X 1 −(b+n)x
X 1 1
−x
dx = − e dx = − − .
0 a+e a n=0 a 0 n=0
a b + n
1
La serie de Taylor de 1+x es convergente para −1 < x < 1. Por tanto, 1+e1−x es convergente
para −1 < e−x < 1, es decir, x > 0. Como x > 0 en la integral, podemos hacerlo.

201
c) Es la serie anterior para a = b = 1. Por tanto,
∞ Z ∞
X (−1)n e−x  −x ∞

= dx = − ln(1 + e ) = ln 2.
n=0
n+1 0 1 + e−x 0

9.7.16. a)
∞ ∞ ∞
(bx)n X (−bx)n (bx)2n+1
 
1 − bx X X
ln = ln(1 − bx) − ln(1 + bx) = − + = −2 .
1 + bx n=1
n n=1
n n=0
2n + 1

El intervalo de convergencia es la intersección de los intervalos de convergencia de las series


de Taylor de ln(1 − bx) y ln(1 + bx), es decir: (−1/b, 1/b). El radio de convergencia es 1/b.

b) Cuando ponemos x = 1/(2b) en la igualdad anterior obtenemos


  ∞
1 − 1/2 X 1
ln = − ln 3 = − .
1 + 1/2 n=0
(2n + 1)4n

Por tanto,

X 1
= ln 3.
n=0
(2n + 1)4n


X xn
9.7.17. a) fa (x) = Radio de convergencia = a.
n=1
nan

X
b) c0 = 0. ncn xn = x tan x.
n=1

9.7.18. a)
∞ ∞
X (−1)n π X (−1)n
= , = ln 2.
n=0
2n + 1 4 n=0
n + 1

b)
Z 1
ln x
dx = −C.
0 1 + x2

X xn
9.7.19. a) f (x) = Convergence radius= a.
n=0
an

X n a
b) Es convergente para a > 1. n
= .
n=1
a (a − 1)2

202

X (−x2 )n
9.7.20. . r = ∞. 0.
n=0
(2n)!
∞ ∞
X (−x2 )n X (−1)n
9.7.21. − . I = [−1, 1]. − .
n=1
n n=1
n(2n + m + 1)

X (−x/c)n
9.7.22. ln c − . r = c, I = (−c, c].
n=1
n

203
TEMA 10. Integración en R| .

10.1. Integral de Riemann.


Recordemos que, dada una función f (x) continua, una primitiva F (x) de f (x) es otra
función tal que F 0 (x) = f (x). Recordemos también que, si F (x) es una primitiva de f (x),
entonces F (x) + C, con C constante, también es una primitiva de f (x). Es decir, una
función continua f (x) tiene infinitas funciones primitivas que difieren unas de otras en una
constante. Por ejemplo, todas las primitivas de f (x) = 1/x son F (x) = log x + C.
Recordemos por otra parte que se define la integral de Riemann, integral definida, de una
función continua f (x) en un intervalo [a, b], como el área encerrada entre la gráfica de la
función f (x) y el intervalo [a, b], y que se denota por

Z b
Area = f (x)dx.
a

Recordemos que el teorema fundamental del cálculo integral (Regla de Barrow) afirma
que ambos conceptos, el de primitiva y el de integral definida están relacionados:

Z b
Area = f (x)dx = F (b) − F (a),
a

donde F (x) es una primitiva cualquiera de f (x).


Teorema del valor medio. Dada una función f : [a, b] → |R continua, tenemos que existe
un c ∈ (a, b) tal que
Z b
f (x)dx = (b − a)f (c).
a

Observemos que (b − a)f (c) es el área de un rectángulo de longitud la del intervalo [a, b]
y de altura f (c). Por tanto, este teorema simplemente dice que ”estirando” la gráfica de
f (x) sobre [a, b] hasta hacerla una recta horizontal a una altura conveniente f (c) intermedia
entre el valor máximo y mı́nimo de f (x) en [a, b], obtendrı́amos la misma área que la que
hay debajo de la gráfica de f (x):

204
f(x)
f(c) = f(c)

[ ] [ ]
a c a b
b

Figura 10.1. Idea gráfica del teorema de valor medio.

10.2. Integración impropia.


En esta sección vamos a continuar con el estudio de integrales definidas y primitivas de
funciones f (x) introduciendo tres novedades: (i) que el intervalo de integración sea infinito:
(−∞, ∞) o semi-infinito: [a, ∞), (−∞, b], (ii) que la función f (x) presente alguna discon-
tinuidad en uno o los dos extremos del intervalo de integración o (iii) que ocurran ambas
cosas a la vez. En el caso (i) hablamos de integral impropia de primera especie, en el caso
(ii) de integral impropia de segunda especie y, en el caso (iii) de integral impropia de tercera
especie. En estas situaciones, ocurre que el área encerrada entre la gráfica de la función y
el intervalo de integración puede ”parecer” infinita aparentemente. En la siguiente figura
se muestran las gráficas de las funciones f1 (x) = 1/(1 + x)2 en [0, ∞) y de f2 (x) = 1/x en
(0, 1].

1.0 50

0.8 40

0.6 30
f1(x) f2(x)
0.4 20

0.2 10

0 2 4 6 8 10 0.0 0.2 0.4 0.6 0.8 1

Figura 10.2.Área bajo las gráficas de las funciones f1 y f2 en [0, ∞).


Veremos más adelante que, efectivamente, el área bajo la gráfica de f2 (x) es infinita, pero
el área bajo la gráfica de f1 (x) es finita!. En el caso (i), que el área sea finita va a depender

205
de como de rápido va f (x) a cero cuando x va a infinito. En el caso (ii), de como de lenta va
f (x) a infinito cuando x se aproxima a la discontinuidad de f (x). En el caso (iii) de ambas
cosas.

10.2.1. Integrales impropias de primera especie

Dada una función f (x) continua en un intervalo semi-infinito [a, ∞), a > 0, podemos
coger un intervalo más pequeño [a, b] contenido en el anterior, y calcular el área encerrada
entre la gráfica de f (x) y el intervalo [a, b]:
Z b
f (x)dx = F (b) − F (a).
a

Entonces, el área encerrada entre la gráfica de f (x) y el intervalo [a, ∞) es simplemente


Z b
lim f (x)dx = lim [F (b) − F (a)].
b→∞ a b→∞

Ejemplo 10.1. Queremos calcular el área encerrada entre la gráfica de f (x) = 1/(1 + x)2
y el intervalo [0, ∞). Tenemos que
Z b b
dx 1 1
2
=− =1− .
0 (1 + x) 1+x 0 1+b

1.0 1.0

0.8 0.8

-2 0.6 -2
0.6 (1+x)
(1+x)

0.4 0.4

0.2 0.2

0 2 4 6 8 10
0 2 4 6 8 10
b

Figura 10.3 Área bajo la gráfica de la función f en [0, ∞).


Y entonces,
Z b  
dx 1
lim = lim 1 − = 1.
b→∞ 0 (1 + x)2 b→∞ 1+b
Es finita!.

206
En general, para intentar averiguar de antemano si el área entre la gráfica de una función
f (x) continua y el intervalo [a, ∞) es o no infinita, sin necesidad de calcular una primitiva
de f (x) (muchas veces es imposible, no sabemos calcularla), podemos recurrir al método de
comparación de f (x) con la función fc (x) = x−c , de la cual es sencillo calcular una primitiva:
 1−c
x si c 6= 1,
−c
fc (x) = x → Fc (x) = 1 − c

log x si c = 1.
Tenemos entonces que
 1−c
a1−c
 1−c
Z ∞
dx  b − si c 6= 1, a si c > 1,
= lim [Fc (b) − Fc (a)] = lim 1−c 1−c = c−1
a xc b→∞ b→∞ 
log b − log a ∞ si c ≤ 1.

si c = 1.
Por tanto, Z ∞
dx
a xc
es finita si c > 1 e infinita si c ≤ 1.
Ahora, sabiendo qué le ocurre al área bajo la gráfica de x−c según el valor de c, podemos
utilizar el criterio de comparación, que dice que si
Z b Z b Z b
A dx
|f (x)| ≤ c en [a, b], entonces f (x)dx ≤ |f (x)|dx ≤ A ,
x a a a xc

donde A es un número positivo. O también, si


Z b Z b
A dx
f (x) ≥ c en [a, b], entonces f (x)dx ≥ A .
x a a xc
R∞
Por tanto, si podemos acotar |f (x)| ≤ Ax−c en [a, ∞) con c > 1, A > 0,R entonces a f (x)dx

es finita. Si podemos acotar f (x) ≥ Ax−c en [a, ∞) con c ≤ 1 entonces a f (x)dx es infinita.
En cualquier otro caso no sabemos decir nada.
Muchas veces, un método más sencillo que el de esas acotaciones consiste en simplemente
ver si f (x) ' x−c cuando x → ∞. Si c ≤ 1 la integral es infinita y si c > 1 es finita.
En el ejemplo anterior tenemos que, en el intervalo [0, ∞), podemos dividir la integral en
dos intervalos, [0, 1] y [1, ∞). En el intervalo [0, 1] tenemos una integral normal y corriente.
En el intervalo [1, ∞) tenemos una integral de primera especie con
1 1
|f (x)| = 2
≤ 2.
(1 + x) x
Es decir, se cumple
R ∞ dxla cota con c = 2 > 1 y, por tanto, podrı́amos haber deducido de
antemano que 0 (1+x) 2 es finita sin necesidad de calcular la integral. O más sencillo, como

1 1
2
' 2, x → ∞,
(1 + x) x

207
la integral es finita.


Ejemplo 10.2. Queremos calcular el área encerrada entre la gráfica de f (x) = 1/ 1 + x y
el intervalo [1, ∞). Tenemos que

1 1
√ ≥√ para x ≥ 1.
1+x 2x

Y como Z ∞ Z ∞
dx dx
√ = ∞ =⇒ √ = ∞.
1 x 1 1+x
O de forma más sencilla, como

1 1
√ ' 1/2 , x → ∞,
1+x x

tenemos que la integral es infinita.


Podemos llegar hasta esta misma conclusión calculando la integral de f (x) en [1, b] y luego
tomando el lı́mite b → ∞, ya que esta integral es inmediata de calcular:
Z b
dx √ b √ √
√ = 2 1+x 1
= 2 b + 1 − 2 2.
1 1+x
√ √
Evidentemente, limb→∞ [2 b + 1 − 2 2] = ∞.

Para que el área entre la gráfica de f (x) y el intervalo [a, ∞) ó (−∞, a] sea finita, f (x)
debe ir a 0 cuando x → ∞ ó −∞. De lo contrario, el área serı́a obviamente infinita. Pero
además, debe ir a 0 suficientemente rápido, no basta con que f (x) ∼ x−1 , debe ir más rápido
que f (x) ∼ x−1 , debe ir como f (x) ∼ x−c con c > 1.
Para integrales sobre el intervalo (−∞, a] con a < 0, el análisis es completamente equiva-
Ra
lente: si podemos acotar |f (x)| ≤ Ax−c en (−∞, a] con c > 1, A > 0, entonces −∞ f (x)dx
Ra
es finita. Si podemos acotar f (x) ≥ Ax−c en (−∞, a] con c ≤ 1 entonces −∞ f (x)dx es
infinita. En cualquier otro caso no sabemos decir nada.
Para integrales sobre el intervalo (−∞, ∞) descomponemos el intervalo (−∞, ∞) en la
S S
forma (−∞, ∞) = (−∞, −a] (−a, a) [a, ∞) con a > 0. En el intervalo (−a, a) no hay
nada que analizar; basta por tanto con analizar la integral sobre los intervalos (−∞, −a] y
[a, ∞) como hemos descrito anteriormente.
Ejemplo 10.3. Queremos calcular el área encerrada entre la gráfica de la función continua
f (x) = x/(1 + x4 ) y el intervalo (−∞, ∞). Tenemos que, tanto en el intervalo (−∞, −1]
como en el [1, ∞),
x 1
4
' 3.
1+x x

208
Y como ambas integrales
Z ∞ Z −1
dx dx
, ,
1 x3 −∞ x3

son finitas, tenemos que la integral


Z ∞ Z −1 Z 1 Z ∞
xdx xdx xdx xdx
= + +
−∞ 1 + x4 −∞ 1 + x4 −1 1 + x4 1 1 + x4

es finita pues es suma de tres integrales finitas.


Ejercicio 10.4. Determinar si las siguientes integrales son convergentes o divergentes.
Z ∞ Z ∞ Z ∞
2
−t
e dt, t
e dt, e−t dt.
0 0 −∞

10.2.2. Integrales impropias de segunda especie

Ahora consideramos una función f (x) continua en un intervalo finito (a, b], pero que se
va a infinito en el extremo inferior a, como por ejemplo le ocurre a la función f (x) = log x
en el intervalo (0, 1]:

s
0.2 0.4 0.6 0.8 1.0 0.2 0.4 0.6 0.8 1.0

-1 -1

-2 -2

-3 -3

-4 -4

Figura 10.4. Área encerrada entre el eje X positivo y la gráfica de al función log x.
Para calcular el área encerrada entre la gráfica de la función y el intervalo (a, b], en primer
lugar procedemos como en el caso de integrales impropias de primera especie, calculando el
área sobre un intervalo más pequeño [s, b] contenido en el anterior, y luego tomando el lı́mite
s → a. En el ejemplo mencionado de f (x) = log x sobre el intervalo (0, 1], consideramos un
número s tal que 0 < s < 1 y calculamos primero
Z 1
1
log x dx = [x log x − x]|s = s − 1 − s log s.
s

209
Y ahora tomamos el lı́mite s → 0: lims→0 [s − 1 − s log s] = −1. Es decir, el área encerrada
entre la gráfica de la función f (x) = log x y el intervalo (0, 1] vale −1, es finita.
Al igual que en el caso de integrales impropias de primera especie, nos planteamos si es
posible averiguar a priori, sin necesidad de calcular primitivas (a veces es imposible), si el área
encerrada entre la gráfica de una función f (x) y el intervalo (a, b] es finita o no (una función
f (x) que se va a infinito en x = a). Sı́ es posible, y el mecanismo para averiguarlo es similar
al que hemos visto en el caso de integrales de primera especie: mediante comparación con
la integral de la función gc (x) = 1/(x − a)c sobre el intervalo (a, b]. Pues para esta función,
es sencillo calcular una primitiva:

1−c
 (x − a)

1 si c 6= 1,
gc (x) = → Gc (x) = 1−c
(x − a)c
log(x − a)

si c = 1.

Tenemos entonces que



b
(b − a)1−c (s − a)1−c
− si c 6= 1,
Z 
dx 
= lim [Gc (b) − Gc (s)] = lim 1−c 1−c =
(x − a)c s→a s→a 
a
log(b − a) − log(s − a) si c = 1.



 ∞ si c ≥ 1,
1−c
(b − a)

 si c < 1.
c−1

Por tanto,
Z b
dx
a (x − a)c
es finita si c < 1 e infinita si c ≥ 1.
Ahora, sabiendo qué le ocurre al área bajo la gráfica de (x − a)−c según el valor de c,
podemos utilizar de nuevo el criterio de comparación, que dice que si
Z b Z b Z b
A dx
|f (x)| ≤ en (a, b], entonces f (x)dx ≤ |f (x)|dx ≤ A ,
(x − a)c a a a (x − a)c

donde A es un número positivo. O también, si


Z b Z b
A dx
f (x) ≥ en (a, b], entonces f (x)dx ≥ A .
(x − a)c a a (x − a)c

Por tanto, si podemos acotar |f (x)| ≤ A(x − a)−c en (a, b] con c < 1, A > 0, entonces
Rb
f (x)dx es finita. Si podemos acotar f (x) ≥ A(x − a)−c en (a, b] con c ≥ 1 entonces
Rab
a
f (x)dx es infinita. En cualquier otro caso no sabemos decir nada.

210
Al igual que en el caso de integrales impropias de primera especie, un método más sencillo
que el de esas acotaciones consiste en simplemente ver si f (x) ' (x − a)−c cuando x → a.
Si c < 1 la integral es finita y si c ≥ 1 es infinita.
En el ejemplo anterior tenemos que, en el intervalo (0, 1],

1 1
|f (x)| = | log x| ≤ √ = 1/2 .
x x

Es decir, se cumple
R1 la cota con c = 1/2 < 1 y, por tanto, podrı́amos haber deducido de
antemano que 0 log xdx es finita sin necesidad de calcular la integral.


Ejemplo 10.5. Queremos calcular el área encerrada entre la gráfica de f (x) = x/ 1 − x2
y el intervalo (−1, 0]. Tenemos que

x x 1
√ =√ √ ≤ .
1−x 2 1−x 1+x 1 · (x + 1)1/2

Es decir, se cumple la cota |f (x)| < (x + 1)−c con c = 1/2 < 1 y por tanto el área es finita.
O de otro modo, como

x 1
√ ' , x → −1,
1 − x2 (x + 1)1/2

el área es finita.
Podemos llegar hasta esta misma conclusión calculando la integral de f (x) en [s, 0] y luego
tomando el lı́mite s → −1, ya que esta integral es inmediata de calcular:
Z 0 0
xdx p p
√= − 1 − x2 = 1 − s2 − 1.
s 1 − x2 s


Y tomando el lı́mite: lims→−1 [ 1 − s2 − 1] = −1.

Para que el área entre la gráfica de f (x) y el intervalo (a, b] sea finita, aun cuando f (x)
se va a infinito en el punto a, f (x) no debe ir a ∞ cuando x → a demasiado rápido: no
basta con que f (x) ∼ (x − a)−1 , debe ir más rápido que f (x) ∼ (x − a)−1 , debe ir como
f (x) ∼ (x − a)−c con c < 1.
Cuando f (x) es continua en [a, b) y se va a infinito en el extremo superior b, el análisis
−c
es completamenteR bequivalente: si podemos acotar |f (x)| ≤ A(b − x) −cen [a, b) con c < 1,
A > 0, entonces a f (x)dx es finita. Si podemos acotar f (x) ≥ A(b − x) en [a, b) con c ≥ 1
Rb
entonces a f (x)dx es infinita. En cualquier otro caso no sabemos decir nada.
Cuando f (x) es continua en (a, b) y se va a infinito en ambos extremos a y b, descom-
S
ponemos el intervalo (a, b) = (a, d] [d, b) y analizamos la integral sobre los intervalos (−a, d]
y [d, b) como hemos descrito anteriormente.

211

Ejemplo 10.6. Queremos calcular el área encerrada entre la gráfica de f (x) = 1/ sin x y
el intervalo (0, π/2]. Como sin x ∼ x cuando x → 0, tenemos que

1 1 1
√ ∼ √ = 1/2 , x → 0.
sin x x x

Es decir, tenemos que f (x) ' x−c cuando x → 0 con c = 1/2 < 1 y por tanto el área es
finita: Z π/2
dx
√ < ∞.
0 x

Ejercicio 10.7. Determinar si las siguientes integrales son finitas o infinitas.


Z 1 Z π/2 Z 1
cos tdt dt
log(1 − t)dt, , .
0 0 sin t −1 1 − t2

10.3. Integración paramétrica.


El concepto de integral paramétrica es muy sencillo. Observemos el siguiente ejemplo

1 t=1
e−xt 1 − e−x
Z
−xt
e dt = − = ,
0 x t=0 x

donde x es un parámetro real. Hemos calculado la integral definida de un función f (t) = e−xt
que contiene un parámetro x y, por tanto, el resultado depende de ese parámetro x. Dicho
de otro modo, en realidad la función que estamos integrando depende de dos variables, por
lo que deberı́amos escribir f (t, x) = e−xt . Entonces, al integrar la variable t, sigue quedando
la variable x, es decir, la integral de f (t, x) en la variable t es una función de x. En general,
dada una función de dos variables f (t, x), integrable en un intervalo t ∈ [a, b], la integral de
f (t, x) respecto de la variable t en ese intervalo es una función de x:
Z b
F (x) = f (t, x)dt.
a

1 − e−x
En el ejemplo anterior tenemos que F (x) = .
x
El concepto de integral paramétrica puede combinarse con el de integral impropia visto
anteriormente, integrando una función f (t, x) respecto de la variable t en un intervalo infinito
o semi-infinito o en un intervalo donde la función f (t, x), como función de t, es discontinua
en algún extremo del intervalo. Veamos algunos ejemplos.

212
Ejemplo 10.8. Integremos la función f (t, x) = e−xt en el intervalo [0, ∞) (integral paramétrica
impropia de primera especie):

 1 si x > 0

∞ b −xt t=b −bx
1−e
Z Z
e
F (x) = e−xt dt = lim e−xt dt = lim − = lim = x
0 b→∞ 0 b→∞ x b→∞ x
t=0 ∞ si x ≤ 0.

Al tratarse de una integral impropia, debemos tener cuidado de asegurarnos de que la integral
es finita. En este ejemplo, eso ocurre únicamente para x > 0, por lo que la función F (x)
solo queda definida para x > 0.

Ejemplo 10.9. Integremos la función f (t, x) = (1 − t)−x en el intervalo [0, 1) (integral


impropia de segunda especie). Hemos visto en la sección anterior que la integral es divergente
si x ≥ 1 y converge si x < 1. Más concretamente,
Z 1 Z b
dt dt
F (x) = x
= lim =
0 (1 − t) b→1 0 (1 − t)x
 1−x t=b 
1 − (1 − b)1−x
 1
 − (1 − t)

6 1
si x =

 si x 6= 1  si x < 1
lim 1 − x = lim 1 − x = 1−x
b→1  b→1  

− log(1 − t) si x = 1 t=0

− log(1 − b) si x = 1 ∞ si x ≥ 1.

Al igual que en el ejemplo anterior, la convergencia de la integral depende del valor del
parámetro x. La integral converge únicamente para x < 1, por lo que la función F (x) está
definida únicamente para x < 1.

Ejercicio 10.10. Calcular Z π


F (x) = sin(xt)dt.
0

En lugar de estar el parámetro x en la función f (t, x), el parámetro x puede aparecer en


un lı́mite de integración, como muestra el siguiente ejemplo (y como en realidad ya hemos
estado utilizando anteriormente, ¿donde?):
Z x
sin t dt = 1 − cos x.
0

Por tanto, dada una función f (t) continua en un intervalo [a, b], para x ∈ [a, b], definimos la
función Z x
F (x) = f (t)dt.
a

De nuevo, este concepto puede combinarse con el de integral impropia, integrando en inter-
valos semi-infinitos o en intervalos donde la función, como función de t, se va a infinito en
alguno de los extremos de integración. Veamos algunos ejemplos.

213
Ejemplo 10.11. Integremos la función f (t) = e−t en el intervalo [x, ∞):
Z ∞ Z b
−t
F (x) = e dt = lim e−t dt = lim [e−x − e−b ] = e−x .
x b→∞ x b→∞

20
1.0

0.8 15

0.6
10

0.4 e-t 1
5
1-t
0.2

t t
x 1 2 3 4 0.0 0.2 0.4 0.6 0.8
x 1.0

Figura 10.5. La primera figura representa el área bajo la función e−t en el intervalo
[x, ∞): e−x , que disminuye al aumentar x. La segunda figura representa el área bajo la
función (1 − t)−1 en el intervalo [0, x]: − log(1 − x), que aumenta al aproximarse x a 1
(aumenta hasta infinito).

Ejemplo 10.12. Integremos la función f (t) = (1 − t)−1 en el intervalo [0, x) con 0 ≤ x ≤ 1.


Si 0 ≤ x < 1 entonces la función f (t) es continua en todo el intervalo [0, x] y la integral
no es impropia. Cuando x = 1 entonces es más delicado, pues f (t) es discontinua en el
extremo superior del intervalo de integración t = 1. Y sabemos, por lo estudiado en la
sección anterior, que es divergente. Por tanto:
(
Z x t=x
dt − log(1 − x) si 0 ≤ x < 1,
F (x) = = − log(1 − t) =
0 1−t t=0 ∞ si x = 1.

De nuevo en este ejemplo la convergencia de la integral depende del valor del parámetro x,
la función F (x) está definida únicamente para 0 ≤ x < 1.

Ejercicio 10.13. Calcular, para x > 0,


Z ∞
dt
F (x) = .
0 (x + t)2

¿Que ocurre para x = 0?


Ahora, nos podemos preguntar si la función F (x), definida mediante la integral de f (t, x)
en un intervalo [a, b], es continua o derivable. Sobre la continuidad, únicamente diremos
que si f (t, x) es continua como función de t en el intervalo de integración [a, b] y también

214
es continua en un x dado (como función de x), entonces F (x) es continua en ese x. Sobre
la derivabilidad, únicamente diremos que, bajo condiciones muy generales que no vamos a
detallar, la derivada de F (x) puede calcularse de dos modos: (i) calculando primero F (x), es
decir, calculando la integral de f (t, x) y luego calculando F 0 (x) o (ii) utilizando la siguiente
fórmula: Z b Z b
dF (x) d df (t, x)
= f (t, x)dt = dt,
dx dx a a dx
donde la integral puede ser sobre un intervalo finito [a, b] o ser una integral impropia.

Ejemplo 10.14. Dada f (t, x) = (x + t)−1 ,


Z 1 t=1  
dt x+1
F (x) = = log(x + t) = log(x + 1) − log x = log .
0 x+t t=0 x
1 1 1
Por una parte, podemos calcular directamente F 0 (x) = − =− . O hacerlo
x+1 x x(x + 1)
utilizando la fórmula anterior:
Z 1   Z 1 t=1
0 d 1 1 1 1 1 1
F (x) = dt = − 2
dt = = − =− .
0 dx x + t 0 (x + t) x+t t=0 x+1 x x(x + 1)

También podemos utilizar la fórmula anterior en sentido inverso. Es decir, supongamos


que tenemos una integral respecto de t de una función g(t, x) que no sabemos calcular
directamente, pero podemos escribirla como la derivada respecto de x de una función f (t, x)
que sı́ sabemos integrar. Podemos entonces integrar f (x, t) respecto de t y entonces, su
derivada respecto de x nos da la integral de g(t, x) que buscábamos. Veámoslo con un
ejemplo.

Ejemplo 10.15. Queremos calcular la integral de g(t, x) = te−xt en [0, ∞):


Z ∞
G(x) = te−xt dt.
0

No sabemos calcular una primitiva de te−xt como función de t. Pero observemos que g(t, x) =
d
− e−xt . Entonces tenemos que
dx
Z ∞ Z ∞
d −xt d d
G(x) = − e dt = − e−xt dt = − F (x),
0 dx dx 0 dx
con Z ∞
1
F (x) = e−xt dt = .
0 x
0 −2
Y como F (x) = −x , entonces
d 1
G(x) = − F (x) = 2 .
dx x
215
La fórmula de la derivación puede generalizarse a derivadas de orden más alto, en general:
b
dn f (t, x)
Z
(n)
F (x) = dt.
a dxn

Como en el ejemplo anterior, puede utilizarse esta fórmula para calcular integrales, como
muestra el siguiente ejercicio.

Ejercicio 10.16. Calcular Z ∞


t2 e−xt dt.
0

10.4. Problemas resueltos.


10.4.1. Calcula las siguientes integrales indefinidas, todas ellas inmediatas:
Z −2
x + x−3
Z −2
x−3 −6
Z
x 6
(a) 1/3
√ dx = 5/6
+ 5/6 dx = x−17/6 +x−23/6 dx = 11/6
− +K.
x x x x 11x 17x17/6
2 2
4 x e3 x 2e3x
Z Z
4 3x2
(b) dx = 6xe dx = + K.
5 6·5 15
3 x2 3/2x2
Z Z  3
1 4x
(c) 3 2
dx =  2 dx = √ arctan √ + K.
2 + (4 x ) 3 4 2 2
1 + 4x √
2
3 √ 3 3
!
x2 e−x 3 x2 e−x e−x
Z Z
1
(d) √ dx = r  3 2 = 3 arccos √3 + K.
3 − e−2x3 −x
3 1 − e√3

x2 − 5 x + 9
Z
10.4.2. Calcula la siguiente integral indefinida dx.
x2 − 5 x + 6
Como el integrando es una división de dos polinomios, es una integral racional. Dado
que el polinomio del numerador tiene grado mayor ó igual que el grado del polinomio del
denominador, primero realizamos la división:

x2 − 5 x + 9 3
2
=1+ 2 .
x − 5x + 6 x − 5x + 6
Z 2
x − 5x + 9
Z Z
3 3
Entonces 2
dx = 1 + 2 dx = x + 2
dx.
x − 5x + 6 x − 5x + 6 x − 5x + 6
Ahora se trata de calcular esta última integral. Para ello, descomponemos el la fracción
en varias fracciones mas sencillas:
3 3 A B −3A − 2B + Ax + Bx
= = + = .
x2 − 5x + 6 (x − 2)(x − 3) x−2 x−3 (x − 2)(x − 3)

216
Dado que los denominadores de las fracciones primera y ultima son iguales, también los
numeradores deben coincidir. Es decir:

3 = −3A − 2B + (A + B)x.

Si ahora igualamos los coeficientes de ambos polinomios obtenemos A = −3 y B = 3. Por


tanto:
−3
Z Z
3 3
2
dx = + dx = −3 log(x − 2) + 3 log(x − 3).
x − 5x + 6 x−2 x−3
Z 2
x − 5x + 9
Por tanto dx = x − 3 log(x − 2) + 3 log(x − 3) + K.
x2 − 5 x + 6
Z
1
10.4.3. Calcula dx.
(x + 1)2 x
Es una integral racional. Vamos a descomponer la fracción en varias fracciones mas sencillas:
1 A B C C + Ax + Bx + 2Cx + Ax2 + Cx2
= + + = .
(x + 1)2 x x + 1 (x + 1)2 x (x + 1)2 x
Ahora, igualando los coeficicentes de los numeradores de la primera y ultima fracción:
A + C =0
A + B + 2C =0
C =1.
Obtenemos A = −1, B = −1 y C = 1 y la integral:
−1 −1
Z
1 1 1
dx = + + dx = − log(x + 1) + + log(x) + K.
(x + 1)2 x x + 1 (x + 1)2 x x+1

Z
4x + 1
10.4.4. Calcula dx.
3 x2 + 2
Es una integral racional. Dado que el polinomio del denominador no factoriza, trataremos
de integrar mediante arcotangente y logaritmo. Busquemos la derivada del denominador (6x)
en el numerador:
Z Z Z Z
4x + 1 2 6x + 3/2 2 6x 1
2
dx = 2
dx = 2
dx + 2
dx.
3x + 2 3 3x + 2 3 3x + 2 3x + 2
Z
2 6x 2
La primera integral ahora es inmediata: 2
dx = log(3x2 +2). Calculemos ahora
3 3x + 2 3
la segunda integral:
Z Z Z √ √ √ !
1 1/2 1 3/ 2 1 3x
2
dx =  √ 2 dx = √  √ 2 dx = √ arctan √ .
3x + 2 3x 6 3x 6 2
1+ √
2
1+ √
2

217
Por tanto la integral es:
Z √ !
4x + 1 2 1 3x
2
dx = log(3x2 + 2) + √ arctan √ + K.
3x + 2 3 6 2

Z
10.4.5. Calcula la siguiente integral x arctan(x) dx.

Vamos a realizar esta integral por partes:


1
arctan(x)→
1 + x2
x2
x→ .
2
Ası́ pues:
x2 x2
Z Z
1
x arctan(x) dx = arctan(x) − dx.
2 2 1 + x2
Esta ultima integral es racional:

x2
Z Z
1
2
dx = 1 − dx = x − arctan(x).
1+x 1 + x2
Por tanto la integral es:

x2
Z
1
x arctan(x) dx = arctan(x) − (x − arctan(x)) .
2 2

Z
10.4.6. Calcula la integral trigonométrica sin5 (x) dx.

Para calcular esta integral vamos a aplicar la formula trigonométrica sin2 (x) = 1−cos2 (x):
Z Z Z
5 2
sin (x) dx = sin(x)(sin (x)) dx = sin(x)(1 − cos2 (x))2 dx.
2

Ahora descomponemos esta integral en varias inmediatas:


Z Z Z Z
sin(x)(1 − cos (x)) dx = sin(x) dx + sin(x) cos (x) dx − 2 sin(x) cos2 (x) dx =
2 2 4

cos5 (x) cos3 (x)


= − cos(x) − +2 + K.
5 3

Z
1
[Link] la siguiente integral √ dx.
x 1 + x2

218
En este caso, vamos hacer un cambio de variable:
(
x2 + 1 = t2
x dx = t dt

y la nueva integral queda:


Z Z
1 1
√ dx |{z}
= dt.
x 1 + x2 t2 −1
(∗)

Esta última integral es racional:


Z Z
1 1/2 1/2 1
2
dt = − dt = (log(t − 1) − log(t + 1)).
t −1 t−1 t+1 2

Ahora deshaciendo el cambio:


Z
1  p 
√ dx = log(x) − log 1 + 1 + x2 + K.
x 1 + x2

Z p
10.4.8. Calcula 9 − 2x2 dx.

En este caso, vamos hacer un cambio de variable:

3

 x = √ sin(t)


2
3
 dx = √ cos(t) dt,


2

quedando Z p Z
9
9− 2x2 = √
dx |{z} cos2 (t) dt.
2
(∗)

1 + cos(2t)
Para hacer esta última integral utilizamos la fórmula trigonometrica cos2 (t) = ,
2
Z Z  
9 2 9 9 sin(2t)
√ cos (t) dt = √ 1 + cos(2t) dt = √ t+ .
2 2 2 2 2 2

Ahora, deshaciendo el cambio queda


√ 
Z p
1 p 9 arcsin 32x
9 − 2x2 dx = x 9 − 2x2 + √ + K.
2 2 2

219
Z ∞
10.4.9. Calcula xn e−x dx , ∀ n ∈ |N.
0
Z ∞ Z ∞
−x n
Denotamos A(n) = e x dx . Es fácil calcular A(0) = e−x x0 dx = 1. Es fácil
0 0
ver, calculando la integral por partes, que A(n) = (n) A(n − 1):
Z ∞ Z ∞
−x n −x n ∞
A(n) = e x dx = −e x 0 +(n) e−x xn−1 dx .
0
|0
| {z }
0
{z }
A(n−1)

Si repetimos el proceso para calcular A(n − 1) obtendriamos A(n − 1) = (n − 2) A(n − 2) =.


Si seguimos hasta llegar a A(0) tenemos:

A(n) = (n) A(n − 1) = (n)(n − 1)A(n − 2) = · · · = (n)(n − 1) · · · 3 · 2 · 1 A(0) = n!.


| {z }
1
Z ∞
Conclusion: A(n) = e−x xn dx = n!.
0

10.5. Problemas propuestos.


10.5.1 Calcula las siguientes integrales:
Z ∞ Z 0
−x
a) e dx. b) e−x dx.
0 −∞
Z ∞ Z ∞
x 1
c) 2
dx. d) dx.
0 x +1 0 x2 +1
Z 1 Z 1
x
e) log x dx. f) √ dx.
0 0 1 − x2

10.5.2. Determinar si las siguientes integrales son finitas o no:


Z ∞ Z ∞ x
10 −x e + e−x
a) x e dx. b) dx.
0 0 1 + x2 ex
Z 1 Z 1
2 sin x
c) log(1 − x ) dx. d) dx.
0 0 x
Z ∞ Z ∞
log x sin x
e) 2
dx. f) dx.
0 1+x+x 0 1+x

10.5.3. Determinar si las siguientes integrales son finitas o no en función de a:


Z ∞ Z ∞
ax xa
a) e dx. b) dx.
0 0 x2 + 1

220
Z 1 Z 2
a −1/x
c) x e dx. d) (1 − x2 )a dx.
0 0
∞ 1  a
1−x
Z Z
x
e) dx. f) dx.
0 ex + xa 0 1+x
Z ∞ Z 1
sin x
g) dx. h) ea/x dx.
0 xa 0
Z ∞
i) sin(xa ) dx.
1

10.5.4. Calcula las siguientes integrales:


Z 1 Z ∞
2
a) xe−ax dx. b) xe−ax dx.
0 0
Z ∞ Z ∞
2
c) x2 e−ax dx. d) x2 e−ax dx.
0 0
Z 1 Z 1
x
e) log(ax) dx. f) dx.
0 0 a − x2
Z 1 Z 1
g) (1 + x)e−ax dx. h) sin(ax) cos(ax) dx.
0 0
Z 1 Z 1
a
i) sin xe a sin x
cos x dx. j) xa−1 e−x dx.
0 0

10.5.5. Determinar para qué valores de x es finita la integral.


Z ∞
dt
F (x) =
0 (t + 1)x

Calcular Z π/2
F (a) = sin xea cos x cos x dx.
0

10.5.6. Determinar para qué valores de a es finita la integral.


Z ∞ a
x dx
0 x4 + 1

R ∞ −xt R ∞ −xt
10.5.7. Calcular
R ∞ −t 0
e g(t)dt, donde g(t) es una cierta función, sabiendo que 0
e tg(t)dt =
1
x2 y que 0 e g(t)dt = 0.

R∞ e−xt
10.5.8. Calcular para qué valores de x es finita la integral 1 t2 dt.

221
10.5.9. Determinar si son finitas las siguientes integrales:
Z 1 Z ∞ Z 1
dx dx dx
a) , b) 2
, c) √ .
0 sin x 0 x −1 0 1 − x2

R1
10.5.10. Definimos la función f (x) ≡ 0
tx dt.
a) Para qué valores de x está definida?. Calcular f (x).
R1 R1
b) Calcular 0 tx ln(t)dt y 0 t2 ln2 (t)dt usando a).

10.5.12. Sea la función densidad de probabilidad


cx
f (x) = .
(1 + x2 )a

donde a y c son ciertas constantes positivas.

a) ¿Para qué valores de a es finita la integral


Z ∞
xdx
?
0 (1 + x2 )a

b) Para un a genérico cualquiera, calcular c para queZf (x) sea una verdadera función densidad

de probabilidad en 0 ≤ x < ∞ (es decir, para que f (x)dx = 1).
0

10.5.13. Suponer que la probabilidad de encontrar un protón a una distancia del núcleo
comprendida entre x y x + dx está dada por la densidad de probabilidad
c
f (x) = .
xa (1 + x)b

donde a, b, c son ciertas constantes positivas.


a) ¿Para qué valores de a y b es finita la integral
Z ∞
dx
?
0 xa (1 + x)b

b) Para a = 1/2 y b = 1, calcular c para que f (x) sea una verdadera función densidad de
probabilidad en 0 ≤ x ≤ ∞ y obtener P (0 ≤ x ≤ 1). (se sugiere el cambio de variable
x = y 2 ).

222
10.5.14. Calcular las siguientes integrales:
R 7 
x − 3x3/4 + x32 + √1x5 + 5 dx b) (3x + 4)2 dx
R
a)
x+3
d) x2x−1 dx
R R
c) (x2 +6x) 1/3 dx

√ dx
f) lnxx dx
R R
e) sin( x) √ x
R 2x R
g) e sin xdx h) ln xdx
x5 −x4 −3x+5
R 4 −3x3 +1
j) x (x−2)
R
i) x4 −2x 3 +2x2 −2x+1 dx 5 dx
k sinx x dx l) (5x + 1)100 dx
R R

10.5.15. Calcular las siguientes integrales definidas:


R2√ R1 2

a) 0 x + 1dx b) 0
x 1 − x2 dx
Rπ x
R π/4
c) 0 x2 +2x+1 dx d) 0 tan xdx
R1 R π/2
e) 0 x ln xdx f) π/4 sinx2 x dx
R π/2
g 0 esin x cos xdx


10.5.16. Calcular el área que encierran las curvas y = x2 e y = x entre x = 0 y x = 1 y
también entre x = 0 y x = 2.

10.5.17. Determinar si son finitas o infinitas las siguientes integrales.


R2 R1
a) 0 ln1x dx b) 0
xa (1 − x)b dx
R1 R1
c) −1 √x12 −1 dx d) −1 x21−1 dx
R π/2 R1
e) 0 sin1 x dx f) 0 ex1−1 dx
R2 R2
g) 0 √ex1−1 dx 1
h) 0 x2 −2x+1 dx

10.5.18. Calcular las siguientes integrales definidas.


R1 R1
a) 0 √1x dx b) 0
√ x
x2 −1
dx
R1 1 R π/2
c) 0 x−1 dx d) 0
tan xdx
R1 x R1
e) 0 ln
√ dx
x
f) 1
0 (1−x)a
dx, a < 1.

10.5.19. El módulo de la fuerza eléctrica que sufre un protón debido al núcleo se puede
aproximar por la función 
−1 si r ≤ 1
F (r) = 1
r2 si r ≥ 1

223
Calcular el trabajo realizado por dicha fuerza cuando desplaza un protón de r = 1/2 a r = 2.

10.5.20. Determinar si son finitas o infinitas las siguientes integrales.


R∞ 1 R∞
a) 0 √x+1 dx b) 0
ln(x + 1)dx
R∞ R∞ 2
c) 0 √x12 +1 dx d) 0 x x−x+1
4 +1 dx

R∞ x R∞ x
e) 0 x(eex +1) dx f) 0 x2 (eex +1) dx
R∞ 2
R∞ 2
g) −∞ ex +e −x dx h) 0 ex−2x dx
R ∞ 1/x
i) 1 e dx

10.5.21. Calcular las siguientes integrales definidas.


R∞ R∞
a) 0 √1x3 dx b) 0
1
x2 +5x+6 dx
R∞ x R∞ ex
c) 0 (exe+1)2 dx d) −∞ (ex +1)2 dx
R∞ R∞
e) 1 (x lnlnx−x)
x
2 dx f) 2
1
x ln x dx
R ∞ sin x
g) 0 e cos xdx

10.5.22. Determinar si son finitas o infinitas las siguientes integrales.


R∞ R∞
a) 1 e−x+1/x dx b) 0
e−x−1/x dx
R∞ R∞ 1
c) 0 e−x+1/x dx d) 0 x2 +1/x dx
R∞ 1
R∞ 2
e) 0 x2 −1/x dx f) −∞ ex −e −x dx

Soluciones a los problemas propuestos


10.5.1. (a) 1. (b) ∞. (c) ∞. (d) π/2. (e) −1. (f) 1.

10.5.2. (a) Si. (b) Si. (c) Si. (d) Si. (e) Si. (f) No.

10.5.3. (a) a < 0. (b) −1 < a < 1. (c) a ∈ |R. (d) a > −1. (e) a ∈ |R. (f) a > −1. (g)
a > 0. (h) a < 0. (i) a < −1.

10.5.4.
p
(a) (1 − e−a )/(2a). (b) 1/a2 . (c) 2/a3 . (d) π/(16a3 ). (e) ln a − 1. (f) log(a/(a − 1))/2.
(g) (a + 1)/a2 − (1 + 2a)e−a /a2 . (h) sin2 a/(2a). (i) (a sin 1 − 1)ea sin 1 /a2 + 1/a2 . (j)
(e − 1)/(ae).

224
10.5.5. x > 1. (a − 1)E a /a2 + 1/a2 .

10.5.6. −1 < a < 3.

10.5.7. 1/x − 1.

10.5.8. x ≥ 0.

10.5.9. (a) No. (b) No. (c) Si.

10.5.10. (a) f (x) = (x + 1)−1 , x > −1. (b) −(x + 1)−2 . (c) 2/27.

10.5.12. (a) a > 1. (d) 2(a − 1).

10.5.13. (a) a < 1, b > 1. (b) c = Γ(b)/(Γ(1 − a)Γ(a + b − 1)).

10.5.14. (a) −(2/(3x3/2 )) − 3/x + 5x − (12x7/4 )/7 + x8 /8. (b) 16x + 12x2 + 3x3 . (c)

3/4(x(6+x))2/3 . (d) 1/2 ln(−1+x2 ). (e) −2 cos x. (f) ln2 x/2. (g) −(1/5)e2x (cos x−2 sin x)
(h) x ln x − x. (i) −(3/2) + 1/(1 − x) + x + x2 /2 + arctan[x] − 2 ln[−1 + x] + ln[1 + x2 ]. (j)
(325 − 560x + 324x2 − 60x3 )/(12(−2 + x)4 ) + ln[−2 + x]. (k) SinInt(x). (l) 1/505(1 + 5x)101 .

10.5.15.

(a) 2 3 − 2/3. (b) π/16. (c) −1 + 1/(1 + π) + ln[1 + π]. (d) ln(2)/2. (e) −1/4. (f)
1/4(π + ln[4]). (g) e − 1.


10.5.16. (a) 1/3. (b) 1/3 + 3 − 4 2/3.

10.5.17. (a) No. (b) a > −1, b > −1. (c) Si. (d) No. (e) No. (f) No. (g) Si. (h) No.

10.5.18. (a) 2. (b) −1. (c) −i. (d) −∞. (e) ∞. (f) −4. (g) 1/(1 − a).

10.5.19. 1.

10.5.20. (a) No. (b) No. (c) No. (d) Si. (e) No. (f) No. (g) No. (h) Si. (i) No.

10.5.21. (a) ∞. (b) ln(3/2). (c) 1/2. (d) 1. (e) ∞. (f) ∞. (g) No existe.

10.5.22. (a) Si. (b) Si. (c) No. (d) Si. (e) No. (f) No.

225
BIBLIOGRAFIA
Teorı́a
Barbolla, R. y Sanz, P.; “Álgebra Lineal y Teorı́a de Matrices”; Prentice Hall, 1998.
de Burgos, J.; “Álgebra Lineal”; Mc Graw–Hill,1993.
Caballero, R.; “Matemáticas Aplicadas a la Economı́a y a la Empresa. 434 Ejercicios Re-
sueltos y Comentados.”; Pirámide, 2000.
Guerrero, F.M. y Vázquez, C.; “Manual de Álgebra Lineal para la Economı́a y la Empresa”;
Pirámide, 1998.
Gutierrez, S. y Franco, A.; “Matemáticas Aplicadas a la Economı́a y a la Empresa”; Ed.
AC., 1997.
López, M. y Vegas, A.; “Elementos de Matemáticas para la Economı́a y Dirección de Em-
presas”; Ed. Pirmámide, 1994.
Strang, G.; “Álgebra Lineal y sus Aplicaciones”; Addison–Wesley Iberoamericana, Madrid,
1990.
Howard, A.; “Elementary Linear Algebra”; John-Wiley & Sons, 2005.
Howard, A. y Rorres, C.; “Elementary Linear Algebra. Applications Version”; John-Wiley
& Sons, 2005.

Problemas
Alegre, P. y colab.;“Ejercicios Resueltos de Matemáticas Empresariales”; Ed A.C., 1993.
Anzola, M., Caruncho, J.; “Problemas de Álgebra”; vols. 1,2,3 y 6, 3a ed., Vizmanos–Anzola,
1981.
de Diego, B., Gordillo, E., Valeiras, G.; “Problemas de Álgebra Lineal”; Deimos, 1984.
Espada, E.; “Problemas Resueltos de Álgebra”; 2 vols., 4a ed., EDUNSA, 1988.
Rojo, J. y Martı́n, I.; “Ejercicios y Problemas de Álgebra Lineal”; Mc Graw–Hill, 1994.

226

También podría gustarte