100% encontró este documento útil (1 voto)
410 vistas400 páginas

Matemáticas Avanzadas y Maxima

Este documento trata sobre matemáticas avanzadas como variable compleja, series y ecuaciones diferenciales ordinarias. Se divide en varias secciones que cubren temas como funciones de variable compleja, puntos y líneas de corte, integrales complejas, sucesiones y series, y criterios de convergencia de series. El documento es escrito por H. Hernández y L. A. Núñez y pretende ser una guía para estudiantes sobre estos temas avanzados de matemáticas.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
100% encontró este documento útil (1 voto)
410 vistas400 páginas

Matemáticas Avanzadas y Maxima

Este documento trata sobre matemáticas avanzadas como variable compleja, series y ecuaciones diferenciales ordinarias. Se divide en varias secciones que cubren temas como funciones de variable compleja, puntos y líneas de corte, integrales complejas, sucesiones y series, y criterios de convergencia de series. El documento es escrito por H. Hernández y L. A. Núñez y pretende ser una guía para estudiantes sobre estos temas avanzados de matemáticas.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

Matemáticas Avanzadas:

Variable Compleja, Series y Ecuaciones

r
Diferenciales Ordinarias,

a
con aplicaciones en Maxima

in
H. Hernández
Departamento de Fı́sica, Facultad de Ciencias,

m
Universidad de Los Andes, Mérida-Venezuela

L. A. Núñez

eli
Escuela de Fı́sica, Facultad de Ciencias,
Universidad Industrial de Santander, Bucaramanga-Colombia
24 de noviembre de 2019
Pr
or
ad
rr
Bo
Índice general

a r
in
1. Variable Compleja 10

m
1.1. Funciones de Variable Compleja . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.1.1. De la recta real al plano complejo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.1.2. Continuidad en el plano complejo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.1.3. Diferenciabilidad de funciones complejas . . . . . . . . . . . . . . . . . . . . . . . . . . 12

eli
1.1.4. Funciones analı́ticas y condiciones de Cauchy-Riemann . . . . . . . . . . . . . . . . . . 12
1.1.5. Curiosidades de Cauchy-Riemann . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.1.6. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.1.7. Practicando con Maxima . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.1.8. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
Pr
1.2. Puntos, lı́neas de corte y ceros de funciones complejas . . . . . . . . . . . . . . . . . . . . . . 21
1.2.1. Puntos y lı́neas de corte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
1.2.2. Singularidades, polos y ceros de funciones complejas . . . . . . . . . . . . . . . . . . . 23
1.2.3. Transformaciones conformes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
1.2.4. Algunas consecuencias y ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
1.2.5. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
1.2.6. Practicando con Maxima . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
or

1.2.7. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
1.3. Integrales complejas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
1.3.1. Algunas propiedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
1.3.2. Teorema integral de Cauchy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
ad

1.3.3. El teorema y las regiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40


1.3.4. Algunas observaciones y el Teorema de Morera . . . . . . . . . . . . . . . . . . . . . . 41
1.3.5. Fórmula integral de Cauchy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
1.3.6. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
1.3.7. Practicando con Maxima . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
rr

1.3.8. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48

2. Series I 50
2.1. Sucesiones y Series . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
Bo

2.1.1. Introducción a las sucesiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52


2.1.2. Acercándonos al concepto de series . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
2.1.3. Series elementales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57

2
ÍNDICE GENERAL

2.1.4. Derivación de series geométricas elementales . . . . . . . . . . . . . . . . . . . . . . . . 60


2.1.5. El método de la diferencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
2.1.6. Algebra elemental de series . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
2.1.7. Series telescópicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
2.1.8. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
2.1.9. Practicando con Maxima . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
2.1.10. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
2.2. Criterios de convergencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
2.2.1. Convergencia absoluta o condicional . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74

r
2.2.2. Criterio de Comparación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75

a
2.2.3. Criterio de la Raı́z . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
2.2.4. Criterio de d’Alembert . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
2.2.5. Criterio de la Integral de Maclaurin . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77

in
2.2.6. Series alternantes y convergencia condicional . . . . . . . . . . . . . . . . . . . . . . . 79
2.2.7. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
2.2.8. Practicando con Maxima . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
2.2.9. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82

m
2.3. Series de funciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
2.3.1. Series de potencias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
2.3.2. Convergencia de una serie de potencias . . . . . . . . . . . . . . . . . . . . . . . . . . 84
2.3.3. Convergencia uniforme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85

eli
2.3.4. Criterio Mayorante de Weierstrass . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
2.3.5. Criterio de Abel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
2.3.6. Nota sobre el algebra de series de potencias . . . . . . . . . . . . . . . . . . . . . . . . 88
2.3.7. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
Pr
2.3.8. Practicando con Maxima . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
2.3.9. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
2.4. Serie de Taylor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
2.4.1. Algunas series de Taylor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
2.4.2. La expansión binomial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
2.4.3. Sobre la función Gamma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
2.4.4. Taylor en varias variables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
or

2.4.5. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
2.4.6. Practicando con Maxima . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
2.4.7. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
2.5. Series de Fourier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
ad

2.5.1. Condiciones de Dirichlet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101


2.5.2. Consideraciones de simetrı́a en series de Fourier . . . . . . . . . . . . . . . . . . . . . . 103
2.5.3. El Fenómeno de Gibbs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
2.5.4. Corrección al fenómeno de Gibbs: Factor σ de Lanczos . . . . . . . . . . . . . . . . . . 105
2.5.5. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
rr

2.5.6. Practicando con Maxima . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108


2.5.7. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
Bo

3
ÍNDICE GENERAL

3. Series II 111
3.1. Series y espacios de Hilbert . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
3.1.1. Completitud de E ∞ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
3.1.2. Conjunto completo de funciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
3.1.3. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
3.1.4. Practicando con Maxima . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
3.1.5. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
3.2. Series de Laurent . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
3.2.1. Series de Taylor para funciones analı́ticas . . . . . . . . . . . . . . . . . . . . . . . . . 115

r
3.2.2. Las series de Laurent . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117

a
3.2.3. Integración por el método de los residuos: los residuos de Laurent . . . . . . . . . . . . 119
3.2.4. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
3.2.5. Practicando con Maxima . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123

in
3.2.6. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123
3.3. Teorema del Residuo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123
3.3.1. Integrales impropias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123
3.3.2. Evaluación de integrale realesRe impropias . . . . . . . . . . . . . . . . . . . . . . . . . 123

m

3.3.3. Integrales impropias del tipo −∞ dx f (x) . . . . . . . . . . . . . . . . . . . . . . . . . 124
3.3.4. Integrales de funciones racionales de cos θ y sen θ . . . . . . . . . . . . . . . . . . . . . 125
3.3.5. Integrales de Fourier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126
3.3.6. Otras integrales impropias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127

eli
3.3.7. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129
3.3.8. Practicando con Maxima . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130
3.3.9. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130
3.4. Tranformadas de Fourier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
Pr
3.4.1. Propiedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
3.4.2. Funciones pares e impares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132
3.4.3. Bases discreta y contı́nuas: la base de ondas planas . . . . . . . . . . . . . . . . . . . . 132
3.4.4. Tranformadas discretas de Fourier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134
3.4.5. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 136
3.4.6. Practicando con Maxima . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 136
3.4.7. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 136
or

4. PolinomiosOrtogonales 137
4.1. Series de Polinomios Ortogonales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138
4.1.1. Polinomios de Legendre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138
ad

4.1.2. Generalidades de los Polinomios de Legendre . . . . . . . . . . . . . . . . . . . . . . . 138


4.1.3. Relación de Recurrencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140
4.1.4. Norma de los Polinomios de Legendre . . . . . . . . . . . . . . . . . . . . . . . . . . . 142
4.1.5. Función Generatriz de los Polinomios de Legendre . . . . . . . . . . . . . . . . . . . . 143
4.1.6. Otras propiedades de los polinomios de Legendre . . . . . . . . . . . . . . . . . . . . . 145
rr

4.1.7. Potencial Electrostático de un Dipolo Eléctrico . . . . . . . . . . . . . . . . . . . . . . 146


4.1.8. Resumen de Propiedades Polinomios Legendre . . . . . . . . . . . . . . . . . . . . . . 147
4.1.9. Polinomios de Hermite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147
4.1.10. Generalidades de los Polinomios de Hemite . . . . . . . . . . . . . . . . . . . . . . . . 148
Bo

4.1.11. Función Generatriz de los Polinomios de Hermite . . . . . . . . . . . . . . . . . . . . . 151


4.1.12. Relación de Recurrencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152
4.1.13. Ortogonalidad y Norma de los Polinomios de Hermite . . . . . . . . . . . . . . . . . . 153

4
ÍNDICE GENERAL

4.1.14. Representación Integral de los Polinomios de Hermite . . . . . . . . . . . . . . . . . . 154


4.1.15. El Oscilador armónico, independiente del tiempo, en Mecánica Cuántica. . . . . . . . 154
4.1.16. Resumen de Propiedades Polinomios Hermite . . . . . . . . . . . . . . . . . . . . . . . 156
4.1.17. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156
4.1.18. Practicando con Maxima . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156
4.1.19. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156
4.2. Planteamiento General para Polinomios Ortogonales . . . . . . . . . . . . . . . . . . . . . . . 156
4.2.1. Producto interno genérico, norma y ortogonalidad . . . . . . . . . . . . . . . . . . . . 157
4.2.2. Fórmula de Rodrigues genelarizada . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157

r
4.2.3. Ejemplos de Polinomios Ortogonales . . . . . . . . . . . . . . . . . . . . . . . . . . . . 158

a
4.2.4. Relaciones de Recurrencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 158
4.2.5. Función generatriz generalizada . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 158
4.2.6. Ecuación diferencial para los Polinomios Ortogonales . . . . . . . . . . . . . . . . . . . 159

in
4.2.7. Aplicaciones para los polinomios ortogonales . . . . . . . . . . . . . . . . . . . . . . . 159
4.2.8. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 165
4.2.9. Practicando con Maxima . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 165
4.2.10. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 165

m
5. Ecuaciones diferenciales ordinarias 166
5.1. Motivación, origen y conceptos básicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167
5.1.1. Un ejemplo emblemático . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167

eli
5.1.2. Ejemplos de algunas ecuaciones diferenciales . . . . . . . . . . . . . . . . . . . . . . . 172
5.1.3. De ecuaciones y ecuaciones diferenciales . . . . . . . . . . . . . . . . . . . . . . . . . . 173
5.1.4. Orden y linealidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 173
5.1.5. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 174
Pr
5.1.6. Practicando con Maxima . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 174
5.1.7. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 174
5.2. Sobre las soluciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 174
5.2.1. Soluciones explı́citas e implı́citas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 174
5.2.2. Soluciones generales y particulares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 175
5.2.3. Familia de soluciones n−paramétricas . . . . . . . . . . . . . . . . . . . . . . . . . . . 176
5.2.4. Solución particular, valores iniciales y valores de contorno . . . . . . . . . . . . . . . . 176
or

5.2.5. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 177


5.2.6. Practicando con Maxima . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 177
5.2.7. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 177
ad

6. Ecuaciones diferenciales de orden 1 178


6.1. Soluciones analı́ticas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 179
6.1.1. Métodos elementales de integración . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 179
6.1.2. Ecuaciones diferenciales separables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181
6.1.3. Variaciones sobre separabilidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 182
rr

6.1.4. Ecuaciones diferenciales no separables . . . . . . . . . . . . . . . . . . . . . . . . . . . 183


6.1.5. Método de las isoclinas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185
6.1.6. Ecuaciones diferenciales homogéneas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 186
6.1.7. Ecuaciones isóbaras . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 188
Bo

6.1.8. Ecuaciones diferenciales exactas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 189


6.1.9. Ecuaciones diferenciales lineales de orden 1 . . . . . . . . . . . . . . . . . . . . . . . . 192
6.1.10. Ecuaciones diferenciales no lineales y el factor integrador . . . . . . . . . . . . . . . . 193

5
ÍNDICE GENERAL

6.1.11. Ecuación de Bernoulli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 195


6.1.12. Ecuación de Riccati . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 196
6.1.13. Un tipo muy especial de ecuación diferencial no lineal . . . . . . . . . . . . . . . . . . 198
6.1.14. Solución paramétrica: ecuaciones no resueltas respecto a la derivada . . . . . . . . . . 199
6.1.15. El método de las envolventes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 202
6.1.16. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 204
6.1.17. Practicando con Maxima . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 210
6.1.18. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 210
6.2. Soluciones numéricas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 212

r
6.2.1. Las ideas generales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 212

a
6.2.2. Métodos y su clasificación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 213
6.2.3. La idea de la integración y los métodos . . . . . . . . . . . . . . . . . . . . . . . . . . 214
6.2.4. El método de Euler y el problema de valores iniciales . . . . . . . . . . . . . . . . . . . 215

in
6.2.5. Los métodos de Runge-Kutta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 215
6.2.6. Métodos multipaso . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 218
6.2.7. Control del paso . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 221
6.2.8. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 223

m
6.2.9. Practicando con Maxima . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 223
6.2.10. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 223
6.3. Algunas aplicaciones de ecuaciones diferenciales de primer orden . . . . . . . . . . . . . . . . 223
6.3.1. Ley de Malthus y el decaimiento radioactivo . . . . . . . . . . . . . . . . . . . . . . . . 223

eli
6.3.2. La ecuación logı́stica o ley de Verhulst . . . . . . . . . . . . . . . . . . . . . . . . . . . 224
6.3.3. La Ley de enfriamiento de Newton . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 225
6.3.4. Interés compuesto. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 226
6.3.5. Mecánica elemental . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 228
Pr
6.3.6. Movimientos con aceleración constante . . . . . . . . . . . . . . . . . . . . . . . . . . . 228
6.3.7. Modelado de concentraciones de soluciones . . . . . . . . . . . . . . . . . . . . . . . . 232
6.3.8. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 234
6.3.9. Practicando con Maxima . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 234
6.3.10. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 234

7. Ecuaciones diferenciales ordinarias de orden mayor a 1 235


or

7.1. Lineales homogéneas con coeficientes constantes . . . . . . . . . . . . . . . . . . . . . . . . . . 237


7.1.1. Las raı́ces de la ecuación caracterı́stica son todas diferentes . . . . . . . . . . . . . . . 239
7.1.2. Las raı́ces de la ecuación caracterı́stica se repiten . . . . . . . . . . . . . . . . . . . . . 239
7.1.3. Las raı́ces de la ecuación caracterı́stica son números complejos . . . . . . . . . . . . . 240
ad

7.1.4. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 240


7.1.5. Practicando con Maxima . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 241
7.1.6. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 241
7.2. Lineales no homogéneas con coeficientes constantes . . . . . . . . . . . . . . . . . . . . . . . . 241
7.2.1. El wronskiano . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 242
rr

7.2.2. El método de los coeficientes indeterminados . . . . . . . . . . . . . . . . . . . . . . . 243


7.2.3. Método de la variación de parámetros . . . . . . . . . . . . . . . . . . . . . . . . . . . 247
7.2.4. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 249
7.2.5. Practicando con Maxima . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 253
Bo

7.2.6. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 253


7.3. Lineales no homogéneas con coeficientes no constantes . . . . . . . . . . . . . . . . . . . . . . 253
7.3.1. Método de reducción del orden . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 253

6
ÍNDICE GENERAL

7.3.2. La ecuación de Euler . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 255


7.3.3. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 258
7.3.4. Practicando con Maxima . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 258
7.3.5. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 258
7.4. El operador diferencial y las ecuaciones diferenciales . . . . . . . . . . . . . . . . . . . . . . . 260
7.4.1. El operador diferencial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 260
7.4.2. Solución de ecuaciones diferenciales lineales con el operador polinomial . . . . . . . . . 262
7.4.3. El operador inverso . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 263
7.4.4. El operador polinomial inverso y fracciones parciales . . . . . . . . . . . . . . . . . . . 264

r
7.4.5. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 265

a
7.4.6. Practicando con Maxima . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 267
7.4.7. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 267
7.5. Ecuaciones diferenciales y las transformadas de Laplace . . . . . . . . . . . . . . . . . . . . . 267

in
7.5.1. Algunas definiciones previas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 267
7.5.2. Transformada de Laplace . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 268
7.5.3. Transformadas de Laplace y las ecuaciones diferenciales lineales . . . . . . . . . . . . . 268
7.5.4. Integral de Convolución . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 271

m
7.5.5. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 272
7.5.6. Practicando con Maxima . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 275
7.5.7. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 275
7.6. Algunas aplicaciones de las ecuaciones de orden superior . . . . . . . . . . . . . . . . . . . . . 275

eli
7.6.1. Mecánica y Electricidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 275
7.6.2. Oscilaciones libres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 276
7.6.3. Oscilaciones libres amortiguadas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 277
7.6.4. Oscilaciones forzadas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 279
Pr
7.6.5. Oscilaciones forzadas amortiguadas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 281
7.6.6. Movimiento alrededor de un punto de equilibrio . . . . . . . . . . . . . . . . . . . . . . 284
7.6.7. Péndulo simple con desplazamiento finito . . . . . . . . . . . . . . . . . . . . . . . . . 285
7.6.8. Digresión elı́ptica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 291
7.6.9. ¿Cuán buena es la aproximación lineal? . . . . . . . . . . . . . . . . . . . . . . . . . . 294
7.6.10. El péndulo fı́sico: integración numérica . . . . . . . . . . . . . . . . . . . . . . . . . . . 295
7.6.11. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 297
or

7.6.12. Practicando con Maxima . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 297


7.6.13. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 297

8. Sistemas de ecuaciones diferenciales 299


ad

8.1. Algunos comentarios iniciales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 300


8.1.1. Notación matricial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 302
8.1.2. Sistemas lineales homogéneos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 302
8.1.3. Sistemas lineales inhomogéneos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 306
8.1.4. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 308
rr

8.1.5. Practicando con Maxima . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 308


8.1.6. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 308
8.2. Sistemas de ecuaciones diferenciales y el uso de operadores . . . . . . . . . . . . . . . . . . . . 309
8.2.1. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 315
Bo

8.2.2. Practicando con Maxima . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 315


8.2.3. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 315
8.3. Sistemas y la transformada de Laplace . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 316

7
ÍNDICE GENERAL

8.3.1. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 318


8.3.2. Practicando con Maxima . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 318
8.3.3. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 318

9. Métodos de soluciones por series 319


9.1. Otra vez las series . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 320
9.1.1. Método de Diferenciaciones Sucesiva . . . . . . . . . . . . . . . . . . . . . . . . . . . . 323
9.1.2. Métodos de los Coeficientes Indeterminados . . . . . . . . . . . . . . . . . . . . . . . . 324
9.1.3. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 325

r
9.1.4. Practicando con Maxima . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 326
9.1.5. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 326

a
9.2. Los Puntos y las Estrategias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 326
9.2.1. Ecuaciones e intervalos en puntos regulares . . . . . . . . . . . . . . . . . . . . . . . . 327

in
9.2.2. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 329
9.2.3. Practicando con Maxima . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 329
9.2.4. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 329
9.3. El Método de Frobenius . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 330

m
9.3.1. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 342
9.3.2. Practicando con Maxima . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 342
9.3.3. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 342
9.4. Revisitando a Bessel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 343

eli
9.4.1. Otras formas de la ecuación de Bessel . . . . . . . . . . . . . . . . . . . . . . . . . . . 348
9.4.2. Relaciones de recurrencia: . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 349
9.4.3. Funciones de Bessel y las funciones elementales . . . . . . . . . . . . . . . . . . . . . . 349
9.4.4. Reflexión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 350
Pr
9.4.5. Función generatriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 351
9.4.6. Representación integral para las funciones de Bessel . . . . . . . . . . . . . . . . . . . 351
9.4.7. Ortogonalidad de las funciones de Bessel . . . . . . . . . . . . . . . . . . . . . . . . . . 352
9.4.8. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 353
9.4.9. Practicando con Maxima . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 353
9.4.10. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 353
or

[Link] Especiales 354


10.1. Función Gamma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 355
10.2. La Funciones Digamma y Poligamma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 359
10.3. La aproximación de Stirling . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 360
ad

10.4. La función Beta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 361


10.5. La función integral de probabilidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 361
10.5.1. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 362
10.5.2. Practicando con Maxima . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 362
10.5.3. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 362
rr

[Link] problema de Sturm-Liuoville 363


11.1. El problema de Sturm-Liuoville . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 364
11.1.1. Cálculo Operacional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 364
Bo

11.1.2. Operadores diferenciales de segundo orden . . . . . . . . . . . . . . . . . . . . . . . . . 365


11.1.3. Operadores diferenciales autoadjuntos . . . . . . . . . . . . . . . . . . . . . . . . . . . 366
11.1.4. El Sistema Sturm-Liouville . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 368

8
ÍNDICE GENERAL

11.1.5. Función de Green . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 373


11.1.6. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 375
11.1.7. Practicando con Maxima . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 375
11.1.8. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 375

[Link]́ndice 376
12.1. Introducción a los CAS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 377
12.2. Maxima: Sintaxis básica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 379
12.2.1. Cálculos elementales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 381

r
12.2.2. Bibliotecas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 392
12.2.3. Maxima en modo texto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 396

a
12.2.4. Invocando la ayuda . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 397
12.2.5. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 398

in
m
eli
Pr
or
ad
rr
Bo

9
Capı́tulo 1

ar
Variable Compleja

in
m
eli
Pr
or
ad
rr
Bo

10
1.1. FUNCIONES DE VARIABLE COMPLEJA

1.1. Funciones de Variable Compleja


La teorı́a de funciones de variable compleja se dedica al estudio de funciones que están definidas en el
plano de los números complejos. Estas funciones, denominadas holomorfas, se definen en una región abierta
del plano complejo, toman valores complejos y además son diferenciable en cada punto de esta región abierta
con derivadas continuas. Como veremos, el concepto de derivada de funciones en variable compleja implica
un desarrollo teórico más complicado que su contraparte de funciones en variable real.
En los cursos previos de cálculo, seguramente vimos el concepto de función analı́tica: función que es
equivalente a una serie de potencias (serie de Taylor) convergente, suave (existen todas las derivadas de

r
todos los órdenes) y con infinitas derivadas. Esta noción se puede extender a cálculo en variable compleja
pero con otras propiedades.

a
En variable compleja, las funciones infinitamente diferenciables, en una región abierta siempre son analı́ti-
cas, y se denominan funciones holomorfas. Es decir, toda función holomorfa permite una representación en

in
serie de potencias en algún disco abierto donde la serie converge a la función. Si la serie de potencias converge
en todo el plano complejo se dice que la función es una función entera. Recordemos que no toda función de
variable real infinitamente derivable es necesariamente analı́tica. En otras palabras, toda función holomorfa
cumple con la definición de función analı́tica pero no toda función analı́tica es holomorfa.

m
El cálculo en variable compleja surge de manera natural en diferentes ramas de la matemática aplicada,
la mecánica cuántica, geometrı́a algebraica, combinatoria analı́tica, la teorı́a de números.

1.1.1. De la recta real al plano complejo

eli
La idea de función de variable (o variables) reales puede ser extendida (continuada, le dicen también)
al plano complejo. La idea es la de siempre: si en una determinada región del plano complejo a un número
complejo z le corresponde un número (o varios números) complejos w = f (z), diremos que f (z) es una
función de variable compleja z. Obvio que f (z) puede ser biyectiva, en cuyo caso tendremos que a z le estará
Pr
asociado uno y solo un número complejo w = f (z). Es claro también que siempre se podrá expresar

f (z) = w = u(x, y) + iv(x, y) , (1.1)

con u(x, y) la parte real y v(x, y) la parte imaginaria. Es decir, toda función en variable compleja

f :C→C
or

se puede descomponer en dos partes

u : R2 → R y v : R2 → R
ad

Esta representación tiene una interpretación adicional. Como representamos un número complejo en el
plano 0xy como z = x + iy, pero w = f (z) también podrá ser representada como un punto en el plano 0uv.
Entonces, desde el punto de vista geométrico una función de variable compleja podrá ser entendida como
una ley de transformación entre pares de puntos (x, y) del plano 0xy del argumento z y los puntos (u, v) del
rr

plano 0uv de valor w.

1.1.2. Continuidad en el plano complejo


Bo

Podemos también extender el concepto de continuidad de una función de variable real a una función
de variable compleja. Esto es: diremos que una función compleja1 w = f (z) será continua en z0 si para un
1A partir de ahora y por razones de simplicidad llamaremos a f (z) función compleja en vez de función de variable compleja.

11
1.1. FUNCIONES DE VARIABLE COMPLEJA

 > 0 siempre existe un δ > 0 tal que |z − z0 | < δ tan pequeño como uno quiera y siempre puede encontrar
|f (z) − f (z0 )| < . La otra manera de verlo es la estándar: si existe el lı́mite cuando z → z0 , es decir,

lı́m f (z) = f (z0 ) . (1.2)


z→z0

En este punto se pueden resaltar que los lı́mites (y con ello la idea de continuidad) en el plano complejo
hereda las sutilezas y dificultades de los lı́mites y continuidades de las funciones en varias variables. En
segundo lugar cabe señalar que la diferencia con las funciones de variable real radica en que los  y δ son

r
radios de un cı́rculo centrado en f (z0 ) y z0 , respectivamente. Adicionalmente, para el caso de las funciones
complejas no tiene sentido los lı́mites por la derecha y por la izquierda que planteábamos para funciones de

a
variable real. También es obvio que si

f (z) = u(x, y) + iv(x, y) , con u(x, y) y v(x, y) continuas en (x0 , y0 ) (1.3)

in
entonces f (z) será continua en z0 = x0 + iy0 .

1.1.3. Diferenciabilidad de funciones complejas

m
La dificultad que subyace en esta definición es equivalente a las dificultades que enfrentamos en las defi-
niciones de derivadas para funciones de varias variables. Diremos entonces que, una función f (z) univaluada
en una región S será diferenciable en esa región si la derivada

eli
df f (z + ∆z) − f (z)
f 0 (z) = = lı́m
dz ∆z→0 ∆z
[u(x + ∆x, y + ∆y) − u(x, y)] + i [v(x + ∆x, y + ∆y) − v(x, y)]
= lı́m , (1.4)
∆x + i∆y
∆x,∆y→0
Pr
existe y es única.
Una vez más, al igual que en el caso de funciones de varias variables, el concepto de lı́mite (y con éste
el de derivada), debe existir sin importar la ruta o forma de aproximación al punto sobre el cual estamos
calculando la derivada. Esto es, si ∆z → 0 ⇔ ∆x + i∆y → 0, entonces

[u(x + ∆x, y) − u(x, y)] + i [v(x + ∆x, y) − v(x, y)]


f 0 (z)∆y=0
or

= lı́m ,
∆x→0 ∆x
[u(x, y + ∆y) − u(x, y)] + i [v(x, y + ∆y) − v(x, y)]
f 0 (z)∆x=0 = −i lı́m .
∆y→0 ∆y
ad

1.1.4. Funciones analı́ticas y condiciones de Cauchy-Riemann


Diremos que una función es analı́tica (holomorfa o regular) en una región S, si es univaluada y derivable
en todos los puntos dentro de esa misma región S. Puede darse el caso de que sea analı́tica en la región
excepto en un número finito de puntos (donde es singular). Entonces diremos que es es analı́tica (holomorfa
rr

o regular) en S, excepto en esos puntos.


Una función se denomina una función entera si ésta es analı́tica en todos los puntos del plano finito, como
por ejemplo, los polinomios.
A partir de dos estrategias (muy particulares) de aproximación a ∆z → 0 tales como ∆y = 0; ∆x → 0
Bo

o ∆x = 0; ∆y → 0, podremos encontrar un criterio para identificar dónde, una función compleja, f (z), es
analı́tica. Esto es

12
1.1. FUNCIONES DE VARIABLE COMPLEJA

[u(x + ∆x, y) − u(x, y)] + i [v(x + ∆x, y) − v(x, y)]


f 0 (z)∆y=0 = lı́m
∆x
∆x→0

∆u(x, y) ∆v(x, y)
= lı́m +i ,
∆x→0 ∆x ∆x

[u(x, y + ∆y) − u(x, y)] + i [v(x, y + ∆y) − v(x, y)]


f 0 (z)∆x=0 = −i lı́m

r
∆y→0 ∆y
 
∆u(x, y) ∆v(x, y)

a
= lı́m −i + ,
∆y→0 ∆y ∆y

in
y ambas tienen que coincidir. Con lo cual
   
∆u(x, y) ∆v(x, y) ∆u(x, y) ∆v(x, y)
f 0 (z)∆y=0 = f 0 (z)∆x=0 ⇔ lı́m +i = lı́m −i + ,
∆x→0 ∆x ∆x ∆y→0 ∆y ∆y

m
y equivalentemente

∂u(x, y) ∂v(x, y) ∂u(x, y) ∂v(x, y)


f 0 (z)∆y=0 = f 0 (z)∆x=0 ⇔ +i = −i + . (1.5)
∂x ∂x ∂y ∂y

eli
Con ello hemos encontrado las condiciones necesarias para que una función compleja sea analı́tica, vale
decir: Las condiciones de Cauchy Riemann

∂u(x, y) ∂v(x, y)
Pr ∂v(x, y) ∂u(x, y)
= ∧ =− . (1.6)
∂x ∂y ∂x ∂y

Ahora tendremos un criterio más expedito para determinar que una función, como: f (z) = 2x + iy no es
analı́tica.
or


u(x, y) = 2x ∂u(x, y) ∂v(x, y) ∂v(x, y) ∂u(x, y)
⇒ = 2 6= 1 = ∧ =0=0=−
v(x, y) = y ∂x ∂y ∂x ∂y

Para el caso f (z) = x2 − y 2 + 2ixy se cumplen las condiciones de Cauchy-Riemann


ad

u(x, y) = x2 − y 2

∂u(x, y) ∂v(x, y) ∂v(x, y) ∂u(x, y)
⇒ = 2x = ∧ = 2y = − .
v(x, y) = 2xy ∂x ∂y ∂x ∂y

pero como esas condiciones son necesarias porque para encontrarlas hemos seleccionado un par de rutas
muy especı́ficas: ∆y = 0; ∆x → 0 y ∆x = 0; ∆y → 0, se requiere exigir algunas condiciones adicionales.
rr

Sin demostración (puede consultar para detalles y demostraciones las referencias indicadas) exigiremos como
condición necesaria y suficiente para que una función sea analı́tica que las cuatro derivadas parciales para
u(x, y) y v(x, y), existan, sean continuas en la región S y que se cumplan las condiciones de Cauchy-Riemann.
Bo

El punto crucial (adicional) es que las derivadas sean continuas.

13
1.1. FUNCIONES DE VARIABLE COMPLEJA

1.1.5. Curiosidades de Cauchy-Riemann


Las funciones analı́ticas satisfacen algunas propiedades adicionales consecuencias de las condiciones de
Cauchy-Riemann.
La primera es que dada una función compleja genérica f (z) = u(x, y) + iv(x, y), si f (z) es analı́tica,
u(x, y) y v(x, y) serán funciones armónicas conjugadas:

∇2 u(x, y) = ∇2 v(x, y) = 0 ,

r
es decir, satisfacen la ecuación de Laplace. Si derivamos apropiadamente las ecuaciones (1.6) respecto a una
y otra variable encontramos que

a
∂ 2 u(x, y) ∂ 2 u(x, y)
       
∂ ∂u(x, y) ∂ ∂v(x, y) ∂ ∂v(x, y) ∂ ∂u(x, y)
= = =− ⇒ + = 0,
∂x ∂x ∂x ∂y ∂y ∂x ∂y ∂y ∂x2 ∂y 2

in
y equivalentemente

∂ 2 v(x, y) ∂ 2 v(x, y)
       
∂ ∂v(x, y) ∂ ∂u(x, y) ∂ ∂u(x, y) ∂ ∂v(x, y)
=− =− =− ⇒

m
+ = 0,
∂x ∂x ∂x ∂y ∂y ∂x ∂y ∂y ∂x2 ∂y 2

por lo tanto, hemos demostrado que las partes reales e imaginarias de una función analı́tica son necesa-
riamente armónicas. La importancia de este resultado radica, en primer lugar, que no son arbitrarias las

eli
funciones u(x, y) y v(x, y) con las cuales construimos f (z). Ambas deben satisfacer la ecuación de Laplace.
En segundo lugar u(x, y) y v(x, y) están ligadas por las condiciones de Cauchy-Riemann, y esto implica
que al conocer una de las funciones armónicas conjugadas, siempre es posible encontrar (salvo una constante
de integración) la otra.
Para ilustrar lo anterior, supongamos la siguiente función armónica conjugada u(x, y) = 2x − x3 + 3xy 2
Pr
correspondiente a la parte real de f (z). Es fácil comprobar que es una función armónica, ahora construyamos
la parte imaginaria v(x, y). Esto es

∂u(x, y) ∂v(x, y)
u(x, y) = 2x − x3 + 3xy 2 ⇒ = = 2 − 3x2 + 3y 2 ⇒ v(x, y) = 2y − 3x2 y + y 3 + φ(x) ,
∂x ∂y
entonces
or

∂v(x, y) ∂φ(x) ∂u(x, y) ∂φ(x)


= −6xy+ = −6xy = − ⇒ = 0 ⇒ φ(x) = C ⇒ v(x, y) = 2y−3x2 y+y 3 +C .
∂x ∂x ∂y ∂x

La segunda curiosidad, consecuencia de las ecuaciones (1.6), es que para una función compleja genérica
ad

f (z) = u(x, y) + iv(x, y), en la cual además se cumple que u(x, y) = const y v(x, y) = const, entonces se
cumplirá que: ∇u(x, y) · ∇v(x, y) = 0.
  
∂u(x, y) ∂u(x, y) ∂v(x, y) ∂v(x, y) ∂u(x, y) ∂v(x, y) ∂u(x, y) ∂v(x, y)
∇u(x, y)·∇v(x, y) = i+ j · i+ j = + ,
∂x ∂y ∂x ∂y ∂x ∂x ∂y ∂y
rr

y por obra de las condiciones de Cauchy-Riemann es inmediato comprobar que se anulan

∂u(x, y) ∂u(x, y) ∂u(x, y) ∂u(x, y)


∇u(x, y) · ∇v(x, y) = −
Bo

+ = 0.
∂x ∂y ∂y ∂x

Es decir, u(x, y) =const y v(x, y) =const, corresponden a trayectorias mutuamente ortogonales. Esta “cu-
riosidad” nos permite construir sistemas de coordenadas alternativos en el plano complejo y, sobre todo

14
1.1. FUNCIONES DE VARIABLE COMPLEJA

saber como establecer su transformación a otros planos complejos. Esto se representa en la Figura 1.2 y será
considerado en la sección 1.2.3 de la página 25.
La tercera curiosidad es un resultado el cual, siendo una formalidad, nos indica que las funciones analı́ticas
f (z) dependen de z y no de su conjugado z ∗ . O dicho de otra manera: z y z ∗ son variables independientes.
Para demostrar esto procedemos primero a convencernos que si f (z) = u(x, y) + iv(x, y) y f (z) analı́tica,
entonces ∂f (z)
∂z ∗ = 0. Sin detenernos a pensar en el significado de la derivada respecto a la variable conjugada,
recordamos que operacionalmente
z + z∗ 

r
x= 
2
    
 ∂f (z) ∂f (z) ∂x ∂f (z) ∂y 1 ∂u(x, y) ∂v(x, y) 1 ∂u(x, y) ∂v(x, y)
⇒ = + = + i − + i ,

a
z − z∗   ∂z ∗ ∂x ∂z ∗ ∂y ∂z ∗ 2 ∂x ∂x 2i ∂y ∂y
y= 

2i

in
arreglando términos tendremos que es inmediato comprobar que se anula si se cumplen las condiciones (1.6)

z + z∗ z − z∗
     
∂f (z) 1 ∂u(x, y) ∂v(x, y) i ∂u(x, y) ∂v(x, y)
= − + + = 0 ⇒ f (z) 6⇔ f (x, y) = f , ,
∂z ∗ 2 ∂x ∂y 2 ∂y ∂x 2 2i

m
en otras palabras, la funciones analı́ticas son verdaderas funciones de variable complejas y no, como pudiera
parecer, de dos variables reales interpuestas.

eli
1.1.6. Ejemplos
1. Sea f (z) = x2 − y 2 + 2ixy

f (z + ∆z) − f (z) (x + ∆x)2 − (y + ∆y)2 + 2i(x + ∆x)(y + ∆y) − x2 + y 2 − 2ixy


f 0 (z) = lı́m
∆z→0 ∆z
= lı́m
∆x,∆y→0
Pr ∆x + i∆y

se puede probar que independientemente de la ruta en el plano complejo (∆y = 0 ; ∆x → 0 o viceversa)


resulta:
(∆x)2 − (∆y)2 + 2i∆x∆y
 
0
f (z) = lı́m 2x + i2y + = 2x + i2y ,
∆x,∆y→0 ∆x + i∆y
or

que es más o menos obvio si hubiéramos notado que f (z) = x2 − y 2 + 2ixy = (x + iy)2 ≡ z 2 , con lo
cual
(z + ∆z)2 − z 2 2z∆z + (∆z)2
f 0 (z) = lı́m = lı́m = lı́m (2z + ∆z) = 2z .
∆z→0 ∆z ∆z→0 ∆z ∆z→0
ad

2. Ahora bien, las cosas no siempre son ası́. Si consideramos f (z) = 2x + iy es rápido comprobar que no
es diferenciable en el plano complejo, ya que

2x + 2∆x + i(y + ∆y) − 2x − iy 2∆x + i∆y


f 0 (z) = lı́m = lı́m ,
∆x,∆y→0 ∆x + i∆y ∆x,∆y→0 ∆x + i∆y
rr

el cual, claramente no coincide si las direcciones de aproximación a z0 = x0 + iy0 son distintas, vale
decir, por ejemplo: ∆y = 0; ∆x → 0 o ∆x = 0; ∆y → 0.
Como heredamos todas las ideas y métodos del campo real se cumplen todas las reglas de la derivación
Bo

para funciones reales. Vale decir

d df (z) dg(z) d df (z) dg(z) d df (g) dg(z)


(f (z)+g(z)) = + ; (f (z)g(z)) = g(z)+f (z) ; (f (g(z)) = .
dz dz dz dz dz dz dz dg dz

15
1.1. FUNCIONES DE VARIABLE COMPLEJA

3. Las potencias de enteros positivos: 1, z, z 2 , . . . son analı́ticos en todo el plano complejo, al igual que
los polinomios como:
f (z) = c0 + c1 z + c2 z 2 + · · · + cn z n ,
donde: c0 , c1 ...cn son constantes complejas.
Para la función racional
g(z)
f (z) = ,
h(z)

r
tenemos que f (z) será analı́tica si g(z) y h(z) son analı́ticas, salvo en los puntos donde h(z) = 0.

4. Dada la función

a
f (z) = ex (cos(y) + isen(y))

in
podemos ver que:

∂u(x, y) ∂u(x, y) ∂v(x, y) ∂v(x, y)


= ex cos(y) , = −ex sen(y) , = ex cos(y) , = ex sen(y) ,
∂x ∂y ∂x ∂y

m
por lo que se cumplen las condiciones de Cauchy-Riemann, por lo tanto f (z) es analı́tica para todo z.

5. Si tenemos una función f (z) analı́tica en un dominio D, y si además |f (z)| = C constante en D,


entonces f (z) es constante.

eli
Como asumimos que |f (z)|2 = |u + iv|2 = u2 + b2 = C 2 , entonces, derivando

∂u ∂v ∂u ∂v
u +v =0 y u +v = 0.
∂x ∂x ∂y ∂y

Como ∂v
∂x = − ∂u
∂y y
∂v
∂y = ∂u
∂x , resulta:
Pr
∂u ∂u ∂u ∂v
u −v =0 y u −v = 0.
∂x ∂y ∂y ∂x
que podemos convertir en:
or

 ∂u  ∂u
u2 + v 2 =0 y u2 + v 2 = 0.
∂x ∂y

Podemos ver que si C 2 = u2 + b2 = 0 entonces u = v = f = 0. Si por el contrario C 2 = u2 + b2 6= 0,


ad

entonces ∂u ∂u ∂u ∂v
∂x = ∂y = 0 y por las condiciones de Cauchy-Riemann también se tiene que ∂x = ∂y = 0, es
decir, u y v son constantes, por lo que f es constante.
6. Si utilizamos la forma polar para z = r (cos(θ) + isen(θ)) entonces f (z) = u(r, θ) + iv(r, θ) y las
condiciones de Cauchy-Riemann quedan de la forma
rr

∂u 1 ∂v ∂v 1 ∂u
= y =− .
∂r r ∂θ ∂r r ∂θ
Bo

16
1.1. FUNCIONES DE VARIABLE COMPLEJA

1.1.7. Practicando con Maxima


El programa de manipulación simbólica Maxima está diseñado para realizar una gran cantidad de
cálculos algebraicos y numéricos. Es indispensable ir al apéndice 12.1 para familiarizarnos con la sintaxis
básica del programa.
Maxima es una potente calculadora y maneja números de diferentes tipos: enteros,√ racionales, irracio-
nales, complejos y números con decimales (punto flotante). El número complejo i = −1 se introduce como
%i.

r
( % i1) %iˆ2;

a
−1 ( % o1)

in
( % i2) (x + %i*y)*(u - %i*v);

(u − iv) (iy + x) ( % o2)

m
( % i3) expand( %);

vy + iuy − ivx + ux ( % o3)

eli
( % i4) gfactor( %);
Pr(v + iu) (y − ix) ( % o4)

( % i5) rectform(exp(1 + %i));

ei sin (1) + e cos (1) ( % o5)

( % i6) gfactor( %);

ei (sin (1) − i cos (1)) ( % o6)


or

En variable compleja la función logaritmo se define en el intervalo (π, -π] (El logaritmo principal)
( % i7) rectform(log(1 + %i));
ad

log (2) iπ
+ ( % o7)
2 4
El valor absoluto
( % i8) cabs(x + %i*y);
rr

p
y 2 + x2 ( % o8)

La forma polar de
Bo

( % i9) polarform(x + %i*y);


p
y 2 + x2 ei atan2(y,x) ( % o9)

17
1.1. FUNCIONES DE VARIABLE COMPLEJA

( % i10) exponentialize(cos(1 + %i));

ei(i+1) + e−i(i+1)
( % o10)
2

( % i11) demoivre(exp(x + %i*y));

ex (i sin (y) + cos (y)) ( % o11)

r
( % i12) f(z):=z*exp(1/z);

a
 
1
f(z) := z exp ( % o12)

in
z

( % i14) realpart(f(z)); imagpart(f(z));

m
1
z ez ( % o13)

0 ( % o14)

eli
( % i16) u:realpart(f(x + %i*y)); v:imagpart(f(x + %i*y));
   
x y x y
y e y2 +x2 sin + x e y 2 +x2 cos (u)
y 2 + x2 y 2 + x2

Pr   
x y x y
ye y 2 +x2 cos − xe y 2 +x2 sin (v)
y + x2
2 y + x2
2

( % i17) ’diff(f(z),z)=diff(f(z),z) ;
1
d  1 1 ez
or

ze z =e −
z ( % o17)
dz z
Las condiciones Cauchy-Riemann
( % i18) diff(u,x) - diff(v,y)=0, ratsimp;
ad

0=0 ( % o18)

( % i19) diff(v,x) + diff(u,y)=0, ratsimp;


rr

0=0 ( % o19)

Dada la siguiente función


Bo

( % i20) u:(xˆ2 - yˆ2)/(xˆ2 + yˆ2)ˆ2;

x2 − y 2
2 (u)
(y 2 + x2 )

18
1.1. FUNCIONES DE VARIABLE COMPLEJA

Revisemos para ver si es armónica


( % i21) u xx: diff (u,x,2),factor;
 
6 y 2 − 2xy − x2 y 2 + 2xy − x2
4 (u xx)
(y 2 + x2 )

( % i22) u yy: diff (u,y,2),factor;

r
 
6 y 2 − 2xy − x2 y 2 + 2xy − x2
− 4 (u yy)
(y 2 + x2 )

a
( % i23) u xx + u yy;

in
0 ( % o23)

Por lo tanto podemos proceder a encontrar la función v(x, y)

m
( % i24) u x: diff(u,x),factor;

2x 3y 2 − x2
3 (u x)
(y 2 + x2 )

eli
( % i25) u y:diff(u,y),factor;

2y y 2 − 3x2
3 (u y)
(y 2 + x2 )
Pr
( % i26) Int:integrate(u x,y)$
( % i27) φ: -integrate(u y,x) - integrate(diff(Int,x),x), factor;

0 (φ)
or

( % i28) v: integrate(u x,y) + φ, factor;


2xy
− 2 (v)
(y 2 + x2 )
ad

Revisamos que satisface las condiciones de Cauchy-Riemann


( % i29) diff(u,x) - diff(v,y), factor;

0 ( % o29)
rr

( % i30) diff(v,x) + diff(u,y), factor;

0 ( % o30)
Bo

( % i31) kill(all)$

19
1.1. FUNCIONES DE VARIABLE COMPLEJA

1.1.8. Ejercicios
1. Investigar los dominios del plano complejo para los cuales las funciones f (z) = |x| − i|y| y f (z) = |z|2 =
zz ∗ son analı́ticas.
2. Determine la función f (z) analı́tica cuya parte imaginaria es [y cos(y) + xsen(z)]ex
3. Muestre que si f (z) es analı́tica entonces f ∗ (z ∗ ) también lo es.
4. Encuentre las derivadas

r
a) (z − i)/(z + i) en i

a
b) (z − 4i)8 en 3 + 4i
c) (1,5z + 2i)/(3iz − 4) para todo z.

in
d) i(1 − z)n en 0
e) (iz 3 + 3z 2 )3 en 2i
f) z 3 /(z + i)3 en i

m
Cuales de las siguientes funciones son analı́ticas
a) f (z) = izz ∗
b) f (z) = e−2x (cos(2y) − isen(2y))

eli
c) f (z) = ex (cos(y) − isen(y))
 
d) f (z) = Re z 2 − i Im z 2

e) f (z) = 1/ z − z 5
f ) f (z) = ln |z| + i Arg(z)
Pr
g) f (z) = cos(x) cosh(y) − i sen(x)senh(y)
5. Cuales de las siguientes funciones son armónicas y encuentre la función analı́tica correspondiente si es
el caso.
a) u = x2 + y 2
b) u = sen(x) cosh(y)
or

c) v = ex sen(2y)

d) v = x/ x2 + y 2
6. Para que valores de a y b las siguientes funciones son armónicas. Encuentre la conjugada
ad

a) u = eπx cos(av)
b) u = cos(ax) cosh(2y)
c) u = cosh(ax) cos(y)
rr

d) u = ax3 + bxy
7. Escriba un programa para graficar lineas equipotenciales u = constante de una función armónica y de
su conjugada v en los mismos ejes. Aplique el programa a las siguientes funciones:
Bo

a) u = x2 − y 2 y v = 2xy
b) u = x3 − 3xy 2 y v = 3x2 y − y 3
c) u = ex cos(y) y v = ex sen(y)

20
1.2. PUNTOS, LÍNEAS DE CORTE Y CEROS DE FUNCIONES COMPLEJAS

1.2. Puntos, lı́neas de corte y ceros de funciones complejas


Hemos mencionamos anteriormente, que los números complejos se representan por su forma polar en dos
ejes coordenados. Ese diagrama bidimensional lo llamamos Diagrama de Argand. Como en el caso del análisis
de funciones reales, existen funciones multivaluadas, a las cuales les debemos imponer ciertas condiciones
para convertirlas en univaluadas; si una función es multivaluada, automáticamente deja de ser analı́tica. El
objetivo de esta sección es identificar ese conjunto de condiciones para detectar en cuál región del plano
complejo una determinada función es univaluada.
Recordemos que una función será univaluada si para cada punto z del plano complejo existe uno y solo

r
un punto imagen w en el plano complejo de llegada. El mapeo de dirá que es uniforme o univaluado. Si por
le contrario, para cada valor de la variable z existen más de un valor de la variable w se dirá que el mapeo

a
es multivaluado. Tal vez el ejemplo más sobresaliente de funciones multivaluadas es la función logaritmo.
2
También debemos tener en cuenta la topologı́a del p plano complejo, aunque es similar a R existen dife-

in
2 2
rencias. Si z = x + iy ∈ C entonces su módulo |z| = x + y coincide con el modulo de un vector del plano
complejo. Por lo tanto, si un punto z0 ∈ C es dado y r > 0, se puede definir una bola abierta centrada en z0
y radio r como el conjunto
Ba (z0 , r) = {z ∈ C : |z − z0 | < r} ,

m
y una bola cerrada al conjunto
Bc (z0 , r) = {z ∈ C : |z − z0 | 6 r} .
Esto en equivalencia a los intervalos cerrados y abiertos en R.

eli
Para los números complejos también disponemos de una forma para indicar el infinito, es decir, números
complejos con módulo arbitrariamente grande. Esto es el equivalente al ±∞ de la recta real, pero requiere
un poco más de esfuerzo su visualización. Para hacer esta identificación se recurre a la definición de una
proyección estereogáfica entre el plano complejo y la Esfera de Riemann.
La Esfera de Riemann se define
Pr
S2 = (x1 , x2 , x3 ) ∈ R3 : x21 + x21 + x23 = 1 ,

Con N = (0, 0, 1) su polo norte y S = (0, 0, −1) su polo sur.


Denominaremos a C∞ ≡ C ∪ {∞} el plano complejo ampliado y definiremos la siguiente aplicación
estereográfica:
or


P(x + iy) = (x1 , x2 , x3 ) 6= (0, 0, 1) con x + iy ∈ C
2
P : C∞ → S ⇒
P(∞) = (0, 0, 1)

ad

Tenemos entonces una recta de R3 que corta a la esfera S2 y pasa por los puntos (0, 0, 1) y (x, y, 0), identi-
ficando el infinito del plano complejo con el polo norte de la esfera de esfera de Riemann. Esto significa que
una bola abierta centrada en ∞ es

Ba (∞, r) = {z ∈ C : |z| > r} .


rr

1.2.1. Puntos y lı́neas de corte


Consideremos la función f (z) = z 1/2 y estudiemos los cambios que pueden ocurrir en w cuando la variable
Bo

z cambia por diferentes trayectorias, por ejemplo, siguiendo distintos circuitos cerrados 0 ≤ θ < 2π a través
del “vector” z.

f (z) = z 1/2 ≡ r1/2 eiθ/2 → f (z) = r1/2 eiθ/2 → r1/2 ei(θ+2π)/2 = −r1/2 eiθ/2 .

21
1.2. PUNTOS, LÍNEAS DE CORTE Y CEROS DE FUNCIONES COMPLEJAS

Visto ası́ nos tendremos que preguntar ahora cuál fue el circuito que recorrimos con z, y dependiendo de
ese circuito identificaremos algunos puntos con caracterı́sticas distintas. Si el circuito cerrado descrito por z
no contiene el punto z = 0, la función f (z) = z 1/2 retoma su valor original (ver figura 1.1 cuadrante superior
izquierdo contorno C1 ). Pero sı́, como se aprecia en la misma figura 1.1, el circuito cerrado C2 si contiene
el punto z = 0 entonces la función no retoma su valor original, f (z) → −f (z). También es claro que si el
circuito cerrado lo recorremos dos veces θ → 4π entonces f (z) = z 1/2 retoma su valor inicial.
Podemos ver la segunda situación con más detalle: la del camino C2 , que podemos considerar como el
cı́rculo reiθ centrado en z = 0

r
Consideremos que originalmente un punto sobre el cı́rculo es z1 . Es decir que

a
f (z1 ) = w1 = r1/2 eiθ1 /2 .

in
Si completamos un cı́rculo completo, en sentido antihorario, para volver al mismo punto z1 le que
hemos hecho es un cambio en el argumento θ1 → θ1 + 2π. Por lo tanto

f (z1 ) = w2 = r1/2 ei(θ1 +2π)/2 = w1 eiπ = −w1 .

m
Si hacemos dos recorridos completos para volver a z1 , es decir, θ1 → θ1 + 4π resulta que

f (z1 ) = w3 = r1/2 ei(θ1 +4π)/2 = w1 ei2π = w1 .

eli
y recuperamos el valor inicial.

Hemos notado el hecho de obtener diferentes valores para w. Cada uno de estos casos conforma una
rama de la función, es decir, cada rama de una función multivaluada es una función univaluada. En nuestro
ejemplo: 
Pr
 w1 = f1 (z) = r1/2 eiθ/2 0 6 θ < 2π
1/2
w = f (z) = z ⇒
w2 = f2 (z) = r1/2 eiθ/2 2π 6 θ < 4π

En términos generales, si existe un punto z0 que admite un entorno reducido y éste se encuentra contenido
en el dominio de la función, y si además existe una curva simple y cerrada C que pueda contener un entorno
or

reducido (arbitrariamente pequeño) de z0 , entonces se dice que z0 es un punto de ramificación de la función


si al dar una vuelta sobre C alrededor de z0 se produce un cambio de rama de la función. Si a medida que se
dan n vueltas alrededor de z0 llevan a cada rama sobre sı́ misma, se dice que z0 es un punto de ramificación
de orden n − 1. Esto significa que para la función f (z) = z 1/2 , el punto z0 = 0 es un punto de ramificación
ad

de orden 1.
Los puntos alrededor de los cuales se construye un circuito cerrado en el diagrama de Argand y la función
no retoma su valor inicial se denominan puntos de corte y las lı́neas de corte, corte ramal (o simplemente
cortes) serán aquellas lı́neas que separan regiones en las cuales una determinada función es univaluada. Es
claro que los puntos de corte son puntos singulares, en los cuales la función deja de ser analı́tica y existirán
rr

si θ toma, valores 0 ≤ θ ≤ 2nπ. Es decir, puede dar n vueltas.


Estas lineas conectan dos y solo dos puntos de ramificación. En el caso de nuestra función f (z) = z 1/2 , la
lı́nea de corte será cualquiera que comience en z = 0 y continúe para |z| → ∞. Por simplicidad es costumbre
tomar las lı́neas de corte a lo largo de los ejes reales o complejos. De este modo aparece ilustrado en la figura
Bo

1.1 cuadrante superior derecho la lı́nea de corte que sigue el eje positivo de las x.
La situación se torna más interesante cuando estas definiciones se analizan a la luz de funciones con más
de un punto de corte.

22
1.2. PUNTOS, LÍNEAS DE CORTE Y CEROS DE FUNCIONES COMPLEJAS

a r
in
m
Figura 1.1: Los distintos contornos que identifican los puntos de corte

eli
Consideremos la función
√ √
p p q
f (z) = z 2 + 1 ⇒ f (z) = (z − i)(z + i) ≡ (r1 eiθ1 ) (r2 eiθ2 ) = r1 r2 eiθ1 /2 eiθ2 /2 = r1 r2 ei(θ1 +θ2 )/2 .
Pr
Analicemos entonces, varios contornos en el plano de Argand. Otra vez, la figura 1.1 ilustra en el cuadrante
inferior los distintos contornos C1 , C2 , C3 y C4 .
Tal y como se aprecia en esa figura, se dan cuatro casos:

1. Contorno C1 no incluye ningún punto de corte, entonces: θ1min ≤ θ1 ≤ θ1max y θ2min ≤ θ2 ≤ θ2max ,
con lo cual f (z) retoma su valor inicial luego de recorrer el C1 .
2. Contorno C2 incluye z = i como punto de corte, entonces: 0 ≤ θ1 ≤ 2nπ y θ2min ≤ θ2 ≤ θ2max , por lo
or

cual f (z) → −f (z).

3. Contorno C3 incluye z = −i como punto de corte, entonces: θ1min ≤ θ1 ≤ θ1max y 0 ≤ θ2 ≤ 2nπ, por
lo cual f (z) → −f (z).
ad

4. Contorno C4 incluye ambos como punto de corte,z = i y z = −i, entonces: 0 ≤ θ1 ≤ 2nπ y 0 ≤ θ2 ≤ 2nπ,
por lo cual f (z) → f (z) retoma su valor.

De este modo para construir los cortes que impidan que nuestra función sea multivaluada podremos
seleccionar:
rr

zcorte > i y zcorte < −i , o − i < zcorte < i .

1.2.2. Singularidades, polos y ceros de funciones complejas


Bo

Un punto donde la función f (z) no es analı́tica se denomina un punto singular. Estos puntos pueden ser:

23
1.2. PUNTOS, LÍNEAS DE CORTE Y CEROS DE FUNCIONES COMPLEJAS

Singularidades aisladas: sı́ una función es analı́tica en todo el entorno de un punto z0 , excepto en
el propio punto z0 , entonces se dice que el punto z0 es una singularidad aislada o un punto singular de
la función f (z).
Por ejemplo, para la función f (z) = 1/z, sabemos que es analı́tica en todo punto excepto en z = 0.
La única singularidad de la función está en el punto z = 0 y este punto es entonces una singularidad
aislada.
Singularidades no aisladas: Si una función contiene un conjunto de singularidades aisladas en
una vecindad de un punto z0 , entonces se dice que z0 es una singularidad no aislada. Es decir, una

r
singularidad no aislada de una función es un punto lı́mite del conjunto de sus singularidades.

a
Clasificación de las singularidades aisladas

in
1. Un punto singular aislado z0 de una función f se denomina removible o evitable si:

lı́m f (z) ∃ .
z→z0

m
Observemos que:
a) la función f puede no estar definida en z0 y por esta razón la función no es analı́tica en z0 .
b) la función puede estar definida en z0 pero de valor diferente al lı́mz→z0 f (z). Con lo cual la función

eli
no es continua en z0 y por lo tanto no es analı́tica en z0 .
c) la función puede estar definida en z0 y su valor igual al del lı́mz→z0 f (z). En este caso la función
no es singular en z0 .
Por lo tanto, si f tiene una singularidad removible en z0 entonces una de las posibilidades (a) o (b)
Pr
debe ser la causa de que la función no sea analı́tica o regular en z0 .
Si una función g es igual a f en todos los puntos, excepto en z0 , y

g(z0 ) = lı́m f (z) ,


z→z0

entonces g no es singular en z0 , esto significa que la singularidad de f puede ser removida mediante la
or

redefinición de la función f en z0 .
2. Un punto singular aislado z0 de una función f que no esta definida en z0 se llama un polo de orden n
de f si:
n
lı́m (z − z0 ) f (z) = M 6= 0 ,
ad

z→z0

donde n es un número entero positivo. Un polo de orden 1 se denomina un polo simple.


3. Un punto singular aislado de una función f recibe el nombre de singularidad esencial de f si
n
lı́m (z − z0 ) f (z) @ ,
rr

z→z0

para ningún entero positivo de n.

Las singularidades removibles se caracterizan porque el valor de f (z) → 0/0 cuando z → z0 . El caso más
Bo

emblemático es la función
z3 z5 z2 z4
   
sen(z) 1
f (z) = ⇒ f (z) = z− + ··· = 1 − + ··· ⇒ lı́m f (z) = 1
z z 3! 5! 3! 5! z→0

24
1.2. PUNTOS, LÍNEAS DE CORTE Y CEROS DE FUNCIONES COMPLEJAS

con lo cual, luego de desarrollar por Taylor la función sen(z), se ha removido la singularidad aparente.
El comportamiento de una función compleja en infinito (o cuando tiende a infinito), vale decir, cuando
z → ∞ no está tan bien definida como en los casos de funciones de variable real. Es claro como una cantidad
real, digamos |f (z)| o |z| tiende a infinito, pero z es una cantidad “bidimensional” y, en principio, existirı́an
varias formas de tender a infinito. Para precisar el comportamiento de una función compleja de variable
compleja en infinito, hacemos un cambio de variable z = 1/ξ y estudiamos f (1/ξ) con 1/ξ → ∞.
De esta manera:
1.

r
1 1
lı́m z(1 + z 2 ) ≡ lı́m + 3, con lo cual tendrá un polo de orden 3.
z→∞ ξ→0 ξ ξ

a
2.

1

in
X
lı́m ez ≡ lı́m y presenta una singularidad esencial para z → ∞ .
z→∞ ξ→0
n=0
n! ξ n

Los ceros de una función compleja (f (z0 ) = 0, entonces llamaremos z0 un cero de f (z)) se clasifican al

m
igual que los polos. Esto es

f (z) = (z − z0 )n g(z) con n entero positivo y g(z) 6= 0 ∀ z .

eli
1.2.3. Transformaciones conformes
Nos interesará ahora considerar transformaciones entre planos complejos, esto es:

z = x + iy ↔ w = r + is ⇒ w = g(z) = r(x, y) + is(x, y) ↔ z = h(w) = x(r, s) + iy(r, s)


Pr
Es decir, transformaciones entre puntos (x, y) ↔ (r, s) correspondientes a dos diagramas de Argand, de
tal modo que existe la función inversa z = h(g(z)) con w = g(z) y z = h(w) funciones analı́ticas, salvo en un
número finito de polos aislados. Entonces denominaremos a este tipo de transformaciones transformaciones
conformes si además, en todo punto z y w (excepto en aquellos en los cuales g 0 (z) y por lo tanto h0 (w) son
cero o infinita) cumple con:
Curvas continuas en el plano z transforman en curvas continuas en el w.
or

Los ángulos entre dos curvas cualesquiera que se intercepten en el plano z serán los mismos que los que
formen las curvas transformadas en el plano w. Esto es, los ángulos entre las curvas serán invariantes
bajo la transformación.2
ad

El cambio de escala en la vecindad de puntos transformados es independiente de la dirección en la cual


se mida.
Cualquier función analı́tica en z = x + iy transforma en otra función w = r + is también analı́tica.
rr

La segunda de las afirmaciones es inmediata a partir de la primera. Es decir, si una transformación


conforme de coordenadas tienen inversa y ambas son analı́ticas, es obvio que curvas contı́unas C(z) serán
˜
transformadas a curvas continuas C(w).
El hecho que la transformación conforme preserva el ángulo y las escalas se muestra en la figura 1.3
Bo

y puede comprobarse de la siguiente manera. Considere dos curvas, C1 (z) y C2 (z), en el plano complejo
2 De esta propiedad es donde la transformación hereda su nombre de conforme. Son transformaciones isogonales es decir, que

preservan los ángulos entre las curvas que se interceptan.

25
1.2. PUNTOS, LÍNEAS DE CORTE Y CEROS DE FUNCIONES COMPLEJAS

a r
in
m
Figura 1.2: Tranformaciones conformes. Tomado de Eric W. Weisstein. Conformal Mapping. MathWorld–

eli
A Wolfram Web Resource. [Link]

z = x + iy. Supongamos además que estas curvas se interceptan en un punto z = z0 . Entonces, sobre las
tangentes a cada curva, en z0 , definimos otros dos puntos z1 y z2 de tal forma que
Pr  
z1 − z0 = ρeiθ1   w1 − w0 = ρ1 eiφ1

z2 − z0 = ρeiθ2 w2 − w0 = ρ2 eiφ2
 

Nótese que hemos construido los puntos z1 y z2 sobre las tangentes a z0 a la misma distancia ρ de z0
y, en principio, hemos supuesto que las distancias a los puntos transformados w1 y w2 (las cuales hemos
or

identificado como ρ1 y ρ2 , respectivamente), no son iguales. Ahora bien, dado que w = g(z) es analı́tica
entonces

dg(z) dw w1 − w0 w2 − w0 ρ1 ρ2
= = lı́m = lı́m ⇒ g 0 (z0 ) = lı́m ei(φ1 −θ1 ) = lı́m ei(φ2 −θ2 ) .
dz dz z1 →z0 z1 − z0 z2 →z0 z2 − z0 ρ→0 ρ ρ→0 ρ
ad

z=z0 z=z0

Es claro que al comparar las magnitudes y las fases demostramos que las transformaciones conformes
preservan las distancias, ρ1 = ρ2 , y los ángulos (φ2 −φ1 ) = (θ2 −θ1 ). Adicionalmente, es muy fácil convencerse
que si la transformación conforme conserva los ángulos entre curvas y las escalas en todas direcciones las
figuras son transformadas en figuras equivalentes, quizá ampliadas y rotadas, pero no deformadas.
rr

1.2.4. Algunas consecuencias y ejemplos


Las consecuencias de la última afirmación reviste alguna importancia. Si f = f (z) es analı́tica en el plano
Bo

x − y y la transformación z = h(w) también lo es, entonces la función F (w) = f (h(w)) necesariamente es


analı́tica en el plano (r, s).
∆F ∆f ∆h ∆f ∆h
= ≡ .
∆w ∆h ∆w ∆z ∆w

26
1.2. PUNTOS, LÍNEAS DE CORTE Y CEROS DE FUNCIONES COMPLEJAS

a r
in
m
eli
Figura 1.3: Tranformaciones conformes. Cuadrante superior representa las conservación de ángulos y escala
bajo transformaciones y el inferior un ejemplo de transformaciones conforme para w = z 2 .
Pr
Por hipótesis supusimos que f y h eran analı́ticas, por lo cual es inmediato concluir que debido a que los
dos factores de la derecha son analı́ticos, la función F (w) también lo será.
Tal y como mostramos en la sección 1.1.5 si f (z) = u(x, y) + iv(x, y), es analı́tica, entonces u(x, y) y
v(x, y) serán funciones armónicas conjugadas, vale decir que satisfacen la ecuación de Laplace, con lo cual
∇2 u(x, y) = ∇2 v(x, y) = 0. Eso significa que si F = Φ(w) + iΨ(w), entonces:
 2   2 
∂ φ ∂2φ ∂ Φ ∂2Φ
or

+ 2 =0  + =0 

 
 
 
 ∂x2  ∂x2 ∂y 2
   
 ∂y   

f = φ + iψ ⇒ ⇔ F = Φ + iΨ ⇒
∂2ψ ∂2ψ ∂2Ψ ∂2Ψ

 
 
 

+ = 0 + = 0

 
 
 

∂x2 ∂y 2 ∂x2 ∂y 2
   
ad

Esto impone que si <[f (z)] = φ es constante en el plano x − y, también lo será <[F (w)] = Φ en r − s
(¡Demuéstrelo!).
Esta propiedad deriva una serie de aplicaciones en la solución de la ecuación de Laplace en dos dimen-
siones. Si bien es una técnica elegante y útil cuando es posible, no deja de ser limitada porque se restringe
rr

a 2D. Hoy los métodos numéricos para resolver ecuaciones diferenciales en derivadas parciales ha superado
con creces este tipo de técnicas. Los ejemplos son variados.
Las siguientes transformaciones representan:
Bo

traslaciones: w = z + b ; rotaciones de ángulo θ: w = zeiθ ; expansiones de escala a : w = az ,


y pueden ser combinadas como: w = az+b con a y b números complejos. Para la traslación es inmediato.
Para la rotación también si recordamos que z = |z|eiφ con lo cual w = |z|eiφ eiθ = |z|ei(φ+θ) .

27
1.2. PUNTOS, LÍNEAS DE CORTE Y CEROS DE FUNCIONES COMPLEJAS

a r
z−i
Figura 1.4: Transformaciones conformes para el ejemplo donde w = .
z+i

in
También la transformación de inversión w = 1/z que transforma los puntos del interior de un cı́rculo
1 1 1
unidad a su exterior y viceversa. Una vez más, w = = = e−iφ . Entonces es claro que

m
z |z|e iφ z
0 ≤ |z| ≤ 1 ⇒ ∞ < |w| ≤ 1 ∧1 ≤ |z| ≤ ∞ ⇒ 0 < |w| ≤ 1 .
 
z − z0

eli
Un caso más interesante lo constituye la transformación w = eiθ , la cual transforma los
z − z0∗
puntos z0 del semiplano superior complejo y > 0 al interior de un cı́rculo unidad en el w−plano (ver
figura 1.4. Para convencernos de ello notamos que
 
z − z0 z − z0
Pr
|w| = eiθ

=
z − z0∗ z − z0∗
.

En general si z0 y z los consideramos en el semiplano complejo superior y ≥ 0, entonces siempre se


cumple que |z − z0 | ≤ |z − z0∗ | con lo cual |w| ≤ 1, y como se cumple para todo z en ese semiplano,
entonces cada uno de esos puntos es transformado dentro de un cı́rculo de radio |w|. Es inmediato
convencerse que, la igualdad se cumple para puntos z sobre el eje real y que el punto z = z0 es llevado
al punto w = 0.
or

Finalmente, notamos que si conocemos como transforman dos puntos z1 → w1 y z2 → w2 entonces


podremos determinar la transformación, esto es, conocer los valores de los parámetros z0 y φ. Este
caso lo podemos apreciar si consideramos un par de puntos en el semiplano complejo y conocemos
como transforman, digamos z = i sobre el eje imaginario, e imponemos que sea transformado a w = 0,
ad

entonces es inmediato determinar que z0 = i. Por otro lado, si imponemos que z = ∞ ⇒ w = 1,


z−i
entonces: 1 = w = eiθ ⇒ θ = 0, con lo cual w = .
z+i
rr

1.2.5. Ejemplos
1. Consideremos la función
3z 2 + 2z
f (z) = ,
(z − 4)(z − i)
Bo

la función es analı́tica en todos los puntos, excepto en z = 4 y z = i. Entonces, las únicas singularidades
están en los puntos z = 4 y z = i, y como son un conjunto finito de singularidades cada una de estas
son singularidades aisladas.

28
1.2. PUNTOS, LÍNEAS DE CORTE Y CEROS DE FUNCIONES COMPLEJAS

2. Sea f la función:
        −1
x y x y
f (z) = sen cosh − i cos senh ,
|z|2 |z|2 |z|2 |z|2
Si denotamos al denominador como g(z), entonces
       
x y x y
g(z) = sen 2 cosh − i cos senh
x + y2 x2 + y 2 x2 + y 2 x2 + y 2

r
= u(x, y) + iv(x, y) 6= 0 ,

a
Es claro que z 6= 0. Por otra parte, de las condiciones de Cauchy-Riemann se tiene:
y 2 − x2
       
∂u x y 2xy x y ∂v
= 2 cos x2 + y 2 cosh x2 + y 2 − 2 sen x2 + y 2 senh x2 + y 2 = ∂y

in
∂x 2
(x + y )2 2
(x + y )2

x2 − y 2
       
∂u 2xy x y x y ∂v
=− 2 cos 2 2
cosh 2 2
+ 2 sen 2 2
senh 2 2
=−
∂y (x2 + y 2 ) x +y x +y (x2 + y 2 ) x +y x +y ∂x

m
Las condiciones de Cauchy-Riemann se satisfacen en todas partes salvo en z = 0, donde ni g ni las
derivadas parciales están definidas. Como las derivadas parciales son continuas, entonces g es analı́tica
en todos los puntos excepto z = 0. Por lo tanto, f es analı́tica salvo en z = 0.

eli
Por otra parte, g = 0 si su parte real como su parte imaginaria son nulas, ası́ que las singularidades de
f , además de z = 0, vienen dadas por el siguiente sistema ecuaciones:
       
x y x y
sen 2 cosh = 0 y cos senh =0
x + y2 x2 + y 2 x2 + y 2 x2 + y 2
Pr
Como cosh(α) > 0, la primera ecuación se satisface si
 
x x
sen 2 2
=0 ⇒ 2 = ± nπ ,
x +y x + y2
puesto que cos(α) 6= 0 cuando senh(α) = 0, entonces la segunda ecuación se satisface si y = 0. Por lo
tanto, el sistema se satisface simultáneamente si
or

 x
= ± nπ
 x2 + y 2


1
⇒ = ± nπ , n = 0, 1, 2, ...

 x
ad


y=0

Las singularidades ocurren en el eje real y en los puntos donde x = ± 1/nπ. El punto lı́mite de este
conjunto, cuando n → ∞, es el punto z = 0. Por lo tanto, f tiene una singularidad no aislada en z = 0
y singularidades aisladas en los puntos z = ± 1/nπ, con n = 1, 2, 3, ....
rr

3. Dada la función
z 2 + 16
f (z) = , z 6= 4i ,
z − 4i
esta función es el cociente de dos funciones enteras y por lo tanto es analı́tica, salvo donde el denomi-
Bo

nador se hace nulo, esto es en z = 4i. Por otra parte:


(z + 4i)(z − 4i)
f (z) = = z + 4i ,
z − 4i

29
1.2. PUNTOS, LÍNEAS DE CORTE Y CEROS DE FUNCIONES COMPLEJAS

a r
in
Figura 1.5: A la izquierda lineas |z| = constante, Arg(z) = constante y las respectivas imágenes en el plano
u − v. A la derecha, la gráfica para x = constante, y = constante.

m
y
lı́m f (z) = lı́m z + 4i = 8i.
z→4i z→4i

eli
la función f tiene una singularidad removible en z = 4i pues el lı́mite existe. Podemos definir una
función g igual a f , para z 6= 4i 
 z + 4i si z 6= 4i
g(z) =
8i si z = 4i
Pr 

y queda claro que g es una función entera.


4. Para
1 1 2z
f (z) = − =
1−z 1+z (1 − z)(1 + z)
y es inmediato darse cuenta que tendremos polos de orden 1 en z = 1 y z = −1
or

5. Para
senh(z) ez − e−z
f (z) = tanh(z) = = z ⇒ ez = ei(2n+1)π e−z es un polo
cosh(z) e + e−z
ad

es decir donde ez = −e−z , con lo cual z0 = n + 21 iπ y al utilizar la definición:




z − n + 12 iπ senh(z) z − n + 21 iπ cosh(z) + senh(z)


     
lı́m = lı́m =1
z→(n+ 21 )iπ cosh(z) z→(n+ 12 )iπ senh(z)
rr

donde hemos utilizado el Teorema de L’Hopital y consecuentemente z0 = n + 21 iπ es un polo simple.




6. Consideremos la aplicación w = f (z) = z 2 .


En la forma polar tenemos: z = reiθ , w = ρeiψ y w = z 2 = r2 ei2θ . Por lo tanto, si comparamos los
Bo

términos podemos ver que: ρ = r2 y ψ = 2θ. Es decir, los cı́rculos r = r0 son mapeados a cı́rculos
ρ = r02 y las lı́neas θ = θ0 en lı́neas ψ = 2θ0 . En la figura 1.5, a la izquierda, podemos ver el mapeo
w = z 2 desde la región: 1 ≤ |z| ≤ 3/2 , π/6 ≤ θ ≤ π/3 a la región: 1 ≤ |w| ≤ 9/4 , π/3 ≤ θ ≤ 2π/3.

30
1.2. PUNTOS, LÍNEAS DE CORTE Y CEROS DE FUNCIONES COMPLEJAS

En coordenadas cartesianas donde z = x + iy tenemos

u = <(z 2 ) = x2 − y 2 y v = =(z 2 ) = 2xy ,

Ahora las lineas x = C1 constante se mapean a u = C12 − y 2 y v = 2C1 y. Si eliminamos y resulta

v 2 = 4C12 (C12 − u) ,

Esto es, parábolas que se abren a la izquierda. De manera similar para lı́neas y = C2 constantes.

r
v 2 = 4C22 (C22 + u) ,

a
parábolas que abren a la derecha. Ver la figura 1.5.

in
m
eli
Pr
or
ad
rr
Bo

31
1.2. PUNTOS, LÍNEAS DE CORTE Y CEROS DE FUNCIONES COMPLEJAS

1.2.6. Practicando con Maxima


En en análisis complejo una de las dificultades que se presentan es a la hora de visualizar las funciones
y las diferentes aplicaciones sobre éstas. Afortunadamente, una de las grandes ventajas de los sistemas de
manipulación simbólica (CAS) es su capacidad para la visualización.
Veamos el siguiente ejemplo donde a través de un programa sencillo ubicamos en el plano complejo las
raı́ces de una ecuación en variable compleja. Para las funciones que utilizaremos en bueno consular el manual
del programa: [Link]
Si necesitamos más información sobre Maxima podemos consultar también: [Link]

r
net/es/[Link].
Construiremos un programa que llamaremos “drawrootC( )” al que luego le debemos introducir la ecua-

a
ción a resolver.
( % i1) drawrootC( f):=block( [Re,Im,s,raices,pl],

in
s: solve( f=0,z),
raices: factor(map(rhs,s)),
Re:map(realpart,raices),

m
Im:map(imagpart,raices),
pl:[ ],
pl:cons([points(Re,Im)] , pl),
pl:cons([xrange=[-2,2]],pl),

eli
pl:cons([yrange=[-2,2]],pl),
pl:cons([point size=4],pl),
pl:cons([grid=on],pl),
apply(wxdraw2d,pl), raices)$
Si queremos hallar las raı́ces de la ecuación z 5 +1 = 0 ejecutamos nuestro programa de la manera siguiente
Pr
( % i2) drawrootC(zˆ5+1);
or
ad
rr

( % t2)
Bo

2iπ 4iπ 4iπ 2iπ


[−e 5 , −e 5 , −e− 5 , −e− 5 , −1] ( % o2)

32
1.2. PUNTOS, LÍNEAS DE CORTE Y CEROS DE FUNCIONES COMPLEJAS

Si queremos hacer un gráfico de una curva que está parametrizada, por ejemplo: x(t) = sen(t) y y(t) =
2sen(t), escribimos la siguiente instrucción
( % i3) wxplot2d([parametric,sin(t),sin(2*t), [t,-2* %pi,2* %pi]],[nticks,100])$

a r
in
m
( % t3)

El siguiente programa está diseñado para graficar una función f (z) utilizando cı́rculos concéntricos,

eli
centrados en el origen, y en sentido antihorario3 .
( % i4) wxdrawcircleC( f):=block([fx,fy,fxt,fyt,pl,j,ncirc,r,theta shift,lm,l,dx,dy,dxy,v,nt],
ratprint:false,
fx:realpart(rectform(subst(z=x+ %i*y, f))),
Pr
fy:imagpart(rectform(subst(z=x+ %i*y, f))),
pl:[], nt:200, r:2, ncirc:5, theta shift: %pi/20, lm:0,
for n:1 thru ncirc do (
l:cons(lm,makelist(cabs(subst(z=r*n/7*exp( %i*t), f)),t,0,2* %pi,.5)),lm:lmax(l)),
for j:1 thru ncirc do(
fxt:subst([x=r*cos(t)*j/ncirc,y=r*sin(t)*j/ncirc],fx),
or

fyt:subst([x=r*cos(t)*j/ncirc,y=r*sin(t)*j/ncirc],fy),
pl:cons([parametric(fxt,fyt,t,0,2* %pi)] , pl),
pl:cons([color=j-1],pl), pl:cons([key=string(r*j/ncirc)],pl),
dx:subst(t=3/nt,fxt)-subst(t=0,fxt),dy:subst(t=3/nt,fyt)-subst(t=0,fyt),
ad

dxy:sqrt(dxˆ2+dyˆ2),
v:vector([subst(t=0,fxt),subst(t=0,fyt)],[lm*dx/dxy/20,lm*dy/dxy/20]),pl:cons([v],pl),
pl:cons([head length=lm,head angle=1],pl),pl:cons([color=j-1],pl),
pl:cons([key=],pl)),pl:cons([xlabel=,ylabel=],pl),
pl:cons([nticks=200],pl),pl:cons([grid=on],pl),
rr

apply(wxdraw2d,pl) )$
Bo

3 Este ejemplo otras aplicaciones puede consultar [Link]

33
1.2. PUNTOS, LÍNEAS DE CORTE Y CEROS DE FUNCIONES COMPLEJAS

Aquı́ podemos ver simplemente cı́rculos concéntricos que aumentan con el radio pues estamos visualizando
la función f = (z).
( % i5) wxdrawcircleC(z);

a r
in
m
( % t5)

Para el siguiente ejemplo, f (z) = (z − π/2)(z − 1), podemos ver la aparición de bucles cuando, a medida

eli
que crece el radio, se incluye el punto z = 0.
( % i6) wxdrawcircleC((z- %pi/2)*(z-1));
Pr
or
ad

( % t6)
rr
Bo

34
1.2. PUNTOS, LÍNEAS DE CORTE Y CEROS DE FUNCIONES COMPLEJAS

Mientras que para la función f (z) = 1/((z − 3π/2)(z − 1)),


( % i7) wxdrawcircleC(1/((z-3* %pi/2)*(z-1)));

a r
in
m
( % t7)

El siguiente programa, aunque limitado, permite obtener gráficas para transformaciones conformes.

eli
( % i8) drawgridC( f):=block( [fx,fy,fxt,fyt,pl,j,ngrid],
fx:realpart(rectform(subst(z=x+ %i*y, f))),
fy:imagpart(rectform(subst(z=x+ %i*y, f))),
pl:[], ngrid:20,
for j:0 thru ngrid do(
fxt:subst([x=-1+j*2/ngrid,y=t],fx),
Pr
fyt:subst([x=-1+j*2/ngrid,y=t],fy),
pl:cons([parametric(fxt,fyt,t,-1,1)], pl)),
pl:cons([color=blue],pl),
for j:0 thru ngrid do(
fxt:subst([y=-1+j*2/ngrid,x=t],fx),
or

fyt:subst([y=-1+j*2/ngrid,x=t],fy),
pl:cons([parametric(fxt,fyt,t,-1,1)] ,pl) ),
pl:cons([color=red],pl),pl:cons([xlabel=,ylabel=”w=f(z)”],pl),
pl:cons([nticks=200],pl),apply(wxdraw2d,pl) )$
ad
rr
Bo

35
1.2. PUNTOS, LÍNEAS DE CORTE Y CEROS DE FUNCIONES COMPLEJAS

( % i9) drawgridC(z);

a r
in
m
( % t9)

( % i10) drawgridC(zˆ2);

eli
Pr
or

( % t10)
ad
rr
Bo

36
1.2. PUNTOS, LÍNEAS DE CORTE Y CEROS DE FUNCIONES COMPLEJAS

( % i11) drawgridC(zˆ3-1);

a r
in
m
( % t11)

( % i12) kill(all)$

eli
1.2.7. Ejercicios
1. Determine el tipo de singularidades (en caso de poseerlas) de las siguientes funciones en: z = 0 y z = ∞
a)
Pr f (z) =
1
z−2
b)
1 + z3
f (z) =
z2
c)
or

 
1
f (z) = senh
z
2. Identifique los ceros, polos y las singularidades esenciales de las siguientes funciones:
ad

a)  
z−2 1
f (z) = sen
z2 1−z
b)
rr

f (z) = e1/z
c)  
1
f (z) = tan
Bo

z
3. Encuentre el comportamiento en el infinito de

37
1.2. PUNTOS, LÍNEAS DE CORTE Y CEROS DE FUNCIONES COMPLEJAS

a)
b
f (z) = a +
z2
b)
f (z) = z(1 + z 2 )

c)
f (z) = ez

r
4. Demostrar que la ecuación de la proyección estereográfica es

a
|z|2 − 1
 
2x 2y
P(x + iy) = , , con z = x + iy ∈ C.
|z|2 + 1 |z|2 + 1 |z|2 + 1

in
5. Demostrar que las ecuación para la inversa de la proyección estereográfica es la siguiente
x1 + x2 i
P −1 (x1 , x2 , x3 ) = si (x1 , x2 , x3 ) 6= (0, 0, 1).

m
x3 − 1

6. Determine el ángulo de rotación en el punto z0 = 2 + i cuando√w = z 2 , e ilústrelo para alguna curva


particular. Demuestre que el factor de escala en ese punto es 2 5.

eli
7. Demuestre que bajo la transformación w = 1/z, las imágenes de las lı́neas y = x − 1 e y = 0 son el
cı́rculo u2 + v 2 − u − v = 0 y la lı́nea v = 0, respectivamente. Dibuje las cuatro curvas, determine
las direcciones correspondientes a lo largo de ellas y verifique la conformidad del mapeo en el punto
z0 = 1.
Pr
8. Demuestre que el ángulo de rotación en un punto distinto de cero z0 = r0 eiθ0 bajo la transformación
w = z n para (n = 1, 2, ...), es (n − 1)θ0 . Determine el factor de escala de la transformación en ese
punto.
9. Demuestre que la transformación w = sen(z) es conforme en todos los puntos excepto en
π
or

z= + nπ (n = 0, ±1, ±2, ...)


2

10. Encuentre la transformación inversa local de w = z 2 en los puntos


ad

(a) z0 = 2 ; (b) z0 = −2 ; (c) z0 = −i .

11. Dibuje o grafique la región dada y su imagen bajo las siguientes transformaciones
a) |z| ≤ 1/2, −π/8 < Arg(z) < π/8, w = z 2 .
rr

b) 1 < |z| < 3, 0 < Arg(z) < π/2, w = z 3 .


c) 2 ≤ =(z) ≤ 5, w = z 3 .
d ) |z − 1/2| ≤ 1/2, w = 1/z.
Bo

38
1.3. INTEGRALES COMPLEJAS

1.3. Integrales complejas


Como siempre, luego de definir la derivada, construimos el concepto de integral a partir de la suma de
Riemann. Esto es
Xn Xn Z z2
Sn = f (ζj )(zj − zj−1 ) si n → ∞ ⇒ |zj − zj−1 | → 0 ⇒ lı́m f (ζj )(zj − zj−1 ) = dz f (z) .
n→∞ z1
j=1 j=1

Es decir, que si el lı́mn→∞ Sn existe, entonces se corresponde con la definición de la integral.

a r
1.3.1. Algunas propiedades
Es claro que esta integral es, necesariamente, una integral de lı́nea, ya que z tiene “dos dimensiones”

in
Z z2 Z z2
dz f (z) = [dx + idy] [u(x, y) + iv(x, y)]
z1 z1
Z x2 ,y2 Z x2 ,y2

m
= [u(x, y)dx − v(x, y)dy] + i [v(x, y)dx + u(x, y)dy] , (1.7)
x1 ,y1 x1 ,y1

con lo cual transformamos una integral compleja en una suma de integrales reales. Pero necesitamos definir
el contorno a través del cual vamos del punto z1 = x1 + iy1 al punto z2 = x2 + iy2 .

eli
La integración compleja tendrá las propiedades ya conocidas
R R R
C
dz (f (z) + g(z)) = C dz f (z) + C dzg(z).
R R
C
dz Kf (z) = K C dz f (z) con K una constante real o compleja.
Rb Ra
Pr
a
dz f (z) = − b dz f (z).
Rb Rm Rb
a
dz f (z) = a dz f (z) + m dz f (z).
R
C
dz |f (z)| ≤ M L , donde M = máx |f (z)| y L la longitud de C.
Esta última propiedad es importante porque permite establecer cotas a las integrales complejas sin tener
or

que evaluarlas. De la definición de integral es casi inmediata la demostración



n
n n n
X Z z2 X X X

lı́m f (ζj )∆zj = dz f (z) ⇒ f (ζj )∆zj ≤ |f (ζj )| |∆zj | ≤ M |∆zj | ≤ M L .
ad

n→∞ z1
j=1 j=1 j=1 j=1

Donde hemos utilizado que |f (ζj )| ≤ M y que la suma de los intervalos ∆z


R j = zj −z j−1 Res la longitud L del
recorrido C. Es claro que tomando lı́mites a ambos miembros obtendremos C dz f (z) ≤ C dz |f (z)| ≤ M L.
rr

1.3.2. Teorema integral de Cauchy


El teorema integral de Cauchy (también conocido como el teorema de Cauchy-Goursat) es uno de los dos
teoremas básicos en la teorı́a de funciones de variable compleja y tiene que ver con integrales de lı́nea para
Bo

las funciones holomorfas en el plano complejo. Básicamente dice que si dos caminos de integración diferentes
conectan los mismos dos puntos, y la función que se está integrando es holomorfa en todas partes entre las
dos trayectorias, entonces las dos integrales de la función serán iguales.

39
1.3. INTEGRALES COMPLEJAS

a r
in
m
Figura 1.6: Regiones en el plano complejo

eli
1.3.3. El teorema y las regiones
Este teorema considera que si f (z) es holomorfa en una región simplemente conexa, R, en su contorno
C y su derivada f 0 (z) existe y es continua en esta región4 , entonces la circulación a lo largo de cualquier
contorno cerrado C se anula. Esto es:
Pr
I
dz f (z) = 0 . (1.8)
C

Antes que nada, y como parte de ese adiestramiento en lenguaje, precisaremos qué queremos decir (qué
quieren decir los matemáticos) con regiones simplemente conexas y múltiplemente conexas.
or

Una región simplemente conexa es aquella que no tiene “huecos”, o dicho de una manera más precisa
y elegante, en la cual una curva Γ puede ser reducida (encogida) a un punto sin salir de la región R. En
la figura 1.6 cuadrante Ia se muestra una región simplemente conexa y en los cuadrantes Ib y Ic regiones
múltiplemente conexas. Estas dos últimas figuras clarifican este concepto. Es decir, una región múltiplemente
ad

conexa es aquella que no es simplemente conexa y con eso queremos decir que “tiene huecos”, o lo que es lo
mismo existen curvas que no se pueden reducir a puntos en la región.
Tal y como hemos comentado la demostración rigurosa del Teorema de Cauchy está fuera de los alcances
de estas notas, pero algo se puede hacer si invocamos el Teorema de Stokes (o uno de los Teoremas de Green
en el plano) que vimos cuando estudiamos análisis vectorial. Con ello recordamos la ecuación (1.7), entonces
rr

Z z2 Z x2 ,y2 Z x2 ,y2
dz f (z) = [u(x, y)dx − v(x, y)dy] + i [v(x, y)dx + u(x, y)dy] .
z1 x1 ,y1 x1 ,y1
Bo

4 Esta última condición no es necesaria, pero la demostración del teorema se torna mucho más sofisticada, y referimos al
lector a los libros especializados, vale decir a las referencias [James Brown, Ruel Churchill 1999, Konrad Knopp 1996].

40
1.3. INTEGRALES COMPLEJAS

El Teorema de Stokes nos dice que


Z   I
∂p ∂q
dxdy + = (pdy − qdx) ,
R ∂x ∂y C

con lo cual, si una vez más suponemos f (z) = u(x, y) + iv(x, y) y dz = dx + idy, entonces tendremos que
I I Z   Z  
∂(−v) ∂(−u) ∂(u) ∂(−v)
(udx − vdy) + i (vdx + udy) = dxdy + +i dxdy + = 0,
C C R ∂x ∂y R ∂x ∂y
y acto seguido, como f (z) es analı́tica, invocamos las condiciones de Cauchy Riemann (ecuación (1.6)) y es

r
inmediato ver que se anula la integral de circulación.

a
1.3.4. Algunas observaciones y el Teorema de Morera

in
De la anterior “demostración” del Teorema de Cauchy Riemann emergen algunas observaciones
La primera es la insistencia de que la condición que la derivada f 0 (z) existe y es continua en esta región
no es necesaria.

m
La segunda es que el Teorema de Cauchy, es válido también para regiones múltiplemente conexas.
Consideremos una región como la descrita en la figura 1.6 cuadrante II, es claro que podemos circular
la integral en los siguientes contornos
I Z Z Z Z Z

eli
dz f (z) = dz f (z) ≡ dz f (z)+ dz f (z)+ dz f (z)+ dz f (z) = 0 ,
C ABDEAF GHF A ABDEA AF F GHF FA
R R
y como AF
dz f (z) = − F A dz f (z) entonces
Z Z I I
dz f (z) + dz f (z) = 0 ⇔ dz f (z) + dz f (z) = 0 ,
ABDEA F GHF
Pr C1 C2

con lo cual se nota que para regiones múltiplemente conexas, a pesar que las circulaciones son opuestas,
el “observador” que circula por C1 y C2 siempre tiene la región R a su izquierda.
Siguiendo con la reflexión anterior, podemos invertir el sentido de la circulación en el contorno C2 con
lo cual I I I I
dz f (z) − dz f (z) = 0 ⇔ dz f (z) = dz f (z) .
or

C1 C2 C1 C2

Es decir, que si f (z) es analı́tica en una región R, da igual cualquier recorrido por las fronteras de una
región y el valor de la integral permanecerá inalterado.
ad

Más aún, este resultado puede extenderse a regiones con n huecos de tal forma que, tal y como ilustra
en en la figura 1.6 cuadrante III
I Xn I
dz f (z) = dz f (z) .
C1 j=1 Cj
rr

Con lo cual estamos afirmando que, dada una región que contiene un número finito (¿numerable?) n
de singularidades, la integral a lo largo del contorno que encierra la región R es equivalente a la suma
de las integrales que encierran cada una de las n singularidades.
Bo

Enunciaremos sin demostración el Teorema de Morera5 , también conocido como el teorema inverso de
Cauchy.
5 Pueden consultar la demostración en la referencia [Arfken, Weber y Weber 2000].

41
1.3. INTEGRALES COMPLEJAS

Teorema
H de Morera: Si una función f (z) es continua en una región R encerrada por un contorno C y
C
dz f (z) = 0 entonces f (z) es analı́tica en R.

1.3.5. Fórmula integral de Cauchy


El ejemplo de la sección anterior nos lleva a una de las expresiones más útiles e importantes del análisis
complejo: La Fórmula Integral de Cauchy, la cual dice que si f (z) es analı́tica en una región R encerrada
por un contorno C y consideramos un punto z = z0 contenido en esa región, entonces

r
I
1 f (z) dz

a
= f (z0 ) . (1.9)
2iπ C z − z0

in
Para probar esta afirmación supongamos una vez más un circuito en encierra al polo z = z0 (ver figura
1.8 cuadrante II). Con lo cual, como f (z) es analı́tica en una región, el Teorema de Cauchy nos garantiza
I I
1 f (z) dz 1 f (z) dz

m
= ,
2iπ C z − z0 2iπ Γ z − z0
si z − z0 = reiθ , entonces
2π 2π
f (z0 + reiθ )rieiθ dθ

eli
Z Z
1 1
= f (z0 + reiθ )dθ .
2iπ 0 reiθ 2π 0

Si hacemos r → 0 tendremos que


I I Z 2π Z 2π
1 f (z) dz 1 f (z) dz 1 1
2iπ C z − z0
=
2iπ Γ z − z0
= lı́m
r→0 2π 0
Pr
f (z0 + reiθ )dθ =
2π 0 r→0
lı́m f (z0 + reiθ )dθ = f (z0 ) .

Observaciones Surgen también observaciones al respecto


Obvio que es válido para regiones múltiplemente conexas y es fácil demostrarlo. Se lo dejamos al lector
como ejercicio.
or

Si reacomodamos la expresión para la forma integral podemos hacer que esa fórmula sea válida para
todo z I
1 f (ζ) dζ
f (z) = .
2iπ C ζ − z
ad

Más aún, veremos que es fácil generalizar esta fórmula para derivadas de funciones, vale decir

I
(n) n! f (z) dz
f z0 ) = . (1.10)
2iπ C (z − z0 )n+1
rr

Veamos el caso más sencillo y demostremos que para n = 1 resulta:


I
Bo

1 f (z)dz
f 0 (z0 ) =
2iπ C (z − z0 )2
   
f (z0 + h) − f (z0 )
I
1 f (z) 1 1
= lı́m = lı́m − dz ,
h→0 h h→0 2iπ C h z − z0 − h z − z0

42
1.3. INTEGRALES COMPLEJAS

a r
Figura 1.7: Integrales complejas y circuitos

in
tal y como se muestra en la figura 1.8, cuadrante III tenemos que
 I  I
0 1 f (z) dz 1 f (z) dz
f (z0 ) = lı́m = .
h→0 2iπ C (z − z0 − h)(z − z0 ) 2iπ C (z − z0 )2

m
Pero mucho más interesante hubiera sido “derivar respecto a una constante”. Este truco implica que
∂ n f (ζ)
I I   I
1 f (ζ) dζ (n) 1 n! f (ζ) dζ
f (z) = ⇒ f (z) = dζ = (1.11)
2iπ C ζ − z 2iπ C ∂z n ζ − z 2iπ C (ζ − z)n+1

eli
Esta fórmula es muy util para calcular integrales. Considere, por ejemplo la siguiente integral
e2ζ dζ
I
2iπ (3) 8iπ −2
I= 4
≡ f (−1) con f (z) = e2z ⇒ I = e ,
C (ζ + 1) 3! 3
Pr
donde hemos supuesto que el contorno C encerraba el punto z = −1, porque de otro modo la función
e2z
serı́a analı́tica y la integral se anuları́a por el Teorema de Cauchy.
(z + 1)4

1.3.6. Ejemplos
1. Evaluemos la integral compleja f (z) = z −1 a lo largo de diferentes contornos, tal y como se ilustran en
or

la figura 1.7
a) un circuito cerrado a lo largo de una circunferencia de radio R
Z 2π
ad

I I
dz z −1 ≡ d(Reiθ ) R−1 e−iθ = i dθ = 2πi ,
0

b) siguiendo una semicircunferencia desde (R, 0) → (−R, 0). Esto es


Z z2 =(−R,0) Z (R,π) Z π
dz z −1 = d(Reiθ ) R−1 e−iθ = i dθ = πi ,
rr

z1 =(R,0) (R,0) 0

c) siguiendo dos lı́neas rectas entre los puntos (R, 0) → (0, R) → (−R, 0). En este caso, procedemos
utilizando la expresión cartesiana para los números complejos. Para ello, vamos a parametrizar
Bo

z = z(t) para (R, 0) → (0, R) y z = z(s) cuando (0, R) → (−R, 0). Veamos
Z z3 =(−R,0) Z z2 =(0,R) Z z3 =(0,−R)
−1 −1
dz z = dz z + dz z −1 ,
z1 =(R,0) z1 =(R,0) z2 =(0,R)

43
1.3. INTEGRALES COMPLEJAS

para cada una de las integrales se cumple, respectivamente, que


z = (1 − t)R + itR con 0 ≤ t ≤ 1 ∧ z = −sR + i(1 − s)R con 0 ≤ s ≤ 1 ,
con lo cual
z2 =(−R,0) 1 1
−1 + i −1 − i
Z Z Z
dz
= dt + ds ,
z1 =(R,0) z 0 1 + t(−1 + i) 0 i + s(−1 − i)
procedemos entonces con la primera de las integrales
Z 1 Z 1 Z 1 Z 1
(−1 + i)dt (−1 + i)((1 − t) − it)dt (2t − 1)dt dt

r
= 2 2
= 2
+ i 2
,
0 (1 − t) + it 0 (1 − t) − t 0 1 − 2t + 2t 0 1 − 2t + 2t

a
es decir
Z 1 1  1
t−

(−1 + i)dt 1 = 0 + i π − −π
   π

in
1
= ln(1 − 2t + 2t2 ) 0 + i arctan 2

1 = ,
0 (1 − t) + it 2 2

0
2 2 2 2
y, la segunda integral también tendrá el mismo resultado, con lo cual

m
Z z2 =(−R,0)
dz
= πi ¡el mismo resultado que a través del arco de circunferencia!.
z1 =(R,0) z

Es interesante notar que si regresamos al punto (R, 0) a través del contorno (−R, 0) → (0, −R) →

eli
(R, 0) la integral cerrada se anula, no ası́ cuando nos regresamos a través el arco complementario
de circunferencia. En pocas palabras, como se esperaba, el valor de las integrales de camino, para
algunas funciones, dependerán del camino seleccionado. En la próxima sección veremos a cuáles
funciones corresponderá un mismo valor de la integral cerrada, independientemente del circuito
que uno elija.
2. Otro ejemplo ilustrativo lo constituye
Pr
 R 2π
I
dz
Z 2π
Rieiθ dθ i
Z 2π  n=0: 0
dθ = 2iπ
⇒ = n dθ e−inθ ⇒
(z − z0 )n+1 0 R n+1 ei(n+1)θ R 0  i
R 2π
n 6= 0 : Rn 0
dθ[cos(nθ) − isen(nθ)] = 0
donde hemos utilizado la forma polar z − z0 ≡ Reiθ e integrado a lo largo de una circunferencia de
or

radio R centrada en z = z0 .
3. Considere la función definida en una región R

1 z0 fuera de la región R
ad

f (z) = con
z − z0 z0 dentro de la región R
Si z0 está fuera de la región, entonces f (z) es analı́tica en R, con lo cual el Teorema de Cauchy
implica que I
dz f (z) = 0 .
rr

C
Si z0 está dentro de la región, entonces f (z) no es analı́tica en R por cuanto existe una singula-
ridad z = z0 . Si consideramos C el contorno que bordea a R, como una circunferencia centrada en
z = z0 y Γ otra circunferencia que aı́sla a z0 con un radio |z − z0 | =  (esta situación se ilustra en
Bo

la figura 1.8 cuadrante I). Entonces, si hacemos z − z0 = z̃ = eiθ el Teorema de Cauchy implica
Z 2π Z 2π
ieiθ dθ
I I
dz dz
= = = i dθ = 2πi .
C z − z0 Γ z − z0 0 eiθ 0

44
1.3. INTEGRALES COMPLEJAS

a r
in
Figura 1.8: Circulaciones y Polos

m
4. Evaluar
ez
Z
1
I= dz , para los entornos: C: |z| = 3 y C: |z| = 1 .
2πi C z−2

eli
El entorno |z| = 3 contiene en su interior al punto z0 = 2, esto implica que:
ez
Z
1
dz = e2 .
2πi C z − 2
Pr
Para el entorno |z| = 1, vemos que el punto z0 = 2 no está contenido en ese entorno, esto significa que
el integrando es una función analı́tica en toda la región. Por lo tanto:
ez
Z
1
dz = 0 .
2πi C z − 2

5. Evaluar
or

Z
1
I= dz , para los entornos: C1 : |z − i| = 2 , C2 : |z| = 3 y C3 : |z + i| = 2 .
C z2 +4
ad

La integral puede ser escrita de la siguiente manera:


Z
1
I= dz .
C (z + 2i)(z − 2i)

Para el contorno |z − i| = 2, tenemos que éste contiene en su interior al punto z0 = 2i. Si escribimos
rr

la integral como
Z 1
z+2i
I= dz ,
C z − 2i
Bo

la función 1/(z + 2i) es analı́tica dentro de C1 y entonces por el teorema de Cauchy


Z 1  
z+2i 1 π
I= dz = 2πi = .
C z − 2i 4i 2

45
1.3. INTEGRALES COMPLEJAS

Consideremos ahora el contorno |z| = 3. Este contorno contiene en su interior a los puntos 2i y −2i.
Podemos trazar dos contornos adicionales, de radio  alrededor de cada punto, entonces:
Z Z Z
1 1 1
2+4
dz = 2+4
dz + 2+4
dz
C z C(2i) z C(−2i) z
Z 1 Z 1
z+2i z−2i
= dz + dz
C(2i) z − 2i C(−2i) z + 2i
   
1 1

r
= 2πi + 2πi
z + 2i z=2i z − 2i z=−2i

a
   
1 1
= 2πi + 2πi − = 0.
4i 4i

in
Finalmente, para el contorno |z + i| = 2 se tiene que éste contiene al punto z0 = −2i. Repitiendo lo
que hicimos en el primer caso tenemos:

m
Z 1
z−2i
I= dz ,
C z + 2i

la función 1/(z − 2i) es analı́tica dentro de C3 y entonces por el teorema de Cauchy

eli
Z 1  
z−2i 1 π
I= dz = 2πi − =− .
C z + 2i
Pr 4i 2
or
ad
rr
Bo

46
1.3. INTEGRALES COMPLEJAS

1.3.7. Practicando con Maxima


Para integrar funciones en variable compleja podemos utilizar el comando integrate. Lo que necesitamos
es definir de manera correcta el camino de integración, en el ejemplo siguiente C(t) = cos(t) + isen(t).
Recordemos que “:=” nos permite definir una función mientras que “ : ” es una asignación a una variable.
( % i2) C(t):= cos(t) + %i*sin(t); dC: diff(C(t),t);

C(t) := cos (t) + i sin (t) ( % o1)

r
i cos (t) − sin (t) (dC)

a
( % i3) f(z):= 1/z;

in
1
f(z) := ( % o3)
z
Escribimos la forma que tiene el integrando

m
( % i4) integrando: f(C(t))*dC$
Y procedemos a hacer la integración

eli
( % i5) ’integrate(integrando,t,0,2* %pi)=integrate(integrando,t,0,2* %pi);

i cos (t) − sin (t)
Z
dt = 2iπ ( % o5)
0 i sin (t) + cos (t)
Pr
Podemos recurrir a un progrma que nos permita integrar una función dada f (z) = C → C sobre un
camino z(τ ) = R → C, para un parámetro a ≤ τ <≤ b
( % i6) IntC(f,r,τ ,a,b):=block( [f1,dz,Iout],f1:subst(z=r,f),
dz:diff(r,τ ),
Iout: ’integrate(f1*dz,τ ,a,b)=integrate(f1*dz,τ ,a,b), Iout )$
or

Para la función f (z) = 1/z y el camino C(τ ) = cos(τ ) + isen(τ ).


( % i7) IntC(1/z,cos(τ )+ %i*sin(τ ),τ ,0,2* %pi);

i cos (τ ) − sin (τ )
Z
dτ = 2iπ ( % o7)
ad

0 i sin (τ ) + cos (τ )

Consideremos ahora f (z) = z ∗ con C(τ ) = cos(τ ) + isen(τ ).


( % i8) IntC(conjugate(z),cos(τ )+ %i*sin(τ ),τ ,0,2* %pi);
rr

Z 2π
(i cos (τ ) − sin (τ )) (i sin (τ ) + cos (τ )) dτ = 0 ( % o8)
0

En este ejemplo f (z) = 1/(z − a) y C(τ ) = cos(τ ) + isen(τ ).


Bo

( % i9) IntC(1/(z-a),cos(τ )+ %i*sin(τ ),τ ,0,2* %pi);

Is |a| − 1 positive, negative or zero? n;

47
1.3. INTEGRALES COMPLEJAS


i cos (τ ) − sin (τ )
Z
dτ = 2iπ ( % o9)
0 i sin (τ ) + cos (τ ) − a
Para f (z) = (z 3 − 3)/(2z − i)
( % i10) IntC((zˆ3-3)/(2*z- %i),cos(τ )+ %i*sin(τ ),τ ,0,2* %pi);
 
Z 2π (i cos (τ ) − sin (τ )) (i sin (τ ) + cos (τ ))3 − 3
(24i − 1) π
dτ = − ( % o10)

r
0 2 (i sin (τ ) + cos (τ )) − i 8

a
( % i11) kill(all)$

in
1.3.8. Ejercicios
1. Repetir los mismos pasos del primer ejemplo, 1.3.6, para el caso de

f (z) = (z ∗ )−1 .

m
2. Evaluar las siguientes integrales
R2 1 2 R π/6 i2t R∞
(a) − 1 dt , (b) e dt , (c) e−izt dt , <(z) > 0.

eli
1 t 0 0

3. Demuestre que si m y n son enteros, entonces


Z 2π 
0 cuando m 6= n
eimθ e−inθ dt =
0 2π cuando m = n
Pr
4. Utilizando una representación paramétrica para los diferentes caminos C evalúe la integral
Z
f (z)dz
C

a) f (z) = (z + 2)/z y C:
or

1) El semicı́rculo z = 2eiθ con (0 ≤ θ ≤ π).


2) El semicı́rculo z = 2eiθ con (π ≤ θ ≤ 2π).
3) El cı́rculo z = 2eiθ con (0 ≤ θ ≤ 2π).
ad

b) f (z) = z − 1 y C el arco que va desde z = 0 a z = 2, conformado por


1) El semicı́rculo z = 1 + eiθ con (π ≤ θ ≤ 2π).
2) El segmento z = 2 (0 ≤ x ≤ 2) y el eje real.

c) f (z) = πeπz y C el contorno conformado por el cuadro con vértices en: 0, 1, 1 + i, i y en sentido
rr

antihorario.
d) 
1 cuando y < 0
f (z) =
4y cuando y > 0
Bo

cuando C es el arco que va desde z = −1 − i a z = 1 + i, conformado por la curva y = x3 .

48
1.3. INTEGRALES COMPLEJAS

5. Evalúe la integral I
Ln(1 − z)dz ,
C
donde C es el contorno del paralelogramo con vértices en ±i, ±(1 + i).
6. Evalúe la integral I
dz
,
C z − 3i
donde C es el cı́rculo |z| = π y en sentido antihorario.

r
7. Evalúe la integral

a
I
<(z)dz ,
C

in
donde C es el el arco del semicı́rculo superior |z| = 1 y en sentido antihorario.
8. Evalúe la integral
2z − 1
I
dz ,

m
2
C z −z
donde C es la elipse con focos en z = 0 y z = 2 y en sentido antihorario.
9. Utilizando la formula integral de Cauchy integre la siguiente función en sentido antihorario,

eli
z2
f (z) =
z2 − 1
alrededor de los cı́rculos
(a) |z + 1| = 1 , (b) |z − 1 − i| = π/2 , (c) |z + i| = 14/10 , (d) |z + 5 − 5i| = 7 .
Pr
10. Integre las siguientes funciones alrededor del cı́rculo unitario y en sentido antihorario
(a) cos(3z)/(6z) , (b) e2z /(πz − i) , (c) z 3 /(2z − i) , (d) (z 2 sen(z)/(4z − 1) .
11. Integre en sentido antihorario
a) I
dz
or

, C : 4x2 + (y − 2)2 = 4 .
C z2 + 4
b) I
zdz
, C : cı́rculo con centro en − 1 y radio 3 .
ad

C z 2 + 4z + 3
c) I
z+2
dz , C : |z − 1| = 2 .
C z−2
d)
rr

ez dz
I
, C : |z| = 0, 6 .
C zez − 2iz
12. Demuestre que
Bo

I
1
= 0,
C (z − z1 )(z − z2 )
para un camino cerrado simple C que contiene los puntos z1 y z2 arbitrarios.

49
Capı́tulo 2

ar
Series I

in
m
eli
Pr
or
ad
rr
Bo

50
2.1. SUCESIONES Y SERIES

La ruta de este capı́tulo


2.1. Sucesiones y Series
Básicamente el tema central de este curso tiene que ver con el estudio de las ecuaciones diferenciales
ordinarias y el desarrollo de métodos para resolverlas. Las ecuaciones diferenciales aparecen ya como tema
de estudio, o curiosidad matemática, desde los tiempos de Isaac Newton1 cuando se comenzó con el desarrollo
del Cálculo Diferencial. El propio Newton las estudia en su tratado de cálculo diferencial donde discute sus

r
soluciones a través de una expansión en series.
Newton estudia la siguiente ecuación diferencial, que por contener una primera derivada llamaremos una

a
ecuación diferencial de primer orden:
dy(x)
= 1 − 3x + y(x) + x2 + xy(x) . (2.1)

in
dx
Para buscar su solución, Newton propone el siguiente método que consiste en suponer una solución que tiene
la forma de una serie infinita. El primer término de la serie es:

m
y = 0 + ···
el cual corresponde al valor inicial x = 0 en la ecuación (2.1).
Al insertar este valor en (2.1) resulta

eli
dy(x)
= 1 + ···
dx
que al integrarse se obtiene
y = x + ···
Sustituyendo esta última expresión en (2.1), resulta
Pr
dy(x)
= 1 − 3x + x + · · · = 1 − 2x + 2x2 + · · ·
dx
Integrando esta última ecuación, se obtiene
2
y = x − x2 + x2 + · · ·
3
or

Repitiendo el proceso:
dy(x) 1 2 x3 1 2
= 1 − 2x + x2 − x3 + x4 · · · ⇒ y = x − x2 + − x4 + x5 + · · ·
dx 3 3 3 12 15
ad

Continuando con el método repetidamente se van calculando los diferentes términos de la serie
x3 x4 x5 x6 x7
y = x − x2 + − + − + + ···
3 6 30 45 630
En la figura 2.1 se puede apreciar parte del manuscrito original donde aparece el esquema de solución
rr

por series propuesto por Newton.


1 Sir Isaac Newton (1643-1727), fue un cientı́fico, fı́sico, filósofo, inventor, alquimista y matemático inglés, autor de los

Philosophiae Naturalis Principia Mathematica, más conocidos como los Principia, donde describió la ley de gravitación universal
Bo

y estableció las bases de la Mecánica Clásica mediante las leyes que llevan su nombre. Entre sus otros descubrimientos cientı́ficos
destacan los trabajos sobre la naturaleza de la luz y la óptica y el desarrollo del cálculo matemático. Newton fue el primero
en demostrar que las leyes naturales que gobiernan el movimiento en la Tierra y las que gobiernan el movimiento de los
cuerpos celestes son las mismas. Es, a menudo, calificado como el cientı́fico más grande de todos los tiempos, y su obra como
la culminación de la revolución cientı́fica. (Tomado de Wikipedia).

51
2.1. SUCESIONES Y SERIES

a r
in
m
Figura 2.1: El esquema de Newton

eli
Por otra parte, notemos que para cada valor de x y y, la ecuación (2.1) no es más que la derivada y 0 (x),
es decir la pendiente, de las soluciones de:
Pr
y 0 (x) = 1 − 3x + y(x) + x2 + xy(x) .

De esta manera, con un poco de paciencia, o con algún programa de computación algebraico apropiado, se
puede obtener el campo vectorial correspondiente a la ecuación diferencial, como se puede apreciar en la figura
2.2 (figura 2a). En realidad las soluciones se pueden ver como las curvas determinadas por las direcciones
indicadas en el campo vectorial, figura 2b. Las aproximaciones que se van obteniendo con el método mostrado
or

anteriormente se pueden observar, junto con la solución verdadera en la Figura 2c. Notemos que todas las
aproximaciones son más cercanas entre si cuando x toma valores cada vez más próximos a cero.
Comencemos entonces nuestro estudio sobre ecuaciones diferenciales precisamente con las series ma-
temáticas.
ad

2.1.1. Introducción a las sucesiones


Para empezar, vayamos a la noción elemental de sucesiones. Básicamente, una sucesión es una colección
numerable de elementos, dados en cierto orden, como:
rr

1, 2, 3, 4, . . . , 1, x, x2 , x3 , . . . , a, b, c, d .

En matemáticas se puede entender las sucesiones como una aplicación desde los números naturales a
Bo

cualquier otro conjunto, no necesariamente de la misma naturaleza. Estos números se denominan los términos,
elementos o miembros de la sucesión. Siendo más rigurosos, una sucesión se puede definir como una función
sobre el conjunto de los números naturales, es decir, que estarı́amos hablando en este caso de una función
discreta.

52
2.1. SUCESIONES Y SERIES

a b (c)
2 2 2

y 1
y(x) 1 y 1

K K
K K K2 K1
2 1 0 1 2

2 1 0 1 2 0 1 2 x
x x

r
1

K
1 K1

a
K
2

K
2 K2 C1 C2 C3 C4 Sol.

in
Figura 2.2: (a) Representación de los campos vectoriales. (b) Diferentes soluciones para la ecuación diferencial (2.1).
(c) La solución correcta correspondiente al valor inicial y(0) = 0 con las diferentes soluciones aproximadas.

m
Es bastante común que se confundan las sucesiones con series matemáticas, veremos que una serie en-
tenderemos es en realidad una suma de términos.
Las sucesiones se diferencian de los conjuntos en el hecho de que es importante considerar el orden en que

eli
aparecen distribuidos. Además, un mismo término de una sucesión puede aparecer varias veces en posiciones
diferentes. Esto significa que las siguientes sucesiones finitas son diferentes:
a, b, c, d 6= b, c, d, a .
Una sucesión puede contener infinitos elementos y en este caso se denomina una sucesión infinita, por lo
Pr
tanto, si a cada número entero positivo se le asocia un elemento un , entonces el conjunto ordenado:
u1 , u2 , u3 , ...un , . . . .
define una sucesión infinita. Cada término un tendrá un siguiente término un+1 y por lo tanto no existe un
último término.
Las sucesiones se pueden expresar de una manera más sencilla definiendo el n-ésimo término, como por
or

ejemplo:
1
un = , n = 1, 2, 3, . . .
n
cuyos primeros cuatro términos son:
1 1 1
ad

1, , , .
2 3 4
Otra manera de definir sucesiones es por medio de una relación de recurrencia, por ejemplo, para la bien
conocida sucesión de Fibonacci la relación de recurrencia es:
u1 = u2 = 1 , un+1 = un + un−1 , n ≥ 2,
rr

y cuyos primeros términos son:


1, 1, 2, 3, 5, 8, 13, 21, 34, . . .
Como curiosidad matemática, podemos ver que existe una función que permite generar los números
Bo

de Fibonacci, esta función cuando se expande en potencias de x tiene como coeficientes, ¡los números de
Fibonacci!
x
f (x) = = x + x2 + 2 x3 + 3 x4 + 5 x5 + 8 x6 + 13 x7 + 21 x8 + 34 x9 + · · ·
1 − x − x2

53
2.1. SUCESIONES Y SERIES

También es posible definir una sucesión a través del concepto de función. Se define una función para los
enteros positivos, de manera que f (n) es el término n-ésimo de la sucesión para cada n = 1, 2, 3, . . . . Por lo
tanto, los términos de las sucesión se escriben como:

f (1), f (2), f (3), ...f (n), . . .

Las siguientes fórmulas son ejemplos de sucesiones:

f (n) (−1)n ⇒ −1, 1, −1, 1, −1, . . .


=

r
 nπ  π    
3π 5π
f (n) = sen ⇒ sin , sin (π) , sin , sin (2 π) , sin ...
2 2 2 2

a
 
1 3 4 5 6
f (n) = (−1)n 1 + ⇒ −2, , − , , − . . .
n 2 3 4 5

in
Las sucesiones pueden tener la caracterı́stica de ser crecientes o decrecientes. Una sucesión {f (n)} se dice
que es creciente si:
f (n) ≤ f (n + 1) ∀ n ≥ 1 ,

m
es decir, cada término es menor o igual al término siguiente. Y si de impone la condición f (n) < f (n + 1) se
denomina estrictamente creciente. Por otro lado, una sucesión se llama decreciente si:

eli
f (n) ≥ f (n + 1) ∀ n ≥ 1.

y estrictamente decreciente si f (n) > f (n + 1).

Las sucesiones pueden estar acotadas de diferente


Pr
manera. Diremos que la sucesión {f (n)} es aco-
tada superiormente si existe un número positivo
M tal que f (n) ≤ M para todo n. También pue-
de ser acotada inferiormente si existe un número
positivo N tal que f (n) ≥ N para todo n. En el
caso de cumplirse ambas condiciones hablaremos
or

de una sucesión acotada N ≤ f (n) ≤ M .


Podemos hablar de sucesiones monótonas cuando
la diferencia entre un término y el que le sigue
siempre es del mismo signo y además son del tipo
ad

creciente o decreciente.
Nos vemos ahora en la necesidad de hablar del
significado de los términos convergencia o diver-
gencia de una sucesión.
Figura 2.3: Sucesión convergente a cero.
rr

La convergencia o divergencia se determina de manera sencilla, como lo indica el siguiente teorema:

Teorema: Una sucesión monótona converge si y sólo si es acotada.


Bo

Revisemos el concepto de convergencia (divergencia). Cuando una sucesión converge, lo que significa
es que tiende a un valor particular llamado su lı́mite, diremos en éste caso la sucesión será una sucesión
convergente. Las sucesiones que no son convergentes se denominan divergentes.

54
2.1. SUCESIONES Y SERIES

En otras palabras, una sucesión tiene lı́mite si los elementos de la sucesión se hacen cada vez más y más
cercanos a algún valor L (llamado lı́mite de la sucesión). Esto significa que dado un número real ε mayor que
cero, todos menos un número finito de elementos de la sucesión estarán siempre a una distancia a L menor
que ε.
Matemáticamente es lo siguiente:
lı́m f (n) = L . (2.2)
n→∞

Si una sucesión f (n) converge, entonces el lı́mite 2.2 existe, es único y la sucesión es acotada.
En la figura 2.3 podemos ver una representación gráfica para la sucesión:

r
n+1
f (n) = .

a
2n2
Esta serie converge, y es fácil ver que:

in
n+1
lı́m = 0.
n→∞ 2n2

También existen las sucesiones oscilantes, las

m
cuales suelen ser divergentes por no tener lı́mite.
Estas sucesiones presentan términos que se al-
ternan de manera indefinida. Cuando cambian
de signo se llaman sucesiones alternadas, co-

eli
mo la que mencionamos anteriormente f (n) =
(−1)n ⇒ −1, 1, −1, 1, −1, . . . .
Un ejemplo particular de sucesiones oscilantes
convergentes es la sucesión de Cauchy. Una suce-
sión de números reales: x1 , x2 , x3 , . . . se denomi-
na una sucesión de Cauchy fundamental si para
Pr
todo número positivo ε existe un entero positi-
vo M tal que para todos los números naturales
n, m > M se cumple: Figura 2.4: Sucesión de Cauchy.

|xm − xn | < ε .
or

En este tipo de sucesiones los elementos se la sucesión se vuelven arbitrariamente cercanos entre sı́ a
medida que la sucesión progresa, como se puede ver en la figura 2.4. Esta condición, necesaria para hablar
de convergencia, se llama la condición de Cauchy.
Existe una serie de resultados interesantes que podemos mencionar:
ad

Toda sucesión convergente es de Cauchy.


Toda sucesión de Cauchy está acotada.
Para los números reales R, toda sucesión de Cauchy es convergente.
rr

Toda sucesión convergente está acotada.


A medida que n se hace cada más grande, el valor de una sucesión {f (n)} o {un } se puede comportar
Bo

de una manera bastante particular. Por ejemplo, si un = 1/n, es claro que un converge a cero a medida que
n → ∞. Pero si un = eαn , el lı́mite dependerá del valor de α.
Por lo tanto, la pregunta a responder tiene que ver con el hecho de saber si los términos de un tienden,
o no, a un lı́mite finito cuando n crece indefinidamente.

55
2.1. SUCESIONES Y SERIES

2.1.2. Acercándonos al concepto de series


Con el concepto de sucesiones es posible definir una expresión analı́tica que formalmente tiene aspecto
de suma, que contiene un número infinito de sumandos y que denominaremos serie infinita.
Si {un } (con n = 1, 2, 3, . . . ) es una sucesión infinita de números reales o complejos, es posible formar
una nueva sucesión {sn } a partir de tomar sumas parciales de {un }. Veamos el procedimiento:
n
X
s1 = u1 , s2 = u1 + u2 , s3 = u1 + u2 + u3 , ... sn = u1 + u2 + u3 + · · · un = ui .

r
i=1

Es decir, partimos con s1 = u1 y decimos que para todo n ∈ N se tiene que sn+1 = sn + un+1 . La sucesión

a
{sn } la llamaremos la serie de término general an definida a través de la sucesión {un } y la representaremos
por:

in
X
un . (2.3)
n=1

Al número
n

m
X
sn = ui
i=1

le denominaremos la suma parcial de orden n de la serie (2.3).


Es importante aclarar que una serie es una sucesión cuyos términos se obtienen al sumar de manera

eli
consecutiva lo términos de una sucesión diferente.
Si la sucesión sn tiende a un lı́mite S, la serie infinita

X
ui ,
Pr i=1

se dice que es convergente y converge al valor S, el cual es único. Entonces se puede escribir:

X n
X
S = u1 + u2 + u3 + · · · + un + · · · = un = lı́m {sn } = lı́m ui . (2.4)
n→∞ n→∞
n=1 i=1
or

El número S se denomina la suma de la serie infinita y debe ser entendido como el lı́mite de la sucesión.
Lo anterior se puede formalizar diciendo que la condición para la existencia de un lı́mite S es que para
cada ε > 0 existe un número N = N (ε) ∈ N tal que:

|S − si | < ε para i > N ⇒ |sj − si | < ε para, todo i, j > N .


ad

Esta afirmación se denomina criterio de Cauchy2 sobre la convergencia de las series parciales, y viene
a ser la condición necesaria y suficiente para que una suma parcial si converja a medida que avanzamos en
los términos de la serie.
Se dirá que la serie diverge si el valor de la sumatoria aumenta indeteniblemente.
rr

La serie también puede oscilar:


i
X
si = (−1)n = 1 − 1 + 1 − 1 + · · · + (−1)i + · · ·
Bo

n=1
2 Augustin Louis Cauchy Parı́s, 1789 - 1857, matemático francés pionero en los estudios de análisis (real y complejo) y

de la teorı́a de los grupos de permutación. Cauchy hizo aportes importantes en los criterios de convergencia y divergencia de
series infinitas, ası́ como también, en ecuaciones diferenciales, determinantes, probabilidades y fı́sica matemática

56
2.1. SUCESIONES Y SERIES

Aquı́ sn será 0 o 1 y por lo tanto el lı́mite no existe.


La serie cuyos términos son tomados a partir del (n + 1)-ésimo término, y en el mismo orden, de la serie
(2.4) se llama el resto n-ésimo de la serie (2.4) y se denota por:

X
uk ⇒ un+1 + un+2 + un+3 + · · · . (2.5)
k=n+1

Si el resto n-ésimo de la serie (2.4) converge, entonces su suma:

r

X
rn = uk , (2.6)

a
k=n+1

se denomina el resto de la serie.

in
De las series nos interesa conocer cuánto suman. Es decir, cuál es el valor de si para una serie finita
donde i = N . Pero también estamos interesados en conocer cuánto suma una serie infinita.

2.1.3. Series elementales

m
Probablemente, de cursos anteriores hemos conocido algunas series emblemáticas, estudiemos aquı́ algunas
de estas series:

eli
Serie aritmética
Seguramente con anterioridad hemos oı́do hablar de progresiones aritméticas. Ellas son, sencillamente
series de la forma:
N −1
sN =
X
Pr
(a + nd) = a + (a + d) + (a + 2d) + (a + 3d) + (a + 4d) + · · · + [a + (N − 1)d] ,
n=0

donde a y d son números reales o complejos.


Al desarrollar la serie anterior en orden inverso y sumarla con la serie original obtemos:
sN = a +(a + d) +(a + 2d) +(a + 3d) +··· + [a + (N − 1)d]
or

sN = [a + (N − 1)d] + [a + (N − 2)d] + [a + (N − 3)d] + [a + (N − 4)d] + · · · +a

resultando:
Nh i
2sN = N [a + a + (N − 1)d] ⇒ sN = Primer Término + Último Término
ad

2
obviamente, si N → ∞ la serie diverge.
Serie Geométrica
De ésta serie también sabemos que:
rr

N
X
sN = xn = 1 + x + x2 + x3 + · · · + xN ,
n=0
Bo

y si realizamos la resta sN − xsN , tenemos


sN = 1 +x +x2 +x3 +··· +xN
xsN = x +x2 +x3 +x4 +··· +xN +1

57
2.1. SUCESIONES Y SERIES

Es inmediato comprobar que:

1 − xN +1 1 xN +1
(1 − x)sN = 1 − xN +1 ⇒ sN = = − ,
1−x 1−x 1−x

Notemos que si x 6= 1 podemos reescribir la serie anterior como:


n
X 1 xn+1
xn = 1 + x + x2 + x3 + · · · + xn = − (2.7)
1−x 1−x

r
n=0

a
Por lo tanto podemos ver que si |x| < 1 tendremos que la suma será:
n ∞
xn+1 1

in
X X
lı́m = 0 ⇒ lı́m xn = xn = . (2.8)
n→∞ 1 − x n→∞ 1 − x
n=0 n=0

Por otro lado, la serie divergirá (u oscilará) si |x| > 1.

m
Series Aritmético-geométricas
Estas series, un poco más exóticas y como su nombre lo sugiere son una combinación de las anteriores.
N −1

eli
X
sN = (a + nd)xn = a + (a + d)x + (a + 2d)x2 + (a + 3d)x3 + (a + 4d)x4 + · · · + [a + (N − 1)d] xN −1 .
n=0

Utilizando la misma estrategia que aplicamos a las series geométricas (se deja como ejercicio al lector)
Pr
se llega a encontrar el valor, nada intuitiva, de la suma S:

a − [a + (N − 1)d] xN xd(1 − xN −1 )
sN = + .
1−x (1 − x)2

Otra vez, si |x| < 1, entonces cuando N → ∞ la serie converge a:


or

a xd
S= + .
1 − x (1 − x)2

Serie Armónica
ad

Quizá no la conocı́amos con este nombre (y menos por sus propiedades) pero seguro nos la hemos
tropezado.

X 1 1 1 1 1 1
= 1 + + + + + ··· + ···
n=1
n 2 3 4 5 n
rr

Esta serie infinita resulta ser engañosa, en apariencia parece converger, pero no es ası́. Además notemos
lo siguiente:
20 220 20220
X 1 X 1 X 1
≈ 3, 5977 , ≈ 5, 9731 , ≈ 10, 492 ,
Bo

n=1
n n=1
n n=1
n
la suma de los primeros 20 términos es más grande que la suma de los siguientes ¡200 términos! y da
la impresión de que la serie crece muy lentamente hacia algún valor lı́mite.

58
2.1. SUCESIONES Y SERIES

Si analizamos con más cuidado, veremos que hay sutilezas. Acomodemos los términos de la siguiente
forma:
∞      
X 1 1 1 1 1 1 1 1 1 1 1
=1+ + + + + + + + + + ··· + +···
n=1
n 2
|{z} 3 4 5 6 7 8 9 10 16
| {z } | {z } | {z }
σ0 σ1 σ2 σ3

la expresión anterior puede ser reescrita como:



X 1 1 1 1 1 1 1 1
=1+ + + + + + +

r
n=1
n 1 + 1 2 + 1 2 + 2 4 + 1 4 + 2 4 + 3 4 + 4
| {z } | {z } | {z }
σ0 σ1 σ2

a
n
2
1 1 1 X 1
+ + + ··· + +··· + + ···

in
8+1 8+2 8+8 n
2 +j
| {z } j=1
σ3

con lo cual:
1 7 1 533 1 95549 1
σ0 =
; σ1 = > ; σ2 = > ; σ3 = > ;···

m
2 12 2 840 2 144144 2
y claramente diverge ya que:
1 1 1 1
1 + σ0 + σ1 + σ2 + σ3 + · · · > 1 + + + + + ···
2 2 2 2

eli
Esta prueba aparentemente se le debe a Nicole D’Oresme3 .
Ahora bien, notemos que para todo n ∈ N resulta:

Z n
dx dx
Z
Pr 2
Z 3
dx
Z 4
dx
Z k+1
dx X
n−1 Z k+1
dx
= ln(n) ⇒ ln(n) = + + + ··· + =
1 x 1 x 2 x 3 x k x k x
k=1
n−1 Z k+1
X dx 1 1 1
≤ < 1 + + + ··· + .
k k 2 3 n
k=1
or

Es decir  
1 1 1
lı́m 1 + + + · · · + ≥ lı́m ln(n) = +∞ .
n→∞ 2 3 n n→∞

Por lo tanto:
ad


X 1
= +∞ .
n=1
n

Una de las generalizaciones de la serie armónica es la función Zeta de Riemann4



rr

X 1 1 1 1
ζ(z) = z
= z + z + z + ··· , <(z) > 1 .
n=1
n 1 2 3
3 Nicole D’Oresme (1323-1382) Matemático francés que inventó la geometrı́a coordenada antes de Descartes. Sobre la serie
Bo

armónica consulte: [Link]


4 Georg Friedrich Bernhard Riemann (1826 Hanover, Alemania - 1866 Selasca, Italia) Matemático alemán cuyas ideas

sobre las geometrı́a del espacio han tenido un profundo impacto en el desarrollo de la fı́sica teórica. Igualmente clarificó
la noción de integral al introducir el concepto de lo que hoy se conoce como integral de Riemann. Más detalles en http:
//[Link]/[Link].

59
2.1. SUCESIONES Y SERIES

Esta última expresión es también un ejemplo donde a partir de una serie se define una función, en
este caso una función analı́tica. Aquı́ z puede ser un número complejo, z = a + ib, y la serie converge
cuando su parte real es mayor o igual a 1.
La función Zeta de Riemann viene también definida por:
Z ∞ Z ∞ z −x
1 xz x e
ζ(z) = dx , donde Γ(z) = dx ,
Γ(z) 0 x (ex − 1) 0 x

Γ(z) es la función gamma.

r
Las mayorı́a de las series que hemos mencionado P con anterioridad tienen la particularidad de que todos

a
sus términos son positivos, es decir, para la serie an se tiene que an ≥ 0, y por lo tanto:

in
sn = sn−1 + an ≥ sn−1 ,

de manera que las sumas parciales sn son una sucesión monótona creciente.

m
2.1.4. Derivación de series geométricas elementales
Las series infinitas se encuentran entre las más poderosas herramientas que se introducen en un curso
de cálculo elemental. Son un ejercicio bastante inteligente para la manipulación de limites y son una buena

eli
herramienta para el estudio de las ecuaciones diferenciales, en el desarrollo de métodos numéricos y para
estimar el comportamiento de funciones.
Consideremos la serie geométrica:

a + az + az 2 + az 3 + · · · + az n + · · ·
Pr
con |z| < 1. Este es uno de los pocos ejemplos donde se puede encontrar el término de las sumas parciales a
través de una expresión sencilla. Esta serie se puede tomar como punto de partida para encontrar la suma
de un gran número de series interesantes. Consideremos el caso a = 1 y z = x, como en la ecuación (2.8).
1
1 + x + x2 + x3 + · · · + xn + · · · = , |x| < 1 . (2.9)
1−x
or

Si cambiamos x por x2 en (2.9) resulta:


1
1 + x2 + x4 + x6 + · · · + x2n + · · · = , |x| < 1 . (2.10)
1 − x2
ad

Si se multiplica (2.10) por x se obtiene:


x
x + x3 + x5 + x7 + · · · + x2n+1 + · · · = , |x| < 1 . (2.11)
1 − x2
rr

Si cambiamos x por −x en (2.9) resulta:


1
1 − x + x2 − x3 + · · · + (−1)n xn + · · · = , |x| < 1 . (2.12)
1+x
Bo

Si cambiamos x por x2 en (2.12) resulta:


1
1 − x2 + x4 − x6 + · · · + (−1)n x2n + · · · = , |x| < 1 . (2.13)
1 + x2

60
2.1. SUCESIONES Y SERIES

Si se multiplica (2.13) por x se obtiene:


x
x − x3 + x5 − x7 + · · · + (−1)n x2n+1 + · · · = , |x| < 1 . (2.14)
1 + x2
Si cambiamos x por 2x en (2.10) resulta:
1 1
1 + 4x2 + 16x4 + · · · + 4n x2n + · · · = 2
, |x| < . (2.15)
1 − 4x 2

r
Si se deriva (2.9) entonces:

a
1
1 + 2x + 3x2 + · · · + nxn−1 + · · · = , |x| < 1 . (2.16)
(1 − x)2

in
Si se integra (2.12):

x2 x3 x4 (−1)n xn+1
x− + − + ··· + + · · · = ln(1 + x) , |x| < 1 . (2.17)

m
2 3 4 n+1
Si se integra (2.13) ahora resulta:

x3 x5 x7 (−1)n x2n+1

eli
x− + − + ··· + + · · · = arctan(x) , |x| < 1 . (2.18)
3 5 7 2n + 1
Siguiendo a Laplace, quien dijo que habı́a que leer a Euler: “Read Euler, read Euler. He is the master of
us all ”, podemos hacer lo siguiente con la serie (2.17):
Pr
ln(1 + x) = x −
x2
+
x3

x4
+ ··· (2.19)
2 3 4
Es bueno acotar que Euler utilizó esta expresión para construir ¡tablas de logaritmos!
Ahora hagamos lo siguiente, cambiemos x por −x en la ecuación anterior:

x2 x3 x4
ln(1 − x) = −x − − − − ··· (2.20)
or

2 3 4
restando (2.19) menos (2.20):

x2 x3 x4 x2 x3 x4
   
ln(1 + x) − ln(1 − x) = x− − + · · · − −x − − − − ···
ad

+
2 3 4 2 3 4
2x3 2x5
= 2x + + + ···
3 5
Es decir:
rr

2x3 2x5
 
1+x
ln = 2x + + + ···
1−x 3 5
Para valores pequeños de x, digamos x = 1/3 resulta:
Bo

3 5
1
2 13 2 13
   
1+ 3 1
ln 1 = ln (2) = 2 + + + · · · ≈ 0,6930041152
1− 3
3 3 5

61
2.1. SUCESIONES Y SERIES

Euler notó la siguiente conexión entre logaritmos y las series armónicas. Cambiando x por 1/n en (2.19)
se obtiene  
1 1 1 1 1
ln 1 + = − 2 + 3 − 4 + ···
n n 2n 3n 4n
por lo tanto:  
1 1 1 1 1
= ln 1 + + 2 − 3 + 4 − ···
n n 2n 3n 4n
y para valores de n muy grandes, se cumple que:

r
 
1 n+1
= ln

a
n n
Ahora bien, para diferentes valores de n se obtienen las siguientes relaciones

in
1 1 1
n=1 ⇒ 1 ln (2) + − + − · · ·
=
  2 3 4
1 3 1 1 1
n=2 ⇒ = ln + − + − ···

m
2 2 8 24 64
 
1 4 1 1 1
n=3 ⇒ = ln + − + − ···
3 3 18 81 324
.. .. .. .. ..

eli
. . . . .
1 n+1 1 1 1
= ln + 2 − 3 + 4 − ···
n n 2n 3n 4n
Si sumamos columna por columna resulta:
Xn
1
 
3
Pr  
4

n+1

= ln (2) + ln + ln + · · · + ln
k 2 3 n
k=1
   
1 1 1 1 1 1 1 1
+ 1 + + + ··· + 2 − 1+ + + ··· + 3
2 4 9 n 3 8 27 n
 
1 1 1 1
+ ··· + 4 − ···
or

+ 1+ +
4 16 81 n
Es fácil ver que la suma de los logaritmos de la primera lı́nea se puede escribir como el logaritmo de sus
productos, es decir,
ad

          
3 4 n+1 3 4 n+1
ln (2) + ln + ln + · · · + ln = ln 2 ··· = ln (n + 1) .
2 3 n 2 3 n
De manera que, y siguiendo a Euler que llevó a cabo un estimado para los términos sobrantes, resulta lo
siguiente:
n
rr

X 1
≈ ln (n + 1) + 0,577218 .
k
k=1
Para valores de n muy grandes la suma de las serie armónica es igual a un logaritmo más una constante.
Bo

Esta constante es actualmente llamada la Constante de Euler y denotada por la letra γ:


" n #
X1
γ = lı́m − ln (n + 1) . (2.21)
n→∞ k
k=1

62
2.1. SUCESIONES Y SERIES

La constante de Euler juega un papel central en otras ramas de las matemáticas, por ejemplo, en el
análisis real aparece como: Z ∞
γ=− e−x ln (x) dx .
0

2.1.5. El método de la diferencia


A veces para una serie finita, {sN }, uno encuentra que para el término n-ésimo se tiene que:

r
an = f (n) − f (n − 1) .

a
para alguna función f (n).
En ese caso es inmediato demostrar lo siguiente:

in
N
X N
X N
X
sN = an = f (n) − f (n − 1) = f (N ) − f (0) . (2.22)
n=1 n=1 n=1

m
Por ejemplo, si tenemos la serie:
N
X 1
,
n=1
n(n + 1)

eli
se puede ver que:
1 1 1 1
an = =− + ⇒ f (n) = − ,
n(n + 1) n+1 n n+1
por lo tanto, la suma se podrá expresar como:
Pr
sN = f (N ) − f (0) = −
1
+1=
N
.
N +1 N +1
Se puede ir más allá si identificamos que el término n-ésimo tiene la forma:

an = f (n) − f (n − m) ,

por lo tanto, la suma de la serie se puede escribir como:


or

N
X N
X N
X
sN = an = f (n) − f (n − m) . (2.23)
n=1 n=1 n=1
ad

Hay que hacer notar que el argumento n − m puede ser positivo o negativo. Con lo cual el método de la
diferencia resulta versátil y muy útil cuando se requiere encontrar la suma de series de variada dificultad.
Podemos ver que:
Si m = 1
N
rr

X
sN = an = f (N ) − f (0) .
n=1

como la ecuación (2.22).


Bo

Si m = 2
N
X
sN = an = f (N ) + f (N − 1) − f (0) − f (−1) .
n=1

63
2.1. SUCESIONES Y SERIES

Si m = 3
N
X
sN = an = f (N ) + f (N − 1) + f (N − 2) − f (0) − f (−1) − f (−2) .
n=1

Consideremos la siguiente serie y su expansión en fracciones simples


N
X 1
,
n=1
n(n + 2)

r
se tiene que el término n-ésimo es:

a
1 1 1 1
an = =− + ⇒ f (n) = − ,
n(n + 2) 2(n + 2) 2n 2(n + 2)

in
de manera que:  
1 1
an = f (n) − f (n − 2) = − − − ,
2(n + 2) 2n

m
de forma y manera que, como m = 2, resulta:
 
3 1 1 1 N (3 N + 5)
sN = f (N ) + f (N − 1) − f (0) − f (−1) = − + = .
4 2 N +2 N +1 4 (N + 1) (N + 2)

eli
Ahora bien, con alguna frecuencia surgen las series de números naturales. La más simple es:
N
X N (N + 1)
sN = 1 + 2 + 3 + · · · + N = n= ,
Pr n=1
2

es decir, una serie aritmética de razón d = 1.


Más interesante puede ser la serie de cuadrados de números enteros:
N
X N (N + 1)(2N + 1)
sN = 1 + 22 + 32 + · · · + N 2 = n2 = .
6
or

n=1

Este resultado, nada intuitivo, surge de la aplicación ingeniosa del método de la diferencia. Tal y como
hemos dicho, se trata de encontrar que el elemento genérico de la serie sea: an = f (n) − f (n − 1) = n2 para
alguna función.
ad

Suponga una función del tipo

f (n) = n(n + 1)(2n + 1) ⇒ f (n − 1) = (n − 1)n(2n − 1) ,

entonces:
rr

f (n) − f (n − 1) = n(n + 1)(2n + 1) − (n − 1)n(2n − 1) = 6n2 ,


con lo cual:
N
X f (N ) − f (0) N (N + 1)(2N + 1)
an = 6n2 ⇒ sN = an = = .
Bo

n=1
6 6

64
2.1. SUCESIONES Y SERIES

Sumando por analogı́a


Como siempre, intentaremos proceder por analogı́a. La intención es expresar una serie complicada como
sumas de series conocidas. Considere el siguiente ejemplo:
N
X N
X N N N
 X X X
sN = (n + 1)(n + 3) = n2 + 4n + 3 = n2 + 4n + 3,
n=1 n=1 n=1 n=1 n=1

con lo cual:
N (N + 1)(2N + 1) N (N + 1) N (2N 2 + 15N + 31)

r
sN = + + 3N = .
6 2 6

a
2.1.6. Algebra elemental de series

in
Las series se suman, se igualan y se multiplican. Para ello es importante que tengamos cuidado con los
ı́ndices y sus valores. Consideremos un par de series infinitas:

X ∞
X
u= an y v= bn ,

m
n=0 n=0

con lo cual la suma de esas series será:



X ∞
X ∞
X
u+v = an + bn = (an + bn ) .

eli
n=0 n=0 n=0

Los ı́ndices son mudos y se acomodan para ser sumados.


Para sumar series es imperioso que los ı́ndices de cada serie comiencen con el mismo valor, esto es:
∞ ∞ ∞ ∞
X
an +
X
bj =
Pr
X
(an−1 + bn ) = a0 +
X
(an + bn ) .
n=0 j=1 n=1 n=1

Nótese que hemos hecho los siguientes cambios: j → n y n → n − 1.


Algo parecido ocurre cuando las series se igualan:

X ∞
X ∞
X ∞
X ∞
X
bn = nan ⇒ bn = (k + 1)ak+1 ⇐⇒ [(n + 1)an+1 − bn ] = 0 .
or

n=0 n=1 n=0 k=0 n=0

Para finalizar se puede comprobar que las series también se pueden multiplicar:

X ∞
X ∞
X
uv = an bn = cn ,
ad

n=0 n=0 n=0

donde:
cn = a0 bn + a1 bn−1 + · · · + aj bn−j + · · · + an−2 b2 + an−1 b1 + an b0 .
Cuando las sucesiones comprenden sumas y productos de otras sucesiones, es decir, sı́ uk y vk son dos
rr

sucesiones con uk → U y vk → V cuando k → ∞, entonces se cumple que:


1. si a y b son números independientes de k, entonces auk + bvk → aU + bV cuando k → ∞.
2. uk vk → U V para k → ∞.
Bo

3. si V 6= 0 entonces uk /vk → U/V a medida que k → ∞.


4. si uk < vk ∀ k > N entonces U ≤ V cuando k → ∞.

65
2.1. SUCESIONES Y SERIES

P∞
Teorema: P Si la serie n=1 un converge, entonces cualquiera de sus restos converge. Si cualquier resto

de la serie n=1 un converge, entonces la propia serie también converge, y si además:

X ∞
X ∞
X
S= un , si = un , ri = un .
n=1 n=1 n=i+1

Entonces:
S = si + ri .

r
Se tiene entonces que es posible agregar o quitar un número finito de términos a la serie dada y esta

a
operación no influirá sobre su convergencia. También se desprende del teorema anterior que si la serie converge
entonces su resto tiende a cero:

in
lı́m ri = lı́m (S − si ) = 0 .
i→∞ i→∞

2.1.7. Series telescópicas

m
Una propiedad importante de las series finitas es la propiedad denominada telescópica:
n
X
(ak − ak+1 ) = a1 − an+1 , (2.24)

eli
k=1
P
para el caso de series infinitas, se consideran aquellas series un donde cada término se puede expresar
como una diferencia de la forma:
un = an − an+1 .
Pr
Las series telescópica son series cuyas sumas parciales se van cancelando de manera tal que al final resulta
un número fijo de términos:

(a1 − a2 ) + (a2 − a3 ) + (a3 − a4 ) + · · · + (an − an+1 ) = a1 − an+1 .

Teorema: Sean {un } y {an } dos sucesiones de números reales o complejos tales que:
or

un = an − an+1 para n = 1, 2, 3, ... .


P
Entonces la serie un converge si y sólo si la sucesión {an } converge, en cuyo caso se tiene:
ad


X
un = a1 − L donde L = lı́m an .
n→∞
n=1

Consideremos la siguiente serie:


rr


X 1
2+n
.
n=1
n
Podemos demostrar que:
Bo

1 1 1
un = = − ,
n2 +n n n+1

66
2.1. SUCESIONES Y SERIES

Es fácil verificar que:


N            
X 1 1 1 1 1 1 1 1 1 1 1 1
− = 1− + − + − + − + ··· + − =1− .
n=1
n n+1 2 2 3 3 4 4 5 N N +1 N +1

Pero si aplicamos el teorema anterior, tenemos entonces que: an = 1/n , a1 = 1 y además ya vimos que
la sucesión an = 1/n converge:
1
L = lı́m an = lı́m = 0.
n→∞ n

r
n→∞

Por lo tanto:

a
X 1
2+n
= 1.
n=1
n

in
Las series pueden llegar a tener comportamientos extraños, como se ve con la siguiente serie armónica
alternada:

X (−1)(n−1) 1 1 1 1 1
= 1 − + − + − + ··· ,
n 2 3 4 5 6

m
n=1

Recordemos que anteriormente estudiamos la serie geométrica (2.7), la cual volveremos a escribir pero
está vez intercambiando x → −x, de manera que nos queda de la siguiente forma:

xn+1

eli
1
1 − x + x2 − x3 + · · · + (−1)n xn + (−1)n+1 = . (2.25)
1+x 1+x
Ecuación que es válida para todo n ∈ N y x 6= 1.
Integrando (2.25) entre 0 y 1 se obtiene:

1 1 1 n 1 n+1
Z 1
Pr xn+1
1 − + − + · · · + (−1) + (−1) dx = ln(2)
2 3 4 n+1 0 1+x
n+1
X (−1)(k−1) Z 1
xn+1
+ (−1)n+1 dx = ln(2) .
k 0 1+x
k=1

Por lo tanto:
or

n+1 1
(−1)(k−1) xn+1
X Z
ln(2) − = (−1)n+1 dx .
k 0 1+x
k=1

Se puede ver también que:


ad

1 1 n+1
xn+1 X (−1)(k−1)
Z Z
n+1 1 1
dx ≤ x dx = ⇒ ln(2) − =
0 1+x 0 n+2 k n+2
k=1

Entonces:
rr


" n+1
#
X (−1)(k−1) X (−1)(n−1)
lı́m ln(2) − = 0 ⇒ ln(2) = .
n→∞ k n=1
n
k=1

La suma tienen el valor de S = ln(2).


Bo

Se puede mostrar lo que sucede si se arreglan los términos de la manera siguiente:


     
1 1 1 1 1 1 1 1 1
S =1+ − + + − + + − + + ··· ,
3 2 5 7 4 9 11 6 13

67
2.1. SUCESIONES Y SERIES

la cual contiene exactamente los mismos términos, aunque en orden diferente, pero ahora la serie converge
a S = 32 ln(2). Esta aparente contradicción surge cuando pasamos por alto el hecho de que al sumar los
términos de una serie no se hace la suma con los infinitos términos, lo que hacemos es calcular un lı́mite
de una sucesión de términos que se obtienen sumando de manera consecutiva los términos de otra sucesión
dada, es decir, lo que se hacemos es aplicar un proceso de lı́mite. Para que al sumar no importe el orden de
los sumandos tendrı́amos que sumar los infinitos términos de la sucesión.
A pesar de que las series pueden presentar estos comportamientos extraños, las series resultan muy buenas
representaciones aproximadas de funciones, por ejemplo:

r

x2 x3 x4 X xn
ex = 1 + x + + + + ··· = . (2.26)
2! 3! 4! n!

a
n=0

La suma directa de una serie infinita no es un método práctico para estudiar su convergencia, por ejemplo,

in
la serie

X ln(k)
,
k2
k=2
converge al valor 0, 937548..., pero para obtener estos primeros cinco decimales se tendrı́a que sumar unos

m
107 términos!
Es necesario entonces desarrollar algunos criterios que nos permitan saber si una serie puede llegar a
converger o no.

eli
2.1.8. Ejemplos
1. Dada la sucesión {un } de números reales, se llama sucesión de Cauchy o sucesión fundamental, en el
caso de que satisfaga el requisito siguiente: dado un número real r positivo se pueda conseguir dos
enteros positivos p y q tal que de p > n0 y q > n0 se deduzca que |cp − cq | < r?.
Pr
En los números reales toda sucesión de Cauchy converge a algún lı́mite. Esta particularidad implica
un resultado importante en el análisis real que es la caracterización de Cauchy para la convergencia de
sucesiones:
Una sucesión de números reales es convergente (en los reales) si y solo si es de Cauchy.
2. Demuestre que
or


X 1
n
=1
n=1
2
Se tiene que
1 1 1 1
ad

sn = + + 3 + ··· + n ,
2 22 2 2
1
y que al multiplicar por 2 se obtiene
1 1 1 1 1
sn = 2 + 3 + 4 + · · · + n+1 ,
2 2 2 2 2
rr

restando  
1 1 1 1
1− sn = − n+1 = 1 − n .
2 2 2 2
Bo

por lo tanto  
1
lı́m 1 − n = 1,
n→∞ 2
la serie converge.

68
2.1. SUCESIONES Y SERIES

2.1.9. Practicando con Maxima


Maxima puede calcular fácilmente sumas numéricas finitas, pero cuando le pedimos calcular sumas
simbólicas infinitas podrá calcularlas solo en casos particulares. Es útil al trabajar con series utilizar la
librerı́a simplify sum
Veamos algunos ejemplos sencillos de sumas
(%i1) load(simplify_sum)$

(%i2) sum(n^2, n, 1, N);

r
N

a
X
( %o2) n2
n=1
(%i3) sum(1/n^2, n, 1, inf);

in

X 1
( %o3)
n=1
n2

m
La función sum nos deja indicada la suma porque no hemos especificado el rango para los valores de la
suma.
(%i4) sum(n^2, n, 1, 20);

eli
( %o4) 2870

También podemos utilizar float o numer para pedirle al programa que nos escriba el valor numérico
(%i5) sum(1/n^2, n, 1, 1000),float;
Pr
( %o5) 1,643934566681561

Con las funciones simpsum o simplify sum es posible que el programa realice la suma simbólica.
(%i6) sum(n^2, n, 1, N),simpsum;
or

2 N3 + 3 N2 + N
( %o6)
6
(%i7) simplify_sum(sum(n^2, n, 1, N));

2 N3 + 3 N2 + N
ad

( %o7)
6
Con este último comando podemos escribir la expresión de la sumatoria de manera más elegante.
(%i8) sum(n^2, n, 1, N)=simplify_sum(sum(n^2, n, 1, N));
rr

N
X 2 N3 + 3 N2 + N
( %o8) n2 =
n=1
6
Bo

Consideremos las siguientes series infinitas:


(%i9) sum(x^n/n!, n, 0, inf)=simplify_sum(sum(x^n/n!, n, 0, inf));

69
2.1. SUCESIONES Y SERIES


X xn
( %o9) = ex
n=0
n!
(%i10)sum(1/n^2, n, 1, inf)=simplify_sum(sum(1/n^2, n, 1, inf));

X 1 π2
( %o10) =
n=1
n2 6
Podemos ahorrarnos el estar escribiendo el término enésimo varias veces si definimos la función f = f (n)
en primer lugar.

r
(%i11)f:(-1)^(n-1)/n$ sum(f, n, 1,inf)=simplify_sum(sum(f, n, 1,inf));

a
∞ n−1
X (−1)
( %o11) = log(2)

in
n=1
n
En el siguiente ejemplo el programa no podrá encontrar la serie de manera simbólica, pero como comen-
tamos anteriormente, podemos evaluar la serie para algunos valores de N . En este caso, para N >10.000 el
consumo en tiempo de cálculo para la computadora comienza a notarse.

m
(%i12)f:log(n)/n^2;

log(n)
( %o12)

eli
n2
(%i13)sum(f, n, 1,inf)=simplify_sum(sum(f, n, 1,inf));
∞ ∞
X log(n) X log(n)
( %o13) =
n2 n2
n=1 n=1
Pr
(%i14)sum(f,n,2,10),numer;sum(f,n,2,100),numer;sum(f,n,2,1000),numer;sum(f,n,2,10000),numer;
( %o14) 0,6185026440390787
( %o15) 0,8817261267819703
( %o16) 0,9296439518465429
( %o17) 0,9365272663288963
or

Este último ejercicio puede ser resuelto de una manera más eficiente si expresamos la función de variable
discreta como una sucesión utilizando la opción de crear una lista, makelist, para evaluarla.
Primero escribimos la función discreta, note que usamos :=
ad

(%i18)g[n]:=log([n])/[n]^2;

log([n])
( %o18) gn :=
[n]2
(%i19)makelist(sum(g[n],n,2,N),N,[10,100,1000,10000]),numer;
rr

( %o19) [[0,6185026440390787], [0,8817261267819703], [0,9296439518465429], [0,9365272663288963]]


Por lo tanto, hacer cálculos con sucesiones es sencillo, veamos algunos ejemplo de sucesiones.
Definimos la siguiente sucesión, la de Fibonacci :
Bo

(%i20)kill(all)$
(%i1) F[1]:1$ F[2]:1$ F[n]:=F[n-1]+F[n-2];

70
2.1. SUCESIONES Y SERIES

( %o3) Fn := F [n − 1] + F [n − 2]
(%i4) makelist(F[n],n,1,15);
( %o4) [1, 1, 2, 3, 5, 8, 13, 21, 34, 55, 89, 144, 233, 377, 610]

Maxima ya contiene la sucesión de Fibonacci fib(n) en sus librerı́as de funciones propias. En este caso
aplicaremos la función map para evaluar la sucesión en los diferentes valores de su argumento n
(%i5) fib(8);

r
( %o5) 21

a
(%i6) map (fib, [ 1, 2, 3, 4, 5, 6, 7, 8, 9, 10]);

in
( %o6) [1, 1, 2, 3, 5, 8, 13, 21, 34, 55]

Definamos ahora otra sucesión

m
(%i7) G[n]:=(-1)^n*(1+1/n);
 
1
( %o7) Gn := (−1)n 1 +
n

eli
(%i8) makelist(G[n],n,1,15);
 
3 4 5 6 7 8 9 10 11 12 13 14 15 16
( %o8) −2, , − , , − , , − , , − , , − , , − , , −
2 3 4 5 6 7 8 9 10 11 12 13 14 15
Podemos hacer operaciones básicas con sucesiones, como sumarlas
Pr
(%i9) S[n]:=F[n]+G[n]; makelist(S[n],n,1,15);
( %o9) Sn := Fn + Gn 
5 2 17 19 55 83 177 296 561 967 1741 3015 5293 9134
( %o10) −1, , , , , , , , , , , , , ,
2 3 4 5 6 7 8 9 10 11 12 13 14 15
Operaciones combinadas
or

(%i11)C[n]:=3*F[n]-n*G[n]; makelist(C[n],n,1,15);
( %o11) Cn := 3Fn − n Gn
( %o12) [5, 0, 10, 4, 21, 17, 47, 54, 112, 154, 279, 419, 713, 1116, 1846]
ad

Multiplicación
(%i13)M[n]:=F[n]*G[n]; makelist(M[n],n,1,15);
rr

( %o13) M
 n := Fn Gn 
3 8 15 28 104 189 340 121 1068 3262 5655 1952
( %o14) −2, , − , , −6, , − , ,− , ,− , 156, − , ,−
2 3 4 3 7 8 9 2 11 13 14 3
Bo

División
(%i15)D[n]:=F[n]/G[n]; makelist(M[n],n,1,15);

71
2.1. SUCESIONES Y SERIES

Fn
( %o15) Dn :=
 Gn 
1 2 3 12 25 48 91 56 153 979 1728 3029 5278 4575
( %o16) − , , − , , − , , − , , − , 50, − , ,− , ,−
2 3 2 5 6 7 8 3 5 12 13 14 15 8
Consideremos la siguiente sucesión:
(%i17)f[n]:=(n+1)/(2*n^2);
n+1
( %o17) fn :=

r
2n2

a
Para algún valor de n en particular:
(%i18)f[2];

in
3
( %o18)
8
Para un conjunto de valores:

m
(%i19)makelist(f[n],n,1,15);
 
3 2 5 3 7 4 9 5 11 6 13 7 15 8
( %o19) 1, , , , , , , , , , , , , ,

eli
8 9 32 25 72 49 128 81 200 121 288 169 392 225
Si queremos graficar la sucesión hacemos lo siguiente
(%i20)N[n]:=n$ LisN:makelist(N[n],n,1,50)$ Listf:makelist(f[n],n,1,50)$
Pr
(%i21)wxplot2d([discrete,LisN,Listf],[style,[points,2,2,1]],[xlabel,"n"],[ylabel,"f(n)"]);

( %o21)
or
ad
rr
Bo

Otro ejemplo de una sucesión que converge es el siguiente

72
2.1. SUCESIONES Y SERIES

(%i22)g[n]:=1+(-1)^n/(n);

(−1)n
( %o22) gn := 1 + ;
n
(%i23)Listg:makelist(g[n],n,1,50)$

(%i24)wxplot2d([discrete,LisN,Listg],[style,[points,2,2,4]],[xlabel,"n"],[ylabel,"g(n)"]);

( %o24)

a r
in
m
eli
Pr
2.1.10. Ejercicios
1. Encuentre la suma de los 100 primeros enteros.
or

2. Encuentre la distancia total que recorre una pelota que rebota verticalmente y que en cada rebote
pierde 2/3 de su energı́a cinética.
5 8 11
3. Encuentre la suma de la serie S = 2 + 2 + 4 + 8 + ···.
ad

4. Demuestre que
a)

X 1
=1
n(n + 1)
rr

n=1

b)

X 1 1
=
(2n − 1)(2n + 1) 2
Bo

n=1

5. Determine el limite de las siguientes sucesiones cuando n → ∞.


n
a) un = n+1

73
2.2. CRITERIOS DE CONVERGENCIA

1
b) un = 1+n2
n2
c) un = 1+n
(an+b)2
d ) un = cn2 +d
P 2
PN N N 2 (N +1)2
6. Muestre que sN = 1 + 23 + 33 + · · · + N 3 = 3
n=1 n = n=1 n = 4 .

7. Demuestre que para |x| < 1

r
P∞ n x
a) n=1 nx = (1−x)2

a
x2 +x
P∞ 2 n
b) n=1 n x = (1−x)3

in
x3 +4x2 +x
P∞ 3 n
c) n=1 n x = (1−x)4
x4 +11x3 +11x2 +x
P∞ 4 n
d) n=1 n x = (1−x)5

8. Demuestre que:

m
" n
# " n #
X 1 X1
lı́m − ln (n + 1) = lı́m − ln (n) .
n→∞ k n→∞ k
k=1 k=1

eli
2.2. Criterios de convergencia
PN
La pregunta que nos planteamos es la siguiente: Si hacemos que N → ∞ entonces ¿la suma k=1 ak ,
tiene un lı́mite? A pesar de que sólo podremos calcular la suma de algunas series, existen algunas formas
Pr
de averiguarlo. Es decir, en la mayorı́a de los casos nos será imposible y nos tendremos que conformar con
saber si convergen o no, o peor aún, si una suma parcial converge sin poder calcular el valor de esa suma.
Los términos de una serie pueden ser positivos, negativos o números complejos y las series pueden conver-
ger (decrecer o crecer hacia un valor finito) no converger (incrementar o decrecer indefinidamente) u oscilar.
Existe una serie de criterios y teoremas de aplicación general que expondremos a continuación.

2.2.1. Convergencia absoluta o condicional


or

P
Para estudiarP la convergencia de una serie infinita dada, ai veremos que siempre podremos asociarle
otra de la forma |ai |, es decir, la serie de valores absolutos, con lo cual garantizamosP la positividad (y que
sean números reales) de los términosP de la serie. Si la serie de los valores absolutos |ai | converge, entonces
ad

también convergerá la serie original ai y diremos que esa serie P es absolutamente convergente. Sin embargo
si la serie de valores absolutos diverge, no podremos decir que ai converja. De hecho, si converge diremos
que es condicionalmente convergente y, con un rearreglo de sus términos podrá converger, diverger u oscilar.
P P
Teorema: Si |an | converge, entonces también converge an y se tiene que:
rr

∞ ∞
X X
an ≤ |an |



n=1 n=1
Bo

Para una serie de términos positivos el criterio de convergencia más intuitivo (necesario pero no suficiente)
es que en lı́mite cuando n → ∞ el término n-ésimo tienda a cero. Con lo cual tenemos que si esta condición
no se satisface, la serie diverge.

74
2.2. CRITERIOS DE CONVERGENCIA

P
Teorema: Si la serie an converge, el término n-ésimo tiende a cero, esto significa que:

lı́m an = 0 .
n→∞

Notemos que para la serie:



X 1 1
⇒ lı́m = 0,
n=1
n n→∞ n

r
sin embargo, como ya vimos anteriormente, esta serie diverge. Esto significa que el teorema suministra una
condición suficiente para que exista la divergencia de la serie, es decir,
Psi para el término n-ésimo de la serie

a
an no se cumple que tiende a cero cuando n → ∞, entonces la serie an diverge.
Una serie que es convergente pero que no es absolutamente convergente es la siguiente

in

X 1 1 1 1
(−1)n+1 = 1 − + − + · · · = ln(2)
n=1
n 2 3 4

porque ya vimos que la serie de los valores absolutos asociada a la serie anterior es

m

X 1
n=1
n

eli
la cual diverge.

2.2.2. Criterio de Comparación


En segundo lugar de simplicidad está el criterio de comparación entre un par de series de términos
positivos. Si conocemos el comportamiento
Pr
P∞ de una de ellas comparamos el de la otra. Esto es, suponga
P∞ que
consideramos dos series: una de prueba n=0 an y una serie conocida y convergente (o divergente) n=0 ãn ,
entonces

X ∞
X ∞
X ∞
X
Si ãn converge y ∀ n se tiene que ãn > an ⇒ ãn > an ⇒ an converge
n=0 n=0 n=0 n=0
or

Por otro lado



X ∞
X ∞
X ∞
X
Si ãn diverge y ∀ n se tiene que 0 6 ãn 6 an ⇒ ãn 6 an ⇒ an diverge
n=0 n=0 n=0 n=0
ad

Para ilustrar esta estrategia consideremos la siguiente serie:



1 1 1 1 X 1
+ + + + ··· =
2 3 7 25 n=1
n! + 1
rr

En ese caso la comparamos con una serie conocida



X 1 1 1 1 1 1 1
= + + + + ··· = 1 + 1 + + + ··· = 1 + e
n! 0! 1! 2! 3! | 2! {z3!
Bo

n=0 }
e

y es claro que la serie indicada no es otra cosa que e, con lo cual la serie claramente converge y su suma es
1 + e.

75
2.2. CRITERIOS DE CONVERGENCIA

2.2.3. Criterio de la Raı́z


P∞
Dada una serie de términos positivos n=0 an , el criterio de la raı́z (o también de la raı́z de Cauchy)
puede resumirse en el siguiente par de afirmaciones. Sı́:
1
(an ) n 6 ρ < 1 para un n suficientemente grande y ρ independiente de n ⇒ converge
1
(an ) n > 1 para un n suficientemente grande y ρ independiente de n ⇒ diverge

r
1
(an ) n = 1 para un n suficientemente grande y ρ independiente de n ⇒ (?)

a
Otra forma, más compacta de expresarlo serı́a

in


 ρ<1 ⇒ converge


1

Sı́ ρ = lı́m (an ) n entonces: ρ>1 ⇒ diverge
n→∞ 

m


ρ=1 ⇒ (?)

Es fácil ver que si utilizamos el criterio de comparación, entonces


eli
1
 cuando ρ < 1 la serie converge
(an ) n 6 ρ ⇒ an 6 ρn ⇒
cuando ρ > 1 la serie diverge

Dada la siguiente serie:


2
PrX∞ 
n
n
,
n=0
n+1
por lo tanto:  n
1 n 1 1 1
(an ) n = = n ⇒ ρ = lı́m n = < 1 .
n+1 1 + n1 n→∞ 1 + n1 e
or

La serie converge.

2.2.4. Criterio de d’Alembert


P∞
Dada una serie de términos positivos n=0 an , el criterio de d’Alembert5 o también llamado criterio del
ad

cociente, compara el valor relativo de un término de la serie con el que le precede. Este criterio se resume
también fácilmente


 ρ < 1 ⇒ converge


an+1
rr


Si ρ = lı́m entonces: ρ > 1 ⇒ diverge
n→∞ an 



ρ = 1 ⇒ indeterminado

Bo

5 Jean Le Rond d’Alembert Parı́s, Francia 1717 - 1783. Matemático francés pionero en el estudio de las ecuaciones

diferenciales y su utilización en la Fı́sica, en particular en el estudio de los fluı́dos. Más detalles en [Link]
wiki/Jean_Le_Rond_d’Alembert

76
2.2. CRITERIOS DE CONVERGENCIA

Nótese que si
an+1
ρ<1 ⇒ ρ<x<1 ⇒ < x ⇒ an+1 = an x .
an
Entonces para un N < n, pero también suficientemente grande, tendremos que los términos de la serie a
partir de ese N serán
aN + aN +1 + aN +2 + aN +3 · · · = aN + xaN + x2 aN + x3 aN · · · = aN 1 + x + x2 + x3 + x4 · · ·


y que no es otra cosa que una serie geométrica con razón x < 1 y por consiguiente converge. Es claro que un

r
argumento similar se puede utilizar para probar la divergencia.
Un ejemplo inmediato lo constituye la serie

a
∞ n+1  
1 1 3 1 5 X n 2n+1 1n+1 1 1
+ + + + + ··· = ⇒ n = = 1+ ,
2 2 8 4 32 2n 2 n 2 n

in
n=1 2n
  
1 1 1
ρ = lı́m 1+ = < 1,
n→∞ 2 n 2

m
con lo cual tiene que converger.

2.2.5. Criterio de la Integral de Maclaurin


El criterio de la Integral de Maclaurin6 es otro criterio de comparación, pero esta vez se compara la serie

eli
con una integral. Ası́ supondremos que existe una función f (x) continua y monótonamente decreciente para
un valor de x > x0 y que, adicionalmente, se cumple que para algún valor entero x = n el valor de la función
RN
es igual a un término de la serie,
P∞ esto es, f (n) = an . Entonces se tendrá que si el lı́mite lı́mN →∞ dx f (x)
existe y es finito, entonces n=1 an converge. Por el contrario si el lı́mite no existe o es infinito, entonces
diverge.
Pr
La idea de este criterio es comparar la integral de f (x) (el área bajo la curva) con la suma de rectángulos
que representa la serie. Entonces, la suma parcial
i
X i
X
si = an ≡ f (n) .
n=1 n=1
or

Pero: R i+1 
si > 1
dx f (x)  Z i+1 Z i
⇒ dx f (x) ≤ si ≤ dx f (x) + a1
Ri  1 1
si − a1 < dx f (x)
ad

1
dondePa1 = f (1), con lo cual, al hacer i → ∞ tendremos que si el lı́mite de la integral existe, entonces la

serie n=1 an converge.
Z ∞ ∞
X Z ∞
dx f (x) ≤ an ≤ dx f (x) + a1
1 n=1 1
rr

Un ejemplo inmediato podrı́a ser determinar si la siguiente serie converge



X 1
.
3 2
Bo


n=1 n− 2
6 Colin Maclaurin 1698, Argyllshire, Escocia - 1746 Edinburgo, Escocia. Matemático escocés quien escribió el Tratado de

los Fluxiones el primer tratado que expuso de una manera sistemática y rigurosa el cálculo diferencial ideado por Newton. Este
tratado fue como respuesta a la crı́tica de Berkeley sobre la falta de rigurosidad de los métodos Newton.

77
2.2. CRITERIOS DE CONVERGENCIA

a r
in
Figura 2.5: El criterio de la integral

m
Hacemos
N
−1
Z
1 1
f (x) =  ⇒
3 2
 dx
3 2
= ,
x− x− N − 23
2 2

eli
debemos ahora calcular el lı́mite  
−1
lı́m =0
N →∞ N − 32
con lo cual claramente converge.
Pr
Este criterio es muy útil para acotar (entre un ı́nfimo y un supremo) el residuo de una determinada serie.
Vale decir

X N
X ∞
X Z ∞ ∞
X Z ∞
an = an + an ⇒ dx f (x) ≤ an ≤ dx f (x) + aN +1 .
n=1 n=1 n=N +1 N +1 n=N +1 N +1
| {z }
Residuo
or

Podemos comprobar que la función Zeta de Riemann,



X
ζ(z) = n−z ,
ad

n=1

efectivamente converge. En este caso f (x) = x−z , entonces


 ∞
x1−z
∞ Z ∞ 
 1−z Para z 6= 1
rr

X 1
−z −z
ζ(z) = n ⇒ dx x =
n=1 1  ∞
ln(x)|1 Para z = 1

y
Pes claro que para z > 1 el lı́mite existe y es finito, por lo tanto, la función Zeta de Riemann, ζ(z) =
Bo

∞ −z
n=1 n , converge para z > 1.

78
2.2. CRITERIOS DE CONVERGENCIA

2.2.6. Series alternantes y convergencia condicional


Hasta ahora todos los criterios que analizamos eran para una serie de términos positivos,
P∞por lo cual todos
esos criterios
P∞ nos llevaban al concepto de series absolutamente convergente. Esto es, si n=0 |an | converge,
entonces n=0 an también converge. Sin embargo, muchas veces nos tendremos que conformar con que una
serie sea simplemente convergente y no requerir que sea absolutamente convergente. Este es el caso de las
series alternantes. Series en las cuales se alternan términos positivos y negativos:

X
a1 − a2 + a3 − a4 + a5 − a6 + · · · + a2n−1 − a2n + · · · = (−1)n+1 con an ≥ 0 .

r
n
n=1

a
Entonces, si la serie es monótona decreciente para un n suficientemente grande tenemos lo que se denomina
el Criterio de Leibniz:

in


 an > an−1 ∀ n>N



X 
(−1)n+1 an converge, si: ∧

m

n=1 


an → 0 cuando n → ∞

De otro modo la serie oscilará.


Estas condiciones son fáciles de ver si reorganizamos la serie de los primeros 2m términos, a partir de un

eli
determinado N par y N > n, entonces

s2m = (aN − aN −1 ) + (aN −2 − aN −3 ) + · · · + (aN +2m−2 − aN +2m−1 ) ,

donde todos los paréntesis son positivos, con lo cual s2m > 0 y se incrementa al incrementar m. Ahora bien,
si rearreglamos la serie tendremos que
Pr
s2m = aN − (aN −1 − aN −2 ) − (aN −3 − aN −4 ) + · · · − (aN +2m−1 − aN +2m−2 ) − aN +2m−1 ,

donde, otra vez los paréntesis son positivos y es inmediato comprobar que entonces s2m < an para todo m.
Como an → 0 cuando n → ∞, la serie alternante necesariamente converge.
or

La series alternantes ya eran conocidas desde hace mucho tiempo, como por ejemplo la serie

X x2 x3 x4 xn
an = x − + − + · · · + (−1)n−1 + ··· .
n=1
2 3 4 n
ad

Esta serie converge y su suma es ln(1 + x) para −1 < x ≤ 1. Para x positivo es una serie alternante y en
el caso particular de x = 1 se tiene:
 
1 1 1 1
1 − + − + · · · + (−1)n−1 + · · · = ln(2) .
2 3 4 n
rr

Otra relación interesante es:


 
1 1 1 1 π
1− + − + · · · + (−1)n−1 + ··· = .
Bo

3 5 7 2n − 1 4

Consideremos ahora el siguiente teorema:

79
2.2. CRITERIOS DE CONVERGENCIA

Teorema: Si {an } es una sucesión monótona decreciente con lı́mite igual a cero, la serie alternante

X
(−1)n−1 an ,
n=1

converge.

Si S es su suma y sn su suma parcial n-ésima, se tiene que:

r
0 < (−1)n (S − sn ) < an+1 para n ≥ 1 .

a
Consideremos la siguiente serie

in
∞  
X 1 1 1 1
(−1)n−1 = 1 − + − + ··· .
n=1
n 2 3 4

Sabemos que 1/n es una sucesión monótona decreciente y que:

m
1
lı́m = 0,
n→∞ n

eli
por lo tanto, de acuerdo al teorema anterior la serie converge; como ya hemos visto.
Consideremos ahora la serie
Z n+1
1 dx
a2n−1 = y a2n = para n = 1, 2, 3, ... .
2 n x

Por otro lado, se tiene también que:


Pr
lı́m an = 0 ,
n→∞

y que an es monótona decreciente, por lo tanto la serie



X
(−1)n−1 an ,
or

n=1

converge.

2.2.7. Ejemplos
ad
rr
Bo

80
2.2. CRITERIOS DE CONVERGENCIA

2.2.8. Practicando con Maxima


Demostremos que determinada sucesión converge a partir de la definición de lı́mite. Consideremos la
siguiente sucesión de número reales:
n−1
an =
n+2
convergente y de lı́mite L = 1.
Aplicaremos la definición de lı́mite, es decir, utilizaremos la condición para la existencia de un lı́mite L,
que para cada ε > 0 existe un número N = N (ε) ∈ N tal que:

r
|L − an | < ε para n > N ⇒ |sn − am | < ε para, todo n, m > N .

a
Consideremos la siguiente sucesión:
n−1

in
an = .
n+2
(%i1) a[n]:=(n-1)/(n+2);

m
n−1
( %o1) an :=
n+2
Calculemos |L − an |, con L = 1

eli
(%i2) I1:(factor(1-a[n]));
3
( %o2)
n+2
3
Entonces < ε para todo n > N . Lo que implica que
n+2
Pr
3
ε− >0
n+2

(%i3) I2:factor(epsilon-I1);
εn + 2ε − 3
or

( %o3)
n+2
Lo que tenemos entonces es:
εn + 2ε − 3
> 0,
ad

n+2
para todo n > N . Despejemos n de la desigualdad.
(%i4) sol:solve(I2=0,n);
 
2ε − 3
rr

( %o4) n = −
ε

(%i5) I3:rhs(sol[1]);
Bo

2ε − 3
( %o5) −
ε

81
2.2. CRITERIOS DE CONVERGENCIA

Por lo tanto
2ε − 3
n>− .
ε
Entonces, dado un ε, y por muy pequeño que éste sea, se tiene
(%i6) epsilon:0.01; N:I3,numer; assume(n>N)$ is(I1<epsilon);

( %o6) 0.01
( %o7) 298.0

r
( %o8) true

a
(%i9) epsilon:0.0001; N:I3,numer; assume(n>N)$ is(I1<epsilon);

( %o9) 1.0 × 10−4

in
( %o10) 29998.0
( %o11) true
(%i12)epsilon:0.000001; N:I3,numer; assume(n>N)$ is(I1<epsilon);

m
( %o12) 9.999999999999999 × 10−7
( %o13) 2999998.0
( %o14) true

eli
Este procedimiento que podemos seguir haciendo para ε cada vez más pequeño, pero siempre con ε > 0.
La condición se seguirá cumpliendo para un N que se incrementará a medida que ε se tiende a cero.
Es claro que también podemos escribir
(%i15)’limit(a[n],n,inf)=limit(a[n],n,inf);
Pr
n−1
( %o15) lı́m =1
n→∞ n+2
> restart:
> assume(p>1):
> Limit(Int((x)∧ (-p),x=1..infinity),x=infinity)=
or

limit(int((x)∧ (-p),x=1..infinity),x=infinity);
> assume(p<=1):
> Limit(Int((x)∧ (-p),x=1..infinity),x=infinity)=
limit(int((x)∧ (-p),x=1..infinity),x=infinity);
ad

2.2.9. Ejercicios
1. Encuentre el radio de convergencia de las siguientes series
a)
rr


X
n2 xn
n=0
Bo

b)

X 2n n
x
n=0
n!

82
2.3. SERIES DE FUNCIONES

c)

X 5n n
x
n=0
n3/2

d)

X n4 n
x
n=0
5n

e)

r

X xn

a
n=0
[3 + (−1)n ]n

f)

in

X xn
n=0
2n+(−1)n

m
2.3. Series de funciones
La idea de series se puede ampliar al permitir que sus términos sean función de alguna variable (una o
varias), esto es an = an (x). Esta extensión del concepto se serie, trae como consecuencia que ahora las sumas

eli
parciales dependen de x
Xn
sn (x) = ak (x) = a0 (x) + a1 (x) + a2 (x) + · · · ,
k=0
con lo cual, si
Pr ∞
X
lı́m sn (x) = S(x) = ak (x) ,
n→∞
k=1
entonces, el comportamiento de las serie también dependerá de la variable.
La convergencia de la serie podrá ser posible para algunos valores de x y no para otros. El punto central
con las series de funciones f (x) complicadas es la de tratar de construir funciones como una serie de términos,
ak (x), más simples. Ası́, esas sumas parciales fn (x) constituirán la función deseada
or


X n
X
f (x) = ak (x) = lı́m ak (x) .
n→∞
k=1 k=1
ad

Estaremos interesados en aquellas funciones a las cuales converjan las sumas parciales de una serie. Para
fijar conceptos, comenzaremos por las series de funciones más comunes: Las Series de Potencias.

2.3.1. Series de potencias


rr

Asociaremos una serie de potencias an = cn xn a un polinomio de grado infinito.



X ∞
X n
P (x) = c0 + c1 x + c2 x2 + c3 x3 + c4 x4 + · · · = cn xn , o también P (x − x0 ) = cn (x − x0 ) .
Bo

n=0 n=0

Esta asociación tiene la ventaja de permitirnos intuir algunos comportamientos de la serie para algunos
valores de x. Los coeficientes cn son números independientes
P∞ de x. Pero, más aún, estas series pueden ser
series de potencias de número complejos. Vale decir, n=0 cn z n con z = x + iy.

83
2.3. SERIES DE FUNCIONES

2.3.2. Convergencia de una serie de potencias


P∞Se pueden utilizar
n
todos los criterios que hemos desarrollado anteriormente. Ası́ una serie de potencias
a
n=0 n (x − x 0 ) converge en un punto x0 si el lı́mite

X n
lı́m an (x − x0 )
n→∞
n=0

existe, para x = x0 , para todo


P∞x o para algunos x.
n

r
Una serie de potencias n=0 cn (x − x0 ) convergerá absolutamente sı́
n

a
X
j
lı́m cj (x − x0 ) = ρ , existe.

n→∞
j=0

in
P∞ n
P∞ se cumplirá nel criterio de convergencia absoluta. Esto es, si n=0 |cn (x − x0 ) | converge, en-
También
tonces, n=0 cn (x − x0 ) converge, pero el inverso no es siempre verdad.
Los criterios más populares para evaluar la convergencia, se seguirán cumpliendo. Ası́ el criterio de

m
d’Alembert y el de la raı́z de Cauchy se podrán reescribir como:

n+1
 c
n+1 (x − x 0 )
ρ(x) < 1 ⇒ converge
 lı́m
n→∞
cn (x − x0 )n


ρ(x) = ⇒

eli
ρ(x) > 1 ⇒ diverge


n
 p
lı́mn→∞ n cn (x − x0 )

Sólo que ahora es bueno enfatizar que ρ = ρ(x) dependerá de la variable. Llamaremos, de ahora en
adelante a este lı́mite el radio o entorno de convergencia, el cual delimitará los valores de x para que la serie
de potencias converja.
Pr
Consideremos el siguiente ejemplo, dada la serie

x2 x3 xn X xn
1+x+ + + ··· + + ··· = ,
2 6 n! n=0
n!
por lo tanto n+1
or

x

an+1 (n + 1)! x
lı́m = lı́m n n→∞ n + 1 = 0 ,
= lı́m
n→∞ an n→∞
x
n!
ad

es decir,
an+1
ρ(x) = lı́m = 0,
n→∞ an
con lo cual la serie converge para todo valor de x.
Para puntualizar:
rr

Si una serie converge en x = x1 , convergerá absolutamente para |x − x0 | < |x1 − x0 | y divergerá para
|x − x0 | > |x1 − x0 |.
P∞ n
Se llama radio de convergencia, ρ = ρ(x) a aquella cantidad tal que la serie n=0 an (x − x0 ) converge
Bo

para |x − x0 | < ρ y diverge para |x − x0 | > ρ.


P∞ n
Una serie n=0 an (x − x0 ) que converge únicamente para x = x0 tendrá un radio de convergencia
ρ = 0, mientras que una que converja para todo x tendrá un radio de convergencia ρ = ∞.

84
2.3. SERIES DE FUNCIONES

2.3.3. Convergencia uniforme


Se puede refrasear el criterio de convergencia de Cauchy que vimos anteriormente. Para cualquier valor
de  > 0, tan pequeño como uno quiera, siempre existirá un número N independiente de x, con a ≤ x ≤ b,
tal que:
X∞
si S(x) = lı́m sn (x) = an (x) ⇒ |S(x) − sn (x)| <  ∀ x ∈ [a, b] ∧ n ≥ N.
n→∞
n=1

Con ello es inmediato identificar el error que se comete cuando se corta la serie en un N suficientemente

r
grande
N ∞

a
X X
S(x) = an (x) + an (x)
n=1 n=N +1
| {z } | {z }

in
sn (x) ≈

Hay que resaltar el hecho de que las suma de funciones continuas an (x) no necesariamente habrá de
ser continua, el concepto de convergencia uniforme busca garantizar que esa suma de funciones continuas
también sea continua.

m
Recordemos la idea de continuidad de una función. Una función será continua si sus lı́mites por la derecha
y por izquierda coinciden
lı́m± f (t) = f (x)
t→x

eli
Por otro lado, a partir del hecho de que
f (x) = lı́m fn (x)
n→∞

es valido preguntarse si el lı́mite de la sucesión de sumas parciales es continua, esto es:


h
Pr
i
?

lı́m lı́m fn (x) = lı́m lı́m fn (x) .


t→x± n→∞ n→∞ t→x±

Es decir, al suponer que la suma de términos continuos tiende a una función continua estamos suponiendo
que podemos intercambiar los lı́mites, pero eso no es siempre cierto. Consideremos el caso (extremo)
n
fn = n 2 x 1 − x2 con: 0 ≤ x ≤ 1 y n = 1, 2, 3, . . .
or

entonces:
Z 1 h i
lı́m fn = 0 ⇒ dx lı́m fn (x) = 0
n→∞ n→∞
ad

0
Z 1 2 Z 1
n
dx fn (x) = ⇒ lı́m dx fn → ∞
0 2(n + 1) n→∞ 0

Claramente no se pueden intercambiar los lı́mites.


Por ejemplo, sea la serie
rr


X x2 x2 x2 x2
f (x) = ak (x) = x2 + 2
+ 2 + 3 + ··· + k
+ ··· ,
1+x (1 + x2 ) (1 + x2 ) (1 + x2 )
k=0
Bo

de manera que
x2
ak (x) = k
.
(1 + x2 )

85
2.3. SERIES DE FUNCIONES

Como
an+1 (x) 1
= <1 ∀ x 6= 0 ,
an (x) 1 + x2
la serie es absolutamente convergente ∀ x (x 6= 0).
Sin embargo, tenemos que f (0) = 0. El término n-ésimo para la suma parcial es
n−1
X 1 1 1 + x2
fn (x) = x2 k
= 1 + x2 − n−1 = 1 + x2 − n ,
(1 + x2 ) (1 + x2 ) (1 + x2 )

r
k=0

como 1 + x2 > 1, entonces:

a
lı́m fn (x) = 1 + x2 , x 6= 0 .
n→∞

in
pero hemos establecido que f (0) = 0 de manera que f (x) no es continua.
Para el caso de series de funciones, existen un par de criterios que identifican la convergencia uniforme. El
criterio Mayorante de Weierstrass7 y el criterio de Abel8 . Estos criterios desarrollan la noción de convergencia
uniforme la cual es necesaria para asegurar el intercambio en los lı́mites.

m
2.3.4. Criterio Mayorante de Weierstrass
La idea de convergencia uniforme se introduce para garantizar que la sumas infinitas de un conjunto de

eli
funciones sea continua.
Una condición suficiente, pero no necesaria, para que la serie

X
a1 (x) + a2 (x) + a3 (x) + · · · + an (x) + · · · = an (x)
Pr n=1

sea uniformemente convergente es dada por la condición de Weierstrass:


Si encontramos una serie convergente de números positivos

X ∞
X
M= Mj con Mi ≥ |ai (x)| ∀ x ∈ [a, b] entonces la serie an (x)
j=1 n=1
or

es uniformemente convergente. P∞
La demostración se obtiene a partir de la definición misma de convergencia. Si j=1 Mj converge, entonces
para n + 1 ≥ N se tiene
ad


X ∞
X ∞
X
Mj <  y como |ai (x)| ≤ Mi ⇒ |ai (x)| <  ⇒ |S(x) − sn (x)| ≡ |ai (x)| < 
j=n+1 j=n+1 j=n+1
P∞
con la cual la serie n=1 an (x) será uniformemente convergente para todo x ∈ [a, b].
rr

Ahora bien, como consideramos los Mi ≥ 0. La serie en cuestión también será absolutamente convergente.
Otra vez, los criterios de convergencia absoluta y, en este caso, de convergencia uniforme, no son consecuencia
uno del otro, ni están relacionados.
7 Karl Theodor Wilhelm Weierstrass (1815 - 1897). Matemático Alemán con importantes contribuciones al análisis
Bo

complejo mediante la utilización de series.


8 Niels Henrik Abel (1802-1829). Matemático Noruego. Su primera mayor aportación fue la prueba de la imposibilidad de

resolución algebraica de la ecuación quı́ntica mediante radicales.

86
2.3. SERIES DE FUNCIONES

Las series
∞ ∞
X (−1)n X xn
para − ∞ < x < ∞ ∧ (−1)n−1 para 0 ≤ x ≤ 1
n=1
n + x2 n=1
n

convergen uniformemente pero NO absolutamente. P



Sin embargo, en el intervalo 0 ≤ x ≤ 1 la serie j=0 (1 − x)xj converge absolutamente pero no unifor-
memente, por cuanto tiene una discontinuidad. Se puede demostrar que
∞ 

r
X 1, 0 ≤ x < 1
(1 − x)xj =
0, x=1
j=0

a
P∞
con lo cual se puede concluir que una serie arbitraria f (x) = j=1 ai (x) no podrá converger uniformemente
en intervalos en los cuales la función f (x) sea discontinua.

in
Por ejemplo, la serie
1 1
f (x) = cos(x) + 2 cos2 (x) + 2 cos3 (x) + · · ·
2 3
es uniformemente convergente, porque al tomar Mk = 1/k 2 la serie

m

X 1
,
k2
k=1

eli
2
converge a π /6.

2.3.5. Criterio de Abel


Pr
El criterio de Abel se puede resumir de la siguiente manera. Sı́

X
f (x) = ai (x) ∧ ai (x) = ci (x)fi (x) ,
i=0
P∞
donde i=0 ci (x) converge, es decir:
n
X
lı́m ci (x) = S ,
or

n→∞
i=0
entonces la serie converge uniformemente en [a, b].
Para que se cumpla el criterio de Abel, fn (x) tiene que estar acotada (0 ≤ fn ≤ M ∀ n) y tiene que ser
monótonamente decreciente en el intervalo en el cual esté definida, fn+1 (x) ≤ fn (x) con x ∈ [a, b].
ad

En resumen, si la serie

X
f (x) = a1 (x) + a2 (x) + a3 (x) + · · · + an (x) + · · · = an (x)
n=1
rr

es uniformemente convergente para a ≤ x ≤ b, entonces es posible integrar y diferenciar término por término.


df X dak
=
Bo

dx dx
k=1
Z β X∞ Z β
f (x) dx = ak (x) dx ,
α k=1 α

87
2.3. SERIES DE FUNCIONES

donde a ≤ α < β ≤ b.
La convergencia uniforme no implica convergencia absoluta y convergencia absoluta no implica conver-
gencia uniforme, como se vio anteriormente, la serie

X x2
n ,
n=0
(1 + x2 )

es absolutamente convergente pero no uniformemente convergente cerca de x = 0.


Las series absolutamente convergentes tienen la propiedad de comportarse como las series finitas, los

r
términos pueden ser multiplicados e intercambiado el orden de la suma. Las series uniformemente conver-

a
gentes se comportan como las series finitas donde la serie es continua si cada término de la serie también lo
es.
La serie

in

X (−1)n−1 1 1 1
2
= 2
− 2
+ + ···
n=1
n+x 1+x 2+x 3 + x2
es únicamente condicionalmente convergente, pero, es también uniformemente convergente.

m
2.3.6. Nota sobre el algebra de series de potencias
El álgebra elemental de series se puede reconsiderar a la luz de las series de potencias. De esta forma

eli
recordamos que los ı́ndices en las series son mudos

X ∞
X ∞
X
n−1 j−1 k
an n (x − x0 ) = aj j (x − x0 ) = ak+1 (k + 1) (x − x0 )
n=1 j=1 k=0
Pr
en la última sumatoria hemos hecho k = j − 1, por lo cual j = k + 1.
Las series se igualan

X ∞
X
n n−1
bn (x − x0 ) = an n (x − x0 )
n=0 n=1
∞ ∞ ∞
or

X n
X k
X n
bn (x − x0 ) = ak+1 (k + 1) (x − x0 ) = an+1 (n + 1) (x − x0 )
n=0 k=0 n=0

por lo cual
ad

bn = an+1 (n + 1) .
Si la igualdad hubiera sido
∞ ∞ ∞
X n
X n−1
X n an
an (x − x0 ) = an n (x − x0 ) = an+1 (n + 1) (x − x0 ) =⇒ an+1 =
(n + 1)
rr

n=0 n=1 n=0

Las series se suman



X ∞
X ∞
X
n k n
Bo

an (x − x0 ) + bk (x − x0 ) = a0 + a1 (x − x0 ) + (an + bn ) (x − x0 )
n=0 k=2 n=2

88
2.3. SERIES DE FUNCIONES

o también

X ∞
X ∞
X
n k+2 n
an (x − x0 ) + bk+2 (x − x0 ) = a0 + a1 (x − x0 ) + (an + bn ) (x − x0 )
n=0 k=0 n=2

X n
= (an + cn−2 ) (x − x0 ) ,
n=0

y en este último caso c−2 = c−1 = 0 y ci = bi+2 .

r
Nótese como en los dos ejemplos anteriores hemos hecho coincidir los dos ı́ndices de la sumatoria desde
el comienzo.

a
La series también se multiplican, esto es
"∞ #" ∞ # ∞
X n
X n
X n

in
an (x − x0 ) bn (x − x0 ) = cn (x − x0 )
n=0 n=0 n=0
con
cn = a0 bn + a1 bn−1 + a2 bn−2 + · · · + aj bn−j + · · · + an−2 b2 + an−1 b1 + an b0

m
Si alguna de las series de potencias es absolutamente convergente, entonces su multiplicación con otra, será
absolutamente convergente.
Pero también las series de potencias se ¡invierten! y para ello utilizamos todo lo visto anteriormente
veamos. Supongamos que se tiene una serie del tipo

eli

X
2 n n
y − y0 = a0 + a1 (x − x0 ) + a2 (x − x0 ) + · · · + an (x − x0 ) + · · · = an (x − x0 )
n=0
n
Es decir tenemos y−y0 expresado en términos de una serie de potencias de (x − x0 ) entonces, igual podremos
Pr n
plantearnos invertir el proceso, vale decir, expresar (x − x0 ) en términos de potencias (y − y0 ) Esto es
 k
X∞ X∞ X∞
n j
x − x0 = bn (y − y0 ) ⇒ x − x0 = bk  aj (x − x0 ) 
n=0 k=0 j=0

y al igualar términos con la misma potencia, despejamos los coeficientes bn en términos de los an , de forma
or

que
1
b1 =
a1
a2
ad

b2 = −
(a1 )3
2(a2 )2 − a1 a3
b3 =
(a1 )5
5a1 a2 a3 − a21 a4 − 5a32
b4 =
rr

(a1 )7
.. ..
.= .
Bo

P∞ P∞ n
Igualmente, si una serie f (x) = n=0 an (x − x0 ) = n=0 cn (x − x0 ) converge para un entorno −R ≤
x ≤ R entonces por el criterio de Mayorante de Weierstrass, convergerá absoluta y uniformemente para
−S ≤ x ≤ S con 0 ≤ S ≤ R.
Más aún, el criterio de Abel nos garantiza las siguientes propiedades:

89
2.3. SERIES DE FUNCIONES

n P∞ n
Dado que todos los términos an (x) = cn (x − x0 ) son funciones continuas de x y f (x) = n=0 cn (x − x0 )
converge uniformemente para un entorno −S ≤ x ≤ S, entonces la función f (x) es continua en el in-
tervalo de convergencia.
n
Si los términos an (x) = cn (x − x0 ) son funciones continuas de x, entonces la serie puede ser derivada
término a término "∞ ∞
#
d X n
X n−1
cn (x − x0 ) = cn n (x − x0 )
dx n=0 n=1

r
(nótese como cambia el comienzo de la serie) y convergerá a
∞ ∞

a
X n−1 df (x) d X
cn n (x − x0 ) → an (x) ∧ an (x) continuas ∧ an (x) ,
n=1
dx dx n=0

in
converge uniformemente en [a, b].
De igual manera las series pueden ser integradas término a término
Z b Z b ∞ ∞ Z b ∞

m
X n
X n
X cn n+1
dx f (x) = dx cn (x − x0 ) = dx cn (x − x0 ) = (x − x0 ) .
a a n=0 n=0 a n=0
n + 1

2.3.7. Ejemplos

eli
1. Otro caso ocurre cuando consideramos la siguiente serie de potencias:

X n+1 n 2 3 4
(−1) n (x − 2) = x − 2 − 2 (x − 2) + 3 (x − 2) − 4 (x − 2) + · · · ,
n=1

por lo tanto:
Pr

(−1)n+2 (n + 1) (x − 2)n+1
n + 1
ρ(x) = lı́m = |x − 2| lı́m = |x − 2|

n+1 n n
n→∞ (−1) n (x − 2) n→∞

lo que implica que la serie:


or

converge si: |x − 2| < 1 ⇒ 1 < x < 3 y diverge si: |x − 2| > 1 .


P∞ n+1 n
Es decir, la serie n=1 (−1) n (x − 2) convergerá únicamente para 1 < x < 3. Para otros valores
de x, diverge.
ad

2. Dada la serie
∞ ∞
X X x
an (x) = ,
n=1 n=1
[(n − 1)x + 1] [nx + 1]
cuya suma n-ésima parcial es
nx
rr

sn (x) =
.
nx + 1
La función sn (x) es una función continua de x ∀ 0 ≤ x ≤ 1, y para todo n. Por otro lado,
S(x) = lı́m sn (x) = 0 , si x = 0
Bo

n→∞
S(x) = lı́m sn (x) = 1 , si x 6= 0 .
n→∞

Existe una discontinuidad en x = 0 para S(x) y por lo tanto la condición (2.3.3) no se cumplirá.

90
2.3. SERIES DE FUNCIONES

2.3.8. Practicando con Maxima


2.3.9. Ejercicios
1. Demuestre que la serie

X (−1)n
,
n=0
n + x2
es uniformemente y condicionalmente convergente.

r
2. Demuestre que la serie

n + x2

a
X
(−1)n ,
n=1
n2

in
converge uniformemente, pero no absolutamente.
3. Determine el radio de convergencia de la serie

x x2 x3 xn

m
+ √ + √ + ··· + √ + ···
a+1 a+ 2 a+ 3 a+ n

donde a es un número real y positivo. Determine si la serie es o no uniformemente convergente.

eli
4. Considere la siguiente sucesión

sen(nx)
fn (x) = √ , n = 1, 2, 3, . . .
n

demuestre que:
Pr
d h i d
lı́m fn (x) 6= lı́m fn (x) ,
dx n→∞ n→∞ dx

5. Discuta la convergencia de las siguientes series


a)
2 3 4
or

1− + − + ···
3 5 7
b)      
b a b a b
a− + − + ··· + − + ···
ad

2 3 4 2n − 1 2n
donde a y b son constantes positivas.
6. Utilizando fracciones parciales, demuestre que
a)
rr


X 1 23
=
(k + 1)(k + 3)(k + 5) 480
k=1
Bo

b)

X 3k − 2
= 1.
k(k + 1)(k + 2)
k=1

91
2.4. SERIE DE TAYLOR

2.4. Serie de Taylor


Para los fı́sicos el uso apropiado (y frecuente) de la serie Taylor facilita muchos cálculos. La idea detrás
de este tipo de series es la de la aproximación de una determinada función por una serie de potencias en
donde existe una forma sistemática de construir los coeficientes y, dependiendo de el número de términos
que utilicemos en la serie, tendremos una idea de cuan aproximada es la serie y cuanto es el error que come-
temos al desarrollar la serie hasta un determinado término. Ası́ supondremos que f = f (x) es una función
continua y continuamente diferenciable. Con lo cual, si denotamos dfdx (x)
= f 0 (x), entonces supondremos que
0 00 000 (n)

r
f (x), f (x), f (x), · · · , f (x) están definidas en el intervalo [a, b].
De cursos anteriores se sabe que:

a
Z a+h Z a+h
0
dx f (x) = f (a + h) − f (a) ⇒ f (a + h) = f (a) + dx f 0 (x) ⇒ f (a + h) ≈ f (a) + hf 0 (a) ,

in
a a

donde hemos supuesto que en intervalo [a, a + h] la función f 0 (x) es constante y tiene como valor f 0 (a).
Ahora bien, esto vale para todo x y para cualquier función, por lo tanto se cumple que:

m
f (x) ≈ f (a) + (x − a)f 0 (a) ,

f 0 (x) ≈ f 0 (a) + (x − a)f 00 (a) ,

eli
f 00 (x) ≈ f 00 (a) + (x − a)f 000 (a) ,
.. ..
. .
f (n−1) (x) ≈ f (n−1) (a) + (x − a)f (n) (a) .

Con lo cual podemos construir


Pr
Z a+h a+h
h2 00
Z
0
f (a + h) = f (a) + dx f (x) ≈ f (a) + dx [f 0 (a) + (x − a)f 00 (a)] ≈ f (a) + hf 0 (a) + f (a) ,
a a 2

que no es otra cosa que una aproximación de segundo orden a f (a + h). En general podemos construir
or

" #
Z a+h Z a+h Z a+h
f (a + h) = f (a) + dx f 0 (x) = f (a) + dx f 0 (a) + dx f 00 (x)
a a a
"Z #
Z a+h a+h
0 00
ad

= f (a) + hf (a) + dv dx f (x)


a a
" #!
Z a+h Z a+h Z a+h
0 00 000
= f (a) + hf (a) + du dv f (a) + dx f (x)
a a a
"Z #!
rr

a+h a+h a+h


h2
Z Z
= f (a) + hf (a) + f 00 (a) +
0
du dv dx f (x)000
2 a a a

y si repetimos ese procedimiento n veces, suponiendo que las derivadas de f (x) existan, tendremos la apro-
Bo

ximación n − 1 a la función. Esto es


h2 00 h3 hn−1 (n−1)
f (a + h) = f (a) + hf 0 (a) + f (a) + f 000 (a) + · · · + f (a) + Rn
2! 3! (n − 1)!

92
2.4. SERIE DE TAYLOR

y también es fácil convencerse por inspección que el residuo o el error que cometemos en la aproximación
n − 1 viene dado por la integración enésima de la derivada enésima, vale decir
Z a+h Z a+h Z a+h
Rn = du dv ·|· ·{z· ·}· dx f 000 (x)
a a n veces a

y por el Teorema del Valor medio


Z a+h
hn (n)

r
dτ g(τ ) = hg(ξ) ⇒ Rn = f (ξ) con a ≤ ξ ≤ a + h
a n!

a
Ahora bien, una elección astuta del parámetro h = x − a nos lleva a la conocida expresión de la serie de
Taylor para una función de una variable

in
(x − a)2 00 (x − a)3 000 (x − a)n−1 (n−1)
f (x) = f (a) + (x − a)f 0 (a) + f (a) + f (a) + · · · + f (a) + Rn
2! 3! (n − 1)!
y el error vendrá dado por

m
(x − a)n (n)
Rn = f (ξ) con a ≤ ξ ≤ a + h
n!
ası́ la expansión de Taylor especifica el valor de una función en un punto x en términos de el valor de la
función y sus derivadas en un punto de referencia a. La expansión se hace en términos de potencias de la

eli
diferencia, (x − a), entre el punto que se evalúa y el punto de referencia.
Algunas otras formas de expresar la serie de Taylor, serı́an
∞ ∞ dn ∞
X hn (n) X hn dx n
X hn Dn d
f (x + h) = f (x) = f (x) = f (x) = ehD f (x) donde, D ≡
n=0
n! n=0
n!
Pr n=0
n! dx

Si el punto de referencia es a = 0 tendremos la serie de Maclaurin

x2 00 x3 xn−1 (n−1)
f (x) = f (0) + xf 0 (0) + f (0) + f 000 (0) + · · · + f (0) + Rn
2! 3! (n − 1)!
or

2.4.1. Algunas series de Taylor


Un listado incompleto de las series de Taylor más utilizadas es:

x2 x3 x4 xn
ex
ad

= 1+x+ + + + ··· + + · · · para − ∞ < x < ∞


2! 3! 4! n!
x3 x5 x7 x2n−1
sen(x) = x− + − + · · · + (−1)n+1 + · · · para − ∞ < x < ∞
3! 5! 7! (2n − 1)!
x2 x4 x6 x2n−2
cos(x) = 1− + − + · · · + (−1)n+1 + · · · para − ∞ < x < ∞
rr

2! 4! 6! (2n − 2)!
x3 x5 x7 x2n−1
arctan(x) = x− + − + · · · + (−1)n+1 + · · · para − 1 < x < 1
3 5 7 (2n − 1)
Bo

x2 x3 x4 xn
ln(1 + x) = x− + − + · · · + (−1)n+1 + · · · para − 1 < x < 1
2 3 4 n
2
x x3 m!
(1 + x)m = 1 + mx + m(m − 1) + m(m − 1)(m − 2) + · · · + xn + · · · ∀x
2 3! n!(m − n)!

93
2.4. SERIE DE TAYLOR

Si tenemos una función y queremos determinar su serie de potencias, es posible que los cálculos se
simplifiquen notablemente si utilizamos apropiadamente las series elementales anteriores, por ejemplo:
2 3 4
αx2 +βx 2
 αx2 + βx αx2 + βx αx2 + βx
e = 1 + αx + βx + + + + ···
2 3! 4!
desarrollando los términos binomiales
     
2 1 1 1 2 1 1 4
eαx +βx = 1 + β x + α + β 2 x2 + β α + β 3 x3 + α + α β2 + β x4 + · · ·
2 6 2 2 24

r
Si se quiere hacer el desarrollo alrededor de un punto diferente de x0 = 0, podemos completar cuadrados:

a
2 2
2
+βx/α+β 2 /4α2 −β 2 /4α2 ) 2
+βx/α+β 2 /4α2 )−β 2 /4α
eαx +βx
= eα(x +βx/α)
= eα(x = eα(x
2 2 2 2
= eα(x+β/2α) −β /4α = eα(x+β/2α) e−β /4α

in
2
= e−β /4α 1 + α(x + β/2α)2 + α2 (x + β/2α)4 /2 + · · ·
 

y esta es la expansión en series de potencias alrededor del punto x0 = −β/2α.

m
2.4.2. La expansión binomial
Por su uso frecuente, consideremos el caso de la expansión binomial

eli
x2 x3 X m!
(1 + x)m = 1 + mx + m(m − 1) + m(m − 1)(m − 2) + · · · = xn ,
2 3! n=0
n!(m − n)!
∞  
X m
= xn ,
n
 
n=0
Pr
m
donde el término se denomina el coeficiente binomial y la serie termina cuando m = n.
n
Ahora bien, escrito de la forma compacta se sugiere que el exponente m tendrı́a que ser entero y positivo.
Pero no es ası́. La serie explı́cita no se restringe a valores enteros y positivos de m. Por ello, la forma compacta
pero exacta de la expansión binomial es
or

 x m  x  m(m − 1)  x 2 m(m − 1)(m − 2)  x 3


1+ = 1+m + + + ···
a a 2 a 3! a
∞  x n
X Γ(1 + m)
= .
n=0
Γ(1 + n)Γ(1 + m − n) a
ad

Donde hemos utilizado la función Γ(x) como la generalización del factorial para
m valores que no se restringen
a enteros positivos. Nótese también que si el exponente es negativo, 1 + xa tiene una singularidad o un
polo en x = −a.
Cuando n es un entero positivo tendremos
rr

Z ∞ Z ∞
−t n
n! = Γ(1 + n) = e t dt = e−t+n ln(t) dt
0 0

Esta integral, como se puede ver en la figura, nos recuerda la forma de una Gaussiana con un máximo
Bo

en t = n. Al hacer una expansión alrededor de este punto


f (t) = −t + n ln(t) = f (n) + (t − n)f 0 (n) + (t − n)2 f 00 (n)/2 + · · ·
= −n + n ln(n) + 0 + (t − n)2 (−n/n2 )/2 + · · ·

94
2.4. SERIE DE TAYLOR

a r
in
Figura 2.6: La función Gamma para n = 5

m
Si conservamos los términos hasta segundo orden, la integral puede ser aproximadamente igual a:

eli
Z ∞ Z ∞
2 2
n! ∼ e−n+n ln(n)−(t−n) /2n dt = nn e−n e−(t−n) /2n dt
0 0

Para valores de n grandes, y esto es lo que se conoce como la aproximación de Stirling, se tiene:
Z ∞
n −n
n! ∼ n e
Pr 2 √
e−(t−n) /2n dt = nn e−n 2πn
−∞

Aquı́, el sı́mbolo ∼ se refiere a un comportamiento asintótico de la función Gamma.


En la siguiente tabla se muestran, para algunos valores de n, el valor exacto del factorial, el valor por la
fórmula de Stirling y el cociente entre estos dos valores. Se puede apreciar entonces lo buena que resulta tal
aproximación.
or

√ √
n n! nn e−n 2πn n!/(nn e−n 2πn)
1 1 0,922 0,922
2 2 1,919 0,960
ad

5 120 118,019 0,983


10 3628800 3598695,619 0,992
rr

2.4.3. Sobre la función Gamma


Con ya vimos, con la función Gamma es posible generalizar la idea del factorial cuando n es cualquier
número real positivo. La función Gamma se define de la siguiente manera
Bo

Z ∞
Γ(k) = xk−1 e−x dx , k > 0 . (2.27)
0

95
2.4. SERIE DE TAYLOR

Por ejemplo, si k = 1, tenemos


Z ∞ b
x0 e−x dx = lı́m −e−x 0 = 1 .

Γ(1) =
0 b→∞

Podemos integrar (2.27) por partes:


b ∞
e−x xk
 Z
1
Γ(k) = lı́m + xk e−x dx , k > 0, (2.28)
b→∞ k k

r
0 0

se puede demostrar que el primer término de (2.28) se hace cero, por lo tanto:

a
1
Γ(k) = Γ(k + 1) , k>0 (2.29)

in
k
es decir:
Γ(k + 1) = kΓ(k) , k > 0. (2.30)

m
Veamos:
k =1 → Γ(2) = 1Γ(1) = 1 = 1!
k =2 → Γ(3) = 2Γ(2) = 2 · 1 = 2!
k =3 → Γ(4) = 3Γ(3) = 3 · 2 · 1 = 3!

eli
k =4 → Γ(5) = 4Γ(4) = 4 · 3 · 2 · 1 = 4!
entonces, si k = n es un entero positivo, se tiene que

Γ(n + 1) = n! (2.31)
Pr
Ahora bien, podemos hacer lo siguiente. Partimos de (2.29):
1
Γ(k) = Γ(k + 1) , k 6= 0 , (2.32)
k
reemplazamos k → k + 1 en (2.32) y obtenemos:
or

1
Γ(k + 1) = Γ(k + 2) , k 6= −1 , (2.33)
k+1
si sustituimos (2.33) en (2.32) resulta:
ad

Γ(k + 2)
Γ(k) = , k 6= 0, −1 , (2.34)
k(k + 1)

si reemplazamos k → k + 1 en (2.33) obtenemos


rr

Γ(k + 3)
Γ(k + 2) = , k 6= −2 , (2.35)
(k + 2)
Bo

al sustituir (2.35) en (2.34) resulta lo siguiente

Γ(k + 3)
Γ(k) = , k 6= 0, −1, −2 . (2.36)
k(k + 1)(k + 2)

96
2.4. SERIE DE TAYLOR

Estas operaciones se pueden repetir hasta n:

Γ(k + n)
Γ(k) = , k 6= 0, −1, −2, . . . , −(n − 1) . (2.37)
k(k + 1)(k + 2) · · · (k + n − 1)

Todo esto sirve para lo siguiente. Si k = −1/2, entonces por (2.32)


   
1 1
Γ − = −2Γ ,
2 2

r
el valor de Γ 21 lo podemos buscar en alguna

 √tabla matemática.

a
Eneste caso, lo que se obtiene es Γ 12 = π. Esto significa que si conocemos Γ 1

2 se puede determinar
Γ − 12 , por lo tanto

in

 
1
Γ − = −2 π .
2
Algunos ejemplos:

m
0! = Γ(0 + 1) = Γ(1) = 1

− 12 ! Γ(− 21 + 1) = Γ 1
 
= 2 = π

eli
− 23 ! Γ(− 23 + 1) = Γ − 12 = −2 π
 
=

1 1√
Γ( 12 + 1) = Γ 3
= 12 Γ 1
  
2 ! = 2 2 = 2 π

2.4.4. Taylor en varias variables


Pr
Sólo por razones de completitud, y para reforzar los conceptos de que es un desarrollo en series para una
función alrededor de un determinado punto, escribiremos el desarrollo en series de Taylor para una función
de dos variables f = f (x, y). Esta es

f (x, y) = f (a, b) + (x − a) fx |ab + (y − b) fy |ab


or

1 
(x − a)2 fxx ab + 2(x − a)(y − a) fxy |ab + (y − a)2 fyy |ab

+
2!
1 
(x − a)3 fxxx |ab + 3(x − a)2 (y − a) fxxy |ab + 3(x − a)(y − a)2 fxyy |ab + (y − a)3 fyyy |ab

+
3!
+ ···
ad

De una manera más compacta


∞ ∞
  X 1 n X 1 n
f xj + xj0 = xk ∂k f (xm ) m m ⇒ f (r + a) = (r · ∇) f (xm )|r=a .

n! n!
rr

x =x0
n=0 n=0

Dónde hemos utilizado la siguiente convención

∂ ∂ ∂2 ∂2 ∂2
Bo

fx = = ∂x ; fy = = ∂y ; fxx = = ∂xx ; fxy = = ∂xy ; fyy = = ∂yy ; ···


∂x ∂y ∂x2 ∂x∂y ∂y 2

97
2.4. SERIE DE TAYLOR

2.4.5. Ejemplos
2.4.6. Practicando con Maxima
La gráfica mostrada en la Figura 1 pueden obtenerse de la siguiente manera:
> restart:
> n := 5:
> f := exp(-t)*t∧ n;
> Int(f,t=0..infinity)=int(f,t=0..infinity);

r
> GAMMA(5+1);
> plot(f,t=0..20);

a
> ‘f(5)‘=evalf(subs(t=5,f));

in
2.4.7. Ejercicios
1. Utilice la siguiente definición Z x
1

m
tan−1 x = ,
0 1 + t2
expanda el integrando y luego integre término por término para derivar la siguiente expansión conocida
como expansión de Gregory

eli

x3 x5 X (−1)n 2n+1
tan−1 x = x − + − ··· = x .
3 5 n=0
2n + 1
π
Evalúe la serie para x = 4.
Pr
2. Utilizando la definición Z x
−1 1
sen x= √ ,
0 1 + t2
derive las expresiones siguientes

(2n)! x2n+1
or

X
sen−1 x = ,
n=0
4n (n!)2 2n + 1


!
−1 π √ X 1.3.5. · · · .(2n − 1) n
sen (1 − x) = − 2x 1 + x .
ad

2 n=1
4n (2n + 1)n!

3. Encuentre los primeros cinco términos, diferentes de cero, de la serie de Taylor, de la función
 
1 + x 2 + 2x ln(1 + 2x)
f (x) = − .
rr

x2 1 + 2x x

Puedes usar el programa Maxima.


Bo

98
2.5. SERIES DE FOURIER

2.5. Series de Fourier


Otro de los casos de expansión en una base completa de funciones lo constituyen la base de Fourier. En
este caso la serie de Fourier la constituyen funciones continuas, reales de variable real y definidas en [0, 2π],

C[0,2π] , en término de funciones trigonométricas.
Esto es el conjunto de funciones {|u1 i , |u2 i , |u3 i , · · · , |un i · · · } representadas por

|u0 i = 1, |u2n i = cos(nx) y |u2n−1 i = sen(nx), con n = 1, 2, 3, · · ·

r
Es claro que {|u1 i , |u2 i , |u3 i · · · , |un i , · · · } es un conjunto de funciones ortogonales por cuanto

a
  R 2π





 0
dx sen(nx) sen(mx) = 0

 

in
  R


0 si n 6= m dx cos(nx) sen(mx) = 0


0



 


 



  R 2π dx cos(nx) cos(mx) = 0

 0
hun |um i = δnm | |un i |2 ⇒

m
  R 2π






 0
dx = 2π

 


  R 2π
||un i|2 si n = m dx cos2 (nx) = π


0

eli

 


 


  R 2π dx sen2 (nx) = π

0

Por lo tanto, podremos construir una base ortonormal de funciones


{|e1 i , |e2 i , |e3 i , · · · , |en i , · · · } de la forma
Pr
1 1 1
|e0 i = √ , |e2n i = √ cos(nx) y |e2n−1 i = √ sen(nx)
2π π π

Tal y como se muestra en la figura 2.7 distintas funciones pueden ser expandidas con sumas parciales de
Fourier. A diferencia de las series de potencias, que imponen que las funciones a ser expandidas deben ser
continuas y continuamente diferenciables en el intervalo, la series de Fourier pueden representar funciones
or

continuas a trozos, siempre y cuando cumplan con algunas condiciones.


Por lo tanto cualquier función definida en el intervalo [0, 2π] puede expresarse en términos de esta base
como
 1 R 2π
dx f (x) = c0 ≡ a0
ad




2π 0
si i = 0


∞ 

X R 2π
|f i = ci |ei i ⇒ ci = hei |f i = √1 dx f (x) cos(nx) = c2n ≡ am si i = 2n
 π 0
i=0 


 √1 R 2π

dx f (x) sen(nx) = c2n−1 ≡ bm si i = 2n − 1
rr

π 0

donde los ci son los coeficientes de Fourier, con lo cual podemos escribir

a0 X
Bo

F (x) = + [an cos(nx) + bn sen(nx)] ,


2 n=1

el término a0 es colocado fuera de la sumatoria, y multiplicado por 1/2, solo por conveniencia.

99
2.5. SERIES DE FOURIER

a r
in
m
eli
Figura 2.7: Expansiones de Varias funciones en sumas parciales de Series de Fourier. Tomado de Eric W.
Weisstein. Fourier Series. [Link]
Pr
De manera equivalente, si el perı́odo es T y para un t0 genérico

2
R t0 +T

 a0 = T t0
dt f (t)


∞      
a0 X 2πnt 2πnt 
2
R t0 +T 2πnt

F (t) = + an cos + bn sen con an = T t0
dx f (t) cos T
2 T T
or

n=1 


 R t0 +T
2 2πnt

bn = dt f (t) sen

T t0 T

La figura 2.7 muestra la aproximación de las distintas sumas parciales para distintas funciones, a medida
que aumentamos el número de términos la aproximación mejora.
ad

Podemos expresar la expansión de una serie de Fourier de manera más compacta, ésta expresión se conoce
en algunos ámbitos como la expresión integral para la series de Fourier
Z 2π
1
F (x) = √ dt f (t)
2π 0
rr

X∞ Z 2π  Z 2π  
+ dt f (t) cos(nt) cos(nx) + dt f (t) sen(nt) sen(nx)
n=1 0 0
Bo

Z 2π ∞ Z 2π
1 X
= √ dt f (t) + dt f (t) cos(n[t − x]) .
2π 0 n=1 0

También es muy común expresar una serie de Fourier en término de una base compleja. Vale decir

100
2.5. SERIES DE FOURIER

↔ {· · · e−ikx · · · } con k = 0, ±1, ±2, · · · . Con lo cual



· · · |φ̃k i · · ·
∞ ∞ π
hφ̃k |f i
Z
X X 1
|f i = C̃k |φ̃k i ≡ C̃k e−ikx con C̃k = = dx e−ikx f (x) .
hφ̃k |φ̃k i 2π −π
k=−∞ k=−∞

Podremos reescribir (una vez más) la expresión de una suma parcial de la serie de Fourier, dado que

1 π
Z
an cos(nx) + bn sen(nx) = dt f (t) cos(n[t − x]) ,

r
π −π

a
tendremos que
n n  Z
a0 X 1 π

a0 X

in
Fn (x) = + [ak cos(kx) + bk sen(kx)] = + dt f (t) cos(n(t − x))
2 2 π −π
k=1 k=1
"Z n 
#
π n1 X o
−i(t−x)k
= < dt f (t) + e .
2

m
−π k=1

y al sumar la progresión geométrica que representa una serie de exponenciales llegamos a


" #
sen n + 21 (t − x)
Z π  Z π
1 1

eli
Fn (x) = dt f (t) ≡ dt f (t) K(x, n, t) ,
sen 21 (t − x)

2π −π 2π −π

la cual siempre es convergente y el término


" #
n + 21 (t − x)

Pr
K(x, n, t) =
sen
,
sen 12 (t − x)


se conoce como el núcleo de la transformación de F , el Kernel de Dirichlet.


La pregunta básica que sigue es, en todos estos casos: ¿cómo se relaciona la expansión de Fourier |f i ⇔
F (x) con la función f (t) que genera los coeficientes de la expansión? Nótese que es una forma de mirar una
relación entre F (x) ↔ f (t). Pasamos de f (t) a F (x) mediante una “transformación”
or

Z π
1
Fn (x) = dt f (t) K(x, n, t) .
2π −π
ad

Este tipo de relaciones se denomina transformación integral y en particular ésta es una de las expresiones
de las llamadas Transformadas de Fourier.

2.5.1. Condiciones de Dirichlet


rr

Las condiciones que una determinada función f (x) debe cumplir para poder ser representada como una
serie de Fourier, se conocen con el nombre de condiciones de Dirichlet9 las cuales pueden ser esquematizadas
en los siguientes puntos:
Bo

la función f (x) debe ser periódica


9 JohannPeter Gustav Lejeune Dirichlet 1805 - 1859. Matemático Alemán con importantes contribuciones en Teorı́as
de números Algebraica, Series y aproximaciones de funciones y ecuaciones diferenciales parciales.

101
2.5. SERIES DE FOURIER

la función f (x) debe se univaluada y continua a trozos (continua menos, en un número finito de puntos)
con un número finito de máximos y mı́nimos
R T /2
la integral −T /2 dx|f (x)| debe ser convergente. Donde [−T /2, T /2] quiere indicar el intervalo de defi-
nición de una función con perı́odo T .
Podemos formalizar un poco más las condiciones de Dirichlet en el llamado teorema de Fourier.

Teorema de Fourier: Sea f (x) una función en el intervalo −π ≤ x ≤ π y definida para el resto de la

r
recta real tal que cumpla con f (x + 2π) = f (x). Es decir f (x) es 2π−periódica. Supongamos además
que existe la integral

a
Z π Z π
1
dx f (x) , y que Ck = dx e−ikx f (x) con k = 0, ±1, ±2, · · · .

in
−π 2π −π

y si |f (x)| está acotada para un intervalo [a, b] con −π < a ≤ x ≤ b < π, entonces
∞  
1

m
X
F (x) = Ck e−ikx es convergente al valor F (x) = lı́m f (x + ) + lı́m f (x − )
2 →0+ →0−
k=−∞

y si f (x) es continua en x = x0 entonces F (x0 ) → f (x0 ).

eli
En este punto se pueden puntualizar varias cosas:
1. El valor F (x) = 21 lı́m→0+ f (x + ) + lı́m→0+ f (x − ) al cual converge la expansión de Fourier,


cobra particular importancia cuando el punto x = x0 es una discontinuidad. Tal y como veremos más
Pr
adelante (sección 2.5.3) y expresa este teorema, las series de Fourier son particularmente apropiadas
para expandir funciones discontinuas (en un número finito de puntos en el intervalo), sin embargo,
por ser una base de funciones continuas no puede reproducir la discontinuidad como tal. La expansión
de Fourier alrededor de un punto de discontinuidad x → x±0 tenderá al valor F (x) → F (x±0 ) ≡ Fm
donde Fm = F (x+0 )+F2
(x−0 )
. Es decir, tenderá al valor medio de los valores de la discontinuidad por la
izquierda F (x−0 ) y por la derecha F (x+0 ).
or

2. Si los coeficientes de Fourier tienen variaciones acotadas en el intervalo y |Ck | → 0 con k → ∞.


Entonces
∞ Z π ∞
1 π
Z
X
2 1 2 1 2 X 2 2
|Ck | = dx |f (x)| ⇔ a + |a + bn | = dx |f (x)|2 ,
ad

2π −π 2 0 n=1 n π −π
k=−∞

que no es otra cosa que la expresión de la completitud de esta base de funciones.

Para ilustrar esta relación entre la función f (x) y su expansión en serie de Fourier F (x) analicemos el
siguiente ejemplo
rr

La siguiente función, muy conocida en el ámbito de los circuitos eléctrico, se denomina la función onda
cuadrada 
 −1 si − 21 T ≤ t < 0
Bo

f (t) =
+1 si 0 ≤ t ≤ 12 T ,

102
2.5. SERIES DE FOURIER

En este caso se puede integrar entre [0, T /2] y luego multiplicar todo por 2.
Z T Z T  
2 2 2 2 2πnt sen (nπ)
a0 = dt = 1 , an = cos dt = = 0,
T 0 T 0 T nπ
T
1 − (−1)n
 
1 − cos (nπ)
Z
2 2 2πnt
bn = sen dt = = ,
T 0 T nπ nπ

Entonces solo sobreviven los b2n+1 ya que coeficientes pares se anulan: b2n = 0.

r
∞    
X 2πnt 4 sen(3ωt) sen(5ωt) sen(7ωt)

a
f (t) = a0 + 2 bn sen =1+ sen(ωt) + + + + ···
n=1
T π 3 5 7

in
donde hemos denotado ω = 2π/T .
Al definir la función ω podemos interpretar los coeficientes de Fourier an , bn como las contribuciones de
cada uno de los armónicos an , bn → ωn = 2nπ T . A partir de estas contribuciones se construye el espectro de
potencia, el cual está relacionado con la energı́a que aporta cada uno de estos armónicos. Por ello construimos

m
p
un cantidad En = a2n + b2n y graficamos En vs n tal y como se puede comprobar en la figura 2.9, cuadrantes
IV y VII. Se encuentra que se puede asociar un espectro de potencia a cada señal y con lo cual realizar una
especie de identificación.
En este punto podemos hacernos algunas preguntas:

eli
¿qué hubiera pasado si en vez de considerar el intervalo − T2 , T2 hubiéramos considerado (0, T )?


¿tendrı́amos el mismo desarrollo en serie de Fourier?


¿el mismo espectro?
Pr
Justifique sus respuestas.

2.5.2. Consideraciones de simetrı́a en series de Fourier


Es de hacer notar que estas propiedades de simetrı́a respecto al perı́odo de la función (f (x) = f (−x)
simetrı́a y f (x) = −f (−x) antisimetrı́a) para un perı́odo − T2 ≤ x ≤ T2 pueden y deben ser explotadas para
or

simplificar los cálculos. Esto se puede resumir en


 
an 6= 0 an = 0
f (x) = f (−x) ⇒ y alternativamente f (x) = −f (−x) ⇒
bn = 0 6 0
bn =
ad

Pero más interesante aún es cuando estas propiedades de simetrı́a


 se presentan en un cuarto del perı́odo.
Vale decir, que f (x) será par o impar respecto a T /4 i.e. f T4 + x = ±f T4 − x ⇒ f (−s) = ±f (s) donde
s = T4 − x. Entonces
2 x0 +T
Z  
2πns πn
bn = ds f (s) sen + .
rr

T x0 T 2
Donde los lı́mites de integración no se han visto alterados porque la función es periódica. Es inmediato
comprobar que
Bo

     
2πns πn 2πns  πn  2πns  πn 
sen + = sen cos + cos sen ,
T 2 T 2 T 2

103
2.5. SERIES DE FOURIER

es decir
" #
2  πn  Z x0 +T 
2πns
  πn  Z x0 +T 
2πns
bn = cos ds f (s)sen + sen ds f (s) cos ,
T 2 x0 T 2 x0 T

por lo que si n = 2k ⇒ sen πn = sen(πk) = 0 y si n = 2k − 1 ⇒ cos 2k−1


 
2 2 π = 0.
La misma consideración se puede hacer para los coeficientes an (queda como ejercicio para el lector) y se
puede concluir que
Si f (x) par en T /4 entonces a2n−1 = b2n = 0.

r
Si f (x) impar en T /4 entonces a2n = b2n−1 = 0.

a
2.5.3. El Fenómeno de Gibbs

in
Tal y como hemos mencionado, a diferencia de las series de potencias, las series de Fourier manejan razo-
nablemente bien las discontinuidades, pero por ser una base de funciones continuas, no puede reproducirlas.
Tal y como comentamos en el Teorema de Fourier y muestra la figura 2.8 el valor de las sumas parciales de

m
Fourier en un punto de discontinuidad x = x±0 será el promedio de los valores F (x−0 ) (por la izquierda)
y F (x+0 ) (por la derecha) en la discontinuidad. Esto es la expansión de Fourier alrededor de un punto de
discontinuidad x → x±0 tenderá al valor F (x) → F (x±0 ) ≡ Fm donde Fm = F (x+0 )+F 2
(x−0 )
.
Podemos ver en la figura 2.8 que, tanto por la izquierda como por la derecha de la discontinuidad de la

eli
función escalón, las sumas parciales de Fourier oscilan y no convergen a los valores x±0 . El comportamiento
oscilante de las sumas parciales de Fourier alrdedor de las discontinuidades, que no desaparecen ni en el
lı́mite se denominan fenómeno de Gibbs en honor a su descubridor Josiah Willard Gibbs.10
Para entender qué pasa en la discontinuidad consideremos una variación de la onda cuadrada considerada
anteriormente (??). Entonces sus sumas parciales serán

Pr
 1 si 0 ≤ t < π 1
n
2X 1
c
f (t) = ⇒ F2n (x) = + sen ((2k − 1)x) ,
2 π 2k − 1
0 si π ≤ t < 2π

k=1

porque los coeficientes pares (an ) se anulan.


Para estudiar el fenómeno de Gibbs reescribimos la suma parcial anterior de una manera ingeniosa
or

n Z t n
!
2 t 1 t
 Z Z  
c 1 2X 1 X 1 sen(2ns)
F2n (t) = + ds cos(2k − 1)s = + ds cos(2k − 1)s = + ds
2 π 0 2 π 0 2 π 0 sen(s)
k=1 k=1

donde, utilizando la fórmula de Moivre y convirtiendo esa serie de cosenos en una de exponenciales la cual,
ad

a su vez es una progresión geométrica (y le queda la comprobación al lector), hemos sustituido


n
X sen(2ns)
cos(2k − 1)s = .
sen(s)
k=1
rr

c
Es inmediato convencerse que las sumas parciales F2n (x) siempre tendrán máximos y mı́nimos
c
dF2n (x) sen(2nx) mπ
= = 0, ⇒ para x = con m = 1, 2, 3, · · ·
dx sen(x) 2n
Bo

10 Josiah Willard Gibbs 1839 - 1903. Algunos lo consideran el primer Fı́sico Norteamericano, de hecho fue el primero en

recibir un tı́tulo de doctorado por una universidad norteamericana (Yale University). Hizo importantes aportes en electromagne-
tismo y sobre todo en termodinámica y fı́sica estadı́stica, sentando las bases matemáticas para estas disciplinas. En matemáticas
es conocido su estudio de las oscilaciones de las expansiones de las series de Fourier en los puntos de discontinuidad.

104
2.5. SERIES DE FOURIER

Las Series de Fourier tienden a sobre-estimar el valor de los puntos de discontinuidad en ±18 % esto es
un valor de ≈ 1,1789797. La inclusión de más términos en las sumas parciales no mejoran la situación. El
fenómeno de Gibbs no se restringe a Series de Fourier sino que también se presenta en las demás series de
funciones (ver detalles en la referencia: Arfken-Weber-2000) .
El fenómeno de Gibbs fue observado ¡experimentalmente! por primera vez por Albert Michelson.11 . Para
finales de 1800 Michelson habı́a creado un dispositivo mecánico para medir las componentes de Fourier de
señales eléctricas. Al incorporarle una onda cuadrada observó que una oscilación inesperada en los puntos
de discontinuidad. Creyó que esa oscilación se debı́a a defectos del dispositivo. Luego de probar múltiples
tipos de señales periódicas y observar un comportamiento similar, decidió comentárselo a su amigo Willard

r
Gibbs, de la Universidad Yale. Al poco tiempo Gibbs volvió con una explicación que dejó intacta la fama de

a
Michelson como instrumentista. El fenómeno es una consecuencia de la teorı́a de series de Fourier y no del
equipo diseñado por Michelson12 .

in
2.5.4. Corrección al fenómeno de Gibbs: Factor σ de Lanczos
Una de las estrategia para corregir las oscilaciones del fenómeno de Gibbs se le debe a Lanczos13 . Con-
siderando el mismo caso de la función onda cuadrada, se puede intentar sustituir la función oscilante Fnc (x)

m
por su promedio F̄nc (x) alrededor del punto x. Vale decir
π π
" n
#
n x+ 2n n x+ 2n
Z Z
c c c 1 2X 1
F2n (x) → F̄2n (x) = ds F2n (s) = ds + sen((2k − 1)s) ,
π x− 2n π x− 2n 2 π 2k − 1

eli
π π
k=1

desarmando tendremos que


π
" n
#
Z x+ 2n
c n 1 2X 1
F̄2n (x) = ds + sen((2k − 1)s)
π π
x− 2n
Pr
2 π
k=1
2k − 1
" n π #
x+ 2n
n π 2X 1
= + cos((2k − 1)s)
π 2n π (2k − 1)2 π
x− 2n
k=1
n
" #
π
c 1 2X 1 sen 2n (2k − 1)
F̄2n (x) = + π sen((2k − 1)x) .
2 π 2k − 1 2n (2k − 1)
or

k=1
| {z }
σ

Con lo cual hemos identificado el factor σ de Lanczos. Siguiendo este mismo proceso se puede generalizar
para cualquier función de tal modo que una serie de Fourier genérica podrá ser corregida con un factor σ
ad

para lograr
n−1
" # n−1
a0 X sen kπ n a0 X
F̄n (x) = + kπ
 (ak cos(kx) + b k sen(kx)) ≡ + σk (ak cos(kx) + bk sen(kx)) .
2 n
2
k=1 k=1
rr

11 Albert Abraham Michelson Strelno, Prussia, 1852 - Pasadena EEUU. 1931. Premio Nobel en Fı́sica (1907) uno de los
fı́sicos experimentales más habilidosos de todos los tiempos. La precisión y lo ingenioso de los instrumentos creados por él son
famosos. Con importantes contribuciones en medidas de fenómenos en óptica. Una de sus contribuciones más conocidas son
los experimentos para mostrar la inexistencia del Ether como medio de transmisión para el fenómeno electromagnético. Más
detalles [Link]
Bo

12 Más detalles [Link]


13 Cornelius Lanczos 1893 - 1974 Hungrı́a. Matemático húngaro con contribuciones importante en Relatividad y Fı́sica

Teórica. En matemáticas es conocido inventar la transformada rápida de Fourier. Más detalles en [Link]
[Link]/Biographies/[Link]

105
2.5. SERIES DE FOURIER

2.5.5. Ejemplos
1. Variedades de dientes de sierra
Otra función muy común es la denominada dientes de sierra
f (t) = at si 0 ≤ t ≤ T , con a constante
los coeficientes son los siguientes:
2 T
Z

r
a0 = atdt = aT ,
T 0

a
2 T
Z  
2πnt aT 
dt = 2 2 nπsen (2n π) − sen2 (nπ) = 0 ,

an = at cos
T 0 T π n

in
Z T  
2 2πnt aT
bn = at sen dt = − .
T 0 T nπ

Tenemos entonces que

m
∞   ∞
a0 X 2πnt aT aT X sen (ωnt)
f (t) = at = + bn sen = − , para 0 ≤ t ≤ T .
2 n=1
T 2 π n=1 n

eli
En el caso particular de hacer a = 3 y T = 2 → ωn = nπ, entonces:

6 X sen (nπt) 6sen (π t) 3sen (2 π t) 2sen (3 π t) 3sen (4 π t) 6sen (5 π t)
f (t) = 3t = 3− = 3− − − − − +· · ·
π n=1 n π π π 2π 5π
Pr
La figura 2.9 (cuadrantes V y VI) muestra la construcción de esta función y su representación en Series
de Fourier.
A partir de esta función podemos hacer unas variaciones. Por ejemplo considérese la función
 R T /2


 a0 = T2 −T /2 atdt =0


or

−T T  R T /2
an = T2 −T /2 at cos 2πnt

f (t) = at si ≤ t ≤ , con a constante ⇒ T dt = 0
2 2 



 b = 2 R T /2 at sen 2πnt  dt = − aT (−1)n .


n T −T /2 T nπ
ad

Claramente es una función impar f (−x) = −f (x) y ası́ lo refleja su expansión en series de Fourier. Si
hacemos a = 3 y T = 2 → ωn = nπ tendremos que la expresión para de la serie es
6sen (π t) 3sen (2 π t) 2sen (3 π t) 3sen (4 π t) 6sen (5 π t) −T T
f (t) = 3t = − + − + +· · · con ≤t≤ ,
π π π 2π 5π 2 2
rr

la cual, si bien es parecida no es igual a la anterior, debido que estamos expandiendo otra función.
Otra variación posible de la función “diente de sierra” puede ser la versión completamente par del
“diente”, f (−x) = f (x). Esta es
Bo

 −at si −T

2 ≤t≤0
f (t) =
at si 0 ≤ t ≤ T2

106
2.5. SERIES DE FOURIER

El cálculo de los coeficientes resulta en:


2 0 2 T /2
Z Z
aT
a0 = (−at)dt + atdt = ,
T −T /2 T 0 2
2 0 2 T /2
Z   Z  
2πnt 2πnt aT n
an = (−at) cos dt + at cos dt = 2 2 [(−1) − 1] ,
T −T /2 T T 0 T π n
2 0 2 T /2
Z   Z  
2πnt 2πnt
bn = (−at) sen dt + at sen dt = 0 .
T −T /2 T T 0 T

r
En este caso son los coeficiente bn los que se anulan.

a
Adicionalmente, nótese que para n par, los coeficientes an también se anulan, Otra vez, si hacemos
a = 3 y T = 2 → ωn = nπ tendremos la serie:

in
3 12 cos (π t) 4 cos (3 π t) 12 cos (5 π t) −T T
f (t) = − − − + ··· con ≤t≤
2 π2 3π 2 25 π2 2 2

m
2. Función cuadrática
Otro caso, complementario al anterior por sus propiedades de simetrı́a, es la expansión en series de
Fourier de la función f (x) = x2 para −π < x < π. Entonces los coeficientes se la expansión serán

eli
 Rπ 2
 a0 = π1 −π x2 dx
 = 2π3
2
f (x) = x ⇒
 a = 2 R π x2 cos(nx)dx = 4(−1)n

n π 0 n2

ya que los coeficientes correspondientes a los términos impares bn se anulan. Con lo cual
Pr ∞
π2 X (−1)n cos(nx)
x2 = +4 .
3 n=1
n2

Nótese que como un resultado particular, al evaluar en x = π, se tiene la función zeta de Riemann ζ(2)
∞ ∞
π2 1 1 π2
or

X X
π2 = +4 ⇒ ζ(2) ≡ = .
3 n=1
n2 n=1
n2 6

Pero este caso se presta también para considerar funciones no periódicas. Supongamos que queremos
desarrollar la expansión de Fourier para f (t) = t2 pero en este caso con 0 < t < 2. Si este fuera el caso,
ad

empezamos por suponer que la función tienen un perı́odo, digamos T = 4. Esto es −2 ≤ t ≤ 2. Con lo
cual
2 2 2 4 2 2
Z Z
8
a0 = t dt = t dt =
4 −2 4 0 3
rr

Z 2
4 2 2
  Z  
2 2πnt πnt 16 16
an = t2 cos dt = t cos dt = 2 2 cos(nπ) = 2 2 (−1)n .
4 −2 4 4 0 2 π n π n
Bo

Con lo cual tendremos que



4 X (−1)n  πnx 
t2 = + 16 cos para 0 < t ≤ 2 .
3 n=1
π 2 n2 2

107
2.5. SERIES DE FOURIER

2.5.6. Practicando con Maxima


2.5.7. Ejercicios

ar
in
m
eli
Pr
or
ad
rr
Bo

108
2.5. SERIES DE FOURIER

Programa para generar cuadraturas de Gauss K Legendre para n puntos


O restart: Digits:=20:
O n := 3:
O L := LegendreP(n,z): p:=expand(%);
5 3 3
p := z K z (1)

r
2 2
Lar raíces de los polinomios de Legendre representan las abscisas del problema

a
O x := [fsolve(p)];
x := K0.77459666924148337704, 0., 0.77459666924148337704 (2)

in
Se puede construir una procedimiento que tome como entrada una función f x y genere los valores
aproximados
O proced := f -> sum(c['i']*f(x['i']),'i'=1..n):
Se calculan los pesos a partir de resolver el siguiente sistema lineal de ecuaciones:

m
O ecs := []:
O for i from 1 to n do
O ecs := [op(ecs),proced(z->z^(i-1)) = int(z^(i-1),z=-1..1)]:
O end do:
O ecs;

eli
c1 C c2 C c3 = 2, K0.77459666924148337704 c1 C 0.77459666924148337704 c3 = 0,

2
0.60000000000000000001 c1 C 0.60000000000000000001 c3 =
3
Pr
O sys := {op(ecs)}:var := {seq(c[k],k=1..n)}:
O pesos := solve(sys,var); assign(pesos):
pesos := c1 = 0.55555555555555555555, c2 = 0.88888888888888888891, c3
= 0.55555555555555555555
Para probar el método, generemos aleatoriamente un polinomio de grado 2 n K 1
O q := randpoly(z,degree=2*n-1);
or

q := K56 K 7 z 5 C 22 z 4 K 55 z 3 K 94 z 2 C 87 z (3)
con el polinomio anterior construyamos una función g x
O g := unapply(q,z);
g := z/K56 K 7 z 5 C 22 z 4 K 55 z 3 K 94 z 2 C 87 z (4)
ad

apliquemos la regla definida anteriormente


O calculado := proced(g);
calculado := K165.86666666666666667 (5)
Calculemos el resultado exacto
rr

O exacto := int(q,z=-1..1);
2488
exacto := K (6)
15
Ahora podemos comparar el resultado exacto con el aproximado
Bo

O evalf(exacto - calculado);
0. (7)
FIN

109
2.5. SERIES DE FOURIER

a r
in
Figura 2.8: Aproximaciones por series de Fourier para la función escalón, linea roja. Las curvas corresponden
a sumas parciales de Fourier: F40 (x), F100 (x), F200 (x),

m
eli
Pr
or
ad

Figura 2.9: Un par de funciones, definidas con un perı́odo T , a ser expresadas en como expansiones en Series
de Fourier. En los cuadrantes I y II, encontramos una onda cuadrada. La primera (cuadrante I) definida en
rr

un intervalo − T2 , T2 y en el cuadrante II la misma función definida en un intervalo (0, T ). El cuadrante III




ilustra las aproximaciones de la serie de Fourier para n = 3, 7, 20, mientras que el espectro de potencia se
presenta en el cuadrante IV. La onda “diente de sierra”, definida en un intervalo (0, T ), se presenta en el
Bo

cuadrante V. Sus aproximaciones en series de Fourier para n = 3, 7, 10 se pueden observar en el cuadrante


VI, mientras que el espectro de potencia en el cuadrante VII.

110
Capı́tulo 3

ar
Series II

in
m
eli
Pr
or
ad
rr
Bo

111
3.1. SERIES Y ESPACIOS DE HILBERT

La ruta de este capı́tulo


3.1. Series y espacios de Hilbert
Hemos dejado “sueltos” algunos conceptos para los espacios de Hilbert infito-dimensional. El primero de
estos conceptos es que un vector |ai ∈ E ∞ surge de la combinación lineal de elementos de una base infinita
{|ei i}, (de una serie) que converge al vector |ai para un espacio donde también la norma del vector converge
a un valor finito kak2 = ha |ai.

r
El segundo concepto fue la posibilidad de expresar un determinado vector (una función) como combinación
lineal de una base (de dimensión infinita) de un espacio vectorial E ∞ . Efectivamente, esa combinación lineal

a
(de dimensión infinita) habrá de converger a el valor de la función en ese punto. En su momento expresamos
estos conceptos intuitivos y fácilmente demostrables para E n (un espacio vectorial Euclidiano de dimensión
finita, n−dimensional) y sin mayores justificaciones hicimos el “salto ” a E ∞ (un espacio Euclidiano infinito-

in
dimensional). Ahora, equipados con los conceptos de convergencia uniforme estamos en capacidad de explorar
esas razones que antes eludimos.
Ambos conceptos tienen que ver con la palabra completitud, la cual, como veremos, no tiene el mismo

m
significado en cada una de las situaciones antes mencionadas, pero será complementario. En el primer caso
la completitud de E ∞ se logra al poder expresar un vector como una combinación lineal de una base infinita
que converja al valor del vector. En el segundo caso diremos que la base {|ei i} para E ∞ será completa si
expande la totalidad de los vectores de E ∞ .

eli
3.1.1. Completitud de E ∞
La primera idea de completitud de un Espacio de Hilbert E ∞ tiene que ver con el hecho que, en ese
espacio, donde la norma de un vector es finita kak2 = ha |ai < ∞, la combinación lineal de los elementos de
Pr n→∞
una base infinita, {|ei i}, converja al vector |ai. Esto es, ai |ei i −→ |ai.
Para el caso de E n es inmediato que, dada una base (ortonormal, por ejemplo)

|ai = ai |ei i ⇒ kak2 = ha |ai = ai ai < ∞ , con i = 1, 2, 3, . . . n ,

la norma es finita, por cuanto es la suma de términos finitos (las componentes del vector (a1 , a2 , a3 , · · · an )).
Sin embargo, para el caso de E ∞ las componentes del vector será función de las sumas parciales, esto es
or

hasta dónde desarrollemos la serie y debemos demostrar que si


n→∞
|ain ⇔ (a1n , a2n , a3n , a4n , · · · ann ) −→ |a∞ i ⇔ (a1∞ , a2∞ , a3∞ , · · · aj∞ , · · · ) ⇒ k |a∞ i − |an i k <  .

Es decir que, efectivamente, componente a componente el vector |an i converja al vector |ai.
ad

El criterio de convergencia de Cauchy en este caso significa que: dadas dos sumas parciales (desarrollos
parciales en una determinada base infinita {|ei i}) |an i = ai |ei i con i = 1, 2, . . . n y |am i = aj |ej i con
j = 1, 2, . . . m entonces:

k |am i − |an i k = k |am i − |ai − |an i + |ai k ≤ k |ai − |an i k + k |ai − |am i k < 0 + 00 ≡  ,
rr

con lo cual las diferencias en las sumas parciales serán siempre menor que un 0 <  < 1.
Nótese que hemos utilizado la desigualdad triangular kx + yk ≤ kxk + kyk, y es esa misma desigualdad
Bo

triangular lo que nos garantiza que:



X
|ajn − ajm |2 ≤ |ajn − ajm |2 ≡ k |am i − |an i k2 <  ,
j=1

112
3.1. SERIES Y ESPACIOS DE HILBERT

vale decir, hemos demostrado que el término j−ésimo (y con ello todas las componentes del vector) de una
n→∞ m→∞
suma parcial, converge al término correspondiente de la serie lı́mite. Esto es, ajn −→ ajm −→ aj por lo
tanto que la combinación lineal converge al vector. Nos queda por demostrar si su norma es finita, o lo que
es lo mismo, ha |ai = ai ai < ∞ con i = 1, 2, 3, · · · ∞.
Es claro que:
M
X ∞
X
|ajn − ajm |2 ≤ |ajn − ajm |2 ≡ k |am i − |an i k2 <  ,
j=1 j=1

r
PM
con lo cual si m → ∞ tendremos que j=1 |ajn − aj |2 < , y si ahora hacemos:

a

X ∞
X ∞
X
M →∞ ⇒ |ajn − aj |2 <  ⇒ ha |ai = |aj |2 ≡ |aj + ajn − ajn |2 .

in
j=1 j=1 j=1

Ahora bien, para α y β complejos, se cumple:


2
(|α| − |β|) ≡ |α|2 +|β|2 −2|α||β| ≥ 0 ⇒ 2|α||β| ≤ α|2 +|β|2 ⇒ |α+β|2 ≤ ||α|+|β||2 = |α|2 +|β|2 +2|α||β| ,

m
para que resulte:
2
(|α| − |β|) ≤ 2 |α|2 + |β|2 .


Finalmente, podemos aplicarlo al caso que nos compete:

eli
 

X X∞ ∞
X
ha |ai ≡ |aj + ajn − ajn |2 ≤ 2  |aj − ajn |2 + |ajn |2  < ∞ .
j=1 j=1 j=1
Pr
3.1.2. Conjunto completo de funciones
El segundo sentido de completitud tiene que ver con que el conjunto (funciones) de vectores base expandan
la totalidad del espacio vectorial (de funciones). Esto es, si {|ui i} ⇔ {ui (x)} es una base ortonormal para
E ∞ entonces:

or

X
|ai = ai |ui i ⇒ k |ai k2 = ha |ai = ai ai = |ak |2 con i = 1, 2, 3, . . . ∞ .
k=1

Otra vez es la misma afirmación que consideramos en el caso de un espacio finito dimensional E n , en el cual
demostramos que una base {|ui i} con i = 1, 2, 3, · · · , n expandı́a todo el espacio.
ad

Si adicionalmente existe una función cuadrado integrable, L2[a,b] definidas en el intervalo [a, b], la cual
pueda ser aproximada por la base:

X N
X Z b N
X
k |f i k2 ≡ hf |f i < ∞ ⇒ |f i = ci |ui i ∼ ci |ui i ⇔ kf (x)k2 ≡ dx|f (x)|2 ⇒ f (x) ∼ cj uj (x) .
rr

i=0 i=0 a j=0

Nótese que hemos supuesto la existencia de un producto interno y si las bases son ortonormales tendremos
que:
Bo

Z b Z b Z b ∞
X
dx g ∗ (x)f (x) ⇒ uk |ul i ≡ dx u∗k (x)ul (x) = δlk ⇒ kf (x)k2 ≡ dx|f (x)|2 = |cj |2 .

hg |f i ≡
a a a j=0

113
3.1. SERIES Y ESPACIOS DE HILBERT

donde: Z b
ck = dx u∗k (x)f (x) .
a
Para demostrar que E ∞ es completo, comenzamos por demostrar la llamada desigualdad de Bessel.
Esta es: dada una base ortonormal infinita, {|ui i} ⇔ {ui (x)} para un espacio vectorial de Hilbert, E ∞ , de
Rb
funciones cuadrado integrable f (x) ∈ L2[a,b] , con un producto interno definido por hg |f i ≡ a dx g ∗ (x)f (x),
entonces se cumple que:

r
X Z b Z b
kf (x)k2 ≥ |ck |2 con ck = uk |f i = dx u∗k (x)f (x) dx g ∗ (x)f (x) .

∧ hg |f i ≡
a a

a
k=1

Para demostrar la desigualdad de Bessel, partimos de una afirmación obvia en espacios finito dimensio-

in
nales:

0 ≤ k |f i − ci |ui i k2 ≡ hf | − c∗k uk |f i − ci |ui i = k |f i k2 − c∗k uk |f i −ci hf |ui i +c∗k ci uk |ui i ,



  

| {z } | {z } | {z }
ck c∗
i δik

m
donde k, i = 1, 2, 3, . . . , n Entonces, queda demostrada la desigualdad de Bessel al tomar el lı́mite n → ∞:
n ∞
n→∞
X X
0 ≤ k |f i k2 − |ck |2 =⇒ k |f i k2 ≥ |ck |2 .

eli
k=1 k=1

Si definimos el error, Mn , que se comete al aproximar una función con su expansión hasta

un término
n−ésimo como Mn (b − a) ≡ k |f i − αi |ui i k2 demostraremos que Mn es mı́nima si αi = ci = ui |f i.
Para ello procedemos como es costumbre, partiendo de la definición que acabamos de hacer y nos con-
centramos en el caso finito dimensional:
Pr
0 ≤ Mn (b − a) ≡ k |f i − αi |ui i k2 = k |f i − (αi − ci ) |ui i − ck |uk i k2 .

Desarrollando

Mn (b − a) = hf | − (αk∗ − c∗k ) uk − c∗k uk |f i − (αi − ci ) |ui i − ci |ui i




 
or

n
X
=k |f i k2 − c∗i (αi − ci ) − 2c∗i ci − (αk∗ − c∗k )ck + kαj − cj k2 + (αk∗ − c∗k )ck + c∗i (αi − ci ) + c∗i ci
j=1
" n
# n
ad

X X
= k |f i k2 − kci k2 + kαj − cj k2 .
i=1 j=1

Pero la desigualdad de Bessel garantiza que la cantidad entre corchetes es positiva, por lo tanto Mn es
mı́nima (y la denotaremos M̃n ) cuando seleccionamos αj = cj . Más aún, M̃n decrece cuando n → ∞, vale
decir:
rr

n ∞
n→∞
X X
M̃n (b − a) = k |f i k2 − kci k2 =⇒ M̃∞ (b − a) = k |f i k2 − kci k2 ,
i=1 i=1
Bo

y si, adicionalmente tenemos que M̃n → 0 cuando n → ∞ entonces es claro que:



X
k |f i k2 = kci k2 ⇒ {|ui i} ⇔ {ui (x)} es completa.
i=1

114
3.2. SERIES DE LAURENT

Esta noción de convergencia se denomina convergencia al promedio.


Si adicionalmente exigimos que la serie ci |ui i converja uniformemente para x ∈ [a, b] entonces es claro
que:
Z b ∞
X
dx kf (x) − ci |ui i k2 = 0 ⇒ |f i = ci |ui i (con i = 1, 2, 3 · · · , ∞) ⇔ f (x) = ci ui (x) .
a i=1

Podemos enumerar las condiciones para la cual exigiremos que una función pueda ser expresada en
términos de una base completa de funciones.

r
Que f (x) sea cuadrado integrable f (x) ∈ L2[a,b] .

a
P∞
Que la base sea completa, {|ui i} ⇔ {ui (x)} i.e. k |f i k2 = i=1 kci k2 .

in
P∞
Que la serie ci |ui i ⇔ i=1 ci ui (x) converja uniformemente, para x ∈ [a, b].

3.1.3. Ejemplos

m
3.1.4. Practicando con Maxima
3.1.5. Ejercicios

eli
3.2. Series de Laurent
Anteriormente consideramos series complejas de potencias. En esta sección revisaremos, desde la pers-
pectiva de haber expresado la derivada n-ésima de una función analı́tica, el equivalente a las series de Taylor
para funciones complejas de variable complejas.
Pr
3.2.1. Series de Taylor para funciones analı́ticas
Si f (z) es analı́tica en un cı́rculo de radio R, encerrado por un contorno C y centrado en un punto z = z0 ,
entonces f (z) puede ser expandida en series de potencias (enteras positivas) para todo |z − z0 | < R de la
forma:
or


X f (n) (z0 ) f 00 (z0 ) f (n) (z0 )
f (z) = (z − z0 )n ≡ f (z0 ) + f 0 (z0 )(z − z0 ) + (z − z0 )2 + · · · + (z − z0 )n + Rn ,
n=0
n! 2 n!
ad

con el resto Rn (z) definido como:

(z − z0 )n
I
f (ζ) dζ
Rn (z) = .
2iπ C (ζ − z0 )n (ζ − z)

Para probar esta afirmación partimos de la fórmula integral de Cauchy escrita convenientemente:
rr

 
I I
1 f (ζ) dζ 1 f (ζ)  1
f (z) = = dζ , (3.1)

2iπ C ζ − z 2iπ C ζ − z0 1 − z − z0

Bo

ζ − z0

115
3.2. SERIES DE LAURENT

de donde:
  n+1 
z − z0
   2  n
z − z0 z − z0 z − z0 ζ − z0
I I
1 f (ζ) dζ 1 f (ζ)  
f (z) = ≡ dζ 1 + + + ··· + + ,
   
2iπ C ζ −z 2iπ C ζ − z0  ζ − z0 ζ − z0 ζ − z0 ζ −z 
ζ − z0
z − z0
este último corchete proviene de una forma ingeniosa de utilizar una serie geométrica de razón r = .
ζ − z0

r
Para entenderlo, recordemos que para una serie geométrica, se cumple que:

a
1 − rn+1 1 rn+1 1 rn+1
1 + r + r2 + r3 + · · · + rn = = − ⇒ = 1 + r + r2 + r3 + · · · + rn + .
1−r 1−r 1−r 1−r 1−r

in
Entonces:
  n+1 
z − z0
n  j
X z − z0 ζ − z0
I I
1 f (ζ) dζ 1 f (ζ)  
f (z) = ≡ dζ +  ,

m

2iπ ζ −z 2iπ C ζ − z0  j=0 ζ − z0 ζ −z

C 
ζ − z0

con lo cual:

eli
n n
f (j) (z0 )
 I 
X 1 f (ζ) X
f (z) = (z − z0 )j dζ j+1
+ R n (z) = (z − z0 )j + Rn (z) , (3.2)
j=0
2iπ C (ζ − z0 ) j=0
j!
donde:
(z − z0 )n
I
f (ζ)
Rn (z) =
Pr
2iπ

(ζ − z0 )n (ζ − z)
. (3.3)
C
Obvio que la serie (3.2) converge si Rn (z) → 0 cuando n → ∞ y de eso es fácil convencerse al acotar la
ecuación (3.3). Esto es, considerando ζ sobre el contorno C y z en el interior de R, entonces:
(z − z0 )n |z − z0 |n
I I
f (ζ) f (ζ)
|Rn (z)| =

n (ζ − z)
<
n (ζ − z)

2iπ C (ζ − z 0 ) 2π C
(ζ − z0 )
or

|z − z0 |n 1
< M n 2πR ,
2π R

f (ζ)
donde, una vez más, hemos utilizado la forma polar ζ̃ = ζ − z0 = Reiθ y hemos acotado < M , con
ad

n ζ − z
z − z0
lo cual es inmediato constatar que lı́mn→∞ = 0 ⇒ Rn (z) → 0, con lo cual la serie converge.
R
Veamos el siguiente ejemplo, vamos a expandir
1
rr

f (z) = ,
1−z
alrededor de z = z0 .
Esto es:
Bo


1 1 1 2 1 3 (z − z0 )n X (z − z0 )n
f (z) = + (z−z0 )+ (z−z0 ) + (z−z0 ) +· · ·+ +· · · = .
1 − z0 (1 − z0 )2 (1 − z0 )3 (1 − z0 )4 (1 − z0 )n+1 n=0
(1 − z0 )n+1

116
3.2. SERIES DE LAURENT

a r
in
m
Figura 3.1: Expansión de Laurent

3.2.2. Las series de Laurent

eli
Hemos dicho que si una función f (z) es analı́tica en una región (digamos que circular) R, entonces puede
ser expandida por series de Taylor. Sin embargo, si f (z) tiene un polo de orden p, digamos, en z = z0 , dentro
de la región R, no será analı́tica en ese punto, mientras que la función: g(z) = (z − z0 )p f (z) si lo será en
todos los puntos de esa región. Entonces f (z) podrá ser expandida como series de potencias (de Laurent) de
la forma
Pr
∞ ∞ ∞ I
X
k
X
n
X u−n 1 f (ζ) dζ
f (z) = uk (z − z0 ) = un (z − z0 ) + n
, con un = , (3.4)
n=0 n=0
(z − z0 ) 2iπ C (ζ − z0 )n+1
k=−∞

para: n = 0, ±1, ±2, · · · y R1 < |z − z0 | < R2 . Equivalentemente


or

g(z) a−p a−p+1 a−1


f (z) = = + + ··· + + a0 + a1 (z − z0 ) + a2 (z − z0 )2 + · · · (3.5)
(z − z0 )p (z − z0 )p (z − z0 )p−1 (z − z0 )
P∞ u−n
La suma de todos los términos que tengan potencias negativas, vale decir n=0 (z−z 0)
n , se denomina parte
ad

principal de f (z).
Para demostrar (3.4) o (3.5), recordamos que, tal y como muestra la figura 3.1 cuadrante I, si f (z) es
analı́tica en la regiún anular, entonces el Teorema de Cauchy, nos garantiza que
I I I I
1 f (ζ) dζ 1 f (ζ) dζ 1 f (ζ) dζ 1 f (ζ) dζ
f (z) = + ≡ −
2iπ C1 ζ − z0 2iπ C2 ζ − z0 2iπ C1 ζ − z0 2iπ C2 ζ − z0
rr

donde en el segundo caso hemos supuesto que ambas circulaciones tienen el mismo sentido.
Del mismo modo como procedimos en la ecuación (3.1) reescribimos el segundo par de integrales como
Bo

   
I I
1 f (ζ)  1 1 f (ζ)  1 
f (z) = dζ + dζ
  
2iπ C1 ζ − z0 1 −
 z − z0 2iπ C2 z − z0  ζ − z0 
1−
ζ − z0 z − z0

117
3.2. SERIES DE LAURENT

y ahora invocando, una vez más la progresión geométrica (??) podemos construir expresiones de integrales
equivalentes a la ecuación (??). Vale decir
 n   n 
z − z0 ζ − z0
 
n−1
X z − z0 j
  n−1
X ζ − z0 j
 
ζ − z0 z − z0
I I
1 f (ζ)   1 f (ζ)  
f (z) = dζ  +   + dζ  +   
2iπ C1 ζ − z0  j=0 ζ − z0 ζ − z  2iπ C2 z − z0  j=0 z − z0 ζ −z 
ζ − z0 z − z0
y equivalentemente

r
n−1 I n−1 I
1 X f (ζ) 1 X 1
(z − z0 )j dζ f (ζ)(ζ − z0 )j +Rn2 (z)

a
f (z) = dζ j+1
+R n1 (z) + j+1
2iπ j=0 C (ζ − z0 ) 2iπ (z − z0 ) C
| 1 {z } j=0 | 2 {z }
uj u−j

in
(3.6)
Con lo cual queda demostrado la forma funcional de los coeficientes de la expansión de Laurent. La demos-
tración de la convergencia, esto es n → ∞ ⇒ Rn1 (z) → Rn2 (z) → 0 sigue el mismo esquema que utilizamos
para demostrar la convergencia de la ecuación (3.4) y se lo dejamos como ejercicio al lector.

m
Otra manera de representar las series de Laurent es por medio de las fórmulas:
∞ ∞
X
k
X bk
f (z) = ak (z − z0 ) + , R1 < |z − z0 | < R2 . (3.7)
(z − z0 )k

eli
k=0 k=1

donde:
Z
1 f (z)
ak = dz , k = 0, 1, 2, . . . , (3.8)
2πi C (z − z0 )k+1

bk =
1
Z
Pr f (z)
dz , k = 1, 2, . . . . (3.9)
2πi C (z − z0 )−k+1
En este caso, se supone que la función es analı́tica en el dominio anular: R1 < |z − z0 | < R2 y C es un
contorno cerrado simple en torno a z0 y contenido en la región anular.
En el caso de bk podemos ver que el integrando se puede escribir también como f (z)(z − z0 )k−1 . Si f
es analı́tica en |z − z0 | < R2 , entonces el integrando es una función analı́tica en dicho disco y por lo tanto
or

bk = 0. Es decir, la serie (3.7) se reduce a una serie de Taylor donde los coeficientes son:

f (k) (z0 )
Z
1 f (z)
ak = dz = , k = 0, 1, 2, . . . .
2πi C (z − z0 )k+1 n!
ad

En muchos casos las expansiones en series de Laurent no se generan a partir de las ecuaciones (3.4)
o (3.7) sino a partir de manipulaciones algebráicas y expansiones en Taylor moduladas por otros factores.
Analicemos el siguiente ejemplo.
El primero lo haremos directamente, vale decir, que como lo vamos a hacer no lo haremos otra vez.
Queremos hacer una representación en serie de Laurent de la función:
rr

1
f (z) = .
z(z − 1)
Bo

Utilizando las fórmulas de (3.6), construimos la relación


I I I ∞ ∞ I
1 f (ζ)dζ 1 dζ 1 dζ X n 1 X dζ
uj = = = − ζ = −
2πi C1 (ζ − z0 )j+1 2πi C1 ζ j+2 (ζ − 1) 2πi C1 ζ j+2 n=0 2πi n=0 C1 ζ j+2−n

118
3.2. SERIES DE LAURENT

convirtiendo a la forma polar tendremos que



1 X
∞ I
riθeiθ dθ X∞  un = −1 para n ≥ −1
− = − δj+2−n,1 ⇒
2πi n=0 C1 rj+2−n ei(j+2−n)θ
un = 0 para n < −1

n=0

es decir
1 1
f (z) = = − − 1 − z − z2 − z3 − · · ·
z(z − 1) z

r
3.2.3. Integración por el método de los residuos: los residuos de Laurent

a
Las expansiones de funciones en series de potencias dejan “residuos” al detener la expansión a para una
determinada potencia. Esto se puede apreciar claramente en la expresión de Taylor para funciones analı́ticas.

in
Ahora, las expansiones de Laurent nos muestran otro “residuo”. Explotaremos las series de Laurent para
funciones con polos y construiremos un método para evaluar integrales de funciones en esos puntos. Primero
estudiaremos los residuos en general y luego los utilizaremos para evaluar integrales.
Hemos dicho que si f (z) tiene un polo de orden p en z = z0 ∈ R, entonces

m
I ∞
X a−p a−p+1 a−1
dz f (z) 6= 0 ⇒ f (z) = ak (z−z0 )k = p
+ p−1
+· · ·+ +a0 +a1 (z−z0 )+a2 (z−z0 )2 +· · ·
C n=−∞
(z − z 0 ) (z − z0 ) (z − z 0 )

más aún, tendremos que los coeficientes de la expansión pueden ser calculados a partir de

eli
I I
1 f (ζ) dζ
an = n = 0, ±1, ±2, · · · si n = −1, ⇒ f (ζ) dζ = 2iπa−1 ≡ 2iπRes f (z) (3.10)
2iπ C (ζ − z)n+1 C

Es decir, la integración a lo largo de un contorno C que aisle al polo z = z0 es proporcional al residuo


correspondiente a la expansión de Laurent alrededor de ese polo. Nos queda entonces calcular el residuo para
ası́ no calcular la integral.
Pr
Esta situación se ilustra con el siguiente ejemplo. Supongamos
z3 z5
 
sen z 1 1 1 z
f (z) = 4
= 4 z− + + ··· = 3 − + + ··· ,
z z 3! 5! z 3!z 5!
por lo tanto: I
or

1 iπ
a−1 = − ⇒ f (ζ) dζ = 2iπa−1 = −
3! C 3
En general, si f (z) tiene un polo de orden p en z = z0 ∈ R, entonces

dp−1
ad

X
(z−z0 )p f (z) = a−p +a−p+1 (z−z0 )+· · ·+a0 (z−z0 )p +· · · ⇒ [(z−z0 )p
f (z)] = (p−1)!a −1 + bn (z−z0 )n
dz p−1 n=1

con lo cual concluimos que


dp−1
 
1 p
a−1 ≡ Res f (z) = lı́m [(z − z 0 ) f (z)] (3.11)
rr

z→z0 (p − 1)! dz p−1


Si, por ejemplo consideramos
eiz
  
d 2 d
z0 = i ⇒ [(z − i) f (z)] =

Bo


dz dz (z + i)2

eiz eiz


f (z) = 2 ≡ ⇒
(z + 1)2 (z + i)2 (z − i)2 
 d d

eiz

 z0 = −i ⇒ [(z + i)2 f (z)] =


dz dz (z − i)2

119
3.2. SERIES DE LAURENT

con lo cual
eiz eiz (z + i)2 ieiz − eiz 2(z + i) −4ie−1 − −4ie−1
 
= lı́m 1 d i

Res 2 2 2
= lı́m 2
= =−
(z + 1) i z→i 1! dz (z + i)
z→i (z + i) 16 2e

del mismo modo se procede para el caso z = −i


p(z)
Un caso particular y muy útil lo constituyen las funciones racionales del tipo f (z) = y f (z) tiene
q(z)
un polo simple en z = z0 . Esto es q(z0 ) = 0 entonces

r
(z − z0 )p(z) (z − z0 ) p(z0 )
Res f (z)|z0 = lı́m = p(z0 ) lı́m = 0 (3.12)

a
z→z0 q(z) z→z0 q(z) q (z0 )

porque hemos utilizado el Teorema de L’Hopital. Este caso lo podemos ejemplificar si consideramos una

in
función

4 − 3z
z = 0 ⇒ Res f (z)| = = −4


z=0
2z − 1 z=0


4 − 3z 4 − 3z 

m
f (z) = 2 ≡ con polos en (3.13)
z −z z(z − 1) 
 4 − 3z


 z = 1 ⇒ Res f (z)|z=1 = =1


2z − 1 z=1

eli
3.2.4. Ejemplos
1. Expandir
f (z) = ln(1 + z)
alrededor de z = 0 (Serie de Maclaurin)
Pr

(−1)n+1 n! f 00 (0) 2 f 000 (0) 3 z2 z3
X
f (z) = ln(1+z) = ln(1 + z)|z=0 + n+1
z n ≡ f (0)+f 0 (0)z+ z + z +· · · = z− + +· · ·
n=1
(1 − z)
z=0 2 3! 2 3

2. Expandir  
1+z
or

f (z) = ln ,
1−z
alrededor de z = 0 (Serie de Maclaurin)
ad


z2 z3 z2 z3 z3 z5 2z 2n+1
        X
1+z
ln ≡ ln[1+z]−ln[1−z] = z − + · · · − −z − − ··· = 2 z + + ··· = .
1−z 2 3 2 3 3 5 n=0
2n + 1

Consideremos los siguientes ejemplos de desarrollos en Series de Laurent


rr

3. Dada la función:
1
f (z) = .
z(z − 2)
Bo

La función puede escribirse en la forma:


 
1 1 1 1
f (z) = =− − , 0 < |z| < 2 .
z(z − 2) 2 z z−2

120
3.2. SERIES DE LAURENT

Por otro lado, sabemos que:


∞ ∞
1 1 1 1 X  z n X z n
− = = = , |z| < 2 ,
z−2 2 1 − z/2 2 n=0 2 n=0
2n+1

por lo tanto:

1 1 1 1 X zn
f (z) = = − −
z(z − 2) 2z 2 n=0 2n+1

r
11 1 1 1 1 1 1 5
= − − − z − z2 − z3 − z4 − z − ··· , 0 < |z| < 2 .

a
2z 4 8 16 32 64 128

4. Sea la función

in
1
f (z) = .
(z − 1)(z − 3)
Esta función tienes polos de orden 1 en z = 1 y z = 3. Además, expresando f (z) como una suma de

m
fracciones parciales, tendremos:
 
1 1 1 1
f (z) = =− − , 1 < |z| < 3 ,
(z − 1)(z − 3) 2 z−1 z−3

eli
Para 1 < |z| < 3.
Tenemos los siguientes desarrollos:
∞  n ∞
1 1 1 1X 1 X 1
= = = n+1
, |z| > 1 ,
z−1 z 1 − 1/z z n=0 z z
Pr ∞
n=0

1 1 1 1 X  z n X z n
− = = = , |z| < 3 ,
z−3 3 1 − z/3 3 n=0 3 n=0
3n+1

La serie es:
"∞ ∞
#
1 1 X zn X 1
or

f (z) = = − +
(z − 1)(z − 3) 2 n=0 3n+1 n=0 z n+1
1 1 1 2 1 3 1 −1 1 −2 1 −3 1 −4
= − − z− z − z − z − z − z − z − ··· .
6 18 54 162 2 2 2 2
ad

Para |z| > 3.


En este caso no podemos utilizar el segundo desarrollo anterior, ya que éste es válido sólo para
|z| < 3. Por lo tanto:
∞  n ∞
1 1 1 1X 3 X 3n
− = − =− =− , |z| > 3 ,
rr

z−3 z 1 − 3/z z n=0 z z n+1


n=0

podemos entonces escribir


Bo

"∞ ∞
# ∞
1 1 X 1 X 3n 1 X 1 − 3n
f (z) = = − − = −
(z − 1)(z − 3) 2 n=0 z n+1 n=0 z n+1 2 n=0 z n+1
= z −2 + 4 z −3 + 13 z −4 + 40 z −5 + · · · .

121
3.2. SERIES DE LAURENT

para |z| < 1.


Escribimos
 
1 1 1 1 1 1 1 1
f (z) = =− − = − ,
(z − 1)(z − 3) 2 z−1 z−3 21−z 6 1 − z/3
como |z| < 1 y |z/3| < 1 en este dominio, entonces:
∞ ∞ ∞
1 X n 1 X zn
 
1X n 1
f (z) = z − = z 1 −

r
2 n=0 6 n=0 3n 2 n=0 3n+1
1 4 13 2 40 3 121 4

a
= + z+ z + z + z + ··· .
3 9 27 81 243

in
5. Dada la siguiente función
e2z
f (z) = .
(z − 1)3
Sabemos que:

m

X zn
ez = , |z| < ∞ ,
n=0
n!
por lo tanto:

eli
∞ ∞
e2z e2 e2(z−1) 2
X 2n (z − 1)n 2
X 2n
f (z) = = = e = e (z − 1)n−3
(z − 1)3 (z − 1) 3
n=0
n!(z − 1)3
n=0
n!
 
2 −3 −2 −1 2 4 2
= e2 + (z − 1) + 2 (z − 1) + 2 (z − 1) + z + (z − 1) + · · · ,
3
Pr 3 15
la cual es válida para: 0 < |z − 1| < ∞.
6. Consideremos la función
z − sen z
f (z) = .
z3
Esta función se puede escribir como:
or

1 sen z
f (z) = 2
− 3 .
z z
Sabemos que:

z 2n+1
ad

X
sen z = (−1)n , |z| < ∞ ,
n=0
(2n + 1)!
entonces
∞ ∞
1 sen z 1 X z 2n+1 1 X z 2(n−1)
f (z) = − 3 = − (−1)n 3 = 2− (−1)n
rr

z2 z z 2
n=0
z (2n + 1)! z n=0
(2n + 1)!
∞ 2(n−1) ∞ 2(n−1)
1 1 X
n z
X
n z
= − − (−1) = − (−1)
z2 z 2 n=1 (2n + 1)! n=1
(2n + 1)!
Bo

1 1 2 1 1 1
= − z + z4 − z6 + z8 − · · · ,
6 120 5040 362880 39916800
válida para: 0 < |z| < ∞.

122
3.3. TEOREMA DEL RESIDUO

3.2.5. Practicando con Maxima


3.2.6. Ejercicios

3.3. Teorema del Residuo


3.3.1. Integrales impropias
Hemos visto como calcular las integrales de funciones, en regiones múltiplemente conexas, con polos

r
simples a partir de residuos. Ahora generalizaremos ese esquema para una región, también múltiplemente
conexa, pero con un número finito de polos. Tal y como se muestra en la figura 3.1 en el cuadrante II,

a
realizamos una circulación ingeniosa, de tal modo que aislamos los distintos polos. Ahora bien, como la
función es analı́tica en la región bordeada por todos esos contornos, entonces

in
I I I I
dz f (z) + dz f (z) + dz f (z) + · · · dz f (z) = 0 ,
C C1 C2 Cm

y al cambiar el sentido de circulación comprobamos lo que ya sabı́amos

m
I I I I I m
X
dz f (z) = dz f (z) + dz f (z) + · · · dz f (z) ⇔ dz f (z) = 2iπ Res f (z)z=z0j
C C1 C2 Cm C j=1

eli
donde hemos utilizado lo que hicimos para la ecuación (3.10)
Con ello podemos enunciar el Teorema del Residuo que ya hemos demostrado
Si f (z) es analı́tica en una región R excepto en un número, m, finito de polos z01 , z02 , z03 , · · · z0m entonces
I m
X
C
Pr
dz f (z) = 2iπ Res f (z)z=z0j
j=1

Una vez más ejemplificamos. Sea la función


4 − 3z
f (z) = ,
z2 − z
una función con polos simples en z = 0 y z = 1 correspondientes a residuos 4 y 1, respectivamente, tal y
or

como se vio en la sección (3.2.3). Entonces, utilizamos los resultado expuestos en el ejemplo (3.13)
4 − 3z
I
dz 2 = 2πi(−4 + 1) = −6πi ,
C z −z
ad

siempre y cuando el circuito C encierre los dos polos, z = 0 y z = 1, para los cuales hemos calculado los
residuos.

3.3.2. Evaluación de integrale reales e impropias


rr

El teorema del residuo (3.3) es una herramienta poderosa para evaluar algunos tipos de integrales definidas
en variable real. La intención es “extender” el dominio de las funciones de la recta real al plano complejo.
Una de las restricciones es que los contornos deben ser cerrados antes de que sean evaluados los residuos. El
Bo

punto es que muchas integrales reales tienen contornos abiertos y la posibilidad de evaluar estas integrales
a través del Teorema del Residuo descansa en la forma como se cierran los contornos. En estos casos se
debe estimar las contribuciones de esos contornos adicionales que permiten cerrar los contornos abiertos. A
continuación expondremos algunas técnicas para cerrar algunos tipos de contornos abiertos.

123
3.3. TEOREMA DEL RESIDUO

a r
in
m
Figura 3.2: Circuitos y evaluación de integrales reales, impropias

R∞

eli
3.3.3. Integrales impropias del tipo −∞
dx f (x)
Este tipo de integrales implica, si ambos lı́mites existen
Z ∞ Z 0 Z r Z r
dx f (x) = lı́m dx f (x) + lı́m dx f (x) ↔ lı́m dx f (x)
−∞ r→−∞ r
Pr r→∞ 0 r→∞ −r

Necesitaremos que el integrando sea una función racional f (x) = p(x)/q(x), donde q(x) 6= 0 ∀ x. Adicional-
mente requeriremos que cuando menos q(x) ∼ x2 p(x). Supuesto todo esto, convertimos nuestra Hfunción ra-
cional en una función de variable compleja f (x) → f (z) y consideramos la integral de circulación, C dz f (z),
sobre un contorno C descrito por el eje real y una semicircunsfrencia Γ en el plano complejo con y ≥ 0, tal y
Rcomo se muestra en el cuadrante I la figura 3.3. La intención es hacer r → ∞ y con ello evaluar la integral

or

0
dx f (x). Es fácil convencerse que
I Z Z r m
X
dz f (z) = dz f (z) + dx f (x) = 2iπ Res f (z)z=z0j
C Γ −r j=1
ad

es decir,
Z r m
X Z
dx f (x) = 2iπ Res f (z)z=z0j − dz f (z)
−r j=1 Γ
rr

Esta estrategia es válida porque hemos supuesto que f (x) es racional y que q(x) 6= 0 ∀ x, entonces si
existen polos para f (z) estarán en el plano complejo (no sobre el eje real). Todos
R esos polos serán encenrados
por el contorno C que hemos seleccionado. Más aún, comprobaremos que Γ dz f (z) → 0 cuandoz → ∞.
Esto es sencillo si notamos que
Bo

Z
2 k k kπ
q(x) ∼ x p(x) ⇒ |f (z)| < 2 ⇒ dz f (z) < 2 πr =
para |z| = r ≥ 0
|z| Γ r r

124
3.3. TEOREMA DEL RESIDUO

con lo cual llegamos a que para este tipo de integrales


Z ∞ m
X p(x)
dx f (x) = 2iπ Res f (z)z=z0j para f (x) = , con q(x) 6= 0 ∀ x ∧ p(x) ∼ x2 q(x) . (3.14)
−∞ j=1
q(x)

Como un ejemplo consideremos evaluar la siguiente integral


Z ∞ Z ∞ m
dx dx X
4 4
⇒ 4 4
= 2iπ Res f (z)z=z0j
−∞ x + 1 −∞ x + 1 j=1

r
donde hemos utilizado la expresión (3.14). La extensión analı́tica

a
1 iπ 3iπ
f (x) → f (z) = tendró cuatro polos simples: z = e± 4 ; z = e± 4 ;
z4 + 1

in
correspondientes a las cuatro raı́ces de z 4 = −1. Acto seguido calculamos los residuos invocando la relación
(3.12) que hemos construido para funciones racionales. Esto es
 −3iπ iπ
1 e 4 e4

m
 z = e iπ

⇒ Res f (z)| iπ = = =
 4
z=e 4 4z 3 z=e iπ 4 4


p(z) p(z0 )  4
Res = ⇒
q(z) z=z0 q 0 (z0 )  −9iπ −iπ

 3iπ 1 e 4 e 4
 z=e
 4 ⇒ Res f (z)| 3iπ = = =

eli

z=e 4 4z 3 z=e 3iπ
4 4 4
Hemos considerado únicamente los polos para el semiplano complejo y > 0 ya que seguimos considerando
el circuito descrito en el cuadrante I de la figura 3.3. Quedan dos polos ubicados en el semiplano complejo
y < 0, tal y como se muestra en el cuadrante II de la misma figura 3.3.
Consecuentemente, tendremos que
Pr
Z ∞
dx 2πi  iπ −iπ
  π  √2 Z ∞
dx 1 ∞
Z
dx

2
4+1
= e 4 + e 4 = πsen = π ⇒ 4 + 14
= 4 + 14
= π.
−∞ x 4 4 2 0 x 2 −∞ x 4

3.3.4. Integrales de funciones racionales de cos θ y sen θ


or

Ahora mostraremos la estrategia para integrales de funciones racionales de funciones trigonométricas,


G(cos(θ), sen(θ)). La idea es transformar estas integrales en otras de funciones de variable compleja a través
de los cambios de variables que conectan las funciones trigonométricas y los números complejos. Esto es
transformar integrales de la forma
ad

Z 2π I
dz
dθ G(cos θ, sen θ) → f (z) ,
0 C zi
mediante cambios de variables estándares
   
dz 1 1 1 1
z = reiθ ⇒ dθ = ; cos θ = z+ ; y sen θ = z− (3.15)
rr

zi 2 z 2i z
Por ejemplo, en las tablas de integrales encontrábamos1 que
Z 2π
dθ 2π
Bo

=√ con |a| > |b| ,


0 a + bsen θ a − b2
2

1 Encontrábamos porque hoy en dı́a estas integrales las calculamos con manipuladores simbólicos del tipo Maple, Reduce,

Matemathica o Mupad

125
3.3. TEOREMA DEL RESIDUO

veamos como se llega a ese resultado.


Haciendo z = reiθ y asumiendo las consecuencias, tal y como se presenta en (3.15) arriba, tendremos que
Z 2π I dz I
dθ zi 2dz
= b 1
= con C una circunferencia |z| = 1
0 a + bsen θ C a+ 2i z− z C bz 2 + 2aiz − b

los polos de √
2 −a ± a2 − b2
f (z) = 2 ⇒ z±0 = i,
bz + 2aiz − b

r
b
son los valores de z que anulan el denominador de f (z). Seguidamente verificamos la ubicación de los polos

a
simples y comprobamos que como |a| > |b| entonces
−a + √a2 − b2 −a − √a2 − b2

in
|z+0 | = i < 1 y |z−0 | = i > 1 ,

b b

y por lo tanto, sólo el primero de los polos está encerrado por el circuito C con |z| = 1 tal y como muestra

m
en el cuadrante III de la figura 3.3.
Una vez más calculamos el residuo para z+0 a partir de (3.11). Entonces tendremos que

2 2 1 −i
Res f (z)|z=z+0 = lı́m (z − z+0 ) = lı́m = ≡√

eli
z→z+0 bz 2 + 2aiz − b z→z+0 2bz + 2ai bz+0 + ai a + b2
2

finalmente Z 2π I
dθ 2dz 2π
= = 2iπRes f (z)z=z+0 = √ .
0 a + bsen θ C bz 2 + 2aiz − b a − b2
2
Pr
3.3.5. Integrales de Fourier
Otro grupo de integrales que pueden ser evaluadas mediante el teorema de Residuos son las integrales
de Fourier. Integrales que involucran funciones racionales, f (x), que satisfacen las condiciones expuestas
anteriormente y funciones senos y cosenos. Integrales del tipo
m
or

Z ∞   Z ∞ I
cos mx imx imz
X
Res f (z)eimz z=z

dx f (x) ↔ dx f (x)e → dz f (z)e = 2iπ (3.16)
−∞ sen mx −∞ C
0j
j=1

Con m > 0 y los polos correspondientes a los residuos que se muestran en el lado derecho, están ubicados
ad

en el semiplano complejo con y > 0. Es claro que el circuito seleccionado es Γ que muestra el cuadrante II
de la figura 3.3.
Equivalentemente, igualando partes reales e imaginarias
Z ∞ m
X
Im Res f (z)eimz z=z

dx f (x) cos mx = −2π
rr

0j
−∞ j=1
Z ∞ m
X
Re Res f (z)eimz z=z

dx f (x)sen mx = 2π .
0j
−∞
Bo

j=1

Otra vez, el circuito C se separa en una semicircunferencia Γ y el eje real.

126
3.3. TEOREMA DEL RESIDUO

a r
in
m
Figura 3.3: Circuitos y evaluación de integrales reales, impropias

eli
Para demostrar que para evaluar las integrales de Fourier (3.16) se requiere la suma de los residuos nos
convencemos que la integral a lo largo de la semicircunferencia se anula. Esto es fácil si comprobamos que
y > 0 y m > 0, entonces si z = x + iy tendremos que
Pr
|eimz | = |eimx ||e−my | = e−my < 1 ⇒ |f (z)eimz | = |f (z)| ≤ |f (z)| |eimz |
con lo cual redujimos al de una función racional.
Por ejemplo, comprobemos que
Z ∞ Z ∞
dx cos mx π dx sen mx
= e−km y =0
or

2 2 x2 + k 2
−∞ x + k k −∞

es fácil ver que el polo simple de la continuación analı́tica de f (x) es z0 = ik y su residuo será
eimz eimz eimz e−mk

f (z) = 2 ⇒ z = ik ⇒ Res = =
ad

2 0 2 2
z +k z + k z=ik
2z z=ik
2ik
y por lo tanto

eimx e−mk
Z
π
dx = 2iπ = e−mk
−∞ x2+k 2 2ik k
rr

3.3.6. Otras integrales impropias


Existen integrales definidas para las cuales el integrando se hace infinito para un determinado punto en
Bo

el rango de integración. Esto es, en general


Z b Z x0 −ζ Z b
lı́m |f (x)| → ∞ ⇒ dx f (x) = lı́m dx f (x) + lı́m dx f (x)
x→x0 a ζ→0 a ξ→0 x0 +ξ

127
3.3. TEOREMA DEL RESIDUO

donde ζ y ξ tienden a cero de forma independiente, es decir, ambos lı́mites se efectúan independientemente.
Ahora bien, puede darse el caso que uno o ambos lı́mites no existan pero si existe
!
Z x0 −
Z b Z b
lı́m dx f (x) + lı́m dx f (x) ⇔ V.P. dx f (x)
→0 a ξ→0 x0 + a

Diremos entonces que existe el Valor Principal de Cauchy para esa integral. La estrategia en estos casos será
diseñar un circuito tal que evite los polos de la extensión analı́tica de la función. Normalmente se establece
este recorrido rodeando los polos con arcos de circunferencia cuyos radios luego tenderán a cero. Veamos con

r
un ejemplo esta estrategia de circunnavegación.
Por ejemplo, consideremos que queremos evaluar la siguiente integral

a
Z ∞
sen x sen x
dx ↔ lı́m = 1.

in
0 x x→−0 x
Si bien el lı́mite está definido, cuando hacemos la extensión analı́tica2 f (x) = sen x/x → f (z) = eiz /z la
función compleja presenta un polo simple en z = 0, con lo cual la integral compleja presenta un polo en la

m
región de integración. Esto es
Z ∞ Z − Z R
eiz eix eiz eix eiz
I Z Z
sen x
dx → dz = dx + dz + dx + dz = 0,
0 x C z −R x C2 z  x C1 z

eli
donde hemos construido un circuito que rodea el polo z = 0 (cuadrante IV de la figura 3.3). Es claro que
iz
dz ez = 0 porque la región no contiene ningún polo.
H
C
iz
Ahora mostraremos que C1 dz ez → 0, cuando R → ∞.
R

Para ello, convertimos


z = Reiθ ⇒
dz
Pr
= idθ ,
z
entonces
eiz π
Z Z Z π Z π Z π
−Rsen(θ)
iz iz iR cos(θ)
dθ e−Rsen(θ) ,

dz = dθ ie ≤ dθ |e | = dθ |e | |e | =

C1 z
0

0 0 | {z } 0
1
or

con lo cual
 
Z π Z π Z π/2 Z ζ Z π/2
I1 = dθ |eiz | = dθ e−Rsen(θ) = 2 dθ e−Rsen(θ) =2  dθ e|−Rsen(θ)
{z } + dθ e|−Rsen(θ)
{z } ,

0 0 0 0 ζ
I1 I2
ad

para 0 ≤ ζ ≤ π/2.
Es claro que e−Rsen(θ) es una función decreciente en θ y como estamos tratando de demostrar que la
integral a lo largo del circuito se anula I1 → 0, podremos considerar los máximos valores para I1 y I2 en el
entorno de integración y fijarlos como constantes, al hacer esto tendremos lo máximos valores que podrán
rr

tomar las integrales respectivas. Los máximos valores para I1 y I2 , son, 1 y e−Rζ .
Entonces,
Z π "Z Z π/2 #
ζ h π i
−Rsen(ζ)
dθ = 2 ζ + e−Rsen(ζ) − ζ < 2ζ + πe−Rsen(ζ) .
Bo

iz
I1 = dθ |e | ≤ 2 dθ + e
0 0 ζ 2
2 Nótese que la extensión analı́tica ha sido f (x) = sen x/x → f (z) = eiz /z y no f (x) = sen x/x → f (z) = sen z/z La razón

de esta selección se fundamenta en el comportamiento patológico (oscilante) de la función seno en infinito.

128
3.3. TEOREMA DEL RESIDUO

Al considerar que ζ → 0 y R → ∞ comprobamos que I1 → 0.


iz
Seguidamente nos toca demostrar que I2 = C2 dz ez → 0 cuando  → 0. Para este caso z = eiθ y como
R

siempre, dz/z = idθ, entonces la integral


Z π Z π
eiz
Z
I2 = dz = dθ iei exp(iθ) ⇒ lı́m I2 = lı́m dθ iei exp(iθ) = iπ .
C2 z 0 →0 →0 0

Esto implica que

r
Z − Z R R
eiz eix eix eix − e−ix
I Z
dz = dx + iπ + dx =0 ⇒ dx + iπ = 0 ,
z x x x

a
C −R 
|{z} 
x→−x

con lo cual es claro que

in
Z R Z R Z ∞
eix − e−ix sen x sen x π
dx = −iπ ⇒ 2i dx = −iπ ⇒ dx = ,
 x  x 0 x 2

m
donde hemos hecho los lı́mites R → ∞ y  → 0.

3.3.7. Ejemplos
1. Para evaluar la siguiente integral

eli
Z ∞
x2 dx z2
⇒ f (z) = 2
−∞ (x2 + 1)2 (x2+ 2x + 2) (z + 1) (z 2 + 2z + 2)
2

donde hemos realizado la extensión analı́tica f (x) → f (z) y ubicado sus polos de z = i y z = i − 1 en
Pr
el semiplano complejo y > 0 y los encerrados por el circuito descrito en el cuadrante I de la figura 3.3.
El primero de estos polos es de segundo orden, mientras que el segundo corresponde a un polo simple.
Consecuentemente, los residuos se calculan invocando la relación general (3.11) arriba expuesta. Con
lo cual para

z2
  
d 2 −12 + 9i
z = i ⇒ lı́m (z − i) =
or

z→i dz (z − i)2 (z + i)2 (z 2 + 2z + 2) 100


y para
z2 3 − 4i
z =i−1 ⇒ lı́m (z − i + 1) 2 2
=
z→i−1 (z + 1) (z − i − 1)(z + i − 1) 25
ad

Finalmente, podemos evaluar la integral


∞ 2
x2 dx
 
−12 + 9i 3 − 4i
Z X 7π
= 2iπ Res f (z)z=z0j = 2πi + =
−∞ (x2 + 1)2 (x2 + 2x + 2) j=1
100 25 50
rr

2. Evaluemos Z ∞
xsen πx
dx
−∞ x2 + 2x + 5
Bo

Partimos de la continuación analı́tica de


zeizπ zeizπ zeizπ
I

f (x) → f (z) = 2 ⇒ z±0 = −1 ± 2i ⇒ dz 2 = Res 2
z + 2z + 5 C z + 2z + 5 z + 2z + 5
z=−1+2i

129
3.3. TEOREMA DEL RESIDUO

ya que ese es el único polo encerrado por la circulación Γ. Calculando el residuo tendremos

zeizπ zeizπ e−π(2+i)


 

Res 2 = lı́m (z + 1 − 2i) = (−1 + 2i)
z + 2z + 5 z=−1+2i z→−1+2i z 2 + 2z + 5 4i

con lo cual
Z ∞ Z ∞
zeizπ e−π(2+i)
I
x cos πx xsen πx π
dz 2 = dx 2 +i dx 2 = 2iπ(−1+2i) = (1−2i)e−2π
C z + 2z + 5 −∞ x + 2x + 5 −∞ x + 2x + 5 4i 2

r
igualando parte real e imaginaria tendremos que

a
Z ∞ Z ∞
x cos πx π xsen πx
dx 2 = e−2π y dx = −πe−2π
x + 2x + 5 2 x2 + 2x + 5

in
−∞ −∞

3.3.8. Practicando con Maxima


3.3.9. Ejercicios

m
1. Determinar los polos y los residuos correspondientes para cada una de las funciones propuestas
 2
2z + 1 z+1 sen z
f (z) = 2 ; f (z) = ; f (z) = ; f (z) = cot z

eli
z −z−2 z−1 z2

2. Evaluar
a) I
dz ez
Pra lo largo de una circunsferencia |z| = 5
C cosh z
b)
(2z 2 + 5)dz
I
a lo largo de una circunsferencia |z − 2i| = 6 y
C (z + 2)3 (z 2 + 4)z 2
un cuadrado de vértices z = 1 + i; z = 2 + i; z = 2 + 2i y z = 1 + 2i.
or

3. Evaluar las siguientes integrales


Z ∞ Z ∞ Z ∞
dx dx dx
; ;
ad

0 (x + 1)(x2 + 4)2
2
0 x + x2 + 1
4
−∞ (x2 + 4x + 5)2

4. Compruebe las siguientes evaluaciones


Z 2π 2π
cos2 3θ dθ
Z
dθ 2π 3π
=√ con a2 > b2 + c2 ; = .
rr

0 a + b cos θ + csen θ a − b2 − c2
2
0 5 − 4 cos 2θ 8

5. Compruebe que
∞ ∞
πe−m (1 + m)
Bo


Z Z
cos mx cos 2πx π
Para m > 0 dx 2 2
= y dx = √ e−π/ 3
0 (x + 1) 4 0 x4 2
+x +1 2 3

6. Comprobar las evaluaciones para las siguientes integrales

130
3.4. TRANFORMADAS DE FOURIER

a) √
Z ∞ Z ∞

dx sen x2 = dx cos x2 =
0 0 4
b) √ √
∞ ∞
π2 2 (ln x)2 3π 3 2
Z Z
ln x
dx 4 =− ; dx 4 =
0 x +1 16 0 x +1 16
c)

r

x−p
Z  
π sen pα 
dx 2 =
x + 2x cos α + 1 sen pπ sen α

a
0

3.4. Tranformadas de Fourier

in
La transformada de Fourier representa (como combinación lineal de funciones sinusoidales) a funciones
definidas en toda la recta real y/o sin una periodicidad definida. Puede ser considerada como la generalización
de la representación en serie de Fourier, y es mayormente utilizada
R ∞ para expresar funciones que varı́an en el

m
tiempo con el único requisito que tengan norma acotada, i.e. −∞ dt |f (t)| finita.
Anteriormente hemos visto, que podemos expresar una función en término de series de Fourier complejas
∞ ∞
2nπ
X X

eli
f (t) = C n ei T t = Cn eiωn t ,
n=−∞ n=−∞

donde hemos definido ωn = 2nπ


T .
Ahora bien, podemos hacer T → ∞ con lo cual [−T /2, T /2] → [−∞, ∞] pero también se tiene:
Pr
R T /2
dt f (t) Z ∞
2π ω −T /2
T →∞ ⇒ = = ∆ω → dω y además →0 ya que dt f (t) , existe y es acotada.
T n T −∞

Si recordamos la expresión que toman los coeficientes de la expansión



!
Z T /2 Z T /2
1 ∆ω
or

−i2nπx X
−inx
Cn = dx e T f (x) ⇒ f (t) = dx e f (x) eiωn t ,
T −T /2 n=−∞
2π −T /2

con lo cual hacer T → ∞ Z ∞ Z ∞


1 iωt
dx e−iωx f (x) .
ad

f (t) = dω e
2π −∞ −∞
| {z }
F (ω)

De este modo, la transformada de Fourier de una función y su inversa, pueden escribirse como
Z ∞ Z ∞
rr

1 1
F (ω) ≡ F[f (t)] = √ dt e−iωt f (t) ⇔ f (t) ≡ F −1 [F (ω)] = √ dω eiωt F (ω) .
2π −∞ 2π −∞

3.4.1. Propiedades
Bo

Las transformada de Fourier cumplen con las siguiente propiedades, las cuales de derivan de la definición
arriba expuesta

131
3.4. TRANFORMADAS DE FOURIER

1. Las transformada de la derivada F[f 0 (t)] = iωF (ω) y en general F[f n (t)] = in ω n F (ω). Esta propiedad
es más o menos inmediata a partir de la definición integrando por partes
Z ∞ Z ∞
0 1 iωt 0 1 ∞ iω
F[f (t)] = √ dt e f (t) = √ iωt
e f (t) −∞ + √
dt eiωt f 0 (t)iωF (ω)
2π −∞ 2π 2π −∞

2. La transformada de la integral
Z t 
1
F ds f (s) = F (ω) + 2πcδ(ω)

r

a
donde la función (distribución) δ(ω) se denomina delta de Dirac y el término 2πcδ(ω) representa la
transformada de la constante de integración

in
3. Escalamiento F[f (at)] = a1 F ( ωa )
4. Traslación F[f (t + a)] = eiaω F (ω)
5. Multiplicación por un exponencial F [eαt f (t)] = f (ω + iα)

m
3.4.2. Funciones pares e impares
Al igual que en las expansiones de Fourier, la paridad de las función f (t) es importante. Esto se nota

eli
rápidamente a partir de la definición. Supongamos f (t) = −f (−t), entonces
Z ∞ Z ∞
−2i ∞
Z
1 1
F (ω) = √ dt e−iωt f (t) = √ dt (cos(ωt) − isen(ωt)) f (t) = √ dt sen(ωt) f (t) ,
2π −∞ 2π −∞ 2π 0
Pr
con lo cual podremos definir las transformadas de Fourier seno y coseno para funciones impares y pares
respectivamente. Esto es para funciones impares f (t) = −f (−t)
r Z ∞ r Z ∞
2 2
F (ω) = dt cos(ωt) f (t) ⇔ f (t) = dω cos(ωt) F (ω) ,
π 0 π 0
y para funciones pares f (t) = f (−t)
or

r Z ∞ r Z ∞
2 2
F (ω) = dt sen(ωt) f (t) ⇔ f (t) = dω sen(ωt) F (ω) .
π 0 π 0

3.4.3. Bases discreta y contı́nuas: la base de ondas planas


ad

Haremos una digresión para fijar conceptos y extender algunos de los razonamientos que hemos desa-
rrollado hasta aquı́. Tal y como hemos visto repetidas veces, la representación de un vector |F i en un
espacio vectorial abstracto V puede darse en término de una base ortonormal de vectores (discreta y finita
BDF = {|u1 i , |u2 i , |u3 i , · · · |un i} o discreta e infinita BDI = {|v1 i , |v2 i , |v3 i · · · |vn i · · · }) de la forma:
rr

 Pn Pn
 i=0 ci |ui i = i=0 hui | F i |ui i ⇐ BDF = {|u1 i , |u2 i , |u3 i · · · |un i}
|F i =
 P∞ P∞
i=0 ci |vi i = i=0 hvi | F i |vi i ⇐ BDI = {|v1 i , |v2 i , |v3 i · · · |vn i · · · }
Bo

donde en ambos casos:



X ∞
X
ci = hui | F i = cj hui |uj i = cj δij ,
j=0 j=0

132
3.4. TRANFORMADAS DE FOURIER

la intención ahora será utilizar la transformada de Fourier para construir la generalización de bases discretas
a continua |wα i de tal forma que transformamos el ı́ndice de la sumatoria en la variable de una integral
Z
|Ψi = dα c (α) |wα i ,

donde Z Z
c (β) = hwβ |Ψi = dα c (α) hwβ |wα i = dα c (α) δ (α − β) ,

r
con en la cual δ (α − β) es una Delta de Dirac.
Ası́, los dos conceptos expresados hasta ahora tienen una expresión:

a
Propiedad \ Base Discreta Continua
Ortogonalidad hvPi |vj i = δij hwβ |w R α i = δ (α − β)

in

Cierre 1 = j=0 |vj i hvj | 1 = dα |wα i hwα |
P∞ R
Expansión |F i = i=0 ci |ui i |Ψi = dα c (α) |wα i
Componentes ci = hu
Pi∞ | Fi c (β)R = hwβ |Ψi
Producto Interno hG| F i = i=0 gi∗ fi hG| F i = dα g ∗ (α) f (α)

m
P∞ 2 R 2
Norma hF | F i = i=0 |fi | hF | F i = dα |f (α)|
Ilustraremos esta generalización con la construcción de la base de ondas planas. Hemos visto que la
transformada compleja de Fourier compleja para una función, se puede escribir como

eli
Z ∞ Z ∞
F (s) = ist
dt e f (t)  f (t) = ds e−ist F (s) ,
−∞ −∞

las cuales reescribiremos en términos más familiares a la comunidad de fı́sicos como


1
Z ∞
Pr 1
Z ∞
ψ (x) = √ dp eipx/~ ψ̄ (p)  ψ̄ (p) = √ dx e−ipx/~ ψ (x)
2π~ −∞ 2π~ −∞
Hemos tenido cuidado de incluir los factores de normalización adecuados para el caso de las descripciones
en mecánica cuántica. Estas fórmulas pueden ser reinterpretadas en función de los conceptos anteriormente
expuestos y podemos definir una base continua de la forma
or

Z ∞   Z ∞  
1 1 i px/~ 1 1 −i px/~
ψ (x) = √ dp √ e ψ̄ (p)  ψ̄ (p) = √ dx √ e ψ (x) ,
2π~ −∞ 2π~ 2π~ −∞ 2π~
| {z } | {z }
vp (x) vpx (x)
ad

por lo cual Z ∞ Z ∞
ψ (x) = dp vp (x) ψ̄ (p)  ψ̄ (p) = dx vp∗ (x) ψ (x) .
−∞ −∞

Diremos que la función ψ (x) está expresada en la base de ondas planas vp (x) = √ 1 ei px/~
2π~
Nótese
rr

El ı́ndice p de vp (x) varı́a de forma continua entre −∞ e ∞.


1
Que vp (x) = √2π~ ei px/~ ∈
/ L2 es decir no pertenece al espacio vectorial de funciones de cuadrado
Bo

integrable ya que su norma diverge


Z ∞ Z ∞
2 1
hvp | vp i = dx |vp (x)| = dx →∞
−∞ −∞ 2π~

133
3.4. TRANFORMADAS DE FOURIER

Que las proyecciones de ψ (x) sobre la base de ondas planas es ψ̄ (p) = hvp | ψi
La relación de cierre para esta base se expresa como
Z Z ∞ Z ∞
1 i p(x0 −x)/~
1 = dα |vα i hvα |  dp vp∗ (x0 ) vp (x) = dp e = δ (x0 − x)
−∞ −∞ 2π~

mientras que de la definición de producto interno, uno obtiene


Z ∞ Z ∞
1 i x(p0 −p)/~

r
hvp0 | vp i = dx vp∗0 (x) vp (x) = dp e = δ (p0 − p)
−∞ −∞ 2π~

a
Un ejemplo inmediato lo tenemos al considerar la función

in
1 1
1 e−iω − eiω
 Z
1 si |t| < 1 1 2sen ω
f (t) = ⇒ F (ω) = √ dt 1 e−iωt = √ = √2πω
0 el resto 2π −1 2π −iω −1

Otro lo podremos construir a si consideramos la ecuación diferencial inhomogénea y buscamos su solución

m
Z 1  
dφ(x) 1 dφ(x)
2
− K φ(x) = f (x) ⇒ √ dt − K φ(x) e−iωt = F (ω) ,
2
dx2 2π −1 dx2

eli
donde F (ω) es la transformada de Fourier de la función f (x).
Utilizando las propiedades de la transformada de Fourier obtenemos que
Z 1  
1 dφ(x) −iωt F (ω)
√ dt e − K 2 φ̃(ω) = F (ω) ⇒ −k 2 φ̃(ω) − K 2 φ̃(ω) = F (ω) ⇒ φ̃(ω) = − 2 ,
2π −1 dx 2
Pr k + K2

donde hemos representado φ̃(ω) como la transformada de Fourier de la solución φ(x). Con lo cual
Z 1 Z 1
1 −iωt 1 F (ω)
φ(x) = √ dt φ̃(ω) e = −√ dt e−iωt .
2π −1 2π −1 k2 + K 2
or

Como solución formal de la ecuación diferencial resulta sencilla y el método también es inmediato. El
punto crucial es la solución del la integral que resulta de la transformación inversa. Normalmente este tipo
de integrales no son tratables de manera analı́tica. Pero siempre queda el recurso numérico.
ad

3.4.4. Tranformadas discretas de Fourier


Aquı́ haremos algo más contemporáneo que será estudiar la versión discreta de esta transformación. En
general las integrales, en su mayorı́a, no se pueden resolver analı́ticamente por lo que tenemos que proceder
a resolverlas de forma numérica. La mayor parte de los métodos numéricos involucra convertir integrales en
sumatorias. Es decir en series de funciones.
rr

Hemos visto como las funciones trigonométricas (y las exponenciales de argumento imaginario) son or-
togonales bajo integrales evaluadas en un determinado intervalo. En otras palabras con la definición de
producto interno en un espacio de funciones. Ahora bien, esas mismas funciones (Fourier Generalidades,
Bo

cosenos y funciones exponenciales de argumento imaginario) serán también ortogonales al ser evaluadas en
puntos muy particulares.

134
3.4. TRANFORMADAS DE FOURIER

kT
Consideremos los siguientes 2N puntos tk = 2N y probaremos que las funciones e2πiptk /T y e2πiqtk /T
serán ortogonales ∝ δqp en un conjunto esos puntos tk . Esto es

1 − r2N
= 0 r 6= 1

2N −1 h 2N −1 2N −1 
2πiptk ∗
i 2πiqtk 2πistk

2πisk
1−r
X X X
e T e T = e T = e 2N =

k=0 k=0 k=0 
 2N r=1
kT
donde hemos sustituido s = q − p, y evaluado en los puntos tk = con k = 1, 2, 3, · · · , 2N − 1. Nótese

r
2N
que la última de las series es una serie finita y geométrica con razón r = e(πis)/N , que comienza con 1 y por

a
lo tanto suma (dependiendo del valor de r) lo que aparece en la llave. Es inmediato convencerse que, para
todo N se cumple que r2N = e2πis = 1 (con s entero) con lo cual se cumple la relación de ortogonalidad que
buscamos

in
2N −1 h
2πiptk ?
X i 2πiqtk
e T e T = 2N δqp con k = 1, 2, 3, · · · , 2N − 1 (3.17)
k=0
2πm

m
Si hacemos un ligero cambio de notación y llamamos ωm = tendremos algunos cambios, en apariencia,
T
cosméticos
2N −1 2N −1
2πimtk 1 X 1 X
e± T → e±ωm tk ⇒ F (ωm ) = f (tk )e±ωm tk ⇔ f (tk ) = F (ωm )e±ωm tk (3.18)

eli
2N 2N m=0
k=0

La función F (ωm ) representa la transformada discreta de Fourier de la f (tk ). Para despejar la función f (tk )
hemos utilizado la relación de ortogonalidad 3.17.
Consideremos el siguiente f (tk ) = cos(tk ) evaluado en un perı́odo T = 2π y dividido, digamos en N = 2
Pr
intervalos. Los puntos en los cuales evaluaremos nuestra serie serán 2N = 4, vale decir
kT kπ 2πm eiωm tk eimkπ/2
tk = ≡ con k = 0, 1, 2, 3 ⇔ ωm = ≡m ⇒ ≡
2N 2 T 2N 2N
nótese que la función f (tk ) puede ser escrita como un vector f (tk ) = (1, 0, −1, 0), con lo cual para encontrar
la expresión de su transformada discreta de Fourier, F (ωm ), podemos expresar la suma como una matriz de
transformación con ı́ndices m, k. Esto es
or

 
1 1 1 1
imkπ/2
e 1 1 i −1 −i 


2N 4  1 −1 1 −1 
ad

1 −i −1 0
con lo cual
     

F (ω0 ) 1 1 1 1 1 0
2N −1
1 X  F (ω1 )  1  1 i −1 −i   0  1 1 
F (ωm ) = f (tk )e±ωm tk ⇒ 
 F (ω2 )  = 4 
= 
rr

   
2N 1 −1 1 −1   −1  2 0 
k=0
F (ω3 ) 1 −i −1 0 0 1
Respecto a la ecuación 3.18 se deben puntualizar varios elementos
Bo

2πm
la frecuencia angular ωm = corresponde a lo que en Fı́sica se denomina el espacio recı́proco (al
T
temporal), espacio de frecuencias u ω-espacio. Por ello la función F (ωm ) está expresada en este espacio
de frecuencias, mientras que la función f (tk ) en el de tiempos.

135
3.4. TRANFORMADAS DE FOURIER

La elección de uno de los signos + y − en la expresión e±ωm tk es arbitraria.


Con lo cual si “reconstruimos” la función original a partir de la transformada discreta nos sorprende el
resultado, por cuanto no coincide
1 −itk 1 −3itk 1 1
f (tk ) = e + e ⇒ < [f (tk )] = cos(tk ) + cos(3tk )
2 2 2 2
Ahora bien, para los puntos tk = 0, π2 , π, y π2 si se cumple que los valores cos(tk ) = 12 cos(tk ) + 12 cos(3tk ).

r
En los pocos puntos seleccionados cos(tk ) y cos(3tk ) se asemejan. En la medida que seleccionemos más puntos
en esa medida se dejan de parecer y la reconstrucción de la función será más fidedigna.

a
3.4.5. Ejemplos

in
3.4.6. Practicando con Maxima
3.4.7. Ejercicios

m
eli
Pr
or
ad
rr
Bo

136
Capı́tulo 4

ar
PolinomiosOrtogonales

in
m
eli
Pr
or
ad
rr
Bo

137
4.1. SERIES DE POLINOMIOS ORTOGONALES

La ruta de este capı́tulo


4.1. Series de Polinomios Ortogonales
Enunciaremos un teorema debido a Weierstrass el cual garantiza que una función continua en un intervalo
[a, b] puede ser aproximada uniformemente por una serie de polinomios. Por lo tanto, cualquier función
continua podrá ser aproximada por combinaciones lineales de potencias.
El Teorema de aproximación polinómica de Weiernstrass queda enunciado como sigue. Cualquier función

r
continua f (x) en un intervalo cerrado x ∈ [a, b] podrá ser aproximada uniformemente por polinomios en ese
mismo intervalo si, para un n suficientemente grande y un  suficientemente pequeño siempre se tiene que

a
|Pn (x) − f (x)| <  ∀ x ∈ [a, b]

in
Aceptaremos este teorema sin demostración1 , sin embargo este teorema nos permitirá desarrollar las secciones
siguientes.

4.1.1. Polinomios de Legendre

m
El primero de los ejemplos de una base ortonormal de polinomios en la cual podremos expresar cualquier
función continua en el intervalo cerrado x ∈ [−1, 1] serán los Polinomios de Legendre. Estos vienen construidos
a partir de la Fórmula de Rodrı́gues

eli
1 dn 2
Pn (x) = (x − 1)n , n = 0, 1, 2, .....
n!2n dxn
con P0 (x) = 1.
Es decir
Pr
P0 (x) = 1 P1 (x) = x
1 1
P2 (x) = (3x2 − 1) P3 (x) = (5x3 − 3x)
2 2
1 1
P4 (x) = (35x4 − 30x2 + 3) P5 (x) = (63x5 − 70x3 + 15x)
8 8
or

.. ..
. .

4.1.2. Generalidades de los Polinomios de Legendre


ad

Es fácil comprobar que los polinomios de Legendre son mutuamente ortogonales para un producto interno
definido de la siguiente manera Z 1
2
Pn (x)Pm (x)dx = δnm .
−1 2n + 1
rr

Donde la función delta de Kronecker es δαβ = 0 si α 6= β; y δββ = 1. La norma es definida por


Z 1
2
Pn2 (x)dx =
−1 2n + 1
Bo

nótese que los polinomios de Legendre, calculados a partir de la Fórmula de Rodrigues no están normalizados.
1 Consultar: Byron, F.W. y Fuller W.F. (1970) Mathematics of Classical and Quantum Physics y Cushing, J. (1975)

Applied Analytical Mathematics for Physical Sciences.

138
4.1. SERIES DE POLINOMIOS ORTOGONALES

Ejemplos:
1. Z 1 Z 1  Z 1
 
1 2
 3 3 1
P1 (x) P2 (x) dx = [x] 3x − 1 dx = x − x dx = 0 .
−1 −1 2 −1 2 2

2. Z 1 Z 1    Z 1 
1 1 9 4 3 2 1 2
3x2 − 1 2
 
P2 (x) P2 (x) dx = 3x − 1 dx = x − x + dx = .
−1 −1 2 2 −1 4 2 4 5

r
Al ser los Polinomios de Legendre un conjunto completo de funciones, ellos expanden el espacio de

a
funciones continuas en el intervalo cerrado x ∈ [−1, 1]. Por ello cualquier función en el intervalo [−1, 1] puede
ser expresada en esa base.
∞ Z 1 
2k + 1

in
X
f (x) = f (t)Pk (t) dt Pk (x) ,
2 −1
k=0 | {z }
ak

los primeros términos son:

m
1 1
Z Z 1  Z 1 
3 5
f (x) = f (t)dt + tf (t)dt P1 (x) + (3t2 − 1)f (t)dt P2 (x)
2 −1 2 −1 4 −1
Z 1 Z 1

eli
 
7 3 9 4 2
+ (5t − 3t)f (t)dt P3 (x) + (35t − 30t + 3)f (t)dt P4 (x) + · · ·
4 −1 16 −1

Ejemplos
1. Si f (x) es un polinomio
Pr m ∞
X X
f (x) = bn x n = an Pn (x) ,
n=0 n=0

entonces, no se requiere hacer ninguna integral por cuanto los coeficientes an se determinan a través
de un sistema de ecuaciones algebraicas. Para el caso de f (x) = x2 tendremos
or

f (x) = x2 = a0 P0 (x) + a1 P1 (x) + a2 P2 (x)


1
= a0 + a1 x + a2 (3x2 − 1)
 2
1 3 1 2
a0 − a2 + a1 x + a2 x2 ⇒ a0 = , a1 = 0 , a2 =
ad

=
2 2 3 3
1 2
= P0 (x) + P2 (x) .
3 3

2. En el caso de una función mas complicada


rr

r
1−x
f (x) = ,
2
Bo

por un lado r
1 1
1−x
Z Z
f (x)Pk (x)dx = Pk (x)dx
−1 −1 2

139
4.1. SERIES DE POLINOMIOS ORTOGONALES

la expansión en series de Legendre quedarı́a como


r Z r "Z r # "Z r #
1−x 1 1 1−t 3 1
1−t 5 1
2 1−t
= dt + t dt P1 (x) + (3t − 1) dt P2 (x)
2 2 −1 2 2 −1 2 4 −1 2
"Z r # "Z r #
1 1
7 1 − t 9 1 − t
+ (5t3 − 3t) dt P3 (x) + (35t4 − 30t2 + 3) dt P4 (x) + · · ·
4 −1 2 16 −1 2
2 2 2 2 2 2
= P0 (x) − P1 (x) − P2 (x) − P3 (x) − P4 (x) − P5 (x) − · · ·

r
3 5 21 45 77 117

2 Pn (x)

a
X
= P0 (x) − 2 .
3 n=1
(2n − 1) (2n + 3)

in
Antes de entrar en el detalle de las propiedades de estos polinomios, hay que enfatizar que los Polinomios
de Legendre constituyen la única base ortogonal para un espacio de Hilbert con un producto interno definido
como el producto simple de funciones en el intervalo cerrado. Al ortonormalizar mediante Gram Schmidt
la base 1, x, x2 , x3 , · · · , xn , · · · del espacio de polinomios, P n , de grado n en el intervalo [−1, 1], con el

m
R1
producto interno definido por −1 dx f (x) g (x) se obtienen los polinomios de Legendre.
Los polinomios de Legendre surgen, originalmente, como soluciones a la ecuación diferencial ordinaria del
tipo  

eli
d  dy
1 − x2 + λ y = 0 , −1 ≤ x ≤ 1 .
dx dx
o de manera equivalente a ecuaciones como

d2 Pn (x) dPn (x)


(1 − x2 )
dx2
Pr
− 2x
dx
+ n(n + 1) Pn (x) = 0 ,

donde y = Pn (x) y λ = n(n + 1).


La siguiente tabla muestra algunas ecuaciones diferenciales con sus respectivas soluciones

n Ecuación de Legendre Solución


2 d2 P0 (x) dP0 (x)
(1 − x ) − 2x
or

0 dx2 dx =0 P0 (x) = 1

d2 P1 (x) dP1 (x)


1 (1 − x2 ) dx2 − 2x dx + 2 P1 (x) = 0 P1 (x) = x

d2 P2 (x)
ad

dP2 (x)
2 (1 − x2 ) dx2 − 2x dx + 6 P2 (x) = 0 P2 (x) = 1 − 3x2

d2 P3 (x) dP3 (x)


3 (1 − x2 ) dx2 − 2x dx + 12 P3 (x) = 0 P3 (x) = x − 35 x3

d2 P4 (x) dP4 (x) 35 4


4 (1 − x2 ) − 2x + 20 P4 (x) = 0 P4 (x) = 1 − 10x2 + 3 x
rr

dx2 dx

4.1.3. Relación de Recurrencia


Bo

Supongamos que conocemos todos los polinomios de Legendre hasta Pn (x) y queremos generar el próximo.
Obviamente ese polinomio será de grado n + 1. Nos plantemos generarlo a partir de xPn (x). Como estos

140
4.1. SERIES DE POLINOMIOS ORTOGONALES

polinomios son base del espacio de funciones, entonces


n+1 Z 1 
X 2k + 1
xPn (x) = Pk (t)tPn (t) dt Pk (x) ,
2 −1
k=0

Observando con algo más de detalle

1 1
Z Z 1  Z 1 
3 5
xPn (x) = tPn (t)dt + t2 Pn (t)dt P1 (x) + (3t3 − t)Pn (t)dt P2 (x)
2 −1 2 −1 4 −1

r
Z 1  Z 1 
7 4 2 9 5 3
+ (5t − 3t )Pn (t)dt P3 (x) + (35t − 30t + 3t)Pn (t)dt P4 (x) + · · · .

a
4 −1 16 −1
Notemos que

in
Z 1 Z 1
Pn (t)tPn (t)dt = tPn2 (t)dt ,
−1 −1

por lo tanto, el integrando es una función impar. Consideremos algunos casos:

m
Para n = 0
Z 1 
3
xP0 (x) = t2 dt P1 (x) = P1 (x)
2 −1

eli
Para n = 1
Z 1  Z 1 
1 5 1 2
xP1 (x) = t2 dt + (3t4 − t2 )dt P2 (x) = + P2 (x)
2 −1 4 −1 3 3
Para n = 2
Pr
Z 1  Z 1 
3 7
xP2 (x) = (3t4 − t2 )dt P1 (x) + (5t3 − 3t)(3t3 − t)dt P3 (x)
4 −1 16 −1
2 3
= P1 (x) + P3 (x) .
5 5
or

Para n = 3
3 4
xP3 (x) = P2 (x) + P4 (x) .
7 7
Se puede apreciar que
ad

Z 1
Pn (x)xPk (x)dx = 0 , para k < n − 1 .
−1

Esto implica que sobreviven únicamente tres términos


rr

xPn (x) = APn+1 (x) + BPn−1 (x) .

Desarrollando con la fórmula de Rodrı́gues

x dn 2 A dn+1 2 B dn−1 2
Bo

(x − 1)n = (x − 1) n+1
+ (x − 1)n−1 ,
n!2n dxn (n + 1)!2n+1 dxn+1 (n − 1)!2n−1 dxn−1
dn A dn+1 2 dn−1 2
x n (x2 − 1)n = (x − 1) n+1
+ 2nB (x − 1)n−1 .
dx 2(n + 1) dxn+1 dxn−1

141
4.1. SERIES DE POLINOMIOS ORTOGONALES

Igualando coeficientes resulta


n+1 n
A= , B=
2n + 1 2n + 1
La relación de recurrencia se puede obtener entonces de:

(n + 1) Pn+1 (x) = (2n + 1) xPn (x) − nPn−1 (x) .

4.1.4. Norma de los Polinomios de Legendre

r
Conociendo que la ortogonalidad de los polinomios de Legendre y la relación de recurrencia, procedemos

a
encontrar el valor de su norma Z 1
2
Pn2 (x)dx =
−1 2n +1

in
De la relación de recurrencia cambiando n → n − 1 se tiene

nPn (x) = (2n − 1) xPn−1 (x) − (n − 1) Pn−2 (x) ,

m
(2n + 1) Pn (x)nPn (x) = (2n + 1) Pn (x) [(2n − 1) xPn−1 (x) − (n − 1) Pn−2 (x)] , (4.1)

ahora multiplicamos la relación de recurrencia por (2n − 1) Pn−1 (x) para obtener

(2n − 1) Pn−1 (x) (n + 1) Pn+1 (x) = (2n − 1) Pn−1 (x) [(2n + 1) xPn (x) − nPn−1 (x)] , (4.2)

eli
restando miembro a miembro (8.13) - (8.13) obtenemos :

(2n + 1) nPn2 (x) + (n − 1) Pn (x)Pn−2 (x) − (2n − 1) (n + 1) Pn−1 (x)Pn+1 (x) + nPn−1
2
   
(x) = 0 ,

lo que es igual a:
Pr
(2n + 1) nPn2 (x) + (n − 1) Pn (x)Pn−2 (x) = 2
   
(2n − 1) (n + 1) Pn−1 (x)Pn+1 (x) + nPn−1 (x) ,
 
(n − 1) 2n − 1 (n + 1)
Pn2 (x) + Pn (x)Pn−2 (x) = 2
Pn−1 (x)Pn+1 (x) + Pn−1 (x) ,
n 2n + 1 n
or

integrando y considerando la ortogonalidad


Z 1 Z 1 
2 2n − 1 2
Pn (x)dx = P (x)dx
−1 2n + 1 −1 n−1
ad

Z 1    Z 1 
2n − 1 2n − 3
Pn2 (x)dx = 2
Pn−2 (x)dx
−1 2n + 1 2n − 1 −1
Z 1     Z 1 
2n − 1 2n − 3 2n − 5
Pn2 (x)dx = 2
Pn−3 (x)dx
−1 2n + 1 2n − 1 2n − 3 −1
rr

continuando con este proceso


Z 1 Z 1   
3 3 2
Pn2 (x)dx = P12 (x)dx =
2n + 1 2n + 1 3
Bo

−1 −1
Z 1
2
Pn2 (x)dx = .
−1 2n + 1

142
4.1. SERIES DE POLINOMIOS ORTOGONALES

4.1.5. Función Generatriz de los Polinomios de Legendre


Se puede encontrar una función generatriz P(t, x) de los polinomios de Legendre, es decir una función
que tenga la forma:

1 2
X
P(t, x) = √ = P0 (x) + P1 (x) t + P2 (x) t + · · · = Pn (x) tn , |t| < 1 , |x| ≤ 1 ,
1 − 2xt + t 2
n=0

para la cual los Pn (x) son los coeficientes de su desarrollo en series de potencias. Esta serie converge para

r
|2xt + t2 | < 1. Para demostrar que el desarrollo en serie de la función G(t, x) tiene como coeficientes a los
Pn (x) partimos de que:

a
1 ∂P(t, x) t−x
P(t, x) = √ ⇒ =

in
∂t 3/2
1 − 2xt + t2 (1 − 2xt + t2 )

combinando estas dos expresiones, resulta


 ∂P(t, x)

m
(t − x) P(t, x) + 1 − 2xt + t2 =0
∂t
y, consecuentemente
∞ ∞

eli
X X
(t − x) Pn (x) tn + 1 − 2xt + t2 nPn (x) tn−1 = 0 .
n=0 n=1

Multiplicando y acomodando queda



X
Pr ∞
X ∞
X ∞
X
(t − x) P0 (x) + (t − x) Pn (x) tn + nPn (x)tn−1 − 2xnPn (x)tn + nPn (x)tn+1 = 0 ,
n=1 n=1 n=1 n=1

X ∞
X ∞
X ∞
X
(t − x) P0 (x) + Pn (x) tn+1 − xPn (x) tn + nPn (x)tn−1 − 2xnPn (x)tn
n=1 n=1 n=1 n=1
X∞
nPn (x)tn+1 = 0 ,
or

+
n=1


X ∞
X ∞
X ∞
X
ad

(t − x) P0 (x) + Pn−1 (x) tn − xPn (x) tn + (n + 1)Pn+1 (x)tn − 2xnPn (x)tn


n=2 n=1 n=0 n=1
X∞
+ (n − 1)Pn−1 (x)tn = 0 ,
n=2
∞ ∞ ∞
rr

X X X
(t − x) P0 (x) + (n + 1)Pn+1 (x)tn − (2n + 1)xPn (x) tn + nPn−1 (x)tn = 0 ,
n=0 n=1 n=2

X ∞
X
tP0 (x) − xP0 (x) + P1 (x) + 2P2 (x)t + (n + 1)Pn+1 (x)tn − 3xP1 (x)t − (2n + 1)xPn (x) tn
Bo

n=2 n=2

X
+ nPn−1 (x)tn = 0
n=2

143
4.1. SERIES DE POLINOMIOS ORTOGONALES

por lo tanto
   
P1 (x) − x P0 (x) + 2P2 (x) − 3xP1 (x) + P0 (x) t
| {z } | {z }
=0 =0
 
X∞
+ (n + 1) Pn+1 (x) − (2n + 1) xPn (x) + nPn−1 (x) tn = 0
n=2
| {z }
=0

r
El primero de los términos se cumple siempre por cuanto P0 (x) = 1 y P1 (x) = x. El tercer término

a
conforma la relación de recurrencia para los polinomios de Legendre. Con esto queda demostrado que el
desarrollo en series de potencias de la función generatriz, tiene como coeficientes a los polinomios de Legendre.
La función generatriz muestra su utilidad en la expansión de

in
r
1−x
f (x) = ,
2

m
recordemos que por la definición del producto interno se tiene
Z 1 Z 1r
1−x
f (x)Pk (x)dx = Pk (x)dx .
−1 −1 2

eli
Al formar el producto r   r ∞
1−x 1 1−x X n
√ = t Pn (x) ,
2 1 − 2xt + t2 2 n=0
e integrando, se obtiene
Pr
1
r   ∞ Z 1r
1−x 1−x
Z
1 X
n
√ dx = t Pn (x)dx
−1 2 1 − 2xt + t 2
n=0 −1 2
"
2  √ # ∞ Z 1r
1 (1 − t) 1+ t X
n 1−x
1+t− √ ln √ = t Pn (x)dx .
2t 2 t 1− t 2
or

n=0 −1

Expandiendo el lado izquierdo en series de potencias de t


∞ ∞ Z 1 r
4 X tn X
n 1−x
ad

−4 = t Pn (x)dx
3 n=1
(4n2 − 1) (2n + 3) n=0 −1 2

lo cual nos conduce, al igualar coeficientes a


Z 1r 1
r
1−x −4 1−x
Z
4
rr

= P0 (x)dx y 2
= Pn (x)dx
3 −1 2 (4n − 1) (2n + 3) −1 2

y finalmente a la forma de la expansión en series


Bo

r ∞
1−x 2 X Pn (x)
= P0 (x) − 2
2 3 n=1
(2n − 1) (2n + 3)

144
4.1. SERIES DE POLINOMIOS ORTOGONALES

a r
in
m
eli
Figura 4.1: Polinomios de Legendre

4.1.6. Otras propiedades de los polinomios de Legendre


Pr
Pn (1) = 1 y Pn (−1) = (−1)n . Entonces se tiene lo que se conoce como la relación de paridad: Pn (−x) =
(−1)n Pn (x) para todo n.
Pn (x) tiene n raı́ces en el intervalo (−1, 1) Esta propiedad puede apreciarse para los primeros 5 poli-
nomios en la figura 4.1.
or

Tienen una representación integral de la forma


Z πh in
1 p
Pn (x) = x + x2 − 1 cos ϕ dϕ
2π 0
ad

Cambios de variables inmediatos conllevan a ecuaciones diferenciales equivalentes


• Forma autoadjunta 0
(1 − x2 ) y 0 + λ(λ + 1) y = 0


• En coordenadas esféricas con u = Pn (cos(θ))


rr

 
1 d du
sen(θ) + λ(λ + 1)u = 0
sen(θ) dθ dθ

Bo

• En coordenadas esféricas con u = sen θPn (cos θ)


" 2 #
d2 u 1 1
+ λ+ + u=0
dθ2 2 4 sen2 (θ)

145
4.1. SERIES DE POLINOMIOS ORTOGONALES

a r
in
m
Figura 4.2: Potencial electrostático de un dipolo eláctrico

4.1.7. Potencial Electrostático de un Dipolo Eléctrico

eli
En Fı́sica el ejemplo claro es el cálculo del potencial electrostático producido por dos cargas q1 = +q y
q2 = −q separadas por una distancia 2d en un punto P cualquiera de un plano (x, y). El potencial en ese
punto genérico viene dado por  
1 1
Pr V =q
R0

R
Tal y como puede apreciarse de la figura 4.2
2
(R0 ) = r2 + d2 − 2r d cos(θ) y R2 = r2 + d2 − 2r d cos (π − θ) ,
por lo cual
or

"    2 #−1/2
1 1 d d
0
= 1 − 2 cos(θ) +
R r r r
"    2 #−1/2
1 1 d d
ad

= 1 − 2 cos (π − θ) +
R r r r
y consecuentemente
∞  n
1 1X d
= P n (cos(θ))
rr

R0 r n=0 r
∞  n ∞  n
1 1X d 1X d
= Pn [cos (π − θ)] = Pn (− cos(θ))
R r n=0 r r n=0 r
Bo

El potencial será
∞  n
q X d
V = [Pn (cos(θ)) − Pn (− cos(θ))]
r n=0 r

146
4.1. SERIES DE POLINOMIOS ORTOGONALES

donde todos los términos pares de Pn (cos(θ)) se anulan y finalmente tendremos la expresión del potencial
para cualquier punto del plano
∞  2n+1
2q X d
V = P2n+1 (cos(θ))
r n=0 r

Nos quedamos con el primer término de la serie, si


d q

r
1 ⇒ V ≈ 2d cos(θ) .
r r2

a
4.1.8. Resumen de Propiedades Polinomios Legendre
1 dn 2

in
Definición: Pn (x) = (x − 1)n , n = 0, 1, 2, . . .
n!2n dxn

Ejemplos: P0 ≡ 1; P1 = x; P2 = 21 (3x2 − 1); P3 = 21 (5x3 − 3x)

m
Relación de Recurrencia: (n + 1) Pn+1 (x) = (2n + 1) xPn (x) − nPn−1 (x)

Ecuaciones Diferenciales: (1 − x2 ) y 00 − 2x y 0 + λ(λ + 1) y = 0

eli
 
1 d du
sen(θ) + n(n + 1)u = 0; u = Pn (cos(θ))
sen(θ) dθ dθ

1 X
Función Generatriz: P(t, x) = √ = Pn (x) tn
Pr 1 − 2xt + t2 n=0
Z π √
1  n
Representación Integral: Pn (x) = x + x2 − 1 cos ϕ dϕ
2π 0

Z 1
2
Ortogonalidad: Pα (x)Pβ (x)dx = δαβ
or

−1 2α + 1
Practicando con Maple:
> restart:
> plot([LegendreP(0,x),LegendreP(1,x),LegendreP(2,x),LegendreP(3,x),
ad

LegendreP(4,x)],x=-1..1);

4.1.9. Polinomios de Hermite


Los polinomios de Hermite a diferencia de los de Legendre (y Tchevychev), vienen definidos en toda
la recta real, vale decir, x ∈ (−∞, ∞), por lo cual la función peso w(x) en el producto interno deberá
rr

decrecer más rápido que |x|n , para garantizar que la norma de los vectores en este espacio vectorial sea
2
finita. La función más simple que cumple estos requisitos es w(x) = e−x (también algunos autores utilizan
2
w(x) = e−x /2 ) Esto es, el producto interno entre los polinomios de Hermite vendrá definido como
Bo

Z ∞ Z ∞
2
dx w(x)f (x)g(x) = dx e−x f (x)g(x) .
−∞ −∞

147
4.1. SERIES DE POLINOMIOS ORTOGONALES

Otra vez, para este producto interno, si ortogonalizamos con Gram-Schmidt se obtienen los polinomios de
Hermite. Al igual que el resto de los polinomios ortogonales, existe una fórmula de Rodrigues para los
polinomios de Hermite
2 d
n 2
Hn (x) = (−1)n ex e−x ,
dxn
los cinco primeros polinomios de Hermite son los siguientes:
H0 (x) = 1, H1 (x) = 2x
2
H2 (x) = 4x − 2, H3 (x) = 8x3 − 12x,

r
H4 (x) = 16x4 − 48x2 + 12 H5 (x) = 32x5 − 160x3 + 120x

a
4.1.10. Generalidades de los Polinomios de Hemite

in
Los polinomios de Hermite serán ortogonales, pero no normales
Z ∞
2 √
e−x Hβ (x)Hα (x)dx = 2α α! π δαβ ,
−∞

m
por lo tanto: Z ∞ √
2
e−x Hα2 (x)dx = 2α α! π .
−∞

eli
Donde la función delta de Kronecker es δαβ = 0 si α 6= β; y δββ = 1.
Antes de desarrollar funciones en términos de los polinomios de Hermite, expondremos un par de teoremas
sin demostración.

Teorema 1: Sean f y g dos funciones arbitrarias, cuando menos continuas a trozos en (−∞, ∞) y que
cumplen con
Pr
Z ∞ Z ∞
−x2 2 2
e f (x)dx ∃ ∧ e−x g 2 (x)d ∃
−∞ −∞
Entonces el conjunto de estas funciones forman un espacio vectorial euclideano I2w con un producto interno
definido por Z ∞
2
e−x f (x)g(x)dx
or

−∞
Las funciones f (x) y g(x) se denominan cuadrado-integrables respecto al peso w. Es por ello que denotamos
el espacio de funciones como I2w .
ad

Teorema 2: Si f (x) es una función continua arbitraria en I2w entonces puede ser aproximada por un
polinomio en ese mismo espacio. Es decir
Z ∞ 1/2
−x2 2
lı́m |f (x) − pn (x)| = lı́m e [f (x) − pn (x)] dx =0
n→∞ n→∞ −∞
rr

Ası́, la expresión de una función arbitraria en la base de los polinomio de Hermite se reduce a
∞ Z ∞ 
X 1 −t2
f (x) = √ e f (t)H k (t) dx Hk (x) ,
2k k! π −∞
Bo

k=0

donde Z ∞
1 2
ak = k
√ e−t f (t)Hk (t) dx .
2 k! π −∞

148
4.1. SERIES DE POLINOMIOS ORTOGONALES

Ejemplo: Si f (x) = x2
2
X ∞
X
f (x) = x2 = bk xk = ak Hk (x)
k=0 k=0

f (x) = x2 = a0 H0 (x) + a1 H1 (x) + a2 H2 (x)


= a0 + a1 (2x) + a2 (4x2 − 1)
1 1
= (a0 − a2 ) + 2a1 x + 4a2 x2 ⇒ a0 = , a1 = 0 , a2 = .

r
4 4
1 1

a
= H0 (x) + H2 (x)
4 4
Si generalizamos para funciones del tipo f (x) = x2p con p = 1, 2, 3, · · · , entonces

in
2p
X ∞
X
2p
f (x) = x = bk x k = a2k H2k (x) ,
k=0 k=0

m
por lo tanto
∞ ∞
d2k −x2
Z Z
1 2 1
a2k = √ e−x x2p H2k (x)dx = √ x2p e dx .

eli
22k (2k)! π −∞ 22k (2k)! π −∞ dx2k

Una integración por partes estratégica muestra que:


(
2k−1
∞ Z ∞ 2k−1
)
1 2p d −x2
2p−1 d −x2
a2k = 2k √ x e − 2px e dx .
2 (2k)! π dx2k−1
Pr
−∞ −∞ dx2k−1

El primer término de la resta se anula debido a la definición de los polinomios de Hermite


2k−1
∞ ∞
2p d −x2 2p 2k−1 −x2

x e = x (−1) e H (x) .

2k−1
dx2k−1

−∞

−∞
or

Repitiendo el proceso 2k veces, tendremos


Z ∞
1 (2p)! 2
a2k = 2k √ x2p−2k e−x dx
2 (2k)! π (2p − 2k)! −∞
ad


si en la integral hacemos x = t obtenemos
Z ∞
1 (2p)! dt
a2k =2k
√ tp−k e−t √
2 (2k)! π (2p − 2k)! −∞ 2 t
rr

Z ∞
1 (2p)! 1
= 2k+1 √ tp−k− 2 e−t dt
2 (2k)! π (2p − 2k)! −∞
R∞
y utilizando la definición Γ (z) ≡ 0 e−t tz−1 dt ≡ (z − 1)! , queda como
Bo

 
1 (2p)! 1
a2k = 2k+1 √ Γ p−k+ .
2 (2k)! π (2p − 2k)! 2

149
4.1. SERIES DE POLINOMIOS ORTOGONALES

Ahora, recurrimos a la propiedad de “duplicación” de la Función Gamma, i.e.



 
2z−1 1
2 Γ (z) Γ z + = πΓ (2z)
2
tenemos que

 
1
22p−2k Γ p − k + (p − k)! = π (2p − 2k)!
2
quedan entonces los coeficientes determinados como

r
(2p)!
a2k =

a
22p+1 (2k)! (p − k)!
y, por lo tanto el desarrollo en la base de los polinomios de Hermite

in
p
(2p)! X H2k (x)
f (x) = x2p = − ∞ < x < ∞.
22p+1 (2k)! (p − k)!
k=0

m
Muestre que del mismo modo se puede encontrar
p
(2p − 1)! X H2k+1 (x)
f (x) = x2p+1 = − ∞ < x < ∞.
22p−1 (2k + 1)! (p − k)!
k=0

eli
2
x2
Si f (x) = e−a con Re a2 > −1. Otra vez

2
x2
X
f (x) = e−a = a2k H2k (x)
Pr k=0

entonces Z ∞
1 2
+1)x2
a2k = 2k √ e−(a H2k (x)dx
2 (2k)! π −∞
Sustituyendo H2k (x) por su expresión integral tendremos
" #
Z ∞ 2k+1 k x2 Z ∞
1 2 2 2 (−1) e 2
e−(a +1)x e−t t2k cos 2xt dt dx
or

a2k = 2k √ √
2 (2k)! π −∞ π 0

2(−1)k ∞ −a2 x2
Z Z ∞ 
−t2 2k
= e e t cos 2xt dt dx
π(2k)! −∞ 0
ad

2(−1)k ∞ −t2 2k ∞
Z Z 
−a2 x2
≡ e t e cos 2xt dx dt
π(2k)! 0 −∞
2(−1)k ∞ −t2 2k
Z r 
π −t2 /a2
= e t e dt =
π(2k)! 0 a2
rr

Z ∞
2(−1)k 2 −2
=√ e−t (1+a ) t2k dt
π(2k)!a 0
Z ∞
(−1)k a2k 1
= √ e−s sk− 2 ds ← t2 (1 + a−2 ) = s
Bo

π(2k)! (1 + a2 )k+1/2 0
(−1)k a2k
 
1
=√ Γ k +
π(2k)! (1 + a2 )k+1/2 2

150
4.1. SERIES DE POLINOMIOS ORTOGONALES

y ahora usando, otra vez la propiedad de “duplicación” de la función gamma,



 
1
22k Γ k + k! = π (2k)!
2
obtenemos
(−1)k a2k
a2k = k+1/2
22k k! (1 + a2 )
por lo tanto

(−1)k a2k

r
2
x2
X
f (x) = e−a =
k+1/2
H2k (x)
22k k! (1 + a2 ) k=0

a
Al igual que los polinomios de Legendre, los de Hermite, surgen tambián en sus orı́genes como soluciones
a la ecuación diferencial ordinaria del tipo

in
d2 Hn (x) dHn (x)
− 2x + nHn (x) = 0
dx2 dx
Vale decir:

m
n Ecuación de Hermite Solución

d2 H0 (x) dH0 (x)


0 − 2x =0 H0 (x) = 1
dx2 dx

eli
d2 H1 (x) dH1 (x)
1 2
− 2x + 2H1 (x) = 0 H1 (x) = 2x
dx dx

d2 H2 (x) dH2 (x)


− 2x H2 (x) = 4x2 − 2
2
dx2 dx
+ 4H2 (x) = 0
Pr
d2 H3 (x) dH3 (x)
3 2
− 2x + 6H3 (x) = 0 H3 (x) = 8x3 − 12x
dx dx

d2 H4 (x) dH4 (x)


4 − 2x + 8H4 (x) = 0 H4 (x) = 16x4 − 48x2 + 12
dx2 dx
or

4.1.11. Función Generatriz de los Polinomios de Hermite


ad

Se puede encontrar una función generatriz H(t, x) de los polinomios de Hermite:



2 H2 (x) 2 H3 (x) 2 X Hn (x) n
H(t, x) = e2xt−t = H0 (x) + H1 (x) t + t + t + ··· = t
2 3! n=0
n!
para la cual los Hn (x) son los coeficientes de su desarrollo en series de potencias. Es fácil darse cuenta que
rr

esta expresión proviene del desarrollo en Serie de Taylor



1 ∂ n H(t, x)
 
2xt−t2
X
H(t, x) = e = n
tn ktk < ∞
n=0
n! ∂t t=0
Bo

para lo cual
∂ n H(t, x) ∂ n −(x−t)2 dn −(u)2
     
x2 n x2
=e e = (−1) e e = Hn (x)
∂tn t=0 ∂tn t=0 dun u=x

151
4.1. SERIES DE POLINOMIOS ORTOGONALES

4.1.12. Relación de Recurrencia


A partir de la función generatriz se puede construir la siguiente identidad
∂H(t, x)
= (2x − 2t) H
∂t
y utilizando el desarrollo en series de potencias en t tendremos,
∞ ∞ ∞
X Hn (x) n−1 X Hn (x) n X Hn (x) n+1
nt = 2x t − t ,
n! n! n!

r
n=1 n=0 n=0
∞ ∞ ∞
Hn (x) n−1 Hn (x) n X Hn (x) n+1

a
X X
nt − 2x t + t = 0,
n=1
n! n=0
n! n=0
n!
∞ ∞ ∞

in
X Hn+1 (x) X Hn (x) n X Hn−1 (x) n
(n + 1)tn − 2x t + t = 0,
n=0
(n + 1)! n=0
n! n=1
(n − 1)!
∞ ∞ ∞
X Hn+1 (x) X Hn (x) n X Hn−1 (x) n
H1 (x) + (n + 1)tn − 2xH0 (x) − 2x t + t = 0,

m
n=1
(n + 1)! n=1
n! n=1
(n − 1)!
∞  
X Hn+1 (x) Hn (x) Hn−1 (x) n
H1 (x) − 2xH0 (x) + (n + 1) − 2x + t = 0,
| {z } n=1
(n + 1)! n! (n − 1)!
=0

eli
es decir:  

X  Hn+1 (x) Hn (x) Hn−1 (x) 
 n
 (n + 1)! (n + 1) − 2x n! + (n − 1)!  t = 0 .

n=1 |
Pr{z
=0
}

Por lo tanto:
Hn+1 (x) Hn (x) Hn−1 (x)
− 2x + =0
n! n! (n − 1)!
Ası́ la relación de recurrencia será
Hn+1 (x) − 2xHn (x) + 2nHn−1 (x) = 0
or

De igual modo, podemos partir de otra identidad


∞ ∞
∂H(t, x) X Hn0 (x) n X Hn (x) n+1
= 2t H ⇒ t =2 t ,
∂x n! n!
ad

n=0 n=0

es decir:
∞ ∞
X Hn0 (x) n X Hn−1 (x) n H 0 (x) Hn−1 (x)
t =2 t ⇒ n =2
n=1
n! n=1
(n − 1)! n! (n − 1)!
y encontrar una relación para generar las derivadas de los polinomios de Hermite en término de ellos mismos:
rr

Hn0 (x) = 2n Hn−1 (x), n = 1, 2, 3, · · · .


Finalmente, utilizando la ecuación anterior en la relación de recurrencia y derivando esa expresión una
Bo

vez más, queda como:


Hn+1 (x) − 2xHn (x) + Hn0 (x) = 0
Hn00 (x) − 2xHn0 (x) + 2n Hn (x) = 0

152
4.1. SERIES DE POLINOMIOS ORTOGONALES

con lo cual queda demostrado que los polinomios de Hermite son una solución particular de esa ecuación
diferencial.
y 00 − 2xy 0 + 2ny = 0,
2
Donde hemos hecho y = Hn (x) Adicionalmente, podremos demostrar que y = e−x /2
Hn (x) es solución de la
ecuación diferencial autoadjunta
y 00 + 2n + 1 − x2 y = 0 .


4.1.13. Ortogonalidad y Norma de los Polinomios de Hermite

r
En general estos polinomios cumplen con

a
Z ∞
2 √
e−x Hβ (x)Hα (x)dx = 2α α! πδαβ .

in
−∞

Donde la función delta de Kronecker es δαβ = 0 si α 6= β; y δββ = 1. Para demostrar el caso α 6= β partimos
de

m
uβ u00α + 2α + 1 − x2 uα = 0
  

uα u00β + 2β + 1 − x2 uβ = 0
  

restando miembro a miembro e integrando se tiene que:

eli
 0 0
uα uβ − u0β uα + 2 (α − β) uα uβ = 0
Z ∞
2
(α − β) e−x Hα (x)Hβ (x)dx = 0
−∞
Z ∞
2
Pr
e−x Hα (x)Hβ (x)dx = 0 α 6= β;
−∞

ya que ∞
2
e−x /2
{2α Hα−1 (x)Hβ (x) − 2β Hβ−1 (x)Hα (x)} =0

−∞

Para encontrar el valor de la norma, procedemos a partir de la relación de recurrencia


or

Hn (x) [Hn (x) − 2xHn−1 (x) + 2(n − 1)Hn−2 (x)] = 0


Hn−1 (x) [Hn+1 (x) − 2xHn (x) + 2nHn−1 (x)] = 0
ad

2
restando miembro a miembro, multiplicando por e−x e integrando entre (−∞, ∞) se obtiene
Z ∞ Z ∞
2 2
e−x Hα2 (x)dx = 2α e−x Hα−1
2
(x)dx
−∞ −∞
rr

repitiendo la operación y recordando que al final queda


Z ∞
2 √
e−x x2 dx = 2 π
−∞
Bo

Obtenemos ∞ √
Z
2
e−x Hα2 (x)dx = 2α α! π
−∞

153
4.1. SERIES DE POLINOMIOS ORTOGONALES

a r
in
m
Figura 4.3: Polinomios de Hermite

4.1.14. Representación Integral de los Polinomios de Hermite

eli
Los polinomios de Hermite pueden ser representados como
2 Z ∞
2n (−i)n ex 2
Hn (x) = √ e−t +2itx tn dt
π
Pr −∞

que puede ser separada como


2 ∞
22n+1 (−1)n ex
Z
2
H2n (x) = √ e−t t2n cos(2xt)dt , n = 1, 2, 3, · · ·
π 0

y para los términos impares


or

2 ∞
22n+2 (−1)n ex
Z
2
H2n+1 (x) = √ e−t t2n+1 sen(2xt)dt , n = 1, 2, 3, · · ·
π 0

La forma de llegar a cualquiera de estas últimas fórmulas se parte de las conocidas integrales desarrolladas
ad

en el plano complejo Z ∞
2 2 2
e−x = √ e−t cos(2xt)dt
π −∞
se deriva 2n veces a ambos miembros se utiliza la definición de los polinomios de Hermite.
rr

4.1.15. El Oscilador armónico, independiente del tiempo, en Mecánica Cuánti-


ca.
Bo

La Ecuación de Schrödinger independiente del tiempo y en una dimensión es


d2 2µ
ψ(x) + 2 [E − U(x)] ψ(x) = 0 ,
dx2 ~

154
4.1. SERIES DE POLINOMIOS ORTOGONALES

con µ la “masa” de la partı́cula; E los niveles de energı́a y U(x) el potencial al cual está sometida la partı́cula.
En el caso que estudiemos un potencial del tipo U(x) = 21 µω 2 x2 en el cual la frecuencia angular del oscilador
viene representada por ω. La ecuación de Schrödinger se convierte en

d2
 
2µ 1 2 2
ψ(x) + 2 E − µω x ψ(x) = 0 ,
dx2 ~ 2
p
haciendo un cambio de variable ξ = x µω/~ para adimensionalizar la ecuación de Schrödinger, se obtiene

r
 
2E
ψ 00 (ξ) + − ξ 2 ψ(ξ) = 0 ,

a

la cual corresponde a la forma autoadjunta de la Ecuación de Hermite:

in
ψ 00 (ξ) + 2n + 1 − ξ 2 ψ(ξ) = 0 ,
 

y por lo tanto identificamos  


2E 1

m
= 2n + 1 ⇒ E= n+ ~ω ,
~ω 2
con lo cual comprobamos la forma como viene cuantizada la energı́a en este sistema y la energı́a del estado
fundamental. Por su parte, la función de onda se podrá expresar en la base de soluciones de esa ecuación

eli
∞ ∞
X X 2
ψ(ξ) = cn ψn (ξ) = cn e−ξ /2
Hn (ξ) .
n=0 n=0

Si mantenemos la normalización
Z ∞
Pr  µω 1/4 1
ψn2 (ξ)dξ = 1 con cn = √ .
−∞ π~ 2n n!
or
ad
rr
Bo

155
4.2. PLANTEAMIENTO GENERAL PARA POLINOMIOS ORTOGONALES

4.1.16. Resumen de Propiedades Polinomios Hermite


2 dn −x2
Definición: Hn (x) = (−1)n ex e , n = 0, 1, 2, . . .
dxn
n/2
X (−1)k n! n−2k
Hn (x) = (2x)
k! (n − 2k)!
k=0

Ejemplos: H0 (x) = 1; H1 (x) = 2x; H2 (x) = 4x2 − 2; H3 (x) = 8x3 − 12x

r
H2 (x) = 4x2 − 2

a
Relaciones de Recurrencia: H0 (x) = 1; H1 (x) = 2x;

Hn0 (x) = 2n Hn−1 (x), n = 1, 2, 3, . . .

in
Ecuaciones Diferenciales: y 00 − 2xy 0 + 2ny = 0
2
u00 + 2n + 1 − x2 u = 0; u(x) = e−x
 /2
Hn (x)

m

2
X Hn (x)
Función Generatriz: H(t, x) = e2xt−t = tn
n=0
n!

eli
2 ∞
22n+1 (−1)n ex
Z
2
Representación Integral: H2n (x) = √ e−t t2n cos(2xt) dt
π 0

2 Z ∞
22n+2 (−1)n ex
H2n+1 (x) =
Pr √
2
e−t t2n+1 sen(2xt) dt
π 0
Z ∞
√ 2
Ortogonalidad: 2α α! π δαβ = e−x Hβ (x)Hα (x)dx
−∞
Practicando con Maple:
> restart: with(orthopoly):
or

> plot([H(0,x), H(1,x), H(2,x), H(3,x), H(4,x)], x=-3..3,y=-25..25);

4.1.17. Ejemplos
ad

4.1.18. Practicando con Maxima


4.1.19. Ejercicios

4.2. Planteamiento General para Polinomios Ortogonales


rr

Hemos considerado un par de ejemplos de Polinomios Ortogonales. En ambos podemos idenficar algunas
caracterı́sticas comunes. En base a estas caracterı́sticas comunes definiremos otras familias de polinomios
ortogonales.
Bo

† En el caso de los polinomios de Jacobi, la norma es

2α+β+1 Γ(n + α + 1)Γ(n + β + 1)


hn = con α > −1 y β > −1 .
2n + α + β + 1 n!Γ(n + α + β + 1)

156
4.2. PLANTEAMIENTO GENERAL PARA POLINOMIOS ORTOGONALES

Nomenclatura Nombre a b w(x) hn h0


2
Pn (x) Legendre −1 1 1
2n + 1
1 π
Tn (x) Tchebychev 1E −1 1 √ π
2 2
√ −x
1
π
Un (x) Tchebychev 2E −1 1 1 − x2
2
2√
Hn (x) Hermite −∞ ∞ e−x 2n n! π
Ln (x) Laguerre 0 ∞ e−x 1

r
Γ(n+α+1)
Lαn (x) Laguerre G 0 ∞ xα e−x con α > −1 n!
αβ
Pn (x) Jacobi −1 1 (1 − x)α (1 + x)β †

a
Cuadro 4.1: Propiedades genéricas de los Polinomios Ortogonales, Nn indica la norma del polinomio de grado

in
n.

4.2.1. Producto interno genérico, norma y ortogonalidad

m
Los polinomios ortogonales se definen como un conjunto de polinomios {pn (x)} de orden n definidos en
un determinado intervalo a ≤ x ≤ b, los cuales son ortogonales respecto a una definición de producto interno
Z b

eli
w(x)pm (x)pn (x)dx = hn δnm con w(x) > 0 una función peso en a ≤ x ≤ b
a

que garantiza que la norma sea finita en ese intervalo. Dado que el Teorema de Weierstrass garantiza que el
conjunto de polinomios {1, x, x2 , · · · , xn , · · · } es una base completa para un espacio vectorial E∞ , se procede
a ortogonalizar esa base con la definición de producto interno y el intervalo que corresponda. Para cada caso
tendremos una base ortogonal de polinomios.
Pr
Polinomio µn w(x) q(x)
Pn 2n n! 1 1 − x2
(−1)n n+1 1
Γ n + 12

Tn √ 2 √ 1 − x2
π 1 − x2
or

(−1)n √
√ 2n+1 Γ n + 32

Un 1 − x2 1 − x2
(n + 1) π
2
Hn (−1)n e−x 1
Ln n! e−x x
ad


n n! xα e−x x

Cuadro 4.2: Funciones para determinar la Fórmula de Rodrigues generalizada

En el cuadro 4.1 resumimos las propiedades más resaltantes, com lo son: la función peso en el producto
rr

interno, el intervalo en el cual están definidas estas fuciones y su norma.

4.2.2. Fórmula de Rodrigues genelarizada


Bo

En general todos los polinomios ortogonales {pn (x)} vienen definidos por la fórmula de Rodrigues gene-
ralizada
1 dn
pn (x) = (w(x)q(x)n )
w(x)µn dxn

157
4.2. PLANTEAMIENTO GENERAL PARA POLINOMIOS ORTOGONALES

donde w(x), q(x) y µn vienen especficados en el cuadro 4.2 para cada conjunto de polinomios ortogonales

4.2.3. Ejemplos de Polinomios Ortogonales


Utilizando la fórmula de Rodrigues generalizada, podemos construir algunos polinomios generalizados.
El cuadro 4.3 muestra algunos de ejemplos de estos polinomios ortogonales

Polinomio n=0 n=1 n=2 n=3 n=4


1 1 1

r
Pn 1 x (3x2 − 1) (5x3 − 3x) (35x4 − 30x2 + 3)
2 2 8
2x2 − 1 4x3 − 3x 8x4 − 8x2 + 1

a
Tn 1 x
Un 1 2x 4x2 − 1 8x3 − 4x 16x4 − 12x2 + 1
Hn 1 2x 4x2 − 2 8x3 − 12x 16x4 − 48x2 + 12

in
1 2 1 1 4
Ln 1 1−x x − 2x + 1 − (x3 − 9x2 + 18x − 6) (x − 16x3 + 72x2 − 96x + 24)
2 6 24

Cuadro 4.3: Ejemplos de Polinomios Ortogonales

m
4.2.4. Relaciones de Recurrencia

eli
También se pueden formular, de manera genérica las relaciones de recurrencia. Obviamente, las relaciones
de recurrencia también constituyen una forma alternativa de ir construyendo los polinomios ortogonales. Ası́,
un polinomio ortogonal genérico, pn (x), cumplirá

pn+1 (x) = (an + xbn )pn (x) − cn pn−1 (x)


Pr
El cuadro 4.4 contiene las expresiones de los coeficientes para construir las relaciones de recurrencia genera-
lizadas para cada uno de los polinomios

Polinomio an bn cn
2n + 1 n
Pn 0
or

n+1 n+1
Tn 0 2 1
Un 0 2 1
Hn 0 2 2n
2n + 1 1 n
ad

Ln −
n+1 n+1 n+1
2n + 1 + α 1 n+α

n −
n+1 n+1 n+1
Cuadro 4.4: Funciones para determinar la Relación de Recurrencia Generalizada
rr

4.2.5. Función generatriz generalizada


Bo

Para todos los polinomimos ortogonales podemos definir una función generatriz G(x, t), de tal manera
que cada uno de los polinomios ortogonales {pn (x)} será proporcional al coeficiente de tn del desarrollo en

158
4.2. PLANTEAMIENTO GENERAL PARA POLINOMIOS ORTOGONALES

series de Taylor, en potencias de t alrededor del punto x = 0. Esta función generatriz que constituye una
forma alternativa de definir los polinomios ortogonales viene expresada por la serie

X
G(x, t) = Cn pn (x) tn con an constante
n=0

Las funciones generatrices no son exclusivas de los polinomios ortogonales. Como veremos más adelante,
existen funciones generatrices para las funciones de Bessel.

r
Polinomio Cn G(x, t)

a
1
Pn 1 √
1 − 2xt + t2
1 − t2

in
Tn 2 +1
1 − 2xt + t2
1
Un 1
1 − 2xt +2 t2
Hn 1/n! e2xt−x

m
2
H2n 1n /(2n)! cos(2xt)et
2
H2n+1 1n /(2n + 1)! sen(2xt)et
xt
1 −1 − t

eli
Ln 1 e
1−t
xt
1 −

n 1 e 1−t
(1 − t)α
Pr
Cuadro 4.5: Funciones para determinar la función generatriz generalizada

4.2.6. Ecuación diferencial para los Polinomios Ortogonales


Cada uno de los polinomios ortogonales habrá de ser solución de una ecuación diferencial ordinaria de la
forma
or

d2 pn (x) dpn (x)


g2 (x) 2
+ g1 (x) + αn pn (x) = 0
dx dx
En el cuadro 4.6 mostramos las expresiones para los coeficientes de las ecuaciones correspondientes a las
ecuaciones diferenciales para las cuales cada uno de los polinomio ortogonales es solución
ad

4.2.7. Aplicaciones para los polinomios ortogonales


Interpolación polinomial de puntos experimentales
Muchas veces nos encontramos con la situación en la cual tenemos un conjunto de n medidas o puntos
rr

experimentales {(x1 , y1 ) = f (x1 ), (x2 , y2 ) = f (x2 ), · · · , (xn , yn ) = f (xn )} y para modelar ese experimento
quisiéramos una función que ajuste estos puntos. El tener una función nos provee la gran ventaja de poder
intuir o aproximar los puntos que no hemos medido. La función candidata más inmediata es un polinomio
Bo

y debemos definir el grado del polinomio y la estrategia que aproxime esos puntos. Si queremos aproximar
esos puntos por una recta el Método de Mı́nimos Cuadrados es el más utilizado.
Puede ser que el polinomio no sea lineal y sea necesarios ajustar esos puntos a un polinomio tal que
éste pase por los puntos experimentales. Queda entonces por decidir la estrategia. Esto es, ajustamos la

159
4.2. PLANTEAMIENTO GENERAL PARA POLINOMIOS ORTOGONALES

Polinomio g2 (x) g1 (x) αn


Pn 1 − x2 −2x n(n + 1)
Tn 1 − x2 −x n2
Un 1 − x2 −2x n(n + 1)
Hn 1 −2x 2n
Ln x 1−x n

n x 1−x+α n
Pnαβ 1 − x2 β − α − x(2 + α + β) n(n + α + β + 1)

r
Cuadro 4.6: Funciones para determinar la ecuación diferencial para la cual son solución los polinomios

a
ortogonales

in
función como “trozos” de polinomios que a su vez se ajusten a subconjuntos: {(x1 , y1 ) = f (x1 ), (x2 , y2 ) =
f (x2 ), · · · , (xm , ym ) = f (xm )}, con m < n, de los puntos experimentales En este caso tendremos una función
de ajuste, para cada conjunto de puntos.
También podemos ajustar la función a todo el conjunto de puntos experimentales y, en ese caso, el

m
máximo grado del polinomio que los ajuste será n − 1. Para encontrar este polinomio lo expresaremos como
una combinación lineal de Polinomios de Legendre. Esto es:


 y1 = f (x1 ) = C0 P0 (x1 ) + C1 P1 (x1 ) + · · · + Cn−1 Pn−1 (x1 )

eli
n−1
X  y2 = f (x2 ) = C0 P0 (x2 ) + C1 P1 (x2 ) + · · · + Cn−1 Pn−1 (x2 )

P(x) = f (x) = Ck Pk (x) ⇒ .
k=0  ..


yn = f (xn ) = C0 P0 (xn ) + C1 P1 (xn ) + · · · + Cn−1 Pn−1 (xn )

que no es otra cosa que un sistema de n ecuaciones con n incógnitas: los coeficientes {C0 , C1 , · · · Cn−1 } Al
Pr
resolver el sistema de ecuaciones y obtener los coeficientes, podremos obtener la función polinómica que
interpola esos puntos.
Una expansión equivalente se pudo haber logrado con cualquier otro conjunto de polinomios ortogonales,
ya que ellos son base del espacio de funciones. Es importante hacer notar que debido a que los polinomios de
Legendre están definidos en el intervalo [−1, 1] los puntos experimentales deberán re-escalarse a ese intervalo
para poder encontrar el polinomio de interpolación como combinación lineal de los Polinomios de Legendre.
Esto se puede hacer con la ayuda del siguiente cambio de variable:
or

(b − a)t + b + a b−a
x= , dx = dt
2 2
Consideremos los puntos experimentales representado en la figura 4.4. Al construir el sistema de ecua-
ad

ciones obtendremos: (a = 2 y b = 12)


(−1, 8) ⇒ 8 = C0 − C1 + C2 − C3 + C4 − C5

− 53 , 10 ⇒ 10 = C0 − 3 1 9 51 477

5 C1 + 25 C2 + 25 C3 − 125 C4 + 3125 C5
rr

− 15 , 11 ⇒ 11 = C0 − 1 11 7 29 961

5 C1 − 25 C2 + 25 C3 + 125 C4 − 3125 C5

1 1 11 7 29 961

5 , 18 ⇒ 18 = C0 + 5 C1 − 25 C2 − 25 C3 + 125 C4 + 3125 C5
Bo

3 3 1 9 51 477

5 , 20 ⇒ 20 = C0 + 5 C1 + 25 C2 − 25 C3 − 125 C4 − 3125 C5

(1, 34) ⇒ 34 = C0 + C1 + C2 + C3 + C4 + C5

160
4.2. PLANTEAMIENTO GENERAL PARA POLINOMIOS ORTOGONALES

f(x)
f(x)
30
30

25
25

20 20

r
15 15

a
10 10

in
x x
2 4 6 8 10 12 K
1.0 K0.5 0.0 0.5 1.0

Figura 4.4: En el lado izquierdo se muestran el conjunto de puntos experimentales:

m
{(2, 8), (4, 10), (6, 11), (8, 18), (10, 20), (12, 34)} y a la derecha la función polinómica que los interpola.

y al resolver el sistema obtendremos que

eli
2249 3043 1775 175 625 14375
C0 = , C1 = , C2 = , C3 = − , C4 = , C5 =
144 336 504 216 336 3024
con lo cual

P(x) = f (x) =
2249 3043
+ x+
1775
Pr
P (2, x) −
175
P (3, x) +
625
P (4, x) +
14375
P (5, x)
144 336 504 216 336 3024
la interpolación queda representada en al figura 4.4.
Es importante se nalar que mientras más puntos experimentales se incluyan para la interpolación, el
polinomio resultante será de mayor grado y, por lo tanto incluirá oscilaciones que distorcionarán una apro-
ximación más razonable. Por ello, la estrategia de hacer la interpolación a trozos, digamos de tres puntos en
or

tres puntos, generará un mejor ajuste, pero será una función (polinomio) continua a trozos.
Practicando con Maple:
> restart: with(plots):
> pointplot([2,8],[4,10],[6,11],[8,18],[10,20],[12,34]);
>
ad

> P:=pointplot([-1,8],[-3/5,10],[-1/5,11],[1/5,18],[3/5,20],[1,34]):
> eq1:=C0-C1+C2-C3+C4-C5=8:
> eq2:=C0-3/5*C1+1/25*C2+9/25*C3-51/125*C4+477/3125*C5=10:
> eq3:=C0-1/5*C1-11/25*C2+7/25*C3+29/125*C4-961/3125*C5=11:
> eq4:=C0+1/5*C1-11/25*C2-7/25*C3+29/125*C4+961/3125*C5=18:
rr

> eq5:=C0+3/5*C1+1/25*C2-9/25*C3-51/125*C4-477/3125*C5=20:
> eq6:=C0+C1+C2+C3+C4+C5=34:
> s:=solve(eq1,eq2,eq3,eq4,eq5,eq6,[C0,C1,C2,C3,C4,C5]);assign(s);
Bo

> f:=C0 + C1*x + C2*LegendreP(2,x) + C3*LegendreP(3,x) + C4*LegendreP(4,x)+


C5*LegendreP(5,x);
> F:=plot(f,x=-1..1):
> display(F, P);

161
4.2. PLANTEAMIENTO GENERAL PARA POLINOMIOS ORTOGONALES

Cuadratura de Gauss-Legendre
Una de los usos más comunes de los polinomios ortogonales es la de aproximar funciones, en particular
integrales que requieren ser resueltas numéricamente. La idea es aproximar una integral, para una funcion
f (x), definida en el intervalo [a, b] y suficientemente bien comportada, por una suma finita de términos
ck f (xk ) y estimar el error que cometemos en esta aproximación. Esto es:
Z b N
X
f (x)dx = ck f (xk ) + EN (4.3)

r
a k=1

Nótese que la intención es utilizar la función a integrar evaluada en un conjunto de puntos estratégicos para

a
los cuales están definidos unos coeficientes, también inteligentemente seleccionados. Es decir se requieren 2N
números (ck y los xk con k = 1, 2, · · · N ). Más aún, esas 2N cantidades pueden ser seleccionadas de forma

in
tal que la aproximación es exacta EN = 0 cuando f (x) es un polinomio de grado ≤ 2N − 1.
Supongamos, para empezar que la función f (x) está definida para x ∈ [−1, 1]2 y por lo tanto los polinomios
ortogonales que seleccionaremos para aproximar la integral (y la función) serán los del Legendre (igual
pudimos haber utilizado los polinomios de Tchebychev), con lo cual

m

X
f (x) = ak Pk (x) ,
k=0

eli
donde:  Z 1 Z 1
1 1
ak = k+ dx f (x)Pk (x) y a0 = dx f (x) .
2 −1 2 −1

Con lo cual
1 N N ∞ ∞ N
Z
f (x)dx ≈
X
ck f (xk ) =
Pr X
ck
X
an Pn (xk ) =
X
an
X
ck Pn (xk ) .
−1 k=1 k=1 n=0 n=0 k=1

Quedan todavı́a por determinar los pesos ck y los puntos xk . Para ello procedemos de la siguiente forma.
Notamos que PN (x) tiene N raı́ces, x = xj , en el intervalo −1 ≤ x ≤ 1. Entonces, si seleccionamos esos
puntos x = xj para evaluar la función f (xk ) se anulan el coeficiente para el término aN y, además podremos
encontrar los pesos ck resolviendo el sistema de N ecuaciones de la forma
or

N
X N
X N
X
cj P0 (xj ) = cj = 2 ∧ cj Pk (xj ) = 0 para k = 1, 2, · · · N − 1
j=1 j=1 j=1
ad

donde los Pk (xj ) son los distintos polinomios evaluados en las raı́ces del polinomio de grado N , i.e. PN (xj ) = 0
Se puede demostrar que la solución de este sistema provee los pesos escritos de la forma

2 0 dPN (x)
cj = 2, donde: PN (xj ) =
(1 − x2j ) (PN0 (xj )) dx x=xj
rr

Más aún, podremos escribir


Z 1 N
X ∞
X N
X
f (x)dx ≈ ck f (xk ) = 2a0 + EN con EN = an ck Pn (xk ) ,
Bo

−1 k=1 n=N +1 k=1

2 Esta no
  es una 
limitación muy severa porque siempre podemos hacer, como ya vimos, un cambio de variable del tipo
b−a
x= 2
t + b+a
2
y convertir cualquier intervalo cerrado [a, b] en un intervalo cerrado [−1, 1].

162
4.2. PLANTEAMIENTO GENERAL PARA POLINOMIOS ORTOGONALES

2
N PN (xj ) = 0 cj = 2 2N − 1
(1 − x2j ) (PN0 (xj ))

2 ± 3/3 1 3
3 √0 8/9 5
± 15/5 5/9
4 ±0,3399810436 0,65214515 7

r
±0,8611363116 0,34785485
5 0 0,56888889 9

a
±0,5384693101 0,47862867
±0,9061798459 0,23692689

in
6 ±0,2386191861 0,46791393 11
±0,6612093865 0,36076157
±0,9324695142 0,17132449
.. .. .. ..

m
. . . .

Cuadro 4.7: Puntos y pesos para una cuadratura de Gauss-Legendre

eli
pero como
Z 1 Z 1 N
1 X
a0 = dx f (x) ⇒ dx f (x) = ck f (xk ) − EN
2 −1 −1 k=1
Pr
Es decir, demostramos que es posible aproximar la integral del la función con un promedio pesado de la
función evaluada en unos puntos estratégicos. Los puntos estratégicos son los ceros del polinomio de Legendre
de grado igual al número de puntos con los cuales se quiere aproximar la función y los pesos vienen de resolver
las ecuaciones para los coeficientes de la expansión. En el cuadro 4.7 se ilustran los valores de los puntos de
interpolación y sus pesos correspondientes.
Es inmediato comprobar que si f (x) es un polinomio de grado ≤ N − 1 la aproximación es exacta y el
error es nulo. Pero lo que realmente hace útil a este tipo de aproximaciones es que también será exacta para
or

polinomios de grado ≤ 2N − 1. Esto se puede ver si expresamos un polinomio de grado 2N − 1 como la suma
de dos polinomios
f (x) = PN (x)Y1 (x) + Y2 (x)
ad

donde Y1 y Y2 son polinomios de grado N − 1. Entonces, al integrar miembro a miembro


Z 1 Z 1 Z 1
dx f (x) = dx PN (x)Y1 (x) + dx Y2 (x)
−1 −1 −1
| {z }
=0
rr

el primer término se anula por ser PN (x) ortogonal a cualquier polinomio de grado inferior, y el segundo
término no es más que el caso que analizamos anteriormente de un polinomio de grado ≤ N − 1.
Puede resultar conveniente escribir la ecuación
Bo

Z b
b−a 1
 
(b − a)t + b + a
Z
f (x)dx = f dt
a 2 −1 2

163
4.2. PLANTEAMIENTO GENERAL PARA POLINOMIOS ORTOGONALES

Entonces, para la cuadratura de Gauss-Legendre


b N  
b−a X (b − a)tk + b + a
Z
f (x)dx = ck f
a 2 2
k=1

donde los tk son las raı́ces de PN (t) = 0.

Ejemplo Utilizar la fórmula de cuadratura de dos puntos de Gauss-Legendre para calcular

r
Z 4
(x2 − 2x + 1)dx

a
2

Entonces, N = 2:

in
Z 4     
4−2 (4 − 2)t1 + 4 + 2 (4 − 2)t2 + 4 + 2
(x2 − 2x + 1)dx = c1 f + c2 f
2 2 2 2
    √ ! √ !
2t1 + 6 2t2 + 6 2 3/3 + 6 −2 3/3 + 6

m
= (1)f + (1)f =f +f
2 2 2 2
√ √
4 3 13 4 3 13 26
= + − + = .
3 3 3 3 3

eli
Estrategia General para cuadraturas de Gauss
Para el caso general, la aproximación de una integral
b N
Z
Pr
dx w(x)f (x) ≈
X
ck f (xk ) ,
a k=1

donde las {x1 , · · · xk , · · · xN } son los ceros del polinomio ortogonal, de grado N , pN (x), elegido para hacer
esta aproximación. Los N pesos {c1 , · · · ck , · · · cN } surgen de resolver el sistema de ecuaciones
N Z b N
X h0 X
w(x)p20 (x)dx
or

cj = 2 con h0 = ∧ cj pk (xj ) = 0 para k = 1, 2, · · · N − 1 .


j=1
p0 a j=1

Ası́ para aproximar integrales con funciones pesos, w(x), utilizaremos cuadraturas adaptadas a los polinomios
ortogonales. Esto es
ad

Z ∞ Z ∞ Z 1
2 f (x)
dx e−x f (x) ⇒ Laguerre, dx e−x f (x) ⇒ Hermite, dx √ ⇒ Tchebychev .
0 −∞ −1 1 − x2

Ejercicio Para integrales con funciones peso del tipo


rr

1
w(x) = √
1 − x2
Bo

los pesos son: wi = π/N , rsultando


1 N 1
k−
Z  
f (x) π X 2
dx √ ' f (xk ) , con xk = cos π
−1 1 − x2 N N
k=1

164
4.2. PLANTEAMIENTO GENERAL PARA POLINOMIOS ORTOGONALES

Muestre que para un intervalo arbitrario a ≤ x ≤ b, esta última integral es:


Z b N
f (x) π X
dx p ' f (xk )
a (x − a)(b − x) N
k=1

donde:
1
k−
 
1 1 2
xk = (b + a) + (b − a) cos π.
2 2 N

r
4.2.8. Ejemplos

a
4.2.9. Practicando con Maxima

in
4.2.10. Ejercicios

m
eli
Pr
or
ad
rr
Bo

165
Capı́tulo 5

ra
Ecuaciones diferenciales ordinarias

in
m
eli
Pr
or
ad
rr
Bo

166
5.1. MOTIVACIÓN, ORIGEN Y CONCEPTOS BÁSICOS

5.1. Motivación, origen y conceptos básicos


En Ciencias, una de las formas de modelar fenómenos fı́sicos es mediante su caracterización a través de
una función matemática, digamos G = G (x, y, z; t). Una las formas (la ideal) para modelar los cambios de
esta función, G (x, y, z; t), que depende de la posición y del tiempo, es a través de una ecuación en la cual
están involucradas la función, G (x, y, z; t) y sus derivadas. A esa ecuación, que involucra las derivadas, la
llamaremos Ecuación Diferencial.
Existe toda una “fauna” de ecuaciones diferenciales y hoy disponemos de un importante arsenal de
técnicas, métodos y herramientas para encontrar la función G (x, y, z; t), la cual será nuestra función incógnita.

r
Este curso trata, parcialmente, de mostrar parte de esta “fauna” y de indicarles métodos para resolver
un tipo particular de ecuaciones diferenciales: las Ecuaciones Diferenciales Ordinarias.

a
Las ecuaciones diferenciales ordinarias son básicamente funciones del tipo

in
h i
F x, y(x), y 0 (x), y 00 (x), y 000 (x), · · · , y (n) (x) = 0 , (5.1)

donde:
dy(x) d2 y(x) d3 y(x) d(n) y
y 0 (x) = , y 00 (x) = , y 000 (x) = , ··· , y (n) (x) = .

m
dx dx 2 dx3 dx(n)
Son ejemplos de ecuaciones diferenciales ordinarias:
ax + yy 0 = 0 , x2 y 000 − (y 0 )2 = ex , y 00 cos(x) + cos(y) = 2 .

eli
Cuando la función incógnita f viene definida por una relación entre sus derivadas parciales con respecto
a las variables independientes nos estamos enfrentando a un problema de Ecuaciones Diferenciales en De-
rivadas Parciales Si la función es f = f (x, y, z) una ecuación diferencial en derivadas parciales es una de la
forma:
F x, y, z, f, ∂x f, ∂y f, ∂z f, ∂x2 f, ∂y2 f, ∂z2 f, ∂xy f, ∂xz f, . . . = 0 ,
 
Pr (5.2)
donde:
∂f ∂f ∂f ∂2f ∂2f ∂2f ∂2f ∂2f
∂x f = , ∂y f = , ∂z f = , ∂x2 f = , ∂ 2
y f = , ∂ 2
z f = , ∂ xy f = , ∂ xz f =
∂x ∂y ∂y ∂x2 ∂y 2 ∂y 2 ∂x∂y ∂x∂z
Ejemplos de ecuaciones diferenciales en derivadas parciales:
or

∂2f ∂2f ∂f ∂f ∂ 2 f (x, y) ∂f (x, y)


+ = f (x, y) , + f = 0, + − f (x, y) = p(y) .
∂x2 ∂y 2 ∂x ∂y ∂x∂y ∂x
Como ya mencionamos, en estas notas de métodos matemáticos trataremos las ecuaciones diferenciales
ordinarias y sus métodos de resolución. Un estudio de la ecuaciones en derivadas parciales será tratado en
ad

un curso posterior.
Empecemos por recordar que desde los primeros cursos hemos tratado, la mayor de las veces sin saberlo
o sin explicitarlo, con este tipo de ecuaciones en donde la incógnita no es un número sino un conjunto de
números: una función.
rr

5.1.1. Un ejemplo emblemático


El caso más emblemático lo constituye el conjunto de “fórmulas” que aprendimos cuando estudiába-
Bo

mos bachillerato o, más recientemente, en los primeros cursos de fı́sica general en la universidad. Entonces
describı́amos el movimiento de partı́culas en una dimensión, a través de dos ecuaciones:
t2
vf (t) = v0 + at y d(t) = v0 t + a . (5.3)
2

167
5.1. MOTIVACIÓN, ORIGEN Y CONCEPTOS BÁSICOS

De memoria repetı́amos que vf representaba la velocidad final, v0 la velocidad inicial, a la aceleración,


t el tiempo transcurrido y d la distancia recorrida en ese tiempo. El problema consistı́a en encontrar, para
un sinfı́n de situaciones fı́sicas, primeramente el valor de la aceleración del móvil y a partir de las leyes
de Newton, conociendo la velocidad y la posición inicial, encontrábamos la posición d y la velocidad vf en
todo instante de tiempo. Ası́, mediante diagramas de cuerpo libre y la utilización de las leyes de Newton,
encontrábamos el valor de la aceleración y con las “formulitas” (5.3) resolvı́amos el problema.

v = v0 + at

X P
Fext  f

r
Fext = ma ⇒ a = ⇒ 2 (5.4)
m  d = v t + at

0

a
2
Lo más
Pprobable es que nuestros profesores nos repitieran hasta el cansancio que la sumatoria de fuerzas
externas Fext era constante, y lo más seguro que nosotros en aquellos momentos no comprendiéramos la

in
trascendencia de esa suposición.
El caso más representativo era el del movimiento de un cuerpo bajo la acción de un campo gravitatorio:
el problema llamado de caı́da libre.

m
v = v0 − gt

 f

− mg = ma ⇒ a = −g ⇒ 2 (5.5)
 d = v t − gt

0
2

eli
Lo que está detrás de esta historia que nos inició en el estudio de la fı́sica y a muchos de nosotros
nos sedujo para seguir estudiando y aprendiendo a tratar de describir la naturaleza, es, efectivamente, la
utilización de las leyes de Newton para modelar el fenómeno del movimiento. De este modo:
X
Pr
Fext = ma = m
dv(t)
=m
d2 x(t)
. (5.6)
dt dt2
Sı́ la sumatoria de fuerzas externas es una contante tendremos que:
 R
dv(t)
P
Fext  v(t) = dt a = at + C2
=a= = constante ⇒ (5.7)
dt m 2
x(t) = dt (at + C2 ) = a t2 + C2 t + C1
R
or

Claramente al identificar:

C2 = v(t = 0) = v0 y C1 = x(t = 0) = x0 = 0 , (5.8)


ad

reobtenemos nuestras “formulitas” ancestrales. Es importante señalar que:


dv(t) dx(t)
=a y = at + C2 , (5.9)
dt dt
rr

constituyen ecuaciones diferenciales donde las funciones incógnitas son la velocidad v(t) y la posición, x(t),
respectivamente. Ambas funciones se encontraban dentro de un signo de derivada y fueron “despejadas”
mediante un proceso de integración.
La descripción del movimiento de un sistema de partı́culas es más rica y compleja. El movimiento de una
Bo

gran cantidad de partı́culas puede ser simulado a través de una ecuación diferencial del tipo:

d2 r(t)
 
X dr(t) dv(t)
Fext r (t) , , t = ma = m =m . (5.10)
dt dt dt2

168
5.1. MOTIVACIÓN, ORIGEN Y CONCEPTOS BÁSICOS

El carácter vectorial implica tres ecuaciones diferenciales, una por cada dimensión del movimiento:
d2 x(t)
  
P x dx(t) dvx (t)
F x (t) , , t = ma = m =m

x
 ext


 dt dt 2 dt




d2 y(t)
    
X dr(t)  P
y dy(t) dvy (t)
Fext r (t) , , t = ma ⇒ Fext y (t) , , t = may = m 2
=m
dt 
 dt dt dt




d2 z(t)
 
dz(t) dvz (t)

 P
z

r
Fext z (t) , , t = maz = m =m


2

dt dt dt

a
Además del carácter vectorial de la ecuación, las componentes de la fuerza pueden dejar de ser constantes
y depender no sólo del tiempo, sino del vector posición, del vector velocidad o de ambas simultáneamente.
En este caso nuestras “formulitas” dejan de ser válidas y debemos integrar las ecuaciones diferenciales

in
para obtener la trayectoria de la partı́cula, es decir, r (t), conocidas: la masa, la expresión de la sumatoria de
fuerzas externas, la posición y la velocidad inicial. Este problema se conoce como el problema de condiciones
iniciales y es, como hemos dicho antes, la razón de este curso.

m
Pero antes vamos a mostrar como el conocimiento del movimiento bajo la acción de una fuerza constante,
es decir, el movimiento de una partı́cula con aceleración constante puede resultar muy útil para resolver, de
forma aproximada, el caso más general que hemos mencionado.
Veamos con detenimiento que significan estas afirmaciones.

eli
Es claro que el tiempo de evolución esta comprendido entre el tiempo inicial, t0 , y el tiempo final, tf , es
decir: t0 ≤ t ≤ tf . Supongamos que dividimos ese intervalo de tiempo en N subintervalos
[t0 , tf ] = [t0 , t1 ] ∪ [t1 , t2 ] ∪ [t2 , t3 ] ∪ · · · ∪ [ti , ti+1 ] ∪ · · · ∪ [tN −2 , tN −1 ] ∪ [tN −1 , tN = tf ]
de tal modo que en cada uno de esos N subintervalos la aceleración es constante. En estas situación, nuestras
“formulitas” son válidas. Esto es:
Pr
 v(t1 ) = v1 = v0 + a (x0 , v0 , t0 ) [t1 − t0 ]
v(t0 ) = v0 
[t0 , t1 ] : ⇒ 2 (5.11)
x (t0 ) = x0
 [t1 − t0 ]
x (t1 ) = x1 = v0 [t1 − t0 ] + a (x0 , v0 , t0 )
2
or

 v2 = v1 + a (x1 , v1 , t1 ) [t2 − t1 ]
v(t1 ) = v1 
[t1 , t2 ] : ⇒ 2
x (t1 ) = x1
 [t2 − t1 ]
x2 = x1 + v1 [t2 − t1 ] + a (x1 , v1 , t1 )
ad

2
Si continuamos con este procedimiento, para un tiempo n-ésimo se tiene:
 vi+1 = vi + a (xi , vi , ti ) [ti+1 − ti ]
v(ti ) = vi 
[ti , ti+1 ] : ⇒ 2
[ti+1 − ti ]
rr

x (ti ) = xi

xi+1 = xi + vi [ti+1 − ti ] + a (xi , vi , ti )
2
hasta i = N − 1:
Bo

 vN = vN −1 + a (xN −1 , vN −1 , tN −1 ) [tN − tN −1 ]
v(tN −1 ) = vN −1 
[tN −1 , tN ] : ⇒ 2
x (tN −1 ) = xN −1
 [tN − tN −1 ]
xN = xN −1 + vN −1 [tN − tN −1 ] + a (xN −1 , vN −1 , tN −1 )
2

169
5.1. MOTIVACIÓN, ORIGEN Y CONCEPTOS BÁSICOS

Nótese que las posiciones y velocidades finales


para cada intervalo, son las posiciones y veloci-
dades iniciales para el intervalo siguiente y que
el valor de la aceleración, que es variable, se to-
ma como constante e igual al valor que tiene en
el comienzo del intervalo.
Para analizar este caso consideremos la situación
de una esfera de corcho, con radio a y masa m

r
que se suelta desde el fondo de un tanque de agua
de profundidad h.

a
Queremos conocer con que velocidad llega la es-
fera a la superficie.
El diagrama de cuerpo libre se puede observar en

in
la Figura 5.1 y la ecuación de Newton para este Figura 5.1: Diagrama de Cuerpo Libre de una esfera de cor-
caso se expresa como: cho que emerge desde el fondo de un tanque de agua.

m
 
X dr(t) dv(t)
Fext r (t) , , t ⇒ −mg − ηv (t) + ml g = m . (5.12)
dt dt

eli
En la cual podemos identificar:

Peso: − mg , Fricción: − ηv (t) , Empuje: ml g .

Como sabemos de cursos anteriores, el empuje o fuerza de Arquı́mides es igual al peso del fluido desalojado
Pr
por el cuerpo. Por ello aparece ml que representa la masa del fluido.
Para el caso en el cual el fluido no es viscoso (η = 0), es decir, no hay fricción con el fluido, la ecuación
se reduce a:  
X dr(t)
Fext r (t) , , t ⇒ −mg + ml g = ma , (5.13)
dt
en la cual claramente la aceleración es constante e igual a:
or

m  
l
 ρl
a=g −1 ≡g − 1 = cte . (5.14)
m ρ
donde hemos identificado ρl la densidad del fluido y ρ la densidad del cuerpo.
Para buscar la velocidad con la cual llega a la superficie, encontramos primero el tiempo que tarda en
ad

subir y luego evaluamos la velocidad en ese tiempo. Esto es:


 2 s
tf

ρl 2hρ
y(tf ) = h = g −1 ⇒ tf = ± , (5.15)
ρ 2 g (ρl − ρ)
rr

por lo tanto, la velocidad final es:


 s
ρl 2hρ
vf = ±g −1 . (5.16)
Bo

ρ g (ρl − ρ)

En el caso general, descrito por la ecuación (5.12), procedemos del mismo modo: encontramos el tiempo
en el cual llega la superficie y luego evaluamos la expresión de la velocidad para ese tiempo. Fı́jense que

170
5.1. MOTIVACIÓN, ORIGEN Y CONCEPTOS BÁSICOS

la estrategia para resolver el problema fı́sico es la misma, sólo que tendremos que disponer de un arsenal
adicional de herramientas y técnicas para “despejar” la función velocidad.
Aprenderemos a resolver ecuaciones diferenciales de la misma manera que antes resolvı́amos ecuaciones
algebraicas. En este caso, y como veremos más adelante, la solución exacta para la expresión de la velocidad
es:
dv(t) g (m − ml ) h − η t i
m = −mg − ηv (t) + ml g ⇒ v (t) = e m −1 . (5.17)
dt η
Con lo cual:
dy(t) g (m − ml ) h − η t

r
i
= v (t) = e m −1 , (5.18)
dt η

a
y la función posición surge de integrar la ecuación diferencial anterior

g(m − ml ) h − η t

in
i
y (t) = − 2
me m + ηt − m , (5.19)
η
desafortunadamente, no se puede despejar el tiempo de manera exacta por cuanto la ecuación:

m
gm (m − ml ) h − η tf η i
y(tf ) = h = − e m − 1 + tf , (5.20)
η2 m
para el tiempo final tf , ésta es una ecuación trascendente y debe ser resuelta numéricamente.

eli
Hagamos ahora algunas sustituciones simplificadoras:
4π 4π
ml = ξ ρ a3 , m= φ ρ a3 , ρl = ξρ , ρ = φρa , (5.21)
3 3
donde ξ y φ representan las densidades relativas del fluido y del cuerpo respecto al agua (que es de densidad
Pr
ρa ), respectivamente. Sustituyendo por valores numéricos:

g = 9,8 ; a = 0,02 ; ρa = 103 ; ξ = 1 ; φ = 0,8 ; v0 = 0 ; η = (6πa) 1,002 × 10−3 ,



(5.22)

entonces, de la ecuación (5.20) nos queda que para h = 10(mts)


h i
10 = 12339,72755 1 − e(−0,01409062500tf ) − 173,8744736tf ,
or

(5.23)

y se obtiene, de manera numérica, que tf = 2,876443096 s.


Con este resultado se evalúa la ecuación para la velocidad:
ad

h i
v (tf ) = 173,8744730 1 − e(−0,01409062500 tf ) ⇒ vf = 6,9063798 m/s . (5.24)

En la siguiente tabla se implementan las ecuaciones (5.11) habida cuenta de las simplificaciones (5.21) y
los valores numéricos (5.22) para h = 1/10 ∼ [ti+1 − ti ]
rr
Bo

171
5.1. MOTIVACIÓN, ORIGEN Y CONCEPTOS BÁSICOS

ti (s) vi (m/s) yi (m) v(t)(m/s) y(t)(m)


0.100 0.2449999997 0.01224999998 0.2448275 0.01225
0.200 0.4896547791 0.04898273892 0.4893102 0.04895
0.300 0.7339648246 0.11016371910 0.7334487 0.11009
0.400 0.9779306220 0.19575849150 0.9772434 0.19563
0.500 1.221552656 0.30573265540 1.2206949 0.30553
0.600 1.464831412 0.44005185880 1.4638035 0.43976
0.700 1.707767373 0.59868179800 1.7065698 0.59828
0.800 1.950361022 0.7815882177 1.9489943 0.78106

r
0.900 2.192612841 0.9887369109 2.1910775 0.98807

a
1.000 2.434523312 1.220093719 2.4328198 1.21926
1.100 2.676092916 1.475624530 2.6742217 1.47462
1.200 2.917322134 1.755295283 2.9152836 1.75410

in
1.300 3.158211444 2.059071962 3.1560062 2.05767
1.400 3.398761326 2.386920600 3.3963898 2.38529
aquı́, vi y yi representan la velocidad y la posición aproximada, tal y como se expresan en las ecuaciones

m
(5.11). Mientras que v (t) y y (t) ilustran los valores de la velocidad y la posición exactas, calculadas a partir
de las ecuaciones (5.18) y (5.19). Es claro que la aproximación es buena hasta la segunda cifra decimal.

5.1.2. Ejemplos de algunas ecuaciones diferenciales

eli
Thomas Robert Malthus1 fue uno de los primeros en darse cuenta que la población crece como una
razón geométrica mientras que los medios de subsistencias crecen de manera aritmética. Esta afirmación
plasmada en su Ensayo sobre el Principio de Poblaciones, el cual inspiró a Darwin en la formulación
de principio de selección natural. Malthus, muy religioso y creyente pensaba que esa diferencia en el
Pr
crecimiento de la población y las necesidades que ellas generaban, erán de procedencia divina y que
forzarı́a a la humanidad a ser más laboriosa e ingeniosa para lograr los medios de subsistencia. Darwin,
no tan religioso, lo formuló como una situación natural presente en todas las especies. La Ley de
Malthus o Decaimiento Radioactivo es:
dy(t)
= k y(t) ⇒ y(t) = y0 ek t , con y0 = y(0) . (5.25)
dt
or

Para k > 0 la población crece y para k < 0 tenemos una situación de decaimiento: la población decrece
con el tiempo. Este concepto se utiliza los procesos de decaimiento radiactivo.
La ecuación logı́stica o Ley de Verhulst2 se utiliza para describir el crecimiento de la población de
ad

una manera más precisa que la Ley de Malthus. Esta ecuación toma en cuenta el decrecimiento de la
población con el término −y 2
dy(t) k y0
= [k − ay(t)] y(t) = ky(t) − ay 2 (t) ⇒ y(t) =
dt a y0 + (k − a y0 ) e−k t
rr

La Ley de Enfriamiento de Newton expresa que la tasa de cambio de la temperatura respecto al tiempo
es proporcional a la diferencia de temperatura entre el cuerpo y el medio ambiente.
dT (t)
Bo

= k(T − Tm ) ⇒ T (t) = (T0 − Tm ) ek t + T m , con T0 = T (0)


dt
1 En honor al economista polı́tico inglés Thomas Robert Malthus (1766-1834).
2 Pierre François Verhulst 1804 - 1849. Matemático belga con sus más importantes comtribuciones en estadı́stica de-
mográfica.

172
5.1. MOTIVACIÓN, ORIGEN Y CONCEPTOS BÁSICOS

La Ley de Torricelli, la cual establece (para un tanque cilı́ndrico) la tasa de cambio respecto al tiempo
de la profundidad del agua en un tanque:
dy(t) kp 1
= y(t) ⇒ y(t) = t + y(0)2 .
dt A 2

5.1.3. De ecuaciones y ecuaciones diferenciales


En cursos anteriores consideramos una ecuación algebráica como aquella que se cumplı́a para ciertos
valores de x:

r
x2 − 4x + 4 = 0 ⇒ x = 2 ,

a
llamaremos ahora una ecuación diferencial aquella que se cumple para ciertas funciones i.e.
df (x)

in
− f (x) = 0 ⇒ f (x) = ex
dx

Definición:Sea f (x) una función definida sobre un intervalo a < x < b. Por una Ecuación Diferencial

m
Ordinaria entenderemos toda ecuación que involucre a x, f (x) y una o más derivadas de f (x).

Ejemplos:
df (x) d3 f (x) d2 f (x) cos(x) df (x)

eli
+ f (x) = 0 , = −e−x , = , x = 2[f (x)]2 .
dx dx3 dx2 1 − x2 dx
Utilizaremos para tal efecto varias notaciones equivalentes:
d2 f (x) df (x)
+ g(x) − af 2 (x) = k(x)
dx2
Pr dx
f 00 (x) + g(x)f 0 (x) − af 2 (x) = k(x)
fxx (x) + g(x)fx (x) − af 2 (x) = k(x) .
Se llaman ordinarias porque involucran funciones de una sola variable y derivadas respecto a ella.

5.1.4. Orden y linealidad


or

Una ecuación diferencial ordinaria, de orden n, generica suele denotarse de la siguiente manera:
F[x, y(x), y 0 (x), y 00 (x), y 00 (x), · · · , y (n) (x)] = 0 , (5.26)
ad

y será lineal si sólo parecen funciones lineales de y(x) y sus derivadas. Por ejemplo:
y 0 y 00 + yy 0 − ay 2 = k(x) es no lineal

α(x)y 00 + β(x)y 0 + γ(x)y = k(x) es lineal


rr

Muchas veces se acostumbra a omitir la dependencia de la función de la variable porque ésta queda sobre-
entendida: y(x) = y.
El orden de la derivada mayor define el orden de la ecuación diferencial, para la EDO (5.26) se tiene
Bo

entonces que ésta será de orden n. Ejemplos:


3
y 00 + (3y 0 ) + 2x = 7 , EDO no lineal de orden 2
0
y + y = x, EDO lineal de orden 1 .

173
5.2. SOBRE LAS SOLUCIONES

a r
in
m
Figura 5.2: Gráfica de la función implı́cita f (x, y) = x3 + y 3 (x) − 3xy(x) = 0

eli
La ecuación diferencial (5.26) será homogénea si NO contiene términos independientes de y(x), en caso
contrario será inhomogénea:

d2 y(x) dy(x)
dx2
+ g(x)
dx
Pr
− ay(x) = k(x) lineal inhomogénea

y 00 (x) + g(x)y 0 (x) − ay(x) = 0 lineal homogénea.

5.1.5. Ejemplos
or

5.1.6. Practicando con Maxima


5.1.7. Ejercicios
ad

5.2. Sobre las soluciones


5.2.1. Soluciones explı́citas e implı́citas
Las soluciones heredan su nombre del tipo de función que las representa, ası́ tendremos soluciónes explı́ci-
rr

tas cuando las funciones sean soluciones y sean explı́citas. Esto es

d2 y(t)
= y(t) + 4 et ⇒ y(t) = et C2 + e−t C1 + 2 tet
dt2
Bo

y también
π
y 0 = (x + y)2 ⇒ y(t) = tan(t − C1 ) − t , con t − C1 6=
2

174
5.2. SOBRE LAS SOLUCIONES

Las soluciones serán implı́citas si son representadas por funciones como


 √
y= 25 − x2
y y 0 + x = 0 ⇒ f (x, y) = x2 + y(x)2 − 25 = 0 ⇒ √ con − 5 < x < 5
y = − 25 − x2

En este caso, se tiene que seleccionar una rama de la función raı́z.


Igualmente, será solución implı́cita de la ecuación:

[y 2 (x) − x] y 0 (x) − y(x) + x2 = 0

r
la siguiente función

a
f (x, y) = x3 + y 3 (x) − 3xy(x) = 0,
ahora no es tan fácil verificar si efectivamente es una solución. Para comprobarla derivamos la función

in
 
d[f (x, y)] d x3 + y 3 (x) − 3xy(x) dy(x) dy(x)
= = 0 ⇒ 3x2 + 3y 2 (x) − 3y(x) − 3x = 0,
dx dx dx dx
simplificando y agrupando obtenemos la ecuación diferencial. Otra vez, la función solución no es univaluada.

m
Al graficarla (ver Figura 5.2) nos damos cuenta que tenemos varias soluciones de funciones univaluadas unas
2
contı́nuas y otras no. La función es univaluada fuera del lóbulo. Esto es para x ≤ 0 ∧ x > 2 3 . Con lo cual
tendremos que seleccionar, dentro del lóbulo, cuál de las partes univaluadas corresponde a la solución.

eli
5.2.2. Soluciones generales y particulares
Veamos las siguientes ecuaciones y soluciones

y 0 = ex ← y(x) = ex + C1
y 00 = ex
Pr
← y(x) = ex + C2 x + C1
y 000 = ex ← y(x) = ex + C3 x2 + C2 x + C1

Cada una de las soluciones representan familias de soluciones, una para cada constante. Este tipo de solucio-
nes las denominaremos soluciones generales. Es decir, llamaremos solución general de una ecuación diferencial
aquella que queda indeterminada por un conjunto de constantes {C1 , C2 , C3 , . . . , Cn }. En contraste, cuando
particularizamos los valores de las constantes tendremos una solución particular par cada una de las ecua-
or

ciones. Adicionalmente, cuando nos referimos a las ecuaciones no lineales el concepto de solución particular
varı́a. Soluciones particulares en este tipo de ecuaciones serán aquellas que se cumplen para rangos (o puntos)
muy particulares. Vale decir
ad

(y 0 )2 + y 2 = 0

⇒ y = 0 única solución
(y 00 )2 + y 2 = 0

Tamibién en este caso llamaremos a este tipo de soluciones, particulares. De igual modo puede darse casos
para los cuales no exista solución en un determinado intervalo.
rr

|y 0 |2 + 1 = 0

⇒ no tienen solución
|y 00 |2 + 1 = 0

Ecuaciones de la forma
Bo


 y(x) = ln(x) + C1 para x > 0
xy 0 = 1 ⇒ y(x) = ln |x| + C ⇒
y(x) = ln(−x) + C1 para x < 0

175
5.2. SOBRE LAS SOLUCIONES

con: −1 < x < 0 ∧ 0 < x < 1, tienen soluciones particulares para intervalos de la variables x.
Del mismo modo

(y 0 − y)(y 0 − 2y) = 0 ⇒ [y(x) − C1 ex ] y(x) − C2 e2x = 0


 

tendrá dos soluciones particulares.

5.2.3. Familia de soluciones n−paramétricas

r
Si y(x) = f (x, C1 , C2 , . . . , Cn ) es solución de una ecuación diferencial

a
F[x, y(x), y 0 (x), y 00 (x), · · · , y (n) (x)] = 0 ,

para n constantes {C1 , C2 , C3 , . . . , Cn } arbitrarias, entonces diremos que

in
y(x) = f (x, C1 , C2 , . . . , Cn ) es una familia n-paramétrica de soluciones.

Existe una diferencia entre una solución general de una ecuación y una solución n−paramétrica. La solución

m
general tiene que contener todas las soluciones de una ecuación diferencial determinada. Una solución
n−paramétrica no necesariamente. Veamos

y(x) = Cx + C 2

eli


y = xy 0 + (y 0 )2 ⇒ 2
 y(x) = − x

4
Se estarı́a tentado en llamar solución general a la solución 1−paramétrica y = Cx + C 2 . Sin embargo, se deja
Pr
por fuera a la otra solución que no tiene que ver con un valor particular de la constante C.
Otro ejemplo, lo constituye

3 C2
y 0 = −2y 2 ⇒ y(x) = 2 , ∀x,
(Cx + 1)

pero también
or

 −2
y(x) = x + C̃ , es solución con y(x) 6= 0 .

Una solución n−paramétrica se denominará solución general si contiene todas las soluciones de una de-
terminada ecuación diferencial. En el caso de ecuaciones diferenciales lineales, las soluciones n−paramétricas
ad

constituyen las soluciones generales a las ecuaciones diferenciales.

5.2.4. Solución particular, valores iniciales y valores de contorno


Dependiendo de la situación fı́sica que estemos modelando quizá podamos determinar las constantes
rr

arbitrarias de una familia n−paramétrica con información para un único punto x = x0 . Esto es:

F[x, y(x), y 0 (x), y 00 (x), · · · , y (n) (x)] = 0 ⇒ y(x) = f (x, C1 , C2 , . . . Cn )


Bo

donde
y(x0 ) = C1 y 0 (x0 ) = C2 ... y (n−1) (x0 ) = Cn .

176
5.2. SOBRE LAS SOLUCIONES

En este caso diremos que tendremos un problema de valores iniciales, ya que determinamos las constantes
arbitrarias a partir de la información de la función y sus derivadas en un solo punto, por ejemplo:
 
y(0) = 0 1
y 00 + ω 2 y = 0 con ⇒ y(x) = sen(ωx) .
y 0 (0) = 1 ω

Si por el contrario, para determinar el valor de las constantes arbitrarias disponemos de información de la
función y sus derivadas en dos o más puntos, diremos que tendremos un problema de contorno. Esto es:

r
 
y(0) = 0
y 00 + ω 2 y = 0 con ⇒ y(x) = sen(nπωx) .
y(1) = 0

a
Nótese que también pudimos haber tenido información del tipo

in
y(0) = y0 , y 0 (1) = y1 ; y 0 (0) = y0 , y 0 (1) = y1 ; y 0 (0) = y0 , y(1) = y1 ,

y para cada uno de estos caso tendremos una solución distinta.


Demostraremos que los problemas de valores iniciales para ecuaciones diferenciales lineales siempre tienen

m
solución particular (siempre se pueden determinar las constantes a partir de la información de la función y
las derivadas en UN punto). No ası́ los problemas de valores de contorno.

5.2.5. Ejemplos

eli
5.2.6. Practicando con Maxima
5.2.7. Ejercicios
Pr
or
ad
rr
Bo

177
Capı́tulo 6

ra
Ecuaciones diferenciales de orden 1

in
m
eli
Pr
or
ad
rr
Bo

178
6.1. SOLUCIONES ANALÍTICAS

6.1. Soluciones analı́ticas


Es fundamental, primero que todo, identificar con que tipo de ecuación diferencial ordinaria que estamos
tratando antes de cualquier intento de conseguir una solución. Veamos varios ejemplos:

d2 θ g
+ sen(θ) = 0, EDO no lineal, homogénea de orden 2
dt2 l

d2 θ g
+ θ = 0, EDO lineal, homogénea de orden 2

r
dt2 l

a
d2 θ g
+ θ = E(t) , EDO lineal, no homogénea de orden 2
dt2 l

in
x
y 0 + xy = , EDO no lineal, homogénea de orden 1
y3

y 0 − x3 + 2 xy − x1 y 2 = 0, EDO no lineal, no homogénea de orden 1

m
tan(x)y 0 − y = tan2 (x) , EDO lineal, homogénea de orden 1

xy 0 + y = x3 , EDO lineal, no homogénea de orden 1

eli
Ahora de manera un poco más sistemática diremos que una ecuación diferencial de primer orden será un
funcional tal que si es explı́cita respecto a la derivada ésta se podrá despejar
Pr 
 y0 ≡
 dy(x)
= H(x, y)
0
F[x, y(x), y (x)] = 0 ⇒ dx


P (x, y)dx + Q(x, y)dy = 0

Ejemplos:
or

y 0 = 2xy + ex ⇒ (2xy − ex ) dx − dy = 0 ,

y 0 = ln(x) + y ⇒ (ln(x) + y) dx − dy = 0
ad

6.1.1. Métodos elementales de integración


Para comenzar expondremos unos métodos de integración, los cuales si bien son elementales y casi triviales
serán utilizados en lo que sigue con bastante frecuencia.
rr

Integración directa
La integración directa tiene varias variantes las cuales nos hemos tropezado en varias situaciones de
modelaje y que nos han permitido integrar (intuitivamente) ecuaciones diferenciales. La más directa de
Bo

todas tiene que ver con la siguiente ecuación diferencial

dy(x)
= f (x)
dx

179
6.1. SOLUCIONES ANALÍTICAS

por lo cual, al integrar (analı́tica o numéricamente) tendremos la expresión para la función y(x),
Z Z Z
dy(x) = dx f (x) ⇒ y(x) = dx f (x) + C

La integración directa fue la estrategia que utilizamos anteriormente para encontrar las formulitas que
nos aprendimos en bachillerato. Esto es
R
v(t) = dt a = at + C1

P 
Fext dv(t) 
= = a = constante ⇒

r
2
m dt  x(t) = R dt (at + C ) = a t + C t + C

1 1 2
2

a
en la cual al recordar las condiciones iniciales se tiene:
v(0) = v0 ≡ C1 ⇒ v(t) = v0 + at

in
t2
x(0) = x0 ≡ C2 ⇒ x(t) = x0 + v0 t + a.
2
Una primera variante de la estrategia de integración directa anterior se aplica a la siguiente ecuación

m
dy(x)
= f (y)
dx
acomodando los términos e integrando resulta:

eli
Z Z
dy
= dx ⇒ F[y(x)] = x + C
f (y)
donde F[y(x)] será un funcional, desde el cual quizá se pueda despejar y(x).
Esta estrategia se ilustra en el siguiente ejemplo:
Pr
dy(x)
= −ay (x) , con y(0) = 2 ,
dx
entonces: Z Z
dy
= −a dx ⇒ y(x) = Ce−ax ⇒ yp (x) = 2e−ax .
y
la Figura 6.1 muestra varias soluciones particulares pertenecientes a esta familia, para a = 31 .
or

Otro ejemplo de integración directa se puede ver en la búsqueda de la solución de la siguiente ecuación
diferencial no lineal:
yy 0 = (y + 1)2
ad

esto es:
yy 0
Z Z
ydy
=1 ⇒ = dx , para y 6= −1 ,
(y + 1)2 (y + 1)2
integrando
1
+ ln |y + 1| = x + C ,
rr

y+1
que no es otra cosa que una familia de soluciones implı́citas, 1−paramétrica. Para una condición inicial como
y(2) = 0 entonces
1
Bo

y(2) = 0 ⇒ C = −1 ⇒ + ln |y + 1| = x − 1 para y 6= −1 ,
y+1
una vez más esta familia de soluciones 1−paramétrica no constituye la solución general de la ecuación
diferencial ya que no contiene todas las soluciones. En este caso, y(x) = −1 también es solución.

180
6.1. SOLUCIONES ANALÍTICAS

a r
in
m
1
Figura 6.1: Familia de soluciones 1−paramétrica para a = 3. En particular han sido tomados los valores
C = −3, −2, −1, 0, 1, 2, 3

eli
6.1.2. Ecuaciones diferenciales separables
Los casos anteriores de integración directa son generalizados por una ecuación que llamaremos separable.
Pr
Esto es, la función (funcional) de dos variables del lado derecho se supone que es el resultado del producto
de dos funciones de una variable, con lo cual las variables dependientes e independientes se agrupan a lados
distintos de la igualdad. La siguiente ecuación es separable

dy(x)
= F [y(x)]G(x)
dx
or

y por lo tanto Z Z
dy(x) dy
= G(x) dx ⇔ = G(x) dx .
F (y) F (y)
Por ejemplo, al querer resolver la siguiente ecuación
ad

dy(x)
= x + xy
dx
se tiene
x2
Z Z
dy x2
rr

= x dx ⇒ ln(1 + y) = +C ⇒ y(x) = Ae 2 − 1,
1+y 2
donde C o A son constantes arbitrarias a ser determinadas por las condiciones iniciales y además con y 6= −1.
De todos modos y = −1 es una solución particular.
Bo

181
6.1. SOLUCIONES ANALÍTICAS

6.1.3. Variaciones sobre separabilidad


Existen otras situaciones en las cuales encontremos ecuaciones diferenciales que podremos convertir en
separables a través de un cambio de variable:
dy
= f (ax + by + c) ⇒ dz = a dx + b dy ,
dx | {z }
z

por lo tanto:

r
dy 1 dz a 1 dz a dz
= − ⇒ − = f (z) ⇒ = bf (z) + a
dx b dx b b dx b dx

a
es decir, el cambio de variable nos conduce a una ecuación diferencial separable:
dz

in
= dx .
bf (z) + a
Un ejemplo nos clarifica de qué se trata

m
y 0 = sen2 (x − y) ⇒ dz = dx − dy ,

esto es Z Z
dz dz
y0 = 1 − ⇒ z 0 = 1 − sen2 (z) ⇒ = dx
1 − sen2 (z)

eli
dx
es decir
Z
dz
= x + C ⇒ tan(z) = x + C ⇒ tan(x − y) = x + C ⇒ y = x − arctan(x + C) .
cos2 (z)
Pr
Se puede tratar de generalizar el caso anterior y considerar ecuaciones diferenciales del tipo
 
dy a1 x + b1 y + c1
=f
dx a2 x + b2 y + c2
Entonces, se distinguen dos casos dependiendo de si las rectas a1 x + b1 y + c1 = 0 y a2 x + b2 y + c2 = 0 son
paralelas o no.
or

1. Son paralelas:  
a2 b2 dy a1 x + b1 y + c1
= =λ ⇒ =f ≡ f˜(a1 x + b1 y)
a1 b1 dx λ(a1 x + b1 y) + c2
ad

la cual analizamos anteriormente.


2. No son paralelas, entonces se intuye el siguiente cambio de variables
b2 du − b1 dv
u = a1 x + b1 y + c1 ⇒ du = a1 dx + b1 dy dx =
a1 b2 − a2 b1
rr


a1 dv − a2 du
v = a2 x + b2 y + c2 ⇒ dv = a2 dx + b2 dy dy =
a1 b2 − a2 b1
Bo

con lo cual, la ecuación diferencial


 
dy a1 x + b1 y + c1 u
=f =f ,
dx a2 x + b2 y + c2 v

182
6.1. SOLUCIONES ANALÍTICAS

queda de la forma h  u i h  u i
a2 + b2 f du − a1 + b1 f dv = 0 ,
v v
u

donde la función f v se conoce como una función homogénea al igual que la ecuación diferencial
que hereda de ésta su nombre. Este tipo de ecuaciones diferenciales serán consideradas en la próxima
sección.
Otro enfoque (equivalente) de este mismo problema puede ser consultado en el problemario de Kiseliov,
Kransnov, Makarenko1 . En este enfoque el cambio de variables se relaciona con el punto de corte (x0 , y0 )

r
Para ejemplificar este caso analizaremos un ejemplo sencillo de una función con argumento inhomogéneo
del tipo.

a

dy(x) a1 x + b1 y + c1  Q(x, y) ∝ a2 x + b2 y + c2

in
= ⇔ Q(x, y)dy + P (x, y)dx = 0 ⇒
dx a2 x + b2 y + c2
P (x, y) ∝ a1 x + b1 y + c1

Decimos, entonces que los coeficientes Q(x, y) y P (x, y) son inhomogéneos (ci 6= 0). Supondremos que las

m
rectas no son paralelas, por lo cual utilizamos el cambio de variable propuesto anteriormente. Entonces
 
1 du dv
u = a2 x + b2 y + c2 ⇒ du = a2 dx + b2 dy ⇒ dy = −
b2 − b1 a2 a1

eli
 
1 du dv
v = a1 x + b1 y + c1 ⇒ dv = a1 dx + b1 dy ⇒ dx = −
a2 − a1 b2 b1

con lo cual convertimos los coeficientes Q(x, y) y P (x, y) en homogéneos. Esto es


Pr
(a2 x + b2 y + c2 )dy + (a1 x + b1 y + c1 )dx = 0
| {z }

z
  }|
  {
u v u v
+ du − + dv = 0
a2 (b2 − b1 ) b2 (a2 − a1 ) a1 (b2 − b1 ) b1 (a2 − a1 )
or

es decir  v 
1 u
v
P (u, v) = u + = ug1 ,
a2 (b2 − b1 ) b2 (a2 − a1 ) u
y  v 
ad

1 u
v
Q(u, v) = u + = ug2 .
a1 (b2 − b1 ) b1 (a2 − a1 ) u
Este tipo de funciones homogéneas serán consideradas más adelante.

6.1.4. Ecuaciones diferenciales no separables


rr

Veamos ahora un caso bastante sencillo de resolver donde la EDO no es una ecuación diferencial separable.
Consideremos, a manera de prueba, la ecuación diferencial siguiente
Bo

dy(x)
+ ay(x) = e−x , con y(0) = 2 ,
dx
1 A. Kiseliov, M. Krasnov y G. Makarenko (1969) Problemas de Ecuaciones Diferenciales Ordinarias. (Mir, Moscú)

183
6.1. SOLUCIONES ANALÍTICAS

entonces, podemos preguntarnos sobre la posibilidad de que exista una función µ(x) de manera que si
multiplicamos ambos lados de la ecuación diferencial por µ(x) entonces, el lado izquierdo de la ecuación
diferencial se pueda escribir como:
 
dy(x) ? d
µ(x) + ay(x) ≡ [µ(x)y(x)] .
dx dx
De esta manera, la función µ(x) es una función a determinar (en este caso a adivinar). Efectivamente tenemos
que si
µ(x) = eax ,

r
entonces al multiplicar ambos lados de la ecuación diferencial por µ(x), resulta:

a
dy(x)
eax + eax ay(x) = eax e−x
dx

in
d ax
[e y(x)] = e(a−1)x
Zdx Z
d [eax y(x)] = dx e(a−1)x

m
de forma y manera que:
1 (a−1)x
eax y(x) = e +C.
a−1

eli
Para y(0) = 2:
1 2a − 3
y(0) = 2 = +C ⇒ C =
a−1 a−1
Una solución particular será entonces:
1  −x
e + (2a − 3)e−ax .
yp (x) =
Pr
a−1


Un par comentarios son pertinentes:


Llamaremos al término µ(x) factor integrador de la ecuación diferencial. Este factor está relacionado
con propiedades de simetrı́a de la ecuación, pero en este nivel lo buscaremos tanteando.
La solución general de esa ecuación diferencial toma la forma de y(x) = e−x + Ce−ax , donde el segundo
or

de los términos yH (x) = Ce−ax corresponde a la solución general para la ecuación homogénea asociada
a esa ecuación diferencial: dy(x)
dx + ay(x) = 0. El otro término yI (x) = e
−x
corresponde a la solución
dy(x) −x
particular de la inhomogénea: dx + ay(x) = e .
Esto último será una propiedad general para ecuaciones diferenciales lineales de cualquier orden. Resolvere-
ad

mos la ecuación homogénea y luego encontraremos una solución de la inhomogénea. La solución general será
una suma de ambas soluciones.
En general, para la ecuación
y 0 + ay = g(x) , el factor integrador es: µ(x) = eax
rr

y se tiene la siguiente solución general


Z x
y(x) = e−ax dt g(t)eat + Ce −ax
| {z }
x0
Bo

| {z } solución de la homogénea
solución de la inhomogénea

la demostración la dejamos como ejercicio para el lector.


La figura 6.2 muestra el mapa de ruta para la resolución de las EDO lineales.

184
6.1. SOLUCIONES ANALÍTICAS

a r
in
m
eli
Figura 6.2: Mapa de las ecuaciones diferenciales explı́citas

6.1.5. Método de las isoclinas


Pr
Este método se basa en la idea de campo y curvas integrales que vimos cuando estudiamos campos
vectoriales. La idea es bien simple, en general, una ecuación diferencial de primer orden (explı́cita respecto
a la derivada) se podrá representar como:
y 0 = f (y, x) . (6.1)
Ahora bien, el lado derecho de esa igualdad lo representa una función de dos variables, la cual tendrá un
or

valor en cada punto (x, y). Ese valor (por la igualdad que representa la ecuación diferencial) será el valor de
la derivada en ese punto y el valor de la derivada en un punto, no es otra cosa que la pendiente de la recta
tangente a una curva en ese punto. Con eso, al construir una gráfica recordamos las curvas integrales de los
campos vectoriales y reconstruimos las curvas solución a partir de sus tangentes.
ad

Tenemos entonces que si y = f (x) o f (x, y) = 0 define y como una función de x que satisface y 0 = f (y, x)
sobre un intervalo a < x < b, entonces el gráfico de esta función se denomina una curva integral y a la
totalidad de esas curvas se le llama un campo de direcciones. A las curvas con la propiedad: y 0 = f (x, y) =
constante se le denominan isoclinas (igual pendiente).
Por ejemplo, si consideramos la EDO:
rr

y
y0 = ⇒ y = Cx ← curva integral. (x 6= 0 , y 6= 0) .
x
O para la ecuación
Bo

x
y0 = − ⇒ x2 + y 2 = C 2 ← curva integral. (x 6= 0 , y 6= 0) .
y

185
6.1. SOLUCIONES ANALÍTICAS

a r
in
(a) (b)

Figura 6.3: Isoclinas para los ejemplos (a) y (b)

m
Cuando por un punto pasa más de una curva integral lo llamaremos un punto singular y para los puntos
por donde pase una y solo una curva integral le llamaremos puntos ordinarios.

eli
La Figura 6.3 contiene la representación gráfica para las tangentes de las siguientes ecuaciones diferen-
ciales:
1 y
(a) y 0 = e−x − y (b) y 0 =
3 x
y la Figura 6.4 las de
(c) y 0 = −
Pr
x
(d) y 0 = 1 + xy
y
En el Cuadrante (a) de la Figura 6.3 se muestran las soluciones particulares para las condiciones iniciales:
y(0) = 0,75, 0,50, 0, −0,50, −0,75. El Cuadrante (b) de la misma figura corresponde a las tangentes
generadas a partir de la ecuación diferencial. Nótese que son curvas integrales radiales y que para el punto
x = 0 no está definida la curva integral. En el Cuadrante (c), de la Figura 6.4, se representan las tangentes
or

de la ecuación. Finalmente el Cuadrante (d) contiene las tangentes a la ecuación diferencial, en ella se han
indicado las curvas integrales para las soluciones particulares correspondientes a las condiciones iniciales:
y(0) = 0,75, 0,50, 0, −0,50, −0,75.
Es importante señalar que este método permite obtener las posibles soluciones de una ecuación diferencial
ad

no importa lo complicada que se

6.1.6. Ecuaciones diferenciales homogéneas


Primero que todo, definamos qué son las funciones homogéneas de grado n.
rr

Definición: Diremos que una función f (x, y) es homogénea de grado n si


 y n
 si w = x ⇒ f (x, y) = x g(w)


Bo

f (tx, ty) = tn f (x, y) ⇔


x
 si w = ⇒ f (x, y) = y n h(w)


y

186
6.1. SOLUCIONES ANALÍTICAS

a r
in
(c) (d)

m
Figura 6.4: Isoclinas para los ejemplos (c) y (d)

eli
donde n es una constante y t > 0.

Las funciones homogéneas indican un comportamiento particular cuando cambiamos la escala de sus
variables. Se utilizan con bastante frecuencia en hidrodinámica y termodinámica.
Por ejemplo, la siguiente función:
Pr
f (x, y) = x2 + y 2 ln
y
x
es una función homogénea de grado 2, ya que:
 
ty h  y i
f (tx, ty) = (tx)2 + (ty)2 ln ⇒ f (tx, ty) = t2 x2 + y 2 ln = t2 f (x, y) .
tx x
or

Definición: Una ecuación diferencial ordinaria de primer orden

P (x, y)dx + Q(x, y)dy = 0 , (6.2)


ad

será una ecuación diferencial con coeficientes homogéneos si:

Q(x, y) y P (x, y) son homogéneas de grado n .


rr

Teorema: Si los coeficientes P (x, y) y Q(x, y) de una ecuación diferencial son homogéneos de orden n,
entonces la siguiente sustitución: y = ux, convertirá la ecuación diferencial en una ecuación diferencial
donde las variables son separables.
Bo

Demostración Como P (x, y) y Q(x, y) son funciones homogéneas de orden n (hipótesis) entonces:

P (x, y) = xn f (u) y Q(x, y) = xn g(u) ,

187
6.1. SOLUCIONES ANALÍTICAS

sustituyendo en la ecuación diferencial (6.2):

xn f (u)dx + xn g(u)(udx + xdu) = 0


[f (u) + ug(u)] dx + xg(u)du = 0
dx
[f (u) + ug(u)] + g(u)du = 0
x
dx g(u)du
+ = 0,
x f (u) + ug(u)

r
donde x 6= 0 y f (u) + ug(u) 6= 0. J

a
El lector, debe demostrar que la sustitución x = uy también convierte la ecuación diferencial en una de
variables separables.
Nótese que exigir que Q(x, y) y P (x, y) sean funciones homogéneas de grado n, equivale a imponer que

in
dy(x) P (x, y) y y
= ≡F donde F es homogéna de grado 0 ,
dx Q(x, y) x x

m
con lo cual estamos diciendo que si los coeficientes Q(x, y) y P (x, y) son funciones homogéneas de grado n,
la ecuación diferencial es invariante de escala.
Consideremos la siguiente ecuación diferencial no linea

eli
p
xy 0 = x2 − y 2 + y

Esto es
 p p 
 P (tx, ty) = (tx)2 − (ty)2 + ty = t x2 − y 2 + y
p 
x2 − y 2 + y dx − xdy = 0 ⇒

Pr

Q(tx, ty) = −tx

los coeficientes son funciones homogéneas de grado 1 y por lo tanto al hacer y = ux tendremos
Z Z
p  p dx du
x 1 − u2 + u dx − x(udx + xdu) = 0 ⇒ ± 1 − u2 dx − xdu = 0 ⇒ =± √ .
x
or

1 − u2
Notemos que: u 6= ±1 y x 6= 0. Integramos y, finalmente, llegamos a
y y
ln |x| = arcsen(u) + C ⇒ ln |x| = arcsen +C, para < 1 con x > 0

ad

x x
y y
− ln | − x| = arcsen(u) + C ⇒ − ln | − x| = arcsen +C, para < 1 con x < 0 .

x x
y
En este caso tenemos que u = = 1 ⇒ y = ±x también es solución.

rr

6.1.7. Ecuaciones isóbaras


Las ecuaciones isóbaras generalizan a las ecuaciones homogéneas por cuanto los coeficientes de la ecua-
Bo

ción Q(x, y) y P (x, y) no son funciones homogéneas del mismo grado y se busca una transformación que

188
6.1. SOLUCIONES ANALÍTICAS

convierta la ecuación en homogénea. Es decir, si la dimensionalidad en potencias de y es la misma que la


dimensionalidad en potencias de x. Diremos que una ecuación diferencial es isóbara si cumple con

P (x, y)dx + Q(x, y)dy = 0



Q(tx, t y) → tn P (x, y)
m

P (tx, tm y) → tn−m+1 Q(x, y)

r
y el cambio de variable que se impone es y = vxm . Con lo cual habrá que estudiar si es posible “balancear”
el orden de las dimensionalidades de variables y funciones.

a
Tratemos con un ejemplo para ilustrar las ecuaciones isóbaras. Consideremos la ecuación
2

in
2xyy 0 + y 2 +
= 0 , entonces,
x
  
2 x→x ↔ dx = dx
y2 + dx + 2xydy = 0 ⇒
x y → z m ↔ dy = mz m−1 dz

m
En la contabilidad de los exponentes de x aporta un peso de 1 mientras que y aporta un peso de m. La
intención es balancear los términos para que la ecuación sea homogénea de grado n. Esto es
 
2

eli
z 2m + dx + 2xz m mz m−1 dz = 0
x
 
2 1 v
2m
z + dx + 2mxz −1 z 2m dz = 0 ⇒ m = − ⇒ y = vxm ⇒ y = √
x 2 x
Pr
El exponente del primer término es 2m, del segundo −1 del tercero 2m. Al balancear todos los exponentes
tendremos 2m = −1, con lo cual m = − 12 .

v2
   
2 v
dv 1 v dx
+ dx + 2x √√ − √ dx = 0 ⇒ vdv + =0
x x xx 2x x x

entonces al integrar y devolver el cambio v = y x tendremos
or

v2
Z Z
dx 1
dv v + =0 ⇒ + ln |x| = c ⇒ y 2 x + ln |x| = c .
x 2 2
ad

6.1.8. Ecuaciones diferenciales exactas


El segundo grupo de estrategias apunta a escribir una ecuación diferencial como una derivada total de un
conjunto de funciones. Uno se ayuda en una posible función que pueda acomodar los términos de la ecuación.
Esa función se denomina factor integrador, para una ecuación diferencial lineal de primer orden
rr

dy(x)
+ f (x)y(x) = g(x) ,
dx
al multiplicar a ambos lados por µ(x) resulta
Bo

dy(x)
µ(x) + µ(x)f (x)y(x) = µ(x)g(x) ,
dx

189
6.1. SOLUCIONES ANALÍTICAS

por otro lado, tenemos y queremos que


d dy(x) dµ(x)
[µ(x)y(x)] ≡ µ(x) + y(x) = µ(x)g(x) ,
dx dx dx
para que esas dos últimas ecuaciones sean equivalentes los coeficientes de y(x) tienen que ser iguales, es decir,
Z Z
dµ(x) dµ(x) R
= µ(x)f (x) ⇒ = dx f (x) ⇒ µ(x) = e dx f (x)
dx µ(x)

r
Con lo cual hemos demostrado que para una ecuación lineal de primer orden, siempre es posible encontrar
un factor integrador µ(x) tal que la ecuación diferencial pueda ser expresada como una derivada total del

a
factor integrador y la función incógnita.

in
Z 
dy(x) d 1
+ f (x)y(x) = g(x) ⇒ [µ(x)y(x)] = µ(x)g(x) ⇒ y(x) = dx µ(x)g(x) + C
dx dx µ(x)
R
dx f (x)
donde µ(x) = e .

m
Definición: Una ecuación diferencial de la forma

P (x, y)dx + Q(x, y)dy = 0 ,

eli
se llama una ecuación diferencial exacta si esta es el diferencial total de alguna función f (x, y), es decir,
si:
∂ ∂
P (x, y) = f (x, y) y Q(x, y) = f (x, y) .
∂x ∂y
Pr
Teorema: Una condición necesaria y suficiente para que la ecuación diferencial

P (x, y)dx + Q(x, y)dy = 0 ,

sea exacta es que:


∂ ∂
or

P (x, y) = Q(x, y) ,
∂y ∂x
donde las funciones: P (x, y), Q(x, y), ∂y P (x, y), ∂x Q(x, y) deben existir y ser contı́nuas.
ad

Demostración Vamos a probar que si: P (x, y)dx + Q(x, y)dy = 0, entonces: ∂y P (x, y) = ∂x Q(x, y).
Como la ecuación es exacta, por la definición anterior se tiene que:
∂ ∂
P (x, y) = f (x, y) ∧ Q(x, y) = f (x, y) ,
∂x ∂y
rr

y como suponemos que P (x, y), Q(x, y), ∂y P (x, y), ∂x Q(x, y) existen y son contı́nuas:
∂ ∂ ∂ ∂
f (x, y) ∧ f (x, y) ∃ ,
Bo

∂y ∂x ∂x ∂y
y como:
∂ ∂ ∂ ∂
f (x, y) = f (x, y) ,
∂y ∂x ∂x ∂y

190
6.1. SOLUCIONES ANALÍTICAS

por lo tanto tenemos que una condición necesaria es:


∂ ∂
P (x, y) = Q(x, y) .
∂y ∂x
Por otro lado, probemos que si: ∂y P (x, y) = ∂x Q(x, y) entonces: P (x, y)dx + Q(x, y)dy = 0 es exacta.
Ası́, para una ecuación diferencial que pueda ser escrita como

? ∂f (x, y) ∂f (x, y)
d [f (x, y)] = 0 ⇔ P (x, y)dx + Q(x, y)dy = 0 ⇒ d [f (x, y)] = dx + dy = 0

r
∂x ∂y
donde f (x, y) será la función a determinar.

a
Entonces tendremos que la condición necesaria y suficiente para que una ecuación diferencial sea exacta
es

in
∂f (x, y) 

P (x, y) ⇔ 
∂x ∂ 2 f (x, y) ∂ 2 f (x, y)

 ∂P (x, y) ∂Q(x, y)
⇒ ≡ ⇔ ≡ ⇒ d [f (x, y)] = 0
∂f (x, y)  ∂y∂x ∂x∂y ∂y ∂x

m

Q(x, y) ⇔ 

∂y
Si esto se cumple entonces, podremos encontrar la función f (x, y) integrando respecto a cualquiera de
las variables (ahora consideradas independientes ambas)

eli
Z x Z x
∂f (x, y) ∂f (x, y) ∂ dS(y)
P (x, y) ≡ ⇔ f (x, y) = P (u, y)du + S(y) ⇒ Q(x, y) = = P (u, y)du +
∂x x0 ∂y ∂y x0 dy
entonces
Z x
∂P (u, y) dS(y)
Pr Z x
∂Q(v, y) dS(y) dS(y)
v=x
Q(x, y) = du + ≡ dv + = Q(v, y)|v=x0 +
x0 ∂y dy x0 ∂v dy dy

con lo cual nos queda finalmente otra ecuación diferencial para encontrar S(y) y con ella f (x, y). Esto es
Z y Z x Z y
dS(y)
= Q(x0 , y) ⇒ S(y) = Q(x0 , w)dw ⇒ f (x, y) = P (u, y)du + Q(x0 , w)dw = C . J
or

dy y0 x0 y0

Hay que hacer notar que los segmentos de lı́nea que unen el punto (x0 , y0 ) con los puntos genéricos
(x, y0 ) ∧ (x0 , y) pertenecen al entorno de (x0 , y0 ). Este tipo de entornos también se denomina multiplemente
conexo.
ad

Notemos que además de demostrar el teorema también encontramos una familia 1-paramétrica de solu-
ciones: Z x Z y
f (x, y) = P (u, y)du + Q(x0 , w)dw = C .
x0 y0

Consideremos la siguiente ecuación diferencial no lineal


rr

[xsen(y) − y 2 ]y 0 = cos(y) .

Entonces:
Bo


 P (x, y) = cos(y)
y 0 xsen(y) − y 2 = cos(y) ⇔ cos(y) dx − xsen(y) − y 2 dy = 0 ⇒
  

Q(x, y) = − xsen(y) − y 2

191
6.1. SOLUCIONES ANALÍTICAS

y verificamos que esta ecuación diferencial es exacta, ya que


Z x Z y
∂Q(x, y) ∂P (x, y)
= = − sen(y) ⇒ f (x, y) = P (u, y)du + Q(x, w)dw = C
∂x ∂y x0 y0

con lo cual, si particularizamos el punto (x0 , y0 ) ≡ (0, 0) tendremos que


Z x Z y
y3
f (x, y) = cos(y)du + w2 dw = C ⇒ x cos(y) + =C
x0 y0 3

r
6.1.9. Ecuaciones diferenciales lineales de orden 1

a
Una ecuación diferencial lineal de orden 1

in
dy(x)
+ f (x)y(x) = g(x) ,
dx
no es exacta, ya que:

m

 P (x, y) = f (x)y(x) − g(x)
∂Q ∂P
[f (x)y(x) − g(x)] dx + dy = 0 ⇒ ⇒ 6= .
∂x ∂y
Q(x, y) = 1

eli
pero como ya vimos, si µ(x) es un factor integrador, entonces:

 P (x, y) = µ(x) [f (x)y(x) − g(x)]
µ(x) [f (x)y(x) − g(x)] dx + µ(x)dy = 0 ⇒
Pr 
Q(x, y) = µ(x)

y por lo tanto

∂x µ(x) = ∂y {µ(x) [f (x)y(x) − g(x)]}


dµ(x)
= µ(x)f (x)
dx
or

Z Z Z
dµ(x) dµ(x)
= f (x)dx ⇒ = f (x)dx ⇒ ln |µ(x)| = f (x)dx ,
µ(x) µ(x)

es decir, R
f (x)dx
ad

µ(x) = e .
Esto significa que para las ecuaciones lineales de orden 1 se tiene
 R
f (x)dx
R R  P (x, y) = e [f (x)y(x) − g(x)]
e f (x)dx [f (x)y(x) − g(x)] dx + e f (x)dx dy = 0 ⇒
rr

R
f (x)dx
Q(x, y) = e

por lo tanto ahora es una ecuación exacta, ya que:


Bo

∂P h R R i R
⇒ ∂y e f (x)dx f (x)y(x) − e f (x)dx g(x) = f (x)e f (x)dx
∂y
∂Q h R i R
⇒ ∂x e f (x)dx = f (x)e f (x)dx
∂x

192
6.1. SOLUCIONES ANALÍTICAS

Volviendo a la ecuación original multiplicada por el factor integrador que la convierte en exacta, podemos
escribir:
R R R
f (x)dx f (x)dx f (x)dx
e f (x)y(x)dx − e g(x)dx + e dy = 0
R R R
f (x)dx f (x)dx f (x)dx
e dy + e f (x)y(x)dx = e g(x)dx
h R i R
d y(x)e f (x)dx = e f (x)dx
g(x)dx
R
Z R
f (x)dx
y(x)e = e f (x)dx g(x)dx + C .

r
Llegamos entonces a la fórmula que nos dará la solución general para cualquier ecuación diferencial lineal

a
de orden 1. Z R
1 C
y(x) = R e f (x)dx g(x)dx + R f (x)dx . (6.3)

in
e f (x)dx e
En realidad, lo anterior se puede formalizar con el siguiente teorema para el problema de valores iniciales.
Consultar la bibliografı́a recomendada para estudiar su demostración

m
Teorema: Sean las funciones F y ∂y F funciones continuas en algún intervalo a < x < b y c < y < d que
contienen al punto (x0 , y0 ). Entonces, en algún intervalo x0 −  < x < x0 +  contenido en a < x < b,
existe una única solución y = y(x) del problema de valores iniciales:

dy(x)

eli
= F (x, y) , con y(x0 ) = y0 .
dx
Por ejemplo, se la ecuación
2
y 0 − 2xy = ex .
2
Pr
Aquı́: f (x) = −2x y g(x) = ex . Por lo tanto, el factor integrador es:
2
R R
−2xdx
µ(x) = e f (x)dx
=e = e−x .
y la solución viene a ser:
Z
1 2 2 C 2
y(x) = e−x ex dx + = ex (x + C) .
e−x2 e−x2
or

6.1.10. Ecuaciones diferenciales no lineales y el factor integrador


Del mismo modo, y con la misma idea, podemos incorporar el factor integrador µ(x, y) para extender
ad

la idea a ecuaciones que no sean, necesariamente lineales. Ası́ para una ecuación diferencial que pueda ser
escrita como
?
d [f (x, y)] = 0 ⇔ µ(x, y)Q(x, y)dy + µ(x, y)P (x, y)dx = 0
es decir
∂f (x, y) ∂f (x, y)
rr

d [f (x, y)] = dx + dy = µ(x, y)Q(x, y)dy + µ(x, y)P (x, y)dx = 0


∂x ∂y
Entonces tendremos que la condición necesaria y suficiente para que una ecuación diferencial sea exacta es:
∂f (x, y) 

Bo

µ(x, y)P (x, y) ⇔ 


∂x ∂ 2 f (x, y) ∂ 2 f (x, y)

 ∂ ∂
⇒ ≡ ⇔ [µ(x, y)P (x, y)] ≡ [µ(x, y)Q(x, y)]
∂f (x, y) 
 ∂y ∂x ∂x ∂y ∂y ∂x
µ(x, y)Q(x, y) ⇔ 

∂y

193
6.1. SOLUCIONES ANALÍTICAS

y, obviamente, esta condición de integrabilidad dependerá del µ(x, y) que propongamos. Veamos algunos
casos:
1. Si µ(x, y) = µ(x) entonces la condición es
 
∂P (x, y) dµ(x) ∂Q(x, y) 1 dµ(x) 1 ∂P (x, y) ∂Q(x, y)
µ(x) = Q(x, y) + µ(x) ⇒ = −
∂y dx ∂x µ(x) dx Q(x, y) ∂y ∂x
con lo cual, si se cumple que

r
 
1 ∂P (x, y) ∂Q(x, y) 1 dµ(x) R
− = f (x) = ⇒ µ(x) = e dx f (x)
Q(x, y) ∂y ∂x µ(x) dx

a
podremos determinar el factor integrador.

in
Una vez identificado procedemos a integrar, formalmente f (x, y)
Z y  Z y 
∂f (x, y) ∂
f (x, y) = µ(x) Q(x, u)du + S(x) ⇒ = µ(x)P (x, y) ≡ µ(x) Q(x, u)du + S(x)
y0 ∂x ∂x y0

m
y finalmente, una vez más
Z y Z y
∂µ(x)Q(x, u) dS(x) ∂µ(x, u)P (x, u) dS(x)
µ(x)P (x, y) = du + ⇒ µ(x)P (x, y) = du +
y0 ∂x dx y0 ∂u dx

eli
con lo cual
Z x Z y Z x
S(x) = µ(u, y0 )P (u, y0 )du ⇒ f (x, y) = µ(x) Q(x, u)du + µ(u, y0 )P (u, y0 )du + C .
x0 y0 x0
Pr
Por ejemplo, consideremos la siguiente ecuación diferencial

cos(y)y 0 = −ex + sen(y) .

Esta ecuación no es exacta, ya que:



 P (x, y) = ex − sen(y)
∂Q ∂P
or

x
[e − sen(y)] dx + cos(y)dy = 0 ⇒ ⇒ = 0 6= = − cos(y) .
∂x ∂y
Q(x, y) = cos(y)

Podemos ver que el arreglo:


ad

 
1 ∂P (x, y) ∂Q(x, y) − cos(y) − 0
f (x) = − = = −1 ,
Q(x, y) ∂y ∂x cos(y)
entonces, el factor integrante es exacta:
R R
µ(x) = e dx f (x)
= e− dx
= e−x .
rr

Por lo tanto, la ecuación


1 − e−x sen(y)

 P (x, y) =
Bo

−x −x ∂Q ∂P
e x
[e − sen(y)] dx+e cos(y)dy = 0 ⇒ ⇒ = = −e−x cos(y) .
−x ∂x ∂y
Q(x, y) = e cos(y)

Queda como ejercicio resolver esta ecuación diferencial.

194
6.1. SOLUCIONES ANALÍTICAS

2. Si µ(x, y) = µ(y) entonces la condición queda como


 
du(y) ∂P (x, y) ∂Q(x, y) 1 dµ(x) 1 ∂Q(x, y) ∂P (x, y)
P (x, y) + µ(y) = µ(y) ⇒ = − ,
dy ∂y ∂x µ(y) dx P (x, y) ∂x ∂y

con lo cual si se cumple que


 
1 ∂Q(x, y) ∂P (x, y) 1 dµ(y) R
− = f (y) = ⇒ µ(y) = e dy f (y)
P (x, y) ∂x ∂y µ(y) dy

r
y podremos determinar el factor integrador.

a
Es claro que otras cambios de variables apropiados, como µ = µ(z) donde z = xy, pueden hacer posible
encontrar un factor integrante.

in
6.1.11. Ecuación de Bernoulli
La ecuación de Bernoulli, formulada por James Bernoulli2 y resuelta por su hermano Johann Bernoulli,

m
se caracteriza por tener la forma:
dy(x)
+ y(x)f (x) = y(x)n g(x) . (6.4)
dx
Es fácil darse cuenta de que la ecuación de Bernoulli se reduce a una ecuación con variables separadas

eli
cuando n = 0 y cuando n = 1 se trata de una ecuación de la forma:

dy(x)
= y(x) [g(x) − f (x)] .
dx
Pr
la cual también es de variables separables. Entonces, es la presencia del término y n lo que hace que la
ecuación no sea lineal.
Leibniz, en 1696, indicó que el cambio de variable z = y 1−n convierte la ecuación (6.4) en una ecuación
lineal.
Consideremos entonces n 6= 1, si multiplicamos ambos lados de (6.4) por (1 − n)y −n resulta:
 
−n dy
or

(1 − n)y + yf (x) = (1 − n)y −n y n g(x)


dx
dy
(1 − n)y −n + (1 − n)f (x)y 1−n = (1 − n)g(x)
dx
d  1−n 
ad

y + (1 − n)f (x)y 1−n = (1 − n)g(x) ,


dx
si se hace el cambio de variable z = y 1−n se tiene
dz
+ (1 − n)f (x) z = (1 − n)g(x) . (6.5)
rr

dx
La ecuación (6.5) es una ecuación diferencial lineal, la cual ya sabemos resolver.
Ejemplo, sea la ecuación:
x
Bo

y 0 + xy = 3 , con y 6= 0 .
y
2 James Bernoulli (1654-1705), fue un matemático y cientı́fico suizo, formaba parte de la gran familia Bernoulli. En 1690 se

convirtió en la primera persona en desarrollar la técnica para resolver ecuaciones diferenciales separables.

195
6.1. SOLUCIONES ANALÍTICAS

Esta ecuación es de la forma (6.4) con n = −3. Si multiplicamos por 4y 3 se tiene:


 x
4y 3 y 0 + 4y 3 xy 4y 3
 
=
y3
4y 3 y 0 + 4xy 4

= 4x
d  4
y + 4xy 4 = 4x
dx
con el cambio de variable z = y 4 , resulta

r
dz
+ 4xz = 4x ,
dx

a
la cual es una ecuación diferencial lineal con factor integrador

in
2
R R
dx f (x) 4xdx
µ(x) = e =e = e2x ,

Por lo tanto, la solución vendrá dada por

m
Z
1 2 C 1 h 2i C 2
y(x) = 2x2 e2x (4x)dx + 2x2 = 2x2 e2x + 2x2 = 1 + Ce−2x .
e e e e

6.1.12. Ecuación de Riccati

eli
La ecuación de Riccati3 es conocida como una ecuación diferencial no lineal que tiene la siguiente forma:

dy(x)
= A(x) + B(x)y(x) + C(x)y(x)2 , C(x) 6= 0 . (6.6)
dx
Pr
Esta ecuación fue estudiada por muchos matemáticos, entre ellos los propios integrantes de la familia
Bernoulli. Daniel Bernoulli, hijo de John y sobrino de James Bernoulli, publicó su solución en 1724, luego
de mantenerla oculta por mucho tiempo en modo de anagrama.
Podemos seguir las recomendaciones de Euler4 quien propuso que una sustitución del tipo:
1
y(x) = y1 (x) + , (6.7)
z(x)
or

donde y1 (x) es una solución particular de (6.6), convierte la ecuación de Riccati en una ecuación lineal
para z(x). Al sustituir (6.7) en (6.6) resulta lo siguiente:
ad

   2
dy1 1 dz 1 1
− 2 = A(x) + B(x) y1 + + C(x) y1 +
dx z dx z z
dy1 dz
z2 = A(x) + B(x)y1 + C(x)y12 z 2 + [2 C(x)y1 + B(x)] z + C(x)
 

dx dx  
dz dy1 2
rr

2
− = A(x) + B(x)y1 + C(x)y1 − z + [2 C(x)y1 + B(x)] z + C(x)
dx dx
| {z }
=0
3 El conde Jacopo Francesco Riccati (1676-1754) fue un matemático veneciano, que estudió detalladamente la hidrodinámica
Bo

sobre la base de la mecánica newtoniana.


4 Leonhard Paul Euler nació el 15 de abril de 1707 en Basilea, Suiza y murió el 18 de septiembre de 1783 en San Petersburgo,

Rusia. Fue un reputado matemático y fı́sico, y es considerado uno de los más grandes matemáticos de la historia.

196
6.1. SOLUCIONES ANALÍTICAS

por lo tanto:
dz
= − [2 C(x)y1 + B(x)] z − C(x) . (6.8)
dx
También podemos hacer la siguiente sustitución

y(x) = y1 (x) + u(x) (6.9)

donde y1 (x) es una solución particular de (6.6). Esto es, al sustituir (6.9) en (6.6) resulta:

r
dy1 du
= A(x) + B(x) [y1 + u] + C(x) y12 + 2y1 u + u2
 
+
dx dx

a
dy1 du
+ = A(x) + B(x)y1 + C(x)y12 + [B(x) + 2C(x)y1 ] u + C(x)u2
dx dx

in
du
= [B(x) + 2C(x)y1 ] u + C(x)u2 ,
dx
es decir:
du

m
− [B(x) + 2C(x)y1 ] u = C(x)u2 , (6.10)
dx
que no es más que la ecuación de Bernoulli (6.4) con f (x) = − [B(x) + 2C(x)y1 ], g(x) = C(x) y n = 2.
Como un ejemplo, resolvamos la siguiente ecuación de Riccati

eli
2
y0 = y2 − ,
x2
conociendo la solución particular y1 = 1/x.
En lugar de hacer todo el desarrollo anterior, podemos reconocer de manera fácil que:
Pr
2
A(x) = − , B(x) = 0 , C(x) = 1 .
x2
Tenemos entonces dos posibilidades: la primera es utilizar la ecuación lineal (6.8)
 
dz(x) 2 1 c
=− z(x) − 1 ⇒ z(x) = − x + 2 .
or

dx x 3 x

por lo tanto, al volver a la variable y(x):

1 1 2 x3 + 3 c
ad

y(x) = + =− .
x − 31 x + c
x2
x (x3 − 3 c)

La segunda, es resolver la ecuación de Bernoulli (6.10) con n = 2

3x2
 
du(x) 2
rr

− u(x) = u(x)2 ⇒ u(x) = − 3 ,


dx x x − 3c

y en función de y(x)
1 3x2 2 x3 + 3 c
Bo

y(x) = − 3 =− .
x x − 3c x (x3 − 3 c)

197
6.1. SOLUCIONES ANALÍTICAS

6.1.13. Un tipo muy especial de ecuación diferencial no lineal


Vamos a estudiar la siguiente ecuación diferencial:

y (Axp y q + Bxr y s )
y0 = − ,
x (Cxp y q + Dxr y s )

donde A, B, C, D son constantes.


La ecuación diferencial puede ser escrita como:

r
y (Axp y q + Bxr y s ) dx + x (Cxp y q + Dxr y s ) dy = 0 .

a
Y se puede demostrar que el factor integrante será de la forma

in
µ(x, y) = xa y b ,

donde a y b son constantes a determinar. Veamos un ejemplo.


Veamos un ejemplo:

m
y 2x2 y 3 + 3 dx + x x2 y 3 − 1 dy = 0 ,
 

entonces:  
 P (x, y) = y 2x2 y 3 + 3
∂Q ∂P
⇒ = 3x2 y 3 − 1 6= = 8x2 y 3 + 3

eli
 ∂x ∂y
Q(x, y) = x x2 y 3 − 1

La ecuación no es exacta.
Si µ(x, y) = xa y b es un factor integrante, resulta que:
Pr
xa y b 2x2 y 4 + 3y dx + xa y b x3 y 3 − x dy = 0
   

2x2+a y 4+b + 3xa y 1+b dx + x3+a y 3+b − x1+a y b dy = 0


 

y será exacta si ∂y P = ∂x Q, esto es

∂y P = 2x2+a (4 + b)y 3+b + 3xa (1 + b)y b = (3 + a)x2+a y 3+b − (1 + a)xa y b = ∂x Q ,


or

si multiplicamos por 1/(xa y b ) la ecuación anterior queda como:

2(4 + b)x2 y 3 + 3(1 + b) = (3 + a)x2 y 3 − (1 + a) ,


ad

igualando coeficientes resulta



 8 + 2b = 3+a
7 9
⇒ a= , b=− .
5 5
3 + 3b = −1 − a

rr

Por lo tanto el factor integrador es µ(x, y) = x7/5 y −9/5 .


Queda como ejercicio verificar que con este factor integrador la ecuación original es exacta.
Bo

198
6.1. SOLUCIONES ANALÍTICAS

6.1.14. Solución paramétrica: ecuaciones no resueltas respecto a la derivada


Podemos preguntarnos sobre los casos donde no es posible despejar y 0 de la ecuación diferencial ordinaria
de primer orden: F[x, y(x), y 0 (x)] = 0.
Varias situaciones pueden aparecer:

F[y 0 (x)] = 0






F[x, y 0 (x)] = 0



r
0
F[x, y(x), y (x)] = 0 ⇒
F[y(x), y 0 (x)] = 0

a





F[x, y(x), y 0 (x)] = 0

in
Veamos todos estos casos:

1. F[y 0 (x)] = 0
Como F[y 0 (x)] = 0 no contiene ni a x ni a y(x), entonces sı́ existe al menos una raı́z κi de la ecuación

m
F[y 0 (x)] = 0 entonces

y(x) − C
y 0 = κi ⇒ y(x) = κi x + C ⇒ κi = .
x

eli
Por lo tanto  
y(x) − C
F = 0,
x
es la integral de la ecuación diferencial.
Pr
Ejemplo: la solución de la ecuación

(y 0 )7 − (y 0 )5 + y 0 + 3 = 0 ,

es  7  5
y(x) − C y(x) − C y(x) − C
− + +3=0
or

x x x

2. F[x, y 0 (x)] = 0
Si se puede despejar x, entones podemos hacer los siguientes cambios de variable
ad

dx = f 0 (t) dt g(t)f 0 (t) dt + C


  R
 x = f (t)  y(x) =
0
⇒ ⇒ dy = g(t)f (t) dt ⇒
 0
y = g(t) dy = g(t) dx x = f (t)

Este tipo de soluciones se conocen como soluciones parametrizadas.


rr

Ejemplo: la ecuación
(y 0 )3 − y 0 = 1 + x .
Hacemos entonces los siguientes cambios de variables
Bo


 x = t3 − t − 1 dx = (3t2 − 1) dt
⇒ ⇒ dy = t(3t2 − 1) dt
 0
y = t dy = t dx

199
6.1. SOLUCIONES ANALÍTICAS

integrando:
t2
 R 
t(3t2 − 1) dt
R
 dy = 2
 y(x) = 4 (3t − 2) + C

x = t3 − t − 1 x = t3 − t − 1
 

3. Caso: F[y(x), y 0 (x)] = 0


a) Se puede despejar y(x), es decir: y = f (y 0 ). Entonces hacemos los siguientes cambios de variables:
 0

r
 y = z dy = z dx
df dz df dz
⇒ ⇒ z(x) = ⇒ dx =
dz dx dz z

a
y = f (z) dy = f 0 (z) z 0 dx

Por lo tanto, la solución paramétrica será

in
df dz
 R
 x = dz z +C

y = f (z)

m
Ejemplo: la ecuación
y = a(y 0 )2 + b(y 0 )3 , a y b = constantes
Tenemos entonces:

eli
 0
 y = z
dz
⇒ dx = (2az + 3bz 2 )
z
y = az 2 + bz 3

la solución paramétrica es :

 x =
R
Pr
(2a + 3bz) dz + C

 x = 2az + 23 bz 2 + C
⇒ .
y = az 2 + bz 3 y = az 2 + bz 3
 

En el caso de que queramos obtener y(x) podemos intentar despejar z de la primera ecuación, en
este caso esto es posible
or

1 h p i
z(x) = − 2 a ± 4 a2 + 6 b(x − C) ,
3b
y sustituir en la segunda:
ad

1  p 2  p 
y(x) = 2 a ± 4 a2 + 6 b(x − C) a ∓ 4 a2 + 6 b(x − C) .
27b2
b) No se puede despejar y 0 ni y de F[y(x), y 0 (x)] = 0, pero puede existir un parámetro tal que
dy = f 0 (t) dt

 y = f (t) f 0 (t)
rr

⇒ ⇒ f 0 (t) dt = g(t) dx ⇒ dt = dx
 0 g(t)
y = g(t) dy = g(t) dx
La solución paramétrica es entonces la siguiente:
Bo

 R f 0 (t)
 g(t) dt = x + C
.

y = f (t)

200
6.1. SOLUCIONES ANALÍTICAS

Ejemplo: la ecuación
y 2/3 + (y 0 )2/3 = 1 ,
tenemos entonces: 
 y = cos3 (t)
3 cos2 (t)sen(t)
⇒ − dt = dx
sen3 (t)
y0 = sen3 (t)

Por lo tanto

r
 
 −3 cot2 (t)dt =
R
x+C  x = 3 [cot(t) + t] + C

a
y = cos3 (t) y = cos3 (t)
 

in
4. Caso: F[x, y(x), y 0 (x)] = 0

a) Si se puede despejar la función y, entonces y = G(x, y 0 ). En este caso consideramos la siguiente


sustitución: y 0 = z(x)

m
y = G(x, y 0 ) = G(x, z) ⇒ dy = ∂x G dx + ∂z G dz = z dx ,

por lo tanto: 
 φ(x, z, C) = 0

eli
dz
z = ∂x G + ∂z G ⇒
dx
y = G(x, z)

b) Si se puede despejar a la variable x, entonces x = H(y, y 0 ). Como en el caso anterior tenemos la


siguiente sustitución: y 0 = z(x)
Pr
x = H(y, y 0 ) = H(y, z) ⇒ dx = ∂y H dy + ∂z H dz .

Si multiplicamos por z, se tiene

zdx = z [∂y H dy + ∂z H dz]


or

por lo tanto: 
 φ(y, z, C) = 0
dy = z [∂y H dy + ∂z H dz] ⇒
x = H(x, z)

ad

Aquı́ podemos considerar dos tipos de ecuaciones bien conocidas:

y = xf (y 0 ) + g(y 0 ) → Ecuac. de Lagrange

y un caso particular de la ecuación de Lagrange:


rr

y = xy 0 + g(y 0 ) → Ecuac. de Clairaut


Bo

En cuanto a la ecuación de Clairaut podemos notar que al reemplazar y 0 por el parámetro m, lo que
se obtiene es la ecuación de la lı́nea recta

y = mx + f (m) .

201
6.1. SOLUCIONES ANALÍTICAS

Por ejemplo, la solución de la ecuación de Clairaut: y = xy 0 + (y 0 )2 es la familia de rectas con pendiente


m, es decir: y(x) = mx + m2 .
Ejemplo: Sea la ecuación
y = x(y 0 )2 − (y 0 )−1 ⇒ y = G(x, y 0 ) .
Tenemos entonces:
 0
 y = z dy = z dx  
1
⇒ ⇒ z dx = z 2 dx + 2xz + 2 dz
z

r
= xz 2 − z −1 1

y dy = z 2 dx + 2xz + dz

z2

a
es decir:
 
1 dz
z = z 2 + 2xz + 2

in
z dx
 
1 dz
1 = z + 2x + 3
z dx
dx dx 1

m
= z + 2x + 3
dz dz z
dx 1
(z − 1) + 2x = − 3
dz z
dx 2x 1

eli
+ = − 3 .
dz z−1 z (z − 1)
Esta última ecuación es una ecuación diferencial lineal, por lo tanto, la sabemos resolver
Z R
1 C
e f (z)dz g(z)dz + R f (z)dz
x(z) =
e
R
f
Pr
(z)dz e
Z R  
1 2x
dz 1 C
= R 2 e z−1 − 3 dz + R 2x dz
e z−1 dz z (z − 1) e z−1

z−1
Z
1 C
= − dz +
(z − 1)2 z3 (z − 1)2
2 Cz 2 + 2 z − 1
or

= 2
2 (z − 1) z 2
La solución, en forma paramétrica, a la ecuación diferencial es entonces
ad

2 z(Cz + 1) − 1

 x(z) =


2
2 (z − 1) z 2 .


2 −1
y(x) = xz − z

rr

6.1.15. El método de las envolventes


Hemos descrito varios métodos para obtener una familia 1-paramétrica de soluciones a la ecuación
F[x, y(x), y 0 (x)] = 0. Si ésta familia de soluciones f (x, y, C) = 0 no es una solución general, entonces el
Bo

problema de encontrar una solución particular puede llegar a ser complejo. Sin embargo, en algunos casos,
existe un método para encontrar soluciones particulares de una ecuación diferencial de primer orden, este
método tiene que ver con el concepto de envolvente de una familia de curvas. Primero veamos que significa
una envolvente de manera conceptual

202
6.1. SOLUCIONES ANALÍTICAS

Una curva Γ se denomina una envolvente de una familia de curvas f (x, y, C) = 0 si se cumplen las
siguientes dos propiedades
1. En cada punto de la envolvente existe un único miembro de la familia tangente al punto.
2. Todo miembro de la familia de curvas es tangente a la envolvente en un punto distinto de la envolvente.
El siguiente teorema nos suministra una condición suficiente para que exista una envolvente de la familia
de curvas f (x, y, C) = 0.

r
Teorema: Si la función f (x, y, C) = 0 es una función dos veces diferenciable para un conjunto de valores
x, y, C, y si para este conjunto de valores se cumple que:

a
f (x, y, C) = 0 , ∂c f (x, y, C) = 0 ,

in

∂x f ∂ y f

6= 0 , ∂cc f 6= 0 ,

∂cx f ∂cy f

m
entonces, la familia de curvas f (x, y, C) = 0 tiene una envolvente cuya ecuación paramétrica estará
dada por: 
 f (x, y, C) = 0

eli
∂c f (x, y, C) = 0

Por ejemplo, vamos a ver si la siguiente familia de curvas

y = cos(x + C) ,
Pr
posee una envolvente.
Tenemos entonces:

f (x, y, C) = y − cos(x + C) ⇒ ∂c [y − cos(x + C)] = sen(x + C) = 0 ⇒ x + C = π/2

por otro lado


or


sen(x + C) 1

= − cos(x + C) , ∂cc f = cos(x + C) ,

cos(x + C) 0
La función cos(x + C) es diferente de cero si x + C 6= π/2, por lo tanto, todos los valores que excluyan a
ad

x + C = π/2 y que satisfacen la ecuación paramétrica



 y − cos(x + C) = 0

sen(x + C) = 0

rr

conforman una envolvente a la familia y = cos(x + C).


Podemos notar lo siguiente, si tomamos la primera de estas curvas: y = cos(x + C), la elevamos al
cuadrado y sumamos con la segunda también elevada al cuadrado, resulta:
Bo

y 2 = cos2 (x + C) + sen2 (x + C) = 1 ⇒ y = ±1 .

Las rectas y = 1 y y = −1 son las envolventes de y = cos(x + C).

203
6.1. SOLUCIONES ANALÍTICAS

Envolventes y soluciones
Sea f (x, y, C) = 0 una familia 1-paramétrica de soluciones a la ecuación diferencial y 0 = f (x, y). Para
esta familia puede existir o no una envolvente, si la envolvente existe, entonces se tiene que en cada punto
de la envolvente hay un miembro de la familia de soluciones tangente a la envolvente. Esto significa que la
curva envolvente en cada uno de sus puntos tiene la misma pendiente y 0 que las curvas integrales, y por lo
tanto, cada envolvente satisface la ecuación diferencial y 0 = f (x, y).
Podemos decir entonces, que una envolvente de una familia de soluciones de y 0 = f (x, y) es también
una solución de la ecuación diferencial. La inversa de esta afirmación no tiene porque ser verdadera, es

r
decir, una solución particular, que no sea obtenida a partir de la familia 1-paramétrica de soluciones, no es
necesariamente una envolvente.

a
Por ejemplo, utilizando el método de las envolventes podemos encontrar una solución particular de
1
y 0 = (1 − y 2 ) 2 ,

in
que no sea obtenible de la familia de soluciones y = cos(x + C).
Como vimos en el ejemplo anterior, y = 1 y y = −1 son envolventes de y = cos(x + C). Por lo tanto,

m
tenemos dos soluciones particulares a la ecuación diferencial: y = 1 y y = −1.

6.1.16. Ejemplos

eli
1. Consideremos la siguiente ecuación diferencial no lineal

1 − x2 p Z p Z
0
p p
y =− √ ⇔ 1 − x2 dx + 5 − y dy = 0 ⇒ dx 1− x2 + dy 5−y =0
5−y

con lo cual, al integrar resulta que


Pr
1 p 1 2
x 1 − x2 + arcsen(x) + (5 − y)3/2 = C para − 1 ≤ x ≤ 1 ∧ y > −5
2 2 3
Nótese que el arcsen(x) es multivaluada por lo tanto debemos restringir el intervalo a su valor principal
− π2 < x < π2 .
or

2.
2x + 3y − 1 1 0
y0 = − ⇒ λ = 2, z = 2x + 3y − 1 ⇒ dz = 2dx + 3dy ⇒ y 0 = (z − 2)
4x + 6y + 2 3
con lo cual
ad

Z Z
1 0 z dz z+8 2z + 4
(z − 2) = − ⇒ = ⇒ dz = dx ⇒ 2z − 12 ln |z + 8| = x + C ,
3 2z + 4 dx 2z + 4 z+8
por lo tanto, la solución será:
rr

4x + 6y − 2 − 12 ln |2x + 3y + 7| = x + C ⇒ x + 2y − 4 ln |2x + 3y + 7| = C̃ ,

con 2x + 3y + 7 6= 0. Podemos comprobar que 2x + 3y + 7 = 0 es una solución particular de la ecuación


diferencial.
Bo

3. Consideremos la siguiente ecuación diferencial

(x + y)y 0 − 2x + y − 1 = 0

204
6.1. SOLUCIONES ANALÍTICAS

la cual corresponde al caso en los cuales los coeficientes de la ecuación Q(x, y) y P (x, y) son funciones
inhomogéneas. Tal y como hemos visto un cambio de variable lo convierte en homogéneo. De nuevo,
hay que tener cuidado con el signo + de: P dx + Qdy = 0.

 u = 2x − y + 1 du = 2dx − dy dx = 13 (du − dv)
(2x − y + 1) dx−(x + y) dy = 0 ⇒ ⇒ ⇒
v = −(x + y) dv = −dx − dy dy = − 31 (du + 2dv)

ası́ nuestra ecuación diferencial tendrá la forma de una ecuación homogénea

r
(u + v)du − (u − 2v)dv = 0 ,

a
y ahora haciendo el cambio de variables u = tv con lo cual du = tdv + vdt

in
Z Z
dv t+1
(tv + v)(tdv + vdt) − (tv − 2v)dv = 0 ⇒ (t2 + 2)dv + v(t + 1)dt = 0 ⇒ + dt = 0
v t2 + 2
e integrando tendremos que

m
√ √ ! √ !
1 2 2 2 √ 2
ln |v| + ln |t + 2| + arctan t = C ⇒ ln |v 2 (t2 + 2)| + 2 arctan t = C̃ ,
2 2 2 2

eli
para v 6= 0, y ahora

u 2x − y + 1 2 2
√ 2 2x − y + 1
t= = ⇒ ln (x + y) + 2(2x − y + 1) + 2 arctan =C,

v −(x + y) 2 −(x + y)
Pr
para x + y 6= 0. La Figura 6.7 ilustra esta familia de soluciones.
or
ad
rr
Bo

Figura 6.5: Solución gráfica para la ecuación diferencial (x + y)y 0 − 2x + y − 1 = 0. Las curvas de diferentes colores
indican soluciones particulares: y(0) = 7; y(0) = 5; y(0) = 2; y(0) = −7; y(0) = −5; y(0) = −2.

205
6.1. SOLUCIONES ANALÍTICAS

4. Sea la siguiente ecuación, y verifiquemos si es exacta o no

x2 y + y 3 y 0 + x3 + y 2 x = 0 .


Por lo tanto:
 
 P (x, y) = x3 + y 2 x 
∂Q(x, y) ∂P (x, y)
x3 + y 2 x dx + x2 y + y 3
 
dy ⇒ ⇒ = = 2yx
∂x ∂y
Q(x, y) = x2 y + y 3
 

r
la ecuación diferencial es exacta, y otra vez:

a
Z x Z y
3 2
x2 w + w3 dw = C ,
 
f (x, y) = u + y u du +

in
x0 y0

= x4 + 2x2 y 2 + y 4 = C ,
2
= x2 + y 2 = C .

m
5. Dada la siguiente ecuación diferencial

1 + x2 y 0 + xy = 0 .


eli
Esta ecuación no es exacta, ya que:

 P (x, y) = xy
∂Q ∂P
2

(xy)dx + 1 + x dy = 0 ⇒ ⇒ = 2x 6= = x.
2 ∂x ∂y
Q(x, y) = 1+x

Pr
Podemos ver que el arreglo:
 
1 ∂Q(x, y) ∂P (x, y) 2x − x 1
− = = = f (y) ,
P (x, y) ∂x ∂y xy y

entonces, el factor integrante es


or

R dy
µ(y) = e y = eln(y) = y .
Por lo tanto, la ecuación es exacta:

 P (x, y) = xy 2
ad

2 2
 ∂Q ∂P
(xy )dx + y + yx dy = 0 ⇒ ⇒ = = 2xy .
∂x ∂y
Q(x, y) = y + yx2

Queda como ejercicio resolver esta ecuación diferencial.


rr

6. Otros métodos
Muchas veces, la solución de una ecuación diferencial se puede obtener utilizando más de un método.
Si fallan los métodos vistos anteriormente entonces podemos utilizar un poco de ingenio matemático.
Veamos los siguientes ejemplos
Bo

a) Resolvamos la ecuación
xy 0 = y − y 2 − x2 ,

206
6.1. SOLUCIONES ANALÍTICAS

la ecuación no es del tipo con coeficientes homogéneos



 P (x, y) = y − y 2 − x2 ∂Q ∂P
2 2

y − y − x dx − xdy = 0 ⇒ ⇒ = −1 6= 1 − 2y = .
∂x ∂y
Q(x, y) = −x

pero podemos hacer lo siguiente:

ydx − xdy − y 2 + x2 dx

= 0

r
y2
 
ydx − xdy
= + 1 dx , x 6= 0
x2 x2

a
  
hyi y 2
−d = + 1 dx
x x

in
y
d
− y 2 x = dx
x +1

m
integrando:

d xy
Z   Z y
− 2 = dx ⇒ − arc tg = x + C ⇒ y(x) = −x tan(x + c) , x 6= 0 .
y x

+1

eli
x

b) Resolver
 32
y 0 = −2x + 2 x2 + y − 1 .
Podemos hacer la siguiente sustitución:
Pr
dy dz
z = x2 + y − 1 ⇒ = − 2x
dx dx
Por lo tanto
dz 2 dz 2
− 2x = −2x + 2z 3 ⇒ = 2z 3
dx dx
or

Nos queda entonces una ecuación separable


Z Z
dz − 32 1
2 = 2dx ⇒ z dz = 2dx ⇒ 3z 3 = 2x + C , z 6= 0
z 3
ad

regresando a la variable original


1 3
3 x2 + y − 1 3 = 2x + C 27 x2 + y − 1 = (2x + C) , x2 + y − 1 6= 0


para finalizar, despejamos lo que será nuestra solución


rr

1 3
y(x) = 1 − x2 + (2x + C) .
27
Bo

Es bueno acotar y queda como ejercicio, demostrar que y(x) = 1 − x2 también es una solución.

207
6.1. SOLUCIONES ANALÍTICAS

c) Resolver
2 cos(y)y 0 + sen(y) = x2 csc(y) , y 6= 0 .
Podemos verificar que los métodos anteriores no funcionan, pero si multiplicamos por sen(y):

2 cos(y)sen(y)y 0 + sen2 (y) = x2 csc(y)sen(y)


d  2 
sen (y) + sen2 (y) = x2
dx

r
Esta es una ecuación lineal para sen2 (y), si hacemos z = sen2 (y) tenemos:

a
dz
+ z = x2
dx

in
donde el fácil ver que el factor integrador es µ(x) = ex . Por lo tanto:
Z
1 C 1 C
x2 ex dx + x = x 2 − 2 x + x2 ex + x = 2 − 2 x + x2 + Ce−x ,

z= x

m
e e e e
la solución es entonces:
h p i
y(x) = arcsen ± 2 − 2 x + x2 + Ce−x , y 6= 0 .

eli
7. Consideremos la ecuación
a1
y = xy 0 + , donde a es una constante.
2 y0
Pr
Como resolvimos con anterioridad y = G(x, y 0 ). Entonces:
 0
 y = z dy = z dx  a 
⇒ ⇒ z dx = z dx + x − 2 dz
a 2z
dy = z dx + x − 2za2 dz

y = xz + 2z

or

con un poco de álgebra se tiene


 a  dz
z = z + x− 2
2z dx
ad

r
 a  dz a a
0 = x− 2 ⇒ x= ⇒ z=±
2z dx 2z 2 2x

por lo tanto, un conjunto de la soluciones particulares son


rr

r r
a a 2x
y(x) = ±x ± .
2x 2 a
a
Y la familia 1-paramétrica de soluciones será: y(x) = xC + .
Bo

2C
8. Encontrar las envolventes de
y 2 = 2xC − C 2 .

208
6.1. SOLUCIONES ANALÍTICAS

Como vimos anteriormente,

f (x, y, C) = y 2 − 2xC + C 2 ⇒ ∂c [y 2 − 2xC + C 2 ] = −2x + 2C = 0 ⇒ x = C



−2C 2y

= 4y 6= 0 , ∂cc f = 2 6= 0 ,

−2 0
Aquı́, y 6= 0. La envolvente tiene entonces su forma paramétrica dada por

r
 2 
 y − 2xC + C 2 = 0  y = x
⇒ y 2 − x2 = 0 ⇒

a
x = C y = −x
 

in
9. Encontrar una solución particular de

9(y 0 )2 (2 − y 2 ) = 4(3 − y) ,

m
no obtenible de su solución (x − C)2 = 3y 2 − y 3 .
Veamos si esta familia de soluciones tiene envolventes

f (x, y, C) = (x − C)2 − 3y 2 + y 3 ⇒ ∂c [(x − C)2 − 3y 2 + y 3 ] = −2(x − C) = 0 ⇒ x = C

eli
Por otro lado,

2(x − C) −6y + 3y 2

= −6y(2 − y) 6= 0 ∂cc f = 2 6= 0 ,


2 0
Pr

Se tiene que y 6= 0 y y 6= 2. La envolvente tiene entonces su forma paramétrica dada por


 
 (x − C)2 − 3y 2 + y 3 = 0  y = 0
⇒ −y 2 (3 − y) = 0 ⇒
x = C y = 3
 
or

La solución y = 0, no se puede considerar ya que el determinante anterior tiene que ser diferente de
cero. Por lo tanto, una solución particular es la recta y = 3.
ad

10. Resuelva la ecuación de Clairaut


y = xy 0 + (y 0 )2
y estudie sus posibles envolventes.
Esta es una ecuación del tipo y = G(x, y 0 ). Por lo tanto
rr

 0
 y = z dy = z dx
⇒ ⇒ z dx = z dx + (x + 2z) dz
y = xz + z 2 dy = z dx + (x + 2z) dz

Bo

es decir: x  dz
0= +2 ⇒ x = −2z
z dx

209
6.1. SOLUCIONES ANALÍTICAS

Esto nos permite encontrar una solución particular de la ecuación diferencial, ya que

x x2
z=− ⇒ y = xz + z 2 ⇒ y(x) = − .
2 4

Si consideramos y(x) = xC + C 2 , que es la familia de soluciones de la ecuación diferencial, entonces al


hacer un estudio sobre las envolventes encontramos lo siguiente

f (x, y, C) = y − xC − C 2 ⇒ ∂c [y − xC − C 2 ] = −x − 2C = 0 ⇒ x = −2C

r
Por otro lado,

a

−C 1

= 1 6= 0 ∂cc f = −2 6= 0 ,

in

−1 0
La envolvente tiene entonces su forma paramétrica dada por

 y − xC − C 2 = 0 x2 x2

m
⇒ y+ = 0 ⇒ y(x) = − .
4 4
x = −2C

6.1.17. Practicando con Maxima

eli
6.1.18. Ejercicios
1. Pruebe que p
y0
p
1 − x2 = x 1−y,
Pr
tiene como solución:
p p
1 − x2 − 2 1−y =C para − 1 < x < 1 ∧ y < 1.

Es y = 1 una solución particular?


2. Utilice el método de las isoclinas para estudiar las soluciones de las siguientes ecuaciones:
or

p
(a) y 0 = x + y , |x| < 5 . (b) y 0 = x2 + y 2 , |x| < 1 . (c) y 0 = 1 + xy , |x| < 5 .

3. Muestre que:
ad

√  
x
a) f (x, y) = y sen es homogénea de grado 12 .
y
 
b) f (x, y) = ey/x + tan xy es homogénea de grado 0.
rr

4. Resuelva la ecuación diferencial estudiando el hecho de que sea exacta o no

2xysen2 (x) y 0 + x3 + xy 2 sen(2x) + y 2 sen2 (x) = 0 .



Bo

5. Resuelva la ecuación
sen(x) π
xy 0 + 3y = , con x 6= 0 , y y = 1.
x2 2

210
6.1. SOLUCIONES ANALÍTICAS

6. Demuestre que si µ = µ(z) donde z = xy, entonces el factor integrante viene dado por
R
dz f (z)
µ(z) = e ,

donde:
∂P (x, y) ∂Q(x, y)

∂y ∂x
f (z) =
yQ(x, y) − xP (x, y)
Con este resultado resuelva la ecuación:

r
x3 + x2 y + x y 0 + y 3 + xy 2 + y = 0 .


a
7. Demuestre que si µ = µ(z) donde z = x/y, entonces el factor integrante viene dado por

in
R
dz f (z)
µ(z) = e ,

donde:  

m
∂P (x, y) ∂Q(x, y)
y2 −
∂y ∂x
f (z) =
yQ(x, y) + xP (x, y)
Resuelva la ecuación:

eli
xy 0 = 3y .

8. Demuestre que si µ = µ(z) donde z = y/x, entonces el factor integrante viene dado por
R
dz f (z)
µ(z) = e ,
Pr
donde:  
∂Q(x, y) ∂P (x, y)
2
x −
∂x ∂y
f (z) =
yQ(x, y) + xP (x, y)
Resuelva la ecuación:
3xy 0 = y .
or

9. Resuelva la ecuación
xy 0 + y − y 2 ln x = 0 .
ad

10. Resuelva la siguiente ecuación de Riccati


2 1
y 0 = x3 + y − y2 , y1 (x) = −x2 .
x x

11. Encuentre, utilizando el método de las envolventes, soluciones particulares no obtenibles de la familia
rr

de soluciones.
a)
√ 1
Bo

y0 = y − x, y = x + (x + c)2 , x ≤ y ≤ x + 1.
4
b)
y 0 = 3y 2/3 , y = (x − c)3 .

211
6.2. SOLUCIONES NUMÉRICAS

c) p
p
y = xy 0 + 3 1 + (y 0 )2 , y = Cx + 3 1 + C2 , y > 0 , x2 < 9 .
d)
y = xy 0 + ln y 0 , y = Cx + ln C .
e)
y = xy 0 − (y 0 )2/3 .

r
6.2. Soluciones numéricas

a
En muchos problemas prácticos que involucran ecuaciones diferenciales no resulta posible expresar la
solución en términos de funciones elementales y es necesario recurrir a métodos numéricos. Por una solución

in
numérica entenderemos como aquellas soluciones que vendrán estipuladas como tablas de valores donde
para cada valor de xk le corresponde algún valor de la función yk (xk ). Más adelante encontraremos algunas
soluciones que tampoco vienen expresadas en términos de funciones elementales, como es el caso de la solución
y = J0 (x), las funciones de Bessel.

m
6.2.1. Las ideas generales
Dada una ecuación diferencial de segundo orden de la forma

eli
ẍ(t) = F [ẋ(t), x(t), t]
siempre se puede convertir en un sistema de dos ecuaciones lineales de primer orden, al extender el espacio
de variables de la forma

ẋ ≡ p(t) 
Pr 
 q̇ = p(t)
⇒ ẍ(t) = F [ẋ(t), x(t), t] ⇔
x ≡ q(t) ṗ = F (p(t), q(t), t)
 

este sistema puede ser rearreglado en forma vectorial


   
q(t) p(t)
d  dQ
= ⇔ = F (Q(t), t)
or


dt dt
p(t) F [p(t), q(t), t]
Ası́ dado un conjunto de potenciales elásticos y las fuerzas que de ellos derivan,
x
−k |x|
 
p=1 → kx
ad


 


 

 
1 2
 
 p=2 → kx  −kx

 

 2 
dV
V (x) = 1 3
⇒ Fk (x) = − =

 p=3 → 3 kx
dx 
 −kx2
.. ..
 
..
rr


 

. . .

 

 
1
 p

p−1 x
k|x| −k|x|
 
p |x|

el sistema dinámico correspondiente a la ecuación de Newton será


Bo

p(t)
   
x(t)
dQ d 
= F (Q(t), t) ⇒ = 
dt dt 1 p−1 x(t)
p(t) m [F ext (x(t), t)] − k|x(t)| |x(t)|

212
6.2. SOLUCIONES NUMÉRICAS

6.2.2. Métodos y su clasificación


Dada una ecuación diferencial de primer orden,

y 0 (x) = f (y(x), x),

donde y(x) es probablemente una función continua de la variable continua x. Tengamos claro que una solución
numérica de ésta ecuación es en realidad una aproximación a la función y(x).
Al resolver numéricamente, lo que se obtiene es una función yk = y(xk ) que resulta ser el valor de la

r
función obtenida con el método. La función es evaluada para un conjunto de puntos discretos xk = x0 + kh,
con k = 0, 1, 2, . . . y x0 < x1 < x2 · · · . A h se le denomina la longitud del paso.

a
Diremos que un método es de paso único si la determinación de yk+1 sólo involucra un único valor de yk
y múltiple paso si para calcularlo se utilizan varios valores yk , yk−1 , · · · , yk−p . Por otra parte se denomina
un método explı́cito si para determinar yk+1 se utilizan valores anteriores yk , yk−1 , · · · , yk−p y implı́cito

in
si se utilizan una función del mismo valor yk+1 .
Ası́
yk+1 = yk−1 + 2h f (xk , yk )

m
representa un método explı́cito de paso único mientras que
h
yk+1 = yk + [f (xk , yk ) + f (xk+1 , yk+1 )]
2

eli
será implı́cito de múltiples pasos.

El rebusque de Taylor
Tal y como hemos dicho arriba, dada una ecuación diferencial, su solución a través de un método de paso
único puede ser escrita como
Pr
y 0 (x) = f (y(x), x) ⇒ yk+1 = yk + ϕ (xk , yk , h) con h = xi+1 − xi ;

Lo primero que se puede hacer es expandir por Taylor alrededor del punto x = xk
1 1
or

2 n
y(x) = y(xk ) + (x − xk ) y 0 (xk ) + (x − xk ) y 00 (xk ) + · · · + (x − xk ) y (n) (xk ) + · · ·
2! n!
e identificamos

y(xk ) → yk y 0 (x) = f (y(x), x)


ad

y 0 (xk ) → f (yk , xk )

00 0 ∂f ∂f
y (xk ) → f (yk , xk ) = + y0
∂x x=xx ∂y x=xx k
y=yk y=yk
rr

y 000 (xk ) → f 00 (yk , xk ) = ∂x f 0 + ∂y f 0 yk0 = ∂xx f + (∂xy f ) yk0 + [∂yx f + (∂yy f ) yk0 ] yk0 + ∂y f yk00
.. .. .. ..
. . . .
Bo

Por lo que podemos reconstruir la serie de Taylor hasta el orden que podamos o requiramos
1 2 0 1 1 n (n−1)
yn+1 = yn + h f (yk , xk ) + h f (yk , xk ) + h3 f 00 (yk , xk ) + · · · + h f (yk , xk ) + · · ·
2! 3! n!

213
6.2. SOLUCIONES NUMÉRICAS

quedando acotado el error por


1
εred = hn+1 f (n) (y(ξ), x(ξ)) .
(n + 1)!

Podemos considerar el siguiente ejemplo donde tenemos siguiente ecuación diferencial cuya solución exacta
conocemos
y 0 = x2 + y ⇒ y(x) = 3ex − x2 − 2x − 2
si tenemos como condición inicial y(0) = 1, entonces

r
y 0 = x2 + y , y 00 = 2x + y 0 , y 000 = 2 + y 00 , y (4) = y 000 , . . .

a
al tomar en cuenta la condición inicial

in
y 0 (0) = 1 , y 00 (0) = 1 , y 000 (0) = 3 , y (4) (0) = 3 , . . .

por lo tanto

m
1 2 00 1 1
y(h) = h y (0) + h3 y 000 (0) + h4 y (4) (0) + · · ·
y(0) + hy 0 (0) +
2! 3! 4!
1 1 1
= 1 + h + h2 + h3 + h4 + · · ·
2 2 8

eli
Algunos valores se muestran a continuación, tomando términos de la serie hasta orden 4.
h y(h) y(x)
0.1 1.1055125 1.1055128
0.2
Pr
1.2242000 1.2242083
0.3 1.3595125 1.3595764
0.4 1.5152000 1.5154741

podemos ver que a medida que nos alejemos del origen el método no es tan bueno.

6.2.3. La idea de la integración y los métodos


or

La idea de integrar una ecuación diferencial ordinaria puede ilustrarse, formalmente de la siguiente forma
Z xk+1
y 0 (x) = f (y(x), x) ⇒ yk+1 = yk + dξ f (ξ, y(ξ)) ,
ad

xk

entonces el método se centra en como se aproxima la función dentro de la integral

Euler Se aproxima la función con en el punto anterior


f (xk , yk ) ⇒ yk+1 = yk + h f (xk , yk )
rr

Euler Mejorado o Heuns Se aproxima la función mediante un promedio en los extremos


1
2 [f (xk , yk ) + f (xk+1 , yk+1 )] ⇒ yk+1 = yk + h2 [f (xk , yk ) + f (xk+1 , yk+1 )]
Bo

h
⇒ yk+1 = yk + 2 [f (xk , yk ) + f (xk+1 , yk + h f (xk , yk ))]

Con h = xi+1 −xi el paso de integración. Nótese además que hemos utilizado Euler otra vez para expresar
yk+1 = yk+1 (yk , xk ).

214
6.2. SOLUCIONES NUMÉRICAS

El método de Euler constituye una expansión por Taylor hasta primer orden por lo que el error es
claramente de segundo orden por cuanto si comparamos con la expansión en series de Taylor correspondiente
tendremos
h2 d2 y

d y
yk+1 = yk + h + + ···
dx x=xk 2! dx2 x=xk
h2 d2 y

kεtot k ∝
2! dx2 x=xk

r
6.2.4. El método de Euler y el problema de valores iniciales

a
Este método si bien no se utiliza en la práctica en su forma estándar para ecuaciones diferenciales
ordinarias, si ilustra el proceso de discretización de una ecuación diferencial y su solución mediante métodos

in
numéricos.
Para resolver la ecuación de un oscilador armónico libre que parte del reposo, i.e.
d2 φ(t)

2 2 k dφ(t)
+ ω0 φ(t) = 0 con: ω0 = ; φ (t0 ) = 1; y =0

m
dt2 m dt t=t0

en la cual φ(t) representa la posición de un cuerpo de masa m unido a un resorte de constante elástica k.
Discretizando mediante diferencia centrada

eli
d2 φ(t) 1 1
h = ti+1 − ti ; ≈ 2 [φ(ti+1 ) − 2φ(ti ) + φ(ti−1 )] ≡ 2 [φi+1 − 2φi + φi−1 ]
dt2 h h
con lo cual la ecuación del oscilador libre queda como
d2 φ(t)
+ ω02 φ(t) = 0
Pr ⇒ φi+1 − 2 − h2 ω02 φi + φi−1 = 0

dt2
esta última ecuación es la versión en diferencias finitas de la ecuación diferencial y es claro que se convierte
en una ecuación algebraica.
Finalmente, los dos valores iniciales para la iteración φ0 y φ1 surgen de las condiciones iniciales

φ0 ≡ φ (t = t0 ) = 1
or


dφ(t)
=0 ⇒ φ1 ≈ φ0 .
dt t=t0
ad

6.2.5. Los métodos de Runge-Kutta


Es el conjunto de métodos más populares y de mayor uso. La idea del método de Runge-Kutta es producir
resultados equivalentes a desarrollos en Taylor de orden superior a Euler en métodos de un único paso por
lo tanto Z x k+1

y 0 (x) = f (y(x), x) ⇒ yk+1 = yk + dξ f (ξ, y(ξ))


rr

xk
y se aproxima la función con un promedio ponderado.

f (ξ, y(ξ)) ≈ [α f (yk , xk ) + β f (yk + δ f (yk , xk ) hk , xk + γ hk )] con hk = xk+1 − xk


Bo

donde α, β, γ y δ son los pesos estadı́sticos a ser determinados. Por lo tanto

yk+1 = yk + [α f (yk , xk ) + β f (yk + δ f (yk , xk ) hk , xk + γ hk )] hk

215
6.2. SOLUCIONES NUMÉRICAS

Expandiendo por Taylor de dos variables


1  2 2
λ ∂x g + 2λµ ∂xy g + µ2 ∂y2 g + · · ·

g (x + λ, y + µ) = g (x, y) + [λ ∂x g + µ ∂y g] +
2!
tendremos

yk+1 = yk + [α + β] fk hk + β [γ ∂x fk + δ fk ∂y fk ] h2k +
 2
δ2 2 2

γ 2
+β ∂x fk + 2γδ fk ∂xy fk + fk ∂y fk h3k + · · ·

r
2 2
con fk = f (yk , xk ) y como se ve claramente, queda libertad para escoger

a
Euler Mejorado o Heuns α = β = 12 ; γ=δ=1

in
1
yk+1 = yk + fk hk + 2 [∂x fk + fk ∂y fk ] h2k

1
Euler Modificado α = 0; β = 1; γ=δ=

m
2
1 1

yk+1 = yk + fk hk + 2 ∂x fk + 2 fk ∂y fk h2k

Runge-Kutta de cuarto orden aproxima la función f (ξ, y(ξ)) en cuatro puntos intermedios en el intervalo

eli
xk < x < xk+1 por lo cual
yk+1 = yk + [α κ1 + β κ2 + γ κ3 + δ κ4 ] hk
podemos plantearnos varias formas de hacerlo
hk
Pr
yk+1 = yk + [κ1 + 2κ2 + 2κ3 + κ4 ]
6
donde

κ1 = f (xk , yk )
 
1 1
κ2 = f xk + hk , yk + κ1
2 2
or

 
1 1
κ3 = f xk + hk , yk + κ2
2 2
κ4 = f (xk + hk , yk + κ3 )
ad

o también
hk
yk+1 = yk + [κ1 + 3κ2 + 3κ3 + κ4 ]
8
donde
rr

κ1 = f (xk , yk )
 
1 1
κ2 = f xk + hk , yk + κ1
3 3
Bo

 
1 1
κ3 = f xk + hk , yk + κ2
3 3
κ4 = f (xk + hk , yk + κ3 )

216
6.2. SOLUCIONES NUMÉRICAS

Más aún el método de Fehlberg de 4/5 orden se puede escribir como


yk+1 = yk + hk [C1 κ1 + C2 κ2 + C3 κ3 + C4 κ4 + C5 κ5 + C6 κ6 ] + O(h6 )

κ1 = f (xk , yk )
κ2 = f (xk + a2 hk , yk + b21 κ1 )
κ3 = f (xk + a3 hk , yk + b31 κ1 + b32 κ2 )
κ4 = f (xk + a4 hk , yk + b41 κ1 + b42 κ2 + b43 κ3 )

r
..
.

a
κ6 = f (xk + a6 hk , yk + b61 κ1 + b62 κ2 + b63 κ3 + b64 κ4 + b65 κ5 )
la cual puede ser redefinida y truncada para obtener

in
h i
ỹk+1 = yk + hk C̃1 κ1 + C̃2 κ2 + C̃3 κ3 + C̃4 κ4 + C̃5 κ5 + O(h5 )
Volvamos al mismo ejemplo que vimos anteriormente

m
y 0 = x2 + y ⇒ y(x) = 3ex − x2 − 2x − 2
con la condición inicial y(0) = 1.
Tenemos entonces que f (x, y) = x2 + y. Los valores iniciales son x0 = 0 y y0 = y(x0 ) = 1. Si tomamos

eli
h = 0,1, entonces al considerar la ecuación de Runge-Kutta de cuarto orden
1
y(x0 + h) = y(0,1) = y(0) + [κ1 + 2κ2 + 2κ3 + κ4 ]
6
donde
κ1 =
Pr
(0,1)f (xk , yk ) = (0,1)f (0, 1) = 0,1
 
1 1
κ2 = (0,1)f xk + hk , yk + κ1 = (0,1)f (0,05, 1,05) = 0,10525
2 2
 
1 1
κ3 = (0,1)f xk + hk , yk + κ2 = (0,1)f (0,05, 1,052625) = 0,1055125
2 2
κ4 = (0,1)f (xk + hk , yk + κ3 ) = (0,1)f (0,1, 1,1055125) = 0,11155125
or

por lo tanto el valor aproximado para y(0,1) es:


1
y(0,1) = y(0) + [κ1 + 2κ2 + 2κ3 + κ4 ] = 1,1055127
6
ad

De manera similar podemos calcular y(0,2).


1
y(x1 + h) = y(0,2) = y(0,1) + [κ1 + 2κ2 + 2κ3 + κ4 ]
6
pero ahora: x1 = 0,1 y y1 = y(x1 ) = 1,1055127
rr

κ1 = (0,1)f (xk , yk ) = (0,1)f (0,1, 1,1055127) = 0,11155127


 
1 1
κ2 = (0,1)f xk + hk , yk + κ1 = (0,1)f (0,15, 1,1612883) = 0,1183788
2 2
Bo

 
1 1
κ3 = (0,1)f xk + hk , yk + κ2 = (0,1)f (0,15, 1,1647021) = 0,1187202
2 2
κ4 = (0,1)f (xk + hk , yk + κ3 ) = (0,1)f (0,2, 1,2242329) = 0,1264233

217
6.2. SOLUCIONES NUMÉRICAS

tenemos entonces que


y(0,2) = 1,2242081
El resto de los valores se pueden apreciar en la siguiente tabla y donde además podemos hacer algunas
comparaciones con lo visto anteriormente
h y(h)(Taylor) y(h) (R-K) y(x)(Exacto)
0.1 1.1055125 1.1055127 1.1055128
0.2 1.2242000 1.2242081 1.2242083

r
0.3 1.3595125 1.3595761 1.3595764
0.4 1.5152000 1.5154736 1.5154741

a
6.2.6. Métodos multipaso

in
Los métodos multipaso se basan en encontrar el valor yn+k como una función de k de valores precedentes:
yn+k−1, yn+k−2, yn+k−3, · · · yn . Para k = 1, retomamos los métodos de paso único del tipo Euler o Runge-
Kutta. Será explı́cito (abierto) si el valor yn+k puede ser calculado directamente o implı́cito (abierto) si la

m
fórmula contiene el valor yn+k deseado.
Otra vez la idea está en aproximar el argumento de la integración formal
Z xi+1
y 0 (x) = f (y(x), x) ⇒ yi+1 = yi + dξ f (ξ, y(ξ))

eli
xi−k

nótese en este caso que el punto i + 1 recibe la contribución de k puntos anteriores. El integrando f (ξ, y(ξ))
lo aproximaremos con un polinomio de interpolación de Newton de orden n. Tal que
Pr
f (ξ, y(ξ)) → f (ξ) = pn (ξ) + Rn (ξ)

con pn (ξ) el polinomio de interpolación y Rn (ξ) el residuo. Donde i

pn (x) = f [xn ] + (x − xn ) f [xn , xn−1 ] + (x − xn ) (x − xn−1 ) f [xn , xn−1 , xn−2 ] + · · ·


+ (x − xn ) (x − xn−1 ) (x − xn−2 ) · · · (x − x1 ) f [xn , xn−1 , xn−2 , xn−3 , · · · x0 ]
f (n+1) (ζ)
or

Rn (x) = (x − xn ) (x − xn−1 ) (x − xn−2 ) · · · (x − x0 ) con x0 < ζ < xn


(n + 1)!

haciendo pn (x) ≡ f (xn + αh) con α cero o negativo de tal modo que en términos del operador diferencias
atrasada ∇f (x) = f (x) − f (x − h) siendo h el incremento
ad

α (α + 1) 2 α (α + 1) (α + 2) 3
f (xn + αh) = fn + α∇fn + ∇ fn + ∇ fn +
2! 3!
α (α + 1) (α + 2) · · · (α + r − 1) r
+ ∇ fn
r!
rr
Bo

218
6.2. SOLUCIONES NUMÉRICAS

donde hemos denotado fn ≡ f (xn , y(xn )), ∇m fn ≡ ∇m f |x=xn , y α = (x − xi ) /h Por lo tanto


Z xi+1
yi+1 = yi + dξ f (ξ, y(ξ))
xi−k
Z 1
= yi + h dα f (xn + αh)
−k
α2 α 1 ∇2 fi
    2  3
2 2 α ∇ fi
yi+1 = yi + h αfi + ∇fi + α + +α +α+1 +
2 3 2 2! 4 3!

r
 3 1
3α2
 4
α 11α ∇ fi
+α2 + + +3 + ···

a
5 2 3 4! −k

por razones de conveniencia que son evidentes al hacer el desarrollo, se toman las fórmulas para k = r y k

in
impar y obtendremos
 yi+1 = yi + h fi + 21 ∇fi + 12
5
∇2 fi + 38 ∇3 fi
  

k=0

r=3 251 5 (4)

m
 R = 720 h f (ζ)

  yi+1 = yi + h [2fi + 0∇fi ]
k=1

r=1 1 3 (2)
 R = 3 h f (ζ)

eli
 yi+1 = yi + h 4fi − 4∇fi + 83 ∇2 fi + 0∇3 fi
 

k=3

r=3 14 5 (4)
 R = 45 h f (ζ)

 yi+1 = yi + h 6fi − 12∇fi + 15∇2 fi − 9∇3 fi + 33


10 ∇4 fi
k=5

r=5 
R = 140
Pr
41 7 (6)
h f (ζ)
y al expresar las diferencias atrasadas las fórmulas explı́citas (abierta) quedan expresadas como

k=0 h

y = yi + 24 [55fi − 59fi−1 + 37fi−2 − 9fi−3 ] R ∼ O h5
r = 3  i+1
k=1 
y = yi + 2hfi R ∼ O h3
r = 1  i+1
or

k=3
= yi + 4h

y 3 [2fi − fi−1 + 2fi−2 ] R ∼ O h5
r = 3  i+1
k=5
yi+1 = yi + 3h 7

r=5 10 [11fi − 14fi−1 + 26fi−2 − 14fi−3 + 11fi−4 ] R ∼ O h
ad

Siguiendo el mis procedimiento se pueden escribir las fórmulas implı́citas (cerradas) para las mismas
“curiosas” situaciones. Para este caso la conveniencia se obtienes para k impar y r = k + 2
 yi+1 = yi + h fi+1 − 12 ∇fi+1 − 12 1 1
  
 ∇2 fi+1 − 24 ∇3 fi+1
k=0

rr

r=3 −19 5 (4)


 R = 720 h f (ζ)

 yi+1 = yi−1 + h 2fi+1 − 2∇fi − 13 ∇2 fi+1 − 0∇3 fi+1
 

k=1

r=3
Bo

−1 5 (4)
 R = 90 h f (ζ)

 yi+1 = yi−3 + h 4fi+1 − 8∇fi − 20 ∇2 fi+1 − 38 ∇3 fi+1 + 14
 

3 45 ∇4 fi+1
k=3

r=5 −8 5 (4)
R = 945 h f (ζ)

219
6.2. SOLUCIONES NUMÉRICAS

desarrollando las diferencias atrasadas, tendremos



k=0 h

yi+1 = yi + 24 [9fi+1 + 19fi−1 − 5fi−1 + 9fi−2 ] R ∼ O h5
r=3 
k=1
yi+1 = yi−1 + h3 [fi+1 + fi + fi−1 ]

R ∼ O h5
r=3 
k=3
yi+1 = yi−3 + 2h

45 [7fi+1 + 32fi + 12fi−1 + 32fi−2 + 7fi−3 ] R ∼ O h7
r=5

r
Se debe puntualizar lo siguiente respecto a las fórmulas explı́citas e implı́citas de los métodos multipaso
antes mencionados

a
Los métodos multipasos, normalmente, requieren menos evaluaciones de las funciones que los métodos

in
monopaso para un mismo nivel de precisión.
Los métodos multipaso requieren de un método monopaso que le permita determinar los yn+k−1, yn+k−2, yn+k−3, · · · , yn
puntos iniciales.

m
Las fórmulas explı́citas son, normalmente, menos precisas que las implı́citas. La razón se fundamenta
en que, mientras las explı́citas extrapolan la solución al punto yi+1 , las implı́citas la interpolan, por
cuanto la toman en cuenta en el momento de calcularla.

eli
Las fórmulas explı́citas e implı́citas deben ser consideradas como complementarias, por cuanto las

explı́citas pueden predecir el valor de yi+1 necesario para la fi+1 = f (xi+1 , yi+1 ) del cálculo de yi+1 en
la fórmula implı́cita.
Existen varias combinaciones predictor-corrector, entre ellas mencionamos:
Milne de cuarto orden
Pr
• Predictor
4h
yi+1 = yi−3 + [2fi − fi−1 + 2fi−2 ]
3
• Corrector
h
yi+1 = yi−1 + [fi+1 − 4fi + fi−1 ]
3
or

Milne de sexto orden

• Predictor
3h
ad

yi+1 = yi−5 + [11fi − 14fi−1 + 26fi−2 − 14fi−3 + 11fi−4 ]


10
• Corrector
2h
yi+1 = yi−3 + [7fi+1 + 32fi + 12fi−1 + 32fi−2 + 7fi−3 ]
45
rr

Adams Modificado o Adams Moulton

• Predictor
h
yi+1 = yi + [55fi − 59fi−1 + 37fi−2 − 9fi−3 ]
Bo

24
• Corrector
h
yi+1 = yi + [9fi+1 + 19fi − 5fi−1 + fi−2 ]
24

220
6.2. SOLUCIONES NUMÉRICAS

El método de extrapolación multipaso más exitoso (conjuntamente con los métodos de paso único del
tipo Runge-Kutta) es el de extrapolación racional de Bulirsch-Stoer en el cual se define un paso superior
de H y una serie de subpaso hη = H/η con el aumento del número de subpasos, en algún momento siguiendo
algún criterio de convergencia se hace una extrapolación (racional) que representa el lı́mite η → ∞.
El método de Bulirsch-Stoer tiene una estrategia diferente al los anteriores y posee, como motor de
aproximación el método del punto medio modificado o salto de rana (leap frog). Este esquema se utiliza con
frecuencia en discretizaciones de ecuaciones diferenciales en derivadas parciales y se basa en aproximar la
derivada por el valor el promedio en los dos extremos:

r
y(xn ) − y(n−1 )
y 0 (x) = f (y(x), x) ⇒ y 0 (xn ) = f (y(xn ), xn ) =

a
2h
por lo tanto

in
z0 ≡ y(x)
z1 = z0 + hf (x, z0 )
..

m
.
zn+1 = zn−1 − 2hf (x + nh, zn )

para finalmente calcular

eli
1
y(x + H) ≈ yn ≡ [zn + zn−1 + hf (x + H, zn )]
2
Nótese que si reacomodamos
4yn − yn/2
y(x + H) ≈
3
Pr
obtendremos un método de cuarto orden que requiere menos evaluaciones de f (y(xn ), xn ) por paso h

6.2.7. Control del paso


En General para métodos de 4to orden. Tal y como se mencionó en el caso de la integración
numérica, el primer criterio que surge es dividir el paso h en la mitad, calcular todo de nuevo y comparar
or

los resultados a ver si está dentro del los lı́mites de tolerancia que nos hemos impuesto
yh − yh/2


≡ ∆ yh , yh/2 < εmáx ⇒
yh
ad

 5 !1/5
εmáx h0 εmáx
≈ ⇒ h0 = ht 
∆ yh , yh/2 ht ∆ yh , yh/2

donde hemos denotado h0 como el paso ideal. Esta relación es general para cualquier método de 4 orden de
paso único, multipaso, implı́cito o explı́cito.
rr

Más aún, la práctica ha indicado que


  0,20  0,20
εmáx ∆0
Mh ≡ Mh ∆0 ≥ ∆1

t t

Bo

∆(yh ,yh∗
) ∆h



h0 =
  0,25  0,25


 Mht εmáx ∆0

∆(yh ,yh
≡ Mht ∆0 < ∆1

) ∆h

221
6.2. SOLUCIONES NUMÉRICAS

donde 0 < M < 1 un factor de seguridad


Para métodos Runge-Kutta. es importante mencionar que se utilizan mayoritariamente métodos
hasta cuarto orden porque de mayor orden (M , por ejemplo) involucran más de M evaluaciones (y menos
M − 2) de la derivada. Por ello para este tipo de métodos se descubrió que considerando el mismo número de
puntos para la evaluación intermedia se pueden generar métodos de distinto orden, y para colmo de suerte
el menor orden de esta situación se expresa para métodos de 4 y 5 orden. En particular Runge-Kutta de 5
orden se puede escribir como:

yk+1 = yk + hk [C1 κ1 + C2 κ2 + C3 κ3 + C4 κ4 + C5 κ5 + C6 κ6 ] + O(h6 )

a r
κ1 = f (xk , yk )
κ2 = f (xk + a2 hk , yk + b21 κ1 )

in
κ3 = f (xk + a3 hk , yk + b31 κ1 + b32 κ2 )
κ4 = f (xk + a4 hk , yk + b41 κ1 + b42 κ2 + b43 κ3 )
..

m
.
κ6 = f (xk + a6 hk , yk + b61 κ1 + b62 κ2 + b63 κ3 + b64 κ4 + b65 κ5 )

y con los mismos puntos (¡ las mismas evaluaciones !) se puede reescribir para 4 orden como:

eli
h i
ỹk+1 = yk + hk C̃1 κ1 + C̃2 κ2 + C̃3 κ3 + C̃4 κ4 + C̃5 κ5 + O(h5 )

por lo tanto el error se puede estimar


Pr 6 
X 
∆ (yk+1 , ỹk+1 ) = Ci − C̃i ki
i=1

y el control del paso se utiliza exactamente igual


 0,20
εmáx
h0 = ht
or

∆ (yh , ỹh )

Para métodos multipasos y predictor corrector la situación puede tener un refinamiento adicional
antes de proceder a modificar el paso h. El esquema serı́a para un método predictor corrector del tipo
Adams Modificado o Adams Moulton, donde el
ad

Predictor
h
yi+1 = yi + [55fi − 59fi−1 + 37fi−2 − 9fi−3 ]
24
Corrector
rr

h
yi+1 = yi + [9fi+1 + 19fi − 5fi−1 + fi−2 ]
24
se realiza una serie de iteraciones dentro de la fórmula de corrector, i.e.
Bo

h
yi+1 = yi + [9f (xi+1 , yi+1 ) + 19f (xi , yi ) − 5f (xi−1 , yi−1 ) + f (xi−2 , yi−2 )] .
24

222
6.3. ALGUNAS APLICACIONES DE ECUACIONES DIFERENCIALES DE PRIMER ORDEN

6.2.8. Ejemplos
6.2.9. Practicando con Maxima
6.2.10. Ejercicios

6.3. Algunas aplicaciones de ecuaciones diferenciales de primer


orden

r
Modelar o describir matemáticamente un fenómeno es el fin último de la ciencias. Las matemáticas son
el lenguaje de la fı́sica: ¿Cómo describir el chisporroteo de una llama? ¿la textura de un pintura al oleo?

a
¿el tráfico en carreteras durante horas picos? ¿el titilar de las estrellas? Describir matemáticamente estas
situaciones no sólo no es fácil, pero tampoco es única. Son fenómenos complejos y su descripción puede tener

in
muchos grados de profundidad.

6.3.1. Ley de Malthus y el decaimiento radioactivo

m
Malthus5 postuló esta famosa ecuación:
dy(x)
= k y(x) (6.11)
dx

eli
con k > 0 o k < 0 y y(0) = y0 , Es fácil verificar que la solución viene dada por:
y(t) = y0 ek t . (6.12)
Para k < 0 tenemos una situación de decaimiento: la población decrece con el tiempo. Este concepto se
utiliza los procesos de decaimiento radiactivo. El tiempo de vida media se define como el tiempo necesario
Pr
para que la mitad de los núcleos decaigan, lo cual es independiente de la cantidad de la muestra y permite
medir la edad de todo aquello que contenga isótopos radioactivos. En particular el C14 del cual se sabe que:
tiene una vida media de 5730 años y que todos los organismos están (o estuvieron) formados por carbono.
Por lo tanto, si sabemos el porcentaje de C14 en una muestra, digamos el 63 % podremos inferir su edad
y(0) = 1
or

1
y(5730) = ek 5730 = 2

Por lo tanto, despejando k


− ln 2
k=
ad

5730
tendremos finalmente
y(t) = 2−t/5730
de aquı́ obtendremos la edad en años de la muestra
rr

ln 0,63
y(t) = 0,63 ⇒ t = − 5730 ≈ 3819,48
ln 2
5 En honor al economista polı́tico inglés Thomas Robert Malthus (1766-1834). Quien fue uno de los primeros en darse cuenta
Bo

queñ la población crece como una razón geométrica mientras que los medios de subsistencias crecen de manera aritmética. Esta
afirmación plasmada en su Ensayo sobre el Principio de Poblaciones, el cual inspiró a Darwin en la formulación de principio
de selección natural. Malthus, muy religioso y creyente pensaba que esa diferencia en el crecimiento de la población y las
necesidades que ellas generaban, eran de procedencia divina y que forzarı́a a la humanidad a ser más laboriosa e ingeniosa para
lograr los medios de subsistencia. Darwin, no tan religioso, lo formuló como una situación natural presente en todas las especies.

223
6.3. ALGUNAS APLICACIONES DE ECUACIONES DIFERENCIALES DE PRIMER ORDEN

a r
in
m
Figura 6.6: Decaimiento Radioactivo

eli
En la Figura 6.6 se puede apreciar la solución de la ecuación (6.11) y el valor aproximado de la edad de
la muestra.
Para k > 0 la ecuación 6.11 describe el incremento poblacional. El valor de k se calcula experimentalmente
(promediando sus valores para cada uno de los parámetros). Para la población venezolana k = 0,018
Pr
Población Venezolana (Millones Hab.)
Año Población y(t) = 0,350 e0,018t
1800 (0) 0.350 0.350
1847 (47) 0.750 0.816
1873 (73) 1.000 1.302
1881 (81) 1.750 1.504
or

1891 (91) 2.100 1.801


1926 (126) 2.850 3.381
1936 (136) 3.200 4.048
1941 (141) 3.850 4.429
ad

1950 (150) 4.350 5.208


1961 (161) 6.800 6.348
1971 (171) 10.800 7.600
1981 (181) 14.100 9.099
rr

El crecimiento de la población venezolana (Tabla 1) desde 1800 puede modelarse con k = 0,018 y a =
0,001, como se puede apreciar en la Figura 6.7.
Bo

6.3.2. La ecuación logı́stica o ley de Verhulst


Esta ecuación se utiliza para describir el crecimiento de la población de una manera más precisa que la
Ley de Malthus.

224
6.3. ALGUNAS APLICACIONES DE ECUACIONES DIFERENCIALES DE PRIMER ORDEN

a r
in
m
Figura 6.7: Población de Venezuela desde 1800

eli
Esta ecuación toma en cuenta le decrecimiento de la población con el término −y 2

y 0 = (k − ay) y = ky − ay 2

donde k y a son constantes arbitrarias. Esta ecuación es separable y la solución tiene la forma de

Pr
y
ln =k t+C,
k − ay

y por lo tanto
k y0
y(t) = .
a y0 + (k − a y0 ) e−k t
or

Nótese que para k > 0, resulta que


 
k y0 k
lı́m = .
t→∞ a y0 + (k − a y0 ) e−k t a
ad

6.3.3. La Ley de enfriamiento de Newton


Esta ley viene expresada de la siguiente forma
dT
rr

= k(T − Tm ) , T (0) = T0 (6.13)


dt
la solución será
T = (T0 − Tm ) ek t + T m .
Bo

La gráfica para el caso de una torta recién sacada del horno y que se encuentra a una temperatura de
T0 = 176◦ , con una temperatura ambiente de Tm = 23◦ , y con T (8) = 63◦ , se aprecia en la Figura 6.8
(k ≈-0.1677).

225
6.3. ALGUNAS APLICACIONES DE ECUACIONES DIFERENCIALES DE PRIMER ORDEN

a r
in
m
Figura 6.8: Enfriamiento de una torta recién horneada

También se puede modelar el enfriamiento con una temperatura del ambiente variable esto es:

eli
dT
= k [T − Tm (t)] T (0) = T0
dt
tómese, por ejemplo,  
πt
Pr
Tm (t) = 23 − 10 cos
12
con 0 ≤ t ≤ 24 horas

entonces:   
dT 1 πt
= T − 23 − 7 cos
dt 4 12
con la solución
207 + 23 π 2 + 63 cos π12t − 21π sen πt
 
1
t 12
or

T (t) = C e +
4
9 + π2
si T (0) = 15◦ , entonces la constante C resulta ser
135 + 8 π 2
C=−
ad

9 + π2
es decir:
207 + 23 π 2 + 63 cos π12t − 21π sen πt
 
135 + 8 π 2
 
1
t 12
T (t) = − e4 + .
9 + π2 9 + π2
rr

6.3.4. Interés compuesto.


Otra de las aplicaciones de las ecuaciones diferenciales es en el cálculo del crecimiento del capital inicial
C0 , depositado en un banco durante un cierto lapso de tiempo y sujeto a una determinada tasa de interés ζ.
Bo

Luego del lapso de tiempo, el nuevo capital será


 
ζ
C1 = C0 1 +
100

226
6.3. ALGUNAS APLICACIONES DE ECUACIONES DIFERENCIALES DE PRIMER ORDEN

Pasados dos lapsos (años) de tiempo el capital será:


    
ζ ζ ζ
C2 = C1 1 + = C0 1 + 1+
100 100 100
y en t lapsos de tiempo:
 t
ζ
C(t) = C0 1+
100

r
Ahora bien, si el pago de los intereses se hace varias veces durante ese lapso, entonces tendremos
    
ζ ζ ζ

a
C2 = C1 1 + = C0 1 + 1+ .
100 · 2 100 · 2 100 · 2

in
Finalmente, si el interés se paga k veces en cada lapso, entonces
 kt
ζ
C(t) = C0 1 + . (6.14)
100 · k

m
Si k = 12 entonces se tienen intereses pagaderos sobre saldos mensuales. En el caso de que k = 365, los
intereses son pagaderos sobre saldos diarios. Nótese que si
 kt
ζ

eli
ζ
k→∞⇒ 1+ → e( 100 t) ;
100 · k
entonces, podemos aproximar este modelo discreto de pagos sobre saldos por uno continuo, i.e.
ζ ζ
C(t) = C0 e( 100 t)
Pr ⇔ C 0 (t) =
100
C(t) .

Existen situaciones en las cuales los bancos, movidos por la competencia, ofrecen cancelar los intereses
sobre un año hipotético de 360 dı́as. En este caso, el capital crece como:
 365t
ζ
C(t) = C0 1 + . (6.15)
100 · 360
or

La siguiente tabla muestra una comparación del crecimiento del capital inicial C0 = 1, en un lapso de 10
años, sujeto a intereses del 40 % sobre saldos diarios y siguiendo los tres modelos antes mencionados.
 kt  365t
ad

ζ
Años C(t) = e( 100 t) C(t) = 1 + ζ
100·k C(t) = 1 + ζ
100·360
0 1.0 1.0 1.0
1 1.491497997 1.491824698 1.499797972
2 2.224566275 2.225540928 2.249393957
3 3.317936142 3.320116923 3.373636494
rr

4 4.948695110 4.953032424 5.059773172


5 7.380968843 7.389056099 7.588637542
6 11.00870024 11.02317638 11.38142320
Bo

7 16.41945436 16.44464677 17.06983543


8 24.48958329 24.53253020 25.60130455
9 36.52616442 36.59823444 38.39678465
10 54.47870107 54.59815003 57.58741975

227
6.3. ALGUNAS APLICACIONES DE ECUACIONES DIFERENCIALES DE PRIMER ORDEN

6.3.5. Mecánica elemental


El estudio del movimiento de los cuerpos sometidos a la acción de un conjunto de fuerzas externas, fue
una de las principales motivaciones para el planteamiento y solución de las ecuaciones diferenciales.
X d(mv(t))
F(r(t), v(t), t) = = m a(t) , (6.16)
dt
externas

para sistemas con m = cte (partı́culas), con v(t) la velocidad y r(t) la posición.

r
6.3.6. Movimientos con aceleración constante

a
En carreras de velocidad, en las cuales los autos tienen que generar el máximo posible de velocidad para

in
una distancia dada tendremos, que la ecuación Newton (6.16) se expresa de la siguiente forma
 F
 v(t) = v0 + m t


dv(t)
cte = F = m ⇒

m
dt
 x(t) = x + v t + 1 F t2


0 0
2m
F
Los valores tı́picos para este caso son v0 = r0 = 0 , a = m = 9,8 ms−2 , y por lo tanto la velocidad final a los

eli
400 m es: √
vf = 2ax ≈ 89 m/s = 320, 4 Km/h .

Fricción en fluidos
Pr
En la descripción del movimiento de un paracaidista la ecuación (6.16) se convierte en:
X
F (v(t)) = −mg + ηv 2 (6.17)
ext.

dp(t) dv(t)
= = m = m a(t) ,
dt dt
or

con η una constante arbitraria que depende de la forma del cuerpo.


Integrando esta ecuación separable se obtiene
  
1 − exp − 2gt
vt
v(t) = −vt   . (6.18)
ad


2gt
1 + exp − vt

Donde hemos definido la velocidad terminal como:


r
mg
vt ≡ ,
rr

la velocidad que anula la sumatoria de fuerzas y a partir de la cual el cuerpo cae sin aceleración.
El tiempo que tarda en alcanzar esa velocidad es estrictamente para t −→ ∞, sin embargo, una buena
Bo

aproximación que surge de la ecuación (6.18), la constituye: t  vt /2g . La velocidad terminal tı́pica en un dı́a
soleado para un paracaidista de 70 Kg, en posición de “águila extendida”, es 54 ms−1 (194, 4 Km h−1 ) y por
lo tanto alcanza la velocidad terminal luego de aproximadamente 15 s, esta situación se aprecia claramente
en la Figura 6.9.

228
6.3. ALGUNAS APLICACIONES DE ECUACIONES DIFERENCIALES DE PRIMER ORDEN

a r
in
Figura 6.9: Velocidad y posición del paracaidista en función del tiempo.

m
Por su parte, la posición surge al integrar la ecuación (6.18)
  
dy(t) 1 − exp − 2gt
vt
v(t) = = −vt   ,

eli

dt 1 + exp − 2gt vt

integrando esta ecuación obtendremos


  
Pr
 vt
y0 − y(t) = vt t + ln  
2


 . (6.19)
 g exp − 2gt + 1 
vt

Con el comportamiento gráfico que muestra la Figura 6.9.

Fuerzas elásticas
or

Otra situación muy conocida se presenta bajo la acción de fuerzas elásticas. Ası́, la ecuación (7.40), ahora
se expresa como
X dv(t)
F (v(t)) = −kx(t) = m = ma(t) . (6.20)
dt
ad

ext.

Utilizando la “regla de la cadena”


dv(t) dv(t) dx(t) dv(t)
= = v(t) .
dt dx(t) dt dx(t)
rr

Se convierte en separable y se integra para obtener la velocidad:


r
2 2 dx(t) −k x(t)2 + C1
mv(t) = −kx(t) + C1 ⇒ v(t) = = . (6.21)
dt m
Bo

La posición será r !
k
x(t) = C1 sen t + C2 .
m

229
6.3. ALGUNAS APLICACIONES DE ECUACIONES DIFERENCIALES DE PRIMER ORDEN

a r
in
Figura 6.10: Trayectoria de la Flecha al abandonar el arco.

m
Para analizar el caso del lanzamiento de una flecha (23 g) por una arco de 30 lb (134 N) el cual un arquero
puede separarlo 0,72 m se obtiene la velocidad de salida de la flecha como
s
r 134
k 0,72

eli
vf = d = 0, 72 = 65 m/s
m 23 × 10−3

Es interesante mencionar que en 100 m la flecha baja una distancia de ≈ 11 m.

Sistemas de masa variable


Pr
Otro de los ejemplos interesantes es la evolución de sistemas de masa variable. El primero de los casos a
considerar tiene que ver con una barca de masa m0 que tiene una velocidad inicial v0 en su navegar, comienza
a llover y se va llenando de agua. El agua se acumula con una tasa σ (masa por unidad de tiempo). Se pide
encontrar la velocidad de la barca como función del tiempo.

P = mv = const = m0 v0
or

dm
si dt = σ = cont ⇒ m (t) = m0 + σt, y consecuentemente
m0
v (t) = v0 .
ad

m0 + σt
Un segundo caso tiene que ver con una masa M atada a una cadena de densidad lineal de masa ρ. Esta
masa se impulsa hacia arriba con una velocidad inicial v0 . Se pide encontrar el tiempo en que alcanza la
altura máxima. La ecuación de Newton para este caso se puede expresar como
rr

d (mv) dm dv
−Pmasa − Pcadena = ⇔ −M g − ρxg = v+ m
dt dt dt
o equivalentemente
Bo

M

ξ=+x ρ
dp 
−gρξ = , donde: y
dt
p = mv = ρξ dξ

dt

230
6.3. ALGUNAS APLICACIONES DE ECUACIONES DIFERENCIALES DE PRIMER ORDEN

con lo cual
dp
−gρξp = p ⇒ −gρξmdξ = pdp ⇒ −gρξρξdξ = pdp
dt
  3 
ξ p M 2
3
 p2
Z Z
2 2 ξ
2 ρ (m0 v0 )
− gρ ξ dξ = pdp ⇒ gρ  − = −
M
ρ m 0 v0 3 3 2 2
Z
ρξdξ
t − t0 = .

r
s  3
ξ3 ( Mρ ) (m0 v0 )2
2gρ2 3 − 3 + 2

a
Un cohete en movimiento

in
Finalmente el caso más emblemático es el movimiento de un cohete que consume una fracción importante
de su combustible. Llamemos v la velocidad de cohete para un instante de tiempo t y v 0 la velocidad de salida
de los gases respecto a tierra. Para ese instante t la cantidad de movimiento del cohete es mv un instante dt

m
más tarde la cantidad de movimiento será

p0 = (m + dm)(v + dv) + (−dm)v 0 = mv + m dv − dm (v 0 − v)


| {z } | {z } | {z }
cohete gases vel. rel.

eli
Entonces, el cambio en la cantidad de movimiento será

dp = p0 − p = mdv − vgases dm

y por lo tanto la ecuación de Newton


Pr
dv(t) dm X
m(t) − vgases = F
dt dt externas

Despreciando la resistencia del aire y suponiendo la gravedad constante, tendremos


or

dv(t) vgases dm
− = −g
dt m dt
integrando  
mi
− gt
ad

v = v0 + vgases ln
m(t)
si suponemos que el combustible se quema de la forma
dm
m(t) = mi (1 + αt) ↔ = α = cte .
dt
rr

La cantidad
dm
E = vgases ,
dt
Bo

se denomina el empuje del cohete.

231
6.3. ALGUNAS APLICACIONES DE ECUACIONES DIFERENCIALES DE PRIMER ORDEN

a r
Figura 6.11: Velocidad y posición del Cohete

in
6.3.7. Modelado de concentraciones de soluciones

m
Otro de los problemas tı́picos donde se aplican exitosamente las ecuaciones diferenciales son los problemas
de manejo de concentración de sustancias en soluciones lı́quidas. El principal objetivo, consiste en plantear
el problema en término del problema de valores iniciales que gobierna el fenómeno (ecuación diferencial +
condiciones iniciales). Para ello, en este tipo de problemas, siempre utilizaremos la regla intuitiva de

eli
Tasa de cambio de la concentración = Tasa de ingreso − Tasa de egreso

Ası́, tendremos que para un problema tı́pico en el cual inicialmente se encuentran diluidos en un recipiente
(un tanque) y0 gr de una sustancia en V0 litros de un lı́quido. A este tanque le cae otro lı́quido con una
Pr
concentración distinta de la misma sustancia a ventrada lit/min, mientras que vsalida lit/min salen del tanque.
Si suponemos que dentro del tanque sucede algún proceso de homogenización de la solución, la pregunta
tı́pica es que queremos saber la cantidad de sustancia que se encuentra en el tanque en un tiempo t. A la
concentración de la sustancia en el lı́quido de entrada (gr/lit), en un tiempo t, la denotaremos como C (t)
gr/lit. La figura (6.12) ilustra este proceso.
Para empezar notemos que, en esta situación el volumen no es constante. Por lo tanto, con el mismo
espı́ritu de la “ley de balanceo” que hemos propuesto, si las velocidades de ingreso y egreso son constantes,
or

nos queda que la variación del volumen inicial viene dada por la diferencia de estas velocidades, esto es

V 0 (t) = ventrada − vsalida ⇒ V (t) = V0 + (ventrada − vsalida ) t ,


ad

con lo cual también hemos integrado una ecuación diferencial para encontrar como variará el volumen con
el tiempo.
Para la construcción de la ecuación diferencial, procedemos de manera similar y si describimos la cantidad
de sustancia en el tanque como y (t), nos queda que la tasa de cambio de la cantidad de sustancia en el tanque
será     
lit  gr  lit y (t) gr
rr

0
y (t) = ventrada C (t) − vsalida
mı́n lit mı́n V0 + (ventrada − vsalida ) t lit
| {z } | {z }
Tasa de Ingreso Tasa de Egreso
Bo

Por lo tanto la ecuación diferencial tomará la forma tı́pica de una ecuación diferencial lineal de primer
orden inhomogénea
vsal
y 0 (t) + y (t) = vent C (t)
V0 + (vent − vsal ) t

232
6.3. ALGUNAS APLICACIONES DE ECUACIONES DIFERENCIALES DE PRIMER ORDEN

a r
in
Figura 6.12: Soluciones y tanques

m
que tendrá por solución
−vsal
!

y0

eli
vsal
! ((−vent + vsal ) t − V0 ) ent − vsal
v

(−V0 ) vent − vsal
y (t) =
| {z }
Respuesta a las Condiciones iniciales
vsal vsal
!

− ((−vent + vsal ) t −
Pr
V0 ) −vent + vsal
Z t
vent C (u) (u (vent − vsal ) + V 0) vent − vsal du
0
| {z }
Respuesta a la Exitación externa

Nótese lo genérico de esta solución. Por un lado, la concentración de la sustancia, C (t) , en la solución
que entra al sistema es distinta a la concentración de la sustancia presente en el tanque, más aún, puede
ser variable con el tiempo. Por otro lado esta solución presenta una singularidad (un infinito) cuando la
or

velocidad de ingreso es igual a la velocidad de egreso. Para este caso en el cual el volumen del tanque
permanece constante tendremos que resolver la ecuación diferencial
v
salida u
Z t  ! vsalida t
0 vsal −
ad

y (t) + y (t) = vent C (t) ⇒ y (t) = C (u) ventrada e V du + y0 e V


V0 0

Tal y como hemos mencionado varias veces (y seguiremos mencionando) la solución general para una ecua-
ción diferencial in homogénea se compone de dos soluciones, la solución de la ecuación diferencial homogénea
más la solución de la inhomogéna.
rr

ygeneral (x) = yhomogénea (x) + yinhomogénea (x) .


Este ejemplo nos permite constatar el sentido cada una de estas soluciones, vale decir
Bo

vsalida t vsalida t Z t v
salida u

− −
y (t) = y0e V +e V C (u) ventrada e V du
| {z } 0
Respuesta a las Condiciones Iniciales | {z }
Respuesta a la Exitación externa

233
6.3. ALGUNAS APLICACIONES DE ECUACIONES DIFERENCIALES DE PRIMER ORDEN

En esta es una visión que debemos conservar, en general para todas las ecuaciones lineales inhomogéneas
independientes del orden de la ecuación diferencial, ası́ recordando, dada una ecuación diferencial y su
solución tal que se cumple la condición inicial y (0) = y0 entonces siempre es posible
Z x
d Rx
−p(u)du
Rx
−p(u)du
R
y (x) + p (x) y (x) = g (x) ⇔ y (x) = y0 e 0 +e 0 g (u) e p(u)du du ,
dx | {z } 0
solución homgénea | {z }
Solución inhomogénea

donde ahora vemos claramente que la solución de la homogénea da cuenta a las condiciones iniciales del

r
proceso y la solución de la inhomogénea provee la respuesta a la excitación externa al sistema.
Este comportamiento de las soluciones es útil si nos planteamos que al tratar de “limpiar” una piscina,

a
a la cual le hemos añadido el doble de la cantidad de sulfatos permitida, y queremos saber cuanto tiempo
tenemos que mantener abierta una entrada de 120 lits/min de agua sin sulfatos y la salida de la piscina que

in
responde a 60 lits/min. La piscina en cuestión tiene 20 m de longitud, 10 m de ancho y 2 m de profundidad.
Siguiendo los pasos anteriormente planteados, tendremos que
 
lit
 

m
  60
vsal mı́n
y 0 (t) + y (t) = 0 ⇒ y 0 (t) + y (t) 
 
  =0
V0 + (vent − vsal ) t 
5
lit 
4 × 10 lit + (120 − 60) t
mı́n

eli
 
lit
 
60
mı́n y0
y 0 (t) + y (t) 
 
 
lit
  = 0 ⇒ y (t) = 20000 3t + 20000
4 × 105 lit + 60 t
mı́n
Pr 3
donde el volumen es V = 400m3 = 400 (100cm) = 4 × 108 cm3 = 4 × 108 10−3 lit = 4 × 105 lit.


Con lo cual el tiempo para que la cantidad final decaiga a la mitad de la inicial surge de
2y0
y0 = 20000 ⇒ t ≈ 6.666,66 minutos !!!!!
3t + 20000
or

6.3.8. Ejemplos
6.3.9. Practicando con Maxima
6.3.10. Ejercicios
ad
rr
Bo

234
Capı́tulo 7

a r
Ecuaciones diferenciales ordinarias de orden

in
mayor a 1

m
eli
Pr
or
ad
rr
Bo

235
Vamos a estudiar algunos métodos para resolver ecuaciones diferenciales ordinarias de orden mayor a 1,
esto es, ecuaciones del tipo
F[x, y(x), y 0 (x), y 00 (x), ..., y (n) (x)] = 0 .
Primero estudiemos las lineales.
Una ecuación diferencial lineal de orden n, es una ecuación de la forma

fn (x)y (n) (x) + fn−1 (x)y (n−1) (x) + · · · + f2 (x)y 00 (x) + f1 (x)y 0 (x) + f0 (x)y(x) = Q(x) , (7.1)

r
donde f0 (x), f1 (x), f2 (x), ..., fn (x) y Q(x) son funciones contı́nuas de x en un intervalo I y fn (x) 6= 0.
Si Q(x) 6= 0 la E.D.O se denomina una E.D.O. Lineal de orden n inhomogénea. Si Q(x) = 0 se llama una

a
E.D.O. Lineal de orden n homogénea.

Teorema: Si f0 (x), f1 (x), f2 (x), ..., fn (x) y Q(x) son todas funciones contı́nuas sobre un intervalo común

in
I, y fn (x) 6= 0 cuando x ∈ I, entonces la ecuación diferencial

fn (x)y (n) (x) + fn−1 (x)y (n−1) (x) + · · · + f2 (x)y 00 (x) + f1 (x)y 0 (x) + f0 (x)y(x) = Q(x) ,

m
tiene una y sólo una solución
y = y(x) ,
que satisface el conjunto de condiciones iniciales

eli
y(x0 ) = y0 , y 0 (x0 ) = y1 , y 00 (x0 ) = y2 , . . . , y (n) (x0 ) = yn−1 .

Donde x0 ∈ I y y0 , y1 , y2 , . . . , yn−1 son constantes.

Estudiemos algunas propiedades


Pr
1. La ecuación diferencial homogénea asociada a la ecuación (7.1), es decir, cuando Q(x) = 0:

fn (x)y (n) (x) + fn−1 (x)y (n−1) (x) + · · · + f2 (x)y 00 (x) + f1 (x)y 0 (x) + f0 (x)y(x) = 0 , (7.2)

tienen n soluciones linealmente independientes: y1 (x), y2 (x), y3 (x), . . . , yn (x).


or

2. La combinación lineal de esas soluciones

yh (x) = c1 y1 (x) + c2 y2 (x) + c3 y3 (x) + · · · + cn yn (x) ,


ad

donde c1 , c2 , c3 , . . . , cn son un conjunto de constantes arbitrarias, es también una solución de (7.2). De


dice que se tiene una familia n-paramétrica de soluciones de la ecuación (7.2).
3. La función
y(x) = yh (x) + yp (x) ,
rr

donde yp (x) es una solución particular de la ecuación diferencial inhomogénea (7.1), es una familia
n-paramétrica de soluciones de la ecuación (7.1).

4. Si yp (x) es una solución particular de (7.1), entonces αyp (x) es una solución de (7.1) si reemplazamos
Bo

Q(x) por αQ(x).

236
7.1. LINEALES HOMOGÉNEAS CON COEFICIENTES CONSTANTES

5. Si yp1 (x) es una solución de:

fn (x)y (n) (x) + fn−1 (x)y (n−1) (x) + · · · + f2 (x)y 00 (x) + f1 (x)y 0 (x) + f0 (x)y(x) = Q1 (x)

y yp2 (x) es una solución de

fn (x)y (n) (x) + fn−1 (x)y (n−1) (x) + · · · + f2 (x)y 00 (x) + f1 (x)y 0 (x) + f0 (x)y(x) = Q2 (x)

entonces yp (x) = yp1 (x) + yp2 (x) es una solución de

r
fn (x)y (n) (x) + fn−1 (x)y (n−1) (x) + · · · + f2 (x)y 00 (x) + f1 (x)y 0 (x) + f0 (x)y(x) = Q1 (x) + Q2 (x) .

a
Esta propiedad se conoce como el Principio de Superposición.

in
6. Si yp (x) = u(x) + iv(x) es una solución de

fn (x)y (n) (x) + fn−1 (x)y (n−1) (x) + · · · + f2 (x)y 00 (x) + f1 (x)y 0 (x) + f0 (x)y(x) = R(x) + iC(x) ,

m
entonces, la función u(x) es una solución de

fn (x)y (n) (x) + fn−1 (x)y (n−1) (x) + · · · + f2 (x)y 00 (x) + f1 (x)y 0 (x) + f0 (x)y(x) = R(x) ,

y la parte imaginaria v(x) es una solución de

eli
fn (x)y (n) (x) + fn−1 (x)y (n−1) (x) + · · · + f2 (x)y 00 (x) + f1 (x)y 0 (x) + f0 (x)y(x) = C(x) ,

7.1. Lineales homogéneas con coeficientes constantes


Pr
Por lo general, las ecuaciones del tipo (7.1) donde los coeficientes f0 (x), f1 (x), f2 (x), . . . , fn (x) no pre-
sentan ningún tipo de restricción no tienen soluciones exactas. Recordemos que las soluciones exactas son
aquellas que se pueden escribir en términos de funciones elementales. Sin embargo, si los coeficientes de (7.1)
son todos constantes es posible obtener soluciones exactas.
Una ecuación diferencial lineal con coeficientes constantes es una ecuación de la forma
or

an y (n) (x) + an−1 y (n−1) (x) + · · · + a2 y 00 (x) + a1 y 0 (x) + a0 y(x) = 0 , (7.3)

donde a0 , a1 , a2 , . . . , an son constantes y an 6= 0.


Consideremos (¡o adivinemos!) que una posible solución a la ecuación (7.3) tiene la forma
ad

y(x) = emx . (7.4)

Ahora bien, ¿que forma debe tener m para que (7.4) sea la solución de (7.3)? Sustituyamos la solución de
prueba (7.4) en (7.3):
rr

dn mx dn−1 mx d2 d
an e + an−1 e + · · · + a2 2 emx + a1 emx + a0 emx
dxn dx n−1 dx dx
an mn emx + an−1 mn−1 emx + · · · + a2 m2 emx + a1 memx + a0 emx = 0
Bo

n
an m + an−1 mn−1 + · · · + a2 m2 + a1 m + a0 = 0 (7.5)

De esta manera hemos respondido a la pregunta: el valor de m que hace que (7.4) sea la solución de
(7.3) es aquel valor que satisface ésta última ecuación algebraica de grado n. La ecuación (7.5) tendrá por lo

237
7.1. LINEALES HOMOGÉNEAS CON COEFICIENTES CONSTANTES

menos n raı́ces que denotaremos por: m1 , m2 , m3 , . . . , mn . Esto significa que cada función yi (x) = emi x con
i = 1, 2, 3 . . . será una solución de (7.3).
La ecuación (7.5) se denomina Ecuación Caracterı́stica de (7.3) y se obtiene de una manera muy sencilla
simplemente intercambiando y 0 (x) por m y el orden de la derivada por su correspondiente valor numérico.
Por ejemplo:
5y 00 (x) + 3y 0 (x) + y(x) = 0 ⇒ 5m2 + 3m + 1 = 0 .
Como se puede ver, la ecuación caracterı́stica

r
an mn + an−1 mn−1 + · · · + a2 m2 + a1 m + a0 = 0 ,

a
condicionará la solución de la siguiente forma

1. Si m es una raı́z real con multiplicidad k = 2 entonces las k soluciones asociadas con m serán de la

in
forma
emx , xemx , x2 emx , x3 emx , · · · , xk−1 emx .

2. Si m y m son parejas de soluciones complejas, α±iβ , del polinomio caracterı́stico y tienen multiplicidad

m
k, entonces las soluciones correspondientes serán

eαx cos(βx), eαx sen(βx), · · · , xk−1 eαx cos(βx), xk−1 eαx sen(βx) .

eli
Podemos ver algunos casos y ejemplos

La ecuación

24y 000 + 2y 00 − 5y 0 − y = 0 ⇔ 24r3 + 2r2 − 5r − 1 = (3r + 1)(2r − 1)(4r + 1) = 0 ,


Pr
consecuentemente tendrá las raı́ces
1 1 1
m1 = − , m2 = , m3 = − ,
3 2 4
y una solución de la forma
y(x) = C1 e−x/3 + C2 ex/2 + C3 e−x/4 .
or

La ecuación
y 000 + 3y 00 + 3y 0 + y = 0 ⇔ r3 + 3r2 + 3r + 1 = (r + 1)3 = 0 ,
con las raı́ces m = −1 y con multiplicidad k = 3, tendrá una solución de la forma
ad

y(x) = C1 e−x + C2 xe−x + C3 x2 e−x .

La ecuación
rr

4y (4) + 12y 000 + 49y 00 + 42y 0 + 10y = 0 ⇔ 4r4 + 12r3 + 49r2 + 42r + 10 = (r2 + 2r + 10)(2r + 1)2 = 0 ,

con raı́ces
1
m1 = −1 + 3i, m2 = −1 − 3i, m3 = − , con multiplicidad 2 .
Bo

2
Tendrá como solución

y(x) = e−x [C1 cos(3x) + C2 sen(3x)] + C3 e−x/2 + C4 xe−x/2

238
7.1. LINEALES HOMOGÉNEAS CON COEFICIENTES CONSTANTES

La ecuación

y (4) + 4y 000 + 24y 00 + 40y 0 + 100y = 0 ⇔ r4 + 4r3 + 24r2 + 40r + 100 = (r2 + 2r + 10)2 = 0 ,

tendrá las raı́ces


m1 = −1 + 3i, m2 = −1 − 3i, con multiplicidad 2 .
Y una solución de la forma

y(x) = e−x [C1 cos(3x) + C2 sen(3x) + C3 x cos(3x) + C4 xsen(3x)]

a r
La ecuación
4y 000 + 33y 0 − 37y = 0 ,

in
con
y(0) = 0; y 0 (0) = −1; y 00 (0) = 3 ⇔ 4r3 + 33r − 37 = (r − 1)(4r2 + 4r + 37) = 0 ,
consecuentemente con una solución general de la forma

m
y(x) = C1 ex + e−x/2 [C2 cos(3x) + C3 sen(3x)] ,

y con la solución particular

eli
 
8 x −x/2 8 19
y(x) = e −e cos(3x) + sen(3x) .
45 45 45

Como pudimos ver, al buscar las raı́ces de la ecuación caracterı́stica puede ocurrir varios casos los cuales
vamos a resumir a continuación.
Pr
7.1.1. Las raı́ces de la ecuación caracterı́stica son todas diferentes
Cuando las n raı́ces de la ecuación (7.5) son distintas entonces las n soluciones linealmente independientes
de (7.3) se pueden escribir como:

y1 (x) = em1 x , y2 (x) = em2 x , y3 (x) = em3 x , , yn (x) = emn x ,


or

...

por lo tanto, la solución general de (7.3) será

y(x) = c1 em1 x + c2 em2 x + c3 em3 x + · · · + cn emn x .


ad

7.1.2. Las raı́ces de la ecuación caracterı́stica se repiten


Cuando la ecuación caracterı́stica tiene una raı́z m = a que se repite k veces, entonces la solución general
de (7.3) es
rr

y(x) = c1 + c2 x + c3 x2 + · · · + cn xk−1 eax




Si la ecuación caracterı́stica presenta raı́ces múltiples puede ser que la ecuación caracterı́stica se pueda escribir
como una colección de productos de términos, por ejemplo, supongamos que la ecuación caracterı́stica se
Bo

puede factorizar de la forma siguiente

m2 (m − a)3 (m + b)4 (m + c) = 0 ,

239
7.1. LINEALES HOMOGÉNEAS CON COEFICIENTES CONSTANTES

en este caso se tiene que las raı́ces son

m = 0 (2 veces) → y1 = c1 + c2 x
y2 = c3 + c4 x + c5 x2 eax

m = a (3 veces) →
y3 = c6 + c7 x + c8 x2 + c9 x3 e−bx

m = −b (4 veces) →
m = −c (1 vez) → y4 = c10 e−cx

La solución general será entonces

r
y(x) = c1 + c2 x + c3 + c4 x + c5 x2 eax + c6 + c7 x + c8 x2 + c9 x3 e−bx + c10 e−cx .
 

a
7.1.3. Las raı́ces de la ecuación caracterı́stica son números complejos

in
Puede suceder también que las raı́ces resultantes sean números complejos. En este caso es bueno notar
que si lo coeficientes de la ecuación caracterı́stica son todos reales, entonces las raı́ces imaginarias que puedan
aparecer lo harán en la forma de pares conjugados, es decir, que si a+ib es una raı́z entonces a−ib también lo

m
será. Supongamos por un momento que m1 = a+ib y m2 = a−ib son dos raı́ces de la ecuación caracterı́stica,
entonces la solución de la ecuación diferencial de segundo orden asociada será:

y(x) = c1 e(a+ib)x + c2 e(a−ib)x = c1 eax eibx + c2 eax e−ibx = eax c1 eibx + c2 e−ibx
 

eli
si utilizamos la fórmula de Euler

y(x) = eax [c1 {cos(bx) + isen(bx)} + c2 {cos(bx) − isen(bx)}]


= eax [(c1 + c2 ) cos(bx) + i(c1 − c2 ) sen(bx)]
Pr
= eax [C1 cos(bx) + i C2 sen(bx)]

lo que viene a ser una segunda manera de escribir la solución de la ecuación diferencial.

7.1.4. Ejemplos
1. Queremos encontrar la solución general de
or

y 000 + 2y 00 − y 0 − 2y = 0 .

La ecuación caracterı́stica asociada a la ecuación diferencial es


ad


 m1 = 1
m3 + 2m2 − m − 2 = 0 ⇒ m2 = −1
m3 = −2

por lo tanto, la solución general es:


rr

y(x) = c1 ex + c2 e−x + c3 e−3x .

2. Intentemos encontrar la solución general de


Bo

y 0000 − 3y 00 + 2y 0 = 0 .

240
7.2. LINEALES NO HOMOGÉNEAS CON COEFICIENTES CONSTANTES

La ecuación caracterı́stica asociada a la ecuación diferencial es




 m1 =0
m2 =1

m4 − 3m2 + 2m = 0 ⇒

 m3 =1
m4 = −2

la solución será
y(x) = c1 + (c2 + c3 x) ex + c4 e−2x .

r
3. Encontremos la solución general de

a
y 0000 + 2y 00 + 1 = 0 .

La ecuación caracterı́stica asociada a la ecuación diferencial es

in


 m1 =i
m2 =i

2
m4 + 2m2 + 1 = 0 ⇒ m2 + 1 = 0 ⇒

m3 = −i

m


m4 = −i

la solución será entonces de la forma

y(x) = (c1 + c2 x)eix + (c3 + c4 x)e−ix .

eli
4. Veamos otro ejemplo, encontrar la solución general de

y 000 − 8y 00 + 22y 0 − 20y = 0 .


Pr
La ecuación caracterı́stica asociada es

 m1 = 2
m3 − 8m2 + 22m − 20 = 0 ⇒ (m − 2) m2 − 6m + 10 = 0 ⇒

m2 = 3 + i
m3 = 3 − i

la solución será:
or

y(x) = c1 e2x + c2 e(3+i)x + c3 e(3−i)x


= c1 e2x + e3x c2 eix + c3 e−ix
 
ad

= c1 e2x + e3x [C2 cos(x) + i C3 sen(x)] .

7.1.5. Practicando con Maxima


7.1.6. Ejercicios
rr

7.2. Lineales no homogéneas con coeficientes constantes


Antes de entrar de lleno en los métodos de solución de ecuaciones diferenciales no homogéneas vamos
Bo

a estudiar una herramienta que es utilizada para demostrar que un conjunto de soluciones es linealmente
independiente. Hablaremos de el wronskiano.
Pero primero que todo recordemos el concepto de independencia y dependencia lineal de funciones.

241
7.2. LINEALES NO HOMOGÉNEAS CON COEFICIENTES CONSTANTES

Definición: Independencia y dependencia lineal.


Sean n funciones f1 (x), f2 (x), f3 (x), f4 (x), · · · fn (x), cuando menos n − 1 veces diferenciables.
Entonces, el conjunto S = {f1 (x), f2 (x), f3 (x), f4 (x), · · · fn (x)}, se dice linealmente dependiente en
el intervalo I, si existen algunas constantes, c1 , c2 , c3 , c4 , · · · cn distintas de cero tal que
n
X
ci fi (x) = c1 f1 (x) + c2 f2 (x) + · · · + cn fn (x) = 0
i=1

r
Por el contrario, si no existe ninguna constante ci 6= 0, se dirá que S es linealmente independiente.

a
7.2.1. El wronskiano

in
Definición: Wronskiano.
El conjunto S = {f1 (x), f2 (x), f3 (x), f4 (x), · · · fn (x)} de funciones, cuando menos n − 1 veces
diferenciables, conforman el wronskiano,

m
W (S) = W (f1 (x), f2 (x), f3 (x), f4 (x), · · · fn (x))

a través del siguiente determinante

···

f1 (x) f2 (x) fn (x)

eli

f10 (x) 0
··· fn0 (x)

f 2 (x)
W (S) = .. .. ..

..
. . . .
(n−1) (n−1) (n−1)

f
1 (x) f2 (x) · · · fn (x)
Pr
Si W (S) 6= 0 al menos en un punto dentro del intervalo I, entonces S es linealmente independiente

Definamos ahora lo que se denomina un conjunto fundamental de soluciones.

Definición: Conjunto fundamental de soluciones.


El conjunto S = {f1 (x), f2 (x), f3 (x), f4 (x), · · · fn (x)} de n soluciones no triviales a la ecuación
diferencial:
or

a0 (x) y(x) + a1 (x) y 0 (x) + · · · + an (x) y (n) (x) = 0, (7.6)


Se le denomina conjunto fundamental de soluciones.
La combinación lineal
ad

n
X
f (x) = ci fi (x) = c1 f1 (x) + c2 f2 (x) + · · · + cn fn (x)
i=1

también es solución de la ecuación diferencial (7.6) y se denomina como solución general de (7.6).
rr

Adicionalmente, si los coeficientes ai (x) son continuos en el intervalo abierto I, para todo i =
1, 2, · · · , n, entonces la ecuación diferencial (7.6) tiene un conjunto fundamental de n soluciones lineal-
mente independientes.
Bo

Esto nos lleva a distinguir entre los diferentes tipos de soluciones.

242
7.2. LINEALES NO HOMOGÉNEAS CON COEFICIENTES CONSTANTES

Definición: Soluciones particulares y generales.


Dada una ecuación diferencial lineal no homogénea

a0 (x) y(x) + a1 (x) y 0 (x) + · · · + an (x) y (n) (x) = Q(x) (7.7)

Si yp (x) es solución de (7.7) sin constantes arbitrarias, entonces yp (x) se denomina solución particular
de (7.7). De igual modo, se denominará solución general de (7.7) a la suma de la solución, yh (x), de la
ecuación homogénea (7.6) más la solución particular:

r
y(x) = yh (x) + yp (x) .

a
Anteriormente vimos que la solución general de la ecuación diferencial

in
an y (n) (x) + an−1 y (n−1) (x) + · · · + a2 y 00 (x) + a1 y 0 (x) + a0 y(x) = Q(x) ,

se puede escribir como


y(x) = yh (x) + yp (x) ,

m
donde yh (x) es la solución de la ecuación diferencial homogénea asociada a la no homogénea, es decir, cuando
Q(x) = 0, y yp (x) es una solución particular de la ecuación diferencial no homogénea.
Como ya sabemos de un método para resolver la ecuación homogénea queda preguntarse como se hace
para calcular una solución particular. Veamos algunos métodos.

eli
7.2.2. El método de los coeficientes indeterminados
Este método se utiliza si la función Q(x) esta conformada por funciones que tienen un número finito
de derivadas linealmente independientes, es decir, que Q(x) contenga únicamente términos del tipo: a, xk ,
Pr
eax , sen (ax), cos(ax) y combinaciones lineales de tales términos. Por ejemplo, si Q(x) = sen(ax) podemos
construir un conjunto con las derivadas sucesivas, esto es:

sen (ax) → a cos(ax) , −a2 sen (ax) , −a3 cos(ax) , a4 sen (ax) . . .


pero de este conjunto infinito únicamente las funciones: {sen (ax) , cos(ax)} son linealmente independientes.
or

Otros ejemplos son:

x3
 2
→ 3x , 6x , 6
 
1 1 2 6
→ − 2 , 3 , − 4 ,...
ad

x x x x

Podemos estudiar el wronskiano de este conjunto de funciones para ver si son linealmente independientes.
Para el ejemplo anterior tenemos

f1 (x) f2 (x) sen (ax) cos(ax)
rr

= −asen2 (ax) − a cos2 (ax)



=
0
f1 (x) f20 (x)

a cos(ax) −asen (ax)
= −a sen2 (ax) + cos2 (ax) = −a 6= 0 .
 
Bo

Volviendo al punto que tiene que ver con la búsqueda de yp (x), para el método de los coeficientes
indeterminados necesitamos comparar los términos de Q(x) con los de yh (x) y pueden resultar los siguientes
casos:

243
7.2. LINEALES NO HOMOGÉNEAS CON COEFICIENTES CONSTANTES

Caso 1 La funciones Q(x) y yh (x) no contienen términos en común. En este caso, se construye una solución
particular yp (x) con el conjunto conformado por Q(x) y todas sus derivadas linealmente independientes.
Por ejemplo, encuentremos la solución general de

y 00 + 4y 0 + 4y = 4x2 + 6ex .

Si resolvemos la ecuación homogénea: y 00 + 4y 0 + 4y = 0, encontraremos que

yh (x) = (c1 + c2 x)e−2x

r
Queda claro que Q(x) y yh (x) no contienen términos en común. La solución particular la construiremos

a
de esta manera:
Q(x) = 4x2 + 6ex →
 2
∪ {ex }

x , x, 1

in
| {z } |{z}
x2 ex

No hace falta tomar en cuenta las constantes. La solución particular será una combinación lineal de
los elementos que resultan de la unión de esos conjuntos

m
yp (x) = Ax2 + Bx + C + Dex

donde las constantes A, B, C, D tendrán que ser determinadas.

eli
Una vez que la solución es propuesta, no queda más que derivar y sustituir en la ecuación diferencial
problema:

yp0 (x) = 2Ax + B + Dex


yp00 (x) = 2A + Dex
Pr
Al sustituir en la ecuación diferencial resulta

[2A + Dex ] + 4 [2Ax + B + Dex ] + 4 Ax2 + Bx + C + Dex = 4x2 + 6ex


 

4Ax2 + [8A + 4B] x + [2A + 4B + 4C] + 9Dex = 4x2 + 6ex

igualando coeficientes
or



 4A = 4

8A + 4B = 0 3 2
⇒ A = 1 , B = −2 , C = ,D= ,
2A + 4B + 4C = 0 2 3
ad



9D = 6

por lo tanto, la solución general es


3 2 x
y(x) = yh (x) + yp (x) = (c1 + c2 x)e−2x + x2 − 2x + + e
rr

2 3

Caso 2 Los términos de Q(x) aparecen como xk veces un término de la solución yh (x), donde k es un entero
positivo. Esto es, si la función yh (x) contiene un término, digamos u(x), tal que un término de Q(x)
Bo

es xk u(x) entonces una solución particular se puede construir con una combinación lineal de xk+1 u(x)
y todas las derivadas linealmente independientes. En todo lo anterior se ignoran las constantes. Si
Q(x) contienen términos que cumplen con el Caso 1 estos también deben ser agregados a la solución
particular.

244
7.2. LINEALES NO HOMOGÉNEAS CON COEFICIENTES CONSTANTES

Por ejemplo, dada la siguiente ecuación diferencial

y 00 − 3y 0 + 2y = 2x2 + 3e2x .

Si resolvemos la ecuación homogénea: y 00 − 3y 0 + 2y = 0, encontraremos que

yh (x) = c1 ex + c2 |{z}
e2x
u(x)

r
Notemos que
u(x)

a
z}|{
2 2x 2x
Q(x) = 2x + 3 |{z}
e → e = x e2x
0
→ k = 0.

in
La solución particular se puede construir a partir del siguiente conjunto:
 2x 2x  2
xe , e ∪ x , x, 1
| {z } | {z }
x0+1 e2x x2

m
Del primer conjunto no tomamos en cuenta el término e2x porque éste ya aparece en yh (x). Por lo
tanto, la solución particular será una combinación lineal de los elementos que resultan de la unión de
esos conjuntos:  2x 2

eli

xe , x , x , 1 ,
esto significa que proponemos como solución particular la siguiente:

yp (x) = Ax2 + Bx + C + Dxe2x .

Derivando:
Pr
yp0 (x) = 2Ax + B + 2Dxe2x + De2x
yp00 (x) = 2A + 4Dxe2x + 4De2x .

Al sustituir en la ecuación diferencial resulta


or

2A + 4Dxe2x + 4De2x − 3 2Ax + B + 2Dxe2x + De2x + 2 Ax2 + Bx + C + Dxe2x = 2x2 + 3e2x


     

2Ax2 + [2B − 6A] x + [2A − 3B + 2C] + De2x = 2x2 + 3e2x .

Igualando coeficientes
ad



 2A = 2

2B − 6A = 0 7
⇒ A = 1, B = 3, C = , D = 3,

 2A − 3B + 2C = 0 2
D = 3

rr

por lo tanto, la solución general es


7
y(x) = c1 ex + c2 e2x + x2 + 3x + + 3xe2x .
Bo

Caso 3 Este caso se aplica si se cumplen las siguientes condiciones

245
7.2. LINEALES NO HOMOGÉNEAS CON COEFICIENTES CONSTANTES

1. La ecuación caracterı́stica de la ecuación diferencial homogénea tiene una raı́z multiple que se
repite r veces.
2. Q(x) contiene un término que es xk veces un término, digamos u(x), de la solución yh (x). La
función u(x) se obtiene de la raı́z múltiple.

En este caso, la solución particular será una combinación lineal de xk+r u(x) y todas las derivadas
linealmente independientes. Si además Q(x) contiene términos que correspondan al Caso 1 estos deben
agregarse.

r
Por ejemplo, dada la ecuación
y 00 + 4y 0 + 4y = 3xe−2x .

a
Si resolvemos la ecuación homogénea: y 00 + 4y 0 + 4y = 0, encontraremos que

in
yh (x) = c1 e−2x + c2 x |{z}
e−2x ⇒ m1 = −2 , m2 = −2 ⇒ r = 2
u(x)

Notemos que

m
u(x)
z}|{
−2x −2x
| {z } ⇒ xe
Q(x) = 3 xe = x1 e−2x ⇒ k = 1 .

La solución particular se puede construir a partir del siguiente conjunto:

eli
 3 −2x 2 −2x
, xe−2x , e−2x

x e ,x e
| {z }
x1+2 e−2x

No tomaremos en cuenta los términos xe−2x , e−2x porque estos ya aparecen en yh (x). Por lo tanto,

Pr
la solución particular será la siguiente combinación lineal

yp (x) = Ax3 e−2x + Bx2 e−2x .

Se deriva

yp0 (x) = −2Ax3 e−2x + 3Ax2 e−2x − 2Bx2 e−2x + 2Bxe−2x


or

yp00 (x) = 4Ax3 e−2x − 12Ax2 e−2x + 6Axe−2x + 4Bx2 e−2x − 8Bxe−2x + 2Be−2x

Se sustituye en la ecuación diferencial


ad

4Ax3 e−2x − 12Ax2 e−2x + 6Axe−2x + 4Bx2 e−2x − 8Bxe−2x + 2Be−2x +


 

4 −2Ax3 e−2x + 3Ax2 e−2x − 2Bx2 e−2x + 2Bxe−2x + 4 Ax3 e−2x + Bx2 e−2x = 3xe−2x
   

6Axe−2x + 2Be−2x = 3xe−2x


rr

igualando coeficientes 
6A = 3 1
⇒ A= , B = 0,
2B = 0 2
Bo

por lo tanto, la solución general es


1
y(x) = c1 e−2x + c2 xe−2x + x3 e−2x .
2

246
7.2. LINEALES NO HOMOGÉNEAS CON COEFICIENTES CONSTANTES

7.2.3. Método de la variación de parámetros


Vamos a continuar con el estudio de los métodos para resolver ecuaciones del tipo:

an y (n) (x) + an−1 y (n−1) (x) + · · · + a2 y 00 (x) + a1 y 0 (x) + a0 y(x) = Q(x) , (7.8)

donde a0 , a1 , a2 , ..., an son constantes y an 6= 0.


El método de los coeficientes indeterminados, para encontrar una solución particular de (7.30), esta
limitado por la condición de que la función Q(x) sea una función con la que se pueda construir un conjunto
finito de derivadas linealmente independientes. Estudiemos un método que quita esta restricción.

r
Por simplicidad, para desarrollar este método vamos a considerar el caso n = 2, luego veremos como

a
generalizar al caso de orden n. Es decir, vamos a estudiar la ecuación

a2 y 00 (x) + a1 y 0 (x) + a0 y(x) = Q(x) , a2 6= 0 , (7.9)

in
donde Q(x) es una función continua y diferente de cero. Si y1 (x) y y2 (x) son un par de soluciones linealmente
independientes de la ecuación diferencial homogénea asociada a (7.9), es decir, de la ecuación

a2 y 00 (x) + a1 y 0 (x) + a0 y(x) = 0 , (7.10)

m
entonces, vamos a proponer que una solución particular de la ecuación (7.9) es de la forma:

yp (x) = u1 (x)y1 (x) + u2 (x)y2 (x) , (7.11)

eli
donde u1 (x) y u2 (x) son dos funciones a determinar.
Derivando:

yp0 (x) = u01 (x)y1 (x) + u1 (x)y10 (x) + u02 (x)y2 (x) + u2 (x)y20 (x)
=
Pr
[u1 (x)y10 (x) + u2 (x)y20 (x)] + [u01 (x)y1 (x) + u02 (x)y2 (x)]
yp00 (x) = u001 (x)y1 (x) + u01 (x)y10 (x) + u01 (x)y10 (x) + u1 (x)y100 (x)
+ u002 (x)y2 (x) + u02 (x)y20 (x) + u02 (x)y20 (x) + u2 (x)y200 (x)
0
= [u1 (x)y100 (x) + u2 (x)y200 (x)] + [u01 (x)y10 (x) + u02 (x)y20 (x)] + [u01 (x)y1 (x) + u02 (x)y1 (x)]

y sustituyendo en (7.9) resulta:


or

0
a2 [u1 (x)y100 (x) + u2 (x)y200 (x)] + a2 [u01 (x)y10 (x) + u02 (x)y20 (x)] + a2 [u01 (x)y1 (x) + u02 (x)y2 (x)] +
a1 [u1 (x)y10 (x) + u2 (x)y20 (x)] + a1 [u01 (x)y1 (x) + u02 (x)y2 (x)] + a0 [u1 (x)y1 (x) + u2 (x)y2 (x)] = Q(x)
ad

acomodando términos:
=0 =0
z }| { z }| {
u1 (x) [a2 y100 (x) + a1 y10 (x) + a0 y1 (x)] + u2 (x) [a2 y200 (x) + a1 y20 (x) + a0 y2 (x)] +
0
a2 [u01 (x)y10 (x) + u02 (x)y20 (x)] + a2 [u01 (x)y1 (x) + u02 (x)y2 (x)] + a1 [u01 (x)y1 (x) + u02 (x)y2 (x)] = Q(x)
rr

Es claro que lo que tenemos es una ecuación con dos incógnitas: u01 (x) y u02 (x), pero como buscamos una
solución particular podemos tomar de esta última ecuación el siguiente caso:
Bo


u0 (x)y1 (x) + u02 (x)y2 (x) = 0
 1


(7.12)
Q(x)
 u01 (x)y10 (x) + u02 (x)y20 (x) =


a2

247
7.2. LINEALES NO HOMOGÉNEAS CON COEFICIENTES CONSTANTES

La solución de este sistema resulta ser:



0
Q(x) y2
y1 0
Q(x)

0 y0
y 2 1

u01 (x) = a2 = G1 (x) , 0
u2 (x) = a2
= G2 (x)
y
10 y 2

y10 y2
y1 y20 y1 y20
Integrando y omitiendo las constantes de integración:
Z Z

r
u1 (x) = G1 (x) dx , u2 (x) = G2 (x) dx

a
por lo tanto, la solución general es:

in
y(x) = C1 y1 (x) + C2 y2 (x) + u1 (x) y1 (x) + u2 (x) y2 (x) .

Si la ecuación diferencial es de orden n, se puede demostrar que

yp (x) = u1 (x)y1 (x) + u2 (x)y2 (x) + · · · + un (x)yn (x) (7.13)

m
será una solución particular de la ecuación no homogénea, donde y1 (x), y2 (x), . . . , yn (x) son las n soluciones
linealmente independientes de la ecuación diferencial homogénea.
Sustituyendo la ecuación (7.13), para la solución particular, en la ecuación diferencial y siguiendo el

eli
mismo procedimiento que para el caso de orden 2 se tendrı́a que resolver el siguiente sistema de ecuaciones:


 u01 (x)y1 (x) + u02 (x)y2 (x) + · · · + u0n (x)yn (x) = 0




u01 (x)y10 (x) + u02 (x)y20 (x) + · · · + u0n (x)yn0 (x) = 0





..
.
..
.
Pr
..
.
..
.
..
.
..
.
..
.
..
.
.
= ..
Q(x)

 u01 (x)y1(n−1) (x) + u02 (x)y2(n−1) (x) + · · · + u0n (x)yn(n−1) (x) =



an
Consideremos un ejemplo, encontremos la solución general de

y 00 − 3y 0 + 2y = sen e−x .

or

Cuando se resuelve la ecuación diferencial homogénea asociada a la ecuación diferencial del problema se tiene

y 00 − 3y 0 + 2y = 0 ⇒ yh (x) = C1 ex + C2 e2x ,
ad

por lo tanto: y1 = ex y y2 = e2x .


Como ya hicimos el desarrollo para n = 2 podemos ir directamente al sistema resultante:
u01 (x)ex + u02 (x)e2x = 0



sen (e−x )
rr

 u0 (x)ex + 2u0 (x)e2x



=
1 2
1
Al resolver el sistema resulta:
Bo

x
0 e2x e 0
sen (e−x ) 2e2x −x
x
−e2x sen (e−x ) e sen (e ) ex sen (e−x )
u01 (x) = x
2x
= , u02 (x) = x 2x
=
e
x e 2x e3x ex e 2x e3x
e 2e e 2e

248
7.2. LINEALES NO HOMOGÉNEAS CON COEFICIENTES CONSTANTES

a r
Figura 7.1: A la izquierda la solución y(x) = 52 e−4x + 35 ex y a la derecha la solución y(x) = C1 e−4x + C2 ex

in
para C1 = {−1, 0, 1} y C2 = {−1, 0, 1}

m
Integrando por partes:

sen (e−x ) sen (e−x )


Z Z
dx = − cos e−x , dx = −sen e−x + e−x cos e−x
  
u1 (x) = − u2 (x) =

eli
ex e2x
La solución particular es entonces:

yp (x) = − cos e−x ex + −sen e−x + e−x cos e−x e2x = −e2x sen e−x ,
    

por lo tanto, la solución general resulta ser


Pr
y(x) = C1 ex + C2 e2x − e2x sen e−x


7.2.4. Ejemplos
or

1. La ecuación
a y 00 + b y 0 + c y = 0 ⇔ a r2 + b r + c = 0
tiene asociada ese polinomio caracterı́stico y sus raı́ces m1 y m2 condicionan la solución de la manera
siguiente:
ad

a) Si m1 6= m2 y m1 y m2 son reales, entonces la solución es

y = C1 em1 x + C2 em2 x
rr

b) Si m1 = m2 y m1 y m2 son reales, entonces la solución es

y = C1 em1 x + C2 xem1 x
Bo

c) Si m1 = α + iβ con β 6= 0 y m2 = m1 = α − iβ, entonces la solución es

y = eαx [C1 cos (βx) + C2 sen (βx)]

249
7.2. LINEALES NO HOMOGÉNEAS CON COEFICIENTES CONSTANTES

a r
in
Figura 7.2: y(x) = C1 e−x + C2 xe−x para C1 = {−1, 0, 1} y C2 = {−1, 0, 1}

m
2. La ecuación

y 00 + 3y 0 − 4y = 0; y(0) = 1 ∧ y 0 (0) = −1 ⇔ r2 + 3r − 4 = (r + 4)(r − 1) = 0

tiene asociado ese polinomio caracterı́stico y por lo tanto tiene como solución general

eli
2 −4x 3 x
y(x) = C1 e−4x + C2 ex y como solución particular y(x) = e + e
5 5
En la figura 7.1 se encuentra graficada esa solución particular. De igual modo, para distintos valores
Pr
de C1 = {−1, 0, 1} y C2 = {−1, 0, 1} tendremos las gráficas representadas en la figura 7.1 ¿Cuáles son
las condiciones iniciales a las cuales corresponden esos valores de las constantes?
3. Otra ejemplo es el siguiente, dada la ecuación

y 00 + 2y 0 + y = 0; y(0) = 1 ∧ y 0 (0) = −1 ⇔ r2 + 2r + 1 = (r + 1)2 = 0 ,

que tiene como solución general


or

y(x) = C1 e−x + C2 xe−x y como solución particular y(x) = e−x

Para distintos valores de C1 = {−1, 0, 1} y C2 = {−1, 0, 1} tendremos las gráficas representadas en la


ad

figura 7.2. Cabe seguir preguntando ¿Cuáles son las condiciones iniciales a las cuales corresponden esos
valores de las constantes?
4. Finalmente, la ecuación

y 00 + 4y 0 + 20y = 0; y(0) = 3 ∧ y 0 (0) = −1 ⇔ r2 + 4r + 20 = (r + 2)2 + 16 = 0


rr

con las siguientes soluciones r = −2 ± 4i y por lo tanto tiene como solución general

y(x) = e−2x [C1 cos(4x) + C2 sen(4x)] ,


Bo

y como solución particular  


5
y(x) = e−2x 3 cos(4x) + sen(4x) .
4

250
7.2. LINEALES NO HOMOGÉNEAS CON COEFICIENTES CONSTANTES

a r
Figura 7.3: A la izquierda la solución y(x) = e−2x 3 cos 4x + 54 sen4x y a la derecha la solución y(x) =


in
e−2x (C1 cos 4x + C2 sen4x) para C1 = {−1, 0, 1} y C2 = {−1, 0, 1}

m
La representación gráfica se encuentra en la figura 7.3 y para distintos valores de las constantes. Al
igual que en los casos anteriores, para distintos valores de las constantes de integración, tendremos las
gráficas de la figura 7.3
5. Otro ejemplo interesante es la ecuación inhomogénea de Cauchy1 -Euler2

eli
a0 y(x) + a1 x y 0 (x) + · · · + an xn y (n) (x) = F(x)

con los ai = ctes, puede ser resuelta por este método. Consideremos una ecuación de orden 2
Pr
c y(x) + b x y 0 (x) + a x2 y 00 (x) = F(x)

La solución de la homogénea se propone como yh = xm por lo tanto

c y(x) + b x y 0 (x) + a x2 y 00 (x) = 0


c x + b x mxm−1 + a x2 m(m − 1)xm−2 = 0
m

xm (c + bm + am(m − 1)) = 0
or

por lo tanto
am2 + (b − a)m + c = 0
ad

con p
−(b − a) ± (b − a)2 − 4ac
m=
2a
por lo tanto
rr

a) Si m1 6= m2 y ambas reales, entonces la solución de la homogénea será

yh = C1 xm1 + C2 xm2
1 Louis Augustin Baron de Cauchy (1789-1857). Matemático francés, uno de los creadores del análisis matemático
Bo

moderno. Estudió, entre otras cuestiones, los criterios de convergencia de series, las funciones de variable compleja y los sistemas
de ecuaciones diferenciales
2 Leonhard Euler (1707-1783). Matemático suizo. Destacó en el estudio de diversas cuestiones del cálculo logarı́tmico y

diferencial, ası́ como de las series algebraicas y la trigonometrı́a.

251
7.2. LINEALES NO HOMOGÉNEAS CON COEFICIENTES CONSTANTES

b) Si m1 = m2 y ambas reales, entonces la solución de la homogénea será

yh = xm1 (C1 + C2 ln x)

c) Si m1 = m2 = α + iβ , entonces la solución de la homogénea será

yh = xα (C1 cos(β ln x) + C2 sen(β ln x))

Ahora para lograr la solución de la inhomogénea suponemos el caso m1 6= m2 por lo tanto

r
y1h = xm1 y2h = xm2

a
xm 2 xm2

0 0
F (x) F (x)
m2 xm2 −1 m2 xm2 −1

in

a x2 = a x2
u01 = m1 m2
= G1 (x)
x x W (y1 , y2 )
m1 xm1 −1 m2 xm2 −1

xm 1 xm 1

0 0

m

F (x) F (x)

m1 x 1m −1 m1 −1
a x2
m 1 x a x2

u02 = = = G2 (x)
xm 1 xm 2 W (y 1 , y2 )
m1 xm1 −1 m2 xm2 −1

eli
La siguiente ecuación diferencial
1
x2 y 00 − xy 0 + 5y =
x
tiene como solución de la homogénea
Pr
yh = x (C1 cos(2 ln x) + C2 sen(2 ln x))

la solución particular por el método de variación de los parámetros queda como

yp = u1 (x) yh1 + u2 (x) yh2

calculando los coeficientes respectivos en donde el Wronskiano


or

W (x cos(2 ln x); x sen(2 ln x)) = 2x

por lo cual los coeficientes quedan


ad

xsen(2 ln x) x1
Z Z
1
u1 = G1 (x) dx = dx = cos(2 ln x)
2x 4

x cos(2 ln x) x1
Z Z
1
u2 = G2 (x) dx = dx = sen(2 ln x)
2x 4
rr

finalmente las solución particular será


 
1 1 1
yp = x cos2 (2 ln x) + sen2 (2 ln x) = x
Bo

4 4 4
y la general
1
y = x (C1 cos(2 ln x) + C2 sen(2 ln x)) + x
4

252
7.3. LINEALES NO HOMOGÉNEAS CON COEFICIENTES NO CONSTANTES

7.2.5. Practicando con Maxima


7.2.6. Ejercicios

7.3. Lineales no homogéneas con coeficientes no constantes


Ahora vamos a desarrollar un método para resolver ecuaciones diferenciales lineales:

fn (x)y (n) (x) + fn−1 (x)y (n−1) (x) + · · · + f2 (x)y 00 (x) + f1 (x)y 0 (x) + f0 (x)y(x) = Q(x) , (7.14)

r
donde f0 (x), f1 (x), . . . , fn (x) y Q(x) son funciones continuas de x en un intervalo común I, además fn (x) 6= 0.

a
7.3.1. Método de reducción del orden

in
Para aplicar este método, primero que todo, debemos poder encontrar una solución (no trivial) de la
ecuación diferencial homogénea asociada a (7.14)

fn (x)y (n) (x) + fn−1 (x)y (n−1) (x) + · · · + f2 (x)y 00 (x) + f1 (x)y 0 (x) + f0 (x)y(x) = 0 . (7.15)

m
Consideremos, por simplicidad, el caso n = 2:

f2 (x)y 00 (x) + f1 (x)y 0 (x) + f0 (x)y(x) = Q(x) . (7.16)

eli
y sea y1 (x) una solución (no trivial) de la ecuación diferencial homogénea asociada a (7.16):

f2 (x)y 00 (x) + f1 (x)y 0 (x) + f0 (x)y(x) = 0 . (7.17)

El método permitirá encontrar una segunda solución de la ecuación homogénea y también una solución
particular de (7.16).
Pr
Sea y2 (x) una segunda solución de la ecuación diferencial homogénea y vamos a suponer que tiene la
forma Z
y2 (x) = y1 (x) u(x)dx , (7.18)

donde u(x) es una función a determinar. Por lo tanto:


or

Z
y20 (x) = y1 (x)u(x) + y10 (x) u(x)dx (7.19)
Z
y200 (x) = y1 (x)u0 (x) + 2y10 (x)u(x) + y100 (x) u(x)dx (7.20)
ad

sustituyendo en (7.17) resulta:


 Z   Z 
f2 (x) y1 (x)u0 (x) + 2y10 (x)u(x) + y100 (x) u(x)dx + f1 (x) y1 (x)u(x) + y10 (x) u(x)dx
rr

 Z 
+f0 (x) y1 (x) u(x)dx = 0
Z
[f2 (x)y100 (x) + f1 (x)y10 (x) + f0 (x)y1 (x)] u(x)dx + f2 (x)y1 (x)u0 (x) + [2f2 (x)y10 (x) + f1 (x)y1 (x)] u(x) = 0
Bo

Como el primer término de la última ecuación es idénticamente igual a cero, entonces:

f2 (x)y1 (x)u0 (x) + [2f2 (x)y10 (x) + f1 (x)y1 (x)] u(x) = 0 , (7.21)

253
7.3. LINEALES NO HOMOGÉNEAS CON COEFICIENTES NO CONSTANTES

acomodando términos
Z Z Z
du dy1 (x) f1 (x) du dy1 (x) f1 (x)
+2 =− dx ⇒ +2 =− dx
u y1 (x) f2 (x) u y1 (x) f2 (x)
esto es:
Z
f1 (x)
ln |u(x)| + 2 ln |y1 (x)| = − dx
f2 (x)

r
Z
f1 (x)
ln |u(x)(y1 (x))2 | = − dx
f2 (x)

a
 Z 
2 f1 (x)
u(x)(y1 (x)) = exp − dx
f2 (x)

in
 Z 
1 f1 (x)
u(x) = exp − dx
(y1 (x))2 f2 (x)

Por lo tanto, si logramos integrar esta última ecuación estaremos encontrando una segunda solución

m
linealmente independiente de (7.17):
Z  Z 
1 f1 (x)
y2 (x) = y1 (x) exp − dx dx . (7.22)
(y1 (x))2 f2 (x)

eli
Consideremos el siguiente ejemplo para encontrar la solución general de

x2 y 00 + xy 0 − y = 0 ,
Pr
donde y1 = x es una solución de la ecuación diferencial y x 6= 0.
Como esta ecuación es de orden 2, podemos ir directamente a la ecuación (7.22) en lugar de hacer el
desarrollo nuevamente, esto es:
Z  Z  Z Z
1 x 1 1 1
y2 (x) = x 2
exp − 2
dx dx = x 2
exp [− ln |x|] dx = x 3
dx = −
x x x x 2x
or

por lo tanto:
1
yh (x) = C1 x + C2 .
x
Si queremos encontrar una solución particular de la ecuación no homogénea (7.16), también podemos
ad

utilizar la solución de prueba (7.18). Repitiendo los cálculos que nos llevaron a la ecuación (7.21) resultará
que ahora tenemos:

f2 (x)y1 (x)u0 (x) + [2f2 (x)y10 (x) + f1 (x)y1 (x)] u(x) = Q(x)
 0 
0 y1 (x) f1 (x) Q(x)
u (x) + 2 + u(x) = (7.23)
rr

y1 (x) f2 (x) f2 (x)y1 (x)

y esta ecuación es simplemente una ecuación diferencial lineal de primer orden para u(x). Esto significa que
debemos encontrar el factor integrador
Bo

Z  0  
y1 (x) f1 (x)
µ(x) = exp 2 + dx
y1 (x) f2 (x)

254
7.3. LINEALES NO HOMOGÉNEAS CON COEFICIENTES NO CONSTANTES

para luego escribir la solución:


Z
1 Q(x) C
u(x) = µ(x) dx + . (7.24)
µ(x) f2 (x)y1 (x) µ(x)
Consideremos otro ejemplo para encontrar la solución de
x2 y 00 + xy 0 − y = x ,
En el ejemplo anterior vimos que la ecuación homogénea tiene dos soluciones linealmente independientes:

r
x2 y 00 + xy 0 − y = 0 ⇒ y1 (x) = x , y2 (x) = x−1

a
Podemos entonces proponer la siguiente solución particular para la ecuación diferencial no homogénea:
Z

in
yp (x) = x u(x)dx ,

En lugar de repetir los cálculos que consisten en derivar yp (x) un par de veces y sustituir en la ecuación
diferencial problema, podemos ir directamente al grano pues ya sabemos el resultado, esto es, la ecuación

m
(7.23):  
1 x x 3 1
u (x) + 2 + 2 u(x) = 3 ⇒ u0 (x) + u(x) = 2
0
x x x x x
el factor integrador para esta ecuación es

eli
3 3
R
µ(x) = e x dx = eln |x| = x3
por lo tanto:
1
u(x) = 3
Z
x3 C
dx + 3 ⇒
Pr 1
u(x) = 3
Z
xdx +
C
⇒ u(x) =
1 x2 C
+ 3
x x2 x x x3 x3 2 x
Como lo que queremos es una solución particular podemos omitir la constante de integración:
1
u(x) =
2x
or

y la solución particular es entonces


Z
1 x
yp (x) = x dx = ln |x|
2x 2
La solución general de la ecuación diferencial resulta ser:
ad

x
y(x) = C1 x + C2 x−1 + ln |x| .
2

7.3.2. La ecuación de Euler


rr

La ecuación inhomogénea de Cauchy3 -Euler4 es la siguiente


an xn y (n) (x) + an−1 xn−1 y (n−1) (x) + · · · + a1 xy 0 (x) + a0 y(x) = Q(x) (7.25)
Bo

3 Louis Augustin Baron de Cauchy (1789-1857). Matemático francés, uno de los creadores del análisis matemático

moderno. Estudió, entre otras cuestiones, los criterios de convergencia de series, las funciones de variable compleja y los sistemas
de ecuaciones diferenciales.
4 Leonhard Euler (1707-1783). Matemático suizo. Destacó en el estudio de diversas cuestiones del cálculo logarı́tmico y

diferencial, ası́ como de las series algebraicas y la trigonometrı́a.

255
7.3. LINEALES NO HOMOGÉNEAS CON COEFICIENTES NO CONSTANTES

donde los ai son constantes. Esta ecuación puede ser resuelta por el método que se describe a continuación.
Consideremos, por razones de simplicidad, una ecuación de orden 2:

a2 x2 y 00 (x) + a1 xy 0 (x) + a0 y(x) = Q(x) .

Propondremos que la ecuación homogénea tiene como solución una función de la forma: y = xm , esto es:

a2 x2 y 00 (x) + a1 xy 0 (x) + a0 y(x) = 0


a2 x m(m − 1)xm−2 + a1 xmxm−1 + a0 xm = 0
2

r
xm [a2 m(m − 1) + a1 m + a0 ] = 0

a
por lo tanto
p
2 −(a1 − a2 ) ± (a1 − a2 )2 − 4a2 a0

in
a2 m + (a1 − a2 )m + a0 = 0 ⇒ m= .
2a2
Esto significa que se pueden presentar los siguientes casos:

m
1. Si m1 6= m2 y ambas reales, entonces la solución de la homogénea será

yh = C1 xm1 + C2 xm2

eli
2. Si m1 = m2 = m y ambas reales, entonces la solución de la homogénea será

yh = xm (C1 + C2 ln |x|)

3. Si m1 = m2 = α + iβ , entonces la solución de la homogénea será


Pr
yh = xα [C1 cos(β ln |x|) + C2 sen(β ln |x|)] .

Para buscar la solución de la ecuación inhomogénea vamos a suponer el caso m1 6= m2 , por lo tanto,
tomaremos como punto de partida las dos soluciones linealmente independientes de la ecuación homogénea:

y1 = xm1 y2 = xm2 .
or

Podemos aplicar el método de variación de parámetros que vimos anteriormente. (Queda como ejercicio
repetir los cálculos que llevaron al sistema (7.12)). Por lo tanto, en nuestro caso resulta que
ad


0
xm 2


xm1 0

Q(x) Q(x)
m2 −1 m1 −1

a x2 m2 x m
1
x
2
a2 x2
u01 = = G1 (x) , u0
2 =
= G2 (x)
xm 1 xm 2 xm1 xm2
m1 xm1 −1 m2 xm2 −1 m1 xm1 −1 m2 xm2 −1

rr

Consideremos el siguiente ejemplo.


1
x2 y 00 − xy 0 + 5y =
x
Bo

tiene como solución de la homogénea:

yh = x [C1 cos(2 ln |x|) + C2 sen(2 ln |x|)] ,

256
7.3. LINEALES NO HOMOGÉNEAS CON COEFICIENTES NO CONSTANTES

la solución particular por el método de variación de los parámetros queda como


yp = u1 (x) y1 + u2 (x) y2 ,
calculando los coeficientes respectivos, en donde el Wronskiano es:

x cos(2 ln |x|) x sen(2 ln |x|)
W [x cos(2 ln |x|) ; x sen(2 ln |x|)] = = 2x ,
cos(2 ln |x|) − 2 sen(2 ln |x|) sen(2 ln |x|) + 2 cos(2 ln |x|)
resulta:

r
sen(2 ln |x|)
Z Z
1
u1 = G1 (x) dx = dx = cos(2 ln |x|) ,
2x 4

a
cos(2 ln |x|)
Z Z
1
u2 = G2 (x) dx = dx = sen(2 ln |x|) ,
2x 4

in
finalmente las solución particular será
 
1 1 1
yp = x cos2 (2 ln |x|) + sen2 (2 ln |x|) = x ,
4 4 4

m
por lo tanto, la solución general es:
1
y = x [C1 cos(2 ln |x|) + C2 sen(2 ln |x|)] + x .
4

eli
La ecuación de Euler puede representarse de una manera más general:
a0 y(x) + a1 (x − x0 )y 0 (x) + · · · + an (x − x0 )n y (n) (x) = Q(x) , (7.26)
donde x0 también es una constante. El siguiente cambio de variable:
Pr
x − x0 = eu ⇒ u = ln(x − x0 )
transforma la ecuación de Euler en una ecuación lineal con coeficientes constantes. Para ver esto, consideremos
el caso n = 3, es decir:
a0 y(x) + a1 (x − x0 )y 0 (x) + a2 (x − x0 )2 y 00 (x) + a3 (x − x0 )3 y 000 (x) = Q(x) . (7.27)
or

Notemos que:
dy dy dx dy
= = (x − x0 )
du dx du dx
d2 y dy 2
2d y
ad

− = (x − x0 )
du2 du dx2
d3 y d2 y dy d3 y
3
− 3 2
+2 = (x − x0 )3 3 ,
du du du dx
al sustituir en la ecuación (7.27) resulta:
rr

    2 
1 dy 1 d y dy
a0 y(u) + a1 (x − x0 ) + a2 (x − x0 )2 −
(x − x0 ) du (x − x0 )2 du2 du
  3 2 
1 d y d y dy
Bo

+ a3 (x − x0 )3 −3 2 +2 = Q(u)
(x − x0 )3 du3 du du
 2  3
d2 y
 
dy d y dy d y dy
a0 y(u) + a1 + a2 − + a3 − 3 + 2 = Q(u) ,
du du2 du du3 du2 du

257
7.3. LINEALES NO HOMOGÉNEAS CON COEFICIENTES NO CONSTANTES

factorizando:
dy d2 y d3 y
a0 y(u) + (a1 − a2 + 2a3 )+ (a2 − 3a3 ) 2 + a3 3 = Q(u) .
du du du
Esta última es una ecuación diferencial lineal con coeficientes constantes que ya sabemos resolver.

7.3.3. Ejemplos
7.3.4. Practicando con Maxima

r
7.3.5. Ejercicios

a
cos(x) es una solución particular de y 00 −3y 0 +2y =
1 3
 1 3

1. Si yp (x) = 10 cos(x) − 10 sen(x) +i 10 sen(x) + 10
eix . Encuentre una solución particular de:

in
a) y 00 − 3y 0 + 2y = cos(x).
b) y 00 − 3y 0 + 2y = sen(x).
Verifique la validez de los resultados.

m
2. Demuestre que la solución yh (x) = eax [C1 cos(bx) + i C2 sen(bx)] se puede escribir de alguna de las
siguientes formas:
yh (x) = Ceax sen(bx + D) o yh (x) = Ceax sen(bx − D)

eli
donde C y D son constantes.
3. Resuelva las siguientes ecuaciones diferenciales
a) y 00 + 2y = 0
Pr
b) y 00 − 3y + 2y = 0
c) y 00 − y = 0
d ) y 000 + y 00 − 6y 0 = 0
e) y 00 + 3y + 2y = 4
f ) y 00 + 3y + 2y = 12ex
or

g) y 00 + 3y + 2y = sen(x)
h) y 00 + 3y + 2y = cos(x)
i ) y 00 + 3y + 2y = 8 + 6ex + 2sen(x)
ad

j ) y 00 − 3y 0 + 2y = 2xe3x + 3sen (x)


4. Resuelva las siguientes ecuaciones diferenciales por variación de parámetros
a) y 00 + 4y 0 + 4y = 3xe−2x
rr

b) y 00 + y 0 = tan(x) , − π2 < x < π


2

5. Resuelva las siguientes ecuaciones diferenciales por el método de reducción de orden.


Bo

a) x2 y 00 + xy 0 − 4y = x3 , y1 (x) = x2
b) x2 y 00 + xy 0 − y = x2 e−x , y1 (x) = x
6. Resuelva las siguientes ecuaciones de Euler

258
7.3. LINEALES NO HOMOGÉNEAS CON COEFICIENTES NO CONSTANTES

a) (x − 3)2 y 00 + (x − 3)y 0 + y = x, x 6= 3
2 00 0
b) x y + xy = 0, x 6= 0
c) x y + 2x y − xy 0 + y = x,
3 000 2 00
x 6= 0
7. Resuelva utilizando el método de variación de parámetros y verifique los resultados

a) y 00 + y = sec(x)
b) y 00 + y = sec3 (x)

r
c) y 00 + 3y 0 + 2y = 12ex

a
d ) y 00 + y = 4xsen(x)
e) x2 y 00 − xy 0 + y = x, y1h = x, y2h = x ln(x)

in
00 2 0 2
f) y − xy + x2 y = x ln(x), y1h = x, y2h = x2
g) x2 y 00 + xy 0 − 4y = x3 , y1h = x2 , y2h = x−2
8. Resuelva utilizando el método de reducción del orden y verifique los resultados

m
a) x2 y 00 − xy 0 + y = 0, y1h = x
b) y 00 − 2 0
xy + 2
x2 y = 0, y1h = x
c) (2x2 + 1)y 00 − 4xy 0 + 4y = 0, y1h = x

eli
d ) 2x2 y 00 + 3xy 0 − y = 0, y1h = x1/2
2 00 0 3
e) x y + xy − 4y = x , y1h = x2
f ) y 00 + (x2 − 1)y 0 − x2 y = 0, y1h = ex
g) x2 y 00 − 2y = 2x2 , y1h = x2
Pr
9. Demuestre que las siguientes sustituciones
R R R R
y=e y1 (x)dx
, y 0 = y1 (x)e y1 (x)dx
, y 00 = y12 (x)e y1 (x)dx
+ y10 (x)e y1 (x)dx
,

transforman la ecuación lineal


or

f2 (x)y 00 + f1 (x)y 0 + f0 (x)y = 0


en la siguiente ecuación de Riccati:

f0 (x) f1 (x)
y10 = − − y1 − y12
ad

f2 (x) f2 (x)
R
donde, si y1 (x) es solución de la ecuación de Riccati, entonces y = e y1 (x)dx es solución de la ecuación
lineal. Aplique las sustituciones anteriores para trasformar la ecuación
rr

xy 00 − y 0 − x3 y = 0.

en una ecuación de Riccati y trate de resolver estas dos ecuaciones.


Bo

259
7.4. EL OPERADOR DIFERENCIAL Y LAS ECUACIONES DIFERENCIALES

7.4. El operador diferencial y las ecuaciones diferenciales


7.4.1. El operador diferencial
Un operador es un objeto matemático que convierte una función en otra, por ejemplo, el operador
derivada convierte una función en una función diferente llamada la función derivada. Podemos definir el
operador derivada D que al actuar sobre una función diferenciable produce la derivada de esta, esto es:
D0 f (x) = f (x) , D1 f (x) = f 0 (x) , D2 f (x) = f 00 (x) , . . . , Dn f (x) = f (n) (x) .

r
Es posible construir la siguiente combinación lineal con los operadores diferenciales:

a
P (D) = a0 + a1 D + a2 D2 + · · · + an Dn , an 6= 0 . (7.28)
donde a2 , a1 , a2 , . . . an son constantes. A este nuevo objeto lo podemos llamar el operador polinomial de orden

in
n.
La utilidad de este objeto matemático quedará clara si hacemos la siguiente definición
P (D)y ≡ an Dn + an−1 Dn−1 + · · · + a2 D2 + a1 D + a0 y


m
= an Dn y + an−1 Dn−1 y + · · · + a2 D2 y + a1 Dy + a0 y
= an y (n) + an−1 y (n−1) + · · · + a2 y 00 + a1 y 0 + a0 y . (7.29)
Por otro lado, recordemos que una ecuación diferencial lineal de orden n con coeficientes constantes es

eli
una ecuación de la forma
an y (n) + an−1 y (n−1) + · · · + a2 y 00 + a1 y 0 + a0 y = Q(x) , (7.30)
por lo tanto, (7.30) se puede escribir de una manera compacta como
Pr P (D)y = Q(x) . (7.31)
El operador polinomial es lineal, esto significa que tiene las siguientes propiedades
Si f1 (x) y f2 (x) son dos funciones diferenciables de orden n, entones
P (D) [αf1 (x) + βf2 (x)] = αP (D)f1 (x) + βP (D)f2 (x)
donde α y β son constantes. Además:
or

Si y1 (x), y2 (x), . . . , yn (x) son n soluciones de la ecuación diferencial homogénea P (D)y = 0 entonces
yh (x) = C1 y1 (x) + C2 y2 (x) + · · · + Cn yn (x) es también una solución.
Si yh (x) es una solución de P (D)y = 0 y yp (x) es una solución de P (D)y = Q(x) entonces y(x) =
ad

yh (x) + yp (x) es una solución de P (D)y = Q(x).


Si yp1 (x), yp2 (x), . . . , ypn (x) son soluciones particulares de las respectivas n ecuaciones
P (D)y = Q1 (x), P (D)y = Q2 (x), . . . , P (D)y = Qn (x)
rr

resulta entonces que


P (D) [yp1 (x) + yp2 (x) + · · · + ypn (x)] = Q1 (x) + Q2 (x) + · · · + Qn (x)
implica que
Bo

yp (x) = yp1 (x) + yp2 (x) + · · · + ypn (x)


es una solución de
P (D)y = Q1 (x) + Q2 (x) + · · · + Qn (x)

260
7.4. EL OPERADOR DIFERENCIAL Y LAS ECUACIONES DIFERENCIALES

Por ejemplo, encontremos una ecuación particular de


y 00 + y = x2 + xe2x + 3 ⇒ D2 + 1 y = x2 + xe2x + 3 .


Por alguno de los métodos anteriormente vistos podemos encontrar las soluciones particulares de cada
una de las siguientes ecuaciones
D 2 + 1 y = x2 , D2 + 1 y = xe2x , D2 + 1 y = 3
  

las soluciones son, respectivamente

r
 
2 1 2x 4
yp1 (x) = x − 2 , yp2 (x) = xe − e2x , yp3 (x) = 3
5 5

a
por lo tanto, una solución particular de la ecuación diferencial problema es

in
   
2 1 2x 4 2x 2 1 2x 4 2x
yp (x) = x − 2 + xe − e +3=x +1+ xe − e .
5 5 5 5
Al operador diferencial también se le pueden agregar las siguientes propiedades. Consideremos los ope-
radores

m
P1 (D) = an Dn + an−1 Dn−1 + · · · + a2 D2 + a1 D + a0 (7.32)
n n−1 2
P2 (D) = bn D + bn−1 D + · · · + b2 D + b1 D + b0 (7.33)

eli
con n ≥ m.
 
(P1 +P2 )f (x) = P1 f (x)+P2 f (x) = an Dn + · · · + an Dn + · · · + (a2 + b2 )D2 + (a1 + b1 )D + a0 + b0 f (x)
[g(x)P (D)] f (x) = g(x) [P (D)f (x)]
Pr
g(x) [P1 (D) + P2 (D)] f (x) = g(x) [P1 (D)f (x)] + g(x) [P2 (D)f (x)]
[P1 (D)P2 (D)] f (x) = P1 (D) [P2 (D)f (x)]
Si el operador polinomial diferencial puede ser factorizado, es decir, si:
P (D) = an Dn + an−1 Dn−1 + · · · + a2 D2 + a1 D + a0 = an (D − m1 )(D − m2 ) · · · (D − mn ) ,
las cantidades: m1 , m2 , . . . , mn son las raices de la ecuación caracterı́stica de P (D)y = 0.
or

Si
P (D) = an Dn + an−1 Dn−1 + · · · + a2 D2 + a1 D + a0 ,
es un operador polinomial de orden n, entonces:
ad

n n−1 2
P (D + a) = an (D + a) + an−1 (D + a) + · · · + a2 (D + a) + a1 (D + a) + a0
donde a es una constante.
Por ejemplo:
rr

(D − 2D − 3) sen(x) + x2 = (D + 1)(D − 3) sen(x) + x2


   

= (D + 1) (D − 3) sen(x) + x2
  

= (D + 1) cos(x) + 2x − 3sen(x) − 3x2


 
Bo

= −sen(x) + 2 − 3 cos(x) − 6x + cos(x) + 2x − 3sen(x) − 3x2


= −4sen(x) − 2 cos(x) − 3x2 − 4x + 2

261
7.4. EL OPERADOR DIFERENCIAL Y LAS ECUACIONES DIFERENCIALES

Teorema: Si
P (D) = an Dn + an−1 Dn−1 + · · · + a2 D2 + a1 D + a0
es un operador polinomial diferencial con coeficientes constantes y u(x) es una función n veces diferen-
ciable, entonces:
P (D) [ueax ] = eax P (D + a)u ,
donde a es una constante.

Vamos a evaluar la siguiente expresión

r
D2 − D + 3 x3 e−2x
 

a
Al comparar la forma de esta expresión con la de teorema anterior, vemos que a = −2 y u(x) = x3 .

in
Por lo tanto, si hacemos
2
P (D − 2) = (D − 2) − (D − 2) + 3 = D2 − 5D + 9

se obtiene que

m
D2 − D + 3 x3 e−2x = e−2x (D − 2) x3 = e−2x D2 − 5D + 9 x3 = e−2x 9x3 − 15x2 + 6x .
   

7.4.2. Solución de ecuaciones diferenciales lineales con el operador polinomial

eli
El método puede aplicarse a ecuaciones diferenciales de orden n, ya que si se tiene que

(D − m1 )(D − m2 ) · · · (D − mn )y = Q(x) ,

entonces se puede definir la función u como


Pr
u = (D − m2 ) · · · (D − mn )y ,

y lo que queda es resolver una ecuación diferencial lineal de primer orden

(D − m1 )u = Q(x) .
or

Una vez resuelta la ecuación para u se sustituye en:

(D − m2 )(D − m3 ) · · · (D − mn )y = u(x)

Repitiendo el proceso,
ad

v = (D − m3 ) · · · (D − mn )y ⇒ (D − m2 )v = u(x)
Integrando:
(D − m3 ) · · · (D − mn )y = v(x)
Esta repetición nos llevará entonces hasta la solución y(x).
rr

Para resolver ecuaciones del tipo

an y (n) + an−1 y (n−1) + · · · + a2 y 00 + a1 y 0 + a0 y = Q(x) , an 6= 0 ,


Bo

es decir, con coeficientes constantes, vamos a estudiar el siguiente ejemplo:


Consideremos el siguiente ejemplo:

y 000 + 2y 00 − y 0 − 2y = e2x .

262
7.4. EL OPERADOR DIFERENCIAL Y LAS ECUACIONES DIFERENCIALES

Al escribir esta ecuación utilizando el operador diferencial resulta

D3 + 2D2 − D − 2 y = e2x ⇒ (D − 1) (D + 1) (D + 2) y = e2x




Si llamamos u = (D + 1) (D + 2) y entonces se puede ver que

(D − 1) u = e2x ⇒ u0 − u = e2x ⇒ u = e2x + C1 ex

Conocida la función u entonces se tiene que

r
(D + 1) (D + 2) y = e2x + C1 ex

a
Repetimos el proceso, pero ahora hacemos v = (D + 2) y, por lo tanto

in
1 2x C1 x
(D + 1) v = e2x + C1 ex ⇒ v 0 + v = e2x + C1 ex ⇒ v = e + e + c2 e−x
3 2
Conocida v, entonces

m
1 2x C1 x
(D + 2) y = e + e + c2 e−x
3 2
Integrando una vez más:

eli
1 2x C1 x 1 2x
y 0 + 2y = e + e + c2 e−x ⇒ y(x) = e + C1 ex + c2 e−x + C3 e−2x .
3 2 12
Notemos que existe una manera bastante sencilla de resolver la ecuación combinando varios métodos. Si
buscamos yh (x) a través de la ecuación caracterı́stica se obtiene que la solución es: yh (x) = C1 ex + c2 e−x +
C3 e−2x . Ahora bien, una solución particular se obtiene al considerar u(x) = e2x entonces v = 13 e2x y por lo
1 2x
tanto yp (x) = 12 e .
Pr
7.4.3. El operador inverso
Los operadores suelen tener su inversa, esto significa que si

P (D)y = Q(x) ⇒ P −1 (D)P (D)y = P −1 (D)Q(x) ⇒ yp = P −1 (D)Q(x) ,


or

donde yp (x) es una solución particular de P (D)y = Q(x). Notemos que esto significa que
Z Z Z
−n
ad

D Q(x) = ···
|{z} Q(x)dx .
n veces

Por ejemplo, evaluar


D−2 (2x + 3) .
rr

Se tiene entonces lo siguiente:


Z Z
−2 −1 −1 2 1 3
D (2x + 3) = D (2x + 3)dx = D (x + 3x) = (x2 + 3x)dx = x3 + x2 .
3 2
Bo

De todos modos es fácil verificar que yp = 31 x3 + 32 x2 es una solución particular de D2 y = 2x + 3.


El operador inversa de P (D), es decir P −1 (D), puede también representarse como 1/P (D). Debe quedar
claro que su significado radica en el hecho de que al actuar sobre Q(x) produce una solución particular yp .

263
7.4. EL OPERADOR DIFERENCIAL Y LAS ECUACIONES DIFERENCIALES

Esta última notación resulta ser a veces más conveniente y dependiendo de la forma de Q(x) puede resultar
algunas veces de fácil solución.
En general, se tiene que sı́

P (D)y = an Dn + an−1 Dn−1 + · · · + a1 D + a0 y = Q(x) ,




entonces
1 1
yp = [Q(x)] =  [Q(x)]

r

P (D) a0 1 + a1 a2 2 + ··· + an−1 n−1 an n
a0 D + a0 D a0 D + a0 D

a
1
1 + c1 D + c2 D2 + · · · + cn−1 Dn−1 + cn Dn [Q(x)] , a0 6= 0 ,

=
a0

in

donde el término 1 + c1 D + c2 D2 + · · · + cn−1 Dn−1 + cn Dn /a0 es la expansión en serie de 1/P (D).
Por otro lado, notemos que si a0 = 0, entonces

P (D)y = an Dn + an−1 Dn−1 + · · · + a1 D y = D an Dn−1 + an−1 Dn−2 + · · · + a1 y = Q(x) ,


 

m
Si ambos a0 = 0 y a1 = 0, entonces se puede seguir factorizando. Por lo tanto, en general:

P (D)y = Dr an Dn−r + · · · + ar+1 D + ar y = Q(x) .




eli
esto significa que
1 1
yp = [Q(x)] = [Q(x)] ar 6= 0
P (D) Dr (an Dn−r + · · · + ar+1 D + ar )

=
1

Pr 1
[Q(x)]


Dr (an Dn−r + · · · + ar+1 D + ar )

Muchos cálculos se simplificarán notablemente por la forma que pueda tener la función Q(x), por ejemplo,
si Q(x) = bxk , entonces
P (D)y = bxk .
Note que si k = 0, entonces:
or

1 b
yp = [b] = , a0 6= 0 .
P (D) a0
porque b es constante.
ad

Encontremos una solución particular de

y 00 − 2y 0 − 3y = 5 ⇒ (D2 − 2D − 3)y = 5 ,

aquı́ podemos ver que: a0 = −3, a1 = −2, a2 = 1, b = 5 y k = 0, y por lo tanto:


rr

1 5
yp = [5] = − .
P (D) 3

7.4.4. El operador polinomial inverso y fracciones parciales


Bo

La mejor manera de ilustrar el método es con un ejemplo. Consideremos la siguiente ecuación diferencial:

y 000 − 5y 00 + 8y 0 − 4y = 2e4x ⇒ D3 − 5D2 + 8D − 4 y = 2e4x .




264
7.4. EL OPERADOR DIFERENCIAL Y LAS ECUACIONES DIFERENCIALES

Busquemos su solución general.


Podemos notar que
D3 − 5D2 + 8D − 4 = (D − 2)2 (D − 1) ,
por lo tanto
1  4x  1 1
yp = P −1 (D) [Q(x)] =
 4x   4x 
2e = 3 2
2e = 2
2e
P (D) D − 5D + 8D − 4 (D − 2) (D − 1)
podemos hacer una expansión en fracciones parciales

r
1 1 1 1
= − +

a
(D − 2)2 (D − 1) D − 1 D − 2 (D − 2)2
por lo tanto:

in
1  4x  1  4x  1  4x 
yp = 2e − 2e + 2
2e .
D−1 D−2 (D − 2)
Ahora estamos en capacidad de resolver cada término por separado:

m
2e4x 2e4x 2e4x e4x
yp = − + = .
3 2 4 6
Par otro lado, la familia de soluciones de la ecuación homogénea es

eli
yh = (C1 + C2 x)e2x

y la solución general resulta ser entonces:


e4x
Pr
y(x) = (C1 + C2 x)e2x +
6
.

7.4.5. Ejemplos
1. Encontrar una solución particular de

4y 00 − 3y 0 + 9y = 5x2 ⇒ (4D2 − 3D + 9)y = 5x2 ,


or

ahora: a0 = 9, a1 = −3, a2 = 4, b = 5 y k = 2, esto significa que:


   
1  2 1  2 5 1 1 2  2 5 2 2 2
yp = 5x =  5x = 1+ D− D x = x + x− .
P (D) 9 1 − 39 D + 94 D2 9 3 3 9 3 3
ad

 
Cuando se hace la expansión en serie de 1/P (D) no hace falta ir más allá de D3 , ya que D3 x2 = 0.
2. Encontrar una solución particular de

y (5) − y (3) = 2x2 ⇒ (D5 − D3 )y = 2x2 ⇒ D3 (D2 − 1)y = 2x2


rr

por lo tanto:  
1  2 1 1  2
yp = 2x = 3 2x .
P (D) D D2 − 1
Bo

Trabajamos por partes,


1  2 1  2
2x = 2x ,
D2 −1 2
(−1) (1 − D )

265
7.4. EL OPERADOR DIFERENCIAL Y LAS ECUACIONES DIFERENCIALES

aquı́ a0 = −1, a1 = 0, a2 = 1, b = 2 y k = 2, por lo tanto


1  2 1  2
x = −2 1 + D2 x2 = −2(x2 + 2)
 
2
2x = −2 2
D −1 (1 − D )
ahora tenemos que
x5 x3
 
1 
−2(x2 + 2) = −2D−3 x2 + 2 = −2
  
yp = 3
+ .
D 60 3

r
3. Si Q(x) = beax , entonces
P (D)y = beax

a
Se puede demostrar (queda como ejercicio) que una solución particular de esta ecuación es
1 beax

in
yp = [beax ] = , P (a) 6= 0 .
P (D) P (a)
Encuentremos una solución particular de
y 000 − y 00 + y 0 + y = 3e−2x .

m
Entonces
(D3 − D2 + D + 1)y = 3e−2x ,
aquı́ b = 3 y a = −2, por lo tanto:

eli
1  −2x  3e−2x 3e−2x 3
yp = 3e = = = − e−2x ,
P (D) P (−2) (−2) − (−2)2 + (−2) + 1
3 13

4. Si Q(x) = b cos(ax) o Q(x) = b sen(ax). En este caso podemos utilizar la fórmula de Euler y volver al
caso anterior.
Pr
Encuentremos una solución particular de
y 00 − 3y 0 + 2y = 3sen(2x) ,
entonces:
(D2 − 3D + 2)y = 3sen(2x) ,
or

sabemos que: e2ix = cos(2x) + isen(2x) y que la parte imaginaria de una solución particular de
(D2 − 3D + 2)y = 3e2ix
será una solución de nuestro problema. Por lo tanto, con b = 3 y a = 2i se tiene:
ad

1  2ix  3e−2x 3e−2x 3e−2x 3(1 − 3i)e−2x


yp = 3e = = 2
= =
P (D) P (2i) (2i) − 3(2i) + 2 −2(1 + 3i) −20
3 3
= − (1 − 3i)(cos(2x) + isen(2x)) = − [cos(2x) + 3sen(2x) + i(sen(2x) − 3 cos(2x))]
20 20
rr

la parte imaginaria de esta última ecuación será nuestra solución particular


3
yp = − [sen(2x) − 3 cos(2x)] .
20
Bo

5. Si Q(x) = Q1 (x) + Q2 (x) + · · · + Qn (x), entonces


1 1 1 1
yp = [Q(x)] = [Q1 (x)] + [Q2 (x)] + · · · + [Q2 (x)]
P (D) P (D) P (D) P (D)

266
7.5. ECUACIONES DIFERENCIALES Y LAS TRANSFORMADAS DE LAPLACE

7.4.6. Practicando con Maxima


7.4.7. Ejercicios
1. Resuelva la ecuación
y 00 + y = ex .

2. Encuentre la solución general de


y 00 − y = x3 + 3x − 4 .

r
7.5. Ecuaciones diferenciales y las transformadas de Laplace

a
7.5.1. Algunas definiciones previas

in
En general vamos a definir una transformación integral, F (s), de una función, f (t) como
Z b
F (s) = K (s, t) f (t)dt = T {f (t)} , (7.34)

m
a

donde K (s, t) es una función conocida de s y t, denominada el núcleo de la transformación. Si a y b son


finitos la transformación se dirá finita, de lo contrario infinita. Dependiendo de la selección del núcleo y los
limites tendremos distintas transformaciones integrales. En Fı́sica las más comunes son las siguientes

eli
Nombre F (s) = T {f (t)} f (t) = T−1 {F (s)}
R∞ R γ+i∞
Laplace L(s) = 0
e−st f (t)dt f (t) = 1
2πi γ−i∞
est L(s)ds
Pr
q Z ∞ q Z ∞
2 sen(st) 2 sen(ts)
Fourier de senos y cosenos F(s) = π f (t)dt f (t) = π F(s)ds
0 cos(st) 0 cos(ts)
Z ∞ Z ∞
Fourier compleja F(s) = √1

e ist
f (t)dt f (t) = √1

e−ist F(s)ds
−∞ −∞
or

Z ∞ Z ∞
Hankel (Fourier-Bessel) F (s) = tJn (st)f (t)dt f (t) = sJn (ts)F (s)ds
0 0
Z ∞ R γ+i∞
Mellin M(s) = ts−1 f (t)dt f (t) = 1
s−t M(s)ds
ad

2πi γ−i∞
0

La idea detrás de la utilidad de las transformaciones integrales puede resumirse en el siguiente esquema
−→ transformación directa −→
rr

relación para F (s)


EDO para f (t)
F (s) = T {f (t)} eventualmente más fácil
↓ ↓
solución directa solución para F (s)
Bo

difı́cil más fácil


↓ ↓
←− transformación inversa ←−
se encuentra f (t) se encuentra F (s)
f (t) = T−1 {F (s)}

267
7.5. ECUACIONES DIFERENCIALES Y LAS TRANSFORMADAS DE LAPLACE

7.5.2. Transformada de Laplace


En nuestro caso ilustraremos el uso de transformaciones integrales con la transformada de Laplace, que
denotaremos de manera simbólica como F (s) = L [f (t)]. Esto es:
Z ∞
F (s) = L [f (t)] = f (t)e−st dt , 0 ≤ t < ∞ .
0

Es bueno tener en cuenta que si la integral impropia

r
Z ∞
f (t)e−st dt , 0 ≤ t < ∞

a
0

converge para algún valor de s = s0 , entonces convergerá para todo s > s0 . Si la integral existe se denominará

in
la transformada de Laplace de f (t).
Por ejemplo, podemos ver que si f (t) = t, entonces
Z ∞ Z h
L[t] = F (s) = te−st dt = lı́m te−st dt

m
0 h→∞ 0
h
he−sh e−sh
   
t 1 1 1
= lı́m e−st − − 2 = lı́m − − 2 + 2 = 2.
h→∞ s s 0 h→∞ s s s s

eli
Se puede ver que si f (t) = 0, entonces
Z ∞
L[0] = 0e−st dt = 0 .
0
Pr
Existen tablas con las transformadas de Laplace, de manera que no es necesario ir calculando las integrales
impropias para cada una de las funciones.
Las transformadas de Laplace son lineales, es decir:

L[C1 f1 (t) + C2 f2 (t)] = C1 L[f1 (t)] + C2 L[f2 (t)]

además, existe también la transformación inversa de Laplace. Esto significa que si


or

L[f (t)] = F (s) ⇒ L−1 [F (s)] = f (t)

La transformación inversa de Laplace también es un operador lineal.


ad

7.5.3. Transformadas de Laplace y las ecuaciones diferenciales lineales


Vamos a considerar un método para resolver ecuaciones diferenciales lineales con coeficientes constantes,
es decir, ecuaciones del tipo
rr

an y (n) + an−1 y (n−1) + · · · + a2 y 00 + a1 y 0 + a0 = Q(x) , (7.35)

utilizando las transformadas de Laplace. Este método, como veremos a continuación, permite obtener una
solución particular dado un conjunto de condiciones iniciales.
Bo

Si multiplicamos (7.35) por e−sx e integramos, podemos ver que


Z ∞ h i Z ∞
e−sx an y (n) + an−1 y (n−1) + · · · + a2 y 00 + a1 y 0 + a0 dx = e−sx Q(x)dx
0 0

268
7.5. ECUACIONES DIFERENCIALES Y LAS TRANSFORMADAS DE LAPLACE

término por término:


Z ∞ Z ∞ Z ∞ Z ∞
an e−sx y (n) dx + an−1 e−sx y (n−1) dx + · · · + a2 e−sx y 00 dx + a1 e−sx y 0 dx +
0 0 0
Z ∞ Z ∞0
a0 e−sx ydx = e−sx Q(x)dx
0 0
h i h i
(n) (n−1) 00 0
an L y + an−1 L y + · · · + a2 L [y ] + a1 L [y ] + a0 L [y] = L [Q(x)] (7.36)

r
Ahora bien, podemos observar lo siguiente

a
Z ∞
L [y 0 ] = e−sx y 0 dx
0

in
y al integrar por partes, con u = e−sx y dv = y 0 dx, se tiene
Z ∞ Z ∞
b
e−sx y 0 dx = lı́m e−sx y 0 − (−s)e−sx ydx


m
0 b→∞ 0
Z ∞
 −sb
ye−sx dx

= lı́m e y(b) − y(0) + s
b→∞ 0

Si agregamos la suposición adicional de que la solución de la ecuación diferencial, es decir, y(x) satisface

eli
h i
lı́m e−sx y (k) (x) = 0 , k = 0, 1, 2, . . . , n − 1 , s > s0 ,
x→∞

entonces: ∞
L [y ] =0
Z
Pr e−sx y 0 dx = −y(0) + sL [y] .
0

Para calcular L [y 00 ] se procede de manera similar, pero ahora es necesario integrar dos veces por partes
y utilizar el resultado para L [y 0 ]. Resultando:

L [y 00 ] = −y 0 (0) + sL [y 0 ] = s2 L [y] − [y 0 (0) + sy(0)] .


or

Repitiendo el proceso:

L [y 000 ] = s3 L [y] − y 00 (0) + sy 0 (0) + s2 y(0)


 
h i
L y (4) = s4 L [y] − y 000 (0) + sy 00 (0) + s2 y 0 (0) + s3 y(0) ,
 
ad

y si seguimos hasta orden n, se puede demostrar que


h i h i
L y (n) = sn L [y] − y (n−1) (0) + sy (n−2) (0) + · · · + sn−2 y 0 (0) + sn−1 y(0) .
rr

Al sustituir todos estos últimos resultados en (7.36), sacando los términos que contienen a L [y], resulta
Bo

269
7.5. ECUACIONES DIFERENCIALES Y LAS TRANSFORMADAS DE LAPLACE

que podemos escribir (7.36) de la manera siguiente:


h i
an sn L [y] − an y (n−1) (0) + sy (n−2) (0) + · · · + sn−2 y 0 (0) + sn−1 y(0)
h i
+an−1 sn−1 L [y] − an−1 y (n−2) (0) + sy (n−3) (0) + · · · + sn−3 y 0 (0) + sn−2 y(0)
h i
+an−2 sn−2 L [y] − an−2 y (n−3) (0) + sy (n−4) (0) + · · · + sn−4 y 0 (0) + sn−3 y(0)
.. .. .. .. .. .. .. .. .. .. .. .. .. .. ..
. . . . . . . . . . . . . . .

r
+a2 s2 L [y] − a2 [y 0 (0) + sy(0)]

a
+a1 sL [y] − a1 y(0)
+a0 L [y] = L [Q(x)]

in
factorizando para L [y] se tiene:
an sn + an−1 sn−1 + an−2 sn−2 + · · · + a2 s2 + a1 s + a0 L [y]
 

− an sn−1 + an−1 sn−2 + · · · + a2 s + a1 y(0)


 

m
− an sn−2 + an−1 sn−3 + · · · + a3 s + a2 y 0 (0)
 

.. .. .. .. .. .. .. .. ..
. . . . . . . . .
− [an sn + an−1 ] y (n−2) (0)

eli
− an y (n−1) (0) = L [Q(x)] . (7.37)
En (7.37) se puede apreciar que es necesario conocer las cantidades: y(0), y 0 (0), y 00 (0), ... , y (n−1) (0),
las cuales se pueden determinar vı́a las condiciones iniciales. Por otra lado, también se puede ver que la
Pr
transformada de Laplace de la función que estamos buscando L [y] se puede despejar directamente de (7.37).
Por ejemplo, encontraremos la solución a siguiente ecuación diferencial

 y(0) = 0
y 00 + y = sen(2x) con:
 0
y (0) = 1
Si nos fijamos en (7.37) vemos que para este caso se tiene: a2 = 1, a1 = 0 y a0 = 1, entonces:
or

a2 s + a1 s + a0 L [y] − [a2 s + a1 ] y(0) − [a2 ] y 0 (0)


 2 
= L [sen(2x)]
s + 1 L [y] − sy(0) − y 0 (0)
 2 
= L [sen(2x)]
 2  2
s + 1 L [y] − 1 =
ad

2
s +4
 
1 2
L [y] = +1
s2 + 1 s2 + 4
por lo tanto:
s2 + 6 2 5 − 32 5
rr

3
L [y] = = − + = +
(s2 + 1) (s2 + 4) 3(s2 + 4) 3(s2 + 1) s2 + 4 s2 + 1
mediante la transformada inversa en cada término
− 23
   
1 −1 2 1
Bo

−1
L = − L = − sen(2x)
s2 + 4 3 s2 + 22 3
 5   
5 −1 1 5
L−1 2 3 = L 2
= sen(x)
s +1 3 s +1 3

270
7.5. ECUACIONES DIFERENCIALES Y LAS TRANSFORMADAS DE LAPLACE

se tiene
−2 5
 
1 5
L [y] = L − sen(2x) + sen(x) = 2 3 + 2 3
3 3 s +4 s +1
por lo tanto, nuestra solución particular para las condiciones iniciales dadas es:
1 5
y(x) = − sen(2x) + sen(x) .
3 3

7.5.4. Integral de Convolución

r
Algunas veces es posible identificar la transformada de Laplace H(s) como el producto de dos transfor-

a
madas de Laplace, F (s) y G(s) las cuales son las transformadas de funciones conocidas f (t) y g(t). Pero
eso es algunas veces: en general la transformada del producto de funciones no es el producto

in
de transformadas. Esas veces están contenidas en el llamado Teorema de Convolución, según el cual se
establece una especie de “producto generalizado” de funciones f y g.

Teorema de Convolución: Sean

m
F (s) = L [f (t)] y G(s) = L [g(t)] definidas en el intervalo s > a > 0 ,

entonces
H(s) = F (s)G(s) = L [h(t)] , para s > a

eli
donde Z t Z t
−1
h(t) = L [F (s)G(s)] = f (t − τ ) g(τ ) dτ = f (τ ) g(t − τ ) dτ = (f ∗ g) (t)
0 0

y h(t) se identifica como la convolución de f y g.


Pr
Las integrales arriba expuestas se conocen con integrales de convolución y hemos denotado h(t) =
(f ∗ g) (t) para insistir que se trata de un “producto generalizado” de funciones f y g, que comparte, con el
producto ordinario de funciones, las siguientes propiedades

f ∗g =g∗f (conmutatividad)
or

f ∗ [g + k] = f ∗ g + f ∗ k (distributividad)

f ∗ [g ∗ k] = [f ∗ g] ∗ k (asociatividad)
ad

f ∗0=0∗f =0

Sin embargo f ∗ 1 6= f , tal y como se puede apreciar de


Z t Z t
rr

(f ∗ 1) (t) = f (t − τ ) 1 dτ = f (t − τ ) dτ 6= f (t) ,
0 0

en el caso particular de que f (t) = cos (t) tendremos


Bo

Z t
τ =t
(cos ∗1) (t) = cos(t − τ ) 1 dτ = sen(t − τ )|τ =0 = sen(0) − sen(t) = −sen(t) .
0

Por la misma razón, no hay garantı́a que (f ∗ f ) (t) > 0 ∀ f 6= 0.

271
7.5. ECUACIONES DIFERENCIALES Y LAS TRANSFORMADAS DE LAPLACE

El ejemplo más emblemático de la aplicación del Teorema de Convolución es el estudio del oscilador
amortiguado y forzado, el cual viene descrito por la ecuación diferencial

 x(0) = x0
ẍ + 2λ ẋ + ω02 x = f (t) , con:
ẋ(0) = dx
dt t=0 = ẋ0

La transformada de Laplace (ecuación (7.37)) no conduce a lo siguiente

r
 2 
a2 s + a1 s + a0 L [x] − [a2 s + a1 ] x(0) − [a2 ] ẋ(0) = L [f (t)]
 2
s + 2λs + ω02 L [x] − [s + 2λ] x(0) − ẋ(0) = L [f (t)]


a
 2
s + 2λs + ω02 L [x] − [s + 2λ] x0 − ẋ0 = F (s)


in
F (s) + [s + 2λ] x0 + ẋ0
L [x] =
s2 + 2λs + ω02
por lo tanto
F (s) + [s + 2λ] x0 + ẋ0 2λ x0 + ẋ0 + sx0 F (s)

m
L [x] = 2 = 2 + 2 ,
2
s + 2λs + ω0 2
s + 2λs + ω0 s + 2λs + ω02
para el primer sumando de la expresión anterior, se tiene lo siguiente:
2λ x0 + ẋ0 + sx0 x0 (s + λ) ẋ0 + x0 λ

eli
L [x](1) = = + ,
s2 + 2λs + ω02 2 2
(s + λ) + (ω02 − λ2 ) (s + λ) + (ω02 − λ2 )
y mediante la transformada inversa:
" #
L−1
x 0
2
(s + λ)
+
ẋ 0
2
+ x 0 λ
Pr = x0 e−λt cos(ωt) +
ẋ0 + λx0
sen(ωt) ,
2 2 2 2
(s + λ) + (ω0 − λ ) (s + λ) + (ω0 − λ ) (1) ω
p
con ω = ω02 − λ2 .
Para el segundo sumando
F (s)
L [x](2) = ,
s2 + 2λs + ω02
or

por el teorema de convolución se obtiene


  Z t
F (s) 1 −λ(t−τ )
L−1 2 2 = e sen[ω (t − τ )] f (t) dτ .
ad

s + 2λs + ω0 (2) 0 ω

La solución será entonces:


Z t
−λt ẋ0 + λx0 1 −λ(t−τ )
x (t) = x0 e cos(ωt) + sen(ωt) + e sen[ω (t − τ )] f (t) dτ .
ω ω
rr

7.5.5. Ejemplos
1. Ecuación diferencial, con valores iniciales, inhomogénea a una función escalón:
Bo

 
 0 0≤x≤π  y(0) = 1
y 00 + 4y = h(x) = con:
 0
1 π < x ≤ 2π y (0) = 0

272
7.5. ECUACIONES DIFERENCIALES Y LAS TRANSFORMADAS DE LAPLACE

podemos escribir
y 00 + y = h(x) = uπ (x) − u2π (x)
volviendo a fijarnos en (7.37)

a2 s + a1 s + a0 L [y] − [a2 s + a1 ] y(0) − [a2 ] y 0 (0) = L [h(x)]


 2 

s + 4 L [y] − sy(0) − y 0 (0) = L [uπ (x) − u2π (x)]


 2 

 2  e−πs e−2πs
s + 4 L [y] − s = −

r
s  s −πs
e−2πs

1 e
L [y] = s+ −

a
s2 + 4 s s

por lo tanto

in
e−πs e−2πs e−πs e−2πs
 
1 s
L [y] = 2
s + − = 2 + −
s +4 s s s + 4 s (s + 4) s (s2 + 4)
2

m
mediante las transformadas inversas
 
−1 s
L = cos(2x)
s2 + 4

eli
e−πs
   
1
L−1 = uπ (x)g (x − π) , con g (τ ) = L−1
s (s2 + 4) s (s2 + 4)

por lo tanto

L−1

e−πs

= u (x)L
 
−1 1
Pr
1

s

= u (x)

1
{1 − cos[2(x − π)]}

π π
s (s2 + 4) 4 s s2 + 4 4

del mismo modo


e−2πs
   
1
L−1 = u2π (x) {1 − cos[2(x − 2π)]}
s (s2 + 4) 4
or

Recordemos que hemos definido la función escalón como



 0 t<c
uc (t) = c > 0.
1 t≥c

ad

Por lo tanto:
    
1 1
L [y] = L cos(2x) + uπ (x) {1 − cos[2(x − π)]} + u2π (x) {1 − cos[2(x − 2π)]}
4 4
rr

s e−πs e−2πs
= + − ,
s2 + 4 s (s2 + 4) s (s2 + 4)

y finalmente la solución será


Bo

   
1 1
y(x) = cos(2x) + uπ (x) {1 − cos[2(x − π)]} + u2π (x) {1 − cos[2(x − 2π)]} .
4 4

273
7.5. ECUACIONES DIFERENCIALES Y LAS TRANSFORMADAS DE LAPLACE

2. Ecuación diferencial, con valores iniciales, inhomogénea a una función impulso (delta de Dirac)

 y(0) = 0
y 00 + 2y 0 + 2y = δ (x − π) , con:
 0
y (0) = 0

La función (distribución) delta de Dirac viene definida por


Z ∞

r
δ (t − t0 ) = 0 con t 6= t0 y dτ δ (τ − τ0 ) = 1 (7.38)
−∞

a
con la útil propiedad: Z ∞
dτ δ (τ − τ0 ) f (τ ) = f (τ0 ) (7.39)

in
−∞

La transformada de Laplace de la función (distribución) Delta de Dirac es:

L [δ (t − c)] = e−cs ,

m
por lo tanto, para nuestra ecuación problema

y 00 + 2y 0 + 2y = δ (x − π)

eli
vemos que según (7.37)

a2 s + a1 s + a0 L [y] − [a2 s + a1 ] y(0) − [a2 ] y 0 (0) = L [δ (x − π)]


 2 

s + 2s + 2 L [y] − [s + 2] y(0) − y 0 (0) = L [δ (x − π)]


 2 
Pr s + 2s + 2 L [y] = e−πs
 2 

e−πs
L [y] =
s2 + 2s + 2
por lo tanto:
e−πs 1
L [y] = = e−πs
or

s2 + 2s + 2 2
(s + 1) + 1
miramos la transformada inversa
" #
−1 −πs 1 h i
L e = uπ (x) e−(x−π) sen (x − π)
ad

2
(s + 1) + 1

esto significa que:


h h ii e−πs
L [y] = L uπ (x) e−(x−π) sen (x − π) =
s2 + 2s + 2
rr

resultando h i
y(x) = uπ (x) e−(x−π) sen (x − π)
o si lo preferimos en la otra notación:
Bo


 0 x<π
y(x) =
 −(x−π)
e sen (x − π) x ≥ π.

274
7.6. ALGUNAS APLICACIONES DE LAS ECUACIONES DE ORDEN SUPERIOR

7.5.6. Practicando con Maxima


7.5.7. Ejercicios
1. Resuelva, utilizando transformadas de Laplace, las siguientes ecuaciones
a) y 0 − y = 0, y(0) = 1
0 x
b) y − y = e , y(0) = 1
0 −x
c) y + y = e , y(0) = 1

r
00 0
d ) y + 4y + 4y = 0, y(0) = 1, y 0 (0) = 1

a
e) y 00 − y 0 − 2y = 5sen(x), y(0) = 1, y 0 (0) = −1
f ) y 000 − 2y 00 + y 0 = 2ex + 2x, y(0) = 0, y 0 (0) = 0, y 00 (0) = 0

in
2. Evalúe cada una de las siguientes funciones
a) Γ(6)

m
b) Γ(7)
c) Γ(−5/2)
d ) Γ(5/2)

eli
3. Evalúe cada una de las siguientes funciones factoriales
a) − 52 !


b) − 72 !


c) 23 !

Pr
d ) 52 !


7.6. Algunas aplicaciones de las ecuaciones de orden superior


7.6.1. Mecánica y Electricidad
or

Una de las más famosas ecuaciones diferenciales, lineales, ordinaria con coeficientes constantes es

d2 u du
α ü + β u̇ + γ u ≡ α +β + γ u = Λ (t)
ad

dt2 dt
La cual utiliza para describir sistemas mecánicos y toma la forma


 x ⇒ Desplazamiento
 dx
 ⇒ Velocidad
rr

 dt

d2 x

dx m ⇒ masa
m 2 +η + k x = F (t) donde
dt dt 
 η ⇒ Constante de Amortiguamiento
k ⇒ Constante Elástica




F (t) ⇒ Fuerza Aplicada

Bo

275
7.6. ALGUNAS APLICACIONES DE LAS ECUACIONES DE ORDEN SUPERIOR

y circuitos eléctricos

 Q ⇒ Carga Eléctrica
dQ

=I ⇒ Intensidad de Corriente


 dt
d2 Q

dQ 1 
L ⇒ Inductancia
L +R + Q = E (t) donde
dt2 dt C 
 R ⇒ Resistencia
C ⇒ Capacitancia




E (t) ⇒ Fuerza Electromotriz

r
Analicemos la ecuación que describe sistemas mecánicos y dejamos la cual describe sistemas eléctricos para
un análisis posterior. El primero de los casos a analizar será el de las oscilaciones libres, vale decir F (t) = 0,

a
lo cual en el lenguaje de las ecuaciones diferenciales se traduce a ecuaciones diferenciales homogéneas. En
contraste, si F (t) 6= 0, es decir, el caso inhomogéneo, estaremos describiendo oscilaciones forzadas.

in
7.6.2. Oscilaciones libres
Analicemos pues del caso del oscilador armónico libre, i.e.

m
r
d2 x k
m 2 +k x=0 ⇒ x (t) = C1 cos (ω0 t) + C2 sen (ω0 t) con ω0 =
dt m

eli
ω0 se denomina la frecuencia natural de oscilación y C1 y C2 las constantes de integración que se determinan
de las condiciones iniciales. Es claro que

C1 = A cos δ
si ⇒ x (t) = C1 cos (ω0 t) + C2 sen (ω0 t) ⇔ x (t) = A cos (ω0 t + δ)
C2 = A sen δ
Pr
con R la amplitud y δ en ángulo de fase. Obviamente, el perı́odo del movimiento será
r
2π m
T = = 2π
ω0 k

Como un ejemplo analicemos


q el caso de un sistema en el cual m = 0,1 Kg. y k = 0,4 N/m En este caso
or

k
la frecuencia angular ω0 = m = 2 rad/sg. La ecuación diferencial que describe este movimiento será

dx

 x (0) = 1; dt t=0 = 0; ⇒ x (t) = cos(2t)

2

d x
ad


dx
+4 x=0 ∧ x (0) = 4; dt t=0 =0 ⇒ x (t) = 4 cos (2t)
dt2 



dx
x (0) = −2; =0 ⇒ x (t) = −2 cos (2t)

dt t=0
 dx
1
x (0) = 0; = 1; ⇒ x (t) = sen(2t)
rr


 dt t=0 2

d2 x


dx

+4 x=0 ∧ x (0) = 0; dt t=0 = 4; ⇒ x (t) = 2 sen (2t)
dt2 



dx
Bo

x (0) = 0; = −2 ⇒ x (t) = − sen (2t)



dt t=0

276
7.6. ALGUNAS APLICACIONES DE LAS ECUACIONES DE ORDEN SUPERIOR

a r
in
m
Figura 7.4: Oscilador armónico libre. Cambios en la posición inicial no afectan la frecuencia natural.

7.6.3. Oscilaciones libres amortiguadas

eli
Consideremos que en el movimiento actúa una fuerza de amortiguación proporcional a la velocidad, por
lo cual el movimiento viene descrito por

d2 x dx d2 x dx
m
dt 2

dt
Pr
+k x=
dt2
+ 2µ
dt
+ ω02 x = 0

la cual constituye una ecuación diferencial lineal homogénea de segundo orden. Las raı́ces del polinomio
caracterı́stico asociado serán
p r
−η ± η 2 − 4km η η 2 k
q
r= =− ± − = −µ ± µ2 − ω02
2m 2m 2m m
or

por lo tanto la solución será


  √     √  
− µ+ µ2 −ω02 t − µ− µ2 −ω02 t
x (t) = C1 e + C2 e
ad

de donde se deducen los siguientes casos

x (t) = C1 er1 t + C2 er2 t ⇐ µ2 − ω02 > 0 Sobreamortiguado

x (t) = (C1 + C2 t) eµ t
⇐ µ2 − ω02 = 0 Crı́tico
rr

n hp  i hp  io
x (t) = e−µ t
C1 cos ω02 − µ2 t + C2 sen ω02 − µ2 t ⇐ µ2 − ω02 < 0 Subamortiguado
Bo

Como un ejemplo analicemos el mismo caso del sistema anterior en el cual m = 0,1 Kg. y k = 0,4 N/m,
sólo que ahora
qla constante de amortiguamiento será η = 0,60, 0,40 y 0,15 En todos los caso la frecuencia
k
angular ω0 = m = 2 rad/sg. y la cantidad subradical µ2 − ω02 corresponderá a los tres casos anteriormente

277
7.6. ALGUNAS APLICACIONES DE LAS ECUACIONES DE ORDEN SUPERIOR

a r
in
m
Figura 7.5: Oscilador Armónico Libre. Cambios de velocidad incial no afectan la frecuencia natural

mencionados. Las ecuaciones diferenciales que describen este movimiento serán

eli
 
 x (0) = 0    √   √
2
d x
+ 6 dx
+ 4 x = 0 ∧ ⇒ x (t) = 1
+ 7
√ e ( 5−3)t + 1 − 7
√ e−(3+ 5)t
dt 2 dt 2 2
 dx 2 5 2 5
dt t=0 = 4


 x (0) = 0 

Pr
2
d x
dt2 +4 dx
dt +4 x=0 ∧ ⇒ x (t) = (1 + 6t) e−2t
 dx
dt t=0 = 4

 
2
 x (0) = 0  h √  √ i
1
d x
dt2 + dx
dt +4 x=0 ∧ ⇒ x (t) = e− 2 t √9
15
sen 15
2 t + cos 15
2 t
or

 dx
dt t=0 = 4


Si en los casos anteriores cambiamos el signo de la velocidad inicial, i.e. dx
dt t=0 = −4 m/s, tendremos la

siguiente representación gráfica.
 √ √
ad

  
x (0) = 1; dx

= −4; ⇒ x (t) = 1
− 1
√ e ( 5−3)t + 1 + √ 1
e −(3+ 5)t
dt t=0 2 2 5 2 2 5


x (0) = 1; dx
dt t=0 = −4; ⇒ x (t) = (1 + 2t) e−2t
h √  √ i
rr

1 −7
x (0) = 1; dx
dt t=0 = −4 ⇒ x (t) = e− 2 t √
15
sen 15
2 t + cos 15
2 t

En todos los casos dado que r1 , r2 < 0 se tiene que x (t → 0) → 0. El movimiento subamortiguado es
periódico y el perı́odo viene descrito por
Bo

2π  2  2 !
ω0 T µ 1 µ
Tam = r  2 = r si << 1 ⇒ Tam ≈ T 1 +
 2 ω0 2 ω0
1 − ωµ0 1 − ωµ0

278
7.6. ALGUNAS APLICACIONES DE LAS ECUACIONES DE ORDEN SUPERIOR

a r
in
m
Figura 7.6: Oscilaciones libres amortiguadas y no amortiguadas. Nótese que el perı́odo es mayor para el caso
subamortiguado

eli
el cual siempre sera mayor que el periodo de oscilación natural del sistema.

7.6.4. Oscilaciones forzadas


Pr
Supongamos ahora que existe una fuerza aplicada al sistema tal que
d2 x dx F0
+ 2µ + ω02 x = cos ($t)
dt2 dt m

Oscilaciones forzadas no amortiguadas


En este caso µ = 0 y por lo tanto
or

d2 x F0
+ ω02 x = cos ($t)
dt2 m

Amplitud modulada $ 6= ω0
ad

y tendrá como solución


F0 F0
x (t) = C1 cos (ω0 t) + C2 sen (ω0 t) + 2 2
cos ($t) = A cos (ω0 t + δ) + 2 cos ($t)
| {z } m (ω0 − $ ) m (ω0 − $2 )
homogénea
rr

| {z }
inhomogénea

con lo cual es la suma de dos movimientos armónicos con distintas frecuencias y amplitudes. Si el cuerpo
parte del reposo, esto es: x (0) = ẋ (0) = 0 entonces
Bo


C1 = m ω−F 0
( 0
2 −$ 2
) 

F0
⇒ x (t) = 2 [cos ($t) − cos (ω0 t)]
 m (ω0 − $2 )
C2 = 0 

279
7.6. ALGUNAS APLICACIONES DE LAS ECUACIONES DE ORDEN SUPERIOR

a r
in
m
Figura 7.7: Oscilaciones Libres amortiguadas con cambio de signo en la velocidad inicial

eli
dado que
    
ω0 − $ ω0 + $
cos (ω0 t) = cos + t
2 2
       
ω0 − $ ω0 + $ ω0 − $ ω0 + $
cos (ω0 t) = cos
2
Pr
cos
2
− sen
2
sen
2
    
ω0 − $ ω0 + $
cos ($t) = cos − t
2 2
       
ω0 − $ ω0 + $ ω0 − $ ω0 + $
cos ($t) = cos cos + sen sen
2 2 2 2
or

     
2F0 ω0 − $ ω0 + $
x (t) = sen t sen t
m (ω02 − $2 ) 2 2
| {z }
Envolvente
ad

El mismo sistema anterior en el cual m = 0,1 Kg. y k = 0,4 N/m, cuando parte del reposo desde el origen
de coordenadas y existe una fuerza de excitación F = 0,5 cos (3t) . Por lo tanto la ecuación diferencial que
describe el movimiento será
 
d2 x  x (0) = 0   
1
 
5
+ 4 x = 5 cos (3t) =⇒ x (t) = cos(2t) − cos(3t) ≡ 2 sen t sen t
rr

dt2  dx 2 2
= 0
 | {z } | {z }
dt t=0 homogénea inhomogénea | {z }
envolvente
Bo

280
7.6. ALGUNAS APLICACIONES DE LAS ECUACIONES DE ORDEN SUPERIOR

a r
in
m
Figura 7.8: Oscilador armónico forzado con $ = ω02 Nótese el fenómeno de resonancia

eli
Resonancia $ = ω0
En el caso que la frecuencia de la fuerza de excitación coincida con la frecuencia natural del sistema, se
tiene
d2 x F0
dt2
+ ω02 x = F0 cos (ω0 t) =⇒
Pr
x (t) = C1 cos (ω0 t) + C2 sen (ω0 t) +
2mω
t sen (ω0 t)
| {z 0 }
envolvente

El sistema anterior (m = 0,1 Kg. y k = 0,4 N/m), cuando parte del reposo desde el origen de coordenadas y
existe una fuerza de excitación F = 0,5 cos (2t). Por lo tanto la ecuación diferencial que describe el movimiento
será  
 x (0) = 0 
or

d2 x 5t
+ 4 x = 5 cos (2t) ∧ =⇒ x(t) = sen (2t)
dt2  dx 4
dt t=0 = 0

ad

7.6.5. Oscilaciones forzadas amortiguadas


En este caso µ 6= 0 y por lo tanto

d2 x dx F0
+ 2µ + ω02 x = cos ($t)
rr

dt 2 dt m
la cual tendrá como solución
√ √ 
ω02 − $2 cos ($t) + 2µ$ sen ($t)
!
Bo

F0
       
− µ+ µ2 −ω02 t − µ− µ2 −ω02 t
x (t) = C1 e + C2 e + 2 2
m (ω02 − $2 ) + (2µ$)

281
7.6. ALGUNAS APLICACIONES DE LAS ECUACIONES DE ORDEN SUPERIOR

a r
in
m
Figura 7.9: Oscilador armónico forzado. Nótese la envolvente de la función

eli
una vez más se puede convertir en
√ √
F0 cos ($t − ζ)
       
− µ+ µ2 −ω02 t − µ− µ2 −ω02 t
x (t) = C1 e + C2 e + q
m 2 2
(ω02 − $2 ) + (2µ$)
| {z }
solución homogéne ≡régimen transitorio
| {z }
Pr solución inhomogénea ≡ régimen estacionario

donde 
ω02 − $2 2µ$
cos (ζ) = q y sen (ζ) = q
2 2 2 2
(ω02 − $2 ) + (2µ$) (ω02 − $2 ) + (2µ$)
Es claro que el término homogéneo en todos sus casos (sobreamortiguado, crı́tico y subamortiguado) tiende a
or

cero, por ello se considera un término transitorio, no ası́ el término no homogéneo que permanece oscilando.
En términos Fı́sico se pude decir que el término transitorio representa la disipación de la energı́a inicial que se
le provee al sistema a través de la posición y la velocidad inicial de lanzamiento. Esta energı́a inicial se expresa
a través de las condiciones iniciales se disipa. Si no existiera disipación esta energı́a inicial permanecerı́a por
siempre en el sistema. Finalmente el término no homogéneo, a través de la fuerza de excitación, impone
ad

el movimiento al sistema. Nótese además que el termino no homogéneo nunca se hace infinito, ni siquiera
para el caso para el cual tiene un máximo y es aquel en el cual la frecuencia de excitación coincide con la
frecuencia natural del sistema.
Veamos el siguiente ejemplo. En un circuito RLC, cuyos componentes son L = 1 henry, R = 40 ohmios
1
y C = 40000 faradios, se le aplica un tensión de V = 24 voltios. Determine el comportamiento de la carga y
rr

la intensidad de corriente en el circuito.


La ecuación diferencial que describe el comportamiento del sistema

d2 Q (t) dQ (t) 1 d2 Q (t) dQ (t) 1


Bo

L 2
+R + Q = E (t) ⇒ 2
+ 40 + 40000 Q (t) =
dt dt C dt dt 2
d2 I (t) dI (t) 1 dE (t) d2 I (t) dI (t)
L +R + I (t) = ⇒ + 40 + 40000 I (t) = 0
dt2 dt C dt dt2 dt

282
7.6. ALGUNAS APLICACIONES DE LAS ECUACIONES DE ORDEN SUPERIOR

a r
in
m
Figura 7.10: Carga en función del tiempo en un circuito RLC sometido a un voltaje constante. Nótese que
el sistema alcanza el régimen estacionario cercano a los 0,3 seg

eli
tomando en cuenta las condiciones iniciales tendremos como solución
 h √ √ √ i
Q (0) = 10−4
 1 −20t 47 11
 7
 Q(t) = 8000 + e 2640000 sen 1160t + 8000 cos 1160t
 



√ √

I (0) = dQ
dt


t=0
= 10−2 
 
Pr dt
h
 I (t) = dQ = e−20t 1 cos 1160t − 37 11 sen

100

6600 1160t
i

Si en vez de un tensión constante de 0,5 V. la fuente de tensión es sinusoidal de la forma E (t) =


1
2 cos (180t) voltios las ecuaciones se transforman en

d2 Q

dQ 1 −4 dQ
+ 40 + 40000 Q = cos (180t) con Q (0) = 10 ∧ I (0) = = 10−2
dt2 dt 2 dt t=0
or

d2 I dI
+ 40 + 40000 I = −90sen (180t)
dt2 dt
con sus correspondientes soluciones a las condiciones iniciales del sistema
ad

( " √  √   √ 
# )
1 −20t 293 11 91 9 19
Q(t) = e sen 60 11t + cos 60 11t − cos (180t) + sen (180t)
1000 30140 685 274 548
 √  2461√11
( " # )
1  √ 
−20t 103 81 171
I(t) = e cos 60 11t − sen 60 11t + sen (180t) + cos (180t)
100 274 3014 137 274
rr

Por analogı́a con el caso mecánico procedemos a identificar cantidades



2µ = R
V0 1
Bo

L 
⇒A= q = √
ω02 = LC1  1 2 2 + R$ 2
  2 $ − 78400$2 + 1600000000
4
L LC − $ L

con ello se puede ver la funcionalidad de la amplitud con la frecuencia excitatriz

283
7.6. ALGUNAS APLICACIONES DE LAS ECUACIONES DE ORDEN SUPERIOR

a r
in
m
Figura 7.11: Intensidad en un circuito RLC sometido a un voltaje constante.

7.6.6. Movimiento alrededor de un punto de equilibrio

eli
La fuerza elástica F = −kx, más allá de ser el caso más simple, representa la primera aproximación al
movimiento alrededor de un punto de equilibrio estable. Si recordamos que para una fuerza que derive de un
potencial se tiene
d 21 k x2

dV
F =−
dx
Pr
⇒ F = −k x = −
dx
,
mas aún, un punto de equilibrio estable se define como aquel en el cual no existen fuerzas externas, vale decir

dV
F |x=x0 = 0 ⇒ − = 0,
dx x=x0
por lo cual, dado un potencial de una fuerza arbitraria siempre podemos expandirlo en series de Taylor
or

alrededor de un punto de equilibrio x = x0


2 3

dV 1 2 d V 1 3 d V
V (x) = V (x0 ) + (x − x0 ) + (x − x0 ) + (x − x0 ) ···
dx x=x0 2! dx2 x=x0 3! dx3 x=x0
ad

| {z }
=0

En general, alrededor de un punto de equilibrio x = x0 la primera aproximación de una función potencial


sera
2

1 2 d V 1 2
V (x) ≈ (x − x0 ) 2
≈ k (x − x0 )
rr

2! dx x=x0
2
Ası́, un potencial de la forma
1 6 35 50
V (x) = x − 2x5 + x4 − x3 + 12x2
Bo

6 4 3
genera una fuerza
dV (x)
= − x5 − 10x4 + 35x3 − 50x2 + 24x

F =−
dx

284
7.6. ALGUNAS APLICACIONES DE LAS ECUACIONES DE ORDEN SUPERIOR

a r
in
m
Figura 7.12: Carga en función del tiempo en un circuito RLC sometido a un voltaje sinusoidal V (t) =
1
2 cos (180t) . Nótese el régimen transitorio (0 ≤ t . 0,17) y estacionario (t & 0,17) .

eli
tendrá como puntos de equilibrio x = 0, x = 1, x = 2, x = 3 y x = 4. En torno a x = 0 se podrá aproximar
con un potencial parabólico
2

1 2 d V (x)
Ṽ (x) = (x − x0 ) = 12x2
2! dx2 x=x0
Pr
tal y como se observa en la figura 7.15

7.6.7. Péndulo simple con desplazamiento finito


El caso tı́pico de esta aproximación lo constituye el péndulo simple: una masa m, empotrada a una
varilla, de masa despreciable y de longitud L. La varilla se desplaza un ángulo θ de la vertical y se suelta.
or

La Figura (7.16) muestra el diagrama de cuerpo libre del Péndulo Fı́sico. Desde la ancestral fı́sica general,
aún en secundaria, era proverbial resolver este problema suponiendo ángulos pequeños. En esas tempranas
épocas de nuestro conocimiento de Fı́sica era limitado y más limitado aún era nuestra capacidad para
resolver ecuaciones diferenciales. A este “problema” se le conoce con el péndulo fı́sico. Aproximar es un arte
ad

y exploraremos este arte. Como norma general tendremos que se debe aproximar al final, pero no siempre
es ası́.
Si suponemos un cuerpo de masa constante, m, las ecuaciones diferenciales que describen el movimiento
no pueden ser otras que aquellas que provengan de las ecuaciones de Newton

dv(t)
rr

X
F(r(t), v(t), t) = m = m a(t) = m (ar ûr + aθ ûθ ) , (7.40)
externas
dt

Es bueno recordar que hay que expresar la aceleración en un sistema de coordenadas móviles (ûr , ûθ ).
Bo

285
7.6. ALGUNAS APLICACIONES DE LAS ECUACIONES DE ORDEN SUPERIOR

a r
in
m
1
Figura 7.13: Intensidad de corriente en un circuito RLC sometido a un voltaje sinusoidal V (t) = 2 cos (180t)

eli
Esto es
dûr
ûr = cos (θ) i + sen (θ) j ⇒ = [−sen (θ) i + cos (θ) j] θ̇ = θ̇ûθ
dt
dûθ
ûθ = −sen (θ) i + cos (θ) j ⇒ = − [cos (θ) i + sen (θ) j] θ̇ = −θ̇ûr
Pr dt
con lo cual
d [r (t) ûr ]
r (t) = r (t) ûr ⇒ v (t) = = ṙûr + rθ̇ûθ
dt
y para la aceleración
h i
d ṙ (t) ûr + r (t) θ̇ (t) ûθ
or
h i h i
a (t) = = r̈ − rθ̇2 ûr + 2ṙθ̇ + rθ̈ ûθ
dt
Es claro que si r (t) = L = cte
ad

d (Lûr )
r (t) = Lûr ⇒ v (t) = = Lθ̇ûθ
dt
y además h i
d Lθ̇ (t) ûθ
a (t) = = −Lθ̇2 ûr + Lθ̈ûθ .
rr

dt
Ası́, y para este caso particular, las ecuaciones de Newton quedan como

 m ar = −mLθ̇2 = −T + mg cos (θ)
Bo

m a=T+m g ⇒ (7.41)
m aθ = mLθ̈ = −mg sen (θ) .

286
7.6. ALGUNAS APLICACIONES DE LAS ECUACIONES DE ORDEN SUPERIOR

a r
in
m
Figura 7.14: Amplitud como función de la frecuencia excitatriz. Nótese el máximo de la amplitud cuando el
sistema entra en resonancia, i.e. $ = ω0

eli
El caso más simple proviene de la suposición: θ ≈ sen (θ)  1, que implica lo siguiente

 mLθ̇2 = −T + mg
m a=T+m g ⇒ (7.42)
Pr 
mLθ̈ = −mgθ.

ahora sabemos que podemos integrar inmediatamente. Si suponemos que el sistema parte del reposo: θ̇ (0) = 0
y θ (0) = θ0 , entonces resulta:
r  r  r 
g g g
Lθ̈ = −gθ ⇒ θ (t) = C1 sen t + C2 cos t ⇒ θ (t) = θ0 cos t
L L L
or

y el perı́odo puede ser integrado, ya que:


r
g g g 2
θ̇θ̈ = − θθ̇ ⇒ Etotal ∝ cte = θ̇ + 2 θ2
2
⇒ θ̇ (t) = (θ − θ2 )
ad

L L L 0

que no es otra cosa que la energı́a total del sistema. Por lo tanto, en el instante inicial, si soltamos la masa
desde un ángulo θ0 , la energı́a total es puramente potencial. Es decir
 
1
rr

Etotal = Epotencial = mgL (1 − cos (θ0 )) = 2mgLsen2 θ0 (7.43)


2

por otro lado, de la ecuación (7.6.7) podemos obtener el perı́odo de oscilación para el Péndulo Fı́sico linea-
lizado:
Bo

r s !
g 2 2
L θ
ω = θ̇ (t) = (θ − θ ) ⇒ T = arctan p 2 .
L 0 g θ0 − θ 2

287
7.6. ALGUNAS APLICACIONES DE LAS ECUACIONES DE ORDEN SUPERIOR

a r
in
m
Figura 7.15: Aproximación por una parábola en torno a x = 0

eli
Este caso también se conoce con el nombre de oscilador armónico simple. Igualmente podemos analizar
el caso general del péndulo amortiguado forzado linealizado. Vale decir, una masa, m, atada a una varilla sin
masa de longitud L, y que oscila, inmersa en un fluido que la frena el movimiento de la masa con una fuerza:
−η v (t). Y que adicionalmente está excitada por una fuerza exterior F (t) = F0 cos ($t). Recordamos que
en este caso la ecuación en la dirección tangente (ûθ ), es
Pr
F0
mL θ̈ + η θ̇ + mg θ = F0 cos ($t) ⇒ θ̈ + 2µ θ̇ + ω02 θ = cos ($t)
mL
r
η g
donde, por costumbre, hemos rebautizado las constantes como: µ = y ω0 = .
2mL L
Por lo tanto, como ya vimos con anterioridad, su solución tendrá la forma
or

√ √
F0 cos ($t − ζ)
       
− µ+ µ2 −ω02 t − µ− µ2 −ω02 t
θ (t) = C1 e + C2 e + q
mL 2 2
(ω02 − $2 ) + (2µ$)
ad

donde 
ω02 − $2 2µ$
cos (ζ) = q y sen (ζ) = q
2 2 2 2
(ω02 − $2 ) + (2µ$) (ω02 − $2 ) + (2µ$)
Hemos aprendido que dependiendo del valor de los coeficientes de la ecuación caracterı́stica del Péndulo
rr

Fı́sico amortiguado libre (F0 = 0) se derivan tres casos posibles: el caso Subamortiguado (µ2 − ω02 < 0), el
Sobreamortiguado (µ2 − ω02 > 0) y el caso Crı́tico (µ2 − ω02 = 0).
En el caso del Péndulo Fı́sico amortiguado forzado (F0 6= 0) la fı́sica se hace mucho más rica y pueden
2 2
ocurrir fenómenos de resonancia cuando ω02 − $2 + (2µ$) → 0.
Bo

Es interesante considerar los gráficos tanto de la evolución del sistema en el espacio directo: θ (t) vs t;
como la evolución del sistema en el espacio de fases ω = θ̇ (t) vs θ (t) . Las figuras (7.19) y (7.21) muestran
la primera de estas evoluciones, es decir, la evolución del ángulo en el espacio directo. Las figuras (7.20) y

288
7.6. ALGUNAS APLICACIONES DE LAS ECUACIONES DE ORDEN SUPERIOR

a r
in
m
Figura 7.16: Diagrama de Cuerpo Libre, del Péndulo Fı́sico

eli
(7.22) muestran la evolución del sistema en el espacio de fases. Es claro de la ecuación (7.6.7), en la cual
aparece ω = θ̇ (t), que las curvas en el diagrama de fase tanto para el caso libre (figura(7.18)) como para
los casos amortiguados (figuras(7.20) y (7.22)) corresponden a curvas con la misma energı́a. En el caso del
Péndulo Fı́sico linealizado libre, corresponden a curvas de energı́a constante. En los otros casos el sistema
va disipando energı́a debido al coeficiente de amortiguación.
Pr
Nótese que la disipación obliga al sistema a evolucionar al punto de equilibrio siguiendo trayectorias
espirales en el espacio de fases. Claramente más rápidamente en el caso sobreamortiguado que en el su-
bamortiguado. También sabemos que para el caso crı́tico (µ2 − ω02 = 0) el tiempo de evolución del sistema
hasta llegar al punto de equilibrio será menor que en cualquiera de los casos sobreamortiguados. Dejamos al
lector la comprobación de esta última afirmación.
Ahora bien, la situación que nos interesa simular es la del péndulo fı́sico para los casos en los cuales los
or

ángulos de oscilación no necesariamente sean pequeños.


Denominaremos péndulo libre al caso en el cual no recurriremos a ninguna aproximación respecto al
ángulo de oscilación. Recordemos que para este caso partimos de la ecuación (7.41) en la dirección tangente.
Es decir
g θ̇2 g
ad

Lθ̈ (t) = −g sen (θ) ⇒ θ̇θ̈ = − sen(θ)θ̇ ⇒ Etotal ∝ cte = − cos(θ)


L 2 L
Al igual que en la ecuación en la dirección tangente linealizada (7.6.7), nos encontramos con la energı́a
total del sistema. Con lo cual es fácil despejar θ̇ = θ̇ (θ (t)) y construir los diagramas de fases del sistema.
Otra vez, las lı́neas del diagrama de fase serán lı́neas de la misma energı́a. Ası́ podemos graficar
rr

r
2g
θ̇ (t) = ± C + cos (θ) (7.44)
L
para distintos valores de la constante C = 4, 01; 4, 1; 6; 8; 10 y 20, para el caso Lg = 4.
Bo

La Figura (7.23) representa el diagrama de fase para estos casos. Las curvas cerradas (aquellas que tienen
los valores de ángulos y velocidades acotadas) representan oscilaciones del sistema, mientras que las curvas
abiertas (aquellas en las cuales las velocidades están acotadas pero no ası́ el valor del ángulo) representan

289
7.6. ALGUNAS APLICACIONES DE LAS ECUACIONES DE ORDEN SUPERIOR

a r
in
m
Figura 7.17:
√ Evolución θ (t) vs t del Péndulo Fı́sico libre, para distintos valores de la velocidad inicial
V0 = 3, 5, 40, 7, 8.

eli
que el sistema rota. Nótese que el sistema presenta puntos de equilibrio inestable para θ (t) ≈ ±nπ con
n = 0, 1, 2. Lo cual era de esperarse por cuanto corresponde al ángulo en el cual el sistema varilla-masa se
encuentran verticalmente dispuestos y el peso y la tensión son colineales y se anulan momentáneamente.
Otro enfoque, quizá más intuitivo para resolver este problema, pudo haber sido el análisis energético.
Pr
Para ello sabemos que, por ser un sistema conservativo, la energı́a total viene definida por
 
1 1 θ
Etotal = mL2 θ̇2 + mgL (1 − cos (θ)) ≡ mL2 θ̇2 + 2mgL sen2
2 | {z } 2 2
Energı́a Potencial
| {z }
Energı́a Cinética

por consiguiente
or

s   s     
2Etotal 4g θ g θmáx θ
θ̇ (t) = ± 2
− sen2 ≡±2 sen 2 − sen 2 (7.45)
mL L 2 L 2 2

donde hemos sustituido Etotal = 2mLsen2 θmáx



2 con θmáx , el ángulo máximo que alcanza el Péndulo Fı́sico,
ad

por cuanto en ese punto la energı́á total es puramente potencial. Nótese que ese ángulo no necesariamente
es el ángulo inicial, debido a que la velocidad inicial puede ser distinta de cero.
La ecuación (7.45) es claramente integrable por separación de variables y conduce a encontrar una ex-
presión para el perı́odo:
rr

s Z
1 L θ(t) dθ
t= r con: − π ≤ θ (t) ≤ π y θ0 = θ (0) .
2 g θ0 g  2 θmáx  2 θ

sen 2 − sen 2
L
Bo

La integral anterior, puede ser transformada en otra que aparece en las tablas integrales, si hacemos
sen θ2

sen(β) = ,
sen θmáx
2

290
7.6. ALGUNAS APLICACIONES DE LAS ECUACIONES DE ORDEN SUPERIOR

a r
in
m
Figura 7.18: Digrama de Fase para el Oscilador Armónico Simple. Nótese que el punto de equilibrio es el
origen de coordenadas.

eli
con lo cual: s Z
L ζ(t) dβ
t= q ,
g ζ(0) 1 − sen2 θmáx sen2 (β)

2
donde
θ
Pr
 "
θ
 #
sen 2 sen 2
sen(β) = θmáx
, y ζ (t) = arcsin θmáx
 .
sen 2 sen 2
π
Es claro que el recorrido entre ζ (0) = 0 ⇒ θ = 0 a θ = θmáx ⇒ ζ (t) = 2, representa un cuarto del
perı́odo, por consiguiente el perı́odo total del Péndulo Fı́sico será:
s Z π
L 2 dβ
or

T =4 q
g 0 1 − sen2 θmáx sen2 (β)

2

7.6.8. Digresión elı́ptica


ad

En este punto haremos una digresión respecto a las integrales elı́pticas, su clasificación y algunas de sus
propiedades. En general encontrarán en la bibliografı́a que las integrales elı́pticas se dividen en
Integrales elı́pticas de primera especie
Z ϕ Z x
rr

dβ dt
F (ϕ\α) = p ⇔ F (x|m) = p , con: 0 ≤ m ≤ 1 ,
1 − sen 2 (α)sen2 (β) (1 − t 2 ) (1 − mt2 )
0 0
π
las cuales, para el caso particular ϕ = o x = 1, se puede reacomodar como una Integral elı́ptica
Bo

2
de primera especie completa
Z π2 Z 1
dβ dt
K (m) = p ≡ p con: 0 ≤ m ≤ 1 . (7.46)
2
1 − msen (β) (1 − t ) (1 − mt2 )
2
0 0

291
7.6. ALGUNAS APLICACIONES DE LAS ECUACIONES DE ORDEN SUPERIOR

a r
in
g

m
Figura 7.19: Evolución θ (t) vs t del Péndulo Simple, Subamortiguado ( = 4; µ = 0, 5) libre,para distintos
√ L
valores de la velocidad inicial V0 = 3, 5, 40, 7, 8.

eli
Integrales elı́pticas de segunda especie
ϕ x
r
1 − mt2
Z p Z
E (ϕ\α) = 1 − sen2 (α)sen2 (β)dβ ⇔ E (x|m) = dt , con: 0 ≤ m ≤ 1
1 − t2
0
Pr 0

π
y si ϕ = o x = 1, entonces se obtiene una Integral elı́ptica de segunda especie completa
2
s
Z π2 p Z 1
1 − mt2
E (m) = 1 − m sen2 (β)dβ ≡ dt , con: 0 ≤ m ≤ 1
0 0 1 − t2
or

Adicionalmente, y también sin perder generalidad, dado que 0 ≤ m ≤ 1, el denominador de la integral


elı́ptica K (m) de la ecuación (7.46) puede ser expandido en series de potencias. Con lo cual
     
1 1 3 5 35
ad

2 4 2 2 6 3 3
p = 1 + sen (β)m + sen (β ) m + sen (β ) m + sen (β ) m4 + · · ·
8 4
1 − m sen2 (β) 2 8 16 128
          
1 1 1·3 1·3·5
= π 1+ sen2 (β) m + sen4 (β) m2 + sen6 (β) m3 + · · ·
2 2 2·4 2·4·6
rr

por lo tanto:

1 X (2n − 1)! n
p = m sen2n (β) ,
1 − m sen2 (β) n=0
(2n)!!
Bo

292
7.6. ALGUNAS APLICACIONES DE LAS ECUACIONES DE ORDEN SUPERIOR

a r
in
g

m
Figura 7.20: Evolución θ̇ (t) vs θ (t) del Péndulo Fı́sico Subamortiguado libre ( = 4; µ = 0, 5) en el Espacio
√ L
de Fases para distintos valores de la velocidad inicial V0 = 3, 5, 40, 7, 8. Nótese que la disipación lleva
irremediablemente al sistema al punto de equilibrio, vale decir al origen de coordenadas del espacio de fases.

eli
y siendo una serie uniformemente convergente puede ser integrada término a término como
π π ∞ ∞ Z π
(2n − 1)!! n 2n (2n − 1)!! n 2
Z Z
2 dβ 2 X X
K (m) =
0
p
1 − m sen2 (β)
=
0

Pr (2n)!!
m sen (β) =
(2n)!!
m
0
sen2n (β) dβ
n=0 n=0

∞   ∞  2
X (2n − 1)!! n (2n − 1)!! π π X (2n − 1)!!
= m · = mn .
n=0
(2n)!! (2n)!! 2 2 n=0
(2n)!!
or

Del mismo modo se obtiene para las integrales elı́pticas completas de segunda especie que
∞ 
Z π2 p " 2 #
2
π X (2n − 1)!! mn
E (m) = 1 − m sen (β)dβ = 1− .
0 2 n=1
(2n)!! 2n − 1
ad

Finalmente podemos mencionar la relación de “recurrencia” de Legendre para las Integrales Elı́pticas
completas. Ella es
π
E (m) K (1 − m) + E (1 − m) K (m) − K (m) K (1 − m) =
2
Las integrales elı́pticas de primera y segunda especie, incompletas y completa deben resolverse numéri-
rr

camente y tradicionalmente están tabuladas en algunas tablas integrales5 .


En nuestros dı́as también pueden ser resueltas numéricamente utilizando comandos de manipuladores
simbólicos6 .
Bo

5 Abramowitz, M. y Stegun I.A (1964) Handbook of Mathematical Functions Dover, New York
6 En el caso de MAPLEV se puede proceder directamente evaluando numéricamente las integrales a través del comando
 
evalf(int(...)) o mediante la función de biblioteca EllipticF(z,k) donde z= β es al argumento del seno y k= sen θ20 el
parámetro (consulte la ayuda de MAPLE para más detalles).

293
7.6. ALGUNAS APLICACIONES DE LAS ECUACIONES DE ORDEN SUPERIOR

a r
in
g

m
Figura 7.21: Evolución θ (t) vs t del Péndulo Fı́sico Sobreamortiguado ( = 4; µ = 3, 5) libre,para distintos
√ L
valores de la velocidad inicial V0 = 3, 5, 40, 7, 8.

eli
7.6.9. ¿Cuán buena es la aproximación lineal?
Utilizando la expansión en serie de la Integral Elı́ptica completa de primera especie (??) del péndulo
fı́sico, tendremos que se cumple
s Z π
Pr s   
L 2 dβ L π 2 θmáx
T = 4 q =4 F \sen
g 0 1 − sen2 θmáx sen2 (β)
 g 2 2
2
s
∞  2   2n
L X (2n − 1)!! θmáx
= 2π sen .
g n=0 (2n)!! 2
or

Más aún, dado que


 
θmáx 1 1 3 1 5 7

sen = θmáx − θmáx + θmáx + O θmáx
ad

2 2 48 3840
y que s
2π L
T0 = = 2π
ω0 g
rr

tendremos
s
∞  2 
 2n

L X (2n − 1)!! 1 1 3 1 5 7
T = 2π θmáx − θmáx + θmáx + O θmáx
g n=0 (2n)!! 2 48 3840
Bo

 
1 2 11 4
≈ T0 1 + θmáx + θ .
16 3072 máx

294
7.6. ALGUNAS APLICACIONES DE LAS ECUACIONES DE ORDEN SUPERIOR

a r
in
g

m
Figura 7.22: Fı́sico Sobreamortiguado libre ( = 4; µ = 3, 5) en el Espacio de Fases para distintos valores de
√ L
la velocidad inicial V0 = 3, 5, 40, 7, 8. Nótese que la disipación lleva irremediablemente al sistema al punto
de equilibrio, vale decir al origen de coordenadas del espacio de fases.

eli
Si realizamos un estimado de las correcciones al problema lineal que conlleva esta expansión veremos
que aún para ángulos θmáx = π/4 las correcciones son del orden de un pı́rrico 4 con lo cual la aproximación
lineal resulta bien razonable. Para ángulos θmáx & 1 las correcciones comienzan a ser significativas y todo
Pr
este esfuerzo de integración empieza a tener sentido.
La siguiente tabla da una idea más clara de este cambio en el perı́odo del péndulo y los errores relativos
porcentuales respecto al perı́odo del péndulo fı́sico linealizado T0 = 2π/ω0 , cuando se consideran distintos
valores del ángulo máximo θmáx .
2π π π π π π 2π
T0 = = 2,83845 θmáx = θmáx = θmáx = θmáx = θmáx = θmáx =
ω0
or

12 6 4 3 2 3
T 2,85066 2,88786 2,95191 3,04617 3,35034 3,89685
|T − T0 |
 = 100 0,42821 1,71109 3,84368 6,81916 15,2786 37,1283
T
ad

7.6.10. El péndulo fı́sico: integración numérica


Tal y como indicamos en la primera sección de este proyecto, procedemos a convertir una ecuación de
segundo orden en un sistema de dos ecuaciones diferenciales de primer orden. Veamos:

 dθ(t) = ϕ(t)
rr


θ̈ (t) = −ω0 sen (θ) =⇒ dt
 dϕ(t) = −ω0 sen (θ(t))

dt
Bo

con lo cual podemos adimensionalizar de varias formas, dependiendo de las condiciones iniciales del movi-
miento. Podemos hacer:
t t
t̃ = =
tfinal tf

295
7.6. ALGUNAS APLICACIONES DE LAS ECUACIONES DE ORDEN SUPERIOR

a r
in
m
Figura 7.23: Diagrama de Fase para el Péndulo Fı́sico.

eli
con lo que 0 ≤ t̃ ≤ 1. Entonces:
1 d (·) d (·)
= ,
tf dt̃ dt
y adicionalmente:
ϕ dθ
ϕ̃ =
ϕ0
Pr
, con: ϕ0 =
dt t=0
6= 0.

De este modo el sistema queda escrito

dθ(t̃) dθ(t̃)
θ̇ = ϕ(t) ⇒ = ϕ0 tf ϕ̃(t̃) ⇒ = Λ ϕ̃(t̃)
dt̃ dt̃
dϕ̃(t̃) ω 2 tf dϕ̃(t̃)
or

= − 0 sen θ(t̃)
 
ϕ̇ = −ω0 sen (θ(t)) ⇒ ⇒ = −Γ sen θ(t̃)
dt̃ ϕ0 dt̃

Nótese que las cantidades ϕ̃(t̃), θ(t̃), t̃, Γ y Λ son adimensionales. Acto seguido procedemos a integrar
numéricamente el sistema de ecuaciones7 .
ad

La figura 7.24 ilustra la evolución del ángulo θ (t) vs t, con 0 ≤ t ≤ 10 del Péndulo Fı́sico, para distintos
valores de la velocidad angular inicial:

dθ(t)
= θ̇(t) = ϕ(t) = 3.5, 3.9, 4.0, 4.1, 4.5.
dt
rr

Mientras que la figura 7.25 (y también la figura 7.23) representan la evolución del sistema en el espacio
de fases θ (t) vs dθ(t)
dt = ϕ(t), las curvas cerradas en ésta gráfica corresponden a las curvas oscilantes de la
figura 7.24. Dado que el sistema parte de θ0 = θ (t = 0) y seleccionamos el nivel de energı́a potencial igual a
Bo

cero allı́, cada una de estas curvas representan un valor de la energı́a cinética inicial.
7 En MAPLEV podemos integrar el sistema de dos maneras distintas. La primera haciendo uso del comando

dsolve({sysED,CI}, numeric, vars, options) donde sysED es el sistema de ecuaciones diferenciales, CI sus condiciones ini-
ciales. Si necesitáramos un análisis gráfico es mucho más útil el paquete DEtools.

296
7.6. ALGUNAS APLICACIONES DE LAS ECUACIONES DE ORDEN SUPERIOR

a r
in
m

Figura 7.24: Integración numérica (θ t̃ vs t̃, con 0 ≤ t̃ ≤ 10) del Péndulo Fı́sico, para distintos valores de
dθ(t)
la velocidad angular inicial: = ϕ(t) = 3,5, 3,9, 4, 4,1, 4,5.
dt

eli
El caso
1
Ec = mL2 θ̇02 = mg2L ,
2
Pr
corresponde a la “separatrı́z”, vale decir, la órbita que separa las curvas cerradas de las abierta. Es claro que
en este caso le móvil “subirá” y alcanzará un equilibrio inestable en la posición vertical.
En la figura 7.24 este caso viene ilustrado por la curva que se convierte en horizontal 0, 25 ≤ t̃ ≤ 0, 5,
luego a partir de t̃ ≈ 0, 5, la inexactitud del cálculo numérico genera perturbaciones que en teorı́a no debieran
existir.

7.6.11. Ejemplos
or

7.6.12. Practicando con Maxima


7.6.13. Ejercicios
ad
rr
Bo

297
7.6. ALGUNAS APLICACIONES DE LAS ECUACIONES DE ORDEN SUPERIOR

ra
in
m
eli
Pr
or

Figura 7.25: Digrama de Fase para el Péndulo Fı́sico


ad
rr
Bo

298
Capı́tulo 8

ar
Sistemas de ecuaciones diferenciales

in
m
eli
Pr
or
ad
rr
Bo

299
8.1. ALGUNOS COMENTARIOS INICIALES

8.1. Algunos comentarios iniciales


Cuando consideramos la evolución de sistemas con varios grados de libertad o con varias partı́culas, na-
turalmente arribamos al tratamiento de sistemas de ecuaciones diferenciales. En estos sistemas encontramos
varias variables dependientes de una sola variable independiente. El más natural de los ejemplos es el caso
de un sistema de partı́culas que se mueve en el espacio bajo la acción de fuerzas externas:

d2 r1 (t)
 
dr1 (t) dr2 (t) drn (t)
F1 r1 (t) , r2 (t) , · · · , rn (t) , , ,··· , ,t =

r
dt dt dt dt2
d2 r2 (t)
 
dr1 (t) dr2 (t) drn (t)

a
F2 r1 (t) , r2 (t) , · · · , rn (t) , , ,··· , ,t =
dt dt dt dt2
.. ..

in
. .
d2 rn (t)
 
dr1 (t) dr2 (t) drn (t)
Fn r1 (t) , r2 (t) , · · · , rn (t) , , ,··· , ,t =
dt dt dt dt2

m
Por otro lado, es importante acotar de que existe la posibilidad de convertir una ecuación diferencial
ordinaria de orden superior es un sistema equivalente de ecuaciones diferenciales. Es decir, dada una ecuación
diferencial de la forma
 
y (n) (x) = F y (n−1) (x) , y (n−2) (x) , , · · · y 000 (x) , y 00 (x) , y 0 (x) , y (x) , x

eli
si hacemos el siguiente cambio variable

un = y (n−1) (x) ; un−1 = y (n−2) (x) ; ··· u4 = y 000 (x) ; u3 = y 00 (x) ; u2 = y 0 (x) ; u1 = y (x)
Pr
entonces construir el siguiente sistema de ecuaciones diferenciales

u0n (x) = Fn (un , un−1 , · · · , u3 , u2 , u1 , x)


u0n−1 (x) = y (n−1) (x)
..
.
or

u03 (x) = y 000 (x)


u02 (x) = y 00 (x)
u01 (x) = y 0 (x)
ad

que puede ser generalizado a:

u0n (x) = Fn (un , un−1 , · · · , u4 , u3 , u2 , u1 , x)


u0n−1 (x) = Fn−1 (un , un−1 , · · · , u4 , u3 , u2 , u1 , x)
rr

.. ..
. .
u02 (x) = F2 (un , un−1 , · · · , u4 , u3 , u2 , u1 , x)
u01 (x) = F1 (un , un−1 , · · · , u4 , u3 , u2 , u1 , x)
Bo

Para garantizar que existe solución al problema de valores iniciales se debe imponer algunas restricciones
sobre las funciones Fi (un , · · · , u3 , u2 , u1 , t) para ello existen un par de teoremas que garantice esa solución

300
8.1. ALGUNOS COMENTARIOS INICIALES

Teorema: Sean las funciones F1 , F2 , · · · Fn y sus derivadas:

∂1 F1 , ∂1 F2 , · · · ∂1 Fn , · · · ∂i F1 , ∂i F2 , · · · ∂j Fn · · · ∂n F1 , ∂n F2 , · · · ∂n Fn

continuas en una región R del espacio (x, u1 , u2 , · · · , un ), que contiene al punto x0 , u01 , u02 , · · · , u0n que
caracteriza las condiciones iniciales. Entonces existe un intervalo |x − x0 | < h en el cual existe una única
solución: u1 = φ1 (x) , u2 = φ2 (x) , · · · , un = φn (x).

∂Fi

r
Hemos denotado ∂j Fi = y u0m = um (x0 ) las condiciones iniciales.
∂uj

a
Teorema: Sea el siguiente sistema lineal de ecuaciones diferenciales

u01

in
= p11 (x) u1 + p12 (x) u2 + · · · + p1n (x) un + g1 (x)
u02 = p21 (x) u1 + p22 (x) u2 + · · · + p2n (x) un + g2 (x)
.. ..
. .

m
u0n = pn1 (x) u1 + pn2 (x) u2 + · · · + pnn (x) un + gn (x) (8.1)

Si p11 (x) , p12 (x) , · · · p1n (x) · · · pij (x) · · · pnn (x) y g1 (x) · · · gn (x) son funciones continua en el intervalo
α < x < β que contiene al punto x = x0 entonces existe una única solución que satisface las condiciones

eli
iniciales u0m = um (x0 ).

Por ejemplo: dada la siguiente ecuación diferencial de tercer orden, no lineal


y 000 = 3xy 0 − y 2 y 00 , con: y(0) = 1, y 0 (0) = −1, y 00 (0) = 2 ,
Pr
Por el hecho de ser no lineal, los métodos anteriormente vistos no pueden ser aplicados aquı́. Pero podemos
construir un sistema de ecuaciones diferenciales equivalente a la ecuación anterior. Consideramos que y(x)
es una solución de la ecuación diferencial dada y definamos las siguientes cantidades:
y(x) = u1 (x)
0
y (x) = u01 (x) = u2 (x)
y 00 (x) = u001 (x) = u02 (x) = u3 (x)
or

000
y (x) = u000 00 0
1 (x) = u2 (x) = u3 (x)

por lo tanto, la ecuación diferencial dada se puede escribir como:


y 000 = 3xy 0 − y 2 y 00 ⇒ u03 = 3xu2 − u21 u3 ,
ad

ahora, el sistema de ecuaciones de primer orden equivalente a la ecuación diferencial problema es:
u01 (x) = u2 (x)
u02 (x) = u3 (x)
rr

u03 (x) = 3xu2 − u21 u3


que debemos resolver para el conjunto de condiciones iniciales:
u1 (0) = y(0) = 1, u2 (0) = y 0 (0) = −1, u3 (0) = y 00 (0) = 2 ,
Bo

por lo tanto, la función u1 (x) que satisface éste último sistema será la solución de la ecuación diferencial de
nuestro problema. Es necesario entonces tener la capacidad de resolver sistemas de ecuaciones diferenciales
de primer orden y a este cometido nos dedicaremos a continuación.

301
8.1. ALGUNOS COMENTARIOS INICIALES

8.1.1. Notación matricial


El sistema lineal antes mencionado, es decir, las ecuaciones (8.6), puede condensarse en la siguiente
ecuación matricial
u0 (x) = P (x) u(x) + g (x) , (8.2)
en la cual estamos representando
 0       
u1 (x) p11 (x) p12 (x) ··· p1n (x) u1 (x) g1 (x)
 u02 (x)   p21 (x) p22 (x) ··· p2n (x) u2 (x) g2 (x)

r
    
u0 =  ; P =  ; u =  ; g = 
       
.. .. .. .. .. .. .. 
 .   . . . .   .   . 

a
u0n (x) pn1 (x) pn2 (x) · · · pnn (x) un (x) gn (x)

in
El sistema (8.2) será homogéneo si g (x) = 0, en caso contrario será un sistema no homogéneo.

8.1.2. Sistemas lineales homogéneos


Dado un sistema de ecuaciones diferenciales con coeficientes constantes, es decir, de la forma

m
y0 (x) = Ay(x) , (8.3)

procedemos de manera análoga al caso de una sola ecuación con coeficientes constantes.

eli
Se considera una solución de prueba de la forma: y = ξerx , donde r y el vector constante ξ son elementos
a determinar. Al sustituir esta solución en (8.3), obtenemos: ξrerx = Aξerx , con lo cual, el problema se
reduce a la búsqueda de los autovalores y autovectores del sistema Aξ = rξ.
En forma de matrices, la ecuación (8.3) es:
 0  
y1 a11 a12 · · · a1n
Pr
 
y1
 
y1 (x)
 
ξ1

 y20   a21 a22 · · · a2n   y2   y2 (x)   ξ2 
 ..  =  .. ⇒  = erx  . 
         
.. . . .
.   .
.  .
.  .
 .   . . . .   .   .   . 
0
yn an1 an2 · · · ann yn yn (x) ξn

con aij , y ξi como constantes.


or

Por lo tanto:
Aξ = rξ ⇒ (A − rI) ξ = 0 ,
en forma de matrices, esto es:
ad

    
a11 − r a12 ··· a1n ξ1 0
 a21 a22 − r ··· a2n  ξ2   0 
= (8.4)
    
 .. .. .. ..  .. .. 
 . . . .  .   . 
an1 an2 ··· ann − r ξn 0
rr

Es decir, para resolver el sistema de ecuaciones diferenciales lineales con coeficientes constantes, es nece-
sario resolver el sistema de ecuaciones algebraico.
Por ejemplo, resolvamos el siguiente sistema de ecuaciones
Bo

y10 (x) = y1 (x) + y2 (x)


y20 (x) = 4y1 (x) + y2 (x)

302
8.1. ALGUNOS COMENTARIOS INICIALES

este sistema se puede representar de la siguiente forma


      
1 1 1−r 1 ξ1 0
y0 = y si y = ξerx ⇒ =
4 1 4 1−r ξ2 0

primero que todo se calculan los autovalores:




1−r
 r1 = 3
1 2
= (1 − r) − 4 = r2 − 2r − 3 = 0 ⇒
4 1−r

r
r2 = −1

para el autovalor r1 = 3, (8.4) resulta en

a
!
(1)  
(1) (1) (1) ξ1 1

in
−2 ξ1 + ξ2 =0 ⇒ ξ = (1) =
2ξ1 2

similarmente, para el segundo autovalor r2 = −1, se tiene

m
! 
(2) 
(2) ξ1 1
ξ = (2) =
−2ξ1 −2

por lo tanto, la solución general del sistema será

eli
     
y1 1 1
y = C1 y (1)
(x) + C2 y (2)
(x) ⇐⇒ = C1 e 3x
+ C2 e−x
y2 2 −2

Obviamente el wronskiano de esta solución


h i e3x
Pr e−x

(1) (2)
W y (x) , y (x) = 3x = −4e−2x 6= 0
2e −2e−x

garantiza que las dos soluciones son linealmente independientes.


Para el caso de matrices hermı́ticas, A = A† , vale decir, que la matriz A coincide con su conjugada y
T ∗

traspuesta, A = A , todos los autovalores son reales y la solución general para un sistema de n ecuaciones
diferenciales lineales con coeficientes constantes es
or

y (x) = C1 ξ (1) er1 x + C2 ξ (2) er2 x + · · · + Cn ξ (n) ern x .

Para el caso particular de matrices simétricas (hermı́ticas reales) los autovalores r1 , r2 , · · · , rn y los
ad

autovectores ξ (1) , ξ (2) , · · · , ξ (n) resultan ser ambos reales.


Consideremos ahora el caso cuando la matrix A no es hermı́tica pero real. Entonces

 r1 = λ + iµ
y0 = Ay ⇒ y = ξerx ⇒ (A − rI) ξ = 0 ⇒
rr

r2 = λ − iµ

 ∗
esto significa que r1 = r2∗ y que ξ (1) = ξ (2) , por lo cual ξ (1) = a + ib con a y b vectores reales, entonces:
Bo

y(1) (x) = (a + ib) e(λ+iµ)x = (a + ib) eλx [cos(µx) + i sen(µx)]


= eλx [a cos(µx) − b sen(µx)] + ieλx [a sen(µx) + b cos(µx)]
= u (x) + iv (x) .

303
8.1. ALGUNOS COMENTARIOS INICIALES

Es posible que se nos presente la siguiente situación: por un lado, algunos de los autovalores de la matriz
real, A, son números complejos, r1 = λ + iµ y r2 = λ − iµ, pero el resto de las raı́ces resultan ser números
reales: r3 , r4 , · · · , rn . Por el otro lado, algunos de los autovectores son complejos: ξ (1) = a + ib, ξ (2) = a − ib,
pero el resto de autovectores no lo son: ξ (3) , ξ (4) , · · · , ξ (n) .
En este caso, la solución general sera

y (x) = C1 u (x) + iC2 v (x) + C3 ξ (3) er3 x + C4 ξ (4) er4 x + · · · + Cn ξ (n) ern x .

Queremos resolver el siguiente sistema de ecuaciones

r
y10 (x) = y1 (x) − y2 (x)

a
y20 (x) = 5y1 (x) − 3y2 (x)

in
En forma de matrices lo que tenemos es
 
0 0 1 −1
y = Ay ⇒ y = y
5 −3

m
Si utilizamos la siguiente solución de prueba y = ξerx , entonces:
    
1−r −1 ξ1 0
=
5 −3 − r ξ2 0

eli
Se calculan los autovalores
  
(1) 1
ξ =
 

 r1 = −1 + i 2−i


1−r −1

= r2 + 2r + 2 = 0 ⇒ ⇒

5 −3 − r
Pr
r2 = −1 − i

 (2)

1

ξ =


2+i

finalmente la solución general será


   
−x cos(x) −x sen(x)
y(x) = C1 e + iC2 e .
2 cos(x) + sen(x) − cos(x) + 2sen(x)
or

En el caso que los autovalores de la matriz real, A, estén repetidos k veces, es decir: r1 = r2 = · · · = rk = ρ,
y para los restantes rk+1 , . . . , rn distintos, se debe considerar algunos puntos. Lo primero es notar que
puede suceder que existan ξ (1) , ξ (2) , . . . , ξ (k) autovectores linealmente independientes asociados al autovalor
ad

ρ de multiplicidad k. Entonces, el conjunto de vectores linealmente independientes siguientes: y(1) (x) =


ξ (1) eρx , y(2) (x) = ξ (2) eρx , . . . , y(k) (x) = ξ (k) eρx serán soluciones del sistema de ecuaciones diferenciales
(8.3). Pero si la matrix A no es hermı́tica existirá un número menor de autovectores correspondientes al
autovalor ρ de multiplicidad k y no será posible tener entonces las k soluciones necesarias del sistema (8.3).
Por lo tanto, se necesitará construir las soluciones que falten de alguna manera.
rr

Quizás sea conveniente detenerse en un ejemplo particular. Dado el sistema:

y10 (x) = y1 (x) − y2 (x)


y20 (x) = y1 (x) + 3y2 (x) ,
Bo

por lo tanto  
1 −1
y0 = Ay ⇒ y0 = y.
1 3

304
8.1. ALGUNOS COMENTARIOS INICIALES

Si repetimos el procedimiento anterior, se tiene que


    
1 − r −1 ξ1 0
= ,
1 3−r ξ2 0

calculamos los autovalores:




1−r
 r1 = 2  
−1 1
2 2
ξ (1) =

= r − 4r + 4 = (r − 2) = 0 ⇒ ⇒ ,
1 3−r −1

r
r2 = 2

a
y podemos ver que la multiplicidad es 2 y sólo podemos obtener un único autovector asociado al autovalor
ρ = r1 = r2 = 2. Con este autovector podemos construir una solución linealmente independiente:

in
 
1
y(1) (x) = e2x .
−1

Resulta natural intentar buscar una segunda solución que contenga los términos xe2x y e2x .

m
Propongamos entonces la siguiente solución de prueba

y(2) (x) = ζ (1) xe2x + ζ (2) e2x ,

eli
donde ζ (1) y ζ (2) son vectores constantes a determinar.
Al sustituir esta solución de prueba en nuestra ecuación problema, resulta:
   
2ζ (1) xe2x + ζ (1) + 2ζ (2) e2x = A ζ (1) xe2x + ζ (2) e2x ,

Pr 
(2I − A) ζ (1) xe2x + ζ (1) + 2ζ (2) − Aζ (2) e2x = 0 .

Al igualar los coeficientes de los términos xe2x y e2x en ésta última expresión tenemos el siguiente par
de ecuaciones de autovalores:

(A − 2I)ζ (1) = 0
or

(2)
(A − 2I)ζ = ζ (1)

La primera ecuación es satisfecha si hacemos coincidir ζ (1) = ξ (1) , es decir, con el autovector correspon-
diente a ρ = 2 que calculamos anteriormente. Por otro lado, se tiene que
ad


−1 −1
|A − 2I| =
= 0,
1 1

pero sin embargo, la segunda ecuación tiene solución


rr

!
  (2)  
−1 −1 ζ1 1
(2) = .
1 1 ζ2 −1
Bo

Como las filas son proporcionales, entonces resulta que:


   
(2) (2) (2) 0 1
−ζ1 − ζ2 = 1 ⇒ ζ = +κ
−1 −1

305
8.1. ALGUNOS COMENTARIOS INICIALES

donde κ es un valor arbitrario. Hemos construido ası́ una segunda solución


     
(2) 1 2x 0 2x 1
y (x) = xe + e +κ e2x ,
−1 −1 −1

notemos que el último término de la ecuación anterior es un múltiplo del único término de y(1) (x), por lo
tanto debe ser ignorado.
En resumen, las dos soluciones linealmente independientes son:
 
1

r
(1) 2x
y (x) = e ,
−1

a
   
(2) 1 2x 0
y (x) = xe + e2x ,
−1 −1

in
 
Se deja como ejercicio demostrar que W y(1) (x), y(2) (x) 6= 0.
La solución general, será entonces
      
1 2x 1 2x 0 2x

m
y(x) = C1 e + C2 xe + e .
−1 −1 −1

8.1.3. Sistemas lineales inhomogéneos

eli
Todo operador lineal hermı́tico A (A : V → V ), con n autovectores distintos tiene una representación
matricial diagonal Âij =λi δij . Mediante una transformación de similidaridad: TAT−1 = Â, donde T es una
matriz unitaria: T−1 = T† , se trasforma la base de A a la base donde  es diagonal.
Este teorema es claro: a partir de que sı́ A tiene n autovalores distintos, tiene n autovectores linealmente
independientes los cuales forman una base de V y en la cual la representación matricial de A es diagonal.
Pr
Pero como siempre es posible pasar de A no diagonal a  diagonal con los mismos autovalores mediante
una transformación de similidaridad TAT−1 = Â, esto queda demostrado. Lo anterior puede formalizarse
de la siguiente manera:
† † † †
hvi | T | {zT} |vj i = hv
| {zT}AT i | T TAT T |vj i = hui | Â |uj i = λj hui |uj i = λj δij .
| {z }| {z }| {z }
1 1 hui | Â |uj i
or

Nos queda determinar la forma de la matriz unitaria de transformación T. Para ello seleccionamos la
base canónica {|e1 i , |e2 i , . . . , |ei i , . . . , |en i} como base de partida de A:
       
1 0 0 0
ad

 0   1   0   0 
 ..   ..   ..   ..
       

 . 
 , |e2 i =   , . . . , |ei i =   , . . . , |en i =  .
 .   .   
|e1 i =   0   0   1   0
,

       
 .   .   .   .
 ..   ..   ..   ..


rr

0 0 0 1

y {|u1 i , |u2 i , . . . , |ui i , . . . , |un i} la base de autovectores en la cual  es diagonal. Por lo tanto T es la matriz
de transformación de una base a la otra. Identificando columna a columna nos damos cuenta que las columnas
Bo

de la matriz T son los autovectores de A


n
X n
X
|ui i = Tij |ej i ⇒ hej |ui i = hej Tij |ej i ,
j=1 j=1

306
8.1. ALGUNOS COMENTARIOS INICIALES

esto es:
 (1) (1) (1)
  (1) (2) (n)

u1 u2 ··· un u1 u1 ··· u1
(2) (2) (2)   (1) (2) (n) 
u1 u2 un   u u2 u2 

 ⇔ T† =  2.  = T−1 ,

hej |ui i = Tij =  .. ..  . ..
. .
  
 .   . 
(n) (n) (n) (1) (1) (n)
u1 u2 un un un un
(m)
donde hemos denotado ui la componente m del vector j-esimo en la base |ei i, con i = 1, . . . , n.

r
Por lo tanto, si los n autovalores y autovectores de A son distintos y conocidos, A se dice diagonalizable.
Si A es hermı́tica, T−1 = T† es muy fácil construir la inversa de la matriz de transformación T. Si los

a
autovalores de A con degenerados, vale decir si el número de autovectores linealmente independientes es
menor que n, entonces A no es diagonalizable y no existe una matriz de transformacion T (T no tiene

in
inversa) tal que TAT−1 = Â.
Ocupemonos ahora del problema de la solución de un sistema de ecuaciones diferenciales no homogéneo
de la forma:
y0 (x) = Ay (x) + g (x) ,

m
con:
y (1) (x) g (1) (x)
     
a11 a12 ··· a1n
 a21 a22 a2n   y (2) (x)   g (2) (x) 
A = , y(x) =  , g (x) = 
     
.. .. .. .. 

eli
 . .   .   . 
an1 an2 ··· ann y (n) (x) g (n) (x)
donde A es una matriz constante y diagonalizable, g (x) contı́nua en el intervalo α ≤ x ≤ β.
La solución de este problema pasa por encontrar los autovalores {λi } y autovectores {|ui i} de A, construir
a partir de ellos la matriz T y su hermı́tica conjugada T−1 = T† , y a partir de ella hacer el siguiente cambio
de variable:
Pr
y (x) = Tz (x) ⇒ Tz0 = ATz + g ⇒ z0 = T −1 −1
| {zAT} z + T g ,

por lo tanto
z0 = Âz + h ,
or

donde  
λ1 0 ··· 0
 0 λ2 0 
 =  y h = T−1 g .
 
.. .. 
 . . 
ad

0 0 ··· λn
Entonces, lo que tenemos ahora es un sistema de ecuaciones diferenciales desacoplado:
zi0 (x) = λi zi (x) + hi (x) .
rr

Por ejemplo, encontremos la solución general del siguiente sistema:


y10 (x) = −2y1 (x) + y2 (x) + 2e−x
y20 (x) = y1 (x) − 2y2 (x) + 3x .
Bo

En notación matricial:
2e−x
   
−2 1
y0 = y+ ⇒ y0 = Ay + g(x) .
1 −2 3x

307
8.1. ALGUNOS COMENTARIOS INICIALES

Donde los autovalores y autovectores de A son


       
1 1 1 −3x 1
λ1 = −3 , ξ1 = y λ2 = −1 , ξ2 = ⇒ yh (x) = C1 e + C2 e−x ,
−1 1 −1 1
y donde yh (x) es la solución general de la homogénea.
Como A es real y simétrica, construimos la matriz T facilmente con los autovectores normalizados. Esto
es:    
1 1 1 −1 1 1 −1
T= √ ⇒ T =√ .
−1 1 1 1

r
2 2
Ahora cambiando variables y = Tz tendremos el siguiente sistema de ecuaciones

a
 0      −x 
z1 −3 0 z1 1 2e − 3x
z0 = Âz + h ⇒ = + √ ,
z20 0 −1 z2 2 2e−x + 3x

in
con lo cual podemos escribir el sistema desacoplado de ecuaciones lineales de primer orden
√ 3 √ 3
z10 + 3z1 = 2e−x − √ x y z20 + 3z2 = 2e−x + √ x .
2 2

m
Como ya sabemos, la solución es inmediata


 
2 −x 3 x 1 3
z1 (x) = e −√ − + C1 e−3x y z2 (x) = 2xe−x + √ (x − 1) + C2 e−x
2 2 3 9 2

eli
y devolviendo el cambio de variables tenemos que
 
1 z1 + z2
y = Tz ⇒ y = √ .
2 −z1 + z2
Vemos que
Pr
 
1 C C 1 −x 4
√ (z1 + z2 ) = √1 e−3x + √2 + e + x − + xe−x
2 2 2 2 3
 
1 C1 C2 1 −x 5
√ (−z1 + z2 ) = − √ e−3x + √ − e + 2x − + xe−x .
2 2 2 2 3
or

C1 C2
Si utilizamos unas nuevas constantes: C1 = √ 2
y C2 = √ 2
, resulta que podemos escribir la solución de la
forma:
           
1 −3x 1 −x 1 1 −x 1 −x 1 1 4
y = C1 e + C2 e + e + xe + x− .
−1 1 2 −1 1 2 3 5
ad

De esta solución es fácil reconocer que los primeros dos términos se corresponden a la solución del sistema
homogéneo y los restantes términos tienen que ver con una solución particular del sistema inhomogéneo.

8.1.4. Ejemplos
rr

8.1.5. Practicando con Maxima


8.1.6. Ejercicios
Bo

1. Encuentre un sistema de ecuaciones diferenciales de primer orden equivalente para las siguientes ecua-
ciones
a) y 00 − 3x2 yy 0 = 0 b) y 000 − 2x(y 0 )2 + 3xy 00 − xy = 0

308
8.2. SISTEMAS DE ECUACIONES DIFERENCIALES Y EL USO DE OPERADORES

2. Encuentre la solución general de los siguientes sistemas de dos ecuaciones diferenciales


a) y10 = 3y1 − 2y2 , y20 = 2y1 − 2y2

b) y10 = y1 − 2y2 , y20 = 3y1 − 4y2

c) y10 = 2y1 − y2 , y20 = 3y1 − 2y2

d) y10 = y1 + y2 , y20 = 4y1 − 2y2

r
3. Encuentre la solución general de los siguientes sistemas de tres ecuaciones diferenciales
a) y10 = y1 + y2 + 2y3 , y20 = y1 + 2y2 + y3 , y30 = 2y1 + y2 + y3

a
b) y10 = 3y1 + 2y2 + 4y3 , y20 = 2y1 + 2y3 , y30 = 4y1 + 2y2 + 3y3

in
c) y10 = y1 + y2 + y3 , y20 = 2y1 + y2 − y3 , y30 = −8y1 − 5y2 − 3y3

d) y10 = y1 − y2 + 4y3 , y20 = 3y1 + 2y2 − y3 , y30 = 2y1 + y2 − y3

m
4. Encuentre la solución general de los siguientes sistemas de ecuaciones diferenciales
a) y10 = 2y1 − y2 + ex , y20 = 3y1 − 2y2 + x

eli
√ √ √
b) y10 = y1 + 3y2 + ex , y20 = 3y1 − y2 + 3ex

c) y10 = 2y1 − 5y2 − cos(x) , y20 = y1 − 2y2 + sen(x)

d) y10 = y1 + y2 + e−2x , y20 = 4y1 − 2y2 − 2ex


Pr
8.2. Sistemas de ecuaciones diferenciales y el uso de operadores
En clases anteriores resolvimos algunos sistemas de ecuaciones diferenciales sacándole provecho a la
notación matricial. Sin embrago, algunos sistemas son tan simples que tienen un método casi directo para
su resolución, como podemos ver a continuación:
or

Dado el siguiente sistema de ecuaciones diferenciales


ẋ = 2e2t
x2 − y
ẏ = . t 6= 0 .
ad

t
Rápidamente nos damos cuenta que la primera ecuación puede ser integrada de manera directa:
dx
= 2e2t ⇒ x(t) = e2t + C1
dt
rr

al sustituir este resultado en la segunda ecuación:


2
dy e2t + C1 − y dy y e4t + 2C1 e2t + C12
= ⇒ + = ,
dt t dt t t
Bo

esta última ecuación es lineal en y, por lo tanto la sabemos resolver:


1 4t
4e + C1 e2t + C12 t + C2
y(t) = , t 6= 0 .
t

309
8.2. SISTEMAS DE ECUACIONES DIFERENCIALES Y EL USO DE OPERADORES

Anteriormente vimos algunas ventajas que aparecen por el hecho de utilizar la notación de operadores
para encontrar una solución de una ecuación diferencial lineal de orden n. Recordemos que una ecuación
diferencial lineal de orden n con coeficientes constantes se podı́a escribir de la siguiente manera:

P (D)y = Q(x) . (8.5)

donde
P (D) = a0 + a1 D + a2 D2 + · · · + an Dn , an 6= 0 .

r
con: a2 , a1 , a2 , . . . , an constantes.
En el caso de sistemas lineales de ecuaciones diferenciales podemos también hacer uso de esta notación:

a
P11 (D)y1 + P12 (D)y2 + P13 (D)y3 + · · · + P1n (D)yn = Q1 (x)

in
P21 (D)y1 + P22 (D)y2 + P23 (D)y3 + · · · + P2n (D)yn = Q2 (x)
.. ..
. .
Pn1 (D)y1 + Pn2 (D)y2 + Pn3 (D)y3 + · · · + Pnn (D)yn = Qn (x) . (8.6)

m
La solución del sistema (8.6) es el conjunto de funciones: {yn (x)}, cada una de ellas definidas en un
intervalo común I.
Por ejemplo, para el siguiente sistema se tiene

eli
2y10 (x) + 3y1 (x) + 5y20 (x) − y2 (x) = ex (2D + 3)y1 + (5D − 1)y2 = ex

y10 (x) − y1 (x) + 3y20 (x) + y2 (x) = sen(x) (D − 3)y1 + (3D + 1)y2 = sen(x)
Pr
Notemos también que el sistema (8.6) es un caso más general a los estudiados anteriormente, que eran
de la forma:
y0 (x) = P (x) y(x) + g (x) .
Por cuestiones netamente didácticas nos detendremos en el caso n = 2, entendiendo que los resultados
aquı́ obtenidos pueden extrapolarse para cualquier valor de n.
Cuando n = 2, tenemos entonces:
or

P11 (D)y1 + P12 (D)y2 = Q1 (x)


P21 (D)y1 + P22 (D)y2 = Q2 (x) . (8.7)

Estos sistemas al resolverse para las funciones incógnitas deben contener un número apropiado de cons-
ad

tantes y para tal fin existe un teorema que garantiza el número correcto de constantes que deben aparecer.

Teorema: El número de constantes arbitrarias que deben aparecer en la solución del sistema (8.7) debe
ser igual al orden de la siguiente expresión:
rr

∆ ≡ P11 (D)P22 (D) − P12 (D)P21 (D) (8.8)

con: ∆ 6= 0.
Bo

Si se da el caso que ∆ = 0, se dice que el sistema es degenerado. Notemos además que (8.8) tiene la forma
de un determinante.

310
8.2. SISTEMAS DE ECUACIONES DIFERENCIALES Y EL USO DE OPERADORES

Caso no degenerado: ∆ 6= 0
El sistema (8.7) puede ser tratado como un sistema de ecuaciones algebraico. Esto significa que podemos
manipular las filas a nuestra conveniencia para obtener su solución o utilizar cualquier técnica para la
resolución de sistemas de ecuaciones algebraicas desarrollado en cursos anteriores.
Veamos un ejemplo:

2ẋ − x + ẏ + 4y = 1
ẋ − ẏ = t − 1.

r
Tal vez sea conveniente adaptar el problema a nuestra notación, es decir, hacemos los siguientes cambios:

a
x(t) = y1 (x) y y(t) = y2 (x). Por lo tanto:

in
2y10 (x) − y1 (x) + y20 (x) + 4y1 (x) = 1
y10 (x) − y20 (x) = x − 1.

En la notación del operador diferencial serı́a:

m
(2D − 1)y1 + (D + 4)y2 = 1
Dy1 − Dy2 = x − 1.

eli
Multipliquemos la primera ecuación por D y la segunda por D + 4:

(2D2 − D)y1 + (D2 + 4D)y2 = D[1]


(D2 + 4D)y1 − (D2 + 4D)y2 = (D + 4)[x − 1] .

Luego las sumamos para obtener:


Pr
(3D2 + 3D)y1 = 0 + D[x − 1] + 4(x − 1) = 1 + 4x − 4 = 4x − 3 ,

esto significa que debemos resolver la siguiente ecuación

3y100 + 3y10 = 4x − 3 ,
or

con la ayuda de algunos de los métodos anteriormente vistos se obtiene la respectiva solución:
2 7
y1 (x) = C1 + C2 e−x + x2 − x .
ad

3 3

Al sustituir y1 (x) en la segunda ecuación del sistema resulta:


 
2 7
D C1 + C2 e−x + x2 − x − Dy2 = x−1
3 3
rr

4 7
−C2 e−x + x − − Dy2 = x−1
3 3
1 4
−C2 e−x + x − − Dy2 = 0,
Bo

3 3
por lo tanto:
1 4 1 4
y20 = −C2 e−x + x − ⇒ y2 (x) = C2 e−x + x2 − x + C3 .
3 3 6 3

311
8.2. SISTEMAS DE ECUACIONES DIFERENCIALES Y EL USO DE OPERADORES

Ahora podemos estudiar el tema del número de constantes que deben aparecer. Del teorema anterior
vemos que el determinate

∆ = (2D − 1)(−D) − (D)(D + 4) = −3D2 − 3D ,

es de orden 2. Por lo tanto, según el teorema antes mencionado deben existir únicamente dos constantes.
Esto significa que tenemos una constante demás. Podemos hallar una relación entre las constantes
sustituyendo las dos soluciones encontradas en la primera ecuación del sistema, recordemos la la segunda
ecuación ya fue utilizada para encontrar y2 (x). Esto es:

r
   
−x 2 2 7 −x 1 2 4

a
(2D − 1) C1 + C2 e + x − x + (D + 4) C2 e + x − x + C3 = 1
3 3 6 3
C1 + 7

in
−6 − C1 + 4C3 = 1 ⇒ C3 = .
4

Por lo tanto, la solución al sistema será:

m
2 7
y1 (x) = C1 + C2 e−x + x2 − x
3 3
−x 1 2 4 C1 + 7
y2 (x) = C2 e + x − x + .
6 3 4

eli
Caso degenerado: ∆ = 0
Como puede suceder para los sistemas algebraicos el sistema de ecuaciones puede ser degenerado, es
decir, podrá tener infinitas soluciones o no tener solución, por ejemplo, el sistema:
Pr 2x + 3y = 5
2x + 3y = 7,

no tiene solución. Y el sistema

2x + 3y = 0
or

4x + 6y = 0,

tiene infinitas soluciones. En ambos casos, el determinante conformado por los coeficientes de x y de y
es cero. Notemos también que para el primer sistema, si despejamos y de la segunda ecuación
ad

7 − 2x
y= ,
3
y la sustituimos en la primera resulta:
 
7 − 2x
rr

2x + 3 =5 ⇒ 7 = 5,
3

no existe solución cuando el sistema no se reduce a una igualdad.


Bo

Si hacemos lo mismo con el segundo sistema, despejamos y en una


2x
y=− ,
3

312
8.2. SISTEMAS DE ECUACIONES DIFERENCIALES Y EL USO DE OPERADORES

y la sustituimos en la otra  
2x
2x + 3 − = 0 ⇒ 0 = 0.
3
Existen infinitas soluciones si el sistema se reduce a una igualdad del tipo 0 = 0.
Con los sistemas de ecuaciones diferenciales pasa lo mismo. Veamos un par de ejemplos.
El sistema

Dy1 − Dy2 = x

r
Dy1 − Dy2 = x2 .

a
es degenerado porque −D2 − (−D2 ) = 0. Si despejamos Dy1 de la segunda ecuación

in
Dy1 = Dy2 + x2 ,

y sustituimos en la primera:

m
Dy2 + x2 − Dy2 = x ⇒ x2 = x .

este sistema no tiene solución.

eli
Volvamos al caso no degenerado. Como hemos mencionado el hecho de usar los operadores hace que el
sistema puede ser tratado de manera similar al de un sistema algebraico, y por lo tanto, podemos utilizar
cualquiera de los métodos para la resolución de sistemas algebraicos.
Consideremos el siguiente sistema de ecuaciones lineales:
Pr
P11 (D)y1 + P12 (D)y2 + P13 (D)y3 = Q1 (x)
P21 (D)y1 + P22 (D)y2 + P23 (D)y3 = Q2 (x)
P31 (D)y1 + P32 (D)y2 + P33 (D)y3 = Q3 (x) . (8.9)

El determinante que podemos asociar a éste sistema es:

∆ = P11 (D)P22 (D)P33 (D) + P21 (D)P32 (D)P13 (D) + P12 (D)P23 (D)P13 (D)
or

− P31 (D)P22 (D)P13 (D) − P32 (D)P23 (D)P11 (D) − P21 (D)P12 (D)P33 (D)

La manera usual de resolver este sistema es eliminar algunas de las variables, digamos y3 , de manera que
nos queda un sistema reducido a dos ecuaciones, digamos:
ad

P̃11 (D)y1 + P̃12 (D)y2 = Q̃1 (x)


P̃21 (D)y1 + P̃22 (D)y2 = Q̃2 (x) , (8.10)

Si de éste sistema eliminamos y2 , entonces lo que queda es una solo ecuación


rr

P̂11 (D)y1 = Q̂1 (x) , (8.11)

la cual podemos resolver para y1 . Al sustituir este valor en cualquiera de las ecuaciones (8.10) se obtiene y2 .
Bo

Finalmente, la sustitución de y1 y y2 en cualquiera de las ecuaciones de (8.9) permite obtener y3 . El número


de constantes quedará determinado por el oden de ∆.

313
8.2. SISTEMAS DE ECUACIONES DIFERENCIALES Y EL USO DE OPERADORES

Otra manera de proceder es manipular el sistema (8.9) de manera tal que se obtenga un sistema equiva-
lente triangular, es decir, de la forma:

P̃11 (D)y1 = Q̃1 (x)


P̃21 (D)y1 + P̃22 (D)y2 = Q̃2 (x)
P̃31 (D)y1 + P̃32 (D)y2 + P̃33 (D)y3 = Q̃3 (x) . (8.12)

Aquı́, las soluciones se van obteniendo desde la primera ecuación hasta la última. Es bueno resaltar

r
el hecho de que las soluciones obtenidas utilizando un sistema equivalente triangular contienen el número
correcto de constantes requerido por el sistema. Entonces, para obtener un sistema equivalente triangular

a
procedemos de la siguiente manera: decidimos dejar una de las ecuaciones sin intervenir y manipulamos las
otras dos, repetimos este procedimiento las veces que sean necesarias hasta obtener el sistema deseado.
Por ejemplo, resolvamos el sistema

in
ẋ − 2x + y − z = t (D − 2)y1 + y2 − y3 = x
−x + 2ẏ + y + 2z = 1 ⇒ −y1 + (2D + 1)y2 + 2y3 = 1

m
2x + 6y + ż = 0 2y1 + 6y2 + Dy3 = 0 .

Retenemos la primer ecuación del sistema.


Creamos un nuevo sistema multiplicando la primera ecuación por 2 y sumándola con la segunda, para

eli
de esta manera eliminar y3 . Con el mismo fin, multiplicamos la primera por D y la sumamos con la
tercera. Con esto obtenemos:

(D − 2)y1 + y2 − y3 = x
Pr
(D − 5)y1 + (2D + 3)y2 = 2x + 1
(D2 − 2D + 2)y1 + (D + 6)y2 = 1

Podemos retener la primera y tercera ecuación y cambiamos la segunda. Entonces multiplicamos la


tercera por −2 y la sumamos con la segunda:

(D − 2)y1 + y2 − y3
or

= x
2
(−2D + 6D − 9)y1 − 9y2 = 2x − 1
2
(D − 2D + 2)y1 + (D + 6)y2 = 1
ad

Retenemos la primera y segunda ecuación y cambiamos la tercera. Lo podemos hacer multiplicando la


segunda por (D + 6)/9 y luego se suma con la tercera:

(D − 2)y1 + y2 − y3 = x
(−2D2 + 6D − 9)y1 − 9y2 = 2x − 1
rr

3 2
(−D + 3D + 9D − 36)y1 = 12x + 5

Por lo tanto, ya se puede integrar la última ecuación:


Bo

C1 3 x 2C2 − 3 x 2 2 37
y1 (x) = e − e 2 + x + x + C3 .
3 3 3 9

314
8.2. SISTEMAS DE ECUACIONES DIFERENCIALES Y EL USO DE OPERADORES

Al sustituir y1 (x) en la segunda ecuación resulta que simplemente queda despejar y2 (x)
 
2 C1 3 x 2C2 − 3 x 2 2 37
(−2D + 6D − 9) e − e 2 + x + x + C3 − 9y2 = 2x − 1
3 3 3 9
3
−3C1 e3 x + 15C2 e− 2 x − 6 x2 − 29x + 22 − 9C3 − 9y2 = 2x − 1 ,

es decir:
C1 3x 5C2 − 3 x 2 2 31 23
y2 (x) = − e + e 2 − x − x+ − C3 .
3 3 3 9 9

r
Queda por último sustituir y1 (x) y y2 (x) en la primera ecuación y despejar y3 (x):

a
 
C1 3 x 2C2 − 3 x 2 2 37
(D − 2) e − e 2 + x + x + C3 +
3 3 3 9

in
 
C1 5C2 − 3 x 2 2 31 23
− e3x + e 2 − x − x+ − C3 − y3 = x
3 3 3 9 9
3 31 20
4C2 e− 2 x − 2 x2 − x+ − 3C3 − y3 = x ,

m
3 3
por lo tanto:
3 34 20
y3 (x) = 4C2 e− 2 x − 2 x2 − x+ − 3C3 .
3 3

eli
No es necesario investigar sobre el número de constantes, en todo caso, y solo por curiosidad se puede
ver que el determinante del sistema, al igual que para el sistema triangular, es de orden 3:
 
D−2 1 −1

Pr  3 2
∆=  −1 2D + 1 2   = 2 D − 3 D − 9D + 36 .
2 6 D

8.2.1. Ejemplos
8.2.2. Practicando con Maxima
or

8.2.3. Ejercicios
1. Resuelva el sistema
ad

(D + 3)y1 + (D + 1)y2 = ex
(D + 1)y1 + (D − 1)y2 = x.

En este caso ∆ es de orden cero y no deben aparecer constantes arbitrarias.


rr

2. Demuestre que el siguiente sistema es degenerado y tiene infinitas soluciones

Dy1 − Dy2 = x
4Dy1 − 4Dy2 = 4x .
Bo

315
8.3. SISTEMAS Y LA TRANSFORMADA DE LAPLACE

8.3. Sistemas y la transformada de Laplace


A diferencia del método anterior, el método de transformadas de Laplace solo se puede aplicar si además
del sistema se suministran el conjunto completo de condiciones iniciales. Esto significa que la solución par-
ticular obtenida ya satisface las condiciones iniciales y no necesitamos evaluar las constantes arbitrarias que
puedan resultar.
Como en capı́tulos anteriores resolvimos algunas ecuaciones diferenciales utilizando transformadas de
Laplace, podemos pasar directamente a un ejemplo para ver como se aplica el método cuando se tienen
sistemas de ecuaciones diferenciales ( ¡No necesariamente de primer orden!).

r
Veamos el ejemplo de resolver el sistema

a
ẍ − 4x + ẏ = 0
−4ẋ + ÿ + 2y = 0 con: x(0) = 0 , ẋ(0) = 1 , y(0) = −1 , ẏ(0) = 2 .

in
En este caso el sistema consiste de dos ecuaciones con dos incógnitas, pero debe quedar claro que el método
se puede extender para sistemas con un número mayor de ecuaciones.
Como vimos anteriormente, utilizando la notación de las transformadas de Laplace el sistema se puede

m
escribir de la siguiente manera.

L [y100 ] − 4L [y1 ] + L [y20 ] = 0


−4L [y10 ] + L [y200 ] + 2L [y2 ] = 0

eli
Donde también, hemos rebautizado las funciones de la siguiente manera: y1 (x) = x(t) y y2 (x) = y(t).
Revisando las notas de las clases correspondientes a las transformadas de Laplace, podemos ver que el
sistema anterior queda de la siguiente forma:
Pr
s2 L [y1 ] − y10 (0) − sy1 (0) − 4L [y1 ] + sL [y2 ] − y2 (0) = 0
2
−4sL [y1 ] + 4y1 (0) + s L [y2 ] − y20 (0) − sy2 (0) + 2L [y2 ] = 0

al sustituir los respectivos valores para las condiciones iniciales y factorizando, resulta:

(s2 − 4)L [y1 ] + sL [y2 ] = 0


or

−4sL [y1 ] + (s2 + 2)L [y2 ] − 2 + s = 0

Este último sistema puede ser tratado como un sistema algebraico para L [y1 ] y L [y2 ]. Si multiplicamos
la primera por 4s, la segunda por s2 − 4 y luego las sumamos eliminamos L [y1 ], resulta:
ad

(s4 + 2s2 − 8)L [y2 ] = −s3 + 2s2 + 4s − 8 ,

despejando L [y2 ]:
" √ √ #
−s3 + 2s2 + 4s − 8 −s3 + 2s2 + 4s − 8 1 1 + 2 1 − 2 8(s − 2)
rr

L [y2 ] = = = √ + √ − 2 .
s4 + 2s2 − 8 (s2 + 4)(s2 − 2) 6 s+ 2 s− 2 s +4

Ahora debemos buscar en nuestra tablita de transformadas de Laplace, para hallar las transformadas
Bo

316
8.3. SISTEMAS Y LA TRANSFORMADA DE LAPLACE

inversas:

h √ √ i 1+ 2
L (1 + 2)e− 2x = √
s+ 2

h √ √2x i 1− 2
L (1 − 2)e = √
s− 2
 
s
L [−8 cos(2x)] = −8 2
s + 22

r
 
2
L [8 sen(2x)] = 8 2
s + 22

a
por lo tanto:
√ √ √

in
1h √ i
y2 (x) = (1 + 2)e− 2x + (1 − 2)e 2x − 8 cos(2x) + 8 sen(2x) .
6
Para calcular y1 (x), podemos sustituir L [y2 ] en cualquiera de las ecuaciones (8.13) - (8.13) y resolver
para L [y1 ]:

m
 3
−s + 2s2 + 4s − 8

2 2
(s − 4)L [y1 ] + sL [y2 ] = 0 ⇒ (s − 4)L [y1 ] + s = 0,
(s2 + 4)(s2 − 2)

eli
esto es: " √ √  #
s(s − 2) 1 2− 2 2+ 2 s+2
L [y1 ] = 2 =− √ + √ −4 2 .
(s + 4)(s2 − 2) 12 s − 2 s + 2 s +4
Nuevamente buscando en las tablas de transformadas de Laplace, término por término, se llega finalmente
al siguiente resulado:
Pr
1 h √ √ √ √ i
y1 (x) = − (2 − 2)e 2x + (2 + 2)e− 2x − 4 cos(2x) − 4 sen(2x) .
12

Ejercicios
or

1. Resuelva cada uno de los siguientes sistemas de ecuaciones diferenciales

a) ẋ = −x2 , ẏ = −y

b) ẋ = 3e−t , ẏ = x + y
ad

c) ẋ = 2t , ẏ = 3x + 2t , ż = x + 4y + t

d) ẋ = 3x + 2e3t , ẋ + ẏ − 3y = sen(2t)
rr

e) ẍ + 4x = 3 sen(t) , ẋ − ÿ + y = 2 cos(t)

f ) ẍ − 4x − 2ẏ + y = t , 2ẋ + x + ÿ + y = 0
Bo

2. Verifique que los siguientes sistemas son degenerados. Encuentre las soluciones si existen

317
8.3. SISTEMAS Y LA TRANSFORMADA DE LAPLACE

a) Dx + 2Dy = et , Dx + 2Dy = t

b) Dx − Dy = et , 3Dx − 3Dy = 3et

c) (D2 − 1)x + (D2 − 1)y = 0 , (D2 + 4)x + (D2 + 4)y = 0

d) (D − 2)x + (D − 2)y = t , (D + 3)x + (D + 3)y = t


3. Resuelva los siguientes sistemas de ecuaciones diferenciales

r
a) (D − 1)x = 0 , −x + (D − 3)y = 0 , −x + y + (D − 2)z = 0

a
b) (D − 1)x = 0 , 3x + 2(D + 1)y = 0 , 2y + (2D − 3)z = 0

in
c) (D − 2)x = 0 , −3x + (D + 2)y = 0 , −2y + (D − 3)z = 0

d) Dx − y + z = 0 , −x + (D − 1)y = 0 , −x + (D − 1)z = 0

m
4. Resuelva los siguientes sistemas utilizando transformadas de Laplace
a) ẋ − y = t , x − ẏ = 1 , x(0) = 2 , y(0) = 2

b) 3ẋ + 3x + 2y = et , 4x − 3ẏ + 3y = 3t , x(0) = 1 , y(0) = −1

eli
c) ẋ + ẏ − 4y = 1 , x + ẏ − 3y = t2 , x(0) = 2 , y(0) = −2

d) ẍ − ẏ = 1 − t , ẋ + 2ẏ = 4et + x x(0) = 0 , y(0) = 0 , x0 (0) = 1


Pr
8.3.1. Ejemplos
8.3.2. Practicando con Maxima
8.3.3. Ejercicios
or
ad
rr
Bo

318
Capı́tulo 9

ra
Métodos de soluciones por series

in
m
eli
Pr
or
ad
rr
Bo

319
9.1. OTRA VEZ LAS SERIES

9.1. Otra vez las series


Recordemos que una serie de la forma

a0 + a1 (x − x0 ) + a2 (x − x0 )2 + a3 (x − x0 )3 + · · · (9.1)

donde a0 , a1 , a2 , . . . , x0 son constantes y x una variable se denomina una serie de potencias. También vimos
que una serie de potencias puede

r
converger sólo para un valor de x = x0
converger absolutamente para valores de x en una vecindad de x0 , es decir: |x − x0 | < ρ.

a
converger absolutamente para todos los valores de x.

in
Si la serie de potencias (9.1) converge en un intervalo I : |x − x0 | < ρ, donde ρ es una constante positiva,
entonces (9.1) define una función f (x) contı́nua para todo x de I. Lo inverso de esta última afirmación es
una cuestión que tendrı́amos que preguntarnos, es decir: dada una función, definida en un intervalo I ¿existe

m
una serie de potencias que la defina? En clases anteriores, vimos que si f (x) es definida por una serie de
potencias, entonces:

f 00 (x0 ) f 000 (x0 )


f (x) = f (x0 ) + f 0 (x0 )(x − x0 ) + (x − x0 )2 + (x − x0 )3 + · · ·
2! 3!

eli
f (n) (x0 )
··· + (x − x0 )n + · · · (9.2)
n!
con |x − x0 | < ρ. La serie (9.2) se conoce como la expansión de f (x) en serie de Taylor. Si x0 = 0, la serie
se denomina de Maclaurin.
Pr
Estudiemos ahora la relación que existe entre series y las ecuaciones diferenciales.

Un Ejemplo conocido: Consideremos la bien conocida ecuación diferencial

y 00 + y = 0 ,
or

se propone encontrar una solución entorno a x = 0, por lo tanto, si consideramos la siguiente función de
prueba

X
y(x) = an xn ,
n=0
ad

entonces, al derivar:

X ∞
X
y 0 (x) = nan xn−1 , y 00 (x) = n (n − 1) an xn−2 ,
n=1 n=2

y sustituir en la ecuación diferencial


rr


X ∞
X ∞
X ∞
X
y 00 + y = n (n − 1) an xn−2 + an xn = (k + 2) (k + 1) ak+2 xk + an xn = 0
n=2 n=0 k=0 n=0
Bo

X∞
= [(k + 2) (k + 1) ak+2 + ak ] xk = 0 .
k=0

320
9.1. OTRA VEZ LAS SERIES

Por lo tanto
−ak
(k + 2) (k + 1) ak+2 + ak = 0 ⇒ ak+2 = con k = 0, 1, 2, . . .
(k + 2) (k + 1)
se puede ver que:
a0 a2 −1 (−a0 ) a0 a0 a4 a0 a0
a2 = − ; a4 = − = · = = ; a6 = − =− =− .
2·1 4·3 4·3 2 4·3·2·1 4! 6·5 6·5·4·3·2·1 6!
Y en general
k

r
(−1)
a2k = a0 .
(2k)!

a
Similarmente, para los coeficientes impares se obtiene
a1 a3 −1 (−a1 ) a1 a1 a5 a1 a1
a3 = − ; a5 = − = · = = ; a7 = − =− =− ,

in
3·2 5·4 5·4 3·2 5·4·3·2·1 5! 7·6 7·6·5·4·3·2·1 7!
de donde
k
(−1)
a2k+1 = a1 .
(2k + 1)!

m
De este modo, la solución deseada queda como

X (−a0 ) 2 (−a1 ) 3 a0 4 a1 5 (−a0 ) 6 (−a1 ) 7
y(x) = an xn = a0 + a1 x + x + x + x + x + x + x + ···
2! 3! 4! 5! 6! 7!

eli
n=0
x2 x4 x6 x3 x5 x7
   
= a0 1 − + − + · · · + a1 x − + − + ···
2! 4! 6! 3! 5! 7!

X (−1) k ∞
X (−1) k
= a0 x2k + a1 x2k+1 = a0 cos(x) + a1 sen(x) .
(2k)!
k=0
Pr (2k + 1)!
k=0

Otro ejemplo, menos conocido pero importante: Considere la ecuación de Hermite1 la cual aparece
en la solución del oscilador armónico cuántico
y 00 − 2xy 0 + λy = 0 .
Para resolver esta ecuación alrededor del punto x0 = 0, proponemos la siguiente expansión en series de
or

potencias como solución:


 0 P∞
X∞  y (x) = n=1 nan xn−1
y(x) = an xn ⇒ P∞
 00
y (x) = n=2 n(n − 1)an xn−2
ad

n=0

entonces, sustituyendo en la ecuación de Hermite resulta



X ∞
X ∞
X
n−2 n
n(n − 1)an x −2 nan x + λ an xn = 0
n=2 n=1 n=0
rr


X X∞ X∞
(k + 2) (k + 1)ak+2 xk − 2 nan xn + λ an xn = 0
k=0 n=1 n=0

Bo

X
(2a2 + λa0 ) + [(n + 2) (n + 1)an+2 − 2nan + λan ] xn = 0 ,
n=1
1 Charles Hermite, (1822-1901). Matemático francés, especializado en el estudio de teorı́a de funciones, ofreció importantes

aportaciones al álgebra, las funciones abelianas y la teorı́a de las formas cuadraticas.

321
9.1. OTRA VEZ LAS SERIES

igualando términos se puede encontrar una relación de recurrencia para los coeficientes:
2a2 2n − λ
a0 = − y an+2 = an , n ≥ 1.
λ (n + 2) (n + 1)
La solución tendrá entonces la siguiente forma:
 
λ (4 − λ) λ 4 (8 − λ) (4 − λ) λ 6
y (x) = a0 1 − x2 − x − x − ···
2! 4! 6!
 
(2 − λ) 3 (6 − λ) (2 − λ) 5 (10 − λ) (6 − λ) (2 − λ) 7

r
+ a1 x + x + x + x + ···
3! 5! 7!

a
= a0 y0 (x) + a1 y1 (x)
Nótese que para valores pares de λ una u otra serie se corta y genera polinomios de la forma:

in
λ Ecuación de Hermite Polinomio asociado
0 y 00 − 2xy 0 = 0 y0 (x) = 1
2 y 00 − 2xy 0 + 2y = 0 y1 (x) = x

m
4 y 00 − 2xy 0 + 4y = 0 y0 (x) = 1 − 2x2
6 y 00 − 2xy 0 + 6y = 0 y1 (x) = x − 32 x3
8 y 00 − 2xy 0 + 8y = 0 y0 (x) = 1 − 4x2 + 43 x4
Los polinomios de Hermite también pueden ser obtenidos a partir de la fórmula de Rodrigues:

eli
2 dn −x2
Hn (x) = (−1)n ex e , n = 0, 1, 2, . . . (9.3)
dxn
o a través de una relación de recurrencia
Pr
Hn+1 (x) − 2xHn (x) + 2nHn−1 (x) = 0 .
Podemos ver la relación entre los polinomios de Hermite y las soluciones
λ=0 ⇒ y0 (x) = 1 = H0 (x)
1
λ=2 ⇒ y1 (x) = x = H1 (x)
2
1
or

λ=4 ⇒ 1 − 2x2 = − H2 (x)


y0 (x) =
2
2 1
λ = 6 ⇒ y1 (x) = x − x3 = − H3 (x)
3 12
4 1
ad

λ = 8 ⇒ y0 (x) = 1 − 4x2 + x4 = H4 (x)


3 12
Las ecuaciones antes mencionadas eran ecuaciones homogéneas. En el caso que la ecuación diferencial a
resolver por series sea una ecuación inhomogéna, se procederá del mismo modo como se propuso en el caso de
que los coeficientes de la ecuación diferencial fueran constantes. Esto es, se resuelve por series la homogénea
rr

y luego se propone una solución particular, en forma de serie de potencias, la cual se iguala con la expansión,
también en series de potencias, del término inhomogéneo.
Como ejemplo, antes de proceder a casos más generales resolvamos la ecuación de Airy2 , pero inhomogéna,
los cálculos se dejan como ejercicio para el estudiante. A pesar de su simplicidad, esta ecuación admite sólo
Bo

soluciones en forma de serie.


2 George Biddell Airy (1801-1892) Matemático y Astrónomo Inglés con contribuciones importantes en la solución de

ecuaciones diferenciales y su utilización en Astronomı́a. Mejoró significativamente las estimaciones teóricas de la órbita de
Venus y la Luna. Realizó estudios matemáticos de la formación del arcoiris y la densidad de la tierra.

322
9.1. OTRA VEZ LAS SERIES

La ecuación homogénea de Airy es la siguiente:

y 00 − xy = 0

Compruebe, siguiendo el procedimiento arriba expuesto, que para una posible ecuación inhomogénea de Airy

y 00 − xy = ex

se tiene como solución la siguiente serie de potencias

r
   
1 3 1 6 0 1 4 1 7 1 1 1
y (x) = y(0) 1 + x + x + · · · + y (0) x + x + x + · · · + x2 + x3 + x4 + · · ·

a
6 180 12 504 2 6 24

Nótese que los dos primeros términos corresponden a la solución de la ecuación homogénea y el último

in
representa la serie que anula el término inhomogéneo. Hemos hecho patente la dependencia de las constantes
de integracón de las condiciones iniciales.

9.1.1. Método de Diferenciaciones Sucesiva

m
En general, dada la ecuación diferencial no homogénea
n
X
a0 (x)y + a1 (x)y 0 + · · · + an−1 (x)y (n−1) + an (x)y (n) (x) = ai (x) y (i) = F(x) . (9.4)

eli
i=0

Si los coeficientes a0 (x) · · · an (x) son funciones analı́ticas en x = x0 (se pueden expresar como una serie
de Taylor de (x − x0 ) que converge al valor de la función con un radio de convergencia de |x − x0 | < ρ),
entonces, la ecuación diferencial (9.4) tendrá como solución única, y = y(x), de la ecuación homogéna, una
Pr
serie de potencias que satisface las n condiciones iniciales:

y(x0 ) = C1 ; y 0 (x0 ) = C2 ; y 00 (x0 ) = C3 ; ... y (n−1) (x0 ) = Cn .

Adicionalmente, se expandirá en Taylor la función inhomogénea, esto es:


n i
(x − x0 )
or
X
F(x) = F (i) (x0 ) ,
i=0
i!

y se propondrá una solución particular de la inhomogénea, también en términos de una serie


ad


X
yih (x) = aj xj .
j=0

Otra forma de hacerlo es proceder directamente y conservar el término inhomogéneo y a partir de la


ecuación completa encontrar los coeficientes de la expansión por Taylor alrededor del punto en el cual se
rr

disponga de las condiciones iniciales. La solución en series de Taylor será

x2 x3
yh (x) = y(0) + y 0 (0)x + y 00 (0) + y 000 (0) + · · ·
Bo

2! 3!
Por ejemplo, resolver por series la siguiente ecuación diferencial

y 00 − (x + 1) y 0 + x2 y = x ; con y(0) = 1 , y y 0 (0) = 1.

323
9.1. OTRA VEZ LAS SERIES

Los coeficientes de la expansión se obtienen de los valores de las derivadas en x0 = 0, los cuales salen de
las condiciones iniciales y de la ecuación diferencial, esto es
y(0) = 1; y 0 (0) = 1; y 00 (0) = (0) + (0 + 1) y 0 (0) − 02 y(0) = 1
y de las derivadas de la ecuación diferencial hasta el orden que consideremos conveniente
y 000 (x) = y 0 (x) + (x + 1) y 00 (x) − 2x y(x) − x2 y 0 (x) + 1
y 000 (0) = y 0 (0) + (0 + 1) y 00 (0) − 2(0) y(0) − 02 y 0 (0) + 1

r
y 000 (0) = 1 + 1 + 1 = 3

a
finalmente, la solución es entonces:
x2 x3

in
y(x) = 1 + x + + + ··· .
2 2
Esta solución contiene las dos soluciones (la homogénea y la particular de la inhomogénea) sumadas.

m
9.1.2. Métodos de los Coeficientes Indeterminados
En general, para encontrar la solución a la ecuación antes mencionada:
n

eli
X
ai (x) y (i) (x) = F(x) ,
i=0

se expanden por series de potencias cada uno de los coeficientes a0 (x), . . . , an (x), la función F(x) y se propone
la siguiente solución de prueba

y(x) =
X
Pr
cn (x − x0 )
n

n=0
luego de bastante transpiración se despejan los coeficientes: c0 · · · cn · · · .
Consideremos a misma ecuación del ejemplo anterior.
y 00 − (x + 1) y 0 + x2 y = x ; con y(0) = 1 y y 0 (0) = 1.
or

Como x0 = 0, proponemos la siguiente expansión en series de potencias como solución:


 0 P∞
X∞  y (x) = n=1 ncn xn−1
n
y(x) = cn x ⇒ P∞
 00
y (x) = n=2 n(n − 1)cn xn−2
ad

n=0

y al sustituir en la ecuación diferencial resulta



X ∞
X ∞
X
n(n − 1)cn xn−2 − (x + 1) ncn xn−1 + x2 cn xn = x
n=2 n=1 n=0
rr


X ∞
X X∞ ∞
X
n(n − 1)cn xn−2 − ncn xn − ncn xn−1 + cn xn+2 = x
n=2 n=1 n=1 n=0
Bo

si hacemos n − 2 = l en el primer término, n − 1 = k en el tercero y n + 2 = m en el cuarto, tenemos



X ∞
X ∞
X ∞
X
(l + 2) (l + 1) cl+2 xl − ncn xn − (k + 1) ck+1 xk + cm−2 xm = x
l=0 n=0 k=0 m=2

324
9.1. OTRA VEZ LAS SERIES

nótese que en el segundo término se puede comenzar la serie en cero y no pasa nada. Al renombrar nuevamente
los ı́ndices y factorizar se tiene:

X ∞
X
[(n + 2) (n + 1) cn+2 − ncn − (n + 1) cn+1 ] xn + cn−2 xn = x
n=0 n=2

por lo tanto
n=0 ⇒ 2c2 − c1 = 0

r
n=1 ⇒ 3 · 2 c3 − c1 − 2 c2 = 1

a
y la relación de recurrencia para n ≥ 2 es la siguiente
(n + 2) (n + 1) cn+2 − ncn − (n + 1) cn+1 − cn−2 = 0

in
con la cual se obtienen todos los demás coeficientes.

9.1.3. Ejemplos

m
1. Si la ecuación a resolver es ahora
y 00 + sen(x)y 0 + ex y = 0
se expanden los coeficientes

eli
   
1 1 5 1 1 1 1 5
y 00 + x − x3 + x + · · · y 0 + 1 + x + x2 + x3 + x4 + x + ··· y = 0
6 120 2 6 24 120
se propone una solución en términos de series de potencias
 0 P∞
 y (x) = n=1 ncn xn−1
X∞
Pr
y(x) = cn x n ⇒ P∞
 00
n=0 y (x) = n=2 n(n − 1)cn xn−2
por lo cual, al sustituir en la ecuación diferencial
∞  X ∞  X∞
X
n−2 1 3 n−1 1 2
n(n − 1)cn x + x − x + ··· ncn x + 1 + x + x + ··· cn x n = 0
6 2
or

n=2 n=1 n=0

acomodando términos se puede ver que


(2c2 + c0 )+(6c3 + 2c1 + c0 ) x+(12c4 + 3c2 + c1 + c0 /2) x2 +(20c5 + 4c3 + c2 + c1 /3 + c0 /6) x3 +· · · = 0
ad

Por lo tanto, al igualar coeficientes resulta:


2c2 + c0 = 0 ⇒ c2 = −c0 /2
6c3 + 2c1 + c0 = 0 ⇒ c3 = −c1 /3 − c0 /6
12c4 + 3c2 + c1 + c0 = 0 ⇒ c4 = c0 /12 − c1 /12
rr

20c5 + 4c3 + c2 + c1 + c0 = 0 ⇒ c5 = c0 /20 + c1 /20


.. .. ..
. . .
Bo

Por lo tanto, la solución se puede escribir de la siguiente manera


   
1 1 1 1 1 1 1
y(x) = c0 1 − x2 − x3 + x4 + x5 + · · · + c1 x − x3 − x4 + x5 + · · · .
2 6 12 20 3 12 20

325
9.2. LOS PUNTOS Y LAS ESTRATEGIAS

9.1.4. Practicando con Maxima


9.1.5. Ejercicios
1. Dado |x| < 1 y la ecuación diferencial
x 1
y 00 + 2
y0 − y = e2x ; con y(0) = 1 , y y 0 (0) = 1 ,
1−x 1 − x2
compruebe que tiene como solución general por series

r
 
1 2 1 4 1 6 1 1 1
y(x) = y(0) 1 + x + x + x + · · · + y 0 (0)x + x2 + x3 + x4 + · · ·
2 24 80 2 3 8

a
y al incorporar los valores de las condiciones iniciales se obtiene

in
1 1 1 1 6 4 7 79
y (x) = 1 + x + x2 + x3 + x4 + x5 + x − x − x8 + · · ·
3 6 30 180 315 10 080
2. Utilice el método de los coeficientes indeterminados para resolver

m
x 1
y 00 + 2
y0 − y = e2x ; con y(0) = 1; y y 0 (0) = 1.
1−x 1 − x2
3. Encuentre los términos hasta orden k de la solución particular de cada uno de las siguientes ecuaciones
diferenciales. Utilice ambos métodos: diferenciaciones sucesivas y coeficientes indeterminados.

eli
a) y 0 − xy + x3 = 0 , y(0) = 2 , k = 5

b) x2 y 00 = x + 1 , y(1) = 0 , y 0 (0) = 0 , k=4

c) xy 00 + x2 y 0 − 2y = 0 ,
Pr
y(1) = 0 , y 0 (0) = −1 , k=4

d) y 00 + 3xy 0 + ex y = 2x , y(1) = 0 , y 0 (1) = 1/2 , k=5

e) (1 − x)y 000 − 2xy 0 + 3y = 0 , y(0) = 1 , y 0 (0) = −1 , y 00 (0) = 2 , k=6


or

9.2. Los Puntos y las Estrategias


Dada una ecuación diferencial del tipo
Q (x) 0 R (x)
P (x) y 00 + Q (x) y 0 + R (x) y = 0 ⇒ y 00 + y + y=0
ad

P (x) P (x)
entonces debemos aclarar algunos aspectos:
Q(x) R(x)
Puntos ordinarios Un punto ordinario x = x0 será aquel alrededor del cual p(x) = P (x) y q (x) = P (x)
sean analı́ticas en ese punto, o lo que es igual a
rr

Q (x)
lı́m p(x) ≡ lı́m = L1 , con L1 finito
x→x0 P (x)
x→x0

R (x)
Bo

lı́m q (x) ≡ lı́m = L2 , con L2 finito


x→x0 x→x0 P (x)

O también, lo que es lo mismo, que p(x) y q(x) tengan una expansión en Taylor alrededor de ese punto
x = x0 , es decir, que sean analı́ticas.

326
9.2. LOS PUNTOS Y LAS ESTRATEGIAS

Puntos singulares regulares Un punto x = x0 se llamará un punto singular regular si


Q (x)
lı́m (x − x0 ) p(x) ≡ lı́m (x − x0 )
= L3 , con L3 finito
x→x0 x→x0 P (x)
2 2 R (x)
lı́m (x − x0 ) q (x) ≡ lı́m (x − x0 ) = L4 , con L4 finito
x→x0 x→x0 P (x)
2
O también, lo que es lo mismo, que: p(x) (x − x0 ) y q (x) (x − x0 ) tengan una expansión en Taylor
alrededor de ese punto.

r
Puntos singulares irregulares Ninguna de las anteriores.

a
Por ejemplo, Dada la siguiente ecuación:

in
1 0
(x − 1)y 00 + y − 2y = 0 (a)
x
Si dividimos por (x − 1), resulta:

m
1 2y
y 00 + y0 − =0 (b)
x(x − 1) x−1
entonces:
1 2

eli
p(x) = y q(x) = −
x(x − 1) x−1
los puntos x = 0 y x = 1 son puntos singulares de (b). Investiguemos si son puntos singulares regulares:
Para el punto x = 0:
Pr
lı́m (x − 0) p(x) = lı́m

x

= −1
x→0 x→0 x(x − 1)

2x2
 
2
lı́m (x − 0) q (x) = lı́m − =0
x→0 x→0 x−1
por lo tanto, p(x) y q(x) tienen una espansión en Taylor alrededor de x = 0 y el punto representa una
singularidad regular.
or

Para el punto x = 1:
 
x−1
lı́m (x − 1) p(x) = lı́m =1
ad

x→1 x→1 x(x − 1)

2(x − 1)2
 
2
lı́m (x − 1) q (x) = lı́m − =0
x→1 x→1 x−1
Por la misma razón del caso anterior, el punto x = 1 también resulta ser una singularidad regular.
rr

9.2.1. Ecuaciones e intervalos en puntos regulares


La ecuación de Legendre3
Bo

(1 − x2 ) y 00 − 2x y 0 + λ(λ + 1) y = 0
3 Adrien Marie Legendre (1752-1833). Matemático francés, encuadrado en la escuela de Parı́s, que surgió luego de la

revolución de 1789. Realizó una teorı́a general de las funciones elı́pticas y divulgó numerosos trabajos de investigadores jóvenes
en el campo del análisis matemático.

327
9.2. LOS PUNTOS Y LAS ESTRATEGIAS

tiene puntos regulares en x 6= ±1 y puntos singulares regulares en x = ±1. Pero es analı́tica en x ∈ (−1, 1),
por lo tanto, todos los x son ordinarios si x ∈ (−1, 1). En ese intervalo se propone una solución de la forma

X
y(x) = an xn
n=0

al sustituir esta solución en la ecuación diferencial, resulta



X ∞
X ∞
X
2 n−2 n−1
(1 − x ) n(n − 1)an x − 2x n an x + λ(λ + 1) an xn = 0

r
n=2 n=1 n=0

a
multiplicando y acomodando

X ∞
X ∞
X ∞
X
(k + 2)(k + 1)ak+2 xk − n(n − 1)an xn − 2 n an xn + λ(λ + 1) an xn = 0

in
k=0 n=2 n=1 n=0

expandiendo

m
X
2a2 + λ(λ + 1)a0 [(λ + 2)(λ − 1)a1 + (3 · 2)a3 ] x + [(n + 2)(n + 1)an+2 + (λ + n + 1)(λ − n)an ] xn = 0
n=2

donde hemos utilizado


−n(n − 1) − 2n + λ(λ + 1) = (λ + n + 1)(λ − n)

eli
por lo tanto
(λ + 1)λ
a2 = − a0
2
(λ + 3)(λ + 1)λ(λ − 2)
a4 = a0
Pr
4!
(λ + 2n − 1)(λ + 2n − 3) · · · (λ + 1)λ(λ − 2) · · · (λ − 2n + 2)
a2n = (−1)n a0
(2n)!
y las potencias impares serán
(λ + 2)(λ − 1)
or

a3 = − a1
3!
(λ + 4)(λ + 2)(λ − 1)(λ − 3)
a5 = a1
5!
(λ + 2n)(λ + 2n − 2) · · · (λ + 2)(λ − 1) · · · (λ − 2n + 1)
(−1)n
ad

a2n+1 = a1
(2n + 1)!
La solución general se puede escribir de la siguiente manera
y(x) = a0 y0 (x) + a1 y1 (x)
rr

con
(λ + 1)λ 2 (λ + 3)(λ + 1)λ(λ − 2) 4
y0 (x) = 1− x + x + ···
2 4!
(λ + 2)(λ − 1) 3 (λ + 4)(λ + 2)(λ − 1)(λ − 3) 5
Bo

y1 (x) = x − x + x + ···
3! 5!
si λ = 2n una de las series se corta y la solución es un polinomio de potencias pares, si λ = 2n + 1 la otra se
corta en uno de potencias impares.

328
9.2. LOS PUNTOS Y LAS ESTRATEGIAS

λ Ecuación de Legendre Polinomio Asociado


0 (1 − x2 ) y 00 − 2x y 0 = 0 y0 (x) = 1
1 (1 − x2 ) y 00 − 2x y 0 + 2 y = 0 y1 (x) = x
2 (1 − x2 ) y 00 − 2x y 0 + 6 y = 0 y0 (x) = 1 − 3x2
3 (1 − x2 ) y 00 − 2x y 0 + 12 y = 0 y1 (x) = x − 35 x3
4 (1 − x2 ) y 00 − 2x y 0 + 20 y = 0 y0 (x) = 1 − 10x2 + 35
3 x
4

Los polinomios de Legendre son funciones que surgen en problemas de electrostática como solución de la

r
ecuación de Legendre y son efectivamente polinomios para λ entero. Los Polinomios de Legendre también
pueden ser generados a partir de la Fórmula de Rodrı́gues

a
1 dn 2
Pn (x) = (x − 1)n , n = 0, 1, 2, .....
n!2n dxn

in
con P0 (x) = 1. También se dispone de una relación de recurrencia

(n + 1) Pn+1 (x) = (2n + 1) xPn (x) − nPn−1 (x) .

m
Podemos ver la relación entre los polinomios de Legendre y las soluciones

λ=0 ⇒ y0 (x) = 1 = P0 (x)

eli
λ=1 ⇒ y1 (x) = x = P1 (x)
λ=2 ⇒ y0 (x) 1 − 3x2 = −2P2 (x)
=
5 2
λ=3 ⇒ y1 (x) = x − x3 = − P3 (x)
3 3
35 4 8
λ=4 ⇒
Pr 2
y0 (x) = 1 − 10x + x = P4 (x) .
3 3

9.2.2. Ejemplos
9.2.3. Practicando con Maxima
9.2.4. Ejercicios
or

1. Muestre que los puntos x = 0 y x = 1 son puntos singulares irregulares de la siguiente ecuación:
1 0
(x − 1)2 y 00 + y + 2y = 0 .
x2
ad

2. Obtenga los términos hasta orden k en potencias de (x − x0 ) de la solución general de cada una de las
siguientes ecuaciones diferenciales
a) y 00 − xy 0 + 2y = 0 , x0 = 0 , k=7
rr

b) 2(x2 + 8)y 00 + 2xy 0 + (x + 2)y = 0 , x0 = 0 , k=4

c) xy 00 + x2 y 0 − 2y = 0 , x0 = 1 , k=4
Bo

d) y 00 − xy 0 − y = sen(x) , x0 = 0 , k=5

329
9.3. EL MÉTODO DE FROBENIUS

9.3. El Método de Frobenius


Para la solución de ecuaciones diferenciales lineales ordinarias alrededor de puntos singulares regulares
se utiliza el método de Frobenius4 . Dada una ecuación diferencial de segundo orden:
f1 (x) 0 f2 (x)
y 00 + F1 (x) y 0 + F2 (x) y = 0 ⇔ y 00 + y + 2 y = 0, (9.5)
(x − x0 ) (x − x0 )
donde F1 (x) y F2 (x) tienen singularidades regulares en x = x0 y por lo tanto f1 (x) y f2 (x) son analı́ticas
alrededor de ese punto entonces, la propuesta de solución será una serie de Frobenius

r

a
m
X n
y(x) = (x − x0 ) an (x − x0 ) , (9.6)
n=0

in
donde n es entero positivo, pero m puede ser entero positivo (entonces la serie de Frobenius es una serie de
Taylor) o entero negativo (entonces la serie de Frobenius es una serie de Laurent), o un racional. Por lo cual
una serie de Frobenius incluye a las serie de Taylor y Laurent. Para hacer las cosas más simples supongamos,
sin perder generalidad, x0 = 0. Además, como f1 (x) y f2 (x) son analı́ticas entonces

m

X ∞
X
f1 (x) = bn x n y f2 (x) = cn x n (9.7)
n=0 n=0

eli
por lo tanto, la ecuación (9.5) queda
f1 (x) 0 f2 (x)
y 00 + y + y = 0 ⇒ x2 y 00 + x f1 (x) y 0 + f2 (x) y = 0 (9.8)
x x2
o también:
∞ ∞
2 00
x y +x
Pr
X
n
bn x y + 0
X
cn xn y = 0 .
n=0 n=0
Propondremos entonces la serie de Frobenius como solución de prueba:

X
y(x) = xm a n xn ,
n=0
or

por lo tanto:

X ∞
X
y 0 (x) = mxm−1 an xn + xm nan xn−1
n=0 n=1
ad


X ∞
X ∞
X
y 00 (x) = m (m − 1) xm−2 an xn + 2mxm−1 nan xn−1 + xm n (n − 1) an xn−2 ,
n=0 n=1 n=2

sustituyendo en la ecuación diferencial


rr

∞ ∞ ∞
" #
X X X
x2 m (m − 1) xm−2 an xn + 2mxm−1 nan xn−1 + xm n (n − 1) an xn−2 +
n=0 n=1 n=2
∞ ∞ ∞ ∞ ∞
" #
X X X X X
Bo

x bn xn mxm−1 an xn + x m
nan xn−1 + cn xn xm an xn = 0 ,
n=0 n=0 n=1 n=0 n=0
4 Ferdinand Georg Frobenius (1849-1917) Matemático Alemán famoso por sus contribuciones en Teorı́a de Grupos y
métodos para resolver ecuaciones diferenciales.

330
9.3. EL MÉTODO DE FROBENIUS

acomodando algunos términos:



X ∞
X ∞
X
m (m − 1) xm an xn + 2mxm nan xn + xm n (n − 1) an xn +
n=0 n=1 n=2
∞ ∞ ∞ ∞ ∞
" #
X X X X X
n m n m n n m
bn x mx an x + x nan x + cn x x an xn = 0 ,
n=0 n=0 n=1 n=0 n=0

podemos ahora sacar como factor común a xm ,

r
∞ ∞ ∞ ∞
" " ∞ ∞
#

a
X X X X X X
xm m (m − 1) an xn + 2m nan xn + n (n − 1) an xn + bn xn m an xn + nan xn +
n=0 n=1 n=2 n=0 n=0 n=1

in
∞ ∞
#
X X
n n
cn x an x = 0.
n=0 n=0

m
Expandiendo estas series y factorizando para los términos de igual potencia:

{a0 [m (m − 1) + b0 m + c0 ]} xm +
{a1 [m (m + 1) + b0 (m + 1) + c0 ] + a0 [b1 m + c1 ]} xm+1 +

eli
{a2 [(m + 2) (m + 1) + b0 (m + 2) + c0 ] + a1 [b1 (m + 1) + c1 ] + a0 [b2 m + c2 ]} xm+2 +
{a3 [(m + 3) (m + 2) + b0 (m + 3) + c0 ] + a2 [b1 (m + 2) + c1 ] + a1 [b2 (m + 1) + c2 ] + a0 [b3 m + c3 ]} xm+3 +
.. ..
. .
Pr
+ · · · + {an [(m + n) (m + n − 1) + b0 (m + n) + c0 ] + an−1 [b1 (m + n − 1) + c1 ] +
an−2 [b2 (m + n − 2) + c2 ] +
an−3 [b3 (m + n − 3) + c3 ] +
+ · · · + a1 [bn−1 (m + 1) + cn−1 ] +
a0 [bn m + cn ]} xm+n = 0
or

(9.9)

Consideremos el coeficiente de a0 que aparece en la primera lı́nea, lo denotaremos por µ(m)


ad

µ(m) = m (m − 1) + b0 m + c0 ,

podemos notar que para el coeficiente de a1 en la segunda lı́nea tenemos

µ(m + 1) = m (m + 1) + b0 (m + 1) + c0 ,
rr

de manera que:

para: a2 ⇒ µ(m + 2) = (m + 2) (m + 1) + b0 (m + 2) + c0
Bo

para: a3 ⇒ µ(m + 3) = (m + 3) (m + 2) + b0 (m + 3) + c0
.. .. .. ..
. . . .
para: an ⇒ µ(m + n) = (m + n) (m + n − 1) + b0 (m + n) + c0 .

331
9.3. EL MÉTODO DE FROBENIUS

Esto nos permite reacomodar aún más nuestros cálculos



" n−1
#
X X
m
a0 µ(m)x + an µ(m + n) + ak [(m + k) bn−k + cn−k ] xm+n = 0 . (9.10)
n=1 k=0

Como es de esperarse, este polinomio se anula si los coeficientes de xm , . . . , xm+i se anulan. La primera
de las ecuaciones que surge es lo que llamaremos la ecuación indicadora o ı́ndice
a0 6= 0 ⇒ µ(m) = m (m − 1) + b0 m + c0 = 0 , (9.11)

r
que no es otra cosa que un polinomio de segundo grado en m.

a
Al anular el coeficiente de xm+n
n−1

in
X
an µ(m + n) + ak [(m + k) bn−k + cn−k ] = 0 , (9.12)
k=0

obtendremos la relación de recurrencia para la serie de Frobenius, correspondientes a cada raı́z de la ecuación
indicadora (9.11), es decir, los coeficientes an dependerán de m y de los coeficientes que le preceden: {an−1 }.

m
Dado que la ecuación indicadora es un polinomio de segundo grado para m, entonces de allı́ se deri-
van dos raı́ces: m1 y m2 (consideraremos siempre que m1 ≥ m2 ). Dependiendo de como sean estas raı́ces
distinguiremos tres casos:

eli
1. m1 6= m2 ∧ m1 − m2 6= N , con N entero.
2. m1 = m2 = m.
3. m1 6= m2 ∧ m1 − m2 = N , con N entero positivo.
Pr
Como veremos a continuación, las raı́ces determinan fuertemente el comportamiento de las soluciones en
la vecindad de la singularidad. También podemos ver que los dos términos que aparecen en (9.12) no tienen
por qué ser necesariamente diferentes a cero simultáneamente.
Estudiemos estos casos con un poco más de detalle:
Caso 1: m1 6= m2 ∧ m1 − m2 6= N , con N entero.
En ese caso es claro que al resolver la ecuación indicadora y sustituir m1 en (9.12), se van despejando
or

todos los coeficientes a1 , . . . , an en términos de a0 . Notemos que siempre se cumplirá, en (9.12), que
µ(m1 + n) 6= 0. Igualmente al sustituir m2 encontramos la otra solución y ambas son linealmente
independientes. La solución general será
ad


X ∞
X
y(x) = C1 xm1 an xn + C2 xm2 an xn , x > 0,
n=0 n=0

para x < 0, debemos reemplazar xm1 por |x|m1 y xm2 por |x|m2 en la solución anterior.
Por ejemplo, encontremos la solución en términos de series de Frobenius de la siguiente ecuación
rr

   
1 1
x2 y 00 + x x + y 0 − x2 + y = 0.
2 2
Bo

Al dividir por x2 identificamos que x = 0 es un punto singular regular.


   
1 1 1 1
y 00 + x+ y 0 − 2 x2 + y = 0.
x 2 x 2

332
9.3. EL MÉTODO DE FROBENIUS

P∞
Proponemos por lo tanto una serie de Frobenius: y(x) = xm n=0 an xn . Necesitamos ahora hacer
algunas identificaciones fundamentales de esta última ecuación

1 1  b0 = 12 , b1 = 1
2
f1 (x) = + x , f2 (x) = − − x ⇒
2 2
c0 = − 21 , c1 = 0 , c2 = −1 ,

el resto de los coeficientes son: b2 = b3 = · · · = 0 y c3 = c4 = · · · = 0. Además f1 (x) y f2 (x) son validas


para todo x.

r
En cuanto a la ecuación indicadora tenemos lo siguiente:

a

1 1  m1 = 1
µ(m) = m (m − 1) + b0 m + c0 = 0 ⇒ m (m − 1) + m − = 0 ⇒

in
2 2
m2 = − 21

Las dos raı́ces son diferentes y su diferencia no es un entero: 1 − (−1/2) = 3/2.


Ahora podemos ir directamente al coeficiente de xm+n en (9.9) pues sabemos los valores de todos los

m
coeficientes {bi } y {ci }. Por lo tanto:
 
1 1
an (m + n) (m + n − 1) + (m + n) − + an−1 (m + n − 1) − an−2 = 0

eli
2 2
 
1 1 1
an m2 + 2mn − m + n2 − n − + an−1 (m + n − 1) − an−2 = 0
2 2
Pr 2

Con lo cual la relación de recurrencia general será

an−2 − an−1 (m + n − 1)
an = , para n ≥ 2 ,
m2 + 2mn − 12 m + n2 − 21 n − 1
2

dependiendo del valor de m tendremos una relación de recurrencia diferente.


or

• Para m = 1. En este caso se obtiene:


2 (an−2 − nan−1 )
an = para n ≥ 2 .
2n2 + 3n
ad

Note que podemos encontrar a1 a partir del coeficiente de xm+1 en la ecuación (9.9):
 
1 1 2
a1 1 (1 + 1) + (1 + 1) − + a0 [1 + 0] = 0 ⇒ a1 = − a0
2 2 5
rr

con lo cual
1 1
a0 + 45 a0 = 9 9

n=2 ⇒ a2 = 7 (a0 − 2a1 ) = 7 35 a0 ⇒ a2 = 35 a0

2 2
− 52 a0 − 27 82 82

n=3 ⇒ a3 = (a1 − 3a2 ) = 35 a0 = − 945 a0 ⇒ a3 = − 945 a0
Bo

27 27

1 1 9 328 571 571



n=4 ⇒ a4 = 22 (a2 − 4a3 ) = 22 35 a0 + 945 a0 = 20790 a0 ⇒ a4 = 20790 a0
.. ..
. .

333
9.3. EL MÉTODO DE FROBENIUS

Ası́ la primera solución será


 
2 9 82 3 571 4
y1 (x) = a0 x 1 − x + x2 − x + x + ··· .
5 35 945 20790

• Para m = − 12 . En este caso, la relación de recurrencia es:

2 an−2 − n − 23 an−1
 
an = para n ≥ 2 ,
2n2 − 3n

r
nuevamente, a1 se obtiene del coeficiente de xm+1 en la ecuación (9.9):

a
        
1 1 1 1 1 1
a1 − + − + a0 − = 0 ⇒ a1 = −a0 ,
2 2 2 2 2 2

in
por lo tanto:
n = 2 ⇒ a2 = a0 − 12 a1 = a0 + 21 a0 = 32 a0 ⇒ a2 = 23 a0

m
2
a1 − 23 a2 = 2
−a0 − 49 a0 = − 13 13
 
n = 3 ⇒ a3 = 9 9 18 a0 ⇒ a3 = − 18 a0

1
a2 − 52 a3 = 1 3 65 119 119
 
n = 4 ⇒ a4 = 10 10 2 a0 + 36 a0 = 360 a0 ⇒ a4 = 360 a0

eli
.. ..
. .

Por lo cual, la solución general será


   
2 9 2 82 3 571 4 C2 3 2 13 3 119 4
y(x) = C1 x 1 − x + x −
5 35 945
x +
Pr
20790
x + ··· + 1 1 − x + x − x +
x2 2 18 360
x + ··· .

Nótese que esta solución vale para 0 < x < ∞. Por cuanto para x < 0, la segunda solución se hace
imaginaria pero se puede resolver haciendo C2 = i C3 .
Caso 2: m1 = m2
or

Pongamos nuevamente nuestra atención en la ecuación (9.8):

x2 y 00 + x f1 (x) y 0 + f2 (x) y = 0 ,

donde f1 (x) y f2 (x) son analı́ticas en x = 0. Reacomodemos esta última ecuación de la forma
ad

2
 
2 00 0 2 d d
x y + x f1 (x) y + f2 (x) y = x + x f1 (x) + f2 (x) y ≡ L [y] = 0 ,
dx2 dx
P∞
donde L {•} está concebido como un operador lineal. Recordamos que si y(x) = xm n=0 an xn , en-
rr

tonces

" n−1
#
X X
m
L [y] ≡ a0 µ (m) x + an µ (m + n) + ak [(m + k) bn−k + cn−k ] xm+n ,
n=1 k=0
Bo

m+n
si anulamos los coeficientes de x entonces
n−1 Pn−1
X
k=0 ak [(m + k) bn−k + cn−k ]
an µ (m + n) + ak [(m + k) bn−k + cn−k ] = 0 ⇔ an = − ,
µ (m + n)
k=0

334
9.3. EL MÉTODO DE FROBENIUS

considerando que µ (m + n) 6= 0.
Por lo tanto, para los an seleccionados (que anulen el coeficiente xm+n ) y tomando el caso cuando las
raı́ces están repetidas, es decir, m1 = m2 = m se tiene lo siguiente:
2
L [y] (m, x) = a0 µ (m) xm = a0 (m − m1 ) xm .

Nótese que estamos considerando L [y] (m, x) como una función de m y x. Por lo cual, al evaluar para
la raı́z m = m1 resulta

r
2
L [y] (m, x)|m=m1 = a0 (m − m1 ) xm = 0.

m=m1

a
Veamos algo más interesante, intentemos derivar respecto a la constante m
d2 d2
    
d d

in
∂m [L [y]] = ∂m x2 2 + x f1 (x) + f2 (x) y = x2 + x f 1 (x) + f 2 (x) ∂m y
dx dx dx2 dx
h i h i
2 2
L [∂m y] = ∂m a0 (m − m1 ) xm = a0 (m − m1 ) xm ln(x) + 2 (m − m1 ) xm ,

m
comprobamos que también se anula cuando evaluamos en m = m1
h i
2
L [∂m y]m=m1 = a0 (m − m1 ) xm ln x + 2 (m − m1 ) xm = 0,
m=m1

eli
por lo tanto también es solución. Con lo cual una segunda solución puede construirse de la siguiente
manera

" " ##
X
m n
y2 (x) = ∂m y|m=m1 = ∂m x a0 + an (m) x
n=1 m=m1
Pr
" ∞
X
# ∞
X
= xm1 ln(x) a0 + an (m1 ) xn + xm1 ∂m [an (m1 )] xn
n=1 n=1

X
m1
= y1 (x) ln(x) + x Bn (m1 ) xn ,
n=1

donde hemos denotado ∂m [an (m1 )] = Bn (m1 ).


or

La solución general tendrá la forma


∞ ∞ ∞
" # " " # #
X X X
m n m n m n
y(x) = C1 x 1+ an (m) x + C2 x 1+ an (m) x ln(x) + x Bn (m) x ,
ad

n=1 n=1 n=0


∞ ∞
" #
X X
= xm 1 + an (m) xn [C1 + C2 ln(x)] + C2 xm Bn (m) xn , x > 0.
n=1 n=0

Veamos el siguiente ejemplo: analicemos un caso particular de la ecuación de Bessel5


rr

x2 y 00 + x y 0 + x2 + ν 2 y = 0 .


5 Fredrich Wilhel Bessel (1784-1846). Astrónomo y matemático alemán. Aportó notables contribuciones a la astronomı́a
Bo

posicional, la geodesia y la mecánica celeste. Particularmente, se dedicó a aumentar la exactitud de las mediciones de la
posición y el movimiento de los astros. La precisión de sus mediciones hizo posible que determinara pequeñas irregularidades
en los movimientos de Urano lo condujo a predecir la existencia de Neptuno. Análogos razonamientos lo llevaron a especular
sobre la presencia de estrellas compañeras en Sirio y Procyon. A partir de datos registrados en el siglo XVII, calculó la órbita
del cometa Halley

335
9.3. EL MÉTODO DE FROBENIUS

La ecuación viene parametrizada por ν y dependiendo de su valor tendremos una familia de soluciones.
Consideremos el caso ν = 0:
1 0 x2
x2 y 00 + x y 0 + x2 y = 0 ⇒ y 00 + y + 2y = 0.
x x
Podemos ver que: 
 b0 = 1
f1 (x) = 1 , f2 (x) = x2 ⇒

r
c0 = 0 , c1 = 0 , c2 = 1

el resto de los coeficientes son cero. De la ecuación indicadora vemos lo siguiente:

a

 m1 = 0
µ(m) = m (m − 1) + b0 m + c0 = 0 ⇒ m (m − 1) + m = m2 = 0 ⇒

in
m2 = 0

Por lo tanto, la relación de recurrencia se obtiene del coeficiente de xm+n de (9.9)

m
an−2
an [(m + n) (m + n − 1) + (m + n)] + an−2 = 0 ⇒ an (m) = −
(m + n) (m + n − 1) + (m + n)
tomando m = 0, se tiene:
an−2

eli
an (0) = − para n ≥ 2 .
n2
Otra vez, al anular el coeficiente para xm+1 (ecuación (9.9)) se obtiene:

a1 [0 (0 + 1) + (0 + 1) + 0] + a0 [0 + 0] = 0 ⇒ a1 = 0 .
Pr
Con lo cual, es claro que se anulan todos los coeficientes impares, y ası́
a2n−2
a2n = − 2 para n = 1, 2, 3, . . .
(2n)
tenemos entonces lo siguiente:
or

1
n=1 ⇒ a2 = − a0 ⇒ a2 = − 41 a0
4
1 1 1
n=2 ⇒ a4 = − 2 a2 =
2 a0 ⇒ a4 = 2 a0
(2 · 2) (2 · 2) 22 (2 · 2) 22
ad

" #
1 1 1 −1
n=3 ⇒ a6 = − 2 a4 = − 2 2 a0 ⇒ a6 = 2 a0
(2 · 3) (2 · 3) (2 · 2) 22 (2 · 3) 23
.. ..
. .
rr

n n
a2n−2 (−1) (−1)
n=n ⇒ a2n = − 2 = 2 a0 ⇒ a2n = 2 a0
(2n) 22n (n!) 22n (n!)
Bo

La primera de las soluciones será



" #
n
X (−1) 2n
y1 (x) = a0 1 + 2x = a0 J0 (x) .
n=1 22n (n!)

336
9.3. EL MÉTODO DE FROBENIUS

Donde J0 (x) se conoce como la función de Bessel de primera especie de orden cero. Para calcular la
segunda solución de la ecuación de Bessel se sustituye

X
y2 (x) = J0 (x) ln(x) + Bn xn en la ecuación: x2 y 00 + xy 0 + x2 y = 0 ,
n=0

para ello se requieren sus derivadas


∞ ∞
J0 X J00 J0 X
y20 = J00 ln(x) + + Bn nxn−1 , y200 = J000 ln(x) + 2 − 2+ Bn n (n − 1) xn−2 ,

r
x n=1
x x n=2

a
entonces, al sustituir en la ecuación diferencial:
∞ ∞
" # " #
J00 J0 X J0 X

in
2 00 n−2 0 n−1
x J0 ln(x) + 2 − 2 + Bn n (n − 1) x + x J0 ln(x) + + Bn nx +
x x n=2
x n=1

" #
X
2 n
x J0 ln(x) + Bn x = 0

m
n=0
 
X∞ X∞ X∞
x2 J000 + xJ00 + x2 J0  ln(x) + 2xJ00 + Bn n (n − 1) xn + Bn nxn + Bn xn+2 = 0
| {z } n=2 n=1 n=0
=0

eli
por lo tanto:
∞ ∞ n
X X (−1) 2n 2n
B1 x + 22 B2 x2 + Bn n2 + Bn−2 xn = −2

x .
2n (n!)2
n=3 n=1 2
Pr
Es claro que para los coeficientes impares se obtiene B1 = B3 = B5 = · · · = B2n+1 · · · = 0, ya que
∞ n
X (−1) 2n 2n
B1 x + 22 B2 x2 + 32 B3 + B1 x3 + 42 B4 + B2 x4 + 52 B5 + B3 x5 + · · · = −2
  
x ,
2n (n!)2
n=1 2

mientras que para las potencias pares tendremos la relación de recurrencia


" #
n+1
or

1 (−1) n
B2n = 2 2 − B2n−2 ,
(2n) 22(n−1) (n!)
como se puede ver:
ad

1
B2 = 2 2
22 (1!)
"  #

1 4 1 1 1
B4 = 2 2 − 2 −2 1 + =−
(2 · 2) 22 (2!) 22 (1!) 42 22 2
rr

" # "  #  
1 3 1 3 1 1 1 1 1
B6 = 2 2 − B4 = 62 2 + 42 22 1 + 2 = 2 2 2 1+ +
6 4 2 2 3
(6) 24 (3!) 24 (3!)
.. ..
Bo

. .
k+1   k+1
(−1) 1 1 1 1 1 (−1)
B2k = 2 + + + ··· + + + 1 = 2 Sk .
22k (k!) k k−1 k−2 3 2 22k (k!)

337
9.3. EL MÉTODO DE FROBENIUS

a r
in
m
Figura 9.1: Comportamiento de las funciones de Bessel de orden cero. De primera especie J0 (x) y de segunda
especie Y0 (x)

eli
Ası́ la segunda solución puede tomar la forma de
Pr
y2 (x) = J0 (x) ln(x) +

X (−1)
n+1
x2n .
2n (n!) 2 Sn
n=1 2

La solución general se podrá escribir como:



" #
n+1
X (−1) 2n
y (x) = C1 J0 (x) + C2 J0 (x) ln(x) + 2 Sn x .
or

n=1 22n (n!)

Es costumbre en Fı́sica reacomodar la segunda solución de la siguiente manera



" #
ad

n+1
2 h  x i X (−1) 2n
y2 (x) ≡ Y0 (x) = γ + ln J0 (x) + Sn x ,
π 2 2n (n!)2
n=1 2

donde γ se conoce como la constante de Euler-Mascheroni6 y tiene de valor


 
rr

1 1 1 1 1
γ = lı́m + + + · · · + + + 1 − ln (n) ∼ = 0,5772 ,
n→∞ n n−1 n−2 3 2
de manera que finalmente:
Bo

y (x) = C1 J0 (x) + C2 Y0 (x) .


6 Lorenzo Mascheroni (1750-1800) Monje Italiano, nacido en Bergamo, Lombardo-Veneto. Profesor de algebra y geometrı́a

en la Universidad de Pavia y luego rector de la misma. Además de poeta, se destacó por sus contribuciones al cálculo y a la
mecánica.

338
9.3. EL MÉTODO DE FROBENIUS

Nótese que tanto la función de Bessel de orden cero, de primera especie, J0 (x), como la función de
Bessel de orden cero, de segunda especie, Y0 (x), tienen un comportamiento oscilatorio cuando x → ∞.
Además J0 (0) = 1, mientras que Y0 (x) se comporta como π2 ln(x) cuando x → 0.
Caso 3: m1 6= m2 ∧ m1 − m2 = N , con N entero.
En general, para este caso: m1 − m2 = N ⇒ m1 = N + m2 , con m1 > m2 . Notemos que podemos
escribir las dos raı́ces como: m y m + N . Entonces, como m + N es una raı́z satisface también la
ecuación indicadora:

r
µ (m + N ) = (m + N ) (m + N − 1) + b0 (m + N ) + c0 = 0 ,

a
esto significa que µ (m + N ) = 0 anula al coeficiente del término an para n = N del coeficiente xm+n ,
ecuación (9.9), como se puede ver a continuación

in
an [(m + n) (m + n − 1) + b0 (m + n) + c0 ] + an−1 [b1 (m + n − 1) + c1 ] +
an−2 [b2 (m + n − 2) + c2 ] +
an−3 [b3 (m + n − 3) + c3 ] +

m
+ · · · + a1 [bn−1 (m + 1) + cn−1 ] +
a0 [bn m + cn ] = 0

eli
cuando n = N , se tiene
n−1
X
an [(m + N ) (m + N − 1) + b0 (m + N ) + c0 ] + ak [(m + N − k) bn−k + cn−k ] = 0 .
Pr k=0

Esto trae como consecuencia que se derivan dos casos:


PN −1
1.- µ (m + N ) = 0 ∧ k=0 ak [(m + N − k) bn−k + cn−k ] = 0.
En este caso, la solución en serie de Frobenius, partiendo de la raı́z mayor de la ecuación indicadora,
m + N , quedará en términos de a0 y no será linealmente independiente a la solución provista por
or

la raı́z menor, por consiguiente la solución proveniente de esta raı́z menor, m, será la solución
general:
∞ ∞
" #
X X
m n m
y(x) = a0 |x| 1+ an (m) x + aN |x| an (m + N ) xn . (9.13)
ad

n=1 n=0

Un ejemplo: la ecuación de Bessel, de orden fraccionario, puede ilustrar este caso, resolvámosla
 
2 00 0 2 1
x y + xy + x − y = 0.
4
rr

Veamos entonces que



 b0 = 1
Bo

1
f1 (x) = 1 , f2 (x) = − + x2 ⇒
4
c0 = − 41 , c1 = 0 , c2 = 1

339
9.3. EL MÉTODO DE FROBENIUS

el resto de los coeficientes son iguales a cero. En cuanto a la ecuación indicadora tenemos lo
siguiente:

1 1  m1 = 12
2
µ(m) = m (m − 1) + b0 m + c0 = 0 ⇒ m (m − 1) + m − = m − = 0 ⇒
4 4
m2 = − 21

Las dos raı́ces son diferentes y su diferencia es un entero: N = 1/2 − (−1/2) = 1. La raı́z más
pequeña es m = −1/2

r
Vayamos al coeficiente de xm+1 en (9.9):

a
a1 [m (m + 1) + b0 (m + 1) + c0 ] + a0 [b1 m + c1 ] = 0
 
1
a1 m (m + 1) + (m + 1) − + a0 [0m + 0] = 0

in
4
 
3
a1 m2 + 2m + + a0 [0] = 0 .
4

m
Para la raı́z más pequeña, que es m = −1/2, tendremos
 
1 3
a1 −1+ + a0 [0] = 0
4 4

eli
a1 [0] + a0 [0] = 0 ,

el coeficiente de a1 es cero y el del otro coeficiente también es cero. Con lo cual cualquier valor de
a1 y a0 estarán permitidos.
La relación de recurrencia proviene de anular el coeficiente de xm+n , para m = −1/2. Vale decir
 
Pr       
1 1 1 1 1
an − + n − +n−1 + − +n − + an−1 0 − + n − 1 + 0 +
2 2 2 4 2
   
1
an−2 0 − + n − 2 + 1 = 0
2
     
1 3 1 1
an − + n − +n + − +n − + an−1 [0] + an−2 [1] = 0
or

2 2 2 4
an n2 − n + an−2 = 0 .
 

La relación de recurrencia será entonces:


ad

an−2
an = − con n ≥ 2 .
n2 − n
Los coeficientes serán
1 1
n = 2 ⇒ a2 = − a0 n = 3 ⇒ a3 = − a1
rr

2 6
1 1 1 1
n = 4 ⇒ a4 = − a2 = a0 n = 5 ⇒ a5 = − a3 = a1
12 24 20 120
Bo

1 1 1 1
n = 6 ⇒ a4 = − a4 = − a0 n = 7 ⇒ a7 = − a5 = − a1
30 720 42 5040
.. ..
. .

340
9.3. EL MÉTODO DE FROBENIUS

Por lo cual, la solución general será


   
− 12 1 2 1 4 1 6 − 21 1 3 1 5 1 7
y(x) = a0 x 1− x + x − x + · · · +a1 x x− x + x − x + ··· ,
2 24 720 6 120 5040
que es equivalente a:
   
1 1 1 1 6 1 1 1 4 1 6
y(x) = a0 x− 2 1 − x2 + x4 − x + · · · + a1 x 2 1 − x2 + x − x + ··· .
2 24 720 6 120 5040

r
PN −1
2.- µ (m + N ) = 0 ∧ k=0 ak [(m + N − k) bn−k + cn−k ] 6= 0.
En este caso la raı́z mayor de la ecuación indicadora m1 = m+N determinará una de las soluciones.

a
Veamos el siguiente ejemplo: analicemos la siguiente ecuación diferencial

in
x2 y 00 − x (2 − x) y 0 + 2 + x2 y = 0 .


Ahora 
 b0 = −2 , b1 = 1
f1 (x) = −2 + x , f2 (x) = 2 + x2 ⇒

m
c0 = 2 , c1 = 0 , c2 = 1 ,

el resto de los coeficientes son iguales a cero.


Una vez más, la expansión en serie de Frobenius de y (x) nos lleva a una ecuación indicadora que

eli
debemos resolver

 m1 = 2
µ(m) = m (m − 1) + b0 m + c0 = 0 ⇒ m (m − 1) − 2m + 2 = m2 − 3m + 2 = 0 ⇒
m2 = 1

Por lo tanto N = 1.
Pr
Veamos nuevamente al coeficiente de xm+1 en (9.9)
a1 [m (m + 1) + b0 (m + 1) + c0 ] + a0 [b1 m + c1 ] = 0
a1 [m (m + 1) − 2 (m + 1) + 2] + a0 [m + 0] = 0
a1 m2 − m + a0 [m] = 0 .
 
or

Para la raı́z más pequeña, que es m = 1, tendremos


a1 [0] + a0 [1] = 0 ,
ad

lo cual no conduce a nada por cuanto a0 = 0, mientras que, para m = 2 se obtiene


a1 [2] + a0 [2] = 0 ⇒ a1 = −a0 .

La relación de recurrencia proviene de anular el coeficiente de xm+n , para m = 2:


rr

an [(2 + n) (2 + n − 1) − 2 (2 + n) + 2] + an−1 [(2 + n − 1) + 0] + an−2 [0 (2 + n − 2) + 1] = 0


an [(2 + n) (1 + n) − 2n − 2] + an−1 [1 + n] + an−2 [1] = 0
an n2 + n + an−1 [1 + n] + an−2 [1] = 0
 
Bo

por lo tanto:
an n2 + n = −an−1 [1 + n] − an−2 ,
 
para n ≥ 2 ,
los coeficientes serán

341
9.3. EL MÉTODO DE FROBENIUS

1
n = 2 ⇒ 6a2 = −3a1 − a0 = 3a0 − a0 ⇒ a2 = a0
3
4 1
n = 3 ⇒ 12a3 = −4a2 − a1 = − a0 + a0 ⇒ a3 = − a0
3 36
.. ..
. .
Por lo cual:  
1 1
y1 (x) = a0 x2 1 − x + x2 − x3 + · · · ,

r
3 36
y la segunda solución linealmente independiente (se deja como ejercicio) será

a
y2 (x) = u (x) − bN y1 (x) ln(x) , (9.14)

in
donde N es la diferencia entre las raı́ces. y1 (x) es la solución en series obtenida a partir de la raı́z
mayor: n + N y u(x) es la serie de Frobenius:

m
X
m
u (x) = x bi x i . (9.15)
i=0

9.3.1. Ejemplos

eli
9.3.2. Practicando con Maxima
9.3.3. Ejercicios
1. Resuelva la siguiente ecuación diferencial
Pr
2x2 y 00 − x y 0 − (x + 1) y = 0 .

2. Verifique que el origen es una singularidad regular y encuentre la solución de la siguiente ecuación
diferencial
x2 y 00 + x y 0 + x2 − 1 y = 0 .

or

3. Verifique que el origen es una singularidad regular de cada una de las ecuaciones siguientes. Como las
raı́ces de la ecuación indicadora no difieren por un entero y encuentre las dos soluciones linealmente
independientes
ad

a) x2 y 00 + x(x + 21 )y 0 + xy = 0
b) 2x2 y 00 + 3xy 0 + (2x − 1)y = 0
c) 2xy 00 + (x + 1)y 0 + 3y = 0
d ) 2x2 y 00 − xy 0 + (1 − x2 )y = 0
rr

4. Verifique que el origen es una singularidad regular de cada una de las ecuaciones siguientes. Como
las raı́ces de la ecuación indicadora difieren por un entero encuentre las dos soluciones linealmente
independientes
Bo

a) x2 y 00 − x2 y 0 + (x2 − 2)y = 0
b) x2 y 00 + (1 + x3 )xy 0 − y = 0

342
9.4. REVISITANDO A BESSEL

c) x2 y 00 + xy 0 + (x2 − 19 )y = 0
5. Verifique que el origen es una singularidad regular de cada una de las ecuaciones siguientes. Como las
raı́ces de la ecuación indicadora se repiten encuentre al menos una de las soluciones
a) x2 y 00 − 3y 0 + 4(x + 1)y = 0
b) xy 00 + (1 − x)y 0 + 21 y = 0

9.4. Revisitando a Bessel

a r
La Ecuación de Bessel es
x2 y 00 + xy 0 + x2 − k 2 y = 0;

k ∈ <, (9.16)

in
obviamente x = 0 es una singularidad regular, por lo tanto el método de Frobenius nos permite afirmar que
si x = x0 corresponde a un polo regular de la ecuación
x2 y 00 + xf1 (x) y 0 + f2 (x) y = 0 ,

m
la solución vendrá expresada de la forma

X
m n
y(x) = (x − x0 ) an (x − x0 ) ,
n=0

eli
con m real y determinado a través de las raı́ces de la ecuación indicadora
m2 + (f1 (x0 ) − 1) m + f2 (x0 ) = 0 ,
y donde f1 (x) y f2 (x) son funciones analı́ticas en el entorno de x = x0 y por lo tanto

X
Pr ∞
X
n n
f1 (x0 ) = bn (x − x0 ) ∧ f2 (x0 ) = cn (x − x0 ) .
n=0 n=0

Para la Ecuación de Bessel (9.16)


f1 (x) = 1 ⇒ b0 = 1 ∧ f2 = −k 2 + x2 ⇒ c0 = −k 2 , c1 = 0 , c2 = 1 ,
or

los demás coeficientes b’s y c’s se anulan. La ecuación indicadora y sus raı́ces quedan como
m (m − 1) + m − k 2 = 0 ⇒ m2 = k 2 ⇒ m1,2 = ±k .
Donde, para m = k proponemos
ad


X
y1 (x) = xm an xn .
n=0
Al hacer las cuentas para cada término por separado se tiene
∞ ∞
rr

X X
x2 − k 2 y1 (x) xk an−2 xn − xk k 2 a n xn

=
n=2 n=0
X∞
xy10 (x) = xk (k + n) an xn
Bo

n=0
X∞
x2 y100 (x) = xk (k + n) (k + n − 1) an xn ,
n=0

343
9.4. REVISITANDO A BESSEL

la ecuación de Bessel queda como



X ∞
X
(k + n) (k + n − 1) + (k + n) − k 2 an xn + an−2 xn = 0
 
n=0 n=2

X
(2k + 1) a1 x + [n (2k + n) an + an−2 ] xn = 0 ,
n=2

y por consiguiente obtenemos la relación de recurrencia

r
an−2
an = − para n ≥ 2 ,

a
n (2k + n)

donde es claro que a1 = 0. Adicionalmente, como a0 es arbitrario, podemos suponer que

in
1
a0 = ,
2k Γ (k + 1)

m
tendremos

a1 = a3 = a5 = · · · = 0
a0
a2 = −

eli
2 (2k + 2)
a0
a4 =
2 · 4 (2k + 2) (2k + 4)
..
.
n
Pr a0
a2n = (−1) 2n .
2 n! (k + 1) (k + 2) · · · (k + n)

Por lo tanto, la primera de las soluciones será


∞ n  x 2n+k
X (−1)
Jk (x) = ,
Γ (n + 1) Γ (n + k + 1) 2
or

n=0

la Función de Bessel, de orden k de primera especie.


Si k = 0 entonces
∞ n
X (−1)  x 2n
ad

J0 (x) = 2 .
n=0 (n!)
2
Para el caso particular de k = N entero positivo la función de Bessel de primera especie toma la forma
de
∞ n
 x 2n+N
X (−1)
JN (x) = .
rr

n=0
n! (n + N )! 2
Para encontrar la segunda solución linealmente independiente de la ecuación de Bessel el método de
Frobenius propone tres casos dependiendo el valor de k
Bo


 m1 − m2 6= entero ⇒ k 6= entero
m1 = m2 = m ⇒ k = 0
m1 − m2 = entero ⇒ k = entero

344
9.4. REVISITANDO A BESSEL

a r
in
m
eli
Caso 1: m1 − m2 6= entero ⇒ k 6= entero.
La solución general será de la forma
Pr
y(x) = C1 Jk (x) + C2 J−k (x) ,

donde
∞ n  x 2n−k
X (−1)
J−k (x) = x>0
n=0
Γ (n + 1) Γ (n − k + 1) 2
or

Para x < 0 se debe reemplazar x−k por |x|−k .


Nótese que esta última expresión también es válida para k semientero, i.e. k = n + 21 .
Caso 2: m1 = m2 = m ⇒ k = 0.
ad

La solución general será de la forma



X
K0 (x) = ãn xn + J0 (x) ln(x) ,
n=0
rr

y los coeficientes ãn se encuentran mediante el tradicional método de sustituirlos en la ecuación de


Bessel para k = 0
xy 00 + y 0 + xy = 0 .
Bo

345
9.4. REVISITANDO A BESSEL

De donde se obtiene

X ∞
X
xK0 (x) = ãn xn+1 + xJ0 (x) ln(x) = ãn−2 xn−1 + xJ0 (x) ln(x)
n=0 n=3
∞ ∞
X 0
X J0 (x)
K00 (x) = nãn xn−1 + (J0 (x) ln(x)) = nãn xn−1 + J00 (x) ln(x) +
n=0 n=1
x

X J0 (x)
xK000 (x) = n (n − 1) ãn xn−1 + xJ000 (x) ln(x) + 2J00 (x) − ,

r
n=2
x

a
y por lo tanto
 

in
X
+ xJ000 + J00 + xJ0  ln(x) + 2J00 (x) = 0 .
 2  n−1
ã1 + 4ã2 x + n ãn + ãn−2 x
n=3
| {z }
= 0

Acomodando y derivando la expresión para J0 tendremos

m
∞ ∞ n+1
X X 2n (−1)
n2 ãn + ãn−2 xn−1 = −2J00 (x) = 2 x2n−1 .
 
ã1 + 4ã2 x + 2
n=3 n=1
22n−1 (n!)

eli
Ahora multiplicando la expresión por x y separando las sumatorias en sus términos pares e impares,
tendremos
∞ h
X i
2
ã1 x + (2n + 1) ã2n+1 + ã2n−1 x2n+1 = 0
n=1
X∞ h i
Pr ∞
X 2n
2 n+1
(2n) ã2n + ã2n−2 x2n + 4ã2 x2 = x2 + (−1) 2x
2n
.
n=2 n=1 22n (n!)

Por lo cual ã1 = ã3 = ã5 = · · · = 0 mientras que


2 n+1 2n
4ã2 = 1; (2n) ã2n + ã2n−2 = (−1) n > 1.
or

2
22n (n!)

De esta forma los coeficientes quedan como:


1
ã2 =
ad

22    
1 1 1 1
ã4 = − 2 2 1+ =− 2 1+
2 ·4 2 24 · (2!) 2
..
.
rr

n+1  
(−1) 1 1 1 1
ã2n = 2 1+ + + + ··· + .
22n (n!) 2 3 4 k
Bo

La expresión para la solución general de la ecuación de Bessel para k = 0 será


∞ n+1  
X (−1) 1 1 1 1  x 2n
K0 (x) = 2 1 + + + + · · · + + J0 (x) ln(x) .
n=0 (n!)
2 3 4 k 2

346
9.4. REVISITANDO A BESSEL

En Fı́sica, es costumbre expresar esta solución de una forma equivalente pero ligeramente diferente:
∞ n  
2 X (−1) 1 1 1  x 2n 2 h x i
Y0 (x) = − 1 + + + · · · + + J 0 (x) ln + γ ,
π n=0 (n!)2 2 3 k 2 π 2

donde, como ya hemos visto, γ = 0,577215664901 · · · es la constante de Euler-Mascheroni.


Caso 3: m1 − m2 = entero ⇒ k = entero.
La solución general será de la forma

r

a
X
Kk (x) = ãn xk+n + CJn (x) ln(x) .
n=0

in
Procediendo de forma equivalente a la situación anterior tenemos que la solución general podrá expre-
sarse (luego de una laboriosa faena) como

m
k−1 ∞ n
1 X (k − n − 1)!  x 2n−k Hk  x k 1 X (−1) [Hn + Hn+k ]  x 2n+k
Kk (x) = − − − +Jk (x) ln(x) .
2 n=0 n! 2 2k! 2 2 n=1 n! (k + n)! 2

Y finalmente la Función de Bessel de orden k de segunda especie o Función de Neumann

eli
k−1 ∞ n
1 X (k − n − 1)!  x 2n−k Hk  x k 1 X (−1) [Hn + Hn+k ]  x 2n+k
Yk (x) = − 2 − −
π n=0 (n!) 2 πk! 2 π n=1 n! (k + n)! 2
2 h  x  i
Pr +
π
Jk (x) ln
2
+γ .

En ambos casos
1 1 1
Hn = 1 + + + ··· +
2 3 n
Más aún
or

k−1
2 x 1 X (k − n − 1)!  x 2n−k
Yk (x) = Jk (x) ln − 2
π 2 π n=0 (n!) 2
∞ n  x 2n+k
1 X (−1)
ad

− [ψ(n + 1) + ψ(n + k + 1)] ,


π n=1 n! (k + n)! 2

Γ0 (n)
donde ψ(n) = es la función Digamma con
Γ(n)
rr

1 1 1
ψ(n + 1) = −γ + 1 + + + ··· + , ψ(1) = −γ .
2 3 n

También es costumbre definir la función de Bessel de segunda especie en términos de las de primera
Bo

especie
Jk (x) cos(kπ) − J−k (x)
Nk (x) = Yk (x) = .
sen(kπ)

347
9.4. REVISITANDO A BESSEL

a r
in
m
eli
Nótese que para k = N entero, aparentemente no esta definida. Pero, aplicando la regla de L’Hospital
d

[Jk (x) cos(kπ) − J−k (x)]

NN (x) = dk
Pr
d

[sen(kπ)]


dk  k=N

d d
−πJn (x)sen(nπ) + cos(nπ) Jk (x) −

J−k (x)
dk dk
=
π cos(nπ)

or


k=N
 
1 d n d
= Jk (x) − (−1) J−k (x) .
π dk dk k=N
ad

De este modo, la soluciones generales para la ecuación de Bessel, se expresan según el caso en
Zk (x) = C1 Jk (x) + C2 J−k (x); k 6= entero
Z̃k (x) = C1 Jk (x) + C2 Yk (x); k=0 ∨ entero

La funciones Zk (x) y Z̃k (x) se denominan Funciones Cilı́ndricas de orden k.


rr

9.4.1. Otras formas de la ecuación de Bessel


Bo

Haciendo los cambios de variables correspondientes llegamos a


2 α 2 − k 2 ν 2
 
1 − 2α 0
u00 (x) + u (x) + βν xν−1 + u(x) = 0 ,
x x2

348
9.4. REVISITANDO A BESSEL

donde
u(x) = xα Zk (βxν ) ,
o también
u00 (x) + αxν u(x) = 0 ,
con  √


2 α 1+ ν
u(x) = xZ 1 x 2 .
ν+2 ν+2

r
9.4.2. Relaciones de recurrencia:

a
Las funciones de Bessel tienen las siguientes relaciones de recurrencia

in
xJk+1 (x) − 2k Jk (x) + xJk−1 (x) = 0
Jk+1 (x) + 2Jk0 (x) − Jk−1 (x) = 0

Para demostrar estas relaciones partimos por demostrar lo siguiente:

m
0  −k 0
x Jk (x) = −x−k Jk+1 (x) .
 k
x Jk (x) = xk Jk−1 (x) ∧

De la expresión para Jk (x) se obtiene

eli
" ∞
#0 ∞
n n
X (−1)  x 2n+2k X (−1) 2 (n + k) x2n+2k−1
= 2n+k
n=0
Γ (n + 1) Γ (n + k + 1) 2 n=0
2 Γ (n + 1) Γ (n + k + 1)
∞ n
X (−1) x2n+(k−1)
= xk
Pr n=0
22n+(k−1) Γ (n + 1) Γ (n + k)
= xk Jk−1 (x) .

Unos cambios apropiados nos llevan a demostrar las segunda de las relaciones y al desarrollar las derivadas
0
xk Jk (x) = kxk−1 Jk (x) + xk Jk0 (x) = xk Jk−1 (x)

or

 −k 0
x Jk (x) = −kx−k−1 Jk (x) + x−k Jk0 (x) = −x−k Jk+1 (x)

Por lo cual
ad

kJk (x) + xJk0 (x) = xJk−1 (x)


−kJk (x) + xJk0 (x) = −xJk+1 (x) .

Al sumar y restar miembro a miembro obtenemos las relaciones de recurrencia. Es obvia la importancia
que adquieren J1 (x) y J0 (x) para generar el resto de las funciones de Bessel.
rr

9.4.3. Funciones de Bessel y las funciones elementales


1
Las funciones de Bessel de orden semientero, k = se expresa como
Bo

2
r ∞ n  x 2n
xX (−1)
J1/2 (x) = ,
2 n=0 Γ (n + 1) Γ n + 23

2

349
9.4. REVISITANDO A BESSEL

pero como      
3 3 5 2n + 1 3 1 · 3 · 5 · · · (2n + 1)
Γ n+ = · · ··· =Γ ,
2 2 2 2 2 2n
se encuentra que
r ∞ n
xX (−1)
J1/2 (x) = 3
 x2n
2 n=0 2n n!Γ 2 1 · 3 · 5 · · · (2n + 1)
x2 x4 x6
 
x

r
=√  1− + − + ···
2xΓ 32 2·3 2·4·3·5 2·4·6·3·5·7

a
x3 x5 x7
 
1 1
= √ 1− + − + ··· = √  sen(x) .
2xΓ 32 2xΓ 23

3! 5! 7!

in
 √
Finalmente, y otra vez invocando a las propiedades de la función Gamma: Γ 23 = 2π
r
2
J1/2 (x) = sen(x) .

m
πx
Equivalentemente se puede demostrar que
r
2
J−1/2 (x) = cos(x) ,

eli
πx
y ahora utilizando las relaciones de recurrencia tendremos que
r  
1 2 sen(x)
J3/2 (x) = −J−1/2 (x) + J1/2 (x) = − cos(x) .
x πx x
Pr
Ası́ mismo r  
3 2 3sen(x) 3 cos(x)
J5/2 (x) = −J1/2 (x) + J3/2 (x) = − − sen(x) .
x πx x2 x
En general
r
2 n+ 1 dn
 
sen(x)
or

n
Jn+ 21 (x) = (−1) x 2 n n = 1, 2, 3, · · ·
π (xdx) x
r
2 n+ 1 dn
 
cos(x)
Jn+ 21 (x) = x 2 n n = −1, −2, −3, · · ·
π (xdx) x
ad

Las funciones de Bessel de orden semientero son las únicas funciones de Bessel que pueden ser expresadas
en términos de funciones elementales.

9.4.4. Reflexión
rr

Las funciones de Bessel cumplen con


k
J−k (x) = (−1) Jk (x) .
Bo

Para el caso k = N entero positivo la Función de Bessel de primera especie toma la forma de
∞ n
 x 2n+N
X (−1)
JN (x) =
n=0
n! (n + N )! 2

350
9.4. REVISITANDO A BESSEL

Si k = −N , un entero negativo, los primeros N términos de la serie anterior se anulan ya que Γ(n) → ∞
para n = −1, −2, −3, · · · y la serie se arma como
∞ n  x 2n+N X (−1) ∞ l+N
 x 2l+N
X (−1)
J−N (x) = =
n! (n − N )! 2 (l + N )! l! 2
n=N l=0
N
J−N (x) = (−1) JN (x) .

9.4.5. Función generatriz

r
La función generatriz para las Funciones de Bessel es

a
B(x, t) = e 2 (t− t ) ,
x 1

in
desarrollando las dos series para las exponenciales
xt x x xn
e 2 =1+ t + 2 t2 + · · · + n tn + · · ·

m
2 2 2! 2 n!
n
x x −1 x −2 (−1) xn −n
e 2t = 1 − t + 2 t + ··· + t + ···
2 2 2! 2n n!
Por lo tanto multiplicando ambas series

eli
∞ ∞ n ∞
xn n X (−1) xn −n
B(x, t) = e 2 (t− t ) =
x 1 X X
n n!
t n n!
t = Jn (x) tn
n=0
2 n=0
2 n=−∞

9.4.6.
Pr
Representación integral para las funciones de Bessel
En la expresión anterior para la función generatriz se realiza el siguiente cambio de variable t = eiθ de
este modo
e 2 (t− t ) = eixsen(θ) = cos (xsen(θ)) + isen (xsen(θ)) ,
x 1

y por lo tanto

or

X
cos (xsen(θ)) + isen (xsen(θ)) = Jn (x) [cos (nθ) + isen (nθ)] ,
n=−∞
m
igualando partes reales e imaginarias y recordando que J−m (x) = (−1) Jm (x), para anular los términos
impares en la serie de la parte real y los pares en la de la parte imaginaria, podemos escribir
ad


X
cos (xsen(θ)) = J0 (x) + 2 J2n (x) cos (2nθ)
n=1

X
rr

sen (xsen(θ)) = 2 J2n+1 (x)sen ([2n + 1] θ) .


n=0

Multiplicando miembro a miembro en la primera de ellas por cos (2kθ) (y por cos ([2k + 1] θ) ) y la
Bo

segunda por sen ([2k + 1] θ) (y por sen (2kθ)). Integrando (en 0 ≤ θ ≤ π), también miembro a miembro y

351
9.4. REVISITANDO A BESSEL

término por término en las series, se obtienen

1 π
Z
J2n (x) = cos (xsen(θ)) cos (2nθ) dθ
π 0
1 π
Z
0= cos (xsen(θ)) cos ([2n + 1] θ) dθ
π 0
1 π
Z
J2n+1 (x) = sen (xsen(θ)) sen ([2n + 1] θ) dθ
π 0

r
Z π
1
0= sen (xsen(θ)) sen (2nθ) dθ .
π 0

a
Sumando miembro a miembro primera con cuarta y segunda con tercera tendremos la expresión integral

in
para las funciones de Bessel
1 π
Z
Jn (x) = cos (cos (nθ) − xsen(θ)) dθ ,
π 0
ya que todos sabemos que

m
cos (nθ − xsen(θ)) = cos (2nθ) cos (xsen(θ)) + sen (2nθ) sen (xsen(θ)) .

9.4.7. Ortogonalidad de las funciones de Bessel

eli
Haciendo el caso particular de α = 0 y ν = 1 en la primera de las expresiones equivalentes para la
ecuación de Bessel, tendremos

k2
 
1
u00 (x) + u0 (x) + β 2 − 2 u(x) = 0 , donde u(x) = Jk (βx) ,
x
Prx

multiplicando por x la ecuación diferencial puede ser reescrita como

k2
 
0
[xJk0 (βx)] + β 2 x − Jk (βx) = 0 ,
x
or

suponiendo k real y positivo, planteamos la ecuación para dos ı́ndices diferentes β1 y β2 por lo tanto quedan
como
k2
 
0
[xJk0 (β1 x)] + β12 x − Jk (β1 x) = 0
x
ad

k2
 
0
[xJk0 (β2 x)] + β22 x − Jk (β2 x) = 0 .
x

Multiplicando apropiadamente por Jk (β1 x) y Jk (β2 x), Integrando y restando miembro a miembro ten-
dremos que
rr

 1
Z Z 1n o
0 0
β22 − β12 xJk (β1 x)Jk (β2 x)dx = Jk (β2 x) [xJk0 (β1 x)] − Jk (β1 x) [xJk0 (β2 x)] dx
0 0
Bo

Z 1
0
= [Jk (β2 x)xJk0 (β1 x) − Jk (β1 x)xJk0 (β2 x)] dx
0
x=1
= Jk (β2 x)xJk0 (β1 x) − Jk (β1 x)xJk0 (β2 x)|x=0

352
9.4. REVISITANDO A BESSEL

ν rJ 0 ν rJ 1 ν rJ 3 ν rY 0 ν rY 1 ν rY 2 ν
1 2.404825558 3.831705970 5.135622302 0.8935769663 2.197141326 3.384241767
2 5.520078110 7.015586670 8.417244140 3.957678419 5.429681041 6.793807513
3 8.653727913 10.17346814 11.61984117 7.086051060 8.596005868 10.02347798
4 11.79153444 13.32369194 14.79595178 10.22234504 11.74915483 13.20998671
5 14.93091771 16.47063005 17.95981949 13.36109747 14.89744213 16.37896656
6 18.07106397 19.61585851 21.11699705 16.50092244 18.04340228 19.53903999
7 21.21163663 22.76008438 24.27011231 19.64130970 21.18806893 22.69395594

r
8 24.35247153 25.90367209 27.42057355 22.78202805 24.33194257 25.84561372
9 27.49347913 29.04682854 30.56920450 25.92295765 27.47529498 28.99508040

a
10 30.63460647 32.18967991 33.71651951 29.06403025 30.61828649 32.14300226

in
Cuadro 9.1: Los ceros de las funciones de Bessel Jn (x) y de la función de Newmann Yn (x).

para βi las raı́ces de los polinomios de Bessel, i.e. Jk (βi ) = 0 podemos deducir que las funciones de Bessel

m
son ortogonales
 1
Z
2 2
βi − β j xJk (βi x)Jk (βj x)dx ∝ δij .
0
Más aún, partiendo de la ecuación de Bessel original se puede llegar a

eli
1 0 2 β 2 − k2 2
|Jk (βx)|2 = [Jk (β)] + [Jk (β)] .
Pr 2 2β 2

9.4.8. Ejemplos
9.4.9. Practicando con Maxima
9.4.10. Ejercicios
or
ad
rr
Bo

353
Capı́tulo 10

ar
Funciones Especiales

in
m
eli
Pr
or
ad
rr
Bo

354
10.1. FUNCIÓN GAMMA

10.1. Función Gamma


Es la generalización del factorial n! el cual sólo está definido para enteros, mientras que Γ (z) está definida
para toda variable compleja z con parte real positiva.
Γ (z) se define indistintamente como:
Z ∞ Y
Γ (z) = e−t tz−1 dt ≡ (z − 1)! ≡ (z − 1) Re z > 0
0
1 · 2 · 3 · ··· · n

r
Γ (z) = lı́m nz
z (z + 1) (z + 2) · · · (z + n)
n→∞

a
∞ 
1 Y z  −z
= zeγz 1+ e n,
Γ (z) n=1
n

in
donde n es un entero positivo y
γ = 0,577215664901 · · ·
se conoce como la constante de Euler-Mascheroni:

m
También es frecuente encontrar Γ (z) con algunas variantes cosméticas:
Z ∞ Z 1   z−1 Z ∞
−t2 2z−1 1
Γ (z) = 2 e t dt = ln dt = k z
e−kt tz−1 dt .
t

eli
0 0 0

Para probar la equivalencia de las dos primeras definiciones inventamos las siguiente función de dos
variables Z n n
t
F (z, n) = 1− tz−1 dt , Re z > 0 ,
n
0
Pr
y como es conocido que  n
t
lı́m 1− ≡ e−t ,
n→∞ n
entonces Z ∞
lı́m F (z, n) = F (z, ∞) = e−t tz−1 dt ≡ Γ (z) .
n→∞
or

0
Con lo cual queda demostrada la primera de propuestas de Euler.
Para construir la segunda partimos de la misma función F (z, n) y un cambio estratégico de variable
u = nt .
n
ad

Z
n
F (z, n) = nz (1 − u) uz−1 du Re z > 0 .
0
Un par de integraciones por partes nos llevan a comprobar
( )
z 1
n 1
Z
z n u n−1 z
rr

F (z, n) = n (1 − u) + (1 − u) u du
z 0 z 0
( 1 )
n−2 z+1 n(n − 1) n(n − 1) 1
Z
z n−2 z+1
=n (1 − u) u + (1 − u) u du ,
z(z + 1) 0 z(z + 1) 0
Bo

que el primer término se anula siempre.

355
10.1. FUNCIÓN GAMMA

Repitiendo el proceso n veces


 Z 1
z n(n − 1)(n − 2)(n − 3) · · · 3 · 2 · 1
F (z, n) = n uz+n−1 du
z(z + 1)(z + 2)(z + 3) · · · (z + n − 1) 0
 
z n(n − 1)(n − 2)(n − 3) · · · 3 · 2 · 1
=n ,
z(z + 1)(z + 2)(z + 3) · · · (z + n)
una vez más, haciendo
 
n(n − 1)(n − 2)(n − 3) · · · 3 · 2 · 1

r
lı́m F (z, n) = F (z, ∞) = lı́m nz ≡ Γ (z) .
n→∞ n→∞ z(z + 1)(z + 2)(z + 3) · · · (z + n)

a
Se completa la equivalencia para la primera y segunda definiciones de Euler.
En particular, de la primera de las definiciones se tiene por integración directa

in
Z ∞
Γ (1) = e−t dt = 1
0
  Z ∞ Z ∞
1 −t −1/2 2 √
Γ = e t dt = e−u du = π ,
2

m
0 0

mientras que de la segunda, si z = n = 1, 2, 3, · · · , se obtiene


Γ (n + 1) = n!
1 · 3 · 5 · · · · (2n − 1) √

eli
 
1
Γ n+ = π.
2 2n
Finalmente la tercera de las definiciones de la función Γ (z) viene expresada en término de un producto
infinito (Weierstrass). Este puede demostrarse partiendo de la segunda definición de Euler

Γ (z) = lı́m
Pr
1 · 2 · 3 · ··· · n
nz
n→∞ z (z + 1) (z + 2) · · · (z + n)
n   n
1 Y m 1 Y z −1 z
= lı́m nz = lı́m 1+ n ,
n→∞ z m+z n→∞ z m
m=1 m=1

por lo tanto
n 
or

1 Y z  −z ln n
= z lı́m 1+ e .
Γ (z) n→∞
m=1
m
Ahora bien, multiplicando y dividiendo por
n
ad

Pn
ez/m = ez( ),
Y 1
m=1 m

m=1

nos queda ( )
n 
1 n Pn o z  −z/m
= z lı́m ez(( m=1 )−ln n)
1 Y
m lı́m 1+ e .
rr

Γ (z) n→∞ n→∞


m=1
m
Donde la serie exponente del primero de los términos converge a un valor constante y cual ha quedado
bautizado como la constante de Euler-Mascheroni
Bo

  ( n ! )
1 1 1 1 X 1
γ = lı́m 1 + + + + · · · − ln n = lı́m − ln n
n→∞ 2 3 4 n n→∞
m=1
m
γ = 0,5772156649015328606065112 · · ·

356
10.1. FUNCIÓN GAMMA

Con lo cual queda demostrada la tercera de las propuestas para expresar la Función Gamma
∞  z
1 γz
Y z −
= ze 1+ e n .
Γ (z) n=1
n

Es fácil comprobar las siguientes propiedades

Γ (z + 1) = z Γ (z)

r
Z ∞ z−1
x dx π
Γ (z) Γ (1 − z) = =
(1 + x) sen(πz)

a
0

 
2z−1 1
2 Γ (z) Γ z + = π Γ (2z) .
2

in
La primera de ellas (la relación de recurrencia) es trivial y se obtiene integrando por partes la definición
integral de Euler.
Z ∞ Z ∞

m

Γ (z + 1) = e−t tz dt = ze−t tz−1 0 + z e−t tz−1 dt = zΓ (z) .
0 0

El primer sumando de la integración por partes se anula siempre. Esta propiedad es válida ∀z con
z 6= 0, −1, −2, · · · .

eli
La segunda de las propiedades (fórmula de reflexión) se comprueba también partiendo de definición
integral de Euler con el siguiente cambio de variable t = u2 .
Z ∞ Z ∞
2 2
Γ (z) Γ (1 − z) = 2 e−u u2z−1 du 2 e−v v 1−2z dv
Pr
Z0Z ∞ 0
 2z−1
−(u2 +v 2 ) u
=4 e dudv ,
0 v

si ahora hacemos u = ρ cos ϕ y v = ρ senϕ, la integral anterior queda como


Z ∞ Z π/2 Z π/2
2 1
Γ (z) Γ (1 − z) = 4 ρe−ρ dρ cot2z−1 (ϕ)dϕ = 4 · cot2z−1 (ϕ)dϕ .
or

0 0 2 0

Finalmente, si
√ −dx
ϕ = arccot( x); dϕ = √ ,
ad

2 x (1 + x)
nos queda

xz−1 dx
Z
π
Γ (z) Γ (1 − z) = = .
0 (1 + x) sen(πz)
Es inmediato volver a comprobar
rr


 
1
Γ = π.
2
Del mismo modo, si utilizamos además la relación de recurrencia encontramos
Bo

π
Γ (z) Γ (−z) = ,
−zsen(πz)

357
10.1. FUNCIÓN GAMMA

La fórmula de duplicación, y puede comprobarse partiendo de la definición del lı́mite de Euler, ası́

22z−1 Γ (z) Γ z + 21


= π.
Γ (2z)

Hay que hacer notar que en el numerador sustituimos directamente las expresiones para del lı́mite de
Euler y en la del denominador, adicionalmente sustituimos n por 2n
1 · 2 · 3 · ··· · n 1 · 2 · 3 · · · · · 2n 2z
Γ (2z) = lı́m n2z = lı́m (2n) ,

r
n→∞ 2z (2z + 1) · · · (2z + n) n→∞ 2z (2z + 1) · · · (2z + 2n)

a
por lo cual se tiene la siguiente expresión dentro del argumento del lı́mite
  !
1 · 2 · 3 · ··· · n 1 · 2 · 3 · ··· · n

in
z+ 12
22z−1 n z n
z + 12 z + 23 · · · z + 1
 
z (z + 1) (z + 2) · · · (z + n) 2 +n
  ,
1 · 2 · 3 · · · · · 2n 2z
(2n)
2z (2z + 1) (2z + 2) · · · (2z + 2n)

m
la cual se reacomoda como
2 1
22z−1 (n!) 2z (2z + 1) (2z + 2) · · · (2z + 2n) n2z+ 2
lı́m · 2z ,

eli
1 3 1
  
2 (z + 1) z + 2 (z + 2) · · · z + 2 + n (z + n) (2n)
n→∞ (2n)! z z +

y
2 1
z z + 12 (z + 1) z + 32 (z + 2) · · · z + n2 2n−1
   
22z−1 (n!) nz+ 2
lı́m · · .
n→∞ z z + 1 (z + 1) z + 3 (z + 2) · · · z + 1 + n (z + n)
  
2 2 2
(2n)! 22z n2z
Entonces
Pr
1
  2√
22z−1 Γ (z) Γ z + 2 2n−2 (n!) n
= lı́m ,
Γ (2z) n→∞ (2n)!
por lo cual se deduce que el valor de lado izquierdo de la ecuación es independiente del valor de z por lo
tanto es el mismo valor para cualquier z y lo evaluamos para z = 12
or

22z−1 Γ (z) Γ z + 21


 
1
=Γ = π,
Γ (2z) 2

con lo cual queda comprobada la fórmula de duplicación.


ad

Otras propiedades que van quedar como curiosidad y sin demostración son:
n−1
Y 
(1−n)/2 1 k
Γ (nz) = (2π) nnz− 2 z+ ,
n
k=0
 
rr

z z! Γ (z + 1)
= = .
w w!(z − w)! Γ (w + 1) Γ (z − w + 1)

A partir de Γ (z) se definen otras funciones especiales.


Bo

358
10.2. LA FUNCIONES DIGAMMA Y POLIGAMMA

10.2. La Funciones Digamma y Poligamma


Para evitar tratar con derivadas de los factoriales es costumbre trabajar con sus derivadas logarı́tmicas.
A partir de la segunda definición
1 · 2 · 3 · ··· · n
Γ (z + 1) = z! = lı́m nz
n→∞ (z + 1) (z + 2) · · · (z + n)
 
1 · 2 · 3 · ··· · n z
ln (z!) = ln lı́m n
n→∞ (z + 1) (z + 2) · · · (z + n)

r
= lı́m [ln (n!) + z ln(n) − ln (z + 1) − ln (z + 2) − · · · − ln (z + n)] ,
n→∞

a
ahora derivando
 
d 1 1 1

in
ln (z!) ≡ F(z) = lı́m ln(n) − − − ··· − ,
dz n→∞ (z + 1) (z + 2) (z + n)
y finalmente acomodando, para llegar a la definición más conocida

m
∞  
X 1 1
F(z) = −γ − − .
n=1
(z + n) n

También se le conoce como función ψ (Psi)

eli
Γ0 (z) d d
ψ(z) = = ln (Γ (z)) ≡ F(z − 1) = ln ((z − 1)!) ,
Γ (z) dz dz
con las siguientes propiedades
Pr 1
ψ(z + 1) =
+ ψ(z) ,
z
ψ(z − 1) − ψ(z) = π cot(πz) ,
 
1
ψ(z) + ψ z + + 2 ln(2) = 2ψ(2z) ,
2
.
or

De donde se pueden deducir


ψ(1) = Γ0 (1) = γ .
La función ψ(z) puede ser expresada en términos de integrales definidas, para ello notamos que
Z ∞
ad

0
Γ (z) = e−t tz−1 ln(t) dt ,
0

y sustituyendo la identidad de Frullani



e−x − e−xt
Z
ln(t) = dx ,
rr

0 x
tendremos
∞ Z ∞ −x Z ∞
e − e−xt dx ∞ −x
Z Z
Bo

Γ0 (z) = e−t tz−1 e − e−xt e−t tz−1 dt



dx dt =
x x 0
Z0 ∞ Z0 Z0
dx −x ∞ −t z−1
Z ∞
dx ∞ −t(x+1) z−1
Z ∞
dx h −x −z
i
= e e t dt − e t dt = Γ (z) e − (x + 1) ,
0 x 0 0 x 0 0 x

359
10.3. LA APROXIMACIÓN DE STIRLING

R∞
ya que Γ (z) = k z 0
e−kt tz−1 dt y por lo tanto
Z ∞
dx h −x −z
i
ψ(z) = e − (x + 1) .
0 x

También daremos (sin demostración) otras expresiones


Z ∞  −t
e−tz

e
ψ(z) = − dt ,
0 t 1 − e−t

r
Z 1
1 − xz−1
ψ(z) = −γ + dx .

a
0 1−x

La Función Poligamma se obtiene derivando en forma repetida la Función Digamma

in

dm X 1
ψ (m) (z + 1) = F(m) (z) = m
F(z) = (−1) m+1
m! m+1 m = 1, 2, 3 · · ·
dz n=1 (z + n)

m
y cuya serie puede ser expresada en términos de la función Zeta de Riemman

X 1
ζ(m) ≡ ,
nm

eli
n=1

como
F(m) (0) = (−1)m+1 m!ζ(m + 1) ,
de esta forma es posible desarrollar en serie de Maclaurin

z2
Pr z3 n
n z
ln(n!) = −γ + ζ(2) − ζ(3) + · · · + (−1) ζ(n) + · · · .
2 3 n

10.3. La aproximación de Stirling


El comportamiento asintótico de las funciones especiales será tratado en una clase aparte. Pero la impor-
or

tancia de la Aproximación de Stirling obliga a que se trate en este punto.


Supongamos que consideramos el caso z ≡ x ∈ <. Por lo cual estamos interesados en el caso x  1.
Partimos de
1 ∞ −t x 1 ∞ −t+x ln t
Z Z
1
Γ (x) = Γ (x + 1) = e t dt = e dt ,
ad

x x 0 x 0
haciendo t = xu tenemos que Z ∞
Γ (x) = x x
e−x(u−ln(u)) du .
0
Ahora bien, el integrando tendrá su máximo en u = 1 donde la exponencial tiene su mı́nimo y es entorno
rr

a ese punto que desarrollará en series de Taylor


1 2 1 3 1 4
u − ln(u) = 1 + (u − 1) − (u − 1) + (u − 1) + · · ·
Bo

2 3 4
por lo cual Z ∞ Z ∞
2
− 13 (u−1)3 +··· )
du e−x(1+ 2 (u−1)
1
Γ (x) = xx e−x(u−ln(u)) du ≈ xx du .
0 0

360
10.4. LA FUNCIÓN BETA


Otro cambio de variable v = x (u − 1) nos lleva

xx e−x ∞
Z  
− 21 v 2 1 3 1 4 1 5
Γ (x) ≈ √ dve exp √ v − v + 3 v − · · · .
x −√x 3 x 4x 5x 2

Para valores x  1 se expande, en series de Taylor los exponenciales que contengan términos √1
x

xx e−x ∞
Z   
1 2 1 1 4 1 5
Γ (x) ≈ √ dve− 2 v 1 + √ v3 − v + 3 v − · · · +
x −∞ 3 x 4x 5x 2

r
 2
1 1 3 1 4 1 5
+ √ v − v + 3 v − ··· +

a
2! 3 x 4x 5x 2
 3 )
1 1 3 1 4 1 5

in
+ √ v − v + 3 v − ··· + ··· .
3! 3 x 4x 5x 2

Finalmente, utilizando que


 √

m
Z ∞  √2π n=0
− 12 v 2
dve vn = 2π · 1 · 3 · 5 · · · · (n − 1) n = 2k
−∞ 
0 n = 2k − 1

eli
e integrando término a término, tendremos que
r  
2π x −x 1 1
Γ (x) ≈ x e 1+ + + · · · .
x 12x 288 x2

10.4. La función Beta


Pr
Z 1
y−1
B(x, y) = tx−1 (1 − t) dt Re x > 0 ∧ Re y > 0
0
or

Γ (x) Γ (y)
B(x, y) =
Γ (x + y)

10.5. La función integral de probabilidad


ad

La función Integral de probabilidad para una variable compleja arbitraria z como


Z z
2 2
Φ(z) = √ e−t dt .
π 0
rr

Obviamente Φ(0) = 0 y Φ(∞) = 1.


A partir de esta función se define la Función Error y su complemento
Z z √
−t2 π
Bo

erf(z) = e dt = Φ(z) ,
0 2
Z z √
2 π
erfc(z) = e−t dt = [1 − Φ(z) .]
z 2

361
10.5. LA FUNCIÓN INTEGRAL DE PROBABILIDAD

La función Gamma incompleta γ (z, α) y la función Gamma complementaria Γ (z, α)


Z α
γ (z, α) = e−t tz−1 dt ,
0
Z ∞
Γ (z, α) = e−t tz−1 dt ,
α

las cuales claramente cumplen con


γ (z, α) + Γ (z, α) = Γ (z) ,

r
y en resumen

a
γ (z + 1, α) = zγ (z, α) − αz e−α

in
Γ (z + 1, α) = zΓ (z, α) + αz e−α .

10.5.1. Ejemplos

m
10.5.2. Practicando con Maxima
10.5.3. Ejercicios

eli
Pr
or
ad
rr
Bo

362
Capı́tulo 11

ra
El problema de Sturm-Liuoville

in
m
eli
Pr
or
ad
rr
Bo

363
11.1. EL PROBLEMA DE STURM-LIUOVILLE

11.1. El problema de Sturm-Liuoville


11.1.1. Cálculo Operacional
Toda ecuación diferencial puede ser descrita de la siguiente forma
d
F (x) = f (x) ⇒ DF (x) = f (x) , (11.1)
dx
donde D (•) es un operador diferencial lineal, tal y como los estudiamos en su momento. De esta forma

r
D (Axn + Bxm ) = AD (xn ) + BD (xm ) = nAxn−1 + mBxm−1 , (11.2)

a
y en muchos aspectos ese operador diferencial D (•) puede ser tratado como un número más.

in
De esta forma una ecuación diferencial homogénea puede ser descrita en forma de operadores cómo

a y 00 + b y 0 + c y = 0 ⇒ O |yi = 0 ⇔ a D2 + b D + c |yi = 0 ,

(11.3)

m
y consecuentemente

(D − r1 ) (D − r2 ) |yi = 0 con r1 y r1 raices de a r2 + b r + c = 0 , (11.4)

con soluciones, como era de esperarse de la forma

eli
r1 = r2 = r reales ⇒ y(x) = (A + Bx) er x
r1 6= r2 reales ⇒ y(x) = A er1 x + B er2 x (11.5)
r1 = r2∗ complejas r1 = α + i β ⇒ y(x) = eα x (A cos(β x) + B sen(β x))
Pr
Esta notación también se presta para algunas curiosidades. Para una ecuación diferencial genérica con
coeficientes constantes se tiene

y 00 − 3 y 0 + 2 y = x2 ⇒ D2 − 3D + 2 y = x2 ⇒ (D − 1) (D − 2) y = x2 .

(11.6)

más aún
x2 x2 x2
or

y= ⇒ y= − , (11.7)
(D − 1) (D − 2) (D − 2) (D − 1)
por lo cual expandiendo
1 −1
= = −1 − D − D2 − D3 − D4 − · · · (11.8)
D−1 1−D
ad

1 −1 1 1 D D2 D3
= =− − − − − ··· (11.9)
D−2 2 1− D
2
2 4 8 16
de donde
1 D D2 D3
 
rr

x2 − −1 − D − D2 − D3 − D4 − · · · x2 ,

y= − − − − − ··· (11.10)
2 4 8 16
por lo tanto tendremos la solución particular de la ecuación y 00 − 3 y 0 + 2 y = x2
Bo

 2
 x2

x x 1 3 7
y= − − − − −x2 − 2x − 2 = + x+ . (11.11)
2 2 4 2 2 4

364
11.1. EL PROBLEMA DE STURM-LIUOVILLE

Las operaciones que se usaron arriba están relacionadas muy estrechamente con las propiedades de la
integral Z ∞
e−st f (t)dt . (11.12)
0
En el mismo espı́ritu anterior podemos asociar una ecuación diferencial de segundo orden a un operador
diferencial
d2
 
d
+ R(x) u(x) = 0 ⇒ P (x)D2 + Q(x)D + R(x) |ui = 0 ⇔ L |ui = 0 . (11.13)

P (x) 2 + Q(x)

r
dx dx
| {z }
L

a
Donde las funciones P (x), Q(x) y R(x) son funciones reales, definidas en el intervalo [a, b] y que cumplen
con las siguientes exigencias

in
P 00 (x), Q0 (x) y R(x) existen y son contı́nuas en [a, b], y
P (x) no contiene ceros en (a, b).

m
11.1.2. Operadores diferenciales de segundo orden
Consideremos el espacio de Hilbert de funciones continuas en [a, b], en el cual representaremos a esas

eli
funciones como |ui y los operadores lineales actúan en ese espacio de Hilbert de la forma acostumbrada
L |ui = |ũi. Entonces, a través de la definición del producto interno podemos construir
∗ ∗
hv |ũi = hũ |vi ⇔ hv| L |ui = hu| L† |vi . (11.14)
Pr
Sabemos que, los operadores hermı́ticos (o autoadjuntos: L = L† ) tendrán autovalores {λ
1 , λ2 , λ3 , · · · , λn }
reales y los correspondientes autovectores {|w1 i , |w2 i , |w3 i , · · · , |wn i} serán ortogonales, wi |wj i ∝ δ ij .
El hecho que construyamos una ecuación de autovalores con L de la forma expresada en (11.13) implica
una ecuación de la forma

P (x)D2 + Q(x)D + R(x) |vi i = λi |vi i .



L |vi i = λi |vi i ⇔ (11.15)
or

Con lo cual estarı́amos resolviendo una familia de ecuaciones diferenciales homogéneas del tipo

d2 yi (x) dyi (x)


P (x) 2
+ Q(x) + (R(x) − λi ) yi (x) = 0 , (11.16)
dx dx
ad

parametrizadas por el parámetro λi . Más aún, con esta estrategia podremos integrar ecuaciones diferenciales
de la forma
d2 yi (x) dyi (x)
P (x) 2
+ Q(x) + (R(x) − λi w(x)) yi (x) = 0 , (11.17)
dx dx
si consideramos productos internos generalizados con funciones peso w(x) de la forma
rr

Z b
hg |f i = dx w(x) g ∗ (x)f (x) . (11.18)
a
Bo

Varios son los ejemplos de esta forma general de abordar las ecuaciones diferenciales como un problema
de autovalores. Entre ellos podemos mencionar:

365
11.1. EL PROBLEMA DE STURM-LIUOVILLE

El oscilador armónico:
d2
 
y(x) = −ω 2 y(x) . (11.19)
dx2
| {z }
L

La ecuación de Legendre:

d2
 
2 d
(1 − x ) − 2x Pn (x) = −n(n + 1) Pn (x) . (11.20)
dx2 dx

r
| {z }
L

a
En general toda las familias de polinomios ortogonales, pn (x) con producto interno definido como

in
Z b
m
hp |pn i = w(x)pm (x)pn (x)dx = hn δm n ,
a

con w(x) > 0 una función peso en a ≤ x ≤ b.

m
Esto es:
d2
 
d
P (x) + Q(x) pn (x) = −αn pn (x) = 0 . (11.21)
dx2 dx
| {z }

eli
L

Donde las expresiones para P (x), Q(x) y αn se encuentran especificadas en la Tabla (11.1)

Polinomio P (x) Q(x) αn


1 − x2
Pn
Pr −2x n(n + 1)
Tn 1 − x2 −x n2
Un 1 − x2 −2x n(n + 1)
Hn 1 −2x 2n
Ln x 1−x n

n x 1−x+α n
Pnαβ 1 − x2 β − α − x(2 + α + β) n(n + α + β + 1)
or

Cuadro 11.1: Funciones para determinar la ecuación diferencial para la cual son solución los polinomios
ortogonales. Con Pn Legendre, Tn Tchebychev 1E; Un Tchebychev 2E; Hn Hermite; Ln Laguerre; Lα n (x)
Laguerre G; Pnαβ (x) Jacobi
ad

La ecuación de Bessel
d2
 
d
x2 + x + x 2
Jk (x) = k 2 Jk (x); k ∈ R. (11.22)
dx2 dx
rr

| {z }
L

11.1.3. Operadores diferenciales autoadjuntos


Bo

Es claro que las funciones P (x), Q(x) y R(x) tendrán algunas restricciones adicionales a las expresadas
arriba, de tal forma que se garantice que el operador L sea autoadjunto (hermı́tico).

366
11.1. EL PROBLEMA DE STURM-LIUOVILLE

Para encontrar esas restricciones a los coeficientes, partimos de la definición de producto interno en
un espacio de funciones. En general, vimos que, para un espacio de funciones continuas y continuamente
diferenciales en [a, b] una posible definición de producto interno es
Z b Z b

hg |f i = dx g (x)f (x) ⇒ hg| L |f i = dx g ∗ (x) Lf (x) , (11.23)
a a

es decir

r
b b b
d2 f (x)
Z Z Z
df (x)
hg| L |f i = dx g ∗ (x) P (x) + dx g ∗ (x) Q(x) + dx g ∗ (x) R(x)f (x) . (11.24)
a dx2 a dx a

a
Integrando por partes la primera y segunda integral tendremos

in
b  b Z b
d2 f (x) d(P (x) g ∗ (x)) d2 (P (x) g ∗ (x))
Z 
∗ df (x)

dx g (x) P (x) = P (x) g (x) − f (x) + dx f (x) ,
a dx2 dx dx
a a dx2
(11.25)
y

m
b b
d(Q(x) g ∗ (x))
Z Z
df (x) b
dx g ∗ (x) Q(x) = f (x) Q(x) g ∗ (x)|a − dx f (x) . (11.26)
a dx a dx
Con lo cual podremos escribir:

eli
Z b
d2 dQ(x) d2 P (x)
    
dP (x) d
hg| L |f i = dxf (x) P (x) 2 + 2 − Q(x) + R(x) − + g ∗ (x)
a dx dx dx dx dx2
| {z }
L†
 
+ f (x) Q(x) −
dP (x)

g ∗ (x) + P (x)

Pr
df (x) ∗
g (x) −
dg ∗ (x)
 b

f (x) , (11.27)
dx dx dx a

donde hemos identificado por L† al operador adjunto de L. Ahora bien, si queremos que L sea autoadjunto
(o hermı́tico ) L = L† , entonces se debe cumplir que

dP (x) dQ(x) d2 P (x)


or

2 − Q(x) = Q(x) y − + = 0, (11.28)


dx dx dx2
y ambas se satisfacen idénticamente si
dP (x)
. Q(x) = (11.29)
dx
ad

Estas restricciones sobre P (x) y Q(x) son aparentes, porque siempre podremos construir un operador
diferencial autoadjunto a partir de cualquier operador diferencial de segundo orden. En efecto, como P (x)
únicamente puede tener raı́ces en los extremos del intervalo [a, b], siempre podremos definir

 P̄ (x) = h(x)P (x)
rr

Z b !
1 Q(x)
h(x) = exp dx ⇒ (11.30)
P (x) a P (x)
Q̄(x) = h(x)Q(x)

Bo

con lo cual se cumple inmediatamente la condición (11.29), a saber


Z b ! Z b !
dP̄ (x) d Q(x) Q(x) Q(x)
= exp dx = exp dx = Q̄(x) , (11.31)
dx dx a P (x) P (x) a P (x)

367
11.1. EL PROBLEMA DE STURM-LIUOVILLE

y entonces h(x)L siempre será auto adjunto.


Entonces, al utilizar (11.29) en (11.13) es fácil convencerse que todo operador autoadjunto puede ser
escrito como  
d d(•)
L↔ P (x) + R(x) . (11.32)
dx dx
Adicionalmente, la ecuación general (11.27) quedarı́a escrita como:
b  b
dg ∗ (x)
Z 
df (x) ∗
dx f (x) L† g ∗ (x) + P (x)

hg| L |f i = g (x) − f (x) . (11.33)

r
dx dx
|a {z } a
hf |L† |gi∗

a
Claramente, si L es autoadjunto y f (x) y g(x) son soluciones de una ecuación diferencial autoadjunta,

in
el segundo término se debe anular, y allı́ habrán de incidir las condiciones de borde que se impongan al
problema.

11.1.4. El Sistema Sturm-Liouville

m
Evidentemente, si consideramos que f (x) y g(x) son soluciones de una ecuación diferencial autoadjunta
(que puede ser representada por un operador lineal de segundo orden autoadjunto L), entonces la ecuación
de autovalores

eli
   
d d
L |ui i = −λi |ui i ⇔ P (x) + R(x) ui (x) = −λi w(x)ui (x) , (11.34)
dx dx

donde, λi son los autovalores, ui (x) las autofunciones soluciones y w(x) > 0 es la función peso descrita en
Pr
(11.18). Claramente esta ecuación (11.34) debe ser complementada con las condiciones de frontera
b
dui (x)
P (x)u∗j (x) = 0 ∀ i, j . (11.35)
dx a

Las ecuaciones (11.34) y (11.35) constituyen el Sistema Sturm-Liouville y también se le refiere como el
problema de Sturm-Liouville.
or

Se distinguen tres posibles situaciones con las condiciones de frontera:

1. Condiciones Regulares: Para este caso se especifican los valores de una combinación de las funciones
y las derivadas:
dui (x) dui (x)
ad

β1 ui (x) + γ1 = C1 y β2 ui (x) + γ2 = C2 ,
dx dx
en los extremos x = a y x = b.
Estos valores son finitos en todo el intervalo de validez de las funciones. Claramente de ésta pueden
derivarse cuatro tipos de condiciones de frontera
rr

a) Condiciones Regulares Puras: Para este caso se especifican los valores para la combinación
lineal completa, con β1 6= 0, β2 6= 0, γ1 6= 0 y γ2 6= 0.
b) Condiciones de Dirichlet: Para este caso se especifican los valores de la función ui (x) en los
Bo

extremos, x = a y x = b. Esto es para γ1 = γ2 = 0.


dui (x)
c) Condiciones de Neumann: Para este caso se especifican los valores de las derivadas dx en
los extremos, x = a y x = b. Esto es para β1 = β2 = 0.

368
11.1. EL PROBLEMA DE STURM-LIUOVILLE

d ) Condiciones Mixtas: Cuando se especifican los valores de un tipo de condiciones de frontera en


un extremo y otro en el otro. Esto es para β1 = γ2 = 0 o γ1 = β2 = 0.
2. Condiciones Periódicas: Para este caso el valor de la función y su derivada es el mismo en los
extremos ui (a) = ui (b) y dx = dudx
dui (x) i (x)
. Otra vez, estos valores son finitos en todo el intervalo de
a b
validez de las funciones.
3. Condiciones Singulares: Para este caso encontramos valores singulares para las funciones y sus
derivadas.

r
Veamos algunos ejemplos ilustrativos. Vamos a analizar el caso muy simple de la ecuación diferencial tipo

a
oscilador armónico libre. Esto es:
d2 y(x)
+ λy(x) = 0 , (11.36)
dx2

in
y veremos como cambia cuando se tienen en cuenta distintos tipos de condiciones de frontera.
Condición Regular con
dy(x)
y(0) = 0 ∧ = 0.

m
dx x=π
Este caso corresponde una condición de frontera regular con γ1 = β2 = 0 y, en principio, tendrá
soluciones distintas para λ > 0, λ = 0, y λ < 0

eli
λ = 0 La solución
será de la forma y(x) = C1 x + C2 como y(0) = 0 tendremos que C2 = 0 y como
dy(x)
dx = 0 necesariamente C1 = 0. Con lo cual la única solución es y(x) = 0 y λ no será un
x=π
autovalor de la ecuación (11.36).
λ < 0 Podemos re-escribirla con λ = −µ2 . Entonces la solución general para (11.36) tendrá la forma
y(x) = C1 eµ x + C2 e−µ x .
Pr
Las condiciones de frontera imponen
0 = µ C1 eµ π + −C2 e−µ π ,

0 = C1 + C2 ∧
y otra vez, tendremos como única solución 0 = C1 = C2 y λ no será un autovalor de la ecuación
(11.36).
or

λ > 0 Para éste caso usamos λ = µ2 y la solución será del tipo y(x) = C1 cos(µ x) + C2 sen(µ x). Las
condiciones de frontera imponen: y(0) = 0 ⇒ C1 = 0 y
(2n + 1)2

dy(x) 2n + 1
= C2 µ cos(µπ) = 0 ⇒ µn = ± ⇒ λn = para n = 0, 1, 2, 3, · · ·
ad

dx x=π
2 4

Es decir, tendremos infinitos auto valores asociados con infinitas autofunciones yi (x) = sen 2n+1

2 x
para n = 0, 1, 2, 3, · · · .
En primer lugar, es importante señalar que, por ser L un operador hermı́tico sus autovalores son
rr

reales y cumplen λ0 < λ1 < λ2 < λ3 · · · , es decir, son crecientes para ı́ndices crecientes de las
autofunciones. En segundo lugar que las infinitas autofunciones forman una base ortogonal y, por
lo tanto la suma de todas esas soluciones, también será solución de (11.36), con las condiciones
de frontera: y(0) = 0 ∧ dy(x) = 0 y λ > 0 puede ser escrita como
Bo


dx
x=π
∞  
X 2n + 1
y(x) = sen x . (11.37)
n=0
2

369
11.1. EL PROBLEMA DE STURM-LIUOVILLE

y1 = µ

y3 = tanh(µ)

r
µ ⇡ 0.9962

a
y2 = µ

in
Figura 11.1: Las posibles soluciones µ = − tanh(µ π), tanto para µ > 0 como para µ > 0 para el intervalo
[0, 2] se muestra claramente en la figura. Para µ > 0 no existe solución, pero para µ < 0, se encuentra
numéricamente que µ ≈ −0,9962

m
Esta hecho nos permitirá resolver el problema inhomogéneo, L |ui = |f i, y será analizado en
detalle más adelante.

eli
Condición Regular con
dy(x)
y(0) = 0 ∧ y(π) + = 0.
dx x=π
Para este caso tendremos una condición de frontera regular con γ1 = 0 y, en principio, tendrá soluciones
distintas para λ > 0, λ = 0, y λ < 0.
Pr
λ = 0 Se cumplen las mismas situaciones que el caso anterior y se demuestra que sólo es posible la
solución trivial y(x) = 0.
λ < 0 Una vez más hacemos λ = −µ2 y la solución general tendrá la forma y(x) = C1 eµ x + C2 e−µ x .
Las condiciones de frontera imponen:
or

0 = C1 eµ π + C2 e−µ π + µ C1 eµ π − C2 e−µ π ,
 
C1 = −C2 ∧
con lo cual
(eµ π − e−µ π )
µ=− ≡ − tanh(µ π) .
(eµ π + e−µ π )
ad

Esta ecuación trascendente se tiene que resolver numéricamente. Si µ > 0 no existirá solución para
µ = − tanh(µ π). Esto se ilustra claramente en la figura 11.1. No hay punto de corte entre las dos
funciones. Por lo tanto volvemos al caso de la solución trivial y(x) = 0. Si µ < 0 entonces, al resol-
ver numéricamente, encontramos que µ ≈ −0,9962, con lo cual λ ≈ −0,9924 y consecuentemente
rr

y(x) ≈ C1 e−0,9962 x − e0,9962 x .


λ > 0 En éste caso una vez más hacemos λ = µ2 y la solución será del tipo y(x) = C1 cos(µ x) +
C2 sen(µ x). Las condiciones de frontera imponen: y(0) = 0 ⇒ C1 = 0 y, para este caso
Bo

y(π) = 0 = C2 (sen(µ π) + µ cos(µ π)) ⇒ µ = − tan(µ π) .


Otra vez, la ecuación trascendente µ = − tan(µ π), se tiene que resolver numéricamente. No
obstante, procedemos a analizar una posible representación gráfica que se muestra en la Figura

370
11.1. EL PROBLEMA DE STURM-LIUOVILLE

y1 = µ

y3 = tan(µ ⇡)

a r
y2 = µ

in
Figura 11.2: Las posibles soluciones de µ = − tan(µ π), tanto para µ > 0 como para µ > 0 para el intervalo
[0, 4] se muestra claramente en la figura. Tanto para µ > 0 como para µ < 0 existen infinitas soluciones.

m
11.2. Claramente, tanto para µ > 0 como para µ < 0 existen infinitas soluciones. Si resolvemos
numéricamente para el caso µ > 0 encontramos que:
µ1 ≈ 0,7876, µ2 ≈ 1,6716, µ3 ≈ 2,6162 · · · ⇒ λ1 ≈ 0,6204, λ2 ≈ 2,7943, λ3 ≈ 6,8446 · · ·

eli
Del mimo modo, para µ < 0 se obtiene:
µ̃1 ≈ −1,2901, µ̃2 ≈ −2,3731, µ̃3 ≈ −3,4092 · · · ⇒ λ̃1 ≈ 1,6644, λ̃2 ≈ 5,6314, λ̃3 ≈ 11,6225 · · ·

Por lo tanto la solución, se podrá escribir,


Pr

X
y(x) = sen (µn x) − sen (|µ̃n |x) . (11.38)
n=0

Condiciones Periódicas
dy(x) dy(x)
Paras las condiciones de frontera periódicas tendremos: y(0) = y(L) y = .
or

dx dx
x=0 x=L
Una vez más se distinguen tres escenarios.
λ = 0 En este caso, la solución vuelve a ser y(x) = C1 x + C2 y las condiciones de frontera imponen
ad


dy(x) dy(x)
y(0) = y(L) ⇒ C2 = C1 L + C2 ⇒ C1 = 0 = ⇒ C2 = C2 .
dx x=0 dx x=L
Por lo tanto, para λ = 0, la solución (11.36) con condiciones de borde periódicas, será y(x) = C2
λ < 0 Una vez más, λ = −µ2 y la solución general tendrá la forma y(x) = C1 eµ x + C2 e−µ x . Las
rr

condiciones de frontera imponen


y(0) = y(L) ⇒ C1 1 − eµ L = C2 e−µ L − 1 ,
 

y
Bo


dy(x) dy(x)
⇒ C1 1 − eµ L = −C2 e−µ L − 1 .
 
=
dx x=0 dx x=L

Por lo tanto, C1 = C2 = 0, y obtenemos la solución trivial y(x) = 0 para valores de λ < 0.

371
11.1. EL PROBLEMA DE STURM-LIUOVILLE

λ > 0 Al igual que en lo casos anteriores hacemos λ = µ2 y la solución será del tipo y(x) = C1 cos(µ x) +
C2 sen(µ x). Las condiciones de frontera imponen:

y(0) = y(L) ⇒ C1 (1 − cos(µ L)) = C2 sen(µ L) ,

y
dy(x) dy(x)
= ⇒ C2 (1 − cos(µ L)) = −C1 sen(µ L) ,
dx x=0 dx x=L

r
con lo cual, al resolver para C2 se obtiene
2

a

2nπ 2nπ
2C1 (1 − cos(µ L)) = 0 ⇒ cos(µ L) = 1 ⇒ µn = ± ⇒ λn = para n = 0, 1, 2, 3 · · ·
L L

in
2nπ

por lo cual, para cada autovalor λn tendremos asociadas dos autofunciones: y1 (x) = cos L x y
y2 (x) = sen( 2nπ
L x).

Condiciones Singular

m
Aquı́ se presentan uno o más infinitos en el intervalo de validez x ∈ [a, b]. En esta sección analizaremos
únicamente el caso para el cual los puntos singulares estén en los extremos x = a y x = b. En este caso,
la ecuación (11.34), vale decir

eli
 
d dui (x)
L |ui i = −λi w(x) |ui i ⇔ P (x) + (R(x) + λi w(x)) ui (x) = 0 , (11.39)
dx dx

tendremos P (a) = 0 o P (b) = 0 o ambos. La aparición de polos en el intervalo de validez de las


ecuaciones diferenciales fue lo que motivó el uso del método de Frobenius que se discutió en la sección
Pr
9.3. Particularmente, la ecuación de Bessel (9.16) en la sección 9.4 representa este caso. Tal y como
discutimos en esas secciones, si incluimos x = 0 en el intervalo de validez de la ecuación esta presenta
un polo en uno de los extremos del intervalo. Es decir, en la ecuación de Bessel escrita en forma
autoadjunta:

n2
   
2 00 0 2 2 2
 d dy(x) 2
x y + xy + k x − n y = 0 ⇔ x + k x− y(x) = 0 , (11.40)
or

dx dx x
2
identificamos: P (x) = x, R(x) = − nx , λ = k 2 y finalmente w(x) = x. Tal y como mostramos en (9.4)
la solución general de esta ecuación es:
ad

y(x) = C1 Jn (k x) + C2 Yn (k x) con y(a = 0) = 0 ⇒ C2 = 0 ⇒ y(x) = C1 Jn (k x) . (11.41)

La condición de borde y(a = 0) = 0 impone que C2 = 0 porque Yn (k x → 0) → ∞.


Si adicionalmente, imponemos y(b) = 0, entonces se cumplirá que Jn (k a) = 0 por lo cual k a = rJ n ν ,
rr

donde rJ n ν con ν = 1, 2, 3, · · · son las raı́ces de las función de Bessel Jn (x), tal y como se expresan en
la Tabla 9.1. Entonces, al igual que en los casos anteriores tendremos

rJ n ν r2 r
J nν

kn = ⇒ λn = J 2n ν ⇒ yν (x) = C1 Jn x . (11.42)
Bo

a a a

De esta forma se tendrán las funciones asociadas con los autovalores y los ceros de la función de Bessel
reescalarán el argumento de la función.

372
11.1. EL PROBLEMA DE STURM-LIUOVILLE

11.1.5. Función de Green


Consideremos ahora la solución de caso inhomogéneo
 
d dy(x)
L |yi = |f i ⇔ P (x) + R(x)y(x) = f (x) . (11.43)
dx dx
Claramente

X
L |ui i = −λi |ui i ⇒ |yi = C i |ui i , (11.44)

r
i=0

donde {|ui i} son las autofunciones de L. Por lo tanto podemos expresar (11.43) de la forma

a
∞ ∞ ∞
!
X X X
i
|f i = L |yi ⇒ |f i = L C |ui i = C i L |ui i = − C i λi |ui i , (11.45)

in
i=0 i=0 i=0

para finalmente proyectar (11.43) a lo largo de las mismas autofunciones |ui i y dado que las funciones {|ui i}
son ortogonales, obtenemos los coeficientes C i

m
∞ Rb
dx u∗j (x) w(x)f (x)


j X
i

j j 1 uj |f i j a
u |f i = − C λi u |ui i ⇒ C = ⇔ C = b
. (11.46)
λj huj |uj i dx u∗ (x) w(x)uj (x)
R
i=0 j
| {z }
δi j a

eli
Por lo tanto,

! ∞ Rb !
dξ u∗i (ξ) w(ξ)f (ξ)

X 1 ui |f i X 1 a
|yi = i
|ui i ⇔ y(x) = Rb ui (x) . (11.47)
i=0
λi hu |ui i λ
i=0 i dζ u∗i (ζ) w(ζ)ui (ζ)
a
Pr
Siempre se puede normalizar las autofunciones y con ello se simplifica la expresión anterior

Z b Z b !

i ∗
X 1 ∗
û |ûi i = 1 ⇔ dζ ûi (ζ) w(ζ)ûi (ζ) = 1 ⇒ y(x) = dξ ûi (ξ) w(ξ)f (ξ) ûi (x) , (11.48)
a λ
i=0 i a

donde
|ui i ui
or

|ûi i = p ⇔ ûi (x) = qR . (11.49)


i
hu |ui i b
a
dζ u∗i (ζ) w(ζ)ui (ζ)
De este modo, tendremos
ad

∞ ∞
! !
Z b Z b
X 1 X 1 ∗
y(x) = dξ û∗i (ξ) w(ξ)f (ξ) ûi (x) = dξ û (ξ)ûi (x) w(ξ)f (ξ) . (11.50)
λ
i=0 i a a λ i
i=0 i
| {z }
G(x,ξ)

Por lo tanto, la solución al problema de Sturm-Liouville se puede expresar en términos de la función de


rr

Green como Z b ∞
X 1 ∗
y(x) = dξ G(ξ, x)w(ξ)f (ξ) , con: G(ξ, x) = ûi (ξ)ûi (x) . (11.51)
a λ
i=0 i
Bo

Para ejemplificar esta técnica, consideremos la ecuación diferencial del oscilador armónico forzado
d2 x(t)
ẍ(t) + ω 2 x(t) = cos(ω̄ t) , con: x(0) = x(π) = 0 donde ẍ ≡ . (11.52)
dt2

373
11.1. EL PROBLEMA DE STURM-LIUOVILLE

Resolvemos primero el problema de autovalores


 p   p 
ẍ(t) + ω 2 x(t) = λ x(t) ⇒ x(t) = A cos t ω 2 − λ + B sen t ω 2 − λ (11.53)

Las condiciones de frontera imponen


 p  p
x(0) = 0 ⇒ A = 0 y x(π) = 0 ⇒ sen π ω 2 − λ = 0 ⇒ ω2 − λ = n con n = 0, ±1, ±2, · · ·
(11.54)
Las autofunciones tendrán la forma de xn (t) = An sen(nt). Al normalizarlas tendremos

r
 1/2
2
xn (t) = sen(nt) .

a
π
De este modo la función de Green y la solución quedan como:

in
∞ ∞
!
2 π
Z
2 X sen(nτ ) sen(nt) X sen(nτ ) sen(nt)
G(τ, t) = ⇒ x(t) = dτ cos(ω̄ τ ) , (11.55)
π n=0 ω 2 − n2 π 0 n=0
ω 2 − n2
con lo cual

m
∞  ∞
2 X sen(nt) π

2 ω̄ (1 ± cos(ω̄π)) X sen(nt)
Z
x(t) = dτ sen(nτ ) cos(ω̄ τ ) ⇒ x(t) = , (11.56)
π n=0 ω 2 − n2 0 π ω̄ 2 − ω 2 + λ n=0
ω 2 − n2
la cual constituye la solución más general para la ecuación del oscilador armónico forzado (11.52).

eli
Inspirados en el nuestra motivación inicial, (11.43), podemos extenderla para considerar las siguientes
ecuaciones diferenciales
 
d dy(x)
(L + λ) |yi = |f i ⇔ P (x) + (R(x) + λ w(x)) y(x) = f (x) , (11.57)
dx dx
Pr
donde y(x) estará sometida a algunas de las condiciones de frontera expresadas en 11.1.4. Una vez más
resolvemos el problema de autovalores para encontrar las autofunciones en las cuales expandiremos todas las
funciones involucradas en el problema. Esto es, en general y siguiendo el esquema presentado en (11.44)

X ∞
X
F i |ûi i ≡ ûi |f i |ûi i ,

L |ûi i = −λi |ûi i ⇒ |f i = (11.58)


i=0 i=0
or

donde hemos supuesto que las autofunciones fueron normalizadas, ûj |ûi i = δij . Con lo cual

∞ ∞
!
X X
C i |ûi i =

i
û |f i |ûi i ⇒ C i (λi + λ) − ûi |f i = 0 ,

(L + λ) |yi = |f i ⇒ (L + λ) (11.59)
ad

i=0 i=0

y se sigue que

! ∞ Rb !
dξ û∗i (ξ) w(ξ)f (ξ)

i
i
i û |f i X û |f i X
a
C = ⇒ |yi = |ûi i ⇔ y(x) = ûi (x) , (11.60)
(λi + λ) i=0
(λi + λ) i=0
λi + λ
rr

intercambiando sumatorias e integrales tendremos


Z b ∞ ∞
X û∗i (ξ)ûi (x) X û∗i (ξ)ûi (x)
y(x) = dξ w(ξ)f (ξ) ⇒ G(ξ, x) = . (11.61)
λi + λ λi + λ
Bo

a i=0 i=0

Podemos identificar claramente la función de Green. Nótese que para el caso λi + λ = 0, es decir si λ
en (11.57) coincide con alguno de los autovalores del operador L, la función de Green se hace infinita y este
esquema presenta dificultades para su aplicación.

374
11.1. EL PROBLEMA DE STURM-LIUOVILLE

11.1.6. Ejemplos
11.1.7. Practicando con Maxima
11.1.8. Ejercicios

ar
in
m
eli
Pr
or
ad
rr
Bo

375
Capı́tulo 12

ar
Apéndice

in
m
eli
Pr
or
ad
rr
Bo

376
12.1. INTRODUCCIÓN A LOS CAS

12.1. Introducción a los CAS


Los sistemas algebraicos computacionales o sistemas de álgebra computacional (CAS: Computer Algebra
System) son sistemas o calculadoras avanzadas, que permiten realizar operaciones de manera simbólica. Esto
significa que el computador puede efectuar operaciones con ecuaciones y fórmulas simbólicamente, es decir,
a + b = c se interpreta como la suma de variables y no como la suma de números previamente asignados.
Estos sistemas permiten operar de manera exacta con sı́mbolos que representan objetos matemáticos
tales como:

r
Números (Enteros, racionales, reales, complejos...)

a
Polinómios, Funciones Racionales, Sistemas de Ecuaciones.
Grupos, Anillos, Algebras . . .

in
A diferencia de los sistemas tradicionales de computación numérica:
FORTRAN, Basic, C, C++, Java => Precisión fija (Punto Flotante)

m
Otra caracterı́stica principal radica en el hecho de que son interactivos (interpretados o ejecutados al momento
de proveer una instrucción), es decir, trabajan de la forma:

Input : solve(problema);

eli
Output : respuesta

Los CAS se pueden clasificar en dos grandes grupos:1


Pr
Sistemas de Propósito Especial (Creados para hacer cálculos en un área especı́fica): FORM, GAP,
CAMAL, SHEEP, STENSOR, LiE, KANT.
Sistemas de Propósito General (¡Especies de navajas suizas!): Axiom, Derive, Reduce, Maple, MatLab,
Mathematica, Maxima, MuPAD. Recientemente, lenguajes como Python comienzan a incorporar bi-
bliotecas que permiten generar formas de cálculo simbólico2 que ofrecen una perspectiva interesante
para integrar ambientes algebráicos-numéricos-visuales.
or

Los CAS modernos de propósito general son ambientes completamente integrados de computación para
la investigación y la educación conformados por:
ad

Interfaz gráfica (worksheet) o ambiente interactivo:

Procesador de texto, de fórmulas y de gráficas.


Con salidas en Latex, RTF, HTML, FORTRAN y C; o hyperlinks a otros documentos.
rr

Manuales en lı́nea.
Enlaces a otros programas y bibliotecas

Capacidades para cálculo numérico


Bo

Capacidades para visualización, con salidas gráficas en diferentes formatos: PostScript, GIF,JPG, . . .
Pensado para usuarios no especializados en computación

377
12.1. INTRODUCCIÓN A LOS CAS

a r
in
m
eli
Figura 12.1: Ventana gráfica de vxMaxima
Pr
La principal ventaja de estos programas radica en la enorme capacidad para realizar cálculos algebraicos
largos y tediosos. Por ejemplo, se puede demostrar que la función:
 √ 
nz x2 +y 2 +z 2
sen √ 2 2
y +z
f= p
x + y2 + z2
2
or

es solución de la ecuación diferencial:


∂4f ∂4f ∂4f
 2
∂2f

2 ∂ f
+ + + n + =0
∂x4 ∂y 2 x2 ∂z 2 x2 ∂x2 ∂y 2
ad

y la realización de éste cálculo le puede tomar a un PC estándar un tiempo de CPU relativamente corto:
tiempo de cpu = 1,065 seg
Un ejemplo de un CAS es Maxima que básicamente consta de una hoja de trabajo (worksheet) que es
rr

una interfaz tipo procesador de textos. Las hojas de trabajo constan de dos modos básicos de funcionamiento:
el modo texto y el modo cálculo. Maxima opera en la celda de cálculos de la manera siguiente:
Input (Instrucción de entrada)
Bo

Output (respuesta del programa)


1 Una comparación de los diferentes CAS puede verse en: [Link]

systems
2 [Link]

378
12.2. MAXIMA: SINTAXIS BÁSICA

Existe la posibilidad de introducir textos de la misma manera que en un procesador de textos estándar
y de generar gráficas en 2D y 3D a través de los respectivos comandos.
La interacción con la hoja de trabajo se hace a través de lo que denominamos la celda del Input, que
aparece señalado por un aviso de espera o PROMPT
[ -->

El código fuente de Maxima, código de software libre, puede ser compilado sobre diferentes sistemas ope-
rativos: Windows, Linux, MacOS X y Android, y puede obtenerse en: [Link]

r
wxmaxima o en [Link] con la respectiva documentación.
Utilizaremos la versión gráfica wxMaxima para los fines pedagógicos del desarrollo de estas notas.

a
También existe una versión que funciona sólo en modo texto para ser ejecutada en una consola o terminal.
En la Figura 12.1 se puede apreciar el despliegue de una hoja de cálculo con algunos instrucciones sencillas,

in
notemos que cada instrucción (en azul) termina con un punto y coma, de esta manera se le dice al programa
la finalización del comando a ejecutar. Luego de escribir la instrucción y presionar la tecla Enter  el Output
aparecerá a continuación en color negro.

m
12.2. Maxima: Sintaxis básica
Es necesario familiarizarse con los comandos básicos del programa, para ello iremos desarrollando algunos
cálculos sencillos a manera de conocer la filosofı́a de cómo funciona Maxima, y durante el transcurso de

eli
este curso iremos haciendo un despliegue de las aplicaciones del programa para cálculos más especı́ficos.
(%i1) 3!+3^5;
( %o1) 249
Pr
Veamos ahora la diferencia entre el igual = y los dos puntos :
(%i2) a=b+c;
( %o2) c+b
(%i3) a;
or

( %o3) a
(%i4) a:b+c;
ad

( %o4) c+b
(%i5) a;
( %o5) c+b
rr

Al usar “=”no asignamos a la variable lo que está del lado derecho mientras que con “:”si le asignamos
el objeto a la nueva variable.
Los cálculos se pueden hacer tanto con números enteros como en Punto Flotante:
Bo

(%i6) 15+5^(50);
( %o6) 88817841970012523233890533447265640

379
12.2. MAXIMA: SINTAXIS BÁSICA

(%i7) 15.0+5^(50);

( %o7) 8,881784197001253 × 1034

Pero el énfasis radica en los cálculos exactos:


(%i8) cos(%pi/12)^2 + log(2/3+5)/7;
 π  log 17 

r
2 3
( %o8) cos +
12 7

a
y si queremos el valor numérico podemos escribir
(%i9) float(%);

in
( %o9) 1,180812852661949

Aquı́ hemos hecho uso de varios sı́mbolos nuevos. Las constantes matemáticas en Maxima se escriben

m
de la siguiente manera:
La unidad imaginaria i: %i
El número π: %pi.

eli
El sı́mbolo ∞: inf.
El número e: %e.
En cuanto a los logaritmos:
Pr
ex = exp(x).
log(x): la función logaritmo en base e
log(x)/log(b) el logaritmo de x en base b.
Para las funciones trigonométricas es lo estándar: sin(x), asin(x), cos(x), acos(x), tan(x), atan(x), csc(x),
or

sec(x), cot(x).
También hemos utilizado % para introducir la última salida en la siguiente instrucción, veamos nueva-
mente como funciona, pero ahora pondremos al final del comando el sı́mbolo $ en lugar de ; para decirle al
programa que ejecute la instrucción sin escribir la salida.
ad

(%i10)3^12$
(%i11)%;
( %o11) 531441
rr

Veamos otro ejemplo:


(%i12)alpha;
Bo

( %o12) α
(%i13)%+sqrt(beta);

380
12.2. MAXIMA: SINTAXIS BÁSICA

p
( %o13) β+α
(%i14)%o12+2*gamma^2;

( %o14) 2 γ 2 + α

Es importante tener cuidado a la hora de poner los paréntesis en las expresiones:


(%i15)1+2*3^2;

r
( %o15) 19

a
(%i16)(1+2)*3^2;
( %o16) 27

in
El volumen de un cilindro V = π(radio)2 × altura
(%i17)radio:5$

m
(%i18)altura:50$
(%i19)area:%pi*radio^2;

eli
( %o19) 25 π
(%i20)volumen:area*altura;
( %o20) 1250 π
Pr
Para limpiar la memoria del programa de todas las variables utilizadas se puede usar el comando kill(all)
(Existen otras opciones que veremos más adelante). Esta es una manera de reiniciar la hoja de trabajo.
(%i21)volumen;
( %o21) 1250 π
(%i22)kill(all);
or

( %o22) done
(%i23)volumen;
ad

( %o23) volumen

12.2.1. Cálculos elementales


Se puede definir, evaluar y derivar funciones abstractas utilizando := como se muestra a continuación
rr

(%i1) f(x,y):=exp(x^2+y^2)/(x-y);

exp y 2 + x2
( %o1) f (x, y) :=
Bo

x−y
(%i2) f(2,3);

( %o2) − e13

381
12.2. MAXIMA: SINTAXIS BÁSICA

(%i3) %,numer;
( %o3) − 442413,3920089205
(%i4) f(alpha^(1/2),beta^(1/2));

eβ+α
( %o4) √ √
α− β

r
Derivando respecto a x y y;
(%i5) diff(f(x,y),x) + diff(f(x,y),y);

a
2 2 2 2
2 y ey +x 2 x ey +x

in
( %o5) +
x−y x−y
Aquı́ es bueno acotar que una expresión NO es una función:
(%i6) f(x):=3*sin(x+1)+2*sqrt(x);

m

( %o6) f (x) := 3 sin (x + 1) + 2 x
(%i7) F:3*sin(x+1)+2*sqrt(x);

eli

( %o7) 3 sin (x + 1) + 2 x
(%i8) f(8); F(8);
5
( %o8) 3 sin 9 + 2 2 √ 
( %o9) 3 sin (x + 1) + 2 x (8)
Pr
Por lo tanto, F es únicamente una expresión que no puede ser evaluada como la función f . Pero se le
puede dar la vuelta para evaluarla con ev()
(%i10)ev(F,x=8);
or

5
( %o10) 3 sin 9 + 2 2

Consideremos los siguientes cálculos básicos:


ad

(%i11)kill(all)$
(%i1) sigma(x):=2*x/sqrt(x^2+1);
2x
( %o1) σ (x) := √
x2 + 1
rr

La primera derivada:
(%i2) diff(sigma(x),x);
Bo

2 2 x2
( %o2) √ − 3
x2 + 1 (x2 + 1) 2
La cuarta derivada:

382
12.2. MAXIMA: SINTAXIS BÁSICA

(%i3) diff(sigma(x),x,4);

90 x 300 x3 210 x5
( %o3) 5 − 7 + 9
(x2 + 1) 2
(x2 + 1) 2
(x2 + 1) 2
Si queremos reutilizar la derivada para definir una nueva función, en este caso la función derivada, lo
podemos hacer utilizando dos apóstrofos ” (No es la doble comilla)
(%i4) dsigma(x):=’’ %o2;

r
2 2 x2

a
( %o4) dsigma (x) := √ − 3
x2 + 1 (x2 + 1) 2
(%i5) dsigma(2);

in
2
( %o5) 3
52
(%i6) integrate(sigma(x),x);

m
p
( %o6) 2 x2 + 1

La misma integral, pero definida para x entre 0 y 1.

eli
(%i7) integrate(sigma(x),x,0,1);
√ 
( %o7) 2 2−1

Lı́mites:
Pr
(%i8) limit(sigma(x),x,1/2);
2
( %o8) √
5
(%i9) limit(sigma(x),x,inf);
or

( %o9) 2

Sumatorias:
ad

(%i10)sum(sigma(i),i,0,6);
12 10 8 6 4 √
( %o10) √ + √ + √ + √ + √ + 2
37 26 17 10 5
Podemos calcular series de Taylor, digamos, alrededor de x = 1 y hasta orden 4.
rr

(%i11)taylor(sigma(x),x,1,4);
−1  1  4 1  1 3 −1  1  2 1 1 1
( %o11) 5 2 2 (x − 1) + 3 2 2 (x − 1) + 3 2 2 (x − 1) + 2 2 (x − 1) + 2 2 + · · ·
Bo

128 16 8 2
Al rededor de x = 0 es más simple todo:

383
12.2. MAXIMA: SINTAXIS BÁSICA

(%i12)taylor(sigma(x),x,0,6);
3 5
( %o12) x + (−1) x3 + 2 x + · · ·
4
Y por supuesto, también podemos hacer una gráfica de la función. Para ello utilizaremos el comando
wxplot2d que nos generará un gráfico embebido dentro de la misma hoja de trabajo.
(%i13)wxplot2d(sigma(x),[x,-10,10]);

r
( %o13)

a
in
m
eli
Pr
Los cálculos anteriores se pueden repetir para que queden de una manera más elegante usando una
camilla, esto hará que no se efectúe la evaluación de las operaciones.
or

(%i14)’diff(sigma(x),x)=diff(sigma(x),x);

2 x2
 
d 2x 2
( %o14) √ =√ − 3
dx x2 + 1 x2 + 1 (x2 + 1) 2
ad

(%i15)’integrate(sigma(x),x,0,1)=integrate(sigma(x),x,0,1);
Z 1
x √ 
( %o15) 2 √ dx = 2 2−1
0x2 + 1
(%i16)’limit(sigma(x),x,inf)=limit(sigma(x),x,inf);
rr

 
x
( %o16) 2 lı́m √ =2
x→∞ x2 + 1
Bo

(%i17)’sum(sigma(i),i,0,6)=sum(sigma(i),i,0,6);
6
X i 12 10 8 6 4 √
( %o17) 2 √ =√ +√ +√ +√ +√ + 2
i=0
i2 +1 37 26 17 10 5

384
12.2. MAXIMA: SINTAXIS BÁSICA

Anteriormente mencionamos que uno de las ventajas de los programas de manipulación simbólica es la
gran capacidad de llevar a cabo cálculos largos y tediosos, veamos entonces como se hace para demostrar
que la función antes mencionada:
(%i18)f(x,y,z):=sin(n*z*sqrt(x^2+y^2+z^2)/sqrt(y^2+z^2))/sqrt(x^2+y^2+z^2);
 √ 
n z z 2 +y 2 +x2
sin √ 2 2
z +y
( %o18) f (x, y, z) :=

r
p
z + y 2 + x2
2

a
es solución de la ecuación diferencial
∂4f ∂4f ∂4f
 2
∂2f

2 ∂ f
+ 2 2 + 2 2 +n + 2 =0

in
∂x4 ∂y x ∂z x ∂x2 ∂y

(%i19)diff(f(x,y,z),x,4)+diff(diff(f(x,y,z),x,2),y,2)+diff(diff(f(x,y,z),x,2),z,

m
2)+n^2*(diff(f(x,y,z),x,2)+diff(f(x,y,z),y,2));

( %o19) (( Expression too long to display! ))

Aquı́ Maxima no hace un despliegue en la pantalla de los cálculos porque la expresión matemática

eli
es muy larga. Existen opciones para que muestre en pantalla los que nos interese que iremos viendo más
adelante.
Necesitamos entonces decirle al programa que la expresión anterior sea simplificada, es decir, que minimice
la expresión a su valor más simple. Para simplificar expresiones que contienen radicales, exponenciales o
Pr
logaritmos es conveniente utilizar el comando ratsimp. También existe la opción fullratsimp
(%i20)ratsimp(%);

( %o20) 0

En la mayorı́a de los casos Maxima no factoriza ni desarrolla automáticamente las expresiones, por
or

lo tanto, debemos indicarle al programa que haga las respectivas simplificaciones. Veamos un ejemplo con
polinomios:
(%i21)kill(all)$
ad

(%i1) p:(x+2)*(x-1);

( %o1) (x − 1) (x + 2)
(%i2) q:(x-3)^2;
rr

2
( %o2) (x − 3)
(%i3) p-q;
2
( %o3) (x − 1) (x + 2) − (x − 3)
Bo

(%i4) expand(p-q);

( %o4) 7 x − 11

385
12.2. MAXIMA: SINTAXIS BÁSICA

(%i5) expand(p/q);

x2 x 2
( %o5) + −
x2 − 6 x + 9 x2 − 6 x + 9 x2 − 6 x + 9
Si queremos dividir usando fracciones simples podemos hacer lo siguiente:
(%i6) partfrac(p/q,x);

r
7 10
( %o6) + +1
x − 3 (x − 3)2

a
Las funciones logexpand y radexpand permiten controlar si queremos simplificar logaritmos y radicales
cuando contienen productos. Veamos:

in
(%i7) log(x*y);

( %o7) log (x y)

m
(%i8) sqrt(x*y);

( %o8) x y
(%i9) sqrt(x^2);

eli
( %o9) |x|
(%i10)radexpand:all$ logexpand:all$

(%i11)log(x*y); sqrt(x*y); sqrt(x^2);


Pr
( %o11) √
log y + log x

( %o12) x y
( %o13) x

Lo inverso a la expansión de expresiones es la factorización:


or

(%i14)factor(200);

( %o14) 23 52
ad

(%i15)factor(x^2+x-2);
( %o15) (x − 1) (x + 2)
(%i16)p:x^3-1;

( %o16) x3 − 1
rr

(%i17)factor(%);

( %o17) (x − 1) x2 + x + 1

Bo

La evaluación de expresiones se realiza de la manera siguiente

386
12.2. MAXIMA: SINTAXIS BÁSICA

(%i18)ev(p,x=8);

( %o18) 511

O también
(%i19)p,x=%pi;

( %o19) π 3 − 1

r
(%i20)ev(x+(x+y)^2-3*(x+y)^3,x+y=t);

a
( %o20) x − 3 t3 + t2

in
Para finalizar con esta guı́a rápida de Maxima veamos el uso de uno de los comandos más comunes de
estos programas, y que tiene que ver con la solución de ecuaciones.
(%i21)ecu:3*x^2+2*x+x^3-x^2=2*x^2;

m
( %o21) x3 + 2 x2 + 2 x = 2 x2
(%i22)sol:solve(ecu,x);

eli
h √ √ i
( %o22) x = − 2 %i, x = 2 %i, x = 0

Recordemos que %i es la notación para el imaginario i.


Si necesitamos aislar una de las soluciones usamos el comando rhs (de right-hand side):
Pr
(%i23)rhs(part(sol,1)); rhs(part(sol,2));

− 2 %i
( %o23) √
( %o24) 2 %i

Para un sistema de ecuaciones, digamos, dos ecuaciones con dos incógnitas:


or

(%i25)ecu1:x^2+y^2=1;

( %o25) y 2 + x2 = 1
ad

(%i26)ecu2:(x-2)^2+(y-1)^2=4;
2 2
( %o26) (y − 1) + (x − 2) = 4
(%i27)solve([ecu1,ecu2],[x,y]);
rr

  
4 3
( %o27) x = , y = − , [x = 0, y = 1]
5 5
Cuando el sistema no tiene solución Maxima responde de la siguiente manera
Bo

(%i28)solve([x+y=0,x+y=1],[x,y]);

387
12.2. MAXIMA: SINTAXIS BÁSICA

( %o28) [ ]

En el caso de un sistema que tiene más incógnitas que ecuaciones el programa utiliza los sı́mbolos
%r1 , %r2 ... para indicar los parámetros arbitrarios
(%i29)solve([x+y+z=9,x-y=2*z],[x,y,z]);
 
%r1 + 9 3 %r1 − 9
( %o29) x = ,y = − , z = %r1
2 2

r
En lugar de solve se puede recurrir a un comando diferente que hace lo mismo, pero que es más eficiente

a
desde el punto de vista de los recursos usados por el computador, el comando es linsolve para ecuaciones
lineales.

in
(%i30)ecus:[x+y+z+w=1,x-y+z-w=-2,x+y-w=0];

( %o30) [z + y + x + w = 1, z − y + x − w = −2, y + x − w = 0]
(%i31)linsolve(ecus,[x,y,z]);

m
 
4w − 3 2w − 3
( %o31) x = ,y = − ,z = 1 − 2w
2 2

eli
En el caso de polinómios de orden superior el resultado estará dado de forma aproximada:
(%i32)ec:x^7+x^5-x^3+x-2;

( %o32) x7 + x5 − x3 + x − 2
(%i33)allroots(ec);
Pr
[ x=0.766414088337633 %i+0.5507199727230275 ,
x=0.5507199727230275-0.766414088337633 %i ,
x=0.4922671445862202 %i - 0.9637112977011089 ,
x=-0.4922671445862202 %i -0.9637112977011089 ,
or

x=1.381985877916414 %i -0.08700867502191806 ,
x=-1.381985877916414 %i -0.08700867502191806 ,
x=0.9999999999999988 ]
ad

(%i34)realroots(ec);
( %o34) [x = 1]

Otro tipo de ecuaciones a resolver son las ecuaciones diferenciales. Veamos como funciona con la ecuaciones
rr

diferenciales ordinarias
(%i35)ecd:(2*x+1)*’diff(y,x)+y*(x-1)=0;
Bo

 
d
( %o35) (2 x + 1) y + (x − 1) y = 0
dx
(%i36)ode2(ecd,y,x);

388
12.2. MAXIMA: SINTAXIS BÁSICA

3 log(2 x+1)
−x
( %o36) y = %c e 4 2

Por ser una ecuación diferencial de primer orden debe aparecer una constante en la solución. La constante
aquı́ es denotada por “ %c”.
(%i37)ecd2:’diff(y,x,2)-3*’diff(y,x)+2*y=x;

d2
 
d
( %o37) y−3 y + 2y = x
d x2 dx

r
(%i38)ode2(ecd2,y,x);

a
2x + 3
( %o38) y = %k1 e2 x + %k2 ex +
4

in
Para el caso de que se tengan condiciones iniciales utilizamos ic2 para indicar las condiciones
(%i39)ic2(%o38,x=0,y=0,diff(y,x)=1);

5 e2 x

m
2x + 3
( %o39) y = − 2 ex +
4 4
Y para valores de contorno bc2

eli
(%i40)bc2(%o38,x=0,y=0,x=1,y=0);

(3 e − 5) e2 x 3 e2 − 5 ex 2x + 3
( %o40) y = − +
4 e2 − 4 e 4 e2 − 4 e 4
Pr
Existe el comando desolve para resolver también ecuaciones o sistemas de ecuaciones diferenciales or-
dinarias lineales utilizando transformadas de Laplace. Trabaja de manera parecida a ode2 pero se necesita
especificar la dependencia de las funciones con las variables independientes.
(%i41)ecd3:’diff(y(x),x,2)-y(x)=2*x;

d2
( %o41) y (x) − y (x) = 2 x
d x2
or

(%i42)desolve(ecd3,[y(x)]);

ex ddx y (x) x=0 + y (0) + 2 e−x d
 
dx y (x) x=0 − y (0) + 2
( %o42) y (x) = − − 2x
2 2
ad

Si tenemos condiciones iniciales en x = 0 entonces podemos escribir:


(%i43)atvalue(y(x),x=0,1); atvalue(diff(y(x),x),x=0,2);

( %o43) 1
rr

( %o44) 2
(%i45)desolve(ecd3,[y(x)]);
Bo

5 ex 3 e−x
( %o45) y (x) = − − 2x
2 2
Si desolve no encuentra una solución, entonces devuelve “false”.

389
12.2. MAXIMA: SINTAXIS BÁSICA

Veamos un ejemplo de un sistema de ecuaciones diferenciales


(%i46)ecd_1: ’diff(f(x),x)=’diff(g(x),x)+sin(x);

d d
( %o46) f (x) = g (x) + sin x
dx dx
(%i47)ecd_2: ’diff(g(x),x,2)=’diff(f(x),x)-cos(x);

d2 d
( %o47) g (x) = f (x) − cos x

r
dx 2 dx
(%i48)atvalue(’diff(g(x),x),x=0,a)$ atvalue(f(x),x=0,b)$ atvalue(g(x),x=0,c)$

a
(%i51)desolve([ecd_1, ecd_2], [f(x),g(x)]);

in
( %o51) [f (x) = a ex + b − a, g (x) = cos x + a ex + c − a − 1]
(%i52)kill(all)$
Operaciones básicas con matrices:

m
(%i1) A:matrix([1,2,3],[4,5,6],[7,8,9]);B:matrix([9,8,7],[6,5,4],[3,2,1]);
 
1 2 3

eli
( %o1) 4 5 6
7 8 9
9 8 7
( %o2) 6 5 4
3 2 1
(%i3) A+B;
Pr
 
10 10 10
( %o3) 10 10 10
10 10 10
El producto ordinario de matrices:
or

(%i4) A.B;
 
30 24 18
( %o4)  84 69 54
ad

138 114 90
El producto elemento a elemento
(%i5) A*B;
 
9 16 21
rr

( %o5) 24 25 24


21 16 9
El cociente elemento a elemento
Bo

(%i6) A/B;

390
12.2. MAXIMA: SINTAXIS BÁSICA

1 1 3

9 4 7
( %o6) 2 1 3
3 2
7
3 4 9
El producto por un escalar:
(%i7) n*A;
 
n 2n 3n
( %o7) 4 n 5 n 6 n

r
7n 8n 9n

a
Podemos generar matrices de muchas maneras
(%i8) a[i,j]:=i^2 + j^2$

in
(%i9) A:genmatrix(a,4,4);
 
2 5 10 17
5 8 13 20

m
( %o9) 10 13 18 25

17 20 25 32
También de manera interactiva:

eli
(%i10)n:3$
(%i11)M:entermatrix(n,n)$ Pr
Is the matrix 1. Diagonal 2. Symmetric 3. Antisymmetric 4. General
Answer 1, 2, 3 or 4 : 1;
Row 1 Column 1: (x+y)^n$
Row 2 Column 2: (x-y)^(n+1)$
Row 3 Column 3: (x.y)^(n-1)$
Matrix entered.
or

(%i12)M;
 3 
(y + x) 0 0
4
( %o12)  0 (x − y) 0 
ad

2
0 0 (x · y)
La matriz identidad de tamaño n x n usamos el comando ident(n), como mostramos a continuación
(%i13)ident(4);
rr

 
1 0 0 0
0 1 0 0
( %o13) 
0 0 1

0
0 0 0 1
Bo

391
12.2. MAXIMA: SINTAXIS BÁSICA

12.2.2. Bibliotecas
No todos los comandos están disponibles en la memoria cuando el programa es iniciado. Sólo los coman-
dos estándar son cargados automáticamente. Pero podemos contar con funciones adicionales para trabajar
cargando al programa los diferentes paquetes, módulos o librerı́as que dispone Maxima. Por ejemplo, el
paquete vect nos permite introducir vectores y operar con ellos.
El paquete vect debe entonces ser previamente cargado y se hace de la manera siguiente:
(%i1) load(vect)$

r
Las operaciones básicas de suma, resta, multiplicación y multiplicación por escalares de vectores las

a
podemos ver a continuación, pero primero debemos saber como introducir los vectores al programa.
Por ejemplo, para los vectores a = 2i + 4j + 6k, b = 5i + 7j + 9k y c = i + 3j, tenemos:

in
(%i2) a:[2,4,6];
( %o2) [2, 4, 6]
(%i3) b:[5,7,9];

m
( %o3) [5, 7, 9]
(%i4) c:[1,3,0];

eli
( %o4) [1, 3, 0]
(%i5) a+b+c;
( %o5) [8, 14, 15]
(%i6) 3*a+5*b-c;
Pr
( %o6) [30, 44, 63]

Si queremos calcular el módulo de los vectores podemos hacerlo definiendo una función: la función módulo,
como mostramos a continuación:
or

(%i7) modulo(a):=sqrt(a.a);

( %o7) modulo(a) := a.a
(%i8) modulo(a); modulo(b); modulo(c);
ad


( %o8) 2√ 14
( %o9) √155
( %10) 10
rr

Para el producto escalar usamos un punto


(%i11)a.b;
Bo

( %11) 92

Mientras que para el producto vectorial debemos usar la tilde ∼ y escribir lo siguiente

392
12.2. MAXIMA: SINTAXIS BÁSICA

a r
in
m
eli
Figura 12.2: Curvas integrales para y 0 = −x + e−y

(%i12)express(a~b);
Pr
( %o12) [−6, 12, −6]
(%i13)express(b~a);

( %o13) [6, −12, 6]


or

De manera que el producto triple lo podemos calcular asi:


(%i14)c.(express(a~b));
ad

( %o14) 30

Otra librerı́a que podemos explorar es plotdf que nos permite realizar gráficos del tipo y 0 = f (x, y) y
hacernos una idea de cómo es la solución de ésta ecuación diferencial.
rr

(%i1) load(plotdf)$

La librerı́a plotdf nos permite estudiar los campos de direcciones y las curvas integrales a través del
estudio de las pendientes. Veamos la siguiente ecuación diferencial
Bo

y 0 = −x + e−y

su solución, de manera gráfica, es decir los campos de direcciones lo podemos obtener escribiendo el siguiente

393
12.2. MAXIMA: SINTAXIS BÁSICA

a r
in
m
eli
Figura 12.3: Curva integrales para y 0 = −x + e−y y que pasa por el punto (2, 3)

comando.
Pr
(%i2) plotdf(-x+exp(-y));

La gráfica que resulta puede verse en la Figura 12.2 y cada curva integral (curvas en rojo) se obtiene
haciendo un “click”sobre un punto de la gráfica, esto generará la curva integral que pasa por ese punto.
Por otra parte, existen varias opciones para el comando plotdf. Supongamos que queremos la trayectoria
or

que pase por el punto especı́fico (2, 3). Para tal fin escribimos
(%i3) plotdf(-x+exp(-y),[trajectory_at,2,3]);

Y la gráfica obtenida puede verse en la Figura 12.3.


ad

También nos podemos encontrar con que la ecuación diferencial depende de algún parámetro, digamos
κ. Por ejemplo
y 0 = −x + κe−y
y nos gustarı́a obtener una gráfica para algún valor del parámetro en partı́cular, digamos κ = −0,5. Entonces
rr

podemos escribir
(%i4) plotdf(-x+exp(-kappa*y),[parameters,"kappa=-0.5"]);
Bo

O, si queremos recorrer, en una misma figura, los diferentes valores del parámetro usamos la opción
sliders, como se muestra a continuación

394
12.2. MAXIMA: SINTAXIS BÁSICA

a r
in
m
eli
Figura 12.4: Curva integrales para y 0 = −x + κe−y y para diferentes valores de κ.
Pr
(%i5) plotdf(-x+exp(-kappa*y),[parameters,"kappa=-0.5"],[sliders,"kappa=-3:3"]);

La gráfica que se obtiene se muestra en la Figura 12.4, y como se puede ver, en la parte inferior aparece un
botón deslizante y el valor del parámetro κ. Al deslizar el botón, estaremos cambiando el valor del parámetro
que en este caso variará entre −3 y 3, podremos apreciar entonces como los campos de direcciones y las curvas
integrales seleccionadas cambian.
or
ad
rr
Bo

395
12.2. MAXIMA: SINTAXIS BÁSICA

12.2.3. Maxima en modo texto


Es posible utilizar Maxima en un computador que funcione bajo alguno de los diferentes versiones de
sistemas operativos tipo UNIX, como por ejemplo Linux, esto lo podemos hacer cuando no queremos utilizar
el ambiente gráfico. Podemos recurrir al ambiente de texto escribiendo el comando maxima en un terminal
de nuestro computador, esto hará que entremos en un ambiente de cálculo que funcionará exclusivamente en
modo texto y aparecerá, luego de una bienvenida, el aviso de espera o prompt. Para finalizar una sesión en
Maxima se utiliza el comando quit().
Esta posibilidad que ofrece el programa es muy conveniente a la hora de realizar grandes cálculos ya que

r
podemos dejar el proceso en modo “background” y utilizar el computador en otra actividad.
Al entrar en este modo al programa tendremos un mensaje como el que se muestra a continuación y

a
donde aprovecharemos de hacer un par de cálculos a modo de ejemplo.

in
Obatala%maxima
Maxima 5.36.1 [Link]
using Lisp SBCL 1.2.10
Distributed under the GNU Public License. See the file COPYING.

m
Dedicated to the memory of William Schelter.
The function bug_report() provides bug reporting information.
(%i1) integrate( tan(x), x );
(%o1) log(sec(x))

eli
(%i2) float(sqrt(%pi));
(%o2) 1.772453850905516
(%i3) quit();
Sobre UNIX podemos utilizar los archivos de entradas y salidas estándar para leer e imprimir información
en el terminal: <, >, |.
Pr
Obatala% maxima < [Link]
Con esta instrucción Maxima ejecutará todos los comandos que se encuentran en el archivo de texto
[Link] e irá mostrando los resultados en pantalla
En la siguiente instrucción Maxima ejecutará todos los comandos que se encuentran en el archivo de
texto [Link] pero escribirá los resultados en el archivo de salida llamado [Link]
or

Obatala% maxima < [Link] > [Link]


También se puede hacer que todos los comandos del archivo sean ejecutados para luego ser enviados al
terminal pero paginados.
ad

Obatala% maxima < [Link] | more


Maxima puede ser detenido temporalmente con el comando “Control Z” de manera que para poner
procesos en “background” se procede de la manera usual:
rr

Obatala% maxima < [Link] > [Link]


^Z
Suspended
Bo

Obatala%> bg
[2] maxima < [Link] > [Link] &

Obatala%

396
12.2. MAXIMA: SINTAXIS BÁSICA

O si lo preferimos, y de manera equivalente, podemos escribir la instrucción pero ponemos al final &

Obatala% maxima < [Link] > [Link] &


[1] 5114

12.2.4. Invocando la ayuda


El ambiente wxMaxima permite acceder al manual de ayuda fácilmente visible en la barra de herra-
mientas, parte superior de la ventana. Pero también si conocemos el comando podemos escribir, por ejemplo:

r
(%i1) describe(diff);

a
0: diff (Functions and Variables for Differentiation)

in
1: diff <1> (Functions and Variables for Differentiation)
2: diff <2> (Functions and Variables for itensor)
Enter space-separated numbers, ‘all’ or ‘none’:
Al seleccionar una de las opciones, por ejemplo si escribimos 1 después de los dos puntos, aparecerá la

m
descripción completa del comando:

-- Function: diff
diff (<expr>, <x_1>, <n_1>, ..., <x_m>, <n_m>)

eli
diff (<expr>, <x>, <n>)
diff (<expr>, <x>)
diff (<expr>)
Returns the derivative or differential of <expr> with respect to
some or all variables in <expr>.
Pr
’diff (<expr>, <x>, <n>)’ returns the <n>’th derivative of <expr>
with respect to <x>.
’diff (<expr>, <x_1>, <n_1>, ..., <x_m>, <n_m>)’ returns the mixed
partial derivative of <expr> with respect to <x_1>, ..., <x_m>. It
is equivalent to ’diff (... (diff (<expr>, <x_m>, <n_m>) ...),
<x_1>, <n_1>)’.
or

’diff (<expr>, <x>)’ returns the first derivative of <expr> with


respect to the variable <x>.
’diff (<expr>)’ returns the total differential of <expr>, that is,
the sum of the derivatives of <expr> with respect to each its
ad

variables times the differential ’del’ of each variable. No


further simplification of ’del’ is offered.
The noun form of ’diff’ is required in some contexts, such as
stating a differential equation. In these cases, ’diff’ may be
quoted (as ’’diff’) to yield the noun form instead of carrying out
rr

the differentiation.....

There are also some inexact matches for ‘diff’.


Try ‘?? diff’ to see them.
Bo

También podemos utilizar:


(%i2) apropos("diff");

397
12.2. MAXIMA: SINTAXIS BÁSICA

[covdiff,diff,maxtaydiff,pdiff_diff_var_names,pdiff_prime_limit...]
O pedirle al programa algunos ejemplos
(%i3) example(diff);

(%i4) kill(f,g,h,x,y)
(%o4) done
(%i5) diff(sin(x)+x^3+2*x^2,x)

r
(%o5) cos(x)+3*x^2+4*x
(%i6) diff(sin(x)*cos(x),x)

a
(%o6) cos(x)^2-sin(x)^2
(%i7) diff(sin(x)*cos(x),x,2)

in
(%o7) -4*cos(x)*sin(x)
.
.
.

m
Las ayudas completas de Maxima se pueden consultar en: [Link]

12.2.5. Ejercicios

eli
1. Calcule:
a) los 70 primeros decimales del número e
b) el arco coseno hiperbólico de 1
c) la expansión de sin(2 arctan(x))
Pr
2. Para la siguiente función
(x + 1)3
f (x) = √
x2 − 1
Calcule
∂f (x) ∂f (x)
or

a) ∂x , ∂x2
b)
Z Z 4
f (x)dx , f (x)dx
2
ad

c)
lı́m f (x) , lı́m f (x) , lı́m f (x)
x→∞ x→−∞ x→0

d ) Haga un gráfico de f (x) para valores de x ∈ [−5, 5].


rr

3. Encuentre las raı́ces de


p = x7 + x5 + 2x + x

4. Resuelva la siguiente ecuación diferencial


Bo

dy(x)
x = y(x) ln(xy(x)) − y(x);
dx
y haga una gráfica del campo de direcciones que muestre algunas curvas integrales.

398
12.2. MAXIMA: SINTAXIS BÁSICA

5. Resuelva la siguiente ecuación diferencial

d2 y(t)  dy(t) dy(t)


− 1 − y(t)2 + y(t) = 0 , con: y(0) = 0 , = −0,1
d2 t dt dt

6. Realice los ejercicios de la sección ?? con la ayuda de la librerı́a vect de Maxima.


7. En un archivo de texto escriba las siguientes instrucciones que tienen que ver con operaciones de
números complejos:

r
z_1=1+2%i;

a
z_2=3+4%i;
z_1+z_2;

in
z_1*z_2;
expand(%);
z_1/z_2;
rectform(%);

m
polarform(%);

guarde el archivo con el nombre [Link] y en un terminal de su computador, y en el mismo


directorio donde está el archivo escriba:

eli
localhost% maxima < [Link] > [Link] &

y verifique que en el archivo [Link] se haya realizado los cálculos.


Pr
or
ad
rr
Bo

399
Bibliografı́a

a r
in
[James Brown, Ruel Churchill 1999] James Brown and Ruel Churchill (1999) Complex Variables and
Applications. (McGraw-Hill Education; 9th Edición)

m
[Konrad Knopp 1996] Konrad Knopp (1996) Theory of Functions. (Dover Publications )
[Aleksandrov Kolmogorov y Lavrentiev 1999] A. D. Aleksandrov, A. N. Kolmogorov y M. A. Lavrentiev
(1999) Mathematics: Its Content, Methods and Meaning. (Dover Publications, New York ) Existe

eli
traducción por Editorial Alianza Universidad.
[Arfken, Weber y Weber 2000] Arfken, G. B., Weber, H., y Weber, H.J. (2000) Mathematical Methods
for Physicists 5ta Edición (Academic Press, Nueva York )
Pr
[1] Byron, F.W. y Fuller W.F. (1970) Mathematics of Classical and Quantum Physics (Dover Pu-
blications, New York )

[Cushing 1975] Cushing, J. (1975) Applied Analytical Mathematics for Physical Sciences (John
Wiley & Sons, New York )
[Hamming 1973] Hamming R.W. (1973) Numerical Methods For Scientist and Engineers, 2nd ed.
or

(Dover, New York.)

[Hassani 1991] Hassani, S. (1991) Foundations of Mathematical Physics (Prentice Hall, International
Edition, London:)
ad

[Lebedev 1972] Lebedev, N.N. (1972) Special Functions & Their Applications (Dover Publications,
New York )

[[Link] URL] The Mathematical Atlas [Link]


[Richards 2002] Richards, D. (2002) Advanced Mathematical Methods with MAPLE (Cambridge
rr

University Press Cambridge)


[Riley Hobson y Bence 2002] Riley, K.F., Hobson, M.P. y Bence, S.J. (2002) Mathematical Methods for
Physics and Engineering (Cambridge University Press Cambridge)
Bo

[Weisstein URL] Weisstein, E. W., MathWorld [Link]

400

También podría gustarte